#SVM

2026-01-28

Почему Andrej Karpathy использует SVM в 2026 году (и вам тоже стоит)

На arXiv каждый день публикуются сотни статей по машинному обучению. Читать всё — нереально, а пропустить что-то важное — обидно. Andrej Karpathy, бывший Director of AI в Tesla и соавтор курса Stanford CS231n, решил эту проблему неожиданным способом. Он выбрал не BERT, не GPT и не какой-нибудь модный трансформер. Он остановился на добром старом SVM — алгоритме, которому уже несколько десятков лет. И знаете что? Это работает настолько хорошо, что используется даже в академических системах. В этой статье мы разберём, как устроено его решение, почему «примитивный» подход работает лучше сложных нейросетей, и когда вам тоже стоит выбрать SVM вместо трансформера. Давайте разбираться!

habr.com/ru/articles/990386/

#SVM #Andrej_Karpathy #TFIDF #машинное_обучение #Support_Vector_Machine #нейросети #алгоритмы_классификации

Hasan Ali Gültekinhasanaligultekin@me.dm
2026-01-23

How to Use Support Vector Machines (SVM) in Python

This post shows an end-to-end workflow: prepare features, tune C/γ safely, validate with the right metrics for imbalance, and visualize how the boundary changes—so the model is usable for real triage.

:medium: hasanaligultekin.medium.com/ho

#Python #MachineLearning #SVM #FraudDetection #DataScience #medium #ai #programming

@ai @programming @towardsdatascience
@pythonclcoding @theartificialintelligence @socialsciences @medium

Jerry Watsonjerry0020
2025-12-04

When You Need Clustering or SVM Developers for ML Projects

Not sure when your ML project requires expert help? Clustering specialists and SVM developers can make a huge difference when working with complex datasets, uncovering hidden patterns, or building high-accuracy predictive models.

📌 Read the full article on the Amplework blog: amplework.com/blog/when-you-ne

Olusegun OyekanmiOluOyekanmi@flipboard.com
2025-11-26

Prediction Of Cryptocurrency Prices Using LSTM, SVM And Polynomial Regre... https://youtu.be/ElBgDXy4nBw?si=PccGzt2RHB_MZWX- via @YouTube #svm #lstm #forecasting #polynomialregression #cryptocurrency #supportvectormachine

youtube.com/watch?v=ElBgDXy4nB

Posted into NOSABLOGGISTA @nosabloggista-OluOyekanmi

2025-10-31

Im Inter­view mit Frau Ursu­la Scha­de, eine Urber­li­ne­rin Jahr­gang 1947 und Wed­din­ge­rin par excel­lence, spre­che ich über ihre 50 Jah­re im Ehren­amt, die sie hier geleis­tet hat. Sie lebt von nun 78 Lebens­jah­ren bereits 61 Jah­re im Wed­ding, genau­er im Gesund­brun­nen nahe der Born­hol­mer Stra­ße, dort, wo damals die gro­ßen Grenz­schil­der stan­den. 50 Jah­re lang hat sie sich für das Sozia­le in unse­rer Stadt und für unse­re Gesell­schaft eingesetzt. 

[…]

https://weddingweiser.de/50-jahre-ehrenamtlich-dabei/

Kolumne Ü 60
GripNewsGripNews
2025-08-06

🌘 Embedding-Aware 量子-古典 SVM 於可擴展量子機器學習
➤ 借鑒 Transformer 嵌入,開創可擴展量子 SVM 新紀元
arxiv.org/abs/2508.00024
本研究提出一種創新的量子-古典機器學習方法,透過結合視覺 Transformer (ViT) 的預訓練嵌入與類別平衡的 k-means 降維技術,解決了現有量子支援向量機 (QSVM) 在處理高維量子態及硬體限制時的擴展性挑戰。實驗結果顯示,ViT 嵌入能夠顯著提升量子優勢,在 Fashion-MNIST 和 MNIST 資料集上分別帶來高達 8.02% 和 4.42% 的準確度提升,而傳統卷積神經網路 (CNN) 特徵在此方面則表現不佳。研究進一步利用 16 個量子位元的張量網路模擬(透過 cuTensorNet 實現),提供了首個系統性的證據,表明量子核優勢的表現與嵌入選擇有著關鍵的依賴關係,並揭示了 Transformer 的注意力機制與量子特徵空間之間存在重要
Transformer

Client Info

Server: https://mastodon.social
Version: 2025.07
Repository: https://github.com/cyevgeniy/lmst