Machine Learning (ML) reprezintă un set de tehnici și algoritmi care permit computerelor să învețe și să îmbunătățească performanța pe baza datelor, fără a fi explicit programate pentru fiecare sarcină. Iată o descriere a principalelor categorii și exemple de algoritmi:
1. Supervised Learning (Învățare supravegheată)
Se utilizează un set de date etichetate pentru antrenare. Modelul învață să prezică rezultatele pe baza intrărilor.
- Regresie liniară: Folosită pentru a prezice o valoare continuă (de ex., prețul unei case).
- Regresie logistică: Utilizată pentru clasificare binară (de ex., spam vs. non-spam).
- SVM (Support Vector Machines): Se folosește pentru clasificare sau regresie, încercând să găsească o hiperplan optim care separă clasele.
- Random Forest: Un algoritm bazat pe multiple arbori de decizie pentru clasificare sau regresie.
- KNN (K-Nearest Neighbors): Clasifică un punct în funcție de cele mai apropiate „k” puncte vecine.
2. Unsupervised Learning (Învățare nesupravegheată)
Folosită pentru a găsi tipare sau structuri ascunse în date neetichetate.
- Clustering (grupare): K-Means, DBSCAN, Hierarchical Clustering.
- PCA (Principal Component Analysis): Reduce dimensionalitatea datelor pentru vizualizare sau compresie.
- Autoencoders: Rețele neuronale utilizate pentru a învăța reprezentări mai compacte ale datelor.
3. Reinforcement Learning (Învățare prin întărire)
Un agent învață prin interacțiuni cu mediul să maximizeze o funcție de recompensă.
- Q-Learning: O metodă simplă bazată pe tabel.
- Deep Q-Networks (DQN): Folosesc rețele neuronale pentru a rezolva probleme complexe.
- PPO (Proximal Policy Optimization): Folosit în aplicații avansate, cum ar fi roboții sau jocurile.
4. Deep Learning
Aceasta este o subcategorie a ML care utilizează rețele neuronale profunde. Este populară datorită capacității de a lucra cu date complexe (imagini, text, sunet).
- CNN (Convolutional Neural Networks): Specializate pentru imagini.
- RNN (Recurrent Neural Networks): Folosite pentru date secvențiale (de ex., traduceri automate, predicții temporale).
- Transformer: Backbone-ul modelelor moderne de NLP (ex.: BERT, GPT).
Acronime în ML și explicații
- LLM (Large Language Model):
Modele de limbaj mari, precum GPT, BERT, sau PaLM, care sunt antrenate pe seturi masive de date pentru sarcini de prelucrare a limbajului natural (NLP). Exemple: ChatGPT, GPT-4. - NLP (Natural Language Processing):
Domeniul care se ocupă de prelucrarea textului și limbajului natural, incluzând traducerea, sumarizarea, și analiza sentimentelor. - BERT (Bidirectional Encoder Representations from Transformers):
Un model NLP bidirecțional care înțelege contextul cuvintelor dintr-un text, luând în considerare atât cuvintele precedente, cât și cele următoare. - CNN (Convolutional Neural Network):
Rețea neuronală folosită în recunoașterea imaginilor. Folosește straturi convoluționale pentru a detecta caracteristici. - RNN (Recurrent Neural Network):
Rețea neuronală pentru date secvențiale (ex. analiza seriilor temporale). - GAN (Generative Adversarial Network):
O metodă de generare a datelor noi (imagini, sunete) prin antrenarea unui generator și a unui discriminator. - AE (Autoencoder):
O rețea neuronală care învață să codifice datele într-o reprezentare mai compactă și apoi să le reconstruiască. - LSTM (Long Short-Term Memory):
O variantă a RNN care poate învăța relații de lungă durată în date temporale. - PCA (Principal Component Analysis):
Algoritm folosit pentru reducerea dimensionalității datelor complexe, păstrând variația maximă. - SVM (Support Vector Machine):
Algoritm pentru clasificare care găsește o margine optimă între clase. - RL (Reinforcement Learning):
Tehnică de învățare bazată pe recompense pentru agenți care interacționează cu un mediu. - XGBoost (Extreme Gradient Boosting):
O metodă de boosting folosită pentru regresii și clasificări foarte eficiente.