LLM Course documentation
Utilizarea de bază este completă!
0. Configurare
1. Modele Transformer
2. Folosirea 🤗 Transformers
IntroducereÎn spatele pipeline-uluiModeleTokenizatoareGestionarea secvențelor multipleSă punem totul cap la capUtilizarea de bază este completă!Implementarea optimizată a inferențeiQuiz la final de capitol
3. Fine-tuning unui model preantrenat
4. Partajarea modelelor și a tokenizatoarelor
5. Biblioteca 🤗 Datasets
6. Biblioteca 🤗 Tokenizers
7. Sarcini clasice NLP
8. Cum să ceri ajutor
9. Construirea și partajarea demo-urilor
10. Curățați seturi de date de înaltă calitate
11. Fine-tuning pentru modele mari de limbaj
12. Construiește Modele de Raționament new
Evenimente Curs
Utilizarea de bază este completă!
Ați făcut o treabă excelentă dacă ați urmat cursul până aici! Pentru a sintetiza, în acest capitol:- Am învățat elementele de bază ale unui model Transformer.
- Am învățat ce formează un pipeline de tokenizare.
- Am văzut cum să utilizați un model Transformer în practică.
- Am învățat cum să folosiți un tokenizer pentru a converti textul în tensori care sunt inteligibili pentru model.
- Am configurat împreună un tokenizer și un model pentru a ajunge de la text la predicții.
- Am învățat limitările ID-urilor de intrare și am învățat despre attention masks.
- Ne-am antrenat cu ajutorul metodelor versatile și configurabile ale tokenizatorului.
De acum înainte, ar trebui să puteți naviga liber prin documentația 🤗 Transformers: vocabularul va suna familiar și ați văzut deja metodele pe care le veți utiliza în majoritatea timpului.
Update on GitHub