LLM Course documentation

Quiz de sfârșit de capitol

Hugging Face's logo
Join the Hugging Face community

and get access to the augmented documentation experience

to get started

Quiz de sfârșit de capitol

Ask a Question

Acest capitol a acoperit o mulțime de subiecte! Nu vă faceți griji dacă nu ați înțeles toate detaliile; capitolele următoare vă vor ajuta să înțelegeți cum funcționează lucrurile în mecanismele lor interne.

Mai întâi, însă, să testăm ceea ce ați învățat în acest capitol!

1. Explorați Hub-ul și căutați checkpoint-ul roberta-large-mnli . Ce sarcină îndeplinește acesta?

2. Ce va returna următorul cod?

from transformers import pipeline

ner = pipeline("ner", grouped_entities=True)
ner("My name is Sylvain and I work at Hugging Face in Brooklyn.")

3. Ce ar trebui să înlocuiască … în acest exemplu de cod?

from transformers import pipeline

filler = pipeline("fill-mask", model="bert-base-cased")
result = filler("...")

4. De ce nu va funcționa acest cod?

from transformers import pipeline

classifier = pipeline("zero-shot-classification")
result = classifier("This is a course about the Transformers library")

5. Ce înseamnă „transfer learning”?

6. Adevărat sau fals? De obicei, un model lingvistic nu are nevoie de etichete pentru preinstruire.

7. Selectați propoziția care descrie cel mai bine termenii „model”, „arhitectură” și „greutăți”.

8. Care dintre aceste tipuri de modele le-ați folosi pentru a completa prompt-urile cu text generat?

9. Care dintre aceste tipuri de modele le-ați folosi pentru a rezuma texte?

10. Care dintre aceste tipuri de modele le-ați utiliza pentru a clasifica intrările de text în funcție de anumite etichete?

11. Ce sursă posibilă poate avea prejudecata observată într-un model?

Update on GitHub

Rezumat