Pentru mai multe informații despre programele profesionale și postuniversitare de inteligență artificială de la Stanford, vizitați: https://stanford.io/3w46jar
Această prelegere acoperă:
1. Cursul (10min)
2. Limbajul uman și sensul cuvântului (15 min)
3. Introducere algoritmului Word2vec (15 min)
4. Gradienți funcției obiectiv Word2vec (25 min)
5. Elemente de bază ale optimizării (5 min)
6. Privirea vectorilor de cuvinte (10 min sau mai puțin)
Învățare cheie: Rezultatul (cu adevărat surprinzător!) că semnificația cuvântului poate fi reprezentată destul de bine de un vector mare de numere reale.
Acest curs va preda:
1. Bazele metodelor moderne eficiente de învățare profundă aplicate NLP. În primul rând, elementele de bază, apoi metodele cheie folosite în NLP: rețele recurente, atenție, transformatoare etc.
2. O înțelegere generală a limbilor umane și a dificultăților de înțelegere și producere a acestora
3. O înțelegere a capacității de a construi sisteme (în Pytorch) pentru unele dintre problemele majore din NLP. Sensul cuvântului, analiza dependențelor, traducerea automată, răspunsul la întrebări.
Pentru a afla mai multe despre acest curs, vizitați: https://online.stanford.edu/courses/cs224n-natural-language-processing-deep-learning
Pentru a urmări programul cursului și programa, vizitați: http://web.stanford.edu/class/cs224n/
Profesorul Christopher Manning
Thomas M. Siebel Profesor în Machine Learning, Profesor de Lingvistică și Informatică
Director, Stanford Artificial Intelligence Laboratory (SAIL)
0:00 Introducere
1:43 Goluri
3:10 Limbajul uman
10:07 Google Translate
10:43 GPT
14:13 Adică
16:19 Wordnet
19:11 Relații cu cuvintele
20:27 Semantică distribuțională
23:33 Cuvinte încorporate
27:31 Cuvânt tovec
37:55 Cum să minimizezi pierderile
39:55 Tablă interactivă
41:10 Gradient
48:50 Regula lanțului