null
US
Iniciar Sesión
Regístrate Gratis
Registro
Hemos detectado que no tienes habilitado Javascript en tu navegador. La naturaleza dinámica de nuestro sitio requiere que Javascript esté habilitado para un funcionamiento adecuado. Por favor lee nuestros
términos y condiciones
para más información.
Siguiente
Copiar y Editar
¡Debes iniciar sesión para completar esta acción!
Regístrate gratis
8225961
Word2Vec
Descripción
Mind map - presentation about W2V
Sin etiquetas
word2vec
neuralnetwork
mikolov
computer science
Mapa Mental por
Elisa Antolli
, actualizado hace más de 1 año
Más
Menos
Creado por
Elisa Antolli
hace casi 8 años
36
0
0
Resumen del Recurso
Word2Vec
RNN
semplice -> not DNN
utile per una DNN
3 layers: input, hidden, output
spazio vettoriale: similitudine matemat.
rappresentazione distribuita
rappresentazioni solo 1-to-N sono poche informative
tante dimensioni che rappresentano "features"
similitudine tra le "feature"
con le operazioni giuste posso trovare similitudine SEMANTICHE E SINTATICHE
es.: [vector(“King”) - vector(“man”) + vector(“woman”)]
cosine distance
Word Embedding
diverso dai modelli classici come "n-gram" poichè questi sono discreti
modello simile ad un "autoencoder"
codifica le parole in vettori: non si usano string (of course)
si cerca di ricostruire ciò che è dato come input
funzione per la codifica e per la decodifca: noi abbiamo solo encoding
2 approcci
Adjunto:
Word Embedding approaches
Continuous Bag of Words
corpus; vocabolario; frasi; parola target; contesto.
Modello - 3 layers: Input, Hidden, Output
INPUT: contesto
OUTPUT: parola focus
Obiettivo: Massimizzare la probabilità condizionata
HIDDEN: media
"C" input, somma delle linne "1" e divisione per C
funzione di attivazione lineare
Skip-gram
Modello - 3 layers: Input, Hidden, Output
INPUT: parola focus
OUTPUT: contesto
Obiettivo: massimizzare l'average log probability - contesti >> parola
T = lunghezza sentenza (w1,w2,...,wT)
c = lunghezza max. contesto
j = indice spostamento
wt = parola centrale
Calcolo della probabilità p( wt+j | wt )
softmax
Pro: semplice
Contro: Costo comp. proporzionale alla dim. vocabolario (C)
hierarchical softmax
limita n° vettori output che sono aggiornati
rappresentazione in albero binario
Pro: invece di valutare "v" parole per vettore (C*v), valuto log(v)
negative sampling
Recursos multimedia adjuntos
65d3f461-5586-4bfd-b691-22659a687b8f (image/jpg)
Mostrar resumen completo
Ocultar resumen completo
¿Quieres crear tus propios
Mapas Mentales
gratis
con GoConqr?
Más información
.
Similar
Computing Hardware - CPU and Memory
ollietablet123
SFDC App Builder 2
Parker Webb-Mitchell
Data Types
Jacob Sedore
Intake7 BIM L1
Stanley Chia
Software Processes
Nurul Aiman Abdu
Design Patterns
Erica Solum
CCNA Answers – CCNA Exam
Abdul Demir
Abstraction
Shannon Anderson-Rush
Spyware
Sam2
HTTPS explained with Carrier Pigeons
Shannon Anderson-Rush
Data Analytics
anelvr
Explorar la Librería