Preguntas etiquetadas con deep-learning

El aprendizaje profundo es un área del aprendizaje automático cuyo objetivo es aprender funciones complejas utilizando arquitecturas de redes neuronales especiales que son "profundas" (constan de muchas capas). Esta etiqueta debe usarse para preguntas sobre la implementación de arquitecturas de aprendizaje profundo. Las preguntas generales sobre aprendizaje automático deben etiquetarse como "aprendizaje automático". Es útil incluir una etiqueta para la biblioteca de software relevante (por ejemplo, "keras", "tensorflow", "pytorch", "fast.ai", etc.).




6
Usar una inserción de palabras previamente entrenadas (word2vec o Glove) en TensorFlow
Recientemente revisé una implementación interesante para la clasificación de texto convolucional . Sin embargo, todo el código de TensorFlow que he revisado utiliza vectores de incrustación aleatorios (no entrenados previamente) como los siguientes: with tf.device('/cpu:0'), tf.name_scope("embedding"): W = tf.Variable( tf.random_uniform([vocab_size, embedding_size], -1.0, 1.0), name="W") self.embedded_chars = tf.nn.embedding_lookup(W, self.input_x) self.embedded_chars_expanded = …

10
¿Cómo agregar regularizaciones en TensorFlow?
Encontré en muchos códigos de redes neuronales disponibles implementados con TensorFlow que los términos de regularización a menudo se implementan agregando manualmente un término adicional al valor de pérdida. Mis preguntas son: ¿Existe una forma de regularización más elegante o recomendada que hacerlo manualmente? También encuentro que get_variabletiene un argumento …

5
¿Por qué “empaquetamos” las secuencias en pytorch?
Estaba tratando de replicar Cómo usar el empaquetado para entradas de secuencia de longitud variable para rnn, pero supongo que primero necesito entender por qué necesitamos "empaquetar" la secuencia. Entiendo por qué tenemos que "rellenarlos", pero ¿por qué es necesario "empacar" pack_padded_sequence? ¡Cualquier explicación de alto nivel será apreciada!

6
PyTorch - contiguo ()
Estaba revisando este ejemplo de un modelo de lenguaje LSTM en github (enlace) . Lo que hace en general me queda bastante claro. Pero todavía estoy luchando por entender qué contiguous()hace la llamada , lo que ocurre varias veces en el código. Por ejemplo, en la línea 74/75 de la …

5
¿Cuál es el uso de verbose en Keras al validar el modelo?
Estoy ejecutando el modelo LSTM por primera vez. Aquí está mi modelo: opt = Adam(0.002) inp = Input(...) print(inp) x = Embedding(....)(inp) x = LSTM(...)(x) x = BatchNormalization()(x) pred = Dense(5,activation='softmax')(x) model = Model(inp,pred) model.compile(....) idx = np.random.permutation(X_train.shape[0]) model.fit(X_train[idx], y_train[idx], nb_epoch=1, batch_size=128, verbose=1) ¿Cuál es el uso de verbose durante …

4
¿Qué significa global_step en Tensorflow?
En este es el código del tutorial del sitio web de TensorFlow, ¿Alguien podría ayudar a explicar lo que global_stepsignifica? Encontré en el sitio web de Tensorflow escrito que el paso global se usa para contar los pasos de entrenamiento , pero no entiendo qué significa exactamente. Además, ¿qué significa …




4
¿Cómo descomprimir el archivo pkl?
Tengo un archivo pkl del conjunto de datos MNIST, que consta de imágenes de dígitos escritas a mano. Me gustaría echar un vistazo a cada una de esas imágenes de dígitos, así que necesito descomprimir el archivo pkl, excepto que no puedo averiguar cómo. ¿Hay alguna forma de descomprimir / …



Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.