Cómo encontrar pesos para una medida de disimiliaridad


9

Quiero aprender (deducir) los pesos de los atributos para mi medida de disimilitud que puedo usar para la agrupación.

Tengo algunos ejemplos de pares de objetos que son "similares" (deben estar en el mismo grupo), así como algunos ejemplos ( c i , d i ) de pares de objetos que "no son similares" "(no debe estar en el mismo clúster). Cada objeto tiene una serie de atributos: si lo desea, podemos pensar en cada objeto como un vector d- dimensional de características, donde cada característica es un número entero no negativo. ¿Existen técnicas para usar tales ejemplos de objetos similares / diferentes para estimar a partir de ellos los pesos de características óptimos para una medida de disimilitud?(ai,bi)(ci,di)d

Si ayuda, en mi aplicación, probablemente sería razonable concentrarse en aprender una medida de disimilitud que sea una norma ponderada de L2:

d(x,y)=jαj(x[j]y[j])2.

donde los pesos no se conocen y se deben aprender. (O, algún tipo de medida de similitud de coseno ponderada también podría ser razonable). ¿Existen buenos algoritmos para aprender los pesos α j para tal medida, dados los ejemplos? ¿O hay otros métodos para aprender una medida de similitud / medida de disimilitud que debería considerar?αjαj

Desafortunadamente, el número de dimensiones es muy grande (miles o más; se deriva de las características de la bolsa de palabras). Sin embargo, tengo muchas decenas de miles de ejemplos. Luego tengo cientos de miles de objetos que quiero agrupar, por lo que es importante generalizar a partir de los ejemplos para aprender una buena métrica de disimilitud.

Entiendo que esto cae en la rúbrica de la agrupación semi-supervisada, y parece que podría ser de la veta de "adaptación de similitud", pero no he podido encontrar descripciones claras de algoritmos para este propósito.


Muy interesante problema. Si entiendo bien su problema, se le da una matriz principalmente vacía con sus elementos que codifican similitud o disparidad por pares. Algunos elementos están completados pero faltan la mayoría. Primero trataría de llenar esa matriz (por ejemplo, utilizando un supuesto de rango bajo, por ejemplo).
Vladislavs Dovgalecs

@xeon, ese sería un enfoque, pero ignora las características. Mi hipótesis es que algunas características son altamente relevantes y algunas características no son relevantes, y que al observar la diferencia en las características relevantes se obtiene una métrica de disimilitud razonable, pero ¿cómo encontramos esa métrica? Solo tratar de completar la matriz como sugiere ignora esta estructura y, por lo tanto, no aprovecha al máximo los datos que tenemos.
DW

¿Cuál es tu objetivo final? No es solo aprender la métrica de distancia, ¿verdad? Desea categorizar los puntos de datos, ¿no es así?
Vladislavs Dovgalecs

1
Hay cosas que creo que no has aclarado muy claramente. ¿El conjunto completo de pares de ejemplos forma una matriz binaria completa (1 = similar; 0 = diferente) o falta información de algunas celdas? ¿Es la matriz "no contradictoria", es decir, los objetos de ejemplo se dividen en clases no superpuestas? Además, tenga en cuenta que ningún método de aprendizaje puede (o debe usarse) aconsejarle el tipo de medida (como por ejemplo, la norma L2 o L1) porque dicha elección es teórica (depende del tipo de atributos, conceptualización de la característica espacio, método de agrupamiento que vas a usar entonces).
ttnphns

Esto es demasiado amplio para ser respondido razonablemente aquí. Existe una gran cantidad de literatura dedicada tanto a la ponderación de características, la selección como al aprendizaje de las funciones de distancia. ¡Creo que he visto incluso una conferencia sobre aprendizaje de similitud más o menos!
HA SALIDO - Anony-Mousse

Respuestas:


6

Este es un gran problema en algunas áreas del aprendizaje automático. No estoy tan familiarizado con él como me gustaría, pero creo que esto debería ayudarlo a comenzar.

L2


QA

No veo por qué no pudiste incluir esa restricción. Sin embargo, no estoy seguro de si el modelo resultante tiene un nombre.
David J. Harris

1

ai1/wi

En otras palabras, está preguntando sobre el preprocesamiento y el escalado de datos. Esto es demasiado amplio para ser respondido bien en una sola pregunta. Buscar:

  • selección de características
  • ponderación de características
  • normalización
  • reducción de dimensionalidad
  • otras técnicas de proyección
  • otras funciones de distancia
  • "aprendiendo a clasificar"

Hay una gran cantidad de literatura e incluso pistas de conferencias dedicadas a esto. Algunos métodos para comenzar:

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.