Gráfico de Conceptos & Resumen usando Claude 3 Opus | Chat GPT4 | Gemini Adv | Llama 3:
Resumen:
1.-Los modelos de lenguaje grandes recientes generan respuestas naturales y están siendo mejorados, junto con computación más barata y conjuntos de datos conversacionales públicos.
2.-Quedan desafíos para alcanzar máquinas conversacionales definitivas, a pesar del progreso. La charla discute desafíos basados en entrevistas con investigadores de diálogo.
3.-Históricamente, la investigación se centró en chatbots orientados a tareas y de dominio abierto. Los enfoques recientes combinan integración de conocimiento y métodos de extremo a extremo.
4.-Los modelos de lenguaje alucinan, produciendo respuestas inexactas. La base de conocimiento en recursos textuales durante la generación puede ayudar, pero tiene desafíos.
5.-Falta de límites claros entre búsqueda de conocimiento, charlas y turnos orientados a tareas. Se necesita más trabajo en las transiciones entre ellos.
6.-Generar datos conversacionales sintéticos con modelos de lenguaje grandes es prometedor para aumentar conjuntos de datos limitados anotados por humanos.
7.-Se deben evitar respuestas inseguras, abusivas, no éticas. Se ha avanzado con retroalimentación humana, aprendizaje por refuerzo, pero se necesita más trabajo.
8.-Los sistemas de diálogo deben controlar interacciones, tomar iniciativa y seguir una agenda. Las políticas complejas de los desarrolladores son difíciles de aplicar.
9.-La evaluación automatizada de la generación de respuestas de diálogo sigue siendo difícil. Se recomienda la evaluación humana, pero puede ser costosa y subjetiva.
10.-Integrar diversas fuentes de conocimiento, incluidas información estructurada y no estructurada, estática y dinámica, es un desafío abierto.
11.-Herramientas como APIs, calculadoras, traductores ayudan a los modelos a responder con precisión. La integración de herramientas puede hacerse en preentrenamiento, ajuste fino o uso de prompts.
12.-La seguridad en respuestas para prevenir contenido injusto, no ético, sesgado es crítica. Filtrado, retroalimentación humana, aprender a reescribir son enfoques prometedores.
13.-Diálogos basados en iniciativa y agenda, más allá de interacciones solo impulsadas por el usuario, son importantes pero requieren más datos anotados e investigación.
14.-La evaluación a través de juicios humanos o métricas automáticas sigue siendo un desafío. Se necesitan protocolos estandarizados y más acuerdo entre comunidades.
15.-La personalización para aprender las preferencias del usuario a lo largo del tiempo a través de interacciones pasadas y enseñanza del usuario es un tema amplio e importante.
16.-Las interacciones basadas en el habla permiten nuevas aplicaciones pero plantean desafíos debido a disfluencias, falta de puntuación y diferentes tipos de ruido.
17.-La información visual de video del usuario, contenido compartido, contexto situacional es clave para muchas aplicaciones. Los modelos de visión-lenguaje muestran promesa.
18.-Ingerir contexto -historia conversacional, sesiones previas, señales ambientales, eventos mundiales- puede ayudar a la interpretación y coherencia, pero es complejo.
19.-Los modelos de lenguaje aún no son equivalentes a los modelos de diálogo. El progreso reciente es emocionante, pero quedan desafíos para inspirar nuevas ideas.
20.-El uso de prompts en modelos de lenguaje es un enfoque empírico que puede beneficiar la generación de datos, control, pero es menos claro para la integración de habla/visión.
21.-Los enfoques de IA simbólica con abstracción, asociación, tratando los LLMs como plataformas de meta-programación es otra dirección de investigación que merece más investigación.
22.-La IA puede superar a los humanos en resumen, pero quedarse atrás en empatía. Las comparaciones dependen de la tarea. Se necesita una evaluación más completa que la prueba de Turing.
23.-Convertir consultas de usuario a consultas de grafo de conocimiento puede aprovechar bases de conocimiento estructuradas. La generación de datos a texto también es importante pero poco investigada.
24.-Controlar diálogos persuasivos para tomar iniciativa y seguir una agenda de manera segura requiere más datos anotados o enfoques de aprendizaje no supervisado.
25.-Verificar la calidad de los prompts y respuestas generados puede usar muestreo superior, rechazo o métricas automáticas, pero puede ser necesario el filtrado humano.
26.-El aprendizaje activo con humano en el bucle es prometedor para reducir las necesidades de datos, pero puede ser difícil de escalar en comparación con el aprendizaje por refuerzo a partir de retroalimentación.
27.-La falta de datos de conversación hablada de dominio abierto es un gran desafío. La recopilación y liberación de conjuntos de datos de habla tiene dificultades prácticas.
28.-Más allá de los datos, la reactivación de la investigación de prosodia, disfluencia, predicción de puntuación a partir de señales de habla podría ayudar a la robustez de los chatbots de dominio abierto recientes.
29.-La integración de salidas neuronales con reglas sintácticas y conocimiento lingüístico para corregir errores de reconocimiento de habla es una pregunta abierta. Los datos pueden seguir siendo clave.
30.-En la nueva era de chatbots de dominio abierto, revisar desafíos clásicos de diálogo con herramientas modernas puede revelar problemas y nuevas soluciones.
Bóveda de Conocimiento construida porDavid Vivancos 2024