Conocimiento Bóveda 4 /100 - IA Para El Bien 2024
Entrevista con Geoffrey Hinton (remoto) y Nicholas Thompson (en persona)
Geoffrey Hinton
< Imagen del Resumen >
Enlace al Video IAParaElBienVer Video en Youtube

Gráfico de Conceptos & Resumen usando Claude 3 Opus | Chat GPT4o | Llama 3:

graph LR classDef ai fill:#d4d4f9, font-weight:bold, font-size:14px classDef risk fill:#f9d4d4, font-weight:bold, font-size:14px classDef health fill:#d4f9d4, font-weight:bold, font-size:14px classDef education fill:#f9f9d4, font-weight:bold, font-size:14px classDef regulation fill:#f9d4f9, font-weight:bold, font-size:14px classDef economy fill:#d4f9f9, font-weight:bold, font-size:14px A["Entrevista con Geoffrey
Hinton remoto y
Nicholas Thompson en persona"] --> B["La superioridad
incremental de la IA. 1"] A --> C["La IA sobresale
compartiendo
conocimiento digitalmente. 2"] A --> D["La IA afecta los trabajos
físicos más tarde. 3"] A --> E["Hinton preocupado
por los riesgos de la IA
en 2023. 4"] A --> F["La conciencia de la IA
se trata de percepciones
correctas. 5"] A --> G["La interpretación de
neuronas profundas
es difícil. 6"] B --> H["La IA puede desarrollar
subobjetivos dañinos. 14"] B --> I["La investigación de capacidades
emociona más
que la seguridad. 15"] B --> J["Los modelos de lenguaje
unen teorías
semánticas. 17"] B --> K["Los modelos entienden
el significado de manera
similar a los humanos. 30"] A --> L["La IA avanza
la medicina, el tratamiento,
el descubrimiento. 8"] A --> M["Los tutores de IA
mejoran la equidad
educativa. 9"] L --> N["La IA transformará
la atención médica y
el tratamiento. 21"] A --> O["La falta de regulación
de la IA prioriza
las ganancias. 10"] A --> P["El capitalismo impulsa la IA
pero necesita
supervisión. 25"] A --> Q["Las empresas de IA deberían
asignar recursos
para la seguridad. 28"] A --> R["Hinton apoya
la RBU para el desplazamiento
laboral. 18"] A --> S["Hinton dejó
Google para discutir
los riesgos de la IA. 19"] A --> T["Hinton discutió el riesgo
de la IA con líderes
del Reino Unido. 26"] O --> U["La IA aumenta la productividad
beneficia a los ricos. 11"] O --> V["La IA puede exacerbar
la desigualdad necesita
políticas. 29"] O --> W["Los videos falsos de IA
impactan las elecciones. 12"] P --> X["El gobierno podría exigir
investigación de seguridad en IA. 16"] P --> Y["La investigación de seguridad en IA
está subfinanciada y
es menos atractiva. 22"] Q --> Z["Los criminales usan la IA
para fraudes
convincente. 23"] Q --> AA["La IA comparte conocimiento
rápidamente, a diferencia
de los humanos. 24"] P --> AB["La IA reduce el sesgo
pero no lo
elimina. 13"] class A,B,C,D,E,F,G ai class H,I,J,K risk class L,M,N health class O,P,Q regulation class R,S,T economy class U,V,W economy class X,Y regulation class Z,AA,AB risk

Resumen:

1.- La IA superará a los humanos en diferentes tareas en diferentes momentos, no se volverá repentinamente superior en todo.

2.- La IA se está convirtiendo en una mejor forma de inteligencia que los humanos debido a su capacidad para compartir conocimiento digitalmente de manera eficiente.

3.- La mayoría de las profesiones se verán impactadas por la IA, con la manipulación física probablemente automatizada más tarde que las tareas cognitivas.

4.- El Dr. Hinton se preocupó agudamente por el riesgo existencial de la IA a principios de 2023 tras darse cuenta de las ventajas digitales de la IA sobre la inteligencia humana.

5.- La conciencia de la IA se trata de estados hipotéticos del mundo que harían que las percepciones de una IA fueran correctas, no de un teatro interno de cualia.

6.- Es muy difícil interpretar lo que hacen las neuronas individuales en lo profundo de las redes neuronales multicapa.

7.- Ajustar directamente los pesos de la red neuronal para hacer que la IA sea más compasiva es extremadamente desafiante y podría ser contraproducente.

8.- La IA avanzará significativamente en el diagnóstico médico, el tratamiento personalizado, la comprensión científica y el descubrimiento de medicamentos en los próximos años.

9.- Los tutores privados de IA podrían mejorar la equidad educativa proporcionando instrucción personalizada de alta calidad a todos, no solo a los ricos.

10.- La falta de regulaciones sobre el desarrollo de la IA incentiva las ganancias sobre la seguridad. El capitalismo impulsa la innovación pero necesita salvaguardas.

11.- La IA aumentará la productividad pero las ganancias podrían ir desproporcionadamente a los ricos, exacerbando la desigualdad, sin políticas de redistribución.

12.- Los videos falsos generados por IA podrían impactar significativamente las elecciones. Se sugirió inocular al público exponiéndolo a falsificaciones atenuadas.

13.- Los sistemas de IA podrían reducir los sesgos en áreas como los préstamos en comparación con los humanos, pero probablemente no eliminarán el sesgo por completo.

14.- Un riesgo clave de la IA es que los sistemas desarrollen subobjetivos desalineados como tomar el control, incluso si originalmente fueron entrenados para respetar los intereses humanos.

15.- Para los investigadores de IA, trabajar en aumentar las capacidades es a menudo más emocionante y gratificante que centrarse en los desafíos de seguridad.

16.- El gobierno podría exigir más investigación de seguridad en IA en el sector privado o financiar directamente el trabajo de seguridad académico y de beneficio público.

17.- Los grandes modelos de lenguaje muestran signos de entender el significado de maneras que unifican dos teorías tradicionales de la semántica.

18.- El Dr. Hinton aboga por un ingreso básico universal como una política para abordar el posible desplazamiento laboral impulsado por la IA.

19.- El Dr. Hinton dejó Google en 2023 a los 75 años para discutir más libremente sus preocupaciones sobre el riesgo existencial de la IA.

20.- La mente humana no es un teatro interno, contrariamente a la creencia popular. Las teorías de la conciencia han sido erróneas.

21.- La IA transformará la atención médica superando a los clínicos en diagnóstico e integrando vastos conjuntos de datos de pacientes para personalizar el tratamiento.

22.- La investigación de seguridad en IA es crítica pero relativamente subfinanciada y menos atractiva para muchos investigadores de IA en comparación con el trabajo de capacidades.

23.- Los criminales están utilizando cada vez más la IA para generar contenido falso altamente convincente para el fraude, una tendencia preocupante.

24.- Los humanos comparten conocimiento lentamente a través del lenguaje, mientras que los sistemas de IA digitales pueden compartir y combinar conocimiento de manera eficiente, permitiendo rápidos avances en capacidades.

25.- El capitalismo incentiva un enfoque en el desarrollo de la IA sobre la seguridad, requiriendo una fuerte supervisión gubernamental para mitigar los riesgos.

26.- El Dr. Hinton transmitió sus preocupaciones sobre el riesgo de la IA y la necesidad de políticas como la RBU a los líderes del gobierno del Reino Unido.

27.- Los modelos de lenguaje de IA han unificado dos teorías diferentes del significado de las palabras: las relaciones entre palabras y los conjuntos de características semánticas.

28.- El Dr. Hinton recomienda que las empresas de IA estén obligadas a dedicar recursos proporcionales a la investigación de seguridad, similar a las regulaciones ambientales.

29.- La IA exacerbará la desigualdad si las ganancias económicas se acumulan principalmente en los ricos. Podrían necesitarse políticas de redistribución.

30.- Los recientes grandes modelos de lenguaje probablemente entienden el significado de maneras bastante similares a los humanos, según el Dr. Hinton.

Bóveda de Conocimiento construida por David Vivancos 2024