Conocimiento Bóveda 4 /14 - IA Para El Bien 2018
Narradores
Aimee Van Wynsberghe
< Imagen de Resumen >
Enlace al Video IA4GoodVer Video en Youtube

Gráfico de Conceptos & Resumen usando Claude 3 Opus | Chat GPT4o | Llama 3:

Narradores
La ética impulsa
la innovación en robótica/IA. 1
La ética estudia la buena vida,
lo correcto/incorrecto. 2
Lenguaje ético: bienestar,
dignidad, salud, medio ambiente. 3
La tecnología se ve como neutral
o cargada de valores. 4
Diseños de género muestran que la tecnología
refleja normas. 5
La tecnología altera la buena vida,
la facilita. 6
La robótica/IA cambiará
la buena vida. 7
Ética de robots: problemas
por parte interesada. 8
Problemas clave para diseñadores: dignidad,
bienestar, capacidades. 9
Problemas de empleo: mejorar,
no reemplazar a humanos. 10
Preocupaciones de usuarios: abuso de robots
afecta interacciones humanas. 11
Debate sobre robots/IA
como agentes éticos. 12
En contra de otorgar derechos,
obligaciones a robots. 13
La ética guía el diseño
desde una visión ideal. 14
Buena vida humanitaria: ayudar
a más personas. 15
Drones impulsados por IA: bienestar,
preservación de la dignidad. 16
Considerar el estrés de los drones,
consentimiento informado. 17
Visión: minimizar estereotipos
en sistemas burocráticos. 18
IA detecta/predice sesgos
en la toma de decisiones. 19
IA apoya objetivos ambientales:
monitoreo de contaminación. 20
La ética como guía de desarrollo,
no una ocurrencia tardía. 21
Abordar la ética primero,
luego las capacidades tecnológicas. 22
Usar IA para verificar sesgos,
expresar ética. 23
La ética lleva valores a
la vida a través de la tecnología. 24
Comenzar con la buena vida,
definir el futuro. 25
Definir valores éticos
para IA 2030. 26

Resumen:

1.- La ética puede ser un motor de innovación en robótica e IA, no solo un obstáculo que ralentiza el progreso.

2.- La ética es el estudio de la buena vida - qué es y cómo lograrla. Distingue entre lo bueno/malo, correcto/incorrecto.

3.- El lenguaje ético utiliza valores como bienestar, dignidad, salud y protección ambiental que constituyen o ayudan a lograr la buena vida.

4.- Una visión ve la tecnología como neutral; otra la ve como inherentemente cargada de valores, con las suposiciones y sesgos de los diseñadores dando forma al producto final.

5.- Ejemplos como los diseños de cuchillas de afeitar de género muestran cómo las tecnologías pueden crear y reflejar normas, valores y significados.

6.- La tecnología cambia qué elementos componen la buena vida (por ejemplo, conexiones sociales globales) o nos ayuda a lograr la buena vida (por ejemplo, telecomunicaciones).

7.- La robótica y la IA cambiarán de manera similar cómo se ve la buena vida o cómo la logramos.

8.- La ética de los robots agrupa los problemas por parte interesada - diseñadores/desarrolladores/políticos, usuarios y sistemas de robots/IA como agentes éticos.

9.- Para los diseñadores, los problemas clave son hacer robots que preserven la dignidad, mejoren el bienestar, tengan capacidades para hacerlo y utilicen IA bien entrenada.

10.- Surgen problemas de empleo - hacer robots que mejoren en lugar de reemplazar a los trabajadores humanos. La retórica de los medios también da forma a las percepciones de la robótica/IA.

11.- Para los usuarios, surgieron preguntas en torno a los videos de abuso del perro robot de Boston Dynamics y cómo el maltrato a los robots podría afectar las interacciones humano-humano.

12.- Las opiniones difieren sobre si los robots/IA deberían ser agentes éticos que tomen decisiones morales y qué teoría debería guiar su programación.

13.- Alternativamente, algunos argumentan en contra de esto ya que podría requerir otorgar derechos y obligaciones a robots/IA suficientemente avanzados.

14.- La ética puede ser parte del proceso de diseño, comenzando con una visión de la sociedad ideal de 2030 y utilizando la ética para llegar allí.

15.- En un contexto humanitario, la buena vida significa que los recursos lleguen más lejos para ayudar a más personas en lugares aislados.

16.- Los drones impulsados por IA utilizados por ONG humanitarias se ajustan a esta visión, pero deben ser diseñados y utilizados para preservar el bienestar y la dignidad.

17.- Los diseñadores deben considerar el potencial de los drones para causar estrés fisiológico/psicológico. El consentimiento informado también es un valor ético importante a mantener.

18.- Otra visión futura minimiza los estereotipos y la discriminación en sistemas burocráticos como tribunales, atención médica, banca y policía.

19.- La IA podría detectar sesgos o predecir cuándo pueden ocurrir sesgos en la toma de decisiones por parte de funcionarios judiciales y jueces.

20.- Un tercer escenario imagina la robótica/IA apoyando objetivos ambientales mediante el monitoreo de la contaminación, la limpieza de residuos electrónicos, etc.

21.- La clave es hacer de la ética el punto de partida que guíe el desarrollo tecnológico, no una ocurrencia tardía.

22.- Esto contrasta con comenzar desde las capacidades tecnológicas y solo después abordar los problemas éticos que surgen.

23.- El objetivo es usar la IA para verificar nuestros sesgos en lugar de continuarlos, y hacer que la robótica/IA exprese valores éticos.

24.- La ética se convierte en una herramienta para imaginar cómo llevar a la vida valores importantes a través de la tecnología.

25.- Deberíamos considerar la buena vida como el punto de partida y usar el lenguaje ético para definir el futuro deseado.

26.- La pregunta es qué valores éticos queremos que sean las características definitorias de la IA en 2030.

Bóveda del Conocimiento construida porDavid Vivancos 2024