Conocimiento Bóveda 4 /14 - IA Para El Bien 2018
Narradores
Aimee Van Wynsberghe
< Imagen de Resumen >
Enlace al Video IA4GoodVer Video en Youtube

Gráfico de Conceptos & Resumen usando Claude 3 Opus | Chat GPT4o | Llama 3:

graph LR classDef ethics fill:#d4f9d4, font-weight:bold, font-size:14px classDef tech fill:#f9d4f9, font-weight:bold, font-size:14px classDef robots fill:#f9e1d9, font-weight:bold, font-size:14px classDef vision fill:#d9e6f2, font-weight:bold, font-size:14px A["Narradores"] --> B["La ética impulsa
la innovación en robótica/IA. 1"] A --> C["La ética estudia la buena vida,
lo correcto/incorrecto. 2"] A --> D["Lenguaje ético: bienestar,
dignidad, salud, medio ambiente. 3"] B --> E["La tecnología se ve como neutral
o cargada de valores. 4"] E --> F["Diseños de género muestran que la tecnología
refleja normas. 5"] F --> G["La tecnología altera la buena vida,
la facilita. 6"] G --> H["La robótica/IA cambiará
la buena vida. 7"] C --> I["Ética de robots: problemas
por parte interesada. 8"] I --> J["Problemas clave para diseñadores: dignidad,
bienestar, capacidades. 9"] J --> K["Problemas de empleo: mejorar,
no reemplazar a humanos. 10"] K --> L["Preocupaciones de usuarios: abuso de robots
afecta interacciones humanas. 11"] L --> M["Debate sobre robots/IA
como agentes éticos. 12"] M --> N["En contra de otorgar derechos,
obligaciones a robots. 13"] D --> O["La ética guía el diseño
desde una visión ideal. 14"] O --> P["Buena vida humanitaria: ayudar
a más personas. 15"] P --> Q["Drones impulsados por IA: bienestar,
preservación de la dignidad. 16"] Q --> R["Considerar el estrés de los drones,
consentimiento informado. 17"] O --> S["Visión: minimizar estereotipos
en sistemas burocráticos. 18"] S --> T["IA detecta/predice sesgos
en la toma de decisiones. 19"] O --> U["IA apoya objetivos ambientales:
monitoreo de contaminación. 20"] O --> V["La ética como guía de desarrollo,
no una ocurrencia tardía. 21"] V --> W["Abordar la ética primero,
luego las capacidades tecnológicas. 22"] V --> X["Usar IA para verificar sesgos,
expresar ética. 23"] X --> Y["La ética lleva valores a
la vida a través de la tecnología. 24"] Y --> Z["Comenzar con la buena vida,
definir el futuro. 25"] Z --> AA["Definir valores éticos
para IA 2030. 26"] class B,C,D ethics class E,F,G,H tech class I,J,K,L,M,N robots class O,P,Q,R,S,T,U,V,W,X,Y,Z,AA vision

Resumen:

1.- La ética puede ser un motor de innovación en robótica e IA, no solo un obstáculo que ralentiza el progreso.

2.- La ética es el estudio de la buena vida - qué es y cómo lograrla. Distingue entre lo bueno/malo, correcto/incorrecto.

3.- El lenguaje ético utiliza valores como bienestar, dignidad, salud y protección ambiental que constituyen o ayudan a lograr la buena vida.

4.- Una visión ve la tecnología como neutral; otra la ve como inherentemente cargada de valores, con las suposiciones y sesgos de los diseñadores dando forma al producto final.

5.- Ejemplos como los diseños de cuchillas de afeitar de género muestran cómo las tecnologías pueden crear y reflejar normas, valores y significados.

6.- La tecnología cambia qué elementos componen la buena vida (por ejemplo, conexiones sociales globales) o nos ayuda a lograr la buena vida (por ejemplo, telecomunicaciones).

7.- La robótica y la IA cambiarán de manera similar cómo se ve la buena vida o cómo la logramos.

8.- La ética de los robots agrupa los problemas por parte interesada - diseñadores/desarrolladores/políticos, usuarios y sistemas de robots/IA como agentes éticos.

9.- Para los diseñadores, los problemas clave son hacer robots que preserven la dignidad, mejoren el bienestar, tengan capacidades para hacerlo y utilicen IA bien entrenada.

10.- Surgen problemas de empleo - hacer robots que mejoren en lugar de reemplazar a los trabajadores humanos. La retórica de los medios también da forma a las percepciones de la robótica/IA.

11.- Para los usuarios, surgieron preguntas en torno a los videos de abuso del perro robot de Boston Dynamics y cómo el maltrato a los robots podría afectar las interacciones humano-humano.

12.- Las opiniones difieren sobre si los robots/IA deberían ser agentes éticos que tomen decisiones morales y qué teoría debería guiar su programación.

13.- Alternativamente, algunos argumentan en contra de esto ya que podría requerir otorgar derechos y obligaciones a robots/IA suficientemente avanzados.

14.- La ética puede ser parte del proceso de diseño, comenzando con una visión de la sociedad ideal de 2030 y utilizando la ética para llegar allí.

15.- En un contexto humanitario, la buena vida significa que los recursos lleguen más lejos para ayudar a más personas en lugares aislados.

16.- Los drones impulsados por IA utilizados por ONG humanitarias se ajustan a esta visión, pero deben ser diseñados y utilizados para preservar el bienestar y la dignidad.

17.- Los diseñadores deben considerar el potencial de los drones para causar estrés fisiológico/psicológico. El consentimiento informado también es un valor ético importante a mantener.

18.- Otra visión futura minimiza los estereotipos y la discriminación en sistemas burocráticos como tribunales, atención médica, banca y policía.

19.- La IA podría detectar sesgos o predecir cuándo pueden ocurrir sesgos en la toma de decisiones por parte de funcionarios judiciales y jueces.

20.- Un tercer escenario imagina la robótica/IA apoyando objetivos ambientales mediante el monitoreo de la contaminación, la limpieza de residuos electrónicos, etc.

21.- La clave es hacer de la ética el punto de partida que guíe el desarrollo tecnológico, no una ocurrencia tardía.

22.- Esto contrasta con comenzar desde las capacidades tecnológicas y solo después abordar los problemas éticos que surgen.

23.- El objetivo es usar la IA para verificar nuestros sesgos en lugar de continuarlos, y hacer que la robótica/IA exprese valores éticos.

24.- La ética se convierte en una herramienta para imaginar cómo llevar a la vida valores importantes a través de la tecnología.

25.- Deberíamos considerar la buena vida como el punto de partida y usar el lenguaje ético para definir el futuro deseado.

26.- La pregunta es qué valores éticos queremos que sean las características definitorias de la IA en 2030.

Bóveda del Conocimiento construida porDavid Vivancos 2024