IA 3. La ética en la IA
La IA puede tomar decisiones importantes, como en medicina, transporte, justicia o seguridad. Pero estas decisiones no siempre son fáciles y pueden tener consecuencias éticas.
ACTIVIDAD
PARTE 1. Lluvia de ideas.
Escribir en el pizarrón qué se nos viene a la cabeza cuando pensamos en la IA.
PARTE 2. Trabajo en grupos.
"¿Qué haría una IA creada por vos si tuviera que tomar una decisión en las siguientes situaciones?"
A).-Se dividirán en grupos pequeños (2 a 5 personas). Cada grupo debe elegir una situación y discutir:
¿Qué decisión tomaría la IA?
¿Es justa esa decisión?
¿Qué valores humanos debemos considerar?
B.- Puesta en común. Cada grupo debe explicar su opinión y argumentos. El resto de la clase puede hacer preguntas o aportar ideas.
C.-Reflexión final. ¿Podemos dejar que la IA se haga cargo de todo?
SITUACIONES SUGERIDAS
a).-Un coche autónomo debe elegir entre atropellar a un peatón o a un perro que es acompañante terapéutico de una persona.
b).-Un programa informático que está diseñado para elegir personas para un trabajo rechaza a una persona porque su nombre es poco común.
c).-Una IA en un hospital decide qué paciente recibirá un tratamiento.
ACTIVIDAD 2
Un dilema ético:
Imaginá que uno de tus amigos sube una foto tuya en una red social sin tu permiso. La foto no es ofensiva, pero sí privada, y se ve en un contexto que no te gusta. ¿Qué harías?
A).-Preguntas para reflexionar en grupos:
¿Es correcto que tu amigo publique una foto tuya sin tu consentimiento?
¿Qué derecho tienes sobre tu propia imagen en internet?
¿Cómo afecta esto a tu privacidad y a tu reputación?
¿Deberías hablar con tu amigo para que quite la foto o simplemente ignorarla?
Ya que las IA pueden detectar muchas cosas...¿qué haría una IA creada para vos para que estas cosas no sucedan?
B). Puesta en común. Reflexión final:
Este dilema muestra que el uso de las redes sociales no solo es una cuestión de diversión, sino también de derechos, responsabilidad y respeto mutuo. La IA también está presente en las redes sociales (por ejemplo, al recomendar contenido o detectar imágenes), lo que agrega otra capa de responsabilidad ética.
¿Qué opinás? ¿Cómo creés que deberían actuar las IA frente a publicaciones obscenas, violentas o abusivas? ¿Por qué creés que actualmente se permite la difusión en redes sociales de tantas cosas como éstas?
Como toda tecnología, la IA trae aparejada dilemas éticos. En el caso de la IA esto se agranda por el poder transformador de la realidad que puede traer esta tecnología. Así es que hoy, al igual que la investigación biomédica desde siempre, el test de la ética debe ser aplicado a los desarrollos de IA. Esto se refiere particularmente a funcionalidades donde existen máquinas y aparatos con “inteligencia” o habilidades de simulación de lo humano que sobrepasan con creces las de los humanos. Y las preguntas fundamentales van por el lado del marco ético para los desarrollos en esta disciplina. Mencionaremos algunos de los principales:
1. La IA y la economía . Aquí aparecen temas como los usos de la IA en el mundo del trabajo: por ejemplo, ¿dónde están los límites de los flujos de trabajo automatizado donde hay personas involucradas? Y la pregunta fundamental del área: ¿cómo distribuiremos la riqueza creada por las máquinas?
2. La IA y la sociedad ¿Cómo afectan las máquinas inteligentes la relación entre los seres humanos? ¿Quiénes decidirán los usos de las máquinas inteligentes? ¿Quién y cómo controlar los sesgos (introducidos intencional o no intencionalmente) a las máquinas? ¿Cuáles son los límites (o no existen) al desarrollo de ese tipo de proyectos?
3. La IA y los humanos. ¿Cómo afectarán las máquinas inteligentes nuestro comportamiento? ¿Hasta qué nivel es permisible “ensamblar” esas máquinas con nuestra biología?
4. La IA y el medio ambiente. ¿Cuáles son los límites razonables de uso de recursos para estos proyectos?
5. Seguridad, usos militares. ¿Qué es necesario y cómo regular este ámbito, tradicionalmente complejo de regular?
6. Superinteligencia. ¿Qué derechos y deberes tendrán estos robots? ¿Quién es responsable por sus desarrollos y usos? ¿Qué nivel de decisiones se les permitirá tomar en asuntos humanos?
Hay miles de otras preguntas. Uno podría replicar todas las de la ética clásica, pues en definitiva lo que está ocurriendo con la IA débil al menos, es la realización de gran parte de los proyectos clásicos de simulación de facetas de lo humano.