59 Comprender los debates sobre los posibles peligros de la IA
En marzo de 2023 1, y luego en mayo de 20232, se publicaron dos peticiones/ cartas abiertas, advirtiendo sobre algunos de los peligros de la IA. En ambos casos fueron firmadas por cientos de prestigiosos científicos y especialistas en IA de la industria. ¿Qué debemos saber al respecto?
¿Es una pregunta interesante para los profesores?
Con los estudiantes más avanzados surgirán cuestiones referidas a los riesgos de la IA para la sociedad. Aunque ningún profesor está obligado a dar respuestas definitivas a todas las preguntas, es justo comprender los márgenes de la controversia.
Como profesor, ¿no debería uno limitarse a hablar de los aspectos técnicos de un tema y dejar las cuestiones humanas, económicas, filosóficas a los especialistas?
Esta es una cuestión interesante sobre la que opiniones divididas.
¿Debe un profesor de física saber sobre Hiroshima o Chernobil? Deben tener lugar conversaciones sobre estos temas en clase? O, en el caso de la IA, ¿Debería un profesor solo ser capaz de utilizar algún software con seguridad y entender en general cómo funciona? ¿O también debería ser capaz de entender los debates en curso sobre las cuestiones que se plantean a la sociedad en relación con la IA?
La posición de la Unesco y otros expertos es que la IA no es solo tecnología y que un profesor debe comprender las cuestiones éticas que implica. Entre ellas, el impacto de la IA en la sociedad, la civilización y la humanidad.
¿Son preguntas nuevas?
Algunas de las preguntas sobre los peligros de la IA existen desde hace tiempo. La pregunta sobre qué ocurre cuando la IA es «superior a la inteligencia humana» se debate hace mucho tiempo. Irving Good4, antiguo colega de Alan Turing, introdujo la noción de Singularidad Tecnológica ya en 1965. Sugirió que, una vez que se considerara que la IA era más inteligente que los humanos, o superinteligente, la IA sería imparable. Good llegó a asesorar a Alan Kubrick para 2001: Una odisea del espacio, «una película en la que la IA se vuelve rebelde».
Las posiciones
El texto de la carta abierta de marzo de 20231 advertía que la IA podía hacer cosas buenas y malas, que el impacto en la sociedad y en el empleo podía ser considerable. También introducía la noción de que la IA no solo sustituiría a los humanos en trabajos tediosos e indeseables, sino también en «trabajos buenos que la gente quisiera hacer». Además, los desarrollos de la IA provocarían desarrollos de la sociedad y que no se utilizarían los mecanismos democráticos habituales de cambio.
En el segundo texto2, el riesgo añadido del que se hablaba refiere a que la IA se volviera rebelde (o una variación de este escenario) y sería el posible fin de la civilización humana.
De este debate surgió una tercera postura3 «que la IA era efectivamente motivo de preocupación, pero no por razones existenciales que enmascararan los problemas más urgentes».
¿Ha terminado el debate?
No, el debate no ha terminado. Algunos científicos siguen afirmando que existen muchos riesgos, que estas tecnologías están creciendo demasiado rápido y que es necesaria una regulación. Otros creen, que por el momento, la IA solo aporta beneficios, y que debemos tener cuidado, pero no miedo.
No se ha acabado el debate.
Es difícil decir quién va ganando o perdiendo, quién tiene razón o no. El debate recuerda el que se produjo después de 1945 sobre física.
Una postura común es la de pedir regulación, aunque todavía no haya una regulación con la que todo el mundo esté de acuerdo.
¿Puede haber una posición sólida?
En realidad, ambas posturas son probablemente sólidas. Los hechos actuales parecen estar a favor de los entusiastas (la IA está permitiendo avances en medicina, agricultura, análisis del clima, idiomas y comunicación), pero el argumento de que nosotros, como humanos, siempre hemos encontrado respuestas, tiene serias limitaciones.
En realidad, ambas posturas son probablemente sólidas.
¿Dónde puedo encontrar más información sobre este debate?
Para una persona (o profesor) de mente abierta existen numerosas fuentes potenciales de información: blogs, sitios fidedignos, como también documentos de posición y vídeos de científicos destacados, incluidos historiadores y filósofos.
-
Future of Life Institute. (2023). Pause giant AI experiments: An open letter. https://futureoflife.org/open-letter/pause-giant-ai-experiments/
-
Center for AI Safety. (2023). Statement on AI risk. https://www.safe.ai/statement-on-ai-risk#open-letter
-
Kaati, L. (2023, May 9). Let’s focus on AI’s tangible risks rather than speculating about its potential to pose an existential threat. The Conversation. https://theconversation.com/lets-focus-on-ais-tangible-risks-rather-than-speculating-about-its-potential-to-pose-an-existential-threat-207842
-
History of Information. (n.d.). The development of artificial intelligence. https://www.historyofinformation.com/detail.php?id=2142
-
Wikipedia contributors. (s.f.). I. J. Good. Wikipedia. https://en.wikipedia.org/wiki/I._J._Good