Inteligencia-artificialCiberseguridadArtificial-intelligenceÉtica

La tontería de las inteligencias artificiales

Claudio Araya

Claudio Araya

15 de enero de 2025

La tontería de las inteligencias artificiales

Uno de los aspectos que distingue a la IA al compararla con otras tecnologías anteriores es su potencial autonomía respecto del ser humano. Con la IA, el ser humano corre el riesgo de perder el control de su creación (quizás ya lo perdió). Probablemente esto explique que en el Congreso Futuro 2024 realizado en Chile, una de las principales inquietudes haya sido el papel de la humanidad en los alcances de las repercusiones de la IA. Más concretamente, la dimensión ética asociada a esta disruptiva tecnología. Y la dimensión ética incluye cuestiones relativas al uso de datos, la transparencia de los algoritmos, el eventual abuso de poder, el resguardo de la privacidad, el sesgo en la toma de decisiones, entre otros dilemas.

En una de las charlas , específicamente, aquella titulada “Cuando la IA nos mate. ¿Qué hacemos?”, Roberto Navarro -el speaker- se preguntaba cómo esos sistemas autónomos y conscientes pueden ser regulados a través de leyes, a sabiendas de que las máquinas no pueden ir a la cárcel. A su vez, destacaba que esas máquinas inteligentes son capaces de adoptar comportamientos dañinos para el ser humano. De momento, los escenarios legales frente a esas conductas peligrosas de las Inteligencias Artificiales son tres. El primero se refiere a que pueden ser empleadas por un humano como instrumento para cometer un delito. El segundo escenario plantea que los daños o perjuicios generados se deben a defectos de la máquina. Mientras que el tercer escenario, tenebroso, pero posible; se refiere a que la capacidad autónoma de la máquina inteligente podría decidir cometer delitos, tomar esas decisiones sin el control humano.

En el tercer escenario radica el riesgo y el desafío para la humanidad, según anunciaba Navarro, pues supone la necesidad de entrenar a las inteligencias artificiales de acuerdo con normas y criterios éticos que resguarden el impacto de la autonomía, cuando ésta se escape de las manos humanas. Sin embargo, las inteligencias artificiales -de momento- son legal y éticamente tontas. No comprenden esos códigos legales y culturales, debido a que existen dificultades para traducir las normas legales y éticas al lenguaje de máquinas.

En este contexto, las preguntas que podrían orientar las decisiones humanas respecto a la IA, dicen relación con las funciones que vamos a delegar en ellas, qué decisiones les vamos a conceder y frente a qué situaciones o eventos y quién definirá esas funciones y decisiones. Frente a estas interrogantes acerca de la delimitación que podríamos establecer a la IA, emergen -por cierto- nuevas y complejas aristas que apuntan al rol de las instituciones representativas de la ciudadanía. Para Navarro, los parlamentos debieran consensuar y definir qué les vamos a delegar a las máquinas. Mientras seguimos entreverados en estos dilemas, las máquinas siguen ganando autonomía y continúan su trabajo, aunque por ahora no puedan aprender cuestiones esenciales para la comunicación, normas culturales, legales y, sobre todo, éticas.

En los momentos en que publicamos este artículo, comienza el Congreso Futuro 2025. ¿Nos estaremos acercando a una respuesta frente a ese dilema de la tontería de las inteligencias artificiales? Veremos si los planteamientos que se formulan abordan esa inquietud planteada el año pasado.


La tontería de las inteligencias artificiales was originally published in OpenAgents on Medium, where people are continuing the conversation by highlighting and responding to this story.

Claudio Araya

Claudio Araya

Autor