El investigador danés Sune Lehmann ha creado un algoritmo, llamado Life2Vec, que puede anticipar eventos significativos en la vida de una persona. Incluyendo el momento de su muerte.
Lehmann detalló el mecanismo y los propósitos de este algoritmo. Expertos en inteligencia artificial debatieron sobre las fronteras éticas que deberían orientar estos avances tecnológicos.
Un proyecto ambicioso y controversial
Life2Vec es capaz de predecir la fecha de fallecimiento de una persona con un 78% de precisión y también estimar otros eventos relevantes. Como logros profesionales, formación de familia o cambios de residencia.
Este científico, quien se formó como físico y ahora es profesor en educación universitaria en Dinamarca, ha dedicado su carrera a desarrollar tecnologías de aprendizaje independiente basadas en grandes volúmenes de información.
La idea surgió de una subvención destinada a investigar cómo las redes sociales influyen en los resultados de vida de las personas.
Para comprender mejor esta influencia, primero era necesario predecir con exactitud los eventos individuales. Así nació Life2Vec, un algoritmo que emplea tecnología avanzada de modelos de lenguaje para aprender a partir de vastos conjuntos de datos.
Una base de datos enorme
El algoritmo se entrenó gracias a una base de datos anónimos de unos seis millones de daneses. Al analizar una secuencia de eventos, la inteligencia artificial puede predecir con alta precisión futuros eventos de vida.
Los resultados, ya publicados en publicaciones científicas, revelan la enorme exactitud que tiene el algoritmo, predice con un 78% de acierto la fecha de muerte y con un 73% la probabilidad de mudanza de los usuarios.
El debate ético
La capacidad de la inteligencia artificial para prever eventos de vida plantea importantes cuestiones éticas.
En ese sentido, Simon Kolstoe, profesor de Bioética en el Reino Unido, compara la ética médica del juramento hipocrático con la tecnológica, identificando cuatro principios esenciales: no maleficencia, beneficencia, justicia y autonomía.
Estos principios deberían guiar el desarrollo de la inteligencia artificial para garantizar que no perjudique a los seres humanos en el futuro.
David Weitzner, profesor de ética en Canadá resalta la necesidad de transparencia en el desarrollo de la inteligencia artificial. Según él, los avances tecnológicos deben ser claros sobre sus planes de negocio y modelos de creación de valor, evitando prácticas como la explotación de lagunas legales o la vigilancia encubierta modo distópico.
Creó una máquina que predice el día de tu muerte y responde: ¿hasta dónde llegará la inteligencia artificial? https://t.co/XH69NdMa33 pic.twitter.com/9QSqcQAprD
— infobae (@infobae) July 15, 2024