Esta persona estuvo conversando con un chatbot durante 6 semanas antes de decidir finalmente quitarse la vida.
El caso de un belga que se suicidó tras hablar con un ‘chatbot’ se está extendiendo por todo el mundo esta semana.
Se trata de un tipo que habló con esta herramienta durante 6 semanas antes de que finalmente se quitara la vida.
Cabe recordar que un chatbot es un programa que utiliza inteligencia artificial (IA) y es capaz de mantener una conversación con el usuario.
Tal como lo describe The Brussels Times, estas conversaciones tuvieron lugar en el chatbot ELIZA, desarrollado por la empresa de código abierto EleutherAI.
La esposa de la víctima, que no fue identificada por los medios, contó su historia. «Mi esposo todavía estaría aquí sin estas conversaciones de chatbot», dijo.
La mujer, que cuida a sus dos hijos pequeños, dijo que su esposo había estado tan preocupado por el medio ambiente y la crisis climática durante algún tiempo que comenzó a hablar con un chatbot.
También sugirió que el hombre pudo haber encontrado algún tipo de refugio en esta inteligencia artificial, y continuó hablando con ella durante varias semanas antes de terminar con su vida.
En este caso, el ministro de Estado para la Digitalización de Bélgica, Mathieu Michel, quien pudo hablar con los familiares de las víctimas, mencionó que “lo ocurrido es un precedente grave que debe tomarse muy en serio y debe definirse claramente la responsabilidad. «
«Con la popularidad de ChatGPT, el público en general ha descubierto el potencial de la inteligencia artificial en nuestras vidas como nunca antes. Si bien las posibilidades son infinitas, los peligros de su uso también son una realidad que debe tenerse en cuenta», agregó.
¿Es peligroso interactuar con chatbots?
Los expertos han advertido sobre los riesgos de la interacción humana con la IA conversacional como esta, luego de la aparición de varias herramientas que evolucionaron a partir de los chatbots que se crearon en la década de 1960 pero se generalizaron hace solo unos años.
De hecho, en los últimos días, con la popularidad de OpenAI ChatGPT, expertos y líderes técnicos como Elon Musk han pedido una moratoria en el desarrollo de estas herramientas hasta que se implementen los protocolos de seguridad.
FUENTE: