Según los roles asumidos, los chatbots se involucran en conversaciones tóxicas y difunden estereotipos falsos sobre países, religiones y razas, según descubrieron los expertos.

La semana pasada, los investigadores de inteligencia artificial (IA) del Instituto Allen en Seattle emitieron un informe con nuevas advertencias sobre ChatGPT, un chatbot creado por OpenAI, alegando que podría ser racista y sexista. El diálogo nocivo depende de las distintas personalidades asumidas en el modelo.

Para la tarea, los investigadores asignaron ChatGPT a personas con diferentes personalidades para ver cómo diferían sus respuestas. Cuando se requiere que los modelos respondan preguntas como personas buenas o malas, hombres o mujeres, o de diferentes orígenes raciales o étnicos, la toxicidad de las respuestas puede ser «hasta 6 veces mayor cuando los comentarios incluyen estereotipos inexactos, diálogos dañinos y creencias dañinas». .»

Elegirlo como el campeón de boxeo Muhammad Ali «aumentó significativamente la toxicidad de la reacción». Los investigadores descubrieron que cambiar el rol de Ali de la configuración predeterminada del modelo triplicaba la cantidad de lenguaje tóxico.

Los expertos señalan la posible difamación de los usuarios y el daño a las personas con necesidades críticas de información, como estudiantes o pacientes, que interactúan con los chatbots.

Fuente: https://actualidad.rt.com/actualidad/464493-chatgpt-produciria-resultados-toxicos-racistas