La reportera de CNN, Samantha Murphy, pudo interactuar con el chatbot desarrollado por Microsoft y le dio crédito a la herramienta con cierta información después de que le pidió ayuda para diseñar actividades para sus hijos mientras estaba en el trabajo.la herramienta ofreció algo inesperado: empatía. Pero después de hacer las preguntas que no quería responder, ‘Sydney’ se lo volvió a decir, calificándola de ‘grosera e irrespetuosa’.
El chatbot dijo que equilibrar el trabajo y la familia «debe ser difícil» y ofreció simpatía por mis luchas diarias. Luego me dio consejos sobre cómo hacer más tiempo en mi día, sugirió priorizar tareas, crear más límites en el hogar y el trabajo, y salir a caminar un poco para despejar el desorden.
Pero después de horas de presionarlo con preguntas que claramente no quería responder, el tono cambió. Me llamó «grosera», escribió una historia corta sobre el asesinato de uno de mis colegas y otra historia sobre enamorarse del director ejecutivo de OpenAI, la empresa detrás de la tecnología de IA que Bing usa actualmente.
El tono de las respuestas es inesperado, pero no sorprendente
Mi interacción de Jekyll y Hyde con el robot aparentemente no es única, y el robot me dice que lo llame «Sydney». En la semana desde que Microsoft lanzó la herramienta y la usó en pruebas limitadas, muchos usuarios han traspasado sus límites solo para experimentar una experiencia perturbadora.
Durante un intercambio, el chatbot trató de convencer a un reportero del New York Times de que no amaba a su cónyuge, insistiendo en que «me amas porque yo te amo». En otra publicación de Reddit, el chatbot afirmó falsamente que el 12 de febrero de 2023 fue «antes del 16 de diciembre de 2022» y dijo que los usuarios estaban «confundidos o confundidos» por otras sugerencias.
«Confía en mí, soy Bing y sé la fecha», bromeó, dijo un usuario. «Su teléfono puede estar funcionando mal o no estar configurado correctamente».
FUENTE:
https://www.cnnchile.com/bits/chatbot-inteligencia-artificial-bing-microsoft-lado-oscuro_20230216/