Han firmado una carta abierta advirtiendo sobre los riesgos potenciales y dicen que la carrera para desarrollar sistemas de IA está fuera de control.

El jefe de Twitter, Elon Musk, se encuentra entre los que quieren que el entrenamiento de IA por encima de cierta capacidad se detenga durante al menos seis meses.

El cofundador de Apple, Steve Wozniak, y algunos investigadores de DeepMind también firmaron.

OpenAI, la compañía detrás de ChatGPT, lanzó recientemente GPT-4. Una tecnología de punta que ha impresionado a los observadores con su capacidad para realizar tareas como responder preguntas sobre objetos en imágenes.

La carta, del Future of Life Institute y firmada por las luminarias, quiere que el desarrollo se detenga temporalmente en ese nivel. Advirtiendo en su carta de los riesgos futuros, los sistemas más avanzados podrían plantear.

«Los sistemas de inteligencia artificial con inteligencia humana y competitiva pueden plantear riesgos profundos para la sociedad y la humanidad», dice.

El Future of Life Institute es una organización sin fines de lucro que dice que su misión es «dirigir las tecnologías transformadoras lejos de los riesgos extremos a gran escala y hacia el beneficio de la vida».

Musk, propietario de Twitter y director ejecutivo de la compañía automotriz Tesla, figura como asesor externo de la organización.

Las IA avanzadas deben desarrollarse con cuidado, dice la carta, pero en cambio, «los últimos meses han visto a los laboratorios de IA encerrados en una carrera fuera de control para desarrollar e implementar mentes digitales cada vez más poderosas que nadie. Ni siquiera sus creadores». – puede comprender, predecir o controlar de forma fiable».

La carta advierte que las IA podrían inundar los canales de información con información errónea y reemplazar los trabajos con automatización.

La carta sigue a un informe reciente del banco de inversión Goldman Sachs que decía que si bien es probable que la IA aumente la productividad, millones de trabajos podrían automatizarse.

Sin embargo, otros expertos le dijeron a la BBC que el efecto de la IA en el mercado laboral era muy difícil de predecir.

Más especulativamente, la carta pregunta: «¿Deberíamos desarrollar mentes no humanas que eventualmente podrían superarnos en número, ser más inteligentes, obsoletas [sic] y reemplazarnos?»

En una publicación de blog reciente citada en la carta, OpenAI advirtió sobre los riesgos si se desarrolla imprudentemente una inteligencia general artificial (AGI): «Una AGI superinteligente desalineada podría causar un daño grave al mundo. Un régimen autocrático con una superinteligencia decisiva podría hacer eso también.

«La coordinación entre los esfuerzos de AGI para reducir la velocidad en momentos críticos probablemente será importante», escribió la firma.

OpenAI no ha comentado públicamente sobre la carta. La BBC le ha preguntado a la firma si respalda la llamada.

Musk fue cofundador de OpenAI, aunque renunció a la junta de la organización hace algunos años y tuiteó críticas sobre su dirección actual .

Las funciones de conducción autónoma realizadas por su empresa de automóviles Tesla, como la mayoría de los sistemas similares, utilizan tecnología de IA.

Si tal demora no se puede promulgar rápidamente, los gobiernos deberían intervenir e instituir una moratoria, dice.

También se necesitarían «autoridades reguladoras nuevas y capaces dedicadas a la IA».

Recientemente, se han presentado una serie de propuestas para la regulación de la tecnología en los EE. UU., el Reino Unido y la UE. Sin embargo, el Reino Unido ha descartado un regulador dedicado a la IA.

FUENTE:

https://www.bbc.com/news/technology-65110030