1. Ir al contenido
  2. Ir al menú principal
  3. Ir a más sitios de DW

Empleados afirman que OpenAI ignora serios riesgos de la IA

5 de junio de 2024

La rápida evolución de la inteligencia artificial preocupa a expertos que exigen leyes para proteger a los denunciantes, quienes enfrentan obstáculos al intentar compartir información crítica.

Según "The New York Times", Daniel Kokotajlo, ex investigador en OpenAI, predijo que la inteligencia artificial general llegaría en 2050, pero ahora cree que hay un 50% de posibilidades de que llegue en 2027.
Según "The New York Times", Daniel Kokotajlo, ex investigador en OpenAI, predijo que la inteligencia artificial general llegaría en 2050, pero ahora cree que hay un 50% de posibilidades de que llegue en 2027. Imagen: Jaap Arriens/NurPhoto/picture alliance

Varios antiguos y actuales empleados de OpenAI han publicado una carta abierta en la que expresan su preocupación por el rápido desarrollo de la industria de la inteligencia artificial y la ausencia de leyes que protejan a los denunciantes. 

"Las empresas de inteligencia artificial tienen fuertes incentivos financieros para evitar una supervisión eficaz, y no creemos que las estructuras a medida de gobierno corporativo sean suficientes para cambiar esta situación", afirman los empleados. 

Entre los firmantes de la carta figuran los antiguos empleados de OpenAI Daniel Kokotajlo, Jacob Hilton, William Saunders, Carroll Wainwright y Daniel Ziegler; el antiguo empleado de Google DeepMind Ramana Kumar; el actual empleado de DeepMind Neel Nanda, y varios otros antiguos empleados anónimos.

IA avanzada podría causar daño catastrófico a la humanidad

Según The New York Times, Daniel Kokotajlo, ex investigador de gobernanza en OpenAI, predijo en su antiguo trabajo que la inteligencia artificial general (IAG) –un tipo hipotético de inteligencia artificial que iguala o excede la inteligencia humana promedio– llegaría en 2050. Sin embargo, al observar la rápida mejora de la IA, ajustó sus previsiones y ahora cree que hay un 50 % de posibilidades de que la IAG llegue en 2027. 

También estima que la probabilidad de que la IA avanzada cause daño catastrófico a la humanidad es del 70 %, informó el medio estadounidense.

La carta abierta destaca la ausencia de leyes que protejan a los denunciantes en la industria.Imagen: Rafael Henrique/ZUMA PRESS/picture alliance

Empresas omiten compartir datos con la sociedad civil

En la carta, los empleados afirmaban estar preocupados por "los graves riesgos que plantean estas tecnologías", la mayoría de los cuales son desconocidos para los extraños, ya que las empresas "actualmente solo tienen débiles obligaciones de compartir parte de esta información con los gobiernos, y ninguna con la sociedad civil." 

"No creemos que se pueda confiar en que todas la compartan voluntariamente", añadieron. 

"Es muy difícil saber desde fuera hasta qué punto se toman en serio sus compromisos de aumentar la seguridad y determinar los daños sociales, sobre todo teniendo en cuenta las fuertes presiones comerciales para actuar con rapidez", argumentó uno de los empleados.  

Hablando de las leyes de denuncia de irregularidades, los empleados afirmaron que "las protecciones ordinarias de los denunciantes son insuficientes porque se centran en la actividad ilegal, mientras que muchos de los riesgos que nos preocupan aún no están regulados". 

La carta abierta también hace hincapié en cómo los empleados no pueden compartir información sustancial sobre las capacidades de la IA debido a acuerdos de confidencialidad. 

"Es realmente importante contar con la cultura y los procesos adecuados para que los empleados puedan hablar de forma específica cuando tengan preocupaciones", exigió uno de los empleados. 

En una respuesta a la carta, la empresa respaldada por Microsoft dijo que está orgullosa de su "historial proporcionando los sistemas de IA más capaces y seguros y cree en nuestro enfoque científico para abordar el riesgo." 

OpenAI también destacó que cuenta con una línea directa de integridad anónima y un Comité de Seguridad para proteger a los denunciantes.

FEW (dpa, The New York Times)

Ir a la siguiente sección Descubra más