Empleados de empresas de IA advierten sobre «graves riesgos» de la tecnología
Un grupo de empleados actuales y antiguos de empresas de inteligencia artificial (IA), como OpenAI, Google DeepMind y Anthropic, pidieron el martes a las compañías protección ante represalias para los trabajadores que compartan sus preocupaciones sobre esta tecnología.
En una carta abierta firmada por trece personas, se afirma que las empresas de IA poseen «sustancial información no pública sobre las capacidades y limitaciones de sus sistemas, la idoneidad de sus medidas de protección y los niveles de riesgo de diferentes tipos de daños». Sin embargo, tienen «solo obligaciones vagas» de compartir esa información con los gobiernos, y «ninguna con la sociedad civil», destaca la misiva.
En este escenario, las «pocas personas» que pueden «exigir responsabilidad» a las compañías de IA son sus propios empleados. «No obstante, los amplios acuerdos de confidencialidad nos impiden expresar nuestras preocupaciones», explican los firmantes, agregando que «las protecciones ordinarias a los denunciantes son insuficientes, porque se centran en actividades ilegales», mientras que los «graves riesgos» sobre los que advierten aún no están regulados.
«Algunos de nosotros tememos razonablemente diversas formas de represalias, dada la historia de casos de este tipo en toda la industria», apuntan los trabajadores, resaltando que los riesgos de la IA van «desde un mayor afianzamiento de las desigualdades existentes, pasando por la manipulación y la desinformación, hasta la pérdida de control de los sistemas autónomos de IA, lo que podría provocar la extinción humana».
En este contexto, los firmantes piden a las empresas que «se comprometan» a no hacer cumplir acuerdos que prohíban «la crítica a la compañía por preocupaciones relacionadas con el riesgo» y que no tomen represalias contra los trabajadores por esas críticas. Asimismo, proponen establecer un procedimiento de carácter anónimo con el que empleados actuales y antiguos puedan plantear «inquietudes relacionadas con riesgos a las juntas directivas de las empresas, a los reguladores y a una organización independiente apropiada con experiencia relevante». Con RT