👁Visitas: 4213504

69283599_1004

Empleados afirman que OpenAI ignora serios riesgos de la IA

Varios antiguos y actuales empleados de OpenAI han publicado una carta abierta en la que expresan su preocupación por el rápido desarrollo de la industria de la inteligencia artificial y la ausencia de leyes que protejan a los denunciantes.

“Las empresas de inteligencia artificial tienen fuertes incentivos financieros para evitar una supervisión eficaz, y no creemos que las estructuras a medida de gobierno corporativo sean suficientes para cambiar esta situación”, afirman los empleados.

Entre los firmantes de la carta figuran los antiguos empleados de OpenAI Daniel Kokotajlo, Jacob Hilton, William Saunders, Carroll Wainwright y Daniel Ziegler; el antiguo empleado de Google DeepMind Ramana Kumar; el actual empleado de DeepMind Neel Nanda, y varios otros antiguos empleados anónimos.

Según The New York Times, Daniel Kokotajlo, ex investigador de gobernanza en OpenAI, predijo en su antiguo trabajo que la inteligencia artificial general (IAG) –un tipo hipotético de inteligencia artificial que iguala o excede la inteligencia humana promedio– llegaría en 2050. Sin embargo, al observar la rápida mejora de la IA, ajustó sus previsiones y ahora cree que hay un 5 0% de posibilidades de que la IAG llegue en 2027.

También estima que la probabilidad de que la IA avanzada cause daño catastrófico a la humanidad es del 70 %, informó el medio estadounidense.

En la carta, los empleados afirmaban estar preocupados por “los graves riesgos que plantean estas tecnologías”, la mayoría de los cuales son desconocidos para los extraños, ya que las empresas “actualmente solo tienen débiles obligaciones de compartir parte de esta información con los gobiernos, y ninguna con la sociedad civil.”

“No creemos que se pueda confiar en que todas la compartan voluntariamente”, añadieron.

“Es muy difícil saber desde fuera hasta qué punto se toman en serio sus compromisos de aumentar la seguridad y determinar los daños sociales, sobre todo teniendo en cuenta las fuertes presiones comerciales para actuar con rapidez”, argumentó uno de los empleados.

Hablando de las leyes de denuncia de irregularidades, los empleados afirmaron que “las protecciones ordinarias de los denunciantes son insuficientes porque se centran en la actividad ilegal, mientras que muchos de los riesgos que nos preocupan aún no están regulados”.

La carta abierta también hace hincapié en cómo los empleados no pueden compartir información sustancial sobre las capacidades de la IA debido a acuerdos de confidencialidad.

“Es realmente importante contar con la cultura y los procesos adecuados para que los empleados puedan hablar de forma específica cuando tengan preocupaciones”, exigió uno de los empleados.

En una respuesta a la carta, la empresa respaldada por Microsoft dijo que está orgullosa de su “historial proporcionando los sistemas de IA más capaces y seguros y cree en nuestro enfoque científico para abordar el riesgo.”

OpenAI también destacó que cuenta con una línea directa de integridad anónima y un Comité de Seguridad para proteger a los denunciantes.

Tomado de The New York Time

Compartir:

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *