Interés General Google trabajará para el Pentágono  Hubo una fuerte reacción de los empleados contra el uso militar de su trabajo.
Unos 600 trabajadores de la empresa firmaron una declaración contra los acuerdos militares con el estado norteamericano.
Google acordó permitir que el Pentágono utilice sus herramientas de inteligencia artificial, una decisión que sale a la luz apenas un día después de que más de 600 empleados exigieran a la cúpula directiva vetar este tipo de acuerdos militares.
Según indica este martes The Wall Street Journal, el gigante tecnológico dio luz verde al Departamento de Defensa de EE.UU. para operar con su tecnología en secreto, aunque incluyó cláusulas contractuales especificando que su IA no está destinada a la vigilancia masiva nacional ni al desarrollo de armas totalmente autónomas.
El lunes, 600 trabajadores firmaron y enviaron una misiva al director ejecutivo de la compañía, Sundar Pichai, para detener cualquier colaboración clasificada con el Ejército.
“Queremos que la IA beneficie a la humanidad, no que se utilice de forma inhumana o extremadamente dañina”, señalaron los trabajadores en la carta, a la que tuvo acceso The Washington Post.
Anthropic se resiste A principios de año, el Pentágono rompió lazos con Anthropic después de que la compañía intentara añadir una cláusula para evitar que su tecnología se usara en vigilancia masiva o armas letales autónomas.
No obstante, tras la noticia, OpenAI (empresa de IA que creó ChatGPT) firmó un acuerdo con el Pentágono. Los modelos de Anthropic han sido utilizados durante la guerra de Irán y en la operación para capturar al líder venezolano Nicolás Maduro.
Google se retiró anteriormente de una colaboración militar que utilizaba sus productos de IA, denominada Proyecto Maven, tras una fuerte reacción negativa por parte de sus empleados en 2018. Y de inmediato se quedó con ese contrato la firma de vigilancia global Palantir, creada por Peter Thiel, quien se reunió esta semana con Javier Milei.
La carta, dirigida al director ejecutivo de Google, Sundar Pichai, llega en momentos en el que el gigante tecnológico está en conversaciones con el Departamento de Defensa para implementar su modelo insignia de IA, Gemini, para trabajos clasificados.
“Los trabajos clasificados son, por definición, opacos”, dijo en el comunicado un empleado organizador que no fue identificado. “Ahora mismo, no hay manera de garantizar que nuestras herramientas no se utilicen para causar daños terribles o erosionar las libertades civiles lejos del escrutinio público. Estamos hablando de cosas como perfilar a personas o apuntar contra civiles inocentes”, agregó.
Google no sabe no contesta Google no respondió de inmediato a una solicitud de comentarios. Más de 20 directores, directores sénior y vicepresidentes están entre los firmantes.
El gigante tecnológico es una de las compañías que compiten por llenar el vacío que dejó Anthropic --empresa catalogada de “izquierdista” por Donalt Trump- para ser el próximo proveedor de IA del gobierno en trabajos clasificados y no clasificados.
Google ya tiene un contrato con el Pentágono para trabajos no clasificados a través de un programa conocido como genAI.mil.
Anthropic demandó al Pentágono por su designación como “riesgo para la cadena de suministro”, después de que la compañía solicitara que su tecnología no se utilizara para la vigilancia masiva en Estados Unidos ni para una guerra automatizada.
Según la misiva, Google ha propuesto un lenguaje contractual que evitaría que Gemini sea usado con fines de vigilancia doméstica masiva o el desarrollo de armas autónomas sin que tengan un control humano apropiado.
El Pentágono, sin embargo, ha presionado para que se utilice una redacción amplia de “todos los usos legales”, que, dice, es necesaria para mantener la flexibilidad operativa.
Los empleados dicen que las salvaguardias propuestas son técnicamente inaplicables y señalan la política del Pentágono que prohíbe que entidades externas impongan controles sobre sus sistemas de IA.
“Si la dirección realmente se toma en serio la prevención de daños futuros, debe rechazar por completo, por ahora, las cargas de trabajo clasificadas”, dijo un segundo firmante de la carta.
Martes, 28 de abril de 2026
|