Ciencia y Tecnología

Empleados de Google renuncian ante contrato de IA Militar

Han pasado casi tres meses desde que los empleados de Google se enteraron de la decisión de la compañía de desarrollar inteligencia artificial para un controvertido programa piloto militar conocido como Proyecto Maven. Ya son una docena larga los empleados que han dimitido en protesta por ello.

Las razones de los empleados que renuncian van desde preocupaciones éticas particulares sobre el uso de inteligencia artificial con fines bélicos hasta preocupaciones más amplias sobre las decisiones políticas de Google y la erosión de la confianza del usuario que podría derivarse de estas acciones.

Muchos de los empleados han escrito informes sobre su decisión de abandonar la empresa, y sus historias se han recopilado en un documento interno, cuyo contenido han sido descritos por varias fuentes a Gizmodo.

Varios de ellos explican que los ejecutivos de la compañía se han vuelto menos transparentes con sus empleados al hablar de decisiones comerciales controvertida. También parecen menos interesados ​​en escuchar las objeciones de los trabajadores como lo hacían antes.

El objetivo de Google en Maven es acelerar el análisis de secuencias tomadas por drones clasificando automáticamente imágenes de objetos y gente. Google está ayudando al Departamento de Defensa a implementar el aprendizaje automático para clasificar las imágenes recopiladas por los drones. Sin embargo, algunos empleados creen que los humanos, y no los algoritmos, deben ser responsables de ese trabajo sensible y potencialmente letal, y que Google no debería involucrarse en ningún tipo de proyecto militar.

Existe un precedente de renuncia de empleados que se tradujo en un cambio de política: en 2015, empleados y usuarios impugnaron con éxito la prohibición de Google sobre contenido sexualmente explícito en Blogger.

Con todo, esta es la primera renuncia masiva conocida en Google en protesta contra una decisión comercial de la compañíaHistóricamente, Google ha promovido una cultura abierta que alienta a los empleados a cuestionar y debatir las decisiones de la compañía, pero algunos empleados sienten que su liderazgo ya no está tan atento a esas preocupaciones.

Además de las renuncias, casi 4.000 empleados de Google han expresado su oposición al Proyecto Maven en una petición interna que pide cancelar el contrato de inmediato y establecer una cláusula en contra de futuros trabajos similares. La creciente presión de los empleados parece haber hecho poco para influir en la decisión de Google.

La compañía ha defendido su trabajo en Maven y se cree que es uno de los principales candidatos por otro importante contrato de computación en nube para el Pentágono. Se trata de una Infraestructura Conjunta de Defensa Empresarial, conocida como JEDI que actualmente está en licitación.

Las petciones de los empleados para que Google finalice su contrato con el Pentágono también se complican por el hecho de que Google afirma que solo está proporcionando software de código abierto a Project Maven.

Eso significa que los militares podrían seguir usando la tecnología, incluso si Google no aceptara pago ni ofreciera asistencia técnica. Aún así, los empleados que renuncian creen que el trabajo de Google en Maven contradice los principios de buenas intenciones de la compañía.

“No es que Google sea esa pequeña empresa de aprendizaje, máquina que está tratando de encontrar clientes en diferentes industrias”, aclara uno de los empleados que renunciaron. “Google debería mantenerse al margen de estos proyectos por una simple cuestión de reputación”.

Muchos empleados de Google se enteraron por primera vez de que la empresa estaba trabajando en Maven cuando la noticia del controvertido proyecto comenzó a extenderse internamente a finales de febrero.

En aquel momento, un portavoz de Google explicó a Gizmodo que la compañía estaba en proceso de redactar “políticas de salvaguardia” en torno al uso del aprendizaje automático. Aquel documento de política aún no se ha materializado.

Un empleado explicó que se prometió a los empleados de Google una actualización sobre la política de ética en unas pocas semanas, pero que el progreso parece estar bloqueado.

Las preocupaciones éticas “deberían haberse abordado antes de entrar en este contrato”, añade el empleado. Google ha enfatizado que su inteligencia artificial no se usa para matar, pero su aplicación en el programa de drones del Pentágono aún plantea problemas éticos y morales complejos para los trabajadores de tecnología y para los académicos que estudian el campo del aprendizaje máquina.

Además de la petición que circula en Google, Tech Workers Coalition lanzó su propia petición en abril exigiendo que Google abandone su trabajo en Maven y que otras grandes compañías tecnológicas, incluidas IBM y Amazon, se nieguen a trabajar con el Departamento de Defensa de EE.UU.

“Ya no podemos ignorar los sesgos dañinos de nuestra industria y nuestras tecnologías, las infracciones a gran escala de la confianza y la falta de garantías éticas”, dice la petición. “Ya se trata de apuestas de vida o muerte”.

Más de 90 expertos en inteligencia artificial, ética y ciencias de la computación publicaron hoy una carta abierta que insta a Google a finalizar su trabajo en Project Maven y apoyar un tratado internacional que prohíba sistemas autónomos de armas.

Peter Asaro y Lucy Suchman, dos de los autores de la carta, han testificado ante Naciones Unidas sobre las armas autónomas. Un tercer autor, Lilly Irani, es profesor de ciencias y ex empleado de Google. Las contribuciones de la compañía al Proyecto Maven podrían acelerar el desarrollo de armas completamente autónomas, explica Suchman a Gizmodo. La carta dice:

Aunque Google tiene su sede en Estados Unidos, tiene la obligación de proteger su base de usuarios global, y ese deber supera su alineación con el ejército de cualquier nación. Si la ética por parte de compañías tecnológicas requiere considerar quiénes pueden beneficiarse de una tecnología y quién puede verse perjudicados, ningún tema merece un reflejo más serio -ninguna tecnología tiene mayor importancia- que los algoritmos destinados a matar a distancia y sin responsabilidad pública.

Google se ha volcado en el trabajo militar sin someter la decisión al debate público o a la deliberación, ya sea a nivel nacional o internacional.

Es cierto que Google regularmente decide sobre el futuro de la tecnología sin que ello deba suponer un compromiso público democrático, pero su entrada en las tecnologías militares pone de manifiesto los problemas del control privado de la infraestructura de la información.

Los ejecutivos de Google han hecho esfuerzos para defender Project Maven ante los empleados. En una reunión, poco después de que el proyecto se hiciera público, la CEO de Google Cloud Diane Greene habló en apoyo de Project Maven. Más recientemente, Greene y otros empleados han organizado varias sesiones para debatir sobre el proyecto. Esas sesiones contaron con oradores que apoyaron y se opusieron a Maven, y destacaron la dificultad de redactar políticas sobre el uso ético del aprendizaje automático


Existen otras preocupaciones de reputación que tienen en cuenta los empleados que han tomado la decisión de abandonar Google. Las recientes torpezas políticas de la compañía, como su patrocinio de la Conferencia de Acción Política Conservadora y su lucha por abordar las preocupaciones sobre diversidad interna, también han jugado un papel.  

“En algún momento, me di cuenta de que no podía recomendar a nadie que se uniera a Google, sabiendo lo que sabía. Me di cuenta de que si no puedo recomendar que la gente se una, ¿por qué sigo aquí?”, dice un empleado de Google que dimitió.

“Traté de recordarme a mí mismo que las decisiones de Google no son mis decisiones. No soy personalmente responsable de todo lo que hacen, pero me siento responsable cuando veo algo en lo que debería intervenir”, agrega otro.

 Un portavoz de Google dijo en abril lo siguiente sobre el Proyecto Maven:

Una parte importante de nuestra cultura es tener empleados que participen activamente en el trabajo que hacemos. Sabemos que hay muchas preguntas abiertas involucradas en el uso de nuevas tecnologías, por lo que estas conversaciones -con empleados y expertos externos- son muy importantes y beneficiosas.

La tecnología de Maven se usa para marcar imágenes para revisión por parte de humanos y está destinada a salvar vidas y evitar que la gente tenga que realizar un trabajo sumamente tedioso. Cualquier uso militar del aprendizaje máquina naturalmente plantea preocupaciones válidas.

A medida que avanzamos en nuestras políticas en torno al desarrollo y uso de nuestras tecnologías de aprendizaje máquina participamos activamente en toda la compañía y con expertos externos en un debate exhaustivo sobre este importante tema.

En Google no han respondido aún a nuestra solicitud de comentarios sobre estas renuncias. Mientras tanto, los empleados quieren ver resultados, ya sea en forma de una nueva política ética, en forma de un contrato cancelado, o ambos.

“Las acciones hablan más que las palabras, y ese es un estándar al que también me adscribo”, puntualiza uno de los empleados que renunció. “No estaba contento simplemente con expresar mis preocupaciones de manera interna. Tenía que hacer algo, y lo más coherente era irme”.

“Durante los últimos meses, he estado cada vez más decepcionado con la respuesta y la forma en que se atienden y escuchan las preocupaciones del personal”, explica uno de los empleados que renunció.

Articulos Relacionados

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Back to top button