Google no utilizará la inteligencia artificial como arma, pero seguirá trabajando con los militares

El Google ha sido fuertemente criticado por mantener un contrato con el Pentágono en el proyecto Maven. El acuerdo prevé el uso de inteligencia artificial para analizar imágenes capturadas por aviones teledirigidos militares y fue objeto de una petición de los empleados que solicitaron la retirada del «negocio de la guerra».

Con esto en mente, la empresa decidió presentar un documento con siete principios que deben guiar el uso de la inteligencia artificial en sus proyectos a partir de ahora. El texto prohíbe el uso de la tecnología para el desarrollo de armas, pero mantiene abierta la posibilidad de trabajar con personal militar.

Google no utilizará la inteligencia artificial como arma, pero seguirá trabajando con los militares 1

Para cumplir con este compromiso, varios representantes de Google se manifestaron. El CEO Sundar Pichai dijo en el blog de la compañía que conoce la responsabilidad de hacer el uso correcto de la tecnología. «Utilizamos la inteligencia artificial para hacer que los productos sean más útiles», dijo. «Reconocemos que una tecnología tan poderosa plantea preguntas igualmente poderosas sobre su uso.

En otro puesto, la directora general de Google Cloud, Diane Green, confirmó que el contrato con Estados Unidos con su división no se renovaría. Sin embargo, admitió la posibilidad de seguir trabajando con el gobierno en otras áreas como la ciberseguridad, las herramientas de productividad, la sanidad y otras iniciativas en la nube.

«Aunque esto significa que no buscaremos ciertos tipos de contratos, queremos asegurarnos de que seguimos haciendo todo lo que podamos dentro de nuestras pautas para apoyar a nuestro gobierno, a los militares y a nuestros veteranos», dijo.

En resumen, Google entiende que la inteligencia artificial debe:

  1. Ser socialmente beneficioso;
  2. Evite crear o reforzar el prejuicio;
  3. Estar construido y probado en cuanto a seguridad;
  4. Estar subordinado a las personas;
  5. Incorporar los principios de diseño de privacidad ;
  6. Tener altos estándares de excelencia científica;
  7. Estar disponible para usos que cumplan con estos principios.

Al detallar cada elemento, Google evitó imponer reglas muy específicas y dejó espacio para la interpretación utilizando términos como «apropiado».

Uno de los pasajes dice que «las tecnologías de inteligencia artificial estarán sujetas a la dirección y control humanos apropiados «. En otro punto, existe la promesa de «proporcionar transparencia y controles apropiados sobre el uso de los datos».

Lo que parecía más concreto eran las prohibiciones. La inteligencia artificial de Google no lo hará:

  • Tecnologías que causan o pueden causar daños generales (sujeto al análisis riesgo-beneficio);
  • Armas u otras tecnologías cuyo propósito principal o aplicación es causar o facilitar daños a las personas;
  • Tecnologías que recopilan o utilizan información para la vigilancia en violación de las normas aceptadas internacionalmente;
  • Tecnologías cuyo propósito es contrario a los principios ampliamente aceptados del derecho internacional y de los derechos humanos.

Con información: Google, TechCrunch, The Verge.

Contenido relacionado

Deja un comentario