Google ha establecido un nuevo código de ética para orientar su enfoque hacia la inteligencia artificial, que incluye la prohibición de las armas basadas en inteligencia artificial.Este anuncio se produce después de la fuerte protesta de los empleados de Google por la participación de la compañía en Project Maven. Es un proyecto de colaboración donde el ejército de los EE. UU. Tiene como objetivo utilizar la tecnología AI de Google para iniciar un equipo interfuncional de guerra algorítmica.La noticia de tal colaboración creó miedo acerca de cómo la tecnología podría ayudar a automatizar la guerra en el futuro. Entonces, después de enfrentar la presión de los empleados y otras personas sobre el contrato, Google finalmente declaró que no renovaría su contrato.En una publicación de blog, el CEO de Google, Sundar Pichai, anunció un conjunto de siete nuevos principios para guiar el uso de Google de la inteligencia artificial. Los principios rectores establecen que el uso de Google de AI debe ser:
- Beneficioso para la sociedad
- Evitar el sesgo algorítmico
- Seguridad probada
- Responsable para el público
- Centrado en la privacidad
- Mantener la excelencia científica
- Disponible para causas alineadas con los mismos principios
También señaló que aunque la compañía no usará inteligencia artificial para crear armas, continuará "trabajando con gobiernos y militares en muchas otras áreas", que incluye ciberseguridad, capacitación y búsqueda y rescate.Pichai también mencionó que Google evitará desarrollar cualquier tecnología de vigilancia que viole las normas internacionalmente aceptadas de derechos humanos o algo que viole las leyes internacionales.La inteligencia artificial se está extendiendo a todos los ámbitos de la vida y los usos militares de la IA no es exactamente un secreto con cada vez más empresas que buscan vender la tecnología de IA tanto como sea posible. Pero parece que a pesar de que Google ha abandonado su lema "Do not be evil", continúa conservando su cultura idealista.
0 Comentarios