Google reevalúa sus principios de IA: Un desafío al compromiso ético

175
0
Share:

En un movimiento que ha generado un amplio debate, Google ha decidido revisar sus principios sobre el uso de la inteligencia artificial (IA) y otras tecnologías avanzadas. La compañía, que hace cinco años prometía no involucrarse en el desarrollo de tecnologías dañinas, ha eliminado compromisos importantes de su guía, lo que ha llevado a muchos a cuestionar el rumbo ético que está tomando la firma de Mountain View.

Los cambios en estos principios fueron anunciados en una nota anexa a una entrada de blog de 2018 donde se detallaban las directrices originales. En ella, Google actualizó sus Principios de IA, instando a los usuarios a visitar AI.Google para conocer las novedades. Los ejecutivos explicaron que la razón detrás de estos cambios era el uso patrocinado y la evolución de los estándares relacionados con la IA, así como las batallas geopolíticas actuales en el ámbito de la tecnología.

Cuando Google publicó sus principios de IA en 2018, lo hizo en respuesta a las protestas internas tras su participación en un proyecto de drones militares de EE.UU. En aquel momento, la empresa se comprometió a no desarrollar armas, tecnologías de vigilancia que violaran derechos humanos, ni a facilitar el daño a las personas. Sin embargo, el reciente anuncio ha desvinculado esos compromisos, dando un giro hacia una mayor ambigüedad sobre sus aplicaciones en el futuro.

En lugar de enumerar las tecnologías prohibidas, la nueva guía de Google parece abrir la puerta a un espectro de usos potencialmente sensibles de la IA. Se destaca que la compañía implementará “mecanismos apropiados de supervisión humana” y que tomará medidas para “mitigar los resultados no deseados o perjudiciales”. Esta es una señal preocupante para aquellos que apoyan un enfoque más cauteloso y ético en la utilización de la IA.

El compromiso con la ética tecnológica en riesgo ante cambios de dirección

James Manyika y Demis Hassabis, altos ejecutivos de Google, enfatizaron que creen que “las democracias deben liderar el desarrollo de la IA, guiadas por valores fundamentales como la libertad y el respeto a los derechos humanos”. Sin embargo, la eliminación de normas específicas plantea interrogantes sobre cómo se traducirán esos ideales en práctica.

Desde el anuncio de cambios, varios empleados de Google, incluidos miembros del sindicato Alphabet Union Workers-CWA, han expresado su preocupación. “Es alarmante ver cómo Google se aleja de su compromiso con el uso ético de la tecnología de IA“, dijo Parul Koul, ingeniero de software. Esto demuestra que los trabajadores han estado pidiendo claridad sobre la dirección de la empresa, especialmente dado el aumento de la militarización de la tecnología.

Con el regreso de Donald Trump a la política estadounidense, muchas empresas, incluida Google, se ven presionadas a reconsiderar sus principios sobre la equidad y otros valores liberales. Sin embargo, un portavoz de Google ha aclarado que los cambios se habían estado preparando desde hace mucho tiempo, lejos de reactores inmediatos a la situación política.

La nueva dirección de la empresa ha dejado de lado expresiones como “ser socialmente beneficioso” y “mantener la excelencia científica”, lo cual representa un cambio significativo en su narrativa. En su lugar, se hace referencia a la necesidad de “respetar los derechos de propiedad intelectual“, enfatizando un enfoque más mercantilista.

En conclusión, la decisión de Google de modificar sus principios de IA genera inquietud no solo entre sus empleados, sino también en la comunidad que ha confiado en su compromiso ético. A medida que la inteligencia artificial continúa su avance a pasos agigantados, es crucial que las empresas tecnológicas mantengan su responsabilidad social y ética en primer plano. La revisión de los principios puede llevar a un futuro incierto, tanto para Google como para el desarrollo de la inteligencia artificial en general.

Share: