Editorial

Inteligencia artificial

La innovación constante y la aparición de sorprendentes desarrollos tecnológicos ponen a prueba todo el tiempo nuestra capacidad de asombro, especialmente en lo que podemos comprobar en la vida cotidiana. Mediante la domótica hoy se administran técnicas que permiten automatizar una vivienda integrando sistemas de seguridad, gestión de la energía o bienestar entre otras. Con un teléfono en el trabajo se pueden abrir o cerrar las cortinas, controlar las luces, encender o apagar un equipo de aire acondicionado entre otras posibilidades. 
Lo que algunos denominan la "revolución tecnológica" cambia la forma de vivir, de aprender, de trabajar, de movilizarnos, de relacionarnos. Los abuelos que llegan tarde al universo virtual quedan perplejos de tantas opciones, aunque luego terminan utilizando un mínimo de ellas porque, se entiende, les resulta demasiado complicado incorporar las multifunciones de un teléfono celular inteligente. Los nietos enseñando a sus abuelos a ir de la televisión por cable tradicional a un canal tipo Netflix constituye otra postal que entregan los tiempos que corren. 
El avance de la ciencia y la innovación como religión abren también un debate moral sobre qué está bien y qué está mal respecto a la tecnología. El sistema de valores es necesario en el proceso en busca de consensos sobre qué hacemos con un nuevo desarrollo tecnológico. 
Por caso, la tecnología nuclear se aplica en salud para ayudar a salvar vidas, en generar energía para que funcione una fábrica, un hogar o iluminar toda una ciudad. Pero también es cierto que se emplea en la industria de las armas y puede matar a millones de personas en pocos segundos. Es decir, esta tecnología en las manos equivocadas puede ser muy peligrosa. 
En este escenario, la corporación Google anunció recientemente que no desarrollará inteligencia artificial para armas o para "causar o facilitar directamente lesiones a personas", al presentar un conjunto de principios para el uso de esta tecnología. "Continuaremos nuestro trabajo con el gobierno y las fuerzas armadas en muchas otras áreas", escribió el presidente de la empresa, Sundar Pichai, en medio de presiones por un contrato con el sector militar que el gigante tecnológico dijo la semana pasada que no sería renovado.
Pichai detalló los siete principios en los que Google basa el uso de inteligencia artificial (IA) o cualquier computación avanzada que pueda simular comportamiento humano inteligente.
Dijo que Google usa IA para "ayudar a la gente a abordar problemas urgentes" como predecir incendios forestales, ayudar a los agricultores, diagnosticar enfermedades o prevenir la ceguera. "Reconocemos que una tecnología tan poderosa levanta igualmente poderosas preguntas sobre su uso", dijo Pichai en el blog. "Como la IA es desarrollada y usada tendrá un impacto significativo en la sociedad por muchos años. Como líderes en IA, sentimos una profunda responsabilidad de hacer esto de forma correcta", expresó al plantear los límites éticos sobre el destino que se le puede dar a una tecnología. 
El CEO garantizó que los programas de IA serán diseñados para aplicaciones que son "socialmente benéficas" y que "evitarán crear o reforzar prejuicios injustos". Los principios incluyen que los proyectos sean "construidos y probados para su seguridad", que sean "responsables" e "incorporen principios de diseño de privacidad".
Así, Google evitará el uso de cualquier tecnología "que cause o pueda causar un daño general", escribió Pichai. Eso significa evitar las "armas u otras tecnologías cuyo objetivo principal o implementación es causar o facilitar lesiones a personas" y sistemas "que recopilen o usen información para vigilancia que violen las normas internacionales".
El anuncio se produce en medio de una preocupación creciente de que se pueda perder el control de sistemas automatizados o robóticos, generando un caos. En las sombras de ese mundo virtual, los hackers pueden representar una amenaza aislada. Pero qué puede suceder cuando un país organiza un comando de hackers para plantear una guerra en el mundo virtual con el objetivo de controlar cosas, sistemas o armas de la vida real.
Varias empresas de tecnología han acordado mediante unos principios generales el uso de inteligencia artificial para el bien, pero Google fue más preciso en sus estándares. La compañía, que es miembro de la Alianza de Inteligencia Artificial, que incluye docenas de empresas tecnológicas comprometidas con los principios de IA, enfrentó críticas por un contrato con el Pentágono llamado Proyecto Maven, destinado a distinguir personas de objetos en videos de aviones no tripulados.
Después de una petición firmada por miles de empleados y de hacer frente a críticas fuera de la compañía, Google anunció que el contrato de 10 millones de dólares no sería renovado, según reportes de prensa.
Las armas químicas constituyen el resultado de las investigaciones de laboratorio. Con una cepa se puede enfermar a una ciudad o mucho más. La Inteligencia Artificial ofrece, con su enorme potencial, la posibilidad de mejorar la vida de las personas pero, mal utilizada, empeorarla. De nosotros depende. 




Autor: REDACCION

Estás navegando la versión AMP

Leé la nota completa en la web