Temen que la Inteligencia Artificial se convierta en un arma para los hackers

Viernes, 23 Febrero, 2018
Fuente: 
Ambito Financiero
La inteligencia artificial (AI) puede transformarse en un arma en las manos de cibercriminales y Estados "canallas", advirtió un grupo de investigadores que temen el impacto de la nueva tecnología en las guerras y la seguridad física diaria.

Desde ataques a infraestructuras críticas a choques de automóviles con conducción autónoma, así como la creación de campañas de desinformación, la inteligencia artificial -si es violada por piratas informáticos- puede prestarse a una serie de usos criminales que amenazan la seguridad.

La alarma provino de un estudio realizado por una veintena de investigadores de las Universidades de Cambridge, Oxford y Yale, con apoyo del grupo de estudio OpenAI fundado por el empresario Elon Musk -creador de Tesla- y expertos en privacidad y temas militares.

En manos equivocadas, la inteligencia artificial amenaza la seguridad digital. 

La tecnología podría, por ejemplo, ser utilizada para enseñar a las máquinas a convertirse en hackers, descerrajando ciberataques automatizados muy poderosos.

Pero la amenaza es también a la seguridad física: los criminales podrían tomar el control de los autos autónomos, causando todo tipo de incidentes.

Y en el caso de captar el control de los drones, también podrían transformarlos en armas dirigidas a blancos precisos.

Finalmente, la AI amenaza la seguridad política mediante una vigilancia que anula la privacidad o la represión.

Aún más, puede ser utilizada para crear videos falsos, pero reales, que tengan a los políticos como protagonistas sin saberlo, con el objeto de hacer propaganda.

"Vivimos en un mundo que podría verse repleto de peligros cotidianos a causa de un mal uso de la AI", advierte Sean OhEigeartaigh, director del Centro para el Estudio del Riesgo Existencial del ateneo de Cambridge.

"Los riesgos son reales. Hay decisiones que debemos tomar ahora: nuestro informe es una llamada de atención a los gobiernos, instituciones y personas particulares de todo el mundo", precisó.

El temor por el mal uso de la inteligencia artificial no es algo nuevo: Elon Musk de hecho el año pasado lanzó un llamado, junto con 116 fundadores de compañías de robótica e inteligencia artificial, para pedir a la ONU que prohíba las armas autónomas robotizadas.

"Las armas letales autónomas amenazan con volverse la tercera revolución en la guerra. Una vez sean desarrolladas, permitirán que el conflicto armado se luche a una escala mucho más grande que nunca y en escalas de tiempo mucho más rápidas que los humanos pueden comprender", alertaron.