Ecuador, 19 de Abril de 2024
Ecuador Continental: 12:34
Ecuador Insular: 11:34
El Telégrafo
Comparte

La inteligencia artificial podría caer en malas manos, advierten expertos

La inteligencia artificial, que apareció en los años 1950, se basa en algoritmos sofisticados que permiten resolver problemas que los humanos resuelven utilizando sus capacidades cognitivas.
La inteligencia artificial, que apareció en los años 1950, se basa en algoritmos sofisticados que permiten resolver problemas que los humanos resuelven utilizando sus capacidades cognitivas.
Foto: AFP
21 de febrero de 2018 - 06:48 - Agencia AFP

Expertos internacionales alertan en un informe publicado el miércoles sobre los riesgos de un uso malintencionado de la inteligencia artificial por parte de "Estados corruptos, de criminales o de terroristas" en un futuro cercano.

Según ellos, en la próxima década, la eficacia creciente de la inteligencia artificial (IA) podría reforzar la cibercriminalidad y conducir al uso de drones o robots con fines terroristas. Podría también facilitar la manipulación de elecciones a través de las redes sociales mediante cuentas automatizadas (bots).

Este extenso informe de 100 páginas fue redactado por 26 expertos especialistas en IA, ciberseguridad y robótica de prestigiosas universidades (Cambridge, Oxford, Yale, Stanford) y organismos no gubernamentales (OpenAI, Center for a New American Security, Electronic Frontier Foundation).

Estos expertos piden a los gobiernos y a los diferentes actores de este campo que pongan en pie mecanismos para limitar las posibles amenazas relacionadas con la inteligencia artificial.

"Creemos que los ataques que serían posibles por el uso creciente de la IA serán particularmente efectivos, finamente dirigidos y difíciles de atribuir", advierten.

Para ilustrar sus temores, estos especialistas mencionan varios "escenarios hipotéticos de usos malintencionado de la IA".

Explican por ejemplo que terroristas podrían alterar los sistemas de IA disponibles en los comercios (drones o vehículos autónomos) para causar accidentes o explosiones.

Los autores imaginan también casos de robots de limpieza traficados que se colarían entre otros robots encargados por ejemplo de la limpieza de un ministerio. Un día, el intruso podría atacar tras localizar visualmente al ministro. Se acercaría a él y se haría estallar, detallan.

- Videos falsos -
Por otra parte, Seán Ó hÉigeartaigh, uno de los autores del estudio, explica, en entrevista con la AFP, que "la cibercriminalidad, en fuerte alza, podría consolidarse con herramientas facilitadas por la IA".

Por ejemplo, los ataques denominados de spear phishing (ataques dirigidos a una organización o empresa para robar por ejemplo información confidencial) podrían ser más fáciles de llevar a cabo a una escala mayor.

Pero para él, "el riesgo más grande, aunque es menos probable, es el riesgo político". "Ya hemos visto cómo algunas personas están usando la tecnología para tratar de interferir en elecciones", apunta.

"Si la IA permite que estas amenazas se vuelvan más fuertes, más difíciles de detectar y atribuir, esto podría plantear problemas importantes de estabilidad política y tal vez contribuir a desencadenar guerras", estima Seán Ó hÉigeartaigh.

Con la IA sería posible, por ejemplo, realizar videos falsos pero muy realistas que podrían ser utilizados para desacreditar a responsables políticos, afirman los expertos.

Los Estados autoritarios, agrega el informe, podrían también apoyarse en la inteligencia artificial para vigilar a sus ciudadanos.(I)

Contenido externo patrocinado

Ecuador TV

En vivo

Pública FM

Noticias relacionadas

El Ministerio del Ambiente y Agua promueve la implementación de la Estrategia Nacional de Educación Ambiental para el Desarrollo Sostenible, con el objetivo de articular a todos los actores y acciones de educación ambiental en torno a objetivos nacionales y consensuados tanto en el ámbito formal como informal.

Social media