Inicio UACh / Dirección de Tecnologías de Información / / Noticia


Riesgos en la Inteligencia Artificial


Se estima que de aquí al 2020, el Internet de las Cosas abarcará muchos de los hogares, pero junto con la comodidad que trae consigo, la omnipresencia de la inteligencia artificial en nuestras vidas puede convertirse en una fuerte ciberamenaza si no se cuenta con los mecanismos de protección adecuados.

Varios expertos concuerdan en que la IA podría convertirse en una amenaza invisible, ya que al igual que nos entrega grandes avances, también presenta un lado oscuro que pueden aprovechar los ciberdelincuentes.

Por ejemplo, se calcula que, en 3 años, los productos para convertir nuestras casas en entornos domóticos como Amazon Echo, Apple HomePod, Google Home o Samsung Bixby, se dispararán en mercados maduros como el estadounidense hasta un 400% por cien.

Bots que imitan la voz de personas conocidas
Según destaca www.abc.es, a mediados de 2017 una startup llamada Lyrebird creó un algoritmo capaz de imitar la voz de cualquier persona y aprender a hablar de la misma manera, incluso usando las mismas expresiones verbales. En la demostración al mundo de este mecanismo basado en la inteligencia artificial, se pudo escuchar como el algoritmo imitaba con no demasiado acierto a los presidentes Trump y Obama.

Se sabe que esta tecnología no está completamente desarrollada, pero podría darse que grupos de hackers se hagan de esta patente y mejoren el algoritmo para crear bots que imiten a personas con mayor precisión.

Pero, qué pasaría si unos hackers pusieran a su bot a llamar de forma ininterrumpida a una base de datos de personas haciéndose pasar por una persona que trabaja en un banco?. Los hackers se harían con contraseñas, claves de acceso a cuentas bancarias o números de tarjetas de miles de personas.

Chatbots y emails controlados por malware
Cuando llamamos a la mesa central de una tienda o un banco, atiende una voz impulsada por un motor de inteligencia artificial. Algo parecido pasa con algunas empresas que, por medio de una técnica denominada Inbound Marketing, generan contenidos para sus clientes que son distribuidos por medio de sistemas de Inteligencia Artificial.

Se cree que los ciberdelincuentes podrían hackear este tipo de plataformas en lugar de crear falsas webs orientadas al phishing. Es decir, en vez de crear páginas de destino falsas, les bastará con introducir un malware en la inteligencia artificial de estos algoritmos para hacerse con las comunicaciones que se generan con sus clientes.

Hacerse de nuestras vidas
Todas esas apps que sirven para gestionar de forma remota la temperatura de las casas por medio de algoritmos, también serán vulnerables. Por lo general, estas aplicaciones reconocen cuando estamos saliendo de la oficina y entienden que deben subir la calefacción de nuestras casas para que, en el tiempo que dura el desplazamiento, la temperatura de la casa sea la idónea.

Toda esa información que generamos en línea, dibuja un mapa de nuestras vidas, los horarios, nuestras preferencias de compra, hasta cuál es nuestra comida favorita. Esos datos generan una base de datos que es muy útil para que los algoritmos de Inteligencia Artificial sepan identificarnos y darnos los productos y servicios que más se adecúan a nuestras necesidades. Pero junto con ello, podrían traer graves consecuencias, porque si esa big data es atacada por cibercriminales, podrían sacar provecho de toda esa información que hay allí almacenada.