Retina Santander

La IA, el mejor ataque y … ¿la mejor defensa?

La IA está abriendo tantos terrenos preocupantes en el universo de la ciberseguridad, como formas de resolverlos. Se trata de una herramienta a la que debemos atender, tanto empresas como particulares, si queremos asegurarnos de que no se vuelva contra nosotros.

La Inteligencia Artificial se ha convertido en un arma de doble filo a la que todos debemos acostumbrarnos si aspiramos a una vida digital. La IA no sólo se está perfeccionando para que nos veamos frente a deep-fakes de una impresionante calidad. Si bien podemos llegar a presenciar auténticas virguerías visuales donde cualquier cara, bien la de un político o un familiar, sea susceptible de ser puesta en situaciones irrisorias y con falsas palabras saliendo de sus labios, esto es sólo uno de los aspectos llamativos de la cosmología de posibilidades que aporta la IA.

Aunque pensemos automáticamente en textos, imágenes o videos de confección rápida y sorprendente, la Inteligencia Artificial es una herramienta privilegiada en otros ámbitos. Sin ir más lejos, en el sector empresarial tanto la automatización de tareas rutinarias, como la personalización de experiencias con clientes o el impulso ágil de la innovación, son aspectos donde la IA es ya un aliado capital. Interacciones con clientes a través de Chatbots, algoritmos que permitan identificar oportunidades de segmentación -haciendo posible un alto grado de personalización-, optimización de los procesos de producción con reducción de costes, etc. Las posibilidades son tantas como, por otro lado, los riesgos que están brotando ya que: lo que la IA te da, también te lo puede quitar.

LA INTELIGENCIA ARTIFICIAL COMO EL MEJOR ATAQUE

Si bien hace ya algún tiempo que hemos entrado en la “era de los datos”, donde estos se han convertido en activos extremadamente valiosos para empresas y en un capital sustancial para las personas, la irrupción activa de la IA desvela nuevos problemas ante esta realidad. “Los datos son el poder”, claman desde hace años voces expertas en negocios y relaciones internacionales. Y, el poder, es algo por lo que grupos de toda talla e índole están dispuestos a pelear sin importar las ilegalidades que acarreen, usando la Inteligencia Artificial como objetivo y como arma

La cantidad de datos en movimiento que hay actualmente se multiplica exponencialmente cada año, como vemos en este gráfico de Statista, lo que da a la IA fuentes de conocimiento en constante evolución. Unos conocimientos que, al emplearse en algunos de los ejemplos empresariales que hemos mencionado antes, abren peligrosos flancos de ataque para tecnologías vulnerables de comprometer sistemas de privacidad, confidencialidad y estructuras críticas de entidades públicas y empresas.

Ya hemos hablado con anterioridad de los deep-fake y de ¿Cómo detectar la mentira más grande que verás?. Esta clase de usos de la IA, como también pueden darse en las fake news, empleando la herramienta para difundir y amplificar información falsa con gran rapidez y credibilidad, llegando incluso a la creación de bots con un sustancial impacto en la opinión pública, nos afectan a todos. Si no estamos preparados para identificar que se trata de creaciones manipuladas, ponemos en riesgo nuestra correcta interpretación de la realidad. Con cuántos infortunios puedan seguir a la toma de decisiones que llevemos a cabo en base a esa información errónea.

Pero las estrategias de los ciberdelincuentes van mucho más allá. No sólo juegan con la ingeniería social, sino que también se enfocan en llevar a cabo ataques directos a empresas, públicas y privadas, poniendo en grave riesgo la información de la que dispongan sus sistemas de IA asociados.

1.    Robo de datos sensibles: Adquisición no autorizada de datos digitales por parte de una entidad, que pueden ir desde patentes hasta credenciales personales o registros financieros, a través de malware (software malintencionado), phishing (mensajes fraudulentos) o incluso MitM (interceptación de comunicaciones entre dos partes para robar datos)

2.   Ataques adversarios: Manipulación de los datos de entrada a un modelo de IA para provocar errores específicos en las predicciones del modelo. De esa forma, se pueden alterar las identificaciones del sistema y sustituirlas por otras. Imaginemos un vehículo autónomo que confunda, por vía de estos ataques, un semáforo en rojo con una señal de aumento de velocidad.

3.  Envenenamiento: Alteración malintencionada de los datos de entrenamiento, o del propio modelo de IA, para introducir vulnerabilidades, sesgos o puertas traseras, pudiendo poner en riesgo la seguridad del modelo.

4.    Denegación de servicio: Sobrecarga del sistema a través de tráfico malicioso, o falso, y que impide el correcto funcionamiento de la IA. Esta clase de ataques colapsan el modelo y pueden, desde hacerlo funcionar erróneamente, hasta inhabilitarlo.

5.   Vulnerabilidades de terceros: Debido al elevado coste, es habitual que los sistemas funcionen en software de terceros, lo que representa una brecha abierta a la seguridad de los datos de la IA si estas plataformas ajenas cayesen.  

Por supuesto, todas estas pérfidas estrategias pueden ser contrarrestadas. Y es que, paradójicamente, si la Inteligencia Artificial es el objetivo y el arma de los ciberdelincuentes, también se revela como el escudo para protegerse de ellos.

LA INTELIGENCIA ARTIFICIAL COMO LA MEJOR DEFENSA

Metadatar recursos, facilitar la accesibilidad o la eficacia operativa, entrenar grandes modelos de lenguaje, programas de planificación de negocio, la Inteligencia Artificial es el compañero de viaje que todas las organizaciones van a verse, ya no tentadas, sino obligadas, de llevar consigo. Y por si no fuera suficiente con las capacidades que la IA les aporta, y aportará, para no quedarse a la cola del hiperactivo sistema digital en el que navegamos, también será imprescindible para blindar su ciberseguridad.

¿El principal valor de la IA en cuanto a ciberseguridad? Su agilidad. La capacidad de respuesta en cuanto a detección o combate de amenazas a la que puede aspirar la IA es muy compleja de lograr desde el capital humano, y pone en riesgo toda esa gran riqueza de datos que mencionábamos. Modelos de análisis de comportamiento, identificación de patrones y predicción, la IA contribuye a detectar virus y malware o intrusiones en la red con una celeridad asombrosa, lo que le permite enfrentarse a la cada vez más puntera tecnología y habilidades de los ciberdelincuentes.

Por supuesto, y ya que su eficacia es tanta, la Inteligencia Artificial es igualmente la herramienta ideal para detectar vulnerabilidades intrínsecas al sistema, permitiendo así un blindaje superior de las fases del proceso. Una fórmula que dificulta de manera categórica cualquiera de las anteriores formas de ataque citadas más arriba, y que culmina con una automatización de procesos de seguridad. De esta forma, el error humano se reduce al mínimo, así como las amenazas capaces de penetrar en el sistema.

La Inteligencia artificial es, como toda tecnología, neutra por naturaleza. Su uso, malintencionado o no, depende de las manos que la empuñen. Es posible que se use para obtener información o desestabilizar entidades de cualquier clase, así como para engañar y manipular a millones de personas. Sin embargo, es la propia IA la que puede asegurarnos si un video es, o no, un montaje, o si una grabación corresponde a la realidad. Y, entrando en los territorios de la ciberdelincuencia, es el escudo que nos permite la detección de intrusiones en tiempo real, la autenticación y autorización de acceso, la gestión de contraseñas o de parches y actualizaciones, permitiendo que los ciberataques no campen a sus anchas en el universo de la red. Lo que la Inteligencia Artificial nos quita, efectivamente, también nos lo puede dar. Un buen ataque y una buena defensa. 

Más Información