Entrar

Google alerta de que la IA está creando virus informáticos que mutan en tiempo real para saltar las barreras de ciberseguridad

Actualidad

0
#Inteligencia artificial #Google #Ciberdelincuencia #Ciberseguridad #Ciberataques
Los investigadores de la multinacional detectan que los ciberdelincuentes están usando esta tecnología para reescribir el código y adaptarse dinámicamente a las defensas de sus objetivos
Así es como el ego traicionó al hacker que creó una IA para cometer delitos que triunfaba en España
Inteligencia artificial que comanda ciberataques y envía órdenes a los virus que lo llevan a cabo, haciéndolos mutar en tiempo real para sortear las barreras de ciberseguridad. Es la alerta que el Grupo de Inteligencia de Amenazas de Google (GTIG) ha enviado este miércoles, tras detectar que los ciberdelincuentes ya no solo utilizan esta tecnología como un asistente, sino como un cerebro autónomo que las potencia para hacerlas más dañinas e indetectables mientras el ataque se lleva a cabo.
Por primera vez, Google describe una nueva generación de virus (o malware, como se los denomina en el sector) que reescribe su propio código para adaptarse a las defensas, atacar sus puntos débiles y esconder los patrones que podrían disparar los sistemas de alerta, volviéndose más difíciles de detectar. Lo hace a través de una conexión directa con modelos de lenguaje como Gemini, la IA de la multinacional.
“Agentes que actúan respaldados por gobiernos y otros ciberdelincuentes están integrando IA y experimentando con ella en distintos sectores y a lo largo de todo el ciclo de vida de los ataques”, advierte.
El informe avisa que aunque todavía está en una etapa inicial, esto supone “un cambio de fase operacional” en el uso ofensivo de la IA. Los ciberdelincuentes y los grupos respaldados por estados —entre los que Google cita a China, Rusia, Irán y Corea del Norte— han dejado de recurrir a esta tecnología como un simple apoyo técnico. Algo que fue documentado poco después de la aparición de ChatGPT y permitió a los ciberdelincuentes desterrar errores que antes los delataban, como las faltas de ortografía o las malas traducciones, pero que ha escalado a un nuevo nivel.
Ahora, la IA ha pasado a ser una parte integral del ataque y multiplica su peligrosidad. “Estas herramientas son capaces de generar scripts maliciosos de forma dinámica, ofuscar su propio código para eludir la detección y hacer uso de modelos de IA para crear funciones maliciosas a demanda, en lugar de incluirlas en el código del malware”, destacan los investigadores.
Estos cambios dinámicos suponen un punto de inflexión también para el sector de la ciberseguridad. De manera similar a lo que ocurre con los virus biológicos, hasta ahora los investigadores analizaban el código del malware utilizado en los ataques para crear defensas específicas para bloquear sus ataques. Pero si esas modificaciones se dan en tiempo real, los antivirus no pueden adaptarse a ellas previamente.
La IA, ¿engañada?
Técnicamente, modelos como Gemini deberían negarse a satisfacer este tipo de requerimientos. Su programación les impide participar en actividades delictivas o dañinas para las personas. No obstante, Google ha detectado que los ciberdelincuentes han encontrado una manera de saltarse ese veto. “Están utilizando argumentos que recuerdan a la ingeniería social”, explica, haciendo referencia a las técnicas de manipulación psicológica que buscan engañar a personas para que revelen información o realicen acciones que comprometan su seguridad.

Comentarios