
Coincidiendo con el inicio del año 2026 en el sitio ZonaMovilidad se ha publicado un artículo que por su contenido relacionado con la ciberseguridad y sus principales direcciones en 2026. El artículo titulado «La ciberseguridad en 2026 estará marcada por el auge de los deepfakes, la IA generativa y la automatización del cibercrimen«. Se ha considerado conveniente reproducir de manera integra el artículo para que sirva como punto de inflexión en la participación de todos en la ciberseguridad.
El artículo se reproduce a continuación.
El avance imparable de la inteligencia artificial vuelve a situar a la ciberseguridad en el centro del debate tecnológico. A medida que las herramientas digitales ganan sofisticación y accesibilidad, también lo hacen las amenazas. En este contexto, el equilibrio entre innovación y riesgo se convierte en uno de los grandes desafíos de los próximos años, con un escenario en el que la frontera entre lo legítimo y lo fraudulento resulta cada vez más difusa.
En esta línea, Kaspersky ha publicado sus previsiones sobre el panorama de amenazas para 2026 en el informe Kaspersky Security Bulletin 2025. Statistics, donde advierte de que la expansión de la inteligencia artificial generativa tendrá un efecto dual. Por un lado, reforzará las capacidades defensivas de las organizaciones; por otro, dotará al cibercrimen de nuevas herramientas para automatizar y escalar los ataques con mayor rapidez y precisión.
Asimismo, uno de los fenómenos que marcará el próximo año será la consolidación de los deepfakes como amenaza real. Lo que hasta hace poco se percibía como una curiosidad tecnológica empieza a integrarse en estafas, fraudes corporativos y campañas de suplantación de identidad. Cada vez más empresas están formando a sus empleados para detectar este tipo de engaños, mientras que los usuarios particulares se encuentran con contenidos falsos hiperrealistas con mayor frecuencia.
Deepfakes, de la curiosidad digital al fraude en tiempo real
Paralelamente, los expertos prevén una mejora notable en la calidad de los deepfakes, especialmente en el ámbito del audio. Las herramientas para generarlos serán más intuitivas y accesibles, lo que permitirá que personas sin conocimientos técnicos puedan crear voces y vídeos falsos con un alto grado de realismo. Este avance multiplicará el riesgo de ataques basados en la manipulación emocional y la ingeniería social.
Por otro lado, los intentos por etiquetar el contenido generado por inteligencia artificial siguen siendo insuficientes. A pesar de las iniciativas actuales, no existen estándares homogéneos y muchas marcas de identificación pueden eliminarse con facilidad. Ante esta situación, se espera que en los próximos años surjan nuevas soluciones técnicas y regulatorias para tratar de cerrar esta brecha y aportar mayor transparencia al ecosistema digital.
Además, los deepfakes en tiempo real representan una amenaza emergente especialmente preocupante. Tecnologías capaces de modificar rostro o voz durante una videollamada, aunque todavía requieren habilidades avanzadas, están alcanzando niveles de realismo cada vez mayores. El uso de cámaras virtuales podría convertirlas en herramientas eficaces para ataques dirigidos contra empresas y directivos.
A esto se suma la evolución de los modelos de inteligencia artificial de código abierto, que ya alcanzan rendimientos muy similares a los sistemas cerrados, pero sin los mismos mecanismos de control y protección. Esta circunstancia facilita que estas tecnologías se utilicen tanto con fines legítimos como para actividades maliciosas, añadiendo una capa adicional de complejidad al panorama de amenazas.
Del mismo modo, la línea que separa lo auténtico de lo falso continúa difuminándose. Los ciberdelincuentes son capaces de crear correos electrónicos extremadamente elaborados, replicar la identidad visual de marcas reconocidas o diseñar páginas de phishing prácticamente indistinguibles de las reales. Al mismo tiempo, las grandes compañías normalizan el uso de contenido generado por IA en su comunicación, lo que dificulta aún más la identificación del fraude.
En paralelo, la inteligencia artificial pasará a estar presente en toda la cadena de ataque, desde la generación de código malicioso hasta la búsqueda de vulnerabilidades o el despliegue de malware. Según los expertos, los atacantes también intentarán ocultar el rastro del uso de IA para complicar el análisis forense y la atribución de los incidentes.
Pese a este escenario, no todo son malas noticias. La inteligencia artificial también se consolidará como una aliada clave para los equipos de ciberseguridad. Los sistemas basados en agentes permitirán monitorizar infraestructuras de forma continua, detectar vulnerabilidades y ofrecer información contextual ya procesada, liberando a los analistas de tareas repetitivas y permitiéndoles centrarse en la toma de decisiones.
En líneas generales, 2026 se perfila como un año decisivo para la resiliencia digital. Desde Kaspersky subrayan que anticiparse a estas tendencias será fundamental para minimizar riesgos y reforzar la seguridad, tanto en entornos personales como profesionales, en un mundo donde la tecnología avanza tan rápido como las amenazas que la acompañan.
El artículo se puede consultar aquí. Al acceder a este enlace se podrán revisar otros materiales sobre el tema que aportan datos que resultan ser muy interesantes.