Este año, el volumen de ataques de identidad
generados por IA aumentó a tal nivel que se ha convertido en un tema de
consideración para consumidores, organizaciones e incluso líderes mundiales. En
Chile ya se han tomado medidas y la más reciente es la publicación de la Política
Nacional de Ciberseguridad que se extenderá hasta 2028. La biometría se erige
como una fuerza transformadora en la remodelación de la forma en que las
personas interactúan con los sistemas digitales y la manera en que las
organizaciones protegen la información confidencial. A medida que se acerca 2024,
el panorama de la identidad digital está preparado para avances significativos, con
innovaciones que redefinirán la verificación, elevarán los estándares de seguridad y
mejorarán las experiencias de los usuarios.
iProov profundiza en el futuro inminente de la biometría, donde la fusión de la
ciencia y la seguridad promete un cambio de paradigma en la forma en que
autenticamos, identificamos y protegemos dentro del ámbito digital.
1. La biometría será piedra angular en la seguridad de servicios financieros
Durante el último año, muchas organizaciones de servicios financieros han ampliado
el acceso digital remoto para satisfacer la demanda de los usuarios. Sin embargo,
también ha creado oportunidades para los estafadores. Dado que se espera que el
fraude de identidad sintética genere al menos 23.000 millones de dólares en
pérdidas para 2030, la presión está aumentando desde todos los ángulos. En
respuesta, muchas instituciones financieras se están viendo obligadas a tomar
medidas, y reemplazar los engorrosos procesos de incorporación y los métodos de
autenticación obsoletos, como contraseñas y códigos de acceso, con tecnologías
avanzadas para incorporar y autenticar de forma remota a los clientes existentes de
banca en línea. Más instituciones financieras reconocerán cómo la verificación
biométrica remodelará y redefinirá el impacto positivo que la tecnología puede tener
en el equilibrio de la seguridad con la experiencia del cliente y harán el cambio.
2. Más países en vías de desarrollo avanzarán en identidad descentralizada
Se estima que 850 millones de personas en todo el mundo carecen de una forma
legal de identificación y, sin ello luchan por abrir una cuenta bancaria, obtener
empleo o acceder a atención médica, siendo excluidas financieramente. Los
programas de identidad digital mejoran el acceso a servicios y oportunidades
digitales. Permiten a las personas afirmar su identidad, acceder a plataformas en
línea y participar en iniciativas de gobierno digital. Con el apoyo de la inversión de
fondos del Banco Mundial, los programas de identidad digital pueden ayudar a las
economías menos avanzadas a prevenir el robo de identidad y el fraude, así como
proporcionar una forma alternativa de demostrar quiénes son y acceder a servicios
esenciales como beneficios, atención médica y educación.
3. Se prohibirán las videollamadas remotas para verificar la identidad
La verificación de videollamadas implica una de forma individual entre el usuario y
un operador capacitado. Se le pide al usuario que sostenga un documento de
identidad y el operador lo compara con su cara. Sin embargo, se ha demostrado que
la verificación de videollamadas proporciona pocas garantías de que el usuario final
sea una persona «viva» y no imágenes artificiales generativas producidas por IA
superpuestas de manera convincente en la cara del actor de amenazas. Con ese
método, en 2022, los investigadores del Chaos Computer Club lograron eludir la
tecnología de verificación de videollamadas. El caso mostró cómo esta tecnología, y
los operadores humanos de los que depende, son altamente susceptibles a los
ataques de imágenes sintéticas. Desde entonces, la Oficina Federal Alemana de
Seguridad de la Información ha advertido contra la verificación por videollamadas
por su vulnerabilidad a estos ataques.
4. Surgirá la “autenticación mutua” al interior de las empresas
A medida que las organizaciones confían cada vez más en los medios digitales para
la comunicación confidencial, la necesidad de medidas sólidas de ciberseguridad es
primordial para mitigar el riesgo. La introducción de la autenticación mutua para las
comunicaciones y transacciones de alto riesgo es una medida de seguridad crucial
que añade una capa adicional de protección contra el acceso no autorizado y las
posibles amenazas. Además, en ciertas industrias, el cumplimiento normativo exige
la implementación de medidas de seguridad sólidas. La autenticación mutua ayuda
a las organizaciones a cumplir con estos requisitos de cumplimiento al demostrar
un compromiso para garantizar canales de comunicación seguros y proteger la
información confidencial.
5. Las filtraciones de datos corporativos se triplicarán debido a los ataques por
IA
Desde hace algunos años, las organizaciones y las personas han confiado en la
detección de correos electrónicos de phishing a través de errores ortográficos y
gramaticales. Eso quedó atrás. Tal es la calidad de ChatGPT que los
ciberdelincuentes ahora pueden usarlo para generar ataques de phishing de alta
calidad en comunicaciones muy convincentes y sin pistas sospechosas. En
consecuencia, 2024 será testigo de un fuerte aumento tanto en la calidad como en
el volumen de los ataques de phishing generados por IA. La formación en materia de
seguridad se convertirá en una herramienta redundante y las organizaciones se
verán obligadas a buscar métodos alternativos y más fiables para autenticar a los
usuarios internos y externos de sus plataformas.
6. Los kits de síntesis de voz y video de Crime-as-a-Service costarán menos de
$100 dólares
El Crime-as-a-Service y la disponibilidad de herramientas en línea aceleran la
evolución del panorama de amenazas, lo que permite a los delincuentes lanzar
ataques avanzados más rápido y a mayor escala. Si los ataques tienen éxito,
aumentan rápidamente en volumen y frecuencia, lo que aumenta el riesgo de daños
graves. iProov ha sido testigo de indicios similares de delincuentes poco calificados
que adquieren la capacidad de crear y lanzar ataques avanzados de imágenes
sintéticas. En su informe de inteligencia de amenazas biométricas más reciente,
iProov vio la aparición y el rápido crecimiento de los nuevos intercambios de rostros
en video, mediante los cuales el actor de amenazas transforma más de un rostro
para crear una nueva salida de vídeo 3D falsa. El costo de los recursos necesarios
para lanzar ataques se está reduciendo y se espera que los kits de Crime-as-a-
Service caigan por debajo de los 100 dólares.
7. El auge de la desinformación política mediante IA incrementará los
requerimientos de autoría legal
Habrá una gran cantidad de videos deepfake generados por IA que se utilizarán para
persuadir a votantes en un contexto mundial en que cada elección es clave. Para
contrarrestar esto, habrá amplios movimientos por parte de las empresas de
tecnología para proporcionar formas para que las personas verifiquen la
autenticidad de las imágenes que suben. Por ejemplo, soluciones que permiten a las
personas poner marcas de agua en las imágenes y firmarlas cuando se crean o
modifican.
Es probable que en 2024 se produzcan muchos intentos en este ámbito porque el
uso de deepfakes está muy extendido. Será un requisito previo que cualquier
contenido que utilice imágenes debe ofrecer alguna forma de garantizar su
autenticidad y, de no hacerlo, esas imágenes se devaluarán.
8. Una llamada de Zoom generada por IA conducirá al primer fraude de mil
millones de dólares del CEO
El fraude del CEO se dirige al menos a 400 empresas por día y representa una
amenaza significativa para las organizaciones de todo el mundo. En este tipo de
delito, los atacantes se hacen pasar por altos ejecutivos de la empresa e intentan
engañar a los empleados para que transfieran fondos, revelen información
confidencial o inicien otras actividades fraudulentas. A menudo implican
sofisticados ataques de ingeniería social, lo que los hace difíciles de detectar. Las
herramientas de IA generativa están siendo ampliamente utilizadas por los
estafadores para crear deepfakes para imitar a una persona. Los delincuentes ahora
pueden crear audio e imágenes convincentes generados por IA e implementarlos en
plataformas como Zoom, Microsoft Teams y Slack. Sin herramientas sofisticadas de
monitoreo y detección, es casi imposible alertar este tipo de imágenes sintéticas.
Como tal, se espera que una llamada de Zoom generada por IA conduzca al primer
fraude de CEO de mil millones de dólares en 2024.