La IA se convierte en el nuevo juguete de los ciberdelincuentes quienes aprovechan esta tecnología para reforzar ataques de malware, phishing y Spam
El chat GPT es un software de lenguaje naturalizado. Fue desarrollado por OpenAI y presentado a finales de 2021. A los 7 días de su inicio ya tenía 1.000.000 de usuarios y una amplia repercusión mediática. Su atractivo reside en su capacidad para generar lenguaje original y crear textos sobre cualquier temática. Otras empresas siguen la estela de GPT al considerarse una carrera comercial en la que nadie quiere quedar atrás.
Pero la IA también puede ser utilizada por nuevos actores de amenazas. Sus primeras víctimas son escuelas y universidades. Algunos estudiantes generan trabajos académicos automatizados. Ahorran tiempo y engañan al profesorado evitando ser detectados por los filtros anti plagio.
La plataforma marca el final de muchas profesiones y el inicio de otras. Bloggers y periodistas podrían convertirse en perjudicados por la IA. Algunos medios podrían utilizar este recurso como herramienta para reducir costes al obtener contenido en bruto de calidad.
Los sitios web de lenguaje natural pueden ser utilizados por ciberdelincuentes para lograr textos perfectamente escritos. Se utilizarían para cometer malas prácticas y proveer a industrias como el Spam o el phishing.
La IA también es capaz de generar código fuente malicioso que algunas personas aprovecharían para la industria del malware. Las líneas de código automatizado pueden ser generadas en pocos segundos y luego ser perfeccionadas con poco esfuerzo.
Los estafadores del amor ya pueden usar esta herramienta para generar diálogos. Pueden aparentar que hablan un español o un inglés más convincente que el de los traductores online. Otra aplicación consiste en usar boots a través de Facebook, Messenger o WhatsApp, estos ya podrían utilizar la IA para tener conversaciones más realistas basadas en un lenguaje natural superando así los filtros anti-SPAM.
Otro escenario de fraude es el teletrabajo. Los empleados que trabajan desde casa pueden engañar a sus empresas al enviar textos y tareas que en realidad no han realizado ellos. Liberan así parte de su tiempo renumerado al mismo tiempo que entregan el trabajo solicitado.
En el ámbito de la política podría utilizarse como “generadores de discursos” creando contenido de IA adecuado para cada público, audiencia y circunstancia.
Empezarán a surgir las primeras empresas dedicadas a certificar la veracidad o naturalidad de un contenido. Y como no, los investigadores online, detectives que ofrecerán servicios de detección de IA.