El lado oscuro de los LLM

Los LLM (Large Language Models) representan uno de los avances más interesantes en inteligencia artificial en los últimos años, al punto de ser capaces de revolucionar la forma en que trabajamos, nos comunicamos y desarrollamos tecnología. Pero como cualquier herramienta poderosa, también tienen un lado oscuro. En los últimos meses, se ha descubierto que estas IA avanzadas están siendo utilizadas para automatizar la ofuscación de código malicioso, dificultando su detección por parte de los sistemas de ciberseguridad.

La ofuscación es una técnica común en programación que transforma el código fuente para hacerlo prácticamente ilegible, sin alterar su funcionalidad. Es una estrategia que se utiliza tanto en contextos legítimos, por ejemplo para proteger la propiedad intelectual, como en escenarios maliciosos, donde sirve para ocultar intenciones peligrosas. Tradicionalmente, la ofuscación requería habilidades técnicas especializadas o herramientas específicas. Sin embargo, con los LLM, el proceso puede automatizarse y diversificarse a un nivel sin precedentes.

Toda la información en MC

La entrada El lado oscuro de los LLM es original de MuySeguridad. Seguridad informática.

k0bra in the world
Resumen de privacidad

Esta web utiliza cookies para que podamos ofrecerte la mejor experiencia de usuario posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves a nuestra web o ayudar a nuestro equipo a comprender qué secciones de la web encuentras más interesantes y útiles.