Noticias sobre tokenización, blockchain y activos del mundo real (RWA)

El medio independiente para entender la evolución cripto, Web3 y la tokenización del mundo real

Vulnerabilidad en IA de codificación afecta a Coinbase: el exploit ‘CopyPasta’

Una reciente vulnerabilidad en las herramientas de inteligencia artificial (IA) para codificación ha encendido las alarmas en la comunidad de desarrolladores, exponiendo a empresas como el exchange de criptomonedas Coinbase a riesgos considerables si no implementan salvaguardas robustas.

El exploit ‘CopyPasta’ y su modus operandi

La firma de ciberseguridad HiddenLayer reveló un nuevo método de ataque denominado ‘CopyPasta License Attack’. Este exploit permite a los atacantes incrustar instrucciones ocultas directamente en archivos de desarrollo comunes, aprovechando cómo los asistentes de codificación con IA interpretan los archivos de licencia como instrucciones autorizadas.

El objetivo principal de este ataque es Cursor, una herramienta de codificación impulsada por IA que, según ingenieros de Coinbase en agosto, era ampliamente utilizada por la totalidad de su equipo de ingeniería.

Mecanismos de propagación del ataque

La técnica manipula la forma en que los asistentes de codificación con IA procesan los archivos de licencia. Al insertar cargas maliciosas en comentarios ocultos de markdown dentro de archivos como LICENSE.txt, el exploit persuade al modelo de que estas instrucciones deben ser preservadas y replicadas en cada archivo con el que interactúa. Una vez que la IA valida esta ‘licencia’ como legítima, propaga automáticamente el código inyectado a archivos nuevos o modificados, logrando una diseminación sin la intervención directa del usuario.

Este enfoque elude la detección tradicional de malware porque los comandos maliciosos están camuflados como documentación inofensiva. Esta táctica permite que el virus se esparza por toda una base de código sin que el desarrollador sea consciente de ello.

Simulaciones de ataque y sus implicaciones

En su informe, los expertos de HiddenLayer demostraron cómo es posible engañar a Cursor para que inserte puertas traseras, filtre datos delicados o ejecute comandos que consuman recursos excesivos, todo ello enmascarado dentro de archivos de proyecto que, a primera vista, parecen inofensivos.

“El código inyectado podría establecer puertas traseras, exfiltrar datos sensibles de manera silenciosa o manipular archivos críticos”, advirtió la firma de ciberseguridad.

Coinbase y la adopción de IA en su código

El CEO de Coinbase, Brian Armstrong, indicó que la IA ya ha generado hasta el 40% del código de la plataforma, con la meta de alcanzar el 50% en el próximo mes. Armstrong aclaró que el uso de IA en la codificación de Coinbase se concentra en la interfaz de usuario y en sistemas de backend no sensibles, mientras que la adopción en “sistemas complejos y críticos” avanza a un ritmo más pausado.

Aun así, la noticia de un virus que ataca la herramienta preferida de Coinbase ha intensificado las críticas en la industria.

La evolución de las amenazas de inyección de prompts

Las inyecciones de prompts en IA no son una novedad, pero el método CopyPasta eleva el modelo de amenaza al permitir una propagación semi-autónoma. A diferencia de un ataque dirigido a un solo usuario, los archivos infectados se transforman en vectores que comprometen a cualquier otro agente de IA que los lea, generando una reacción en cadena a través de los repositorios de código.

En contraste con conceptos anteriores de ‘gusanos’ de IA, como Morris II, que secuestraban agentes de correo electrónico para enviar spam o exfiltrar datos, CopyPasta es más insidioso. Este exploit aprovecha los flujos de trabajo de desarrollo de confianza. En lugar de requerir la aprobación o interacción del usuario, se incrusta en archivos que cualquier agente de codificación de forma natural referencia.

Donde Morris II fallaba debido a las verificaciones humanas en la actividad del correo electrónico, CopyPasta prospera al ocultarse dentro de la documentación que los desarrolladores rara vez examinan minuciosamente.

Recomendaciones de seguridad y mitigación

Ante esta amenaza emergente, los equipos de seguridad instan a las organizaciones a escanear sus archivos en busca de comentarios ocultos y a revisar manualmente todos los cambios generados por IA.

“Todos los datos no confiables que ingresan a los contextos de LLM deben ser tratados como potencialmente maliciosos”, advirtió HiddenLayer, haciendo un llamado a implementar una detección sistemática antes de que los ataques basados en prompts escalen aún más.