
Basura Generada por IA Amenaza Programas de Recompensa por Errores en Ciberseguridad
El Problema: IA que "Alucina" Vulnerabilidades
¿La cuestión central? Los LLM están diseñados para ser útiles. Si pides un informe de vulnerabilidades, lo entregarán, incluso si tienen que inventar los detalles técnicos. Imagina recibir un informe que parece legítimo, pero después de investigar, te das cuenta de que la vulnerabilidad es completamente inventada. Eso es lo que está sucediendo, y está desperdiciando el tiempo de todos.
Un investigador de seguridad incluso compartió cómo el proyecto de código abierto Curl recibió un informe completamente falso. Afortunadamente, identificaron el contenido generado por IA de inmediato. Es como intentar colar un billete falso: algunos expertos pueden identificarlo de un vistazo.
Las Plataformas de Recompensa por Errores Están Sintiendo la Presión
Las principales plataformas de recompensa por errores están notando esta tendencia. Un cofundador mencionó un aumento en los "falsos positivos": vulnerabilidades que parecen reales, pero en realidad son generadas por IA y no tienen un impacto real. Este ruido de baja calidad dificulta la identificación de amenazas de seguridad genuinas.
Sin embargo, no todo el mundo está en pánico. Algunas empresas no han visto un gran aumento en los informes falsos. De hecho, una empresa que desarrolla el navegador Firefox, dijo que su tasa de rechazo de informes de errores no ha cambiado mucho. Tampoco utilizan IA para filtrar informes, porque no quieren correr el riesgo de perder una vulnerabilidad real.
El Futuro: ¿IA vs. IA?
Entonces, ¿cuál es la solución? Algunos expertos creen que la respuesta es más IA. La idea es utilizar sistemas impulsados por IA para filtrar los envíos e identificar posibles basuras generadas por IA. Una plataforma ha lanzado un nuevo sistema que combina analistas humanos con "agentes de seguridad" de IA para eliminar el ruido y priorizar las amenazas reales. Es una carrera armamentista.
En última instancia, es un juego del gato y el ratón: hackers que utilizan IA para encontrar (o fabricar) errores, y empresas que utilizan IA para defenderse. Queda por ver qué lado saldrá victorioso. Pero una cosa es segura: el aumento de la basura de la IA es un desafío serio para la industria de la ciberseguridad.
Fuente: TechCrunch