IA Confunde Doritos con Arma: Estudiante de Secundaria es Esposado
Me encontré con esta historia loca sobre un estudiante de secundaria en Maryland que se metió en un gran lío por una falsa alarma de un sistema de seguridad de IA. ¿Te imaginas que te esposen por una bolsa de Doritos? Eso es exactamente lo que le pasó a Taki Allen en Kenwood High School. Solo estaba sosteniendo sus patatas fritas, y el sistema aparentemente lo confundió con un arma. ¡Parece sacado de una película!
Según Allen, los oficiales lo hicieron arrodillarse, poner sus manos detrás de la espalda y luego lo esposaron. Quiero decir, ¡habla de una reacción exagerada! Te hace preguntarte qué tan precisos son realmente estos sistemas de IA. Si bien entiendo la necesidad de seguridad escolar, especialmente en estos días, hay una línea, ¿verdad? Cuando un bocadillo se confunde con un arma, creo que la hemos cruzado.
La directora de la escuela, Katie Smith, dijo que el departamento de seguridad ya había revisado y cancelado la alerta de detección de armas, pero ella no estaba al tanto de inmediato y denunció la situación de todos modos. ¡Eso es mucha falta de comunicación, si me preguntas! Solo muestra lo fácil que las cosas pueden escalar cuando la tecnología y la respuesta humana no se sincronizan por completo.
Omnilert, la compañía detrás del sistema de detección de armas de IA, expresó su pesar por el incidente. Sin embargo, también declararon que "el proceso funcionó según lo previsto". Aquí es donde me preocupo un poco. Si la función prevista del sistema es marcar bolsas de patatas fritas como armas de fuego, ¡entonces tal vez necesite una actualización seria! Quiero decir, vamos, tiene que haber una mejor manera de mantener nuestras escuelas seguras sin traumatizar a los estudiantes por las opciones de bocadillos.
Te hace pensar en el futuro de la IA en la seguridad. Queremos mantener a nuestros hijos seguros, pero ¿a qué costo? Si la tecnología es propensa a errores como este, debemos tener mucho cuidado sobre cómo se implementa. Creo que se necesita más capacitación para el sistema en sí, pero también para las personas que responden a las alertas. Es crucial asegurarse de que el juicio humano siempre juegue un papel, para evitar que situaciones como esta vuelvan a ocurrir. Tal vez sea hora de pensar en nuevas formas de usar la IA, donde la precisión sea clave. ¿Qué piensas?
Fuente: TechCrunch