Usan ChatGPT para Diseñar Bombas en Atentado Frente al Hotel Trump en Las Vegas

En un incidente sin precedentes que sacudió a la nación a principios de este mes, Matthew Livelsberger, un veterano militar de 37 años, detonó explosivos dentro de su vehículo, un Tesla Cybertruck, estacionado frente al hotel del presidente electo Donald Trump en Las Vegas, resultando en su propia muerte y heridas a siete personas. La Policía de Estados Unidos reveló detalles sorprendentes en torno a la preparación del acto, indicando que Livelsberger había utilizado la inteligencia artificial, específicamente ChatGPT, para recopilar información esencial para la ejecución de su plan.

El sheriff del condado de Clark, Kevin McMahill, confirmó que este es el primer caso conocido en el que un individuo se valió de la IA para construir un artefacto explosivo. Las preguntas realizadas al ChatGPT abarcaron desde cómo posicionar el explosivo hasta cuestiones técnicas y legales sobre adquisición de materiales. Esta revelación ha abierto un debate sobre la regulación y supervisión de las tecnologías de inteligencia artificial, evidenciando un uso potencialmente peligroso no anticipado previamente por las autoridades ni por los desarrolladores de estas plataformas.

Livelsberger, quien sirvió en el Ejército desde 2006 y participó en múltiples misiones en el extranjero, incluidos dos despliegues en Afganistán y misiones en Ucrania, Tayikistán, Georgia y la República Democrática del Congo, dejó una nota en la que describía su acto como «una llamada de atención a todos los camaradas, veteranos y estadounidenses», criticando a las élites del poder. Al momento de su muerte, había regresado recientemente de una misión en Alemania y estaba de baja, según informes de la cadena PBS.

El uso de fuegos artificiales y cilindros de gas para la explosión, sumado a la decisión de Livelsberger de quitarse la vida antes del estallido, agregan capas de complejidad a un caso ya de por sí intrincado. Este acto no solo ha dejado secuelas físicas en las víctimas y daños materiales, sino que también ha planteado interrogantes sobre la seguridad nacional y el futuro del uso de inteligencia artificial.

Este incidente marca un momento crucial para la reflexión sobre la ética y el control de la inteligencia artificial. A medida que las capacidades de estas tecnologías se expanden a ritmos vertiginosos, también lo hace la necesidad de establecer límites claros y seguros para su uso, evitando que caigan en manos equivocadas con intenciones nefastas. La comunidad internacional podría verse impulsada a trabajar conjuntamente para definir marcos regulatorios que permitan aprovechar los beneficios de la IA, minimizando al mismo tiempo los riesgos asociados.

Scroll al inicio