Jefe de Inteligencia Artificial del Pentágono está «muerto de miedo» por el potencial de esta tecnología
El ChatGPT «habla con fluidez y autoridad, así que te lo crees incluso cuando está mal», advierte Craig Martell.
La inteligencia artificial (IA) podría convertirse en la «herramienta perfecta» para la desinformación, advirtió este miércoles Craig Martell, director de Inteligencia Digital y Artificial del Departamento de Defensa de EE.UU., durante la conferencia cibernética TechNet, de la Asociación de Electrónica y Comunicaciones de las Fuerzas Armadas (AFCEA, por sus siglas en inglés).
«Sí, estoy muerto de miedo. Esa es mi opinión», respondió Martell, citado por Breaking Defense, cuando se le preguntó qué piensa sobre la IA generativa.
De acuerdo con el alto funcionario del Pentágono, los modelos de lenguaje de IA generativa, como ChatGPT, plantean un «problema fascinante», ya que no entienden el contexto, pero hablan con autoridad, por lo que las personas toman sus palabras como un hecho.
«Aquí está mi mayor temor sobre ChatGPT: ha sido entrenado para expresarse con fluidez. Habla con fluidez y autoridad. Así que te lo crees incluso cuando está mal», explicó Martell. «Y eso significa que es una herramienta perfecta para la desinformación», ha resumido, advirtiendo que actualmente el Pentágono carece de herramientas para poder detectar cuando «eso está sucediendo». «Estamos atrasados en esa lucha», afirmó.
Durante la misma conferencia, celebrada del 2 al 4 de mayo en Baltimore (Maryland), otros jefes del Pentágono anticiparon formas de utilizar la IA generativa para la recopilación de información de inteligencia y para la guerra en el futuro.