USSOCOM utilizará inteligencia artificial para detectar amenazas de desinformación en las redes sociales
https://www.thedefensepost.com/2023/08/31/ussocom-ai-disinformation-social-media/?expand_article=1
El Comando de Operaciones Especiales de EE. UU. (USSOCOM) ha contratado a Accrete AI, con sede en Nueva York, para implementar software que detecte amenazas de desinformación “en tiempo real” en las redes sociales.
El software de inteligencia artificial de detección de anomalías Argus de la compañía analiza datos de las redes sociales, captura con precisión "narrativas emergentes" y genera informes de inteligencia para que las fuerzas militares neutralicen rápidamente las amenazas de desinformación.
"Los medios sintéticos, incluidas las narrativas virales generadas por IA, los deep fakes y otras aplicaciones dañinas de IA basadas en redes sociales, representan una grave amenaza para la seguridad nacional y la sociedad civil de Estados Unidos", dijo el fundador y director ejecutivo de Accrete, Prashant Bhuyan.
“Las redes sociales son ampliamente reconocidas como un entorno no regulado donde los adversarios explotan rutinariamente las vulnerabilidades de razonamiento y manipulan el comportamiento mediante la difusión intencional de desinformación.
“USSOCOM está a la punta de lanza al reconocer la necesidad crítica de identificar y predecir analíticamente las narrativas de las redes sociales en una etapa embrionaria antes de que esas narrativas evolucionen y ganen fuerza. Accrete se enorgullece de apoyar la misión de USSOCOM”.
El Departamento de Defensa de EE. UU. se asoció por primera vez con Accrete para el contrato de licencia de la plataforma Argus en noviembre de 2022.
Versión empresarial para empresas
La compañía también reveló que lanzará una versión empresarial de Argus Social para la detección de desinformación a finales de este año.
El software de IA brindará protección para los “puntos críticos urgentes de los clientes” contra los medios sintéticos generados por IA, como la desinformación viral y las falsificaciones profundas.
Proporcionar esta protección requiere una IA que pueda “aprender” automáticamente qué es lo más importante para una empresa y predecir las probables narrativas de las redes sociales que surgirán antes de que influyan en el comportamiento.
Nebula Social ayuda a los clientes a gestionar los riesgos mediáticos generados por la IA, como las campañas de difamación, según la empresa.
También genera de forma autónoma contenido rápido y relevante para contrarrestar este tipo de ataques maliciosos.
"Tanto las agencias gubernamentales como las empresas tienen una necesidad urgente de gestionar una gran cantidad de riesgos y oportunidades que plantean los medios sintéticos generados por IA". dijo Bhuyan.
“Las empresas ya están experimentando un daño económico significativo causado por la difusión de desinformación viral generada por IA y falsificaciones fabricadas por competidores, empleados descontentos y otros tipos de adversarios. Creemos que el mercado de la IA que puede predecir y neutralizar los medios sintéticos malignos generados por la IA está a punto de explotar”, añadió.
No hay comentarios:
Publicar un comentario