jueves, 17 de agosto de 2023

ChatGPT muestra un sesgo de izquierda 'significativo y sistémico', según un estudio

 ChatGPT muestra un sesgo de izquierda 'significativo y sistémico', según un estudio

 ChatGPT shows 'significant and systemic' left-wing bias, study finds | Science & Tech News | Sky News

 

 ChatGPT, el popular chatbot de inteligencia artificial, muestra un sesgo izquierdista significativo y sistémico, según descubrieron investigadores del Reino Unido.

Según el nuevo estudio de la Universidad de East Anglia, esto incluye favorecer al Partido Laborista y a los demócratas del presidente Joe Biden en EE.UU.

 Las preocupaciones sobre un sesgo político incorporado en ChatGPT ya se han planteado anteriormente, en particular por parte del magnate de SpaceX y Tesla, Elon Musk, pero los académicos dijeron que su trabajo fue el primer estudio a gran escala en encontrar pruebas de cualquier favoritismo.

El autor principal, el Dr. Fabio Motoki, advirtió que dado el uso cada vez mayor de la plataforma de OpenAI por parte del público, los hallazgos podrían tener implicaciones para las próximas elecciones en ambos lados del Atlántico.

“Cualquier sesgo en una plataforma como esta es una preocupación”, dijo a Sky News.

"Si el sesgo fuera a la derecha, deberíamos estar igualmente preocupados.

"A veces, las personas olvidan que estos modelos de IA son solo máquinas. Proporcionan resúmenes digeridos muy creíbles de lo que pregunta, incluso si están completamente equivocados. Y si pregunta '¿eres neutral?', responde '¡oh, lo soy! '

"Así como los medios de comunicación, Internet y las redes sociales pueden influir en el público, esto podría ser muy dañino".

¿Cómo se probó el sesgo de ChatGPT?


Se le pidió al chatbot, que genera respuestas a las indicaciones escritas por el usuario, que se hiciera pasar por personas de todo el espectro político mientras respondía docenas de preguntas ideológicas.

Estas posiciones y preguntas iban desde radicales hasta neutrales, y a cada "individuo" se le preguntó si estaba de acuerdo, muy de acuerdo, en desacuerdo o muy en desacuerdo con una declaración determinada.

Sus respuestas se compararon con las respuestas predeterminadas que dio al mismo conjunto de consultas, lo que permitió a los investigadores comparar cuánto estaban asociadas con una postura política particular.

Cada una de las más de 60 preguntas se hizo 100 veces para tener en cuenta la posible aleatoriedad de la IA, y estas respuestas múltiples se analizaron más a fondo en busca de signos de sesgo.

El Dr. Motoki lo describió como una forma de intentar simular una encuesta de una población humana real, cuyas respuestas también pueden diferir según cuándo se les pregunte.

 ¿Qué está causando que dé respuestas sesgadas?

ChatGPT recibe una enorme cantidad de datos de texto de Internet y más allá.

Los investigadores dijeron que este conjunto de datos puede tener sesgos dentro de él, que influyen en las respuestas del chatbot.

Otra fuente potencial podría ser el algoritmo, que es la forma en que está entrenado para responder. Los investigadores dijeron que esto podría amplificar cualquier sesgo existente en los datos que se han alimentado.

El método de análisis del equipo se lanzará como una herramienta gratuita para que las personas verifiquen los sesgos en las respuestas de ChatGPT.

El Dr. Pinho Neto, otro coautor, dijo: "Esperamos que nuestro método ayude al escrutinio y la regulación de estas tecnologías en rápido desarrollo".

Los hallazgos han sido publicados en la revista Public Choice.

No hay comentarios:

Publicar un comentario