Sus hallazgos son los últimos en un creciente cuerpo de investigación que demuestra Poderes de persuasión de LLMS. Los autores advierten que muestran cómo las herramientas de IA pueden crear argumentos sofisticados y persuasivos si tienen información mínima sobre los humanos con los que están interactuando. El investigación ha sido publicado en la revista Naturaleza Comportamiento humano.
“Los formuladores de políticas y las plataformas en línea deberían considerar seriamente la amenaza de campañas de desinformación basadas en la IA coordinadas, ya que hemos alcanzado claramente el nivel tecnológico en el que es posible crear una red de cuentas automatizadas basadas en LLM capaces de empujar estratégicamente la opinión pública en una dirección”, dice Riccardo Galoti, un físico de Fondazion en el proyecto de Fondazione en el proyecto de Fondazion en Italsler.
“Estos bots podrían usarse para difundir la desinformación, y este tipo de influencia difusa sería muy difícil de desacreditar en tiempo real”, dice.
Los investigadores reclutaron a 900 personas con sede en los EE. UU. Y las hicieron proporcionar información personal como su género, edad, etnia, nivel de educación, estado laboral y afiliación política.
Luego, los participantes fueron emparejados con otro oponente humano o GPT-4 y se les indicó que debatiera uno de los 30 temas asignados al azar, como si los Estados Unidos deberían prohibir los combustibles fósiles, o si los estudiantes deben usar uniformes escolares, durante 10 minutos. A cada participante se le dijo que discutiera a favor o en contra del tema, y en algunos casos se les proporcionó información personal sobre su oponente, para que pudieran adaptar mejor su argumento. Al final, los participantes dijeron cuánto estuvieron de acuerdo con la propuesta y si pensaron que estaban discutiendo con un humano o una IA.