Estadounidenses consideran que la inteligencia artificial aumentaría la desinformación en las elecciones presidenciales.



AP.

Las advertencias se han hecho más urgentes a medida que se acerca 2024: el rápido avance de las herramientas de inteligencia artificial amenaza con amplificar la desinformación en las elecciones presidenciales del próximo año a una escala nunca antes vista.

La mayoría de los adultos en Estados Unidos piensan lo mismo, de acuerdo con una nueva encuesta de The Associated Press-NORC Center for Public Affairs Research y de la Escuela Harris de Políticas Públicas de la Universidad de Chicago.

La encuesta reveló que casi seis de cada 10 adultos (58%) creen que las herramientas de inteligencia artificial —que pueden dirigirse a audiencias políticas, producir mensajes persuasivos masivos y generar imágenes y videos muy realistas, pero falsos en cuestión de segundos— aumentarán la difusión de información falsa o engañosa durante las elecciones del próximo año.

En contraste, sólo el 6% cree que la inteligencia artificial reducirá la difusión de desinformación, mientras que un tercio dijo que no hará mucha diferencia.

“Mira lo que pasó en 2020, y eso sólo fue con las redes sociales”, señaló Rosa Rangel, una mujer de 66 años de Fort Worth, Texas.

Rangel, una demócrata que dijo haber visto muchas mentiras en las redes sociales en 2020, manifestó que piensa que la inteligencia artificial empeorará las cosas en 2024, como una olla hirviendo que se desborda.

Sólo el 30% de los adultos estadounidenses ha usado los chatbots o los generadores de imágenes de inteligencia artificial, y menos de la mitad (46%) ha oído o leído al menos algo acerca de las herramientas de inteligencia artificial. Aun así, existe un amplio consenso en que los candidatos no deberían utilizarla.

A la pregunta de si sería bueno o malo que los candidatos presidenciales de 2024 usaran la inteligencia artificial de alguna manera, la gran mayoría dijo que sería malo que crearan contenidos falsos o engañosos para anuncios políticos (83%), que editaran o retocaran fotos o videos para anuncios políticos (el 66%), que adaptaran los anuncios políticos a los votantes individuales (62%), y que respondieran a las preguntas de los votantes a través de chatbots (56%).

Estos sentimientos son respaldados por mayorías de republicanos y demócratas, quienes coinciden en que sería negativo que los candidatos presidenciales crearan imágenes o videos falsos (85% de los republicanos, y 90% de los demócratas) o respondieran a las preguntas de los votantes con inteligencia artificial (56% de los republicanos, y 63% de los demócratas).

No obstante, la inteligencia artificial ya se ha utilizado en las primarias presidenciales republicanas.

El Comité Nacional Republicano publicó en abril un anuncio generado completamente por inteligencia artificial que pretendía enseñar el futuro del país si el presidente Joe Biden era reelegido. Usaba fotos falsas, pero de apariencia realista, que mostraban comercios cerrados, patrullas militares con vehículos blindados en las calles, y oleadas de migrantes que sembraban el pánico. El anuncio decía en letra pequeña que había sido generado por inteligencia artificial.

Ron DeSantis, gobernador de Florida, también utilizó la inteligencia artificial en su campaña por la nominación del Partido Republicano. Promovió un anuncio que empleaba imágenes generadas por inteligencia artificial para que pareciera que el expresidente Donald Trump estaba abrazando al doctor Anthony Fauci, el experto en enfermedades infecciosas que supervisó la respuesta nacional ante la pandemia de la Covid-19.

Never Back Down, un comité de promoción política que respalda a DeSantis, usó una herramienta de inteligencia artificial para imitar la voz de Trump e hizo parecer que leía un post de redes sociales.

“Creo que deberían hacer campaña por sus méritos, no por su habilidad de infundir miedo en los corazones de los votantes”, dijo Andie Near, una mujer de 42 años de Holland, Michigan, que normalmente vota por demócratas.

Near ha utilizado herramientas de inteligencia artificial para retocar imágenes en su trabajo en un museo, pero dijo que piensa que los políticos que usan la tecnología para confundir pueden “agravar y empeorar el efecto que hasta los mensajes convencionales pueden causar”.

El estudiante universitario Thomas Besgen, de tendencia republicana, tampoco aprueba las campañas que usan sonidos o imágenes manipulados digitalmente para hacer creer que un candidato ha dicho algo que nunca dijo.

“Moralmente, eso está mal”, dijo el joven de 21 años de Connecticut.

La Comisión de Elecciones Federales de Estados Unidos está considerando presentar una petición para regular los deepfakes generados por inteligencia artificial en los anuncios políticos de cara a las elecciones de 2024.

Según la encuesta, los estadounidenses consultan más a los medios de comunicación (46%), amigos y familiares (29%), y redes sociales (25%) para informarse sobre las elecciones presidenciales que a los chatbots de inteligencia artificial.

La amplia mayoría de los estadounidenses son igualmente escépticos hacia la información que proporcionan los chatbots de inteligencia artificail. Sólo el 5% dice confiar mucho en que la información sea verídica, mientras que el 33% dice confiar algo, de acuerdo con la encuesta. La mayoría de los adultos (61%) dicen que no confían mucho o nada en que la información sea fiable.

Los demócratas son algo más proclives que los republicanos a decir que las empresas de redes sociales tienen mucha responsabilidad, pero por lo general coinciden en el nivel de responsabilidad de las empresas tecnológicas, de los medios de comunicación y del gobierno federal.

.