viernes, 28 de marzo de 2025

NOTAS VARIADAS

 Cómo la IA amenaza la democracia

Por: Sarah Kreps / Doug Kriner

El explosivo auge de la IA generativa ya está transformando el periodismo, las finanzas y la medicina, pero también podría tener una influencia disruptiva en la política. Por ejemplo, preguntarle a un chatbot cómo navegar por una burocracia complicada o ayudar a redactar una carta a un funcionario electo podría impulsar la participación cívica. Sin embargo, esa misma tecnología, con su potencial para producir desinformación y desinformación a gran escala, amenaza con interferir en la representación democrática, socavar la rendición de cuentas democrática y corroer la confianza social y política.

Este ensayo analiza el alcance de la amenaza en cada una de estas esferas y analiza las posibles barreras para estos usos indebidos, incluidas las redes neuronales utilizadas para identificar contenido generado, la autorregulación por parte de plataformas de IA generativa y una mayor alfabetización digital por parte del público y las élites por igual.

Apenas un mes después de su introducción, ChatGPT, el chatbot de inteligencia artificial (IA) generativa, alcanzó los 100 millones de usuarios mensuales, lo que lo convirtió en la aplicación de más rápido crecimiento en la historia. Para ponerlo en contexto, el servicio de transmisión de video Netflix, ahora un nombre familiar, tardó tres años y medio en alcanzar el millón de usuarios mensuales. Pero a diferencia de Netflix, el ascenso meteórico de ChatGPT y su potencial para bien o para mal provocaron un debate considerable. ¿Los estudiantes podrían usar, o más bien abusar, de la herramienta para investigar o escribir? ¿Dejaría a periodistas y programadores fuera del negocio? ¿"Secuestraría la democracia", como lo   expresó un artículo de opinión del New York Times , al permitir aportes masivos y falsos para tal vez influir en la representación democrática?  Y lo más fundamental (y apocalíptico), ¿podrían los avances en inteligencia artificial realmente representar una amenaza existencial para la humanidad? 

Las nuevas tecnologías plantean nuevas preguntas y preocupaciones de distinta magnitud y urgencia. Por ejemplo, el temor de que la IA generativa (inteligencia artificial capaz de producir nuevos contenidos) plantee una amenaza existencial no es ni plausiblemente inminente ni necesariamente plausible. El escenario del clip de Nick Bostrom, en el que una máquina programada para optimizar clips elimina todo lo que se interponga en su camino hacia ese objetivo, no está a punto de convertirse en realidad. Si los niños o los estudiantes universitarios utilizan las herramientas de IA como atajos es un debate pedagógico valioso, pero debería resolverse por sí solo a medida que las aplicaciones se integren más fácilmente en los motores de búsqueda. Las consecuencias de la IA generativa en el empleo serán en última instancia difíciles de evaluar, ya que las economías son complejas, lo que dificulta aislar el efecto neto de las pérdidas de empleo instigadas por la IA frente a las ganancias de la industria. Sin embargo, las posibles consecuencias para la democracia son inmediatas y graves. La IA generativa amenaza tres pilares centrales de la gobernanza democrática: la representación, la rendición de cuentas y, en última instancia, la moneda más importante de un sistema político: la confianza.

El aspecto más problemático de la IA generativa es que se esconde a simple vista y produce enormes volúmenes de contenido que pueden inundar el panorama mediático, Internet y la comunicación política con tonterías sin sentido en el mejor de los casos y desinformación en el peor. Para los funcionarios gubernamentales, esto socava los esfuerzos por comprender el sentimiento de los electores, lo que amenaza la calidad de la representación democrática. Para los votantes, amenaza los esfuerzos por monitorear lo que hacen los funcionarios electos y los resultados de sus acciones, lo que erosiona la responsabilidad democrática. Una medida profiláctica cognitiva razonable en un entorno mediático de ese tipo sería no creer en nada, un nihilismo que está en desacuerdo con una democracia vibrante y corrosivo para la confianza social. A medida que la realidad objetiva se aleja aún más del discurso mediático, los votantes que no se desvinculan por completo probablemente comenzarán a confiar aún más en otras heurísticas, como el partidismo, lo que solo exacerbará aún más la polarización y la presión sobre las instituciones democráticas.

Amenazas a la representación democrática

La democracia, como escribió Robert Dahl en 1972, exige “la capacidad de respuesta continua del gobierno a las preferencias de sus ciudadanos”. Sin embargo, para que los funcionarios electos sean receptivos a las preferencias de sus electores, primero deben ser capaces de discernirlas. Las encuestas de opinión pública, que (al menos por ahora) son en su mayoría inmunes a la manipulación por contenido generado por IA, ofrecen a los funcionarios electos una ventana a las preferencias de sus electores. Pero la mayoría de los ciudadanos carecen incluso de conocimientos políticos básicos, y los niveles de conocimiento específico de políticas probablemente sean aún más bajos. Por lo tanto, los legisladores tienen fuertes incentivos para ser los más receptivos a los electores con opiniones firmes sobre una cuestión política específica y aquellos para quienes la cuestión es muy relevante. La correspondencia escrita ha sido durante mucho tiempo fundamental para que los funcionarios electos mantengan el dedo en el pulso de sus distritos, en particular para medir las preferencias de quienes se movilizan más intensamente en torno a una cuestión determinada. 

Sin embargo, en una era de inteligencia artificial generativa, las señales enviadas por el conjunto de comunicaciones electrónicas sobre cuestiones políticas urgentes pueden ser sumamente engañosas. Los avances tecnológicos permiten ahora a actores maliciosos generar un falso “sentimiento del electorado” a gran escala creando sin esfuerzo mensajes únicos que adoptan posiciones a favor o en contra de una miríada de cuestiones. Incluso con la tecnología antigua, los legisladores tenían dificultades para discernir entre las comunicaciones escritas por humanos y las generadas por máquinas.

En un experimento de campo realizado en 2020 en los Estados Unidos, redactamos cartas de apoyo sobre seis temas diferentes y luego usamos esas cartas para entrenar lo que entonces era el modelo de inteligencia artificial generativa de última generación, GPT-3, para escribir cientos de cartas de apoyo de izquierda y derecha. Enviamos cartas aleatorias escritas por IA y por humanos a 7.200 legisladores estatales, un total de unos 35.000 correos electrónicos. Luego comparamos las tasas de respuesta con la correspondencia escrita por humanos y generada por IA para evaluar hasta qué punto los legisladores podían discernir (y, por lo tanto, no responder) los llamamientos escritos por máquinas. En tres temas, las tasas de respuesta a los mensajes escritos por IA y por humanos fueron estadísticamente indistinguibles. En otros tres temas, las tasas de respuesta a los correos electrónicos generados por IA fueron más bajas, pero solo en un 2 por ciento, en promedio. Esto sugiere que un actor malicioso capaz de generar fácilmente miles de comunicaciones únicas podría sesgar potencialmente las percepciones de los legisladores sobre qué temas son más importantes para sus electores, así como cómo se sienten estos sobre un tema determinado.

De la misma manera, la IA generativa podría asestar un doble golpe a la calidad de la representación democrática al dejar obsoleto el proceso de comentarios públicos a través del cual los ciudadanos pueden tratar de influir en las acciones del Estado regulador. Los legisladores necesariamente redactan leyes a grandes rasgos, otorgando a las agencias administrativas una considerable discreción no sólo para resolver cuestiones técnicas que requieren conocimientos especializados sustantivos (por ejemplo, especificar los niveles permisibles de contaminantes en el aire y el agua), sino también para hacer juicios más amplios sobre valores (por ejemplo, las compensaciones aceptables entre proteger la salud pública y no restringir indebidamente el crecimiento económico). Además, en una era de intensa polarización partidaria y frecuente estancamiento legislativo sobre prioridades políticas urgentes, los presidentes estadounidenses han buscado cada vez más impulsar sus agendas políticas a través de la elaboración de normas administrativas.

El traslado de la autoridad para la formulación de políticas de los representantes electos a los burócratas no electos plantea la preocupación de que exista un déficit democrático. La Corte Suprema de Estados Unidos planteó esas preocupaciones en  West Virginia v. EPA  (2022), donde articuló y codificó la doctrina de las cuestiones importantes, que sostiene que las agencias no tienen autoridad para efectuar cambios importantes en las políticas sin una autorización estatutaria clara del Congreso. La Corte puede ir aún más lejos en el caso pendiente  Loper Bright Enterprises v. Raimondo  y revocar la  doctrina Chevron  , que ha otorgado a las agencias una amplia libertad para interpretar estatutos ambiguos del Congreso durante casi tres décadas, endureciendo así aún más las restricciones al cambio de políticas a través del proceso regulatorio.

Sin embargo, no todo el mundo está de acuerdo en que el proceso regulatorio sea antidemocrático. Algunos académicos sostienen que las oportunidades garantizadas de participación pública y transparencia durante el período de notificación y comentarios públicos son “refrescantemente democráticas” y elogian el proceso como “democráticamente responsable, especialmente en el sentido de que la toma de decisiones se mantiene transparente y se brinda acceso igualitario a todos”. Además, la aparición del programa de elaboración electrónica de normas (e-rulemaking) del gobierno de los Estados Unidos en 2002 prometía “mejorar la participación pública... para fomentar mejores decisiones regulatorias” al reducir la barrera a la participación de los ciudadanos. Por supuesto, los comentarios públicos siempre han estado sesgados, a menudo en gran medida, hacia los intereses que más están en juego en el resultado de una norma propuesta y, a pesar de reducir las barreras a la participación, la elaboración electrónica de normas no alteró esta realidad fundamental. 

A pesar de sus defectos, la participación directa y abierta del público en el proceso de elaboración de normas ayudó a reforzar la legitimidad democrática del cambio de políticas a través de la acción burocrática. Pero la capacidad de actores maliciosos de usar la IA generativa para inundar las plataformas de elaboración de normas electrónicas con un sinfín de comentarios únicos que promueven una agenda particular podría hacer que fuera casi imposible para las agencias conocer las preferencias genuinas del público. Un caso de prueba temprano (y sin éxito) surgió en 2017, cuando los bots inundaron la Comisión Federal de Comunicaciones con más de ocho millones de comentarios que abogaban por la derogación de la neutralidad de la red durante el período de comentarios abiertos sobre los cambios propuestos a las reglas. Sin embargo, este “astroturfing” se detectó porque más del 90 por ciento de esos comentarios no eran únicos, lo que indica un esfuerzo coordinado para engañar en lugar de un apoyo genuino de las bases a la derogación. Los avances contemporáneos en la tecnología de IA pueden superar fácilmente esta limitación, lo que hace que sea extremadamente difícil para las agencias detectar qué comentarios representan genuinamente las preferencias de las partes interesadas.

Amenazas a la rendición de cuentas democrática

Una democracia sana también requiere que los ciudadanos puedan exigir cuentas a los funcionarios gubernamentales por sus acciones, sobre todo mediante elecciones libres y justas. Sin embargo, para que la rendición de cuentas en las urnas sea eficaz, los votantes deben tener acceso a información sobre las acciones que sus representantes han tomado en su nombre. Las preocupaciones de que el sesgo partidista en los medios de comunicación, de los que los votantes han dependido durante mucho tiempo para obtener información política, pueda afectar los resultados electorales son de larga data, pero la IA generativa plantea una amenaza mucho mayor a la integridad electoral.

Como es bien sabido, los actores extranjeros explotaron una variedad de nuevas tecnologías en un esfuerzo coordinado para influir en las elecciones presidenciales estadounidenses de 2016. Un informe del Comité de Inteligencia del Senado de 2018 afirmó:

Estos agentes (rusos) se hicieron pasar por estadounidenses y utilizaron anuncios dirigidos, artículos periodísticos falsificados intencionalmente, contenido generado por ellos mismos y herramientas de plataformas de redes sociales para interactuar con decenas de millones de usuarios de redes sociales en Estados Unidos e intentar engañarlos. Esta campaña buscaba polarizar a los estadounidenses sobre la base de diferencias sociales, ideológicas y raciales, provocó eventos del mundo real y fue parte del apoyo encubierto de un gobierno extranjero al candidato favorito de Rusia en las elecciones presidenciales de Estados Unidos. 

Aunque no tiene precedentes en su alcance y escala, varios defectos en la campaña de influencia pueden haber limitado su impacto. Las publicaciones en las redes sociales de los agentes rusos tenían errores gramaticales sutiles pero notables que un hablante nativo no cometería, como un artículo mal ubicado o faltante, señales reveladoras de que las publicaciones eran falsas. Sin embargo, ChatGPT convierte a cada usuario en el equivalente a un hablante nativo. Esta tecnología ya se está utilizando para crear sitios de spam completos e inundarlos con reseñas falsas. El sitio web de tecnología  The Verge  señaló un trabajo que buscaba un "editor de IA" que pudiera generar "200 a 250 artículos por semana", lo que implica claramente que el trabajo se realizaría a través de herramientas de IA generativas que pueden producir cantidades masivas de contenido en inglés fluido con solo hacer clic en el botón "regenerar" del editor. Las posibles aplicaciones políticas son innumerables. Investigaciones recientes muestran que la propaganda generada por IA es tan creíble como la propaganda escrita por humanos. Esto, combinado con nuevas capacidades de microsegmentación, podría revolucionar las campañas de desinformación, volviéndolas mucho más efectivas que los esfuerzos por influir en las elecciones de 2016. Un flujo constante de desinformación dirigida podría distorsionar la forma en que los votantes perciben las acciones y el desempeño de los funcionarios electos a tal punto que las elecciones dejen de proporcionar un mecanismo genuino de rendición de cuentas, ya que la premisa de lo que la gente está votando es en sí misma factualmente dudosa. 

Amenazas a la confianza democrática

Los avances en la inteligencia artificial generativa podrían permitir a los actores maliciosos producir desinformación, incluido contenido microsegmentado para atraer a grupos demográficos específicos e incluso a individuos, a gran escala. La proliferación de plataformas de redes sociales permite la difusión sin esfuerzo de desinformación, incluida su canalización eficiente a grupos específicos. Las investigaciones sugieren que, si bien los lectores de todo el espectro político no pueden distinguir entre una variedad de contenido creado por humanos y generado por IA (y lo encuentran todo plausible), la desinformación no necesariamente cambiará las mentes de los lectores. La persuasión política es difícil, especialmente en un panorama político polarizado. Las opiniones individuales tienden a estar bastante arraigadas, y hay poco que pueda cambiar los sentimientos previos de las personas.

El riesgo es que, a medida que proliferan los contenidos inauténticos (textos, imágenes y vídeos) en Internet, la gente sencillamente no sepa qué creer y, por lo tanto, desconfíe de todo el ecosistema informativo. La confianza en los medios ya es baja, y la proliferación de herramientas que pueden generar contenidos inauténticos la erosionará aún más. Esto, a su vez, podría socavar aún más los niveles peligrosamente bajos de confianza en el gobierno. La confianza social es un pegamento esencial que mantiene unidas a las sociedades democráticas. Alimenta el compromiso cívico y la participación política, refuerza la confianza en las instituciones políticas y promueve el respeto por los valores democráticos, un importante baluarte contra el retroceso democrático y el autoritarismo.

La confianza opera en múltiples direcciones. Para las élites políticas, la capacidad de respuesta exige confiar en que los mensajes que reciben representan legítimamente las preferencias de los electores y no una campaña coordinada para distorsionar el sentimiento público con el fin de promover un punto de vista particular. Los casos de “astroturfing” no son nada nuevo en política, con ejemplos en Estados Unidos que se remontan al menos a la década de 1950. Sin embargo, los avances en inteligencia artificial amenazan con hacer que esos esfuerzos sean omnipresentes y más difíciles de detectar.

Para los ciudadanos, la confianza puede motivar la participación y el compromiso políticos y alentar la resistencia contra las amenazas a las instituciones y prácticas democráticas. La drástica caída de la confianza de los estadounidenses en el gobierno durante el último medio siglo es uno de los acontecimientos más documentados en la política estadounidense. Si bien muchos factores han contribuido a esta erosión, la confianza en los medios y la confianza en el gobierno están íntimamente vinculadas. Bombardear a los ciudadanos con contenido generado por IA de dudosa veracidad podría amenazar seriamente la confianza en los medios, con graves consecuencias para la confianza en el gobierno.

Mitigación de las amenazas

Aunque comprender los motivos y la tecnología es un primer paso importante para enmarcar el problema, el siguiente paso obvio es formular medidas profilácticas. Una de esas medidas es entrenar e implementar los mismos modelos de aprendizaje automático que generan IA para detectar contenido generado por IA. Las redes neuronales utilizadas en la inteligencia artificial para crear texto también “conocen” los tipos de lenguaje, palabras y estructuras de oraciones que producen ese contenido y, por lo tanto, pueden usarse para discernir patrones y características distintivas del texto generado por IA en comparación con el texto escrito por humanos. Las herramientas de detección de IA están proliferando rápidamente y deberán adaptarse a medida que se adapte la tecnología, pero un modelo de estilo “Turnitin” (como los que usan los maestros para detectar el plagio en el aula) puede proporcionar una solución parcial. Estas herramientas utilizan esencialmente algoritmos para identificar patrones dentro del texto que son características distintivas del texto generado por IA, aunque las herramientas seguirán variando en su precisión y confiabilidad.

Más importante aún, las plataformas responsables de generar estos modelos de lenguaje son cada vez más conscientes de lo que las plataformas de redes sociales tardaron muchos años en comprender: que tienen una responsabilidad en términos de qué contenido producen, cómo se enmarca ese contenido e incluso qué tipo de contenido está prohibido. Si se le pregunta a ChatGPT sobre cómo se podría usar indebidamente la IA generativa contra el comando y control nuclear, el modelo responde: "Lo siento, no puedo ayudar con eso". OpenAI, el creador de ChatGPT, también está trabajando con investigadores externos para democratizar los valores codificados en sus algoritmos, incluidos qué temas deberían estar fuera de los límites de los resultados de búsqueda y cómo enmarcar las posiciones políticas de los funcionarios electos. De hecho, a medida que la IA generativa se vuelve más omnipresente, estas plataformas tienen la responsabilidad no solo de crear la tecnología, sino de hacerlo con un conjunto de valores que estén informados ética y políticamente. La cuestión de quién decide qué es ético, especialmente en sociedades polarizadas y fuertemente partidistas, no es nueva. Las plataformas de redes sociales han estado en el centro de estos debates durante años, y ahora las plataformas de IA generativa se encuentran en una situación análoga. Como mínimo, los funcionarios públicos electos deberían seguir trabajando en estrecha colaboración con estas empresas privadas para generar algoritmos responsables y transparentes. La decisión de siete importantes empresas de IA generativa de comprometerse a adoptar salvaguardas voluntarias para la IA, en coordinación con la administración Biden, es un paso en la dirección correcta.

Por último, las campañas de alfabetización digital tienen un papel que desempeñar en la protección contra los efectos adversos de la IA generativa creando un consumidor más informado. Así como las redes neuronales “aprenden” cómo habla y escribe la IA generativa, también lo pueden hacer los propios lectores individuales. Después de informar a los legisladores estatales de nuestro estudio sobre sus objetivos y diseño, algunos dijeron que podían identificar los correos electrónicos generados por la IA porque saben cómo escriben sus electores; están familiarizados con el lenguaje coloquial de un elector de Virginia Occidental o de New Hampshire. El mismo tipo de discernimiento es posible para los estadounidenses que leen contenido en línea. Los modelos de lenguaje grandes como ChatGPT tienen una cierta forma de escribir basada en fórmulas, tal vez porque han aprendido demasiado bien el arte del ensayo de cinco párrafos.

Cuando preguntamos: “¿Dónde tiene Estados Unidos silos de misiles?”, ChatGPT respondió con su típica insulsez: “Estados Unidos tiene silos de misiles ubicados en varios estados, principalmente en las partes central y norte del país. Los silos de misiles albergan misiles balísticos intercontinentales (ICBM) como parte de la estrategia de disuasión nuclear estadounidense. Las ubicaciones específicas y la cantidad de silos de misiles pueden variar con el tiempo debido a cambios operativos y esfuerzos de modernización”.

Esta respuesta no tiene nada de malo, pero también es muy predecible para cualquiera que haya usado ChatGPT con cierta regularidad. Este ejemplo es ilustrativo del tipo de lenguaje que suelen generar los modelos de IA. Estudiar el contenido que generan, independientemente del tema, puede ayudar a las personas a reconocer pistas que indiquen contenido no auténtico.

En términos más generales, algunas de las técnicas de alfabetización digital que ya han ganado popularidad probablemente se apliquen en un mundo en el que proliferan los textos, los vídeos y las imágenes generados por IA. Debería ser una práctica habitual que todos verificaran la autenticidad o la exactitud fáctica del contenido digital en diferentes medios de comunicación y que contrastaran todo lo que parezca dudoso, como la imagen viral (aunque falsa) del Papa con un abrigo acolchado de Balenciaga, para determinar si es una falsificación profunda o real. Esas prácticas también deberían ayudar a discernir el material generado por IA en un contexto político, por ejemplo, en Facebook durante un ciclo electoral.

Lamentablemente, Internet sigue siendo una gran máquina de confirmación de sesgos. La información que parece plausible porque coincide con las opiniones políticas de una persona puede tener menos probabilidades de llevar a esa persona a comprobar la veracidad de la historia. En un mundo en el que se generan contenidos falsos con facilidad, muchas personas pueden tener que caminar por una delgada línea entre el nihilismo político (es decir, no creer en nada ni en nadie que no sean sus correligionarios) y el escepticismo saludable. Renunciar a los hechos objetivos, o al menos a la capacidad de discernirlos de las noticias, destruiría la confianza en la que debe basarse una sociedad democrática. Pero ya no vivimos en un mundo en el que “ver es creer”. Las personas deberían adoptar una actitud de “confiar pero verificar” en el consumo de medios, leyendo y mirando pero ejerciendo disciplina en términos de establecer la credibilidad del material.

Las nuevas tecnologías, como la inteligencia artificial generativa, están llamadas a brindar enormes beneficios a la sociedad, en el plano económico, médico y, posiblemente, incluso político. De hecho, los legisladores podrían utilizar herramientas de inteligencia artificial para ayudar a identificar contenido inauténtico y también para clasificar la naturaleza de las preocupaciones de sus electores, lo que ayudaría a los legisladores a reflejar la voluntad del pueblo en sus políticas. Pero la inteligencia artificial también plantea peligros políticos. Sin embargo, si somos conscientes de los riesgos potenciales y de las medidas de protección para mitigar sus efectos adversos, podemos preservar y tal vez incluso fortalecer las sociedades democráticas.

Para ir a la nota original haga CLIC AQUÍ