La firma OpenAI informó que desarrolla medidas para impedir que se engañe a la población con abusos y falsificaciones producto de la inteligencia artificial durante los procesos electorales. La iniciativa llega en un año en el que habrá elecciones de distinto tipo en más de 50 países, entre ellos varios de América Latina. Imagen: Techaffinity
La firma OpenAI informó que desarrolla medidas para impedir que se engañe a la población con abusos y falsificaciones producto de la inteligencia artificial durante los procesos electorales. La iniciativa llega en un año en el que habrá elecciones de distinto tipo en más de 50 países, entre ellos varios de América Latina. Imagen: Techaffinity

San Francisco, Estados Unidos – OpenAI, la empresa detrás de la aplicación ChatGPT, ha anunciado un plan para mejorar la transparencia y el acceso a la información en el uso de inteligencia artificial (IA) durante las próximas elecciones, que se llevarán a cabo en más de 50 países en cinco continentes este año.

La compañía tecnológica expresó en un comunicado que, «mientras nos preparamos para las elecciones de 2024 en las democracias más grandes del mundo, nuestro enfoque es continuar nuestro trabajo de seguridad de la plataforma, elevando información electoral precisa, aplicando políticas mesuradas y mejorando la transparencia».

Se destacó la preocupación por posibles abusos, como deepfakes engañosos, operaciones de influencia a gran escala o chatbots que se hacen pasar por candidatos. Los chatbots son aplicaciones diseñadas para imitar conversaciones humanas a través de texto o voz, utilizando sistemas de IA generativa avanzados.

OpenAI enfatizó que antes de lanzar nuevos sistemas, recopilan comentarios de usuarios y socios externos para crear medidas de seguridad que reduzcan el potencial de daño. Actualmente, la empresa no permite que se creen aplicaciones para campañas políticas y lobbying.

La declaración de OpenAI señala que las personas desean interactuar con entidades genuinas y, por lo tanto, no permiten la creación de chatbots que pretendan ser personas reales o instituciones gubernamentales.

La empresa también prohíbe aplicaciones que desalienten la participación en procesos democráticos mediante la tergiversación de procesos y calificaciones de votación. Los usuarios de los nuevos modelos de ChatGPT tienen la capacidad de informar posibles infracciones.

OpenAI destacó la importancia de la transparencia en la procedencia de las imágenes, incluida la capacidad de detectar las herramientas utilizadas para producir una imagen, para permitir a los votantes evaluar la autenticidad de las imágenes.

A pesar de las medidas implementadas, Samuel Altman, director general de OpenAI, expresó durante un evento en el Foro Económico Mundial en Davos, Suiza, que no se siente completamente tranquilo y que es necesario vigilar de cerca el uso de la inteligencia artificial en este contexto.

La utilización de inteligencia artificial en campañas electorales ha suscitado preocupaciones sobre la desinformación y la manipulación, y OpenAI busca abordar estos desafíos con un enfoque proactivo.

Este año se llevarán a cabo elecciones en más de 50 países, y OpenAI busca contribuir a la integridad electoral y prevenir abusos relacionados con la inteligencia artificial.