Nota del editor: este artículo se publicó por primera vez el 22 de septiembre por Asya Ardawatia y fue traducido al español por Sara Solano Aguirre.
La IA socialmente responsable ha incrementado su importancia a través del incremento en el uso de la IA generativa, Shyam Sundar dijo durante la apertura de la conferencia inaugural de los oradores de ciencias sociales computacionales de Moody College of Communication el 20 de Septiembre.
Sundar, quien dirigió la conferencia titulada “Los efectos de los medios en línea en la era de la IA“, habló sobre la intersección de la democracia con la actividad de los usuarios en el Internet, redes sociales, y la moderación de contenido de IA. Sundar, Director del Penn State’s Center for Socially Responsible Artificial Intelligence, dijo que un aspecto clave de incrementar la comunicación en línea, especialmente en lo que respecta problemas en tendencia en línea como la política, radica en darle al usuario promedio un sentido de “auto-agencia”, o permitirle interactuar con plataformas en sus propios términos.
Sundar dijo que ese sentido de “auto-agencia” se manifiesta en tres características de la interactividad: medio, mensaje y fuente.
La función del medio permite a los usuarios hacer clic, desplazarse y deslizarse en las redes sociales. La función del mensaje permite la comunicación interpersonal cuando usuarios se convierten en fuentes escribiendo, comentando y recomendando contenido a otros usuarios de las redes sociales.
Sundar dijo que más señales, como permitiendo comentarios en una publicación, permite mayor interactividad y una mentalidad abierta, disminuyendo la polarización política. Si bien una mayor interactividad puede ser positiva, el incremento en el uso de la IA puede provocar intercambios negativos en línea, dijo el.
“(Este tipo de investigación) puede tener implicaciones prácticas sobre cómo las plataformas, incluso los proveedores de noticias, diseñan sus interfaces y cómo pueden mostrar apertura a la comunicación con los usuarios de maneras que podrían ser más contrarias a la intuición”, dijo Sundar durante la conferencia.
Sundar dijo que compartir sin hacer clic, o volver a publicar un artículo sin leer el contenido primero, constituye un 75% de los compartidos en Facebook. El dijo que cuando las personas comparten videos sin verificar si son reales, aumenta la cantidad de información errónea difundida a través de contenido generado por la IA como el contenido ultra falso.
“Están respaldando (sus declaraciones) y retuiteándolas, ya sea que sean precisas o no, y ese es un tipo de fenómeno bastante peligroso”, dijo Dustin Hall, estudiante de primer año de maestría en la carrera de investigación y teoría del periodismo en Moody.
Sundar dijo que la confianza social en la IA crece con la retroalimentación de los usuarios y las funciones de verificación.
“No odien ciegamente a la IA, no la amen ciegamente”, dijo Sundar. “Tomen decisiones… (procesando) sistemáticamente lo que tiene de bueno y de malo”.