El veredicto en un juicio por adicción a redes sociales sienta un precedente para la moderación de contenido.
Un jurado en Los Ángeles ha emitido un fallo decisivo contra Meta y Google en un juicio por adicción a redes sociales, una decisión que podría expandir la responsabilidad de las plataformas en relación con el contenido de odio. El caso fue presentado por una mujer de 20 años, identificada como K.G.M., quien alegó que las plataformas fomentaron el uso adictivo durante su minoría de edad y contribuyeron a su depresión y pensamientos suicidas debido a su diseño impulsado por el compromiso.
Este litigio se centró en los diseños de productos utilizados por las compañías, eludiendo la Sección 230, que protege a las plataformas de ser responsables por el contenido de las publicaciones. Las empresas demandadas han negado haber actuado mal, señalando sus herramientas de seguridad y controles parentales como medidas preventivas.
Meta declaró su desacuerdo con los veredictos y anunció que apelará, argumentando que reducir la complejidad de la salud mental adolescente a una sola causa ignora problemas más amplios. Por su parte, José Castañeda, portavoz de Google, también expresó el desacuerdo de la compañía con el veredicto y su intención de apelar, añadiendo que «el caso malinterpreta YouTube, que es una plataforma de transmisión construida de manera responsable, no un sitio de redes sociales». Liora Rez, fundadora y directora ejecutiva de StopAntisemitism, calificó el fallo de «monumental», señalando que grupos de defensa han advertido sobre cómo los algoritmos afectan negativamente a las personas al promover el odio.
Rez explicó que las plataformas han pasado de no hacer lo suficiente para eliminar el antisemitismo a diseñar sistemas que activamente difunden, monetizan e incentivan la propagación de contenido de odio. Mencionó que, aunque las plataformas tienen políticas contra el contenido de odio, los influencers utilizan «palabras clave» para eludir la censura, como «desvivir» en lugar de «matar». La fundadora de StopAntisemitism también expresó preocupación por el contenido generado por inteligencia artificial (IA), que, según ella, ya está alimentando narrativas antisemitas.
Puso como ejemplo el caso del «Rabino Goldman», una figura generada por IA que acumuló 1.5 millones de seguidores en Instagram y difundía narrativas antisemitas sobre el control judío de los sistemas financieros, utilizando palabras en yiddish de manera inconsistente. Rez señaló que los videos problemáticos de este tipo de cuentas suelen ser impulsados por el algoritmo después de que otros contenidos más «interesantes» ganan visibilidad.
A pesar de las preocupaciones sobre la IA, Rez manifestó optimismo sobre la disposición de las empresas de redes sociales para abordar el contenido de odio tras el veredicto. La organización StopAntisemitism espera que para finales de año las compañías tomen medidas proactivas. Rez concluyó que este fallo establece un precedente para futuras litigaciones masivas y espera que las empresas lo tomen como una señal de advertencia, poniendo la IA en el centro de la discusión.
