Facebook, Twitter, YouTube están presionados frente a forma de compartir contenido
martes, 27 de abril de 2021
El senador Ben Sasse, del Comité Judicial del Senado sobre Privacidad, Tecnología y Derecho, comentó mientras miembros examinaban algoritmos
Bloomberg
Los legisladores presionaron a ejecutivos de Facebook Inc., Twitter Inc. y YouTube de Alphabet Inc. el martes sobre cómo se comparte y destaca el contenido de los usuarios en sus plataformas a través de algoritmos que, según un senador, pueden ser mal utilizados, “llevándonos a cámaras de eco venenosas. "
El senador Ben Sasse, el principal republicano en el panel del Comité Judicial del Senado sobre Privacidad, Tecnología y Derecho, hizo el comentario mientras los miembros examinaban los algoritmos: las líneas de código de software que determinan cómo se muestra la información generada por el usuario y quién puede verla. .
La audiencia se produce cuando el Congreso analiza más ampliamente cómo reformar la Sección 230, una disposición de la ley de comunicaciones de 1996 que protege a las empresas de Internet de la responsabilidad por el contenido del usuario. La propuesta de One House haría que las plataformas de redes sociales sean responsables de la forma en que se comparte y amplifica el contenido a través de algoritmos.
"Planeo usar esta audiencia como una oportunidad para aprender sobre cómo funcionan los algoritmos de estas empresas, qué pasos se pueden haber tomado para reducir la amplificación algorítmica que es dañina y qué se puede hacer mejor", dijo el senador de Delaware Chris Coons, un demócrata y el presidente del subcomité, cuando abrió la audiencia.
El senador de Illinois Dick Durbin, presidente demócrata del Comité Judicial en pleno, instó a las empresas de redes sociales a hacer más para eliminar el contenido dañino, citando el ataque del 6 de enero al Capitolio de Estados Unidos. Dijo que los extremistas nacionales organizaron y compartieron desinformación en algunas de las plataformas representadas en la audiencia del martes.
Monika Bickert, vicepresidenta de política de contenido de Facebook, testificó que sus herramientas hacen que el algoritmo de la plataforma sea más transparente, para que los usuarios puedan ver por qué ciertas publicaciones aparecen en sus noticias.
"No nos conviene ni desde el punto de vista económico ni de nuestra reputación" impulsar a la gente hacia contenido extremista, dijo Bickert.
Lauren Culbertson, jefa de políticas públicas de EE.UU. de Twitter, destacó los usos positivos de los algoritmos y el aprendizaje automático, especialmente la capacidad de reconocer contenido dañino para revisar y eliminar. Ella dijo en su declaración de apertura que Twitter se compromete a estudiar las consecuencias no deseadas de los algoritmos y a brindar a los usuarios más opciones sobre cómo los algoritmos dan forma a su experiencia.
"Mientras los miembros del Congreso y otros responsables políticos debaten el futuro de la regulación de Internet, deberían considerar de cerca las formas en que la tecnología, los algoritmos y el aprendizaje automático hacen de Twitter un lugar más seguro para la conversación pública y mejoran la experiencia global con Internet en general". Dijo Culbertson.
Alexandra Veitch, directora de asuntos gubernamentales y políticas públicas de YouTube para las Américas y los mercados emergentes, dijo que el servicio utiliza un proceso automatizado para detectar videos que violan las políticas de la compañía y que se pueden usar algoritmos para promover fuentes confiables y minimizar el contenido cuestionable. Describió YouTube como "no solo un pasatiempo, sino un negocio" para las personas que crean y comparten videos en la plataforma.
Pero Tristan Harris , cofundador y presidente del Center for Humane Technology, desestimó el testimonio de los ejecutivos de la compañía y dijo que “es casi como tener a los directores de Exxon, BP y Shell preguntando qué están haciendo para detener responsablemente el cambio climático. "
Harris, un ex especialista en ética del diseño en Google, dijo que “su modelo de negocio es crear una sociedad adicta, indignada, polarizada, performativa y desinformada. Eso es solo lo fundamental de cómo funciona ".
El papel que juegan los algoritmos en el intercambio de información, y desinformación, ha adquirido una importancia renovada a medida que las personas recurren a las redes sociales para aprender y comentar sobre temas como las vacunas covid-19, las protestas por los asesinatos policiales y la seguridad electoral. Como indicó Durbin, las plataformas han estado bajo un mayor escrutinio desde que los partidarios del expresidente Donald Trump amplificaron la desinformación antes del ataque del 6 de enero.
Trump fue suspendido por Facebook, Twitter y YouTube por comentarios que, según las compañías, podrían conducir a la violencia. La Junta de Supervisión de Facebook está revisando la decisión, mientras que YouTube ha dejado abierta la posibilidad de revertir la suspensión. Twitter dijo que su prohibición de la cuenta de Trump es permanente.
Pero el senador Chuck Grassley de Iowa, el principal republicano en el pleno del Comité Judicial del Senado, expresó la frecuente queja del Partido Republicano de que las plataformas de redes sociales censuran a los conservadores. Describió a las empresas como monopolios que no enfrentan la competencia que las haría más responsables con la información de los usuarios. “Debemos analizar el poder y el control que un puñado de empresas tiene sobre la expresión”, dijo Grassley.
Facebook ha estado abogando por una regulación de Internet actualizada, incluidas nuevas reglas de privacidad. También ha pedido medidas de protección electoral y una revisión de la sección 230 para exigir más transparencia, requisitos de presentación de informes y pautas de mejores prácticas para las empresas más grandes. Como parte de esa campaña, Facebook está comprando anuncios en la capital del país señalando cuánto ha cambiado Internet en los 25 años desde que las regulaciones actuales se convirtieron en ley.