/ miércoles 9 de marzo de 2022
Philip Jackson* / The Conversation
“Mira hacia otro lado ahora si no quieres saber el marcador”, dicen algunos noticiarios antes de informar los resultados de fútbol. Pero imagina si tu televisor supiera a qué equipos sigues, qué resultados evitar, o si supiera pasar por alto el fútbol por completo y hablarte de otra cosa. Con la personalización de los medios en la que está trabajando la BBC, ese tipo de asuntos están más cerca de ser posibles.
Dicha personalización va más allá de lo que ya hacen plataformas como BBC iPlayer o Netflix, que sugieren contenidos en función de lo que una persona ha visto anteriormente.
Aquí de lo que se trata es de personalización ya dentro de los contenidos, donde se podría incluir ajustar la duración del programa, por ejemplo, ver una versión abreviada o extendida, agregar gráficos o mejorar el diálogo si la capacidad auditiva no es la óptima, o bien proporcionar información adicional relacionada con el programa.
La gran diferencia es que estas características no serían genéricas, sino diseñadas de acuerdo con los propios gustos de las personas y adaptados a sus necesidades.
Doble Vía
Para ofrecer nuevos tipos de personalización de medios a las audiencias a escala, estas características estarán impulsadas por inteligencia artificial (IA), la cual funciona a través del aprendizaje automático que realiza tareas basadas en información de grandes conjuntos de datos que se alimentan para entrenar el sistema o algoritmo.
Ese es el enfoque de la asociación entre la BBC y el Centro de Procesamiento de la Visión, el Habla y la Señal de la Universidad de Surrey, que lleva el nombre de Inteligencia Artificial para Experiencias de Medios Personalizadas, o AI4ME, y que busca ayudar a la cadena a servir mejor al público, especialmente a las nuevas audiencias.
Los principios de IA de la Organización para la Cooperación y el Desarrollo Económicos (OCDE) requieren que esta tecnología beneficie a la humanidad, incorporando equidad, seguridad, transparencia y responsabilidad.
Sin embargo, se acusa cada vez más a los sistemas de IA de automatizar la desigualdad como consecuencia de los sesgos en su formación, lo que puede reforzar los prejuicios existentes y poner en desventaja a los grupos vulnerables.
Esto puede tomar la forma de sesgo de género en el reclutamiento o disparidades raciales en las tecnologías de reconocimiento facial, por ejemplo.
Otro problema potencial con los sistemas de IA es lo que llamamos generalización: La primera víctima mortal reconocida de un coche autónomo es un ejemplo de ello.
Por lo tanto, debemos seguir capacitando a los sistemas de IA a medida que aprendemos más sobre su comportamiento en el mundo real y nuestros resultados deseados. Es imposible dar instrucciones a una máquina para todas las eventualidades e imposible predecir todas las posibles consecuencias no deseadas.
Aún no sabemos completamente qué tipo de problemas podría presentar nuestra IA en el ámbito de los medios personalizados y eso es lo que se espera descubrir a través de este proyecto.
Para diseñar bien este sistema de personalización, se requiere la participación pública desde el principio. Esto es vital para brindar una perspectiva amplia a los equipos técnicos que pueden sufrir de métricas de rendimiento definidas de manera limitada, "pensamiento grupal" dentro de sus departamentos y falta de diversidad.
Surrey y la BBC están trabajando para probar un enfoque para atraer personas (personas normales, no expertos) para supervisar el desarrollo de la IA en la personalización de los medios.
Doble Vía
Estamos probando "consejos de ciudadanos" para crear un diálogo, donde la información que obtengamos de los consejos informará el desarrollo de las tecnologías. Nuestro consejo ciudadano tendrá representación diversa e independencia de la BBC.
Los temas brindan al consejo ciudadano una forma de revisar tecnologías específicas contra cada uno de los principios de IA de la OCDE y debatir los usos aceptables de los datos personales en la personalización de los medios, independientemente de los intereses corporativos o políticos.
Hay riesgos. Es posible que no reflejemos adecuadamente la diversidad, puede haber malentendidos en torno a las tecnologías propuestas o falta de voluntad para escuchar los puntos de vista de los demás. ¿Qué pasa si los miembros del consejo no pueden llegar a un consenso o comienzan a desarrollar un sesgo?
Creemos que este enfoque puede traer amplias consideraciones éticas al ámbito de los desarrolladores de ingeniería durante las primeras etapas del diseño de sistemas complejos de IA. Nuestros participantes no están comprometidos con los intereses de las grandes tecnologías o los gobiernos, pero transmiten los valores y creencias de la sociedad.
* Especialista de la Universidad de Surrey.
ESCUCHA EL PODCAST⬇️
Disponible en: Acast, Spotify, Apple Podcasts, Google Podcasts, Deezer y Amazon Music
“Mira hacia otro lado ahora si no quieres saber el marcador”, dicen algunos noticiarios antes de informar los resultados de fútbol. Pero imagina si tu televisor supiera a qué equipos sigues, qué resultados evitar, o si supiera pasar por alto el fútbol por completo y hablarte de otra cosa. Con la personalización de los medios en la que está trabajando la BBC, ese tipo de asuntos están más cerca de ser posibles.
Dicha personalización va más allá de lo que ya hacen plataformas como BBC iPlayer o Netflix, que sugieren contenidos en función de lo que una persona ha visto anteriormente.
Aquí de lo que se trata es de personalización ya dentro de los contenidos, donde se podría incluir ajustar la duración del programa, por ejemplo, ver una versión abreviada o extendida, agregar gráficos o mejorar el diálogo si la capacidad auditiva no es la óptima, o bien proporcionar información adicional relacionada con el programa.
La gran diferencia es que estas características no serían genéricas, sino diseñadas de acuerdo con los propios gustos de las personas y adaptados a sus necesidades.
Doble Vía
Para ofrecer nuevos tipos de personalización de medios a las audiencias a escala, estas características estarán impulsadas por inteligencia artificial (IA), la cual funciona a través del aprendizaje automático que realiza tareas basadas en información de grandes conjuntos de datos que se alimentan para entrenar el sistema o algoritmo.
Ese es el enfoque de la asociación entre la BBC y el Centro de Procesamiento de la Visión, el Habla y la Señal de la Universidad de Surrey, que lleva el nombre de Inteligencia Artificial para Experiencias de Medios Personalizadas, o AI4ME, y que busca ayudar a la cadena a servir mejor al público, especialmente a las nuevas audiencias.
Los principios de IA de la Organización para la Cooperación y el Desarrollo Económicos (OCDE) requieren que esta tecnología beneficie a la humanidad, incorporando equidad, seguridad, transparencia y responsabilidad.
Sin embargo, se acusa cada vez más a los sistemas de IA de automatizar la desigualdad como consecuencia de los sesgos en su formación, lo que puede reforzar los prejuicios existentes y poner en desventaja a los grupos vulnerables.
Esto puede tomar la forma de sesgo de género en el reclutamiento o disparidades raciales en las tecnologías de reconocimiento facial, por ejemplo.
Otro problema potencial con los sistemas de IA es lo que llamamos generalización: La primera víctima mortal reconocida de un coche autónomo es un ejemplo de ello.
Por lo tanto, debemos seguir capacitando a los sistemas de IA a medida que aprendemos más sobre su comportamiento en el mundo real y nuestros resultados deseados. Es imposible dar instrucciones a una máquina para todas las eventualidades e imposible predecir todas las posibles consecuencias no deseadas.
Aún no sabemos completamente qué tipo de problemas podría presentar nuestra IA en el ámbito de los medios personalizados y eso es lo que se espera descubrir a través de este proyecto.
Para diseñar bien este sistema de personalización, se requiere la participación pública desde el principio. Esto es vital para brindar una perspectiva amplia a los equipos técnicos que pueden sufrir de métricas de rendimiento definidas de manera limitada, "pensamiento grupal" dentro de sus departamentos y falta de diversidad.
Surrey y la BBC están trabajando para probar un enfoque para atraer personas (personas normales, no expertos) para supervisar el desarrollo de la IA en la personalización de los medios.
Doble Vía
Estamos probando "consejos de ciudadanos" para crear un diálogo, donde la información que obtengamos de los consejos informará el desarrollo de las tecnologías. Nuestro consejo ciudadano tendrá representación diversa e independencia de la BBC.
Los temas brindan al consejo ciudadano una forma de revisar tecnologías específicas contra cada uno de los principios de IA de la OCDE y debatir los usos aceptables de los datos personales en la personalización de los medios, independientemente de los intereses corporativos o políticos.
Hay riesgos. Es posible que no reflejemos adecuadamente la diversidad, puede haber malentendidos en torno a las tecnologías propuestas o falta de voluntad para escuchar los puntos de vista de los demás. ¿Qué pasa si los miembros del consejo no pueden llegar a un consenso o comienzan a desarrollar un sesgo?
Creemos que este enfoque puede traer amplias consideraciones éticas al ámbito de los desarrolladores de ingeniería durante las primeras etapas del diseño de sistemas complejos de IA. Nuestros participantes no están comprometidos con los intereses de las grandes tecnologías o los gobiernos, pero transmiten los valores y creencias de la sociedad.
* Especialista de la Universidad de Surrey.
ESCUCHA EL PODCAST⬇️
Disponible en: Acast, Spotify, Apple Podcasts, Google Podcasts, Deezer y Amazon Music
Mundo
Gossip
Doble Vía
Mundo
Política
Política
El Parlamento Europeo aprobó una resolución en la que pide a las autoridades mexicanas abstenerse de dar cualquier tipo de mensaje que estigmatice a periodistas y defensores de derechos humanos
Sociedad
El gobierno informó que su uso será opcional y algunas medidas sanitarias como tomar la temperatura ya no serán necesarias
Mundo
El ministro de Defensa ruso señaló que el supuesto montaje del bombardeo es una provocación de Ucrania
Automotriz
Mattel, Disney y Pixar rinden homenaje al piloto mexicano Checo Pérez, a través de un auto personalizado a escala
OMG!
Captaron el momento en que presuntamente discutía con una persona en la colonia El Espejo 1
Política
El Parlamento Europeo aprobó una resolución en la que pide a las autoridades mexicanas abstenerse de dar cualquier tipo de mensaje que estigmatice a periodistas y defensores de derechos humanos
Sociedad
Vecinos de esta demarcación alertan en chats vecinales sobre una persona, en aparente situación de calle, que tras romperles el cuello a las mascotas, comienza a masticarlas
Mundo
El ministro de Defensa ruso señaló que el supuesto montaje del bombardeo es una provocación de Ucrania
Política
Todo apunta a que será José Luis Cervantes Aguirre el nuevo titular de la Fiscalía General de Justicia
Related News
Detienen en México a "El Nido", presunto líder de célula criminal dedicada al tráfico de drogas hacia EEUU – Univision
República Dominicana vs México Verde RESUMEN: Serie del Caribe 2026 Partido de Béisbol HOY – milenio.com
Qué está pasando hoy en tecnología: México entre el auge de la IA, los hackeos y la automatización laboral – MexicoIndustry
Comments
No comments found!
Leave a Comment
Your email address will not be published.
You must be logged in to post a comment.

