lunes, enero 19, 2026
No Result
View All Result
El Hormiguero Potosino.
14 °c
S. Luis Potosi
18 ° mar
18 ° mié
20 ° jue
20 ° vie
  • SLP
  • México
  • Global
  • Ciencia y Tecnología
  • Cultura
  • Deportes
  • Espectáculos
  • Opinión
  • Salud
  • Seguridad
  • Vida y estilo
  • SLP
  • México
  • Global
  • Ciencia y Tecnología
  • Cultura
  • Deportes
  • Espectáculos
  • Opinión
  • Salud
  • Seguridad
  • Vida y estilo
No Result
View All Result
El Hormiguero Potosino.
No Result
View All Result

Facebook potencia el arma de la Inteligencia Artificial para eliminar contenidos nocivos

29 noviembre, 2019
in Ciencia y Tecnología
Facebook potencia el arma de la Inteligencia Artificial para eliminar contenidos nocivos

Acoso, incitación al odio, propaganda terrorista, cuentas falsas que manipulan la conversación entre internautas … Rastrear y bloquear los contenidos abusivos y peligrosos que buscan su canal de circulación en Facebook es la declarada prioridad de la red social con más usuarios del mundo, cuya imagen se ha visto lastrada por “errores” y “malas experiencias” como la emisión en directo de una masacre antimusulmana en Nueva Zelanda. Mediaron 17 minutos hasta que la filmación del propio asesino fue desactivada. Ocho meses y medio después, los responsables de la plataforma esgrimen el arma de la Inteligencia Artifical (AI) para lograr su objetivo de detectar automáticamente ese y otro tipo de materiales nocivos antes de que sean accesibles a otros usuarios. En el minuto cero.

De los 1.700 millones de cuentas eliminadas por Facebook en el tercer trimestre del año, el 90% fueron interceptadas antes de que fueran activas, han explicado en Londres un grupo de expertos en producto e ingeniería que desarrollan las herramientas tecnológicas de la compañía. Ese dato ha sido posible gracias a los avances en el software a la hora de identificar contenidos que no cumplan los estándares fijados por la plataforma. Si la firma californiana dependía en sus inicios de que los usuarios alertaran sobre contenidos dudosos, a lo que siguió un proceso de revisión por parte de su personal, en el presente son los algoritmos los encargados de la detección automática de los materiales no deseados, aunque el proceso incluye equipos humanos que verifican la aplicación del software.

Hoy por hoy, la detección de antemano está por encima del 90% en muchos casos, pero resulta menos eficaz en áreas complejas como los discursos que propagan el odio y especialmente el acoso. Uno de los reiterados errores de la “máquina” –como los expertos reunidos en Londres denominan coloquialmente a la IA- es incurrir en “falsos positivos” y “falsos negativos”, es decir, en detectar irregularidades en un contenido cuando no las hay y viceversa. Es difícil que un algoritmo pueda dirimir, por ejemplo, si ciertos mensajes persiguen la difamación o sólo se trata de un broma, porque su contenido atiende al contexto. Se ha avanzado en la evaluación de otros factores, como los patrones de comportamiento de ciertos usuarios en la plataforma, pero la intervención humana sigue siendo necesaria.

“El reto es continuo”, subraya Simon Cross (product manager), poniendo como ejemplo, básico pero ilustrativo, ciertas cuentas consagradas a la venta de cánnabis: empezaron obviando el uso de la palabra marihuana para no ser detectados; luego recurrieron a fotografías de la planta que la asemejaban al inocente brócoli, hasta que las mejoras tecnológicas en la plataforma permitieron extraer las imágenes del contexto; entonces optaron por otras alegóricas que imitaban a aquellas fotos del desayuno que tantos usuarios de Facebook son aficionados a colgar en la red…La historia de esos engaños a la “máquina” aparece interminable. Por eso, admite, “cuanto más se sofistica la tecnología más personal humano precisamos”.

Los humanos también son los proveedores de los data que alimentan la tecnología del aprendizaje automático. El pasado 15 de marzo, los algoritmos no reconocieron como material eliminable de inmediato la matanza que un supremacista blanco estaba perpetrando –y emitiendo en directo- en dos mezquitas de la localidad neozelandesa de Chistchurch. Desde entonces Facebook ha recabado la ayuda de fuerzas de seguridad de algunos países. como la Policía Metropolitana de Londres, que les ha facilitado las imágenes capturadas por las cámaras corporales de los agentes durante los entrenamientos de la lucha antiterrorista. Los expertos de Facebook aseguran que la “máquina” detecta hoy el 98% de la propaganda terrorista, pero el reto sigue siendo ese sensible 2% restante.

Con información de El País

Tags: Acosocontenidos nocivosFacebookInteligencia artificialLondres
ShareTweet
Next Post
Santander registra falla en servicios digitales en pleno Black Friday

Santander registra falla en servicios digitales en pleno Black Friday

Deja un comentario Cancelar respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Te recomendamos

Sin contar, casi 35% de muertes de Covid en 2021

4 años ago
Nuevo récord de velocidad de internet: descarga todo Netflix en un segundo

Nuevo récord de velocidad de internet: descarga todo Netflix en un segundo

5 años ago

Síguenos en Facebook

  • SLP
  • México
  • Global
  • Ciencia y Tecnología
  • Cultura
  • Deportes
  • Espectáculos
  • Opinión
  • Salud
  • Seguridad
  • Vida y estilo

© 2019 El Hormiguero Potosino

No Result
View All Result
  • SLP
  • México
  • Global
  • Ciencia y Tecnología
  • Cultura
  • Deportes
  • Espectáculos
  • Opinión
  • Salud
  • Seguridad
  • Vida y estilo

© 2019 El Hormiguero Potosino