x
Catalán Castellano
Regístrate | Iniciar sesión Regístrate Iniciar sesión
Menú Buscar
Buscador de la Hemeroteca
Segre Segre Premium

REDES SOCIALES

Facebook admite fallo de inteligencia artificial en caso de vídeo de atentado

  • EFE
Actualizada 22/03/2019 a las 11:57
El vicepresidente de gestión de producto de Facebook explica que el sistema "no es perfecto"
Facebook admet error d'intel·ligència artificial en cas de vídeo d'atemptat

Todas las imágenes y contenidos de SEGRE.com tiene derechos y no se permite su reproducción y/o copia sin autorización expresa.

© El vicepresident de gestió del producte de ##Facebook, ##Guy Rosen, va explicar que, encara que la intel·ligència artificial ha aconseguit un "progrés massiu en moltes àrees en els últims anys" que els permet ser "proactius" en la detecció de continguts, el sistema "no és perfecte".

EFE/Archivo

La multinacional estadounidense Facebook admitió hoy que su sistema de inteligencia artificial para detectar contenido no permitido en la red social "no es perfecto" y falló a la hora de reconocer el vídeo del atentado terrorista del viernes en Nueva Zelanda, que causó 50 muertos en dos mezquitas.

La acción fue retransmitida en directo en la función de vídeo en vivo de la plataforma y fue vista unas 4.000 veces antes de que Facebook retirase la grabación por primera vez, aunque posteriormente hubo internautas que intentaron, con éxito o no, volver a colgarlo en más de un millón de ocasiones.

En una entrada en el blog de la compañía, el vicepresidente de gestión de producto de Facebook, Guy Rosen, explicó que, aunque la inteligencia artificial ha logrado un "progreso masivo en muchas áreas en los últimos años" que les permite ser "proactivos" en la detección de contenidos, el sistema "no es perfecto".

"La inteligencia artificial se basa en datos de entrenamiento, lo que significa que necesita miles de ejemplos de contenido para que pueda detectar ciertos tipos de texto, imágenes o vídeos", apuntó Rosen, quien indicó que fue por eso por lo que, en el caso de la retransmisión en directo del atentado, el sistema no funcionó.

"Necesitamos proveer a nuestros sistemas de grandes volúmenes de datos, algo que resulta difícil, puesto que, afortunadamente, este tipo de sucesos no son habituales", indicó el vicepresidente de la empresa y aseguró que la inteligencia artificial sí funciona en los casos de desnudos, propaganda terrorista y violencia gráfica.

Rosen también apuntó al "reto" que supone discernir entre contenidos como el del atentado y otros "visualmente similares, pero inocuos", como por ejemplo las retransmisiones en directo de partidas de videojuegos en los que el protagonista dispara contra personas.

Además de Facebook, el portal de vídeos propiedad de Alphabet (matriz de Google) Youtube señaló esta semana que retiró "decenas de miles" de vídeos del ataque en su plataforma y aseguró que lo ocurrido "no tiene precedentes" en ese sitio "tanto por su escala como por su rapidez".

Lo más...
segrecom Twitter

Opiniones sobre @segrecom

Envía tu mensaje
Segre
© SEGRE Calle del Riu, nº 6, 25007, Lleida Teléfono: 973.24.80.00 Fax: 973.24.60.31 email: redaccio@segre.com
Segre Segre