x
Català Castellà
Registra’t | Iniciar sessió Registra’t Iniciar sessió
Menú Buscar
Cercador de l’Hemeroteca
Segre Segre Premium

XARXES SOCIALS

Facebook admet un error d'intel·ligència artificial en cas de vídeo d'atemptat

  • EFE
Actualitzada 22/03/2019 a les 11:57
El vicepresident de gestió del producte de Facebook explica que el sistema "no és perfecte"
Facebook admet error d'intel·ligència artificial en cas de vídeo d'atemptat

Totes les imatges i continguts de SEGRE.com tenen drets i no es permet la seva reproducció i/o còpia sense autorització expressa.

© El vicepresident de gestió del producte de Facebook, Guy Rosen, va explicar que, encara que la intel·ligència artificial ha aconseguit un "progrés massiu en moltes àrees en els últims anys" que els permet ser "proactius" en la detecció de continguts, el sistema "no és perfecte".

EFE/Archivo

La multinacional nord-americana Facebook ha admès avui que el seu sistema d’intel·ligència artificial per detectar contingut no permès a la xarxa social "no és perfecte" i va fallar a l’hora de reconèixer el vídeo de l’atemptat terrorista de divendres a Nova Zelanda, que va causar 50 morts a dos mesquites.

L’acció va ser retransmesa en directe en la funció de vídeo en viu de la plataforma i va ser vista unes 4.000 vegades abans que Facebook retirés l’enregistrament per primera vegada, encara que posteriorment hi va haver internautes que van intentar, amb èxit o no, tornar a penjar-lo en més d’un milió d’ocasions.

En una entrada al blog de la companyia, el vicepresident de gestió del producte de Facebook, Guy Rosen, va explicar que, encara que la intel·ligència artificial ha aconseguit un "progrés massiu en moltes àrees en els últims anys" que els permet ser "proactius" en la detecció de continguts, el sistema "no és perfecte".

"La intel·ligència artificial es basa en dades d’entrenament, la qual cosa significa que necessita milers d’exemples de contingut perquè pugui detectar certs tipus de text, imatges o vídeos", va apuntar Rosen, qui va indicar que va ser per això, en el cas de la retransmissió en directe de l’atemptat, el sistema no va funcionar.

"Necessitem proveir els nostres sistemes de grans volums de dades, una cosa que resulta difícil, ja que, afortunadament, aquest tipus de successos no són habituals", va indicar el vicepresident de l’empresa i va assegurar que la intel·ligència artificial sí que funciona en els casos de persones nues, propaganda terrorista i violència gràfica.

Rosen també va apuntar el "repte" que suposa discernir entre continguts com el de l’atemptat i altres de "visualment similars, però innocus", com per exemple les retransmissions en directe de partides de videojocs en els quals el protagonista dispara contra persones.

A més de Facebook, el portal de vídeos propietat d’Alphabet (matriu de Google) Youtube va assenyalar aquesta setmana que va retirar "desenes de milers" de vídeos de l’atac a la seua plataforma i va assegurar que l’ocorregut "no té precedents" en aquest lloc "tant per la seua escala com per la seua rapidesa".

El més...
segrecom Twitter

@segrecom

Envia el teu missatge
Segre
© SEGRE Carrer del Riu, nº 6, 25007, Lleida Telèfon: 973.24.80.00 Fax: 973.24.60.31 email: redaccio@segre.com
Segre Segre