SEGRE

Grans tecnològiques uneixen forces contra deepfakes: Google, Meta i OpenAI implementaran mesures per detectar contingut d’intel·ligència artificial

Les companyies tecnològiques líders busquen combatre la desinformació i protegir eleccions amb etiquetes que identificaran contingut generat artificialment

UNIVERSITAT DE SEVILLA - Arxiu|Arxivament

detail.info.publicated

Creat:

Actualitzat:

En resposta a la creixent amenaça de desinformació i el risc associat amb deepfakes, Google, Meta (anteriorment Facebook) i OpenAI han revelat recentment diverses iniciatives per facilitar la identificació d’imatges i arxius generats per intel·ligència artificial (IA). Aquestes accions busquen prevenir la propagació de missatges falsos que podrien influir en resultats electorals i tenir conseqüències imprevistes.

Les tres companyies, que ja havien anunciat el seu compromís d’evitar l’ús d’IA en els processos electorals de 2024, s’han unit a la Coalició per a la Procedència i Autenticitat de Contingut (C2PA). Aquesta coalició proposa un certificat estàndard i compte amb la participació de diverses indústries, incloent mitjans de comunicació com la BBC i The New York Times, així com bancs i fabricants de càmeres.

Encara que reconeixen que no hi ha una solució única i eficaç en tots els casos, les empreses estan explorant diferents enfocaments. Des de marques visibles en les imatges fins missatges ocults en les metadades d’arxius o píxels generats artificialment. Google, amb la seua eina SynthID encara en fase beta, afirma haver trobat un mètode per identificar àudios generats per IA.

L’estàndard C2PA, utilitzat per introduir informació en les metadades de la imatge, presenta debilitats tècniques, segons desenvolupadors. OpenAI, que implementarà C2PA en Dall-3, el seu generador d’imatges, adverteix sobre la limitació de les metadades per abordar qüestions de procedència, destacant la seua fàcil eliminació accidental o intencionada.

Encara que les empreses no proporcionen terminis clars per a la implementació completa d’aquestes mesures, reconeixen la urgència, especialment en un any ple de cites electorals importants. Meta es compromet a etiquetar visualment les imatges generades per les seues eines d’IA i a detectar aquelles que es comparteixin a les seues xarxes, com Instagram, Facebook i Threads. Google aplicarà els seus mètodes en YouTube, buscant assegurar la integritat del contingut davant de possibles manipulacions.

Malgrat representar avenços tècnics actuals, les companyies reconeixen la necessitat d’adaptar-se contínuament a mesura que evoluciona l’amenaça de deepfakes, amb Google confiant que el seu mètode amb SynthID pugui resistir modificacions voluntàries per ocultar-ho.

Titulars del dia

* camp requerit
Subscriu-te a la newsletter de SEGRE
tracking