OpenAI ha annunciato la sua partecipazione alla Coalition for Content Provenance and Authenticity (C2PA) come membro del comitato direttivo. Altri membri del comitato includono Adobe, BBC, Intel, Microsoft, Google, Publicis Groupe, Sony e Truepic.

Cos’è C2PA?

C2PA è un organismo di standardizzazione tecnica aperto che sta sviluppando standard per certificare la fonte e la storia dei contenuti digitali per affrontare la prevalenza di informazioni fuorvianti online. Ciò include il controllo se il contenuto è stato alterato rispetto al suo stato originale.

C2PA combina gli sforzi della Content Authenticity Initiative, guidata da Adobe, che si concentra sulla fornitura di contesto e storia per i media digitali, e Project Origin, un’iniziativa congiunta di Microsoft e BBC volta a combattere la disinformazione nell’ecosistema delle notizie digitali.

“C2PA sta svolgendo un ruolo essenziale nel riunire il settore per promuovere standard condivisi sulla provenienza digitale”, ha affermato Anna Makanju, Vicepresidente degli affari globali di OpenAI. “Non vediamo l’ora di contribuire a questo sforzo e lo consideriamo una parte importante per creare fiducia nell’autenticità di ciò che le persone vedono e sentono online.”

“L’adozione, il patrocinio e l’impegno continuo di OpenAI a favore delle credenziali relative ai contenuti daranno voce importante agli sforzi lavorativi dei nostri membri per guidare lo sviluppo dello standard C2PA”, ha affermato Andrew Jenks, presidente di C2PA.

OpenAI ha recentemente integrato gli standard di metadati C2PA negli output dei suoi modelli di immagini DALL·E 3 per migliorare la trasparenza e la tracciabilità. L’azienda prevede di estendere queste pratiche a Sora, il suo modello di prossima generazione di video.

Per saperne di più:

Stack Overflow e OpenAI collaborano per integrare l’intelligenza artificiale con la conoscenza degli esperti

OpenAI collabora con il Financial Times

Classificatore di rilevamento della procedura guidata OpenAI

Inoltre, OpenAI ha affermato in un post sul blog che le sue nuove iniziative mirano ad affrontare i contenuti digitali ingannevoli, tra cui la filigrana avanzata e gli strumenti di rilevamento basati sull’intelligenza artificiale. L’azienda sta lanciando un nuovo classificatore per il rilevamento delle immagini, che è ora disponibile per la sperimentazione da parte di gruppi di ricerca selezionati e organizzazioni di giornalismo senza scopo di lucro attraverso il suo programma di accesso ai ricercatori.

Il classificatore, che ha dimostrato un elevato tasso di precisione nell’identificazione delle immagini generate dall’intelligenza artificiale, rappresenta un importante passo avanti nella distinzione tra contenuti autentici e manipolati. OpenAI ha sottolineato l’importanza di queste tecnologie nel mantenere la credibilità dei media digitali in un post sul blog.

Inoltre, OpenAI sta attualmente lavorando per aggiungere la filigrana audio al suo modello vocale personalizzato, Voice Engine, che è attualmente in un’anteprima di ricerca limitata. Continuano la loro ricerca nel segmento audio per garantire che i loro progressi nelle tecnologie audio siano trasparenti e sicuri. Lo ha annunciato in un post sul blog.

OpenAI e Microsoft promuoveranno l’educazione all’intelligenza artificiale

Oltre a questi progressi tecnologici, OpenAI e Microsoft stanno introducendo un Fondo per la resilienza sociale per promuovere l’educazione all’intelligenza artificiale e favorire una più ampia comprensione delle tecnologie AI e delle loro implicazioni. Il fondo sosterrà diverse organizzazioni, tra cui AARP Senior Technology Services, International IDEA e Partnership on AI.

Questo approccio sfaccettato sottolinea il ruolo fondamentale della collaborazione e della trasparenza nell’affrontare le sfide poste dal rapido progresso delle tecnologie di intelligenza artificiale generativa nella creazione di contenuti.


Fonte www.themobileindian.com

Di Luigi M