Il servizio di intelligenza artificiale (AI) vocale di Open AI “GPT-4o”, che si sospetta assomigli alla voce dell’attrice di Hollywood Scarlett Johansson, è emerso tra polemiche sulla responsabilità legale. In particolare, il riferimento del CEO di OpenAI Sam Altman al film “Her”, in cui Johansson interpretava la voce dell’IA, mentre introduceva GPT-4o, potrebbe essere problematico.
Il 23 (ora locale), The Verge, media americano specializzato nel campo dell’informazione e della comunicazione (IT), ha citato avvocati specializzati in diritti di proprietà intellettuale, affermando: “Anche se Open AI non intende farlo, lo fa sarà tenuto.” . “In particolare, il fatto che Sam Altman abbia menzionato il film ‘She’ e le somiglianze tra i due ha peggiorato la situazione”, afferma il rapporto.
OpenAI ha recentemente smesso di usare la voce di Johansson dopo essere stata coinvolta in una controversia sul fatto che Sky, uno dei cinque servizi audio di ChatGPT, avesse rubato la voce di Johansson. “Lo scorso settembre, il CEO Altman mi ha offerto di essere responsabile dell’audio sul GPT-4o di prossima uscita, ma ho rifiutato l’offerta per motivi personali”, ha detto Johansson in una nota. “Quando ho sentito il video pubblicato, sono rimasto scioccato perché era molto simile alla mia voce”, ha detto “mi sono sentito arrabbiato”. Il vero doppiatore di GPT-4o ha risposto, dicendo: “Non ho imitato Johansson.” “Non mi è stato chiesto di farlo.”
━
La valutazione della professione legale negli Stati Uniti
Nella comunità legale americana, c’è un’analisi secondo cui Johansson potrebbe rivendicare un “diritto di pubblicità” che protegge le informazioni personali dall’uso senza autorizzazione. Lo stato della California, dove ha sede OpenAI, protegge le voci delle persone viventi dall’utilizzo in attività commerciali senza il loro consenso.
In un’intervista con The Verge, Bors Bertel Albers, un avvocato partner specializzato in diritti di proprietà intellettuale presso lo studio legale statunitense Heinz Bohn, ha dichiarato: “Se rubi il nome, l’immagine o la voce di qualcuno, stai violando il diritto di pubblicità”. “Open AI è la voce di Sky”, ha aggiunto. “Affermiamo che non volevamo sembrare Johansson, ma ciò non significa che possiamo proteggere l’azienda (dalla responsabilità legale).”
Ci sono anche precedenti simili. Nel 1988, la casa automobilistica americana Ford perse una causa dopo aver prodotto una pubblicità utilizzando l’imitazione vocale della popolare cantante dell’epoca Bette Midler, dopo che Bette Midler lo aveva rifiutato. Johansson al momento non ha intentato causa contro OpenAI, ma ha assunto un avvocato per rispondere all’incidente.
━
Open AI, c’è un gap nella consapevolezza della sicurezza?
Open AI ha recentemente sciolto il suo team “Super Alignment”, un team di sviluppo tecnologico responsabile della sicurezza e del controllo dell’IA. Alcuni suggeriscono che con lo scioglimento del team e la partenza dei membri chiave, potrebbe esserci stata una lacuna nella consapevolezza della sicurezza dell’IA aperta. Anche questo “incidente acustico” ne fa parte.
Infatti, Ilya Sutskever, l’ex direttore scientifico di OpenAI che guidava questo team, ha lasciato l’azienda il giorno del rilascio di GPT-4o. “Sono fiducioso che Open AI costruirà un’intelligenza generale artificiale (AGI) sicura e utile”, ha detto quel giorno sui suoi social media (SNS). Sutskever, che ha sottolineato l’importanza di sviluppare un’intelligenza artificiale sicura, è stato anche membro del consiglio che ha guidato la cacciata del CEO Altman lo scorso anno. Jan Rijk, co-leader del team, si è dimesso il 18, sottolineando che “nel corso degli anni, la sicurezza dell’intelligenza artificiale è sempre stata seconda rispetto ai prodotti popolari”.
━
Cos’altro devi sapere?
Man mano che l’intelligenza artificiale si sviluppa a un livello simile a quello umano, aumentano le preoccupazioni per la sicurezza, comprese varie questioni legali e sociali. Al vertice sull’intelligenza artificiale di Seul del 21, le società globali di intelligenza artificiale, inclusa Open AI, e i governi di ciascun paese hanno concordato di stabilire standard di rischio per lo sviluppo dell’intelligenza artificiale e di sospendere volontariamente i servizi se decidono che il livello è alto. Questo per garantire affidabilità nello sviluppo dell’intelligenza artificiale.
In precedenza, Open AI, che guida l’innovazione dell’intelligenza artificiale, aveva problemi interni a causa di controversie sulla sicurezza. L’anno scorso, il CEO Altman è stato licenziato a causa delle divergenze di opinione sulla sicurezza dell’intelligenza artificiale con alcuni membri del consiglio, ma è tornato dopo molti colpi di scena. Al suo ritorno come CEO, Altman ha rafforzato in modo significativo le politiche di sicurezza, compreso il divieto di lanciare nuovi modelli senza il permesso del consiglio, ma sono comunque sorte controversie e problemi di sicurezza.
Kang Kwang Woo ([email protected])
“Esperto televisivo sottilmente affascinante. Drogato di alcol. Appassionato di zombie impenitente.”