
L'intelligenza artificiale è qui per restare, ma questo non vuol dire che l'Unione Europa non abbia intenzioni di regolamentare l'utilizzo di ChatGPT e soci. Al punto che lo stesso Sam Altman, capo di Open AI, ha affermato di avere "molte preoccupazioni" sulla legge e di poter prendere in considerazione il ritiro dei suoi servizi dall'UE.
La minaccia è la stessa ventilata da Mark Zuckerberg nel 2022, quando pressato dall'UE aveva minacciato di abbandonare il Continente, per poi fare marcia indietro. Una cosa è certa: nessuno può fare a meno del mercato europeo, Zuckerberg o IA che sia.
Ma cosa sta succedendo? L'UE starebbe finalizzando l'AI Act per richiedere alle aziende che lavorano sulle IA di divulgare i dettagli dei loro metodi di allenamento e le fonti dei dati. Questo nella speranza di rendere più trasparente non solo lo sviluppo, ma anche eventuali attribuzioni di copyright, problema che l'avvento di Midjourney ha recentemente sollevato.
I termini della legge sono stati ampliati negli ultimi mesi per includere nuovi obblighi per i creatori dei cosiddetti "modelli di base", sistemi di intelligenza artificiale su larga scala che alimentano servizi come ChatGPT e DALL-E di OpenAI.
Ma Altman ha affermato come queste regole siano difficili da rispettare, e che potrebbe persino considerare il ritiro dei suoi servizi dal mercato europeo in risposta alla regolamentazione dell'IA. L'imprenditore aveva dichiarato a Time come la sua preoccupazione fosse che sistemi come ChatGPT sarebbero stati designati dall'UE come ad alto rischio.
Oltre alle sfide tecniche, le divulgazioni richieste dall'EU AI Act presentano anche potenziali minacce commerciali per OpenAI. Una disposizione dell'attuale bozza richiede ai creatori di modelli di base di divulgare i dettagli sulla progettazione del loro sistema (inclusi "potenza di calcolo richiesta, tempo di formazione e altre informazioni pertinenti relative alle dimensioni e alla potenza del modello") e fornire un "riepilogo dei dati protetti da copyright utilizzato per l'allenamento".
OpenAI all'inizio condivideva questo tipo di informazioni ma poi ha smesso poiché i suoi strumenti sono diventati sempre più preziosi dal punto di vista commerciale.
Senza nominare il fatto che costringere OpenAI a identificare il proprio utilizzo di dati protetti da copyright esporrebbe l'azienda a potenziali azioni legali. Utilizzando dati dal Web, molti attori potrebbero chiedere i diritti, come ha fatto Getty Images per aver utilizzato i suoi dati protetti da copyright per addestrare il generatore di immagini AI. Un po' come dire "tutti sanno che utilizziamo i dati degli altri, ma meglio non scriverlo nero su bianco per dargli un appiglio legale per chiederci soldi".
Evidentemente, però, Altman ha cambiato idea, perché dopo una serie di conversazioni con i legislatori europei ha aperto uno spiraglio. Anzi, "non ha nessuna intenzione di andarsene".
Cosa si saranno detti? I dettagli non sono trapelati, ma se da un lato Altman non può certo abbandonare un mercato come quello europeo, è possibile che si siano meglio delineati i tratti della legislazione, in modo da proporla come meno limitante per OpenAI.
O forse si è solo confrontato con i suoi investitori (qualcuno ha nominato Microsoft?).
Al momento, l'azienda è al centro anche di una serie di confronti con la legislazione statunitense, ma mentre negli Stati Uniti la regolamentazione dovrebbe applicarsi principalmente ai futuri sistemi, l'EU AI Act pensa al presente e alle attuali capacità dell'IA.