Come capire se un’immagine è generata da AI
Per evitare di cadere vittima di immagini false generate dall’intelligenza artificiale bisogna innanzitutto prestare attenzione ai dettagliIn un'epoca in cui l'intelligenza artificiale generativa sta assumendo un ruolo sempre più importante nella produzione di contenuti, sorge la domanda: come possiamo distinguere tra i contenuti creati da un essere umano e quelli generati da una macchina? La questione è di grande rilevanza e, al momento, non esiste una soluzione valida per tutte le situazioni.
Alcuni casi di denunce per violazione del copyright da parte di software di intelligenza artificiale generativa sono finiti in tribunale. Da qui le preoccupazioni legate alla protezione dei diritti d'autore e alla necessità di capire quando un contenuto è stato generato dall'AI generativa. Per cercare di venire a capo della questione, start-up, università e piattaforme che sviluppano questa tecnologia sono oggi impegnata a trovare una soluzione.
Prima di iniziare vi ricordiamo le nostre guide su come funziona Midjourney e come funziona Stable Diffusion.
Immagine generata da AI, come fare a riconoscerla
Per evitare di cadere vittima di immagini false generate dall'intelligenza artificiale bisogna innanzitutto prestare attenzione ai dettagli e rallentare il processo di valutazione.
L'AI è progettata per creare immagini realistiche utilizzando come riferimento un vasto database di immagini reali. Questi programmi hanno però un tallone d'Achille: non sanno a quali dettagli prestare attenzione, il che porta spesso alla creazione di artefatti facilmente identificabili da uno sguardo attento. Ad esempio, nei video deepfake, l'AI spesso non riproduce correttamente il movimento delle palpebre, perché si basa su immagini di persone con gli occhi aperti.
Per individuare le immagini false ovvero generate dall'intelligenza artificiale occorre allora prestare attenzione a dettagli specifici come le mani e gli occhi. Gli attuali programmi di AI non riescono a riprodurre immagini verosimili delle mani, per cui spesso appaiono strane o con sei dita, mentre gli occhi possono presentare anomalie nel movimento delle palpebre. L'osservazione dei dettagli delle immagini potrebbe richiedere più tempo di quanto si pensi, poiché il cervello umano impiega solo 13 millisecondi per elaborare un'immagine. Per risolvere il problema della creazione di immagini false tramite l'AI servono filtri e sistemi di controllo della fonte del contenuto.
Attualmente, università, studenti e piattaforme che utilizzano l'AI stanno lavorando per sviluppare sistemi di sicurezza.
Gli strumenti per riconoscere una immagine generata da AI
Il settore dell'informazione e della comunicazione sta subendo una rapida evoluzione grazie alla tecnologia. Le nostre abilità di osservazione e analisi potrebbero non essere sufficienti per distinguere le immagini reali dalle riproduzioni generate da computer poiché l'intelligenza artificiale è in grado di creare immagini molto realistiche. Un approccio più pragmatico ed efficace invita ad aumentare il livello di scetticismo rispetto alle fonti di informazione, verificandone sempre la veridicità.
Uno strumento utile a tal fine è la ricerca inversa di immagini di Google, che consente di verificare se sono in corso conversazioni sulla creazione dell'immagine. Questo metodo potrebbe non essere sufficiente per immagini meno note o uniche. Aziende come Reality Defender offrono servizi di rilevamento AI a pagamento, basati su ricerche approfondite utilizzando metodi come il watermarking avanzato. Mentre l'intelligenza artificiale continua ad avanzare, sono necessari programmi di rilevamento AI gratuiti e accessibili tramite il web e altri strumenti in grado di individuare la firma dell'AI, simili ai macchinari a raggi X che mostrano il funzionamento interno del corpo umano.
Questi programmi richiedono comunque un certo livello di esperienza e spesso non sono gratuiti o a basso costo.
Stable Attribution: come funziona
Stable Attribution è uno strumento tecnologico che può identificare le immagini utilizzate per l'addestramento del software di intelligenza artificiale responsabile della creazione di immagini. Il sistema funziona tramite l'individuazione delle immagini di origine, utilizzate per addestrare l'algoritmo AI in modo da generare una determinata immagine. In pratica, l'utente carica l'immagine e Stable Attribution cerca gli elementi grafici che hanno istruito l'AI.
Il modello di diffusione stabile è pubblico e accessibile, il che significa che dopo l'indicizzazione del modello, la maggior parte delle immagini originali può essere rintracciata. L'immagine generata dall'AI non include l'attribuzione dell'artista che ha creato l'originale. Di conseguenza per trovare l'artista dietro l'arte, è necessario effettuare ulteriori ricerche. Chroma è una startup che sta sviluppando questo strumento e sta lavorando per migliorarlo. Stable Attribution è stato creato da Jeff Huber e Anton Troynikov, con la collaborazione e il feedback di molti altri.
Casi di denunce per presunta violazione di copyright
Getty Images, una delle maggiori agenzie fotografiche del mondo, ha citato in giudizio Stability AI, la società responsabile di Stable Diffusion, per presunta violazione del copyright. L'accusa è quella di aver utilizzato le sue immagini senza autorizzazione. Nel frattempo, negli Stati Uniti, a San Francisco, un collettivo di artisti ha deciso di intentare una causa legale contro Middley Journey, motivata dal fatto che la società ha copiato lo stile dell'artista per creare i modelli usati dalle intelligenze artificiali per generare le loro opere. Attualmente, i membri del collettivo sono tre, ma gli avvocati stanno lavorando per avviare un'azione legale di gruppo.