L’uso delle tecnologie basate sull’intelligenza artificiale (IA) per la manipolazione computazionale (CM) è un tema che solleva preoccupazioni etiche, legali e sociali. La manipolazione computazionale si riferisce all’uso di sistemi algoritmici e biometrici per influenzare i comportamenti, le decisioni o le emozioni degli individui. Tuttavia, la regolamentazione europea, in particolare l'Artificial Intelligence Act (AIA), pur cercando di limitare tale manipolazione, presenta delle lacune e delle incertezze che potrebbero compromettere l'autonomia mentale e la libertà di scelta degli individui.
Il concetto di manipolazione computazionale è stato affrontato dall’AIA, che in alcune sue disposizioni mira a limitare l’uso di tecnologie IA per influenzare le emozioni e i comportamenti delle persone, ma con significative restrizioni. L’articolo 5 (1)(f) vieta esplicitamente che i sistemi IA inferiscano le emozioni di una persona, limitando tale pratica agli ambienti di lavoro e alle istituzioni educative. In altre parole, fuori da questi ambiti, è consentito l'uso di tecniche di manipolazione computazionale che fanno appello alle emozioni, ai pensieri, agli stati d'animo e alle intenzioni di un individuo, il che solleva interrogativi sulla portata di tali pratiche in contesti commerciali e politici.
In particolare, l’uso di dati biometrici per dedurre o inferire le emozioni e le intenzioni delle persone rappresenta una delle aree più controverse. L’AIA stabilisce che un sistema IA che riconosce le emozioni su base biometrica può essere utilizzato in contesti fuori da quelli esplicitamente vietati, come il lavoro e l’educazione. Questi sistemi sono in grado di raccogliere e analizzare segnali fisiologici come espressioni facciali, movimenti, battiti cardiaci o anche la postura, al fine di identificare stati d'animo o predisposizioni psicologiche. Di fatto, ciò consente di costruire profili cognitivi altamente dettagliati che possono essere sfruttati per manipolare il comportamento delle persone, senza che queste ne siano pienamente consapevoli.
Il rischio, tuttavia, è che la legge non contempli in modo adeguato tutte le sfumature di questo fenomeno. Ad esempio, l’AIA si concentra solo su quelle manipolazioni che causano danni significativi, lasciando scoperti i casi in cui la manipolazione non produce effetti immediatamente rilevabili o dannosi, ma che comunque interferisce con il diritto dell'individuo alla autodeterminazione mentale. In altre parole, la manipolazione che non si manifesta in inganno, informazioni false o danni rilevanti potrebbe non essere soggetta a regolamentazione, pur violando comunque la libertà di pensiero e di decisione dell'individuo.
Un aspetto significativo riguarda la difficoltà di definire e provare il concetto di "manipolazione" nelle sue varie forme. Ad esempio, l’articolo 5 dell’AIA presenta una confusione concettuale, in particolare nei paragrafi (a) e (b), dove la manipolazione è legata alla diffusione di informazioni false o ingannevoli, ma non prende in considerazione le manipolazioni più sottili che operano tramite l’analisi dei dati biometrici e cognitivi senza ricorrere a inganni o informazioni false. Il danno, in questi casi, può essere non immediato, ma comunque significativo per l'autonomia mentale dell'individuo.
Un esempio pratico di manipolazione computazionale potrebbe riguardare l’utilizzo di un sistema IA che raccoglie grandi quantità di dati su un individuo, come le sue preferenze, le sue opinioni politiche, o la sua attitudine verso il consumismo, per influenzare le sue scelte future. Il sistema non utilizzerebbe tecniche ingannevoli, ma agirebbe a livello subliminale, modellando continuamente i messaggi e le esperienze proposte all’individuo per manipolarne gradualmente il comportamento o le opinioni. Non sarebbe una manipolazione che implica falsità o inganno, ma comunque potrebbe compromettere il diritto alla propria autodeterminazione mentale.
Nonostante gli sforzi della legislazione europea, l'attuale quadro normativo non è sufficientemente robusto per affrontare le sfide poste dalle nuove tecnologie IA. La protezione offerta dal GDPR, ad esempio, non copre i casi in cui il consenso al trattamento dei dati personali sia stato formalmente concesso, e le normative come il DSA e il DMA non si applicano a piccole piattaforme che utilizzano manipolazione computazionale. L’assenza di una definizione chiara e di limiti adeguati alla manipolazione attraverso IA potrebbe lasciare spazio a pratiche invasive che minano la libertà di scelta degli individui.
In definitiva, la legislazione vigente dovrebbe essere rivista per colmare le lacune e rispondere adeguatamente ai rischi di manipolazione che non si basano su inganno o falsità, ma che comunque pongono seri interrogativi sull'integrità delle decisioni individuali e sull'autonomia mentale degli utenti. È essenziale che i legislatori comprendano la portata e le implicazioni della manipolazione computazionale per evitare che le tecnologie IA vengano utilizzate per compromettere i diritti fondamentali degli individui, in modo che l'autodeterminazione mentale non diventi un'illusione nell’era dell’intelligenza artificiale.
La Regola di Origine "Bottom-Up": Segnalazione e Autenticità nell'Arte Generata dall'IA
Nel contesto della crescente interazione tra l'intelligenza artificiale e il mondo dell'arte, uno degli aspetti cruciali riguarda l'autenticità dei contenuti generati dalle macchine e la loro distinzione da quelli creati dagli esseri umani. Un problema che emerge in questo scenario è la difficoltà di distinguere tra opere d'arte autentiche e quelle prodotte tramite algoritmi, il che comporta una serie di implicazioni per i creatori, i collezionisti e gli esperti d'arte.
L'Unione Europea, attraverso il proprio atto sull'intelligenza artificiale (AIA), ha introdotto la regola di origine, un tentativo di disciplinare e distinguere i contenuti generati dall'IA da quelli autenticamente umani. Il Consiglio degli Scrittori Europei ha accolto favorevolmente questa iniziativa, sottolineando tuttavia l'importanza di sviluppare strumenti tecnici che permettano una distinzione affidabile tra i contenuti creati dall'uomo e quelli generati dall'IA. La soluzione a questo problema di "indistinguibilità" non può essere esclusivamente lasciata nelle mani dei regolatori, ma necessita anche dell'impegno degli stessi artisti onesti, i quali potrebbero sviluppare regole di origine "bottom-up", che possano segnalare l'origine umana delle loro opere.
In termini economici, questa pratica di segnalazione (dal punto di vista dei venditori) può essere vista come un tentativo di risolvere l'asimmetria informativa del mercato, dove i venditori cercano di "comunicare" ai compratori l'autenticità del prodotto. Tale processo, teorizzato da Michael Spence, si basa sul concetto che un segnale diventa utile quando c'è una caratteristica non osservabile che è rilevante per il compratore. La credibilità del segnale è fondamentale, così come la sua capacità di non essere troppo costoso, e deve essere, infine, più oneroso per i venditori di prodotti di bassa qualità rispetto a quelli di alta qualità.
Un esempio tradizionale di segnale è rappresentato dalla garanzia sui prodotti: i venditori di "limoni" (prodotti di bassa qualità) troveranno più costoso offrire una garanzia rispetto ai venditori di "pesche" (prodotti di alta qualità). Tuttavia, questa forma di segnalazione non si adatta perfettamente all'arte, poiché non vi è un "feedback informativo" post-vendita, come nel caso di un prodotto fisico che può essere restituito o riparato. Per questo motivo, la creazione di segni affidabili che attestano l'origine umana di un'opera d'arte potrebbe richiedere l'aggiunta di documentazione visiva, come la registrazione di un video time-lapse che mostri l'artista al lavoro. Un esempio storico di simile documentazione si trova nel caso della Tiara di Saïtapharnès, acquistata dal Museo del Louvre nel 1896, dove la provenienza del manufatto fu messa in discussione fino a quando l'orafo Israel Rouchomowsky, dopo aver prodotto fotografie dello studio e ricostruito dettagli specifici, ne rivendicò l'autenticità.
Questo approccio, sebbene utile per alcune forme di arte, non è adatto a tutte le espressioni artistiche. Ad esempio, registrare uno scrittore mentre digita sulla tastiera non fornirebbe alcuna prova convincente sulla paternità del testo. In alternativa, un’altra possibile soluzione potrebbe essere quella proposta da OpenAI, che suggerisce di "indicare chiaramente che il contenuto è generato dall'IA in un modo che nessun utente possa fraintendere". Anche editori accademici e non accademici, come Taylor & Francis, Nature, Science e l'Authors Guild, hanno accolto questa proposta, decidendo che l'uso di GenAI debba essere esplicitamente riconosciuto in sezioni apposite.
Tuttavia, rimane il dubbio sulla credibilità di un sistema volontario di segnalazione, poiché la difficoltà di distinguere l'arte umana da quella prodotta dall'IA potrebbe incentivare pratiche disoneste. Un metodo per rendere questa segnalazione più credibile potrebbe essere tecnico: progettare sistemi di IA generativa in modo che possano applicare filigrane invisibili all'interno dei testi generati, facilmente rilevabili da algoritmi ma non da utenti medi. Sebbene utenti esperti possano riuscire a rimuovere queste filigrane, la maggior parte degli acquirenti non sarà in grado di farlo, il che potrebbe garantire una certa protezione contro la contraffazione.
Allo stesso modo, la necessità di esperti in arte, che possano autentificare l'origine umana o artificiale di un'opera, sta emergendo come una risposta al rischio di frodi nel mercato dell'arte, similmente a quanto accaduto con l’ascesa delle contraffazioni artistiche. In effetti, il rapporto tra esperti d'arte e opere autenticate è intrinsecamente circolare: con l'aumento dei prezzi, cresce anche la necessità di un parere esperto, e questo a sua volta alimenta la domanda e aumenta ulteriormente il valore delle opere confermate come autentiche.
La crescente presenza di opere generate dall'IA, sebbene possa essere una risorsa creativa, solleva anche il problema di come evitare che vengano vendute come creazioni umane. La risposta a questo problema, paradossalmente, potrebbe portare a una valorizzazione maggiore dell'arte creata dall'uomo, spingendo verso una rinnovata importanza degli esperti nell'autenticare e valutare l'origine delle opere d'arte.
Come funziona l'intelligenza artificiale generativa e quali sono le sue implicazioni legali?
Nel 2020, OpenAI ha lanciato il modello GPT-3, un avanzamento significativo nell'architettura dei trasformatori, che ha suscitato un enorme interesse sia nel campo della ricerca che nell'industria. Questo modello ha rappresentato una vera e propria rivoluzione per la sua capacità di generare testo di qualità eccezionale, tanto da sembrare scritto da un essere umano. Con circa 175 miliardi di parametri, GPT-3 ha superato in termini di dimensioni tutti i modelli precedenti, grazie a un addestramento su un vasto corpus di testi provenienti da Internet. Questa enorme scala ha conferito al modello una capacità senza precedenti di elaborare il linguaggio naturale, rendendolo capace di comprendere e produrre testi in diverse lingue con una fluidità sorprendente.
La potenza di GPT-3 e dei modelli successivi si basa su un principio fondamentale: l'uso di modelli predittivi statistici. Questi modelli, addestrati su enormi quantità di dati, apprendono a fare previsioni sulla base di pattern ricorrenti nel linguaggio. Tuttavia, la vera innovazione risiede nel modo in cui questi modelli sono in grado di generare contenuti, piuttosto che limitarsi a rispondere a domande o a completare frasi. Si tratta di una tecnologia che non solo comprende il contesto ma è anche capace di proseguire una conversazione o di generare documenti complessi in modo autonomo.
Tuttavia, l'emergere di queste tecnologie solleva numerose problematiche legali e etiche. Il diritto, che si basa in gran parte sulla scrittura e sull'interpretazione di testi legali, si trova a un bivio: l'intelligenza artificiale generativa potrebbe rivoluzionare la pratica legale, ma porta con sé anche una serie di problematiche complesse. La proprietà intellettuale, i contratti, la protezione dei dati e la responsabilità sono solo alcune delle questioni che necessitano di essere affrontate. Ad esempio, la generazione automatica di testi potrebbe portare a controversie sul diritto d'autore, soprattutto se il contenuto prodotto dall'IA è simile a quello di un autore umano. Inoltre, la possibilità che l'IA generi testi che sembrano legittimi ma che in realtà sono errati o imprecisi solleva interrogativi su chi sia responsabile in caso di danni.
Dal punto di vista tecnico, l'intelligenza artificiale generativa si fonda sull'apprendimento automatico, in particolare sugli algoritmi di machine learning, che permettono ai modelli di "imparare" dai dati e di fare previsioni senza la necessità di istruzioni esplicite. Ci sono diversi approcci all'apprendimento automatico: l'apprendimento supervisionato, in cui il modello viene addestrato con coppie di dati in cui l'input è associato a un risultato noto; l'apprendimento non supervisionato, in cui il modello cerca di identificare pattern nei dati senza supervisioni esterne; e l'apprendimento per rinforzo, che si basa su un sistema di premi e punizioni per insegnare al modello le azioni migliori da intraprendere.
Nel caso dei modelli come GPT-3, l'apprendimento avviene in gran parte in modo "auto-supervisionato", dove l'algoritmo utilizza una parte del testo per predire il resto del contenuto, affinando progressivamente la sua capacità di generare frasi che abbiano senso. Questo processo di "allenamento" avviene attraverso milioni di iterazioni in cui i parametri numerici del modello vengono adattati per minimizzare gli errori e migliorare le previsioni.
L'uso di queste tecnologie in ambito legale potrebbe portare enormi vantaggi, come la possibilità di automatizzare la redazione di documenti legali o di analizzare grandi volumi di dati per identificare pattern legali nascosti. Tuttavia, è fondamentale considerare che questi modelli non sono infallibili. Sebbene possiedano un'abilità sorprendente nella produzione di testo, i modelli di linguaggio generativo non comprendono il contesto in modo profondo come un essere umano e possono facilmente produrre risposte che sembrano corrette, ma che in realtà sono fuorvianti o incomplete. Questo potrebbe avere implicazioni serie in ambito legale, dove l'accuratezza e la precisione sono essenziali.
Il futuro dell'intelligenza artificiale generativa nel diritto dipenderà in gran parte dalla capacità di affrontare questi dilemmi legali e morali. Come regolamentare l'uso di queste tecnologie? Come garantire che non vengano utilizzate in modo da compromettere la privacy o violare diritti di proprietà intellettuale? Queste sono le domande che i professionisti del diritto, così come i legislatori, dovranno affrontare nei prossimi anni.
Oltre alla comprensione dei meccanismi tecnici di base, è importante che i lettori comprendano che, sebbene l'intelligenza artificiale generativa stia rapidamente migliorando, essa è ancora lontana dall'essere completamente autonoma e infallibile. I modelli di linguaggio, per quanto avanzati, operano su un principio di probabilità e non su una comprensione completa del contenuto che generano. Pertanto, l'uso di queste tecnologie in contesti legali deve essere accompagnato da un'adeguata supervisione umana, per evitare errori gravi e garantire che le implicazioni legali e etiche siano sempre prese in considerazione.
Come la Governance dell'Intelligenza Artificiale sta Modificando il Futuro del Lavoro e dell'Innovazione in Asia
Il Framework GenAI ha l’obiettivo di bilanciare i rischi legati all’intelligenza artificiale con i suoi potenziali benefici, promuovendo l'innovazione responsabile in ambito AI. Al suo interno si fa riferimento a numerose iniziative che supportano l'adozione consapevole e l'integrazione di soluzioni AI nelle imprese. Un esempio concreto è il GenAI Sandbox di Singapore, che fornisce alle PMI gli strumenti e la formazione necessari per adottare soluzioni di AI generativa. La sicurezza e l’allineamento dei modelli, inoltre, sono temi centrali nel framework, con un focus sulla necessità di ampliare la ricerca in queste aree. Si riconosce anche l'importanza di espandere la disponibilità di set di dati di alta qualità, così come quella di curare una repository di dati di addestramento rappresentativi per specifici contesti.
In parallelo a queste iniziative, emergono altri progetti rilevanti, come l'iniziativa “Generative AI x Digital Leaders”, mirata a supportare le imprese digitalmente mature con accesso a risorse e competenze in GenAI. Un altro esempio significativo è il progetto SEA-LION, che mira a sviluppare il primo grande modello linguistico per il sud-est asiatico, un'area caratterizzata da una grande varietà linguistica, sociale ed economica. Il progetto SEA-LION è particolarmente importante perché mira a sviluppare modelli linguistici che siano più adeguati al panorama culturale e linguistico di Singapore e del sud-est asiatico, affrontando la sfida di modelli linguistici addestrati principalmente su lingue occidentali.
Singapore, riconoscendo l’importanza geopolitica ed economica dell'AI, ha adottato una strategia ambiziosa per diventare leader globale in questo campo. La creazione di modelli linguistici che riflettano meglio le lingue e le culture locali è vista come una priorità strategica, in particolare in un contesto come quello di Singapore, caratterizzato da una popolazione multilingue e una forte interazione tra lingue diverse. Un aspetto fondamentale di questa strategia è lo sviluppo di modelli multimodali e localizzati che possano comprendere e contestualizzare i valori e le norme delle diverse culture della regione.
Un altro tema di crescente rilevanza riguarda l’impatto dell’intelligenza artificiale sul futuro del lavoro, un argomento che preoccupa non solo a livello globale, ma anche in Singapore. L’introduzione della GenAI nel 2023 ha evidenziato i rischi e le opportunità per l'economia della conoscenza di Singapore. La crescente automazione è vista come una risorsa fondamentale per affrontare le sfide di un mercato del lavoro segnato da una popolazione in invecchiamento e una bassa natalità. In questo contesto, l'automazione non è solo vista come vantaggiosa, ma come essenziale per la sostenibilità a lungo termine dell’economia.
Tuttavia, esistono anche preoccupazioni riguardo agli effetti a breve e medio termine dell'automazione sul mercato del lavoro. Le nuove tecnologie, infatti, non solo minacciano di sostituire i lavoratori manuali nelle industrie tradizionali, ma stanno anche facendo incursioni nelle professioni intellettuali. Per questo motivo, Singapore sta cercando di sviluppare approcci innovativi per affrontare questi cambiamenti, come dimostra la pubblicazione nel 2020 della "Guida alla Riprogettazione del Lavoro nell'era dell'AI", che si concentra su un approccio umano all'adozione dell'AI. Il focus principale di questa guida è su come le organizzazioni possano ristrutturare i propri modelli di lavoro, favorendo la trasformazione dei posti di lavoro, la creazione di opportunità di upskilling, e il miglioramento della comunicazione tra datori di lavoro e dipendenti.
Nel contesto della governance regionale, Singapore esercita una notevole influenza, contribuendo attivamente alla definizione di linee guida per l'etica e la governance dell'intelligenza artificiale nell'ASEAN. Nel 2024, l'ASEAN ha pubblicato la sua Guida sulla Governance e l’Etica dell'AI, un documento che mira a stabilire pratiche condivise tra gli Stati membri, promuovendo l'interoperabilità dei framework AI regionali. La guida si ispira a principi comuni come trasparenza, equità, sicurezza, affidabilità, e centralità dell'essere umano. Un aspetto rilevante di questa guida è la sua attenzione alla responsabilità delle organizzazioni nello sviluppo e nell'implementazione di tecnologie AI, suggerendo anche azioni concrete che i governi della regione possono intraprendere per garantire un uso responsabile dell'AI.
Il futuro del lavoro, dunque, in un mondo sempre più automatizzato, richiede un attento bilanciamento tra l'adozione di tecnologie avanzate e la protezione dei diritti e delle opportunità dei lavoratori. La sfida non è solo quella di integrare l'AI nelle economie globali, ma di farlo in modo che i benefici siano distribuiti equamente e che le nuove tecnologie non accrescano le disuguaglianze sociali ed economiche esistenti.
Come la Chimica Solida Può Promuovere la Sostenibilità: Sfide e Soluzioni nei Materiali Critici e Cicli di Vita
Come si sviluppa un post con un editor a blocchi: gestione bozze, titoli, liste e immagini

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский