L’Intelligenza Artificiale Generativa nel 2024

La storia ha dimostrato che le nuove tecnologie hanno il potenziale per rimodellare le società.  L’avvento della Intelligenza Artificiale Generativa (GenAI) è l’evento più significativo del 2023. ChatGPT è stato rilasciato nel novembre 2022. Quattro mesi dopo, OpenAI ha presentato un nuovo modello linguistico, LLM, chiamato GPT-4, con capacità nettamente migliorate. Analogamente, nel maggio 2023, Anthropic presenta Claude, era in grado di elaborare 100.000 token di testo, equivalenti a circa 75.000 parole in un minuto – la lunghezza di un romanzo medio – rispetto ai circa 9.000 token della sua introduzione nel marzo 2023. Nello stesso periodo, Google ha annunciato diverse nuove funzionalità basatesu GenAI, tra cui l’esperienza generativa di ricerca e un nuovo LLM chiamato PaLM 2, che alimenta il suo chatbot Bard, oltre ad altri prodotti Google.

Migliaia di aziende in ogni settore e parte del mondo stanno già utilizzando interfacce GenAI per trasformare radicalmente ogni aspetto delle attività aziendali. Questo potenziale di trasformazione si estenderà a vari settori, tra cui produzione, finanza, sanità, education, vendita al dettaglio e le industrie dell’intrattenimento. 

Nel 2024 la GenAI continuerà a essere dominante nel panorama produttivo e di investimenti nelle tecnologie intelligenti, richiamando l’attenzione sulla necessità di adottare solide misure di sicurezza. Il suo rapido sviluppo aumenterà probabilmente in modo significativo. Le parti interessate devono agire – e in fretta, visto il ritmo con cui potrebbe essere adottata – per prepararsi ad affrontare sia le opportunità che i rischi. L’utilizzo responsabile della GenAI implica la necessità di affrontare, infatti, diversi rischi fin dalle fasi iniziali del processo. Alcuni focus in particolare necessitano di essere affrontanti by design. 

Equità: I modelli possono generare pregiudizi algoritmici a causa di dati di addestramento imperfetti o delle decisioni prese dagli ingegneri durante lo sviluppo dei modelli.

Proprietà Intellettuale (IP): I dati di addestramento e i risultati dei modelli possono comportare significativi rischi di violazione di proprietà intellettuale, inclusi materiali protetti da copyright, marchi, brevetti e altro. Anche quando si utilizza un’IA generativa fornita da terzi, le organizzazioni devono comprendere i dati utilizzati per l’addestramento e come sono integrati nei risultati dello strumento. Problemi di privacy possono sorgere se le informazioni fornite dagli utenti finiscono negli output del modello in una forma che rende identificabili le persone.

La GenAI potrebbe altresì essere impiegata per la creazione e la diffusione di contenuti dannosi, come disinformazione, deepfakes e discorsi d’odio.

Sicurezza: sfruttata da malintenzionati per aumentare la sofisticazione e la velocità degli attacchi informatici, potendo essere manipolata per produrre risultati dannosi. Ad esempio, tramite la “prompt injection”, terze parti possono fornire nuove istruzioni al modello, inducendolo a produrre output non desiderati dal produttore del modello e dall’utente finale.

Spiegabilità: si basa su reti neurali con miliardi di parametri, rendendo difficile spiegare il processo attraverso cui viene prodotta una risposta specifica.

Affidabilità: I modelli possono generare risposte diverse per la stessa richiesta, compromettendo la capacità dell’utente di valutare l’accuratezza e l’affidabilità dei risultati.

Impatto Organizzativo: La GenAIpuò avere un impatto significativo sulla forza lavoro, con conseguenze potenzialmente negative su gruppi specifici e comunità locali.

Impatto Sociale ed Ambientale: Lo sviluppo e l’addestramento dei modelli possono portare a conseguenze sociali ed ambientali dannose, inclusa un aumento delle emissioni di carbonio. Ad esempio, l’addestramento di un modello linguistico di grandi dimensioni può produrre circa 315 tonnellate di biossido di carbonio. 

Inoltre, vanno tenuti presenti diversi fattori che potrebbero influenzare la capacità di trarre valore dalla tecnologia:

  • Inferenza esterna: La GenAIha aumentato la necessità di capire se i contenuti generati sono basati su fatti o su inferenze, richiedendo un nuovo livello di controllo della qualità.
  • Adversarial attacks: I modelli di base sono un obiettivo primario per gli attacchi di hacker e altri malintenzionati, aumentando la molteplicità di potenziali vulnerabilità di sicurezza e rischi per la privacy.

Per far fronte a queste preoccupazioni, vanno inseriti nel processo gli esseri umani, questo al fine di garantire che la sicurezza e la privacy siano considerazioni principali per qualsiasi implementazione. 

Gli sforzi volti a mitigare la cattiva IA sono ancora in una fase embrionale in tutto il mondo. I governi devono continuare ad impegnarsi nel rivedere e aggiornare linee guida e possibili regolamenti nel corso del 2024 al fine di rimanere al passo con l’evoluzione rapida delle tecnologie intelligenti.

Si auspica che un numero crescente di aziende a livello globale diventi consapevole dei rischi associati alla GenAI e di come affrontarli in modo proattivo. Questi sforzi di sensibilizzazione potrebbero contribuire a promuovere una cultura di responsabilità e attenzione nei confronti delle implicazioni etiche e della sicurezza legate all’utilizzo crescente di GenAI. Le organizzazioni dovrebbero considerare l’implementazione di programmi di formazione specifici per il personale, al fine di garantire una comprensione approfondita dei rischi connessi e le pratiche migliori per mitigarli. Ciò potrebbe comprendere l’introduzione di protocolli di sicurezza avanzati, la revisione regolare delle politiche aziendali e l’adozione di strumenti tecnologici specializzati per il monitoraggio e la gestione dei sistemi.

Affrontando con determinazione questi aspetti critici, sia a livello normativo che operativo, le organizzazioni possono contribuire a plasmare un futuro in cui la GenAI possa essere sfruttata in modo responsabile e sicuro per il beneficio di società e imprese.

@ neurobytes