Gli esperti di intelligenza artificiale di solito sottoscrivono una delle due scuole di pensiero: o migliorerà significativamente le nostre vite o cancellerà l'umanità come la conosciamo. Per questo motivo, la discussione sulla regolamentazione della tecnologia che si terrà questa settimana al Parlamento europeo è fondamentale. Ecco cinque ostacoli da superare per rendere l'IA sicura.
Il Parlamento europeo ha impiegato due anni per elaborare una definizione di sistema di IA. Essa afferma che un sistema di IA è "un software che, per un determinato insieme di obiettivi definiti dall'uomo, genera output come contenuti, previsioni, raccomandazioni o decisioni che influenzano gli ambienti con cui interagiscono".
Questa settimana il Parlamento europeo voterà la legge sull'intelligenza artificiale, che va oltre i codici volontari e obbliga le aziende a conformarsi. Si tratta della prima serie di leggi di questo tipo sull'IA. Secondo Sana Kharaghani, ex direttore dell'Ufficio britannico per l'Intelligenza Artificiale, la tecnologia non rispetta i confini nazionali.
Dice a BBC News: "So che sarà difficile, ma abbiamo bisogno di una collaborazione internazionale su questo". Non è una questione nazionale. Questi progressi tecnologici trascendono i confini nazionali.
Tuttavia, nonostante alcuni suggerimenti contrari, non esiste ancora un piano per un regolatore globale dell'IA in stile Nazioni Unite, e varie regioni hanno le loro idee.
- Le proposte più rigide provengono dall'Unione Europea e comprendono la classificazione dei prodotti di IA in base ai loro effetti; un filtro antispam per le e-mail, ad esempio, sarebbe soggetto a una regolamentazione minore rispetto a uno strumento per individuare il cancro.
- Il Regno Unito sta integrando gli organismi di regolamentazione esistenti per la regolamentazione dell'IA; ad esempio, coloro che sostengono che la tecnologia li ha discriminati si rivolgerebbero alla Commissione per le pari opportunità.
- Negli Stati Uniti non esistono codici obbligatori; in una recente audizione del comitato per l'IA, i legislatori hanno riconosciuto di avere dubbi sulla loro idoneità al lavoro.
- La Cina vuole imporre alle aziende di informare i clienti ogni volta che viene utilizzato un algoritmo di IA.
Il responsabile degli affari governativi e normativi dell'UE di International Business Machines (IBM) Corporation, Jean-Marc Leclerc, sostiene che se le persone si fidano, la useranno.
Ci sono numerose possibilità per l'IA di migliorare significativamente la vita delle persone. Esistono già:.
- aiutare nella scoperta di antibiotici.
- camminare di nuovo dopo essere stati paralizzati.
- affrontare problemi come le pandemie e i cambiamenti climatici.
Ma che dire della selezione dei candidati per il lavoro o della determinazione della propensione al crimine di qualcuno?
Il Parlamento europeo vuole che il pubblico sia consapevole dei rischi associati a ogni prodotto di intelligenza artificiale.
Le aziende che violano le sue regole rischiano di essere multate fino a 30 milioni di euro o al 6% del loro fatturato globale annuo, se maggiore.
I progettisti, tuttavia, possono prevedere o controllare come il loro prodotto potrebbe essere utilizzato?
![Sam Altman, CEO di OpenAI, testimonia davanti al Senato degli Stati Uniti](https://ichef.bbci.co.uk/news/976/cpsprodpb/5C20/production/_130048532_655d784a25a3b60c3dbe291e4da8f2ef8958a781.jpg)
Fino a questo momento l'AI si è in gran parte autoregolamentata.
Sam Altman, CEO di OpenAI, la società che ha sviluppato ChatGPT, sostiene che le grandi aziende sostengono la regolamentazione governativa perché è "fondamentale" per ridurre i rischi.
Ma se venissero coinvolte troppo nella creazione delle regole, darebbero la priorità ai profitti piuttosto che alle persone?
Vogliono essere il più vicino possibile ai legislatori che sono responsabili di stabilire le regole, potete scommetterci.
Inoltre, la baronessa Lane-Fox, fondatrice di Lastminute.com, sostiene che è importante ascoltare altre voci oltre a quella delle grandi imprese.
Afferma che dobbiamo coinvolgere la comunità accademica, la società civile e coloro che sono colpiti dai vari modelli e trasformazioni.
Microsoft spera che ChatGPT "tolga la fatica dal lavoro" grazie ai suoi massicci investimenti in questo settore.
Anche se si tratta di "uno strumento, non di una creatura", Altman osserva che è in grado di produrre risposte testuali e prosa che assomigliano al parlato umano.
La produttività dei lavoratori dovrebbe aumentare con i chatbot.
Inoltre, l'IA ha il potenziale per generare posti di lavoro e fungere da potente assistente in alcuni settori.
Tuttavia, altri li hanno già persi. Il mese scorso, BT ha dichiarato che l'IA avrebbe eliminato 10.000 posti di lavoro.
Sono passati poco più di sei mesi da quando ChatGPT è stato reso disponibile al grande pubblico.
Ora è in grado di pianificare vacanze, scrivere saggi e superare esami professionali.
Questi modelli linguistici massivi stanno diventando sempre più capaci.
Geoffrey Hinton e il Prof. Yoshua Bengio, due dei tre "padrini" dell'intelligenza artificiale, sono stati tra coloro che hanno avvertito che la tecnologia ha un grande potenziale di danno.
La legge sull'intelligenza artificiale non entrerà in vigore almeno fino al 2025, il che è "troppo tardi", secondo Margrethe Vestager, commissario europeo per la tecnologia.
Insieme agli Stati Uniti, la commissaria sta creando un codice volontario provvisorio per il settore che potrebbe essere completato nel giro di poche settimane.