BusinessCommunity.it

07/06/2023

leisure

Mitigare il rischio dovuto all'Intelligenza artificiale

Appelli, contro appelli, preoccupazioni e spauracchi: ma davvero l'AI fa così paura?

Non passa giorno senza che si legga di un appello a bloccare l'Intelligenza Artificiale.
Se l'AI è rappresenta il miglior elemento per agevolare il clickbait, fenomeno che spinge a cliccare su un titolo, ogni volta che viene collegata a un pericolo più o meno imminente si crea una formula magica di interesse internazionale.
Nessuno è immune, in tutte le nazioni avvengono le stesse cose.
Facciamo intanto un po' d'ordine.
L'intelligenza artificiale che è attualmente alla ribalta è quella basata su grandi moli di dati (LLM), ma non si tratta di intelligenza, ma della capacità di rielaborare una risposta che statisticamente possa essere la migliore.
Quali sono le principali mancanze di questa intelligenza? Innanzi tutto la capacità di riconoscere un contesto in cui si chiede un aiuto, il rapporto causa-effetto che per noi umani è alla base del comportamento e delle relazioni, e non ultima la comprensione del significato.
Ci sono altri elementi, ma questi tre sono evidenti.
Non si tratta di una mancanza da poco.


Qual è allora il problema, perché escono molti appelli da parte dei "padri" e "padrini" dell'intelligenza artificiale?
Il salto a livello di risultati nelle risposte che si è ottenuto nell'ultimo periodo è strabiliante. Passare da 7 miliardi di parametri a 13 ha permesso di raggiungere un livello di soddisfazione delle risposte incredibile, per non parlare dell'evoluzione stessa di ChatGPT che nella versione tre aveva 175 miliardi di parametri che sono aumentati nella versione 4, quella attualmente in uso.
Salto di livello, miglioramento della qualità che si evince nelle risposte, ma anche nella produzione e riconoscimento di immagini e suoni, che comunque non sposta la questione: si tratta di risposte basate sulla statistica e sulle probabilità.
Allora perché più di 350 esperti e imprenditori chiedono di trattare il rischio di distruzione dell'umanità causato dall'intelligenza artificiale alla stregua della minaccia atomica?
Tra le firme troviamo i creatori di OpenAI, di Bard di Google, di Anthropic (creatori di Claude, i lettori della newsletter Techy ne hanno sentito parlare), e tanti altri, tutti con la preoccupazione di vedere l'Intelligenza Artificiale prendere il sopravvento?
Il pericolo è davvero così imminente?
In questo momento, e personalmente credo per ancora molti anni, l'intelligenza artificiale è antropocentrica, ossia funziona ed è determinata solo in collaborazione con l'umano, che è motore e causa scatenante.



Il problema però non è nuovo. Non è un caso che i tribunali non riconoscano come opere d'ingegno e la protezione del diritto d'autore a quanto creato da una "macchina", perché il tema è la trasparenza.
Procedere per tentativi può essere interessante, ma non è necessariamente intelligente. Le macchine calcolano in fretta, sbagliano in fretta, capiscono gli errori e imparano fino a che non raggiungono una risposta soddisfacente.
Ma questo è il punto: soddisfacente non è sinonimo di sufficiente, ne tanto meno esatto.
L'etica deve diventare il vero elemento al centro.
E qui forse nasce la preoccupazione: l'etica non è la stessa per tutti.

PS Altman (CEO di OpenAI) è un firmatario dell'appello, ma ha anche dichiarato che ChatGPT potrebbe chiudere l'operatività in Europa se le norme sulla privacy e il futuro AI Act, legge sull'AI dell'Unione Europea, saranno stringenti. Ops.

Homepage

Copyright © 2009-2024 BusinessCommunity.it.
Reg. Trib. Milano n. 431 del 19/7/97
Tutti i Diritti Riservati. P.I 10498360154
Politica della Privacy e cookie

BusinessCommunity.it - Supplemento a G.C. e t. - Reg. Trib. Milano n. 431 del 19/7/97
Dir. Responsabile Gigi Beltrame - Dir. Editoriale Claudio Gandolfo


Copertina BusinessCommunity.it