Website Editore! Musk, Wozniak e altri: ChatGPT è un pericolo, serve una pausa – DailyNow.it
Tech

Musk, Wozniak e altri: ChatGPT è un pericolo, serve una pausa

L’intelligenza artificiale (IA) è tra noi, ci possiamo dialogare e sta cambiando le nostre vite (ecco i nostri approfondimenti su ChatGPT e Midjourney). Ma è un bene?

Nel 1537 tale Philippus Theophrastus Von Hohenheim, detto Paracelso, nel suo De Natura Rerum, spiegò come si potesse creare un essere umano (un homunculus) partendo da liquidi organici, umani e animali. L’alchimista affermò di non aver mai compiuto l’esperimento, perché contrario ai dettami di Dio, ma che l’homunculus avrebbe dovuto essere educato con la miglior cura e zelo, fino a quando non crescesse e iniziasse a mostrare segni di intelligenza.

Perché richiamare questa vecchia storia, dal sapore folkloristico e vagamente nauseante? Perché se le teorie degli alchimisti possono sembrare strampalate ai nostri occhi, la loro saggezza (anche se dettata dal timore nella punizione divina) dovrebbe darci qualche spunto di riflessione. Educare in questo contesto è la parola chiave. 

L’IA, per quanto da tempo nelle nostre vite (pensiamo solo ai sistemi antifrode delle carte di credito), negli ultimi mesi ha visto un’accelerazione vertiginosa. Prima era qualcosa di distante e futuribile, che figuravamo come l’immagine di copertina, un robot che cerca di toccare un essere umano. Ora invece ci possiamo parlare, ci dà indicazioni e risposte, ci mostra la realtà (la sua realtà o quella di chi ci propone le sue creazioni). E questo è un problema.

Ne sono convinti il cofondatore di Apple, Steve Wozniak, Elon Musk e un migliaio di principali accademici dell’IA, che hanno firmato una lettera aperta su Futureoflife.org  in cui si chiede una pausa di (almeno) sei mesi nello sviluppo di modelli di IA più potenti di GPT-4. A proposito, GPT-4 è il modello su cui è basato grossomodo Bing Chat, con cui potete già conversare. 

Nella lettera si espongono le preoccupazioni per un’IA fuori controllo, e può portare a profondi rischi per la società e l’umanità. La lettera cita gli Asilomar AI Principles, sviluppati nel 2017, secondo cui l’IA avanzata potrebbe rappresentare un profondo cambiamento nella storia della vita sulla Terra e dovrebbe essere pianificata e gestita con cure e risorse adeguate.

Al momento, però, non c’è nessuna pianificazione e lo sviluppo sta procedendo senza nessun controllo per creare menti digitali sempre più potenti che nessuno, nemmeno i loro creatori, può capire, prevedere o controllare in modo affidabile.

La preoccupazione non è solo per i posti di lavoro, che si perderanno a milioni come alla vigilia di ogni cambiamento (anche positivo, è inevitabile) ma persino per la nostra stessa vita. Gli esperti si chiedono infatti se dovremmo lasciare che le macchine inondino i nostri canali di informazione con propaganda e falsità, o automatizzare tutti i lavori, compresi quelli soddisfacenti.

Le domande conclusive della lettera richiamano scenari apocalittici, a questo punto non irrealizzabili. Dovremmo sviluppare menti non umane che potrebbero essere più numerose e più intelligenti, e infine sostituirci? Dovremmo rischiare di perdere il controllo della nostra civiltà?

Questi interrogativi dovrebbero accendere qualche campanello di allarme, ed è lo stesso Sam Altman di OpenAI a chiedere una revisione indipendente sull’addestramento dei modelli di IA futuri e di limitare il tasso di crescita del calcolo utilizzato per creare nuovi Modelli. 

Il problema è che quel momento è arrivato, e lo stesso Sam Altman non ferma il suo sviluppo. Perché? Perché le società sono ostaggio degli investitori, che vedono solo il guadagno dietro questi strumenti. 

Molti affermano come questa lettera non servirà a nulla, che il progresso continuerà indipendentemente e che se anche così non fosse ormai il vaso di Pandora è aperto. Ci sarà sempre qualcuno che creerà modelli sempre più avanzati, su incarico di qualche governo o investitore. 

Forse, ma i laboratori che stanno portando avanti questo sviluppo non sono così numerosi (per quanto si sa). OpenAI è quello che produce i sistemi più avanzati e che stanno usando i principali attori del Web. Certo, ce ne sono molti altri, ma la maggior parte si basa sul lavoro fatto con ChatGPT e l’alternativa più importante è Bard di Google. 

Il concetto importante da evidenziare è che non si vuole demonizzare l’IA, questa lettera è scritta da gente che ci lavora, ma fermare lo sviluppo incontrollato di sistemi di cui non si ha la minima idea di come funzionino. Questo purtroppo è un vecchio problema dell’IA: nessuno sa come funziona realmente (nel senso che lavora sul piano statistico in base a una serie di algoritmi e pesi, ma non si possono predire in maniera esatta le sue conclusioni), e l’allenamento sempre più vertiginoso in base all’interazione con gli umani potrà avere evoluzioni ancora più imprevedibili. 

Ecco perché la parola educare riferita all’homunculus. La bontà di un’IA è data dai dati su cui è allenata e le IA con cui abbiamo a che fare (i modelli come ChatGPT) sono, nel migliore dei casi, educate male (leggasi allenate senza controllo). E nessuno sta cercando di cambiare questo aspetto. 

In questo scenario, le preoccupazioni climatiche passano in secondo piano, ma è giusto farvi un cenno. Le ricerche su Google consumano una quantità di energia impressionante ogni anno (pari a quelle di due Stati di medie dimensioni), un valore in continua crescita, ma le ricerche alimentate dall’IA aumentano di 10 volte i costi, e quindi anche il consumo energetico

È una strada sostenibile? Proviamo a chiederlo all’IA, magari potrebbe darci risposte più sensate. 

L’articolo Musk, Wozniak e altri: ChatGPT è un pericolo, serve una pausa sembra essere il primo su Smartworld.

Articoli Correlati

Pulsante per tornare all'inizio