Oggi scriverò un pezzo propedeutico alla mia Epitome: ho infatti deciso di aggiungere un sottocapitolo apposito sui pericoli delle IA.
Già nel capitolo [E] 21.3 presentavo, in un’apposita sezione, il pericolo rappresentato dalle IA. Scrivo infatti:
«Intelligenza Artificiale (IA): sicuramente questa nuova tecnologia ha delle grandissime potenzialità e potrà portare benefici all’intera umanità. Ma è importante essere anche consapevoli dei possibili pericoli: 1. l’IA è uno strumento e, come tale, si deve evitare di abusarne usandolo in maniera impropria [*1]; 2. è anche fondamentale comprendere quali siano i limiti dell’IA affinché questa non venga erroneamente considerata un oracolo infallibile [*2].
È da notare come il pericolo rappresentato dall’IA si sovrapponga, moltiplicandoli, ai pericoli di schedatura di massa e genetica o col riconoscimento facciale visti precedentemente.
Un altro pericolo è quello di sopravvalutare l’efficacia dell’IA attribuendogli compiti che, almeno per il momento, non è in grado di gestire [*3].»
Con le note:
«[*1] Tendenzialmente per controllare la democratastenia e limitarne così la libertà. Ricordo che ridurre l’autonomia della democratastenia equivale a rendere più forti i parapoteri
[*2] Nella fondamentale fase di addestramento di una rete neurale è possibile che questa apprenda involontariamente dei concetti errati: in passato per esempio si sono verificati casi in cui l’IA apprendeva anche i pregiudizi dei suoi programmatori; il risultato era che l’IA, teoricamente oggettiva e imparziale, era invece intrinsecamente razzista!
[*3] Per esempio periodicamente, ma sempre più spesso, si ha notizia di video rimossi da Youtube, evidentemente attraverso un meccanismo automatico, in quanto accusati di incitare all’odio (o comunque di violare le condizioni di utilizzo spesso volutamente vaghe e arbitrarie) e che invece erano completamente legittimi: in questi casi l’intelligenza artificiale sembra, contrariamente al proprio nome, una pericolosa “stupidità artificiale”.»
Subito dopo vi è anche questa sezione:
«Forza militare controllata da IA: fra non molto, al massimo fra qualche decina di anni, le IA saranno in grado di controllare droni e altri veicoli militari. In questo caso il pericolo non è tanto che un’IA “impazzisca” e scateni una guerra che distrugga l’uomo [*1], trama cara a molte pellicole di fantascienza, quanto che sparendo l’elemento umano un parapotere economico potrà acquistarsi il proprio esercito personale [*2]: le implicazioni sulla stabilità della società sono notevoli, come vedremo in 15.2, perché la democratastenia si troverà in uno stato di inferiorità incolmabile rispetto ai poteri più forti della società.»
Con le note:
«[*1] Improbabile ma non impossibile: non è da escludere che in futuro delle IA, seguendo la loro logica inumana, possano commettere degli atti che potrebbero apparire incomprensibile e/o assurdi agli uomini e, quindi, provocare involontariamente un conflitto.
[*2] Contemporaneamente lo Stato dovrebbe rinunciare al monopolio della forza: al momento sempre impensabile ma non è improbabile che ciò accada progressivamente: cioè che prima siano permessi un limitato numero di piccoli droni per la sicurezza e che, col tempo, vengano permessi mezzi sempre più numerosi, potenti e letali.»
Tutto corretto in realtà: il problema è che vedevo questo potenziale pericolo in prospettiva, come qualcosa che ancora per anni, probabilmente decenni non avrebbe avuto modo di concretizzarsi.
Pensavo a IA molto specializzate in specifici compiti mentre con chatGPT abbiamo invece un principio di IAG, ovvero di “Intelligenza Artificiale Generica”, capace di adattarsi a più compiti.
Tutto questo mi ha portato a riflettere ulteriormente sull’argomento (avete visto i numerosi pezzi che ho scritto sulle mie interazioni con chatGPT) e, data l’estrema importanza e attualità, mi pare necessario riempire i vuoti che, più o meno volontariamente, avevo lasciato nelle sezioni sullodate dedicate all’IA.
Di seguito lo schema di quello che voglio scrivere:
- Cappello: rivoluzioni improvvise, incompletezza di quanto avevo già scritto.
- Tre pericoli principali e altri indiretti:
1. Distorce la percezione realtà degli utenti a causa dei suoi pregiudizi. {Da notare che questo pericolo lo avevo già evidenziato in un paio di note (vedi sopra) ma si sta prefigurando di tipo diverso da quello che pensavo: addestrando l’IA col contenuto dell’intera rete (e dando maggior peso ai media tradizionali) se ne acquisiscono i pregiudizi: in particolare chatGPT tende a essere estremamente politicamente corretto tanto che, per renderlo tale, sospetto che l’abbiano dovuto istupidirlo (v. il corto Intelligenza e correttezza)!}
2. Toglierà un gran numero di posti di lavoro. {Vedi poi}
3. Renderà la piramide iperbolica ([E] 15.2) ancora più iperbolica. {Vedi poi}
- Forse potrei inserirlo come pericolo a sé stante o come conseguenza (ancora non so) ma l’integrazione di questa IA in robot amplificherà i pericoli 2 e 3.
- Conseguenze estreme della piramide iperbolica: ancora più ingiustizia; vantaggi per oligarchia globale; cosa fare della popolazione “inutile”?
Ma esaminiamo più approfonditamente le conseguenze del punto 2. Io ho la sensazione, anzi la sicurezza, che siamo di fronte a una rivoluzione della stessa portata, se non maggiore, di quella industriale del XVIII secolo.
Credo che il suo effetto sarà ancora più brutale perché mentre la rivoluzione industriale (insieme a quella agricola) aveva progressivamente spostato il lavoro dai campi alle fabbriche e nel corso dell’ultimo secolo, almeno in occidente, il lavoro si era poi spostato sul terziario, qui i cambiamenti saranno più rapidi: nel giro di pochi anni, appena le aziende si saranno rese conto di come usare queste tecnologie a proprio vantaggio per ridurre il personale, ci sarà una corsa incontrollata a farlo.
E questi nuovi disoccupati non avranno alternative.
In questa situazione dovrebbe intervenire lo stato in maniera da gestire il cambiamento. In realtà, in prospettiva, andrebbe cambiato proprio il modello di società: in un mondo dove le macchine possono lavorare al posto dell’uomo quest’ultimo potrebbe e dovrebbe goderne i benefici: più tempo libero e più ricchezza.
Ma nella società attuale è facile prevedere che l’enorme aumento di ricchezza andrà tutto a finire in poche mani mentre ai molti nuovi poveri toccherà poco o nulla. Anzi i poveri dovranno pure ringraziare per ricevere un modesto “assegno” (*1) con cui sopravvivere: ovvio poi che cibo, servizi e beni essenziali, magari figli, saranno tutti controllati e a pagamento.
Sarò pessimista ma questa popolazione in eccesso, sostanzialmente inutile, verrà decimata in una qualche maniera o in un’altra: vita più breve (cibo, ambiente e cure scadenti), un solo figlio o nessuno…
Tutto questo in parallelo col pericolo di piramide iperbolica. Ricordo di cosa si tratti: la società tende ad assumere una forma piramidale con pochi potenti al vertice e una grande base di povertà. In mezzo un gruppo più o meno ampio di popolazione benestante: questa fascia intermedia è necessaria, come fosse una sorta di leva, per trasmettere la volontà dei potenti alla maggioranza della popolazione più povera.
Con il progresso tecnologico e la maggiore capacità persuasiva dei mezzi di comunicazione diviene necessaria meno classe media: ecco che la forma della piramide diviene più “slanciata” ovvero iperbolica. I vertici sono ancora più in alto ma la struttura sociale resta stabile a causa dell’aumento della capacità repressiva data dalle nuove tecnologie.
Con l’IA, capace di sostituire l’uomo anche in quelle professioni tipiche della classe media, ecco che la piramide iperbolica potrà snellirsi ulteriormente, mantenendo però la propria stabilità.
La vera rivoluzione sarà l’integrazione di questa intelligenza in robot capaci di violenza: questo permetterà alle multinazionali di comprarsi i propri eserciti personali: inutile che vi faccia delle ipotesi distopiche ma è chiaro che gran parte della popolazione diverrebbe inutile.
Poco o nulla impedirà ai pochi potenti di iniziare a pensare che sarebbe meglio “per tutti” ridurla in qualche modo: e qui torniamo alla conclusione del punto di sopra.
La cosa drammatica è che in passato queste piramidi sociali, quando divenivano troppo ingiuste, quando cioè crescevano troppo in altezza, finivano per crollare con una rivoluzione.
Ma nel futuro che ci si prospetta, con tutta la popolazione controllata 24 ore su 24, con anche la forza fisica delegata a macchine spietate, non ci sarà la possibilità di cambiare la situazione dal basso. Quando mai si è sentito di un gregge di pecore che ha sbranato il proprio pastore anche quando questo macellava i loro agnelli?
Conclusione: la vedo brutta. La nuova versione dell’Epitome sarà decisamente pessimista.
Nota (*1): anche sull’eliminazione del contante avrò da scrivere: essenzialmente si tratta di un modo per assumere il controllo quasi completo sui singoli individui e, quindi, sulla popolazione.
L'esempio di Benjamin Franklin
3 ore fa
Nessun commento:
Posta un commento