L’intelligenza artificiale fa parte di quelle tecnologie che, una volta entrata a far parte della vita quotidiana delle persone, ha la forza di rimodellare completamente le vite dei singoli individui e quindi dell’intera società. Nel 2020 il Parlamento europeo pubblicò una nota sul proprio sito in cui definiva l’IA come “una macchina in grado di mostrare capacità umane quali il ragionamento, l’apprendimento, la pianificazione e la creatività”. Nella stessa nota descriveva poi l’IA come mezzo centrale per la trasformazione digitale della società e quindi una delle “priorità” dell’Unione. Da quel momento in poi l’UE ha continuato a lavorare su una
regolamentazione per l’uso dell’intelligenza artificiale fino ad arrivare all’AI Act del 2024. Il
passo mosso dall’UE ha permesso di definire quattro livelli di rischio, proibendo l’uso dell’IA,
a qualsiasi livello, per otto pratiche diverse.

Tra queste si possono citare il punteggio sociale, il riconoscimento delle emozioni sul luogo di lavoro o la previsione del rischio di reato individuale. Queste pratiche fanno parte del livello considerato più pericoloso da parte dell’UE, ovvero quello del rischio inaccettabile. Ci sono però altri sistemi di intelligenza artificiale che, nonostante siano soggetti ad obblighi rigorosi, hanno la possibilità di dare accesso a servizi privati e pubblici essenziali (stabilire quindi il punteggio di credito, ad esempio), il riconoscimento delle emozioni all’infuori dei luoghi di lavoro e degli istituti scolastici oppure ancora l’utilizzo per l’ordinamento dei CV per il reclutamento all’interno del mondo del lavoro. Si capisce quindi che, nonostante l’Unione abbia fatto un passo verso la regolamentazione, i limiti all’uso dell’IA siano stati fissati solo per pratiche estremamente non etiche e in misura ridotta.

Infatti, per quanto riguarda la stragrande maggioranza dei sistemi di IA utilizzati all’interno dei paesi dell’Unione, il rischio è considerato minimo o nullo. Questo ha permesso a software quali ChatGPT, character.ai, Quillbot, Copilot e tanti altri di diventare accessibili a chiunque volesse utilizzarli.
Oltre ai problemi etici che riguardano l’uso di questi sistemi, che sarebbe impossibile trattare all’interno di un singolo articolo, vi è un altro problema di cui si discute poco, ma che è strettamente legato all’uso dell’IA: il danno ambientale causato da questi sistemi. Di seguito l’analisi si concentrerà prendendo ad esempio solo ChatGPT, in quanto IA più conosciuta ed usata in Italia e nei paesi europei. Secondo un recente studio dell’Università della California di Riverside, la generazione di un testo di cento parole da parte della piattaforma consuma in media mezzo litro d’acqua. Questo vuol dire, in altri termini, che la generazione di un testo, lungo meno di una pagina, è pari al consumo di acqua giornaliero che una persona dovrebbe bere secondo le indicazioni dell’OSM. Il motivo di tale consumo di acqua lo si deve principalmente ai sistemi di raffreddamento dei data center, i quali ospitano i server necessari per l’elaborazione delle richieste degli utenti. A tale problema si aggiunge uno ancora più grande e che riguarda il consumo di energia elettrica. L’Agenzia internazionale per l’energia ha dichiarato che il consumo totale di elettricità derivante dai data center potrebbe raddoppiare dai 500 terawattora del 2022 ai 1.000 nel 2026, per intenderci la stessa domanda di energia del Giappone. Basti pensare che la generazione di un testo di cento parole richiede la stessa quantità di elettricità equivalente a tenere accese 14 lampadine a LED per un’ora.

Ad oggi, comunque, sempre secondo l’Agenzia internazionale per l’energia, il consumo dei data center si attesterebbe tra l’1% e l’1,5% dell’elettricità globale, una percentuale, come detto, destinata ad aumentare nei prossimi anni. Infatti, la società SemiAnalysis prevede un
raggiungimento del consumo di elettricità, a livello globale, pari al 4,5% nel 2030. A questi
dati bisogna aggiungere la produzione di CO2 che comporta la creazione e l’addestramento
dei sistemi dell’IA. Sembrerebbe che lo sviluppo e l’addestramento della precedente versione
di ChatGPT abbiano prodotto 552 tonnellate di CO2, ovvero l’equivalente di 300 voli da Roma
a New York.
Per concludere, lo scopo di questo articolo non è quello di demonizzare l’uso dell’IA, ma di
cercare di aprire un dibattito che si possa aggiungere a quelli più discussi che riguardano, ad esempio, la scomparsa di alcuni lavori nei prossimi anni o la sostituzione dei lavoratori stessi da parte di queste nuove macchine. L’IA credo che potrebbe avere un impatto estremamente positivo all’interno delle nostre vite, ma solo se il nostro atteggiamento verso di essa e verso le grandi aziende big tech non sia quello di passività, ma piuttosto di partecipazione attiva, tramite ricerche e dibattiti che possano guidarci verso una soluzione sostenibile per tutti i problemi che queste nuove tecnologie potrebbero creare nel prossimo futuro.

Rispondi

Trending

Scopri di più da sanzameta

Abbonati ora per continuare a leggere e avere accesso all'archivio completo.

Continua a leggere