banner

Notizia

Sep 06, 2023

L’intelligenza artificiale probabilmente non porterà l’umanità all’estinzione, ma può essere dannosa

L’intelligenza artificiale sta già danneggiando alcune persone molto vulnerabili.

Oltre 350 esperti tecnologici, ricercatori di intelligenza artificiale e leader del settore hanno firmato la Dichiarazione sui rischi dell'intelligenza artificiale pubblicata dal Center for AI Safety la scorsa settimana. È un avvertimento molto breve e conciso composto da una sola frase per tutti noi:

Mitigare il rischio di estinzione dell’intelligenza artificiale dovrebbe essere una priorità globale insieme ad altri rischi su scala sociale come le pandemie e la guerra nucleare.

Quindi gli esperti di intelligenza artificiale, compresi gli ingegneri di Google e Microsoft che stanno attivamente diffondendo l’intelligenza artificiale nel mondo, pensano che l’intelligenza artificiale abbia il potenziale per essere un evento di estinzione globale allo stesso modo della guerra nucleare. Cavolo.

Devo ammettere che ho pensato la stessa cosa che hanno pensato molte persone quando hanno letto questa affermazione per la prima volta: sono un sacco di stronzate. Sì, l'intelligenza artificiale ha molti problemi e penso che sia un po' presto per appoggiarsi ad essa come stanno facendo alcune società tecnologiche e giornalistiche, ma questo tipo di iperbole è semplicemente stupido.

Poi ho cercato su Google l'intelligenza artificiale del Bard Beta Lab e ho scoperto diversi modi in cui l'intelligenza artificiale è già dannosa. Alcuni dei soggetti più vulnerabili della società sono ancora più a rischio a causa dell’intelligenza artificiale generativa e di quanto siano effettivamente stupidi questi computer intelligenti.

La National Eating Disorders Association ha licenziato i suoi operatori di assistenza telefonica il 25 maggio 2023 e li ha sostituiti con Tessa the ChatBot. I lavoratori erano nel bel mezzo della sindacalizzazione, ma la NEDA afferma che "questo era un cambiamento atteso da tempo e che l'intelligenza artificiale può servire meglio chi soffre di disturbi alimentari" e non aveva nulla a che fare con sei dipendenti retribuiti e volontari assortiti che cercavano di sindacalizzare.

Il 30 maggio 2023, la NEDA ha disattivato Tessa il ChatBot perché offriva consigli dannosi a persone con gravi disturbi alimentari. Ufficialmente, la NEDA è "preoccupata e sta lavorando con il team tecnologico e quello di ricerca per indagare ulteriormente su questo aspetto; quel linguaggio è contrario alle nostre politiche e alle nostre convinzioni fondamentali come organizzazione per i disturbi alimentari".

Negli Stati Uniti ci sono 30 milioni di persone con gravi disturbi alimentari e 10.200 muoiono ogni anno come conseguenza diretta di essi. Uno ogni ora.

Poi abbiamo Koko, un’organizzazione no-profit per la salute mentale che ha utilizzato l’intelligenza artificiale come esperimento su adolescenti con tendenze suicide. Sì, avete letto bene.

Gli utenti a rischio venivano incanalati sul sito web di Koko dai social media dove ciascuno veniva inserito in uno dei due gruppi. A un gruppo è stato fornito un numero di telefono di una vera e propria hotline di crisi dove avrebbero potuto trovare l'aiuto e il supporto di cui avevano bisogno.

L'altro gruppo ha seguito l'esperimento di Koko in cui hanno dovuto rispondere a un quiz e gli è stato chiesto di identificare le cose che hanno innescato i loro pensieri e cosa stavano facendo per affrontarli.

Una volta terminato, l’intelligenza artificiale ha chiesto loro se avrebbero controllato le notifiche del telefono il giorno successivo. Se la risposta era sì, venivano spinti su uno schermo dicendo "Grazie per questo! Ecco un gatto!" Naturalmente, c'era l'immagine di un gatto e, a quanto pare, Koko e il ricercatore di intelligenza artificiale che hanno contribuito a crearlo pensano che in qualche modo miglioreranno le cose.

Non sono qualificato per parlare dell’etica di situazioni come questa in cui l’intelligenza artificiale viene utilizzata per fornire diagnosi o aiuto a persone che lottano con la salute mentale. Sono un esperto di tecnologia che si concentra principalmente sugli smartphone. La maggior parte degli esperti umani concorda però sul fatto che la pratica è piena di problemi. So che il tipo sbagliato di "aiuto" può e renderà una brutta situazione molto peggiore.

Se stai lottando con la tua salute mentale o ritieni di aver bisogno di aiuto, chiama o invia un messaggio al 988 per parlare con un essere umano che può aiutarti.

Questo tipo di storie raccontano due cose: l’intelligenza artificiale è molto problematica se utilizzata al posto di persone qualificate in caso di crisi, e anche le persone reali che dovrebbero saperne di più possono essere stupide.

L’intelligenza artificiale nel suo stato attuale non è pronta per essere utilizzata in questo modo. Neanche vicino. La professoressa dell'Università di Washington Emily M. Bender sottolinea molto bene in una dichiarazione a Vice:

"I modelli linguistici di grandi dimensioni sono programmi per generare testo dal suono plausibile sulla base dei dati di addestramento e di una richiesta di input. Non hanno empatia, né alcuna comprensione della lingua che producono, né alcuna comprensione della situazione in cui si trovano. Ma il testo che produrre suoni plausibili e quindi è probabile che le persone gli attribuiscano un significato. Lanciare qualcosa del genere in situazioni delicate significa correre rischi sconosciuti. "

CONDIVIDERE