banner
Centro notizie
Prezzi imbattibili per prodotti di eccezionale qualità.

Washington può fermare l’intelligenza artificiale gratuitamente

Jun 11, 2023

Cinque modi in cui Washington può ritenere responsabile la Silicon Valley

Ad aprile gli avvocati della compagnia aerea Avianca notarono qualcosa di strano. Un passeggero, Robert Mata, aveva citato in giudizio la compagnia aerea, sostenendo che un carrello di servizio su un volo aveva colpito e ferito gravemente il suo ginocchio sinistro, ma diversi casi citati nella causa di Mata non sembravano esistere. Nemmeno il giudice ha potuto verificarli. Si è scoperto che ChatGPT li aveva inventati tutti, inventando nomi e decisioni. Uno degli avvocati di Mata, Steven A. Schwartz, aveva utilizzato il chatbot come assistente – era la prima volta che utilizzava il programma per ricerche legali – e, come scrisse Schwartz in una dichiarazione giurata, “non era a conoscenza della possibilità che il suo contenuto potesse essere falso. "

L’incidente è stato solo uno di una serie di casi in cui l’intelligenza artificiale generativa ha diffuso falsità, per non parlare di truffe finanziarie, pornografia non consensuale e altro ancora. Le aziende tecnologiche stanno commercializzando i loro prodotti di intelligenza artificiale e potenzialmente raccolgono enormi profitti, con scarsa responsabilità o supervisione legale per i danni nel mondo reale che tali prodotti possono causare. Il governo federale sta ora cercando di recuperare il ritardo.

Alla fine del mese scorso, l’amministrazione Biden ha annunciato che sette aziende tecnologiche in prima linea nello sviluppo dell’intelligenza artificiale avevano accettato una serie di impegni volontari per garantire che i loro prodotti fossero “sicuri, protetti e affidabili”. Tali impegni seguono una serie di vertici della Casa Bianca sull’intelligenza artificiale, testimonianze del Congresso sulla regolamentazione della tecnologia e dichiarazioni di varie agenzie governative secondo cui stanno prendendo sul serio l’intelligenza artificiale. Nell'annuncio, OpenAI, Microsoft, Google, Meta e altri si sono impegnati a sottoporre i propri prodotti a test di terze parti, a investire nella riduzione dei pregiudizi e ad essere più trasparenti sulle capacità e sui limiti dei loro sistemi di intelligenza artificiale.

Leggi: L’America ha già una sottoclasse di intelligenza artificiale

Il linguaggio è promettente ma è anche solo una promessa, priva di meccanismi di applicazione e di dettagli sui prossimi passi. La regolamentazione dell’intelligenza artificiale richiede una burocrazia pesante per affrontare aziende notoriamente riservate e tecnologie in rapida evoluzione. Gran parte del linguaggio dell’amministrazione Biden scimmiotta le linee di pubbliche relazioni dei luminari della tecnologia riguardo alle capacità di distruzione del mondo dei loro prodotti, come le armi biologiche e le macchine che “auto-replicano”. L’azione del governo sarà essenziale per salvaguardare la vita e i mezzi di sussistenza delle persone, non solo dalla presunta minaccia a lungo termine rappresentata da macchine malvagie e superintelligenti, ma anche dalle minacce quotidiane. L’intelligenza artificiale generativa ha già mostrato gravi pregiudizi e potenziali usi impropri. E per più di un decennio, algoritmi meno avanzati ma altrettanto opachi e spesso discriminatori sono stati utilizzati per esaminare i curriculum e determinare i punteggi di credito, nei software diagnostici e come parte degli strumenti di riconoscimento facciale.

Ho parlato con diversi esperti e me ne sono andato con un elenco di cinque dei modi più efficaci con cui il governo potrebbe regolare l'intelligenza artificiale per proteggere il paese dai rischi quotidiani della tecnologia, così come dai suoi pericoli più ipotetici e apocalittici.

1. Non fidarsi della parola delle aziende di intelligenza artificiale su nulla.

Un farmaco pubblicizzato per la chemioterapia deve apportare benefici dimostrabili ai pazienti affetti da cancro negli studi clinici, ad esempio riducendo i tumori, e quindi ottenere l’approvazione della FDA. Quindi il produttore deve rivelare gli effetti collaterali che i pazienti potrebbero riscontrare. Ma non esiste tale responsabilità per i prodotti di intelligenza artificiale. “Le aziende affermano che l’intelligenza artificiale è in grado di fare cose X o Y, ma poi non provano che possano farlo”, mi ha detto Sarah Myers West, amministratore delegato dell’AI Now Institute ed ex consulente senior della FTC sull’intelligenza artificiale. Numerose aziende tecnologiche sono state criticate per aver travisato quanto siano parziali o efficaci i loro algoritmi o per non aver fornito quasi alcuna prova con cui valutarli.

Imporre che gli strumenti di intelligenza artificiale siano sottoposti a test di terze parti per garantire che soddisfino i parametri concordati di bias, accuratezza e interpretabilità “è un primo passo davvero importante”, afferma Alexandra Givens, presidente del Center for Democracy and Technology, un’organizzazione no-profit che mi ha detto che difende la privacy e i diritti umani su Internet e riceve finanziamenti dall'industria tecnologica. Le aziende potrebbero essere costrette a divulgare informazioni su come sono stati addestrati i loro programmi, sulle limitazioni del software e su come hanno mitigato i potenziali danni. "In questo momento c'è una straordinaria asimmetria informativa", ha detto: le aziende tecnologiche tendono a rivelare molto poco su come addestrano e convalidano il loro software. Un audit potrebbe comportare il test della frequenza con cui, ad esempio, un programma di visione artificiale riconosce erroneamente i volti neri rispetto a quelli bianchi o se i chatbot associano determinati lavori a ruoli di genere stereotipati (ChatGPT una volta affermò che gli avvocati non possono essere incinte, perché gli avvocati devono essere uomini).