• Riguardo a noi
  • DMCA
  • Politica editoriale
  • Politica Sulla Riservatezza
  • Modulo di Contatto
domenica, Maggio 28, 2023
Sole Guardiano Italy
Nessun risultato
Visualizza tutti i risultati
  • Home
  • News
  • Economia
  • Mondo
  • Cultura
  • Tecnologia
  • Sport
  • Home
  • News
  • Economia
  • Mondo
  • Cultura
  • Tecnologia
  • Sport
Nessun risultato
Visualizza tutti i risultati
Sole Guardiano Italy
Nessun risultato
Visualizza tutti i risultati

L’intelligenza artificiale oltre quella umana e gli umani come formiche: OpenAI e i rischi della IA Forte

Marzo 1, 2023
nel Tecnologia
A A
CondividereTweetCondividerePinCondividereCondividereSpedireE-mail

Stephen Hawking non c’è più: il celebre astrofisico è scomparso nel 2018, ma se si parla di intelligenza artificiale è utile ricordare le sue parole. Soprattutto se si parla di rischi connessi all’intelligenza artificiale.

Come quando ricordò (era il 2015) che le IA potrebbero “spazzare via l’umanità”, usando il celebre esempio delle formiche. Non lo farebbero per cattiveria, ma per indifferenza: se l’uomo deve costruire una nuova autostrada, non si preoccupa che il tracciato passi sopra un formicaio, la fa e basta e “tanti saluti alla formiche”. Che per noi sono indifferenti: non è che siano un ostacolo nel raggiungimento dei nostri obiettivi, sono semplicemente qualcosa di cui non ci preoccupiamo. Sono insignificanti.

E in futuro noi potremmo diventare questo per le IA. Più precisamente: potremmo diventare questo per la cosiddetta Strong AI, cioè (semplificando) una vera intelligenza artificiale che sappia ragionare e risolvere problemi in autonomia. Come l’intelligenza umana, ma forse meglio.

Nel suo esempio, Hawking parlava proprio di questo tipo di IA e sempre nel 2015, lui e altre 1.000 persone, fra scienziati, imprenditori e sviluppatori, firmarono un memorandum per ricordare al mondo che “l’IA potrebbe essere la prossima bomba nucleare”. Fra i firmatari di quel documento c’era anche Elon Musk, che quell’anno sostenne economicamente la nascita di OpenAI. Otto anni dopo, proprio la società di Sam Altman torna a parlare della IA Forte, facendo infuriare (e preoccupare) la comunità scientifica.

twitter: l’analisi del documento di OpenAI

OpenAI e la retromarcia sull’essere open source

Quello che è successo è che alcuni giorni fa, sul sito di OpenAI è comparso un testo (questo), intitolato Planning for AGI and beyond e firmato da Altman, in cui si parla dei progetti sul breve e sul lungo periodo. Progetti per sviluppare una AGI, che è il termine scientifico per definire la IA Forte: la sigla sta per Artificial General Intelligence e indica appunto un’intelligenza artificiale che sia in grado di risolvere da sola problemi di carattere generale.

Nel documento, che è parecchio lungo e complicato, ci sono alcuni passaggi importanti, che su Twitter sono stati evidenziati e apertamente criticati dalla professoressa Emily Bender, docente di Linguistica computazionale all’Università di Washington, ma anche da Timnit Gebru, la scienziata licenziata da Google per avere denunciato i pregiudizi delle IA, che qualche anno fa ha fondato Dair, un istituto di ricerca sulle IA indipendente e “libero dall’influenza di Big Tech”.

Il primo punto da notare è che, per la prima volta, il numero uno di OpenAI ammette che “ci siamo sbagliati sulla nostra idea iniziale di essere aperti (che è il motivo per cui la società si chiama come si chiama, ndr)” e quindi “siamo passati dal pensare che dovremmo condividere tutto a pensare che dovremmo valutare meglio che cosa condividere e come”.

L’altro aspetto importante è che OpenAI vuole smettere di essere una no-profit, cosa che è stata sinora: “Non ci aspettavamo che crescere (economicamente, ndr) fosse così importante e quando ce ne siamo resi conto, ci siamo anche resi conto che la nostra struttura originale non avrebbe funzionato”, perché “come organizzazione no-profit non saremmo stati in grado di raccogliere abbastanza soldi per portare a termine la nostra missione, e così ci siamo dati una nuova struttura”.

Una IA nell’ombra di Microsoft

Questi due punti sono fondamentali, perché toccano un aspetto molto delicato dello sviluppo delle IA, che su Italian Tech abbiamo già affrontato più volte (qui, per esempio): la provenienza dei dati che servono per allenarle. Va ricordato che questa mole enorme di informazioni viene concessa agli sviluppatori in modo gratuito, con l’idea che ne facciano un uso non commerciale. Che non ci guadagnino su, insomma. Cosa che non sembra esattamente l’obiettivo della nuova OpenAI.

Ma questi punti punti sono anche in qualche modo collegati fra loro e sono a loro volta collegati agli interessi economici di Microsoft: dopo avere messo miliardi e miliardi di dollari nella società di Altman, è comprensibile (dal suo punto di vista) che il colosso di Redmond voglia tutto tranne che questa resti open source, aperta a tutti, accessibile e no-profit. Un profitto ci dev’essere eccome, altrimenti non avrebbe senso l’investimento.

A confermare la connessione, come non ha mancato di fare notare Gebru, che più volte nei giorni scorsi ha definito “clowns” quelli di OpenAI (che si può tradurre con pagliacci, ma pure con cialtroni e altri termini meno garbati), il fatto che fra i co-autori del documento firmato da Altman compaiano fra gli altri, anche Brad Smith, Kevin Scott, Brian Chesky e Jack Clark. Chi sono? Rispettivamente, il presidente e il CTO di Microsoft, il CEO di AirBnB e il co-founder di Anthropic (cos’è?). Altro che no-profit, pare di capire.

Yes they are. That’s why we have to read what these clowns write.

Aside: is the Brad Smith in the acknowledgment Microsoft’s Brad Smith? https://t.co/FJeRgLJExD

— @[email protected] on Mastodon (@timnitGebru) February 26, 2023

“Falso dire che ChatGPT sia un passo verso l’IA Forte”

Al di là di questi aspetti societari e legati al business, ce ne sono altri di impostazione e approccio. Di superbia, a leggere quanto scritto da Bender: “Questi pensano davvero di essere sulla strada per lo sviluppo di una AGI, e pensano davvero di essere nella posizione per decidere il bene di tutta l’umanità”. Che è in effetti quello che c’è scritto all’inizio del documento firmato da Altman, forse con un eccesso di entusiasmo: “La nostra missione è garantire che l’AGI (un sistema di intelligenza artificiale più intelligenti degli esseri umani) vada a vantaggio di tutta l’umanità”.

E il loro scopo è creare questo tipo di IA, cosa che, almeno stando alle parole di Altman, starebbero facendo con le varie versioni dei loro LLM, come il noto GPT-3. Questo è forse il punto contestato più aspramente dalla comunità scientifica: “Stanno dando questa falsa illusione che ChatGPT sia un passo verso la IA Forte – ci ha spiegato Annalisa Barla, professoressa associata di Informatica del Dibris dell’Università di Genova – Solo che questa cosa non è vera, almeno per come è costruita adesso”. Insomma, per dirla anche come il professor Hiroshi Ishiguro, non solo “ChatGPT non è una IA”, ma soprattutto “non è un passo sulla strada verso la IA Forte”. Nonostante quello che vorrebbero pensare gli azionisti di Microsoft.

Un altro problema è quello della fonte dei dati: “Dicono che è importante fare una AGI che sia benefica per tutta l’umanità, che l’apertura è importante, e però poi si contraddicono, si chiudono, mettono un freno al loro essere open source e non sono più una no-profit”, ci ha fatto notare Barla. Soprattutto, continuano a non documentare e spiegare la provenienza dei loro dataset, cioè (semplificando) i database utilizzati per addestrare le loro IA, che è una cosa che la comunità scientifica chiede di sapere ormai da oltre 5 anni. Perché è importante? Perché non sapere la provenienza dei dati da cui le IA imparano a dialogare, risolvere problemi, creare immagini, scrivere testi e molto, molto altro ancora, espone a rischi di discriminazione, abusi da parte dei governi, mancato rispetto delle minoranze e violazione di copyright, giusto per citare qualche esempio.

Per usare ancora le parole di Bender, “quello che serve sono regole su come i dati possono essere raccolti e usati, serve trasparenza sui dataset, sui modelli e sull’implementazione di sistemi di generazione di testo e immagini”. Servirebbe anche farle pensando un po’ meno al profitto e un po’ più (ma per davvero) al bene dell’umanità. Anche perché, parafrasando Hawking, questa super intelligenza artificiale sarebbe meglio farla giusta alla prima, perché potremmo non avere una seconda occasione.

@capoema

CondividereTweetCondividerePinCondividereCondividereSpedireSpedire

Imparentato Post

Tecnologia

Le 13 regole per creare una startup di successo secondo Sam Altman (il padre di ChatGTP)

Maggio 27, 2023
Tecnologia

Che cos’è la bellezza secondo le intelligenze artificiali?

Maggio 27, 2023
Tecnologia

Emilia-Romagna, Truescreen certifica gratuitamente i danni dell’alluvione

Maggio 27, 2023
Tecnologia

Il fallimento di Virgin Orbit tocca l’Italia. Pertosa (Sitael): “Da noi 800 mila euro per un lancio che non ci sarà”

Maggio 27, 2023
Tecnologia

Il giornale tedesco Handelsblatt pubblica 100 GB di dati riservati Tesla: ecco cosa c’è dentro

Maggio 27, 2023
Tecnologia

Perché Sam Altman ha saltato l’Italia?

Maggio 26, 2023
Tecnologia

PlayStation Showcase, svelata la console Project Q e il remake di Metal Gear Solid

Maggio 26, 2023
Tecnologia

#SpiritoArtigiano, Confartigianato sbarca su TikTok per raccontare il made in Italy

Maggio 26, 2023
Post successivo

Just Fontaine: il leggendario attaccante della Francia, che ha segnato 13 gol ai Mondiali del 1958, muore all'età di 89 anni

Sole Guardiano Italy

Sole Guardiano Italy è un sito dedicato alla copertura delle ultime notizie, recensioni e How-to. Siamo un editore approvato da Google News e abbiamo alcune fonti che continuano a eseguire la scansione del nostro sito web.

Consigliato

Kiev, via alla controffensiva. Mosca: ‘Bombe su Belgorod’

‘Il peggior giorno della mia vita’: Oliver Kahn e Hasan Salihamidzic licenziati pochi istanti dopo che il Bayern Monaco ha vinto il titolo di Bundesliga

Cristiano Ronaldo e Al-Nassr perdono il titolo del campionato saudita mentre Al-Ittihad viene incoronato campione

Ultime Notizie

Le 13 regole per creare una startup di successo secondo Sam Altman (il padre di ChatGTP)

Belgorod, chi sono i partigiani russi che hanno rivendicato l’attacco

Laura Robson spiega la mancanza di giocatrici britanniche agli Open di Francia, come battere Iga Swiatek e le tre grandi del tennis femminile

  • Riguardo a noi
  • DMCA
  • Politica editoriale
  • Politica Sulla Riservatezza
  • Modulo di Contatto

Copyright ©️ All rights reserved | Sole Guardiano

Nessun risultato
Visualizza tutti i risultati
  • Home
  • News
  • Economia
  • Mondo
  • Cultura
  • Tecnologia
  • Sport

Copyright ©️ All rights reserved | Sole Guardiano