10 min read

Mak's File - Episodio 39.2023

Questa settimana è stata monopolizzata da OpenAI, prima col DevDay dove annunciano tra le altre cose i GPTs, poi la defenestrazione di Sam Altman.
Mak's File - Episodio 39.2023

Questa settimana è stata monopolizzata da OpenAI, prima col DevDay dove annunciano tra le altre cose i GPTs, poi la defenestrazione di Sam Altman.

Altra cosa MOLTO importante è stato il meeting sull sicurezza delle AI tenuto in UK a cui hanno partecipato sia gli Stati Uniti che la Cina. L'Europa ha perso l'occasione di mostrare il suo ruolo di moderatore... ma magari ne parliamo un'altra volta.

Colgo anche l'occasione di salutare i nuovi iscritti e ringraziare quelli che hanno condiviso la mail con i loro colleghi.

Ciao, il mio nome è Manolo Macchetta e ogni settimana leggo decine di articoli relativi a Digital Transformation, Digital Marketing Ai & Dintorni e te li ripropongo in questa selezione.

Puoi seguirmi sul mio blog / newsletter su https://manolo.macchetta.com oppure su linkedin: https://www.linkedin.com/in/manolomacchetta

OpenAI Galore

Midjourney: surreal photo of sam altman flying from a window into space

Nelle ultime due settimane OpenAI ne ha fatte davvero tante. Andiamo per ordine inverso, partendo con la breaking news di ieri.

Sam Altman, CEO di OpenAI lasciato a casa.

La breaking news di ieri è che il Board di OpenAI ha licenziato Sam Altman. Il comunicato dell'azienda afferma che dopo "accurato processo di revisione, il board ha concluso che non il CEO fosse stato costantemente sincero (candid) nelle sue comunicazioni con il consiglio, ostacolando la capacità di quest'ultimo di esercitare le proprie responsabilità."

In questi momenti la blogsfera è esplosa, qualcuno si sbilancia ad affermare che ci sono similitudini con il licenziamento di Steve Jobs da Apple 1985, ma secondo me sono invero molto poche.

Ok, bello postare la news, ma procediamo con qualche ipotesi del perchè e di cosa sia successo. Non darei un peso così importante all'ipotesi che il comunicato sia vero e che Altman abbia mentito al board su qualcosa di così grosso da meritare il licenziamento.

Con lui esce di sua sponte anche il membro del consiglio di amministrazione Greg Brockman, co-fondatore OpenAI, e amico di Altman.

Il suo post lo prende Mira Murati, classe 1988 (!), nata a Valona in Albania. Cervello di prima caratura, dato che ha lavorato in Goldman Sachs, Zodiac Aerospace, Tesla, Leap Motion prima di diventare CTO di Open Ai nel 2018.

Chi compone il consiglio di amministrazione di OpenAI

Altra domanda lecita. Il resto del consiglio di amministrazione comprende lo scienziato capo di OpenAI Ilya Sutskever, l'amministratore delegato di Quora Adam D'Angelo, l'imprenditrice Tasha McCauley e Helen Toner, direttore della strategia del Center for Security and Emerging Technology della Georgetown University. Negli ultimi anni il CSET è diventato un think tank di spicco che si occupa di questioni legate all'IA a Washington.

Altman, insolitamente, non ha avuto partecipazioni in OpenAI, tanto meno il tipo di controllo che hanno fondatori come Mark Zuckerberg, vedi qualche riga più giù.

Raccolta informazioni & speculations

Ho letto che una causa potrebbe essere la corsia preferenziale che OpenAI ha concesso ad alcune aziende a discapito di altre in cui dei membri del consiglio di amministrazione avevano interessi, anche in questo caso vorrei saperne di più.

Questa motivazione comunque non mi convince molto. Sarei meno stupito se qualcuno del board abbia perso soldi dopo l'uscita dei GPTs e la conseguente distruzione del middle layer e delle aziende che ne facevano parte (ne parlo più sotto).

Altra cosa è la questione delle partecipazione di Sam Altman nell'equity di OpenAI. Al congresso ha dichiarato di non averne, e se questo è giusto se si parla di Sam Altman persona, non è proprio accurato quando si parla di Sam Altman come azionario di Y combinator. Questa potrebbe essere una delle ragioni per cui il Board ha deciso di "pararsi il diddietro" licenziando preventivo del CEO.

Parlando di Sam Altman come investitore ci sono voci che dicono che stesse raccogliendo molti capitali per investire in qualcosa di hardware supportato da OpenAI (vedi Humane più sotto nelle news). Non so se ha delle correlazioni, ma il fatto che la notizia abbia anticipato la defenestrazione di una giornata me la fa segnare qui.

Microsoft è de facto l'owner di OpenAI, ma sembra che non abbia fatto nessun tipo di pressione per questa azione, e che anzi era all'oscuro di tutto. In molti comunque si questionavano da un po' sul rapporto di nemici-amici tra Satya Nadella (CEO di Microsoft) e Sam Altman.

Un'altra cosa che è successa è stato il leak delle nuove feature di ChatGPT che ha preceduto il DevDay. Quello a me sembrava una banale trovata di comunicazione, magari ha delle cause ben più gravi.

Una cosa che non ho letto in giro, ma è stata la prima che mi è venuta in mente sono le beghe legali che ha OpenAI tra dataset presi con modalità da bucaniere, le controversie legali che a breve faranno capolino in tribunale, la conferenza sulla sicurezza delle AI promossa dal Regno Unito (sotto ho messo un video)

OpenAI Conference - Cosa è venuto fuori

il video ha una settimana, ma sembra vecchio di un anno. Rimane comunque interessante

L'OpenAI DevDay non ha lesinato di annunci importanti, alcuni erano già usciti durante il leak altri li ha annunciati Sal Altman. Ecco cosa è arrivato

Introduzione dei GPTs

Versioni personalizzate di GPT-4 che chiunque può creare e vendere sul mercato OpenAI. Secondo OpenAI sarà possibile programmare nuovi comportamenti, aggiungere conoscenze personalizzate e permettere ad altri di interagire con la propria creazione.

Al momento la cosa che più mi è piaciuta è il wizard che ti guida alla costruzione del bot, ma non sono riuscito a capire se possiamo creare noi un agente (no le 4 domande preconfezionate NON sono nemmeno l'ombra di un agente)

L'interazione con Bot in sè è abbastanza limitata:

  • PRO: puo caricarci i tuoi contenuti
  • CONTRO: bisogna essere in grado di richiamare questi contenuti

Vedo quindi la possibilità di fare una combo GPTs + Manuale di istruzioni

Finestra di contesto esagerata

La finestra di contesto è quanto l'AI generativa si ricorda delle discussioni precedenti. GPT-4 Turbo, ha 128k token (pari a 300 pagine più o meno).

Ovviamente una finestra di contesto più lunga significa interazioni più utili e più lunghe. C'è un caveat: la sua capacità di ricordare informazioni specifiche inizia a degradare intorno ai 73.000 gettoni. Si tratta di un problema comune alle LLM con ampie finestre di contesto. Anche altre AI generative (tipo quelle vocali di ElevenLabs) hanno lo stesso problema, se l'output è troppo lungo, dopo un certo punto la qualità scende in maniera sensibile: immagino che ci siano ricercatori che stanno risolvendo questo problema.

Cutoff Date

I dati con cui ChatGPT è stato nutrito si sono fermati al 2021, e questo è un grosso limite ovviamente: Sam Altman ha detto che GPT-4 sarà aggiornato ad Aprile 2023 ed usciranno vari update progressivi. Ho chiesto su vari gruppi ma in italia molti hanno ancora il 2022

API per GPT-4 con visione, DALL-E3 e i loro modelli Text-To-Speech.

GPT-V è stato il nostro giochino preferito queste settimane. Hanno annunciato di aver aperto le API. Diciamo ciao ai Captcha, dato che abbiamo già visto che il riconoscimento visivo è in grado di risolverli.

Scudo Legale

OpenAI si allinea ad altri player e ha promesso che coprirà le spese legali nel caso in cui qualcuno vi citi in giudizio per violazione del copyright in seguito all'utilizzo delle API.

Altre cosa:

  • Riduzione dei costi fino a 3 volte chiamate GPT-4.
  • ChatGPT Plus passa automaticamente dalla versione "normale" all'interprete di codice, alla ricerca web e a DALL-E3.
  • Nuova API Assistant, che consente agli sviluppatori di integrare GPT nei loro prodotti in modo ancora più semplice.
  • OpenAI ha 2 milioni di sviluppatori. Il 92% delle aziende Fortune 500 lo utilizza e ha 100 milioni di utenti attivi settimanali su ChatGPT.
  • In questo video hanno approfondito un po' le applicazioni dei GPTs. Guarda: New Products: A Deep Dive

Rishi Sunak, il primo ministro del Regno Unito parla con Elon Musk

Stavo per scrivere "Rishi Sunak intervista Elon Musk", ma questa è un vero e proprio scambio di opinioni tra due persone che in un modo o nell'altro hanno un peso importnte nelle sorti del mondo.

Personalmente, sono davvero sbalordito dal livello di conoscenza del tema di Sunak. Classe 1980, con un background in economia e filosofia, è diventa primo ministro del Regno Unito a ottobre 2022.

Non mi sono messo a guardare i comizi elettorali di Sunak: non volevo sporcare con preconcetti la visione del video. Musk è come al solito ponderato nelle risposte, ma sono davvero impressionato dalla capacità del primo ministro di fare belle domande ed ascoltare.

Riassunto di quello che si sono detti:

(Questo testo è stato generato dal mio secondo GPT personalizzato, perdona il fatto che è ancora un po' legnoso):

Elon Musk ha espresso preoccupazioni sull'avanzamento non regolamentato dell'IA, sottolineando i rischi potenziali da tempo. Ha riconosciuto significativi progressi nell'IA, come la tecnologia deepfake e lo sviluppo di modelli avanzati come GPT-3 e GPT-4. Musk enfatizza l'importanza della sicurezza dell'IA e loda l'organizzazione di una conferenza sulla sicurezza dell'IA, che ritiene sarà storicamente significativa.

Rishi Sunak discute il ruolo dei governi nella regolamentazione dell'IA, suggerendo che dovrebbero condurre test di sicurezza sui modelli di IA prima che vengano rilasciati al pubblico. Musk concorda, notando che il coinvolgimento del governo è cruciale quando è in gioco la sicurezza pubblica, e paragona il ruolo del governo a quello di un arbitro che assicura il gioco leale e la sicurezza. Dice che in ogni gioco ci sono regole e qualcuno che si assicura che essere vengano rispettate.

Entrambi toccano il ritmo rapido dello sviluppo dell'IA, che è senza precedenti nella storia. Musk sottolinea che l'IA sta avanzando molto più velocemente di quanto i governi siano abituati a gestire, ma anche se i governi non possono far rispettare le regolamentazioni, sensibilizzare il pubblico sulla sicurezza dell'IA è vantaggioso.

La conversazione si sposta poi sull'impatto potenziale dell'IA sui lavori. Musk prevede che l'IA porterà eventualmente a un futuro in cui nessun lavoro è necessario, e tutti avranno accesso a un "genio magico" che può esaudire ogni desiderio. Questo porterà a un'era di abbondanza, ma solleva anche la questione di come le persone troveranno significato nella vita quando l'IA sarà in grado di fare tutto.

Infine, discutono dell'impatto dell'IA sui mercati del lavoro. Musk ritiene che l'IA porterà alla creazione di lavori e alla trasformazione di altri, ma sottolinea che la transizione potrebbe essere difficile per alcuni. Sunak parla dell'importanza di un sistema educativo eccellente per preparare le persone a tenere il passo con il cambiamento tecnologico.

In conclusione, la conversazione tra Musk e Sunak evidenzia la necessità di un approccio equilibrato all'IA, che consideri sia i benefici potenziali sia i rischi, e il ruolo cruciale dei governi nel garantire che lo sviluppo dell'IA sia sicuro e benefico per la società nel suo complesso.

Il dialogo si concentra sullo sviluppo e l'impatto dell'intelligenza artificiale, sottolineando l'importanza di nutrire le startup e riconoscendo Londra e San Francisco come centri nevralgici dell'AI. Viene evidenziata la necessità di un'infrastruttura e di un ecosistema di supporto per le nuove aziende. Il Regno Unito è lodato per i suoi sforzi nel creare un ambiente favorevole per le aziende innovative, con particolare attenzione all'accesso al capitale, all'acquisizione di talenti, alle riforme educative con enfasi sulla matematica e a un regime di visti accogliente per gli imprenditori internazionali.

La discussione tocca anche i quadri normativi che incoraggiano l'innovazione garantendo al contempo la sicurezza, il cambiamento culturale verso l'accettazione del fallimento come parte del processo imprenditoriale e l'importanza di non penalizzare le persone per i tentativi di startup non riusciti. Si passa poi agli impatti quotidiani dell'AI, come il miglioramento del servizio clienti e l'educazione personalizzata, affrontando anche i rischi associati all'AI, come gli attacchi di phishing sofisticati e la manipolazione delle informazioni sui social media.

I relatori propongono soluzioni come l'introduzione di una tariffa nominale per l'uso delle piattaforme social per scoraggiare la proliferazione di bot alimentati dall'AI e sottolineano la necessità di interruttori fisici off nei robot per garantire la sicurezza. La discussione si conclude con l'idea di firmare digitalmente i media per stabilire la fiducia e verificare l'autenticità, evidenziando l'urgenza di affrontare queste questioni alla luce delle prossime elezioni globali. Il tono complessivo è cautamente ottimista sul potenziale dell'AI di livellare il campo di gioco e aumentare la felicità umana se gestito in modo responsabile

La Gragnuola di Novità

Focalizziamoci su quattro temi. La situazione generale dei Chip, Microsoft, DeepMind e qualcosa di random.

Midjourney

Siena AI raccoglie 4,7 milioni di dollari per sviluppare un agente AI empatico per l'assistenza clienti. Potrebbe essere la chiave per differenziarsi.


Apple Pay sta dando un contributo significativo ai ricavi gigante tecnologico, questo secondo quanto affermato dai dirigenti Apple durante l'ultima telefonata di presentazione degli utili dell'azienda.


NVIDIA, i cui chip H100 sono alla base di molti dei più grandi modelli di IA di oggi (compreso GPT-4), ha appena annunciato il suo nuovo chip H200 - e si tratta di un enorme salto di prestazioni.


Microsoft ha presentato i propri chip: Azure Maia 100 e Cobalt 100, progettati per alimentare i data center Azure a partire dal 2024. Microsoft si porta a casa un altro risultato eccellente nel segmento business.

Mi aspetto che altre aziende presentino i propri chip per contrastare gli effetti del monopolio di NVIDIA.

Tra queste non vedremo probabilmente la cinese Tencent che ha accumulato chip Nvidia AI per "un paio di generazioni". L'azienda ha dissipato i timori che i controlli sulle esportazioni statunitensi abbiano un impatto sullo sviluppo dell'intelligenza artificiale, accumulando una riserva significativa di acceleratori H800 di Nvidia Corp. Secondo il presidente Martin Lau, queste risorse sono sufficienti per far progredire il modello di IA Hunyuan di Tencent per diverse altre iterazioni, come dichiarato in una conferenza stampa.


Sempre da Microsoft l'annuncio che il nuovo Teams unirà Microsoft To Do, Planner e Project. Guardati la presentazione di Nadella al Microsoft Ignite 2023


Mentre il mondo si scatena sulla AI generative dando Google per spacciata... Ecco una notizia che non mi sarei aspettato: l'intelligenza artificiale di Google DeepMind realizza previsioni meteorologiche a 10 giorni super accurate. Le previsioni metereologiche sono sempre state considerate il pinnacolo della scienza predittiva.

Oltre a questo: sempre DeepMind, in collaborazione con YouTube, presenta Lyria consentendo ai creatori di generare colonne sonore uniche e assistendo nella scrittura e nella produzione di canzoni (link).

Google postpone l'uscita di Gemini, che dovrebbe essere il vero rivale ChatGPT-4. La cuasa sembra essere tanto tecnica, quanto di revenues dovute ai loro servizi in cloud.


Abbiamo parlato di Microsoft, abbiamo parlato di Google... ma di Dell che pure ha una buona presenza nel segmento delle infrastrutture non ne parliamo mai? Lo faccio adesso. Dell e Hugging Face collaborano per semplificare l'implementazione e l'integrazione dell'IA generative nelle aziende. L'alleanza sta creand un portale Dell su misura su Hugging Face, facilitando l'implementazione di modelli di IA sull'infrastruttura Dell.


E anche questa edizione siamo a 2570 parole!

Un Abrazo,

Manolo