L'AI promette di rivoluzionare il mondo del lavoro, far crescere la nostra produttività come mai prima nella storia. Ma quale potrebbe essere la competitività dell'Europa in questa corsa all'innovazione se ci limitassimo a costruire il nostro futuro usando porti, autostrade, aeroporti e infrastrutture di altri? Se la nostra produttività decidessimo di lasciarla nelle mani di terzi?
Gli investimenti privati negli Usa sull'intelligenza artificiale sono arrivati a 47,4 miliardi di dollari nel 2022, più del triplo di quanto ha investito la Cina (13,4 miliardi di dollari) indica l'AI Index 2023, pubblicato dallo Stanford Institute. Il rapporto avverte anche che la proporzione di aziende che usano l'AI è più che raddoppiata rispetto al 2017 e sta andando verso il 60 per cento, a livello mondiale. E' con questa realtà che dobbiamo confrontarci.
Non può esistere un' Europa che compete senza una AI Europea, basata sulle nostre regole, la nostra etica e i nostri principi. Un' AI sotto il nostro controllo, disponibile a tutte le imprese europee che vorranno costruire il futuro su questa infrastruttura. Eppure oltre il 73 per cento dei grandi modelli linguistici (Large Language Model) che hanno consentito l'exploit dell'AI Generativa sono di origine americana. Dopo le promesse iniziali, gli entusiasmi eccessivi, la curiosità che ha portato 100 milioni di utenti in pochi mesi a provare Chat-GPT, ora è arrivato il momento delle critiche e delle riflessioni.
L'AI Generativa fa paura. Persino ai suoi stessi creatori. Clamoroso il caso di Geoffrey Hinton, uno dei padri del machine-learning e guru dell'AI di Google, che ha dato le dimissioni "per poter meglio parlare dei pericoli a cui andiamo incontro". Migliaia di ricercatori, tra cui grandi personalità come Steve Wozniak e Joshua Bengio, preoccupati dalla velocità a cui avanza l'AI Generativa, hanno lanciato a fine marzo un appello con il Future of Life Institute, per chiedere una pausa di riflessione, spiegando che "I sistemi di AI dotati di un'intelligenza concorrenziale con quella umana rappresentano dei rischi profondi per la società e l'umanità". Un appello che ha fatto breccia, al punto che la Casa Bianca ha dato il via a una serie di consultazioni con le BigTech per discutere dei pericoli per la democrazia, le conseguenze economiche e l'impatto sul lavoro.
E' diventato evidente che occorrono regole per inquadrare lo sviluppo di un'intelligenza artificiale sempre più potente, ancora poco affidabile, che minaccia di far dilagare la disinformazione, creare discriminazioni, provocare forti conflitti sociali. Ora tutti le chiedono le regole. Persino OpenAI e Google, che hanno creato per prime i due modelli concorrenti, Chat-GPT e Bard. Sam Altman, Ceo di OpenAI, davanti al Congresso americano ha riconosciuto la necessità di regolare l'uso dell'AI Generativa, ha quasi invocato la creazione di standard di sicurezza. Sundar Pichai gli ha fatto eco a fine maggio sul Financial Times dicendo: "l'AI è una tecnologia che sta diventando troppo importante, non solo per l'industria, per l'intera umanità, e occorre regolamentarla bene". Pichai ha invitato anche ad una cooperazione internazionale tra Stati Uniti ed Europa, per dar vita a un quadro di riferimento solido per un AI Responsabile.
In realtà la posizione di questi leader sembra piuttosto quella di chi ha lanciato il sasso e poi nasconde la mano, passando la palla ai governi. Il capo di Alphabet ha considerato finora l'Europa come un mercato, sul quale ha impedito ad oggi il rilascio di Bard e degli altri prodotti basati sulla sua AI Generativa (rilasciati in 180 paesi nel mondo) proprio perchè teme le regole che l'Europa sta imponendo. E in attesa dell'AI Act, che sarà votato a metà giugno, anche Sam Altman mette già le mani avanti, temendo sia troppo restrittivo: "Se potremo rendere conforme la nostra tecnologia lo faremo – ha dichiarato - altrimenti dovremo cessare l'attività sul continente europeo".
L'Europa ha già dimostrato, a partire dal 2018 e dal GDPR di essere all'avanguardia in termini di regolamentazioni e di protezione dei cittadini. E le Big Tech, quando non si sono adeguate, hanno ricevuto pesanti multe. Ma la regolamentazione non basterà a proteggerci dal rischio di perdita di sovranità tecnologica e di competitività delle nostre aziende di fronte all'impatto dirompente di questi grandi modelli di AI Generativa.
Perchè in Europa non ci sono iniziative di successo delle dimensioni di ChatGPT? Eppure di eccellenze ne abbiamo: scienziati di altissimo livello, aziende straordinarie, decine di start-up arrivate ad essere delle licorne e tutto sommato anche risorse economiche. Perché non provare a competere in questa corsa all'AI, perché non provare ad esportare in tutto il mondo la nostra visione dell'AI e del futuro? Quando parlo di visione dell'AI è quella human-centered, di beneficio, e non di danno o di concorrenza per gli esseri umani, che è promossa dalla Commissione Europea, che ho adottato da sempre creando iniziative, come l'Institut-EuropIA, la Maison de l'intelligence artificielle à Sophia Antipolis e il World AI Cannes Festival (Waicf), sulla Costa Azzurra in Francia, e che cerco di continuare a promuovere, partecipando sempre a momenti di incontro e confronto, come quello proposto da AIXA - Artificial Intelligence Expo of Applications, organizzato da Business International, la knowledge unit di Fiera Milano, e previsto il prossimo 8 e 9 novembre 2023 all'Allianz MiCo di Milano.
Dobbiamo agire perché l'AI non finisca per diventare De-generativa. Senza nasconderci i rischi, ma tenendo ben presenti gli obiettivi e i benefici per settori come la Sanità, la Sicurezza, l'Educazione, l'Industria, il Turismo.
Perchè allora non ci siamo ancora dotati di grandi modelli di linguaggio di tipo LLM? Non è solo una questione di investimenti, perchè è vero che il costo di questi modelli destinati all'AI Generativa è molto alto. Credo che sia perchè manca la capacità di fare sistema e condividere anche le grandi risorse di calcolo, che pertanto abbiamo. Ogni paese persegue la sua strategia. La Francia ha creato i suoi quattro poli specializzati di ricerca sull'AI, finanziati da un piano nazionale e dedicati a settori diversi. La Germania ha l'iniziativa LEAM (Large European AI Models), promossa dall'Associazione tedesca per l'intelligenza artificiale, che ha posto la necessità di creare un'infrastruttura di super calcolo adeguata allo sviluppo degli LLM. Costo stimato tra i 350 e 400 milioni di euro.
E l'Italia? "Potremmo presto trovarci a vivere una crisi tecnologica ben più grave dell'attuale crisi energetica" avverte Emanuela Girardi, che fa parte del board direttivo dell'AixIA (l'Associazione italiana per l'intelligenza artificale). "Serve un'iniziativa forte, coraggiosa e ambiziosa di tutti i paesi europei per un'AI responsabile, etica e sostenibile e per tornare a partecipare da concorrenti, non da semplici spettatori, alla corsa dell'intelligenza artificiale". Non dimentichiamo che l'Europa si è costruita in passato su grandi progetti comuni: CECA, GSM, Airbus. Deve confidare di più sulla propria innovazione e non limitarsi a "regolamentare".
Occorre lanciare un grande piano europeo per le tecnologie del futuro. Un New Génération EU Plan per lo sviluppo di progetti di AI e tutto cio' che li supporta: Cloud computing, Quantum computing, IOT, semi-conductors. Anche l'Italia ha un grande ruolo da giocare, un'opportunità per il Governo di Giorgia Meloni di mostrare il reale cambiamento, puntare sulla nostra gioventù, assicurarne il futuro. Potrebbe destinare una parte più considerevole dei finanziamenti del PNRR per lanciare un grande Piano Italiano per l’Intelligenza Artificiale: mobilitare start-up, centri di ricerca, grandi imprese, università per creare modelli di IA che possano competere con quanto viene dall’altra parte dell’Oceano. QuestIT, una delle aziende leader nel settore, è pronta a prendere la leadership di questo piano: abbiamo la tecnologia e l'esperienza. QuestIT già ha aperto la strada degli assistenti intelligenti, usati oggi da oltre un centinaio di imprese e pubbliche amministrazioni in tutt'Italia. E ha sviluppato anche il Lis, l'unico assistente virtuale al mondo che parla la lingua dei segni. L'AI Generativa puo' assicurare un grandissimo salto di qualità per gli assistenti intelligenti e favorire in molti campi una più facile interazione uomo-macchina. Non perdiamo quest'occasione!
L'uso dell'intelligenza artificiale (AI) pone sfide significative alla tutela dei diritti di proprietà intellettuale e industriale. Lo sviluppo di sistemi di intelligenza artificiale in grado di generare opere o invenzioni originali solleva interrogativi riguardanti la proprietà e la protezione di tali creazioni. Il quadro giuridico tradizionale per la proprietà intellettuale potrebbe non essere sufficiente per affrontare le problematiche uniche presentate dall’intelligenza artificiale, portando a incertezza e potenziali conflitti in questo settore. Pertanto, è fondamentale esplorare possibili soluzioni per proteggere i diritti di proprietà intellettuale e industriale nell’era dell’intelligenza artificiale.
Un tema, questo, di cui come Ontier, discuteremo anche sul palco di AIXA – Artificial Intelligence Expo of Application – la manifestazione organizzata da Business International – Fiera Milano il prossimo 8 e 9 novembre 2023 all’Allianz MiCo di Milano – e che abbiamo cercato di approfondire anche in questo articolo.
Da un lato, infatti, l’intelligenza artificiale può aiutare i creatori a proteggere la propria proprietà intellettuale attraverso strumenti come il rilevamento delle violazioni del diritto d’autore e dei marchi basato sull’apprendimento automatico. Questi strumenti possono scansionare grandi quantità di dati e identificare l'uso non autorizzato di materiali o marchi protetti da copyright. Tuttavia, l’intelligenza artificiale può anche facilitare la creazione di prodotti contraffatti che violano i diritti di proprietà intellettuale. Ad esempio, l’intelligenza artificiale può essere utilizzata per creare design o loghi di prodotti falsi che somigliano molto alla proprietà intellettuale di altri. Allo stesso modo, l’intelligenza artificiale può avere un impatto sui diritti di proprietà industriale, che proteggono tecnologie e processi innovativi. Le innovazioni basate sull’intelligenza artificiale stanno rapidamente emergendo in settori come la produzione, i trasporti e l’assistenza sanitaria. In questo senso, da un lato, l’intelligenza artificiale può aiutare le aziende a proteggere la propria proprietà industriale generando e depositando automaticamente domande di brevetto per invenzioni. L’intelligenza artificiale può anche aiutare a rilevare potenziali violazioni di brevetti e altri diritti di proprietà industriale. Tuttavia, l’intelligenza artificiale può anche rappresentare una minaccia per i diritti di proprietà industriale, rendendo più semplice per le aziende replicare e decodificare i prodotti. L’intelligenza artificiale può analizzare e riprodurre rapidamente la progettazione o il processo di un prodotto, portando potenzialmente alla violazione della proprietà intellettuale.
Una possibile soluzione per proteggere i diritti di proprietà intellettuale e industriale nel contesto dell’IA è garantire che i dati e gli algoritmi siano accessibili. Questo approccio consentirebbe l’identificazione del creatore o inventore originale di un’opera o invenzione generata da un sistema di intelligenza artificiale, consentendo la corretta attribuzione e protezione dei diritti di proprietà intellettuale. Inoltre, potrebbe essere necessario istituire nuovi quadri giuridici specificamente adattati per affrontare le sfide presentate dall’intelligenza artificiale. Tali quadri potrebbero fornire chiarezza e orientamenti su questioni quali la proprietà, la concessione di licenze e la violazione nel contesto delle opere e delle invenzioni generate dall’intelligenza artificiale.
Nonostante le sfide poste dall’intelligenza artificiale, vi sono anche potenziali vantaggi da ottenere nel campo della proprietà intellettuale e industriale. Ad esempio, i sistemi di intelligenza artificiale possono contribuire a migliorare l’efficienza e l’accuratezza delle ricerche e delle analisi sulla proprietà intellettuale. Inoltre, l’intelligenza artificiale può favorire lo sviluppo di nuove invenzioni e innovazioni, portando potenzialmente a un aumento della produttività e della crescita economica. Pertanto, è importante trovare un equilibrio tra la tutela dei diritti di proprietà intellettuale e industriale e lo sfruttamento dei vantaggi dell’intelligenza artificiale per promuovere l’innovazione e il progresso in questi campi. Nel complesso, infatti, l’intelligenza artificiale ha il potenziale sia di rafforzare che di minacciare i diritti di proprietà intellettuale e industriale e poiché l’intelligenza artificiale continua ad avanzare, è importante che i creatori e le aziende siano consapevoli di queste implicazioni e adottino misure per proteggere la loro proprietà intellettuale e industriale. Ciò potrebbe includere l’uso di strumenti di intelligenza artificiale per rafforzare gli sforzi di protezione e rilevamento o esplorare opzioni legali per la violazione di brevetti e marchi.
In vista della prossima edizione di SMXL Milan, che si terrà presso l’Allianz MiCo di Milano il prossimo 8 e 9 novembre 2023, vogliamo cercare di comprendere meglio un mercato che sta letteralmente rivoluzionando il mondo del #digitalmarketing, della creazione di contenuti e dell’esperienza utente ad essi legata, ovvero quello degli agenti artificiali autonomi.
Il mercato di questi nuovi “tool” guidati dall’#AI generativa di nuova generazione o #AutoGPT, nel 2022, ha raggiunto un valore di 3.93 miliardi di dollari e gli analisti si aspettano che entro il 2030 superi il tetto dei 51.2 miliardi di dollari con una crescita composita annua del 40.7%.
Dati che fanno capire immediatamente il valore di questa innovazione che abbiamo cercato di comprendere meglio in questa nuova puntata di "One Question", insieme ad Andrea Volpini, Co-founder and CEO di WordLift.
Stiamo entrando nell’era dell’ipertrasformazione: una trasformazione in cui la cross-fertilization e l’accelerazione la fanno da padrone.
Oggigiorno viviamo in un’epoca straordinaria nella quale l’accelerazione proposta unisce insieme digital transformation, life sciences, space economy e decarbonizzazione con un unico obiettivo: generare innovazione, crescita e sviluppo sostenibile sia a livello industriale, sia a livello sociale.
Questa cross-fertilization guiderà il mondo che conosciamo oggi verso una metamorfosi globale. In questo contesto, ancor più della trasformazione e della rivoluzione industriale in atto, sarà fondamentale mettere in campo velocità e agilità di esecuzione.
Come mostreremo anche nel corso della nostra partecipazione come Sia Partners all’edizione 2023 di AIXA – Artificial Intelligence Expo of Applications (8-9.11 | Allianz MiCo di Milano), l’AI Generativa sarà l’abilitatore cruciale di questa ipertrasformazione, producendo impatti significativi per il business. La tecnologia generativa e i relativi software di intelligenza artificiale, infatti, hanno il potenziale per rivoluzionare funzioni industriali essenziali come il marketing, il sales, il risk management, l’individuazione di frodi, anche sotto il profilo della cybersecurity, il servizio clienti e le strategie finanziarie e innovative nei confronti degli investimenti economici per il futuro delle imprese.
L’AI Generativa porterà la disruption su scala aziendale a livello globale. Per affrontare le sfide dei prossimi mesi e anni, le aziende devono adottare un approccio pragmatico che le aiuti a far leva sul potenziale della Generative AI, implementando le regole d’oro per un’integrazione di successo nei loro modelli operativi.
Per raggiungere l’obiettivo di adottare un approccio pragmatico di successo nel creare applicazioni di AI generativa, le aziende devono strutturare al proprio interno dei prerequisiti organizzativi relativi ai propri modelli operativi, compresa la gestione dei dati. Inoltre, strutture dedicate, che possano operare con alti livelli di autonomia, hanno bisogno di essere creati per rivoluzionare i processi aziendali già esistenti, per sfruttare l’ampio ventaglio di attività che l’AI generativa può portare con sé e per realizzare accordi di partnership che producano valore aggiunto anche sul lungo periodo.
Ancor prima del rapido avanzamento e dell’adozione di queste evoluzioni legate ad AI e tecnologia, quindi, i leader di aziende, istituzioni e università devono prendersi la responsabilità e porre la propria attenzione sui possibili rischi riguardanti sicurezza, etica e trasparenza. Il vero problema riguardante la privacy dei dati, la proprietà intellettuale, la compliance regolatoria e i “deep fakes” dovrebbero essere i principali temi su cui i leader devono e dovranno concentrare la propria attenzione ora e nei prossimi anni.
Da gennaio 2024 dovrebbe entrare in vigore l’AI Act, ovvero la norma europea che regolamenterà l’utilizzo dell’intelligenza artificiale sotto molteplici punti di vista nei differenti stati membri della UE.
Quali saranno, però, gli impatti di questo piano regolatore e come l’Europa sta cercando di governare l’adozione e l’utilizzo dell'intelligenza artificiale nel mondo del business?
Per rispondere a queste domande, abbiamo voluto analizzare le prospettive di questa iniziativa legislativa insieme a Guido Lobrano, Direttore Generale per l’Europa di ITI - The Information Technology Industry Council.
Scopriamo insieme il punto di vista del manager, in questa nuova puntata di #OneQuestion, realizzata in vista della prossima edizione di AIXA – Artificial Intelligence Expo of Applications (8-9.11 | Allianz MiCo di Milano).
I servizi di intelligenza artificiale (AI) stanno diventando sempre più importanti per le aziende di tutte le dimensioni. Questi servizi possono aiutare le imprese a migliorare l'efficienza, prendere decisioni migliori e creare nuovi prodotti e servizi. In questo contesto le principali aziende informatiche, come Microsoft, Google e AWS, stanno competendo per definire gli standard per i servizi AI. Queste aziende stanno investendo in ricerca e sviluppo per potenziare nuove tecnologie AI e stanno collaborando con altre aziende partner per promuovere l'adozione di questi servizi. La standardizzazione dei servizi AI è un processo importante perché garantisce che questi servizi siano accessibili e utilizzabili da un'ampia gamma di aziende. Tuttavia, non è sufficiente per garantire il successo dell'intelligenza artificiale in complesse realtà industriali. La standardizzazione non considera, infatti, questi due aspetti chiave:
Conclusione
Per sviluppare al meglio questi due aspetti, società di consulenza specializzate come Abstract S.r.l. forniscono tuttora un contributo fondamentale. Infatti, sono necessarie competenze specifiche e solida esperienza per aiutare le aziende a integrare l'intelligenza artificiale nei propri processi e a personalizzare le soluzioni in base alle proprie esigenze specifiche. Per questo, durante la prossima edizione di AIXA – Artificial Intelligence Expo of Applications (8-9.11 | Allianz MiCo), cercheremo di mostrare a chiunque sia interessato come è possibile mettere in campo queste skills e queste soluzioni innovative in maniera strutturata, semplice ed efficace.