Contattaci
Search Icon

Suggested region and language based on your location

    Your current region and language

    uomo d'affari parla con un dipendente di un progetto di sviluppo
    • Blog
      Digital Trust

    Sbloccare la fiducia nella AI

    Il sondaggio "Trust in AI" di BSI rivela gli atteggiamenti globali nei confronti dell'intelligenza artificiale in nove paesi, tra cui Australia, Cina, Regno Unito e Stati Uniti.

    Il recente sondaggio "Trust in AI" condotto da BSI su oltre 10.000 adulti provenienti da nove paesi (tra cui Australia, Cina, Regno Unito e Stati Uniti) fa luce sull'atteggiamento attuale nei confronti dell'intelligenza artificiale (AI).

    L'intelligenza artificiale non è più un concetto fantascientifico ma sta diventando una realtà quotidiana con il potenziale di trasformare il nostro mondo e di rappresentare una forza positiva per l'intera società. Per prosperare davvero, le persone devono tuttavia avere fiducia nella AI.

    L'indagine di BSI esplora le opportunità che l'intelligenza artificiale offre per plasmare un futuro migliore e accelerare il progresso verso un mondo sostenibile. Analizziamo alcuni risultati del sondaggio:

    Come vorresti che l'intelligenza artificiale plasmasse il nostro futuro da qui al 2030?

    Secondo il 79% degli intervistati, l'AI contribuirà a ridurre le emissioni di carbonio, anche se permane lo scetticismo.

    L'AI è destinata a diventare uno strumento fondamentale per le aziende, per determinare in modo efficiente l'impronta di carbonio dei prodotti tramite la rapida misurazione e analisi delle emissioni di gas serra. Tuttavia, per poterne raccogliere i benefici ambientali, è necessario che l'opinione pubblica sia convinta della reale efficacia di questa tecnologia.

    L'indagine di BSI ha chiesto ai partecipanti di valutare il livello di fiducia necessario per l'utilizzo della AI in diversi settori cruciali. Secondo i risultati, mentre il 74% ha indicato "la necessità di avere fiducia" nella AI per la diagnosi e le terapie mediche, il 75% ha espresso la medesima opinione per la produzione alimentare, in attività come l'ordinazione e la categorizzazione degli alimenti in base alle date di scadenza.

    Il risultato è stato replicato in tutti i settori, con una percentuale di consumatori tra il 72% e il 79% che ritiene la fiducia necessaria per un uso efficace della AI in ogni categoria, che si tratti di sicurezza informatica, edilizia o transazioni finanziarie.

    Il 38% afferma di utilizzare quotidianamente una qualche forma di AI nel proprio lavoro, mentre alcuni Paesi sono già più avanti. Se la Cina (70%) e l'India (64%) sono leader nell'uso quotidiano della AI, gli intervistati in Australia (23%) e nel Regno Unito (29%) sono gli utenti minori. Negli Stati Uniti, il 37% afferma di utilizzare attualmente l'AI sul lavoro, rispetto al 46% che afferma il contrario, mentre circa il 17% è insicuro. Tra chi attualmente non utilizza l'AI sul lavoro, quasi la metà non è sicura se verrà adottata entro il 2030.

    A livello delle organizzazioni esiste incertezza riguardo all'adozione della AI, in particolare nell'ambito delle politiche sulla sicurezza informatica e sui rischi digitali. Per alcune organizzazioni l'intelligenza artificiale potrebbe essere relativamente nuova e pertanto è stato deciso di vietarne l'uso nei sistemi aziendali per mitigare le minacce percepite. In alcuni casi, i dipendenti hanno trovato il modo di aggirare questi controlli utilizzando i computer di casa per completare il lavoro.

    È fondamentale fornire una formazione che aiuti a comprendere come utilizzare l'AI sul lavoro, anche se i dati suggeriscono come al momento non sia una cosa diffusa. Il 55% degli intervistati concorda utilmente sulla necessità di formare i giovani su come lavorare in un mondo basato sulla AI.

    Il 61% vorrebbe delle linee guida internazionali per consentire l'uso sicuro della AI, ritenute necessarie per un utilizzo sicuro e responsabile che accresca ulteriormente la fiducia e la consapevolezza in questa tecnologia. Un ruolo a tal proposito lo giocano gli standard internazionali, come il prossimo standard sulla governance della AI (ISO 42001) e le normative.

    Anche i governi e gli enti di regolamentazione stanno iniziando ad affrontare la questione. Il presidente Biden, ad esempio, ha recentemente emesso l' Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence, che delinea l'approccio del governo degli Stati Uniti per "governare lo sviluppo e l'uso dell'intelligenza artificiale in modo sicuro e responsabile".

    Analogamente, l'obiettivo dell'Artificial Intelligence Act della UE è quello di fornire un "framework giuridico che miri a rafforzare significativamente la regolamentazione sullo sviluppo e l'utilizzo dell'intelligenza artificiale". Altre nazioni hanno seguito l'esempio, come dimostrato dall'AI Safety Summit 2023.

    L'attuale mancanza di comprensione e la scarsa fiducia nella AI rappresentano un ostacolo importante, limitandone potenzialmente l'adozione e i benefici. Per creare fiducia nella tecnologia, le organizzazioni possono stabilire delle linee guida che disciplinino l'uso etico dell'intelligenza artificiale (leggere Ethical considerations of AI in healthcare di Shusma Balaji, Data Scientist, BSI.)

    Abbiamo già visto le insidie delle precedenti rivoluzioni tecnologiche che hanno trascurato la fiducia del pubblico, come il boom delle dot-com e l'ascesa dei social media. Con l'avvento dell'era dell'intelligenza artificiale, è fondamentale dotare le persone degli strumenti e delle conoscenze adeguati per realizzarne il potenziale ed evitare al contempo gli errori del passato.

    Questo articolo è stato originariamente pubblicato da Forbes con il titolo: "How To Unlock Trust In AI: Key Insights From BSI's 'Trust In AI' Poll" il 15 dicembre del 2023. Mark Brown e i colleghi di Digital Trust hanno presentato al SASIG "The Future of AI: Friend or Foe?" il 13 febbraio 2024.