(Adnkronos) – Una persona su due vorrebbe più informazioni sul gioco responsabile: è quanto emerge nel webinar organizzato dalla Fondazione per l’Ascolto, l’Innovazione e la Ricerca sul gioco Responsabile (FAIR) nell’ambito dell’European Safer Gambling Week 20 novembre 2024. L’Europa e l’Italia impegnate per tutelare l’utente nel momento storico che vive la rivoluzione epocale dell’intelligenza artificiale, con risorse, tempo, ricerca per favorire il gioco responsabile. Sono i temi emersi nel webinar organizzato da Fondazione per l’Ascolto, l’Innovazione e la Ricerca sul Gioco Responsabile (FAIR) dal titolo “AI Act e Gioco Responsabile: Regolamentazione e Innovazione per la Tutela dei Giocatori”, nell’ambito dell’European Safer Gambling Week 2024. Il provvedimento della comunità europea al centro del focus realizzato dai relatori grazie alla conduzione di Daniele Chieffi, giornalista e docente, partner fondatore di Bi Wise, Ceo di The Magician, co-founder di Ailyn. Nella sua introduzione, Chieffi mette in luce il ruolo della Fondazione Fair, “l’unica in Italia che sceglie di promuovere una ricerca scientifica centrale nella strutturazione di un concetto di gioco responsabile”, mettendosi “dalla parte delle persone, degli utenti, per far sì che l’esperienza di gioco sia responsabile e giusta da tutti i punti di vista”.
Emanuela Girardi, founder di Pop AI e Chairman di ADRA, AI, Data and Robotics Association, ricorda che “l’AI Act, che è stato proposto e pubblicato nell’aprile 2021, è stata la prima regolamentazione al mondo sull’uso dei sistemi di intelligenza artificiale. In Europa siamo stati molto innovativi su questa materia molto complessa da regolamentare”, e sottolinea, per quanto riguarda le applicazioni dell’EU AI Act al Gioco Responsabile: “I sistemi di intelligenza artificiale possono essere utilizzati per analizzare il comportamento dei giocatori, identificare e prevenire in modo precoce delle possibili situazioni di gioco problematico ed intervenire in modo personalizzato per offrire delle soluzioni su misura, migliorando l’esperienza di gioco. Per questi sistemi sarà necessaria una valutazione di conformità e una certificazione prima che vengano immessi sul mercato europeo, un insieme di regole e requisiti che le aziende sviluppatrici sistemi di intelligenza artificiale considerate ad alto rischio devono seguire. Si tratta di regole e requisiti abbastanza stringenti e per questo si può affermare che l’AI Act potrà avere un impatto anche sullo sviluppo dell’innovazione.”
Marina Lanfranconi, principal intellectual property e media law di Kpmg, porta uno sguardo prettamente legale alle norme che limitano, e indirizzano, l’utilizzo dell’intelligenza artificiale nelle comunicazioni del gioco responsabile. Tra i principi più importanti dell’AI Act, richiamati anche nel disegno di legge del governo italiano, vi è la trasparenza, perché “l’utente deve essere informato che immagini, contenuti, audio e video che assomigliano notevolmente alla realtà sono invece contenuti realizzati con l’ausilio di una intelligenza artificiale”. Si tratta, spiega, di un “obbligo di rendere noto in modo chiaro e distinto che il contenuto è originato da una intelligenza artificiale, rendendo gli utenti consapevoli con un sistema di AI mentre oggetti, luoghi, immagini potrebbero apparire autentici.”
Stefania Siani, Ceo and Chief Creative Officer at Serviceplan Italy, membro del Consiglio Direttivo della Fondazione Fair, concentra l’attenzione sui giocatori, sugli utenti, sulle loro aspettative verso la comunicazione del gioco responsabile. “Con la Fondazione abbiamo promosso una ricerca specifica sul percepito del gioco responsabile che ci ha riportato dati molto interessanti: il primo è che un intervistato su 2 desidera ricevere più informazioni sul gioco responsabile, che ancora conosce poco. Il secondo è che il 51% del campione ritiene che le testimonianze di familiari e amici di chi ha vissuto situazioni di gioco problematico siano fondamentali perché spesso sono le persone vicine a riconoscere i segnali di allerta prima di chi gioca. Dare voce alle loro testimonianze, anche nella comunicazione, è per questo fondamentale. Il terzo punto è che le persone si aspettano che la comunicazione non sia giudicante, minacciosa, ma offra uno spazio in cui apprendere in maniera positiva cosa si può fare per cambiare in meglio. Ci si aspetta un’azione di concerto, di sistema, in cui oltre al giocatore hanno un ruolo il concessionario, il legislatore, l’opinione pubblica. Le persone chiedono la concretezza, e di conoscere quali sono gli strumenti di protezione dei giocatori a disposizione.” A questo link, il video integrale del webinar:
—immediapresswebinfo@adnkronos.com (Web Info)
Gioco responsabile e intelligenza artificiale, fronte unico per la tutela dell’utente
© Riproduzione riservata