16 Dicembre 2024 - 07:02

Il riordino del gioco pubblico e il ruolo dell’IA: come sviluppare un approccio metodico ed evitare errori

L’articolo 14 del decreto legislativo n. 41 del 25 marzo 2024 introduce il tema dell’adozione di sistemi di Intelligenza Artificiale: “Obiettivo primario della disciplina dei giochi pubblici ammessi in Italia

09 Dicembre 2024

L’articolo 14 del decreto legislativo n. 41 del 25 marzo 2024 introduce il tema dell’adozione di sistemi di Intelligenza Artificiale: “Obiettivo primario della disciplina dei giochi pubblici ammessi in Italia è quello di perseguire piena e affidabile protezione della salute del giocatore attraverso misure idonee a prevenire ogni modalità di gioco che possa generare disturbi patologici del comportamento o forme di gioco d’azzardo patologico. Per perseguire effettivamente i suddetti criteri generali l’offerta di gioco e le relative modalità di svolgimento dovranno essere supportate da idonei strumenti di tecnologia avanzata, con particolare riguardo anche agli strumenti dell’intelligenza artificiale”.

L’adozione di sistemi di intelligenza artificiale (IA) per la prevenzione del Disturbo da Gioco d’Azzardo (DGA) rappresenta una delle sfide più delicate nell’ambito della sostenibilità sociale dell’industria del gioco. Sebbene queste tecnologie promettano un monitoraggio più efficace e una personalizzazione delle strategie di intervento, è essenziale adottare un approccio cauto e scientificamente solido per evitare errori che potrebbero danneggiare sia i giocatori che le aziende.

L’IA è vista come uno strumento potente per analizzare grandi quantità di dati, identificando schemi che potrebbero indicare un comportamento di gioco problematico. Tra i dati che possono essere oggetto di analisi rientrano, a titolo esemplificativo:

  • frequenza e durata delle sessioni di gioco.
  • importi spesi e depositati.
  • cambiamenti improvvisi nel comportamento del giocatore, come un aumento delle giocate o una riduzione del tempo trascorso tra le sessioni.

Basandosi su algoritmi di machine learning, l’IA può segnalare utenti a rischio e proporre interventi, come messaggi di avvertimento, limiti autoimposti o contatti diretti con servizi di supporto.

Nonostante il potenziale dell’IA, la sua applicazione nella prevenzione del DGA è tutt’altro che priva di rischi. Due errori principali possono compromettere l’efficacia del sistema:

  1. Falsi positivi: quando l’IA identifica erroneamente un giocatore come a rischio, possono verificarsi conseguenze negative come:
    • interruzioni non necessarie nell’esperienza di gioco.
    • stigmatizzazione ingiustificata del giocatore.
    • perdita di fiducia da parte degli utenti verso le piattaforme.
  2. Falsi negativi: quando un giocatore effettivamente a rischio non viene identificato, si perde l’opportunità di intervenire, con il rischio di gravi conseguenze personali ed economiche per il soggetto e la sua famiglia.

Un sistema mal progettato, quindi, non solo è inefficace, ma può causare danni significativi sia a livello individuale che reputazionale per le aziende che lo adottano.

Un parallelo interessante può essere tracciato con le innovazioni tecnologiche e accademiche degli anni ‘90, quando molte soluzioni furono implementate senza una comprensione completa delle loro implicazioni. Ad esempio, i primi sistemi di supporto decisionale in ambito sanitario, basati su algoritmi rudimentali, spesso fornivano raccomandazioni errate perché non consideravano la complessità delle variabili coinvolte.

Questa esperienza sottolinea l’importanza di test rigorosi, validazioni scientifiche e un’attenzione particolare al contesto umano e sociale in cui le tecnologie vengono applicate.

Inoltre, considerando il quadro normativo per l’intelligenza artificiale in Europa che emerge dal Regolamento (UE) 2024/1689 (pubblicato in Gazzetta Ufficiale il 12 luglio 2024) questa tipologia di applicazione dell’IA rientrerebbe tra quelle a rischio elevato (sistemi utilizzati in contesti critici come la sicurezza dei prodotti, il riconoscimento biometrico, le infrastrutture critiche, l’accesso ai servizi essenziali, l’educazione, il lavoro e la giustizia) dovendo rispettare requisiti stringenti per garantire sicurezza, affidabilità e trasparenza.

L’intelligenza artificiale offre opportunità promettenti per migliorare la prevenzione del Disturbo da Gioco d’Azzardo, ma è essenziale evitare un’adozione affrettata. La storia dimostra che innovazioni tecnologiche non sufficientemente studiate possono generare più problemi di quanti ne risolvano. Investire tempo e risorse in ricerca, test e collaborazione interdisciplinare è l’unico modo per garantire che l’IA sia un alleato efficace e responsabile nel promuovere un gioco più sostenibile e sicuro.


Lesson Learned

Per sviluppare un sistema di IA efficace e responsabile, è necessario adottare un approccio che comprenda:

  1. Raccolta di dati di alta qualità.
    I dati utilizzati per addestrare gli algoritmi devono essere rappresentativi e completi, includendo variabili contestuali come la condizione socioeconomica, i fattori psicologici e i comportamenti precedenti.
  2. Collaborazione interdisciplinare
    La progettazione del sistema deve coinvolgere esperti di diverse discipline, tra cui psicologia, sociologia, economia comportamentale e soprattutto di gioco.
  3. Validazione rigorosa
    Prima di essere implementati, gli algoritmi devono essere testati in contesti reali, con protocolli chiari per la gestione degli errori e un monitoraggio continuo delle prestazioni.
  4. Centralità dell’etica
    È fondamentale che i sistemi rispettino i diritti degli utenti, garantendo la privacy dei dati e fornendo trasparenza sulle modalità di funzionamento dell’IA. Gli interventi devono essere proporzionati, non invasivi e progettati per supportare il giocatore Questo garantisce una comprensione più profonda delle cause e delle dinamiche del DGA.senza penalizzarlo.
  5. Adattabilità e miglioramento continuo
    L’IA deve essere flessibile e in grado di aggiornarsi man mano che emergono nuovi dati e conoscenze sul comportamento umano e sul gioco d’azzardo.

 

Leggi anche:

La sostenibilità per le nuove concessioni di gioco online: novità normative e opportunità di sviluppo


 

Laura D’Angeli è consulente direzionale e fondatrice dello “Studio D’Angeli” con esperienza ventennale nel lancio di start up e nella pianificazione strategica ed economico-finanziaria. Negli ultimi 15 anni la sua attività si è concentrata su progetti per l’innovazione, la sostenibilità e il marketing responsabile nel settore del gaming.

Per eventuali approfondimenti info@ma4b.it


Accedi alla Rubrica ‘Innovazione & Sostenibilità’ da qui:

 

 

 

 

 

PressGiochi

 

Fonte immagine: https://depositphotos.com