Redazione di RHC: 29 aprile 2024 07:23
IL Conferenza RHC 2024, è un evento annuale gratuito creato dalla comunità RHC per promuovere l’interesse per le tecnologie digitali, l’innovazione e la consapevolezza dei rischi informatici. Quest’anno l’edizione del convegno si è svolta a Roma il 19 e 20 aprile 2024 presso il Teatro Italia di Roma.
Uno dei momenti salienti della conferenza è stata la pannello dedicato al tema “Cybersecurity e innovazione tecnologica in Italia: tra minacce cyber e intelligenza artificiale“. Durante questo panel, esperti di sicurezza e professionisti del settore hanno discusso delle sfide e delle opportunità legate a Sicurezza informatica e tutto’intelligenza artificiale nel contesto italiano.
Di seguito i relatori che sono intervenuti:
- Dott. Mario Nobile: Direttore Generale dell’AGID (Agenzia per l’Italia Digitale).
- Dott.Umberto Rosini: Direttore dei Sistemi Informativi presso la Presidenza del Consiglio dei Ministri – Dipartimento della Protezione Civile.
- Dott. Paolo Galdieri: Avvocato penalista, esperto della Cassazione e docente universitario di diritto penale informatico.
- L’Ing. Davide Cenciotti: giornalista aerospaziale, ex ufficiale dell’aeronautica militare, ingegnere informatico ed esperto di sicurezza informatica.
Supporta Red Hot Cyber tramite
Durante il panel sono stati affrontati diversi temi legati all’intelligenza artificiale e alla tecnologia Sicurezza informatica. In particolare, si è parlato dell’introduzione di un intero capitolo dedicato all’intelligenza artificiale nel nuovo Piano Triennale per l’informatica nella Pubblica Amministrazione 2024-2025 e di come l’AI possa essere utile in diversi contesti tecnologici, oltre ad analizzare il tutto dal punto di vista giuridico. visualizzazione.
Questo piano industriale coinvolge non solo le 23.000 pubbliche amministrazioni, ma anche università, centri di ricerca e aziende del settore ICT. Abbiamo parlato degli obiettivi principali di questo capitolo e di comeLegge sull’AI dell’Unione Europea e altri documenti internazionali influenzano le politiche sull’intelligenza artificiale in Italia.
Intervento di Mario Nobile
Mario Nobile affronta principalmente due temi: l’intelligenza artificiale (AI) e la cybersecurity, soffermandosi sul nuovo Piano Triennale per l’informatica nella pubblica amministrazione 2024-2025.
Nella prima parte discute l’importanza del piano e i suoi obiettivi. “Oltre a descrivere qual è la strategia, bisogna dare gli strumenti… Per utilizzare l’intelligenza artificiale generativa una pubblica amministrazione o un’azienda deve prestare attenzione a tre pilastri” Rapporti nobili.
I tre pilastri cruciali per l’implementazione dell’AI spiega Nobile sono: “la qualità dei dati, le competenze interne ed esterne, e una chiara definizione dei controlli e delle autorizzazioni”. Questi tre elementi, che possono essere importanti a livello teorico, sono stati inseriti in toolkit che spiegano alle grandi aziende statali o ai piccoli comuni qual è l’esperienza di soggetti specifici.
Successivamente Nobile affronta il legame tra accessibilità digitale e cybersecurity, sottolineandolo “C’è sempre un antagonismo tra chi vuole ampliare l’esperienza dell’utente e chi vuole proteggere un sistema informativo”.
Sottolinea che, sebbene l’accessibilità digitale sia un diritto costituzionale che deve essere garantito, è fondamentale mantenere la robustezza dei sistemi attraverso misure di sicurezza informatica, soprattutto considerando rischi come attacchi alla privacy, abusi e induzione di comportamenti scorretti nei sistemi automatizzati. “Se il mio servizio digitale migliora i suoi gradi di libertà per consentire a una persona disabile… evidentemente il livello di sicurezza, dell’intelligenza artificiale, ci aiuta a mantenere la robustezza di quel sistema. È un’affermazione facile da dire nei convegni ma molto complicata da mettere in pratica”.
Per risolvere questo equilibrio, Nobile suggerisce di implementare ridondanze di informazioni e meccanismi di controllo dei dati in tempo reale, per garantire che i servizi digitali siano inclusivi ma anche protetti da potenziali minacce. Inoltre, evidenzia l’importanza di mantenere un elevato livello di qualità dei dati e di collaborazione tra le istituzioni coinvolte nella gestione dei sistemi digitali.
Intervento di Umberto Rosini
Umberto Rosini riferisce che “IT Alert” è entrato in produzione il 13 febbraio. “IT Alert si basa su 3 pilastri fondamentali, le procedure, la comunicazione e poi la parte tecnologica… oltre a tutta la parte di controllo e miglioramento continuo dei sistemi” riferisce Rosini.
“Attualmente abbiamo attivato l’allerta sulle industrie a rischio significativo, quelle industrie che hanno produzioni per le quali un incidente fisico può compromettere la salute e la sicurezza dei cittadini come il rischio nucleare e i vulcani”.
Rosini sottolinea l’importanza del controllo e del monitoraggio della catena di trasmissione dei messaggi: “Tutto parte dal conoscere e monitorare la catena, capire quando viene generato un messaggio e quando viene inviato” anche attraverso le attività di OSINT per ottenere ulteriori informazioni.
Nell’affrontare le sfide future, Rosini discute l’importanza del reporting sull’intelligenza artificiale (AI). “oggi l’intelligenza artificiale deve essere un copilota dei tecnici” e non un sistema senza controllo umano. L’intelligenza artificiale può migliorare il funzionamento dei sistemi di emergenza attraverso algoritmi per l’elaborazione delle informazioni, il monitoraggio continuo e il miglioramento dei processi.
Rosini evidenzia il ruolo cruciale della tecnologia insieme alle competenze umane, sia tecniche che psicologiche, nell’affrontare efficacemente le emergenze.
Infine, evidenzia il lavoro di organizzazioni come l’Agenzia per l’Italia Digitale e l’Agenzia Nazionale per la Cybersecurity nell’adozione e nello sviluppo di tecnologie innovative per migliorare la preparazione e la risposta alle crisi.
Intervento di Paolo Galdieri
Paolo Galdieri affronta il tema della cybersecurity da una prospettiva giuridica. Ricorda che inizialmente la sicurezza informatica non era considerata una questione legale ma tecnica: “Dalla direttiva NIS si è iniziato a parlare di sicurezza anche dal punto di vista giuridico e oggi è più una questione giuridica che informatica… e crea difficoltà”.
Galdieri rileva la mancanza di norme specifiche che delineino con chiarezza l’ambito della cybersecurity, rilevando che l’evoluzione normativa ha portato ad un’interpretazione estensiva dei crimini informatici attraverso l’utilizzo delle nuove tecnologie: “Abbiamo avuto processi in cui esperti di sicurezza informatica sono stati accusati di aver commesso un accesso non autorizzato, perché secondo i pubblici ministeri erano andati oltre i loro compiti. Questo paralizza l’attività perché per contratto devo mettere in sicurezza i sistemi, ma allo stesso tempo ho paura di essere perseguito penalmente.”
Nell’ambito della responsabilità giuridica, Galdieri analizza la distinzione tra reati dolosi e colposi commessi attraverso l’uso dell’intelligenza artificiale, evidenziando il rischio di interpretazioni errate da parte del sistema giudiziario, spesso non esperto in materia informatica. Lo nota le norme penali devono adattarsi all’evoluzione tecnologica, affrontando la complessità dei crimini commessi tramite l’IA.
“L’intelligenza artificiale incide sul diritto penale da due punti di vista. La prima riguarda i reati che si possono commettere, la seconda è come può aiutare i giudici o le forze dell’ordine” Lo riferisce Galdieri. Esamina l’applicazione dell’intelligenza artificiale nel contesto giuridico, discutendo l’importanza di evitare il cosiddetto “giustizia predittiva”, che potrebbero influenzare le decisioni giudiziarie. Sottolinea la necessità di un controllo umano nell’uso dei dati e dei sistemi automatizzati per prevenire discriminazioni e decisioni ingiuste.
Infine, affronta il tema dell’utilizzo di robot e sistemi automatizzati nelle forze dell’ordine, evidenziando l’ complessità legate alla responsabilità in caso di comportamenti anomali o incidenti. Per quanto riguarda SPOT, la mascotte di Conferenza informatica rovente 2024 Galdieri dice per fare un esempio: “Il piccolo robot che si muoveva qui, se ha attaccato colui che stava parlando, chi ne è responsabile dal punto di vista della negligenza?”.
In sintesi, Galdieri evidenzia le sfide giuridiche ed etiche legate all’uso dell’intelligenza artificiale e delle tecnologie emergenti nel contesto giuridico, sottolineando la necessità di normative chiare e di supervisione umana attento a garantire un’applicazione giusta ed equa della legge.
Intervento di Davide Cenciotti
David Cenciotti evidenzia come l’intelligenza artificiale (AI) sia già una realtà nel campo dell’aviazione e della difesa militare, non solo un progetto futuro: “Pensare oggi che l’elettronica possa essere rimossa da qualunque tipo di velivolo è utopico. Stiamo andando esattamente nella direzione opposta. Gli aerei sono caratterizzati da una capacità computazionale e di rete molto elevata“.
Cenciotti illustra come la quinta generazione di velivoli utilizzi già l’intelligenza artificiale per gestire e gestire una grande quantità di informazioni provenienti da vari sistemi e report di bordo: “Volare un aereo oggi è molto più semplice. Il funzionamento del mezzo è semplificato, quello che è aumentata è la gestione di tutti i sistemi”. Ciò consente ai piloti di concentrarsi solo sulle informazioni cruciali per le loro decisioni, riducendo il carico cognitivo e migliorando la propria capacità decisionale.
Pertanto, l’intelligenza artificiale è essenziale per ottimizzare le prestazioni e la sicurezza nell’aviazione moderna e per quanto riguarda la sicurezza dei riporti di nuovi aeromobili: “Gli aerei moderni contengono diversi milioni di righe di codice che volano ed è necessario proteggerle come un sistema complesso.”
Usa l’esempio del recente attacco di droni da parte dell’Iran, è stato sventato dal sistema Iron Dome che ha avuto un successo del 99%. Il sistema utilizza l’intelligenza artificiale per dare priorità alle minacce e calcolare il momento migliore per lanciare i missili. Questa applicazione dell’IA consente una maggiore precisione ed efficacia nella difesa dagli attacchi nemici.
Cenciotti, infine, lo suggerisce L’intelligenza artificiale diventerà ancora più centrale in futurocon sviluppi tecnologici che continueranno ad integrarlo sempre più nel contesto militare e aeronautico.
Ciò lo indica L’intelligenza artificiale sarà fondamentale per affrontare le sfide future e migliorare ulteriormente le capacità operative e difensive nelle operazioni aeree.
La redazione di Red Hot Cyber è composta da un gruppo di individui e fonti anonime che collaborano attivamente fornendo informazioni in anteprima e notizie sulla sicurezza informatica e sull’informatica in generale.