HONOR e il lancio della tecnologia di rilevamento deepfake
HONOR prevede di introdurre a livello globale il suo strumento di rilevamento dei deepfake basato su intelligenza artificiale nel mese di aprile 2025. Durante l’evento MWC 2025 saranno forniti ulteriori dettagli riguardo a questo sistema, progettato per aiutare gli utenti a identificare immagini e video falsificati attraverso avvisi in caso di alterazioni del contenuto. L’obiettivo principale è quello di aumentare la sicurezza online.
Funzionamento del sistema HONOR AI Deepfake Detection
Presentato inizialmente all’IFA 2024, il sistema utilizza un’intelligenza artificiale che analizza i media alla ricerca di segni di manomissione. Tra i criteri utilizzati per l’analisi ci sono:
- Pixel sfocati – Le immagini false spesso presentano texture strane e pixelazione anomala.
- Bordi irregolari – Gli spigoli di volti o oggetti possono apparire innaturali.
- Anomalie nei video – I fotogrammi potrebbero non allinearsi correttamente.
- Facce innaturali – L’intelligenza artificiale identifica caratteristiche mal posizionate e proporzioni strane.
In caso venga rilevato contenuto falso, il sistema invia immediatamente un avviso agli utenti.
I rischi associati ai deepfake
L’uso dell’intelligenza artificiale ha trasformato vari settori, ma ha anche amplificato le minacce informatiche. Un rapporto dell’Entrust Cybersecurity Institute del 2024 ha evidenziato che le truffe legate ai deepfake si verificano ogni cinque minuti. Inoltre, uno studio condotto da Deloitte nello stesso anno ha rivelato che il 59% degli utenti fatica a distinguere tra media autentici e falsi. La richiesta di etichette chiare sui contenuti digitali è alta, con l’84% delle persone favorevoli a tale iniziativa. HONOR sostiene che siano necessari strumenti migliori e collaborazione tra i vari settori per affrontare tali rischi.
I rischi per le aziende
I casi di truffe legate ai deepfake stanno aumentando rapidamente; dal novembre 2023 al novembre 2024, il numero delle aziende colpite da frodi legate ai deepfake è cresciuto del 244%. Il 61% dei leader aziendali non ha ancora intrapreso azioni preventive.
- Frode e furto d’identità – I criminali utilizzano deepfake per impersonare persone reali.
- Spiaggi industriale – Media falsificati possono diffondere informazioni errate danneggiando le aziende.
- Misinformazione – I deepfake possono fuorviare l’opinione pubblica influenzando decisioni e percezioni.
Azione delle aziende contro i deepfake
Pertanto, le imprese stanno adottando diverse strategie per combattere le frodi legate ai deepfake:
- Sistemi di rilevamento AI – Il sistema HONOR individua movimenti oculari innaturali, problemi di illuminazione ed errori nella riproduzione.
- Coperazione tra settori – Gruppi come C2PA collaborano con aziende come Adobe, Microsoft e Intel per sviluppare standard di verifica.
- Sistemi integrati di protezione – La tecnologia Snapdragon X Elite offre capacità AI per la rilevazione dei deepfake sui dispositivi mobili.
Diverse stime prevedono una crescita annuale del mercato dedicato al rilevamento dei deepfake pari al 42%, raggiungendo un valore complessivo di $15.7 miliardi entro il 2026. Con l’evoluzione dei deepfake, diventa cruciale per individui e aziende adottare strumenti AI per la sicurezza insieme a normative appropriate e programmi educativi volti a ridurre i rischi associati.
Lascia un commento