
Bodyguard
Bodyguard offre una tecnologia basata su vari livelli di intelligenza artificiale che protegge gli utenti dal cyberbullismo in tempo reale.
Infrastruttura
L’infrastruttura di Bodyguard è costituita da tre istanze Public Cloud:
- una per la gestione dei database
- una seconda per i modelli tecnologici e di machine learning
- la terza per i sistemi che fanno funzionare l’applicazione, riunendo i commenti e analizzandoli utilizzando la tecnologia
Per creare i backup, il fondatore, Charles, utilizza un altro servizio fornito da OVHcloud Public Cloud: Cloud Archive (attualmente disponibile solo in Francia), utilizzato per lo storage di dati nel lungo periodo. Pur avendo un prezzo ridotto, garantisce la sicurezza e il recupero dei dati.
Problema e soluzione
La sfida
La tecnologia doveva essere in grado di analizzare il contesto in cui viene postato un commento e di determinare la persona (o le persone) cui è indirizzato.
La tecnologia Bodyguard deve poter capire e interpretare gli stati d’animo: per questo motivo, era necessaria l’IA per ridurre i falsi positivi (commenti individuati come offensivi e che in realtà non lo sono) e aumentare l’accuratezza.
La soluzione:
Un servizio gestito e di semplice utilizzo per accelerare la fase di produzione.
Charles ha scelto di utilizzare OVHcloud AutoML, una piattaforma di machine learning distribuita e scalabile. Con questo Software-as-a-Service (Saas), ha automatizzato i processi di creazione e deploy e i processi di richiesta di modelli di machine learning. Inoltre, ha integrato gli algoritmi open source, come quelli offerti da scikit-learn.
Il risultato
Per due anni, Charles ha sviluppato l’algoritmo di machine learning finale per poi integrarlo in un’applicazione gratuita, disponibile per Android e iOS da ottobre 2017. Oggi, Bodyguard individua i commenti offensivi in tempo reale su YouTube, Instagram, Twitter, Twitch e Mixer. Nel luglio 2019, questo bodyguard virtuale ha raggiunto più di 40.000 utenti, con una percentuale di soddisfazione del 97%. Perché ha avuto tanto successo?
• riesce a individuare il 90% dei commenti offensivi
• ha un margine d’errore del 2%
• più di 2 milioni di commenti offensivi cancellati in 20 mesi