Bodyguard

Bodyguard bietet eine Technologie auf Grundlage mehrerer Schichten künstlicher Intelligenz an. Nutzer werden so in Echtzeit vor Cyber-Mobbing geschützt.

Mehr erfahren

Infrastruktur

Die Infrastruktur von Bodyguard beruht auf drei Public Cloud Instanzen:

  • Eine verwaltet die Datenbanken.
  • Auf der zweiten befinden sich die Technologie und Modelle für das Machine Learning.
  • Die dritte Instanz ist für die Systeme, die die mobile Anwendung betreiben. Hier werden die Kommentare gesammelt und mit Hilfe der Technologie analysiert.

Für Backups verwendet Charles einen weiteren Dienst aus der Public Cloud von OVHcloud: Cloud Archive (derzeit nur in Frankreich verfügbar). Hier können Daten für eine lange Zeit zu geringen Kosten gespeichert werden. Sicherheit und Wiederherstellung sind dabei gewährleistet.

Problem und Lösung

Die Herausforderung

Welche Technologie kann den Kontext eines Kommentars analysieren und erkennen, an wen er sich richtet?

Die Technologie von Bodyguard muss in der Lage sein, Gemütszustände zu erkennen und zu deuten. Für weniger Fehlalarme und größere Genauigkeit war eine Ebene künstlicher Intelligenz unabdingbar. „Falsch positive“ Ergebnisse kennzeichnen Kommentare fälschlicherweise als Hassreden.

Die Lösung:

Ein gemanagter und nutzerfreundlicher Dienst, um die Produktion zu beschleunigen.

Charles hat sich für OVHcloud AutoMLentschieden, eine dezentrale und skalierbare Plattform für Machine Learning. Mit dieser Lösung der Art Software-as-a-Service (SaaS) konnte er die Verfahren bei Erstellung und Einsatz automatisieren, sowie auch die Anfragen nach Modellen für Machine Learning. Außerdem konnte er Open Source Algorithmen integrieren. Zum Beispiel jene, die scikit-learn anbietet.

Das Ergebnis

Zwei Jahre lang entwickelte Charles den Algorithmus für Machine Learning bis zu seiner endgültigen Form und integrierte ihn in eine kostenfreie mobile Anwendung. Seit Oktober 2017 steht sie für Android und iOS zu Verfügung. Heute löscht Bodyguard verletzende Kommentare auf YouTube, Instagram, Twitter, Twitch und Mixer. Im Juli 2019 nutzten über 40.000 Menschen diesen virtuellen Bodyguard und waren zu 97% mit ihm zufrieden. Die Gründe für diesen Erfolg:

•90% der verletzenden Kommentare hat die Anwendung erkannt

•2% Fehlerquote (falsche Positivmeldung)

•über 2 Millionen verletzende Kommentare

gelöscht in 20 Monaten

Charles Cohen, Gründer und CEO von Bodyguard