Projektkonzept
AnitDot hat das Ziel insbesondere KI-Systemen in industriellen Anwendungen gegen Cyberangriffe mittels Data Poisoning zu schützen und den Einsatz von Werkzeugen zur Absicherung zu erproben und iterativ zu verbessern. Damit bezieht sich das Vorhaben direkt auf die Ziele des Innovationswettbewerbes zur Entwicklung einer Cybersicherheitslösung mit einem Bezug zu künstlicher Intelligenz.
Der Einsatz in AntiDot, von leicht zu bedienenden online Abwehrwerkzeugen mittels „Software as a service“ senkt zudem die Einstiegshürden von Unternehmen bei der Einführung und Integration von Abwehrmaßnahmen und ist damit im internationalen Vergleich ein Angebot mit Alleinstellungmerkmal gegenüber komplizierten „on premise“ Expertensysteme.
AntiDot hat zum Ziel, die technischen Einstiegshürden bei der Einführung von KI-Cybersicherheitswerkzeugen drastisch zu senken und somit KI-Anwendern einen leichten Zugang zu Abwehrmaßnahmen von Data Poisoning Angriffen zu gewährleisten. Damit wird AntiDot einen weltweit einmaligen und innovativen experimentellen Service im Bereich KI-Cybersicherheit bereitstellen.
AntiDot liefert Ergebnisse zu vier wissenschaftlich-technische Innovationsziele.
- Automatisierte Konfiguration von Sicherheitsmechanismen für eine Erkennung und Abwehr von Data-Poisoning Angriffen im maschinellen Lernen mittels online Datenanalyse. Prognose einer Aussage zur Qualitätsbeeinflussung der Ki-Aussagen bei identifizierten Verschmutzungen und nach Durchführung einer Bereinigung in Daten durch Filter-Operationen.
- Entwicklung von praxisnahen Werkzeugen (as a Service) zum Schutz von KI-Anwendung vor dem Einschleusen von Daten zur Manipulation der Aussagen: insbesondere Filter-Algorithmen zur Entschärfung von Angriffen mittels „verschmutzten“ Datenmaterial im Supervized Learning und deren Anwendung von Filtern auf statistisch verteilte Datenverschmutzung in Anwendungen des maschinellen Lernens (z.B. lineare Regression)
- Methoden zur „Neutralisation“ von Angriffen kompromittierter Bilddaten mittels überlagerter „Rauschmuster“ im Bereich Adverserial Angriffe auf Deep Learing in neuronalen Netzen
- Nachweis des Lösungsansatzes im Rahmen eines praxisrelevanten Demonstrators, der online „as a Service“ verfügbar sein wird und die Funktionen in einer einfach zu bedienenden Benutzeroberfläche und Schnittstellen bereitstellt.