Machine Learning & AI Sicherheit

Experten in Data Science

Adversarial Attacks

Unter „Adversarial Attacks“ verstehen wir den bewussten böswilligen Angriff auf Machine Learning- und AI-Systeme.

Lösungen

ITM bietet Seinen Kunden verschiedene Lösungen zur nachhaltigen Abwehr von Angriffen

Die Absicherung von AI-Systemen gegen Angriffe ist eine große Herausforderung. Wir bieten Unterstützung in den wichtigsten Schritten:

1. Trainings für Data Scientists

Robuste ML-Algorithmen sind der beste Schutz gegen Angriffe. Wir trainieren Ihre Data Scientists zur Sensibilisierung auf die Gefahren und zur direkten Absicherung der Systeme bei der Entwicklung.

2. Angriffssimulationen

Um die Angreifbarkeit zu bestimmen, muss man sie testen. Wir greifen kontrolliert Ihre Systeme an und geben Ihnen eine Übersicht über die gefundenen Schwachstellen.

3. Härten der AI-Systeme

Nach der Identifikation von Schwachstellen in den ML- und AI-Systemen, erarbeiten wir Lösungen zur Absicherung der Systeme.

Beispiele für Angriffe auf AI-Systeme

Finden Sie bei unseren Use Cases weitere Beispiele für mögliche Angriffe auf AI-Systeme.

Use Cases
Angriff auf AI-Systeme in betrügerischer Absicht

Betrugserkennung wird heute sehr oft mit Hilfe von AI umgesetzt. Daher wollen Betrüger das AI-System überlisten, damit sie unbehelligt damit durchkommen. Sie finden eine umfangreichere Darstellung in einem unserer Use Cases.

Use Case
Angriff auf AI-Anwendungen von IoT-Geräten

IoT-Geräte agieren mitunter autonom, dabei ist es besonders wichtig, dass diese zuverlässige Entscheidung treffen. Ein Beispiel dafür sind selbstfahrende Autos, die durch die Manipulation von Verkehrsschildern beeinflusst werden können.

Beispiel Tesla Autopilot
Datendiebstahl durch den Angriff auf AI-Systeme

AI- und Machine Learning-Systeme basieren auf dem Trainieren auf realen historischen Daten. Diese Daten sollten anonymisiert sein. Trotzdem kann es über Umwege zum Ausspionieren von persönlichen Daten kommen.

Warum Sie sich um AI-Sicherheit kümmern sollten.

Erhöhen Sie Ihr Vertrauen (und das Ihrer Mitarbeiter und Kunden) in AI und Machine Learning.

Robustheit, Zuverlässigkeit und Vertrauen

AI-Anwendungen bringen in vielen Bereichen einen großen Mehrwert und Nutzen. Bei Endanwendern stoßen sie immer mehr auf Akzeptanz, werden aber gerade in sicherheitskritischen Anwendungen skeptisch gesehen. Das ist nachvollziehbar, und der beste Umgang mit diesen Zweifeln ist der Beweis, dass die Systeme verlässlich sind.

Robustheit

Schon in der Entwicklung von AI-Anwendungen müssen Data Scientists darauf achten, dass Machine Learning- Modelle robust sind. Das bedeutet einerseits, ML-Modelle müssen bei kleinen Änderungen des Inputs ein ähnliches Ergebnis ausgeben. Andererseits bedeutet es, dass ML-Modelle bei der Eingabe sehr extremer Inputs immer noch ein plausibles Ergebnis liefern müssen. Sichere AI-Systeme basieren auf robusten ML-Modellen, da gibt es keine Ausnahme.

Zuverlässigkeit

Zuverlässigkeit und Sicherheit bilden den nächsten Schritt. Wir stellen die Anforderung, dass AI-Systeme die möglichst beste Entscheidung treffen und nicht von außen ausgetrickst werden können. Betrug soll als solcher erkannt werden, auch wenn der Betrügende sein Möglichstes tut, dies zu verhindern. Autonom fahrende Autos sollen die Verkehrsschilder immer richtig erkennen, auch wenn ein Aufkleber auf das Schild geklebt wurde. Das zu erreichen ist eine Herausforderung. Ein erster Schritt ist die Angriffssimulation von ITM.

Vertrauen

Unser Unternehmensziel bei ITM ist es, mittels Machine Learning Prozesse und Anwendungen zu optimieren und zu automatisieren. Routineaufgaben müssen von Maschinen übernommen werden, damit Menschen sich kreativen Arbeiten widmen können. Für diese Mission sind Vertrauen und solche Anwendungen unabdingbar. Für Unternehmen, die das ähnlich sehen, bieten wir Lösungen, damit sie sicher mit AI durchstarten können.

Schreiben Sie uns eine Email, oder rufen Sie uns an!

Sie erreichen mich unter
clarissa.vogelbacher@itm-p.com
oder rufen Sie an! (+)49 (0) 721 909 996 15