Nachricht schreiben an

Sie haben keinen Betreff angegeben, möchten Sie die Nachricht ohne Betreff versenden?
Bitte beachten Sie, dass Ihre Nachricht maximal 1000 Zeichen lang sein darf
Sonderzeichen '<', '>' sind im Betreff und in der Nachricht nicht erlaubt
reCaptcha ist ungültig.
reCaptcha ist aufgrund eines Serverproblems gescheitert.

Ihre Nachricht wurde gesendet

Sie finden die Nachricht jetzt in Ihrem persönlichen Bereich unter „Meine Nachrichten“.

Es ist ein Fehler aufgetreten

Bitte versuchen Sie es nochmal.

Termin vereinbaren mit

Damit Sie einen Termin vereinbaren können, wird der Kalender auf dem persönlichen Profil Ihres Ansprechpartners in einem neuen Tab geöffnet.

Vor-Ort-Termin vereinbaren mit

Damit Sie einen Vor-Ort-Termin vereinbaren können, wird die Terminanfrage in einem neuen Tab geöffnet.

Header von idgard | uniscon GmbH
Foren it-sa Expo Knowledge Forum F

KI-Sicherheit: Souveräne Cloud-Lösungen und sichere Datenverarbeitung

Large Language Models sind anfällig für Manipulation und Datenabflüsse. Der sichere Betrieb in einer souveränen Cloud schafft Abhilfe.

calendar_today Di, 22.10.2024, 10:30 - 10:45

event_available Vor Ort

place Forum, Stand 9-443

Action Video

south_east

Actionbeschreibung

south_east

Speaker

south_east

Themen

Cloud Security Datensicherheit / DLP / Know-how-Schutz Trendthemen

Key Facts

  • LLMs sind anfällig für Manipulationen und Datenlecks
  • idgard schützt LLMs und sensible Daten in allen Phasen
  • Die Datenintegrität und Datensouveränität bleiben gewahrt

Event

Diese Action ist Teil des Events Foren it-sa Expo

Action Video

close

Dieses Video steht der it-sa 365 Community zur Verfügung. 
Bitte registrieren Sie sich oder melden Sie sich mit Ihren Login-Daten an.

Actionbeschreibung

Der Einsatz von Large Language Models (LLMs) bietet enorme Chancen für Unternehmen, ist aber auch mit erheblichen Herausforderungen verbunden, besonders wenn es um die Verarbeitung sensibler Daten (Finanz- oder Projektdaten, Daten mit Personenbezug, etc.) geht. Denn klassische LLMs sind anfällig für Manipulationen und Datenlecks. Eine Möglichkeit, diesen Risiken entgegenzuwirken, ist der Betrieb in einer hochsicheren, souveränen Cloud.

Herausforderungen für sensible Daten beim Einsatz von LLMs

LLMs sind zwar mächtige Werkzeuge, aber sie bergen nicht zu vernachlässigende Risiken, insbesondere bei der Verarbeitung von sensiblen Informationen.

Typische Herausforderungen umfassen:
- Unautorisierte Zugriffe auf Trainingsdaten oder Modelle
- Modellmanipulation (direkt oder durch Manipulation von Trainingsdaten)
- Risiko von Datenabflüssen während der Nutzung des Modells

Traditionelle Cloud- und On-Premise-Ansätze stoßen hier schnell an ihre Grenzen, was den Einsatz dieser Technologien vor allem in stark regulierten Branchen wie Finanzen, Recht und Gesundheit enorm erschwert.

Eine souveräne Cloud als Lösung

Der Begriff "Souveräne Cloud" wird oft schwammig verwendet. Gemeint ist damit ein Cloud-Dienst, der jederzeit nachweislich gegen unbefugte Zugriffe geschützt ist – sei es durch externe Angreifer, staatliche Akteure oder die eigenen Mitarbeiter mit Admin-Rechten. Die Datensouveränität und die Datenintegrität müssen dabei stets gewährleistet sein – eine Aufgabe, an der nicht wenige Anbieter scheitern.

Der Cloud-Dienst idgard erfüllt diese Anforderungen dank seines dreistufigen Sicherheitskonzepts. Dieses umfasst neben dem Betrieb in hochsicheren deutschen Rechenzentren und einer unabhängigen Zertifizierung im Wesentlichen die patentierte Sealed-Cloud-Technologie.

Diese Technologie verhindert durch einen Confidential-Computing-Ansatz nicht nur externe Zugriffe, sondern auch internen, unerwünschten Zugang nachweislich. So lassen sich Daten sowohl bei der Übertragung („data in transit“) und Speicherung („data at rest“) als auch während der Verarbeitung („data in use“) zuverlässig schützen.

Dies bietet nicht nur ein Höchstmaß an Sicherheit bei der Arbeit mit sensiblen Daten, sondern ermöglicht auch den sicheren Einsatz von KI-Modellen, ohne dass der Nutzer sich mit Problemen wie Schlüsselverwaltung und anderen Komplexitäten befassen muss.

Integration von KI in idgard

Der Einsatz von KI in einer souveränen Cloud wie idgard beginnt mit der Nutzung frei verfügbarer Open-Source-LLMs wie LLama oder Mistral. Diese Modelle werden in der versiegelten Umgebung von idgard trainiert und an die spezifischen Bedürfnisse unserer Kunden angepasst. Der gesamte Prozess erfolgt innerhalb von idgard, was Manipulationen und Datenabflüsse nachweislich verhindert. Selbst Prompts – also die Anfragen an das Modell – bleiben auf diese Weise geschützt.

Mögliche Use Cases umfassen beispielsweise die „Kommunikation“ mit Dokumenten oder das Zusammenfassen von Informationen. Aber auch komplexere Anwendungen, etwa Assistenzfunktionen für die digitale Gremien- und Vorstandskommunikation, sind theoretisch denkbar.

Ein weiterer möglicher Schritt in der Zukunft ist der Aufbau eines dedizierten KI-Clusters innerhalb der Sealed Cloud, der es unseren Kunden ermöglicht, eigene KI-Anwendungen in einem hochsicheren Umfeld weiterzuentwickeln.

Fazit: KI-Sicherheit in der Cloud dank Versiegelung

Durch die Integration von KI-Systemen in souveräne Cloud-Dienste wie idgard lassen sich die Angriffsflächen beim Umgang mit KI minimieren. Unautorisierte Zugriffe auf Modelle, Trainingsdaten und Anfragen werden unterbunden und das Risiko von Modellmanipulationen deutlich reduziert. Die einzigartige Sicherheitsarchitektur von idgard erlaubt es, LLMs sicher zu betreiben und weiterzuentwickeln, ohne Kompromisse bei der Benutzerfreundlichkeit einzugehen.
... mehr lesen

Downloads

Sprache: Deutsch

Action beinhaltet Q&A: Nein

Speaker

Mehr anzeigen
close

Diese Inhalte oder Funktionen stehen der it-sa 365 Community zur Verfügung. 
Bitte registrieren Sie sich oder melden Sie sich mit Ihren Login-Daten an.