Beitrag von DLR Institut für KI-Sicherheit

Unternehmensseite von DLR Institut für KI-Sicherheit anzeigen, Grafik

1.655 Follower:innen

//Wissenschaftsgeleitete KI-Entwicklung als Schlüssel für vertrauenswürdige Systeme// Auf dem KI Summit der KI Biennale 2024 diskutierten hochrangige Vertreter:innen aus Politik, Wirtschaft und Forschung die Zukunft der Künstlichen Intelligenz. Das DLR Institut für KI-Sicherheit prägte die Debatte maßgeblich mit – insbesondere bei der Frage nach der Vertrauenswürdigkeit von KI-Systemen. Chatbots, Gesichtserkennung, generative KI – künstliche Intelligenz durchdringt bereits heute nahezu alle Lebensbereiche. Doch wie können wir sicherstellen, dass diese Technologien nicht nur leistungsfähig, sondern auch vertrauenswürdig sind? Diese zentrale Frage stand im Mittelpunkt der von Frank Köster, Gründungsdirektor des Instituts für KI-Sicherheit, moderierten Paneldiskussion. Die Antwort liegt in den besonderen Stärken Europas, betonte Julia Eisentraut, Sprecherin für Wissenschaft, Digitalisierung, Weiterbildung und Datenschutz der Grünen im Landtag NRW: Während andere Regionen auf schnelles Wachstum setzen, setzt Europa auf solide mathematische Systeme und baut von Beginn an Sicherheit ein. Die hohe Dichte an Forschungsinstituten und der starke Fokus auf Qualität, etwa bei der Vermeidung von Verzerrungen, sind dabei entscheidende Vorteile. Auch Dr. Arne Peter Raulf, Abteilungsleiter am Institut für KI-Sicherheit, betonte, dass Europa bei der Schaffung transparenter und fairer Datenökosysteme führend sei. Das transformative Potenzial von KI für Unternehmen unterstrich Dr. Jan Hofmann, Head of AI Competence Center der Deutschen Telekom, indem er die intelligente Kombination von Mensch und Maschine als Schlüssel zum Erfolg hervorhob. Die gesellschaftliche Dimension beleuchtete Dr. Cedric Janowicz (DLR Projektträger): Angesichts der tiefgreifenden Auswirkungen von KI auf unser Demokratieverständnis sei eine intensive Auseinandersetzung mit ethischen Implikationen unerlässlich. Ein Konsens zeichnete sich deutlich ab: Der Umgang mit KI muss wissenschaftsgeleitet sein und sich kontinuierlich an die rasante technologische Entwicklung anpassen. Nur durch ein konsequentes "Human Oversight" können wir sicherstellen, dass unsere Wertemodelle in KI-Systeme einfließen. Erfahren Sie mehr über unsere Forschung zur Sicherheit und Vertrauenswürdigkeit von KI-Systemen auf der Website: www.dlr.de/ki #KI #AI #DLR #KISicherheit #KIBiennale2024 #VertrauenswürdigeKI #AIEngineering #KIForschung #AIAct #TrustworthyAI

  • Kein Alt-Text für dieses Bild vorhanden

Vielen Dank, dass ich dabei sein durfte, es war wirklich ein sehr spannendes Podium!

Zum Anzeigen oder Hinzufügen von Kommentaren einloggen

Themen ansehen