This page in EN

Teilleistung

Responsible Artificial Intelligence [T-WIWI-111385]

Teilleistungsart
Prüfungsleistung anderer Art
Leistungspunkte
4.5
Turnus
Jedes Wintersemester
Version
1

Verantwortung

Einrichtung

  • KIT-Fakultät für Wirtschaftswissenschaften

Bestandteil von

Veranstaltungen

Kursnummer Name SWS Typ
WS21 2545164 Responsible Artificial Intelligence 2 Vorlesung (V)
WS22 2545164 Responsible Artificial Intelligence 2 Vorlesung (V)
WS23 2545164 Responsible Artificial Intelligence 2 Vorlesung (V)
WS23 2545165 Responsible Artificial Intelligence 1 Übung (Ü)

Prüfungen

Kursnummer Name Termine
WS22 7900301 Responsible Artificial Intelligence
WS22 7900301 Responsible Artificial Intelligence (Nachklausur)

28.04.2022 - 04:00

WS22 7900301 Responsible Artificial Intelligence (Hauptklausur)
WS22 7900301 Responsible Artificial Intelligence (Hauptklausur)

03.03.2022 - 09:00

WS22 7900301 Responsible Artificial Intelligence (Nachklausur)

Erfolgskontrolle(n)

Die Erfolgskontrolle erfolgt in Form einer Prüfungsleistung anderer Art gem. SPO §4(2). Diese besteht aus:

  • Bearbeiten einer Übungsaufgabe inkl. kurzer Präsentation (15 min)(max. 30 Punkte)
  • Bearbeiten einer Fallstudie mit mündlicher Prüfung (max. 60 Punkte).

Weitere Details zur Ausgestaltung der Erfolgskontrolle werden im Rahmen der Vorlesung bekannt gegeben.

Voraussetzungen

Vor Beginn der Präsenzvorlesung werden Unterlagen zur Einführung bereitgestellt, die im Selbststudium zu bearbeiten sind.
Die Veranstaltung hat eine begrenzte Anzahl an Plätzen. Es ist daher zwingend eine Anmeldung bzw. Bewerbung über das Wiwi-Portal notwendig, um am Vorlesungsbetrieb teilzunehmen.

Anmerkungen

Kann eine Technologie wirklich vertrauenswürdig oder sogar verantwortlich sein? Ganz klar nein! Trotzdem gewinnen mit zunehmendem Einsatz von Künstlicher Intelligenz Begriffe wie „Trustworthy AI“, „Responsible AI“ oder „Ethical AI“ an Bedeutung. Was steckt also dahinter? Technologie wird immer nur von Menschen für bestimmte Zwecke eingesetzt. Wollen wir also einer KI-Lösung vertrauen, müssen wir Vertrauen darin haben, dass die involvierten Menschen und Organisationen KI verantwortungsvoll nutzen. Laut der HLEG-KI der Europäischen Kommission muss eine vertrauenswürdige KI rechtmäßig, ethisch und robust sein. Diese Vorlesung fokussiert sich auf die Bereiche Ethik und Robustheit. Nach einer Einführung in KI werden verschiedenen Ansätze diskutiert, mit denen Handlungen und Technologieanwendungen moralisch bewertet werden können. Mithilfe dieser ethischen Reflexion soll herausgefunden werden, was wir mit KI tun sollten, anstatt uns darauf zu fokussieren, was wir mit AI tun können. Im Kontext der Robustheit werden Schwachstellen von KI und Maßnahmen diskutiert, diesen zu begegnen. Die Vorlesung wird Themen wie Bias, Adversarial Attacks, Explainable AI und Human-Computer Interaction behandeln. Zudem wird auf aktuelle Entwicklungen der regulatorischen Anforderungen auf europäischer Ebene eingegangen.

Die Studierenden sollen nach erfolgreichem Besuch der Veranstaltung in der Lage sein - die wissenschaftliche Diskussion zur Ethik bei Systemen künstlicher Intelligenz einzuordnen und zu bewerten. - den Begriff des Vertrauens im Zusammenhang mit künstlicher Intelligenz zu verstehen und das entsprechende Wissen bei Veränderungsprozessen in Unternehmen anzuwenden. - Probleme in der Natur Blackboxsystemen liegend adressieren zu können. - die gesamtgesellschaftliche und unternehmerische Diskussion zum Einsatz von KI zu prägen.