Transkript anzeigen (falls vorhanden)

00:00–0:00:13
Music.
0:00:12–0:00:20
Ich sitze hier in Zürich im Technopark mit Kevin Schawinski.
0:00:20–0:00:27
Er ist KI-Experte und wir wollen über die Regulierung reden und auch die Frage,
0:00:27–0:00:32
wo wir diesen KIs begegnen, ohne dass wir das überhaupt wissen,
0:00:33–0:00:34
ohne dass wir da eine Ahnung haben.
0:00:34–0:00:39
Die meisten von uns empfinden die KIs als hilfreiche Assistenten.
0:00:39–0:00:44
Assistenten, Chat, GPT, der für uns ein Mail schreibt oder irgendwie ein Mitschörner,
0:00:44–0:00:45
der ein schönes Bild macht.
0:00:46–0:00:50
Das ist ja alles angenehm und wir haben unter Kontrolle, was passiert.
0:00:50–0:00:55
Aber wir begegnen ja auch inzwischen so KIs, die wir gar nicht wissen,
0:00:55–0:00:58
dass die vielleicht mit uns etwas zu tun haben.
0:00:58–0:01:01
Wo gibt es, sagen wir mal, die versteckten KIs dann?
0:01:02–0:01:07
Die versteckten KIs gibt es in fast allen Aspekten jetzt von unserem modernen
0:01:07–0:01:11
Leben, wo die entscheidend über uns und für uns getroffen werden.
0:01:13–0:01:17
Die EU hat in ihrer neuen Regulierung eine gute Liste aufgestellt.
0:01:17–0:01:18
Ich gehe da jetzt ein bisschen durch.
0:01:19–0:01:26
Zum Beispiel im HR, also bei der Mitarbeiterauswahl, bei der Suche,
0:01:26–0:01:31
bei der Beurteilung von CVs, bei der Beurteilung von Mitarbeiterinnen und Mitarbeitern,
0:01:31–0:01:34
wird heute Software eingesetzt,
0:01:34–0:01:40
die nach dem Verständnis der neuen Regulierung als KI bezeichnet werden und
0:01:40–0:01:41
natürlich schon grossen Einfluss
0:01:41–0:01:48
über ganz essenzielle Entscheide in unser Leben ein Urteil fehlen.
0:01:48–0:01:53
Man kann sich vorstellen, dass so eine Software dann schon eine erste Triage
0:01:53–0:01:57
von solchen Dossiers macht und dann man vielleicht schon rausfliegt,
0:01:57–0:02:00
bevor ein Mensch überhaupt darauf geschaut hat.
0:02:00–0:02:05
Kann das heute passieren? Das kann passieren, das wissen wir auch, dass es passiert.
0:02:05–0:02:12
Ich habe einen Referenziererfall in den USA, wo KI-Regulierung natürlich auch ein grosses Thema ist.
0:02:12–0:02:17
Da wurde vor ein paar, zwei, drei Monaten eine Firma gebüsst,
0:02:17–0:02:22
und zwar mit einer Viertelmillion Dollar Strafe, weil sie beim Filtering von
0:02:22–0:02:27
CVs einfach mal ältere Personen herausgefiltert haben. Und das hat natürlich
0:02:27–0:02:28
erstmal niemand gemerkt.
0:02:29–0:02:33
Wenn man einfach mal ein CV reinschickt und keine Antworten bekommt,
0:02:33–0:02:35
dann weiss man ja nicht, was passiert ist.
0:02:35–0:02:39
Aber das war systematisch, das ist aufgeflogen und dann ist die US-Regierung
0:02:39–0:02:42
gekommen und hat gesagt, das darf er dann nicht. Das ist Altersdiskriminierung.
0:02:43–0:02:48
Weisst du, ob das in der Schweiz auch passiert? Wie häufig das in allen Fällen passiert?
0:02:48–0:02:54
Das passiert überall, bei fast jeder Anwendung, da bin ich mir sicher.
0:02:54–0:03:00
Und es hat einen Effekt auf das Leben von jeder einzelnen Person in der Schweiz, und zwar im grossen.
0:03:00–0:03:06
Und im kumulierbaren, weil die KI wird ja dann immer an den Daten trainiert,
0:03:06–0:03:09
die aus dem Betrieb, aus der Anwendung herauskommen.
0:03:10–0:03:15
Also was muss man sich da vorstellen? Wenn ich mich jetzt um einen Starlayer
0:03:15–0:03:20
bewerbe oder eine Kreditkarte oder was auch immer und ich werde jetzt abgelehnt
0:03:20–0:03:23
aus einem Grund, der diskriminierend ist,
0:03:24–0:03:29
dann habe ich das erstmal nicht auf meinem Record, meinem Lebenslauf,
0:03:29–0:03:33
meinem Profil abgelehnt worden.
0:03:34–0:03:38
So, jetzt passiert das häufiger und häufiger. Das heisst, dann werden Personen
0:03:38–0:03:42
mit einem gewissen Hintergrund immer mehr benachteiligt, auch in den Daten der
0:03:42–0:03:47
VKI natürlich lernt und dadurch wird das verstärkt. Dann gibt es so eine Feedback-Loop.
0:03:48–0:03:53
Man kann ja sagen, wenn das alle oder an vielen Orten die gleiche Software eingesetzt
0:03:53–0:03:58
wird und mit den ähnlichen Parametern, dann haben die gleichen Leute überall
0:03:58–0:03:59
die gleichen Nachteile.
0:03:59–0:04:02
Kann man das so sagen? Ja, und es kumuliert sich, auch wenn man sagt,
0:04:02–0:04:08
man hat jetzt einfach nur eine 49-prozentige Chance oder eine 48-prozentige Chance.
0:04:08–0:04:12
Aber wenn man das kumuliert auf viele Entscheidungen, auf viele Personen,
0:04:12–0:04:15
wird das ein grosser und signifikanter Effekt.
0:04:16–0:04:20
Du hast gesagt, bei Bewerbungen, allenfalls auch wenn man einen Kredit bekommt,
0:04:21–0:04:24
vielleicht auch bei Versicherungen, könnte es auch dort passieren?
0:04:25–0:04:31
Absolut, ja. Also Versicherer setzen ja Algorithmen ein, um zu berechnen,
0:04:31–0:04:35
wie ist das Risiko jetzt von jemandem, der eine Versicherungspolizei will.
0:04:35–0:04:39
Und die setzen alle Informationen ein, wo sie dürfen.
0:04:40–0:04:44
Und so explizit geschaut wird er jetzt diskriminiert.
0:04:45–0:04:48
Kommt natürlich aufs Land drauf an. In der Schweiz haben wir ja kein explizites
0:04:48–0:04:53
Antidiskriminierungsgesetz. Da wird dann auch gar nicht so genau geschaut und
0:04:53–0:04:57
das natürlich ausgenutzt, weil umso genauer der Algorithmus,
0:04:57–0:05:00
umso höher der Profitmargin.
0:05:01–0:05:04
Und da will man natürlich dann nicht sagen, ja, dann geben wir halt ein bisschen
0:05:04–0:05:07
Profitmargin auf dafür, dass wir fairer sind.
0:05:08–0:05:12
Also das heisst, es ist schon berechtigt, wenn wir da ein bisschen ein ungutes
0:05:12–0:05:15
Gefühl haben, dass über uns entschieden wird.
0:05:15–0:05:19
Und eben vielleicht in Fällen, wo nicht einmal mehr ein Mensch überhaupt auf
0:05:19–0:05:24
so einen Entscheid drauf schaut, dass wir da in eine ungute Richtung gehen.
0:05:25–0:05:27
Verstehst du das? Oder kann man sagen.
0:05:29–0:05:33
Ist es doch immer noch eine Randerscheinung oder würdest du sagen,
0:05:33–0:05:36
das ungute Gefühl ist gerechtfertigt?
0:05:36–0:05:40
Es ist gerechtfertigt, weil diese Entscheidungen werden so oft,
0:05:40–0:05:45
so häufig und überall gemacht, dass die Effekte auch unser Leben eigentlich
0:05:45–0:05:47
fast schon beherrschen.
0:05:47–0:05:49
Das heisst, wenn man da jetzt sagt, ich habe ein ungutes Gefühl,
0:05:50–0:05:54
eigentlich sollte man sagen, ja, ich weiss, ich sollte ein ungutes Gefühl haben.
0:05:54–0:06:03
Ja, die Software, die Entscheidungssysteme werden trainiert mit Daten und eben,
0:06:03–0:06:06
unser Eindruck ist vielleicht auch, ja, das ist eine Maschine,
0:06:06–0:06:09
die ist unbestechlich, die ist farbenblind,
0:06:09–0:06:13
aber da würdest du wahrscheinlich sagen, ich stelle jetzt eine Suggestivfrage,
0:06:14–0:06:17
das ist eine völlige Fehleinschätzung.
0:06:17–0:06:21
Komplett. Die Maschinen sind natürlich für einen Zweck designt,
0:06:21–0:06:26
dass sie dann natürlich einen Prozess und einen Entscheid optimieren.
0:06:29–0:06:34
Und wenn man dann einfach die historischen Daten nimmt, wir müssen Diskriminierung,
0:06:34–0:06:36
Ungleichheit, das gibt es in der Welt.
0:06:36–0:06:40
Und die Maschinen sind natürlich, die machen genau das, was man von ihnen verlangt.
0:06:40–0:06:42
Die bilden das dann auch so genau wie möglich ab.
0:06:44–0:06:47
Und das ist natürlich fatal, wenn man dann nicht interveniert und sagt,
0:06:47–0:06:52
ja, aber diese Ungerechtigkeit oder diese Diskriminierung, die wollen wir in
0:06:52–0:06:53
unserem System nicht haben.
0:06:54–0:06:57
Aber das muss man zuerst überhaupt mal merken, dass die drin ist.
0:06:57–0:07:02
Ich stelle mir das noch schwierig vor, wenn man mal so eine Software trainiert hat.
0:07:02–0:07:06
Dann probiert man sie vielleicht bei fünf, zehn, zwanzig Leuten aus und findet
0:07:06–0:07:11
ja, das ist super, was da rauskommt. Aber ob es dann beim 100. oder beim 1000.
0:07:12–0:07:16
Anwendungsfall immer noch so ist, das merkt dann keiner mehr so genau.
0:07:16–0:07:20
Das wird schon genau überwacht in der Performance, oder?
0:07:20–0:07:24
Weil die Algorithmen sind ja ein wichtiger Bestandteil von Geschäft,
0:07:25–0:07:28
von Prozessen, die natürlich möglichst profitabel sein sollten.
0:07:28–0:07:33
Also die werden natürlich genau überwacht, nur nicht auf die Frage,
0:07:33–0:07:37
wie sind sie jetzt auch diskriminierend. Oder sind sie sicher?
0:07:37–0:07:43
Oder können sie einen kumulierenden Effekt verursachen?
0:07:43–0:07:50
Kann man da grundsätzlich fragen, ob solche Maschinen überhaupt Entscheidungen treffen sollten?
0:07:50–0:07:55
Oder ist das ein grundsätzlicher Fehler, weil diese keine Moral haben,
0:07:55–0:08:00
sie haben kein Bewusstsein, dass ihnen das selber passieren könnte?
0:08:00–0:08:06
Als Mensch hast du ja immer das Gefühl, dass du andere so behandeln willst,
0:08:06–0:08:11
im Idealfall, wenn du selbst behandelt werden willst. Das kann dieser Maschine völlig egal sein.
0:08:11–0:08:16
Man kann sie nicht verklagen, sie kann nicht eine Busse bekommen, die sie zahlen muss.
0:08:16–0:08:20
Sie kann da eigentlich auch völlig skrupellos agieren. Man könnte sagen,
0:08:20–0:08:22
sie darf einfach keine Entscheidungen treffen.
0:08:25–0:08:30
Das Problem ist nicht, dass es um die Maschine oder den Algorithmus geht, klar.
0:08:30–0:08:35
Das ist ein Boot für einen Zweck und nach Spezifikationen.
0:08:35–0:08:40
Regeln müssten kommen für diejenigen, die diese Algorithmen erstellen,
0:08:40–0:08:44
trainieren und dann auch in der Produktion einsetzen.
0:08:45–0:08:49
Diese sollten sich an klarere Regeln halten, dass sie sich über solche Fragen
0:08:49–0:08:55
Gedanken machen und dann die Risiken von Ihrem System versuchen zu minimieren, so systematisch.
0:08:56–0:09:01
Wie kann man diese Risiken dann minimieren? Muss man einfach diese Entscheidungen
0:09:01–0:09:07
immer noch von Hand, also manuell als Mensch, kontrollieren?
0:09:07–0:09:15
Oder gibt es auch die Möglichkeit, zu erkennen, wo so ein KI oder so ein System
0:09:15–0:09:17
die grundlegende Schwäche haben könnte?
0:09:19–0:09:22
Die Nachkontrolle oder sagen wir das Recht drauf dann eine Entscheidung von
0:09:22–0:09:25
einem Menschen bekommen das ist zum Beispiel etwas, was die Amerikaner jetzt
0:09:25–0:09:30
immer mehr bringen was die EU jetzt bringt aber das ist so ein Pflösterchen
0:09:30–0:09:33
oben drauf, was wichtig ist ist, dass man,
0:09:34–0:09:40
von Anfang an, bevor man überhaupt anfängt, irgendetwas zu programmieren sich systematisch überlegt,
0:09:41–0:09:47
welche Risiken könnte mein System haben für alle möglichen Aspekt und nicht
0:09:47–0:09:52
nur Diskriminierung, Sicherheit, Health and Safety, Grundversorgung,
0:09:52–0:09:54
wo auch immer das System auch ist.
0:09:55–0:10:01
Und dass man das systematisch aufarbeitet und die Risiken halt minimiert.
0:10:01–0:10:04
Risiken kann man ja nie ganz verschwinden lassen, das ist illusorisch,
0:10:04–0:10:09
aber dass man sich denen bewusst ist, dass man sie verfolgt und Schritt macht,
0:10:09–0:10:12
um die Risiken zu mitigieren.
0:10:13–0:10:17
Wird das heute gemacht oder ist das heute so ein laissez-faire,
0:10:18–0:10:21
also solange es keine expliziten Gesetze gibt?
0:10:21–0:10:24
Wir reden dann noch über den EU-AI-Act.
0:10:24–0:10:30
Aber sind sich die Unternehmen nach deiner Erfahrung dem Problem bewusst oder
0:10:30–0:10:34
finden die, ja, solange niemand reklamiert, ist alles in Ordnung?
0:10:35–0:10:40
Es gibt eine ganz kleine Anzahl von Firmen, die sich dem Problem sehr bewusst
0:10:40–0:10:46
sind und komplexe Strukturen, interne Prozesse haben, um zu schauen,
0:10:46–0:10:49
dass ihre Systeme nicht ein Problem verursachen.
0:10:49–0:10:53
Das sind die ganz grossen Tech-Firmen, das sind Google, das sind Meta.
0:10:53–0:10:59
Die haben schon über ein Jahrzehnt Erfahrung drin, weil für sie wäre es natürlich fatal,
0:11:00–0:11:03
wenn rauskommt, das neue System, das jetzt bei Hunderten von Millionen Leuten
0:11:03–0:11:09
läuft, ist, was an sich diskriminierend, rassistisch oder macht Leute unsicher.
0:11:09–0:11:13
Also die haben ganz klare Prozesse, was sie machen. Sobald man von diesen Firmen
0:11:13–0:11:16
weggeht, ja, so genau ist nicht geschaut worden.
0:11:17–0:11:21
Bei den meisten Firmen ist das entweder gar nicht auf der Agenda oder irgendwann
0:11:21–0:11:23
schauen wir es uns mal an.
0:11:24–0:11:26
Vielleicht schreiben wir schon ein paar schöne Blogposts, die sie anhaben,
0:11:26–0:11:31
die sind da jetzt interessiert und haben das Center of Excellence für Ethical AI und so.
0:11:33–0:11:40
Und Und aus der Rechtssicht, ja gut, in Europa, wir haben bis vor kurzem,
0:11:40–0:11:44
weder in der Schweiz noch in der EU, explizit KI-Recht gehabt.
0:11:45–0:11:49
In Amerika ist es ein bisschen anders, weil einfach die Rechtstradition dort
0:11:49–0:11:51
anders ist, die Rechtsstruktur ist anders.
0:11:52–0:11:57
In den USA darf man zum Beispiel auf gewisse Sachen nicht diskriminieren und
0:11:57–0:12:01
es ist völlig egal, ob das jetzt ein Mitarbeiter oder Mitarbeiterin in der Bildversicherung
0:12:01–0:12:02
ist oder der Algorithmus.
0:12:03–0:12:09
Und was die USA gemacht haben, Präsident Biden hat im November letztes Jahr
0:12:09–0:12:13
einen Executive Order rausgegeben und der Behörde einfach gesagt,
0:12:13–0:12:16
ihr müsst dieses existierende Recht,
0:12:17–0:12:21
jetzt anwenden auf Fälle, wo KI drin ist. Ihr müsst das Know-how haben,
0:12:21–0:12:24
ihr müsst die Leute haben, dass ihr das machen könnt. Und das ist schon passiert.
0:12:26–0:12:29
Die grosse Behörde, also die Federal Trade Commission, die Wettbewerbskommission,
0:12:29–0:12:34
ist stark dahinter, das Department of Justice, das Justizministerium ist dahinter.
0:12:34–0:12:37
Da kommen jetzt schon die ersten Fälle und die ersten Strafen,
0:12:37–0:12:41
wo klar gesagt wird, das dürft ihr nicht, egal ob das jetzt mit KI ist oder nicht.
0:12:42–0:12:47
Findest du denn aus deiner Sicht, das ist den Unternehmen wirklich ein Bedürfnis,
0:12:47–0:12:52
das auch zu regeln oder sagen die einfach, wir wollen bloß nicht verwutscht
0:12:52–0:12:55
werden, weil es ein riesiges Reputationsrisiko sein könnte?
0:12:55–0:13:06
Ich glaube, die Firmen haben primär KI einfach als effizienzsteigernd angesehen, als Investment,
0:13:06–0:13:10
um mehr Business zu treiben.
0:13:10–0:13:16
Und da ist es natürlich auch wahnsinnig gut. Die Firmen werden dadurch effizienter,
0:13:16–0:13:17
die Produkte werden besser.
0:13:17–0:13:21
Wir haben heute bessere Produkte und Services, weil bei vielen AI drin ist.
0:13:21–0:13:29
Und es gibt schon Firmen, die zumindest nach aussen Commitments machen zu Ethical AI.
0:13:30–0:13:35
Wie viel da wirklich gemacht wird, meiner Erfahrung nach, nicht so viel und
0:13:35–0:13:37
in vielen Orten gar nicht.
0:13:37–0:13:41
Man kann vielleicht vergleichen mit der Cybersicherheit, das ist auch so etwas,
0:13:41–0:13:44
wo eigentlich der, der das im Unternehmen durchdrucken muss,
0:13:44–0:13:52
eigentlich immer der ist, Das ist, was Kosten verursacht, ohne wirklich einen sichtbaren Nutzen.
0:13:52–0:13:58
Genau. Und dann, wenn der grosse Ransomware-Fall kommt oder die Kundendaten
0:13:58–0:14:00
entwendet worden sind, dann ist es ein Desaster.
0:14:00–0:14:03
Und dann, wieso haben wir uns darauf nicht vorbereitet? Genau.
0:14:03–0:14:05
Und dann ist es vielleicht aber auch schon ein bisschen zu spät.
0:14:06–0:14:11
Wie ist es aus deiner Sicht in der Schweiz?
0:14:11–0:14:14
Sind sich die Leute bewusst, was die Möglichkeiten sind?
0:14:16–0:14:21
Die grossen Unternehmen sind sich das sicher bewusst, aber bei den KMUs.
0:14:23–0:14:28
Brauchen die so künstliche Intelligenz, haben die das auf dem Schirm,
0:14:28–0:14:32
experimentieren die oder gibt es auch solche, die sagen, jawohl,
0:14:32–0:14:35
das ist meine riesen Chance, ich setze da voll drauf?
0:14:35–0:14:40
Ich glaube, wir sind ja in der Schweiz, werden immer wieder in den Rankings
0:14:40–0:14:46
als sehr innovatives Land gewürdigt und ein Teil davon ist,
0:14:46–0:14:51
dass wir pragmatische Early Adopters sind generell und das ist so mein Eindruck,
0:14:52–0:14:57
dass Firmen das doch gern und experimentierfreudig einsetzen.
0:14:57–0:15:03
Und ich sehe da nicht, dass wir da irgendwie Abstand nehmen,
0:15:03–0:15:05
oh AI, wir können damit nicht umgehen.
0:15:06–0:15:13
Was vielleicht noch dazukommt, ist, dass durch den Erfolg von ChatGPT und dem
0:15:13–0:15:17
grossen Sprachmodell, dass sich unser Bild von KI jetzt auch verändert hat.
0:15:17–0:15:22
Also wenn man jetzt sagt, in einer Konversation KI denken alle sofort an die Sprachmodelle.
0:15:23–0:15:27
Die sind super spannend und die können auch viel. Aber das ist nur ein winziger
0:15:27–0:15:29
Teil von all den KI-Anwendungen.
0:15:30–0:15:36
Die meisten KI-Anwendungen sind einfachere Algorithmen, die einfach Daten reinnehmen
0:15:36–0:15:37
und einen Entscheid treffen.
0:15:37–0:15:42
Wie zum Beispiel bei der Versicherung, wo die Daten von der Bewerberin den Bewerber
0:15:42–0:15:46
reinnehmen und dann sagen sie «Thumbs up, thumbs down». Das sind nicht grosse
0:15:46–0:15:48
Sprachmodelle, das sind einfachere Algorithmen.
0:15:49–0:15:55
Was jetzt dazukommt, ist, dass die Definition von KI sich immer weiter ausweitet,
0:15:55–0:16:00
bis zu einer Definition, die jetzt von der OECD angenommen ist.
0:16:00–0:16:06
Das KI ist ein System, wo Daten reinkommen und Entscheidungen oder Antworten
0:16:06–0:16:08
oder Klassifizierungen herauskommen.
0:16:08–0:16:12
Und damit ist die Formel im Excel möglicherweise auch.
0:16:12–0:16:17
KI, ja. Genau, dann hätten wir schon seit 50 Jahren KI, nach dieser Definition.
0:16:17–0:16:21
Die Amerikaner sind dann natürlich wie immer pragmatischer. Die haben jetzt
0:16:21–0:16:27
immer weniger den Begriff AI in ihren Gesetzen und Regulierungen verwendet.
0:16:27–0:16:32
Und sie nennen den Begriff Automated Decision System, also automatisiertes Entscheidungssystem.
0:16:32–0:16:36
Und dann ist es auch viel klarer, ja gut, wenn ich jetzt Daten hineinfüttern
0:16:36–0:16:39
und eine Entscheidung herauskomme, dann habe ich so ein System.
0:16:39–0:16:44
Genau, es wäre eigentlich sinnvoll, dass man das nicht an der Technik misst,
0:16:44–0:16:48
sondern an dem, was es macht und was es eben allenfalls dann auch bedeutet für
0:16:48–0:16:50
die Anwender und die Betroffenen.
0:16:50–0:16:55
Genau, ob ich jetzt von Chat-GPT diskriminiert werde oder von einer Excel-Formel, ist mir ja egal. Genau.
0:16:57–0:17:02
Ich glaube, das ist ein guter Moment, um auf das AI-Gesetz von der EU zu kommen.
0:17:02–0:17:06
Das ist ja jetzt in Kraft, also es ist bewilligt worden.
0:17:07–0:17:11
Es wird dann demnächst, glaube ich, wenn ich das richtig verstanden habe,
0:17:11–0:17:14
ich finde immer, dass bei der EU zu verstehen, wie die Abläufe sind, noch schwierig.
0:17:14–0:17:19
Aber es muss dann publiziert werden und dann hat man noch so eine Übergangsfrist
0:17:19–0:17:23
und dann irgendwann mal greift es dann und dann müssen diese Regeln gelten.
0:17:23–0:17:28
Und die EU hat, wenn ich das richtig verstanden habe, mal so das risikobasierte
0:17:28–0:17:31
Modell, wo man sagt, eben gewisse Sachen will man ganz verbieten,
0:17:31–0:17:32
die will man nicht haben.
0:17:32–0:17:36
Also dass irgendeiner kann einfach mittels Gesichtserkennung schauen,
0:17:37–0:17:41
wer an seinem Haus vorbeiläuft und das Registrieren will man gar nicht.
0:17:41–0:17:46
Dann hat man Systeme, die strenger reguliert werden, das sind so medizinische
0:17:46–0:17:51
Sachen, glaube ich auch, so Self-Driving, also so selbstlenkend.
0:17:51–0:17:54
Also leuchtet eigentlich auf den ersten Blick ein, was die machen.
0:17:54–0:17:59
Ist das auch deine Wahrnehmung, ist das ein Gesetz, das dir einleuchtet?
0:17:59–0:18:00
Hättest du es auch so gemacht?
0:18:02–0:18:07
Wir haben uns die frühen Versionen des AI Act vor über zweieinhalb Jahren angeschaut.
0:18:08–0:18:11
Und da ist zwei Sachen klar gewesen. Der erste ist, das haben wir jetzt gerade
0:18:11–0:18:17
besprochen, dass das Produkt reguliert wird, nicht die Technologie und dass
0:18:17–0:18:19
es eben der risikobasierte Ansatz ist.
0:18:19–0:18:23
Also für was wird es eingesetzt und was ist das Risiko für die Bevölkerung,
0:18:23–0:18:26
für die Nutzerinnen und Nutzer.
0:18:27–0:18:32
Und das Gesetz wäre wahrscheinlich ohne grosse Aufmerksamkeit einfach durch
0:18:32–0:18:37
Brüssel durchgekommen wie damals bei GDPR beim Datenschutz und plötzlich gilt
0:18:37–0:18:46
das Gesetz beim AI Act ist etwas anderes passiert weil bevor er fertig war ist Chachi Biti gekommen,
0:18:47–0:18:52
das ist Thema Nummer 1 geworden und plötzlich haben alle KI regulieren wollen
0:18:52–0:18:57
und ich sage das immer so dass es kein Witz ist ist, dass sogar der Papst nach
0:18:57–0:18:59
KI-Regulierung gerufen hat.
0:18:59–0:19:04
Also die EU plötzlich gesagt, ja, okay, gut, jetzt werden plötzlich alle,
0:19:04–0:19:09
jetzt schauen alle auf uns und was noch interessant ist, klar will jeder KI selber regulieren,
0:19:10–0:19:15
aber letzten Endes haben viele einfach bei der Europäer abgeschrieben und angepasst.
0:19:15–0:19:18
Jetzt muss ich doch noch schnell fragen, was hat der Papst für eine KI?
0:19:19–0:19:23
Das weiss ich nicht. Da bin ich nicht die richtige Stellung.
0:19:24–0:19:27
Okay, ich komme Das können wir bei der katholischen Kirche nachfragen.
0:19:27–0:19:31
Nein, und in diesem Prozess ist dann das Lobbying reingekommen,
0:19:31–0:19:35
weil so viel Geld investiert worden ist in OpenAI, in Anthropic,
0:19:35–0:19:37
in all die Startups, die jetzt KI machen.
0:19:37–0:19:43
Und dann kam ein gewaltiges Lobbying hin und her und politische Kontroverse,
0:19:43–0:19:49
bis sogar Macron und Scholz intervenieren mussten in diesem Verhandlungsprozess.
0:19:49–0:19:54
Und jetzt haben wir ein Gesetz, das viel komplexer ist, Viel komplizierter,
0:19:54–0:19:59
viel unklarer, viel mehr Ecken und Kanten hat auch.
0:20:00–0:20:05
Und wir müssen eigentlich immer noch ein bisschen verstehen,
0:20:05–0:20:06
was das jetzt wirklich bedeutet.
0:20:09–0:20:14
Und diese Interventionen sind auch, würdest du sagen, die waren nur negativ?
0:20:14–0:20:18
Das sind einfach Leute, die das Geschäft gewittert haben und sich das nicht
0:20:18–0:20:21
haben wollen durch so Gesetze verderben lassen?
0:20:21–0:20:26
Sage ich jetzt ein bisschen überspitzt, oder gibt es auch wirklich berechtigte
0:20:26–0:20:30
Überlegungen, dass man sagt, wenn sie in anderen Weltregionen, China sagt,
0:20:30–0:20:36
die finden das noch so toll, wenn die EU das reguliert, dann können sie einfach machen, was sie wollen.
0:20:36–0:20:40
Ist da auch etwas Wahres daran, dass man sich vielleicht selber hindert daran,
0:20:41–0:20:45
führend zu werden, wenn man die AI reguliert?
0:20:47–0:20:50
Ich finde es wirklich spannend, jetzt im öffentlichen Diskurs zum AI Act,
0:20:50–0:20:55
wo die Leute sagen, die EU zerstört Innovation und es wird nie eine grosse Tech-Firma
0:20:55–0:20:58
in Europa geben, weil die EU nur regulieren kann.
0:21:00–0:21:03
Wir haben gerade vorher besprochen, also die EU hat jetzt ein Gesetz,
0:21:03–0:21:08
wo man Klarheit hat, was in den nächsten zwei Jahren kommt und wo man sich anpassen
0:21:08–0:21:12
muss, zertifizieren lassen. Und ja, diese Regeln gelten in Europa,
0:21:13–0:21:14
aber sie sind extra-territorial, d.h.
0:21:14–0:21:18
In der Schweiz müssen wir uns de facto auch daran halten und in anderen Ländern auch.
0:21:20–0:21:23
Aber es hat einen klaren Zeitplan, klare Regeln, man kann sie alle lesen.
0:21:24–0:21:28
In Amerika kommt der Präsident und sagt, check executive order,
0:21:28–0:21:32
jetzt wird ab sofort Enforcement gemacht von Regeln, die wir noch gar nicht richtig verstehen.
0:21:32–0:21:42
Das Argument, dass Amerika mit fehlender Regulierung das Wirtschaftswachstum
0:21:42–0:21:43
anbringt, das stimmt gar nicht.
0:21:44–0:21:51
Heute hat man schon das Risiko, dass man abgestraft wird in den EU erst in mindestens sechs Monaten.
0:21:51–0:21:57
Und es kommt eigentlich darauf hinaus, dass die Tech-Firmen natürlich Regulierung
0:21:57–0:22:00
gerne haben, wie sie das zur Verteidigung nutzen.
0:22:00–0:22:04
Also was war das grösste Lobbying im AI Act? Die grossen Tech-Firmen wollten
0:22:04–0:22:09
nicht, dass sie mit ihren grossen Sprachmodellen, wo Milliarden investiert worden
0:22:09–0:22:11
sind, dass diese direkt reguliert werden.
0:22:11–0:22:16
Und dass alle Verantwortung auf die Nutzer geht, also die Firmen,
0:22:16–0:22:21
die Startups, die KMU, die mit diesen Sprachmodellen jetzt ihre Produkte bauen.
0:22:21–0:22:24
Und das haben sie fast, nicht ganz, aber fast geschafft.
0:22:25–0:22:29
Die meiste Verantwortung ist jetzt Die grossen Strafen kommen beim Anwender.
0:22:30–0:22:32
Das Einzige, was ich nicht geschafft habe, und das wird sowieso spannend.
0:22:34–0:22:39
Auch wegen der Rechtsfälle in den USA, ist die Frage der Trainingsdaten.
0:22:39–0:22:42
Also im AI Act wird gesagt, auch bei den grossen Sprachmodellen,
0:22:42–0:22:46
muss man die Trainingsdaten jetzt offenlegen, damit die Leute,
0:22:46–0:22:53
die sagen, ja, Urheberschutz bitte, dass die wissen können, wo sind meine Werke
0:22:53–0:22:54
eigentlich benutzt worden.
0:22:55–0:22:59
Und das haben sie nicht ganz herausgebracht, Das wollte es natürlich heraus, aber das ist jetzt da.
0:23:01–0:23:03
Wiederum, das ist jetzt ein Gesetz, das jetzt langsam kommt.
0:23:03–0:23:07
In Amerika wird OpenAI von den New York Times verklagt.
0:23:08–0:23:14
Die New York Times hat gefordert, dass OpenAI die Modelle zerstört.
0:23:15–0:23:19
Also wenn der Richter sagt, die New York Times hat recht, das ist Copyright-Verletzung,
0:23:19–0:23:22
was sie ja gemacht haben bei OpenAI, sagen die, wir wollen, dass die Modelle
0:23:22–0:23:26
gelöscht werden, zerstört werden. Und dann haben noch ein paar Arbeiter ein
0:23:26–0:23:27
bisschen nachgerechnet.
0:23:27–0:23:34
In Amerika gibt es ja im Urheberrecht pro Fall eine Strafe von ca. 100'000 Dollar.
0:23:35–0:23:41
Das heisst, OpenAI könnte eine Copyright-Liability haben, bei einer grossen
0:23:41–0:23:44
Ordnung von Billionen von Dollar.
0:23:45–0:23:51
Ja, das wäre eindrücklich. Und das ist härter, als was die EU da jetzt geplant hat.
0:23:52–0:23:57
Also ich gehöre raus, du würdest vielleicht sagen, dass am Schluss wirklich
0:23:57–0:24:02
einfach die Anwender von diesen KIs schuld sind, das ist ein bisschen schwierig an diesem Gesetz.
0:24:03–0:24:06
Gibt es noch andere Sachen, die du jetzt anders gemacht hättest oder wo du einen
0:24:06–0:24:11
anderen Schwerpunkt legen würdest, wenn du da der Gesetzgeber wärst?
0:24:12–0:24:16
Ich glaube, da haben sie schon ein bisschen drin.
0:24:18–0:24:23
Was fehlt und was ein grosses Problem verursachen könnte, ist,
0:24:23–0:24:28
dass der EU jetzt gewisse Prozesse vorsieht für Registrierung,
0:24:28–0:24:30
für Audits, für Zertifizierung.
0:24:31–0:24:38
Und ich sehe ein grosses Risiko, dass das nicht rechtzeitig fertig wird.
0:24:38–0:24:41
Und dann haben wir das Problem, wenn in eineinhalb Jahren jede Firma sagt,
0:24:41–0:24:45
jetzt muss ich aber mein System noch zertifizieren lassen. es gibt kein Audit,
0:24:45–0:24:45
es gibt keine Stelle, es gibt nichts.
0:24:46–0:24:49
Und dann hat man plötzlich das Problem, dass man von einem Deadline-Staat möglicherweise
0:24:49–0:24:51
das Produkt nicht mehr auf den Markt bringen darf.
0:24:51–0:24:58
Also ich glaube, mehr Sorgen, mehr Investment in die Hilfe des Staates,
0:24:58–0:25:02
vor allem für die kleineren Firmen, um sich davor zu bereiten,
0:25:02–0:25:03
wäre sicher erwünschenswert.
0:25:04–0:25:07
Genau, und damit sind wir ja auch in der Schweiz. Du hast es angedeutet,
0:25:08–0:25:11
das Gesetz gilt zwar nicht in der Schweiz, der Bundesrat überlegt noch,
0:25:11–0:25:16
ob er auch so etwas will oder nicht. Ich glaube, Ende Jahr hat er sich das dann
0:25:16–0:25:18
überlegt, vielleicht, oder auch nicht.
0:25:18–0:25:25
Aber es gilt zumindest schon für Unternehmen, die mit Unternehmen im EU-Raum beschäftigen.
0:25:25–0:25:29
Und da sind sie dann auch dem unterworfen.
0:25:29–0:25:34
Und das heisst, da kommst du auch ein wenig ins Spiel. Du kannst uns dann noch erklären, wie.
0:25:34–0:25:39
Die müssen jetzt eigentlich, diese Unternehmen, mal schauen.
0:25:39–0:25:42
Als erstes wahrscheinlich überhaupt, was haben wir für Software,
0:25:43–0:25:45
die da betroffen könnte sein?
0:25:46–0:25:50
Absolut. Also ich meine, wir sind so im Moment in der Phase,
0:25:50–0:25:51
wo viele Firmen sagen, ja,
0:25:52–0:25:59
aber wir haben ja nicht wirklich AI und wir sind ja nicht in der EU und so ein
0:25:59–0:26:02
bisschen Rationalisierung, wieso man nichts machen sollte.
0:26:02–0:26:05
Genau, die haben das mit dieser Excel-Formel noch nicht verstanden.
0:26:05–0:26:09
Die haben das nicht verstanden und das mit der Extraterritorialität,
0:26:09–0:26:13
die die EU da erwartet, die durch die ganze Supply Chain durchgeht.
0:26:13–0:26:17
Und ich sage immer noch, wenn ich mit Schweizer KMU rede und die sagen so etwas,
0:26:17–0:26:21
sind die GDPR compliant? Und sie sagen, ja, sicher sind wir das.
0:26:22–0:26:25
Und sind das auch schon vor unserem Datenschutzgesetz? Ja, klar.
0:26:25–0:26:30
Und genauso wird es sein. Genauso wird es sein, weil sie können ihr Produkt,
0:26:30–0:26:35
wenn sie jetzt Software machen, oder ein Produkt, in dem Software und AI drin
0:26:35–0:26:39
ist, nach dieser Definition, könnten sie noch nicht einmal exportieren,
0:26:40–0:26:45
weil die Importeure in Europa das gar nicht annehmen könnten.
0:26:45–0:26:50
Es ist lustig, ich habe jetzt schon die ersten Anfragen von Firmen bekommen,
0:26:50–0:26:56
die Folgendes sagen, unsere Kunden haben gefragt, sind sie AI Act Compliant?
0:26:57–0:27:01
Das ist natürlich die korrekte Antwort. Niemand kann heute schon AI compliant sein.
0:27:01–0:27:06
Das macht gar keinen Sinn. Niemand kann zertifiziert sein. Man kann sich aber darauf vorbereiten.
0:27:07–0:27:10
Darum muss sich jede Firma, die irgendetwas in Richtung AI macht,
0:27:10–0:27:14
jetzt überlegen, was für ein Managementsystem sie haben.
0:27:14–0:27:18
Wie beantwortet sie die Frage vom Kunden, der dann sagt, ja, seid ihr compliant?
0:27:19–0:27:20
Genau. Und wie macht man das? Ich nehme
0:27:20–0:27:25
an, man macht mal ein Inventar von Softwarelösungen, die man so einsetzt.
0:27:25–0:27:31
Und dann muss man diese einzeln durchgehen. Und dann würde ich mal zum Hersteller
0:27:31–0:27:34
gehen von dieser Lösung, wenn sie nicht selbst gelistet ist, und sagen,
0:27:35–0:27:42
Was ist euer Plan, dass wir in zwei Jahren auch voll zertifiziert sind und dann
0:27:42–0:27:47
bei den eigenen Anwendungen, bei den eigenen Produkten, was ist unser Plan als Organisation.
0:27:48–0:27:50
Dass wir in zwei Jahren voll zertifiziert sind?
0:27:50–0:27:54
Genau, dann hast du vielleicht einen, der mal ein Excel-Makro geschrieben hat,
0:27:54–0:27:58
der vielleicht längstens nicht mehr bei der Firma arbeitet und dann fragst du
0:27:58–0:28:01
dich, was ist jetzt bei dem und was hast du dann für eine Möglichkeit,
0:28:01–0:28:04
wenn du sagst, ich habe keine Ahnung, wie ich das jetzt beurteilen soll.
0:28:04–0:28:10
Das ist eine extrem schwierige Frage, weil die Abschätzung muss jetzt erstmal
0:28:10–0:28:12
jede Firma machen, das Inventar.
0:28:12–0:28:18
Und basierend auf dem, was sie haben, sagen, das Excel-Makro ist irgendwie 80%
0:28:18–0:28:22
von unserem Umsatz, müssen sie sich überlegen, wie sie das wahrscheinlich,
0:28:23–0:28:25
wie der Mitarbeiter oder die Mitarbeiterin, die gegangen ist,
0:28:25–0:28:28
wahrscheinlich auch keine gute Dokumentation hinterlassen hat.
0:28:28–0:28:32
Dann ist es wahrscheinlich die einzige Option, dass Sie das ganze System von
0:28:32–0:28:38
Anfang an neu aufbauen, neu programmieren, dokumentieren, sodass wenn dann die
0:28:38–0:28:42
Zeit kommt, dass es auch zertifizierbar ist und den Regeln entspricht.
0:28:42–0:28:49
Das ist ein riesiger Aufwand, das ist mir klar, aber wir haben einen Präzedenzfall dafür mit GDPR.
0:28:51–0:28:55
GDPR hatte auch so eine Übergangskrise von zwei Jahren. Das waren 2016 bis 2018.
0:28:56–0:29:03
In diesen zwei Jahren mussten alle Firmen, die persönliche Daten verarbeitet
0:29:03–0:29:06
haben, ihre Systeme neu bauen.
0:29:07–0:29:11
Wir haben versucht herauszufinden, wie viel investiert wurde.
0:29:12–0:29:16
Es gibt eine Schätzung der EU-Kommission, dass weltweit, nur in diesen zwei
0:29:16–0:29:24
Jahren, 200 Milliarden Euro investiert worden sind, nur um die GDPR-Compliance am Anfang zu erreichen.
0:29:26–0:29:32
Ich vermute stark, dass der Effort, der in den nächsten zwei Jahren für AIACT
0:29:32–0:29:36
kommt, vergleichbar ist, wenn nicht sogar grösser als der für GDPR.
0:29:36–0:29:40
Was kannst du mit deinem Unternehmen anbieten in diesem Bereich?
0:29:41–0:29:45
Wir haben eben vor zweieinhalb Jahren den AIACT gesehen. Was noch lustig ist,
0:29:45–0:29:49
hat man eine SWOT-Analyse gemacht und plötzlich gemerkt, was ist der Threat,
0:29:49–0:29:51
was ist die Bedrohung? AI wird reguliert.
0:29:52–0:29:56
Und dann haben wir das Gesetz gelesen und haben uns Gedanken gemacht und realisiert,
0:29:56–0:30:00
ja nein, das ist so eine fundamentale Änderung, die da kommt,
0:30:00–0:30:04
das wird so kompliziert, niemand wird das einfach mal umsetzen in einer Woche.
0:30:04–0:30:08
Dafür braucht es Tools, dafür braucht es Software.
0:30:08–0:30:13
Und seitdem bauen wir an einer Plattform, an einem AI-Management-System,
0:30:13–0:30:19
wo man die Prozesse und das Wissen, was man für AI-Compliance braucht,
0:30:19–0:30:26
abbilden kann, sodass wenn der Auditor kommt, dass man nachschauen kann,
0:30:26–0:30:28
es ist alles nach Vorschrift gemacht worden,
0:30:29–0:30:33
es wird alles gelockt, die Prozesse werden gelapt, das Risikomanagement wird
0:30:33–0:30:39
gelebt und umgesetzt, dass man dann auch sowohl die Organisation als auch das
0:30:39–0:30:43
Produkt gut darstellen und zertifizieren auf dem Markt kann.
0:30:43–0:30:47
Also ihr hattet die richtige Nase und jetzt ist auch ein grosser Moment,
0:30:47–0:30:50
kann man das ein bisschen überspitzt so sagen?
0:30:51–0:30:59
Wir haben wirklich sehr früh gemerkt, dass das etwas Größeres und Wichtiges werden könnte.
0:31:00–0:31:05
Wir hatten damals noch ein kleines Start-up und wussten nicht,
0:31:05–0:31:06
wann das Gesetz kommen würde.
0:31:06–0:31:10
Das ist ja immer ein grosses Risiko, EU-Gesetzgebung.
0:31:10–0:31:12
Genau, es hat nochmal fünf Jahre kommen müssen. Ja, genau.
0:31:12–0:31:18
Und der grosse Wendepunkt kam mit der Chat-GPT.
0:31:18–0:31:21
Denn dann war klar, jetzt muss nicht nur die EU etwas machen,
0:31:21–0:31:22
jetzt muss jeder etwas machen.
0:31:23–0:31:28
Und jetzt sind wir an dem Punkt, wo wir die Lösung für diesen Moment haben.
0:31:28–0:31:33
Also wenn ich ein Unternehmen habe und nicht weiss, wie ich das Problem lösen
0:31:33–0:31:37
soll, dann kann ich bei euch fragen und ihr helft mir dann. Absolut.
0:31:38–0:31:43
Sehr schön. Wir sind schon ein bisschen über der Zeit, aber ich glaube,
0:31:43–0:31:46
das ist für einmal erlaubt auf Radio Stadtfilter.
0:31:46–0:31:50
Ich möchte in die Schlussphase gehen und dich noch allgemein fragen,
0:31:50–0:31:52
haben wir das jetzt richtig gemacht?
0:31:52–0:31:56
Wir, ich sage jetzt ganz gross, als Menschheit mit dieser KI,
0:31:56–0:32:00
dass wir jetzt probieren, damit umzugehen?
0:32:00–0:32:03
Oder würdest du sagen, sind wir da blind ein bisschen in etwas eingestolpert,
0:32:03–0:32:08
wo wir jetzt überlegen müssen, wie wir die Büchse von der Pandora oder eben
0:32:08–0:32:11
die Geister, die wir hier gerufen haben, wieder irgendwie können,
0:32:12–0:32:14
zumindest wieder ein bisschen einfangen?
0:32:15–0:32:18
Wir sind total blind eingestolpert. Es hat sehr wenige Leute gegeben,
0:32:19–0:32:23
die sich wirklich mit diesem Thema befasst haben, bevor wirklich dieser Chat-JP gekommen ist.
0:32:23–0:32:27
Und es gibt ja so zwei Camps, wenn man es vereinfacht. Es gibt die Leute,
0:32:27–0:32:30
die sich Sorgen machen, dass KI die Menschheit auslöschen wird.
0:32:30–0:32:32
Das ist das grösste Risiko seit der Erfindung der Atombombe.
0:32:33–0:32:37
Da ist noch vieles davon Marketing von den Firmen, die sagen,
0:32:37–0:32:41
unser Produkt könnte die Menschheit zerstören. Wir nehmen Checks für das Investieren.
0:32:41–0:32:45
Das ist natürlich auch dabei, aber ich würde es nicht ganz abtun.
0:32:45–0:32:49
Es gibt die Leute, die sagen, das ist jetzt einfach die nächste Stufe der Technologieentwicklung.
0:32:49–0:32:52
Wir können das kontrollieren, wir können das regulieren. Klar,
0:32:53–0:32:55
wird nicht so einfach sein, da müssen wir jetzt daran arbeiten in den nächsten Jahren.
0:32:57–0:33:02
Ich bin generell eher auf der weniger alarmistischen Seite, aber das heisst
0:33:02–0:33:06
nicht, dass man die Leute, die sich Sorgen machen, nicht ernst nimmt.
0:33:06–0:33:12
Und wir sehen auch, dass vor allem die Regierungen und die Weltmacht die Kontrolle
0:33:12–0:33:18
über die Technologie als so essenziell empfinden, dass da mit ganz harter Bandage gekämpft wird.
0:33:20–0:33:27
Und diese Frage stelle ich gerne Experten in dem KI-Bereich und bin gespannt, was du dazu sagst.
0:33:27–0:33:29
Und zwar allgemein, wenn man
0:33:29–0:33:33
sagt, das ist eine Revolution, dann wo stehen wir bei dieser Revolution?
0:33:33–0:33:38
Sind wir noch ganz am Anfang, sind wir mitten drin oder haben wir das Wesentliche schon gesehen?
0:33:39–0:33:46
Das ist die Frage von unserer Zeit und ich glaube, wir können sie nicht beantworten.
0:33:46–0:33:51
Und das hat einen einfachen Grund, weil diese Teams, diese Firmen,
0:33:52–0:33:56
die an der Grenze jetzt forschen und arbeiten, sind nur noch fünf.
0:33:56–0:34:00
Also die Universitäten sind nicht mehr dabei, KMUs sind nicht dabei,
0:34:00–0:34:05
Startups sind nicht dabei, sogar teils die grössten Firmen der Welt sind da Tier 2, Tier 3.
0:34:06–0:34:08
Es gibt nur noch fünf Players, die wichtig sind.
0:34:08–0:34:10
Google, Facebook.
0:34:12–0:34:18
Microsoft, OpenAI und Anthropic. Das sind die Einzigen, die das Wissen haben,
0:34:18–0:34:23
die Teams haben und die Ressourcen, um da mitzuheben. Und die Ressourcen sind wichtig.
0:34:24–0:34:31
Meta, nur um da mitzuheben, gibt dieses Jahr über 10 Milliarden Dollar aus, nur für GPUs.
0:34:33–0:34:37
Also CapEx von 10 Milliarden Dollar, nur als Entry Ticket, um in dieser Liga zu spielen.
0:34:38–0:34:45
Und ich habe das mal nachgeschaut, um das zu vergleichen. das ist zweimal der Währetat der Schweiz.
0:34:46–0:34:52
Also eine Privatfirma gibt zweimal so viel aus, um bei KI dabei zu sein. Für die Hardware?
0:34:52–0:34:56
Nur für die Hardware, da sind nicht mal die Leute dabei. Ja. Das ist unglaublich.
0:34:57–0:35:01
Kevin Schawinski, ganz herzlichen Dank. Merci vielmals.
0:35:02–0:35:15
Music.

Kevin Schawinski.

Über die Vorteile und Möglichkeiten der künstlichen Intelligenz haben wir im Nerdfunk immer wieder gesprochen. Heute kommt einer zu Wort, der über die Gefahren genau Bescheid weiss und erklärt, wie es dazu kommen kann, dass Systeme automatisch Entscheidungen treffen, die weitreichende Auswirkungen über die Leben von Menschen haben können: Sei es bei der Beurteilung von Versicherungsrisiken, der Vergabe von Krediten oder der Bewertung von Bewerbungs-Dossiers.

Kevin Schawinski gibt im Nerdfunk Auskunft darüber, wie und wo solche Diskriminierungen entstehen und wie sie erkannt werden können. Der Experte gibt auch Auskunft zum AI Act der EU, mit dem die besonders risikoreichen Systeme reguliert werden sollten. Was taugt dieser Ansatz – gerade auch im Vergleich zu der Art und Weise, wie die USA dem Problem Herr werden wollen? Und wie gross ist die Gefahr, dass zu viel Regulierung die Innovation bedroht?

Kevin Schawinski entwickelt mit seinem Unternehmen Modulos Lösungen, mit denen Unternehmen die künstliche Intelligenz gesetzeskonform einsetzen können.

Der Link zur Episode

Beitragsbild: Bald unser aller Boss? (Dall-e 3)

Veröffentlicht von Matthias

Nerd since 1971.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert