Team Timster
Falsche Nachrichten, Bilder und Videos erkennen
Interview mit Kenza Ait Si Abbou Lyadini
Künstliche Intelligenz wird oft genutzt, um falsche Informationen zu verbreiten. Doch wie erkennt man Fake News und Deepfakes? Wir haben dazu mit KI-Expertin Kenza aus der Sendung "Team Timster" gesprochen.
Team Timster: Fake News und Deepfakes
Der Weltrisikobericht bennent Desinfomation als das größte globale Risiko der nächsten Jahre. Fake News und auch Deepfakes spielen in diesem Zusammenhang eine immer größer werdende Rolle. Die aktuelle Sendung von "Team Timster" widmet sich genau diesem Thema.
Interview mit KI-Expertin Kenza Ait Si Abbou Lyadini nach oben
Die KI-Expertin Kenza Ait Si Abbou Lyadini zeigt bei "Team Timster", dass es nicht mehr ausreicht, auf optische Fehler in Bildern oder Videos zu achten. Es geht vielmehr darum, zu hinterfragen, ob die Person von der das Bild oder das Video stannt, wirklich so eine Nachricht teilen würde. Wir haben Kenza zum Interview getroffen und ihr Fragen zum Thema Deepfakes gestellt.
Kenza: "Ein Deepfake ist ein gefälschtes Foto oder Video, was erstellt wurde, um eine Person darzustellen, die das aber nicht gesagt oder dieses Foto nicht gemacht hat."
Kenza: "Deepfakes werden in der Regel mit einer bestimmten Intention erstellt und die Intention kann sehr vielfältig sein. Vielleicht möchte man nur ein bisschen Spaß haben, vielleicht möchte man der Person eine falsche Aussage in den Mund legen, das ist gerade im politischen Kontext sehr häufig der Fall. Oder vielleicht mag man die Person einfach nicht und möchte, dass Andere entweder negativ über die Person sprechen oder sich über sie lustig machen."
Kenza: "Es gibt bereits Anwendungen, die jede Person nutzen kann, mit denen man auch einfache Deepfakes erstellen kann. Das heißt, man braucht eigentlich nur ein Foto von einer Person und dann sagt man z.B. erstelle ein Foto mit diesem Gesicht in einer anderen Umgebung, in einer anderen Position oder mit einem anderen Körper. Das kann jeder machen. Die sind in der Qualität vielleicht nicht so gut, so dass man vielleicht erkennt, dass es sich um ein falschen Foto handelt. Und dann gibt es natürlich sehr gute Tools, die von Menschen verwendet werden, die auch ein bisschen mehr wissen. Also das sind dann richtige Techies, die hochqualitative Fotos oder Videos erstellen können, wo man das mit dem Auge nicht mehr wirklich erkennen kann ob es fake oder real ist."
Kenza: "Diese Person, die das verteilt hat, googlen. Existiert sie wirklich? Ist das einfach ein Pseudonym? Oder steht da wirklich Kenza Ait Si Abbou und es ist mein Profilbild drauf? Das meine ich, es sind eher die Vorgänge, wo wir das kritische Denken üben müssen und nicht mehr die Sachen automatisch glauben, die wir hier sehen, sondern viel mehr darüber nachdenken, ob sie stimmen könnten oder nicht."
Kenza: "Bei sehr gut gemachten Deepfakes, die wir nicht mehr mit dem bloßen Auge erkennen können, helfen uns Tools oder Technologien. Also es gibt Algorithmen, die dafür entwickelt werden, die anderen Algorithmen zu überwachen. Also tatsächlich, dass man diese Videos, Fotos und Sequenzen, analysiert und Muster erkennt, damit man so eine Art Kennzeichnung macht. Diese Technologie ist eher für Plattformbetreiber und nicht für mich selbst geeignet. Inhalte die auf Plattformen geteilt werden, sollten vorher geprüft werden, ob es sich um Deepfakes handeln könnte oder nicht. Daran wird gerade geforscht, gearbeitet, entwickelt. Das ist auch ein bisschen ein Problem: je besser die Detektoren die Deepfakes finden, desto besser werden auch die Menschen, die Deepfakes erstellen. Es ist so ein bisschen ein Wettbewerb."
Kenza: "Deepfakes sind grundsätzlich eine große Herausforderung, die wir haben. Ein paar positive Anwendungsgebiete gibt es tatsächlich, der Großteil wird aber eher mit einer negativen Intention verwendet. Das stellt eine große Herausforderung dar, was Desinformation und Misinformation angeht. Wir konsumieren alle täglich Inhalte aus den sozialen Netzwerken und wenn wir gar nicht mehr wissen, was echt und falsch ist, macht es auch einen Diskurs miteinander in der Gesellschaft schwierig. Wenn ich Fotos sehe und glaube, dass das stimmt und du siehst dasselbe Foto und sagst, nein, das kann nicht stimmen, dann ist der Diskurs schwieriger, dass wir uns einigen. Weil jeder von uns ist total überzeugt davon, dass das, was er oder sie gesehen hat, echt ist. Auf der anderen Seite bringt diese Herausforderung auch einen positiven Aspekt mit sich. Und zwar, dass wir uns alle antrainieren, kritischer über die uns gezeigten Inhalte nachzudenken. Das macht eine verantwortungsvollere Gesellschaft, wenn jeder nicht sofort glaubt, was er oder sie sieht, sondern mehr darüber nachdenkt."
Kenza: "Wenn man ein Video hat, wo man es auf den ersten Blick nicht erkennt, kann man das Video langsam abspielen und dann sehen, ob tatsächlich von Einzelbild zu Einzelbild der Fluss da ist, ob es natürlich ist. Denn Deepfakes werden in der Regel Einzelbild pro Einzelbild erstellt und dann aufeinandergelegt, um das Video herzustellen. Manchmal sind diese Übergänge nicht so gut gemacht. Das heißt, das ist auch wieder eine Möglichkeit, dass bei Videos gut zu erkennen. Bei sehr gut gemachten Videos, wo die Augenbewegungen stimmen, wo die Mimik auch stimmt, kann man noch ein Merkmal analysieren, und zwar algorithmisch. Also auch hier mit der Technologie, nicht mit dem bloßen Auge, das sieht man nicht. Aber tatsächlich, unsere Atmung und unser Herz-Rhythmus führt dazu, dass sich die Gesichtsfarbe verändert. Das ist sehr, sehr klein und das sehen wir mit dem Auge nicht. Aber eine hochauflösende Kamera und ein Algorithmus würde diese Farbunterschiede am Gesicht erkennen und das unterscheidet dann ein natürliches Video von einem gefaketen Video."