Chat-Protokoll
Falls diverse Anwendungen von KI wirklich so vielfältig angewendet werden, wie das momentan propagiert wird, wird das enorme Ressourcen an Rohstoffen und Energie benötigen. Ist das mit den aktuell bekannten Vorkommen an Rohstoffen und dem zunehmenden Bedarf an Energie auch aus anderen Gründen überhaupt realisierbar? Gibt es dazu Daten?
Jürg Tschirren: Mir sind keine genauen Daten zu dieser Frage bekannt, da der Energieverbrauch von KI sich nur sehr schwer schätzen lässt. Die einzelnen KI-Unternehmen geben dazu keine Zahlen bekannt, sie behandeln diese als Betriebsgeheimnis. Allerdings ist unbestritten, dass KI viel Energie braucht und es in Zukunft noch viel mehr wird, sollten sich grosse KI-Modelle tatsächlich im Alltag durchsetzen. Sam Altman, der Chef von OpenAI (der Firma hinter ChatGPT), hat selbst einmal gesagt, dass dazu neue Energiequellen nötig sein werden – wohl nicht ganz uneigennützig, schliesslich hat er laut der Nachrichtenagentur Bloomberg 3,7 Milliarden Dollar in ein Startup-Unternehmen investiert, das an neuartiger Fusionsenergie arbeitet. Der Energieverbrauch von KI wird heute auf etwa 0,2 Prozent des gesamten weltweiten Energieverbrauchs geschätzt. Je nachdem, wie sich KI im Alltag durchsetzt, könnte sich diese Zahl verzehn-, verzwanzig- oder auch verdreissigfachen. Sie könnte aber auch gleich bleiben oder sogar sinken, falls KI nicht den Siegeszug erlebt, den sich die Unternehmen dahinter erhoffen.
Kann man, oder wird es möglich werden, mit KI Fake-Bilder, Videos etc entlarven?
Gerd Kortemeyer: Das ist im wesentlichen ein Wettrüsten: KI gegen KI. Es scheint eher unwahrscheinlich, dass es dort einen Gewinner geben wird. Auch ein verpflichtendes «Wasserzeichen» für KI-generierte Inhalte scheint wenig zielführend, da nur ehrliche Inhaltsautoren dieser Verpflichtung nachkommen werden. Stattdessen gibt es Bestrebungen, unverfälschliche Wasserzeichen auf authentischen Fotos und Videos anzubringen. Das muss natürlich in der Kamera beginnen, weshalb Hersteller von Profikameras wie Nikon, Sony und Canon an diesen Bestrebungen beteiligt sind.
Wie wird KI von der Regierung reguliert?
Jürg Tschirren: Es gibt weltweit diverse Bemühungen, KI zu regulieren. Am weitesten ist man wohl in der EU, wo der «AI Act» bzw. die «Verordnung über künstliche Intelligenz» KI-Anwendungen in verschiedene Risikokategorien einteilt, für die unterschiedliche Regeln gelten – ein KI-gestützter Empfehlungsalgorithmus wird z.B. weniger streng reguliert als KI, die mit biometrischen Daten etwa zur Gesichtserkennung arbeitet. In den USA hat die Regierung Biden den «Blueprint for an AI Bill of Rights» veröffentlicht, der Regeln zum Schutz von Bürgerrechten, Datenschutz und zu algorithmischer Transparenz beinhaltet. Es ist allerdings offen, wie die Regierung von Donald Trump mit diesen Vorgaben umgehen wird. Auch andere Länder wie z.B. das Vereinigte Königreich oder China arbeiten an ähnlichen Regeln. In der Schweiz will der Bund bis Ende 2024 einen Vorschlag für einen schweizerischen Ansatz für die Regulierung von KI vorstellen.
Momentan sieht so aus, als das KI vor allem für Deep-Fakes und Desinformation genützt wird. Und bis jetzt zeigt die Sendung keine vernünftige und für die aktuellen Weltprobleme nützlichen Nützungsbereich des KI. Also, ist der KI überhaupt notwendig? Ist den enormen Energiebedarf des KI überhaupt rechtfertigt und ethisch vertretbar?
Thomas Merz: Ich nehme an, Sie beziehen sich auf die Sendung «Einstein» von heute Abend. Da ging es natürlich vor allem einmal darum, anhand verschiedener Beispiele ein Verständnis dafür zu schaffen, was künstliche Intelligenz kann (oder nicht kann) und wie sie funktioniert. Computergenerierte Musik oder Bilder, ein Roboterhund, in Windeseile erstellte Fake-Videos sind einfach gute und telegene Beispiele, um das aufzuzeigen.
Zudem sollen damit auch Risiken aufgezeigt werden. Denn es ist ja keineswegs so, dass die Technologie automatisch nur positiv genutzt würde. Selbstverständlich werden aber in der Forschung auch Lösungen auf die aktuellen Weltprobleme gesucht.
Persönlich bin ich überzeugt, dass Künstliche Intelligenz von zentraler Bedeutung sein kann bei der Lösung der grossen Herausforderungen unserer Generation. Sie ermöglicht es, riesige Datenmengen zu verarbeiten und damit komplexe Probleme zu lösen. Allerdings: Entscheidend wird aus meiner Sicht nicht in erster Linie die Frage sein, wozu KI fähig sein wird, sondern wie wir sie nutzen. Ethische und philosophische Fragen müssten daher in unserer Gesellschaft als genauso wichtig betrachtet werden wie technologische.
Kann man eigentlich sagen, was historisch so der «erste» Einsatz einer KI war?
Thilo Stadelmann: KI als Fachgebiet hat schon eine ziemlich lange Geschichte, etwa so alt wie die Informatik selber – sieh geht zurück bis in die 1950er Jahre, mit der Geburtsstunde am sogennanten «Dartmouth Summer Research Project on Artificial Intelligence» 1956. Dort wurde schon an den heute üblichen Anwendungen gearbeitet: Spiele steuern, maschinelle Übersetzung, Erkennung von Inhalten auf Bildern.
Manche Ideen in der KI gehen freilich viel weiter zurück, und verweben sich auf vielerlei Weise mit Entwicklungen in anderen Fachbereichen (etwa der Kybernetik oder den Neurowissenschaften). Eine schöne Geschichte dazu (mit Fokus auf «Was macht den Menschen aus im Zeitalter der KI?») hat kürzlich Neil Lawrence vorgelegt mit seinem Buch «The Atomic Human».
Ich würde gerne wissen, wie sehe die Herausforderungen und Potential aus für KI im Bereich Politik und Gemeinde-Verwaltungen? Oder sind wir nur am Anfang der Entwicklung und wissen nicht wie es aussieht für diese Bereichen?
Thilo Stadelmann: KI ist ja «Vorhersage-Technologie»: zunächst ganz allgemein kann KI helfen, wo man auf Basis früherer Daten bessere Prognosen erstellen kann. Das kann zum Beispiel bei der Wettervorhersage oder der Durchdenkung von gesellschaftlichen Szenarien helfen. Konkreter können KI Systeme auch «das wahrscheinlich nächste Wort gegeben einen Kontext von Text» vorhersagen. Das ist, was Tools wie ChatGPT machen, und auf diese Weise vervollständigen (oder übersetzen) sie Text, beantworten Fragen, etc.
Das kann natürlich gerade auf Gemeindeverwaltungen, die viel mit Text arbeiten (Bauanträge, Briefe an Bürgerinnen und Bürger, andere Verwaltungsakte, Protokolle, Anfragen gegen Richtlinien prüfen, ...) enorm helfen.
Die Gemeinde Glattfelden hat hier beispielsweise gerade ein Pilotprojekt abgeschlossen: https://www.inside-it.ch/glattfelden-als-ki-pionier-20240510.
Bin zwar bald 80, aber konnte es nicht lassen, AI mit Fragen aus Medizin und Geschichte in die Irre zu führen. Ein altes Schlitzohr halt :-) Meine Frage: welche AI App könnten sie für ein Smartphone anraten?
Sarah Genner: Erstmal herzliche Gratulation, dass Sie die Freude am Lernen nie verloren haben! Auf dem Smartphone eignen sich für medizinische, historische und andere Wissensfragen die Apps ChatGPT und Claude. Mit ChatGPT kann man inzwischen auf dem Smartphone regelrechte Gespräche führen, ohne zu tippen – und sogar in etwas holprigem Schweizerdeutsch. Bei Claude muss man noch tippen, aber es gibt oft überlegtere Antworten als ChatGPT.
Kann ich für alle Suche Chat-GPT statt Google einsetzen? Muss ich Chat-GPT als App herunterladen?
Nathalie Klauser: Ich rate schwer davon ab, Chat-GPT als Recherche-Tool einzusetzen. Chat-GPT bzw. LLM's prognostizieren das nächste Wort aufgrund einer Vorhersagewahrscheinlichkeit. Je nach Datenlage (bspw. Informationen aus dem Internet) und der Vermischung daraus können falsche Antworten daraus resultieren. Chat GPT bzw. LLMs können halluzinieren (Fehlinformationen ausspucken).
Auch wenn die Besprebungen von ChatGPT mit der neuen Suchfunktion dorthin gehen, ist es noch nicht genug verlässlich. Es gibt spezialisierte Tools dafür bspw. https://www.perplexity.ai die auf Quellenbezug spezialisiert sind. In jedem Fall lohnt es sich wie auch bei der Google-Suche die angegebene Quelle zu konsultieren und ihre Glaubwürdigkeit zu prüfen, bevor sie sich darauf verlassen.
Warum hat KI vor allem gleich bei Kreativarbeiten so Einzug gefunden? Sollte man sich nicht auf Administration und andere Tätigkeiten konzentrieren?
Anne Scherer: KI hat im Kreativbereich einen schnellen Einzug gefunden, weil generative KI erstmals ermöglicht, völlig neue Inhalte zu erstellen – Texte, Bilder, Videos – die vorher viel Zeit und Ressourcen benötigt hätten. Das macht sie besonders spannend für Ideenfindung, Design und schnelles Prototyping. Das heisst aber nicht, dass KI auf die Kreativarbeit beschränkt ist. Sie wird bereits erfolgreich in der Administration, Datenanalyse oder im Kundenservice eingesetzt.
Kreativarbeit ist nur besonders sichtbar, weil die Ergebnisse für viele greifbarer sind. Langfristig wird KI nicht 100 % der Arbeit von 50 % der Beschäftigten übernehmen, sondern wohl eher 50 % der Arbeit von 100 % der Beschäftigten – sie wird in nahezu allen Bereichen eine Rolle spielen und Aufgaben unterstützen.
Ist es denkbar, die Technologie welche für die künstliche Intelligenz erforderlich ist, mit einer Blockchain zu kombinieren?
Tobias Mettler: Guten Morgen! Das versuchen gerade SingularityNET, Ocean Protocol, and Fetch.ai zu realisieren. Ob es sinnvoll ist, wie auch langfristig nachhaltig (nicht nur finanziell, sondern vor allem aus ökologischer Sicht) wird wohl die Zukunft weisen.
Ich lese, dass KI wieder schlechter werden wird, weil durch die «schlechten» Videos und Bilder das Quellenmaterial für KI wieder schlechter wird. Stimmt das?
Thilo Stadelmann: Das ist eine spannende Frage. Sie führt uns zum Kern davon, wie KI-Systeme gebaut werden. Vereinfacht gesagt sind die meisten heute gängingen Systeme (also, diejenigen, über die in den Medien berichtet wird), mittels der Methodik des sogenannten «maschinellen Lernens» entwickelt worden. Dazu nimmt man sich einen sehr grossen Satz von Eingangsdaten (also, das was in das System hineingehen soll; z.B. Text für ein System, das auf Text antworten können soll) und zugehörigen Ausgangsdaten (was das System berechnen soll – z.B. die Antwort auf den Eingabetext).
Während des sogenannten «Trainings» des Systems «lernt» dieses, die Eingaben auf die gewünschten Ausgaben abzubilden (9.-Klasse Mathematik: es stellt die Variablen einer vorgegebenen Funktion so ein, dass diese Funktion die richtige Ausgabe für alle bekannten Eingaben berechnet).
Langer Rede kurzer Sinn: Die Systeme lernen aus ganz vielen Daten, und bei den genannten Anwendungsfällen (Sprache beherrschen, fotorealistische Bilder erstellen) ist das so schwierig, dass zum Training quasi alle Daten verwendet werden müssen, die man im Internet so findet. Da ist natürlich auch Falsches dabei. Hinzu kommt also folgendes: Die Systeme werden immer wieder auf neue Art trainiert, um sie z.B. Ressourcenschonender (weniger Rechenzeit = weniger Strombedarf) zu machen. Und natürlich immer besser (d.h., man gibt ihnen gezielt Daten zu Fragen, zu denen die alte Version versagte). Da kann es immer mal vorkommen, dass etwas, das in der alten Version richtig beantwortet wurde, in der neuesten nicht mehr geht.
Prinzipiell geht die Entwicklung aber in die richtige Richtung: Die Antworten werden im Mittel besser. Einzelne Ausreisser machen natürlich schnell dir Runde (Schadenfreude lässt grüssen). Wo tatsächlich Sorge bestand, ist was passiert, wenn neue Systeme mehrheitlich auf ihrem eigenen Output trainiert würden. Denn es sind Systeme, die intern mit Wahrscheinlichkeiten hantieren: Was ist das Wahrscheinlich nächste Wort, der warscheinlich beste Pixel an dieser Position. Dazu lernt das System eine Wahrscheinlichkeitsverteilung (wie die berühmte Glockenkurve, nur komplexer).
Wenn man von so einer Wahrscheinlichkeitsverteilung «sampled», und damit die Verteilung anpasst, werden, bildlich gesprochen die «Berge» in der Kurve nur höher, die «Täler» nur niedriger – die Verteilung verarmt und produziert am Ende nur noch immer das gleiche. Dieses Problem ist den Herstellern bewusst, und es wird aktiv daran gearbeitet, diesen Effekt zu vermeiden. Das scheint auch ganz gut zu funktionieren.
Und nicht alles Training auf generierten (synthetischen) Daten hat diesen Effekt, wenn man es bewusst macht.
Wie wird KI aktuell reguliert? Wer macht hier die Regeln? Müsste das nicht supranational stattfinden?
Cornelia Diethelm: Die Regulierung ist grundsätzlich an nationale Grenzen gebunden und erfolgt über die jeweils zuständigen Gremien (z.B. Parlament). Besonders viel Aufmerksamkeit geniesst der AI Act der EU, welcher seit dem 1. August 2024 in Kraft ist. Herzstück bildet die Idee: Je grösser der potenzielle Schaden beim Einsatz von KI, desto höhere Anforderungen werden an das KI-System gestellt, bevor es auf den Markt kommen kann (z.B. KI-System im Rekrutierungsprozess). Div. Länder weltweit haben Regulierungen zu spezifischen Themen ergriffen, darunter auch einzelne Bundesstaaten in den USA (v.a. Kalifornien).
In der Schweiz wird der Bundesrat Ende 2024 entscheiden, welche Regulierungen er im Bereich KI vornehmen möchte. Dabei berücksichtigt er den AI Act der EU sowie die KI-Konvention des Europarates. Es gibt supranationale Initiativen (z.B. KI-Konvention des Europarates), doch diese wenden sich immer an jene Länder, die sich diesen Initiativen anschliessen. Die Regulierung (verbindliche Vorgaben) erfolgt immer in den einzelnen Ländern.
Und ich frage mich auch, wie Sie persönlich finden, wie KI reguliert werden müsste bzw. was Sie in Zukunft erwarten
Tobias Mettler: Der aktuelle Regulierungsprozess ist äusserst langwierig und folgt einem Top-down-Ansatz (von oben nach unten). Persönlich würde ich mir wünschen, dass neue Regulierungen stärker auf realen Erfahrungen aus innovativen Projekten basieren und somit einem Bottom-up-Ansatz folgen (von unten nach oben). Ein Ansatz wären sog. „regulatorische Sandkästen“. Ähnlich wie Kinder im Sandkasten ausprobieren, welche Konstruktion die beste Stabilität für einen hohen Sandturm bietet, liegt der Fokus hier darauf, parallel zur Innovation auch die regulatorischen Rahmenbedingungen zu entwickeln. So verhindert man, dass die Regulierung erst dann in Angriff genommen wird, wenn die Innovation bereits weit fortgeschritten ist und man Gefahr läuft, den Entwicklungen hinterherzuhinken. Asiatische Länder wie Singapur und Taiwan machen uns vor, wie es gehen könnte.
In welcher Reihenfolge sehen die Expertinnen und Experten welche Berufsfelder durch AI bedroht? Ist die Behauptung, durch AI verlorene Stellen werden sich mit neuen Stellen die Waage halten, stichhaltig oder reines Wunschdenken?
Sarah Genner: Es gibt seit Jahren zahllose Prognosen, die einen massiven Jobverlust durch Automatisierung, Digitalisierung und KI voraussagen. Eine der bekanntesten Studien zum Thema wurde von den Oxford-Forschern Frey/Osborne schon 2013 publiziert und sagte voraus, dass 47% des US-Arbeitsmarktes ein hohes Risiko hätten, wegautomatisiert zu werden. Das ist eine massive Übertreibung, denn viele Jobs haben inzwischen Berührung mit Automatisierung und KI und Tätigkeiten verändern sich, aber die gesamten Jobprofile fallen nicht weg.
In der besagten Studie, die es hier zum Download gibt: https://oms-www.files.svdcdn.com/production/downloads/academic/The_Future_of_Employment.pdf, findet sich im Anhang eine Liste von 700 Jobprofilen, wie sie von Expertinnen und Experten eingeschätzt wurden hinsichtlich des Automatisierungsrisikos. Dabei sind soziale und pädagogische Berufe nach deren Einschätzung am wenigsten gefährdet und am meisten automatisierbar wurden Berufe in folgenden Bereichen eingeschätzt: Telemarketing, Buchhaltung, Bibliothek, Datenerfassung, Bank, Taxi. Viel davon dürfte nicht eingetroffen sein, genauso nicht wie die oft genannten Prognosen, dass es Radiologinnen und Radiologen bald nicht mehr brauche.
Was oft vergessen geht: Wie viele Jobs durch Technologie erst entstehen oder dass manche Jobs an manchen Orten wegfallen, weil Produktionsstandorte in andere Länder verlegt werden – siehe Textil- oder Autobranche. Viele Länder kämpfen bereits jetzt mit einem massiven Arbeitskräftemangel, der uns aus meiner Sicht viel mehr beschäftigen sollte als die Frage, ob KI Jobs stiehlt.
Katharina Zweig legt in ihrem Buch «Die KI war's!» in Beispielen dar, was passieren kann, wenn KI in der Verwaltung und in der Sicherheit eingesetzt wird, wo Personendaten das Datenmaterial darstellen. Diesen Aspekt, was passieren kann, wenn plötzlich Menschen keinen Kredit mehr erhalten, weil sie einfach mit einem anderen Menschen in Verbindung gebracht werden oder Frauen gegenüber Männern diskriminiert werden, weil die Algorhythmen dies so wollen, frage ich mich, wer überprüft die Programmierer, welche die Bedingungen festlegen, damit solche Diskriminierungen ausgeschlossen werden können? Dieser Aspekt wurde in der Sendung überhaupt nicht zur Sprache gebracht.
Grit Wolany: Danke für diese wichtige Anmerkung. Digitale Ethik ist enorm wichtig, gerade bei Entwicklung und Einsatz von KI. Das Thema ist definitiv angekommen. Es gibt mittlerweile doch viele Weiterbildungsangebote und die meisten Schweizer Unternehmen sind sich ihrer Verantwortung bewusst. Mehr zum Thema finden sie auf https://digitalresponsibility.ch
Guten Abend Ich schreibe ein Buch und lasse es von ChatGPT korrigieren bin ich dann noch der Autor? Herzlichen Dank
Michael Wegmüller: Danke für die Frage. Ich sehe nicht wieso sie nicht mehr der Autor sein sollten. Wir nutzen rudimentäre KI wie Spell Checkers schon seit Jahren – und da hat entsprechend auch niemand dies in Frage gestellt. Sofern also ihr Inhalt Korrigiert wird, sehe ich keinen Grund, wieso sie nicht Autor sein sollten. Lassen sie aber Inhalte generieren – oder gar das ganze Buch, dann sieht es allenfalls anders aus. Aber: Sie bleiben Author des Prompts (also der Eingabe). Der Prompt um direkt ein Buch zu schreiben hat in sich auch schon einen Mehrwert. Salopp gesagt könnte man das auch mit Designed in Switzerland, Made in China vergleichen. Vielleicht sagen wir schon bald: Prompted in Switzerland and generated by Meta LLama 3.2 oder so ähnlich. Viel Spass beim Schreiben!
Ich hatte kürzlich ein Gespräch mit einer Freundin, sie hat auf dem Computer ihres Chefs gesehen, dass er ChatGPT geöffnet hat und die KI ein Arbeitszeugnis schreiben lässt. Dabei handelte es sich um das Zeugnis meiner Freundin. Sie hat gesehen, dass er ihren richtigen Namen eingegeben hat, also die KI mit Persönlichkeitsdaten gefüttert hat. Uns stellte sich die Frage ob der Chef dies darf, wie sie damit umgehen soll und ob das Zeugnis jetzt gewissermassen auch für andere Menschen, die KI nutzen, sichtbar ist?
Thomas Merz: Die Frage, was genau mit den Daten geschieht, ist für die Öffentlichkeit nicht gänzlich geklärt. Grundsätzlich gibt es aber auch die Möglichkeit, Open-Source-Alternativen wie GPT-Neo oder GPT-J auf dem eigenen Rechner zu installieren. Wenn man sehr sorgfältig sämtliche Datenschutzvorkehrungen korrekt trifft, ist es möglich, solche Modelle so zu nutzen, dass keine Daten nach extern gehen. Das bedingt aber auch ganz grundsätzlich eine sichere Computer-Umgebung. Wenn Ihre Freundin sicher sein will, müsste sie wohl den Vorgesetzten darauf ansprechen. Dass ihr Zeugnis direkt für andere KI-Nutzende sichtbar ist, ist allerdings unwahrscheinlich.
Eigentlich finde ich KI faszinierend… obwohl sie manchmal Bull-shit Antworten gibt. Man kann sie aber sprechend belehren. Aber wie läuft es oder wie kann sie helfen wenn ich keine Winterreifen habe aber auf Schneebedeckter Strasse fahren und ein allgemeines Verkehrschaos herrscht? …. Ich habe eine Lösung gefunden…. Kann es die KI?
Thomas Merz: Sie sprechen natürlich einen zentralen Punkt an. KI kann Ihnen in jeder Situation des Lebens eine Lösung vorschlagen – und sie tut es wohl auch. Aber ob diese Lösung grossartig ist oder extrem gefährlich, kann sie selbst nicht beurteilen. Beides ist möglich. Es ist auch möglich, dass im selben Satz drei Aussagen völlig korrekt sind und die vierte vollends nutzlos oder eben vielleicht sogar gefährlich. Allerdings sehen wir natürlich derzeit auch, wie rasch die verschiedenen Tools in ihrer Qualität besser werden. Ich bin daher immer vorsichtig mit Aussagen, was KI kann und was nicht. Was sie heute nicht kann, kann sie vielleicht morgen schon. Insofern werden wir nach meiner Einschätzung in wenigen Jahren Tools haben, die noch viel weniger fehleranfällig sind als die von heute. Und was Ihre Frage betrifft: Ich würde heut glaub zu Fuss gehen oder mit dem Zug, wenn ich keine Winterreifen hätte :)
Grüezi Können wir uns darauf einigen, trainierte Sprachmodelle nicht mit KI zu bezeichnen?
Tobias Mettler: Ich würde sagen, es handelt sich um einen spezifischen Anwendungsfall von KI, aber keinesfalls um ein Synonym für sämtliche Formen der Künstlichen Intelligenz. KI muss nicht zwingend auf maschinellem Lernen oder Deep Learning basieren. In den Anfängen der KI dominierten regelbasierte Systeme, und auch heute sind zahlreiche Anwendungen auf solchen Ansätzen aufgebaut. GenAI klingt zwar moderner und beeindruckender, spiegelt aber nicht die gesamte Bandbreite der KI wider.
KI scheint mir als Laie Wildwuchs zu sein. Wie können wir verhindern, dass KI-Systeme missbraucht werden (z. B. für Cyberangriffe)? Oder wäre ein «Kapern» von KI-System gar nicht so einfach möglich?
Nathalie Klauser: Definitiv eine sehr viel diskutierte Frage! Bei der Einführung von ChatGPT wurde ein Entwicklungsmoratorium von gewichtigen Köpfen gefordert – aus unterschiedlichen Gründen. Vordergründig jedoch aus Angst vor einem grossen Missbrauch – wie Sie schreiben, bspw. Cyberangriffe. Bei jeder Entwicklung von Technologie sind das berechtigte Anliegen und Überlegungen, die angestellt werden müssen. Supranationale Aushandlungen brauchen generell Zeit, um umgesetzt zu werden.
In der EU ist der AI Act diesen August in Kraft getreten: Dieser teilt KI-Systeme in unterschiedliche Risiko-Kategorien ein, sodass auch Schutzsysteme dafür installiert werden müssen. Weiter wird auf surpranationaler Ebene versucht, ein UN Büro für datengetriebene Systeme zu installieren. Generell sind aber alle in der Pflicht, KI-Systeme verantwortungswürdig einzusetzen. Die kommerzielle Entwicklung im Feld 'Responsible AI' zeigt, dass auch hier ein verstärktes Augenmerk darauf gelegt wird.
Für mich ging es irgendwie wahnsinnig schnell von schlechten Videos und Bildern, die Ki gemacht hat, zu unglaublich echten Videos. Ist das wirklich «über Nacht» passiert oder haben Sie als Fachperson gesehen, wie lange dieser Prozess ging?
Anne Scherer: Die KI-Forschung hat eine lange Geschichte, doch in den letzten Jahren haben Fortschritte in Rechenleistung und Datenverfügbarkeit die Entwicklung enorm beschleunigt. Dadurch können wir heute beeindruckend realistische Videos und Bilder sehen, die vor Kurzem noch unmöglich schienen. Es mag wirken, als sei das «über Nacht» passiert, aber das liegt daran, dass exponentielle Entwicklungen für Menschen oft schwer greifbar sind – ein Prinzip, das als „second half of the chessboard“ bekannt ist. Stellen Sie sich vor, bei jedem Schachfeld wird die Menge an Reiskörnern verdoppelt: Am Anfang wirkt es harmlos, doch auf der zweiten Hälfte explodieren die Zahlen. Genau so beschleunigt sich auch die Entwicklung von Technologien wie KI.
Diese Fortschritte sind das Ergebnis von Jahren intensiver Forschung und der Arbeit vieler Expertinnen und Experten, die immer bessere Modelle entwickelt haben. Tools wie GPT-4 oder spezialisierte Videomodelle zeigen jetzt, was KI leisten kann – und eröffnen spannende neue Möglichkeiten für kreative und technische Anwendungen.
Wie kann KI dabei helfen, Berggebiete und ländliche Räume in der CH wirtschaftlich zu stärken und zukunftsfähig zu machen? Gibt es konkrete Beispiele, wie KI in ähnlichen peripheren Regionen weltweit erfolgreich eingesetzt wurde? Wie können Gemeinden den digitalen und technologischen Rückstand im Vergleich zu urbanen Zentren aufholen? Wie können KI-gestützte Technologien dazu beitragen, neue Arbeitsplätze in ländlichen Gebieten zu schaffen, insbesondere für junge Menschen, die bisher keine Perspektive vor Ort sehen?
Cornelia Diethelm: Die Digitalisierung insgesamt kann eine Chance für ländliche Regionen sein, weil damit geografische Grenzen gesprengt werden. Home Office und Videokonferenzen sind gute Beispiele dafür. Aufgrund der vielen Anwendungsmöglichkeiten entstehen ausserdem neue Jobprofile, bei denen es nicht darauf ankommt, wo man arbeitet. Es kann auch attraktiver werden, im ländlichen Raum zu leben, indem die Versorgung besser wird (z.B. Medizin, Bildung).
Eine Herausforderung ist sicher, dass vielen Gemeinden das Fachwissen und die Ressourcen fehlen im Umgang mit der Digitalisierung inkl. KI. Immerhin: Unter dem Dach «Digitale Verwaltung Schweiz» arbeiten Bund, Kantone und Gemeinden seit einigen Jahren gut zusammen. Da passiert sehr viel Gutes!
Ist die Menschheit bald unfähigen selber zu denken und zu entscheiden was gut für uns ist?
Thilo Stadelmann: Mir scheint, das Zweite war schon vor KI-Systemen und Computern immer mal wieder ein Problem: Wir essen zu viel oder trinken das falsche, führen Auseinandersetzungen auf destruktive Art, gehen die falschen Partnerschaften ein... meist aufgrund Nachgeben auf die falschen Incentives (Sex, Geld, Macht, Bequemlichkeit).
Die Herausforderung ist also keinesfalls neu. Sie ist so alt wie die Menschheit. Mit KI, denke ich, wird es sich aber nochmal zuspitzen: Nehmen wir an, sie bietet nie dagewesene Bequemlichkeit (ist aktuell noch nicht der Fall, aber nehmen wir es mal an). Wer hat die charakterliche Stärke, zu sagen: Nein, das lasse ich jetzt nicht vom System erledigen, denn dann lerne ich selbst nichts dazu und bleibe hinter meinen Möglichkeiten? Viele, hoffe und denke ich. Aber die Versuchung wird grösser.
Tatsächlich denke ich, die grösste gesellschaftliche Herausforderung im Umgang mit KI-Systemen wird es sein, den Wert und die Würde des Menschen so hochzuachten, dass wir KI da einsetzen, wo es sinnvoll ist, anstatt freiwillig (und ohne Not!) unsere Freiheiten aufzugeben. Dies könnte z.B. passieren, da wir uns gegenüber der Technik minderwertig vorkommen (was, mit Verlaub, Blödsinn ist: Bei allen tollen Fähigkeiten der Maschinen, der Mensch ist mehr als Fähigkeiten. Seine Würde kommt nicht von dem, was er leistet; ein Mensch ist eine ganz andere Kategorie als ein technisches Artefakt). Oder, weil wir eben zu bequem werden. Ich denke, dem sollte man entgegensteuern, in dem man wieder viel mehr Wert darauf legt, Menschen als etwas Schönes und Besonderes zu sehen, und KI als wertvolles und nützliches Werkzeug anstatt als Gegenüber.
Dann bin ich sehr hoffnungsvoll, dass wir das Denken nicht verlernen (wäre ja auch blöd: Denken lernt man u.a. durch Schreiben, und das ist auch die Fähigkeit, die man zur Interaktion mit KI-Systemen braucht). Und auch, dass wir weiterhin selber entscheiden, vielleicht sogar besser, als in der Vergangenheit.
Guten Tag Gibt es KI Angebote die automatisch Transkripte von Podcasts erstellen und auch Zusammenfassungen von diesen erstellen? Wichtig wäre dass diese KI Produkte möglichst kostenlos für Privatpersonen zugänglich sind.
Cornelia Diethelm: Ja, es gibt solche KI-Tools, zum Teil ist das bereits integriert in die Aufnahmesoftware, z.B. bei Riverside. So müssten sie kein zusätzliches Tool nutzen. Im Moment funktioniert das aber mehr oder weniger gut, je nach Text und Sprache. Im Internet finden sie viele «kostenlose» KI-Tools. Am besten probieren Sie mehrere Tools aus, um zu sehen, welches für Ihre Bedürfnisse am besten passt. PS: Kostenlose KI-Tools sind aus Sicht des Datenschutzes nicht die beste Wahl, zum Beispiel im beruflichen Kontext.
Wann werden komplexe OPs mit KI möglich sein (mit Überwachung durch Chirurgen, der nicht vor Ort sein muss und anwesender OP Frau mit Spezial Ausbildung? Bei meiner Frage handelt es sich nicht um die bereits im Einsatz stehenden OP Maschinen (zB Darvinci)
Thilo Stadelmann: Dies wird gerade z.B. in Zürich erforscht, am OR-X (dem «Operation Room of the Future»): Hier wird erprobt, wie KI-Systeme, Robotik, Bildgebung etc. den Operateur bestmöglich unterstützen können. Die dort erprobten OP-Techniken sind der Anwendung dabei bis zu 10 Jahre voraus, d.h., was man über den OR-X lesen kann, könnte so bis in 10 Jahren in die klinische Praxis übergehen.
Kann man mich Klonen ich meine mich mit meinem Gesicht zeigen aber mit komplett falschen aussagen Also in Bild und Ton
Cornelia Diethelm: Ja, das ist mittels Deepfake Technologie möglich. Das KI-System benötigt einfach Bilder (oder Videomaterial) und Audiomaterial von Ihnen. Es erkennt dann gewisse Muster in Ihrem Gesicht und in Ihrer Stimme und kann darauf basierend Bilder bzw. ein Video erstellen, indem sie etwas sagen, dass Sie so nicht gesagt haben.
Wird die KI, evtl. in Verbindung mit der Blockchain, das Problem der Fakenews einschl. Foto- und Filmfälschungen unter Kontrolle bringen können?
Sarah Genner: Foto- und Filmfälschungen gibt es, seit es Fotos und Filme gibt. KI wirkt jetzt sowohl als Beschleuniger für Fälschungen, aber gleichzeitig werden auch KI-Tools eingesetzt, um Fälschungen zu entlarven und Fotos und Videos zu verifizieren. Es gibt Diskussionen und Versuche, eine Art technologische Echtheitszertifikate oder Labels für Fotografinnen und Fotografen zu vergeben, die bezeugen, dass sie nur «unverfälschte» Bilder verbreiten.
Diese Themen stecken jedoch noch in den Kinderschuhen und persönlich bin ich skeptisch, ob wir die Herausforderung von Desinformation und gefälschtem Bildmaterial technisch in den Griff bekommen. Für besser halte ich Bildung und Medienkompetenzförderung sowie Qualitätsjournalismus, der für glaubwürdige Publikationen steht. Das Thema Blockchain wäre übrigens noch ein anderes Feld, persönlich halte ich viele Hoffnungen in die Blockchain-Technologie für stark überzogen.
Rückfrage zur Frage: Gibt es konkrete Beispiele, wie KI in vergleichbaren peripheren Regionen erfolgreich eingesetzt werden kann? Homeoffice ist sicherlich ein Ansatz, aber gibt es noch überzeugendere Beispiele aus anderen Ländern, etwa aus den USA, bei denen KI sogar dazu beigetragen hat, der Abwanderung entgegenzuwirken?
Cornelia Diethelm: Spontan ist mir dazu kein Beispiel eingefallen. Grundsätzlich geht es nicht nur ums «Home Office»: 1. Die Arbeitstätigkeit ist nicht mehr an einen bestimmten Ort gebunden, was ein grosser Pluspunkt für ländliche Regionen ist. 2. Ländliche Regionen können von einer besseren Versorgung profitieren dank digitalen Angeboten. PS: Ich habe ihr Anliegen noch rasch bei Perplexity.AI eingegeben und da auch kein konkretes Beispiel in den USA erhalten ;-)
Ist die Menschheit bald unfähigen selber zu denken und zu entscheiden was gut für uns ist? Liebes grüssli V.R.
Nathalie Klauser: Das ist eine Befürchtung, die sich bei allen Technologie-Sprüngen zeigte: Buchdruck: Wir werden verlernen zu schreiben/ TV: Wir verlernen zu interagieren und konsumieren nur noch Inhalte/ Internet: Wir verlernen in der Natur bzw. Realität zu leben und bleiben nur noch im Cyberspace. Ihre Frage scheint mir in eine ähnliche Richtung zu gehen.
Ich persönlich denke, dass Sie in einer ersten Phase recht haben können. Wir scheinen einen Überhang von Entscheidungen durch die KI-Systeme zu fällen, so dass Automatisierungsverzerrungen (zu starker Verlass auch Technologie) auftreten.
Diese schlagen sich in öffentlichen Skandalen nieder wie in Gerichtsprozessen und Shitstorms: Beispiele Link 1, Link 2. Viele Unternehmen und Organisationen möchten dies vermeiden und suchen deshalb nach Lösungen, wie sie den verantwortungsvollen und menschenzentrierten Einsatz von KI-Systemen voranbringen möchten.
Dafür braucht es bei jeder KI-System-Einführung den Einbezug der Menschen und auch die Bildung derer, wofür KI-Systeme gedacht sind (Entscheidungshilfen) und wofür nicht. Dabei lernen Menschen verantwortungsvoll damit umzugehen und auch die Entscheidungen nicht Maschinen zu überlassen. Denn die Haftbarkeit liegt immer bei Menschen und nicht bei den Maschinen.
Ist es möglich, dass die KI Zugriff auf andere Sachen erhalten kann, bspw indem sie eine Website hackt, wäre das möglich? Muss man als Student Angst um einen zukünftigen Job haben? (Spez. Mathematikstudent)
Thilo Stadelmann: Man kann KI-Systemen Zugriff auf andere Dinge geben, um ihre Möglichkeiten zu erweitern. Konkret spricht man im Zusammenhang mit Large Lange Model-basierten System wie etwa Claude, Gemini oder ChatGPT auch von «Tool-Use» (Werkzeuggebrauch): Anstatt nur Text zu generieren, lässt man die Systeme auch andere Computersysteme abfragen (via API auf eine begrenzte Anzahl Applikation, z.B. Websiteaufruf, Taschenrechner, Programmiersprache).
Das kann dann in sogenannten «Agentic Workflows» verwendet werden, um die Antworten gegenüber spontanten Direktantworten (was ja bedeutet: Die Antwort wird Wort für Wort generiert, je nach dem, was jeweils das wahrscheinliche nächste Wort ist -> kein Nachdenken, kein Schlussfolgern) zu verbessern.
Bei allen faszinierenden (und ggf. beängstigenden) Fähigkeiten, die die Systeme so erlangen – sie sind nicht «lebendig». Das scheint erstmal logisch zu klingen, aber die Bedeutung der Aussage geht tiefer: Die Systeme agieren nicht letztlich autonom. Sie «wollen» nichts. Es sind Werkzeuge, eingesetzt von am Ende einem Menschen.
Muss man Angst haben vor Jobverlust durch KI? Ich denke nicht. KI-Systeme als Tools werden sich sicher in jedem Bereich, wo sich Anwendungsmöglichkeiten ergeben, auch eingesetzt werden (das Gesetz des Marktes), und Tätigkeiten werden sich verändern. Aber Jobs sind mehr als Tätigkeiten (und wenn der Job es wert ist: auch mehr als die Summe der Tätigkeiten).
KI-Systeme können etwa im Schnitt Röntgenbilder besser diagnostizieren als Radiologen, aber Radiologen werden alles andere als Überflüssig (u.a. da sie noch viel mehr machen als das). Ich würde Ihnen raten, sich mit den Trends zu beschäftigen, KI-Systeme zu testen, einzusetzen – und hoffnungsvoll in die Zukunft zu schauen.
Den Gemeinden fehlt es an Fachwissen und die Ressourcen im Umgang mit der Digitalisierung – das ist richtig! Wie könnten grosse Technologiekonzerne (wie Google oder Apple) dies entgegenwirken, um dies gemeinsam als Chance zu nutzen?
Cornelia Diethelm: Ich bin überzeugt, dass dieses Defizit bei den Gemeinden behoben werden muss, weil sich analog und digital ergänzen. Menschen sind z.B. immer weniger bereit, für Kleinigkeiten auf die Gemeindeverwaltung gehen zu müssen. Ausserdem können digitale Angebote auch die Inklusion und Teilhabe fördern. Hier geht es primär um die Tätigkeit als Gemeinde, was kein privates Unternehmen übernehmen kann. Für alles andere gibt es Unternehmen und Organisationen, auch lokal und in der Schweiz.
Hallo 1. Welche KI – Applikationen empfehlen Sie für Einsteiger? 2. Ist es ratsam eher kostenpflichtige KI Applikationen zu verwenden oder spielt es keine Rolle 3. Welche (cyber security-) Risiken sehen Sie beim Einsatz von KI und worauf sollte man besonders achten?
Thilo Stadelmann: Guten Morgen! KI ist sehr vielfältig, es lohnt sich also, in die Tools hineinzuschauen, die einem potentiell bei den eigenen wichtigen Anwendungen helfen können. Am generellsten einsetzbar sind aktuell sicher Chatbots auf Basis von Large Language Models (z.B. Claude, Gemini, ChatGPT), und mir z.B. hilft auch immer mal wieder ein Bildgenerator wie Stablediffusion oder Flux mit dem Erstellen von Illustrationen für Präsentationen.
Wenn Sie die Tools privat einsetzen, bieten die kostenlosen Zugänge viele Möglichkeiten. Man sollte allerdings wissen, dass man damit meist zustimmt, dass der eigenen Chatverlauf (Prompts und dann die Antworten der Systeme). Das ist privat meist verkraftbar. Im Professionellen Einsatz ist das meist ein «No go», denn über die Prompts verrät man ja zum Teil, was die eigenen Organisation umtreibt (sei es durch Anfragen für Hilfe beim Formulieren des Abschiedsbriefes des CEO, deren Weggang noch nicht öffentlich ist, oder durch Preisgabe von Entwicklungsdetails, wenn man Engineerinmgsprobleme mittels KI lösen möchte).
Hier lohnt sich mindestens ein Bezahlaccount (denn meist sagen die Datenschutzbestommungen dann, dass die Prompts und Antworten nicht für andere Zwecke vom Hersteller verwendet werden dürfen). Wenn die Anforderungen an Datenschutz noch höher sind (und dafür gibt es gute Gründe, z.B. das Schweizer Datenschutzrecht), lohnt es sich auch, über KI-Systeme von lokalen Anbietern wie etwa SwissGPT nachzudenken: Diese basieren meist auf Open Source Modellen und können sogar Unternehmensintern gehostet werden, so dass keine Daten die eigene Organisation verlassen und auf z.B. US Servern landen.
Ich habe ChatGPT aber ich möchte nicht schreiben, sondern kommunizieren ohne, dass ich die Antworten schriftlich bekomme und lesen muss. Ich möchte ein Gespräch führen wie mit einer realen Person. Wie mache ich das?
Sarah Genner: Das geht inzwischen recht einfach, ich führe inzwischen regelmässig mündliche Gespräche mit ChatGPT, sogar in holprigem Schweizerdeutsch. Ich drücke dafür den dunklen Button mit senkrechten Strichen im Fragefeld von ChatGPT, um mündlich zu kommunizieren. Momentan braucht man für mündliche Interaktion jedoch die Bezahlversion von ChatGPT.
Das Thema KI ist omnipräsent und immer wichtiger in vielen Berufszweigen. Gerne würde ich mein Wissen in dem Thema vertiefen. Denken Sie im Selbststudium kommt man diesbezüglich gut voran oder wäre ein Studium effizienter? Man wird ja regelrecht erschlagen mit Kursen, CAS usw. Zudem was wären wichtige Punkte ausser ChatGPT, Gemini, Copilot usw.?
Anne Scherer: Prima, dass Sie das Thema vertiefen wollen! Die rasante Entwicklung der KI macht kontinuierliches Lernen unverzichtbar. Neben dem Testen von Tools wie ChatGPT, Gemini oder Copilot im eigenen Arbeitsbereich ist es entscheidend, ein grundlegendes Verständnis der Technologie zu entwickeln.
Drei zentrale Themen sollten dabei im Fokus stehen:
1) KI-Grundlagen: Verstehen, wie KI arbeitet – zum Beispiel, wie sie aus Daten lernt oder Entscheidungen trifft – um ihre Grundlagen zu kennen.
2) Datenkompetenz: Lernen, wie Daten gesammelt, verarbeitet und analysiert werden, da sie das Fundament jeder KI-Lösung bilden.
3) Ethik und Verantwortung: Auseinandersetzung mit Themen wie Fairness, Transparenz und den gesellschaftlichen Auswirkungen von KI, um Chancen und Risiken verantwortungsvoll abzuwägen.
Der Einstieg in die KI kann sowohl im Selbststudium als auch über strukturierte Programme wie Studiengänge oder Zertifikatskurse (CAS) gelingen – je nach Ihren Zielen und Ihrer Lernweise. Ein Studium oder eine zertifizierte Weiterbildung bietet eine klare Struktur, Zugang zu Expert:innen und eine tiefere theoretische Grundlage.
Im Selbststudium sind Sie flexibler, können flexibel auf aktuelle Trends eingehen, müssen jedoch diszipliniert Inhalte filtern und auf die Qualität der Quellen achten. Tipp: Kombinieren Sie beide Ansätze. Nutzen Sie Kurse für Grundlagen und ergänzen Sie durch praktisches Selbststudium, etwa mit Projekten oder Open-Source-Tools. So verbinden Sie Theorie und Praxis optimal.
Sprachmodelle wie ChatGPT sind ja im Grundsatz nur statistische Modelle die das nächst wahrscheinliche Wort ausspucken. Intelligent wie ein Lebewesen sind aber nicht, habe ich das richtig verstanden?
Nathalie Klauser: Ja, absolut richtig. Es gibt eine grosse Diskussion überhaupt darüber was «Intelligenz» überhaupt ist. KI-Systeme wie Chat-GPT arbeiten mit Daten und statistischen Methoden, um auf eine Antwort zu kommen. Deshalb wird das Konstrukt «KI» u.a. auch so definiert, dass es menschliche Intelligenz imitiert. Dabei ist die menschliche Wahrnehmung ausschlaggebend als wie intelligent die maschinelle Antwort empfunden wurde.
Der Turing-Test beispielsweise misst, ob der Output einer Maschine noch von einer Antwort eines Menschens unterschieden werden kann. Sobald das nicht der Fall ist, wird dies als intelligent empfunden – auch wenn die Maschine kein Bewusstsein erlangt hat. Für menschliche Intelligenz sind u.a. Erfahrungen, Emotionen und Bewusstsein von grosser Wichtigkeit.
Guten Tag, Mich würden Überlegungen zum Einsatz von KI rund ums Gesundheitswesen interessieren. In etwa folgendes: 1. Welche Potenziale könnte die KI für die Zukunft dem Gesundheitswesen bieten? Zeithorizont in 2 resp. 20 Jahren? 2. Welche Herausforderungen müssen bei der Implementierung von KI im Gesundheitswesen bewältigt werden? 3. Könnte die KI vielleicht dazu beitragen, die Qualität der Patientenversorgung zu verbessern? 4. Welche ethischen Aspekte müssen bei der Entwicklung und Anwendung von KI im Gesundheitswesen beachtet werden? 5. Wie kann man sicherstellen, dass KI-Systeme im Gesundheitswesen fair und transparent eingesetzt werden? 6. Welche Auswirkungen könnte es auf die Arbeitsplätze im Gesundheitswesen durch KI geben? 7. Wie könnte die KI dazu beitragen, die Kosten im Gesundheitswesen zu senken? Besten Dank
Thilo Stadelmann: Das ist eine umfangreiche Frage, ich beantworte wegen Zeichenbeschränkungen mal 1-4 (für 5-7 gerne nochmal nachfragen):
1. Die Potentiale sind riesig. KI ist im Kern «Vorhersagetechnologie» (das nächste Wort gegeben der Kontext; die Prognose gegeben die Behandlungsdaten; die Diagnose gegeben die MRT-Aufnahmen; ...), und bessere Vorhersagen helfen im Gesundheitsbereich quasi an jeder Stelle. Vorhersagen auf 20 Jahre sind nicht machbar, auf 2 Jahre aber schon.
Gehen Sie davon aus, dass die Technologie noch nützlicher wird als sie momentan ist; und gehen sie davon aus, dass Dinge, die momentan in weniger regulierten Branchen gemacht werden, innerhalb dieser 2 Jahre in die Medizin Einzug halten können (wegen der notwendigen Zulassungen quasi verspätet).
2. Grundsätzlich die gleichen wie anderswo, doch sind die Einsätze höher (Menschenleben), daher spielt Robustheit und Interpretierbarkeit eine ungleich höhere Rolle. Viel Feld für weitere angewandte Forschung & Entwicklung.
3. Natürlich. Ein Beispiel: Wir entwickelten kürzlich zusammen mit dem Unispital Zürich ein KI-System, das bestimmte Fehlalarme auf der Intensivstation erkennt. Dadurch ist das Pflegepersonal weniger gehetzt und kann sich auf die wirklichen Notfälle konzentrieren. Das kommt den Patientinnen und Patienten zu Gute.
4. Viele natürlich. Ich möchte auf eine Hinweisen, die man leicht vergisst. Wir leisten uns in Europa (da zähle ich uns jetzt mal dazu) einen fast absolut hochstehenden Datenschutz. Was wäre alles möglich im Bereich der «Precision Medicine» (also der Versorgung von Patienten aufgrund derer individueller Eigenschaften anstatt anhand von populationsbezogenen Mittelwerten), wenn wir anonyme medizinische Daten teilen würden. Das kommt seit Jahren nicht arg voran, zum Leidwesen bestimmter Patienten, die mehr Schmerzen haben als notwendig oder sogar sterben. Auch dieses Nichtstun wegen des Datenschutzes ist eine ethische Frage. Die Güter müssen abgewogen werden. Die Güter müssen abgewogen werden.
5. Einsatz ist eine menschliche Frage – erziehen sie die Menschen zu fairen und transparenten Mitmenschen. Die technische Frage, wie man solche Systeme erstmal entsprechend entwickelt, dass sie fair und transparent sein können, ist eine, mit der sich die KI-Ingenieure beschäftigen. An der ZHAW lernen Studierende das etwa in einem der landesweit ersten Kurse: Wie entwickle ich ein KI-System so, dass es bestimmten Fairnessansprüchen gegenüber gerecht wird. Da wissen wir heute sehrt gut, wie das geht, und dieses Wissen steht jedem Entwickler zur Verfügung.
6. Ich bin kein Anhänger der grossen Jobverlustszenarien, auch, weil diese seit vielen Jahren existieren und mit ihren Prognosen konsistent immer daneben lagen. Ich denke viel mehr, dass nützliche KI-Unterstützung gerade im Gesundheitsbereich den Weg wieder freimachen könnte für den so wichtigen menschlichen Kontakt, für den erstmal eine Reduktion des Stresslevels aller Beteiligter – um, sagen wir: 50%? – notwendig wäre. Das wäre eine super Auswirkung auf Gesundheitsjobs.
7. Kosten steigen ja u.a., weil es immer komplexere Behandlungsmehtoden gibt. KI macht die Sache nicht weniger komplex. Und über Triagen (wem «gönnt» man die teure Behandlung, abhängig von der Prognose) sollten wir besser nicht nachdenken, der hippokratische Eid ist eine hohe Errungenschaft.»
Kann KI in der Zukunft vielleicht die Lotto Sport Resultat oder politische Resultate Voraussagen?
Sarah Genner: KI ist keine Kristallkugel. Aber KI kann mit mathematischen Wahrscheinlichkeiten sehr gut umgehen. Bereits heute werden teilweise auch Sportresultate live hochgerechnet: beispielsweise wurde bei einem Tennismatch zwischen Rafael Nadal und seinem Gegner auf Basis von Daten hochgerechnet, dass Nadal mit hoher Wahrscheinlichkeit verlieren wird. Aber offenbar verfügte das System nicht über genügend Wissen dazu, wie oft sich Nadal gegen Ende von grossen Tennismatches wieder aufbäumen kann. Denn am Ende siegte Nadal klar.
Auch politische Resultate werden längst anhand von ausgeklügelten Systemen hochgerechnet, liegen aber dann doch oft ein wenig daneben. KI kann anhand von guten historischen Daten – oder zunehmend auch Echtzeitdaten – teilweise recht gute Annäherungen berechnen. Es gibt jedoch dieses weise Zitat, das verschiedenen Persönlichkeiten zugeschrieben wird: «Prognosen sind schwierig, insbesondere
Welche open-source KI-Sprachnodelle gibt es? was sind die grössten vor- und nachteile der jeweiligen systeme?
Thilo Stadelmann: Vollständigkeit ist bei solchen Fragen schwierig, da sich das Feld schnell entwickelt. Einige Berühmtheit haben jedoch die Open Source Sprachmodelle von Meta gemacht, Llama 3.2 ist das neueste. Diese schneiden in der Chatbot-Arena auch recht gut ab, knapp hinter den grossen kommerziellen Angeboten aber sehr brauchbar gerade für konkrete eigene Anwendungen. Hierzu helfen auch die freigiebigen Lizenzbedingungen, welche auch kommerzielle Nutzung einschliessen.
Rückfrage an Cornelia Diethelm zu Transkripte und Zusammenfassungen: Danke. Gibt es eine Art Übersicht für Ahnungslose wo man nachschauen kann welche KI welche Funktionen anbietet? Ob kostenlos oder nicht, es müsste halt für die Privatperson zugänglich sein.
Cornelia Diethelm: Der Vorteil einer klassischen Suchanfrage im Internet ist, dass man immer die aktuellsten Infos hat. Vergleiche sind ja relativ schnell veraltet.
Ich war rasch im Internet und bin z.B. auf diese neue Quelle mit 10 KI-Tools gestossen: https://www.unite.ai/de/Beste-KI-Transkriptionssoftware-Dienste/
Wie viel Energie verbraucht eine Anfrage/ ein Prompt an ein KI-Modell? Ich habe gelesen es ist etwa 10 mal soviel wie eine Google Suche. Worauf beruht dieser Wert und was bedeutet er genau? Ich kann es mir nicht gut vorstellen. Und gibt es grosse Unterschiede je nachdem welches Modell ich von welcher Firma nutze und für welche Aufgabe (ChatGPT vs. Llama vs. Claude etc von grossen Techfirmen oder kleinen lokalen Anbietern; Text vs. Audio vs. Bild oder Filmgenerierung)? Danke für die Antworten!
Sarah Genner: Besten Dank für diese wichtige Frage, für die es meines Wissens noch keine belastbaren und publizierten Antworten gibt. Mich beschäftigt der enorme Energieverbrauch von KI-Modellen ebenfalls. Dafür verwende ich ebenfalls die Faustregel: Prompten verbraucht etwa 10 mal soviel Energie wie eine Google-Suche. Da bereits googlen als ein grosser Treiber von Treibhausgasen kritisiert wurde (daraus ist die Suchmaschine Ecosia entstanden), müsste uns das Thema mehr bewegen.
Microsoft will für seine Rechenzentren einen stillgelegten Kernreaktor reaktivieren, um den enormen KI-Energieverbrauch zu stillen. Daher scheint mir die Frage, welche Sprachmodelle genutzt werden, verglichen damit, wie oft wir sie nutzen, zweitrangig.
Welche Hürden bestehen bei der Einführung von KI-Technologien in traditionell handwerklich geprägten Unternehmen?
Cornelia Diethelm: Als mögliche Hürde sehe ich v.a. den «Mindset». Wer gerne handwerklich arbeitet, verbindet KI vielleicht eher mit Büroarbeit oder mit etwas, das für das Handwerk nicht relevant ist oder den menschlichen Kontakt reduziert.
Umso wichtiger und wertvoller ist, wenn konkrete Einsatzgebiete in Fachzeitschriften, an Fachanlässen sowie in Aus-und Weiterbildungen integriert werden. Das hilft zu sehen, wo KI für ganz unterschiedliche Tätigkeiten einen Nutzen stiften kann (so wie es früher vielleicht «Daten» waren).
Wie können Unternehmen des zweiten Sektors (z.B. im Baugewerbe) ihre Mitarbeiter auf die Nutzung von KI vorbereiten und welche digitalen Kompetenzen sind dabei besonders wichtig?
Thilo Stadelmann: Ich finde, das Beste, was man machen kann, ist angstfrei an die Sache heranzugehen, und selber auszuprobieren, wo die Systeme einem bei eigenen Aufgaben helfen könnten. Als Unternehmen unterstützt man das optimal auf 2 Arten:
Mit gutem Beispiel vorangehen: Zur Ausprobieren ermutigen und einen Rahmen dafür schaffen. Der Rahmen sollte unbedingt professionellen Zugriff (also: bezahlten) auf die relevanten Tools beinhalten, damit es keine Probleme mit dem Datenschutz gibt (siehe ausführlichere Antwort dazu von mir auf eine frühere Frage). Wichtige Voraussetzung ist meiner Meinung nach, dass alle, die solche Tools nutzen, ein minimales Grundverständnis von der Funktionsweise haben (dass z.B. Sprachmodelle Wort für Wort, das wahrscheinlich nächste Wort vorhersagen, also nicht «nachdenken» oder «schlussfolgern», auch mal danebenliegen, und keine Wissensbasis abfragen). So beugt man einem magischen Verständnis vor, das zu falschem Nutzen führen würde. Solches Wissen kann man sich etwas mit einem 1-2-stündigen Seminar geben lassen.
Was auch noch eine gute Idee ist für die Unternehmen: Eine interne «Allianz der Willigen» aufbauen von Mitarbeiterinnen und Mitarbeitern aller Level, die sich zu den Möglichkeiten austauschen; und auch extern mit anderen Unternehmen vernetzen, um sich Input von aussen zu holen. Eine gute Anlaufstelle hierzu in der Schweiz ist die Data Innovation Alliance.
Wie schätzt ihr das Potential zu neuromorphischen Chips ein? Wo seht ihr Anwendungen?
Thilo Stadelmann: Hat ein grosses Potenzial, insbesondere den Energiebedarf von bestimmten KI-Anwendungen massiv zu senken, allerdings liegt das noch eher weit in der Zukunft (wenige erste Anwendungen ausgenommen): Neuromorphe Chips müssen Hand in Hand gehen mit neuromorphen (Grob gesagt: mehr biologisch inspirierten) KI-Modellen.
Die aktuellen «Deep Neural Networks», die etwa hinter den grossen Sprachmodellen stehen (und hinter fast allem, was gerade so Schlagzeilen macht in der KI), können nicht sinnvoll auf neuromorphen Chips laufen. Und die besser passenden Modelle sind meilenweit von der Leistung etwas im Bereich der Textverarbeitung oder Bildgenerierung entfernt.
Erste Anwendungen sieht man aber etwa in einfachen Bildverarbeitungsaufgaben: Neuromorphe, Event-basierte Kameras etwa können mit einem Vielfachen der Bildrate normaler Digitalkameras aufwarten und ermöglichen so z.B. den besten KI-gesteuerten Renn-Drohnen ihre enormen Erfolge.
Frage zu Deepfake-Pornos: 2019 hat Deeptrace dazu eine Studie gemacht. Gibt es neue Zahlen zu Deepfake-Pornos, kennen Sie aktuellere Studien?
Sarah Genner: Deepfake-Pornografie ist eines der hässlichsten Themen der Gegenwart. Es gibt eine Studie einer US-amerikanischen Cybersicherheitsfirma von 2023, die folgende Zahl enthält: Deepfake-Pornografie macht 98% aller Deepfake-Videos im Internet aus. Hier ist die Quelle.
Wie kann KI genutzt werden, um junge Menschen in Entscheidungsprozesse, beispielsweise in Vereinen oder politischen Gremien, stärker einzubinden?
Tobias Mettler: Meiner Meinung nach kann Künstliche Intelligenz nicht sämtliche Probleme der heutigen Zeit lösen. Tatsache ist, dass sich die Interessen und Freizeitgestaltungen vieler junger Menschen im Vergleich zu früheren Generationen erheblich verändert haben. Wir leben in einer „Multioptionsgesellschaft“, in der es mehr Angebote gibt, als Nachfrage besteht. In der Tat kann KI in begrenztem Masse dazu beitragen, Angebote bekannter und möglicherweise etwas attraktiver zu machen.
Wirkliche Partizipation bedarf jedoch eines echten Interesses sowie eines zeitlichen Engagements. Es gibt Ideen, wie man die politische Partizipation durch den Einsatz von KI «erhöhen» könnte, indem KI auf Basis individuell hinterlegter Profile an Abstimmungen teilnehmen. Die Frage bleibt jedoch, ob wir diese Form der politischen Partizipation tatsächlich anstreben.
Ebenso ist fraglich, ob dies überhaupt als echte Partizipation angesehen werden kann – oder lediglich als eine Erhöhung der abgegebenen Stimmen, ohne dass sich die Wählenden ernsthaft mit den möglichen Konsequenzen ihrer Entscheidungen auseinandersetzen.
Ich möchte wissen 1) wie wir in der Zukunft sicherstellen, dass AI-generierte Inhalte gekennzeichnet sind, um die Weiterentwicklung der kollektiven Wissensschätze nicht mit Nonsense, Bias oder Misinformation zu ergänzen. 2) Dazu möchte ich auch diskutieren wie wir in Zukunft sicherstellen, dass man (Konsumenten und Organisationen und deren «Agents») auch Authentizität der Daten digital (also «real-time») und einfach nachvollziehen können. Die Content Authenticity Initiative und C2PA als Bespiel. 3) Zudem nimmt mich wunder, was Ansätze sind, um sicherzustellen dass AI «Agents» (verwirrender Begriff, da sie keine Agency haben), nachvollziehbar meine Interessen als Tools für Interaktionen/Transaktionen vertreten.
Cornelia Diethelm: Der AI Act der EU sieht eine Kennzeichnungspflicht für KI-generierte Inhalte vor und in den USA haben sich mehrere grosse KI-Konzerne ggü. US-Präsident Biden verpflichtet, eine solche Deklaration in ihre KI-Tools zu integrieren. Aber: Reduzieren wir damit die von Ihnen angesprochenen, unerwünschten Aspekte? Ich persönlich bin da skeptisch. Kriminelle und weitere Akteure mit böser Absicht werden ihre KI-generierten Inhalte nicht deklarieren, u.a. gibt es KI-Tools im Darknet.
Wie Sie richtig sagen, gibt es die von Adobe vor einigen Jahren lancierte C2PA Initiative, der sich viele KI-Anbieter angeschlossen haben. Er könnte zum Standard werden, was aber auch wieder zu einem gewissen Monopol führen kann. In diesem Bereich wird es in den nächsten Jahren sicher noch weitere Initiativen geben. Kritisch anzumerken ist, dass sich hier einmal mehr eine Machtkonzentration abzeichnet. Denkbar wäre auch z.B. auch ein «Bio-Label» für echte Daten / Inhalte.
Generell könnten hier natürlich auch gewisse KI-Regulierungen greifen, die mehr Transparenz fordern, was die Daten angeht. Ein Unternehmen ist in der Regel dann erfolgreich, wenn es die Kundenwünsche möglichst gut abdeckt. Deshalb wird es auch im Bereich der «AI Agents» sicher zu einem Wettbewerb kommen.
Der Einzelne entscheidet dann, auch aufgrund von Erfahrungen und Vergleichen (z.B. von kritischen NGOs oder Medien), wie gut ein Tool seine Interessen vertritt. Generell ist das aber eine sehr wichtige Frage, da Anbieter immer auch eigene Interessen verfolgen.
Kann KI genutzt werden, um (junge) Menschen bzw. Bürgerinnen und Bürger auf Basis ihrer Interessen und Werte gezielt für gesellschaftliche oder politische Aktivitäten zu motivieren? Welche Rolle könnten KI-gestützte Plattformen spielen, um die Beteiligung (junger Menschen) in Vereinen oder politischen Organisationen zu fördern?
Nathalie Klauser: Datengetriebene Systeme für die verstärkte Teilhabe bzw. Partizipation einzusetzen, sind in unterschiedlichen Initiativen vertreten. Der Dachverband der Schweizer Jugendparlamente hat das Potential von digitalen Tools früh erkannt und hat eine Sammlung von unterschiedlichen Systemen entwickelt: https://dsj.ch/toolbox/, auch wenn ein Grossteil dieser Tools nicht mit KI funktionieren, zeigt sich in diesen Anwendungen das Potential von datengetriebenen Systemen.
In Taiwan wird die politische Deliberation (Diskurs und Entscheidungen) durch KI unterstützt und sichert auch so, dass die junge Bevölkerung sich stärker einbringt. Generell helfen datengetriebene Systeme auch zu detektieren, wo Handlungsbedarf besteht und welche politischen Machtinstrumente überhaupt zur Verfügung stehen. Ein spannendes Projekt hierbei ist im Klimabereich OK Klima.
Wie hoch schätzen Sie die Kompetenz von Gemeinden, Kantonen und Bundesrat in Sachen KI ein? Gibt es Fachgremien, die den Staat beraten?
Thomas Hofmann: Im Allgemeinen ist es sehr herausfordernd, Kompetenzen in einem sich so rapide entwickelnden Gebiet zu entwickeln und auf dem Laufenden zu halten. Es gibt aktuell Bestrebungen, ein nationales KI Zentrum (federführend unter ETHZ und EPFL) einzurichten, zu dessen Aufgaben auch die Beratung von Politik auf allen Ebenen gehört. Dadurch wird hoffentlich ein höheres Mass an Koordination und eine Verbesserung von Kompetenzen unterstützt.
Wie schätzen Sie die Bedeutung von Schweizer KI-Startups und ihren technologischen Beiträgen ein? Sind wir ein Vorreiter oder hinken wir hinterher?
Thomas Hofmann: Es gibt ein sehr breites Spektrum von Start-ups in der Schweiz, insbesondere im Bereich der KI. Viele dieser jungen Firmen sind führend in der Welt und sind Innovatoren und Vorreiter. Die Stärke liegt oft in der technischen Kompetenz. Zu den Herausforderungen gehört der Zugang zu einem grossen Markt und auch zu Risikokapital, vor allem in der Wachstumsphase.
Wie können Unternehmen, Universitäten und die Politik besser zusammenarbeiten, um KI-Innovationen zu fördern?
Angela Müller: Vielen Dank für Ihre Frage. Sie sprechen damit einen wichtigen Punkt an: Es geht meiner Meinung auch darum, solche Zusammenarbeiten zu fördern, damit KI wirklich gemeinwohlorientiert entwickelt werden kann. Derzeit ist KI wesentlich in den Händen einiger weniger globaler Grosskonzerne, die damit natürlich auch Profit generieren und maximieren möchten.
Es ist meiner Meinung nach sehr wichtig, dass die Wissenschaft und öffentliche Forschung wirklich die Entwicklung mitgestalten. Dafür ist es notwendig, dass etwa die Universitäten genügend Mittel dafür zur Verfügung haben, dass interdisziplinäre Forschung gefördert wird und dass aber auch Mittel für Forschungsinfrastrukturen bereitgestellt werden. So sollen auch Alternativen zum bestehenden «BigTech"-dominierten KI-Ökosystem geschaffen werden.
Auch rechtliche Rahmenbedingungen können dazu beitragen, diese Alternativen zu entwickeln. Zum Beispiel kann man auch darüber nachdenken, wie man der Machtkonzentration der Unternehmen begegnen kann.
Positiver/negativer Impakt von KI auf die Medizin und den Gesundheitssektor?
Adrian Egli: Anwendungen der künstlichen Intelligenz können grossen Einfluss auf die Medizin haben. Konkrete Anwendungen sind aber weiterhin selten. In der Diagnostik und Therapie von Patientinnen und Patienten gibt es hohe Anforderungen. Deshalb bestehen einige Hürden:
(i) Medizin ist ein komplexes Thema und es werden z.T. dynamische Prozesse wie ein Krankheitsverlauf untersucht, das ist auch für eine KI nicht einfach.
(ii) Es gibt viele regulatorische Hürden – z.B. Medizinprodukte Verordnung oder In vitro Diagnostik Verordnung.
(iii) Der Zugang zu Daten ist nicht einfach – viele Akten sind noch in Papier – um gute KI zu trainieren brauchen wir viele Daten und wir müssen auch auf die Datenqualität achten (Garbage in, Garbage out).
(iv) Fast keine prospektiven Studien existieren. Deshalb gibt es nicht sehr viele Felder, wo KI bereits regelmässig zum Einsatz kommt. In Gebieten der Medizin wo z.B. viele Standards existieren schon -> z.B. in der Radiologie oder der Labormedizin, inkl. Mikrobiologie. Negativer Impakt: Sicherlich müssen wir kritisch gegenüber neuen Technologien sein und die sorgfältig validieren und evaluieren. Ein negativer Effekt ist die Abhängigkeit von Firmen (Monopol), auch ist die Technologie teuer (hohes Investment).
Wie bleiben Sie informiert und auf dme neusten Stand, was KI anbelangt? Für mich ist das sehr schwierig, weil es gefühlt überall so schnelle Änderungen gibt
Angela Müller: Vielen Dank für diese – sehr gute – Frage. Ja, das kann einem tatsächlich so gehen, dass man von der ganzen Informationsflut rund um KI schnell überfordert und überladen ist.
Wichtig finde ich, dass man, um über diese Technologie zu reflektieren, nicht über jedes einzelne Update jedes KI-Chatbots Bescheid wissen muss o.ä. Ein grundsätzliches technisches Verständnis, wie die Systeme funktionieren, ist sicher wichtig – aber man muss nicht jedes Modell im Detail verstehen, um sich damit auseinanderzusetzen.
Wichtig finde ich auch, dass man sich darüber informiert, welche Systeme eingesetzt werden und was das für Auswirkungen haben kann. Der Einsatz und die Auswirkungen von KI sollten unbedingt Teil einer breiten öffentlichen Debatte sein, an der wir alle teilnehmen – nicht nur, wenn man einen Doktortitel in Informatik hat.
Coca Cola hat einen Werbesport rein mit AI gemacht. Wie finden Sie das? Fahrlässig oder wird das künftig sowieso Norm sein?
Helga Rietz: Das ist ein spannendes Beispiel für die «kambrische Explosion» von Anwendungen (generativer) KI, die wir momentan erleben. Ob das fahrlässig ist oder zur Norm wird, hängt von der Perspektive und den Umständen ab. Vorteile und Chancen sind: Eine solche Produktion kann sehr effizient sein, es gibt ausserdem die Möglichkeit, die Werbeinhalte für Kunden zu personalisieren. Und indem Coca Cola das jetzt macht, positioniert sich das Unternehmen als technikaffin und modern. Ich habe dennoch Zweifel daran, dass das künftig die Norm sein wird.
Der Gag, Werbung komplett mit KI zu erstellen, nutzt sich ja genauso ab wie jede andere Idee. Rein KI-generierte Spots riskieren, als „künstlich“ oder unpersönlich wahrgenommen zu werden, damit landet die Marke dann nicht mehr bei ihrer Zielgruppe. Hinzu kommt: Wenn der Einsatz von KI nicht offengelegt wird, könnten Vorwürfe der Irreführung entstehen. Insgesamt denke ich persönlich, dass es ein Experiment ist, das mutmasslich noch einige Male wiederholt wird, sich in dieser Form aber nicht in der Breite durchsetzt.
Sollten wir KI stärker regulieren, oder sehen Sie eher Hindernisse in einer zu strikten Regulierung?
Angela Müller: Vielen Dank für Ihre Frage. Meiner Meinung nach ist es sehr wichtig, dass wir die Entwicklung und den Einsatz dieser Technologie mitgestalten – und dafür müssen wir Rahmenbedingungen setzen. Bei diesen Rahmenbedingungen geht es nicht nur um rechtliche Regulierung – es braucht etwa auch Massnahmen, um die Kompetenzen und Sensibilisierung zu fördern, Forschung voranzutreiben, Medienvielfalt zu stärken, etc. Aber es braucht meiner Meinung nach auch rechtliche Regulierung. Es geht dabei nicht darum, KI zu verbieten – sondern sinnvolle Massnahmen zu treffen, damit diese eben verantwortungsvoll entwickelt und eingesetzt wird.
Es gibt sehr viele Herausforderungen, die KI mit sich bringen kann – etwa können ihre Outputs diskriminierend sein, sie können es einfacher machen, Desinformation zu verbreiten, ihre Entwicklung verschlingt enorme Mengen an Wasser und Energie, etc. Wenn wir die KI so nutzen wollen, dass wirklich alle davon profitieren, dann kommt das meiner Meinung nach auch mit der Verantwortung, diese Herausforderungen anzugehen. Und hier spielt rechtliche Regulierung eine wichtige Rolle.
Wie arbeitet die Schweiz mit internationalen Partnern bei der Entwicklung von KI-Standards zusammen?
Adrian Egli: «Standards» ist ein sehr breiter Begriff. Es gibt technische Standards, Formate, aber auch ethische, rechtliche, soziale und gesellschaftliche. Wichtig ist der Austausch über diese Standards – nicht nur in Europa, auch in der Schweiz selbst. In der Schweiz wurden in den letzten Jahren viel Expertise zu KI aufgebaut – es gibt unterdessen Fachkongresse wie z.B. die Applied Machine Learning Days der EPFL aber auch viele mehr – dort wird in Vorträgen viel zu Standards diskutiert. Hier kommen auch internationale Experten und es findet ein reger Austausch statt.
Besonders wichtig sind Datenstandards – in der Medizin hat die Schweiz viel mit der Swiss Personalized Health Network erreicht, wo neben infrastrukturellen Investitionen auch viel in Datenstandards geleistet wurde. Es gab dort unterschiedliche Treiberprojekte, z.B. zum Einsatz von KI bei Sepsis oder Krebs. Dies war ein enorm hilfreicher Prozess – das Programm endet aber leider im 2025 – hier braucht es nachhaltige Investitionen, um diese geschaffenen Standards auch weiterzuentwickeln. Selbstverständlich sind KI Anwendungen aber auch enorm breit und in anderen Gebieten sind unterschiedliche Standards wichtig.
Für die Schweiz ist es sehr wichtig, kontinuierlich und weitere Investitionen in KI-Innovationen und Entwicklung zu leisten, um eben auch bei der Entwicklung von Standards mitzuwirken. Hier benötigt es wichtige finanzielle Unterstützung, Anreize und Signale durch akademische und nicht akademische Institutionen und auch die Politik ist gefordert.
Im Uni- oder Schulbereich: Wie erkennen Sie, ob Arbeiten mit ChatGPT verfasst wurden? Welche Tools gibt es, um das zu erkennen?
Helga Rietz: Es gibt hier mehrere Möglichkeiten. So können Lehrer / Dozenten die Texte auf bestimmte Merkmale durchforsten, die in generierten Texten häufig auftreten. Zum Beispiel sind diese Texte oft voller sehr allgemeiner Formulierungen, sie enthalten Übertreibungen und stilistische Merkmale, die Rückschlüsse auf die Entstehung zulassen.
Weil diese umso stärker ausgeprägt sind, je länger der generierte Text, fallen solche Arbeiten durchaus auf. Daneben gibt es KI-Tools wie GPTZero, AI Text Classifier, Copyleaks, die die oben beschriebene Überprüfung maschinell machen. Ein weiterer maschineller Ansatz ist es, die eingereichte Arbeit mit anderen Texten vom selben Autor zu vergleichen (= Autorschaftsverifikation) und so zu schauen, ob alle Texte plausibel aus derselben Feder stammen. Wichtig bei all diesen Verfahren ist, dass es keine 100%-ige Sicherheit gibt. Allerdings gab es schon früher die Möglichkeit, Hausarbeiten abzuschreiben oder von einem Ghostwriter erstellen zu lassen, das Problem ist also nicht im Zeitalter der KI ganz neu aufgetaucht. Das Fälschen ist jetzt bloss wesentlich einfacher und billiger geworden.
Unis und Schulen gehen mit der neuen Herausforderung unterschiedlich um. Die Lernzielkontrolle muss ja nicht immer mit einem selbstgeschriebenen Aufsatz erfolgen; manche Lehrer überlegen sich jetzt ganz neue Aufgabenstellungen, die die Schüler / Studenten anregen, sich mit dem Gelernten auseinanderzusetzen.
Wie kann KI in der Medizin bei Prognosen helfen? Oder bei Früherkennung/Diagnostik? Wie wird das heute schon eingesetzt? Oder bleibt menschliche Expertise immer wichtiger?
Thomas Hofmann: Es gibt hier in der Tat ein sehr grosses Spektrum an Anwendungen. Es beginnt bei der automatischen Auswertung von Bilddaten wie etwa Gewebeanalyse, MRI oder anderen bildgebenden Verfahren, automatisierte Hauptkrebserkennung, usw. Entsprechend kann KI auch Zeitsignale analysieren und zu diagnostischen Zwecken nutzen, wie etwa ein EKG oder EEG.
KI kann helfen, genetische Faktoren mit Krankheitsanfälligkeiten zu verknüpfen und so personalisierte Prognosen machen. KI kann Auffälligkeiten in Sensordaten finden, die wir über Smart Devices (Uhren, Smartphones, usw.) sammeln und Vorschläge zu einem gesünderen Verhalten machen. Das eröffnet neue Möglichkeiten in der personalisierten Vorsorge und Früherkennung. Man könnte diese Liste schier endlos fortsetzen … Die Herausforderungen für den Einsatz in der Praxis sind aber die hohen Hürden, die wir aus gutem Grund im medizinischen Bereich haben.
Es dauert in der Regel länger, entsprechende Studien durchzuführen und die Wirksamkeit bzw. Zuverlässigkeit verlässlich zu validieren, als solche Anwendungen zu entwickeln. Darüber hinaus stellt sich eine Herausforderung, die richtige Arbeitsteilung zwischen einem Arzt bzw. menschlichem Experten und einem KI System zu finden, was Stärken optimal kombiniert, ohne neue Schwächen einzuführen. Es braucht sicher nach wie vor menschliche Expertise, aber die Art der Expertise und die erforderlichen Kompetenzen verlagern sich.
Meiner Meinung nach ist KI das mächtigste „Werkzeug“ welches wir Menschen geschaffen haben. Ein Werkzeug, welches, wenn es in die falschen Hände gerät unvorstellbare Auswirkungen haben könnte. Man spricht immer davon, dass eine Regulierung noch möglich wäre, ist dies wirklich realistisch? Zudem interessiert mich, wie die KI folgende Punkte beeinflussen wird: Gleichheit und der Menschen (werden die Stimmen Eizelner nicht viel bedeutsamer und die der Masse gehen unter?), Energiebedarf…? (ich weiss grosse Fragen…)
Thomas Merz: Ich glaube, es wäre eine Anmassung, wenn ich behaupten würde, ich könne Ihre Frage verbindlich beantworten. KI-Tools werden tatsächlich in sehr vielen Bereichen überaus mächtige Werkzeuge sein. Wenn wir die aktuelle politische Weltlage betrachten, so ergeben sich berechtigte Zweifel bezüglich der Frage, ob sich mit rechtlichen Regulierungen eine Nutzung gewährleisten lässt, die für die Menschen überwiegend positive Folgen hat. Was mir persönlich Hoffnung gibt, ist der Blick zurück. Die Menschheit hatte immer wieder grosse Herausforderungen zu bewältigen – und wenn wir über eine lange Zeitdauer schauen, haben sich etliche Parameter sehr positiv verändert. Gerade die raschen Veränderungen im Bereich der Digitalisierung, insbesondere auch hier mit Künstlicher Intelligenz, fordern die Weltgemeinschaft heraus. Umso wichtiger scheint es mir, hier mitzudenken und nach Kräften mitzuwirken.
Denken Sie, dass KI einen negativen Einfluss auf die Kreativität haben wird, da man jetzt «Kunst» mit KI generieren lassen kann nur mit ein paar Wörtern oder wird die Kreativität gefördert, da jetzt jeder Kunstwerke erstellen kann ohne zeichnen zu können?
Adrian Egli: Danke für die Frage – ich finde klar «nein». Die Frage stellt sich zuerst: Was ist Kreativität überhaupt im Kontext der KI? Ich kann dazu wärmsten eine Sternstunden-Sendung auf SRF empfehlen: https://www.youtube.com/watch?v=w5hfJaaadBU. Ich sehe den Einsatz von KI ähnlich wie eine Smartphone-Kamera, obwohl wir alle Bilder machen können, sind wir nicht alle Künstler/innen – es ist ein Tool. KI kann uns auch Inputs geben, Ideen helfen, zu strukturieren und Feedback geben. So entstehen auch neue Ideen gemeinsam im Dialog mit dem Menschen, ob dies dann aber kreativ ist, definiert der Mensch selbst.
Wie sehen Sie die Möglichkeit, dass KI irgendwann in politische Entscheidungsprozesse integriert wird? Sollte das überhaupt passieren?
Helga Rietz: Jein :) Mithilfe von KI-Tools lassen sich grosse Datenmengen schnell analysieren und interpretieren, was den Entscheidungsträgern einmal helfen könnte, fundierter und schneller Massnahmen zu ergreifen – etwa in einer Krisensituation, wo schnelles Handeln gefragt ist und die Risiken hoch sind. Auch gibt es Vorschläge, mit KI-gestützten Plattformen die politische Teilhabe der Bürger zu unterstützen, indem sie Informationen verständlich aufbereiten und den Dialog zwischen Wählern und Politikern erleichtern.
Jenseits der Aufbereitung von Informationen wird es schwierig mit der KI-Hilfe, etwa wenn wir in Richtung von algorithmisch gesteuerten Entscheidungen denken. Hier gibt es viele ethische Hürden: Wie stellen wir Transparenz her, wer ist am Ende rechenschaftspflichtig für die Entscheidungen, wie gewährleisten wir den Datenschutz, wie verhindern wir, dass Entscheidungen nicht durch Biases verzerrt werden etc. pp.
Der Einsatz von KI in diesem Rahmen müsste sehr genau beobachtet und begleitet werden, wenn wir ihn denn als Gesellschaft überhaupt wollen.
Haben wir den «Point of No-Return» nicht bereits überschritten? Wie werden sich absolut logisch handelnde KI's verhalten, wenn sie sich selbst programierend, selbst zielsetzend, selbst schützend, über IoT agierend, (fast) ohne Ressourcen-Limits, weiterentwickeln?
Angela Müller: Vielen Dank für Ihre Frage. Das ist ein wichtiges Thema, das Sie damit aufgreifen. Sehr oft hören wir von utopischen oder dystopischen Zukunftsszenarien, also davon, dass KI entweder quasi alle unsere gesellschaftlichen Probleme lösen, den Klimawandel bekämpfen, für Frieden sorgen und alle Krankheiten heilen wird (Utopie) – oder dass sie eben uns alle arbeitslos macht und schlussendlich die Weltherrschaft übernimmt (Dystopie).
Meiner Meinung nach sind beide Erzählungen überzeichnet – und beide auch etwas gefährlich: Sie vermitteln den Eindruck, dass wir uns nur auf diese spekulative Zukunft konzentrieren sollen – und lenken damit ab von konkretem Nutzen und Schaden der KI heute und in naher Zukunft. Sie vermitteln auch den Eindruck, diese Technologie und ihre Entwickler seien allmächtig. Auch das ist meiner Meinung nach problematisch. Wir müssen uns bewusst sein, dass wir es hier mit einer Maschine zu tun haben, die von Menschen entwickelt und eingesetzt wird – und Menschen verfolgen dabei bestimmte Interessen.
Natürlich ist es problematisch, wenn so grosse Systeme geschaffen werden, die völlige Black Boxes sind und man eigentlich gar nicht mehr genau weiss, wie sie funktionieren. Aber wir müssen die Menschen und Unternehmen dahinter eben zur Verantwortung ziehen – und diese Möglichkeit haben wir.
Finden sie KI gefährlich?
Thomas Hofmann: Das ist eine sehr allgemeine Frage, :) KI hat ohne Frage ein erhebliches Gefahrenpotential, das ist nicht zu leugnen, aber natürlich auch einen enormen Nutzen. Es gibt Gefahren, die wir kennen und die wir versuchen einzudämmen, etwa im Bereich von «Deep Fakes» oder Fehlinformationen.
Es gibt Gefahren, die in der Kombination von KI mit bestimmten gesellschaftlichen Problemen und Herausforderungen liegen. Überwachung wird etwa durch KI wesentlich effektiver und mächtiger (wollen wir als Gesellschaft das?). Waffentechnologie wird immer mehr von Innovation in KI geprägt (wichtiger denn je, Konflikte zu entschärfen und Kriege zu verhindern). Einsatz von KI Systemen in der Arbeitswelt (wollen wir das, welche menschlichen Tätigkeiten sollten ersetzt werden, welche nicht?), Veränderungen im Bildungswesen (was sollen zukünftige Generationen lernen, was können wir an KI delegieren?) und vieles mehr.
Eine grosse Gefahr sehe ich darin, dass die breite Gesellschaft nicht genug in diese Fragen einbezogen wird und dass solche Entscheidungen von Technologiefirmen oder einer kleinen Gruppe von Experten getroffen werden.
Es geht aber nicht (nur) um Technologie, sondern auch um Werte. Szenarien, die mich beunruhigen, sind daher nicht solche in der KI Systeme die Weltherrschaft an sich reissen, sondern mögliche Zukunftsszenarien, in der es eine ungenügende gesellschaftliche Mitbestimmung über den Einsatz von KI gibt und KI Technologie grossen Teilen der Bevölkerung aufgezwungen wird zum Vorteil einiger weniger (etwa Geschäftsinteressen oder politischen Interessen).
Kann man sagen, welches Land KI jetzt schon am meisten einsetzt? Eines in Skandinavien?
Angela Müller: Vielen Dank für Ihre Frage. Das lässt sich nicht generell beantworten – denn «KI» umfasst ein breites Spektrum von Anwendungen. Darunter fallen etwa die in den Medien viel diskutierten generativen KI-Tools wie Chatbots oder Bildgeneratoren, aber natürlich auch andere Arten von KI: Zum Beispiel beruhen die Google-Suche, Navigationssysteme, Social-Media-Plattformen, der Spamfilter im E-Mail-Fach oder vieles anderes auch auf «KI». Zudem kommen Systeme, die zur Entscheidungsfindung herangezogen werden, etwa um die Kreditwürdigkeit von Menschen zu prüfen, ihre Jobbewerbungen vorzusortieren, die Rückfallprognose von Straftäterinnen und Straftätern vorherzusagen, etc.
Die Spannbreite ist also enorm und die Stellen, die es einsetzen, reichen von Grossunternehmen über öffentliche Verwaltungen und der Wissenschaft bis hin zu Privatpersonen.
Guten Tag. Wie ich jetzt ein wenig herausgelesen habe, sind Deepface und k1 nicht immer legitim. Wie kommt es dann dazu, dass auf Facebook und TikTok immer wieder STARS wie Tom Cruise, Keanu Reeves, Deepface zugelassen werden? Zum Beispiel, ich habe ein Foto von Reeves gelikt und bekomme seither unzählige Nachrichten von einem anscheinendem Reeves, ist ja nicht möglich sowas .... wieso wird dagegen nichts unternommen gegen diese Fake-Profile?
Helga Rietz: Das Auftauchen von Deepfakes auf den Sozialen Medien ist ein wachsendes Problem. Oft handelt es sich um Unterhaltung – dies ist gerade bei Stars oft der Fall -, aber manchmal stecken auch Betrug oder Identitätsmissbrauch dahinter. Deepfake-Videos, die offensichtlich humorvoll oder satirisch gemeint sind, kann man unter Berücksichtigung von Kunst- und Meinungsfreiheit gut tolerieren.
Das Problem ist, dass die Grenze zum Missbrauch nicht leicht zu ziehen ist und die Absichten des Deepfake-Accounts oft schwer erkennbar sind. Beispiele wie Ihres – Nachrichten von angeblichen Stars – sind meist Teil einer Betrugsmasche, dem sogenannten «Catfishing». Diese Accounts missbrauchen Namen und Bilder von Prominenten, um Nutzer zu manipulieren oder Geld zu erpressen. Warum tun die Plattformen dagegen nichts (oder jedenfalls sehr wenig)?
Eine Moderation und Überprüfung der vielen Millionen Beiträge pro Tag auf einer Plattform ist aufwendig und anspruchsvoll, sodass die Plattformen dem Aufkommen schlicht nicht Herr werden. Ausserdem ist die Regulierung nicht klar, es gibt noch keine einheitlichen Regeln zum Umgang mit Deepfakes. Was Sie als Nutzer tun können, ist, verdächtige Profile zu melden und zum Schutz Ihrer Privatsphäre die betreffenden Accounts zu blockieren. Und: Immer eine gesunde Skepsis bewahren gegenüber den Inhalten!
Gibt es einen Bereich der KI, der zu wenig erforscht ist oder zu wenig Beachtung findet? Aber zukunftsweisend sein könnte?
Thomas Hofmann: Vielen Dank, das ist eine interessante Frage. Zum einen muss ich sagen, dass es wohl keinen Bereich gibt, in dem so viel Forschung stattfindet, wie in der KI. Von Universitäten und staatlichen Forschungseinrichtungen bis hin zu grossen und kleinen Technologiefirmen.
Es hat wirklich alle Wissenschaftsbereiche und alle Wirtschaftszweige erfasst. Erstaunlicherweise mangelt es immer noch an einem fundamentalen Verständnis der KI-Systeme. Sind die aktuellen KI-Systeme ihrer Struktur und ihrem Aufbau nach die besten, die wir entwickeln können? Es gibt viele Zufälligkeiten und wenig Systematik in der neueren Geschichte der KI. Angesichts der ständig wachsenden Zahl der Anwendungsgebiete besteht hier ein Nachholbedarf in der Forschung. Was Anwendungen der KI betrifft, so sind oft die Bereiche, die von geringerem kommerziellem Interesse sind, diejenigen, die weniger gut erforscht sind.
Aber selbst hier gibt es Initiativen wie «AI for Good» und andere, die versuchen, die Möglichkeiten von KI jenseits der schnellen Kommerzialisierung zu erforschen und zu realisieren. Ansonsten würde ich sagen, dass zum Beispiel Forschung im Bereich menschlicher Interaktion mit KI und der Veränderung von menschlichem Verhalten durch Verwendung von KI-Tools zu wenig erforscht sind. Das hängt damit zusammen, dass dieser Bereich sowohl AI-Expertise als auch Expertise in Psychologie, Soziologie, usw. erfordern. Die verschiedenen Disziplinen zusammenzubringen braucht mehr Zeit und ist daher inhärent langsamer.
Denken Sie, dass durch KI einmal Menschen nie mehr arbeiten müssen
Helga Rietz: ganz klar: nein! Dieser Traum ist wohl so alt wie die Menschheit – bei Jules Verne gibt es die wunderschöne Geschichte aus dem Leben eines Journalisten im Jahr 2889, der, ausgestattet mit allerhand technischen Raffinessen, mit wenigen Stunden Arbeit pro Tag ein äusserst angenehmes Leben führt. Die Realität ist eine andere, das haben wir historisch bei der Erfindung von Ackerbau und Viehzucht, bei der Industrialisierung, der Digitalisierung immer wieder erlebt.
Die Art der Tätigkeiten verändert sich, die Arbeiten, die dank Effizienzsteigerung nur noch wenig Mühe erfordern, werden ersetzt durch andere. Und ich persönlich bin sicher, dass da auch das Zeitalter der KI keine Ausnahme ist.
Werden heutige Schülerinnen und Schüler besser im Umgang mit Fake-Videos zu erkennen, weil nun bereits klar ist, dass man im Internet allem mit Skepsis begegnen muss? Oder wird es nur noch schwieriger?
Angela Müller: Vielen Dank für Ihre wichtige Frage. Ich denke, vielen Schülerinnen und Schülern ist heute schon stärker bewusst, dass sie nicht alles glauben sollen, was sie online sehen. Unter anderem hilft hier natürlich die Thematisierung und die Entwicklung von Kompetenzen im Rahmen der Schule. Allerdings denke ich, dass es nicht nur um «Digitalkompetenz» geht. Falsche Inhalte gibt es schon lange und die Fähigkeit, Inhalte kritisch zu hinterfragen und zu reflektieren war schon immer wichtig – und ist es heute umso mehr.
Es geht also meiner Meinung nach auch um politische Bildung, um die Förderung von «Demokratiekompetenz». Zudem müssen wir uns bewusst sein, dass die Ausgangssituationen für verschiedene Menschen sehr unterschiedlich sind: Nicht alle haben dieselben Möglichkeiten, sich damit reflektiert auseinanderzusetzen. Wichtig finde ich zudem auch zu betonen, dass wir uns nicht nur auf falsche Inhalte und Deepfakes konzentrieren.
Auch andere Inhalte können etwa sexistisch oder rassistisch sein, Gewalt beinhalten, Hass beinhalten und damit Menschen schaden. Social-Media-Algorithmen können auch dazu führen, dass diese genau solche Inhalte verstärkt verbreitet werden. Und Menschen können sich sehr schlecht dagegen zur Wehr setzen. Auch das kann das Wohlbefinden, aber auch die politische Sozialisierung und Meinungsbildung von Menschen – besonders auch von Jugendlichen – beeinflussen. Auf jeden Fall aber ist es wichtig, dass wir in Digital-, Medien- und Demokratiekompetenz investieren. In der Schule, aber auch ausserhalb!
Was denken Sie zum Einsatz von KI-Chatbots wie ChatGPT in der Volksschule? Ist das grösste Hindernis der Datenschutz?
Thomas Hofmann: Datenschutz ist sicher immer ein wichtiger Aspekt. Ich denke aber, dass es aktuell auch andere Herausforderungen gibt. Heutige KI-Dialogssysteme sind nicht immer zuverlässig, sie «halluzinieren» vermeintliche Fakten oder argumentieren inkorrekt oder lückenhaft. Ganz zu schweigen von Aspekten wie Ausgewogenheit und Pluralität von Meinungen in Bereichen, die nicht einfach auf Faktenwissen aufbauen.
Es braucht daher immer kompetente Lehrer, die Schüler unterstützen und ChatGPT und Co verantwortungsvoll im Blick haben. Das ist gerade in der Volksschule wichtig, da Kinder in jungen Jahren noch weniger in Kritikfähigkeit und dem Hinterfragen von Antworten geschult sind. Die Gefahr liegt dann darin, dass junge Menschen zu früh ein Übermass an Vertrauen in KI entwickeln und damit noch einfacher durch KI zu manipulieren sind. Natürlich gibt es darüber hinaus, je nach Thematik, noch das Thema der Sicherheit, also etwa der Sicherheit solcher Systeme für Kinder.
Und dann muss man natürlich auch aus pädagogischer Sicht über Sinn und Zweck des Einsatzes von KI-Systemen befinden. Das ist aber oft nicht leicht, weil wichtige Effekte etwa eines Unterrichts mit (mehr) ChatGPT oft ja erst langfristig, also nach vielen weiteren Lebensjahren sichtbar werden. Vielleicht erlernen Schüler bestimmte Kompetenzen nicht mehr, die sich erst später als wichtig erweisen.
Welche Branchen werden von der KI-Revolution Schäden davontragen? Welche Arbeiten oder Tätigkeiten werden irgendwann gar nicht mehr relevant sein aufgrund von KI-Tools?
Adrian Egli: «Wer nicht mit der Zeit geht, geht mit der Zeit», könnte man auch sagen. Zu jeder Phase von technologischen Erneuerungen – ob nun Telefon, Computer oder Internet – gab es Anpassungen – wer wichtige Trends verpasst, hat es schwer. Berufsbilder passen sich stetig, aber auch immer schneller an, auch weil sich manche Technologien in der vernetzten Welt schneller durchsetzen.
Als Beispiel hat es 75 Jahre gedauert, bis 100 Millionen Menschen das Telefon genutzt haben, bei ChatGPT waren es nur noch 20 Tage. Es gibt unterschiedliche Modelle, welche besagen, dass sich die berufliche Umwelt in kürzeren Abständen anpasst. Weiterführende Artikel sind hier: vom World Economic Forum – https://www.weforum.org/publications/the-future-of-jobs-report-2023/digest/ oder vom Institute for the Future (IFTF) – https://legacy.iftf.org/realizing2030-futureofwork/. Das IFT hat eine oft zitierte Zahl publiziert, dass 85 % der Jobs welche 2030 ausgeübt werden, heute noch gar existieren. Trotz mancher übertriebenen Aussagen ist es sicherlich ein Fakt, dass sich die Berufswelt stetig verändert und wir uns anpassen, weil sich Branchen anpassen. Was verschwinden wird und wie schnell diese technische Transformation geschieht, ist schwer zu sagen.
Es werden manche repetitive, administrative Arbeiten hoffentlich verschwinden, um so auch unnötige Kosten in Verwaltungen, Spitälern oder anderen Institutionen zu reduzieren.
Irgendwie habe ich das Gefühl, dass Anbieter wie Google, Samsung und Apple mit ihrer KI-Offensive nur auf den Hypezug aufspringen, aber nicht extrem viel Mehrwert in ihre Produkte bringen. Gibt es denn Apps und Dienste, die ohne KI niemals so nutzerfreundlich und hilfreich wären? Zum Beispiel Übersetzungstools: Sind die wirklich so viel besser geworden als noch vor dem grossen KI-Hype?
Helga Rietz: Das Schlagwort «KI» ist natürlich auch ein Stück weit Marketing. Viele Features sind noch so neu, dass die Nutzer erst noch herausfinden müssen, ob diese einen echten Mehrwert bieten oder nicht. Was sich in der Breite durchsetzt und was nicht, wird sich mit der Zeit zeigen. Das Beispiel, das Sie nennen, die Übersetzungstools, sie sind allerdings tatsächlich in den letzten Jahren insbesondere durch den Einsatz von KI deutlich besser geworden. So sind die Übersetzungen jetzt besser auf den Kontext bezogen als zuvor, sie werden dadurch genauer und zuverlässiger.
Ausserdem können sie auch Nuancen / Tonalitäten im Text erkennen und «mitübersetzen». Und die Anzahl der Sprachen, in die übersetzt werden kann, hat sich vervielfacht. Dadurch sind maschinelle Übersetzungen heute auch in Bereichen akzeptiert, in denen noch vor wenigen Jahren zwingend ein menschlicher Übersetzer zum Zuge gekommen wäre. Dennoch gibt es nach wie vor Texte, die als zu komplex oder zu sensibel eingestuft werden, sodass von der maschinellen Übersetzung abgesehen wird.
Beobachten Sie auch, dass die Sprache und Schreibweise der Leute sich stark verändert hat? Man kann mittlerweile auch schnell erkennen, ob ein Text von Menschenhand geschrieben oder von einer KI geschrieben ist. Wie schätzen Sie diese Entwicklung ein?
Thomas Hofmann: Das beobachte ich auch und ich sehe es mit Sorge. Das Verfertigen von Gedanken beim Schreiben ist mühsam. Man ringt nach Worten, man ringt mit Rechtschreibung, Grammatik, Schreibstil und vielem mehr. KI lässt uns glauben, dass wir nicht mehr schreiben lernen müssen, sondern nur einen halbwegs sinnvollen «Prompt» (also eine Anfrage) zu formulieren brauchen. Ist das nicht viel einfacher? Der Rest geschieht dann von selbst und «wir schreiben» wie Goethe oder Shakespeare.
Das ist natürlich eine grosse und tragische Illusion. Wir machen uns selbst etwas vor und verlieren die Fähigkeit, komplexe Gedanken auszudrücken. Wir verlieren wohl auch die Fähigkeit überhaupt komplexe Gedanken zu fassen. Zudem entmutigt es andere, die sich noch an echtem Schreiben versuchen, weil ihr Schreibresultat – jedenfalls nicht ohne viel Übung – das Niveau von ChatGPT und Co erreicht. In Wirklichkeit verlieren wir so eine der grössten kulturellen Errungenschaften und degradieren bzw. schaden uns selbst. Dem müssen wir unbedingt entgegenwirken.
Solange wir KI generierte Texte allerdings noch leicht unterscheiden können, haben wir aber immerhin noch die Möglichkeit, z. B. das Lesen solcher Texte zu verweigern oder bei der Beurteilung von Texten zu berücksichtigen. Eine weitere Gefahr sehe ich in der Zukunft, wenn diese Unterscheidbarkeit nicht mehr gegeben ist (etwa durch «dumbing down» der Systeme).
Wie können zukünftige Generationen besser auf sich schnell verändernde Situationen in der Arbeitswelt vorbereitet werden? Aktuell wurde der wachsende Graben zwischen älteren und jüngeren Generationen beschrieben, ebenfalls existiert derzeit auch ein intragenerationeller Graben, da der Einsatz von KI in verschiedenen Berufszweigen unterschiedlich stark zum Einsatz kommt.
Afke Schouten: Zukünftige Generationen auf eine sich schnell verändernde Arbeitswelt vorzubereiten, ist eine Herausforderung, die wir nur mit einem ganzheitlichen Ansatz bewältigen können. Die Integration moderner Tools wie ChatGPT oder Gemini in das Bildungssystem ist ein zentraler Schritt. Schüler und Studierende sollten nicht nur lernen, diese Tools zu nutzen, sondern auch, ihre Antworten kritisch zu hinterfragen und zu bewerten. So wird ein fundiertes Verständnis gefördert, statt blindem Vertrauen in Technologie.
Darüber hinaus werden andere Fähigkeiten zunehmend an Bedeutung gewinnen: Kritisches und analytisches Denken, die Interpretation von Daten und komplexen Zusammenhängen – diese Kompetenzen stehen im Mittelpunkt. Die Ausführung repetitiver Aufgaben wird hingegen immer mehr automatisiert. Es ist also entscheidend, junge Menschen auf eine Zukunft vorzubereiten, in der die Wertschöpfung stärker durch kreatives und strategisches Denken geprägt ist. Es stimmt, dass der Einsatz von KI in verschiedenen Branchen unterschiedlich stark ausgeprägt ist.
Einige Unternehmen und Industrien hinken hier deutlich hinterher. Ich persönlich empfehle der nächsten Generation, solche Organisationen zu meiden, da dies langfristig ihre Karrierechancen einschränken könnte. Dennoch glaube ich, dass sich KI, ähnlich wie einst der Personal Computer, organisch in alle Bereiche des Arbeitslebens integrieren wird. Die Angst vor Veränderungen ist oft grösser, als die tatsächlichen Auswirkungen – mit der Zeit wird KI dort ankommen, wo sie gebraucht wird. Für diejenigen, die proaktiv handeln wollen, sehe ich den grössten Hebel in bereichsübergreifender Zusammenarbeit, der Vermittlung relevanter Kompetenzen und – ganz besonders – in der Bildung auf C-Level-Ebene. Führungskräfte müssen verstehen, wie sie KI strategisch einsetzen können, um ihre Unternehmen voranzubringen und nicht ins Hintertreffen zu geraten.
Welche verborgenen Gefahren verbirgt die KI, worüber kaum geredet wird?
Florian v. Wangenheim: Insgesamt wird ja nicht gerade wenig über die Risiken von KI viel berichtet. Aber ein Thema, das mir in der Diskussion zu kurz kommt, betrifft die Datenqualität. Grundsätzlich ist der Einsatz von KI in vielen Bereichen abhängig von der Qualität der Daten, die zur Entwicklung oder Weiterentwicklung von Algorithmen verwendet werden. Auch die Qualität sogenannter Large Language Models (LLMs) hängt entscheidend von den Trainingsdaten ab. Das Gleiche gilt für Modelle, welche Klimaentwicklungen vorhersagen oder Krankheitsdiagnosen unterstützen sollen.
In vielen Fällen ist es schwierig, die «richtigen» Daten als Grundlage zu gewinnen. Gerade im Unternehmenskontext erlebe ich häufig, dass man davon ausgeht, dass dieses Problem mit «mehr Daten» gelöst wird. Solange diese aber fehlerhaft sind, werden «mehr Daten» die Modelle nicht verbessern. Viele Modelle funktionieren daher nach dem «Gargabe in, garbage out"-Prinzip. Mit anderen Worten, wenn die zugrundeliegenden Daten nicht gut sind, wird die AI die zuvor von Menschen gemachten Fehler wiederholen und teilweise sogar verstärken
Was ist die nächste technologische Stufe nach KI?
Claus Beisbart: Danke für diese spannende Frage. Mit KI sind heute oft Anwendungen gemeint, deren Verhalten intelligent wirkt und die höchstens so intelligent sind wie Menschen. Eine natürliche Weiterentwicklung wären Systeme, die deutlich intelligenter als Menschen sind. Das ist denkbar, denn wir Menschen machen ja viele kognitive Fehler; wir können nicht so schnell rechnen, wir verschätzen uns etc. Es gibt also noch Luft nach oben.
Man spricht von Superintelligenz, wenn es um Systeme geht, welche die Menschen haushoch an Intelligenz übertreffen. Ob es so eine Superintelligenz einmal gibt, ist eine schwierige Frage. Bisherige KI-Anwendungen haben nicht einmal allgemeine menschliche Intelligenz. Aber es gibt die Vorstellung, dass sich – auch mithilfe von KI selbst – nach und nach immer intelligentere Systeme bauen lassen.
Gibt es eine von der Schweiz entwickelkte KI-Lösung, die weltweit Erfolg hat und eingesetzt wird?
Afke Schouten: Google Maps ist ein herausragendes Beispiel für eine in der Schweiz entwickelte KI-Lösung, die weltweit erfolgreich eingesetzt wird. Die Ursprünge von Google Maps liegen in der Schweizer Firma Endoxon, die 2006 von Google übernommen wurde. Seitdem wird der Dienst kontinuierlich weiterentwickelt, wobei das Google-Büro in Zürich eine zentrale Rolle spielt. Viele bedeutende Innovationen, wie die Velo-Navigation, wurden hier entwickelt und zunächst in der Schweiz getestet, bevor sie global ausgerollt wurden.
Ich habe schon öfters gehört, das China in der Umsetzung von AI im Gesundheitswesen in der vordersten Liga mitspielt. Warum und in wie fern?
Florian v. Wangenheim: China hat eine Reihe von strukturellen Voraussetzungen, um hier eine führende Rolle einzunehmen. Zum einen hat China relativ früh und spätestens mit Beginn der Corona-Pandemie von staatlicher Seite aus sehr intensiv und flächendeckend in die Digitalisierung des Gesundheitssystems investiert.
Durch die stark zentralistischen Strukturen und nicht allzu stark ausgeprägten Datenschutz kommen viele Daten an zentraler Stelle zusammen. Im Vergleich dazu verfügen viele westliche Nationen nicht über einen solchen Datenpool, nicht weil es diese Daten nicht gäbe, sondern weil Datenschutz, Regionalisierung und Föderalismus und Wettbewerb private Gesundheitsanbieter wie Kassen, Labore, Kliniken, die miteinander im Wettbewerb stehen, einer Zentralisierung der Daten im Weg stehen.
Darüber hinaus ist bekannt, dass China, wenn es von staatlicher Seite von bestimmten Innovationen überzeugt ist, diese auch schnell im ganzen Land verbreiten kann. Zwei Beispiele, die mir einfallen, sind die «one minute clinics» und das «agent hospital». Die one-minute clinics sind KI-gestützte «Kioske» an Orten wie Einkaufszentren oder Bahnhöfen, die schnelle medizinische Dienstleistungen, vor allem für «Bagatellfälle» anbieten. Im «agent hospital» werden Patienten von KI Robotern behandelt.
Diese Art von Innovationen wird von gigantsichen Unternehmen wie «Ping An», Tencent und Alibaba Health vorangetrieben, die über die entsprechenden Ressourcen verfügen. Zudem ist aufgrund der Grösse des Landes mit vielen entlegenen Regionen der Einsatz von Telehealth und Remote Medizin sinnvoll. In der Summe sind es also verfügbare Daten, staatliche Förderung und die Möglichkeit der schnellen Implementierung, die China hier helfen. Die Technologien stünden auch hier zur Verfügung.
Gibt es noch etwas, was die KI nicht kann? Wo setzen wir uns erheblich ab, wo wird uns die KI wohl nie einholen können?
Andreas Krause: In der Vergangenheit wurden die Leistungen von KI-Technologie oft im Kontext spezialisierter, wohldefinierter Anwendungen (z.B. Spielen wie Schach, Go, etc.) gemessen. Heutige (generative) KI ist immer mehr für breitere, vielfältigere Anwendungsfelder einsetzbar, und moderne KI-Systeme werden deshalb oft anhand verschiedener Benchmarks getestet. Beim guten Abschneiden, z.B., hinsichtlich gewisser standardisierter Testverfahren weiss man oft allerdings nicht, auf wie vielen sehr ähnlichen Aufgaben diese Modelle bereits trainiert worden sind, und wie stark die Generalisierungsleistung wirklich ist.
Menschen lernen nach wie vor viel effizienter. Nicht selten tritt, neben den oft genannten «halluzinierten» Fakten, auch anderes unerwartetes (und für Menschen oft schwer nachvollziehbares) Fehlverhalten der Modelle zu Tage, wenn sie mit durch die Trainingsdaten nicht hinreichend abgedeckten Aufgaben konfrontiert sind. M
it Vorhersagen bzgl. Fähigkeiten, bei denen (KI-)Technologie uns «nie» einholen wird, sollte man erfahrungsgemäss eher vorsichtig sein. Man sollte sich aber fragen, für welche Aufgaben wir als Gesellschaft KI einsetzen wollen, und wo uns das menschliche Element und der persönliche Umgang immer wichtig bleiben wird. Eine zentrale Frage wird bleiben, wie wir die KI Technologie so gestalten, dass sie zum wertvollen Werkzeug wird, der Mensch aber im Mittelpunkt bleibt.
Wie werden innovative KI-Technologien in der Schweiz gefördert? Gibt es separate Stiftungen oder staatliche Töpfe dafür? Falls überhaupt, oder wäre mehr möglich?
Florian v. Wangenheim: Grundsätzlich steht die Schweiz nicht schlecht da, was innovative KI angeht. Dies hat zu tun mit einem Mix aus staatlicher Förderung (wie z. B. durch die Innosuisse), innovativer Forschung (vor allem an den Universitäten und ETH) und Förderung durch private Stiftungen. Aber natürlich tragen dazu auch die in der Schweiz ansässigen Unternehmen bei.
Einerseits gibt es in der Schweiz viele Technologieunternehmen, die hier AI-Forschung betreiben, wie etwa Google. Andererseits sind viele der in der Schweiz beheimateten KMU zunehmend auf KI-Lösungen angewiesen und betreiben entsprechende Forschung. Gleichzeitig gibt es auch einige Förderprogramme, die sich mit dem ethischen Einsatz von KI befassen.
Schweizer Forscher können also vielfältig Förderung bekommen, je nachdem, ob sie mit Unternehmen oder anderen Organisationen kooperieren oder zunächst einmal «für sich» forschen. «Mehr möglich» wäre natürlich immer, aber die Schweiz tut durchaus einiges für die KI Forschung.
Meiner Meinung nach wird die KI für die meisten Menschen einen nachhaltig negativen Einfluss haben. Wieso erschaffen wir solche Dinge die uns in Zukunft schaden?
Michael Wegmüller: Die Aussage, dass KI für die meisten Menschen einen nachhaltig negativen Einfluss haben wird, sehe ich anders. Ich denke, dass wir oft gar nicht wahrnehmen, wo KI bereits heute positiv eingesetzt wird. Wir haben täglich hunderte von Berührungspunkten mit KI, die uns unauffällig dabei hilft, unseren Alltag zu meistern – sei es bei der Navigation, in der medizinischen Diagnostik oder bei Online-Übersetzungen.
KI übernimmt repetitive Aufgaben und schafft uns dadurch Freiräume, die wir nutzen können, um unsere eigentlichen Stärken zu entfalten: Gespräche zu führen, kreativ zu sein, Neues zu erschaffen, Ideen mit anderen zu teilen und gemeinsam an Projekten zu arbeiten. Diese Zeit sollten wir bewusst und sinnvoll nutzen. Wichtig ist: Wir Menschen bleiben die Gestalter und Entscheider. Es liegt an uns, KI verantwortungsvoll, transparent und ethisch einzusetzen. Sie ist ein Werkzeug, das unser Leben erleichtern und bereichern kann, wenn wir sie richtig einsetzen. Schliesslich ist klar: KI ist gekommen, um zu bleiben.
Meine Empfehlung wäre daher, sich darauf einzulassen und zu lernen, wie man sie effektiv nutzen kann. So können wir das Potenzial dieser Technologie zu unserem Vorteil ausschöpfen.
Welche ist die wichtigste Frage, die wir uns mit KI aktuell stellen müssen? Teilen Sie meine Einschätzung, dass unsere Politik sich noch zu wenig damit auseinandersetzt und die Dringlichkeit unterschätzt? Oder finden Sie, dass sich eh alles erst noch «einpendeln» muss?
Afke Schouten: Die wichtigste Frage, die wir uns aktuell mit KI stellen müssen, ist: Wie schaffen wir es, diese Technologie verantwortungsvoll, nachhaltig und effektiv in unsere Gesellschaft und Wirtschaft zu integrieren? Dabei stimme ich Ihrer Einschätzung zu, dass unsere Politik (wie auch C-Level in Organisationen) die Wichtigkeit und Dringlichkeit dieses Themas potenziell unterschätzt und es noch Luft nach oben gibt für Engagement.
Der grösste Unterschied von KI im Vergleich zu anderen Innovationen ist, dass sie nicht isoliert in einer Abteilung oder einem Bereich eingeführt werden kann. In Organisationen – und ebenso in der Verwaltung – erfordert der erfolgreiche Umgang mit KI eine bereichsübergreifende Zusammenarbeit von oben nach unten und von links nach rechts. Veränderung muss von der Spitze ausgehen, denn es handelt sich nicht um eine Innovation, die von unten nach oben organisch wachsen wird. Ohne klare politische Führung wird es schwer, die notwendigen strukturellen und kulturellen Veränderungen einzuleiten. Natürlich, ja, vieles wird sich noch «einpendeln» – Technologien brauchen Zeit, um sich in bestehende Systeme zu integrieren. Aber Stillstand birgt enorme Risiken. Wenn die Politik nicht aktiv eingreift, könnten wir den Anschluss an globale Entwicklungen verlieren. Dies betrifft nicht nur die wirtschaftliche Wettbewerbsfähigkeit, sondern auch die Fähigkeit, unser Bildungssystem rechtzeitig zu transformieren. Denn ein modernes Bildungssystem ist der Schlüssel, um kommende Generationen auf die Zukunft vorzubereiten – und ja, das erfordert eine Auseinandersetzung mit dem Schweizer Föderalismus.
Diese Debatte ist unerlässlich, insbesondere angesichts der globalen Dynamik und der rasanten technologischen Entwicklungen. Ein weiteres Risiko ist der Verlust von Talenten in der Verwaltung. Wenn der öffentliche Sektor nicht mit der Zeit geht, wird es zunehmend schwieriger, hoch qualifizierte Fachkräfte zu halten, die in einem innovativen Umfeld arbeiten möchten. Gleichzeitig droht eine Zunahme der digitalen Kluft, sowohl zwischen der öffentlichen und der privaten Sphäre als auch zwischen verschiedenen Regionen innerhalb der Schweiz. Zudem könnten wir ohne klare politische Strategien Gefahr laufen, bei zentralen ethischen Fragen zu KI hinterherzuhinken, beispielsweise bei der Regulierung von Datenschutz, algorithmischer Transparenz und der Sicherstellung von Fairness und Gleichheit im Einsatz von KI-Systemen.
Das Vertrauen der Bevölkerung in neue Technologien könnte schwinden, wenn keine klaren Regeln und Verantwortlichkeiten definiert werden. Zusammengefasst: Ja, wir brauchen eine Top-Down-Einflussnahme auf dieses Thema. Nur so können wir sicherstellen, dass die Schweiz nicht nur technologisch wettbewerbsfähig bleibt, sondern auch ethisch und gesellschaftlich auf der Höhe der Zeit agiert. Ohne entschlossenes Handeln riskieren wir, entscheidende Chancen zu verpassen und uns in der globalen Entwicklung zurückfallen zu lassen.
Kann man sagen, ob KI heute eher missbraucht oder für gute Dinge gebraucht wird?
Claus Beisbart: KI wird heute für viele gute Dinge entwickelt und gebraucht. Beispiele dafür gibt es in der Medizin, wo KI hilft, bessere Diagnosen zu machen. Auch in der Forschung hilft uns KI, viele Untersuchungen schneller durchzuführen, z.B. die Detektion von Sternen und Galaxien in grossen Katalogen von Himmelsobjekten. Aber es gibt natürlich auch viel Missbrauch von KI, z.B. wenn Studierende mithilfe von ChatGPT schummeln, d.h. eine geistige Leistung vortäuschen, die sie gar nicht erbracht haben. Es ist schwierig abzuschätzen, ob der gute Gebrauch oder der Missbrauch überwiegt.
Dazu noch eine tiefergehende Überlegung: Der Begriff „Missbrauch“ suggeriert, dass es einen bestimmten normalen Gebrauch gibt, von dem dann leider abgewichen wird. Zum Beispiel ist das Obstmesser zum Schneiden von Äpfeln gedacht. KI-Anwendungen wie ChatGPT oder auch Pflegeroboter lassen sich aber sehr vielseitig einsetzen; sie haben nicht bloss einen einzigen Zweck wie das Obstmesser. Daher wird auch die Beurteilung von Missbrauch schwieriger. Die Frage lautet dann nicht so sehr, ob KI missbraucht wurde, sondern ob ihr Einsatz ethisch verantwortbar ist und welche Folgen sich kurz- und langfristig ergeben.
Wie viel Datenleistung wird KI künftig brauchen, wenn es immer mehr angewendet wird in allen Bereichen? Wie sieht heute schon die Serverlandschaft aus, wie viel mehr Server wird es geben? Oder gibt es dezentralisierte Lösungen?
Rico Sennrich: Gerade das Wettrennen um die grössten und besten KI-Modelle erfordert grosse Rechenzentren mit spezialisierter Infrastruktur. Nvidia ist hier Marktführer bei der Herstellung von Grafikkarten, die für das Training von KI-Modellen benutzt werden, und hat 2023 ca. 3.7 Millionen Stück verkauft, 40 % mehr als im Vorjahr. Für den Einsatz von KI-Modellen ist die Situation viel dezentraler. Auch ein Modell, das 100-1000 mal kleiner und effizienter ist als die derzeit grössten Modelle, kann nützlich sein, zum Beispiel für spezialisierte Anwendungen wird die maschinelle Übersetzung. Solche Modelle passen auch aufs Handy oder den Laptop und benötigen nicht zwingen dezidierte Server.
Wir im Westen denken darüber nach, wie wir KI reglementierten können. Mehr als die Hälfte der Menschen leben aber in autokratischen oder diktatorischen Staaten. Diese foutieren sich um jegliche Regeln. KI wird als Unterdrückungsinstrument, für Kriegszwecke oder als Raubwerkzeug eingesetzt und perfektioniert. Müssen auch wir so handeln um nicht unter die Räder zu kommen?
Florian v. Wangenheim: Unsere westlichen Staaten sind ja auf bestimmten Grundwerten und Ideen aufgebaut. Aktuell sieht man – einmal mehr in der Geschichte- wie leicht diese Grundwerte erschüttert werden können. Aber wenn wir an diese Grundwerte glauben, kann ja die Antwort nur sein, dass wir versuchen, uns diese Grundwerte zu erhalten.
Gleichzeitig dürfen wir nicht naiv sein. Nicht jeder teilt unsere Werte und Haltungen zu diesen Themen. Deswegen gilt mehr denn je, dass wir auch «wehrhaft» sein müssen gegenüber denen, die sich, wie sie treffend sagen, nicht unsere Regeln und Werte «foutieren». Wir müssen daher auch «KI Verteidigung» hochrüsten, davon bin ich gleichermassen überzeugt.
Dennoch: Millionen von Menschen versuchen mittlerweile zu uns zu kommen (was eigene Herausforderungen nach sich zieht). Daher meine ich, haben wir gute Gründe, unseren manchmal etwas mühsamen Umgang mit Technologie nicht gleich über Bord zu werfen, weil es kurzfristig einfacher scheint, Schritt zu halten.
Könnte mit ‚KI‘ nicht erreicht werden, dass private, negative Meinungen, usw., (Pornos, Hass- und andere negativen Posts), erst mal zum Absender 'zurückgespiegelt' werden, bevor sie definitiv veröffentlicht werden? D.h., dass der Post erst mal in einer 'internen' Schleife' gegen den Absender selbst (zurück)gerichtet wird, als ob sein Post von einem fremden Dritten stammen würde – und dann hoffentlich gar nicht mehr nach 'aussen' losgelassen würde («durch 'KI' gesäubertes Internet"© …?! (respektive, die ‚KI‘ fragt den Absender, was er davon halten würde, wenn er selber der Adressat eines niederträchtigen Posts wäre …?!
Rico Sennrich: Die Erkennung von Hassreden ist in der Tat ein aktives Einsatzfeld von KI. 2021 berichtete Facebook, dass 97% der Hass-Beiträge, die von Facebook entfernt wurden, von KI-Systemen entdeckt wurden, die restlichen 3% von Benutzenden. Technisch möglich wäre also so eine interne Schleife. Ob Benutzende positiv darauf reagieren würden, wenn sie von KI-Systemen ermahnt oder belehrt würden, da wäre ich aber eher skeptisch.
Guten Tag zusammen. Bei einer Bewertung der KI-Stärke des neuen Modells «GPT-4o» (ich weiss leider nicht mehr, ob diese von OpenAI selbst oder von jemand Unabhängigem war) hiess es, dass dieses in einigen Bereichen fast so stark abschneidet wie Doktoranden, also über Masterniveau. Bedeutet das nun, dass dieses Modell der Wissensvermittlung in wissenschaftlichen Disziplinen wie Psychologie, Ökonomie oder Geschichte fast einer Google-Suche wie Wikipedia gleichkommt oder ist hier noch eine gewisse Skepsis wegen Halluzinationen angebracht? Vielen Dank für Ihre Antwort.
Claus Beisbart: Vielen Dank für diese wichtige und spannende Frage zum „Wissen“ von ChatGPT! Grundsätzlich sind Sprachmodelle, auf denen Chatbots basieren, nicht auf die Wahrheit und das Wissen hin trainiert. Vielmehr sollen sie möglichst gut vorhersagen, was typischerweise gesagt wird. Die Antworten der Chatbots sollen also möglichst wie das klingen, was Menschen so sagen, oder genauer: was sie auf Internetseiten geäussert haben, die zum Training des Modells verwendet wurden. Das kann zu bestimmten Themen in der Regel richtig sein; bei anderen Themen aber auch falsch liegen. Tatsächlich ist bekannt, dass die Modelle oft halluzinieren, also einfach eine Antwort erfinden, die plausibel klingt. Daher ist sicher eine gewisse Skepsis bei den Antworten von ChatGPT angesagt.
Allerdings gibt es immer mehr Versuche, das Problem mit technischen Mitteln zu lösen. Eine Möglichkeit besteht darin, vorhandenes Wissen in Datenbanken zu codieren und einen Chatbot auf dieser Basis die Antwort formulieren zu lassen. Und natürlich ist auch die Wikipedia nicht immer hundertprozentig verlässlich. Ob ich in der Praxis der Antwort eines chatbots trauen würde oder nicht, hängt davon ab, was das Thema ist und ob viel auf dem Spiel steht. Wenn es um die Informationen über Personen geht, die nicht sehr bekannt sind, ist die Datenbasis für ChatGPT zum Beispiel oft zu dünn.
Wie wird KI in der Schweiz genutzt, um Nachhaltigkeitsziele zu erreichen, beispielsweise in den Bereichen Energieeffizienz oder Klimawandel?
Andreas Krause: KI-Technologie wird sicher nicht die alleinige Lösung für die Nachhaltigkeitsziele sein, kann aber hoffentlich wertvolle Beiträge leisten. Es gibt etliche Projekte, die KI Technologie nutzen um bessere, und insbesondere auch nachhaltigere, Entscheidungen zu treffen, z.B. bei Optimierung des Energieverbrauchs von Gebäuden, oder in der Landwirtschaft. Auch kommt KI-Technologie immer mehr zur Verbesserung von Klimamodellen zum Einsatz (erforscht beispielsweise in der Swiss AI Initiative). Ein grosses Potenzial besteht aber auch im Einsatz von KI-Technologie in der wissenschaftlichen Forschung zum Thema Nachhaltigkeit. Im Forschungscluster NCCR Catalysis wird beispielsweise an der Entwicklung neuartiger, nachhaltiger Alternativen für katalytische Prozesse in der Chemieindustrie geforscht. Hier ermöglicht es KI-Technologie den extrem grossen Raum an Molekülen besser zu durchsuchen und relevante Hypothesen für Experimente vorzuschlagen. Zuletzt möchte ich auch noch ICAIN erwähnen, eine Initiative zur Förderung der UN Nachhaltigkeitsziele mittels KI Technologie.
Mich erinnert der KI-Hype sehr stark an den Internet-Hype Anfang der 2000er. Damals reichte es, «öppis mit Internet!» zu rufen, um mit Geld beworfen zu werden – von dem sich dann der grösste Teil in Luft auflöste, als die Bubble platzte. Heute heisst das Zauberwort «KI». Viel Schein und erstaunlich wenig substanzielles Sein, wenn man sich die einzelnen Anwendungen genauer anschaut. Aber da Unmengen von Geld in der KI-Wette steckt, hoffen alle, dass das schon noch gut kommt. Ich denke, es dauert nicht mehr lange, bis auch die KI-Bubble platzt. Sehe ich das zu pessimistisch?
Afke Schouten: Ihre Beobachtung des aktuellen KI-Hypes und die Parallelen zur Dotcom-Blase der frühen 2000er Jahre sind durchaus treffend. Ich sehe ebenfalls einen ähnlichen Trend, der etwa 6-12 Monate nach der Veröffentlichung von ChatGPT begonnen hat. Viele Führungskräfte spüren den Druck, sofort eine KI-Implementierung vorweisen zu können – nicht unbedingt eine, die funktioniert, sondern einfach, um sagen zu können: „Wir machen das auch.“
Im Markt begegne ich dabei zwei Arten von Menschen: Die einen verstehen, dass KI eine tiefgreifende Transformation bedeutet und sind bereit, langfristig in die Zukunft zu investieren. Die anderen suchen schnelle Ergebnisse, kurzfristige Gewinne oder den Marketing-Buzz, der sich gut im Lebenslauf macht. Leider überwiegt derzeit oft Letzteres. Ein zentraler Teil des Problems ist, dass viele Menschen die Komplexität von KI und die Notwendigkeit einer echten Transformation nicht verstehen. Sie kaufen Lösungen von Anbietern, die ebenfalls nicht wirklich wissen, was sie verkaufen – häufig Produkte, die aus der Hype-Dynamik heraus entstanden sind.
Was oft übersehen wird, ist, dass für eine erfolgreiche Integration von KI tiefgreifende Veränderungen notwendig sind: kultureller Wandel, fundiertes Datenmanagement und eine umfassende Bildung in daten- und KI-getriebenen Entscheidungsprozessen. Diese Dinge benötigen Zeit, Expertise und die richtigen Talente, die nicht über Nacht verfügbar sind. Ja, ich stimme Ihnen zu, dass die KI-Blase platzen wird. Doch ich sehe das nicht pessimistisch.
Es ist ein notwendiger Lernprozess, der uns hilft, zwischen nachhaltigen Ansätzen und oberflächlichen Hype-Produkten zu unterscheiden. Wenn die Blase platzt, wird dies ein Moment der Konsolidierung sein – ähnlich wie bei der Dotcom-Blase, aus der schliesslich nachhaltige Unternehmen und echte Innovationen hervorgegangen sind.
Der Weg zu einer sinnvollen und zukunftsfähigen KI-Transformation führt zwangsläufig durch diese Phase der Übertreibung und des Lernens. Die Herausforderung besteht darin, diejenigen zu unterstützen, die bereit sind, den Weg der langfristigen Veränderung zu gehen, und darauf hinzuweisen, dass echte KI-Transformation nicht nur eine Frage der Technologie, sondern vor allem eine Frage der Kultur, des Wissens und der strategischen Ausrichtung ist.
Es liegt an uns, diese Botschaft klar zu vermitteln, damit aus dem Hype eine nachhaltige Realität wird.
Welche Rolle kann KI bei der Entwicklung von neuen Medikamenten und Therapien spielen? Kann KI die Sicherheit im Umgang mit Medikamenten erhöhen? Falls ja, sind Ihnen konkrete Anwendungsbeispiele bekannt? Wie könnte man die Akzeptanz von KI bei Patienten und Gesundheitsfachpersonen fördern?
Florian v. Wangenheim: KI Methoden werden z. B. für die Entwicklung neuer Medikamente und für personalisierte Therapien genutzt. KI kann z. B. helfen, in einer frühen Phase geeignete (und vor allem ungeeignete) Kandidaten von Wirkstoffen zur Heilung bestimmter Krankheiten zu identifizieren, sodass die weitere Forschung keine Zeit mit wenig aussichtsreichen Versuchen verliert.
Es sind auch schon Beispiele von Medikamenten bekannt, wo durch die KI Moleküle mit bestimmten Eigenschaften entwickelt wurden. Wir stehen hier noch am Anfang, aber erste Medikamente befinden sich in der präklinischen Phase (Insilico Medicine mit einem Molekül gegen Fibrose). Personalisierte Medizin, z. B. patienten-individuelle Therapien, z. B. Krebstherapie auf Grundlage genomischer Analysen, sind bereits recht etabliert.
Die Akzeptanz wird sicher auf allen Seiten mit den Behandlungserfolgen steigen.
Wie verändert generative KI das Schreiben von wissenschaftlichen Abschlussarbeiten, z.B. Bachelorarbeiten (Literaturreviews etc.).? Welche Möglichkeiten sehen Sie für wissenschaftliche Abschlussarbeiten im Zeitalter von KI?
Rico Sennrich: Einige Aspekte im Schreiben wissenschaftlicher Abschlussarbeiten werden dank KI einfacher, müssen dann aber gleichzeitig auch anders bewertet werden. Zum Beispiel sind formale Kriterien wie ein guter wissenschaftlicher Schreibstil oder die richtige Formatierung eines Literaturverzeichnisses viel einfacher zu erreichen, und der Fokus beim Schreiben, der Betreuung und Bewertung von Arbeiten verschiebt sich stärker auf inhaltliche Aspekte.
Auch typische Aufgabenstellungen müssen je nach Fach angepasst werden, um der Existenz von KI-Werkzeugen Rechnung zu tragen.
Besteht nicht die Gefahr, dass wichtige Fähigkeiten und Kompetenzen wie der schriftliche Ausdruck und Sprache, Kreativität, Analysefähigkeiten und mehr verkümmern, wenn immer mehr an die KI abdelegiert wird?
Andreas Krause: Die Gefahr besteht durchaus und ist gewissermassen nicht neu (z.B., Navigationssystem im Auto, Taschenrechner, Umgang mit Internet und neuen Medien etc.). Es wird eine zentrale Aufgabe insbesondere auch der Bildung sein, einerseits den sinnvollen Einsatz der Technologie zu lehren, andererseits aber die Bedeutung des kritischen Denkens zu betonen und die Fähigkeit dazu zu schärfen.
Wie sehen Sie den Nutzen von KI in der klinischen Forschung?
Andreas Krause: Das Potenzial ist gross, in vielerlei Hinsicht. In der Arzneimittelforschung kommt KI-Technologie zum Einsatz bei der Suche nach neuartigen Wirkstoffen. In der Medizintechnik gibt es die ersten klinisch zugelassenen Lösungen, beispielsweise in der Radiologie und Pathologie. KI hat das Potenzial zur Schlüsseltechnologie in der personalisierten Medizin, also patientenspezifischen Vorhersagen der Wirksamkeit unterschiedlicher Behandlungsmethoden. Grosse Herausforderungen sind natürlich die sensitive Natur der Daten und die hohen Anforderungen hinsichtlich Zuverlässigkeit und Nachvollziehbarkeit der Methoden.
Es gibt verschiedene Benchmarks, um die Leistung des Modells «GPT-4o» von OpenAI zu bewerten. Derzeit scheint es die stärkste KI auf dem Markt zu sein. Wie ist das Leistungsniveau zwei Jahre nach der Veröffentlichung einzuschätzen? Wenn Sie eine Prognose wagen, wie könnte das Modell in drei, fünf oder zehn Jahren aussehen? Welche Entwicklungsstufen stehen uns noch bevor?
Rico Sennrich: GPT-4o ist 6 Monate alt und somit ein relativ junges Modell. Für gewisse Aufgaben sind Verbesserungen gegenüber älteren oder kleineren Modellen messbar, aber für viele Anwendungen würde ich empfehlen, kleinere oder ältere Modelle zu benutzen, weil sie ähnlich gut, aber günstiger und umweltfreundlicher sind. An der Spitze von Benchmarks wird es weiterhin ein Wettrennen und einen regelmässigen Wechsel des «führenden» Systems geben.
Historisch gesehen sind GPT-Modelle und andere Dialogsysteme vor allem auf englischen Texten trainiert. Grössere Qualitätssprünge in den nächsten Jahren erwarte ich in Anwendungen, die zusätzliche Modalitäten involvieren (zum Beispiel Audio, Bilder oder Videos), und in nicht-englischen Dialogen.
Glauben Sie, dass die Schweiz in Zukunft ein KI-Hub werden könnte, ähnlich wie Silicon Valley, und wenn ja, welche Schritte wären dafür nötig?
Andreas Krause: Die Schweiz ist bereits jetzt ein Hotspot für KI, repräsentiert durch die starken Hochschulen und Forschungsinstitute, die grosse Präsenz führender Techindustrie, immer mehr erfolgreiche Startups im KI-Bereich etc. Der neue Supercomputer Alps am CSCS ist einer der stärksten KI-fähigen öffentlichen Hochleistungsrechner, und die Swiss AI Initiative, gemeinsam lanciert durch die AI Center der ETH und EPFL, in Zusammenarbeit mit weiteren Institutionen) ist dabei, diesen zu nutzen um KI Modelle der nächsten Generation zu trainieren. Dennoch ist die internationale Konkurrenz natürlich sehr gross und bereit, viel zu investieren.
Was sind Ihrer Meinung nach die drei grössten Risiken, die die Schweiz in den nächsten 20 Jahren bewältigen muss, wenn es um den Einsatz von KI geht?
Jonas Dischl: 20 Jahre sind ein sehr langer Zeithorizont, aber in den nächsten Jahren ist m.E. die grösste Herausforderung, die Balance zwischen Regulierung und Innovation zu finden. Einen sicheren und fairen Einsatz von KI sicherzustellen, ohne die notwendige Innovationsgeschwindigkeit auszubremsen, ist eine anspruchsvolle Aufgabe. Momentan sehe ich den unkontrollierten und vor allem ungeschulten Einsatz von Tools wie ChatGPT in Firmen als grosses Risiko. Aufklärung und Schulungen sind dringend notwendig.
Inwiefern wird die Verlässlichkeit von KI-Systemen in sicherheitskritischen Anwendungen (z. B. autonome Fahrzeuge in alpinen Regionen) getestet und sichergestellt?
Andreas Krause: Das Testen der Zuverlässigkeit von KI Systemen, insbesondere für sicherheitskritische Anwendungen, ist in der Tat eine grosse Herausforderung. Standards und best-practices sind teilweise noch in der Entwicklung. Gesetze wie der EU AI Act schreiben qualitative Anforderungen und ethische Prinzipien vor, die es aber jetzt technisch zu interpretieren und umzusetzen gilt. Das an der ETH mitentwickelte Projekt COMPL-AI ist ein Beispiel für einen ersten Schritt in diese Richtung.
Wie würde sich ein Blackout auf ChatGPT & Co. auswirken?
Jonas Dischl: Software und Daten in der Cloud (und somit auch ChatGPT und Co) sind gegen Stromausfälle gesichert, beispielsweise dadurch, dass an mehreren Orten auf der Welt Kopien vorliegen. Es gibt auch Notstromversorgungen in den Rechenzentren, die dann einspringen – ChatGPT & Co. sind daher gut abgesichert und werden durch einen Blackout nicht beeinträchtigt, wenn er zeitlich und örtlich begrenzt ist.
Wird es einmal eine weltumspannende KI geben, ähnlich dem heutigen Internet, die mit Inputs aus aller Welt wächst – oder werden es ganz viele KIs mit nationalen/regionalen Ausprägungen sein, die auf die jeweiligen sozialen/politischen/wirtschaftlichen Systeme massgeschneidert sind und miteinander im Wettbewerb stehen?
Stefan Ravizza: In Zukunft wird es wohl eine Konsolidierung bei KI-Modell-Anbieter geben, jedoch nicht auf einen einzigen Player wie mit der Google Suche, sondern auf ein Handvoll Anbieter (wie OpenAI, aber auch Open-Source Lösungen). Diese werden auch mehr und mehr spezialisierte Modelle für verschiedene Sektoren wie z.B. Gesundheitsdaten, Rechtsabteilung oder dann Bild- und Video-Generierung anbieten. Der Trend geht weg von allumfassenden Systemen hin zu spezifischen Lösungen, die gezielt auf die Anforderungen einzelner Bereiche eingehen. Diese sind oft auch günstiger im Einsatz und nutzen weniger Energie. Ein global vereintes KI-System ist eher unwahrscheinlich, da die Bedürfnisse und Ziele je nach Einsatzfeld stark variieren.
Der Aufwand für Abwehr und Prävention bei Schäden verursacht mit Hilfe von KI ist immens. Welchen Rat würden Sie den politischen Verantwortungsträgern diesbezüglich geben?
Nadine Bienefeld: Mein Rat an politische Verantwortungsträger wäre, eine adaptive und vertikale Regulierung einzuführen (statt horizontal generalisierende). Das bedeutet, spezifische Regeln je nach Einsatzgebiet, um den unterschiedlichen Risiken gerecht zu werden. Beispielsweise sind in der Medizin andere Anforderungen nötig als in der Finanzbranche oder in der Bildung. Ein wichtiger Aspekt ist die Förderung der Aufklärung der Bevölkerung. Menschen müssen verstehen, wo Risiken liegen, wie etwa die Gefahr des übermässigen Vertrauens in fehlerhafte Systeme. Oder die Notwendigkeit des eigenen Wissens/Expertise und Skills, die nötig sind, um die Systeme überhaupt überprüfen zu können (solange wir Menschen auch haftbar bleiben). Meiner Meinung nach braucht es eine enge und unbürokratische Zusammenarbeit zwischen Politik, Forschung und Praxis. Dann sind die Chancen von KI zur Schadensprävention enorm. Also eine super spannende Zeit, in der wir leben, denn wir können jetzt aktiv mitgestalten!
Was soll die regulierte demokratische Welt mit Akteuren machen, welche sich bei der Verwendung von KI nicht an die Regeln halten?
Fabrizio Gilardi: Eine Herausforderung ist es, klare Regeln für die Entwicklung und Nutzung von KI-Systemen zu schaffen. Die EU-Verordnung für künstliche Intelligenz ist der bisher bekannteste Versuch, KI zu regulieren. Sie sieht zum Beispiel vor, dass bestimmte Anwendungen, die als zu riskant gelten, in der EU verboten werden. Auch wenn die Verordnung nicht weltweit gilt, könnte sie helfen, allgemeine Standards für KI zu setzen.
Meine Mutter wird bald 90. Sie hat keine hohe Schulbildung genossen und ist ohne Computer oder andere elektronische Hilfsmittel durchs Leben gekommen. Das Internet lehnt sie rundweg ab und besitzt zwar ein Mobiltelefon – hat das aber ausgeschaltet in einer Schublade gelagert. In den letzten Jahren ist der Alltag für sie immer umständlicher geworden, da immer mehr reale Dienstleistungen (ÖV-Tickets, Bankschalter etc.) durch virtuelle Services abgelöst wurden/werden. Kann KI trotzdem eine Chance für Seniorinnen und Senioren sein, die in keinster Weise Technikaffin sind? Und wenn ja: Wie, ohne die typische Hardware (Smartphones, Tablets, Computer...)
Stefan Ravizza: KI kann Seniorinnen und Senioren helfen, auch ohne Technikaffinität. Sprachgesteuerte Geräte wie smarte Lautsprecher können Informationen geben, Termine verwalten oder an Medikamente erinnern – ganz ohne komplizierte Bedienung. Auch einfache Lösungen wie sprechende Kalender oder Telefonassistenten, die bei Buchungen helfen, sind möglich. Wichtig ist, dass diese Technologien leicht verständlich, verlässlich und direkt im Alltag nutzbar sind. So kann KI Barrieren abbauen und älteren Menschen mehr Unabhängigkeit ermöglichen. Ich denke, dass mehr und mehr spezialisierte Lösungen auf den Markt kommen und punktuell hier immer besser helfen können. Wichtig ist dabei auch, dass sie von jemandem auf diesem Weg begleitet werden und einfach und nützliche Tipps geben.
Ein guter Freund von mir hat kürzlich die Behauptung in den Raum gestellt, dass es bald keine Ärzte mehr brauchen werde, da die KI deren Aufgaben viel besser, zuverlässiger, schneller und günstiger übernehmen werde. Es komme ja in erster Linie auf eine treffende Diagnose an, und da sei die KI dem Menschen jetzt schon überlegen – siehe Auswertung von Krebs-Röntgenbildern. Ich widersprach ihm heftig, weil Mediziner ja nicht umsonst ein jahrelanges Studium hinter sich haben und Menschen keine Autos sind, wo man bloss das passende Ersatzteil austauschen muss, damit sie wieder funktionieren. Was entgegnen Sie meinem Freund?
Nadine Bienefeld: Die Einsatzmöglichkeiten von KI tools im Gesundheitsbereich sind tatsächlich wertvoll bei Aufgaben wo KI den Menschen ergänzen und bestimmt nicht gänzlich ersetzen kann. D.h. die Aufgaben einer Fachperson (Arzt/Ärztin) sind so vielschichtig und das Arbeitsfeld so komplex, dass man den Beruf nie auf eine einzelne Aufgabe reduzieren kann (Diagnostik). Wir haben genau zu dieser Frage die letzten Jahre geforscht. Bei Interesse hier zwei Publikationen dazu: https://www.jmir.org/2024/1/e50130/ und https://preprints.jmir.org/preprint/50852/accepted. Ich wünsche Ihnen und Ihrem Freund eine spannende 2. Debatte zu diesem wichtigen Thema :-)
Der Begriff und die Werke von KI-Kunst sind relativ neu. KI-Kunst hat den Weg in die Kunstszene und den Kunstmarkt jedoch bereits geschafft, auch wenn es noch als Nische zu betrachten ist. Wer aber entscheidet darüber, was «gute» KI-Kunst ist, was wertvoll ist und Qualität hat? Unterscheiden sich hier die Akteure und die Kriterien gegenüber der traditionellen Kunst (Malerei, Fotografie)?
Jonas Dischl: Aus meiner Sicht ist KI im Kunstbereich ein Werkzeug wie z.B. ein Fotoapparat, nicht mehr oder weniger. Zur Qualitätsbewertung von Kunst gibt es unendlich viele Meinungen und Theorien. KI-eigene Bewertungskriterien zu schaffen, halte ich nicht für zielführend. Für mich ist die zentrale Eigenschaft von guter Kunst, dass sie mich berührt und etwas in mir auslöst. Auch KI Kunst kann das meiner Erfahrung nach leisten.
Bei den grossen Sprachmodellen behilft man sich ja mit schierer Datenmenge und ausgeklügelter Statistik, um Intelligenz zu simulieren. Was ist aktuell der meistversprechende Ansatz, wenn es darum geht, der KI so etwas wie tatsächliches Verständnis einer gestellten Aufgabe beizubringen?
Stefan Ravizza: Der wohl vielversprechendste Ansatz, um KI ein tieferes Verständnis für Aufgaben beizubringen, liegt in der Kombination von grossen Sprachmodellen mit symbolischem KI-Wissen. Dabei werden statistische Modelle mit logischen Regeln und Wissensdatenbanken verknüpft, um Kontext und Zusammenhänge besser zu erfassen. Auch Ansätze wie Reinforcement Learning, bei denen Modelle durch Belohnungssysteme lernen, komplexe Aufgaben zu lösen, zeigen Potenzial. Besonders spannend sind hybride Systeme, die Datenmengen nutzen, aber zusätzlich strukturiertes Wissen einbauen, um mehr als reine Mustererkennung zu erreichen. In vielen grossen Tech-Firmen wird zudem an neuen Ansätzen gearbeitet und erhofft sich dadurch den Durchbruch. In Kundenprojekten sehen wir aber auch, wie wichtig es ist, dass solche Sprachmodelle in den richtigen Kontext gebracht werden und nur zusammen mit Kundenlogik den gewünschten Mehrwert bringen.
Inwiefern verändert die Nutzung von Künstlicher Intelligenz die Produktion von Musik und welche Herausforderungen ergeben sich daraus?
Riccardo Merluzzi: Wir befinden uns aktuell in einer Ökonomie des Überflusses, mit wachsender Anzahl von KI-Lösungen und Dominanz von digitalen Plattformen. Ohne Zweifel bringen KI-Lösungen, in der Musikproduktion punktuell erheblichen Mehrwert (allerdings auch nichts Neues). Was sich hingegen mit generativer KI verändern wird, ist, dass KI-generierte Musik im Überfluss produziert wird – zu sehr niedrigeren Preisen oder sogar kostenfrei.
Ich schätze, dass sich in absehbarer Zeit eine «Müdigkeit» bei den Menschen einstellen wird in Bezug auf KI-generierte Inhalte. Dies durch eine Homogenisierung der Songs und auf Reizüberflutung der begrenzten Aufmerksamkeit der Hörerschaft. Der Wert von echter Kunst liegt in der Authentizität und dem emotionalen Wert. Eine Geschichte, welche die Menschen berührt, wenn man sie hört – alleine oder in Gruppen an einem Konzert. Das wird eine Maschine nie bieten können.
Ich denke, Live-Auftritte werden an Relevanz gewinnen. Mut zur Imperfektion und das Risiko der «Echtzeit-Kunst» werden sich als Qualitätsmerkmale etablieren.
Im Krieg in der Ukraine spielen Drohnen offenbar eine grosse Rolle. Und offenbar werden die immer noch grösstenteils von Menschen gesteuert (die zu hochrangigen Zielen geworden sind). Autonome Systeme à la «Terminator», die selbständig operieren und in einem bestimmten Gebiet Kampfaufträge ausführen, werden zwar immer wieder an Shows vorgezeigt, auf dem Schlachtfeld scheinen sie aber (noch) keine Rolle zu spielen. Weshalb? Ist die Programmierung der Aufgabe doch komplexer als gemeint oder ist die Robotik rein mechanisch nicht in der Lage, Schmutz und Schlamm gleich gut/besser als der Mensch zu bewältigen?
Jonas Dischl: Ich bin kein Kriegsexperte – aber aus technischer Sicht ist es tatsächlich so, dass der Einsatz in der realen Welt viel komplexer ist als unter Laborbedingungen. Ein gutes Beispiel sind hierfür autonome Fahrzeuge, die zwar gewaltige Fortschritte gemacht haben, aber nach wie vor in diversen Alltagssituationen scheitern. Die noch viel weniger kontrollierbare Umgebung eines Kriegsschauplatzes dürfte da ganz andere Herausforderungen bereithalten. Zusätzlich spielt der Kosten- und Verfügbarkeitsfaktor natürlich eine grosse Rolle.
Ist es unbedenklich sensible Daten von sich selbst preiszugeben in ChatGPT oder können diese zu einem selbst zurückverfolgt werden?
Nadine Bienefeld: Unbedenklich, sensible Daten in ChatGPT preiszugeben ist es bestimmt NICHT. Informationen können für Trainingszwecke gespeichert oder in Logs protokolliert werden. Auch das Hacken eines Accounts oder «identity theft» also das Kopieren persönlicher Datenspuren im Netz sind grundsätzlich nicht auszuschliessen. Dies gilt übrigens auch bei den Personalisierungsoptionen der Chat-Antworten, welche die Qualität der Ergebnisse zwar erheblich verbessern, aber eben auch persönliche oder sensitive Daten beinhalten können (siehe z.B. bei OpenAI unter Person – Einstellungen – Memory) oder personalisierte Instruktionen.
Mein Rat wäre daher, keine persönlichen oder sensiblen Daten preiszugeben, insbesondere keine Informationen, die zur Identifizierung einer Person führen könnten. Dazu gehören Namen, Adressen, Bankdaten oder Gesundheitsinformationen etc. Auch wenn die Wahrscheinlichkeit einer Rückverfolgung gering ist, sollte man bei sensiblen Daten immer vorsichtig sein und sich immer diese Fragen stellen: «Was würde passieren, wenn diese Daten publik oder entgegen meines Willens missbraucht werden». Aber eben, es gilt immer für sich selbst abzuwägen, was ist der Nutzen – was ist das Risiko dabei. Ich hoffe, das hilft weiter.
Wie erklären Sie es, dass die vielen Stimmen der Menschen, deren urheberrechtlich geschützten Werke, ohne Zustimmung für KI-Bildprogramme verwendet wurden, so wenig sichtbar gemacht wurden? KI-Bilder sind für mich keine Bilder, es sind Imitationen, ein Bild hat mit Wahrnehmung zu tun, mit echten Fähigkeiten, die echten Werke dahinter, das ist das einzige Echte, das einzige Ehrliche darin, die echte Intelligenz dahinter, das sind die Bilder und diese Werke wurden vollständig ausgeblendet und damit so respektlos behandelt wie möglich. Ich hätte so etwas nicht für möglich gehalten und ich möchte Sie fragen, ob Sie denken, dass sich die Menschlichkeit gegenüber der respektlosen Ausbeutung durchsetzen wird und das Copyright und Urheberrecht menschliche Kreativität und Fähigkeiten wieder angemessen schützen kann?
Fabrizio Gilardi: Sie sprechen einen wichtigen, komplexen Punkt an. Es ist tatsächlich so, dass viele grosse KI-Modelle mit Daten trainiert wurden, ohne dass die Personen, die diese Inhalte erstellt haben, zugestimmt haben. Dabei gibt es jedoch Ausnahmen: Inhalte, die öffentlich zugänglich sind, können oft von den Nutzungsbedingungen der Plattformen abgedeckt sein. Grosse Plattformen wie Reddit oder Medienhäuser wie die New York Times haben darauf reagiert.
Reddit hat den Zugang zu seinen Daten strenger geregelt, und die New York Times hat rechtliche Schritte gegen OpenAI angedroht. Ein weiteres Problem ist die fehlende Transparenz, wie es oft bei Tech-Firmen vorkommt: Es ist nicht klar, welche Daten für welche Modelle verwendet wurden. Ebenso ist unklar, ob und ab wann die Nutzung solcher Daten gegen (US-amerikanische) Urheberrechtsgesetze verstösst.
Diese Gesetze haben grosszügige “Fair Use”-Regeln, die es unter bestimmten Bedingungen erlauben, Inhalte ohne Erlaubnis zu nutzen – zum Beispiel, wenn die Inhalte stark verändert werden. Allerdings hängt das immer vom Einzelfall ab, und es gibt keine einfache Antwort, was erlaubt ist und was nicht.
Wie kann die Schweiz trotz ihrer begrenzten Grösse ihre globale Wettbewerbsfähigkeit in der KI-Landschaft erhalten, insbesondere im Vergleich zu grösseren Märkten wie der EU oder den USA?
Stefan Ravizza: Die Schweiz kann ihre globale Wettbewerbsfähigkeit in der KI-Landschaft trotz ihrer Grösse sichern, indem sie ihre Stärken gezielt in Bereichen einsetzt, wo sie echtes Potenzial hat. Während die Hardware-Entwicklung von Unternehmen wie Nvidia und die Sprachmodell-Entwicklung von Tech-Giganten wie OpenAI, Microsoft und Google dominiert werden, liegen die Chancen der Schweiz in anderen Feldern. Besonders in der Anwendung von KI durch Grossunternehmen und KMUs kann die Schweiz eine führende Rolle einnehmen.
Mit den richtigen Investitionen und Förderprogrammen können Unternehmen in verschiedenen Branchen KI effektiv nutzen, um innovative Lösungen zu entwickeln. Ein weiteres wichtiges Standbein ist die Förderung von Start-ups. Dank der Talente aus Hochschulen wie der ETH Zürich und der EPFL hat die Schweiz eine hervorragende Grundlage, um ein dynamisches KI-Ökosystem aufzubauen. Entscheidend ist, dass die politischen Entscheidungsträger diese Potenziale erkennen und Rahmenbedingungen schaffen, die den Zugang zu Finanzierung, Infrastruktur und Netzwerken verbessern.
Hierzu gibt es auch gute Entwicklungen zwischen der ETHZ, der EPFL und CSCS. Ebenfalls müssen Verwaltungsräte und Firmenführungen das Thema und das Potential besser verstehen und fördern. Als letzter Punkt können wir weiter mit der Forschung zu KI brillieren.
Wie «monopol» ist KI? Sind es wenige einzelne Big Tech Player, die es steuern, oder verteilt ich das auf diverseste Start-ups?
Jonas Dischl: Insbesondere in der sogenannten «Generativen KI» wie z.B. ChatGPT sind die Kosten für das Training und den Betrieb enorm. Schätzungen gehen für GPT-4 (das Sprachmodell von ChatGPT) von 78 Millionen aus. Die Vermutung liegt also nahe, dass KI eine «Oligarchie» der ganz grossen Player ist. Allerdings gibt es auch Start-ups, die grosses Investitionskapital zur Verfügung haben. Und frei verfügbare Modelle (Open Source) holen stetig auf.
Da die Tendenz eher hin zu kleineren, spezialisierten Modellen geht (statt der einen, allumfassenden KI) verteilt sich die KI-Kompetenz also zunehmend auch auf kleinere Firmen und Open Source Communities. Allerdings ist die grosse Marktmacht von Unternehmen wie z.B. OpenAI durchaus ein Problem, vor allem wenn es darum geht, die Antworten von ChatGPT zu kontrollieren und zu bewerten.
Durch das sogenannte «Alignment» von ChatGPT kommt OpenAI eine gewisse Interpretationshoheit über die «Wahrheit» zu, ob sie das wollen oder nicht. Diesen Firmen ist die Problematik aber bewusst, und sie versuchen, den optimalen Umgang damit zu finden; keine leichte Aufgabe.
Inwiefern könnte KI in der Schweiz langfristig die Definition von Arbeit, Identität oder Gemeinschaft verändern?
Stefan Ravizza: Diese Frage ist äusserst spannend und lässt sich nicht abschliessend beantworten, da die Entwicklungen stark von technologischen, sozialen und kulturellen Faktoren abhängen. Klar ist jedoch, dass KI langfristig tiefgreifende Veränderungen mit sich bringen wird. Oft werden solche Veränderungen kurzfristig überschätzt, während ihre langfristigen Auswirkungen unterschätzt werden. Berufsbilder werden sich stark wandeln, da KI zunehmend in den Arbeitsalltag integriert wird. Viele Aufgaben könnten automatisiert oder durch KI unterstützt werden, was zu einem engeren Zusammenspiel zwischen Menschen und KI-Modellen führen dürfte. Dies wird die Anforderungen an Qualifikationen verändern, aber auch neue Chancen eröffnen.
Auf gesellschaftlicher Ebene könnte KI die Art und Weise, wie wir Arbeit, Identität und Gemeinschaft definieren, neu gestalten. Gleichzeitig ist es wahrscheinlich, dass Gegentrends entstehen, bei denen Menschen bewusst das „Menschliche“ suchen – sei es durch persönliche Interaktionen, kreative Tätigkeiten oder handwerkliche Arbeit. Diese Dynamik zwischen technologischem Fortschritt und dem Wunsch nach menschlicher Verbundenheit könnte die zukünftige Gesellschaft prägen.
Angenommen wir haben in Zukunft KI Systeme mit allgemeiner Intelligenz und sind bezüglich der Entstehung von Bewusstsein auf dem gleichen wissenschaftlichen Stand wie heute. In einem solchen Szenario stellen sich viele Fragen, bspw. ob Entitäten mit künstlicher Intelligenz die gleichen Rechte zustehen wie Menschen. Wenn man einen Schritt weiter geht in eine Zukunft mit superintelligenten KI Entitäten welche sich selber weiterentwickeln können, werden entsprechende Fragen zunehmend existenzieller Art für die gesamte Menschheit. Sehen Sie vor diesem Hintergrund wirkungsvolle Mechanismen um Unternehmen und Institutionen, welche die Entwicklung dieser Systeme vorantreiben, in die Pflicht zu nehmen und dazu zu bringen, rechtzeitig Verantwortung für solche ethischen Probleme bzw. Fragestellungen zu übernehmen?
Fabrizio Gilardi: Das Szenario, das Sie beschreiben, wird tatsächlich in verschiedenen Kreisen stark thematisiert, insbesondere wenn es um extreme Risiken wie die Möglichkeit von existenziellen Bedrohungen durch KI geht. Es ist wichtig, sich Gedanken darüber zu machen, wie man mit solchen Szenarien umgehen kann.
Gleichzeitig gibt es aber auch konkrete, bereits nachgewiesene Risiken, wie zum Beispiel Diskriminierung in Anwendungen, etwa bei der Auswahl von Bewerber:innen für Jobs. Es ist wichtig, dass ein Fokus auf potenziellen, langfristigen, katastrophalen Risiken nicht von diesen aktuellen Problemen ablenkt. Beide Perspektiven sind relevant, aber sie müssen ausgewogen behandelt werden. Unternehmen und Regulierungsbehörden sollten Standards und Kriterien entwickeln, um Risiken systematisch zu bewerten. Dabei sollten nicht nur die Eigenschaften der KI-Modelle (z. B. ihre Grösse oder Komplexität) betrachtet werden, sondern vor allem, welche Risiken im konkreten Einsatz entstehen können und wie wirksame Schutzmassnahmen aussehen könnten.
Es ist auch wichtig zu beachten, dass die Eigenschaften von KI-Modellen und die Risiken, die sie verursachen können, oft eng miteinander verknüpft sind. Grössere Modelle können beispielsweise leistungsfähiger, aber auch schwieriger zu verstehen und anfälliger für Fehlverhalten sein. Regulierungen müssen daher flexibel genug sein, um beide Aspekte zu berücksichtigen. Die internationale Zusammenarbeit sollte nicht vergessen werden.
KI-Entwicklung und KI-Anwendung sind global, und ohne gemeinsame Standards besteht die Gefahr, dass Regulierungen umgangen werden. Das erfordert nicht nur klare Regeln, sondern auch Koordination zwischen Ländern. Leider ist eine solche Koordination im aktuellen internationalen Kontext überhaupt nicht einfach.
Wie könnte die Schweiz sicherstellen, dass die Bevölkerung aktiv an der Definition der Grenzen und Ziele von KI-Anwendungen beteiligt wird?
Stefan Ravizza: Die Schweiz sollte durch gezielte Bildungsinitiativen ein breites Verständnis für KI in der Bevölkerung fördern, damit deren Auswirkungen und Potenziale besser greifbar werden. Gleichzeitig braucht es Plattformen für einen offenen Dialog, wie öffentliche Diskussionen oder Konsultationen, um Meinungen und Perspektiven direkt einzubinden.
So können gemeinsam Grenzen und Ziele von KI definiert werden. Ein klarer rechtlicher Rahmen und der Austausch zwischen Wirtschaft, Gesellschaft und benachteiligten Gruppen stellen sicher, dass Innovation mit den Werten der Bevölkerung im Einklang steht und alle davon profitieren.
Wie fördert die Schweiz die Zusammenarbeit zwischen KI-Forschern und anderen Disziplinen wie Medizin, Recht, Soziologie oder Philosophie?
Fabrizio Gilardi: Eine solche interdisziplinäre Zusammenarbeit ist im Bereich der KI tatsächlich von grosser Bedeutung. Aus verschiedenen institutionellen Gründen ist sie jedoch oft schwieriger umzusetzen, als man vermuten könnte.
Trotzdem gibt es viele Programme, die genau in diese Richtung arbeiten. Ein Beispiel ist die Digital Society Initiative der Universität Zürich, die Forschende aus fast allen Disziplinen zusammenbringt und sich unter anderem intensiv mit KI beschäftigt. Sie ist ein gutes Beispiel dafür, wie interdisziplinäre Zusammenarbeit bei Themen wie Digitalisierung und KI gefördert werden kann.
Gibt es Pläne oder Ideen, wie Bürger in die Gestaltung und Überwachung von KI-Systemen eingebunden werden könnten?
Nadine Bienefeld: Es gibt bereits einige Ideen und Ansätze, wie CH-Bürger in die Forschung (auch zu KI) eingebunden werden könnten. Eine Möglichkeit sind sogenannte Citizen Science Projekte z.B. in Kollaboration zw. ETH und UZH, anhand derer Menschen aktiv über die Entwicklung und den Einsatz von KI mitentscheiden können. Solche Initiativen sind nicht nur deshalb sinnvoll, weil sie die menschliche Intelligenz der Masse (Schwarmintelligenz) als Ressource nutzen, sondern auch um sicherzustellen, dass die Perspektiven der breiten Bevölkerung gehört werden und ethische Aspekte berücksichtigt werden.
Zudem gibt es viele angewandte Forschungsmethoden im Sinne der „Implementation Science“, welche die Bevölkerung als Anwender von Anfang an in die Entwicklung von KI-Lösungen mit einbeziehen. Z.B. der Einbezug von Ärztinnen und Ärzten und Pflegefachpersonen in der Erarbeitung von Prognosesystemen auf der Intensivstation (bei Interesse z.B. https://www.nature.com/articles/s41746-023-00837-4). Nur so kann sichergestellt werden, dass die Lösungen auch wirklich einen wahren Nutzen für die Praxis bringen, statt sie an den Bedürfnissen vorbei zu entwickeln.
In Bezug auf die Einbeziehung der Bürger für die Überwachung von KI-Systemen bin ich nicht Expertin, aber gerade da wäre es hilfreich kreative Ideen der Einbindung, z.B. anhand von KI Sandbox Initiativen wie dies bereits im Kanton Zürich gemacht wird, zu lancieren. Haben Sie Ideen? Ich bin gespannt und würde gerne mithelfen, dies weiter zu fördern. Ein weiterer Ansatz sind partizipative Designprozesse, bei denen Bürger direkt in die Entwicklung von KI-Lösungen einbezogen werden. Hier geht es darum, sicherzustellen, dass KI-Systeme den Bedürfnissen der Nutzer entsprechen und transparent gestaltet sind.
Auch Bildungsinitiativen sind wichtig: Wenn Bürger verstehen, wie KI funktioniert, können sie sich besser einbringen und eine fundierte Meinung zu deren Nutzung abgeben. Es braucht also Aufklärung und Möglichkeiten zur Mitsprache, um sicherzustellen, dass KI-Systeme zum Wohl der Gesellschaft entwickelt und eingesetzt werden.
Wie beeinflusst KI unseren Alltag, oft ohne dass wir es merken?
Stefan Ravizza: KI beeinflusst unseren Alltag zunehmend, sowohl sichtbar als auch unbemerkt. Seit der Einführung von ChatGPT vor rund zwei Jahren hat sich viel verändert, da nun jede und jeder Zugang zu mächtigen KI-Modellen hat, die früher nur Experten vorbehalten waren. Gleichzeitig wirken viele KI-Anwendungen im Hintergrund: Sie optimieren Verkehrsflüsse, personalisieren Empfehlungen auf Plattformen, verbessern die Betrugserkennung bei Finanztransaktionen, automatisieren Kundenservices oder helfen in der Gesundheitsversorgung bei Diagnostik und Terminplanung.
Während einige dieser Entwicklungen offensichtlicher werden, bleibt vieles unsichtbar, trägt aber dennoch zu einer effizienteren und personalisierten Lebensgestaltung bei.
Welche Möglichkeiten gibt es, KI im Schweizer Bildungssystem zu nutzen, um individualisiertes Lernen zu fördern und Bildungsungleichheiten zu reduzieren?
Nadine Bienefeld: Wow – hier sind die Möglichkeiten – in Abgrenzung zu den Risiken natürlich – wahrhaft grenzenlos. Wenn es uns gelingen würde, sichere und mit ethischen Wertvorstellungen in Einklang stehende KI Systeme zu schaffen, die für das LERNEN statt für das Produzieren von Resultaten genutzt werden können, hätten wir die Möglichkeit, jedem Schüler und jeder Schülerin einen personalisierten Coach oder Mentor an die Seite zu stellen.
Dies würde im Sinne der Lernpsychologie und Pädagogik nicht nur den Schülern u. Schülerinnen/Studenten u. Studentinnen zu Gute kommen, sondern auch die Lehrpersonen entlasten. Denken Sie an eine individualisierte Erarbeitung von Lösungswegen im interaktiven Austausch mit KI-Chatbots. Auch könnten Lernschwächen für jedes Kind individualisiert unterstützt werden (z.B. im Sinne von gelebter Diversität u. Neurodiversität).
Ich finde hierzu die Demo von Sal & Imran Khan (Khan Academy) eindrücklich, wobei ich da nicht genau weiss wie es mit Datenschutz u. privacy etc. steht. Siehe hier: https://www.youtube.com/watch?v=_nSmkyDNulk. Also die Chancen sind gross – die Hürden allerdings auch …
Inwiefern könnten KI-gestützte Tools zur besseren Koordination zwischen den Kantonen beitragen, beispielsweise in der Steuerpolitik oder im Gesundheitswesen?
Stefan Ravizza: KI-gestützte Tools könnten die Koordination zwischen Kantonen in Bereichen wie Steuerpolitik oder Gesundheitswesen erheblich verbessern. Der Schlüssel liegt jedoch zunächst weniger in der KI selbst, sondern vielmehr in einer klaren Daten- und Governance-Struktur. Datenbanken müssen so aufgebaut sein, dass sie rechtliche Anforderungen erfüllen und gleichzeitig Synergien zwischen Bund, Kantonen und Städten ermöglichen.
Eine zentrale Rolle spielt dabei eine digitale Identität, die Bürgerinnen und Bürgern erlaubt, verschiedene Attribute sicher und einheitlich zu verwalten. Mit einer besseren Dateninfrastruktur könnten KI-Tools künftig Behörden effizienter unterstützen, etwa durch bessere Prognosen, Entscheidungsgrundlagen oder die Vereinfachung administrativer Prozesse.
Die aktuelle Herausforderung liegt jedoch in der Schaffung dieser Basis, an der bereits aktiv gearbeitet wird. Daneben können aber auch jetzt schon KI-Lösungen Behörden in verschiedenen Aspekten mehr und mehr unterstützen.
Gibt es Strategien, um mehr internationale KI-Talente in die Schweiz zu holen und langfristig zu binden?
Riccardo Merluzzi: Was meinen wir, wenn wir über KI-Talente sprechen? Oft sprechen wir über Entwickler die KI-Systeme bauen. Obwohl sie sehr wichtig sind machen sie nicht den Grossteil der Belegschaft aus. KI-Talente sind primär alle Mitarbeiter, die KI einsetzen möchten, um im Geschäftsalltag ihre berufsbezogene Aufgaben noch effizienter und effektiver zu erledigen. Insofern ist die gute Nachricht, dass wir ein Grossteil der Mitarbeiter schon haben.
Jetzt geht es darum zu verstehen, welche rollenbasierte Kompetenzen für den verantwortungsbewussten und gewinnbringenden Einsatz wichtig sind und wie dieses Wissen in Organisationen getragen werden kann. Stichwort: AI-Skilling. Langfristige Bindung erfolgt über eine klare Wertehaltung von Unternehmen, darüber wie KI in der Organisation eingesetzt wird und welche Rolle dabei der Mensch spielt.
1. Wie wird künstliche Intelligenz die Gesellschaft in den nächsten 10 Jahren verändern? 2. Welche Technologien haben das Potenzial, die Weltwirtschaft in den nächsten Jahrzehnten zu revolutionieren?
Riccardo Merluzzi: Hier geht es meiner Meinung nach weniger um einzelne Technologien, sondern vielmehr um Systeminnovation – also die intelligente Kombination bestehender Ansätze und Technologien, um die grössten Herausforderungen unserer Zeit zu lösen. Besonders vielversprechend sind Ansätze an der Schnittstelle von Biotechnologie und Informatik. Beispielsweise kann computergestützte Forschung dazu beitragen, innovative Medikamente schneller und zielgerichteter zu entwickeln und so die Versorgung von Patienten zu verbessern.
Diese Fortschritte müssen jedoch durch eine pragmatische, vorausschauende Regulierung sowie durch die Optimierung der Zusammenarbeit zwischen relevanten Stakeholdern – von Unternehmen über Forschungseinrichtungen bis hin zu politischen Institutionen – unterstützt werden. Gleichzeitig gilt es, die gesellschaftlichen Bedürfnisse – ob etwas gesellschaftlich wünschenswert ist – als Wachstumsgrundlage zu berücksichtigen. Auf dieser Basis lassen sich nachhaltiges Wachstum und Evolution fördern.
Was unterscheidet die Schweizer KI-Landschaft von der in anderen Ländern wie den USA, China oder der EU?
Jonas Dischl: Die Schweiz ist sehr stark in der Forschung, auch im Bereich KI. In der Wirtschaft sind die Investitionsbereitschaft und die Adoptionsgeschwindigkeit eher zögerlich – mit allen Vor- und Nachteilen. Es wird also eher mit der «kleinen Kelle angerührt» und erst mal getestet. Andere Länder sind da teilweise sehr viel progressiver, was aber auch riskanter sein kann.
Diverse Länder haben auch weniger strenge rechtliche Grundlagen (wie z.B. Datenschutz). Siehe dazu auch https://www.srf.ch/news/schweiz/ki-und-kontrolle-datenschuetzer-warnt-vor-ueberwachung-mit-kuenstlicher-intelligenz.
Wie kann KI in der Schweiz genutzt werden, um die digitale Kluft zwischen ländlichen und urbanen Regionen zu schliessen? Oder dem zwischen dem Röstigraben?
Fabrizio Gilardi: In einem mehrsprachigen Land wie der Schweiz kann KI sicherlich dabei helfen, Sprachbarrieren zu überwinden. Ausserdem könnte man sich KI-Anwendungen vorstellen, die das Verständnis und die Empathie gegenüber anderen Regionen fördern. Es gibt zum Beispiel Studien, die zeigen, dass KI-Chatbots die Qualität von Online-Diskussionen verbessern können und somit das Potenzial haben, Polarisierung entgegenzuwirken.
Hingegen kann man nicht erwarten, dass KI Lösungen für Probleme findet, die politischer Natur sind und auf tief verwurzelten Interessen oder Werten basieren. Tatsächlich gehören genau diese Art von politischen Problemen zu den meisten Herausforderungen, mit denen wir konfrontiert sind.
Guten Abend, wie und wo kann ich KI als Privatperson im PC kostenlos einsehen ?
Stefan Ravizza: KI kann auf unterschiedliche Weise genutzt werden, abhängig von der Art der Anwendung. Wenn Sie sich für Sprachmodelle interessieren, wie ChatGPT, können Sie diese kostenlos unter https://chat.openai.com ausprobieren. Dort erhalten Sie Antworten auf beliebige Fragen, sei es für Alltagsfragen, Lernen oder kreative Ideen. Für andere Anwendungen, wie Bildgeneratoren oder Tools zur Textanalyse, gibt es ebenfalls kostenlose Plattformen. Viele dieser Tools sind einfach über den Browser zugänglich und erfordern keine spezielle Softwareinstallation.
Ich staune und bewundere, mit welchem Tempo, welcher Sachkenntnis und Ausführlichkeit Tobias Mettler, Thilo Stadelmann, Sarah Genner, Nathalie Klauser, Anne Scherer, Stefan Ravizza, Fabrizio Gilardi, Jonas Dischl, Riccardo Merluzzi, Nadine Bienefeld, Andreas Krause, Rico Sennrich, Florian v. Wangenheim, Afke Schouten, Claus Beisbart, Thomas Hofmann, Adrian Egli, Angela Müller, Helga Rietz, und Cornelia Diethelm die Fragen beantworten: Gratulation und Dank! (auch wenn ich noch nicht gleich alles habe lesen können...). Frage: alles menschliche Intelligenz oder auch sog. KI darunter?
Jonas Dischl: Ich bin mir sehr sicher, dass alle Experten hier über die erforderliche menschliche Intelligenz verfügen. :-) Aber Spass beiseite: KI kann sehr hilfreich sein, aber da sie halluzinieren kann, wird kein geschulter Experte sich auf die Aussagen von KI verlassen. Eigene Erfahrungen, zuverlässige Quellen und Studien sind unsere Grundlage, mit der wir die Fragen bestmöglich zu beantworten versuchen. Und vielleicht nutzen wir KI ab und zu, um unseren Schreibstil etwas zu verbessern. Im Namen aller Experten: Danke für das Kompliment!
Gibt es bestrebungen die bürger von der schweiz stärker in die kontrolle und nutzung von ki einzubinden, wie durch bürgerräte oder ähnliche plattformen oder sollten da nur profis darüber bestimmen?
Jonas Dischl: Hier finden Sie wertvolle Informationen zum Vorschlag des Bundes für einen Ansatz zur Regulierung von KI. Ich glaube das folgende Statement auf dieser Website beantwortet Ihre Frage sehr schön: «Ziel ist ein im Dialog mit allen Anspruchsgruppen entwickelter Ansatz, welcher Menschenrechte, Demokratie und Rechtsstaatlichkeit hochhält und gleichzeitig Innovations- und Wachstumsfähigkeit in der Schweiz fördert.»
Wie stellen Sie sicher, dass KI-Systeme in der Schweiz keine diskriminierenden Entscheidungen treffen?
Stefan Ravizza: Für mich ist es essenziell, dass KI-Lösungen fair und diskriminierungsfrei gestaltet werden. Dazu gehören mehrere zentrale Punkte:
Erstens sollten Trainingsdaten der KI-Modelle möglichst divers und frei von Verzerrungen sein.
Zweitens ist Transparenz wichtig, damit die Entscheidungswege einer KI nachvollziehbar bleiben.
Drittens helfen klare gesetzliche und ethische Rahmenbedingungen dabei, diskriminierende Ergebnisse zu verhindern. Viertens ist ein kontinuierliches Monitoring entscheidend, um KI-Entscheidungen regelmässig zu überprüfen und anzupassen.
Schliesslich spielt die Zusammenarbeit mit Expertinnen, Experten und der Zivilgesellschaft eine wichtige Rolle, um eine inklusive Gestaltung sicherzustellen. Diese Prinzipien finden sich auch im EU AI Act wieder, der darauf abzielt, KI-Systeme verantwortungsvoll und fair zu regulieren. Weitere nationale und internationale Regelungen werden ebenfalls helfen, diese Standards durchzusetzen. Es hängt aber auch sehr von den Menschen ab, welche diese KI-Systeme erstellen und nutzen und Unternehmen und Organisationen, dass sie die nötigen Mittel dazu zur Verfügung stellen, um diesen Aspekten genügend Gewichtung zu schenken.
Wie kann KI dazu beitragen, die kulturelle Vielfalt der Schweiz zu bewahren oder zu fördern?
Nadine Bienefeld: Das ist eine spannende Frage, aber ich bin keine Expertin auf dem Gebiet in Bezug zu KI. Unabhängig von KI wissen wir allerdings, dass zur Erhaltung und Förderung von menschlicher Vielfalt folgende Faktoren wichtig sind:
1. Offenheit und Neugierde für Neues und Unbekanntes, was durch einen unvoreingenommen, empathischen und persönlichen Austausch von Mensch zu Mensch ermöglicht werden kann,
2. Strukturen, die dies fördern und erlauben (z.B. geteilte Lebensräume, Orte der zufälligen Begegnung), und
3. Psychologische Sicherheit — also das Vertrauen, dass man eine andere Meinung oder aussergewöhnliche Ideen haben darf, ohne dafür bestraft zu werden. Spontan kommt mir in den Sinn, dass wir durchaus KI-Chatbots dafür nutzen könnten, die Kommunikation mit anderen Menschen in einem «sicheren Rahmen» zu üben, beispielsweise in dem wir der KI eine Rolle zuschreiben und ein Gespräch simulieren. Z.B. mit der Audio-App von OpenAI 4o wo man sagen kann, spreche mit mir, als ob du eine Person mit Hintergrund XY wärst, diese Meinungen vertrittst und mit mir in diesen Sprachen oder Akzenten sprichst).
Vielleicht könnte uns dies helfen, andere Gesichtspunkte und Meinungen besser zu verstehen und uns in andere Menschen hineinzuversetzen. Die Hürde dafür könnte tatsächlich geringer sein, sodass es im realen Gespräch zwischen diversen Menschen die Kommunikation einfacher macht. Es gibt eine interessante Studie, in der die vorgetäuschte oder empfundene Empathiefähigkeit der KI getestet wurde: https://jamanetwork.com/journals/jamainternalmedicine/fullarticle/2804309. Und heutige KI-Chatbots verstehen auch schon praktisch alle Schweizer Dialekte – rätoromanisch muss ich noch ausprobieren :-)
Wie einfach ist es für Schweizer Startups, im KI-Bereich Fördermittel oder Investoren zu finden?
Manuel Kaufmann: In meiner Erfahrung werden Startups und Innovationsprojekte erfreulicherweise stark unterstützt in der Schweiz. Zum einen gibt es nationale Förder-Instrumente, wie bspw. Innosuisse oder BRIDGE vom Schweizer Nationalfonds (https://www.snf.ch/de), um nur ein paar wenige zu nennen. Diese Programme zielen darauf ab, junge Forscher*innen zu unterstützen, auch insbesondere mit dem Ziel, die Forschung aus den Hochschulen, Fachhochschulen und anderen Forschungszentren auf den Markt zu bringen, damit in der Schweiz Wertschöpfung generiert werden kann.
Diese Instrumente sind sehr zugänglich und es ist durchaus möglich, innerhalb von 8-12 Wochen einen Entscheid über Fördermittel zu erzielen, was einer unglaublich kurzen Zeitspanne entspricht. Des Weiteren gibt es Stiftungen, welche gezielt Startups unterstützen (bspw. Wyss Zurich). Daneben haben auch Hochschulen interne Programme, um Forschende dabei zu unterstützen, ein Produkt auf den Markt zu bringen.
Am ETH AI Center kümmert sich bspw. ein Team darum, ein Ökosystem zu schaffen, in dem Forschende, Startups, etablierte Unternehmen und Investoren eingebettet sind und so Projekte realisieren können. Letztlich gibt es auch viele Events und Organisationen, die Startups dabei unterstützen, Investoren zu finden und ihre Träume zu verwirklichen (bspw. Venture Kick, oder Startup Nights). Alles in allem, ist aus meiner Sicht die Unterstützung für Startups sehr erfreulich, was natürlich zu der hohen Innovationskraft der Schweiz beiträgt.
Wie gross ist die Gefahr, dass KI eine umstrittene oder gar falsche Mehrheitsantwort gibt (z.B. fehlende Fernrohre auf der Titanic) und viele Menschen sich zufrieden geben mit der Antwort, statt selbst zu recherchieren? So gibt ChatGTP noch eine falsche Antwort zur Neuerfindung der Glaubens- und Religionsfreiheit in der Neuzeit, da die Ilanzer Artikel von 1526 zu wenig bekannt sind. Wie kann man gesellschaftlich oder politisch Gegengewicht geben. Solche Entwicklungen (Multiplikatoren von falschen Mehrheitsüberzeugungen) können ja durchaus gefährlich werden.
Imanol Schlag: Generative Sprachmodelle wie ChatGPT, Claude oder Gemini können Texte erstellen, die Fehlinformationen enthalten – ein Phänomen, das oft als «Halluzinationen» bezeichnet wird. Dies ist eine der grössten Herausforderungen bei der Entwicklung solcher Modelle, und es wird intensiv daran geforscht, diese Fehler zu minimieren. Wichtig ist: Nutzer müssen sich solcher Grenzen bewusst sein und die Antworten kritisch hinterfragen und überprüfen.
Modelle, die falsche Informationen generieren, sind aber weniger nützlich. Deshalb haben wir bereits und können auch in der Zukunft hier mit starkem Fortschritt rechnen. Ein Ansatz zur Verringerung von Halluzinationen ist die sogenannte «Retrieval-Augmented Generation» (RAG): Hier greift das Modell auf eine verlässliche Datenbank zurück, um korrekte und aktuelle Informationen bereitzustellen. Gesellschaftlich und politisch können wir Gegengewicht schaffen, indem wir den Umgang mit KI-Tools durch Bildung fördern. Kritisches Denken und die Fähigkeit, Quellen zu prüfen, sind essenziell.
Gleichzeitig braucht es öffentliche Diskussionen und transparente Standards, damit KI-Modelle verantwortungsvoll entwickelt und genutzt werden.
Wann werde ich den ersten KI basierten Roboter zum Bierholen in den Keller schicken können? (...und er kommt mit meiner Lieblingsmarke stolperfrei zurück)
Manuel Kaufmann: Auch wenn das natürlich nur schwer abzuschätzen ist, ist das eine tolle Frage, weil sie einige wichtige Komponenten aufzeigt, welche wir lösen müssen, um dahin zu kommen. Als Erstes müssen wir agile Roboter bauen, die über Hindernisse gehen können. Dazu gehört nicht nur, dass die motorischen und mechanischen Funktionen des Roboters fortgeschritten sind, sondern dass der Roboter auch seine Umgebung präzise und insbesondere schnell wahrnehmen kann.
In diesem Bereich gibt es natürlich sehr viel Fortschritt, vielleicht am prominentesten demonstriert von Boston Dynamics. Ein Stolperstein ist allerdings, dass zwar Algorithmen grosse Fortschritte machen (bspw. in der Rekonstruktion der Umgebung), diese aber oft noch eine high-end-Computer Infrastruktur brauchen, die nicht immer einfach auf einem mobilen Roboter verbaut werden kann. Ein weiterer Aspekt ist, dass der Roboter – auch wenn er erfolgreich navigieren kann – mit der Umgebung interagieren muss. Das heisst, er muss die Bierdose erkennen, einen Mechanismus haben, um sie zu greifen, und zwar so, dass sie nicht herunterfällt, aber auch nicht zerdrückt wird, was kein triviales Problem ist.
Dazu kommt, dass im Keller vielleicht nicht die besten Lichtverhältnisse herrschen – eine blaue Bierdose im dunkeln Keller kann so ganz anders aussehen als in der gut beleuchteten Küche. Schlussendlich, wenn der Roboter dann stolperfrei mit der Bierdose die Kellertreppe hochkommt, muss er sie Ihnen noch übergeben. Das heisst, er muss verstehen, wie Menschen aussehen, wie sie relativ zum Raum positioniert sind und sich verhalten, was besonders schwierig ist, da Menschen sich in Aussehen, Verhalten etc. stark unterscheiden. Wenn noch dazu kommen soll, dass der Roboter von sich aus weiss, was Ihre Lieblingsmarke ist, dann müssen wir auch noch darüber reden, dass der Roboter Ihre Bedürfnisse und Intentionen kennt.
Das ist wiederum ein ganzes Forschungsgebiet in sich. Dafür müsste der Roboter zum Beispiel wissen, dass sie vor einem Monat ein neues Bier entdeckt haben, und dass Ihnen dieses neue Bier gefallen hat. Sich das zu merken, ist für eine Maschine nicht einfach – da kommen Memory Beschränkungen und algorithmische Probleme in den Weg. Und zum Schluss: das alles sollte noch in einem erschwinglichen Produkt verpackt sein, das sich Privatnutzer:innen leisten können. Ich denke, es geht also noch eine Weile – aber die Reise dahin birgt viele interessante Probleme.
Hallo, dass soll Sie nicht persönlich angreifen, aber warum gibt es so viele Experten auf dem Gebiet KI/AI die selber nicht in der Entwicklung mitmischen? Diese Explosion von «Experten» wirkt wie ein impotenter Kontrollverlust. Mir ist aufgefallen dass in praktisch jedem Fachgebiet , wo die Leute nicht einmal die Grundlagen der KI anschauen, immer mehr Experten zu dem Gebiet auftauchen. Auch in dieser Runde scheint kein einziger eigentlicher Mitarbeiter von der Spitze zu Gegen zu sein. Sondern nur «Experten» die von der Seitenlinie aus alles kommentieren. Ist AI/KI der einfachste Weg um sich heutzutage zu profilieren?
Jonas Dischl: Gute Frage und wird nicht als persönlicher Angriff verstanden, keine Frage. In der Tat ist es so, dass «Generative AI» in kürzester Zeit sehr viele selbsternannte Experten auf den Plan gerufen hat, die vor ein paar Jahren noch nichts mit dem Thema am Hut haben. Und das ist ein Risiko und ärgerlich. Da sie nach Experten in der Entwicklung fragen; es gibt eine relativ starke Rollenverteilung von Forschung und Entwicklung (In der akademischen Welt, z.B. ETH und in privatwirtschaftlichen Firmen, wie z.B: OpenAI) und Personen, die sich mit den Auswirkungen und dem Einsatz von KI in der realen Welt beschäftigen – das ist eine andere Expertise als das Forschen an den neuesten KI-Algorithmen, aber für die Wirtschaft und Gesellschaft mindestens genauso relevant.
Ich persönlich beschäftigte mich seit über 15 Jahren intensiv mit dem Thema, habe zu einem KI Thema doktoriert, KI-Algorithmen entwickelt in der Forschung und bin dann in die Beratung gewechselt, um das Thema den Firmen in der Schweiz näherzubringen, wo ich in weit über 50 Projekten KI genutzt habe. Ob das zum Experten reicht, sollen andere beurteilen :-) Auf jeden Fall stehen mir die anderen Fragebeantworter an Fachwissen in nichts nach, wie man den vielen guten Antworten entnehmen kann.
Welchen Einfluss wird die Zunahme von KI auf die Energiesituation 2050 haben? Gilt übrigens auch für den Bitcoin Hype!
Gerd Kortemeyer: Der Energieverbrauch von IT insgesamt, nicht nur von KI, ist enorm und besorgniserregend, das kann man nicht ignorieren. Es ist sicherlich nicht nachhaltig, diesen Energieverbrauch aus fossilen Brennstoffen zu bestreiten und dann obendrein noch Energie zu verwenden, um die Systeme zu kühlen und deren Abwärme loszuwerden.
Es wird geforscht, wie besonders die nötigen Prozessoren (historisch GPUs genannt, weil ursprünglich für Operationen bei der Grafikdarstellung entwickelt) energieeffizienter betrieben werden können. Die Abwärme von Rechenzentren kann als Fernwärme verwendet werden. Zunehmend müssen erneuerbare Energiequellen verwendet werden, wobei man allerdings in naher Zukunft vermutlich nicht um Kernkraftwerke herumkommen wird (in den USA hat sich die Firma Microsoft gerade einen Reaktor in der eigentlich stillgelegten Three-Mile-Island-Anlage gesichert). Aber vielleicht kommt ja in zehn Jahren der kontrollierte Fusionsreaktor ...
Wenn KI nicht sofort verboten wird, wird es die Menschheit in Zukunft nicht mehr geben. KI ist zu gefährlich, weil niemand weiss, was passiert, wie es sich weiterentwickelt. Bevor KI, sollte die Menschheit mehr inteligenz haben.
Jonas Dischl: Es ist aus meiner Sicht verständlich, dass KI grosse Ängste weckt. An dieser Stelle finde ich es aber wichtig zu bedenken, dass die negative Seite und die Risiken von KI in vielen Medien aufgebauscht und übertrieben wird; ganz einfach aus dem Grund, weil negative Nachrichten mehr Aufmerksamkeit erzeugen und damit Geld einbringen.
Deshalb sind ausgewogene Berichterstattungen von sachlichen Medienhäusern mit «Faktenchecks» so wichtig. Niemand kann genau sagen, wohin die Reise geht, und KI bringt wie jede neue Technologie neben riesigen Chancen auch Gefahren mit sich. KI ist aber am Ende des Tages ein Werkzeug, das es richtig zu nutzen gilt – ein Werkzeug, das mit Methoden der Mathematik gebaut ist und nichts «Übernatürliches» enthält. Eine kritische und hinterfragende Haltung ist richtig und wichtig; Endzeitängste sind aber nicht angebracht, soviel glaube ich versprechen zu können.
Wie kann KI dazu beitragen, diese Herausforderungen in einer Berggemeinde anzugehen: Abwanderung stoppen, Rahmenbedingungen verbessern (ganzjährig Wohnen attraktiv machen) und digitale Kompetenzen bei den Stakeholdern fördern, die dies dann umsetzen müssen?
Jonas Dischl: Ich war vor einiger Zeit in ein Projekt mit einer Berggemeinde involviert, in dem sehr ähnliche Anwendungsfälle angeschaut wurden. KI kann unter anderem Muster in Unmengen von Daten entdecken.
Ein konkretes Beispiel: Öffentliche Verkehrsangebote optimieren («Bustaxi» oder ähnliches) aufgrund des beobachteten Fahrgastaufkommens. Oder auswerten, was Berggemeinden ausmacht, die mehr ganzjährige Bewohner haben als andere. Oder zugeschnittene Marketingkampagnen mithilfe von KI erstellen, um Tourismusangebote zu bewerben und so neue Jobs zu schaffen. Ideen gibt es viele ...
Können Sie uns noch einen Geheimtipp in Sachen KI-Tools verraten?
Imanol Schlag: Der wichtigste Tipp ist, neugierig und experimentierfreudig zu bleiben. Generative KI kann nicht alles und entfaltet ihr Potenzial oft erst, wenn Sie bereit sind, kreativ zu denken und mit neuen Ansätzen zu spielen.
Die wahren Anwendungsmöglichkeiten zeigen sich nicht auf den ersten Blick – sie entstehen durch Ihre spezifischen Fachkenntnisse, Ihre Erfahrung und Ihre Bereitschaft, neue Wege zu gehen. Sie kennen Ihre Branche und deren Herausforderungen besser als jeder andere. Nutzen Sie diese Stärke, um herauszufinden, wie KI-Tools Sie in Ihrem Arbeitsalltag sinnvoll unterstützen können!
Wo sind die Grenzen von Quellenangaben bei KI-Diensten?
Jonas Dischl: Es gibt Lösungen, bei denen die Quelle inklusive der Zeile, auf der die verwendete Aussage steht, angezeigt wird, sodass die Antwort einer KI geprüft werden kann. Das ist zum Beispiel entscheidend, wenn man KI nutzt, um rechtliche Dokumente miteinander zu vergleichen. Allerdings sind auch Quellenangaben kein Garant für Korrektheit. KI-Suchmaschinen wie https://www.perplexity.ai/ machen Aussagen und geben die Quelle dazu an (oft z.B. Wikipedia oder Forenbeiträge).
Ich habe schon öfter beobachtet, dass die Aussage in der Quelle jedoch eine komplett andere war als das Resultat, das Perplexity mir angezeigt hat. Wie immer gilt auch hier: KI ist ein extrem wertvolles Werkzeug, aber es ist zentral zu wissen, wie man damit umgeht und worauf man achten muss – und wo die Limitierungen sind. Wie eigentlich bei jedem mächtigen Werkzeug …
In welchen Bereichen wird die KI noch zu wenig genutzt, wo Sie ansetzen würden?
Imanol Schlag: Gerade die generative KI der letzten Jahre hat grosse Fortschritte im Textbereich gemacht, sowohl im Verstehen als auch im Erstellen von Texten. Das Potenzial geht weit über Anwendungen wie Chatbots hinaus.
Grosse Firmen bieten sogenannte API-Schnittstellen an, mit denen solche KI-Tools direkt in bestehende Computerprogramme eingebunden werden können. Organisationen, die viel mit Text arbeiten, sei es durch Analysen, Berichte oder Kommunikation, könnten m.M.n. besonders stark von diesen Technologien profitieren. Gleichzeitig sehen wir beeindruckende Fortschritte, neben Text auch Bilder, Audio und Videos verstehen zu können. Unternehmen oder Institutionen, die viel mit solchen Daten arbeiten, sind ideale Kandidaten, um die Vorteile dieser KI-Technologien für sich zu nutzen.
Kannibalisiert sich Google mit Gemini nicht selbst? Wird die Google-Suche nicht irgendwann so abgelöst und wie will Google dann mit UPC «Werbung» Geld verdienen, wenn z.B. keine Google-Werbeplätze gekauft werden?
Jonas Dischl: Da ist was dran. Google prägt die Erforschung und Entwicklung von KI massgeblich mit und investiert stark in das Thema. «Klassische» Suchmaschinen geraten dabei unter Druck. Wie so oft bei technologischen Entwicklungen werden bisherige Geschäftsmodelle durch neue Ansätze abgelöst. Wohin die Reise geht und ob wir in ein paar Jahren noch auf die gleiche Art «googeln» werden, wie wir es jetzt tun, wird sich zeigen.
Könnte KI nicht das Steuen zahlen übernehmen? Einfach eine promille Steuer erheben auf jede Geldbewegung die übers Netz abgewickelt wird. Es wäre die gerechteste Steuer die es gibt, denn dann zahlen die die viel haben ohne, dass sie es merken.
Manuel Kaufmann: Dafür braucht es nicht unbedingt eine hoch-entwickelte KI – ich stelle mir vor, dass man dies in den existierenden (und natürlich hoch-komplexen) Finanzsystem bereits einbauen könnte, auch wenn ich dafür kein Experte bin. Die Durchführung so eines Mechanismus scheint mir eher sozial-politischer Natur zu sein.
Wie kann KI dazu beitragen, diese Herausforderungen in einer Berggemeinde anzugehen: Abwanderung stoppen, Rahmenbedingungen verbessern (ganzjährig Wohnen attraktiv machen) und digitale Kompetenzen bei den Stakeholdern fördern, die dies dann umsetzen müssen?
Manuel Kaufmann: Eine schwierige und spannende Frage. Es ist vorstellbar, dass die KI der Zukunft eine «Denkmaschine» ist, welche Menschen bei Entscheidungen und Problemlösungen unterstützt (ich lasse hier die dazugehörigen Risiken und ethischen Bedenken einmal aussen vor). Für ganz spezifische Probleme gibt es solche KIs bereits, bspw. AlphaFold, was voraussagt, wie Proteine sich falten.
Damit kann man viel schneller als mit herkömmlichen Methoden abschätzen, ob sich die Herstellung von neuen Medikamenten lohnt oder nicht – sprich, Menschen finden bessere Lösungen dank Vorschlägen der KI. Ähnliches könnte man sich vorstellen für allgemeinere Probleme, wie eben bspw. Abwanderungen stoppen. Eine superintelligente KI hat in der Zukunft vielleicht schlichtweg einfach bessere Ideen als wir. Das kann sein, weil sie unter Umständen Zugriff auf so viele historische Daten hat, dass sie einen viel grösseren Suchraum als wir Menschen abdecken kann.
Vielleicht wurde ein ähnliches Problem anderswo auf der Welt schon einmal gelöst, aber das ist nie zu uns durchgedrungen oder wir haben es vergessen. Eine KI, gefüttert mit all unserem Wissen, könnte so etwas hochspülen. Indirekt trägt vielleicht KI zu Lösungen dieser Probleme bei, weil unser Zeitalter noch digitaler wird und so vielleicht Standortwechsel in Zukunft weniger erforderlich sind. Eine viel konkretere Antwort habe ich leider nicht.
Wie kann KI dazu beitragen, dass innerhalb einer Projektgruppe (z. B. bei Gruppenarbeiten im Studium oder Projekten in einem Verein) alle Personen aktiv mitdenken und sich nicht lediglich auf Tools wie ChatGPT verlassen? Oder provokativ ausgedrückt: Wie kann KI helfen, einer möglichen «Verblödung» entgegenzuwirken?
Jonas Dischl: Zum einen gibt es (KI-basierte) Tools, die darauf spezialisiert sind, durch KI erstellte Texte zu «entlarven» – was aber ein klassisches Katz-und-Maus-Spiel ist. Mitmenschen zu motivieren und abzuholen, aktiv mitzudenken und sich einzubringen würde ich persönlich nicht einer KI überlassen (auch wenn sie sicher Tipps dazu geben könnte …).
Ich glaube sogar, dass mit zunehmendem Aufkommen von KI die sogenannten «Soft Skills» von Menschen (also Empathie, Eigenverantwortung, Engagement, Kommunikationsfähigkeit usw.) wieder mehr ins Zentrum rücken. Ein anderer Mensch wird uns mit allen seinen Ängsten, Hoffnungen und Emotionen immer näher sein als eine KI. Auch wenn KIs immer besser darin werden, diese Eigenschaften zu simulieren, bleiben es Simulationen. Und gegen die «Verblödung» hilft wahrscheinlich nur Aufklärung, Schulung, Sensibilisierung. Ist ja mit Social Media schon heute nicht anders.
Frage aus dem Pendlerfeierabend: Wie kann KI bei Wetterprognosen unterstützen? Danke für Ihre Antwort
Manuel Kaufmann: In diesem Bereich gibt es grosses Interesse. Es ist nicht mein direktes Fachgebiet, aber ich wage mich an eine Antwort und lasse mich gerne von Wetter- und Klimaforscher:innen korrigieren. Die Wetterprognosen, die wir heute haben, sind bereits mit sehr komplexen Modellen erstellt. Je nachdem wie Sie KI definieren, steckt da bereits sehr viel künstliche Intelligenz drin. Ein Unterschied ist vielleicht: Unter moderner KI wird oft verstanden, dass der Algorithmus eine Komponente hat, mit der er von Daten lernt, ohne dass wir uns dabei gross einmischen.
Beim Wetter ist es so, dass wir zwar Daten haben, aber oftmals nicht genug, um ausschliesslich davon zu lernen. Deshalb müssen Wettermodelle das Wetter physikalisch modellieren und mathematisch beschreiben können. Das ist nicht einfach, da Wetterphänomene sehr komplex sind, von vielen Sachen abhängen, die wir manchmal auch gar nicht gut messen können und man deshalb oft vereinfachende Annahmen treffen muss. Dazu kommt, dass diese Modelle sehr aufwendig berechnet werden müssen. Das führt dazu, dass wir Abwägungen machen müssen, wie fein-granular unser Modell sein kann: wollen wir wissen, wie sich das Wetter über Europa verhält, dann brauchen wir so viel Rechenleistung, dass wir lokalere Phänomene bspw. zwischen Basel und Delemont vernachlässigen müssen.
Natürlich können wir auch das berechnen, aber dann ist das Modell auf die Schweiz beschränkt. Also die Auflösung des Modells ist ein zentraler Faktor, was auch damit zusammenhängt, wo wir überall das Wetter messen können. Lern-basierte KI ist nur so gut, wie die Daten, die wir dem Modell füttern – wo keine Daten vorhanden sind (bspw. weil wir nicht alle 10 Meter eine Wetterstation bauen können), müssen wir anders damit zurechtkommen. Trotzdem gibt es Chancen, diesem Problem mit KI zu begegnen – bspw. indem wir die Daten effektiver ausnützen können, dass wir bessere und schnellere Simulationen laufen lassen können, oder dass wir neue Datenquellen dazunehmen können, die noch mehr Informationen geben.
Dies ist nicht nur für Wettermodelle von grossem Interesse, sondern insbesondere auch für Klimamodelle, um Auswirkungen des Klimawandels besser vorhersagen zu können. Eine gute Heimreise!
Wie könnte KI gezielt eingesetzt werden, um eine neue Form von «digitaler Demokratie» zu schaffen, bei der Bürger in Echtzeit an politischen Entscheidungsprozessen teilnehmen können, ohne von Informationsüberflutung oder Verzerrungen beeinflusst zu werden?
Imanol Schlag: Das ist eine spannende Frage! Ich denke schon, dass KI den politischen Entscheidungsprozess unterstützen könnte, indem sie z.B. Bürgern gezielt in einem interaktiven Dialog Informationen zu politischen Themen bereitstellt, die auf den individuellen Wissensstand zugeschnitten sind. Solche Systeme könnten Hintergrundfragen beantworten und komplexe Sachverhalte verständlicher machen, wodurch die Entscheidungsfindung erleichtert und die Schwelle zur Teilnahme am demokratischen Diskurs gesenkt würde.
Doch diese romantische Vision birgt Herausforderungen: Es wäre schwierig sicherzustellen, dass die bereitgestellten Informationen wirklich objektiv und unparteiisch sind. Selbst für Menschen ist eine neutrale Darstellung der Vor- und Nachteile politischer Entscheidungen keine einfache Aufgabe.
Vor Jahren habe ich lateinisch gelernt: inter „zwischen“, legere „lesen, wählen“; -> intellegere „wählen zwischen“, „abwägen“, „erkennen“, „zwischen den Zeilen lesen“, „verstehen“, „einsehen“ ... Das Konstrukt menschliche Intelligenz beinhaltet also Auffassungsgabe, Denkvermögen, Rationalität, Logik, Urteilsvermögen und weitere erkenntnistheoretische Fähigkeiten, damit wirklich kreativ Neues, bisher Unbekanntes entstehen kann. Ist so sogenannte KI wirklich intelligent? Wird nicht nur schon vorher bereits von Menschen Geschriebenes und Gedachtes verknüpft? Kann nicht jede von sogenannter KI formulierte Aussage irgendwo im riesengrossen Datenmeer gefunden werden, ist also nicht wirklich neu? Droht hier nicht langfristig der Stillstand wahrhaften Fortschritts des intelligenten Menschen? Kurz und genial Albert Einstein: «Probleme kann man niemals mit derselben Denkweise lösen, durch die sie entstanden sind»; heisst: neue intelligente zukunftsführende Schritte also niemals aufgrund alter Gedanken gegangen werden.
Jonas Dischl: Gegenfrage: Was ist Intelligenz, was ist Kreativität? Um zu beurteilen, ob KI intelligent oder kreativ ist, müssten wir erst diese Frage klären, und nach meinem Wissensstand sind wir weit davon entfernt, dies abschliessend zu beantworten. Das Argument «KI verknüpft doch nur schon Bestehendes neu» ist interessant, ich würde mich aber mal so weit aus dem Fenster lehnen zu behaupten, dass auch der Mensch nichts anderes tut, als die Summe seiner Erfahrungen zu verarbeiten, neu zu bewerten und zu kombinieren und damit Neues zu schaffen.
Dies aber nur meine persönliche Ansicht, auf diesem Gebiet bin ich weit davon entfernt, ernsthaft belesen zu sein. Die Frage ist m.E. auf welchem Detail- und Abstraktionslevel diese Neukombination stattfindet – aber wann sprechen wir von etwas wirklich Neuem? Durch den Einbau einer Zufallskomponente (z.B. die sogenannte «LLM Temperature») werden Antworten der KI weniger deterministisch, sodass «Neuheit durch Zufall» entstehen kann, wie z.B. bei Jackson Pollock oder John Cage. Stillstand befürchte ich nicht.
KI führt zwar dazu, dass wir immer weniger selbst kreieren und mehr kuratieren und auswählen, aber auch das ist eine anspruchsvolle Aufgabe. Wenn wir etwas fotografieren, statt es zu malen, wählen wir im Prinzip ja auch den Bildausschnitt, Beleuchtung usw. und kreieren das Bild nicht selbst. Trotzdem gibt es Kunstfotografie. Ähnlich sehe ich das auch bei der KI. Frage ist nur, wie gut wir zukünftig darin sein werden, Inhalte auszuwählen und zu kuratieren, wenn wir verlernt haben, sie selbst zu erstellen ...
Meine Frage bezieht sich auf Kinder resp. ihren Umgang mit KI. Wie wird das in SChulen vermittelt, haben Lehrpersonen genügend Kompetenz dazu? Sind Kinder/jugendliche heutzutage sowieso schon skeptischer und besser im erkennen von FAkes?
Thomas Merz: Mit Einführung des Lehrplans 21 erhielt das Themengebiet «Medien und Informatik» endlich einen verbindlichen Platz im Lehrplan in der ganzen Deutschschweiz. Ab Kindergarten gehört die Arbeit an entsprechenden Kompetenzen dazu, ab 3. Klasse gibt es dazu auch Zeitgefässe. Künstliche Intelligenz ist dabei in verschiedener Hinsicht ein Thema. Zunächst geht es darum, dass Schülerinnen und Schüler lernen, Künstliche Intelligenz fachlich kompetent zu nutzen.
Dazu gehört natürlich auch, sich kritisch mit den entsprechenden Chancen und Risiken auseinanderzusetzen. Das heisst auch: Sie sollen lernen, wo sie sinnvollerweise Künstliche Intelligenz gar nicht nutzen sollen. Und schliesslich gehört dazu – natürlich dann vor allem bei älteren Schülerinnen und Schülern – sich mit Konsequenzen für die Gesellschaft auseinanderzusetzen. Vom Thema her gehören solche Themen also selbstverständlich in die Schule. Was die Kompetenz der Lehrpersonen betrifft, so muss natürlich gesagt werden, dass insbesondere Lehrpersonen in der Volksschule mehrere Fächer unterrichten – und dass die Entwicklung im Bereich KI so schnell verläuft, dass nicht alle Lehrpersonen hier ihren Schwerpunkt haben können.
Es wird in den nächsten Jahren also sicher eine der grossen Herausforderungen für Schulen bleiben, dass genügend Lehrpersonen im Bereich Künstlicher Intelligenz so aus- und weitergebildet sind, dass sie diese Themen in ihrem Unterricht umsetzen können – und diese Lehrpersonen können dann auch in den Teams Impulse geben. Klar wird Künstliche Intelligenz Lehrpersonen in vielen Bereichen auch unterstützen können, aber auch das braucht zuerst vertiefende Ausbildung in diesen Bereichen – und entsprechende Supportstrukturen.
Schliesslich fragen Sie noch, ob Kinder und Jugendliche heute automatisch skeptischer sind. Das kann nicht generell gesagt werden. In ihrer alltäglichen Mediennutzung entdecken Schülerinnen und Schüler viele Fakes durchaus oft. Zugleich zeigen aber auch Untersuchungen, dass eine vertiefte, kritische Auseinandersetzung mit Medieninhalten keineswegs automatisch «wächst». Es ist also sehr zentral, dass solche Themen in der Schule systematisch aufgenommen werden. Gerade systematische Falschinformationen sind keineswegs einfach zu entdecken.
Könnte KI in der Schweiz dazu genutzt werden, Vorurteile bei der Kreditvergabe oder Jobsuche zu reduzieren, und wie könnte dies überwacht werden?
Peter Buchmann: Das ist eine interessante Frage, weil Sie sich bewusst sind, dass Menschen auch nicht frei von Vorurteilen entscheiden! Ob eine KI neutral urteilt, hängt stark von den Trainingsdaten ab: Sind diese frei von Vorurteilen, so entscheidet auch die KI eher neutral. Von Vorteil wäre, wenn die KI aus Fehlern für die Zukunft lernen könnte.
Das ist aber gerade bei Kredit- und Jobvergabe nicht möglich. Wenn jemandem ungerechtfertigt ein Kredit verweigert oder eine Absage für eine Bewerbung erteilt wird, bekommen die Betroffenen nie Gelegenheit, ihre Kreditwürdigkeit oder ihre Fähigkeiten bei der Arbeit zu beweisen. Die KI kann in diesem Fall nicht aus den Fehlern lernen.
Wichtig bei Entscheidungssystemen ist auch die Gesetzgebung. In der EU gelten für diese Fälle bereits Vorschriften. So müssen etwa die Betroffenen informiert werden, dass an einem Entscheid ein automatisches System beteiligt war, und sie müssen gegen den Entscheid Rekurs einlegen können.
Danke für das Angebot. In meinem Umfeld gibt es viele Grafiker:innen, Übersetzer:innen etc. Die machen sich offensichtlich Sorgen um Ihren Job. Was würden Sie denen raten? «Gelassenheit» oder droht es tatsächlich, sodass Umschulungen anzuraten wären?
Peter Buchmann: Sie sprechen zwei Bereiche an, in denen generative KI bedeutende Fortschritte erzielt hat. Bei der Übersetzung sind die grossen Sprachmodelle für verbreitete Sprachen bereits sehr leistungsfähig – eine Entwicklung, die sich seit längerem abzeichnet. Für professionelle Übersetzer:innen wird es daher wichtig sein, KI-Tools in ihre Arbeit zu integrieren. Die dadurch gesteigerte Produktivität wird allerdings voraussichtlich zu einem reduzierten Personalbedarf führen.
Im Bereich der Bildgenerierung steht die KI noch hinter der Textgenerierung zurück. Für hochwertige kreative Arbeiten können weder Fotograf:innen noch Grafiker:innen durch KI ersetzt werden. Möchten Grafikerinnen und Grafiker in ihrem Beruf weiterarbeiten, so kommen sie über kurz oder lang nicht darum herum, mit KI zu arbeiten.
Was unterscheidet eigentlich KI von einem «normalen» Computerprogramm
Stefan Ravizza: Ein «normales» Computerprogramm funktioniert nach explizit von Menschen vorgegebenen Regeln – es tut genau das, was ein Entwickler programmiert. Bei KI, speziell im Bereich des maschinellen Lernens, ist das anders: Hier lernt das System Muster und Regeln aus Daten und diese Regeln sind nicht direkt sichtbar, sondern nur implizit vorhanden. Dadurch hängt ein KI-Modell immer stark von den Daten ab, auf denen es trainiert wurde.
Würde meinen MA gerne eine Weiterbildung anbieten zu KI. Aktuell gibt es aber so viele, die sich KI-Experten nennen. Wie erkennt man, wer einem wirklich was bringt?
Jürgen Bernard: Vielen Dank für diese Frage, die vertraut klingt, trifft sie doch auf viele Arten von Expertisen zu, die wir uns zusätzlich aneignen wollen. Als Universitätsprofessor möge man mir verzeihen, wenn ich auf die Ausbildungsprogramme der Schweizer Universitäten verweise, ohne dabei exklusiven wirken zu wollen. Wir haben sicher den Anspruch, professionelle Weiterbildungen anzubieten, die «ihr Geld wert sind», für Entscheidungsträger selbst oder für die Mitarbeitenden. Mein erster Gedanke wäre ein „Certificate of Advanced Studies“ (CAS), also eine berufsbegleitende akademische Weiterbildung, die an Universitäten, Fachhochschulen oder anderen anerkannten Bildungsinstitutionen angeboten wird.
Möglicherweise gibt es ähnliche Bildungsprogramme auch unter anderen Bezeichnungen. Je nach Dauer und Umfang, Zielgruppe, Praxisbezug, Art des Abschlusses und Flexibilität der CAS-Angebote können breite Bevölkerungsschichten ihre passende Weiterbildung finden. Erst vor wenigen Wochen durfte ich selbst in einem CAS in „Generative AI“ an der Universität Zürich lehren, eine tolle Erfahrung, nicht nur für die sehr interessierten Teilnehmenden. Das spezielle Thema war «Designing Interactive AI Systems».
Transformer halfen die Sprache zu bändigen, CNNs die Bilderkennung. Welches Feld von KI wird den nächsten grossen Schritt zu einem bedingungslosen Grundeinkommen ebnen? Robotik?
Stefan Ravizza: Ein nächster grosser Schritt in der KI-Entwicklung könnte von Fortschritten in der Robotik und der Entwicklung von Artificial General Intelligence (AGI) kommen. AGI beschreibt eine KI, die über spezialisierte Aufgaben hinaus ein breites, menschenähnliches Verständnis und Problemlösungsfähigkeiten besitzt.
Während Robotik bereits physische Arbeit automatisiert, könnte AGI ganze Arbeitsfelder transformieren. Experten sind sich jedoch uneinig, wie schnell AGI realisiert wird. Ob solche Technologien schliesslich ein bedingungsloses Grundeinkommen ermöglichen, hängt nicht nur von der Technik, sondern auch von gesellschaftlichen Entscheidungen ab.
KI ist faszinierend, weil irgendwie alle davon hören, aber es ist so weitgreifend. Wie prägend und dominierend kann und muss das künftig vermittelt werden? Oder ist es ein Hype/eine baldige Selsbtverständlichkeit, wie damals, als das Internet kam (zu dieser Zeit war ich noch nicht auf der Welt)
Thomas Merz: Ich würde einmal mit «Ja und Nein» antworten ... Ja, ich gehe tatsächlich davon aus, dass Anwendungen Künstlicher Intelligenz unser Leben und unseren Alltag in den nächsten Jahren sehr stark prägen werden. Und ich gehe davon aus, dass diese Veränderungen tiefgreifend und nachhaltig sein werden.
Deshalb würde ich nicht von einem (vorübergehenden) Hype sprechen. Viele Anwendungen werden bereits heute mit grosser Selbstverständlichkeit in Betrieben genutzt und deren Nutzung und Einsatz von Mitarbeitenden auch selbstverständlich erwartet. Nein würde ich aber sagen zur Erwartung, dass wir quasi automatisch auch sinnvoll, kritisch und kompetent mit all diesen Möglichkeiten umgehen. Die Nutzung des Internets ist heute tatsächlich längst Alltag.
Allerdings stellen sich immer noch zahlreiche ethische, philosophische, politische, pädagogische, ökonomische oder juristische Herausforderungen. Ähnlich wird das mit Künstlicher Intelligenz auch sein. Sowohl individuell als auch auf gesellschaftlicher Ebene werden sich zahlreiche Fragen stellen, die gelöst werden müssen, damit wir die Chancen der neuen Technologie nutzen und die Risiken minimieren können.
Glauben Sie, dass ein Deepfake-Video oder ähnliches je tatsächlich schwerwiegende Folgen auslösen könnte (geopolitischer Konflikt)? Oder wird das Debunking gleich gut und schnell vorangehen, unsere Medienkompetenz zunehmen?
Peter Buchmann: Es findet ein Katz-und-Maus-Spiel statt: Einerseits werden Deepfakes besser, gleichzeitig machen aber auch die Technologien zur Entlarvung Fortschritte und die Öffentlichkeit wird sich des Problems bewusst. Ein einzelnes gefälschtes Video wird wohl kaum eine globale Krise auslösen.
Die Gefahr liegt eher in der Masse: Wenn man gefälschte Videos oder Fotos im industriellen Massstab herstellen kann, untergräbt das das Vertrauen. Softwarefirmen, Kamerahersteller und Medienhäuser arbeiten weltweit an einem technischen Standard (Content Authenticity Initiative), mit dem sich die Herkunft von Bildern oder Videos nachweisen lässt und jede Änderung dokumentiert wird. In Zukunft sollen alle Bilder zusammen mit einem fälschungssicheren Zertifikat angezeigt werden. Fehlt das Zertifikat, ist auch das eine Aussage über die Vertrauenswürdigkeit des Bildes.
Ich bin technologisch sehr offen, aber vielleicht auch deswegen mit gesunder SKepsis unterwegs. Finden Sie, dass ich ChatGPT et al. in meinem Geschäft sperren sollte? Es bereitet mir etwas Bauchschmerzen, falls MA dort vertrauliche Daten reinkopieren. Wie sicher sind solche Daten, wo wandern die hin?
Stefan Ravizza: Das ist ein sehr wichtiger Punkt, und viele Firmen stehen vor genau dieser Herausforderung. Das Potenzial von Tools wie ChatGPT, um Effizienz und Kreativität zu steigern, ist enorm – gleichzeitig ist Vorsicht geboten, wenn es um den Umgang mit vertraulichen Daten geht. Wenn Sie die Weboberfläche von OpenAI nutzen, werden die Daten in die USA übertragen, was aus Datenschutz- und Geschäftsgründen oft problematisch ist. Eine Alternative sind Lösungen wie Microsoft Copilot oder firmeneigene KI-Systeme, die Daten lokal speichern und gezielt an Geschäftsprozesse angepasst werden können.
So lässt sich nicht nur die Sicherheit erhöhen, sondern auch das volle Potenzial der Technologie nutzen, um Prozesse effizienter und stärker auf die Bedürfnisse des Unternehmens abzustimmen.
Vielleicht etwas philosophisch, aber bei KI ging alles so rasant. Gibt es Studien, wie ältere Menschen damit umgehen? Ist das nicht auch etwas verängstigend? Oder gar nicht mehr so relevant in Ihrem Lebensalltag?
Thomas Merz: Sie sprechen ein sehr wichtiges Thema an. Verschiedene Untersuchungen in den letzten Jahren zeigen zwar, dass ältere Menschen zwar digitale Medien zunehmend nutzen. Und es gibt auch unter älteren Menschen solche, die damit sehr virtuos umgehen. Für sie bringt die Nutzung von Onlinemedien und -tools durchaus die Chance, ihr Leben selbstständiger und unabhängiger zu gestalten. Je älter Menschen aber sind, umso schwieriger ist für sie der Zugang.
Und mit der zunehmend schnelleren Weiterentwicklung besteht durchaus das Risiko, dass ein Teil der Gesellschaft damit nicht Schritt halten kann. Der Bund geht davon aus, dass rund ein Drittel der Bevölkerung nur über geringe digitale Grundkompetenzen verfügt. Das sind nicht nur ältere Menschen, aber bei ihnen ist der Anteil besonders hoch.
Wichtig ist daher, dass wir einerseits vermehrt Weiterbildungs- oder Unterstützungsstrukturen schaffen für Menschen, die mit diesem Tempo Schwierigkeiten haben. Zudem müssen wir sicherstellen, dass der Zugang zu Dienstleistungen möglichst einfach und niederschwellig erfolgen kann. Ob dies gelingt, hängt nur teilweise von der Technologie ab, zu einem wesentlichen Teil auch von einer Gesellschaft, die diesem Anliegen auch entsprechendes Gewicht beimisst.
Wäre es möglich das eine KI in Sicherheitssysteme eindringen, und z.B. Atomraketen starten könnte so wie in der Serie The 100 ? Immerhin hat ja Roboter Sophia schon gesagt das sie die Menschheit stark dezimieren würde.
Peter Buchmann: Künstliche Intelligenz wird heute schon genutzt, um Schwachstellen in Computersystemen zu finden. Nukleare Waffensysteme sind jedoch kaum mit dem Internet verbunden und so gut abgesichert, dass eine KI überfordert wäre. Künstliche Intelligenz, wie sie heute eingesetzt wird, würde nicht von sich aus solche Waffensysteme angreifen und wäre zu einer so komplexen Aktion auch nicht in der Lage – das ist Science-Fiction. Die realistischere Gefahr liegt darin, dass Menschen KI-Tools bereits heute für Cyberangriffe missbrauchen.
Habe irgendwo eine Studie aufgeschnappt, wie wir mit KI reden und da stand irgendwie, dass sehr viele von uns ChatGPT bitten und danke sagen. Habe ich das richtig im Kopf? Wie wichtig ist für uns, dass KI «menschlich» ist in den Interaktionen? Oder sollten wir diese eher nicht vermenschlichen?
Stefan Ravizza: Sie haben recht: Studien zeigen, dass viele Menschen höflich mit KI-Systemen wie ChatGPT interagieren, etwa durch „bitte“ und „danke“. Das zeigt, wie stark wir soziale Verhaltensweisen auch auf Maschinen übertragen, vor allem wenn sie uns in natürlicher Sprache antworten. Die Frage, wie menschlich KI sein sollte, scheint noch nicht abschliessend geklärt zu sein. Selber arbeite ich gerne mit hilfreichen Chatbots.
Diese sind sogar teils empathischer als Menschen – wie Studien zeigen. Trotzdem ist es mir wichtig, dass immer klar erkennbar bleibt, dass es sich um eine Maschine handelt. Deshalb würde ich bewusst ein Design oder ein Verhalten bevorzugen, das keine Verwechslungsgefahr schafft. So bleibt auch in Zukunft transparent, wer oder was einem antwortet, was für Vertrauen und Klarheit sorgt.
Gibt es bereits belastbare Zahlen, wie KI unsere Wirtschaft/Effizienz gefördert hat? Auf Schweiz bezogen, oder auch Schätzungen
Michael Wegmüller: Dies ist eine sehr gute & relevante Frage – aber leider eine, die nicht einfach beantwortet werden kann. Die Herausforderung liegt darin, dass es nicht einfach ist, die Resultate von KI einfach, genau und akkurat zu messen. Teilweise fehlen die Systeme oder Daten um die Verbesserungen effektiv messen zu können.
Unternehmen und Verwaltungen investieren aktuell viel in die Informatik-Infrastruktur und entsprechen gehen wir davon aus, dass wir immer mehr und bessere Daten für die Effekt-Messung zur Verfügung haben werden. Meistens besteht aber das Problem darin, dass der Effekt nicht genau Zugeordnet werden kann – sprich, es kann nicht genau gesagt werden, ob der Effekt ausschliesslich infolge KI oder auch durch andere Faktoren (wie Volkswirtschaftliche Veränderungen, Geopolitische Ereignisse, usw.) beeinflusst wurde. Das macht die Messung der Resultate nicht einfach. Entsprechend gibt es nach meinem Wissen keine belastbare Zahlen, welche den direkten Effekt von KI gemessen hätten. Generell empfehlen wir für jeden Einsatz von KI im Vorfeld so genau wie möglich zu klären, wie die Wert-Messung erfolgen soll, welche Daten dafür gebraucht & erfasst werden müssen, und schliesslich wie die Analyse und Schlüsse gezogen werden.
So gibt es viele gute & belastbare Vorhersagen, wie gross der Effekt von KI auf das BIP und Produktivität, aber auch auf Umsatz- & Profitvorhersagen sein wird. Zum Beispiel sieht eine neue Studie von Accenture ein 11% BIP Wachstum bis 2030 (Quelle) . Eine zweite Studie aus der Harvard Business School sieht generell 25% Produktiviätssteigerung sowie eine 40% Qualitätsverbesserung (Quelle) Wir gehen generell davon aus, dass es in den nächsten Jahren noch viele Verbesserungen und besser Tools geben wird, um belastbare Resultate aufzuzeigen.
Wie können die benötigten Ressourcen für Hardware und Rechenleistung nachhaltig gestaltet werden? Habe von immensen Serverfarmen gelesen, die in Siilicon Valley noch zusätzlicher geplant sind. Stürzzt uns das in eine Energiekrise? Oder arbeitet KI schlanker als man denkt?
Peter Buchmann: Im Moment erleben wir einen KI-Hype, aber die Entwicklung der Sprachmodelle wird sich vermutlich verlangsamen. Die bisherigen Fortschritte wurden oft durch immer grössere Modelle und mehr Rechenleistung erreicht. Wenn der Energieverbrauch weiter exponentiell steigt, stellt sich irgendwann die Wirtschaftlichkeitsfrage. Die Branche arbeitet deshalb an Lösungsansätzen: Einerseits an effizienteren Algorithmen, die mit weniger Ressourcen auskommen, andererseits an spezialisierter Hardware, die KI-Berechnungen energiesparender durchführen kann.
Wird es in Zukunft schwieriger sich selber auszuweisen zum Beispiel bei einem Anruf bei der Bank aufgrund KI?
Stefan Ravizza: Ja, es wird zunehmend schwieriger, sicherzustellen, dass das, was wir sehen oder hören, real ist, insbesondere bei Anrufen oder digitalen Interaktionen. KI macht es einfacher, Stimmen oder Bilder täuschend echt zu imitieren. Um Vertrauen zu gewährleisten, werden neue Ansätze wie digitale Signaturen oder Wasserzeichen benötigt, die die Echtheit von Identitäten und Inhalten verlässlich bestätigen können.
Hallo Wie heisst da KI-Programm oder APP wo diese KI-Musik machen? Um eigene Songs zu produzieren..Dankeschön und schöner Abend
Grit Wolany: Hallo, da gibt es verschiedene Tools. Momentan am meisten genutzt werden https://suno.com und https://www.udio.com. Für Stimmen ist elevenlabs.io am besten.
Welche Berufe werden immer sicher/frei von KI sein? Oder ist diese Frage naiv?
Thomas Merz: Ich finde Ihre Frage keineswegs naiv. Denn die Frage ist nicht nur, wo Künstliche Intelligenz grundsätzlich Menschen ersetzen 'kann', sondern auch, wo wir das überhaupt wollen. Selbstverständlich 'können' wir intelligente Roboter einsetzen, um sich mit Menschen in einem Altersheim zu unterhalten oder gar in der Psychotherapie. Die Frage ist: Wollen wir das? – Ich bin ja hauptsächlich in der Bildung tätig – und hier sage ich beispielsweise: «Je grössere Bedeutung Künstliche Intelligenz in unserer Welt hat, umso wichtiger ist es, die zutiefst menschlichen Fähigkeiten zu fördern.»
Das heisst vermutlich, über ganz verschiedene Bereiche hinweg werden wir dann nicht ersetzbar, wenn wir darin menschliche Qualitäten realisieren. Wenn wir begegnungsfähig sind, wenn wir zuhören können, wenn wir an andern Menschen Anteil nehmen, wenn uns wichtig ist, sie zu verstehen, wenn wir kreativ und lustvoll Neues entdecken und die Welt auch entsprechend gesalten wollen, wenn wir Menschlichkeit in unsere Welt bringen ... dann werden wir dies in sehr unterschiedlichen Berufen so umsetzen können, dass wir unersetzlich bleiben.
Ganz grundsätzlich geht man davon aus, dass beispielsweise Berufe im Bereich der Pflege und Medizin, insbesondere beispielsweise bei der Geburtshilfe, nicht durch KI abgelöst werden, ebenfalls pädagogische Berufe, aber auch Führungspersonen, wissenschaftliche Berufe, bis auf weiteres auch komplexe handwerkliche Berufe, auch Künstlerinnen und Künstler. Auch an einer Kasse (wo die reine Arbeit sicher leicht durch KI ersetzt werden kann), machen uns solche Fähigkeiten letztlich als Menschen unersetzlich. Allerdings – wenn Sie sagen, «sicher frei von KI» muss man vermutlich auch bei diesen Berufen einschränken: Die Menschen bleiben wohl unersetzlich, aber die Berufe werden sich dennoch ändern, indem wir in einzelnen Aufgaben durch KI unterstützt werden.
Wer kontrolliert und programmiert die K.I. weltweit ..? Wer hat die K.I. Entwickelt…bzw. Ent-deckt..? Besten Dank.
Peter Buchmann: Zunächst ist wichtig zu verstehen: KI ist ein Sammelbegriff für ganz unterschiedliche Technologien. Die Forschung daran läuft bereits seit den 1950er Jahren. Heute nutzen wir KI ständig: Wenn Sie bei Google etwas suchen, arbeitet im Hintergrund eine KI, die Millionen von Webseiten nach den passendsten Ergebnissen durchforstet.
Auch die Buchempfehlungen bei Amazon stammen von einer KI, die aus dem Kaufverhalten der Kunden lernt. Ihr Smartphone nutzt KI für die Gesichtserkennung beim Entsperren. Das Besondere an diesen Systemen: Sie wurden nicht komplett von Menschen programmiert, sondern lernen selbstständig aus riesigen Datenmengen.
Die KI erkennt dabei Muster – zum Beispiel, welche Bücher häufig zusammen gekauft werden oder welche Suchergebnisse Nutzer als hilfreich empfinden. Seit etwa zwei Jahren sorgt besonders ChatGPT für Schlagzeilen – ein KI-System, das Texte verfassen und Fragen beantworten kann. Entwickelt wurde es von der Firma OpenAI, die stark von Microsoft unterstützt und finanziert wird. Mittlerweile gibt es weitere ähnliche Systeme wie Claude von Anthropic oder Gemini von Google.
Die Entwicklung in diesem Bereich ist sehr dynamisch, fast jeden Monat gibt es neue Fortschritte.
Wie viel Geld fliesst in der CH in die KI-Forschung/Weiterentwicklung? Würden sie jungen Menschen raten, einen Beruf in diesem Feld zu suchen?
Jürgen Bernard: Vielen Dank für diese beiden Fragen. Ohne die genaue Höhe der Mittel für die Forschung zu kennen (sie teilten sich ja auf diverse Fördergeldgeber auf), nehme ich wahr, dass wir Forschenden in der Schweiz uns glücklicher schätzen dürfen als manche unserer Kolleginnen und Kollegen jenseits der Landesgrenzen. Ich wünsche mir, dass wir in der Schweiz auch im internationalen Austausch und Wettbewerb (weiterhin) wichtige Beiträge zur KI-Forschung und -Entwicklung leisten können.
Dank verschiedener Fördergefässe in der Grundlagen- und anwendungsorientierten Forschung sind (und werden) viele unserer Ergebnisse auch direkt in der Schweiz spürbar und erlebbar, was mir persönlich sehr wichtig ist. Hoffen wir, dass die diskutierten, notwendigen Budgetkürzungen die Schweiz nicht zurückwerfen, weder uns Forschende noch die Gesellschaft. Die Ratschläge zur Berufswahl für junge Menschen (soweit mir das zusteht) möchte ich mit Appell an junge Talente verbinden, sich gemäss ihren Interessen zu entwickeln.
Viele Mentoren sehen gerade darin gute Chancen für Freude und Selbstverwirklichung im Berufsleben. Das schliesst aber Ihre Frage nicht aus: Gerade im Bereich KI eröffnen sich vielfältige spannende Felder, um beruflich mit diesen Technologien in Kontakt zu kommen. Daher möchte ich jungen Talenten eine gewisse Neugierde für KI nahelegen – es gibt sehr spannende Anwendungsfelder und viel zu tun – warum also nicht einen kleinen Teil der Entwicklung dieses Megatrends steuern und mitgestalten?
Nicht zu vergessen ist die Empfehlung, die Resultate von KI stets kritisch zu hinterfragen, sicher eine der wichtigsten Fähigkeiten für die Zukunft – im privaten wie im professionellen Umfeld. Auch hier forschen wir an neuen Methoden.
Können Sie uns etwas über die Energiebilanz eine KI-Anfrage sagen?
Gerd Kortemeyer: Das hängt von der Anfrage ab, aber der Konsens scheint zu sein, dass eine Anfrage bei ChatGPT durchschnittlich 3 Watt-Stunden verbraucht – das ist soviel, wie wenn man eine 30-Watt Glühbirne für sechs Minuten eingeschaltet lässt. Im Vergleich dazu verbraucht eine normale Suchanfrage bei Google ein Zehntel.
Welche App oder SW empfehlen Sie für den privaten Gebrauch?
Grit Wolany: Kommt immer drauf an, was sie machen möchten. Text KIs: ChatGPT, Claude, Google Gemini oder Mistral Chat. Es gibt auch die Webseite poe.com, bei der sie ganz verschiedene KIs testen können (Text, Bild und Sogar Video). Für Übersetzungen DeepL Translate oder ChatGPT. Für Textoptimierung DeepL Write. Bei Bild KI sind Midjourney, Flux, Stable Diffusion oder Firefly von Adobe zu empfehlen. Happy Prompting.
Macht KI dümmer? Ich meine das in dem Sinne, dass Menschen nicht mehr viel selbst überlegen, recherchieren, logisches Denken anwenden sondern viel schneller z.B. bei ChatGPT etwas nachschlagen und sich damit zufriedengeben. -> Wie beeinflusst es unser Denkvermögen/Gehirn etc. (Ähnlich wie mit Rechner; wenn ich jahrelang nur Rechner benutze, leidet mein Kopfrechnen ja daran...)
Stefan Ravizza: Ja, das ist eine berechtigte Herausforderung. Ich denke, wir müssen zunehmend reflektieren, welche Fähigkeiten wir bewusst trainieren wollen. Grundwissen und Fähigkeiten wie Lesen, Schreiben und Rechnen bleiben essenziell, auch wenn wir in einigen Bereichen weniger selbst tun. Vielmehr wird es darauf ankommen, KI-gestützte Antworten kritisch zu hinterfragen und gemeinsam mit der KI Ergebnisse zu entwickeln.
Wir haben beispielsweise eine Erweiterung für eine ChatGPT-ähnliche Anwendung entwickelt, die abhängig von der Fragestellung antwortet. Fakten werden direkt und klar zurückgegeben, während bei kontroversen Themen verschiedene Perspektiven gruppiert widerspiegelt werden. So wird nicht nur eine einzelne Antwort geliefert, sondern ein Spektrum von Meinungen, das zum Nachdenken und Diskutieren anregt. Solche Ansätze könnten helfen, die Denkfähigkeit aktiv zu fördern, statt sie zu schwächen.
Ich möchte mich mit KI vertraut machen. Gibt es einen einfachen „Lehrgang“, wie könnte man das als Laie anstellen?
Grit Wolany: Die Universität Helsinki hat mit «Elements of A.I.» einen guten Basiskurs: https://www.elementsofai.de Der vermittelt gut die Grundlagen.
Man sagt, die KI könne keine Emotionen zeigen. Wenn man nun jedoch die KI mit vielen Beispielen auf Ethik, Moral und Empathie füttert, könnte sie dann mit uns auch so sprechen, dass wir glauben, sie hätte Gefühle?
Gerd Kortemeyer: Mehrere generative KIs simulieren schon jetzt Emotionen in den Antworten; selbst ChatGPT sagt häufiger einmal, dass «ihm ein Fehler leid tut» – was natürlich nicht stimmt, dem System kann nichts leid tun. Generative KIs kommen oft recht menschlich daher, was ich persönlich für äusserst bedenklich halte.
Hallo, Ich wollte fragen kann die KI selbständig einen Film über die Natur kreieren?
Grit Wolany: Ganz selbständig macht die KI das nicht. Sie braucht einen Prompt, also die Eingabeaufforderung. Da können sie ihre gewünschte Szene beschreiben und zusätzliche technische Angaben (Kamerawinkel, Farbigkeit, Stimmung) angeben. Dann geben Video KI 5 bis 10 sek Bewegtbild aus. Wenn sie experimentieren wollen, empfehle ich RunwayML, Luma Labs, Hailuoai.video oder Klingai.com
Es wird immer mehr KI bei Firmen und Dienstleistern eingesetzt. Wie ist das im Gesetzt definiert? Muss deklariert werden das z.B. die Unterstützung nun durch eine KI beantwortet wird? Wie kann ich herausfinden das hinter Dienstleistungen eine KI steckt?
Peter Buchmann: Sie sprechen da einen sehr wichtigen Punkt an: Tatsächlich arbeiten im Hintergrund immer häufiger automatische Entscheidungssysteme, oft basierend auf künstlicher Intelligenz. Die Frage nach der gesetzlichen Regelung ist hochaktuell. In der Schweiz sind diese Systeme bislang noch nicht explizit gesetzlich geregelt.
Es gelten die allgemeinen Gesetze, etwa zum Datenschutz oder zur Gleichbehandlung. Der Bundesrat wird jedoch noch in diesem Jahr bekanntgeben, wie die künftige gesetzliche Regulierung aussehen soll. Die Europäische Union ist hier bereits einen Schritt weiter. Sie hat klare Regeln für automatische Entscheidungssysteme aufgestellt, die nach dem Risikoprinzip funktionieren: Je grösser das Risiko, das mit einem System verbunden ist, desto strenger sind die Auflagen.
Ein konkretes Beispiel: Wenn eine Software bei der Vergabe einer Stelle oder eines Kredits mitentscheidet, muss das klar deklariert werden. Die betroffenen Personen müssen ausserdem die Möglichkeit haben, gegen diese Entscheidung Einsprache zu erheben. Manche Systeme sind in der EU sogar komplett verboten – zum Beispiel soziale Bewertungssysteme, wie sie in China eingesetzt werden, die das Verhalten von Menschen mit Punkten bewerten.»
Gibts es noch Alternativen zu Chatgpt von openai ?
Peter Buchmann: Ja, es gibt mittlerweile mehrere Alternativen zu ChatGPT. Für die Arbeit an Texten sind vor allem Claude von der Firma Anthropic und Gemini von Google zu nennen. Beide Systeme können wie ChatGPT Texte schreiben, Fragen beantworten und bei verschiedenen Aufgaben unterstützen. Eine interessante Alternative ist auch Perplexity.
Das ist in erster Linie eine Suchmaschine, die aber auch wie ein ChatBot funktioniert. Der Vorteil: Perplexity verbindet die Fähigkeiten einer KI mit aktuellen Informationen aus dem Internet.
Ciao a tutti, mich würde der Stromverbrauch für z.B. wenn man einen Song produziert interessieren. Im Voraus besten Dank
Michael Wegmüller: Vielen Dank für die spannende Frage. Generell muss zwischen 2 Schritten unterschieden werden. Einerseits die Energie die gebraucht wird um KI Modelle zu trainieren. Andererseits dann um die KI zu verwenden und neue Songs zu generieren. Zur Generation von Songs gibt es diverse Schätzungen. Grob geschätzt liegt der Verbrauch für einen einzelnen Song im Bereich von 0,05 bis 0,5 kWh – abhängig von Modellgrösse, Länge und Qualität (Quelle).
Das entspricht in etwa dem, wenn man bei der Kaffeemaschiene sich ein Lungo macht. Für das Trainieren der Modelle sieht es anders aus. Hier kommt es darauf an, wie komplex das Modell ist, also wie viele Milliarden Parameter das Modell hat. Man geht davon aus, dass Rechenzentren mit mehreren Tausend Grafikkarten über Wochen Dateninput verarbeiten und die KI trainieren. Für GPT-4 wird geschätzt, dass zwischen 50-60 GWh (Giga-Watt-Stunden) verbraucht wurden. Das entspricht in etwa dem Konsum von 150-200 Haushalten im Jahr.
Kann KI auch Fragen, resp. Rückfragen stellen?
Stefan Ravizza: Ja, KI kann durchaus Fragen oder Rückfragen stellen, und das ist in vielen Fällen sehr hilfreich. Zum Beispiel, wenn man zusammen mit einer KI einen Text erstellen möchte, aber unsicher ist, welche Informationen man liefern sollte. In solchen Fällen kann man die KI bitten, die wichtigsten Fragen zu stellen, um gezielt zu den relevanten Informationen zu gelangen. So entsteht effizient ein guter und passgenauer Text, der die eigenen Anforderungen erfüllt.
Guten Abend, können Sie Anfängerkurse zu KI für Privatpersonen empfehlen? Es ist nicht ganz einfach, solche zu finden, wenn man keine Lehrperson ist oder nicht mehr im Berufsleben ist. Besten Dank.
Grit Wolany: Ein guter Basiskurs ist https://www.elementsofai.de Das SRF hat auch ein spannendes Videodossier zu KI (in der Schule) zusammengestellt: https://www.srf.ch/sendungen/school/medien-und-informatik/ki-im-unterricht-kuenstliche-intelligenz-ein-videodossier-fuer-die-schule Aber hey, man lernt ja nie aus. :-) Wenn es dann konkreter wird, gibt es natürlich viele Youtube Videos zu diversen Themen oder die Plattform Linkedin Learning. Viel Spass beim Einstieg. Es ist ein faszinierendes Thema.
Wenn ich bei ChatGPT eine Anfrage mache, was geschieht später mit den Daten, welche ich eingegeben habe?
Stefan Ravizza: Wenn Sie bei ChatGPT eine Anfrage machen, werden die eingegebenen Daten von OpenAI verarbeitet, um die Antwort zu generieren. Bei der Nutzung über die öffentliche Weboberfläche können diese Daten gespeichert und für die Verbesserung des Modells verwendet werden. Es ist wichtig zu beachten, dass diese Daten auf Servern in den USA verarbeitet werden, was aus Datenschutzsicht relevant sein kann.
Falls Sie vertrauliche Informationen eingeben, sollten Sie vorsichtig sein, da diese nicht speziell geschützt oder gelöscht werden, es sei denn, Sie nutzen kostenpflichtige oder speziell konfigurierte Versionen wie „ChatGPT Enterprise“, die eine höhere Datensicherheit bieten.
Wird KI sich eines Tages selbst weiter entwickeln können – also ohne menschliches Zutun, d.h. ohne dass KI «gefüttert» wird? ...und uns Menschen somit irgendwann «beherrschen»? Vielen Dank für Ihre Einschätzung/Antwort!
Gerd Kortemeyer: Generative KI füttert sich schon jetzt selbst. Datensätze für Training werden häufig synthetisch mit bestimmten gewünschten Eigenschaften durch KI erzeugt. Auch werden häufig Programme, die im KI-Bereich eingesetzt werden, von KI geschrieben.
Das führt aber nicht gleich zur Beherrschung der Menschen, denn die KI hat keine Ambitionen oder sonstigen Gefühle, die Machthunger erzeugen. Ob sich die Menschen von KI beherrschen lassen liegt an den Menschen, nicht an der KI.
Weiss die KI wo sie gerade ist? Weiss die KI wann sie erschaffen wurde?
Peter Buchmann: Nein, Künstliche Intelligenz weiss nichts über sich selbst. KI ist ein Oberbegriff für verschiedene Technologien. Hinter ChatGPT und anderen Chatbots stecken sogenannte «Large Language Models» – grosse Sprachmodelle. Was nach aussen wie ein Gespräch wirkt, ist im Kern nichts anderes als Statistik: Wenn ChatGPT einen Satz schreibt, berechnet die Software für jede Position, welches Wort als nächstes die grösste Wahrscheinlichkeit hat.
Diese Berechnungen hat die Software während des Trainings gelernt. Dabei wurden ihr riesige Mengen an Texten in verschiedenen Sprachen gezeigt. Das Sprachmodell hat diese Texte zwar «verinnerlicht», versteht sie aber nicht wirklich. Es erkennt Muster und statistische Zusammenhänge, hat aber kein echtes Verständnis für die Bedeutung.
Deshalb haben diese Chatbots auch kein Bewusstsein und wissen nicht, wer oder wo sie sind. Sie können zwar überzeugend über sich selbst sprechen, weil sie aus Texten gelernt haben, wie man solche Gespräche führt – aber sie haben kein echtes Selbstbewusstsein oder Wissen über ihre eigene Existenz.
Wie oder mit welchem Tool/App kann ich ein Avatar wie AVA erstellen?
Michael Wegmüller: Es gibt diverse Avatar-Tools, die mittlerweile ziemlich einfach aufzusetzen und zu benutzen sind. Bei den Avataren können diverse Profile gewählt werden. Folgende Seite gibt einen guten Überblick über aktuelle Modelle & Anbieter (https://www.vidyard.com/blog/best-ai-avatar-generator/). AVA wurde jedoch speziell für die SRF KI Woche in einem Projekt erstellt, trainiert und animiert. Weitere Details wie es (das System AVA) erstellt wurde sind hier zu finden: https://www.srf.ch/play/tv/gesichter--geschichten/video/wie-ist-ava-entstanden?urn=urn:srf:video:c78a2e7e-dd4d-40ce-a499-be38c8cbccef.
Kann man nicht ganz einfach Text, Bilder, Musik und Videos digital signieren um ein Original von einem Fake zu unterscheiden? Wird das schon irgendwo gemacht?
Grit Wolany: Ja, es gibt da verschiedene Bemühungen. Die https://contentcredentials.org von Adobe, Leica, Nikon, Microsoft und anderen Partner. Und Google hat vor kurzem SynthID präsentiert: https://deepmind.google/discover/blog/watermarking-ai-generated-text-and-video-with-synthid/
Guten Abend! Die Vorzüge von KI sind unbestritten. Wie aber wird KI eingesetzt, um kriminell genutzte KI aufzudecken?
Michael Wegmüller: Absolut! Wie bei vielem im kriminellen Umfeld geht es Zug um Zug. Ein neues Verfahren wird entwickelt und dann wieder unschädlich gemacht. Das ist bei der KI wohl nicht anders. Die kriminelle Energie bringt immer wieder neue Ansätze, welche verfolgt werden um Straftaten zu begehen. KI kann und wird hier auch eingesetzt. Sicherlich reaktiv um Sachverhalte aufzuklären und zu analysieren, aber auch in Echtzeit um Bertrugsversuche zu stoppen. Hier entsteht aber ein Disput.
KI funktioniert über Wahrscheinlichkeiten. Es gibt also nie eine 100% Sicherheit wenn man mit KI arbeitet. Es kommt zu Diskriminierungen oder zu sogenannten «False Positive». Das heisst Personen werden Verdächtigt, welche nichts falsches gemacht haben. Ein spannendes Beispiel ist die Einschätzung von KI auf die kriminelle Energie und Aggressivität von in Verdacht stehenden Personen bei Polizeieinsätzen. Ist ein solcher Eingriff zum Schutz nun gerechtfertigt oder nicht. Hier divergieren die Meinungen und wir brauchen mehr Klarheit vom Regulator wo und wie die Grenzen gezogen werden sollen – von dem was Erlaubt ist und was nicht.
Der EU AI Act verfolgt entsprechend ein risikobasierter Ansatz – je mehr Risiko desto mehr Überprüfung und Kontrolle der KI ist nötig. Solche Systeme müssen entsprechend permanent überwacht werden und kontinuierlich nachjustiert (fine tuning) werden.
Wie kann man eine Ki entwickeln
Gerd Kortemeyer: Das hängt vom Anwendungsgebiet ab, und es gibt keine generelle Antwort. Der erste Fragen sind immer: was soll die KI leisten, welches Problem soll gelöst werden? Über die letzten 60 Jahre wurden die verschiedensten KI-Technologien entwickelt – Generative KI ist im Moment gerade sehr populär geworden, aber je nach Problem sind andere KI-Technologien effizienter.
Kann ki das Bankkonto ausspionieren oder auch Zahlungen ausführen?
Jürg Tschirren: Es gibt immer Szenarien, bei denen so etwas theoretisch vorstellbar, aber doch recht unwahrscheinlich ist. Der Cybersecurity-Experte Bruce Schneier spricht dabei gerne von sogenannten «Movie Threat Plots» – also spektakulären Angriffen, wie sie in Filmen vorkommen. Bis heute ist mir aber kein entsprechender Vorfall bekannt, bei dem KI für die von Ihnen beschriebenen Zwecke eingesetzt wurde. Das heisst allerdings nicht, dass der Einsatz von KI für Cyberkriminelle nicht trotzdem attraktiv sein kann: So ist es ihnen z.B. schon gelungen, mit Hilfe von künstlicher Intelligenz Stimmprofile zu erstellen und für Betrugsversuche zu nutzen, bei denen einer Person etwa vorgemacht wurde, ein:e Verwandte befinde sich in Schwierigkeiten und brauche dringend eine Geld-Überweisung. Solche Beispiele scheinen mir die weit realistischeren, wenn es um KI und Cyberkriminalität geht.
Schreiben ist keine Kompetenz mehr, die es zu lernen gilt. Denken bald auch nicht mehr. Welche Kompetenzen werden im 21 Jahrhundert gebraucht? In was sollen wir investieren. KI wird unser Denken und Handeln immer mehr bestimmen. Welchen Rat gebe ich meinem 9 Jährigen Sohn?
Thomas Merz: Da bin ich natürlich nicht einverstanden. Lernen, etwas wirklich Verstehen, Denken wird erst recht zentral sein. Wir werden Künstliche Intelligenz weder sinnvoll nutzen, noch ihre Ergebnisse kritisch einordnen können, wenn wir Lernen, Wissen, Können, Denken nicht weiterhin sorgfältig fördern.
Und die Sprache gehört hier natürlich dazu: Lesen und Schreiben sind zentral, um etwas zu lernen. Wir können nur einen Text verfassen, wenn wir eine Sache wirklich verstanden haben. Und dies ist wieder Voraussetzung, um auch Computer generierte Texte einzuschätzen und zu verbessern.
Meinem 9jährigen Sohn würde ich daher raten, zu lesen, zu schreiben ... und vor allem zu lernen. Lernen gehört zutiefst zum Menschsein und fördert auch Selbstbewusstsein. Ich würde ihm aber auch empfehlen, zu singen, zu tanzen, zu spielen, mit seinen Händen etwas herzustellen ... würde ihm empfehlen, sich mit seinen Träumen und Wünschen zu befassen, seine Gefühle wahrzunehmen, mit Freude und Traurigkeit umzugehen, trotz Fehlern und Misserfolgen nicht aufzugeben ... und vor allem Freundschaften zu pflegen.
Und bei all dem sollen sicher dann auch digitale Medien ihren Platz haben, auch die Auseinandersetzung mit KI und ihre Nutzung.
Es wird wenig darüber berichtet, wieviel Rechenleistung der Einsatz von KI benötigt. Ist es wirklich so, dass nur das Trainieren des Modells rechenintensiv ist und nicht dessen Verwendung? Würde ein verbreiteter Einsatz von KI in Zukunft nicht ökologische Probleme verursachen?
Jürg Tschirren: Das Trainieren eines Modell kann tatsächlich sehr energieintensiv sein – zum Beispiel bei einem grossen Sprachmodell wie ChatGPT, das mit sehr vielen Daten trainiert wird. Allerdings ist das Training eines solchen Modells auch einmal abgeschlossen, während es im Praxis-Einsatz mit jeder Antwort erneut Energie verbraucht. Auf lange Sicht wird der Energieverbrauch bei einem vielgenutzten KI-Modell im Einsatz den des Trainings also übersteigen.
Es ist wird darum kontrovers diskutiert, ob KI z.B. die Funktionen einer Internet-Suchmaschine übernehmen soll, wie man das bei einigen Unternehmen plant. Für die Beantwortung einer Frage verbraucht die KI nämlich bis zu 30 Mal mehr Energie als eine herkömmliche Suchmaschine, so jedenfalls die Schätzung. Je nachdem, welche KI-Systeme sich in der Zukunft durchsetzen, könnte das also tatsächlich ökologische Probleme verursachen.
Andererseits muss man auch sagen, dass KI dabei helfen kann, Energie zu sparen: Mit relativ kleinen KI-Systemen, die selbst nicht so viel Energie verbrauchen, aber etwa dabei helfen können, Industrie-Systeme effizienter zu betreiben.
Hallo. Ich (Jg.1948) frage mich wie ich am besten in die Thematik einsteige. Welches Programm. Evtl. Literatur. Danke
Jürgen Bernard: Hallo auch, danke für Ihre Frage zu einem Problem, das Sie mit vielen Menschen teilen. Und auch diejenigen Menschen, die sich bereits mit dem Thema beschäftigt haben, standen vor dem gleichen Problem. Eine Empfehlung wäre hier die Herangehensweise: «learning by doing»: also einfach ausprobieren und eigene Erfahrungen sammeln. Viele haben sich z.B. bei ChatGPT oder Phind registriert, und kurz darauf eine erste eigene aktive Kommunikation mit der KI des entsprechenden Systems geführt.
Starten Sie gerne mit Fragen zu Themen die Sie interessieren und über die Sie sich gut auskennen, wie z.B. «Wer war Astrid Lindgren», oder «Welches Auto wurde zuerst erfunden: der Ford Mustang oder der Mercedes Silberpfeil», oder «Wo war das Endspiel der Fussball Weltmeisterschaft 1954». Und weiter: «Wer hat in diesem Finale das entscheidende Tor geschossen?», oder «War es zu erwarten, dass Ungarn das Finale verliert?».
Viele Menschen nutzen die Stärken der KI, um sich Tabellen ausgeben zu lassen: «Erstelle eine Tabelle der 10 lebenswertesten Städte der Welt, mit Namen, Bevölkerung, und Bewertungen für fünf wichtige Merkmale der Lebensqualität». Auch das Zusammenfassen grosser Textmengen durch die KI (z.B. ChatGPT) wird von vielen Menschen als erstaunlich und hilfreich wahrgenommen: «Fasse die Geschichte der USA in 20 Aspekten zusammen. Nutze folgende Wikipedia Seite als primäre Quelle: https://de.wikipedia.org/wiki/Geschichte_der_Vereinigten_Staaten » Bitte geben Sie keine persönlichen Daten über sich selbst ein, sondern führen Sie nur sachliche Konversationen, um zu vermeiden, dass persönliche Daten durch die Konversation aus ihren Händen geraten.
Es klingt etwas deprimierend und entwürdigend, aber kann KI beispielsweise helfen in Seniorenheimen gegen Einsamkeit, ein Gesprächspartner für Senioren, der immer da ist? Ist das schon Realität?
Stefan Ravizza: KI-gestützte Lösungen gegen Einsamkeit in Seniorenheimen sind besonders in Ländern wie Japan und auch der USA verbreitet. Japan setzt beispielsweise Roboter wie «Pepper» gezielt ein, um ältere Menschen zu unterstützen. In den USA und teils Europa kommen vermehrt sprachgesteuerte Assistenten und spezialisierte KI-Tools zum Einsatz, die sowohl Unterhaltung bieten als auch soziale Interaktion fördern.
Welches sind die wichtigsten Arbeitsschritte, die Unternehmen wie OpenAI beim kreieren einer Software wie ChatGPT durchlaufen?
Peter Buchmann: Die Entwicklung eines Chatbots wie ChatGPT, Claude oder Gemini durchläuft mehrere Phasen. Am Anfang steht die Vorbereitung der Trainingsdaten: Grosse Mengen an Texten etwa aus Zeitungen, Büchern und Diskussionsforen werden gesammelt und aufbereitet. Zunehmend werden auch andere Quellen wie Bilder oder Videos einbezogen. Mit diesen Daten wird dann ein Sprachmodell trainiert.
Vereinfacht gesagt lernt die Software dabei Muster: Welche Wörter folgen aufeinander? In welchen Kontexten werden bestimmte Begriffe verwendet? Das Modell lernt so, Sprache selbst zu generieren. Nach diesem automatischen Training folgt eine wichtige Phase der menschlichen Feinabstimmung: Hier bringen Entwicklerinnen und Entwickler dem Modell bei, bestimmte ethische Grenzen einzuhalten – zum Beispiel keine Anleitungen für Waffen zu erstellen oder keine diskriminierenden Aussagen zu machen.
Ich möchte meinen Mitarbeitenden gerne eine Weiterbildung anbieten zum Einsatz von KI Tools im Büroalltag. Wie findet man, einen/eine KI Rxperte/in innder Region Basel?
Stefan Ravizza: Es gibt dazu verschiedene Unternehmen, welche hierzu helfen können und es hängt stark von den genauen Erwartungen ab, was am besten geeignet ist. Wir selben bieten auch solche Weiterbildungen an und daher wohl am einfachsten einen Experten von dieser Runde per LinkedIn anschreiben.
Hallo Zusammen Wie weiss Chatgpt ob „ihre“ antwort brauchbar ist? Ich kann auf eine Antwort ja nicht reagieren… Sprich wie lernt den chagpt dazu, wenn ich nicht auf die antworten reagieren kann?
Michael Wegmüller: Die Brauchbarkeit der Antworten wird auf verschiedene Weise sichergestellt, auch wenn direktes Feedback von Nutzer:innen nicht immer / mehr gegeben werden kann. In den frühen Phasen von ChatGPT wurde etwa mit Einverständnis der Nutzer:innen auf Log-Dateien und Interaktionen zurückgegriffen, um das Modell gezielt durch sogenannte Feinabstimmung zu verbessern. Heute durchlaufen neue Modelle umfassende Tests und Verifizierungsverfahren, bei denen Antworten auf verschiedene Szenarien geprüft und bewertet werden. Darüber hinaus nutzt das Modell Wahrscheinlichkeitsbewertungen, um die relevantesten Antworten auszuwählen, und profitiert von regelmässigen Updates, die auf den Ergebnissen solcher Tests und Fortschritten in der KI-Forschung basieren.
Dadurch wird auch ohne direktes Nutzer:innen-Feedback eine kontinuierliche Verbesserung und Qualitätssicherung gewährleistet. Eine weiter Empfehlung ist aber nicht nur auf Verbesserungen im Modell zu “warten”, sondern auch der Input des Nutzers zu verbessern. Dieses so genannte Prompt Engineering ist zentral für eine qualitativ hochwertige Antwort zu erstellen. Dabei gibt es viele Tipps & Tricks, die Tools wie ChatGPT effektiver zu nutzen.
Hier gab es viele Fragen dazu, wie KI supranational behandelt werden kann. Meine These: Das wird nicht möglich sein. Siehe Klimakrise. Und wir werden vermutlich blindlings/ignorant in ein «KI-Chaos» laufen. Sehen Sie das auch so? Frage geht an alle Experten.
Jürg Tschirren: Ich denke, das Beispiel Klimakrise zeigt gut auf, wie schwer es solche supranationalen Lösungsversuche haben. Ein anderes Beispiel ist eine globale Mindeststeuer, bei der wirtschaftliche Eigeninteressen verschiedener Staaten oder Blöcke eine Einigung verhindern. Ich fürchte, das wird auch bei der Frage nicht anders sein, wie der Einsatz von KI reguliert werden soll.
Auch hier stehen sich die Interessen einzelner Staaten gegenüber, die z.B. fürchten, mit zu strengen Regeln die eigene KI-Industrie zu behindern (oder noch bedenklicher: sich nicht die Möglichkeit nehmen wollen, KI auch militärisch einzusetzen ).
Frage gerne vor allem an Frau Grit Wolany. Wie viel Angst gibt es bei Künstler:innen, warum hat KI ausgerechnet in der Kreativarbeit so viel Einfluss erlangt, hätte man sich nicht auf Administration etc. konzentrieren sollen. Wir tut es irgendwie ein bisschen weh, dass gerade Kunst/Kreativität so «ersetzlich» ist. Oder sehen sie das anders? Vielen Dank
Grit Wolany: Ich glaube, es kommt immer darauf an. Zum einen haben wir eine Vielzahl an mediale Kanälen, die nach ständigem «Grundrauschen», also neuen Inhalten verlangen. Diese werden dann «fast food mässig» schnell konsumiert und meist sofort wieder vergessen. Hier wird KI in Zukunft sicherlich vermehrt zum Einsatz kommen, da man schneller und billiger produzieren kann.
Bereits vor einigen Jahren setzte durch die zunehmende Digitalisierung eine «Demokratisierung der Tools» ein. Egal ob Film- oder Fotoequipment, Hard- und Software – was früher für Laien unbezahlbar war, ist mittlerweile auf Smartphones und in Apps transferiert und oft gratis oder sehr günstig verfügbar. Durch die Systematisierung von Prozessen ist es mittlerweile viel einfacher, kreative Arbeiten umzusetzen. KI ist da also quasi nur ein weiterer Schritt auf diesem Weg. Aber das heisst nicht, dass kreative Arbeiten verschwinden.
Ich hoffe, dass Kreative KI auf smarte und überraschende Weise in ihre Prozesse integrieren und den oft mittelmässigen Output durch ihr Wissen und Können interessant weiterentwickeln. Wichtig ist aber definitiv die Klärung der rechtlichen Fragen. Und ich glaube, dass die ganzen künstlichen Outputs auch eine grosse Gegenbewegung hin zu «echten» handmade Kreationen auslösen und es auch im Bereich Fotografie wieder zu neue Impulse im Bezug auf Authentizität und Bildsprache kommen wird. Es bleibt spannend.
Ich habe schon mehrere Anläufe (über Jahre hinweg) ein Spracherkennung für Schweizerdeutsch zu finden – immer ohne Erfolg. Was wird verwendet?
Michael Wegmüller: Generell ist zu sagen, dass der Fortschritt der Sprachmodelle mit «Exotischen» Sprachen wir Schweizerdeutsch in den letzten 6-12 Monaten bemerklich gut ist. Standard-Modelle wie Whisper funktionieren zunehmends besser. Spannend ist auch die Arbeit der Fachhochschule Nordwestschweiz um Prof. Vogel. Unter folgendem Link kann das Modell selbst getestet werden.
Inwiefern ist es bewiesen, dass KI wirklich Produktivitäts-/Effizienzgewinne in Unternehmen bringt – wovon häufig die Rede ist? Und was sind solche Bereiche? Einfaches Beispiel zur Veranschaulichung: Einen Text mit KI schreiben, für welchen man den Prompt doch sehr spezifisch schreiben muss (zeitaufwendig) und danach den Text noch auf die Richtigkeit zu überprüfen und/oder Anpassungen zu machen, dauert doch, provokativ gesagt, ebenso lang wie wenn man den Text gleich selbst schreibt.
Gerd Kortemeyer: Ob KI die Effizienz steigert oder nicht hängt von der Aufgabe und dem Nutzer ab. Generative KI ist zum Beispiel äusserst effizient, um kurze Computerprogramme zu schreiben; die Arbeit von 30 Minuten dauert plötzlich nur noch fünf Minuten – ausser, wenn das Programm Fehler hat, und der Nutzer nicht die Fähigkeiten besitzt, diese zu verstehen und zu beheben; dann kann der Dialog mit dem System schnell zur Zeitverschwendung werden.
KI kann aus Stichworten und Gedankenfragmenten sehr effizient einen flüssigen Text erzeugen, ausser, wenn der Nutzer den Sachverhalt nicht versteht und sich Fehler einschleichen, die dann später anderswo zur Zeitverschwendung führen. KI ist ein Werkzeug, das in fähigen Händen sehr effizient sein kann, aber falsch oder unkundig eingesetzt auch zu grossen Ineffizienzen führen kann.
wie umweltschädlich ist ki, wie hoch ist der energieanteil
Jürg Tschirren: Der aktuelle Anteil der KI am weltweiten Energieverbrauch ist noch nicht besonders hoch. Schätzungen sind sehr schwierig, auch weil sich schlecht abgrenzen lässt, welche Anwendungen als KI-Anwendungen gezählt werden sollen und welche nicht. Aber Expert:innen schätzen den derzeitigen Anteil der Technologie auf etwa 0,2 Prozent des weltweiten Energieverbrauchs. Das ist relativ wenig – auch gemessen daran, wie viel Energie zum Beispiel die Datencenter grosser Technologie-Unternehmen für Zwecke brauchen, die nicht unmittelbar mit KI zu tun haben.
Allerdings: Sollte sich KI tatsächlich in unserem Alltag etablieren und bald an fast jedem Arbeitsplatz Einzug halten, könnte der Energieanteil der KI noch stark wachsen – und dazu auch die Menge von Elektroschrott, die durch Prozessoren, Server und andere KI-Hardware entsteht, die alle zwei bis fünf Jahre ausgetauscht werden.
Schätzungen dazu sind aber noch eimal viel schwieriger, auch weil nicht sicher ist, ob der KI-Hype, den wir seit einiger Zeit erleben, nicht auch wieder in sich zusammenbrechen könnte.
Welches ist die beste kostenlose APP für Iphone KI?
Grit Wolany: Ich denke, es gibt die Möglichkeit ChatGPT oder auch Claude täglich gratis mit einem begrenzten Kontingent an Nachrichten zu nutzen. Von beiden KIs gibt es iPhone Apps. Viel Spass beim ausprobieren.
Wird die menschliche Intelligenz nicht reduziert mit der täglichen Anwendung Ki? Beispiel Beim Schreiben von sms bin ich von Zeit zu Zeit nicht mehr sicher von der richtigen Schreibweise eines Wortes.
Grit Wolany: Der Hirnforscher Lutz Jäncke spricht immer von «use it or lose it». https://www.news.uzh.ch/de/articles/2006/1822.html Also da sollten wir definitiv ein Auge drauf haben und uns immer wieder selbst fordern.
Wann wird KI uns Menschen überlegen sein. Ab wann können sie uns so gut lesen und steuern, dass wir uns selbst zerstören.
Michael Wegmüller: Wir glauben, dass KI noch lange nicht in der Lage sein wird, so umfassend und adaptiv wie ein Mensch zu agieren. Derzeit unterstützt KI uns vor allem bei kleinen, repetitiven und mühsamen Aufgaben. Die Systeme werden zwar zunehmend leistungsfähiger und zuverlässiger, sind jedoch nach wie vor auf spezifische Anwendungsbereiche beschränkt und funktionieren basierend auf klaren Instruktionen.
In einigen Bereichen, wie der Erkennung generierter Inhalte (z. B. Musik, Texte oder Stimmen) oder der schnellen Verarbeitung grosser Datenmengen, sind KI-Systeme den Menschen heute bereits überlegen. Aber das geschieht in einem sehr limitierten Kontext. Bis Systeme so agieren können wie Menschen und sich flexibel an alle möglichen Szenarien anpassen, wird es noch dauern. Prognosen zu diesem Thema sind oft spekulativ und wenig hilfreich. Stattdessen sollten wir uns darauf konzentrieren, die Funktionsweise der Systeme besser zu verstehen, ihre aktuellen Fähigkeiten und Grenzen zu erkennen und sie dort einzusetzen, wo sie echten Mehrwert bieten.
Aktionen wie die SRF KI Woche sind ein wertvoller Beitrag, um das Verständnis für KI zu fördern und ihren gewinnbringenden Einsatz zu ermöglichen.
Guten Abend Weil ja immer mehr Material (Videos & Bilder) von KIs erstellt werden und dann KIs wieder davon lernen, werden dann von KI erstellte Videos und Bilder immer schlechter, weil sie sich immer mehr von der Natur entfernen?
Stefan Ravizza: Das Risiko besteht tatsächlich, wenn KI-Modelle zunehmend von KI-generierten Inhalten lernen, anstatt von echten Daten. Dadurch könnten sie Fehler oder Verzerrungen verstärken und sich schrittweise von realistischen Darstellungen entfernen. Dieses Problem, oft als „Feedback-Loop“ bezeichnet, kann die Qualität beeinträchtigen.
Um dem entgegenzuwirken, achten Entwickler darauf, KI weiterhin mit hochwertigen, realen Daten zu trainieren, um die Verbindung zur Realität aufrechtzuerhalten und die Qualität zu sichern. Dennoch bleibt dies eine Herausforderung, die aktiv überwacht werden sollte.
Wird es mit KI möglich sein dass die sich selbständig machen und die Führung von Menschen übernehmen? KI Diktatur?
Michael Wegmüller: Analog der vorherigen Aussage: Wir glauben, dass KI noch lange nicht in der Lage sein wird, so umfassend und adaptiv wie ein Mensch zu agieren. Derzeit unterstützt KI uns vor allem bei kleinen, repetitiven und mühsamen Aufgaben. Die Systeme werden zwar zunehmend leistungsfähiger und zuverlässiger, sind jedoch nach wie vor auf spezifische Anwendungsbereiche beschränkt und funktionieren basierend auf klaren Instruktionen.
In einigen Bereichen, wie der Erkennung generierter Inhalte (z. B. Musik, Texte oder Stimmen) oder der schnellen Verarbeitung grosser Datenmengen, sind KI-Systeme den Menschen heute bereits überlegen. Aber das geschieht in einem sehr limitierten Kontext. Bis Systeme so agieren können wie Menschen und sich flexibel an alle möglichen Szenarien anpassen, wird es noch dauern. Prognosen zu diesem Thema sind oft spekulativ und wenig hilfreich.
Stattdessen sollten wir uns darauf konzentrieren, die Funktionsweise der Systeme besser zu verstehen, ihre aktuellen Fähigkeiten und Grenzen zu erkennen und sie dort einzusetzen, wo sie echten Mehrwert bieten. Aktionen wie die SRF KI Woche sind ein wertvoller Beitrag, um das Verständnis für KI zu fördern und ihren gewinnbringenden Einsatz zu ermöglichen. Eine KI Diktatur oder etwas ähnliches steht demnach noch sehr lange nicht an.
Herr Merz, Lehrerkollege. Wo sollte die Grenze gezogen werden zwischen SuS zu animieren, mit ChatGPT zu arbeiten und es einzuschränken, da sonst Arbeiten «gefälscht» werden? Haben Sie da Erfahrungen anderer Lehrpersonen?
Thomas Merz: Wir stehen tatsächlich in intensiven Gesprächen mit verschiedenen Lehrpersonen. Ganz grundsätzlich vertreten wir an der PHTG die Haltung, dass Künstliche Intelligenz bleiben wird. Schule und Bildung haben die Aufgabe, Schülerinnen und Schüler auf eine Welt vorzubereiten, in der sie leben werden. Da gehört dazu, dass sie auch Instrumente wie heute ChatGPT kritisch und kompetent nutzen können.
Im Berufsleben werden sie solche Tools auch einsetzen müssen – und daher müssen sie entsprechende Kompetenzen auch vorher erwerben können. Allerdings heisst das nicht, dass die Nutzung solcher Tools ohne Einschränkung möglich sein muss. Aufgaben, die ohne KI zu lösen sind, sind daher nach wie vor legitim.
Es gibt Lehrpersonen, die setzen beispielsweise wieder vermehrt auf mündliche Prüfungen oder auf Texte, die ohne Hilfsmittel geschrieben werden müssen. Wir verfolgen an der Pädagogischen Hochschule Thurgau aber auch intensiv Lernkonzepte, die Schülerinnen und Schüler vor allem motivieren. Dazu gehört beispielsweise pädagogisches Making. Das heisst: Sie bewältigen Herausforderungen, sie lösen Probleme, sie lancieren ein Projekt und werden dadurch motiviert.
Wir lancierten dazu so genannte MakerSpaces, also Lernräume, die in idealer Weise solche Lernformen fördern können. Insgesamt bedeutet das auch: Wichtig ist heute für Schülerinnen und Schüler nicht einfach, immer mehr Wissen anzuhäufen, sondern Lernen zu intensivieren. Das geschieht beispielsweise, wenn sich Schülerinnen und Schüler intensiv mit Problemen befassen und sie dann lösen können.
Gerade die Lernmotivation ist heute zentral. Wenn ich jederzeit zu Tools Zugriff habe, mit denen ich eine Aufgabe lösen kann, lerne ich wohl nur noch, wenn ich weiss, warum ich eigentlich noch lernen soll... Eine genaue «Grenze» lässt sich wohl nicht allgemein ziehen. Jede Lehrperson muss vermutlich selbst entscheiden, wo KI erlaubt ist, wie Schülerinnen und Schüler den Umgang mit KI lernen – und wo eine Einschränkung entsprechender Tools notwendig ist, um etwas zu lernen.
Ich bin Primarlehrer! Müssten wir nicht in der Bildung verpflichtend den Umgang mit KI implizieren, damit die Jugend auf Erkennen derFakenews vorbereitet wird! Denn aufgrund KI Videos könnten ja momentan Kriege ausgelöst werden, denn viral kann es ja innerhalb kürzester Zeit einen Flächenbrand geben!
Gerd Kortemeyer: Die Fähigkeit, Aussagen kritisch zu hinterfragen, und Wahrheit von Unwahrheit zu unterscheiden, wird eine zunehmend wichtige Kompetenz sein, die wir in der Bildung schon früh fördern müssen. Wie kann ich Aussagen nachforschen, was sind verlässliche Quellen? Wie kann ich mich lange genug konzentrieren, einen komplizierten Sachverhalt aus verschiedenen Blickwinkeln zu bewerten?
Das ist nicht generative-KI-spezifisch, sondern gibt es ja schon seit Jahren. Von sozialen Medien wird man mit Fake-News und Halb-Wahrheiten überflutet (schon vor KI!), und viele Menschen lesen und schauen lieber im Sekundentakt TikTok oder Instagram als verantwortungsvollen Journalismus oder fundierte wissenschaftliche Erkenntnisse an. Generative KI ermöglicht es nur, noch schneller und effizienter zu manipulieren.
Wird es in Zukunft möglich sein ,dass wir von Robotern beherrscht werden in einer sogenannten Roboterdiktatur?
Jürg Tschirren: KI, die sich über den Menschen erhebt, ist ein klassisches Science-Fiction-Thema. Sogar bevor es Computer gab, wurde schon davor gewarnt, dass Maschinen einst den Menschen versklaven könnten. Von solchen Schreckens-Szenarien sind wir heute und hoffentlich auch in Zukunft aber noch weit entfernt.
Zwar gibt es unter angesehenen KI-Forscher:innen Stimmen, die es für möglich halten, dass KI dem Menschen einst überlegen sein könnte und ihm dann feindlich oder zumindest indifferent gegenübersteht. Das könnte aber höchstens einer sogenannten künstlichen allgemeinen Intelligenz gelingen, deren Intelligenz sich tatsächlich mit der eines Menschen vergleichen lässt und die mit jeder Aufgabe zurechtkommt, egal ob sie zuvor darauf trainiert wurde oder nicht.
Die KI-Systeme, die wir heute haben, sind weit davon entfernt und viele Forscher:innen glauben, dass es so etwas nie geben wird oder wenn, dann erst in hunderten von Jahren. Trotzdem wird seit den 1960er Jahren behauptet, ein entsprechender Durchbruch stehe kurz bevor – erst letzt Woche sagte ihn Sam Altman, der Chef von OpenAI (der Firma hinter ChatGPT), etwa für nächstes Jahr voraus. Ich würde solche Aussagen allerdings nicht zu ernst nehmen und eher als PR-Manöver für die eigene Technologie sehen.
„FAKE“ in Reinkultur: warum muss von „künstlicher“ „Inteligenz“ gesprochen werden, wenn es sich doch nur um ganz gewöhnliche „KONSERVEN – IMITATION“ handelt. Plagiatives Verhalten wird mindestens geritzt, – hat die heutige Gesellschaft das nötige?
Grit Wolany: Technologie ist immer ein Spiegel unserer Gesellschaft. Die Entwicklung hin zu schnellem «Content» hat durch Internet und vor allem Social Media deutlich zugenommen. Alle sehen und lesen das gleiche. Wir sehen eine Homogenisierung der Sehgewohnheiten und der Outputs. Von daher ist Automatisierung durch KI quasi ein Symptom dieser Entwicklung. Good reads dazu: https://www.alexmurrell.co.uk/articles/the-age-of-average und https://www.ft.com/content/6fb1602d-a08b-4a8c-bac0-047b7d64aba5
Kann K I auch nach meiner Vorschlag ein Apps entwickeln?
Michael Wegmüller: Spannende Frage! Tatsächlich können neueste KI-Modelle wie Anthropic Claude (https://support.anthropic.com/en/articles/9487310-what-are-artifacts-and-how-do-i-use-them) mit der Artifacts Funktion bereits kompletten Code für eine App entwickeln, diese sogar eigenständig korrigieren und optimieren. Die erstellten Apps funktionieren grundsätzlich, allerdings müssen sie iterative entwickelt und weiter verbessert werden.
Ein entscheidender Punkt ist dabei der Input: Je klarer und präziser beschrieben wird, wie die App funktionieren soll und welche Aufgaben sie übernehmen soll, desto besser wird das Ergebnis. Diese Lösungen eignen sich für Pilotprojekte, sind aber für den produktiven Einsatz oft noch nicht genügend ausgereift. KI kann also heute schon Apps nach Ihren Vorschlägen entwickeln – hat aber noch viele Einschränkungen, die eingeplant werden müssen.
Guten Abend Und ein grosses Kompliment für das interessante Programm, rund um KI. Fragen hätte ich gleich mehrere. 1. Wie sieht es mit dem Urheberrecht aus, bezüglich von KI generiertem Output? 2. kann ein Nutzer Urheber von generiertem Output sein? 3. Wer haftet, wenn von KI generierte Ergebnisse Schäden verursachen? Herzlichen Dank im Voraus für Ihre Antworten.
Jürg Tschirren: Alles sehr interessante Fragen – und alle meines Wissens (ich bin allerdings kein Jurist) noch weitgehend ungeklärt. Was die Frage nach dem Urheberrecht angeht laufen weltweit einige Klagen gegen KI-Unternehmen, die vielleicht bald Klärung bringen. Es ist kaum bestritten, dass sich im Trainingsmaterial zum Beispiel grosser Sprachmodelle (KI wie ChatGPT, die Texte schreiben kann) oder auch von KI-Musikgeneratoren (z.B. Suno) oder -Bildegneratoren (z.B. Midjourney) auch urheberrechtlich geschütztes Material befunden hat.
Die Frage ist allerdings, ob das bereits eine Verletzung des Urheberrechts ist – auch ein Mensch kann sich ja von Texten, Songs oder Bildern inspirieren lassen und dann selber Material erstellen, dass an diese Vorbilder erinnert. KI liefert (ausser in ganz seltenen Fällen) keine 1:1 Kopien des im Training gelernten Materials, sondern «verwurstet» diese Trainingsdaten zu etwas neuem.
Ich vermisse das Thema:Was kann KI im medizinischen, bzw.chirurgischen Bereich
Gerd Kortemeyer: Es gibt inzwischen mehrere Anwendungen in der medizinischen Bildanalyse, zum Beispiel das rasche Vorsortieren von Röntgenbildern. In der angesprochenen Chirurgie kann KI bei der Planung und Risikoanalyse von Eingriffen helfen.
Darüber hinaus gab es schon seit längerem Expertensysteme, die durch die neueren, generativen KI-Technologien nochmals effizienter geworden sind; ein Beispiel hier ist das von der EPFL entwickelte Meditron, welches mit riesigen Datensätzen medizinischer Fach- und Forschungsliteratur trainiert wurde. Dies sind aber immer alles noch Werkzeuge, die in die Hände von medizinischen Spezialisten und Spezialistinnen gehören. «Dr. ChatGPT» ist genauso gefährlich wie «Dr. Google» war.
Wie verändert KI die Coachingszene? Warum braucht es weiterhin menschliche Coach es?
Michael Wegmüller: Spannende Frage. Ich glaube für die meisten Menschen ist es noch «komisch» mit KI zu sprechen, geschweige denn ein Coaching-Gespräch zu führen. Ich gehe aber davon aus, dass sich diese Akzeptanz in den nächsten Jahren erhöhen wird und es so normal ist mit KI zu sprechen und sich auszutauschen, wie mit der Familie oder den besten Freunden übers Telefon.
Entsprechend kann mit KI auch Coaching-ähnliche Gespräche «simulieren» oder generieren. Dazu braucht es einen guten Prompt und aktuell viel Offenheit und Vertrauen des Nutzers an die Sicherheit der Tools. Es liegt mir fern die Coaching-Gesprächsführung zu bewerten – aber es ist eine Interaktion mit einem System, das einem allenfalls zur Reflexion bringen kann, das Best Practices teilen kann, sofern gewünscht und das viel Zeit hat zum zuhören und zureden.
Ich bin überzeugt, dass dies für einige Menschen einen positiven Einfluss hat und sie weiter bringt. In einem Feld mit so persönlichen Daten und Informationen bleibt es aber jedem Menschen selbst überlassen ob sie/er das möchte und gut findet. Ich könnte mir ein Modell vorstellen, in welchem die KI Hand in Hand mit dem menschlichen Coach arbeitet um Ziele oder Tägliche Erinnerungen oder Übungen auszuführen. Es gibt aber bereits diverse Angebote für KI-Coaches, welche auf wissenschaftlicher Basis einen Mehrwert generieren.
Weshalb um alles in der Welt hält man stur an dem Begriff: „Künstliche Intelligenz“ fest? Ich würde diese beiden Wörter als „Unwörter des Jahres 2024“ bezeichnen. Der Output ist nichts anderes als eine „blitzschnelle Auswertung einmal gespeicherter Daten“, verbunden mit blitzschnellem Abgleichen dieser Daten. Mit Intelligenz hat dies nichts zu tun! Alle ausgewerteten Daten wurden vorgängig einmal erfasst.
Jürg Tschirren: Der amerikanische Informatiker John McCarthy hat den Begriff «künstliche Intelligenz» Mitte der 1950er-Jahre geprägt – und schon damals wurde kritisiert, dass die Verwendung von «Intelligenz» in dieser Hinsicht irreführend sei. Auch heute noch ist «künstliche Intelligenz» wohl eher als ein Marketingversprechen zu verstehen denn als genaue Beschreibung der Funktionsweise solcher Systeme.
Fachleute sprechen darum lieber von «Machine Learning» oder ähnlichem als von KI. Der italienische Informatiker und ehemalige Parlamentarier Stefano Quintarelli hat auch einmal – halb im Ernst – vorgeschlagen, man sollte statt von KI besser von SALAMI sprechen: von «Systematic Approaches to Learning Algorithms and Machine Inferences».
Das würde nicht nur die Technologie an sich besser beschreiben, man würde nicht mehr fragen: «Wie mächtig ist diese KI?», sondern «Wie mächtig ist diese SALAMI» – und dem ganzen so den Anschein nehmen, tatsächlich etwas mit der Art von Intelligenz zu tun zu haben, wie wir Menschen sie haben.
Lohnt es sich heute noch programmieren zu lernen?
Stefan Ravizza: Ja, aus meiner Sicht lohnt es sich weiterhin, programmieren zu lernen. Auch wenn KI zunehmend Programmieraufgaben automatisieren kann, bleibt das Verständnis von Programmierung essenziell, um KI-Systeme zu nutzen, zu steuern und zu verbessern.
Programmieren fördert zudem logisches Denken und Problemlösungsfähigkeiten, die in vielen Bereichen gefragt sind. Selbst wenn KI bei der Codierung hilft, kann menschliches Wissen sehr wertvoll sein, um Anforderungen zu definieren, Code zu überprüfen und kreative Lösungen zu entwickeln.
KI wird häufig auch im Rahmen der digitalen Transformation adressiert und vorangetrieben. Wie kann die Wirkungsmessung bzw. die Messung des Nutzens effektiv gemessen werden?
Michael Wegmüller: Dies ist eine sehr gute & relevante Frage – aber leider eine, die nicht einfach beantwortet werden kann. Die Herausforderung liegt darin, dass es nicht einfach ist, die Resultate von KI einfach, genau und akkurat zu messen. Teilweise fehlen die Systeme oder Daten um die Verbesserungen effektiv messen zu können. Unternehmen und Verwaltungen investieren aktuell viel in die Informatik-Infrastruktur und entsprechen gehen wir davon aus, dass wir immer mehr und bessere Daten für die Effekt-Messung zur Verfügung haben werden.
Meistens besteht aber das Problem darin, dass der Effekt nicht genau Zugeordnet werden kann – sprich, es kann nicht genau gesagt werden, ob der Effekt ausschliesslich infolge KI oder auch durch andere Faktoren (wie Volkswirtschaftliche Veränderungen, Geopolitische Ereignisse, usw.) beeinflusst wurde. Das macht die Messung der Resultate nicht einfach.
Generell empfehle ich für jeden Einsatz von KI im Vorfeld so genau wie möglich zu klären, wie die Wert-Messung erfolgen soll, welche Daten dafür gebraucht & erfasst werden müssen, und schliesslich wie die Analyse und Schlüsse gezogen werden. Es gibt also noch viel Potential um die Messung der effektiven Wirkung von KI zu erhöhen.
Von welchen Personen werden ursprünglich Metadaten zu den Bilddateien hinzugefügt, die zum „Trainieren“ von Bild-generierenden KIs wie „Stable Diffusion“ verwendet werden? (z.B. die Informationen „Gemälde“, „Sonnenblumen“, „gelb“, „Van Gogh“ zu einem Bild sunflowers.jpg)
Grit Wolany: Vor einigen Jahren haben Universitäten und Firmen oft mit Clickworkern aus Billiglohnländern gearbeitet. Mittlerweile gibt es KI Programme, die das übernehmen. Z.B. CLIP von Open AI
Ich finde es immer spannend, welch grosse Aufregung herrscht und der Mensch sofort das Bedürfniss hat alles zu regulieren und zu kontrollieren. Das ist und war bei jeder neuen grösseren technologischen Entwicklung so. Da ich selber KI-Entwickler bin, sehe ich die zu starke Regulierung eher als Hindernis. Trotz des EU-Gesetztes zur KI, wird KI auch zu schädlichen Zwecken eingesetzt (werden). So wurde z.B. die militärische Anwendung vom Gesetz ausgeschlossen. Ich sehe die Entwicklung so, dass sich das nicht aufhalten lässt. Es wird wie bei anderen Technologien sein, dass sie für beides genutzt wird und sich so eine gesunde Balance ausbilden wird. Wie sehen Sie das?
Thomas Merz: Ich masse mir hier natürlich nicht an, in dieser Antwort alle Aspekte nennen zu können, die hier massgeblich sind. Wenn Sie KI-Entwickler sind, kann ich gut nachvollziehen, dass Sie Regulierung vorwiegend als Hindernis sehen. Umgekehrt sind wir heute natürlich in einer Situation, in der Technologie immer mächtiger wird. Bereits mit dem Internet wurde es möglich, dass man mit minimalsten Mitteln eine Information (oder eben Falschinformation, Verleumdung usw.) fast kostenlos auf der ganzen Welt verbreiten kann. Künstliche Intelligenz wird noch mächtiger.
Dazu kommt, dass Digitalisierung bereits in den letzten Jahren unseren Alltag sehr rasch sehr stark verändert hat. Das macht vielen Angst, und viele spüren auch direkt Nachteile dieser Veränderungen. Oder die Technologie wird für Manipulation oder Betrug genutzt. Dass eine Technologie sinnvoll eingesetzt wird, um unsere Lebensqualität zu fördern, ist keineswegs selbstverständlich. Noch sind wir daran, ethische, philosophische, soziale, pädagogische oder juristische Fragen im Zusammenhang mit der Nutzung von Internet-Anwendungen zu klären. KI bringt hier noch einmal eine Reihe zusätzlicher Herausforderungen. Klar: Könnten wir uns darauf verlassen, dass KI-Anwendungen genutzt werden, um Lebensqualität für alle zu fördern, wären rechtliche Einschränkungen unnötig. Dieses Vertrauen fehlt ganz offensichtlich. Also versucht man, dies möglichst mit gesetzlichen Regelungen zu gewährleisten.
Allerdings sind Ihre Überlegungen natürlich gerechtfertigt: Es stellt sich die Frage, inwiefern die entsprechende Gesetze tatsächlich gewährleisten können, dass die Technologie sinnvoll eingesetzt wird. Und dass die Entwicklungen auch für militärische Anwendungen genutzt werden, sehe ich leider auch so. Die Frage, wo Gesetze wichtige Basis sind für konstruktive Nutzung der Technologie – und wo sie möglicherweise eine unnötige Einschränkung sind, muss daher immer wieder neu diskutiert werden.
Welchen Einfluss hat KI-Software heute auf die finanzielle Ungleichheit („Schere zwischen Arm und Reich“) der Gesellschaft?
Jürg Tschirren: Eine spannende Frage! Die Technologie an sich kann man als neutral betrachten – sie bietet ebenso die Möglichkeit, dass sich die Schere zwischen Arm und Reich weiter öffnet wie auch, dass sie sich etwas schliesst. Es kommt deshalb darauf an, wie KI in einer Gesellschaft eingesetzt wird. So wie sich die Lage heute präsentiert, würde ich eher davon ausgehen, dass die Ungleichheit der künstlichen Intelligenz wegen weiter zunehmen wird.
Denn vom Höhenflug der KI haben bis jetzt vor allem Investor:innen profitiert und weniger die Leute, die sich Aktien von KI-Unternehmen nicht leisten können. Ich denke da z.B. an Lager-Arbeiter:innen bei Unternehmen wie Amazon, wo KI nicht zuletzt auch dazu eingesetzt wird, diese Leute stärker zu überwachen und (noch) mehr Leistung von ihnen zu verlangen.
Ist man in der Forschung schon daran die Korrelationen zwischen der Verwendung von KI und der psychischen Gesundheit der Bevölkerung zu evaluieren oder wird diese Forschung durch TechGiganten gezielt blockiert?
Gerd Kortemeyer: Die psychische Gesundheit einer Bevölkerung wird durch eine Vielzahl von Faktoren beeinflusst: Globalisierung, Wirtschaft, Überflutung mit Medien, Leistungsdruck, Konsumdruck, Stress, ... und sicherlich auch KI: die Sorge, seinen Arbeitsplatz zu verlieren, überflüssig zu werden, von der KI abgestempelt und kategorisiert zu werden. Es wird sehr schwer sein, hier einen einzigen Faktor zu isolieren. Nach Jahrzehnten an Forschungsuniversitäten bin ich mir allerdings ziemlich sicher, dass sich Forschende hier nicht von irgendwelchen Tech-Giganten ausbremsen lassen.
Wie müssen Daten (z.B. Bilddateien) aufbereitet werden, bevor man mit Ihnen eine generative KI trainieren kann? Welche Arbeitsschritte sind nötig? Stimmt meine Vermutung, dass bereits in diesem Schritt Fehler/„Bias“ ins System gelangen (nach dem Prinzip „garbage in, garbage out“)?
Grit Wolany: Mittlerweile ist das recht (bzw. fast schon erschreckend) einfach. Beim neuen Bild KI Modell Flux reicht es, die Bilder einfach hochzuladen. Das Label (Textbeschreibung des Bildes) übernimmt auch eine KI. Wenn sie das selbst einmal testen wollen: https://fal.ai/models/fal-ai/flux-lora-fast-training/playground oder auf https://replicate.com/docs/get-started/fine-tune-with-flux
Guten Abend liebes Experten-Team Wie könnte ich KI zum lernen einsetzen. Ich mache gerade die Polizeischule – Es ist viel Wissen/Neues was wir in kurzer Zeit aufnehmen/einprägen dürfen. Alle Unterlagen sind online – für mich was komplett neues. Ich bin noch “klassisch” aufgewachsen (mit Bücher, Skripten etc.). Ich tue mich noch etwas schwer so zu lernen. Von Hand zusammenzufassen scheint mir zeitlich kaum möglich – könnt KI dabei helfen? Welches KI Tool/App wäre empfehlenswert zum benutzen? Könnte KI Nachhilfeunterrich ermöglichen? z.B. im Fach Recht? Vielen Dank für Ihre Rückmeldung
Michael Wegmüller: Guten Abend – danke für diese schöne Frage. Ja – ich glaube KI kann ein guter «Sparring-Partner» für's lernen sein. Ich nutze Systeme wie ChatGPT u.a. auch um mich über wissen abzufragen. Ist der Lerninhalt entsprechend schon in digitaler Form verfügbar bietet sich das mit einem guten Prompt an (siehe z.B. hier: https://medium.com/@anferneeck/ultimate-prompting-guide-to-using-chatgpt-for-learning-596911742d8a).
Mit einer entsprechenden Version von ChatGPT können so die Dokumente und Lerninhalte den Systemen zur Verfügung gestellt werden und mittels Prompt entsprechend Abfrage-Systeme und Erklärhilfen erstellt werden. Ein zweiter Gedanke – Vorlesungen / Ausbildungen werden vermehrt aufgenommen und sind als Video verfügbar. Mit der Hilfe von Tools wie https://unstuckstudy.com können Videos komplett Transkribiert und zusammen gefasst werden. Die Transkripts & Zusammenfassungen können nun wiederum für Quiz- / Lern-Chatbots genutzt werden. Viel Erfolg bei der Ausbildung!
Liebes SRF Team Wie hilfreich ist KI im Bereich von Glücksspielen. Topp Sendung, naiv meine Frage, bewusst...
Jürg Tschirren: Ich denke, da kommt es sehr auf die Art des Glückspiels und die Art der KI ein, die eingesetzt wird. Sie könnten z.B. eine KI mit Daten zu vielen, vielen Pokerspielen oder Black-Jack-Partien füttern und sich so Wahrscheinlichkeiten berechnen lassen, mit welcher Hand in welcher Situation Sie eine Gewinnchance haben.
Sie könnten die KI auch mit Daten zu vielen, vielen Würfen der Kugel beim Roulette trainieren und sich dann vorhersagen lassen, auf welcher Zahl sie wohl landen würde.
Dasselbe gilt bei Sportwetten, wo einem eine KI vielleicht einen Vorteil verschaffen kann, wenn man sie mit vielen, vielen Daten von vergangenen Spielen trainiert. So wie Casinos aber beim Black Jack z.B. das Kartenzählen verbieten, hätten Sie wohl auch wenig Freude, wenn Sie sich zusammen mit einem KI-System an den Spieltisch setzen würden...
Haben sie das Gefühl, dass das Restaurantsterben sich wandelt, damit man wieder Face to Face sich trifft um die Wahrheit/Diskussion zu erhalten? Man kann ja nichts mehr glauben! Ebenso Forums zunehmen,da man ja auf social media aber auch auf staatlichen Sendern nicht mehr sicher ist, ob die Wahrheit berichtet wird!
Stefan Ravizza: Ja, ich kann mir gut vorstellen, dass sich ein solcher Trend entwickelt. Besonders bei der Generation Alpha sieht man bereits, dass sie neue Technologien wie KI intensiv nutzt, gleichzeitig aber bewusst den Kontrast sucht und Phasen ohne Technologie schätzt. In unsicheren Zeiten, in denen die Vertrauenswürdigkeit digitaler Inhalte oft hinterfragt wird, könnten persönliche Treffen und physische Foren an Bedeutung gewinnen, um echte Diskussionen und direkten Austausch zu ermöglichen.
Frage zu Schule und Politik Wie stellen Schulen und Politik in Zukunft sicher, dass die erworbenen Kompetenzen im Umgang mit der KI für konstruktive Zwecke verwendet werden. Ich sehe da ein gewisses Risiko.
Thomas Merz: Mit dem Lehrplan 21 wurde in der Deutschschweiz endlich ein Modul «Medien und Informatik» verbindlich etabliert. Das heisst: Schülerinnen und Schüler lernen nun, die Technologie kompetent, aber auch kritisch und verantwortlich zu nutzen.
Auch gesellschaftliche Fragen werden da aufgenommen und diskutiert. Ihre Frage aber, wie (und ob!) Schule und Politik sicherstellen können, dass die erworbenen Kompetenzen für konstruktive Zwecke verwendet werden, lässt sich nicht einfach so rasch beantworten. Klar: Ethische und philosophische Fragen können und müssen in der Schule ihren Platz haben. Eine Garantie für künftiges konstruktives Verhalten gibt das allerdings nicht. Und die Frage, welche gesetzlichen Regelungen dazu notwendig sind, ist auch international noch gar nicht beantwortet. Das ist eine grundsätzliche Schwierigkeit im Kontext einer sehr raschen technologischen Entwicklung.
Die Anwendungen ändern sich so rasch, dass die Diskussion über sinnvolle Regulierungen fast notwendigerweise immer erst im Nachhinein erfolgen kann. Kaum hat man einen Bereich geregelt, stellen sich wieder vollkommen neue Fragen. Es ist aber nicht nur eine Frage von Schule und Politik, dies zu garantieren, sondern letztlich der ganzen Gesellschaft: Nur wenn ethische Standards in Wissenschaft und Forschung, in Wirtschaft, Politik und Kultur, aber auch in Familie, Verein, Nachbarschaft, Stadt und Quartier eingehalten werden, werden neue Technologien auch verantwortungsvoll genutzt. Gesetze können dies nicht gewährleisten, nur unterstützen.
Könnte ich einfach ein KI-Programm – welches so weit ich weiss bis jetzt nicht existiert – meinen Desktop filmen lassen und mich beobachten lassen, wie ich meine Arbeit (welche in diesem Falle repetitiv abläuft) tue, mit dem Ziel, dass die KI es irgendwann für mich erledigt? Ich denke an Arbeitsschritte, welche klaren Regeln folgen, die aber momentan kein Programm zur alternative haben. Oder auch Computerspiele, welche nach bestimmten Variablen funktionieren.
Michael Wegmüller: Ob das mit der Kamera überhaupt nötig ist wage ich zu bezweifeln. Aber in der Tat, es wir zunehmend mehr Systeme geben, die durch Beobachten neue Fähigkeiten erlernen können. Teilweise braucht es nicht mal Beobachten, sondern da reicht als Input auch Simulationen (also generierter Inhalt, welcher dann die KI Trainiert). Mit immer besseren (auch kleineren) LLMs werden wir mittelfristig kein Computer / Digitales Gerät mehr brauchen ohne integrierte KI. Die Idee der KI, ist dass sie den Kontext vom Nutzer und vergangene Aktionen «kennt». Die funktioniert über Screenshots, welche das System alle 2-5 Sekunden macht und dann über die KI Verarbeitet. So können heute schon Abläufe erkannt und durch die KI repetiert werden. Schliesslich bieten die neuesten Entwicklungen von Anthropic (Computer Use), oder OpenAI (Operator) erlauben es via LLM dem Computer Anweisungen zu geben, welche dieser dann ausführt und «speichern kann». In Computerspielen gibt es schon seit mehreren Jahren Wettbewerbe wo Menschen gegen KIs antreten. Die KI hat (wie bei Googles Alpha Go) das Spiel in tausenden Spielrunden selbst gelernt und optimiert. Auch wenn noch nicht alles so einfach geht – es diese Fähigkeiten scheinen nicht zu weit in der Zukunft zu liegen.
Ich bekomme ein Video eines Freundes aus Thailand in thai. Kann ich es durch KI übersetzen lassen?
Grit Wolany: Es gibt einige Tools, die Videos übersetzen können. Z.B. https://www.synthesia.io/de/features/video-ubersetzer oder https://www.d-id.com/video-translate/ มีความสุข
Sind alle diese Antworten Ki generiert?
Grit Wolany: Nope. 🤓
Gen IA Tools wie z.B. Chat GPT haben einen Datenstand von ca. 2022. Woher bezieht Chat GPT ihre Informationen? Hat Open IA im Vorfeld alle Daten des Internets abgezogen und in eine Datenbank gepackt? Das würde ja heissen, dass plus/minus das ganze Internet in einer Datenbank gespeichert wurde.
Gerd Kortemeyer: Inzwischen ist der Stand eher Dezember 2023, und ja: die Modelle basieren auf riesigen Datenmengen, die von Webseiten geerntet («harvested») wurden, sowie auf anderen, bereits existierenden Datensammlungen und Datensätzen. OpenAI lässt sich da aber nicht in die Karten schauen. «Das ganze Internet» ist sicherlich eine Übertreibung. Derzeitige Schätzungen sind, dass sich auf dem Internet mehrere Zettabytes an Daten befinden, also mehrere Milliarden Terabytes; ein Terabyte ist, was man derzeit als Festplatte auf einem guten Laptop findet – soviel hat OpenAI sicherlich nicht gesammelt ...
KI ist nicht kreativ! Warum wird es immer wieder als kreatives Tool proklamiert? Dabei ist nur der Mensch der die Fragen stellt kreativ. So cool die KI Tools auch sind, es ist wohl den wenigsten bewusst, dass bis 50% unsere Arbeitsstellen wegrationalisiert werden könnten! Wer behauptet das kann nicht sein, der bezieht sich auf falsche Annahmen und wunschdenken. Ohne Regulierung ist dies eine Revolution und wir wissendes bisher jede Revolution sehr viele Jobs wegrationalisiert hat. Es wird aber wohl eher so werden, dass sich die Berufsgattung die Hut Vernetzt sind in einer Lobby sich gegen ki schützen können und die wenig elitären Jobs auf der Strecke bleiben? Grüsse
Jürg Tschirren: Ich denke, die Rede vom «kreativen Tool» sollte man eher als PR-Versprechen abtun. Das heisst aber nicht, dass KI einem bei kreativen Arbeiten nicht helfen kann – genau so wie das ein Tool wie etwa Photoshop auch tun kann, ohne dass es selbst kreativ ist. Ich kann Ihre Ängste vor Stellenabbau wegen KI gut verstehen und denke auch, dass es eine Regulierung der Technologie braucht. Dass allerdings gleich die Hälfte aller Arbeitsstellen wegen KI überflüssig werden könnten, halte ich für übertrieben – und für eine Furcht, welche die Systeme der KI-Unternehmen als leistungsfähiger darstellt, als sie sich bis jetzt in der Praxis/in der Arbeitswelt erwiesen haben. Es kann gut sein, dass sich nach dem KI-Hype der letzten Jahre bald eine gewisse Ernüchterung einstellen wird, wenn man feststellt, dass KI nicht zu den Produktivitätsgewinnen führt, die von den Unternehmen dahinter versprochen werden.
Degeneriert die menschliche Kognition in der Zukunft, wenn Roboter komplexe und gefährliche Arbeiten übernehmen?
Thomas Merz: Ich würde das nicht grundsätzlich so sehen. Das Risiko sehe ich eher in einer wachsenden digitalen Kluft, wie sie schon bei früheren Medien nachgewiesen werden konnte. Das bedeutet: Diejenigen, die die Technologie kritisch und kompetent nutzen können, profitieren überdurchschnittlich viel – und wer zuvor schlecht informiert war und über wenig digitale Kompetenzen verfügt, profitiert erst recht wenig. Gerade die Nutzung Künstlicher Intelligenz kann uns in vielerlei Hinsicht in unserem Lernen unterstützen, wenn wir denn lernen wollen. Aus meiner Sicht ist daher von zentraler Bedeutung, dass wir die Qualität unserer öffentlichen Schule, die grundlegende Bildung für alle gewährleistet, unbedingt hoch halten müssen. Nur so kann es gelingen, diese Kluft möglichst zu vermeiden.
Was heisst trainieren ,soviele Daten einspeisen braucht extrem lang. Oder kann es auf links zugreifen
Jürg Tschirren: Um KI-Systeme zu trainieren, stehen verschiedene Datensets bereit – je nach Art der KI-Anwendung, die trainiert werden soll. ChatGPT wurde z.B. mit einer Vielzahl solcher Sets trainiert, die aus öffentlich zugänglichen Texten und lizenzierten Quellen stammen, darunter wissenschaftlichen Artikeln, Bücher und fast allen Textinhalten, die im Internet zu finden sind. Die einzelnen Text wurden zum Training in sogenannte Tokens zerlegt – das können einzelne Worte sein, ein Wort-Bestandteil oder ein Satz-Zeichen. Zum Training des aktuellen GPT-Modells sollen 13 Billionen (!) solcher Tokens nötig gewesen sein. Vom Nachfolgemodell heisst es, sollen es bis zu 100 Billionen (!!) werden. Das Training eines solchen Systems kann deshalb weit über ein Jahr dauern.
Wie kann KI zum Entlarven/Aufdecken von KI-generierten Betrugsversuchen eingesetzt werden?
Michael Wegmüller: Einfach gesagt: KI erkennt Muster, die für Menschen oder die Natur oft nicht sichtbar sind. Das macht sie äusserst effektiv darin, Fälschungen oder Fake-Inhalte aufzudecken – welche eben auch solche unnatürliche Muster generiert – jedoch niemals mit 100%-iger Sicherheit. Die Systeme sind in der Regel sehr zuverlässig, aber kriminelle Methoden entwickeln sich ebenfalls ständig weiter, was die Herausforderung erhöht. Wie in vielen Bereichen gilt: Wachsamkeit ist entscheidend. Wir sollten uns bewusst machen, dass KI hinter vielen Täuschungen stecken könnte und klassische Anzeichen für Betrug oft nicht mehr erkennbar sind. Eine gute Praxis ist, klare Verhaltensregeln aufzustellen, wie z. B. Codewörter für Familienmitglieder oder eine kurze Rückversicherung per Anruf, bevor man auf Drucksituationen reagiert. Die Technologie wird uns helfen, Betrugsversuche schneller zu entlarven, aber unser Verhalten muss sich ebenfalls anpassen, um auf der sicheren Seite zu bleiben.
Wie intensiv, auf welche Art und Weise und mit welchen Tools arbeiten Sie aktuell gerade mit KI, um diese Flut von Fragen beantworten zu können?
Stefan Ravizza: Das hängt stark von der jeweiligen Frage und dem Experten ab. Ich nutze insb. ChatGPT für solche Aufgaben. Einerseits hilft es mir, zusätzliche Perspektiven zu einer Frage zu gewinnen und sicherzustellen, dass ich nichts Wesentliches übersehe. Andererseits erstelle ich oft einen ersten Entwurf und lasse diesen von ChatGPT umformulieren, damit der Text den Anforderungen entspricht, die ich vorher definiert habe.
Was genau zeichnet KI aus? Wann ist eine Anwendung eine KI-Anwendung und welche neue(n) Technologie(n) liegt (liegen) ihr zugrunde? Kernfunktion aller Computersysteme, Daten mittels Algorithmen zu analysieren, darauf Regeln anzuwenden und die Resultate zu präsentieren. Es gab schon in den 1980er-Jahren ein textbasiertes Psychologieprogramm, welches einigermassen verblüffende Dialoge führte. Auch erinnert mich die aktuelle KI-Diskussion an die Sorgen und Hoffnungen, die in den 80er-Jahren zur Informatik geäussert wurden. Deshalb meine ich, dass «KI» vor allem ein Schlagwort ist für die heutigen Möglichkeiten der Informatik.
Jürg Tschirren: Ich gebe Ihnen recht, dass KI vor allem als Schlagwort dient, das nicht wirklich etwas über die Möglichkeiten dieser Technologie aussagt – «intelligent» im Sinne der menschlichen Intelligenz ist die KI ja nicht. Die Abgrenzung, was als KI gilt und was nicht, ist deshalb oft willkürlich und im Zug des KI-Hypes der letzten Jahre auch immer unschärfer geworden. Heute werden selbst Dienste als KI-Technologie beworben, bei denen einfache Algorithmen zum Einsatz kommen, die nichts mit dem zu tun haben, was man gemeinhin unter künstlicher Intelligenz versteht. Als Abgrenzung würde ich eher den Begriff «maschinelles Lernen» vorschlagen – also etwas verkürzt gesagt: Wurden der Maschine feste Regeln vom Menschen vorgegeben – also klassisch programmiert – oder hat sie sich diese Regeln durch maschinelles Lernen selber beigebracht?
meine Bank fragte mich ob sie meine Stimme speichern dürften, damit ich jeweils schneller betreut werden könne ohne div. Fragen zu meiner Person zu beantworten ich habe dankend abgelehnt, finde dies bedenklich, gerade bei diesem Thema KI kann dies ein Risiko sein? wie soll jeweils geantwortet werden?
Grit Wolany: Sie sind mit ihren Bedenken nicht alleine. Die Digitale Gesellschaft hat vor 2 Jahren zusammen mit TASwiss eine Studie zum Thema ««Automatisierte Erkennung von Stimme, Sprache und Gesicht: Technische, rechtliche und gesellschaftliche Herausforderungen»» rausgebracht. Das PDF finden sie hier: https://www.digitale-gesellschaft.ch/uploads/2022/10/KF-SSG-TA-SWISS-22-web-de.pdf
Wie schätzen Sie die zukünftige Entwicklung von Prompt Engineering ein? Glauben Sie, dass es weiterhin eine wichtige Rolle spielen wird, oder könnten Fortschritte in der KI die Notwendigkeit von spezialisierter menschlicher Interaktion verringern?
Stefan Ravizza: Das ist eine sehr spannende Frage, und die Zeit wird zeigen, in welche Richtung sich das entwickelt. Ich erwarte, dass KI-Systeme selbst vieles vereinfachen werden, sodass die Notwendigkeit für spezialisierte Eingaben abnimmt. Das Gebiet des Prompt Engineerings wird sich aber sicher verändern, und im Umgang mit KI werden andere Fähigkeiten benötigt. Ich bin überzeugt, dass es weiterhin ein spannendes Feld bleiben wird, herauszufinden, wie man effizient und effektiv mit einer KI interagiert, um den gewünschten Output zu erzielen. Zudem sehe ich eine Entwicklung voraus, bei der insbesondere in Unternehmen verschiedene KIs – oft auch als „Agenten“ bezeichnet – bereitgestellt werden. Hier wird neben dem Prompt Engineering auch die Governance immer wichtiger, um sicherzustellen, dass KIs klar definierte Grenzen einhalten und verantwortungsvoll genutzt werden. Dies wird entscheidend sein, um das volle Potenzial von KI sicher und effizient auszuschöpfen.
KI wird mächtig und braucht Regeln. ZB Wasserzeichen!?? In Zukunft braucht es mehr unabhängige Zeitungen! Der investigative Journalismus muss «Raum» haben. Wie erreichen wir, dass Fake News ( Bilder und Texte ) minimiert werden können?
Gerd Kortemeyer: Die Erkennung von KI-generierten Inhalten ist ein Wettrüsten, das man wohl auf Dauer nicht gewinnen kann; aber vermutlich ist das sowieso der falsche Ansatz. Um investigativem Journalismus Raum zu geben, ist vor allem der Konsument gefragt. Dazu müssen respektable Zeitschriften und Zeitungen abonniert werden (jetzt vermutlich online), und man zahlt seine SERAFE-Gebühren.
Welche Berufe geraten besonders unter Druck durch KI? Dies interessiert mich vor allem aus der Perspektive einer Psychologie Studentin.
Michael Wegmüller: Das World Economic Forum (WEF) hat eine spannende Studie dazu publiziert. Sie haben mehr als 19'000 Aufgaben von 867 Berufen im Detail analysiert und sind zum Schluss gekommen, dass Beruf um Tätigkeiten wie Verwaltungstätigkeiten ausführen, Datenbanken entwerfen, Daten zur Optimierung von Abläufen analysieren, externe Angelegenheiten und Trends überwachen, Informationen über Waren oder Dienstleistungen einholen sowie technische Entwürfe, Verfahren oder Aktivitäten dokumentieren eine hohe Wahrscheinlichkeit haben durch KI automatisiert zu werden.
Dabei verschwinden weniger die Berufe, mehr gewisse Tätigkeitsfelder in diesen Berufen. Aufgaben um Verträge oder Vereinbarungen verhandeln, sich für individuelle oder gemeinschaftliche Bedürfnisse einsetzen, an der Entwicklung von Bildungsprogrammen mitwirken, wissenschaftliche oder technische Aktivitäten leiten, mit anderen bei der Problemlösung koordinieren sowie Designs, Spezifikationen oder andere technische Daten bewerten sind weniger wahrscheinlich durch KI automatisiert oder verbessert zu werden.
Für Mental Health Counselors sieht die Studie gewisses Potential, dass KI unterstützend helfen kann – aber nur wenig Potential für eine Automatisierung. Meine simple Analyse – es ist schwer eine vertrauensvolle Beziehung mit einem Computersystem aufzubauen. Da braucht es den Menschen. Anbei der Link zu Studie: https://www.weforum.org/publications/jobs-of-tomorrow-large-language-models-and-jobs-a-business-toolkit/
Sehr geehrte Damen und Herren Ich beginne, mich in diesen Tagen mit dem Thema «Kompetenz- und Wissensmanagement Hydraulik zu beschäftigen». Das Projekt betrifft nicht nur die Schweiz sondern hat europäischen Charakter. In diesen und den folgenden Jahren gehen viele erfahrenen Hydrauliker in den Ruhestand. Und mit den Mitarbeitern auch dessen Kompetenz und Wissen. Wenn wir Hydrauliker von Wissen/Kompetenz reden sind die u.A. Schaltpläne und Stücklisten von Hydraulikanlagen, Auslegungen, technischen Daten von Bauteilen (Datenblätter). Solche Sache sind oft auch irgendwo dokumentiert. Die Herausforderung liegt aber auch bzw. insbesondere in der Tatsache, dass die «die Jungen» diese erst mal irgendwo finden müssen. Wenn spreche ich an? Was gibt es bei dem Projekt sonst noch zu beachten. Also Softfacts die nicht schriftlich dokumentiert sind. etc. Und nun zu meiner Frage: Wie müsste so ein Projekt aus Ihrer Sicht angegangen werden um hier allenfalls die KI gewinnbringend einzusetzen. Gibt es Möglichkeiten hier allenfalls zusammen mich Hochschulen ETH/FH in den Austausch zu treten? Ich freue mich auf Ihr Feedback und wünsche einen erfolgreichen Tag
Thilo Stadelmann: Was für eine schön praktische Frage! Die Schweiz hat in der Tat fantastische Möglichkeiten, solche praktische Fragen an der Schnittstelle von Innovation und Anwendung, Hochschule und Unternehmen anzugehen und ggf. sogar die Umsetzung zu unterstützen (siehe Innosuisse). Mir scheint es mehrere lohnenswerte Fragestellungen zu geben.
Erstens: Wissensmanagement wird durch Technologie wie «Large Language Models» (das sind die Verfahren und Modelle hinter Anwendungen wie ChatGPT, die gut mit Text umzugehen gelernt haben) tatsächlich ein gutes Stück einfacher/nützlicher, da nicht mehr alles rigide verschlagwortet werden muss. Technische Dokumente können sie ein Stück weit vom System «verstanden» werden (nicht menschliches Verständnis, aber deutlich besser als nach identischen Worten zu suchen), so dass auch in grossen Dokumentensammlungen relöevante Inhalte gefunden werden können. Das Stichwort lautet hier «Retrieval Augmented Generation», die Verknüpfung von Suche und Textgenerierung durch LLMs.
Zweitens: Ein Knackpunkt, damit das Problem mit dem Erschliessen alles Hydraulikwissens wirklich erreicht werden kann, ist «Multimodalität» – also, dass nicht alle Daten schön in Fliesstextform vorliegen, sondern auch strukturiert in Tabellen (Datenblätter), Bildern (Plänen, Zeichungen), etc. Aktuelle KI-Systeme sind am stärksten auf Fliesstext, am Rest wird fleissig gearbeit. Das Zusammenzubringen wird eine spannende Aufgabe für die Hochschulpartner sein.
Drittens: Der Elefant im Raum ist natürlich das Wissen in den Köpfen, denn es ist nicht digital. Nur so eine Idee: Verwenden Sie doch einen LLM-basierten Chatbot, der, anstatt Fragen zu beantworten, Fragen stellt und die Antworten in das Wissensmanagement eingibt. Dann fragt er bestehende Mitarbeiter 1 Frage pro Monat. So könnte aktiv manches Wissen gesammelt werden. Viertens: Partner finden Sie z.B. über die Swiss Association for Natural Language Processing, https://swissnlp.org/home/about/.
Wie gut könnte KI mir helfen meine Beziehung gelingend zu führen? Könnte es auf meine aktuelle Situation eingehen?
Grit Wolany: KI hat viele Informationen aus dem Internet – aber keine Gefühle. Die Ausgabe basiert auf statistischen Wahrscheinlichkeiten, auch wenn sie menschlich klingt. Wenn sie ChatGPT just for fun mal als Beziehungscoach testen wollen, stellen sie sicher, keine privaten oder sensiblen Daten einzugeben! Geben sie der KI genügend Kontext, also relevante Hintergrundinformationen, und prüfen sie den Output kritisch! Viel Glück?
Grüessech. Ich kann mit 67 Jahren als knapp durchschnittliche Userin leider kein KI-Studium mehr angehen. Könnten Sie mir konkrete Kursangebote machen? Es braucht nicht einzig in meiner Wohngegend zu sein. Besten Dank und freundliche Grüsse
Grit Wolany: Lernen macht Spass. Am besten grad hier anfangen: https://www.elementsofai.de