Direkt zum Seiteninhalt springen
  • App „Campus HSB“
  • AULIS
  • CampInO
  • Webmail
  • WLAN (eduroam)
  • Passwort ändern
  • Semestertermine
  • Benutzerkonto-Aktivierung
  • Studieninteressierte Für Studieninteressierte
  • Erstsemester Für Erstsemester
  • Austauschstudierende Für Austauschstudierende
  • Unternehmen und Organisationen Für Unternehmen und Organisationen
  • Presse und Medien Für Presse und Medien
  • Alumni Für Alumni
  • Jobinteressierte
  • Beschäftigte Für Beschäftigte und Lehrbeauftragte
  • EN
  • Gebärdensprache Logo Gebärdensprache
  • Leichte Sprache
  • Dunkel-Modus
  • Studieren erleben
    • Studiengänge
      • Bachelor
      • Master
      • Dual studieren
      • Berufsbegleitend studieren
      • Flexibel studieren
    • Vor dem Studium
      • Schritt für Schritt ins Studium
      • Angebote für Studieninteressierte
      • Termine Studienorientierung
      • Bewerbung und Zulassung
      • Internationale Bewerbungen
    • Im Studium
      • Infos für Erstsemester
      • Semestertermine und Fristen
      • Zugänge und Portale für Studierende
      • Formales und Prüfungen
      • Ins Ausland gehen
      • Ergänzende Angebote: StudiumPlus, makeMINT, Sprachen
    • Nach dem Studium
      • Masterstudium
      • Bewerbung und Berufseinstieg
      • Gründung und Selbstständigkeit
      • Berufliche Weiterbildung
      • Infos für Alumni und Alumnae
      • Promotionen
    • Rund ums Studium
      • Studierendenleben
      • Mitbestimmen & Gestalten
      • Gesund durchs Studium
      • Mensa & Co.
      • Bibliothek
      • Kultur
      • Sport
      • Glossar
    • Beratung und Unterstützung
      • Zentrale Studienberatung
      • Persönliche Themen
      • Lernschwierigkeiten
      • Zweifel am Studium
      • Konflikte im Studium
      • Ihr Beratungsnetzwerk an der HSB
      • Studienfinanzierung
  • Forschen erleben
    • Forschungs- und Transferprofil
      • Strategische Partnerschaften
      • Forschungseinrichtungen
      • Forschungsprojekte
      • Patente
    • Forschungscluster
      • Blue Sciences
      • Digitale Transformation
      • Dynamics, Tension and Xtreme Events
      • Lebensqualität
      • Luft- und Raumfahrt
      • Region im Wandel
    • Wissenschaftlicher Nachwuchs
    • Transfer und Kooperation
    • Forschungsservice
    • Gründungsservice & FreiRAUM@HSB
      • Makerspace
    • Forschungsdatenmanagement
  • Weiterbilden erleben
    • Themen
      • Wirtschaft & Management
      • Digitalisierung
      • Gesundheit & Soziales
    • Seminare und Zertifikatskurse
    • Weiterbildende MBA und Master
    • Interne Weiterbildung im Studium und in der Lehre
  • Die HSB erleben
    • Aktuelles
      • Pressemitteilungen
      • News
      • Veranstaltungen
      • Projekte
    • Fakultäten
      • Fakultät Wirtschaftswissenschaften
      • Fakultät Architektur, Bau und Umwelt
      • Fakultät Gesellschaftswissenschaften
      • Fakultät Elektrotechnik und Informatik
      • Fakultät Natur und Technik
    • Organisation
      • Rektorat
      • Verwaltung
      • Zentrale Einheiten
      • Hochschulübergreifende Einheiten
      • Gremien und Interessenvertretungen
      • Kultur
      • Sport
    • Profil der HSB
      • Unser Leitbild
      • Qualität in Studium und Lehre
      • Internationalität
      • Gleichstellung
      • Diversity
      • Nachhaltigkeit
      • Hochschule Bremen in Zahlen
      • Geschichte
    • Arbeiten an der HSB
      • Die HSB kennenlernen
      • Wir sind HSB
      • HAW-Professur
      • Stellenangebote
      • Ihre Bewerbung an der HSB
      • Kontakt und Beratung
      • Noch Fragen?
    • Personensuche
    • Merchandise
    • App „Campus HSB“
    • AULIS
    • CampInO
    • Webmail
    • WLAN (eduroam)
    • Passwort ändern
    • Semestertermine
    • Benutzerkonto-Aktivierung
    • Studieninteressierte Für Studieninteressierte
    • Erstsemester Für Erstsemester
    • Austauschstudierende Für Austauschstudierende
    • Unternehmen und Organisationen Für Unternehmen und Organisationen
    • Presse und Medien Für Presse und Medien
    • Alumni Für Alumni
    • Jobinteressierte
    • Beschäftigte Für Beschäftigte und Lehrbeauftragte
  • EN
  • Gebärdensprache Logo Gebärdensprache
  • Leichte Sprache
  • Dunkel-Modus
Studieren erleben
  • Studiengänge
    • Bachelor
    • Master
    • Dual studieren
    • Berufsbegleitend studieren
    • Flexibel studieren
  • Vor dem Studium
    • Schritt für Schritt ins Studium
    • Angebote für Studieninteressierte
    • Termine Studienorientierung
    • Bewerbung und Zulassung
    • Internationale Bewerbungen
  • Im Studium
    • Infos für Erstsemester
    • Semestertermine und Fristen
    • Zugänge und Portale für Studierende
    • Formales und Prüfungen
    • Ins Ausland gehen
    • Ergänzende Angebote: StudiumPlus, makeMINT, Sprachen
  • Nach dem Studium
    • Masterstudium
    • Bewerbung und Berufseinstieg
    • Gründung und Selbstständigkeit
    • Berufliche Weiterbildung
    • Infos für Alumni und Alumnae
    • Promotionen
  • Rund ums Studium
    • Studierendenleben
    • Mitbestimmen & Gestalten
    • Gesund durchs Studium
    • Mensa & Co.
    • Bibliothek
    • Kultur
    • Sport
    • Glossar
  • Beratung und Unterstützung
    • Zentrale Studienberatung
    • Persönliche Themen
    • Lernschwierigkeiten
    • Zweifel am Studium
    • Konflikte im Studium
    • Ihr Beratungsnetzwerk an der HSB
    • Studienfinanzierung
Forschen erleben
  • Forschungs- und Transferprofil
    • Strategische Partnerschaften
    • Forschungseinrichtungen
    • Forschungsprojekte
    • Patente
  • Forschungscluster
    • Blue Sciences
    • Digitale Transformation
    • Dynamics, Tension and Xtreme Events
    • Lebensqualität
    • Luft- und Raumfahrt
    • Region im Wandel
  • Wissenschaftlicher Nachwuchs
  • Transfer und Kooperation
  • Forschungsservice
  • Gründungsservice & FreiRAUM@HSB
    • Makerspace
  • Forschungsdatenmanagement
Weiterbilden erleben
  • Themen
    • Wirtschaft & Management
    • Digitalisierung
    • Gesundheit & Soziales
  • Seminare und Zertifikatskurse
  • Weiterbildende MBA und Master
  • Interne Weiterbildung im Studium und in der Lehre
Die HSB erleben
  • Aktuelles
    • Pressemitteilungen
    • News
    • Veranstaltungen
    • Projekte
  • Fakultäten
    • Fakultät Wirtschaftswissenschaften
    • Fakultät Architektur, Bau und Umwelt
    • Fakultät Gesellschaftswissenschaften
    • Fakultät Elektrotechnik und Informatik
    • Fakultät Natur und Technik
  • Organisation
    • Rektorat
    • Verwaltung
    • Zentrale Einheiten
    • Hochschulübergreifende Einheiten
    • Gremien und Interessenvertretungen
    • Kultur
    • Sport
  • Profil der HSB
    • Unser Leitbild
    • Qualität in Studium und Lehre
    • Internationalität
    • Gleichstellung
    • Diversity
    • Nachhaltigkeit
    • Hochschule Bremen in Zahlen
    • Geschichte
  • Arbeiten an der HSB
    • Die HSB kennenlernen
    • Wir sind HSB
    • HAW-Professur
    • Stellenangebote
    • Ihre Bewerbung an der HSB
    • Kontakt und Beratung
    • Noch Fragen?
  • Personensuche
  • Merchandise
  1. Startseite
  2. Die HSB
  3. Aktuelles
  4. Veranstaltungen
  5. Who cares - Zukunftsperspektiven in einer instabilen Welt
  6. Who cares interview zu KI mit Prof. Dr. Armin Varmaz

Who cares? Zukunftsperspektiven in einer instabilen Welt - Interview

Chancen und Risiken Künstlicher Intelligenz - Fokus Hochschulen - Interview mit Prof. Dr. Armin Varmaz

Welche Chancen und Risiken bietet Künstliche Intelligenz (KI) für Studierende, Lehrende und Mitarbeitende? Wie gelingt der Einstieg? Welche Fähigkeiten sind dafür erforderlich und was gilt es im Umgang mit KI Tools zu beachten? Welche Veranwortung erwächst daraus für Individuen und für die Hochschule insgesamt?

"Es geht zusammenfassend darum, ein grundlegendes Verständnis zu entwickeln, Anwendungsmöglichkeiten zu kennen, ethische Grundsätze zu verstehen und sich dabei immer weiterzubilden", erklärt Prof. Dr. Armin Varmaz im fünften Who Cares Interview.

Prof. Dr. Armin Varmaz ist Professor für Finance in der Fakultät Wirtschaftswissenschaften und setzt sich als Vortragender, Forscher und Lehrender vielfach mit Künstlicher Intelligenz (KI) auseinander.

Was fasziniert dich an KI?

Am meisten faszinieren mich die Vielseitigkeit und die verschiedenen Einsatzgebiete und Möglichkeiten. Das Wesentliche einer KI ist, dass sie auf der Grundlage von Daten versucht, Muster zu erkennen. Mit Hilfe dieser Muster kann man entweder etwas Neues lernen oder Handlungsempfehlungen ableiten, beispielsweise eine Ampelschaltung optimieren.  

Gleichzeitig kann man KI auch nutzen, um kreative Prozesse zu fördern. Das mag zunächst verwundern, tatsächlich können die echten, genuinen kreativen Prozesse durch Menschen am einfachsten und am besten abgebildet werden, aber KI kann bewusst Zufälligkeiten zulassen und somit kreative Prozesse imitieren.

Und letztendlich ist eine Faszination der KI für mich auch, dass man langsam versteht, wie Lernen an sich funktioniert. Wenn man der KI beispielsweise die Aufgabe gibt, mit einem Tool, mit zwei Beinen, zwei Armen und einem Kopf einen Körper zu erstellen, der auch laufen kann, da kommen unterschiedlichste Lösungen heraus, die nicht unbedingt an das menschliche Laufen erinnern.

Was bedeutet KI für uns an der Hochschule - Studierende, Lehrende, Mitarbeitende?

Bei der Frage muss man aus meiner Sicht unterscheiden, ob diejenigen tatsächlich Forschende im Bereich sein möchten oder werden, oder geht es darum, dass sie KI anwenden? Ich glaube, die Mehrzahl unserer Studierenden und Mitarbeiterinnen werden Anwenderinnen und Anwender sein, sich nicht so sehr auf die Forschung fokussieren. Dann stellt sich die Frage nach dem Einsatzgebiet der KI und das ist ganz unterschiedlich.

Dabei ist wichtig zu wissen, die durch KI angestoßenen Änderungen wirken sich anders aus als bei früheren technologischen Revolutionen. Sie betrafen fast immer die sogenannten blue collar Worker betroffen, also Arbeiter und Arbeiterinnen. Jetzt stehen White Collar Worker im Fokus.

Dies bedeutet, dass alle unsere Studierenden und alle Mitarbeitende hier an der Hochschule direkt davon betroffen sein werden. Je nach Studium, vielleicht mehr oder weniger.  Wenn man etwas zeichnen muss, kann es der Mensch wahrscheinlich besser als die KI, aber in absehbarer Zeit, in fünf bis sechs Jahren, wird KI das besser können als die Menschen selber.

Ein prominentes Beispiel aus der letzten Vergangenheit für die Anwendung von KI ist Chat GPT. Das Programm von Open AI ist eine Möglichkeit, Texte zu generieren, die sehr nahe an menschlich generierte Texte herankommen, teilweise besser sind, weil sie ohne Rechtschreibfehler auskommen und sehr gut formuliert sind sowie ein breites Spektrum an Wissen darstellen kann.

 

  • Zunächst einmal müssten sie ein Verständnis dafür entwickeln: Was ist das überhaupt? Das kann man noch relativ einfach im Rahmen des Unterrichts erklären, was Chat GPT macht, nämlich Daten und Muster in Textdaten zu erkennen. Mehr ist das nicht. Der zweite Schritt ist die Anwendung, also zu verstehen, wie man diese KI Tools (Werkzeuge) anwenden kann. Und da sind die Lehrenden gefragt, dies den Studierenden zu zeigen.

  • Für die Lehrenden gibt es viele Einsatzgebiete. Man kann überlegen, was sind Aufgaben, die Lehrende nicht so gerne machen, beispielsweise eine Klausur zu erstellen? Da bieten diverse KI Tools die Möglichkeit sich helfen zu lassen. Eine mögliche Frage an die KI wäre: „Schlag mir zehn, 20, 40 Aufgaben vor auf dem Bachelor Niveau vor, zweites Semester, Einführung in eine gewisse Vorlesung“. Dann wird man sehr schnell, sehr viele Vorschläge bekommen, wie eine Klausur aussehen könnte. Genau so könnte man die KI fragen, „Was sind neue Entwicklungen im Bereich von Umsatzsteuerrecht? Gib mir Hinweise“.

    KI kann im Prinzip routinemäßige Arbeiten beschleunigen oder ganz abnehmen. Die Lehrenden können auch eigene Texte überprüfen lassen: „Gibt es Verbesserungsvorschläge, welche Kritik würdest du üben? Was fehlt in diesem Text? Habe ich die richtige Forschungsfrage überhaupt adressiert mit diesem Text?“  Das können natürlich Studierende genauso nutzen, wenn sie eine Hausarbeit anfertigen.

    Die besondere Stärke von KI Tools, die Texte generieren, ist zugleich, dass sie sehr gut programmieren können. Dabei kann das Programm sehr hilfreich sein, weil es viele kleine Fehler sofort ausbügelt oder ganze Programme für einen schreibt. In wenigen Minuten kann erreicht werden, was normalerweise eine Woche gekostet hätte. Auch dies sollten Lehrende in den Unterricht transferieren und dabei deutlich machen, dass KI selber nicht denkfähig ist, sie reproduziert unglaubliches Wissen. Um dieses Wissen so anzuzapfen, dass es mein Problem auch löst, muss ich die richtigen Fragen stellen. 

     

    Richtig prompten zu können, ist damit eine wichtige Fähigkeit zur Nutzung von KI geworden. Die KI weiß viel, aber sie denkt nicht. Sie ist nicht in unserem Sinne intelligent.

     

    Genau, die KI weiß unglaublich viel, ihr Wissen ist um ein Vielfaches höher als von Menschen. Allerdings kann sie das eigenständige Denken im menschlichen Sinne nicht hervorbringen. Sie kann aber durch Randomisierung, durch Zufälligkeit, neues Wissen erzeugen. Ein Beispiel: Gerade im Bereich der Erforschung neuer Materialien hat sich dies bewährt. Die KI hat durch zufällige Kombinationen, für die Menschen Jahrzehnte gebraucht hätten, viele Kombinationen ausprobiert. So konnte man sehr schnell herausfinden, welche neue Materialien mit der Technologie, die uns zur Verfügung steht, überhaupt angefertigt werden kann. In diesem Sinne hat sie „gedacht“, in dem sie etwas Neues erschaffen hat. Aber es ist letztendlich einfach schnelles Kombinieren gewesen und kein echtes Denken.

     

  • Das ist eine sehr schwierige Frage. Meine Antwort wäre ja, wir brauchen das. Die Frage ist, denkt man, dass man die KI nicht benötigt, oder warum denkt man, dass man bestimmte Tools an sich nicht benötigt? Dabei spielen häufig Ängste, auch berechtigte Ängste eine Rolle. Zum einen hat man Angst, dass KI vielleicht den eigenen Job übernimmt und einen selber überflüssig macht, zum anderen ist es aber auch vielleicht die Angst vor dem Scheitern, dass man diese Tools ohne Schulung nicht nutzen kann und das ist auch korrekt. Schulungen sind wichtig. Da aber KI – wie ausgeführt - nicht echt denken kann, sondern bestehendes Wissen reproduziert, nicht wirklich neues Wissen in unserem menschlichen Sinne erzeugt, ist die Angst aus meiner Sicht unbegründet. KI wird nicht die Arbeitsplätze vernichten oder ersetzen, sondern sie wird höchstens bestimmte Aufgabentypen ersetzen. Beispiel Buchhaltung: sie kann bestimmte Buchhaltungsvorgänge ersetzen, aber nicht den Buchhalter, die Buchhalterin, die sich dann mit Spezialfragen beschäftigen können, für die die KI nicht ausgelegt ist.

     

    Wie kann man bei Verwaltungsaufgaben ganz pragmatisch KI nutzen?

     

    Viele Möglichkeiten sind denkbar. Beispiel 1: Sehr unbeliebt bei uns in allen Meetings ist das Protokollschreiben. Das kann KI ziemlich gut machen, selbstständig, wenn man das Gespräch aufzeichnet und der Datenschutzverordnung der jeweiligen Anbieter auch vertraut. Beispiel: Microsoft kooperiert sehr stark mit dem Entwickler von Open AI und hat KI in die eigene Software integriert, unter anderem in Word, aber auch in Microsoft Teams. Wenn man die Software im Hintergrund laufen lässt, zeichnet sie alles auf, erstellt Protokolle. Wenn sich jemand verspätet, erhält man zunächst eine Kurzzusammenfassung, was bisher geschah, und wird erst dann zur Sitzung zugelassen, sodass nicht alles in der Sitzung selber wiederholt werden muss.  Beispiel: viele Protokolle liegen meistens irgendwie ungenutzt auf irgendwelchen Servern. Wenn sich unterschiedliche Gruppen mit ähnlichen Fragestellungen beschäftigen, beispielsweise der Verbesserung der Lehre, kann KI helfen, Protokolle aus unterschiedlichen Sitzungen zu analysieren. So könnte man gegenseitig voneinander lernen. Wenn man an Teams viel größerer Organisationen als die Hochschule denkt, könnte die Software alle Unterlagen zu einem Thema analysieren, um dann für das Management oder die Verwaltung Hinweise zu geben: „Mensch, redet mal miteinander“.

     

    In diesem Falle gibt KI den Menschen Hinweise, wie sie besser miteinander arbeiten können.  

     

    Ein weiteres Beispiel: Automatisierung.  Viele Buchhaltungsvorgänge könnten automatisiert werden, die KI erkennt, was zu tun ist, was von welchem Konto gebucht werden muss und übernimmt die gesamte Arbeit selbstständig, sodass ein Mensch letztendlich nur noch am Ende absegnen muss, okay oder nicht okay.

    Ein weiteres Beispiel für Tätigkeiten in der Verwaltung: Prüfungsämter werden teilweise überflutet mit Standardfragen: Wann ist die Klausur, wo steht das in der Prüfungsordnung, wann darf ich wann schreiben? Dazu könnte man ein Programm programmieren, das alle Unterlagen, zum Beispiel eine Prüfungsordnung, durchforstet und entsprechend den Studierenden antwortet. Das würde vielen ihre Arbeit erleichtern.

     

    Dann spricht aber kein Mensch mehr, wird es dann nicht sehr unpersönlich?

     

    Ja, aber ist es wirklich persönlich, wenn wir Studierende schreiben, wann die Klausur stattfindet? Und wird nicht vor allem Zeit frei, vielleicht für persönliche Kontakte, die wirklich benötigt werden? Es gibt viele Studierende, die den persönlichen Kontakt vermissen, nach Covid ist das tatsächlich weniger geworden. Mit dem Einsatz von KI könnte man mehr Zeit für Studierende einsetzen, die beispielsweise Probleme persönlicher Natur haben und sich um sie kümmern.

     

Welche Tipps hast du für den Einstieg in KI?

Junger Mann sitzt am Laptop

© HSB - Sven Stolzenwald

Für den Einstieg bieten sich mehrere Möglichkeiten an.

An der Hochschule Bremen sind wir in der glücklichen Situation, sehr viele Professorinnen und Professoren zu haben, die mit dem Thema vertraut sind und sich damit beschäftigen. Daher wären interne Schulungen hier sehr gut.

Erste Schulungen gibt es bereits auf AULIS, die kann man dort anschauen und so den ersten Einstieg wagen in das Thema, diese Kurse sind sehr anwendungsorientiert und beginnen mit den Basics, wie melde ich mich an, wie gehe ich die ersten Schritte? Was kann/ soll ich erwarten? Das ist der erste Einstieg, auch Studierende können an diesen Kursen teilnehmen.

Gleichzeitig wäre es tatsächlich gut, wenn die Hochschule solche Kurse, möglicherweise Zertifikatskurse, auch für die interessierte Bevölkerung anbieten könnte, beispielsweise über die Professional School. Ich werde bei meinen Vorträgen in der lokalen Umgebung oft gefragt, warum die Hochschule solche Kurse nicht für Externe anbietet? Der Bedarf ist sehr hoch.  Die meisten möchten einen Einstieg, was ist KI überhaupt, was kann es, was kann es nicht? Ich glaube, viele Studierende stehen vor dem gleichen Problem, dass sie irgendwie nicht wissen, wie kann ich überhaupt starten und was kann ich damit machen?

  • Chat GPT, Google Bard, Microsoft Copilot, Llama 2 oder Claude haben alle Vor- und Nachteile. Wenn man kostenlos eine gute Qualität bekommen möchte, bietet sich Llama an, auch Chat GPT. Claude ist gut, aber bislang nur in den USA zugelassen. Bard war bis vor kurzem auch nur in den USA zugelassen. Llama ist nicht auf einer Web Oberfläche, sondern muss als Programm installiert werden, es ist aber keine große Rechnerleistung dafür notwendig, um diese Programme zu betreiben. Diese drei sind zu empfehlen. Wenn man Microsoft Produkte nutzen möchte, ist Copilot hilfreich, beziehungsweise bei Office 365 ist es bereits integriert.

  • Alle Programme, die wir besprochen haben, sind erst mal kostenlos. Man kann sie auch in der Profi Variante nutzen, die Kosten liegen bei etwa ab 20 Dollar pro Monat, die Grenze nach oben ist offen.

    Aber der größte Einsatz, den man erbringt, ist die Zeit, die man selber einsetzt.

    Man kann am Wochenende acht Stunden dran sitzen, aber das ist auf Dauer schwierig. Es ist also besser, wenn man versucht, die Anwendung von KI in den eigenen Arbeitsalltag zu integrieren und dort zu nutzen.

    Der Arbeitseinsatz, den man tätigt, zahlt sich irgendwann aus, weil die Software bestimmte Tätigkeiten übernehmen wird. Beispiel: Letzte Woche berichtete mir ein Bauingenieur, wie sie mit KI viele Emailantworten (auch Kalkulationen, Angebotspreise) an Kundinnen und Kunden mehr oder weniger automatisieren.  Der Vorteil ist, dass man so entweder viel mehr Kunden bedienen kann oder sich auf etwas Spannenderes konzentrieren kann.

Und dann einfach anmelden und jeden Tag 15 Minuten experimentieren?

Ja, mein Weg wäre, sich einmal anzumelden, dem Programm ein paar Fragen zu stellen, die einem schon immer auf der Seele gebrannt haben, und dann versuchen, Fortbildungsmöglichkeiten zu suchen, um besser zu verstehen, was dort passiert. Es gibt viele Online Kurse, die Schritt -für -Schritt Anleitungen anbieten.

Natürlich könnte man auch gleich Fachliteratur lesen, aber es ist schöner, wenn man den ersten Schritt bereits gegangen ist und konkrete Fragen hat.  Was kann ich erwarten? Was kann ich nicht erwarten? Da müsste man sich tiefer mit der Materie beschäftigen und dann wirklich den Anwendungsfall kennen. Möchte ich das vor allem beispielsweise für die Programmierung nutzen oder wie kann man das so nutzen, dass ich bestimmte Schnittstellen verwende, um meine eigenen Programme zu verbessern?

„<p>Die Kontinuität ist das A und O. Zum Beispiel könnte man jeden Tag versuchen, KI für einen bestimmten Zweck zu nutzen, aber wirklich kontinuierlich am zu Ball bleiben, ist das Wichtigste.</p>“

Prof. Dr. Armin Varmaz

KI kann nach einer Lernphase viel Zeit sparen. Was steht im Kleingedruckten? Wo siehst du berechtigte Kritik am Einsatz von KI?

Zum einen müssen die Nutzerinnen und Nutzer ein Grundverständnis davon haben, was diese Software macht und wie sie funktioniert. Nicht im technischen Sinne, sondern um verstehen zu können, wo die Grenzen sind. Natürlich gibt es ethische Bedenken, aber die größte Gefahr sehe ich in einem unreflektierten Nutzen, die Ergebnisse also für bare Münze zu nehmen und nicht zu hinterfragen.

Wir müssen unseren Studierenden beibringen, dass es wichtig ist, immer wieder zu hinterfragen, was da passiert, weil die Software auch halluzinieren oder falsche Sachverhalte darstellen kann. Auch ohne bösen Willen kann durch Zufall eine Antwort generiert werden, die einfach falsch ist.

Prof. Dr. Armin Varmaz

„Wir brauchen daher ein Grundverständnis, dass die Ergebnisse der KI nicht unreflektiert übernommen werden dürfen und müssen die Hochschulangehörigen dafür sensibilisieren, das ist aus meiner Sicht das Wichtigste. “

Prof. Dr. Armin Varmaz

Ein weiterer größerer Themenbereich und möglicher Kritikpunkt ist der Datenschutz. Was Google Angebote betrifft, würde ich tatsächlich ein bisschen vorsichtig sein, denn Google verdient daran, Daten zu auszuwerten und zu verkaufen, beispielsweise durch Platzierung von Werbung an bestimmten Plätzen, wenn ich selber suche. Weder Microsoft noch Open AI leben davon, dass sie Daten verkaufen. Es ist nicht ihr Geschäftsmodell und sie werden vermutlich kein Interesse daran haben, diese Daten zu verkaufen. Aber selbstverständlich werden sie die Daten nutzen, beispielsweise um zu überprüfen, was fragen die Leute eigentlich? Vielleicht haben wir etwas vergessen in unseren Überlegungen und müssen das entsprechend erweitern.

Und dann gibt es noch einen weiteren Aspekt beim Datenschutz, wo diese Daten verarbeitet werden. Momentan ist es so, dass die Verarbeitung der Daten nicht innerhalb der EU stattfindet, sondern in den USA, das ist definitiv ein Verstoß gegen die Datenschutzverordnung. Das lässt sich aber lösen, ein prominentes Beispiel ist die Allianz Versicherung. Sie hat eine eigene, interne Allianz Chatbot basierend auf Chat GPT entwickelt für alle Dokumente aller Versicherten der Allianz. Das heißt, man kann Datenschutzbedenken tatsächlich integrieren, aber man muss dran denken und es kostet auch Geld.

Wie kann ich meine Daten schützen?

Zunächst sollte man sich mit der Dokumentation der jeweiligen Anbieter vertraut machen, welche Daten werden gespeichert, wenn überhaupt. Beispielsweise kann man bei den Optionen auch in der kostenlosen Variante von Chat GPT festhalten, bitte keine Daten merken, dann werden nach einem Tag alle Daten immer weggelöscht. Tatsächlich werden in den meisten Anwendungsfällen keine Daten gespeichert.

KI nutzt Dialoge, um die Struktur der Dialoge zu verbessern, beispielsweise nicht die falschen Antworten zu geben. Aber das Grundmodell selber wird dadurch nicht trainiert. Wenn ich bewusst KI Software mit falschen Daten füttere, wird es irgendwann auch falsche Antworten geben, dies ist nicht im Sinne der Anbieter.

Der beste Weg um seine eigenen Daten zu schützen, ist, sie gar nicht zu veröffentlichen, also keine eigenen persönlichen Daten im Internet bereitzustellen.

Daten, die ich auf vielen Plattformen, zum Beispiel Facebook, eingebe, werden zu deren Eigentum und gehören nicht mehr mir selber. Und das Internet vergisst nie etwas, alle Daten – beispielsweise auch Fotos bleiben im Gedächtnis. Das bedeutet, man muss immer sensibel mit seinen eigenen Daten umgehen, nicht nur bei KI.

Ein weiterer Kritikpunkt ist die mögliche Gefahr für die Demokratie, wenn Quellen gefälscht oder verwischt werden. Wie schätzt du das ein?

Die Gefahr besteht definitiv. Da sieht man beispielsweise bei den deepfake Videos, die erstellt werden. Man könnte innerhalb von ein paar Minuten mit einem Bild von Bundeskanzler Scholz - am besten ein Bild, bei dem man seine Zähne auch noch sieht, um bei Lippenbewegungen auch Zähne zeigen zu können - ein Video erstellen, in dem er vor dem Bundestag einen Krieg erklärt. Das geht relativ schnell, man braucht nicht viel Einarbeitung. Wenn man sich ein bisschen auskennt, hat man das in 20 Minuten erledigt. Die Gefahr ist tatsächlich da.

Deswegen ist das kritische Hinterfragen nicht nur der Inhalte, die man selber generiert, sondern aller Inhalte wirklich notwendig, so dass man nicht unreflektiert alles übernimmt, was in den sozialen Medien kommuniziert wird.

Denn auch hier können Programme genutzt werden, die schnell und ständig unwahre Texte produzieren zu einem bestimmten Thema. Das ist eine reale Gefahr, die man von außen nicht sofort erkennen kann. Man muss solche Szenen unbedingt hinterfragen und zwei, drei, vier Quellen nochmal nachprüfen. Stimmt das jetzt tatsächlich, was hier erzählt wird oder nicht?

Die Gefahr besteht auch, dass Journalistinnen und Journalisten Szenen genauso unreflektiert übernehmen und es so quasi einen seriösen Anstrich bekommt. Das bedeutet auch, dass die Arbeit der Zeitungen und Zeitschriften des Qualitätsjournalismus sehr wichtig bleiben - genauso wie unabhängige Medien, die nicht von ein oder zwei Familien beeinflusst werden. Freie Presse ist nicht kostenlos zu bekommen, guter Journalismus kostet auch.

Welche Fähigkeiten brauche ich als Nutzer, als Nutzerin? Gibt es sowas wie ein KI 1x1?

Prof. Varmaz schreibt auf eine Metaplanwand

© HSB - Louisa Windbrake

Aus meiner Erfahrung ist Neugier das Wichtigste, was man benötigt, also neugierig sein und sich überlegen, was kann ich mit diesem Tool eigentlich anfangen, und bin ich auch bereit, das zu akzeptieren?

Bestimmte Sachen funktionieren und andere Sachen werden überhaupt nicht gut funktionieren. Es wäre beispielsweise keine gute Idee, damit eine Klageschrift zu verfassen, dazu gibt es nicht ohne Grund Juristinnen und Juristen, die das einfach besser können. Es ist auch keine gute Idee, sich besonders gute Finanztipps zu erhoffen. Beim Aktienkauf bekäme man eher allgemeinere Tipps, muss also andere Fähigkeiten nutzen.

Am besten ist es tatsächlich nicht mit irgendwas anzufangen, sondern Fragen zu Inhalten zu stellen, die man selber beurteilen kann, ob sie stimmen oder nicht stimmen. Dann kann man besser beurteilen, ob die Software in die falsche Richtung läuft

Wenn man KI Tools nutzt, sollte man auch ein paar Fähigkeiten rund um den Computer haben, also wissen, wie man die Rechner benutzt.

Und man sollte – vielleicht ein Persönlichkeitsmerkmal - keine Angst haben. Man nutzt ja die Software alleine, niemand wird einem über die Schulter blicken und kritisieren, wie schlecht man das gemacht hat, sondern man nutzt es erstmal für sich alleine und braucht keine Angst vor dem Scheitern haben.

Eine weitere Fähigkeit wäre, sich ein bisschen sich mit Daten auszukennen muss und zu verstehen, dass es immer um Mustererkennung geht. Mehr ist das nicht.

Welche Rolle spielen ethische Überlegungen?

Dies ist ein weiterer, wichtiger Punkt. Was darf ich mit KI jetzt alles machen? Bei Chat GPT haben die Entwickler und Entwicklerinnen bewusst daran gedacht, dass man diese Software für aus ihrer Sicht falsche Zwecke nutzen kann, sodass bestimmte Antworten von vornerein unterbunden werden, beispielsweise Antworten, die gegen Rechtsnormen verstoßen würden wie Kinderpornografie. Da bekommt man keine Antworten von Chat GPT, weil es verboten ist.

Aber es gibt weitere Möglichkeiten, wie man beim Nutzen von KI unbewusst gegen ethische Grundsätze verstoßen kann.

Man muss ein Bewusstsein dafür entwickeln, dass die Aufgabe der KI ist, Daten zu erkennen, und abhängig von der Datenbasis können unterschiedliche weitere Fehler produziert werden. Dies kann zu falschen Schlussfolgerungen führen, wenn man sich alleine auf die KI als Quelle konzentriert und die Antworten übernimmt.

„<p>Es geht zusammenfassend darum, ein grundlegendes Verständnis zu entwickeln, Anwendungsmöglichkeiten zu kennen, ethische Grundsätze zu verstehen und sich dabei immer weiterzubilden. Hier wird „lebenslanges Lernen“ besonders wichtig, weil die Entwicklung rasant ist und man ein bisschen Schritt halten muss.</p>“

Prof. Dr. Armin Varmaz

Wie lerne ich als Mensch Verantwortung zu übernehmen für KI gesteuerte Ergebnisse oder Entscheidungen? Wie gelingt das beispielsweise Studierenden?

Prof. Dr.-Ing. Jasminka Matevska beim Unterricht im Hörsaal mit drei Studentinnen

© HSB - Sabrina Peters

Das ist das wichtigste Stichwort, nämlich wie wir an der Hochschule Studierende sensibilisieren für alle Probleme, die die Software mit sich bringt, aber auch ihre Chancen und Wege aufzeigen. Wie können sie das legitim und legal im Rahmen ihres Unterrichts und ihrer Ausarbeitungen nutzen?

Ganz wichtig an der Stelle ist, dass man die Studierenden verpflichtet, dass sie – schriftlich - die persönliche Verantwortung übernehmen für den Inhalt aller Texte, die sie mit KI erzeugen. Es lässt sich nicht als Literaturquelle nutzen, da sie in der Regel nicht überprüfbar und nicht reproduzierbar ist. Das schreckt schon ein bisschen ab, wenn man überlegen muss: „Okay, jetzt habe ich einen Text, der klingt gut, aber ich muss es nochmal verifizieren. Stimmt eigentlich das, was, was ich, was ich dort abgebe?“

Und genau das Gleiche gilt im täglichen Doing. Ich kann sehr schnell Texte generieren lassen von der KI, aber ich muss beurteilen können, ob es auch stimmt. Vielleicht weil ich bereits Experte, Expertin in dem Bereich bin und sofort beurteilen kann, was gut oder schlecht oder fehlt oder zum Schluss komme, das ist eine gute, gute Ergänzung.

Aber wenn ich kein Experte/ Expertin bin, muss ich das verifizieren. Das heißt, ich muss die Fachliteratur durchgehen und einmal kurz mir angucken. Stimmt das eigentlich, was dort vorgeschlagen und gesagt wird?

Wie realistisch siehst du die Gefahr einer KI gesteuerten Superintelligenz, die Entscheidungen alleine trifft?

Diese Gefahr wird sehr breit momentan diskutiert, aber ich würde sie als unter einem Prozent ansetzen. Schon deswegen, weil man die Rechenpower gar nicht hätte, um so etwas überhaupt theoretisch erzeugen zu können.

Es gibt so etwas wie einen Anflug von Intelligenz, aber ein Selbstbewusstsein gibt es nicht. Was sich so anhören mag, ist einfach eine Reproduktion des Wissens, sprich, die Software greift auf Informationen aus ihren Quellen zurück und wiederholt, „es könnte ja sein, dass ich mich selbst bemächtigen kann, um die Welt zu beherrschen“.

Letztlich ist es immer die Frage, was die Menschen zulassen oder nicht zulassen. Auf der anderen Seite gibt es die Möglichkeit, die in Filmen gerne als Motiv benutzt wird, dass die KI irgendwann sagen könnte, die größte Schwäche ist nicht die KI selbst, sondern der Mensch, der diese Regel gemacht hat, daher muss der Mensch eliminiert werden. Ja, das könnte passieren, das ist nicht ausgeschlossen.

Daher immer die schwierige ethische Frage, wo darf oder sollte man KI einsetzen? Beispiel: selbstfahrende Autos und eine typische Fragestellung. Zwei Personen sind auf der Straße, ein Kind und eine ältere Frau, wer von beiden sollte überfahren werden, wenn ein Durchkommen nicht anders möglich ist? Diese Fragen kann die KI nicht selbst beantworten. Ein/e Techniker/ Technikerin oder jemand aus der KI Forschung wird wahrscheinlich sagen, das muss man dem Zufall überlassen. Aber die meisten Menschen hätten ein Problem damit und daher sollte man solche Entscheidungen nicht der KI überlassen und sie kann auch nicht die Verantwortung dafür übernehmen, sondern wir Menschen.

Auf der positiven Seite: was können wir als Menschen, was KI nicht kann?

Junge Frau unterhält sich lächelnd mit einer anderen jungen Frau.

© Markus Meyer, RKM

Emotionen sind etwas, was KI aus meiner Sicht noch lange Zeit nicht verstehen wird.  Sie kann Emotionen imitieren, ein Lächeln oder ein trauriges Gesicht beispielsweise. Sie kann aber noch nicht den Kontext und das Kontextuelle verstehen, das können Menschen deutlich besser bei emotionaler Intelligenz. Und kreatives Denken können wir viel besser, auch kritisch zu denken.

Was Menschen bislang noch viel besser können, ist ihre Anpassungsfähigkeit und in sehr komplexen Situationen die richtigen Schlüsse zu ziehen.

Ein Beispieist das Autofahren. Die KI braucht viele, viele Daten, um Muster zu erkennen, und mit Hilfe dieser Muster kann sie dann bestimmte Prognosen abgeben, die sehr gut funktionieren. Das Autofahren ist ein Feld, bei dem es zwar viele Daten gibt, aber bei weitem nicht genug Daten, um die Komplexität des Fahrens abzudecken und die KI entsprechend zu trainieren. Beispielsweise ändert sich jeden Tag das Umfeld, mal mehr Licht, mal weniger Licht, Bäume oder nicht, kein Regen, Regen auf der Straße, Schulkinder auf der Straße – und damit jeden Tag eine neue Situation.

Die meisten Menschen können, nachdem sie zehn, zwanzig Mal  Auto gefahren sind, intuitiv erfassen, ob es eine Gefahrensituation gibt oder nicht. Das kann die KI momentan noch nicht, weil sie nicht in der Lage ist selbstständig zu denken.

Jedes Tool bringt Chancen und Risiken. Es kommt immer auf den Menschen an, wie er die Chancen und die Risiken sieht. KI ist ein Werkzeug, ein Tool, es denkt nicht selbstständig, und wir Menschen nutzen es entweder für sinnvolle Sachen oder nicht ganz so sinnvolle Sachen, und die Menschen stehen letztendlich in der Verantwortung.

Ist die Frage nach Chancen und Risiken bei KI eine spezifisch deutsche Diskussion oder wird das weltweit diskutiert?

Chancen und Risiken werden tatsächlich weltweit diskutiert, es ist allerdings immer die Frage, was man betont. Betont man mehr die Chancen und nutzt sie oder hat man mehr Bedenken, dass es Risiken gibt? Da zeigen sich klare Unterschiede zwischen Deutschland/ vielleicht auch Europa und der Welt. Bei uns werden eher die Risiken gesehen, man versucht zu regulieren und geordnete Bahnen zu setzen, also auf Stabilität zu setzen. In anderen Ländern, beispielsweise den USA, versucht man eher aktiv die Chance zu sehen, auch wenn nicht alle Menschen teilhaben können.

In China beispielsweise greift der Staat deutlich ein, Anfragen zu den Demonstrationen auf dem Tiananmen-Platz 1989 werden alle geblockt und einfach nicht beantwortet. Das lässt sich allerdings teilweise umgehen. Forschungen haben gezeigt, dass durch geschicktes und beständiges Nachfragen die Software doch Antworten liefert. Die Programme sind darauf trainiert, den Nutzer zufriedenzustellen und möglichst viele Antworten zu geben, ab einem gewissen Punkt offenbaren sie dann doch mehr als vom Staat gewollt.

Insgesamt zeigt sich, dass beispielsweise Russen und Chinesen westliche KI Programme als Bedrohungspotenzial einschätzen, da sie die Verbreitung westlicher Narrative in ihren Ländern befürchten. Sie versuchen daher, eigene Programme zu pushen.

Welche Verantwortung beim Gebrauch von KI trage ich als einzelne Person, welche Verantwortung trägt aus deiner Sicht eine Institution wie die Hochschule Bremen?

Prof. Dr. Trittin im Unterricht mit Studierenden

© HSB - Thomas Ferstl

Individuen sollten sich bilden und Software nicht unreflektiert nutzen, auch Antworten nicht unkritisch übernehmen. Also immer überprüfen, kritisch reflektieren, eigene Einsichten und Ansichten einbringen.

Wenn man KI Tools ganz konkret nutzt, sieht man schnell ihre Grenzen, die Angst, dass sie die Weltherrschaft übernehmen können, entpuppt sich dann als etwas, was erst in Jahrzehnten, wenn überhaupt, passieren kann, weil die Tools noch nicht alles richtig beantworten können und bei einfachen Aufgaben scheitern, beispielsweise ein gutes Rezept vorzuschlagen.

Der Hochschule kommt als einer Institution, die bei Studierenden, aber auch in der Gesellschaft vertrauenswürdig ist, besondere Verantwortung zu.

  1.  Wir haben einen Bildungsauftrag und sollten die verantwortungsbewusste und verantwortungsvolle Nutzung der Tools in unseren Bildungskanon integrieren. Das muss kein eigenes Fach sein, es kann als Querschnittsfunktion gedacht werden.
  2. Forschungsethik. Wenn wir als Forschende diese Tools neu entwickeln und nutzen, müssen wir die Daten gründlich reflektieren und auch unsere Perspektive hinterfragen. Beispiel: Gesichtserkennungsprogramme, die auch KI nutzen, hatten in der Darstellung Probleme mit Menschen mit dunkler Hautfarbe. Die KI setzte die Existenz von Schminke mit der Existenz einer dunklen Hautfarbe gleich und produzierte viele falsche Ergebnisse. Sie versucht Muster zu erkennen und kann daran auch scheitern.
  3. Drittens ist die Frage der Zugänglichkeit und der Inklusion sehr wichtig, man also daran denkt, dass nicht alle Menschen diese Tools nutzen können oder wollen.
  4. Viertens kann sich die Hochschule auch aktiv selber in den öffentlichen Diskurs selber einmischen und formulieren, was wir sowohl bei der Forschung aber auch vor allem bei der Anwendung benötigen, um verantwortungsvoll mit dieser Technik umgehen zu können. Dies ist in der Form von Politikberatung denkbar, indem man beispielsweise als Experte/ Expertin einen Beitrag zu den Diskussionen in den Ausschüssen des Parlaments gibt.  Wichtig dabei ist, sich vor Augen zu halten, dass dies ein gesamtgesellschaftliches Problem ist und interdisziplinärer Ansätze bedarf, die auch in der Hochschule gefördert werden könnten. Neben der Technik spielen die rechtliche Seite, die Ökonomie und beispielsweise die Psychologie eine wichtige Rolle. Viele Kollegen/Kolleginnen sind in der Diskussion öffentlich sichtbar, aber die Hochschule als Ganzes würde von einer klaren Strategie profitieren.

Wie schätzt du die die Situation in fünf Jahren ein? Welche Einsatzmöglichkeiten wird es geben?

Meiner Ansicht nach werden wir in fünf Jahren häufiger mit KI reden, beispielsweise bei Telefonaten, um einen Arzttermin zu vereinbaren. Diese Kommunikation wird immer mehr KI gesteuert sein, ohne dass wir das merken. Ich hoffe, dass es kenntlich gemacht wird. Die medizinische Forschung wird sehr stark von KI gesteuerten Methoden profitieren, beispielsweise bei der Früherkennung von Tumoren.

Zugleich erhoffe ich mir einen positiven Einfluss auf die Ökologie und Klima, weil man durch Smart City Systeme beispielsweise die Energienutzung besser koordinieren kann und Daten von Energieversorgern auswertet.

Vielen Dank für dieses Interview!

Interviewerin: Dr. Monika Blaschke

  • Zu unserer Instagram Seite Zu unserer Instagram Seite
  • Zu unserer Facebook Seite
  • Zu unserer YouTube Seite
  • Zu unserer Xing Seite
  • Zu unserer LinkedIn Seite
  • Kontakt
  • Cookies
  • Raumfinder
  • Karriere
  • Impressum
  • Datenschutz
  • Barrierefreiheit

© HSB - Hochschule Bremen 2025