DeepL ist praktisch. Ich nutze diesen Übersetzer gerne und manchmal selbst nicht kritisch genug. Leider.
Vielleicht bin ich aktuell ein wenig sensibel, aber mir scheint, Künstliche Intelligenz (KI) oder auch Artificial Intelligence (AI) ist gerade en vogue. Zumindest lässt die Berichterstattung dies vermuten. Da gibt es einen Beitrag Anfang August in Der Standard darüber, wie sich künstliche Intelligenz das letzte Selfie der Welt vorstellt, auf der Webseite von Spektrum Wissenschaft wird berichtet, dass künstliche Intelligenz die Struktur von Proteinen entschlüsselt und schon Ende Juli liest man in Der Standard, dass Künstliche Intelligenz eine wissenschaftliche Arbeit über sich selbst schreibt.
Künstler*innen und Designer*innen protestieren gegen KI-generierte Grafik, Wie künstliche Intelligenz die Musik beeinflusst – heute und in Zukunft, Wenn Computer komponieren, Klassische Musik: Von KI komponiert, von Menschen gespielt, Wenn der Algorithmus Gedichte schreibt – auch der künstlerisch-kreative Bereich ist nicht (mehr) KI-frei. Und manch von einem Menschen geschaffenes Werk erinnert eher an Computer…
AI – WTF?
Ich bin nun wahrlich keine Expertin, wenn es um Artificial Intelligence geht und habe deshalb ganz naiv ein wenig nachgeschlagen, wo uns AI begegnet und bin damit auf folgendes Video gestoßen, das meines Erachtens eine kompakte und (dem Channel-Namen gerechte) einfache Erklärung gibt:
Interessant auch das Interview mit Mugdim Bublin (FH Campus Wien), der die Möglichkeiten aber auch die Grenzen von AI aufzeigt. Die Breite ist spannend und ich glaube, wir sind uns vielfach gar nicht bewusst, wie sehr wir durch AI bereits beeinflusst sind: Chatbots, die Kamera am Smartphone, Überwachungskameras, algorithmengesteuerte Suchergebnisse, lernende Systeme, Machine Learning… Manche Bereiche funktionieren (schon) besser, manche (noch) nicht. Aber durch einen ständigen Lernprozess werden die Anwendungen immer besser und damit auch schwieriger zu erkennen (wenn man dies überhaupt möchte). Und sie eröffnen neue Fragen, beispielsweise im Kontext des Urheberrechts.
Warum DeepL Fluch und Segen zugleich ist
Als Sprachlehrerin beschäftigt mich das Thema insofern schon längere Zeit, als ich die Entwicklung von DeepL aufmerksam verfolge. DeepL gilt aktuell als eine der besten (zuverlässigsten, genauesten) Anwendungen zur maschinellen Übersetzung von Texten in unterschiedliche Sprachen. Und auch wenn Lynn Nothegger auf LinkedIn schreibt, dass DeepL und ähnliche Anwendungen die menschliche Übersetzung nicht so schnell ersetzen werden, so ist die Genauigkeit von DeepL in einigen Sprachen mittlerweile doch recht beeindruckend. Klar, es gibt Unterschiede in den einzelnen angebotenen Sprachen – aber das System lernt mit jeder Übersetzung.
Genau bei diesem Lernprozess sehe ich ein großes Problem, das DeepL mit sich bringt. Wir können jetzt gerne auch mit dem anderen Problem starten, nämlich dass Sprachlerner*innen und Sprachanwender*innen DeepL nutzen und nicht mehr selbst übersetzen. Dass sie sich blind auf Übersetzungsprogramme verlassen und dabei in die eine oder andere interkulturelle und/oder sprachliche Falle tappen: Homophonie, fehlende Kontexte, Sprachspiele, Sprichwörter, Ironie, Sarkasmus, gemeinsame Wissenskontexte („Insiderwitze“) und vieles mehr lassen sich nicht so einfach übersetzen. Das sind auch Bereiche, mit denen sich Erstsprachensprecher*innen schwer tun (können). Siehe dazu Nie wieder Sprachen lernen? Der steinige Weg zum Universalübersetzer, der aus der Praxis berichtet. Ein interessantes Forschungsprojekt zum Thema KI-gestützte Grammatikvermittlungsmethoden verfolgt gerade Thomas Strasser (hier eine kurze Pressemitteilung dazu), der in Künstliche Intelligenz im Sprachunterricht einen kompakten Ein- und Überblick gibt.
Verarmung, Verfestigung, Verblendung
Ich komme aber nun zu meinem eigentlichen Problem zurück, nämlich dem lernenden System DeepL. DeepL ist praktisch, keine Frage. Vielleicht zu praktisch. Denn ich frage mich, wie viele ihre Übersetzungen in DeepL überarbeiten und die zunächst vorgeschlagenen Übersetzungen direkt in DeepL korrigieren. Nur so kann das System nämlich lernen. Wenn wir die Korrekturen erst im Textverarbeitungsprogramm durchführen, in das wir unsere Übersetzung kopieren, hat DeepL nichts davon und glaub vielleicht, die Übersetzung sei richtig und gut. Sie verfestigt sich durch diese Bestätigung und wird auch anderen vorgeschlagen. Dadurch kann es, meines Erachtens, zu einer Verarmung des Wortschatzes kommen. Werden immer die gleichen Übersetzungen genommen und wird auf Synonyme (aus Gründen von Faulheit, Pragmatismus, Unwissenheit usw.) verzichtet, verschwinden diese sprachlichen Alternativen vielleicht aus dem Übersetzungsrepertoire… Und das fände ich schade. Sprache entwickelt sich immer weiter. Neues kommt dazu und ergänzt das Alte (oder löst es ab). Ich finde hierzu den Beitrag zur Wahl des Jugendwort des Jahres 2022 auf der Seite von Langenscheidt so anschaulich und amüsant – Sprache ist dynamisch. Sprache ist innovativ. Das zeigt eine Tabelle im Spiegel Wissenschaft: Von knorke bis gaga. Oder Bastian Sick – ein Evergreen quasi – mit Wo lebt Gott eigentlich heute? Und gleichzeitig verfestigen sich nicht ganz korrekte (euphemistisch geschrieben) Übersetzungen – wie media didactics für Mediendidaktik (siehe dazu Linguee, das die „Basis“ für DeepL bildet – wenn eine Übersetzung oft vorkommt, möchte man doch meinen, sie stimme, oder?).
Hier übrigens ein Bild von Dame Knorke:
Ich merke, ich schweife ab. Sprachverfall, Sprachwandel, Pragmatismus. Nennen wir es, wie wir wollen. Aber Synonyme sind was Schönes und es macht – zumindest in meinem Kopf – einen Unterschied, ob ich an ein Tête-à-tête, ein Gspusi oder eine love affair denke. Sprache macht etwas in meinem Kopf. Unser aktiver Wortschatz ist bekanntlich geringer als unser passiver (no, na), aber wenn unser aktiver auch immer weiter schrumpft, dann… naja, verliert die Sprache etwas an Charme. Wenn die Prinzessin mit dem güldenen Haar einfach nur eine Blondine ist… Ach, bilden Sie sich selbst eine Meinung…
DeepL(len) als Kompetenz
Jedenfalls ist das für mich eine Problematik an DeepL und der Umgang mit DeepL muss, wie auch der Umgang mit einem (gedruckten) Wörterbuch als Kompetenz vermittelt/erlernt werden. Dass Schüler*innen DeepL durchaus kreativ verwenden, zeigte Philippe Wampfler in einem Blogpost: Seine Schüler*innen verwenden den Übersetzer als Korrekturwerkzeug im Erstsprachenunterricht.
Das finde ich großartig. Denn hier wird mitgedacht.
Mitdenken erlaubt
Das gilt auch für IKomma, das uns „Automatische Kommasetzung durch KI“ verspricht. Dass es nicht einwandfrei funktioniert, zeigt die Diskussion, die auf Twitter dazu entstanden ist:
Wie aber sollte es auch eine eindeutige Lösung geben, wenn Beistriche doch eine bedeutungsunterscheidende Funktion übernehmen können. Sie kennen das Beispiel: Komm, essen wir Opa! Das mit Beistrich weniger kannibalisch klingen kann: Komm, essen wir, Opa! Das Oxford Comma im Englischen ist ein weiteres Beispiel. Betonungen, Interpretationen, Bedeutungen – künstliche Intelligenz kann (noch) nicht alles. Ein weiteres Beispiel wäre hier auch das Abteilen von Wörtern, die mehrere Möglichkeiten und damit auch Potential für Missverständnisse bieten – die Blumentopferde sind so ein schönes Beispiel aus meiner Kindheit. Hier noch ein aktueller Thread dazu, bei dem ich herzlich gelacht habe:
Übersetzungsprogramme können uns verschiedene Versionen liefern und uns erklären, wo die Unterschiede liegen. Das wäre doch fein. Wie wäre es beispielsweise mit der Verwendung des Konjunktivs im Deutschen zur Wiedergabe einer (fremden) Meinung in indirekter Rede. Ein verschwindendes sprachliches Mittel… Leider…
Unterstützung erwünscht
Unterstützung ist aber jedenfalls erwünscht. Und Tools gibt es hierzu zahlreiche. Acht möchte ich nennen:
- LanguageTool (Ihr Schreibassistent)
- Hemingway App makes your writing bold and clear.
- Analyze My Writing
- Rewordify
- Writefull
- Duden Mentor (digitale Textprüfung)
- Pons Translater
- DeepL (in unterschiedlichen Einsatzmöglichkeiten)
Es gibt sicherlich noch mehr – über Empfehlungen (vor allem auch für andere Sprachen) freue ich mich.
MySimpleShow und das Stereotyp
Ein weiteres Beispiel ist der Videoeditor MySimpleShow, der für das Englische, soweit ich aus Erzählungen von Kolleg*innen weiß, recht gut funktioniert, im Deutschen aber so seine Probleme hat.
Das Prinzip ist einfach: Man lädt einen Text hoch und das Programm wählt zum Text passende Bilder aus. Daraus wird ein Video erstellt. Das kann ziemlich lustig sein, weil das Programm den Kontext nicht berücksichtigt und teilweise mit dem literalen und dem abstrakten Sinn Probleme bekommt. Und – für mich auch sehr kritisch – sehr stark mit Stereotypen spielt: Die Familie wird mit Mutter, Vater, Kind dargestellt, das Haus besteht aus einem Quadrat mit aufgesetztem Dreieck als Dach… So praktisch der Editor ist, so sehr muss man ihn nachbearbeiten, wenn man ein korrektes Video haben möchte. Dieser Aufwand ist mitzudenken und generell: Das Tool ist in den Beschreibungen und Empfehlungen (wie das auch bei anderen Tools manchmal der Fall ist) zu wenig reflektiert und nur deskriptiv präsentiert. Zwei Beispiele aus der Medienfundgrube und aus Digitale Schule. Der Einsatz ist Unterricht ist möglich, wenn man die Bildebene (in u.a. Auswahl und Darstellung) auch (gemeinsam) reflektiert. Denn gerade Bilder machen viel in unserem Kopf.
Was uns diese Anwendungen nicht abnehmen, ist das (kritische) Mitdenken. Es sind Werkzeuge, die uns unterstützen und einen Teil der Arbeit abnehmen können. Sie können uns Empfehlungen geben. Es liegt aber an uns, sie verantwortungsbewusst zu nutzen – nicht zu verteufeln. Sie sind Teil unserer Gesellschaft (oder auch Lebenswelt) und als solche zu behandeln, zu nutzen, einzusetzen… Kritisch, reflektiert und zielorientiert, eben als mündige digital citizens, die „wissen, was sie tun“.
UPDATE
Ich danke allen, die zum Beitrag auf Twitter rückgemeldet haben – ich möchte den Thread hier noch einbetten:
Da gibt es den wichtigen Hinweis auf die terminologische Problematik und die Hypes rund um das Thema (Danke Armin), die Wichtigkeit der Korpuslinguistik als Basis und Referenz für Übersetzer, wie DeepL (Danke Thomas), einen Beitrag von Nele Hirsch von der Edunautika und auch schöne weitere Beispiele, wie den Beitrag zum Eurovision Song Contest (Danke Steffen):
Oder auch Kochrezepte, die mit dem Satzvervollständigungscomputer generiert werden. Ein kleines Augenzwinkern ist dabei:
Eine Fülle an Ressourcen liefert auch das Goethe-Institut (Danke Annette) – beispielsweise mit der Aufzeichnung des Online-Seminars „Übersetzungstechnologien im Deutschunterricht“ – hierfür ein wenig nach unten scrollen.
Hallo, und zuerst einmal vielen vielen Dank dafür, dass hier Links genannt werden, die man auf Anhieb nicht findet, weil die Firma Deepl offensichtlich der Werbekönig ist.
Mit Deepl (online) habe ich die Erfahrung gemacht, dass schwere Mängel bestehen, die es bei Google Translate nicht gibt. So entstehen bei Übersetzungen aus dem japanische ins deutsche manchmal Ergebnisse, die kein einziges deutsches Wort enthalten und die sich sonst auch keiner existierenden Sprache zuordnen lassen. Vieles kann Deepl auch gar nicht übersetzen, und dann kopiert es einfach den japanischen Text. Auch hat man manchmal den Eindruck, dass da ein Zufallsgenerator am Werk sei. So habe ich vorhin das Wort „えちえち“ (vermutlich ein Slang-wort, da es in bekannten Wörterbüchern wie Takoboto nicht auftaucht) eingegeben. Beim ersten Mal wird es übersetzt als „echo-echi“; als ich es nach 5 Minuten wieder versuche heißt es „pummelig“. Bei manchen Worten kann man dieses Spiel stundenlang treiben, und es kommt immer etwas anderes heraus! Weiterhin hätte man auch darauf achten müssen, dass Worte, die durch Schreibung in lateinischer Schrift oder in Katakana als ausländische Worte gekennzeichnet sind, nicht als japanische Worte angenommen werden dürfen. So wird „Ich möchte bei VMNW (eine Popgruppe) bleiben“ zu „Ich möchte bei Bumnew (eine Schönheitskonkurrenz für Pornostars) mitmachen“.
Insgesamt stellt sich die Frage, ob künstliche Intelligenz nicht manchmal eher künstliche Dummheit ist. 😉
Sehr gerne 🙂 Ich stimme der Kritik an DeepL jedenfalls zu. Die AI hat sich durch das menschliche Training leider nicht weiterentwickelt…