Die Dolmetscherin
Barbara Plank erklärt „NLP“

Weitere Artikel aus diesem Magazin

NLP: Rechner lernen, besser mit Sprache umzugehen. Foto: Fabian Helmich

Es gibt wissenschaftliche Begriffe, die es in die Alltagswelt geschafft haben. LMU-Wissenschaftler erklären an dieser Stelle solche Ausdrücke – nicht nur mit einer reinen Definition, sondern auch mit einer kurzen Geschichte ihrer Popularität. 

„Maschinen sollen menschliche Sprache verstehen und selbst generieren können. Aus dieser Idee entstand ein interdisziplinäres Forschungsgebiet, das sich mit Computersoftware zur maschinellen Verarbeitung menschlicher Sprache beschäftigt: das Natural Language Processing (NLP), auch Computerlinguistik oder Language Technology genannt. 

NLP ist also ein Kernbereich der Künstlichen Intelligenz (KI), der sich mit menschlicher Sprache befasst, daneben boomen gerade auch Bildgeneratoren, also Systeme, die sich mit dem Verstehen und Erzeugen von Bildern beschäftigen. Der Schwerpunkt bei NLP liegt heute auf modernen datengesteuerten Ansätzen und Methoden, die maschinelles Lernen auf großen Textmengen anwenden. Sie erkennen Muster in Sequenzen aus sprachlichen Einheiten, wie zum Beispiel Buchstaben, Wörter, Phrasen, Sätze, sowie gesprochene Sprache oder eine Verbindung von Bildern und Texten. Der Begriff NLP hat sich in den letzten Jahren durch die Popularität von NLP-Systemen wie Alexa, Siri und Large Language Models wie BERT und ChatGPT weit verbreitet, obwohl der Begriff und das Feld seine Ursprünge bereits in den 1930er- und 1940er-Jahren hat mit dem Beginn der Studie an maschineller Übersetzung.

NLP ermöglicht es Computern, über KI-Methoden mit Menschen zu kommunizieren. Sie sind damit in der Lage, Texte zu verstehen, Fragen zu beantworten oder Texte aus anderen Sprachen zu übersetzen. Inzwischen übernimmt NLP auch komplexere Aufgaben: Es lassen sich damit Informationen aus unstrukturierten Texten herausziehen oder Artikel maschinell übersetzen. Die neueste, viel diskutierte Entwicklung ChatGPT kann sogar eigene, redegewandte Texte generieren.

Frühe Ansätze gründeten auf regelbasierten Systemen, bei denen Grammatikregeln und Lexika verwendet wurden, um Texte zu analysieren oder generieren. Doch diese Ansätze hatten ihre Grenzen, da menschliche Sprache vielfältig und oft implizit und uneindeutig ist. Mit dem Aufkommen von statistischen Methoden, Maschinellem Lernen und vor allem Methoden, die auf neuronalen Netzen (Deep Learning) basieren, hat sich das Feld rasant weiterentwickelt.

Die Vielfalt der menschlichen Sprache, einschließlich Ironie, Mehrdeutigkeiten und Minderheitensprachen oder Dialekten, stellt nach wie vor eine große Herausforderung dar. Zudem müssen ethische Aspekte wie Datenschutz und Fairness bei der Entwicklung von NLP-Systemen berücksichtigt werden. Insgesamt aber hat NLP das Potenzial, die Art und Weise, wie wir mit Computern interagieren, grundlegend zu verändern. Es ermöglicht eine natürlichere und effektivere Kommunikation zwischen Mensch und Maschine.“

Prof. Dr. Barbara Plank ist Professorin für Künstliche Intelligenz und Computerlinguistik an der LMU

diesen Artikel teilen:

0 Kommentare

Einen Kommentar abschicken

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Aktuelles aus der Forschung

Spielend lernen

Wie sich virtuelle Welten nutzen lassen, um Erkenntnisse aus der realen Welt zu vermitteln

„Eine Bühne, Gleis für Gleis“

Bahnhöfe symbolisieren den Aufbruch in der Moderne: Eine Expressfahrt durch die Literaturgeschichte.

Zusammenhalten

Editorial zum Schwerpunkt

Halten oder spalten

Mario Gollwitzer erforscht, was Menschen auseinanderbringt und Gesellschaften zusammenschweißt.

Migration als Chance

Politik und Gesellschaft müssten Deutschland für qualifizierte Ausländer attraktiver machen und die Integration fördern.

Gemeinsam besser zum Ziel

Wie aus mehreren Menschen ein Team wird

Die Teilchen und das Ganze

Im Mikroskopischen lassen sich quantenmechanische Systeme mathematisch exakt beschreiben, im Makroskopischen bislang nicht.

Kooperation mit der Konkurrenz

Wissenschaft lebt von Vernetzung und Austausch – aber auch vom Wettbewerb. Wie gelingt Forschenden dieser Spagat?

Im Nebel der Bilder

KI-Werkzeuge wie das von Björn Ommer entwickelte Stable Diffusion bringen Computern das Sehen und Malen bei.

„Es gibt keinen absoluten Schutz“

LMU-Informatiker Dieter Kranzlmüller, Leiter des Leibniz-Rechenzentrums, über Cybersicherheit in Zeiten der ersten Quantencomputer

Langer Atem

Olivia Merkel forscht seit dem Beginn ihrer Karriere an Methoden, therapeutische RNA-Abschnitte zielgenau zum Wirkort in der Lunge zu transportieren.

Herzenswünsche

Schweine dienen als Modellorganismen – und als potenzielle Organspender für Menschen. Ein Besuch auf dem Moorversuchsgut der LMU, wo man an den Tieren forscht

Büchertisch

Neues von Martin Schulze Wessel, Hans van Ess und Holger Gzella

Die Zukunftsfrage

Können sich unsere Pflanzen auf den Klimawandel einstellen?

Impressum

Das LMU-Magazin

Echt jetzt – Natürlich, künstlich: Die Grenzen verschwimmen

Nummer 2 / 2023

Zusammenhalten – Vom Wert der Kooperation

Nummer 1 / 2023

Ruf der Wildnis – Was die Natur von uns verlangt

Nummer 2 / 2022

Muster des Fortschritts – Was uns voranbringt

Nummer 1 / 2022

Raus ins Leben – Eine Generation nach dem Lockdown

Nummer 2 / 2021