LangTec

WIR ENTWICKELN INNOVATIVE SPRACHTECHNOLOGIE- UND KI-LÖSUNGEN FÜR IHR UNTERNEHMEN

Unsere Kernbereiche sind semantische Textanalytik (NLP), Text-, Daten- und Dokumentgenerierung (NLG), große Sprachmodelle (LLMs), maschinelles Lernen (ML) und künstliche Intelligenz (KI). Mit unserem Team aus Computerlinguist:innen, Data Scientists, Data Engineers und Software-Entwickler:innen agieren wir seit 2011 erfolgreich am Markt. Eine umfassende Liste unserer Kunden sowie Projektbeschreibungen finden Sie hier.

Tätigkeitsfelder

Text-Analytik (NLP)

Text-Analytik oder Text-Mining nutzt eine Vielzahl von Verfahren aus der Computerlinguistik und künstlichen Intelligenz, um aus unstrukturierten Texten strukturierte Informationen zu gewinnen. Konkret werden in den Inputtexten mittels lexikalischer Eigenschaften, syntaktischer Strukturen, statistischer Beobachtungen und maschineller Lernverfahren gezielt Muster, Strukturen und Zusammenhänge gefunden und so tiefergehende semantische Zusammenhänge extrahiert.

Maschinelles Lernen (ML)

Je nach Projektzielsetzung und -kontext kommen bei LangTec unterschiedlichste maschinelle Lernverfahren zum Einsatz. Wir nutzen sowohl unüberwachte Lernverfahren, z. B. im Dokumentclustering, in der Themenmodellierung oder der Erstellung von vektorbasierten Wort- und Sprachmodellen als auch überwachte Lernverfahren, die beispielsweise in der Text- und Dokumentklassifikation oder der gezielten Informationsextraktion zum Einsatz kommen. Im Deep-Learning-Kontext setzen wir zunehmend auch vortrainierte Sprachmodelle ein. In unseren forschungsnahen Projekten kommen Transfer Learning und Model Destillation zum Einsatz.

Künstliche Intelligenz (KI)

Der Begriff ‘Künstliche Intelligenz’ ist eigentlich ein Überbegriff, unter dem sich alle unserer Aktivitäten zur Projekt- und Produktentwicklung zusammenfassen lassen. Wir bauen Lösungen, die Probleme der echten Welt intelligent lösen. An unsere Lösungen stellen wir den Anspruch, dass sie die Qualität und Effizienz der Prozesse dabei deutlich über das Level menschlicher Entscheidungen anheben. Nur wenn die resultierende Lösung die Aufgabe wirklich messbar besser löst als es ein Mensch könnte, ist der Begriff ‘Künstliche Intelligenz’ unser Meinung nach wirklich angebracht. Auch wenn Künstliche Intelligenz und maschinelles Lernen heutzutage in einem sehr engen Zusammenhang miteinander stehen, geht unser Verständnis vom Begriff ‘KI’ weit über den des maschinellen Lernens hinaus.

Textgenerierung (NLG)

Die automatisierte Generierung von journalistischem Content aus strukturierten Daten ist heutzutage schon fast Commodity. Automatisierte Textgenerierung nutzt Methoden der Computerlinguistik und Künstlichen Intelligenz, um auf Basis von strukturierten Daten menschenlesbare Fließtexte zu erzeugen. Mit LangTecs Lösung TextWriter können erzeugte Texte zusätzlich auf unterschiedliche Parameter hin optimiert werden, z. B. SEO-Relevanz, Lesbarkeit, Textlänge, Zielgruppe oder Ausgabemedium. Typische Anwendungsbereiche von TextWriter sind Domänen mit hoher Datenfluktuation oder Datenbreite wie Produktdaten im e-Commerce, Wetter- oder Börsenberichte, Lokalnachrichten oder Sportberichte.

Daten- und Dokumentgenerierung

Mit Deep-Learning wurden in den letzten zehn bis fünfzehn Jahren maschinelle Lernverfahren verfügbar, deren gesteigerte Leistungsfähigkeit zum Preis eines deutlich höheren Bedarfs an annotierten Trainingsdaten erkauft werden musste. Leider stehen in vielen Anwendungsfällen der Praxis vollständig annotierte Test- und Trainingsdaten aufgrund von Datenschutz, Copyright oder unzureichender manueller Annotation oftmals nicht in ausreichendem Umfang zur Verfügung.
LangTecs DocumentCreator bietet daher die Möglichkeit, ausgehend von nur einem Beispieldokument große Volumina an Test- und Trainingsdaten in großer Varianz zu erzeugen. So können auch die maschinellen Lernverfahren auch mit anfänglich wenig Trainingsdaten bereits vor dem Echtbetrieb robust trainiert, evaluiert und getunet werden.

Wissensrepräsentationen

Strukturierte Wissensrepräsentationen, also formale Abbildungen der qualitativen fachlichen Zusammenhänge einer Domäne, haben in der Anwendung in den letzten zehn Jahren enorm an Bedeutung gewonnen, nicht zuletzt, weil es mittlerweile technisch gut möglich ist, auch großskalige Wissensrepräsentationen effizient um- und einzusetzen. Strukturierte Wissensrepräsentationen wie Ontologien, Wissensgraphen oder Triple Stores machen das modellierte Domänenwissen strukturiert für die maschinelle Verarbeitung zugänglich und tragen somit wesentlich zur Verbesserung der Ergebnisqualität in tiefer semantischer Analyse bei.

Methodik

  • Beratung
  • Analyse
  • Spezifikation
  • Implementierung

Mehr Erfahren

Wir beraten Sie gerne und freuen uns über Ihre Kontaktaufnahme

Kontakt

 
Top