Kontaktinformationen
Dienstlich
E-Mail: heyer@saw-leipzig.de
Webseiten
Beschäftigungsverhältnis
Funktion: Externe Kommissions- und Projektmitglieder
Projekte
Biografie / Sonstige Angaben
Gerhard Heyer ist Professor emeritus für Automatische Sprachverarbeitung am Institut für Informatik der Universität Leipzig. Vor seiner Universitätstätigkeit war er als Systemspezialist und Leiter von Forschungs- und Entwicklungsaufgaben in der Großindustrie und einer eigenen Firma tätig. Forschungsschwerpunkte sind Forschungsdateninfrastrukturen, die automatische semantische Verarbeitung von Text und Anwendungen des Text Mining u.a. in den Digital Humanities. Sein Buch zum Text Mining (Neuauflage 2022) ist das deutsche Standardlehrbuch zu diesem aktuellen Thema. An der SAW leitet er als PI das von ihm mitdefinierte NFDI-Projekt Text+ und vertritt die SAW in den Gremien der Nationalen Forschungsdateninfrastruktur NFDI.
Gerhard Heyer is Professor Emeritus of Natural Language Processing at the Computer Science Department of Leipzig University. Before working at the university, he worked as systems specialist and head of research and development in industry and a company of his own. His research focuses on research data infrastructures, automatic semantic processing of text, and applications of text mining in the digital humanities, among others. His book on text mining (new edition 2022) is the German standard textbook on this current topic. He is the PI at the Saxon Academy of Sciences and Humanities in charge of the NFDI project Text+ and represents the academy in the National Research Data Infrastructure NFDI.
Curriculum Vitae
Gerhard Heyer hat Philosophie, Mathematische Logik und Linguistik an den Universitäten Cambridge (M.A.1980) und Bochum (Dr.phil. 1983) studiert. Daran anschließend hat er einen einjährigen Forschungsaufenthalt zur automatischen Verarbeitung natürlicher Sprache an der University of Michigan, Ann Arbor (USA), als Visiting Assistant Professor und Feodor-Lynen Forschungsstipendiat der Alexander-von-Humboldt Stiftung verbracht.
Lange Jahre war er als Systemspezialist und Leiter von Forschungs- und Entwicklungsaufgaben zu Sprach- und Multimediaprodukten in der Großindustrie und einer eigenen Firma tätig, die eines der ersten Translation Memory Systeme entwickelt hat. An die Universität Leipzig ist er 1994 als einer der ersten Professoren für Automatische Sprachverarbeitung im Fachbereich Informatik berufen worden. Grundlegender Forschungsansatz der Abteilung war dabei stets eine enge Verbindung von Daten und Verfahren.
Gerhard Heyer studied philosophy, mathematical logic and linguistics at the Universities of Cambridge (M.A.1980) and Bochum (Dr.phil. 1983). He then spent a year researching natural language processing at the University of Michigan, Ann Arbor (USA), as Visiting Assistant Professor and Feodor Lynen Research Fellow of the Alexander von Humboldt Foundation.
For many years, he worked as a systems specialist and head of research and development tasks on language and multimedia products in industry and a company of his own, which developed one of the first translation memory systems. He was appointed professor at the University of Leipzig in 1994 as one of the first professors of Natural Language Processing in a Computer Science Department. The chair's fundamental research approach has always been a close connection between data and algorithms.
Gremien / Committees
Prof. Heyer ist Mitglied in zahlreichen wissenschaftlichen Beiräten und Beisitzer im Vorstand des Instituts für Angewandte Informatik (InfAI), einem An-Institut der Universität Leipzig, das er 2006 mitgegründet hat, sowie Mitglied im Beirat Digitale Wertschöpfung des sächsischen Ministeriums für Wirtschaft und Arbeit (SMWA). Von 1997 bis 2006 war er Mitglied des wissenschaftlichen Beirats des Informationswissenschaftlichen Zentrums (IZ) im GESIS-Verbund, von 2006 bis 2007 auch Mitglied des GESIS-Kuratoriums.
Prof. Heyer is a member of numerous scientific advisory boards and co-opted on the board of directors of the Institute for Applied Informatics (InfAI), an affiliate institute of the University of Leipzig that he co-founded in 2006, as well as member of the advisory board on Digital Value Creation of the Saxonian Ministry of Economics and Labour (SMWA). From 1997 to 2006 he was a member of the scientific advisory board of the Information Science Centre (IZ) in the GESIS network, and from 2006 to 2007 he was also a member of the GESIS Board of Trustees.
Forschungsschwerpunkte | Main Areas of Research
Ausgehend von einer engen Verbindung von Daten und Verfahren liegt ein Schwerpunkt seiner Forschungsarbeiten in dem Aufbau und Betrieb von Forschungsdateninfrastrukturen für die text-orientierten Geistes- und Sozialwissenschaften, wie sie im NFDI-Projekt Text+ erarbeitet werden (vgl. https://www.text-plus.org/en/links-and-downloads/ ). Grundlage seiner Arbeiten an der SAW sind das Projekt Deutscher Wortschatz, das eine der umfassendsten lexikalischen Ressource fürs Deutsche und viele andere Sprachen darstellt. Auf der Verfahrensseite ist sein Forschungsschwerpunkt die automatische semantische Verarbeitung von Text. Neben zahlreichen Veröffentlichungen zu diesem Thema – u.a. dem deutschsprachigen Text Mining Lehrbuch „Text Mining: Wissensrohstoff Text“ (W3L-Verlag, 32011, Überarbeitung bei Springer Campus 2022) – hat er in diesem Bereich auch eine Vielzahl von Forschungsprojekten durchgeführt. Unter den neueren Projekten sind besonders seine Arbeiten zu Forschungsinfrastrukturen (CLARIN-D, CLARIAH und Text+), zur Informations- und Relationenextraktion aus dem zusammen mit der GESIS von der DFG geförderten Projekt iLCM (interactive Leipzig Corpus Miner) und der Anwendung von Verfahren des maschinellen Lernens bei OCR und HTR hervorzuheben, so u.a. im DFG-Verbundprojekt OCR-D, Koordinierte Förderinitiative zur Weiterentwicklung von Verfahren für die Optical-Character-Recognition.
Based on a close connection between data and algorithms, one focus of his research work is the establishment and operation of research data infrastructures for the text-oriented humanities and social sciences, as they are being developed in the NFDI project Text+ (cf. https://www.text-plus.org/en/links-and-downloads/). The basis of his work at SAW is the vocabulary project Deutscher Wortschatz, which is one of the most comprehensive lexical resources for German and many other languages. On the algorithmic side, his research focuses on automatic semantic processing of text. In addition to numerous publications on this topic – including the German-language text mining textbook "Text Mining: Wissensrohstoff Text" (W3L-Verlag, 32011, revision by Springer Campus 2022) – he has also carried out a large number of research projects in this area. Noteworthy recent projects include his work on research infrastructures (CLARIN-D, CLARIAH and Text+), on information and relation extraction in the iLCM project (interactive Leipzig Corpus Miner) funded by the DFG together with GESIS, and the application of machine learning methods in OCR and HTR in the DFG joint project OCR-D, Coordinated Funding Initiative for the Further Development of Methods for Optical Character Recognition.