Vortrag am 12.12.2008
Hannes Siegrist (Leipzig), Mitglied der Philologisch-historischen Klasse:
Dr. habil., Professor für Vergleichende Kulturgeschichte/Europäische Moderne am Institut für Kulturwissenschaften der Fakultät für Sozialwissenschaften und Philosophie der Universität Leipzig; am 9. Februar 2007 zum Ordentlichen Mitglied der Philologisch-historischen Klasse gewählt.
Arbeitsgebiete: Gesellschafts- und Kulturgeschichte Europas (18.–20. Jahrhundert).
Autoren, Urheberrechte und die Institutionalisierung der modernen Kultur
Der Vortrag behandelt die Geschichte des Autors und der Autorenrechte im Rahmen des institutionellen Wandels moderner europäischer Kulturen und Gesellschaften. Er zeigt, wie Schriftsteller, Angehörige von Kunst- und Medienberufen und wissenschaftliche Autoren in gesellschaftlichen, wirtschaftlichen, kulturellen, politischen und medialen Umbruchzeiten mit Verlegern, Kultureinrichtungen, Publikumsgruppen, Gesetzgebern, Juristen, Staaten und internationalen Organisationen über die Regeln der Produktion, Verwertung, Distribution und Nutzung ‘geistiger Werke’ verhandeln. Gefragt wird, inwiefern es den Autoren dabei gelingt, ihre besonderen kulturellen, beruflichen, sozialen und wirtschaftlichen Ansprüche zu institutionalisieren, d.h. zu standardisieren und auf Dauer zu stellen.
Die Institutionalisierung der kulturellen, sozialen und wirtschaftlichen Handlungsrechte des Autors ist nicht bloß durch allgemeine gesellschaftliche Leitideen und Rechtsprinzipien zu erklären. Sie ist vielmehr ganz wesentlich dadurch bestimmt, dass Funktionsgruppen und Kulturberufe, die miteinander im Wettbewerb stehen und zugleich kooperieren müssen, unter Verweis auf kulturelle Traditionen und Innovationspotentiale Sonderrechte für die Schöpfung, Umformung, Übertragung, Vervielfältigung, Verwertung und Verbreitung von Kultur, Wissen und Information beanspruchen. Das zeigt die Analyse von drei sozialen, kulturellen und institutionellen Umbruchperioden, nämlich des frühen 19. Jahrhunderts, des frühen 20. Jahrhunderts und der Jahrzehnte seit 1980.
Im späten 18. und frühen 19. Jahrhundert werden die kulturellen, sozialen und wirtschaftlichen Handlungsrechte des Autors und seine Beziehungen im „Autorenrecht”, „Copyright” oder im „literarischen und künstlerischen Eigentumsrecht” formalisiert. Eingerahmt durch ergänzende Bestimmungen im Privatrecht, Verfassungsrecht, öffentlichen Recht, Berufsrecht und Arbeitsrecht, entwickelt sich das Autorenrecht zu einem Kernelement der bürgerlichen und nationalen Kultur-, Markt- und Eigentumsverfassung sowie inter- und transnationaler Kultur- und Handelskonventionen. Nach und nach gewinnt es eine relative Autonomie und Eigendynamik in der Regulierung kultureller Felder – zuerst in der Hochkultur, seit etwa 1900 auch in der Populär- und Massenkultur. Die Gesellschaften des 20. Jahrhunderts greifen vielfach auf Grundsätze und institutionelle Muster des 19. Jahrhunderts zurück. Aufgrund neuer medialer und technischer Möglichkeiten sowie kultureller, wirtschaftlicher und politischer Herausforderungen steigern und differenzieren sich nun die Anforderungen und Erwartungen an die Institutionen des geistigen Eigentums und der Urheberrechte. Indem diese in immer weitere Lebensbereiche diffundieren, nimmt allerdings auch die Kritik an der markt- und eigentumsförmigen Regelung kultureller Prozesse zu.
Die Auffassung, dass „Kultur”, „Wissen” und „Information” primär nationale, staatliche, öffentliche oder freie Güter seien und der Umgang mit diesen durch einen „kulturellen Gesellschaftsvertrag” zu regeln sei, der individuelle geistige Eigentumsrechte im Hinblick auf die gesellschaftliche Nützlichkeit nicht nur verleiht, sondern auch beschränkt, wurde schon im späten 18. und frühen 19. Jahrhundert entwickelt. Im 20. Jahrhundert radikalisiert sie sich angesichts der Entgrenzung des geistigen Eigentums in vielfältigen Varianten. In der gegenwärtigen liberalisierten, internationalisierten und digitalisierten Wissens- und Informationsgesellschaft kritisieren nicht nur Konsumenten und Bürger, sondern auch manche Autoren, dass „Autorenrechte” und geistige Eigentumsrechte vor allem den Interessen von Medienunternehmen dienen.
Vortrag am 12.12.2008
Karlheinz Brandenburg (Ilmenau), Mitglied der Technikwissenschaftlichen Klasse:
Dr.-Ing., Dr. rer. nat. h.c., Professor für elektronische Medientechnik an der TU Ilmenau und Leiter des Fraunhofer-Institutes für Digitale Medientechnologie in Ilmenau; am 9. Februar 2007 zum Ordentlichen Mitglied der Technikwissenschaftlichen Klasse gewählt.
Aktuelle Arbeitsgebiete: automatische Analyse von Musiksignalen, interaktive Dienste für Kabelnetze und digitales Fernsehen, Internetvertrieb von Multimediadaten, E-Learning und Wissensmanagement, 3D-Videotechnologien, Qualitätsbeurteilung von Audio und Video, Akustik, insbesondere 3D-Audiowiedergabe.
Digitale Medien: Von der intelligenten Stereoanlage zum Holodeck
Der Vortrag führt am Beispiel der Audiotechnik, insbesondere von MP3, in die tiefgreifenden Umwälzungen ein, die im Zuge der Digitalisierung die gesamte Medienwelt erfassen. In der ersten Phase der Digitalisierung der Medien wurden Musik und Video überall zugäänglich, die Verbreitung über das Internet stellte alte Geschäftsmodelle in Frage. Jetzt sind Ton und Bild überall digital verfügbar, die neuen Probleme sind die der Suche, des Findens der richtigen Inhalte, der interaktiven Dienste. In Ilmenau wird genau an diesen Fragestellungen gearbeitet: Neue Dienste helfen Musik zu identifizieren, zu finden. Neue Wiedergabetechniken erlauben eine Naturtreue des Klangs, wie wir sie immer erträumt haben. Virtuelle Welten sind die Vorboten der Verschmelzung von Computerspielen und Film.
Einleitung:
Das digitale Zeitalter hat erst angefangen: Das Telefonnetz ist schon digital, Internetanschlüsse gehören zur normalen Ausstattung nicht nur von Firmen und Universitäten, sondern auch von Privathaushalten. Auf der anderen Seite sind viele Mediendienste erst im Prozess der Umstellung auf das Zeitalter der Digitalisierung: Digitales Fernsehen ist weit verbreitet, aber nicht überall, das digitale Kino steckt immer noch in den Kinderschuhen. Die eigentlichen Potentiale der neuen Technologien sind noch nicht ansatzweise erschlossen.
Schon 2008 gibt es Homeserver mit Speichermöglichkeit im Terabyte-Bereich, also hunderte Stunden Video und Jahre an Musik. Zusammen mit beginnen, ist dann normal: jedes Radio, jeder Bildschirm (oder Beamer) im Haus kann auf alles zugreifen: Tausende „Sender”, meine Lieblingssendungen, Filme, Musik etc. Die Architekturen dafür entstehen heute, erste Systeme sind verfügbar, die Weiterentwicklung wird im Wesentlichen die Usability (Bedienung auch ohne speziellen Führerschein) und das hoffentlich nahtlose Miteinander verschiedener Gerätegattungen betreffen.
Ton- und Bildqualität:
Auch bessere Ton- und Bildqualität ist Teil unserer Medienzukunft. Surround-Sound und HDTV sind die Vorboten, aber die Technik wird nicht dabei stehenbleiben. An vielen Stellen wird derzeit an 3D-Technologien gearbeitet, „3DTV” ist dabei nur eines der Stichworte. Viele neue Kinofilme entstehen schon heute von Anfang an in 3D, als echte 3D-Modelle, die dann auf zwei Dimensionen oder stereoskopisches Sehen gerendert werden oder in anderen Formaten, die Rauminformationen beinhalten.
Auch auf der Audioseite gibt es neue Entwicklungen:
Die aus der TU Delft stammende Idee der Wellenfeldsynthese ermöglicht dreidimensionale Hörerlebnisse, die weit über die aktuelle Surround-Technologie hinausgehen. Für die ultimative akustische Sinnentäuschung zuhause fehlt noch der Durchbruch in der Lautsprechertechnologie. Forschungsziel ist derzeit die „klingende Tapete”, die uns in IOSONO-Qualität (IOSONO ist ein Fraunhofer-Spinoff mit Wellenfeldsynthese-Technik) Töne in den Raum zaubern kann. Von den 3D-Technologien werden nicht nur Filme und natürlich Computerspiele profitieren, sondern auch Kommunikationsmöglichkeiten à la 2ndLife und in Zukunft alltägliche Anwendungen wie 3D-interaktive Gebrauchsanleitungen füür all die Geräte, die wir sonst nicht verstehen.
Zusammenfassung: Das digitale Zeitalter der Medien hat erst begonnen. Ob Holodeck (virtuelle, sich real anfühlende interaktive 3D-Welten) oder Blogs, wir beginnen erst, die Möglichkeiten der digitalen Technologien zu verstehen. Die kreative Umsetzung der neuen Möglichkeiten wird uns neue Services und Medienformate bringen.
Die technischen Stichworte sind:
– Vernetzung, Konvergenz, Interaktive und immersive Systeme, die neuen Inhalte und Geschäftsmodelle können wir erst erahnen. Hier liegen auch die größten Schwierigkeiten in der Umsetzung: Technisch wird sehr viel möglich sein, die juristischen Rahmenbedingungen und die Frage der möglichen Geschäftsmodelle wird vieles verzögern oder unmöglich machen.
Vortrag am 14.11.2008
Egon Franck (Zürich), Mitglied der Technikwissenschaftlichen Klasse:
Dr. oec. publ., Dr. rer. pol. habil., Professor für Unternehmensführung und -politik an der Universität Zürich; am 14. Februar 2003 zum Ordentlichen Mitglied der Technikwissenschaftlichen Klasse gewählt.
Hauptarbeitsgebiete: Allgemeine Betriebswirtschaftslehre, Strategie- und Organisationsökonomik mit besonderem Schwerpunkt Sportökonomik.
Die eskalierende Finanzkrise der Klubs im professionellen Fussball – Ökonomische Ursachen und Lösungswege
Zwar konnten gerade die Klubs der führenden professionellen Fussball-Ligen Europas ihre Einnahmen infolge lukrativerer Fernsehverträge, höherer Zuschauereinnahmen und wachsender Merchandisingerträge im letzten Jahrzehnt vervielfachen. Noch stärker als die Einnahmen sind in der Regel jedoch ihre Ausgaben für Spielergehälter gestiegen. Das Ergebnis sind immer höhere Schuldenberge, die zu einem dramatischen Anstieg der Finanzierungskosten vieler Klubs geführt haben. Europaweit mussten bereits eine Reihe von Klubs Konkurs anmelden oder konnten nur durch grosszügige finanzielle Unterstützung der öffentlichen Hand „gerettet” werden. Die Schuldenspirale dreht sich indessen immer weiter und lässt eine regelrechte Pleitewelle befürchten. Der Vortrag wird folgende Fragen beleuchten: Welche ökonomischen Mechanismen führen systematisch zu diesem Phänomen der „Pleiten im Geldregen” im professionellen Klubfussball? Welche Lösungswege bieten sich an?
Vortrag am 14.11.2008
Uwe-Frithjof Haustein (Leipzig), Mitglied der Mathematisch-naturwissenschaftlichen Klasse:
Dr. med., Professor i. R. für Dermatologie, Venerologie und Allergologie am Universitätsklinikum Leipzig; am 3. Juni 1988 zum Ordentlichen Mitglied der Mathematisch-naturwissenschaftlichen Klasse gewählt; Präsident von 2005 bis 2007.
Hauptarbeitsgebiete: Histopathologie, Elektronenmikroskopie und Fibrinolyse der Haut, klinische Allergologie und Immundermatologie (Autoimmunerkrankungen, insbesondere Sklerodermie), zell- und molekularbiologische Studien.
Nichtmelanozytärer („Heller”)Hautkrebs und seine Vorstufen
Jährlich erkranken etwa 140 000 Menschen an „weißem” Hautkrebs, etwa 3500 sterben daran. Die globalen Veränderungen der Atmosphäre und des Freizeitverhaltens erhöhen die UV-Einstrahlung, nicht zuletzt durch Verringerung der Ozonschicht. UV-Strahlen schädigen die DNA, wirken immunsuppressiv und damit karzinogen. Die Hauttypen I und II sind besonders UV-empfindlich. Genetische Faktoren begünstigen auf Grund veränderter Empfänglichkeiten die vielschichtige Krebsentstehung (u.a. Tumorsuppressorgene). Onkogene Humanpapillonviren wirken als Kofaktor. Impfungen gegen Krebs sind möglich!, in erster Linie gegen das Zervixkarzinom, wenn die Impfung vor der Infektion erfolgt. Immunsuppression begünstigt die Krebsentwicklung. Bei Organtransplantierten und Immunsupprimierten treten Präkanzerosen und Hautkrebsarten signifikant häufiger und in kürzeren Zeitintervallen auf als bei „physiologisch älteren” Menschen.
Hautkrebs nimmt um etwa 10% pro Jahr an Häufigkeit zu. Die Krebsentwicklung ist an der Hautoberfläche ideal zu verfolgen. Vorläuferstadien i.S. von Präkanzerosen (u.a. aktinische Keratosen) gehen einem Teil der Plattenepithelkarzinome voraus (vgl. auch „field cancerization”). Basalzellkarzinome entwickeln sich ohne Vorläufer in follikelreichen Hautpartien. Die nichtmelanozytären Tumortypen werden auch als „weißer” Hautkrebs bezeichnet.
Die Malignen Melanome (schwarzer Hautkrebs) wurden bereits in einem früheren Bericht erörtert und werden daher hier nicht betrachtet (vgl. Vortrag Haustein und Anderegg 2003).
Die primäre Prophylaxe besteht in Aufklärung sowie Anwendung von Sonnenschutz.
Die sekundäre Prävention beeinhaltet Frühdiagnostik durch Hautscan einschließlich Auflichtmikroskopie.
Der dritte Schritt umfasst die eigentliche Therapie mittels unterschiedlicher Verfahren wie Stahl (Skalpell), Strahl (Röntgen, photodynamische Therapie), Kälte, mechanische und zytostatische Lokalverfahren).
Der vierte Schritt beeinhaltet die Intervalltherapie durch lokale Verfahren (antientzündlich, immunmodulierend) zur Rezidiv-Prophylaxe.
Der fünfte Schritt hat die kosmetische Wiederherstellung und damit Rehabilitation zum Ziel.
Vortrag am 10.10.2008
Ortrun Riha (Leipzig), Mitglied der Mathematisch-naturwissenschaftlichen Klasse:
Dr. med. Dr. phil., Professorin für Geschichte der Medizin am Karl-Sudhoff-Institut der Medizinischen Fakultät der Universität Leipzig, am 11. April 2003 als Ordentliches Mitglied der Mathematisch-naturwissenschaftlichen Klasse in die Sächsische Akademie der Wissenschaften aufgenommen.
Hauptarbeitsgebiete: Alte Medizin, Medizin und Literatur, Frau und Medizin, Ethik in der Medizin.
Kodifizierung ärztlicher Ethik: Vom Hippokratischen Eid zum Genfer Gelöbnis
Der sog. Hippokratische Eid gilt auch heutzutage weithin als ethische Richtschnur für das ärztliche Handeln, obwohl der Text fast zweieinhalbtausend Jahre alt ist und somit eigentlich nicht zu erwarten wäre, dass er Antwort auf die drängenden Probleme geben kann, die die moderne Hochleistungsmedizin aufwirft. Sein Ansehen verdankt der Hippokratische Eid in erster Linie der Verbindung mit dem autoritativen Namen des berühmten Arztes Hippokrates, der schon in der Antike als der Begründer der rationalen Medizin und als ärztliche Identifikationsfigur höchste Wertschätzung genoss. Diese Verknüpfung von präsumptivem Verfasser und Text ist allerdings erst relativ spät belegt, und die historische Funktion des Eides ist ebenso umstritten wie seine Interpretation.
Nach einem kurzen Überblick über Wirkungs- und Überlieferungsgeschichte soll der Text selbst im Zentrum der Überlegungen stehen, zum einen in seiner außergewöhnlichen Qualität als sprachliches Kunstwerk, zum andern mit den Deutungsmöglichkeiten, die er eröffnet und die je nach Lesart unterschiedliche Bezüge zur Gegenwart erlauben. Dabei stellt sich die Frage, was am Hippokratischen Eid „hippokratisch” ist – sowohl in zeitgenössischer Perspektive als auch nach heutigem Verständnis. Im Ergebnis wird sich die Erwartung relativieren, dass der Ärzteschaft mit dem Text ein gleichsam überzeitlich gültiger Ethikkodex zur Verfügung stehe.
Eine modernisierte und auf die Herausforderungen der Gegenwart reagierende Variante des Hippokratischen Eides sollte das sog. Genfer Gelöbnis (Declaration of Geneva) sein, das der 1946 gegründete Weltärztebund (World Medical Association) auf seiner Generalversammlung in Genf 1948 verabschiedet und immer wieder (zuletzt 2005) modifiziert hat. Man merkt diesem Text noch immer an, dass er unter dem Eindruck der NS-Medizin verfasst wurde. Dass (West)-Deutschland 1950 in die WMA aufgenommen wurde, hatte die Integration der Genfer Deklaration in die ärztliche Berufsordnung zur Voraussetzung. Alle Landesärztekammern (auch die erst 1990 gegründeten) haben den Text als Präambel ihren jeweiligen Berufsordnungen vorangestellt, obwohl es dazu auch zahlreiche kritische Stimmen gab und gibt, die auf Kürzung oder gar Streichung drängten. In Sachsen wurde deshalb der Text 2007 neu formuliert. Der zweite Teil des Vortrags wird sich mit dem Genfer Gelöbnis in seinen verschiedenen Variationen beschäftigen und nach den Ursachen für die verbreiteten Vorbehalte fragen.
Vortrag am 10.10.2008
Rosemarie Lühr (Jena), Mitglied der Philologisch-historischen Klasse:
Dr. phil., Professorin für Indogermanistik an der Friedrich-Schiller-Universität Jena; am 14. Februar 1997 als Ordentliches Mitglied der Philologisch-historischen Klasse gewählt, Projektleiterin der Vorhaben „Etymologisches Wörterbuch des Althochdeutschen” und„ Deutsche Wortfeldetymologie in europäischem Kontext (DWEE)”.
Forschungsschwerpunkte: Vergleichende indogermanische Syntax und Informationsstruktur, Etymologie des Deutschen mitsamt seinen Vorstufen, Anwendung neuerer allgemeinsprachlicher Theorien auf die Sprachdaten der Indogermanistik.
Wertbegriffe in indogermanischen Sprachen Europas
Eine entscheidende Neuerung des Akademieprojekts „Deutsche Wortfeldetymologie in europäischem Kontext” gegenüber anderen Wörterbüchern ist die Verbindung von Etymologie mit der Organisation des Wortschatzes nach Wortfeldern. Diese Felder werden von der Gegenwartssprache mitsamt ihren stilistischen Bewertungen, räumlichen, zeitlichen, fach-, sondersprachlichen und fremdsprachlichen Zuordnungen über das ältere Neuhochdeutsche, Frühneuhochdeutsche, Mittelhochdeutsche bis zum Althochdeutschen verfolgt. Sie sind in ihrer historischen Schichtung um den Menschen als Mittelpunkt angeordnet. Ausgehend von der philosophischen Frage „Wer ist der Mensch”" wird für die Wortfelder der Kulturbegriff des Menschen zugrundegelegt, wobei der Naturbegriff „Was ist der Mensch” der Sache nach diesem Kulturbegriff vorgeschaltet ist. In Wortfeldern werden also zuerst die biologischen Eigenschaften und dann die kulturellen Eigenschaften des Menschen behandelt, d.h. die Möglichkeiten des Menschseins in Alltag, Recht, Religion, Wirtschaft, Wissenschaft, und Kunst dokumentiert.
(A) biologische Eigenschaften des Menschen (3000 Wörter)
(B) kulturelle Eigenschaften des Menschen
(B)(1) der Mensch im Alltag (3000 Wörter)
(B)(2) der Mensch in der Vielfalt seiner kulturellen Beziehungen
(B)(2)(a) der Mensch in seiner Beziehung zum Recht (3000 Wörter)
(B)(2)(b) der Mensch in seiner Beziehung zur Religion und Ethik (3000 Wörter)
(B)(2)(c) der Mensch in seiner Beziehung zur Wirtschaft (3000 Wörter)
(B)(2)(e) der Mensch in seiner Beziehung zur Wissenschaft und Kunst (3000 Wörter)
(B)(2)(f) der Mensch in seiner Beziehung zu neuen Technologien (3000 Wörter)
(C) Neologismen (500 Wörter), Publikation
Von diesen Wortfeldern werden im Vortrag Begriffe aus (B)(2) besprochen, nämlich aus „der Mensch in seiner Beziehung zur Ethik”. Indogermanische Wertbegriffe werden auf ihre Etymologie hin untersucht und mit ihren heutigen Entsprechungen verglichen. Es werden deswegen Wertbegriffe ausgewählt, weil die Ausdrücke hierfür je nach Landessprache verschiedene Bedeutungsbestandteile haben, weshalb es zu Störungen der interkulturellen Kommunikation kommen kann. Aber auch innerhalb einer Sprache und Kultur ist sowohl intra- als auch interkulturell keine Homogenität der Wertbegriffe gegeben, wie die heutigen Debatten über „Wertewandel” und “Werteverlust” vor allem in Westeuropa zeigen, während die durch die marxistische Philosophie beeinflussten Wertbegriffe in Osteuropa im Zuge der Demokratisierung nun oftmals neu gefüllt werden müssen.
Vortrag am 13.6.2008
Karlheinz Blaschke (Dresden), Mitglied der Philologisch-historischen Klasse:
Dr. phil. habil., em Professor für Sächsische Landesgeschichte an der Technischen Universität Dresden; am 8. Februar 1991 zum Ordentlichen Mitglied der Philologisch-historischen Klasse gewählt.
Hauptarbeitsgebiete: Geschichtliche Landeskunde von Sachsen, Stadtgeschichte, Verfassungs- und Verwaltungsgeschichte, Geschichte der Reformationszeit.
Raum und Zeit. Methodische Erfahrungen aus dem Umfeld der Landesgeschichte
Die Landesgeschichte ist als Universitätslehrfach in Deutschland aus der Begegnung von Geschichte und Geographie an der Universität Leipzig hervorgegangen. Die Akademiemitglieder Friedrich Ratzel (1844–1904) und Karl Lamprecht (1856–1915) wirkten als Anreger, Rudolf Kötzschke (1867–1949) setzte das Werk in Gang. In der menschlichen Gesellschaft bilden sich jeweils Einheiten von „Zeitgenossen”, denen Einheiten von „Raumgenossen” gegenüberstehen. Raum und Zeit sind die beiden grundlegenden Dimensionen, in denen sich das Leben ereignet. Die Landesgeschichte verbindet die beiden Sichtweisen. Sie hat mit ihrer Bodenhaftung die Fähigkeit entwickelt, „im Raum die Zeit zu lesen” (Ratzel). Die Siedlungsgeschichte bietet dafür eine hervorragende Gelegenheit, indem sie landschafts- und zeitgebundene Siedelformen ausbildet, die als Typen erscheinen. Die Landesgeschichte kann von der Kunstgeschichte lernen, die in der Lage ist, bestimmte Bauformen an Gebäuden nach Alter und geographischer Herkunft einzuordnen und dadurch größere Zusammenhänge darzustellen.
Auch Ortsnamengrundwörter wie -leben, -heim und -dorf sind „Zeichen”, an denen sich Räume der Besiedlung nach Zeit und Herkunft der Siedler bestimmen lassen. Das Gleiche gilt von den Orts- und Flurformen, die von der Schule Rudolf Kötzschkes im Zusammenhang mit der deutschen Kolonisation des hohen Mittelalters als Geschichtsquellen ausgewertet wurden. Im Zusammenhang mit der Sprachgeschichte ergeben sich dabei Erkenntnisse für die Mundartforschung: Nien-, Naun-, Neun-dorf in nieder-, mittel- und oberdeutschen Sprachlandschaften.
Alle diese Tatsachen lassen sich in die „historische Statistik” einordnen, die Wilhelm Heinrich Riehl (1823–1897) als „Grundlage einer deutschen Volkskunde” verstanden hat, indem sie sich nicht nur in trockenen Zahlenreihen erschöpft, sondern das Leben des Volkes mit seiner ganzen Umwelt erfaßt. Die Ergebnisse eines solchen Unternehmens lassen sich nur mit Hilfe der Karte erkennen, in der die Einheit von Raum und Zeit zum Ausdruck kommt. Die Landesgeschichte strebt daher historische Atlaswerke an, in denen jeweils für ein Land die wesentlichen Sachverhalte der geschichtlichen Landeskunde dargestellt werden, so weit sie sich mit Hilfe der Karte dem Auge erschließen. Als Urmaterial dienen die Angaben eines Historischen Ortsverzeichnisses, das in Sachsen 1957 in erster Auflage erschien und fünfzig Jahre später in einer Neubearbeitung vorgelegt werden konnte. Es dient der „Verortung” von Geschichte, wie sie in den jüngst vergangenen Jahren zu einer neuen Gattung geschichtswissenschaftlicher Unternehmungen geführt hat. Die dabei notwendige Überschau über die Einzelheiten hinaus ist im Falle von Sachsen bei der Gründung der Historischen Kommission 1896 in Gestalt eines Historischen Atlasses von Sachsen geplant worden. Die Vorarbeiten für dieses Unternehmen laufen seit 1964, 1992 wurde er als Akademieunternehmen in Angriff genommen. 30 Kartenblätter sind bisher fertiggestellt.
Neben den Siedlungsformen treten in der mittelalterlichen Verfassungsgeschichte bodenständige Formen von Diensten und Abgaben auf, die wegen ihrer Bindung an geographische und zeitbedingte Sachverhalte aufschlußreiche Ergebnisse für die Forschung darbieten. In ihnen schlagen sich Regelungen der Herrschaft und der bäuerlichen Arbeit nieder, die in Gestalt von Zehntleistungen, Frongeld, Hundekorn, Wachkorn und Pfefferzins bis ins 19. Jahrhundert überliefert sind. Es kommt darauf an, die sachlichen und zeitlichen Ursprünge solcher lang andauernder Verpflichtungen aufzudecken und mit ihrer Hilfe hinter die urkundliche Überlieferung zurück in die Anfängen schriftloser Lebensverhältnisse vorzudringen.
Die landesgeschichtliche Forschung hat schon vor der modernen Begriffsbildung “interdisziplinär” fächerübergreifend zwischen Geschichte, Geographie, Sprachgeschichte, Archäologie und Kunstgeschichte gearbeitet und dabei neue Erkenntnisse erzielt.
Vortrag am 13.6.2008
Günter Höhne (Ilmenau), Mitglied der Technikwissenschaftlichen Klasse:
Dr.-Ing. habil. Dr. h. c., Professor für Konstruktionstechnik i. R. an der Fakultät für Maschinenbau der TU Ilmenau, Institut für Maschinen- und Gerätekonstruktion, am 9. Januar 1998 zum Ordentlichen Mitglied der Technikwissenschaftlichen Klasse gewählt.
Hauptarbeitsgebiete: Grundlagen der Konstruktion, Konstruktionsmethoden, rechnerunterstütztes Konstruieren, Konstruktion von Produkten der Präzisionstechnik.
Virtual Prototyping in der Produktentwicklung
Die Schaffung neuer technischer Produkte erfordert die gedankliche Bestimmung aller Eigenschaften bevor man sie herstellen kann. Die dabei zu berücksichtigenden Forderungen resultieren aus den Phasen des Produktlebenszyklus, beginnend mit der ersten Idee über Herstellung, Vertrieb, Inbetriebnahme und Nutzung bis zu Recycling oder Entsorgung am Lebensende.
In diesen Situationen soll das Produkt nicht nur schadensfrei bestehen, sondern zuverlässig und wirtschaftlich seine Funktion erfüllen. Diese Eigenschaften müssen während der Entwicklung sowohl qualitativ als auch quantitativ zu überprüft werden. Dazu dienen Labor-, Funktions-, Fertigungs- oder Designmuster als physische Prototypen.
Mit der Einführung der Rechentechnik und der rechnerunterstützten Geometriebeschreibung verfügt man über digitale Modelle, die als virtuelle Prototypen eines Erzeugnisses nutzbar sind.
Sobald man ein Lösungsprinzip für die Realisierung der Funktion erarbeitet hat, gestatten parametrisierte, constraint-basierte Beschreibungen die Überprüfung der Dimensionierbarkeit des gefundenen Prinzips sowie die Auswahl einer optimalen Variante. Insbesondere das kinematische Verhalten technischer Prinzipien lässt sich in diesem Entwurfsstadium an virtuellen Prototypen beweglicher Mechanismen effektiv untersuchen.
Nachdem die Produktgestalt entworfen ist, gestatten digitale 3D-Geometriemodelle Untersuchungen hinsichtlich des Bauraums, Kollisionen von Bauteilen bei Funktion und Montage, Toleranzen, Festigkeit, Deformationen bei Belastungen u.a. Diese als „Digital Mock-Up” (Attrappe) einsetzbaren Modelle sind in der Automobilindustrie ein ständig genutztes Werkzeug, z. B. für das so genannte „Packaging”.
Die großen Datenmengen solcher Modelle kann der Entwickler nur auswerten, wenn sie in geeigneter Weise visualisiert werden. Neben den 3D-CAD-Systemen mit begrenzten Bildschirmflächen bieten Virtual-Reality(VR)-Systeme Präsentationen, die mittels Stereoprojektion die geometrischen Körper als Bestandteile eines virtuellen Raumes erkennbar machen. Die dazu genutzten großformatigen Projektionssysteme mit der Bezeichnung „CAVE” (Computer Automated Virtual Environment) erzeugen eine großformatige virtuelle Szene, in die der Nutzer eintreten und mit dem entworfenen Produkt im Echtzeitmodus interagieren kann. Dabei entsteht das Gefühl der Immersion, das eine realitätsnahe Wahrnehmung vermittelt. Dieser Effekt lässt sich verstärken, wenn neben der visuellen Repräsentation des Objekts Haptik und Akustik hinzukommen. Die für die Produktqualität bedeutsame Forderung, Sound und Geräusche eines Produktes bei der Entwicklung nutzergerecht auszulegen, war Anlass, das Konzept der bekannten stereoskopischen VR-Systeme durch ein geeignetes Akustik-Wiedergabesystem zu erweitern.
Es soll das Klangfeld des Produktes räumlich wiedergeben und ebenso, wie bei der visuellen Beobachtung der veränderlichen Position eines Objektes, mit seiner Schallabstrahlung in Echtzeit folgen.
Das Verfahren der akustischen Wellenfeldsynthese erfüllt diese Forderungen weitgehend. Es nutzt das Huygens’sche Prinzip der Wellenausbreitung, nach dem jeder Punkt, der von einer Welle erfasst wird, Ausgangspunkt von Elementarwellen ist, die sich zu Wellenfronten vereinigen. Dies lässt sich durch ein Array von Lautsprechern technisch so umsetzen, dass der vom Produkt erzeugte Schall realitätsnah wahrgenommen wird. Damit sind Geräusch- und Soundanalysen an virtuellen Prototypen möglich.
Der Vortrag beschreibt die Nutzung virtueller Prototypen bei der Entwicklung von Maschinen, Fahrzeugen und Präzisionsgeräten, erläutert die erforderlichen Modelle und stellt ein flexibles audiovisuelles VR-System mit seinen Funktionen für das Experimentieren im virtuellen Raum vor. Mittels Virtual Prototyping erreicht man heute durch Vorverlagerung von Entscheidungen im Entwicklungszyklus (“Frontloading”) und Reduzierung physischer Prototypen Kosten- und Zeiteinsparungen von bis zu 20%.
Vortrag am 9.5.2008
Ulrich Groß (Freiberg), Mitglied der Technikwissenschaftlichen Klasse:
Dr.-Ing. habil., Direktor des Instituts für Wärmetechnik und Thermodynamik der TU Bergakademie Freiberg; am 12. Februar 1999 zum Ordentlichen Mitglied der Technikwissenschaftlichen Klasse gewählt, Vorsitzender der Strukturbezogenen Kommission „Technikfolgenabschätzung”.
Hauptarbeitsgebiete: Konvektive Wärmeübertragung (Kondensation und Verdampfung an dünnen Fallfilmen, Wärmerohre, Sonden für die geothermische Direktverdampfung);
Thermophysikalische Stoffeigenschaften (experimentelle Untersuchung thermischer Transporteigenschaften im Hochtemperaturbereich; Entwicklung von Messgeräten).
Über die Thermofluiddynamik in geothermischen Direktverdampfungssonden
Im Rahmen aktueller Diskussionen zur stabilen Energie-Bereitstellung gewinnt unter anderem auch die Geothermie, das heißt die im zugänglichen Teile der Erdkruste gespeicherte Energie, zunehmendes Interesse. Aufgrund der sehr hohen Temperaturen im Erdkern kommt es zu einem langzeitstabilen Wärmestrom im obersten Teil der Erdkruste, der durch einen mittleren Temperaturgradienten von ungefähr 0,03 K/m2 und eine resultierende Wärmestromdichte von 0,063 W/m2 charakterisiert ist. Die regionalen Schwankungen um diese Werte sind beträchtlich.
Im Hinblick auf die Nutzung unterscheidet man Hydrothermale Systeme (Entnahme von Thermalwasser aus grundwasserführenden Schichten), Petrothermale Systeme (Erzeugung von Rissen und Klüften in sehr großer Tiefe; Durchflutung mit überkritischem Wasser oder CO2 unter extrem hohem Druck) und schließlich sogenannte „Erdwärmesonden”, die Gegenstand dieses Vortrages sind. Daneben existiert eine Vielzahl von weniger aufwändigen Verfahren, wie z.B. die oberflächennahe Geothermie, die Nutzung von Tunnels und bergbaulichen Anlagen.
Für Erdwärmesonden ist die Herstellung einer tiefen Bohrung erforderlich. Stand der Technik sind einige 100 m; es gibt Konzepte, die bis zu 7000 m Tiefe vorstoßen. Die Sonde selbst stellt ein geschlossenes System dar, das von einem flüssigen Wärmeträger durchströmt wird, der sich je nach Randbedingungen mehr oder weniger stark erwärmt. Eine fortentwickelte Technologie arbeitet nach dem Prinzip der Direktverdampfung, bei dem eine Flüssigkeit (z.B. Wasser, Propan, CO2, Ammoniak, auch Gemische) als dünner Film entlang der inneren Rohrwand der Sonde nach unten fließt und dabei nach und nach verdampft. Aufgrund der günstigeren Bedingungen für den Temperaturverlauf und den Wärmeübergang sind solche Sonden wesentlich leistungsfähiger und daher interessant.
Im Vortrag wird auf die Besonderheiten der Strömungsvorgänge von Rieselfilmen eingegangen, die in Teilen der Sonde verdampfen und sich an anderen Stellen auch bilden können. Der Wärmeübergang im Inneren eines dünnen Flüssigkeitsfilms hängt entscheidend von der Hydrodynamik der Filmströmung ab, was nachfolgend dann auch für den durch Oberflächenverdampfung erzeugten Dampfstrom gilt. Ausgehend von den ersten systematischen Forschungsarbeiten über die Hydrodynamik und Wärmeübertragung in dünnen Wasserfilmen (Wilhelm Nusselt, Dresden, 1916) wird der Einfluss der aufsteigenden Dampfströmung auf den Rieselfilm analysiert und die große Bedeutung von Oberflächenwellen aufgezeigt. Ausgewählte Ergebnisse eigener Experimente werden dargestellt um die Besonderheiten der Thermofluiddynamik in derartigen Direktverdampfungssonden zu verdeutlichen.
Vortrag am 9.5.2008
Joachim Mössner (Leipzig), Mitglied der Mathematisch-naturwissenschaftlichen Klasse:
Dr. med., Professor für Innere Medizin (Schwerpunkt Gastroenterologie) an der Medizinischen Klinik und Poliklinik II des Universitätsklinikums Leipzig; am 10. März 2006 zum Ordentlichen Mitglied der Mathematisch-naturwissenschaftlichen Klasse gewählt.
Derzeitige Forschungsschwerpunkte: Experimentell: Pathogenese der akuten und chronischen Pankreatitis. Klinisch: Chronische Pankreatitis; Pankreaskarzinom; Gallenwegskarzinom; Refluxkrankheit, Operative Endoskopie.
Pathogenese der chronischen Pankreatitis: Gene und Umwelt determinieren das Erkrankungsrisiko
Alkoholmissbrauch und seine gesundheitlichen, sozialen und volkswirtschaftlichen Folgen sind ein gewaltiges und kontinuierlich zunehmendes Problem in Deutschland. Mit dem Alkoholmissbrauch ist das Auftreten von Folgeerkrankungen, wie z.B. der chronischen Pankreatitis (cP) assoziiert. Allerdings tritt diese nur bei einem geringen Teil der Alkoholkranken (3–5%) auf. In 80% aller Fälle geht in Deutschland der chronischen Pankreatitis ein langjähriger Alkoholabusus voraus.
Daneben gibt es auch seltene idiopathische und hereditäre Formen der cP, die den Einfluss genetisch determinierter Risiko- und Schutzmechanismen bestätigen. Bei Patienten mit nicht-alkoholischer cP wird ein höheres genetisches Risikoprofil erwartet als bei Patienten mit alkoholischer cP, die sich aufgrund von Interaktionen lebensstilbedingter Noxen mit genetischen Suszeptibilitätsfaktoren manifestiert.
Bei der seltenen hereditären Pankreatitis lassen sich in wenigstens der Hälfte der Fälle Punktmutationen des kationischen Trypsins finden. Ferner finden sich bei nicht hereditären Formen, sowohl bei der idiopathischen Pankreatitis als auch bei einigen alkoholinduzierten Fällen, SPINK-Mutationen (Serin Proteasen Inhibitoren vom Kasal-Typ). Die Mutationen des kationischen Trypsinogens spielen insbesondere bei der autosomal-dominant vererbten hereditären Pankreatitis eine Rolle, wohingegen SPINK 1 und CFTR-Mutanten auch bei allen anderen Pankreatitisformen gefunden wurden. CFTR (cystic fibrosis transmembrane conductance regulator): schwere Mutationen, die die Funktion des Membrantransportproteins erheblich beeinträchtigen und in beiden Allelen vorkommen, sind die Ursache einer der häufigsten Erberkrankungen der kaukasischen Rasse, der Mukoviszidose = zystische Fibrose. „Milde” Mutationen wurden gehäuft bei idiopathischer Pankreatitis gefunden. Bei der vorwiegend in Indien vorkommenden tropischen chronischen Pankreatitis finden sich in 50% der Fälle N-34-S SPINK-Mutationen.
Wir fanden kürzlich bei allen Formen der chronischen Pankreatitis im Vergleich zu gesunden Kontrollen und Patienten mit alkoholischer Leberzirrhose in einem höheren Prozentsatz eine Mutation des Chymotrypsins C (Nature Genetics 2008). Dieses Enzym zerstört intrapankreatisch vorzeitig aktiviertes Trypsin und ist daher ein Schutzmechanismus vor intrapankreatischer Proteolyse. Diese Proteolyse wird als entscheidender Pathomechanismus für die Entstehung der Pankreasentzündung angesehen. Die bei hereditärer Pankreatitis gefunden Mutationen des Trypsins sind wahrscheinlich eine„ gain of function”" Mutation und begünstigen ebenfalls die intrapankreatische Aktivierung dieser Protease.
Im Vortrag wird auch kurz auf die Klinik, Diagnostik, interventionell endoskopische und konservative Therapie der Erkrankung eingegangen.
Vortrag am 14.3.2008
Jens Weitkamp (Stuttgart), Mitglied der Mathematisch-naturwissenschaftlichen Klasse:
Dr.-Ing., Professor für Technische Chemie und Direktor des Instituts für Technische Chemie der Universität Stuttgart; am 14. Februar 2003 zum Korrespondierenden Mitglied der Mathematisch-naturwissenschaftlichen Klasse gewählt.
Forschungsschwerpunkte: Herstellung, postsynthetische Modifizierung, spektroskopische Charakterisierung und Anwendung von mikro- und mesoporösen Materialien, insbesondere in der heterogenen Katalyse.
Zeolithe und Katalyse – Beispiel Aromatenchemie
Zeolithe zählen heute zu den bedeutendsten Klassen fester Katalysatoren sowohl in der industriellen Anwendung als auch in der akademischen Forschung. Ihr Aufstieg setzte vor knapp 50 Jahren ein, nachdem es gelungen war, Zeolithe synthetisch herzustellen und ihre Eigenschaften systematisch abzuwandeln (als Mineralien waren Zeolithe bereits seit zwei Jahrhunderten bekannt). Als spektakulärer Erfolg gilt die Einführung von Zeolith-Katalysatoren bei der Herstellung von Benzin durch Cracken hochsiedender Fraktionen des Erdöls Anfang der 1960er Jahre. In den darauf folgenden Jahrzehnten wurden eine Reihe von weiteren Verfahren der Raffinerietechnik durch Zeolithe als Katalysatoren wesentlich verbessert oder überhaupt erst ermöglicht. Ein zweiter wichtiger Bereich der Anwendung von Zeolithen in der Katalyse ist die Produktion von Basischemikalien wie Aromaten und Olefinen aus Erdölfraktionen.
Der erste Teil dieses Vortrags ist den Grundlagen der Zeolithchemie gewidmet. Es wird aufgezeigt, welche Eigenschaften Zeolithe besonders attraktiv zur Nutzung in der heterogenen Katalyse machen. Hier sind vor allem die streng einheitlichen Porenweiten in der Größenordnung von Molekülabmessungen zu nennen. Dank dieser Eigenschaften gelingt mit Zeolithen die formselektive Katalyse, ein sehr nützliches Instrument zur selektiven Lenkung chemischer Reaktionen zu den gewünschten Produkten. Anhand der Herstellung von Alkylaromaten wird demonstriert, wie Zeolithe dazu beitragen, altbekannte chemische Verfahren selektiver und umweltfreundlicher zu gestalten.
Im zweiten Teil wird über eigene Forschungsarbeiten berichtet, in denen die Grundlagen für ein neues Verfahren zur Umwandlung von Pyrolysebenzin in einen synthetischen Einsatz für Steamcracker geschaffen wurden. Im Steamcracker werden aus Leichtbenzin die Basischemikalien Ethen und Propen erzeugt, als Nebenprodukt entsteht jedoch in großen Mengen das sehr aromatenreiche Pyrolysebenzin. Derzeit wird es noch meist dem Ottokraftstoff zugemischt, diese Verwendung könnte jedoch in naher Zukunft aus Gründen des Umweltschutzes stark eingeschränkt werden. Durch das neue Verfahren könnte man Pyrolysebenzin in den Steamcracker recyclieren und erhebliche Mengen des Rohstoffs Leichtbenzin einsparen.
Vortrag am 14.3.2008
Ernst Eichler (Leipzig), Mitglied der Philologisch-historischen Klasse:
Dr. phil., Dr. h.c., Professor i. R. für Slawische Sprachwissenschaft an der Universität Leipzig; am 20. Oktober 1978 zum Ordentlichen Mitglied der Philologisch-historischen Klasse gewählt, Mitglied der Strukturbezogenen Kommissionen „Wissenschaft und Werte”, „Landeskunde” und der Historischen Kommission.
Hauptarbeitsgebiete: Entwicklung der slawischen Sprachen, vor allem der westslawischen; deutsch-slawische Sprachkontakte, slawische Namen im deutschen Sprachgebiet; Geschichte der Slawistik.
Blick nach Osten: die slawischen Sprachen
1. Der Vortrag faßt vor allem jene slawischen Sprachen ins Auge, die dem Deutschen benachbart sind: das Tschechische, Polnische, Kaschubische, Nieder- und Obersorbische.
2. Die slawischen Sprachen im Kontext der europäischen Sprachen. Probleme und Perspektiven im Gesamt der Europäischen Union. Bekannte und unbekannte Sprachen und ihre Relevanz in der europäischen Sprachpolitik. Etablierte Schriftsprachen und kaum bekannte Sprachen von Minoritäten.
3. Die Entwicklung dieser Sprachen war außerordentlich different; dies wird in der deutschen Öffentlichkeit nicht immer wahrgenommen; besonders die politischen Veränderungen um 1990 haben ganz neue Bedingungen geschaffen und somit auch die Beziehungen zum Deutschen stark modifiziert.
4. Die in der EU in Dokumenten zur Sprachpolitik beschlossenen Richtlinien (Deklarationen usw., doch nur mit empfehlendem Charakter) führten zu verschiedenen Antworten auf die Frage, wie die bisherige Klassifikation slawischer Sprachen (meist in West-, Süd-, Ostslawisch, danach auch die Bezeichnung von Studiengängen an den Universitäten) zu verändern sei; durch Einbeziehung von dialektartigen Varietäten kam man sogar auf bis zu 40 slawische “Sprachen”. Doch bestehen auch besser begründete Vorschläge, die die diachronischen Klassifikationen adäquat ersetzen können.
5. Beispiele für die Befriedigung der modernen Nominationsbedürfnisse in den Wortschatzinnovationen – Ergebnisse neuerer Projekte wie das aus Opole/Oppeln (Polen):„ Die neueste Geschichte der ostslawischen Sprachen”/„Najnowsze dzieje języków słowiańskich” (1997–2003) in 14 Bänden.
6. Blick in die Vergangenheit: Die Germania Slavica – Ergebnisse jahrzehntelanger Forschung (auch an der SAW).
Vortrag am 8.2.2008
Wolfgang Huschner (Leipzig), Mitglied der Philologisch-historischen Klasse:
Dr. phil., Professor für Mittelalterliche Geschichte an der Universität Leipzig; am 9. Februar 2007 zum Ordentlichen Mitglied der Philologisch-historischen Klasse gewählt, Mitglied der Historischen Kommission der Akademie.
Hauptarbeitsgebiete: Beziehungen zwischen dem griechisch und dem lateinisch geprägten Europa im Früh- und Hochmittelalter; kulturelle und politische Wechselwirkungen zwischen „Deutschland” und „Italien” im Früh- und Hochmittelalter; Königs- und Kaiserurkunden für Empfänger in Italien; Geschichte des südlichen Ostseeraums im Hoch- und Spätmittelalter.
Die Präsentation von Königen, Fürsten und Päpsten in ottonisch-salischen Diplomen (962–1056)
Nach der Kaiserkrönung Ottos I. am 2. Februar 962 und der Errichtung eines neuen westlichen Imperiums kam es in den folgenden hundert Jahren zu einem verstärkten kulturellen Austausch zwischen den intellektuellen und politischen Eliten nördlich und südlich der Alpen. Für eine Untersuchung dieser transalpinen Wechselwirkungen stellen die Kaiser- und Königsurkunden (Diplome) aus mehreren Gründen eine sehr wichtige Quellenbasis dar.
Erstens waren Diplome rechtliche Dokumente von hoher Beweiskraft für die Besitzungen und Privilegien der Empfänger in „Deutschland” und „Italien”. Zweitens waren sie „politische” Dokumente. Sie spiegeln die Beziehungen zwischen dem Herrscher und jenen geistlichen und weltlichen Großen wider, die gemeinsam mit ihm das auf personalen Strukturen basierende Imperium bildeten und trugen. Sie waren damit zugleich exklusive Dokumente, die nur innerhalb der sozialen Führungsgruppen des ottonisch-salischen Imperiums zirkulierten. Drittens wurden die Diplome unter den Bedingungen einer Gesellschaft mit reduzierter Schriftlichkeit in die üblichen mündlichen und demonstrativen Kommunikationsformen zwischen dem Herrscher und den Großen des Reiches integriert. In der Regel dürften diese Urkunden mindestens zweimal in einem öffentlichen Rahmen gezeigt und verlesen worden sein: nach dem Abschluss der Beurkundung am Herrscherhof sowie nach dem Eintreffen des Dokuments am Empfängersitz. Viertens waren Diplome repräsentative Dokumente. Sie besaßen einen sakralen Charakter und betonten die Nähe des Königs bzw. Kaisers zu Gott.
Diplome dienten allerdings nicht nur der Repräsentation des Herrschers sondern auch der Herrscherin sowie jener der geistlichen und weltlichen Großen, die darin als Intervenienten (Fürsprecher), Petenten (Fürbitter), Ratgeber, Empfänger, Erzkanzler und Kanzler aufgeführt wurden. Die besonderen Schriften der Kaiserurkunden – die verlängerte Schrift (Elongata) und die diplomatische Minuskel – waren nicht nur exklusiv auf die Sphäre des Herrschers beschränkt. Auch geistliche Fürsten benutzten häufig die diplomatische Minuskel, um sich und ihren Rang in Subskriptionslisten von Gerichtsurkunden hervorzuheben.
Die Verfasser und Schreiber der Diplome waren keine „subalternen Beamten” auf der untersten Stufe einer institutionell organisierten Kanzlei am Herrscherhof, wie man in der Urkundenforschung lange glaubte, sondern in der Regel ranghohe und entsprechend gebildete Geistliche. Sie konnten zur Seite des Ausstellers, des Empfängers oder jener des Vermittlers gehören. Diese Geistlichen kannten die rechtlichen, politischen, repräsentativen und sakralen Funktionen der Herrscherurkunden. Deshalb konzentrierten sie sich nicht nur auf den Inhalt bzw. Text, sondern widmeten auch der graphischen Ausführung der Diplome die gebührende Aufmerksamkeit. Sie waren in der Lage, Urkunden so zu gestalten, dass diese beim Verlesen und Zeigen in der Öffentlichkeit eine audiovisuelle Wirkung erzielten. Sie entschieden zumeist eigenverantwortlich darüber, wie sie den Herrscher, die Herrscherin und die Großen in den von ihnen hergestellten Diplomen inhaltlich und graphisch präsentierten. Deshalb spiegeln die Eingangs- und Schlussprotokolle der Diplome in der Regel auch keine direkten persönlichen Auffassungen des jeweiligen Herrschers wider, sondern stellen eine Interpretation des König- bzw. Kaisertums durch ranghohe geistliche Notare dar. Diese wählten auf der Grundlage eigener Auffassungen oder von theoretischen Diskussionen am Herrscherhof inhaltliche und graphische Darstellungsvarianten aus, die ihnen für die jeweilige historisch-politische Situation passend erschienen. Die ranghohen geistlichen Notare präsentierten sich in den Diplomen graphisch und verbal auch selbst, um so ihre Herrschernähe zu demonstrieren.
Vortrag am 8.2.2008
Hartmut Witte (Ilmenau), Mitglied der Technikwissenschaftlichen Klasse:
Dr. med. (habil.), Leiter des Fachgebietes Biomechatronik in der Fakultät für Maschinenbau der Technischen Universität Ilmenau; am 9. Februar 2007 zum Ordentlichen Mitglied der Technikwissenschaftlichen Klasse gewählt.
Hauptarbeitsgebiete: Biomechatronik: Funktionelle Morphologie, Biomechanik, Technische Biologie und Bionik, Mechatronik für die Biomedizinische Technik und die Biotechnologie.
Zur Funktionellen Morphologie des menschlichen Ganges und deren Implikationen für Medizin und Technik
Gedanklich haben sich Menschen im Allgemeinen und die Philosophen ihrer jeweiligen Zeit im Besonderen schon lange mit dem menschlichen Gang auseinandergesetzt (das hier übliche Beispiel sind die Überlegungen von Borelli in „De Moto Animalium”, aber auch bereits Aristoteles kann zitiert werden). Von einer dokumentierten wissenschaftlichen Betrachtung im heutigen Sinne ist seit 1836 auszugehen. Eduard und Wilhelm Weber haben in „Die menschlichen Gehwerkzeuge” das durch die preußische Militärforschung zur Verbesserung der Leistungsfähigkeit der Infanterie erweiterte Wissen über das menschliche Gehen dokumentiert. Unterstützt durch die Ergebnisse der von Etienne Jules Marey und Eadweard Muybridge (eigentlich Muggeridge) entwickelte Chronophotographie (heute würde man sagen: filmgestützte Bewegungsanalyse) konsolidierten Wilhelm Braune und Otto Fischer die Modellvorstellungen und publizierten ihre auch heute noch konkurrenzfähigen experimentellen Ergebnisse 1895 bis 1904 umfangreich in den Abhandlungen der Mathematisch-Physischen Klasse der Königlich-Sächsischen Gesellschaft der Wissenschaften. Durch verbesserte Technologien wurden insbesondere die Experimentalergebnisse der genannten Pioniere der Bewegungsforschung im 20. Jahrhundert weiter untersetzt, ein deutlicher qualitativer Wissenszuwachs über das menschliche Gehen wurde aber erst in den letzten 30 Jahren dokumentiert. Tom McMahon und Simon Mochon stellten 1980 den Modellvorstellungen über die Nutzung von hängenden Pendeln in den Schwungbeinphasen Modelle „Inverser Pendel” für die Standbeinphasen gegenüber. Reinhard Blickhan machte 1989 das von Robert Taylor initiierte Modell des „Feder-Masse-Modells” für die Fortbewegung von Tieren am Beispiel insbesondere des Menschen mathematisch handhabbar und entwickelte es unter dem Aspekt der „Robustness” (auf deutsch: „Selbststabilisierung”) für das menschliche Laufen weiter. Alberto Minetti beschrieb 1991 die dritte Gangart der Menschen: neben Gehen und Laufen gibt es das „Skipping” (Karl May-Liebhabern längst bekannt als „Indianergalopp”). Siegfried Labeit und Henk Granzier identifizierten 1995 das Substrat der schon seit 1983 von Kuan Wang (aus molekularbiologischer Sicht) und 1988 von Ferdinando Mussa-Ivaldi (aus der Perspektive der Neurokybernetik) postulierten mehrstufigen Feder in Muskeln als Gigantoproteine wie das Titin, welches anschließend von Wolfgang Linke und Mitarbeitern physiologisch charakterisiert wurde. Hartmut Witte und Mitarbeiter führten 1997 den Nachweis quantitativer Relevanz elastischer Mechanismen im menschlichen Bewegungsapparat. Hartmut Geyer und André Seyfarth konnten 2006 zeigen, dass die Mechanismen der „Robustness” auch für das Gehen (und nicht nur für das Laufen) bedeutsam sind. Aufbauend auf den Arbeiten von Martin S. Fischer und Mitarbeitern zur Bedeutung der Rumpfbewegungen für die Lokomotion von Säugetieren haben Emanuel Andrada und Hartmut Witte ein experimentell gestütztes Modell der menschlichen Rumpfbewegungen als Rechnersimulation realisiert, welches die zentrale Bedeutung des Körperstamms für die Fortbewegung auch des Menschen wie bei anderen Wirbeltieren belegt (dokumentiert in der Dissertationsschrift Andrada 2007).
Im Vortrag wird die 1991 von Hartmut Witte und Holger Preuschoft auf Starrkörpermechanik aufgebaute funktionell-morphologische Betrachtung der menschlichen Körpergestalt als Anpassung an das ausdauernde Gehen um Schlussfolgerungen aus den oben beschriebenen, zwischenzeitlich gewonnenen neuen Perspektiven erweitert.
Anwendungen finden diese Modellvorstellungen bereits in der Medizin (Prävention, Diagnostik, Therapie und Rehabilitation von Erkrankungen des Bewegungsapparates), beim Bau menschenähnlicher (humanoider) Roboter sollten sie berücksichtigt werden. Beide Anwendungsgebiete sind Aktivitätsfelder der Biomechatronik.
Vortrag am 11.1.2008
Peter Fulde (Dresden), Mitglied der Technikwissenschaftlichen Klasse:
Dr. phil., Direktor emeritus und Wissenschaftliches Mitglied am Max-Planck-Institut für Physik komplexer Systeme, Honorarprofessor für Theoretische Physik an der Technischen Universität Darmstadt und an der Technischen Universität Dresden; am 9. Januar 1998 zum Korrespondierenden Mitglied der Technikwissenschaftlichen Klasse gewählt.
Hauptarbeitsgebiete: Theorie der Metalle, Kristallfelder der Seltenen Erden, Elektronische Korrelationen, Quantenchemie.
Fraktionierte Ladungen in Festkörpern
Bekanntlich sind die elektrischen Ladungen in der Natur quantisiert. Sie sind alle ausdrückbar in Einheiten der Elektronenladung e. So haben auch die Atomkerne ein ganzzahliges Vielfaches der Ladung e. Nur bei den quarks tauchen Ladungen auf, die kleiner als e sind, aber auch diese sind quantisiert, nämlich in Einheiten von e/3. Allerdings sind diese nicht beobachtbar, da quarks nicht einzeln existieren (quark confinement) und nur in solchen Kombinationen auftreten, dass wieder Einheiten von e entstehen.
Umso erstaunlicher ist es, dass es in Festkörpern, die ja lediglich aus Atomkernen und Elektronen bestehen, Anregungen auftreten können, deren Ladung kleiner als e ist. Das erste Beispiel dafür war trans-Polyacethylen (CH)n. Bei diesen eindimensionalen Polymerketten ist der Grundzustand zweifach entartet. Bestimmte Anregungen, die Solitonen genannt werden, verknüpfen diese beiden Grundzustände. Bei ihnen sind Spin und Ladung voneinander getrennt. Dotiert man diese Systeme, dann erwartet man, dass bei bestimmten Dotierungsgraden Anregungen von z. B. e/3 oder 2e/3 auftreten. Beim fraktionierten Quanten-Hall-Effekt sind Anregungen mit fraktionierten Ladungen e/3 tatsächlich experimentell nachgewiesen und theoretisch erklärt worden. Diese Arbeiten wurden mit dem Nobelpreis ausgezeichnet. Allerdings ist der physikalische Grund für das Auftreten fraktionierter Ladungen ein völlig anderer als beim (CH)n. Auch handelt es sich hier um 2-dimensionale Systeme, denn der Effekt tritt nur in halbleitenden Inversionsschichten auf.
Im Vortrag soll nun gezeigt werden, dass Anregungen mit fraktionierten Ladungen auch in 3-dimensionalen Systemen auftreten sollten. Dazu müssen die Gitter, auf denen sich stark korrelierte Elektronen bewegen, geometrisch frustriert sein. Auch müssen bestimmte Füllgrade der Gitter vorhanden sein. Dann allerdings ist es leicht zu sehen, wie fraktionierte Ladungen entstehen. Einige Eigenschaften der Systeme erinnern an Analogien in der Elementarteilchenphysik.
Vortrag am 11.1.2008
Wolfgang Fritsche (Jena), Mitglied der Mathematisch-naturwissenschaftlichen Klasse:
Dr. rer. nat., Professor i.R. für Technische Mikrobiologie an der Friedrich-Schiller-Universität Jena; am 8. Februar 1991 zum Ordentlichen Mitglied der Mathematisch-naturwissenschaftlichen Klasse gewählt; Mitglied der Strukturbezogenen Kommissionen für „Wissenschaft und Werte” und „Umweltprobleme”;
Hauptarbeitsgebiete: Ökologische Mikrobiologie, Mikrobieller Abbau von Fremdstoffen und Umweltsanierung, Ökologische Biochemie der Mikroben-Pflanzen-Wechselwirkungen, Umweltethik.
Auswirkungen der globalen Umweltveränderungen auf die Wertschöpfung der Natur
Die globalen Umweltveränderungen haben über den Klimawandel hinaus tief greifende Auswirkungen auf Struktur und Leistungen der Biosphäre. Die eingetretenen Veränderungen gehen auf drei große Wachstumsprozesse zurück, dem Wachstum der Weltbevölkerung, der Konsumansprüche und dem Anwachsen von Schadstoffen in der Umwelt. Damit ist neben der Abnahme der fossilen Rohstoffe ein Verlust an natürlichen und naturnahen Ökosystemen und ihrer Biodiversität verbunden. Die Folge ist die stete Abnahme der Ökosystemleistungen, den Hauptfaktoren der natürlichen Wertschöpfung. Dabei handelt es sich um die Kreisläufe des Wassers, des Kohlenstoffs, Stickstoffs und anderer Elemente, der Wasserreinigung und -versorgung, der Bodenbildung und des Erosionsschutzes sowie der Schadstoffbeseitigung.
Es besteht ein gravierender Zielkonflikt um Flächen zur landwirtschaftlichen Nahrungsmittelproduktion und für Ökosystemleistungen, der sich mit der wachsenden Erdbevölkerung und den Forderungen nach mehr nachwachsenden Rohstoffen weiter verschärfen wird. Auf der Basis der Berechnungen des „Ökologischen Fußabdrucks” übersteigt der menschliche Konsum die natürliche Kapazität der Erde um 25%. Die Überlastung der natürlichen Stoffkreisläufe manifestiert sich nicht nur am Kohlenstoffkreislauf, sondern auch an denen des Stickstoffs, Phosphors und Schwefels. So werden gegenwärtig mehr als doppelt so viele reaktive Stickstoffverbindungen wie vor 100 Jahren in das globale System eingetragen.
Die Lösung der sich verschärfenden Situation besteht in der Integration der menschlichen Wirtschaftsprozesse in die Kapazitäten der natürlichen Systeme. Es ist eine der großen Aufgaben der Wissenschaft, diese sehr komplexen und nichtlinearen Systeme der Natur weiter zu quantifizieren und transparent zu machen. In breiten Kreisen der Öffentlichkeit und Politik besteht ein unzureichendes Problemverständnis für die Funktionsgefährdung der Biosphäre, da sich viele Menschen nicht unmittelbar betroffen fühlen. Erst wenn die Natur nicht nur als Ressource, sondern als Wert an sich verstanden wird, wird es zu einer Wertschätzung der Natur kommen, die zu einem angemessenen Handeln führt.