Plenarvorträge 2016

Vortrag am 9.12.2016

Hans Ulrich Schmid (Leipzig), Mitglied der Philologisch-historischen Klasse

Dr. phil., Professor für Geschichte der deutschen Sprache und für Historische Sprachwissenschaft an der Universität Leipzig; gewählt am 11. Februar 2005, stellv. Sekretar der Philologisch-historischen Klasse, Projektleiter des „Althochdeutschen Wörterbuchs“, Vorsitzender der Projektbegleitenden Kommission der „Deutschen Inschriften des Mittelalters und der Frühen Neuzeit“.
Forschungsgebiete: Historische Laut- und Wortgeographie, Epigraphik des Spätmittelalters und der Frühen Neuzeit, Lexikographie des rezenten Bairischen und des Neuisländischen, Wortbildung des Althochdeutschen und des Bairischen.

 

Code switching im Althochdeutschen

„Code switching“ ist der linguistische Terminus für das Wechseln zwischen zwei Sprachen oder zwei Sprachvarietäten (z.B. Dialekt und Standardsprache) im Verlauf ein und desselben Kommunikationsaktes. Für weit zurückliegende Sprachstadien wie das frühmittelalterliche Althochdeutsche (8. bis 11. Jahrhundert) können solche Sprachsprünge natürlich nicht „live“ mit Originalton nachvollzogen werden. Aber auch schriftliche Zeugnisse bieten vergleichbare Phänomene, vornehmlich im Kontaktbereich von Latein und Volkssprache. Die Ursachen dafür sind – je nach Textsorte und Lebensbereich – vielfältig:
„Code switching“ kann didaktisch motiviert sein und seinen „Sitz im Leben“ in der Klosterschule haben. Musterhaft hat Notker „der Deutsche“ von St. Gallen († 1022) vorgeführt, wie sich die Symbiose von Latein und Deutsch im Unterricht einsetzen ließ. Es gibt allerdings keine unmittelbaren Anzeichen dafür, dass die „Notker-Schule“ Schule gemacht hätte.

Ein gänzlich anderer Bereich ist der der medizinischen Rezeptliteratur: Verfasser heilkundlicher Kurztexte sahen sich immer wieder genötigt, zur Verständnissicherung vom Lateinischen ins Deutsche umzuschalten. Ähnliches gilt für Segens- und Zaubersprüche, wobei in solchen Fällen als dritte Ebene neben Latein und Deutsch auch so etwas wie eine rätselhafte „lingua magica“ in den Blick kommt.

Schon im 11. Jahrhundert gab es Liedtexte mit Versen, die halb lateinisch und halb deutsch waren (ein Kompositionsprinzip, das durch die Jahrhunderte immer wieder bis hin zu dem bekannten Weihnachtslied in dulci jubilo realisiert wurde). Hier dürfte die Freude am literarischen Sprachspiel das leitende Motiv gewesen sein. Auch der lateinische Ruodlieb, der älteste Ritterroman, der auf deutschem Gebiet verfasst worden ist, integriert überraschende althochdeutsche Einsprengsel, die nach einer eigenen Erklärung verlangen. Und schließlich wurde „Code switching“ ganz offensichtlich auch dazu genutzt, um ironische, sarkastische oder komische Effekte zu erzielen.

Auch wenn Übersetzungen einen Großteil der althochdeutschen Überlieferung ausmachen, ist das frühmittelalterliche Verhältnis von Latein und Volkssprache keineswegs nur das von primärer Vorlage und sekundärer, nachgeordneter Übersetzung. Es gab durchaus die Koexistenz von Latein und Volkssprache „auf Augenhöhe“.

 

Vortrag am 11.11.2016
Reinhard Gaupp (Jena), Ordentliches Mitglied der Mathematisch-naturwissenschaftlichen Klasse

Prof. i.R. für Allgemeine und Historische Geologie der Friedrich-Schiller-Universität Jena, Ordentliches Mitglied der Mathematisch-naturwissenschaftlichen Klasse seit 14. Februar 2003;
Arbeitsschwerpunkte: Sedimentologie klastischer, vor allem kontinentaler Sedimente, Ablagerungs-Systeme in ariden bis hyperariden Phasen der Erdgeschichte, Sandstein-Diagenese, Tight Gas Sandstones, Erdgas-Exploration, Gasspeicherung im geologischen Untergrund.

Speicherung von Energie im geologischen Untergrund

Mit dem ehrgeizigen Jahrhundertprojekt Energiewende strebt Deutschland künftig eine nachhaltige Energieversorgung an. Erneuerbare Energieträger sollen in absehbarer Zeit in erheblichem Umfang zur Verfügung stehen. Die Geowissenschaften sind seit mehr als 170 Jahren verantwortlich für die Erschließung von Kohle, Erdöl und Erdgas, den derzeit weitaus wichtigsten Energieträgern weltweit, auch für die Bereitstellung nuklearer Brennstoffe. All diese Energieträger müssen global innerhalb weniger Generationen ersetzt werden durch die erneuerbaren bzw. nachhaltigen Energiequellen Sonne (Solarthermie, Photovoltaik), Windkraft, Wasser, Biomasse und Geothermie.

Selbst unter optimistischen Annahmen bedeutet eine sehr rasche Umstellung auf die erneuerbaren Energieträger, dass wir noch über vermutlich >100 Jahre auf die fossilen Energien Kohle, Erdöl und Erdgas in abnehmendem Maße zurückgreifen müssen. So werden die nicht-konventionellen fossilen Energieträger „dichte Gasspeicher“, Tonstein-Gaslagerstätten, Erdgas aus Kohleflözen und evtl. Methanhydrate eine zunehmende Rolle spielen als Primärenergiequellen in der Transformationszeit hin zu einem „Erneuerbaren Energiemix“. Über welche Zeiträume diese Transformation stattfinden wird, ist von technischen, ökonomischen und politischen Rahmenbedingungen abhängig. Übergangslösungen sind aus heutiger Sicht unumgänglich.

Die Geowissenschaften können neben Beiträgen zur Gewinnung nicht-fossiler Energien vor allem zur Bereitstellung von Untergrund-Gas- bzw. -Energiespeichern wichtige Grundlagen liefern, um die Diskrepanz zwischen Stromerzeugung und Bedarf zu mindern. So wird sich Überschussstrom aus Windkraftanlagen über hydrolytisch freigesetzten Wasserstoff einerseits in das Erdgasnetz einspeisen lassen, andrerseits wenn nötig im porösen geologischen Untergrund wie Erdgas zwischenspeichern lassen.

Zur Kurzzeit-Einspeisung und Speicherung von Erdgas im Untergrund gibt es weltweit schon über Jahrzehnte Erfahrungen, sowohl für Porenspeicher, als auch für Kavernenspeicher in mächtigen Salzgesteinen. Dies ist bei Wasserstoff-Speicherung noch nicht in diesem Ausmaß der Fall. Die industrielle und akademische Forschung zielt zurzeit auf die Wechselwirkung von injizierten Gasen, Lagerstättenwässern und Wirtsgesteinen wie Steinsalz, vor allem aber teilausgeförderten Sandsteinen. Beobachtungen an natürlichen Analogen werden ergänzt durch Labor-Experimente und numerische Simulationen. Mikrobiologische und materialwissenschaftliche Aspekte spielen hier eine besondere Rolle. Bisherige Ergebnisse haben zwar nur eine Kurzzeit-Basis von wenigen Jahren, versprechen aber auch für Wasserstoff gangbare Wege zur Untergrundspeicherung großer Energiemengen aus fluktuierenden erneuerbaren Energiequellen. Hier kommen in Deutschland vor allem die weitgehend ausgeförderten tiefen Gasfelder in Niedersachsen oder im nördlichen Sachsen-Anhalt in Frage, aber auch Gas- und Öllagerstätten im Oberrheingraben oder des bayerischen Alpenvorlandes. Die Reaktivität des Wasserstoffs mit einigen Gesteins-Komponenten, aber auch dessen sehr gute Eignung als Nährstoff für Mikroorganismen im Gestein, lassen jedes Fallbeispiel von H2-Untergundspeicherung als Unikat erscheinen.

Der Vortrag gibt einen Überblick zu aktuellen Fragen und wissenschaftlichen Ansätzen bei der Wasserstoff-Untergrundspeicherung als Beitrag zur Energieversorgung der Zukunft.

 

Vortrag am 11.11.2016
Heinz Thoma (Halle), Ordentliches Mitglied der Philologisch-historischen Klasse

em. Professor für Romanische Literaturwissenschaft an der Martin-Luther-Universität Halle-Wittenberg, Ordentliches Mitglied der Philologisch-historischen Klasse seit 14.02.1997;
Arbeitsschwerpunkte: Europäische Aufklärung, Literaturtheorie, Geschichte des Subjekts in der Literaturgeschichte.

Vergesellschaftung und Freiheit – Konstruktionen und Wahrnehmungen der bürgerlichen Formation seit der Aufklärung an gesellschaftstheoretischen und literarischen Beispielen

Der Vortrag geht von der Beobachtung aus, dass seit dem letzten Drittel des 20. Jahrhunderts die Diagnosen sich häufen, dass die Art des Wirtschaftens und des Zusammenlebens des westlichen Gesellschaftsmodells an seine Grenzen gerät (Club of Rome, Die Grenzen des Wachstums 1972). Eine zweite Beobachtung betrifft die damit zeitlich zusammenfallende Kritik an der Aufklärung, welche von einem Jahrhundert der Emanzipation in ein Jahrhundert der Domestizierung umgedeutet wird (Foucault). Eine dritte Beobachtung geht schließlich davon aus, dass sowohl das Zeitalter der Aufklärung wie unsere jüngere Gegenwart ihre Infragestellungen des jeweiligen Gesellschaftszustands bzw. ihre Selbstthematisierung im Medium anthropologischer Reflexion vollziehen – allerdings mit je unterschiedlichen Grundannahmen zum Verhältnis von Vergesellschaftung und Freiheit und entsprechend gerichteten geschichtsphilosophischen Prämissen (Fortschritt, Glück, Ende der Geschichte, Depression etc.). Es scheint sich hierbei jeweils um Schwellen- bzw. Krisensituationen von hohem Veränderungsbedarf zu handeln. Diesen Prozess nimmt der Vortrag an ausgewählten Beispielen aus der Philosophie, der Soziologie und der Literatur in den Blick.

 

Vortrag am 14.10.2016

Horst Biermann; (Freiberg), Ordentliches Mitglied der Technikwissenschaftlichen Klasse

Professor für Werkstofftechnik und Direktor des Instituts für Werkstofftechnik an der TU Bergakademie Freiberg, Ordentliches Mitglied der Technikwissenschaftlichen Klasse seit 13. Februar 2015;
Arbeitsschwerpunkte: Plastizität und Verformungsverhalten von metallischen Werkstoffen, intermetallischen Legierungen und Verbundwerkstoffe; Ermüdungs- und Wechselverformungsverhalten von metallischen Werkstoffen, intermetallischen Legierungen und Verbundwerkstoffen; Randschichtbehandlung von Metallen.

 

Materialermüdung – aktuell wie vor 150 Jahren!

Die Materialermüdung ist ein in der Technik seit über 150 Jahren systematisch untersuchtes Phänomen, bei dem wiederholte mechanische Belastungen zu einer Werkstoffveränderung führen und schließlich das Versagen eines Bauteils hervorrufen. Die hohe Gefährdung durch die resultierenden Schadensfälle ergibt sich aus dem schleichenden Prozess, der noch dazu oftmals keine deutlich sichtbaren Veränderungen am Bauteil hinterlässt. Auch heute geschehen immer noch tragische Unfälle (z.B. in der Verkehrstechnik, d.h. in Luftfahrt oder Bahnverkehr, in der Energietechnik oder im Maschinenbau), die durch Materialermüdung verursacht werden. Daher sind die Erforschung der Mechanismen der Mikrostrukturveränderungen, der Rissbildung, des Wachstums von Ermüdungsrissen wie auch die Lebensdauerberechnung ein nach wie vor aktuelles und wichtiges Feld der Werkstofftechnik.

Zunächst wird im Rahmen des Beitrages anhand historischer und aktueller Beispiele die Relevanz des Themas dargestellt. Anschließend werden einige Grundzüge der Auslegung zyklisch beanspruchter Bauteile vorgestellt. Dabei stellen die Auslegungskonzepte „safe life“, „damage tolerance“ und „fail safe“ eine wichtige Rolle. In der Folge werden exemplarisch mikroskopische Ursachen der Materialermüdung besprochen. Daneben spielt die Qualität des Werkstoffs eine genauso wichtige Rolle, wie die Fertigung und die Konstruktion von Bauteilen. Selbst für „perfekte“ Werkstoffe ist heute für viele Fälle bekannt, dass eine Dauerfestigkeit (d.h. eine „unendliche“ Lebensdauer, bei der scheinbar beliebig oft wiederholte mechanische Belastungen ohne Bruch auftreten können) nicht vorliegt. Beispiele für Bauteile, die auch nach einer Milliarde Lastwechseln noch versagen können, gibt es in der Energietechnik (Generatoren, Windkraftanlagen), in der Verkehrstechnik (Hochgeschwindigkeits-Züge) oder in der Medizintechnik (künstliche Herzklappen). Nach erfolgter Anrissbildung folgt das Wachstum des Ermüdungsrisses, das in vielen Fällen durch ingenieurmäßige Beziehungen beschrieben werden kann, für manche Fälle allerdings noch unverstanden ist.

Die statistische Bewertung von Ermüdungslebensdauern und Beanspruchungen ergibt eine Versagenswahrscheinlichkeit und damit ein Restrisiko, dem der Nutzer ausgesetzt ist.

 

Vortrag am 10.6.2016
Carsten Drebenstedt (Freiberg), Ordentliches Mitglied der Technikwissenschaftlichen Klasse

Professor für Bergbau-Tagebau an der Technischen Universität Bergakademie Freiberg; Ordentliches Mitglied der Technikwissenschaftlichen Klasse seit 14. Februar 2014.

 

Herausforderungen an einen verantwortungsvollen Rohstoffabbau – Beiträge der Wissenschaft

Jeder Einwohner Deutschlands verursacht durchschnittlich pro Tag den Einsatz von ca. 45 kg Rohstoffen aus der Erdkruste (Geo-Wertstoffe). Hinzu kommen Rohstoffe aus dem Recycling. Wir benötigen diese Rohstoffe für unsere Grundbedürfnisse, wie Wohnen, Wärme und Licht, Ernährung und Gesundheit, Mobilität und Kommunikation. Entsprechend ihrer Verwendung werden Geo-Wertstoffe entsprechend erfaßt, z.B. als Baurohstoffe (ca. 50% des Weltbergbaus), Energierohstoffe (ca. 40%), Eisenrohstoffe (ca. 5%) oder Industrieminerale, inklusive Düngemittelrohstoffe (ca. 2,5%). In den letzten 10 Jahren hat sich die Weltbergbauproduktion um ca. 50% erhöht, Trend weiter steigend mit der Weltbevölkerung. Dabei beträgt der Rohstoffeinsatz in Deutschland etwa das Dreifache des Durchschnitts: ca. 800 Mio. t aus heimischen Lagerstätten und ca. 500 Mio. t aus Importen. Rückgänge im heimischen Bergbau, z.B. bei Steinkohle, führen zu Importen, ebenso bei fehlenden oder kaum vorhandenen Rohstoffen wie Kohlenwasserstoffe und Metallen. Viele der importierten Rohstoffe werden in der deutschen Wirtschaft eingesetzt, z.B. im Fahrzeugbau, und als Produkt wieder exportiert. Die Versorgung mit Geo-Wertstoffen ist Teil der Daseinsvorsorge. Der Rohstoffabbau findet im Unterschied zu anderer Industrieproduktion unter besonderen Bedingungen statt, so sind z.B. die Standorte fixiert und die Vorräte endlich; ähnlich sind die Konflikte mit etablierten Landnutzungen und dem Umweltschutz. Vor diesem Hintergrund leiten sich zahlreiche Aufgaben für die Rohstoffforschung ab, die insbesondere an der TU Bergakademie Freiberg bearbeitet werden. Das holistische Forschungskonzept der Professur Bergbau-Tagebau umfasst folgende Bereiche:

  • maximale Nutzung der Wertkomponenten einer Lagerstätte (Haupt-, Neben- und Begleitrohstoffe, Wertstoffe in den Rückständen der Rohstoffaufbereitung, -verarbeitung und -nutzung)
  • Umweltschonende, energie- und materialeffiziente Abbautechnologien und Gewährleistung eines hohen Grades an öffentlicher und betrieblicher Sicherheit sowie an Gesundheitsschutz in allen Prozessstufen des Bergbaus
  • schnelle und werthaltige Wiedernutzbarmachung der in Anspruch genommenen Flächen

Anhand von Fallbeispielen werden die drei Forschungsschwerpunkte untersetzt:

  • selektive Gewinnung und Aufbereitung von Erzen
  • energie-, material- und umweltschonende mechanische Gewinnung
  • geochemisch kontrollierte Verkippung von Abraum

 

Vortrag am 10.6.2016
Matthias Schwarz (Leipzig), Ordentliches Mitglied der Mathematisch-naturwissenschaftlichen Klasse

Professor für Mathematik in den Naturwissenschaften an der Universität Leipzig; Ordentliches Mitglied der Mathematisch-naturwissenschaftlichen Klasse seit 13. Februar 2015;

 

Globalisierung und Geometrisierung von Dynamischen Systemen

Was ist symplektische Geometrie? Symplektische Geometrie als die inhärente und natürliche Geometrie physikalischer Phasenräume steht in mehrfacher Weise in Beziehung zur Physik, von ihrer Herkunft aus der klassischen Mechanik, über ihre geometrische  Beziehung zur Quantenmechanik bis hin zur aus physikalischen Sicht spekulativen, aber aus mathematischer Sicht höchst anregenden Stringtheorie.

Wesentliche Begriffe der modernen Mathematik wurden im 19. Jahrhundert aufgrund ihrer Auseinandersetzung mit der Physik geprägt. Dazu zählen die Topologie und die Dynamischen Systeme, beides Begriffe zu denen in besonderem Maße der französische Mathematiker H. Poincaré beitrug bei seiner Beschäftigung mit der Himmelsmechanik, der klassischen, Newtonschen Physik des Sonnensystems und der Planetenbewegungen. In mathematischer Hinsicht stand vor allem die Analyse des Phasenraums und seiner Dynamik auf der Basis der charakteristischen Bewegungsgleichung im Zentrum.  Diese Grundgleichung der klassischen Physik, die sogenannte Hamiltonsche Bewegungsgleichung sind durch wesentliche Symmetrie- und Erhaltungseigenschaften charakterisiert, deren gemeinhin bekannteste die Energieerhaltung ist, unter geometrischen Symmetriebedingungen auch Impulserhaltung. Oft weniger beachtet ist dabei eine fundamentale Erhaltungseigenschaft in Bezug auf den Volumenbegriff des Phasenraums. Während die eigentliche Volumenerhaltung zu wichtigen Fragestellungen wie der Ergodizität und im Übergang zu Vielteilchensystemen zur Statistischen Mechanik führt, hat eine Betrachtung eines noch fundamentaleren und dem Phasenraum inhärenten zweidimensionalen Flächenbegriffs im 20. Jahrhundert zu einer im Kleinschen Sinne eigenen Geometrie, der symplektischen Geometrie geführt.

Erst diese komplexere, als symplektisch bezeichnete Geometrie erlaubte es, vollkommen neuartige und ordnende Einsichten in die scheinbar chaotische Dynamik der Hamiltonschen Systeme zu gewinnen.

Dabei spielen die periodischen Bahnen als einfachste und charakteristische Elemente eines dynamischen Systems eine zentrale Rolle. Gleich einem Fingerabdruck charakterisieren sie nicht nur bereits sehr stark das dynamische System. Sie codieren ebenfalls charakteristische Eigenschaften des Phasenraum selbst. Diese charakteristischen Größen sind dabei globaler, teilweise topologischer Natur. In der Analyse der Beziehungen zwischen Dynamik und Globalität sind noch viele Fragen ungeklärt, aber ebenso viele fruchtbare, unerwartete Verbindungen zu verschiedenen Bereichen der Mathematik und der Physik entstanden.

 

Vortrag am 13.5.2016
Jürgen Jost (Leipzig), Korrespondierendes Mitglied der Mathematisch-naturwissenschaftlichen Klasse

Honorarprofessor an der Universität Leipzig, Direktor am Max-Planck-Institut für Mathematik in den Naturwissenschaften Leipzig; Korrespondierendes Mitglied der Mathematisch-naturwissenschaftlichen Klasse seit 9. Februar 2001;
Arbeitsschwerpunkt: Mathematik (Geometrie, Analysis, Dynamische Systeme, Verbindungen zur Theoretischen Physik, Informationstheorie), Mathematische Biologie und Neurobiologie, Ökonomie, Komplexe Systeme.

 

Information und Komplexität

In welchem Sinne ist ein Schauspiel von Shakespeare reichhaltiger als der Text eines durchschnittlichen Autors? Welches ist der wichtigste Akteur in einem Drama? Wie kann eine Körperzelle mit ihrem immer gleichen und beschränkten Genom so vielfältige Funktionen je nach Gewebekontext und äußeren Umständen erfüllen? Wieviel Information erhält ein Neuron aus Sinnesdaten, und wie kann ein Gehirn die Informationen der einzelnen Neuronen kollektiv nutzen? Und wie lässt sich das in künstlichen Systemen verwenden? Nach welchen Prinzipien funktionieren hochkomplexe Systeme wie das internationale Wirtschafts- und Finanzsystem oder das Internet? Alle diese Frage verweisen letztendlich auf grundlegende Begriffe der Komplexität und der Information, und sie motivieren systematische Grundlagenforschung in verschiedenen Wissenschaften.

Der Vortrag wird den derzeitigen Wissens- und Diskussionsstand explorieren und allgemeine formale Konzept entwickeln und deren Anwendung an verschiedenen Beispielen aus der Neurobiologie, der Molekularbiologie, dem Maschinellen Lernen, der Sozialwissenschaft und der Literaturwissenschaft beleuchten.

Ausgangspunkte werden der Informationsbegriff von Shannon und das Konzept der algorithmischen Komplexität von Kolmogorov sein. Die Shannonsche Information gibt den erwarteten Gewinn von Wissen nach Erhalt einer Botschaft an. Sie quantifiziert also die Reduktion von Unsicherheit und ist somit ein differentielles Konzept. Dies verfeinernd gibt die wechselseitige Information zwischen A und B an, wie sich die Unsicherheit über A reduziert, wenn man B erfährt.

Aufgrund dieser differentiellen Natur liefern informationstheoretische Konzepte die Grundlage für quantitative Komplexitätsmaße in Systemen, die mit einer externen Umwelt interagieren und aus verteilten Komponenten oder mehreren Hierarchieebenen bestehen können.

Ein solches System wird im Angesicht von Ressourcenbeschränkungen und Konkurrenzdruck bestrebt sein, möglichst viel relevante Information über seine Umwelt zu gewinnen, diese aber gleichzeitig möglichst effizient intern zu repräsentieren und zu diesem Zweck versuchen, die Regularitäten und Symmetrien der Umwelt zu erkennen und auszunutzen. Hier setzt der Kolmogorovsche Komplexitätsbegriff an. Dieses Wechselspiel zwischen externer Generierung und interner Kompression ermöglicht es auch, durch Standardisierung und Vereinfachung von Abläufen, also durch eine Komplexitätsreduktion, die Handlungsoptionen des Systems zu erweitern und dadurch Komplexität zu gewinnen. Die vorstehend skizzierten Informationsmaße liefern nun Ansätze, um dies zu formalisieren und zu quantifizieren.

 

Vortrag am 13.5.2016
Christoph Krummacher (Leipzig), Ordentliches Mitglied der Philologisch-historischen Klasse

Professor i. R. für Kirchenmusik und Direktor des Kirchenmusikalischen Instituts der Hochschule für Musik und Theater „Felix Mendelssohn Bartholdy“ Leipzig, Präsident des Sächsischen Musikrates, Ordentliches Mitglied der Philologisch-historischen Klasse seit 8. Februar 2002;
Arbeitsschwerpunkt: Geschichte der Kirchenmusik, Interpretationsfragen der Orgelmusik, Verhältnis von Theologie und Musik.

 

Interpretation in Wissenschaft und Künsten – Überlegungen zu einem spannungsvollen Verwandtschaftsverhältnis

Jedes Verstehen-Wollen der Welt bedeutet, die Welt zu interpretieren. Das gilt für sämtliche Wissenschaften und auch für die Künste, die mit ihren spezifischen Möglichkeiten Ausdruck und Interpretation unserer Weltwahrnehmung sind. Der Vortrag geht nicht so sehr der Frage nach, was dabei inhaltlich geschieht, sondern vor allem dem methodologischen Aspekt, wie Interpretation in Wissenschaften und Künsten gehandhabt wird. Dabei wird der Schwerpunkt bei der Musik liegen, die – ähnlich wie Darstellende Kunst und Tanz und im Unterschied zu Bildender Kunst oder Architektur – erst performativ, in der klingenden Darstellung zu ihrer eigentlich gemeinten Wirklichkeit kommt. Es wird also nicht so sehr um Kunst als Interpretation (der Welt) gehen als vielmehr um Interpretation der Kunst resp. des musikalischen Kunstwerkes.

Ein Notentext kann seiner „Textsorte“ nach als eine Quelle, als ein Dokument verstanden werden, durchaus denjenigen Quellen verwandt, mit denen es Theologie, Geschichts- oder Geisteswissenschaften zu tun haben. Auch im Umgang mit einem musikalischen Text ist nach dessen Informationsgehalt, seinem Kontext und seinen „Leerstellen“ zu fragen. Zusätzlich geht die performative Interpretation in charakteristischer Weise über die analytische Interpretation hinaus. Wie kommt performative Interpretation zustande? Worin berühren und wie unterscheiden sich analytische, auch musikwissenschaftliche, und performative Interpretation? Ausgehend von der Überzeugung einer grundlegenden Zusammengehörigkeit von Wissenschaft und Kunst wird der Vortrag Antworten suchen und so ein spannungsvolles Verwandtschaftsverhältnis beleuchten.

 

Festvortrag zur Öffentlichen Frühjahrssitzung am 8.4.2016
Michael Göttfert (Dresden), Ordentliches Mitglied der Mathematisch-naturwissenschaftlichen Klasse

Professor für Molekulargenetik an der TU Dresden; Ordentliches Mitglied der Mathematisch-naturwissenschaftlichen Klasse seit 13. Februar 2009;
Arbeitsschwerpunkt: Analyse der Rhizobien-Leguminosen-Symbiose.

 

Gentechnologie: Normalität oder Hybris?

Gegen Ende des 19. Jahrhunderts isolierte Friedrich Miescher eine Substanz aus Eiterzellen, die er Nuclein nannte. Es dauerte mehr als fünfzig Jahre bis Oswald Avery zweifelsfrei nachweisen konnte, dass diese Substanz, genauer die Desoxyribonucleinsäure (DNS), die Erbinformation darstellt. Wenige Jahre später war die prinzipielle Zusammensetzung der DNS geklärt und 1953 erschien die epochale Publikation von James Watson und Francis Crick, in der die Struktur der DNS beschrieben ist. Aufbauend auf diesen Erkenntnissen konnte bis Ende der 1960er Jahre prinzipiell geklärt werden, wie die Erbinformation in der Zelle umgesetzt wird. Mit dem Bericht des ersten Klonierungsexperimentes (1973), bei dem DNS-Abschnitte außerhalb einer Zelle neu zusammengesetzt und in eine lebende Zelle eingebracht wurden, begann die Ära der Gentechnologie. Nach nur wenigen Jahren waren gentechnisch veränderte Bakterien, Pflanzen und Tiere keine Seltenheit mehr. Mehr als 99% dieser Veränderungen dienen der Grundlagenforschung, wobei man z.B. die Funktion eines Gens herausfinden möchte.

Die Gentechnologie ist aber auch für kommerzielle Zwecke attraktiv. Ein frühes Beispiel ist die Herstellung von Insulin mit gentechnisch veränderten Mikroorganismen in den 1980er Jahren. Zunächst hoch umstritten und bekämpft, hat sich die Gentechnologie im Bereich der medizinischen Anwendung weitgehend durchgesetzt. Gleichfalls unumkehrbar erscheint der Einsatz der Gentechnologie bei Bakterien im Rahmen der Produktion von Enzymen, wie z.B. des für die Käseherstellung verwendeten Labferments, das ansonsten aus den Mägen von Kälbern gewonnen wird. In Deutschland weiterhin stark umstritten ist der Einsatz der Gentechnologie bei (Nahrungsmittel)pflanzen, wobei die Anbaufläche weltweit kontinuierlich steigt und gegenwärtig etwa das Dreifache der Fläche von Deutschland beträgt. Neue Methoden lassen mittlerweile noch exaktere Eingriffe in die Erbinformation zu und Anwendungen selbst am Menschen erscheinen machbar. Ein Ende der gesellschaftlichen Debatte über die Grenzen der Gentechnologie ist nicht absehbar.

 

Vortrag am 11.3.2016
Udo Ebert (Jena), Ordentliches Mitglied der Philologisch-historischen Klasse

em. Professor für Strafrecht, Strafprozessrecht und Strafrechtsgeschichte an der Friedrich-Schiller-Universität Jena; Ordentliches Mitglied der Philologisch-historischen Klasse seit 9. Februar 2001;
Arbeitsschwerpunkte: Rezeption des Römischen Rechts in der Geschichte des Strafrechts; strafrechtliche Aufarbeitung von Systemunrecht; Strafrecht Allgemeiner Teil, insbesondere Schuldbegriff; Recht und Literatur.

Kulturkonflikte als Rechtskonflikte. Über rechtliche Grundlagen und Grenzen der Multikulturalität in Deutschland

Deutschland ist ein Einwanderungsland. Ein Fünftel der in Deutschland Lebenden hat einen Migrationshintergrund. Die Folge ist, da ein großer Teil der Einwanderer aus anderen Kulturen stammt und die Prägung durch seine Herkunftskultur in Deutschland mehr oder weniger beibehält, eine kulturelle Pluralisierung unserer Gesellschaft. Die Begegnung unterschiedlicher Kulturen auf engem Raum führt zu Kulturkonflikten. Sind in solche Konflikte Rechtsnormen involviert, stellen sie sich zugleich als Rechtskonflikte dar. Die betreffenden Rechtsnormen können verschiedenen Rechtsgebieten angehören. Der Vortrag konzentriert sich auf das Strafrecht, das sich zur Verdeutlichung ebenso wie zur Lösung der einschlägigen Probleme besonders eignet.
Wann interkulturelle Konflikte die Gestalt von Rechtskonflikten annehmen, hängt nicht zuletzt von der Beschaffenheit der Rechtsordnung selbst ab: inwieweit sie fremdkulturell geprägten Handlungen Freiräume gewährt oder ihnen Grenzen setzt; inwieweit sie kulturelle Werte der Mehrheitsgesellschaft gegen Angriffe seitens Minderheitskulturen schützt oder auf solchen Schutz verzichtet; inwieweit sie Minderheitskulturen den gleichen Schutz wie der Mehrheitskultur zugesteht oder die letztere durch exklusiven Schutz privilegiert. Aus den Entscheidungen dieser Fragen ergeben sich die Grundlagen und Grenzen der Multikulturalität in Deutschland.
Der Vortrag unterscheidet zwischen zwei Konstellationen, die im Hinblick auf die Grundlagen und Grenzen der Multikulturalität in Deutschland jeweils ihre eigenen Fragen und Probleme aufwerfen: einerseits Kultur als Angriffsgrund, andererseits Kultur als Angriffsgegenstand.
In der ersten Konstellation geht es um (mögliche) Rechtsverstöße, deren Gründe oder Motive kulturell geprägt sind. Zum Beispiel um Ehrenmorde, Zwangsverheiratungen, Genitalverstümmelungen, Vollverschleierung von Frauen. Die Frage lautet hier, wie weit der Träger der Mehrheitskultur, also die deutsche Gesellschaft bzw. der deutsche Staat, in der Tolerierung fremdkulturell motivierter Handlungen unter Hintansetzung der eigenen Regeln gehen kann und will. Rechtliche Antworten auf diese Frage ergeben sich aus der Verfassung, namentlich aus den Grundrechten der Religions- und Weltanschauungsfreiheit sowie der allgemeinen Handlungsfreiheit und ihren Schranken.
Beispiele für die zweite Konstellation bilden etwa die Doppelehe als Angriff gegen das kulturelle Institut der Einehe, die Beschimpfung des religiösen oder weltanschaulichen Bekenntnisses eines anderen und die Störung des Bestattungs- oder Totenkultus. Die Frage ist hier zunächst, welche Güter der Mehrheitskultur und/oder von Minderheitskulturen rechtlichen Schutz gegen Angriffe genießen. Antworten hierauf gibt das positive einfache Recht. Die Frage ist aber darüber hinaus, ob das Recht, namentlich das Strafrecht, zum Schutz von Kulturgütern überhaupt legitimiert ist. Darf der Staat Religion, Moral, Kultur rechtlich schützen? Hier sind rechts- und staatstheoretische Überlegungen erforderlich, in denen die Rechtsgüterlehre und das Gebot staatlicher Neutralität als Maßstäbe fungieren.

 

Vortrag am 11.3.2016
Jean Pierre Bergmann (Ilmenau), Ordentliches Mitglied der Technikwissenschaftlichen Klasse

Professor für Fertigungstechnik an der TU Ilmenau; Ordentliches Mitglied der Technikwissenschaftlichen Klasse seit 13. Februar 2015;
Arbeitsschwerpunkte: Fügtechnik, additive Fertigung sowie Automatisierung und Industrialisierung derartiger Prozesse.

„Digitalisierung in der Produktion – Ausgewählte technologische Aspekte“

Der Aufruf nach Digitalisierung in der Produktion erfährt in den letzten Jahren auch unter dem Begriff der Industrie 4.0 viel Interesse in der Öffentlichkeit. Die Produktion wird als erste davon betroffen, auch wenn die Auswirkungen und die Einflüsse weitreichend sind und bis in das private Umfeld angelangen.  Personalisierung und Individualisierung von Produkten sind zu einer Selbstverständlichkeit geworden, auch wenn gerade diese Anforderungen zu Herausforderungen für die industrielle Produktion führen: kleine Losgrößen bis zur Losgröße 1 mit einem erhöhten Automatisierungsgrad.
Die digitale Vernetzung stellt grundsätzlich an dieser Stelle eine Möglichkeit dar, derartige Herausforderungen zu meistern, wobei die technologischen Zusammenhänge nicht durchgängig geklärt sind. Die Vernetzung von Unternehmen im Sinne einer Teilung von Produktionsschritten setzt auch voraus, dass Herstellungsrouten unterschiedlich gestaltet werden können. Entsprechende Fertigungsplanungsinstrumente, die unternehmensübergreifend funktionieren gibt es kaum. Technologien, die es erlauben kleine Losgrößen wirtschaftlich herzustellen werden in der Metallbearbeitung im Bereich der sogenannten additiven Fertigung angesiedelt. Grundsätzlich ist festzuhalten, dass Körper auf diese Art und Weise hergestellt werden können, wobei die Eigenschaften dieser stark örtlich variieren können. Inhomogenitäten können geometrischer aber auch werkstoffbezogener Natur sein und sind maßgeblich für die Nachbearbeitung, so dass an dieser Stelle noch weiteres Forschungspotenzial vorliegt.
Im Rahmen der Vorstellung wird der Spagat zwischen Anforderungen und Herausforderungen kleine Losgrößen mit erhöhter Automatisierung umzusetzen aus Sicht der Technologie vorgestellt und diskutiert.

 

Vortrag am 12.2.2016
Thomas Bley (Dresden), Ordentliches Mitglied der Technikwissenschaftlichen Klasse

Professor für Bioverfahrenstechnik an der TU Dresden, Ordentliches Mitglied der Technikwissenschaftlichen Klasse seit 8. Februar 2002, Sprecher des acatech-Themennetzwerkes „Biotechnologie und Bioökonomie“;
Forschungsschwerpunkte: Modellierung und Steuerung biotechnischer Prozesse, Mikrobielle Populationsdynamik, heterogene Biokatalyse, Biomonitoring, Weiße Biotechnologie.

Photobiotechnologie

Die Photosynthese war eine der wichtigsten Erfindungen der Evolution. Ohne die Nutzung der Energie der Sonne ist höheres Leben auf der Erde nicht vorstellbar. Wir denken bei der Photosynthese im Normalfall an höhere Landpflanzen. Es ist bemerkenswert, dass etwa 50 % des weltweiten Sauerstoffbedarfs von phototrophen Mikroorganismen produziert wird. Mikroorganismen zeichnen sich durch sehr hohe Raten beim Stoffwechsel und damit auch durch hohe Produktivitäten bei der Synthese von wirtschaftlich interessanten Produkten aus. Diese hohen Raum-Zeit-Ausbeuten sind der Grund dafür, dass (organoheterotrophe) Mikroorganismen in der industriellen (weißen) Biotechnologie eine so wichtige Rolle spielen. Auch phototrophe Mikroorganismen wurden schon vor Jahrhunderten von Azteken und Mayas als eine regelmäßige Quelle für eine ausgezeichnete vegetarische Ernährung genutzt. Diese Völker waren sich des großen Werts und der Heilkräfte der Spirulina-Alge bewusst.

Die CO2-Problematik allgemein, aber besonders auch die Entdeckung neuer interessanter Wertstoffe, die von phototrophen Mikroorganismen produziert werden können, hat seit etwa 15 Jahren zu einem regelrechten Boom auf diesem Gebiet geführt. Unter „Photobiotechnologie“ verstehen wir heute ein aktuelles Forschungsgebiet, das sich mit Aspekten der Nutzung von phototrophen Zellen und Organismen in technischen Systemen zur Synthese von interessanten Stoffwechselprodukten befasst. Im Vortrag werden die Themen Modellierung und Simulation, Prozessführung und Optimierung, Photobioreaktordesign sowie einige Anwendungen behandelt. Von besonderer Bedeutung ist die Tatsache, dass Licht als „Substrat“ nicht gespeichert werden und wegen der Selbstbeschattung der Mikroorganismen nur wenige Zentimeter in den Reaktionsraum vordringen kann. Mit den Methoden der Computational Fluid Dynamics (CFD) und des Particle Tracings wurden Strömungsbedingungen charakterisiert und optimiert, die Wirkung von Strömungskräften auf die Zellen berechnet und eine Vorhersage von Beleuchtungsfrequenzen realisiert. Aufbauend auf diesen Berechnungen wurde ein multiparametrischer Mini-Photobioreaktor entworfen und in einem additiven Fertigungsverfahren hergestellt. Es ist weltweit der erste Photobioreaktor, der mit OLEDs beleuchtet wird.

Aktuelle Innovationen der Dresdner Bioverfahrenstechnik werden noch vorgestellt:
- Prozessentwicklung zur photofermentativen Wasserstoffproduktion mittels Rhodobacter sphaeroides DSM 158
- Green Bioprinting: 3D-Bioprinting von phototrophen Zellen in definierte Matrixumgebungen
- BioGlizz: Innovative, biologische und erneuerbare Oberflächen mit guten Gleiteigenschaften als Alternative für Kunstschnee

Literatur:
Socher, M. L. et al., Phototrophic growth of Arthrospira platensis in a respiration activity monitoring system for shake flasks (RAMOS), Engineering in Life Sciences 14 (2014) 658–666
Krujatz, F. et al., Hydrogen production by Rhodobacter sphaeroides DSM 158 under intense irradiation, Bioresource Technology 175 (2015) 82–90
Krujatz, F. et al., Light-field-characterization in a continuous hydrogen-producing photobioreactor by optical simulation and computational fluid dynamics, Biotechnology and Bioengineering 112 (2015) 2439–2449
Lode A. et al., Green bioprinting: Fabrication of photosynthetic algae-laden hydrogel scaffolds for biotechnological and medical applications, Engineering in Life Sciences 15 (2015) 177–183
Socher, M. L. et al., The challenge of scaling up photobioreactors – modeling and approaches in small scale, Engineering in Life Sciences DOI: 10.1002/elsc.201500134

 

Vortrag am 12.2.2016
Gunter Reuter (Halle-Wittenberg), Ordentliches Mitglied der Mathematisch-naturwissenschaftlichen Klasse

Professor für Entwicklungsgenetik an der Martin-Luther-Universität Halle-Wittenberg, Ordentliches Mitglied der Mathematisch-naturwissenschaftlichen Klasse seit dem 9. Februar 2001;
Forschungsschwerpunkte: Molekulare Biowissenschaften „Proteine und ihre Funktion in der Kontrolle zellulärer Prozesse“.

Epigenetik und neue Diskussionen zur Vererbung erworbener Eigenschaften

Die Zahl der „total“ sequenzierten Organismen ist inzwischen enorm groß. Damit ist auch unser Wissen über die Struktur und die Evolution der genetischen Information in den letzten Jahren sprunghaft gestiegen. Beim Menschen enthält jeder Zellkern die gesamte genetische Information, die etwa 25.000 Gene umfasst. Diese genetische Information ist in der Sequenz der Nukleotid-Basen festgelegt und wird durch den Prozess der DNA-Replikation auf alle Tochter-DNA-Moleküle perfekt kopiert. In einem diploiden Zellkern vor der Zellteilung befinden sich ca. 4 m DNA, die auf 96 chromosomengroße DNA Moleküle mit einer mittleren Länge von etwa 4,6 cm verteilt ist. Diese enorme Menge an DNA ist auf kleinstem Raum stabil verpackt, ohne dass die Regulierbarkeit der Gene verloren geht. Die Analyse der Prozesse von DNA Verpackung und Genregulation im Verlaufe der Individualentwicklung ist Gegenstand der epigenetischen Forschung. Epigenetische Prozesse sind für die Kontrolle von Entwicklungsprozessen von grundlegender Bedeutung. Während der Individualentwicklung wird entsprechend eines exakten genetischen Programmes durch molekular komplexe epigenetische Prozesse abgesichert, welches Gen zu welchem Zeitpunkt und in welcher Zelle eines Organismus aktiv wird. Epigenetische Prozesse sind somit die Grundprozesse zur globalen Regulation der Genaktivität und von grundlegender Bedeutung für die geregelte Entwicklung eines jeden Organismus. Natürlich können hier auch äußere Faktoren Einfluss nehmen und epigenetische Prozesse begrenzt modifizieren. Die Idee, dass Modifikationen der epigenetischen Programmierung auch an die Nachkommen „vererbt“ werden können, geht letztlich auf Lamarck, dem Begründer der Theorie einer Vererbung erworbener Eigenschaften, zurück. Diese Theorie besagt, dass die durch äußere Einflüsse hervorgerufenen Veränderungen eines Organismus auch auf die Nachkommen vererbt werden können. Versuche, die dies bestätigen sollten, stellten sich aber alle als nicht wiederholbar heraus oder ergaben durchweg negative Resultate und eine Vererbung erworbener Eigenschaften wird von der modernen Genetik nachweislich ausgeschlossen.

In der Sowjetunion wurde jedoch diese Theorie von Lyssenko aufgegriffen, ideologisiert und führte, unterstützt vom Stalinismus schließlich bis in die Zeit der Herrschaft von Chrutschtschow über nahezu 40 Jahre, zur Verfolgung der Genetik, fügte der wissenschaftlichen Entwicklung und auch der Wirtschaft schweren Schaden nicht nur in der Sowjetunion sondern auch den von ihr beherrschten Ländern zu. Aus historischer Sicht ist es somit auch wichtig, verhängnisvolle Phänomene einer Ideologisierung von Wissenschaft (Lyssenkoismus) zu diskutieren und gerade heute (Gentechnik und Stammzellforschung) an die enorme Bedeutung der „Freiheit von Wissenschaft und Lehre“ zu erinnern. Gegenwärtig berichtete Korrelationen von phänotypischen Effekten auf epigenetischer Ebene, die zwischen den Generationen auftreten und als Vererbung erworbener Eigenschaften ausgegeben werden, müssen nicht nur aus wissenschaftlicher Sicht sehr kritisch betrachtet werden. Bei tierischen Organismen muss die strenge Trennung von Soma und Keimbahn berücksichtigt werden. Selbst bei Pflanzen, für die Epimutationen bekannt sind, ist die Weitergabe epigenetischer Veränderungen auf die folgenden Generationen nicht gerichtet. Summarisch wird deutlich, dass selbst mit dem enormen Fortschritt epigenetischer Forschung eine stabile Vererbung erworbener Eigenschaften keine Renaissance besitzt sondern in allen biologischen Systemen ausgeschlossen werden kann.

 

Vortrag am 8.1.2016
Christoph Neinhuis (Dresden), Ordentliches Mitglied der Mathematisch-naturwissenschaftlichen Klasse

Professor für Botanik und Direktor Botanischer Garten und Herbarium Dresdense, Ordentliches Mitglied der Mathematisch-naturwissenschaftlichen Klasse seit 14. Februar 2014;
Hauptarbeitsgebiete: Antiadhäsive biologische und technische Oberflächen, Biomechanik von Pflanzenkutikeln und natürliche Verbundmaterialien.

Gewebedifferenzierung und Materialadaptation bei Pflanzen aus funktioneller Sicht

Pflanzen und Tiere unterscheiden sich in vielfältiger Weise, was unmittelbare Auswirkungen auf den Bau des Körpers, die Art und Weise der Gewebeentstehung, bis zur Funktion einzelner Zellen zurückwirkt. So sind tierische Zellen nicht mit einer starren Zellwand ausgestattet und können innerhalb eines Organismus migrieren. Außerdem verbinden sie sich in der Regel zu definierten Organen oder Geweben mit spezifischer Struktur und Funktion (z.B. Herz, Leber, Muskel) und es werden keine toten Zellen oder Gewebe toleriert.

Bei Pflanzen ist das grundsätzlich anders. Die Zellen haben starre Zellwände, wodurch die Position im Organismus fixiert ist, die einzelnen Zelltypen sind stärker untereinander vermischt, so dass kaum eindeutig funktional bestimmte Organe entstehen. Außerdem können Pflanzen tote Gewebe nicht nur tolerieren, es ist für bestimmte Funktionen sogar unerlässlich, dass die Zellen absterben, wie z.B. bei Leitgeweben.

Anhand ausgewählter Beispiele wird gezeigt, wie sich Zellen und Gewebe unter bestimmten funktionellen Zwängen differenzieren und an sich ändernde, innere und äußere Lasten anpassen.

Das erste Beispiel befasst sich mit der Veränderung der Sprossachse bei der Gattung Aristolochia (Pfeifenwinden) in Zentralamerika, die im Lauf der Evolution mehrfach die Wuchsform geändert haben. Das zweite Beispiel beschreibt die Zell- und Gewebedifferenzierungen von Apfelfrüchten. Die zunächst sehr fragilen Blütenstile müssen sich im Verlauf der Fruchtentwicklung an zunehmende Belastungen durch Eigengewicht und dynamische Bewegungen anpassen. Als Drittes wird die Gattung Proboscidea (Teufelskralle) als Beispiel für die Ausdifferenzierung von Faserzellen zu einer komplexen Klettfrucht angeführt.

Literatur:
Wagner, S., Isnard, S., Rowe, N. P., Samain, M.-S., Neinhuis, C., & Wanke S. (2012) Escaping the lianoid habit: evolution of shrub-like growth forms in Aristolochia subgenus Isotrema (Aristolochiaceae). American Journal of Botany 99:1609–1629
Horbens, M., Feldner, A., Höfer, M and Neinhuis, C. (2013): Tissue adaption in Malus fruit peduncles – the role of sclereids. Annals of Botany 113: 105–118
Horbens, M., Eder, M. and Neinhuis, C. (2015) A materials perspective of remarkable Martyniaceae fruits: exploring structural and micromechanical properties". Acta Biomaterialica 28, 2015, Pages 13–22
Horbens, M., Dominik Branke, D., Gärtner, R., Voigt, A., Stenger, F. & Neinhuis, C. (2015) Multiscale simulation of plant stem reinforcement by brachysclereids: A case study in apple fruit peduncles. Journal of Structural Biology 192: 116–126

 

Vortrag am 8.1.2016
Claudia Märtl (München), Korrepondierendes Mitglied der Philologisch-historischen Klasse

Professorin für Mittelalterliche Geschichte mit dem Schwerpunkt Spätmittelalter Ludwig-Maximilians-Universität München, Korrepondierendes Mitglied der Philologisch-historischen Klasse seit 14. Februar 2014;
Hauptarbeitsgebiete: Sozialgeschichte des spätmittelalterlichen Papsttums, Humanismus und Aeneas Silvius Piccolomini (Papst Pius II., 1405/1458–1464).

Aurea saecula. Der römische Frühhumanismus als Reformprojekt

Der Vortrag befasst sich mit der Symbiose zwischen Papsttum und Humanismus im 15. Jahrhundert, ihren Ursachen, Ausdrucksformen und den aus ihr resultierenden Problemen. Die Annäherung von Papsttum und Humanismus wurde durch prekäre Konstellationen auf beiden Seiten gefördert: das Bedürfnis der durch Schisma und Konziliarismus in ihrer plenitudo potestatis gefährdeten Päpste nach wirkungsvoller Außendarstellung und die Suche der Humanisten nach Positionen, in denen sie ihren Lebensunterhalt mit der Feder verdienen konnten, trafen aufeinander. Mit der endgültigen Rückkehr des Papsttums nach Rom (1424) setzte eine Entwicklung ein, die innerhalb von zwei Generationen dazu führte, dass Habitus und Ausdrucksformen des Humanismus die intellektuellen Diskurse an der Kurie nahezu vollkommen beherrschten. Die Wiedergewinnung antiker Latinität und die antiquarische Entdeckung Roms wurde durch Humanisten vorangetrieben, die an der Kurie Fuß gefasst hatten; zugleich belebten die Päpste nicht nur römische Traditionen wieder, sondern begannen auch damit, die Stadt energisch umzugestalten und ihrer Herrschaft zu unterwerfen. Augusteische Zeit und christliche Spätantike bildeten die Bezugspunkte dieser ästhetischen, moralischen und politischen Stadterneuerung, die im Sinne der zeitgenössischen Reformvorstellungen, die immer eine Rückkehr zu einem früheren besseren Zustand forderten, auch als ein kuriales Reformprojekt verstanden werden konnten. Abgesehen von der Frage der Außenwirkung kurialer Begeisterung für die Antike zumal in jenen Ländern, die selbst keine antike Vergangenheit hatten, begann jedoch die Wiederbelebung des Altertums an der Kurie dort an Grenzen zu stoßen, wo sie alternative politische und philosophisch-religiöse Modelle in den Blick brachte. Ein erstes Mal wurden antikisierende Ausdrucksformen als Gefährdung der päpstlichen Herrschaft und des christlichen Glaubens unter Paul II. (1464–1471) der Ketzerei verdächtigt. Gleichwohl entwickelte sich das nach außen projizierte Bild des Papsttums mit dem Eintritt der Hochrenaissance weiterhin in den vorgezeichneten Bahnen, und die Kurie wurde zum Hort des (von Erasmus verspotteten) lupenreinen Ciceronianismus. Inwiefern die vollkommene Anpassung an den antiken Sprachgebrauch notwendigerweise zur Distanzierung von christlichen Inhalten führte, ist ein lange umstrittenes und bis heute nicht befriedigend gelöstes Problem.

Termine
Caspar David Friedrich im Jubiläumsjahr 2024. Zwischen Aktualisierungen, Grundsatzfragen und Sachforschung 22.11.2024 11:15 - 12:15 — Sächsische Akademie der Wissenschaften zu Leipzig, Karl-Tauchnitz-Straße 1, 04107 Leipzig
Vom indischen Buddha zum europäischen Josaphat: Arabische Quellen des Romans Barlaam und Josaphat 04.12.2024 18:30 - 20:00 — Sächsische Akademie der Wissenschaften zu Leipzig, Karl-Tauchnitz-Straße 1, 04107 Leipzig
Gelehrter Antisemitismus: Spannung und Kontroverse im Zeitalter der Emanzipation 12.12.2024 17:15 - 18:15 — Sächsische Akademie der Wissenschaften zu Leipzig, Karl-Tauchnitz-Straße 1, 04107 Leipzig
Öffentliche Herbstsitzung 2024 13.12.2024 16:00 - 18:00 — Alte Börse, Naschmarkt 2, 04109 Leipzig
Denkströme

Denkströme IconDas Open Access (Online-)Journal der Sächsischen Akademie der Wissenschaften:

www.denkstroeme.de

Diffusion Fundamentals

Diffusion Fundamentals IconInterdisziplinäres Online Journal für Diffusionstheorie in Kooperation mit der Universität Leipzig:
diffusion.uni-leipzig.de

Internationale Konferenzreihe:
saw-leipzig.de/diffusion