Vortrag am 12.12.2014
Karlheinz Brandenburg (Ilmenau), Ordentliches Mitglied der Technikwissenschaftlichen Klasse
Professor für elektronische Medientechnik an der TU Ilmenau und Leiter des Fraunhofer-Institutes für Digitale Medientechnologie in Ilmenau; Ordentliches Mitglied der Technikwissenschaftlichen Klasse seit 9. Februar 2007;
Aktuelle Arbeitsgebiete: Digitale Verarbeitung von Mediensignalen, insbesondere Audio; Psychoakustik; Qualitätsbewertung (Audio- und Videoqualität); Computergestützte Analyse von Audio- und Videosignalen.
Räumliches Hören: aktuelle Forschungsergebnisse zur Funktion von Gehör und Gehirn
Der Traum von „High Fidelity“, dem originalgetreuen Klang, begleitet uns seit den ersten Versuchen, Töne mechanisch aufzuzeichnen. Seit den Zeiten Edisons gibt es große Fortschritte, trotzdem wünschen sich viele Musikliebhaber einen noch perfekteren Klang. Kurz gesagt: In Mono funktioniert alles sehr gut, eine räumliche Illusion zu erzeugen, ist immer noch schwierig.
Um zu verstehen, was heute möglich ist und was aktuelle Forschungsergebnisse zukünftig ermöglichen können, brauchen wir ein besseres Verständnis von der Funktion von Gehör und Gehirn, von der Mechanik im Mittel- und Innenohr bis hin zur Kognition, also zu den (vermuteten) Mechanismen des Entstehens eines Höreindrucks.
Am besten untersucht sind die sogenannten Maskierungseffekte: Unser Gehör gibt nur einen Teil der Information an den Hörnerv und insbesondere an die höheren Schichten der Verarbeitung im Gehirn weiter, viel ist nicht hörbar. Das sind die in den aktuellen Audiocodierverfahren wesentlich genutzten Effekte aus der Psychoakustik.
Räumliches Hören geschieht über unsere zwei Ohren und die gemeinsame Verarbeitung der Signale im Gehirn, aber auch über die Veränderung des Klangs je nach Einfallsrichtung, die sogenannten „Head Related Transfer Functions (HRTF)“. An dieser Stelle ist unser Verständnis noch unvollständig: In aktuellen Lehrbüchern lernen wir noch, dass es reicht, die Signale exakt so zu reproduzieren, wie sie das Trommelfell erreichen. Das stimmt nach heutigem Stand nicht. Unsere Erwartungen, die Umgebung, in der wir Musik hören, was wir sehen – alles hat Einfluss auf den Höreindruck. Technisch ausgedrückt bedeutet das: Betrachtet man Gehör und Gehirn als System, sind sie nicht „LTI“ (Linear Time Invariant), sondern nichtlinear und zeitvariabel.
Der Vortrag stellt aktuelle experimentelle Ergebnisse zu diesen Themen vor, zeigt aber auch die Folgerungen auf, die wir für unser Erlebnis der Tonqualität von Hifi-Anlagen und die Möglichkeiten immersiven Klangs daraus ziehen müssen. Gerade zum Thema der vollkommenen akustischen Illusion gibt es zurzeit eine Reihe neuer Ergebnisse: Mittels Verfahren der Wellenfeldsynthese oder auch von „Ambisonics“ wird die Klangwiedergabe wieder ein Stück überzeugender. Aktuell befinden sich die Technologien gleichzeitig in der Grundlagenforschung, in der Standardisierung und in den ersten Anwendungen. Auch diese Anwendungen werden (leider nur im Bild) vorgestellt.
Vortrag am 12.12.2014
Rolf Sauer (Erlangen), Korrespondierendes Mitglied der Mathematisch-naturwissenschaftlichen Klasse
em. Professor für Medizinische Radiologie an der Universität Erlangen-Nürnberg; Ordentliches Mitglied der Mathematisch-naturwissenschaftlichen Klasse seit 13. März 1992;
Hauptarbeitsgebiete: Onkologie, Strahlentherapie.
Multimodale Therapie in der Onkologie am Beispiel des Rektumkarzinoms
Die interdisziplinäre Zusammenarbeit aller onkologisch Tätigen ist das Gebot der Stunde. Konkurrenzdenken zwischen den einzelnen Fachgebieten in den Bereichen der Diagnostik, Therapie und Grundlagenforschung um den Vorrang bzw. einen Führungsanspruch ist sinnlos und gefährlich. In der Bundesrepublik war ein derartiges Anspruchsdenken „wem gehört der Patient?“ deutlicher ausgeprägt als in der ehemaligen DDR. Dem steuern die Bundesministerien und die Deutsche Krebshilfe seit den 70er Jahren entgegen durch die Förderung von Onkologischen Arbeitskreisen, Tumorzentren und von interdisziplinärer klinischer Forschung.
Eines der Paradebeispiele für den Gewinn solcher Zusammenschlüsse ist die Diagnostik, Therapie und Nachsorge des Rektumkarzinoms, vor allem natürlich für den jeweiligen Patienten, aber auch für das internationale Renommee der deutschen klinischen Wissenschaft. Angesprochen sind hier die Gastroenterologen, Radiologen, Pathologen, Chirurgen, Strahlentherapeuten, die internistischen Onkologen und die Hausärzte. Und persönliche Freundschaften bzw. Respekt spielen hier eine nicht zu unterschätzende Rolle. Das wird am Beispiel des Enddarmkrebses vorgestellt.
Die Karzinome des Dick- und Enddarms nehmen in allen Industrienationen zu – gegenwärtig bei Männern 40/100000 und bei Frauen 30/100000 jährlich. Dies wird ursächlich auf Ernährungsgewohnheiten, Bewegungsmangel, Fettleibigkeit und und eine Reihe von Risikofaktoren wie familiäre Polypose, chronische entzündliche Darmerkrankungen (Colitis ulcerosa, Morbus Crohn), Dickdarmpolypen und das Vorhandensein des hereditären nichtpolypösen Kolonkarzinom-Gens (HNPCC) zurückgeführt. Auch frühere Krebserkrankungen der Brust, des Ovars und des Uterus erhöhen das Erkrankungsrisiko.
Die therapeutischen Säulen sind die nach Möglichkeit funktionserhaltende Chirurgie, die Strahlentherapie bzw. Radiochemotherapie und die Chemotherapie. Als Ziele stehen die lokoregionale Tumorkontrolle, die Metastasenfreiheit und das krankheitsfreie bzw. Gesamtüberleben im Vordergrund. Bei herkömmlichem Vorgehen war man bereits Ende der 80er Jahre am „Ende der Fahnenstange“ angekommen. Weitere Fortschritte waren weder durch neue, vor allem radikalere Operationstechniken, durch aufwendigere Bestrahlungsmaschinen bzw. -techniken, noch durch immer neue Chemotherapeutika zu erreichen. Der Schlüssel zum Erfolg ist u.E. allein die intelligente Kombination der bestehenden diagnostischen und therapeutischen Möglichkeiten in einem zeitlich exakt zu befolgenden Setting. Im Einzelnen heißt das:
- Risikoadaptierte En-Bloc-Resektion des Tumors inklusive Mesorektum und mindestens 12 regionäre Lymphknoten.
- Wechsel von der postoperativen zur präoperativen Radio- bzw. simultanen Radiochemotherapie, da aus strahlenbiologischen Gründen die letztere effektiver und mit weniger Nebenwirkungen behaftet ist.
- Die Erkenntnis, dass durch den additiven Mechanismus der Chemotherapie die gleichzeitige Verabreichung von Radio- und Chemotherapie zumindest lokal tumorizider ist als die Radiotherapie allein, vermutlich auch systemisch.
- Interdisziplinäre Nachsorge und gewissenhafte Therapie- und Verlaufsdokumentation.
Zurzeit beschäftigt sich die klinische Forschung mit der Sequenzoptimierung der einzelnen Behandlungsschritte, mit der Einsparung von Toxizität, Vermeidung von Überbehandlung, Funktionserhalt und der Identifizierung von individuellen Risikomarkern. Meist sind dazu prospektive Phase III-Studien erforderlich.
Vortrag am 14.11.2014
Daniel Huster (Leipzig), Ordentliches Mitglied der Mathematisch-naturwissenschaftlichen Klasse
Professor für Medizinische Biophysik an der Universität Leipzig; Ordentliches Mitglied der Mathematisch-naturwissenschaftlichen Klasse seit 8. Februar 2013;
Hauptarbeitsgebiete: Festkörper-NMR-Spektroskopie; Struktur- und Dynamik- Untersuchungen von Membranproteinen, Amyloiden Strukturen und Protein-Ligand-Komplexen; Chemische und Biophysikalische Analytik von biologischen Geweben.
Untersuchungen zur Struktur- und Dynamik von G-Protein-gekoppelten Rezeptoren
G-Protein-gekoppelte Rezeptoren gehören zu einer höchst interessanten Proteinklasse, die Zielstrukturen für eine Vielzahl von pharmakologischen Ansätzen darstellen. Ungeachtet des Fortschrittes auf diesem Gebiet in den letzten 10 Jahren, die unter anderem Kristallstrukturen von über 10 Vertretern dieser Proteinklasse erbracht haben, bleibt unser Wissen über diese Proteine bruchstückhaft.
Im Vortrag werden zwei Aspekte G-Protein-gekoppelter Rezeptoren dargestellt, zum einen die molekularen Dynamik dieser Proteine in der Membran, die nach unserer Meinung dafür verantwortlich ist, dass sich diese Moleküle einer Strukturuntersuchung für lange Zeit entzogen haben. Zum anderen werden Untersuchungen vorgestellt, die zu einem Strukturmodell des Komplexes aus Ligand und G-Protein-gekoppelten Y2-Rezeptoren geführt haben.
Es hat sich gezeigt, dass G-Protein-gekoppelte Rezeptoren nur dann kristallisierbar sind, wenn sie stark modifiziert werden. Diese Modifikationen schließen Stabilisierung durch geeignete Mutationen, Antikörper-Bindung oder die Modifikationen des 3. intrazellulären Loops durch das lösliche Protein T4 Lysozym ein. All diesen Modifikationen ist es gemein, dass sie die umfangreiche molekulare Dynamik der Rezeptoren in natürlicher Membranumgebung so beeinflussen, dass die Kristallisation schließlich zum Erfolg führte. In unseren Arbeiten haben wir den G-Protein-gekoppelten Neuropeptid Y2-Rezeptor in die natürliche Membranumgebung rekonstituiert und mittels Festkörper-NMR-Spektroskopie seine molekulare Dynamik untersucht. Es zeigte sich, dass der Rezeptor eine sehr umfangreiche Beweglichkeit aufweist, so dass Kristallstrukturen nur als eine statische Momentaufnahme dieser äußerst beweglichen Proteine angesehen werden können.
Ein großer Teil der G-Protein-gekoppelten Rezeptoren wird durch Peptidliganden aktiviert. Insbesondere über die Peptidliganden lässt sich die pharmakologische Einflussnahme auf die Rezeptorfunktion realisieren. Dies ist insbesondere dann rational möglich, wenn genaue Kenntnisse zur Struktur des Protein-Ligand-Komplexes vorliegen. In Kooperation mit OM Beck-Sickinger haben wir umfangreiche Untersuchungen zur Bestimmung eines solchen Komplexes aus Neuropeptid Y und dem Neuropeptid Y2-Rezeptor durchgeführt. Dabei wurde über NMR-Spektroskopie die 3-dimensionale Struktur des Peptidliganden bestimmt und durch ortsgerichtete Mutagenese die Kontaktpunkte zwischen Rezeptor und Ligand gefunden. Durch Computermodellierung wurde dann ein Strukturmodell dieses Komplexes erstellt.
Zur Untersuchung dieser Fragestellungen werden in unserer Arbeitsgruppe verschiedenen Methoden der NMR-Spektroskopie in Lösung sowie im Festkörper angewendet. Im Vortrag werden nach einer kurzen Einführung zu den G-Protein-gekoppelten Rezeptoren die Strategien erläutert, wie diese Biomoleküle gentechnisch hergestellt und für die NMR-Untersuchung vorbereitet werden. Nach einer kurzen Einführung zur NMR-Spektroskopie werde ich in zwei Ergebnisteilen zum einen Untersuchungen zur Dynamik des Y2-Rezeptors, zum anderen die Bestimmung des Modells zum Protein-Ligand-Komplex aus Neuropeptid Y und dem Y2-Rezptor darstellen.
Vortrag am 14.11.2014
Frank Zöllner (Leipzig), Ordentliches Mitglied der Philologisch-historischen Klasse
Professor für Mittlere und Neuere Kunstgeschichte an der Universität Leipzig und Direktor des Instituts für Kunstgeschichte; Ordentliches Mitglied der Philologisch-historischen Klasse seit 8. Februar 2013;
Hauptarbeitsgebiete: Publikationen- und Forschungen zur Sozial- und Gattungsgeschichte der Renaissancekunst, zur Kunsttheorie sowie zur Kunst des späten 19. und des 20. Jahrhunderts (Max Klinger, Vincent van Gogh, Paul Klee, Leipziger Schule, Werner Tübke, Neo Rauch) und zur Methodik (Warburg).
Werner Tübke als sozialistischer Maler: Was ist falsch daran, die Geschichte der Arbeiterbewegung darzustellen?
Der 1928 geborene und 2004 verstorbene Leipziger Maler und Grafiker Werner Tübke hat bis zum Jahre 1989 rund 20 größere und kleinere Bilder oder Werkkomplexe geschaffen, die als staatliche Auftragswerke gelten können und in den meisten Fällen politische Anliegen illustrieren, darunter nationale und internationale Emanzipationsbewegungen sowie Episoden des Antifaschismus und der Arbeiterkultur.
Bereits gegen Ende der 1950er hatte sich Tübke als ein Künstler etabliert, der die sozialistische Utopie und besonders das Geschichtsverständnis des SED-Staates am brillantesten zu illustrieren vermochte.
Das zeigen vor allem die vier Triptycha zur "Geschichte der deutschen Arbeiterbewegung", die in den Jahren 1960 bis 1961 für das "Feierabendheim Martin Andersen Nexö" in Leipzig entstanden sind. Auftraggeber war die "Staatliche Bezirkskommission für bildende Kunst beim Rat des Bezirkes Leipzig."
Vortrag am 10.10.2014
Uwe Junghanns (Göttingen), Ordentliches Mitglied der Philologisch-historischen Klasse
Professor für Slavistische Sprachwissenschaft an der Georg-August-Universität Göttingen; Ordentliches Mitglied der Philologisch-historische Klasse seit 8. Februar 2013;
Hauptarbeitsgebiete: Grammatiktheorie für slavische Sprachen, lexikalische und kompositionale Semantik, Morphosyntax, Informationsstrukturierung, mikrotypologische Variation, Aspekte älterer Sprachzustände.
Reflexivmarkierung im Slavischen
Der Reflexivmarker (refl) tritt in den slavischen Sprachen nicht ausschließlich auf, um echte Reflexivität zu signalisieren. Andere Interpretationen sind möglich – Passiv, Impersonal, Dekausativ etc. Im Satz ko-okkurriert refl mit dem Verb. Die Kombination von Verb und refl ist potentiell ambig. Traditionelle deskriptive Grammatiken behandeln Reflexivmarkierung meist im Zusammenhang mit Diathese, unterscheiden Fälle (Bedeutungen), deren Zustandekommen jedoch nicht geklärt wird, und etablieren de facto eine Anzahl unterschiedlicher grammatischer bzw. lexikalischer Elemente.
Unter Voraussetzung eines Modells einer modularen Grammatik ist zu fragen, wieviele refl-Typen minimal tatsächlich unterschieden werden müssen. Zur Eruierung der Typen wird Variation in den Blick genommen, die innerhalb der slavischen Sprachen zu beobachten ist (Verbklassen, Möglichkeit/Ausschluss eines obliquen Agens, Null-Realisierung). Zu unterscheiden sind refl 1 (argumentblockierend) und refl 2 (argumentbindend). Beiden Typen gemeinsam ist, dass sie ein Argument des Verbs, mit dem sie auftreten, affizieren. Semantische Spezifikation des affizierten Argumentes ist nur im Falle von refl 1 möglich. Zur Erklärung wird die Unterscheidung von S(emantic) F(orm) und C(onceptual) S(tructure) der Zwei-Ebenen-Semantik ausgenutzt.
Es ergeben sich drei Gruppen slavischer Sprachen: I (Ru, BRu), II (Ukr, OSorb, Bg), III (Po, Cz, Slk, Slvn, BKS). Trotz oberflächlicher Unterschiede kann eine gemeinsame Morphosyntax angenommen werden: Verb und refl bilden beim Übergang vom Lexikon zur Syntax eine Kopfadjunktionsstruktur. Dem entspricht semantisch die Anwendung von refl auf die Bedeutungsrepräsentation des Verbs. Im Falle strikter Verbadjazenz ergeben sich morphologisch anmutende Strukturen. Ein klassischer morphologischer Exponent ist refl jedoch nicht. Es handelt sich vielmehr um ein grammatisches Element, das Affizierung der Argumentstruktur signalisiert. Die Frage nach der syntaktischen Kategorie von refl muss noch beantwortet werden.
Die Analyse deckt typische refl-Vorkommen und damit große Datenbereiche ab. Analogien, periphere Erscheinungen, lexikalische Idiosynkrasien sind in den Sprachen möglich.
Vortrag am 10.10.2014
Dirk Westermann (Ilmenau), Ordentliches Mitglied der Technikwissenschaftlichen Klasse
Universitätsprofessor für Elektrische Energieversorgung an der Technische Universität Ilmenau und Direktor des dortigen Institutes für Elektrische Energie- und Steuerungstechnik; Ordentliches Mitglied der Technikwissenschaftliche Klasse seit 8. Februar 2013; Hauptarbeitsgebiete: Design, Analyse und Betrieb elektrischer Energiesysteme mit aktuellem Schwerpunktthema HGÜ-Netze, horizontale und vertikale Systemführung.
Hochspannungsgleichstromübertragung (HGÜ) – Das neue Rückgrat für die europäische Elektrizitätsversorgung
Die Umstellung der elektrischen Energieversorgung auf überwiegend erneuerbare Energien – die sogenannte Energiewende – erfordert eine Änderung der Netzinfrastruktur. Heutige Netze sind aus dezentralen Versorgungstrukturen entstanden. Einzelne elektrische Inseln wurden zur Ausnutzung von Synergieeffekten und Effizienzsteigerung in der Energiewandlung, im Energietransport und in der Energieverteilung zunächst einzeln verbunden und später vernetzt. Konventionelle Kraftwerke sind heute daher räumlich nah an Verbrauchsschwerpunkten angeordnet und der Netzverbund ist nicht zur Langstreckenübertragung von elektrischer Energie in der Größenordnung vieler hundert Kilometer ausgelegt. Die historisch gewachsenen Lastschwerpunkte sind räumlich nicht veränderbar und die Vorkommen erneuerbarer Energien führen zu Einspeisestandorten, die sich von denen konventioneller Kraftwerke mitunter erheblich unterscheiden. Aufgrund der Änderung der Standorte der Erzeugungsanlagen entsteht der Bedarf des Umbaus elektrischer Versorgungsnetze, um unter anderem Langstreckenübertragungen großer Energiemengen zu ermöglichen. Als wirtschaftliche Option zur Ergänzung der bestehenden Netzinfrastruktur, die auf Wechselstrom bzw. Drehstrom basiert, bietet sich die sogenannte Hochspannungsgleichstromübertragungstechnologie (kurz: HGÜ) an.
Zu Beginn der elektrischen Energieversorgung war Gleichstromtechnologie eine Option für den Aufbau von Stadtnetzen. Jedoch nur Wechselspannung konnte mit den damaligen Mitteln einfach transformiert und geschaltet werden. Nicht zuletzt aufgrund dieser Eigenschaften hat sich schnell die Wechsel- bzw. Drehstromtechnologie für die großflächige Elektrifizierung durchgesetzt. Für Langstreckentransporte in Form von Punkt-zu-Punkt-Verbindungen wurde HGÜ attraktiv. Die erste kommerzielle Anlage für den Langstreckentransport elektrischer Energie auf HGÜ-Basis wurde zwischen Marienfelde bei Berlin und dem Kraftwerk Elbe Anfang der 40er Jahre des letzten Jahrhunderts projektiert, aber aufgrund des 2. Weltkriegs nie in Betrieb genommen. Die Inbetriebsetzung der ersten kommerziellen HGÜ-Anlage der Nachkriegszeit erfolgte 1951 und verband die Standorte Moskau und Kaschira. Heute gibt es weltweit fast 100.000 km an HGÜ-Strecken für die Langestrecken-Punkt-zu-Punkt-Übertragung elektrischer Energie. Einen signifikanten Anteil daran haben Landverbindungen, die sich ausschließlich außerhalb des europäischen Netzverbunds befinden.
Vor etwa 20 Jahren wurde erstmals eine neue netzwerkfähige und umfänglich regelbare HGÜ-Technologie (sog. VSC-HGÜ) mit zunächst vergleichsweise kleinen übertragbaren Leistungen vorgestellt. Erste Anwendungen im Rahmen von Punkt-zu-Punkt-Verbindungen folgten in Nordamerika und Australien. Erst die Anbindung von Offshore-Windparks hat dieser Technologie aufgrund ihrer Eigenschaft, auch Inselnetze anschließen zu können zum Durchbruch verholfen. Mittlerweile auch im Hochleistungssegment verfügbar, eignet sich VSC-HGÜ in idealer Weise, das vorhandene europäische Drehstromnetz für den Langstreckentransport großer Energiemengen zu ergänzen und birgt das Potential, sich zu einer völlig neuen europaweit vermaschten Netzebene in HGÜ-Technologie zu entwickeln. Damit wäre dann eine neue Instanz in der Netzhierarchie, die das Rückgrat des europäischen Netzverbunds bildet, geschaffen. Das Design und der Betrieb eines vermaschten HGÜ-Netzes ist völliges Neuland und erfordert Grundlagenforschung in allen Disziplinen der Elektroenergiesystemtechnik.
Im Rahmen dieses Beitrags wird nach einer kurzen Einführung in die Struktur und Entwicklung der elektrischen Netze in Europa auf die HGÜ-Technologie eingegangen. Neben einer kurzen Darstellung der technologischen Eigenschaften erfolgt eine Skizze der aktuellen Forschungsfragestellungen im Zusammenhang mit mittel- bis langfristigen Weiterentwicklungen der europäischen Netzinfrastruktur, bei der die HGÜ-Technologie eine Schlüsselrolle einnehmen kann. Besonderes Augenmerk wird dabei auf systemtechnische Fragestellungen gelegt.
Vortrag am 13.6. 2014
Armin Grunwald (Karlsruhe), Korrespondierendes Mitglied der Technikwissenschaftlichen Klasse
Dr. rer. nat., Leiter des ITAS (Institut für Technikfolgenabschätzung und Systemanalyse) am Karlsruher Institut für Technologie; Korrespondierendes Mitglied der Technikwissenschaftlichen Klasse seit 11. Februar 2011;
Hauptarbeitsgebiete: Ethik neuer Technologien, insbesondere von Nanotechnologie und Synthetischer Biologie, Theorie und Methoden der Nachhaltigkeit, Theorie und Praxis der Technikfolgenabschätzung.
Wie kann wissenschaftliche Politikberatung funktionieren? Das Beispiel Deutscher Bundestag
Das Bild von Technik in der Gesellschaft heute ist durch vielerlei Widersprüche gekennzeichnet. Einerseits gilt Technik nach wie vor als zukunftsweisend und wohlstandssichernd, als beschützend und komfortsteigernd, als Versprechen auf und vielfach auch als Notwendigkeit für die Gestaltung einer guten Zukunft. Die erwünschten und als positiv wahrgenommenen Folgen werden zumeist als Fortschritt empfunden. Andererseits sind Folgen von Technik eingetreten, die nicht mehr als wünschenswert gelten können: Gesundheitsgefahren für Menschen und schwere Unfälle, Probleme für die natürliche Umwelt, etwa für das Klima, aber auch soziale Probleme und Technikkonflikte. Diese Ambivalenz in der Wahrnehmung und den Folgen von Technik lässt sich konstruktiv als eine Gestaltungsaufgabe zu verstehen: die Herausforderung ist, den weiteren Gang der technischen Entwicklung so zu gestalten, dass die gewünschten Effekte realisiert werden, während unerwünschten Folgen möglichst vorgebeugt wird. Um dies zu ermöglichen, ist interdisziplinäre Erforschung der Folgen technischer Entwicklungen, noch bevor diese eintreten, genauso erforderlich wie darauf aufbauende Beratung.
Die Technikfolgenabschätzung ist hierfür ein etabliertes Beispielfeld. Ihre Grundmotivation ist, sich bereits in frühem Stadium und umfassend mit möglichen Folgen zu befassen, um steuernd eingreifen zu können. Letztendlich geht es um ein Abwägen von Chancen und Risiken. TA soll dazu beitragen, systematisch die Voraussicht für die Folgen unserer Handlungen in zeitlicher und thematischer Hinsicht auszuweiten statt sich auf ein Vorgehen nach „Versuch und Irrtum“ einzulassen und im Falle eines „Irrtums“, sprich unerwarteter negativer Technikfolgen, erst im Nachhinein umzusteuern oder, wie im Falle des Asbestes oder des Ozonlochs, nur noch die für die üblen Folgen ursächlichen Technologien verbannen zu können.
Politikberatende Technikfolgenabschätzung erstreckt sich auf öffentlich relevante und politisch zu entscheidende Technikaspekte wie z.B. Sicherheit- und Umweltstandards, den Schutz der Bürger vor Eingriffen in Bürgerrechte, Prioritätensetzung in der Forschungspolitik, die Gestaltung von Rahmenbedingungen für Innovation etc. Hier geht es um die Rahmenbedingungen, unter denen Wissenschaftler und Ingenieure arbeiten und unter denen in der Wirtschaft Technik entwickelt und auf den Markt gebracht wird. Standardsetzungen, Regulierungen und Deregulierungen, Steuergesetze, Verordnungen, Forschungs- und Technologieförderung, internationale Konventionen oder Handelsabkommen beeinflussen auf verschiedene Weise den Gang der Technikentwicklung und -diffusion und sind daher Elemente der Technikgestaltung.
Parlamentarische Technikfolgenabschätzung ist eine in den meisten europäischen Ländern etablierte Form wissenschaftlicher Politikberatung. Am Deutschen Bundestag besteht sie seit über 20 Jahren. Im Vortrag wird das Modell dieser Politikberatung vorgestellt und wird nach den Funktionsbedingungen und Risiken sowie den ‚blinden Flecken‘ gefragt.
Vortrag am 13.6.2014
Jörg Kärger (Leipzig), Ordentliches Mitglied der der Mathematisch-naturwissenschaftlichen Klasse
Dr. rer. nat., Professor i. R. für Experimentalphysik an der Universität Leipzig; Ordentliches Mitglied der Mathematisch-naturwissenschaftlichen Klasse seit 10. März 2000;
Forschungsgebiete: Grenzflächenphysik, Molekularer Stofftransport, Dynamik komplexer Systeme, Physikalische Chemie poröser Materialien, Kernmagnetische Resonanz.
Ausbreitungsphänomene in Natur, Technik und Gesellschaft
Ausbreitungsprozesse sind ein allgegenwärtiges Phänomene in vielen Bereichen von Natur, Technik und Gesellschaft und können damit gleichermaßen Atome und Moleküle wie biologische Spezies, Infektionskrankheiten und den Gebrauch neuer Technologien wie schließlich die Verhaltensnormen in der Gesellschaft betreffen. Die vermutlich ersten Arbeiten zur Quantifizierung und theoretischen Fundierung von Ausbreitungsvorgängen verdanken wir dem Mediziner Adolf Fick. Aus Untersuchungen zur Auflösungsgeschwindigkeit von Salz in Wasser leitete er die nach ihm benannten Diffusionsgesetze her, in denen der Begriff des Diffusionskoeffizienten als Maß für die Ausbreitungsgeschwindigkeit eingeführt wird. Er berichtet über seine Arbeiten 1855 in den in Leipzig erscheinenden Poggendorffschen Annalen der Naturwissenschaften. 50 Jahre später führt Albert Einstein in den, wiederum in Leipzig herausgegebenen, Annalen der Physik die Diffusion auf eine Zufallsbewegung der diffundierenden Objekte (die Brownsche Molekularbewegung) zurück.
Atome und Moleküle, die als Folge ihrer thermischen Energie in allen Aggregatzuständen in ständiger Bewegung sind, standen über viele Jahre im Mittelpunkt der Diffusionsforschung. Interessanterweise liegen die Wurzeln eines der leistungsfähigsten, universell einsetzbaren Verfahren zur Untersuchung von Ausbreitungsphänomenen in stofflicher Materie, der kernmagnetischen Resonanz, wiederum in Leipzig (http://www.uni-leipzig.de/~mrz/history.pdf), mit einer Bündelung aktueller Aktivitäten im Magnetresonanz-Zentrum der Universität. Eine mit der Vergrößerung der Komplexität der betrachteten Systeme einhergehende Verfeinerung des theoretischen Apparates zur Beschreibung von Diffusionsvorgängen einerseits und das wachsende Interesse an einem tiefergehenden Verständnis der jeweiligen Mechanismen andererseits, führte in den letzten Jahren zu vielfältigen Versuchen, das Synergiepotential konventioneller Diffusionsforschung für Ausbreitungsphänomene in ihrer ganzen Breite auszunutzen.
Im Vortrag sollen mögliche Ansätze für solche Querverbindungen vorgestellt werden. Beispiele betreffen Beiträge der Diffusionstheorie zu den „Mechanismen“ der Besiedlung Südamerikas durch die Paläoindianer und die Ausbreitung einer aus Nordamerika stammenden Verwandten unseres Gemeinen Beifuß (der Ambrosia artemisiifolia), die Allergiker auf ihren Pollen noch spät im Jahr reagieren lässt, wenn sie von einheimischen Pflanzen schon längst verschont werden, einschließlich einer Kosten-Nutzen-Berechnung für das Zurückdrängen dieser Invasoren. Auch werden Analoga in den Möglichkeiten der Betrachtung des Molekültransportes in nanoporösen Materialien mit Untersuchungen des Kaufverhaltens in Supermärkten bis hin zur Blutzirkulation aufgezeigt.
Der Beitrag soll mithelfen, Fachwissenschaftler, die in den unterschiedlichsten Disziplinen mit Ausbreitungsprozessen befasst sind, in engeren Kontakt mit den Kollegen bringen, die in ihrer bisherigen Tätigkeit vornehmlich mit Ausbreitungsprozessen in stofflicher Materie zu tun hatten und dabei ein Methoden- und Theorie-Gebäude errichtet haben, dessen Nutzanwendung in diesem Kontakt eine bedeutsame Erweiterung erfahren wird, so wie andererseits eine Vielfalt wertvoller neuer Stimuli für dieses zu erwarten ist. Für diesen Synergieeffekt in doppelter Hinsicht bietet unsere Akademie bestmögliche Voraussetzungen.
Vortrag am 9.5.2014
Dieter Michel (Leipzig), Ordentliches Mitglied der Mathematisch-naturwissenschaftlichen Klasse
Dr. rer. nat., Professor i.R. für Experimentalphysik an der Universität Leipzig, Fakultät für Physik und Geowissenschaften; Ordentliches Mitglied der Mathematisch-naturwissenschaftlichen Klasse seit 14. Februar 1997.
Ferroelektrizität in eingeschränkter Geometrie
Ferroelektrische Substanzen besitzen eine elektrische Polarisation auch ohne Anlegen eines äußeren elektrischen Feldes, die durch die Verschiebung verschieden geladener Ionen im Kristallgitter zustande kommt. Ferroelektrizität beschreibt das Phänomen, dass Stoffe mit einem elektrischen Dipolmoment durch das Anlegen eines äußeren elektrischen Feldes die Richtung der spontanen Polarisation ändern. Die Ferroelektrizität, obwohl bereits bekannt als Seignette-Elektrizität, wurde erst mit Beginn der Untersuchungen an den entsprechenden magnetischen Erscheinungen des Para- und Ferromagnetismus durch Pierre Curie und Pierre-Ernest Weiss näher verstanden. Ferroelektrizität kommt nur in Kristallen vor, in denen die kristalline Symmetrie eine polare Achse zulässt. Ferroelektrische Stoffe sind immer auch pyroelektrisch und auch piezoelektrisch. Im Unterschied zu piezo- und pyroelektrischen Stoffen kann die elektrische Polarisation in den Ferroelektrika durch das Anlegen einer Spannung umgepolt werden. Daraus ergeben sich interessante Materialeigenschaften und vor allem in der neueren Zeit eine Vielzahl von Anwendungen. Die wohl wichtigsten ferroelektrischen Materialien sind die Perowskite. Darunter befindet sich auch Pb-Zr-Titanat als piezoelektrische Substanz, die meist in Form von dünnen Schichten mit Dicken 100 nm und 10 µm angewandt werden. Zu den Perowskiten gehören auch die Materialsysteme, bei den durch gezielte Dotierung mit Ionen der seltenen Erden die Hoch-Tc-Supraleitung erzeugt werden kann, was den Untersuchungen an diesen Materialklassen seit etwa 1986 einen ungeheuren Aufschwung vermittelt hat (Nobelpreis an K. A. Müller und G. Bednorz, 1987). Dieser Richtung wird im Vortrag nicht nachgegangen.
Im Vortrag wird zunächst eine kurze Einführung in die Ferroelektrizität gegeben und die damit verbundenen genannten verwandten Erscheinungen vorangestellt. Die eigenen Arbeiten nehmen Bezug auf eine lange Tradition der Untersuchungen an Ferroelektrika im mitteldeutschen Raum, also in Leipzig-Halle-Jena-Dresden und VEB Keramische Werke Hermsdorf, und erfolgten in Kooperation vor allem mit Polen (Poznań, Kraków, Wrocław) und Tschechien (Prag) aber auch mit der Schweiz (Zürich, Lausanne) und Slowenien (Lubljana). Wichtig war auch die Kooperation mit der Universität des Saarlandes. Daher wird auch die Vorgeschichte vor 1990 kurz betrachtet.
Dieser als Einführung gedachten Darstellung schließt sich dann eine kurze Übersicht über Anwendungen dieser Stoffsysteme an. Dabei werden vor allem solche Beispiele ausgewählt, die die typischen physikalischen Phänomene beispielhaft beleuchten und auf dieser Grundlage begründen, welche Wichtigkeit dieser Stoffe besitzen und weshalb es zu den heutigen Massenanwendungen gekommen ist.
In diesem Zusammenhang wird dann auf eigene Arbeiten eingegangen, die dabei zugrunde liegenden experimentellen Methoden in der notwendigen Kürze erläutert und versucht, die wesentlichen Fragestellungen herauszuarbeiten. Da die meisten praktischen Anwendungen mit der Verwendung von Ferroelektrika mit sehr kleinen Abmessungen verbunden sind, wird zunächst der Frage nach einem durch die Größe der Teilchen getriebenen ferroelektrischen Phasenübergang nachgegangen. Die Untersuchungen erfolgen an sehr kleinen Teilchen von Bariumtitanat und Bleititanat, die durch spezielle Festkörperreaktionen hergestellt und Hilfe verschiedener Methoden charakterisiert wurden, und deren mittlere Durchmesser im Bereich von ca. 200 nm bis zu ca. 5 nm variieren. Dabei ist der obere Wert etwa durch die Abmessungen gegeben, die beim Einsatz vergleichbarer Materialen in den derzeitig industriell verwandten sog. FeRAM-Speichermaterialien benutzt werden. Es wird dabei eindeutig nachgewiesen, dass bei den verwendeten sehr feinen Teilchen ein phasengetriebener Phasenübergang (= Verschwinden der an bestimmte Volumeneigenschaften gebundenen Ferroelektrizität) bei mittleren Teilchengrößen von etwa 6 nm nachzuweisen ist. Es wird auch auf die Ausdehnung dieser Untersuchungen auf Matrixsysteme eingegangen, wobei die Festkörper (mit fe Eigenschaften im Bulk) in wohldefinierte kleine Hohlräume – im Nanometerbereich – von Zeolithen und anderen porösen Stoffe eingelagert werden. Falls noch möglich, werden in einem Beispiel eigene Untersuchungen angesprochen, die „kritische Phänomene“ betreffen und sich als ein experimenteller Test der „Renormierungsgruppentheorie“ (RNG) charakterisieren lassen. Die RNG ist eine Theorie zur Beschreibung des durch Fluktuationen des Ordnungsparameters charakterisierten Verhaltens in der Umgebung von Phasenübergängen zweiter Art. In diesem Bereich divergiert die Korrelationslänge der Fluktuationen. Es zeigt sich, dass in diesem Fall die Eigenschaften eines Systems sehr ähnlich werden, z.B. für ferroelektrische Substanzen, die in einem bestimmten Temperaturbereich einen Phasenübergang 2. Ordnung in eine strukturell inkommensurable Phase besitzen. Wichtige Informationen über kritische Phänomene, insbesondere auch die quantitative Berechnung der kritischen Exponenten, ergeben sich aus der Untersuchung des Skalenverhaltens. Dass dies möglich ist, wurde mittels der RNG u.a. von K.G. Wilson gezeigt (Nobelpreis, 1982). Bei der Darstellung eigener experimenteller Arbeiten wird vor allem der Teil im Überblick behandelt, der Aussagen über die erwarteten Skalenbeziehungen und das universelle Verhalten vermittelt.
Vortrag am 9.5.2014
Heiner Lück (Halle), Ordentliches Mitglied der Philologisch-historischen Klasse
Universitätsprofessor für Bürgerliches Recht, Europäische, Deutsche und Sächsische Rechtsgeschichte an der Juristischen Fakultät der Martin-Luther-Universität Halle-Wittenberg; Ordentliches Mitglied der Philologisch-historischen Klasse seit 9. Januar 1998.
Forschungsgebiete: Rezeption des Sachsenspiegels und des Magdeburger Stadtrechts in Ostmitteleuropa, Gerichtsverfassung und Rechtsalltag im Mittelalter.
Die lateinische „Urfassung“ des Sachsenspiegels
Zwischen 1220 und 1235 entstand in Mitteldeutschland, wahrscheinlich im östlichen Harzvorland, ein deutschsprachiges Rechtsbuch von einzigartiger Bedeutung und Wirkungskraft. Sein genialer Verfasser, Eike von Repgow, nannte es selbst „Spegel der Sassen“. Die konkreten Umstände der Niederschrift liegen im Dunkeln. Durch sechs Urkunden ist gesichert, dass der Verfasser zwischen 1209 und 1233 lebte. Nach eigener Aussage habe er im Auftrag seines „Herrn“, Graf Hoyer von Falkenstein, das Rechtsbuch, bestehend aus einem Landrechtsteil und einem Lehnrechtsteil, aus dem Lateinischen in das Deutsche übersetzt. An dieser Mitteilung des Autors wurde bislang kaum ernsthaft gezweifelt. Ihr gegenüber steht jedoch die extreme Diskrepanz zwischen der Anzahl der heute vorhandenen deutschsprachigen (ca. 470) und lateinischen Textzeugen (0).
Die Forschung nimmt in ganz überwiegendem Maße an, dass es sich bei dem sog. Auctor vetus de beneficiis, einem Lehnrecht enthaltenden lateinischen Text, um die lateinische Fassung des Lehnrechts des Sachsenspiegels handele. Doch ist das nur eine, wenn auch nicht unbegründete, Vermutung. Hinzu kommt, dass dieser Text nur in Drucken aus dem 16. Jh. überliefert ist. Handschriften dazu existieren nicht. Es ist auch keinesfalls sicher, dass dieses Werk unabhängig von einem älteren deutschen Text entstanden ist. Im Vortrag wird der Frage nachgegangen, inwieweit Eikes Aussage, der deutsche Text beruhe auf einer lateinischen Vorlage, der Legitimation für die Niederschrift des Rechtsbuches diente. Das könnte bedeuten, dass es diese lateinische „Urfassung“ gar nicht gegeben hat. Eine solche Fiktion stünde in der Überlieferung mittelalterlicher Texte nicht allein. Auch aus Diktion und Inhalt diverser Stellen des Sachsenspiegels sowie aus seiner Überlieferungsgeschichte lässt sich eine solche Hypothese stützen. Sollte sie zutreffen, wäre das eine Erklärung für das Fehlen jeglicher lateinischer Textzeugen (von späteren Übersetzungen in das Lateinische abgesehen).
Die hier vorgestellte Argumentation kann letztlich die Selbstaussage des Verfassers nicht widerlegen. Sie beabsichtigt vielmehr, diese Möglichkeit in den wissenschaftlichen Diskurs um die Etablierung einer schriftlichen Rechtskultur im Spannungsfeld zwischen gelehrter (lateinischer) und deutscher Rechtssprache einzubringen.
Immerhin erfreute sich Eikes Rechtsbuch in seiner glossierten Form einer Geltungsdauer von mehr als 600 Jahren und eines Verbreitungsgebietes, welches von der Grafschaft Holland bis in die heutige Ukraine reichte – und dies alles, ohne von einem Herrschaftsträger oder Gesetzgeber jemals offiziell in Kraft gesetzt worden zu sein. Neueste Forschungen haben das Wissen um die Existenz des Sachsenspiegels jetzt auch in Katalonien nachgewiesen.
Festvortrag zur Öffentlichen Frühjahrssitzung am 11.4.2014
Wolfgang Huschner (Leipzig), Ordentliches Mitglied der Philologisch-historischen Klasse
Professor für Mittelalterliche Geschichte an der Universität Leipzig; seit 09.02.2007 Ordentliches Mitglied der Philologisch-historischen Klasse. Sekretar der Klasse seit 1. Januar 2012;
Hauptarbeitsgebiete: Beziehungen zwischen "Deutschland" und "Italien" im Früh- und Hochmittelalter (8.–12.Jh.); Verbindungen und Wechselwirkungen zwischen dem lateinisch und dem byzantinisch-griechisch geprägten Europa im Früh- und Hochmittelalter; Geschichte des Ostseeraums im Hoch- und Spätmittelalter (12.–15. Jh.); Historische Grundwissenschaften (besonders Urkundenlehre und Siegelkunde).
Córdoba – Konstantinopel – Rom. Das ottonische Reich im mediterranen Kommunikationsraum (936–1002)
Um 950 war König Otto I. der dominierende Herrscher innerhalb der karolingischen Nachfolgereiche und ließ Ambitionen auf Italien und die westliche Kaiserkrone erkennen. Die Apenninenhalbinsel lag zentral im Mittelmeerraum und wurde von allen Anrainern entsprechend stark beachtet. Die Beantwortung der Frage, wie die ottonischen Herrscher und ihre Gesandten auf die diplomatischen und politischen Herausforderungen reagierten, die mit der langjährigen Präsenz in Italien und mit der Kaiserwürde verbunden waren, soll im Mittelpunkt des Vortrags stehen.
Zuerst wird der Gesandtenaustausch mit dem Kalifen von Córdoba behandelt. Danach sind die Verbindungen zwischen den Ottonen und den Päpsten in Rom Gegenstand der Betrachtung. Abschließend werden die diplomatischen und politischen Beziehungen zwischen den byzantinischen und den ottonischen Kaisern analysiert.
Seit 962 war Otto I. nur einer von drei gleichzeitig amtierenden Kaisern in der christlichen Welt. Anhand der drei genannten Fallbespiele soll u.a. der Frage nachgegangen werden, wie der ottonische Hof den diplomatischen Verkehr mit politischen Zentren sowie zeitgenössische Medien dafür nutzte, um das neue ottonische Kaisertum mit einem möglichst hohen Rang im mediterranen Raum zu etablieren.
Abschließend werden Rück- und Nachwirkungen der mediterranen Ausrichtung des ottonischen Imperiums auf die heutigen mitteldeutschen Gebiete thematisiert.
Vortrag am 14.3.2014
Sebastian Lentz (Leipzig), Ordentliches Mitglied der Philologisch-historischen Klasse
Professor für Regionale Geographie am Institut für Geographie (Fakultät für Geowissenschaften und Physik) der Universität Leipzig; zugleich Direktor des Leibniz-Instituts für Länderkunde (Leipzig); seit 13. Februar 2004 Ordentliches Mitglied der Philologisch-historischen Klasse;
Thematische Forschungsschwerpunkte: Regionale Geographie, Sozial- und Kulturgeographie; regionale Forschungsschwerpunkte: Europa und Nachfolgestaaten der Sowjetunion.
Gesellschaftlicher Wandel und räumliche Faktoren der Wohnstandortwahl
Über mehrere Jahrzehnte war die Suburbanisierung, d.h. die Bevölkerungszunahme im Umland der großen Städte, der vorherrschende Trend in der Wohnstandortwahl von Privathaushalten. Für Westdeutschland gilt das seit den 1960er Jahren und seit den 1990er Jahren auch in Ostdeutschland. Die Forschung zu Binnenmigration und Umzüge hat diese Stadt-Umland-Wanderung der Stadtbewohner über lange Zeit plausibel mit Zentrums-Peripherie-Modellen erklären können. Die Operationalisierung der räumlichen Verhältnisse für Forschungsfragen erfolgte meist mittels ökologischer Push-Pull-Faktoren und ökonomisierter Distanzkriterien. Dazu wurden üblicherweise mehrere wirkmächtige Rahmenbedingungen vorausgesetzt, unter anderem eine eindeutige Wahrnehmung des Stadtzentrums als konkurrenzloser Zentraler Ort, von industrieller Produktion geprägte Wohnumfeldbedingungen in der Stadt bzw. ökologisch günstigere Umwelt im Umland und ein soziales Ein-Verdiener-Haushalts- und Familien-Muster.
Diese Matrix von sozialen, ökonomischen und räumlichen Einflüssen hat sich im Laufe der letzten Jahrzehnte tiefgreifend gewandelt: Beispielsweise sind in der Informationsgesellschaft Arbeitsplätze weniger auf einen einzigen Ort und auf relativ starre tägliche Rhythmen festgelegt als in der Industriegesellschaft und die Auflösung der Kernfamilie als vorherrschendes Modell der Haushaltsbildung ist durch eine Vielzahl von Varianten abgelöst worden, die wiederum neuartige Orientierungen, oft auch auf mehrere Wohnorte zur Folge haben. Auch die zeitliche Flexibilisierung in der Organisation von Arbeit, die durch technologischen Entwicklung ebenso wie durch Globalisierung forciert wird, verändert die Anforderungen an Wohnstandorte; und schließlich haben sich durch die Entstehung von polyzentrischen Verdichtungsräumen auch die Wahlmöglichkeiten der Wohnungssuchenden deutlich ausdifferenziert.
In diesem Geflecht von sozialen und räumlichen Ursachen und Wirkungen wird die Bewertung eines Wohnstandorts zur individuellen Syntheseleistung der Haushalte, die eine Vielzahl von Kriterien berücksichtigen müssen. Aus der Perspektive der Geographie ist besonders interessant, wie sich die Wohnungssuchenden statt innerhalb einer Stadt nunmehr innerhalb einer ganzen Stadtregion orientieren und letztendlich entscheiden.
Der Vortrag präsentiert Fragestellungen und Ergebnisse aus einem Forschungsprojekt, das vergleichend in den Agglomerationen Köln/Bonn, östliches Ruhrgebiet und Leipzig/Halle durchgeführt wurde.
Vortrag am 14.3.2014
Ulrich Stottmeister (Leipzig), Ordentliches Mitglied der Technikwissenschaftlichen Klasse
Leitung der Sektionen „Sanierungsforschung“ und „Umweltbiotechnologie“ im UFZ Umweltforschungszentrum (1991–2004); Professur „Technische Chemie/ Biotechnologie“ an der Universität Leipzig (1994–2004); seit 12. Januar 1996 Ordentliches Mitglied der Technikwissenschaftlichen Klasse;
Hauptarbeitsgebiete: Umweltbiotechnologie (Wasser, Boden und Sedimentsanierung) sowie die Bioprozesstechnik (mikrobiologisch erzeugte Bausteine für die organische Synthesechemie). Leitung des Vorhabens „Nachwachsende Rohstoffe: Risiken und Chancen für Mitteldeutschland“ der Arbeitsstelle „Technikbewertung und -gestaltung“ der Technikwissenschaftlichen Klasse, Mitglied der Vorhabenbezogenen Kommission (2009–2013).
Die stoffliche Nutzung nachwachsender Rohstoffe: Chancen und Risiken
Es ist ein Anliegen der Technikwissenschaftlichen Klasse, die einzelnen Arbeitsgebiete der an Arbeitsvorhaben beteiligten Mitglieder der Klasse so zu verbinden, dass neue technologische Entwicklungen schon in der Forschungs- und Entwicklungsphase unter den Aspekten von möglichen Folgen und Risiken bewertet werden. Darüber hinausgehend sollen beispielhaft nicht nur die direkten „Technikfolgen“, sondern auch allgemeine und indirekte Auswirkungen auf die Gesellschaft berücksichtigt werden. Diese angestrebte frühzeitige Kopplung zwischen For-schung und der späteren technologischen Prozessgestaltung soll helfen, nachträglich eventuell notwendige, jedoch schwer korrigierbare Verfahrensänderungen zu vermeiden.
In der einleitenden Übersicht des Vortrages werden die grundsätzlichen Nutzungsmöglichkeiten der nachwachsenden Rohstoffe und deren Einordnung in das Gesamtkonzept eines zukünftigen deutschen Energiemixes betrachtet. Die Perspektiven des Einsatzes von Biomasse als „erneuerbarer“ Energieträger werden anhand aktueller Daten, Statistiken und Studien in kurzer Form diskutiert. Auf dieser Grundlage wird das Gesamtgebiet der nachwachsenden Rohstoffe in einer komplexen Betrachtung von Risiken, Schwächen, Chancen und Stärken analysiert, zu denen auch die viel diskutierte Konkurrenz zu Nahrungsmitteln und die Anwendung der Gentechnik gehören. Ein Ergebnis dieser Analyse zeigt, dass neben unumgänglichen und zeitlich begrenzten Kompromisslösungen langfristig gesehen die stofflichen und nicht die energetischen Nutzungen das höchste Innovationspotenzial und die größte Wertschöpfung aufweisen.
Das vom SMWK geförderte Projekt „Nachwachsende Rohstoffe“ führte die Arbeiten von drei Mitgliedern der Klasse zusammen, die land- und forstwirtschaftliche Produkte mit verschiedenen Themenstellungen bearbeiten: OM Wagenführ (Holz und Faserstoffe) sowie OM Bley und OM Stottmeister (Bioprozesstechnik). Die gemeinsame Klammer der Einzelthemen ist die vorrangige stoffliche Nutzung der nachwachsenden Rohstoffe.
Ausgewählte Forschungsergebnisse dieser Themen werden in den übergeordneten Rahmen der angestrebten Einheit von „Technikbewertung und -gestaltung“ eingeordnet. Als erstes Beispiel wird das im Institut für Bioverfahrenstechnik der TUD bearbeitete Thema „Konditionierung von Lignin und Lignocellulose enthaltenden Biomassen“ über die naturwissenschaftlichen Aspekte hinausgehend betrachtet. Das zweite Beispiel aus dem Institut für Holz- und Faserstoffe illustriert Anwendungen zum Thema „Faserhanf für Leichtbauplatten“. Eine übergreifende Betrachtungsweise führt zu Erkenntnissen, die Rückwirkungen auf die angestrebte Verfahrensentwicklung haben. Als drittes Beispiel wird in kurzer Form das im Helmholtz-Zentrum für Umweltforschung UFZ entwickelt „Modulsystem“ zur biotechnologischen Herstellung von Synthesebausteinen der organischen Chemie vorgestellt. Diese interdisziplinäre Entwicklung berücksichtigt beides: Flexibilität im Einsatz nachwachsender Rohstoffe und Umweltaspekte.
Vortrag am 14.2.2014
Udo Reichl (Magdeburg), Ordentliches Mitglied der Technikwissenschaftlichen Klasse
Lehrstuhl für Bioprozesstechnik an der Otto-von-Guericke Universität Magdeburg, Direktor und Wissenschaftliches Mitglied am Max-Planck-Institut für Dynamik komplexer technischer Systeme. Ordentliches Mitglied der Technikwissenschaftlichen Klasse seit 8. Februar 2013;
Hauptarbeitsgebiete: Bioprozesstechnik (Säugerzellen, Hefen, Bakterien), Downstream Processing (Separation, Chromatographie), Überwachung und Regelung von Bioprozessen, Mathematische Modellbildung und Simulation, Virale Impfstoffe.
High-Throughput Glycoanalysis for the Characterization of Glycoproteins and Carbohydrates
Rapp, E.1,2, Hennig, R.1,2, Muth, T.1,2, Kottler, R.1, Reichl, U.1,3
1 Max Planck Institute for Dynamics of Complex Technical Systems, 39106 Magdeburg, Germany
2 glyXera GmbH, 39106 Magdeburg, Germany
3 Otto-von-Guericke University, Chair of Bioprocess Engineering, 39106 Magdeburg, Germany
Glycomics is a rapidly emerging field that can be viewed as a complement to other „omics“-approaches including proteomics and genomics. The fields of application range from basic and applied research in life science and medicine to industrial manufacturing of biopharmaceuticals and food production. With the continuing improvements in analytical tools, in particular mass spectrometric measurements and capillary (gel)-electrophoresis, there is a dramatic increase in the demand for reliable standards, sophisticated data analysis and comprehensive databases to support further advancement of glycobiology respectively, glycobiotechnology.
Here, the development of an innovative glycoanalysis system (analytical method, software and database) is presented. Applications range from production of viral antigens for influenza vaccine manufacturing and quality control of recombinant proteins used as pharmaceuticals to monitoring of oligosaccharides in human milk.
The focus will be on a method based on multiplexed capillary gel-electrophoresis with laser-induced fluorescence detection (xCGE-LIF), which was developed at the Max Planck Institute in Magdeburg over the recent years. Optimization of this method with respect to sample preparation, separation performance and data analysis will be demonstrated, which now allows high-throughput measurements of glycans with unprecedented resolution and accuracy. First, an improved modular sample preparation method and a workflow are presented with respect to performance and feasibility. Second, with up to 96 capillaries in parallel, a fully automated separation with an impressive sensitivity is shown that results in massive reduction of the effective separation time per sample. Third, automated data analysis with a newly developed modular software-tool for data-processing and -analysis, interfacing a corresponding oligosaccharide-database is introduced. Using this high-performance glycoanalysis system, the generated “normalized” electropherograms of glycomoieties (“fingerprints”) can be evaluated on three stages: (1) “simple” qualitative and quantitative pattern comparison ("fingerprint"-analysis), (2) identification of compounds in complex mixtures via database matching (“glycoprofiling”) and (3) extended structural analysis using exoglycosidase sequencing in combination with xCGE-LIF based glycoprofiling.
Overall, this novel modular high-performance glycoanalysis system allows fully automated, sensitive, "real" high-throughput glycoanalysis to address a wide range of challenging research topics and industrial applications.
Vortrag am 14.2.2014
Gabriele Irmgard Stangl (Halle), Ordentliches Mitglied der Mathematisch-naturwissenschaftliche Klasse
Professorin für Humanernährung am Institut für Agrar- und Ernährungswissenschaften der Martin-Luther-Universität Halle-Wittenberg. Ordentliches Mitglied der Mathematisch-naturwissenschaftliche Klasse seit 8. Februar 2013;
Hauptarbeitsgebiete: Einfluss von Vitamin D auf den Lipidstoffwechsel, kardiovaskuläre Risikofaktoren und die Atherogenese, Funktionelle Bedeutung von Peroxisomenproliferator-aktivierten Rezeptoren (PPARs) in der Regulation des Lipid- und Energiestoffwechsels, Biofunktionalität von spezifischen Aminosäuren und pflanzlichen Proteinen, Einfluss von oxidierten Fetten und des Redoxstatus auf die Lipogenese.
Vitamin D-Mangel – ein unterschätztes Krankheitsrisiko?
Vitamin D nimmt unter den Vitaminen eine Sonderstellung ein, da es nicht zwingend mit der Nahrung aufgenommen werden muss, sondern in der Haut durch ultraviolette Strahlung aus einem Metaboliten des Cholesterolstoffwechsels synthetisiert werden kann. Damit erfüllt Vitamin D streng genommen nicht mehr die Kriterien eines essentiellen Nährstoffes. Dass dennoch in Deutschland sehr viele Personen unzureichend mit Vitamin D versorgt sind, liegt daran, dass in unseren Breitengraden aufgrund des niedrigen Sonneneinfallswinkels zwischen Oktober und April keine kutane Vitamin D-Synthese erfolgen kann. Auch unser moderner Lebensstil mit überwiegenden Tätigkeiten in geschlossenen Räumen sowie die Verwendung von Sonnenschutzmitteln tragen zum Vitamin D-Defizit bei.
Unter den Nahrungsmitteln gibt es zudem nur wenige mit nennenswerten Gehalten an Vitamin D.
Obgleich durch Präventionsmaßnahmen bei Säuglingen klassische Vitamin D-Mangelerkrankungen wie die Rachitis selten geworden sind, deuten aktuelle Zahlen auf eine insgesamt schlechte Vitamin D-Versorgungslage der deutschen Bevölkerung hin. Besonders schlecht versorgt sind Menschen im höheren Lebensalter. Folgen dieses Vitamin D-Defizits sind ein erhöhtes Sturz- und Frakturrisiko. Mit der Entdeckung des Vitamin D-Rezeptors im Jahr 1969 wurden viele neue Funktionen des Vitamin D beschrieben. Insbesondere die Forschung der letzten Jahre hat gezeigt, dass die Wirkungen von Vitamin D weit über die klassischen Effekte auf den Kalzium- und Knochenstoffwechsel hinausgehen. Es wird vermutet, dass 1–5% des gesamten humanen Genoms durch Vitamin D reguliert werden und dass eine Unterversorgung an Vitamin D auch das Risiko für Herz-Kreislauf-, Autoimmun-, Infektions- und Krebserkrankungen erhöht. Schätzungen gehen davon aus, dass allein in Deutschland jährlich Krankheitskosten in Höhe von mehreren Mrd. Euro und 20.000 Todesfälle auf eine unzureichende Vitamin D-Versorgung zurückzuführen sind.
Derzeit werden die verschiedenen Strategien zur Verbesserung der Vitamin D-Versorgung in der Bevölkerung kontrovers diskutiert.
Vortrag am 10.1.2014
Jan Michael Rost (Dresden), Ordentliches Mitglied der Mathematisch-naturwissenschaftlichen Klasse
Direktor am Max-Planck-Institut für die Physik komplexer Systeme in Dresden und Professor für Quantendynamik an der TU Dresden. Ordentliches Mitglied der Mathematisch-naturwissenschaftlichen Klasse seit 10. Februar 2012;
Forschungsgebiete: Die Theorie komplexen Verhaltens endlicher, mikroskopischer Systeme. Geschuldet einem ursprünglichen Studium der Philosophie, gilt sein weiteres Interesse der Rolle der Zeit in der naturwissenschaftlichen Beschreibung und im Allgemeinen dem Aufkommen von spannenden Themen an der Schnittstelle von Wissenschaftsgebieten.
Komplexes Verhalten: Was haben Chaos und Nachhaltigkeit aus der Perspektive der Physik miteinander zu tun?
Seit Anfang der physikalischen Weltbeschreibung in der Neuzeit galt das Prinzip der Linearität: „Kleine Ursache, kleine Wirkung, große Ursache, große Wirkung“. Damit verbunden war der physikalische Zugang, Mechanismen und Systeme für sich selbst und isoliert von ihrer Umgebung zu verstehen.
In den 80iger Jahren des letzten Jahrhunderts wurde chaotisches Verhalten, und damit die starke Beeinflussbarkeit eines physikalischen Systems von seiner Umgebung, ein zentraler Forschungsschwerpunkt, bekannt geworden unter der oft falsch verstandenen Devise „Der Flügelschlag eines Schmetterlings kann die Welt verändern“. Nach etwa zwei Dekaden hat sich die Einsicht durchgesetzt, dass die Realität weder allein durch Chaos noch allein durch Linearität geprägt ist, sondern durch Koexistenz von beidem, durch komplexes Verhalten, welches sich an den Schnittstellen von Chaos und Linearität abspielt. Auch die Beschreibung und das Verständnis dieses Verhaltens nimmt eine faszinierende und rasche Entwicklung, in der wir mitten darin stehen, von komplexen über autonome hin zu intelligenten Systemen. Im Vortrag wird der Versuch gemacht, diese Entwicklung durch eine systematische Kategorisierung der verschiedenen Arten komplexer Systeme im Hinblick auf das Verhältnis zu ihrer Umgebung zu kategorisieren und diese Einteilung mit Beispielen zu unterlegen.
Mit dem neuen, nicht nur im Studium komplexer Systeme vorherrschenden Paradigma der Physik, Systeme eingebettet in ihre Umgebung zu betrachten, liegt es nahe, über den recht umstrittenen Begriff der Nachhaltigkeit nachzudenken. Zusammen mit der Beobachtung, dass Strukturbildung entgegen dem globalen Prinzip der Entropiezunahme, nur transient und fernab vom thermodynamischen Gleichgewicht erfolgen kann, folgt daraus eine inhaltsfreie Definition von Nachhaltigkeit, die aber dennoch klar nachhaltiges von nicht nachhaltigem Handeln unterscheidet.
Vortrag am 10.1.2014
Heinrich Magirius (Radebeul), Ordentliches Mitglied der Philologisch-historischen Klasse
Professor i.R. für Kunstgeschichte und Methodik der Denkmalpflege an der Hochschule für Bildende Künste in Dresden. Landeskonservator von Sachsen. Ordentliches Mitglied der Philologisch-historischen Klasse seit 11. Oktober 1991;
Als Denkmalpfleger unter anderem leitend tätig beim Wiederaufbau der Semperoper und der Frauenkirche in Dresden.
Erinnerungswerte und Denkmalpflege
Seit etwa fünfundzwanzig Jahren sind Erinnerungswerte, die der Wiener Kunsthistoriker Alois Riegl schon 1903 wissenschaftlich definiert hat, wieder stärker ins Bewusstsein der Denkmalpflege getreten und zwar besonders im Zusammenhang mit dem Thema der Wiederherstellung von zerstörten Bauwerken. Rekonstruktionen wurden schon um 1900 theoretisch verurteilt, in praxi aber nicht immer vermieden. Infolge der Kriegszerstörungen des 20. Jahrhunderts wuchs auch der Wunsch nach Rekonstruktionen.
Die Denkmalpflege suchte sich davon mit guten Gründen theoretisch abzugrenzen. Während sich die Fachdisziplin mehr und mehr auf die historische Substanz als eigentliche Aufgabe konzentrierte, gerieten Erinnerungswerte im umfassenden Sinne Riegls oft aus dem Blick. So bildeten sich im ausgehenden 20. Jahrhundert Fronten zwischen Denkmalpflegern, die Rekonstruktionen prinzipiell ablehnen, und solchen, die berücksichtigen, dass Erinnerungswerte vor allem gerade an gestalthaften Zügen erkennbar werden und sogar über die Erhaltung von Substanz hinaus reichen. Mehr oder weniger vollständige Wiederherstellungen von zerstörten Baudenkmälern ermöglichen nicht zuletzt am sichersten auch die Bewahrung von historischer Substanz. Das wird am Beispiel des Wiederaufbaus der Semperoper und der Frauenkirche in Dresden erläutert.
Dem Architekten der Gegenwart kann es beim Wiederaufbau eines teilzerstörten Bauwerks durchaus gelingen, Erinnerungswerte zur Anschauung zu bringen, wenn er Alterswerte behutsam kennzeichnet, wie das beim Neuen Museum in Berlin geschehen ist. Der Nachbau des Paulinums in Leipzig ist im Verständnis Riegls ein gewolltes Denkmal unserer Zeit, hätte aber bei größerem Respekt vor den vernichteten historischen Gestaltqualitäten durchaus die Chance gehabt, entsprechende Erinnerungswerte an das Verlorene wachzurufen.