Vortrag 13.12.2013
Jens-Dieter Haustein (Jena), Mitglied der Philologisch-historischen Klasse
Dr. phil., Professor für germanistische Mediävistik an der Friedrich-Schiller-Universität Jena; am 13. Februar 2004 zum Ordentlichen Mitglied der Philologisch-historischen Klasse der Sächsischen Akademie der Wissenschaften gewählt; Mitglied der Vorhabenbezogenen Kommissionen „Das Althochdeutsche Wörterbuch, das Etymologische Wörterbuch des Althochdeutschen und die Deutsche Wortfeldetymologie im Europäischen Kontext“, sowie „Klöster im Hochmittelalter: Innovationslabore europäischer Lebensentwürfe und Ordnungsmodelle“, stellvertretender Vorsitzender der Projektbegleitenden Kommission „Die deutsche Akademie des 17. Jahrhunderts: Fruchtbringende Gesellschaft“.
Arbeitsgebiete: Germanistische Mediävistik von den Anfängen der deutschen Literatur im 8. Jh. bis zum Ende der Reformationszeit, Wissenschaftsgeschichte.
Vorwärts ins Mittelalter! Rekonstruktion, Ausbau und Funktionalisierung der Wartburg in der zweiten Hälfte des 19. Jahrhunderts
Zu den zahlreichen Mythen rund um die Wartburg, die ‚deutscheste aller deutschen Burgen‘, gehört auch die Vorstellung, die Burg sei vor ihrer Renovierung im 19. Jahrhundert eine Ruine gewesen. So hat man etwa gegen den Wortlaut des folgenden Zitats angenommen, dass beispielsweise Goethes Entzücken über die Burg rein ästhetischer Natur war – also letztlich Ruinenromantik „Diese Wohnung ist das herrlichste, was ich erlebt habe, so hoch und froh, daß man hier nur Gast sein muß, man würde sonst vor Höhe und Fröhlichkeit zu nichte werden“, schreibt er am 14. September 1777 an Charlotte von Stein. Seit die Burg 1741 durch Erbfall in den Besitz der Großherzöge von Sachsen-Weimar, von nun an Sachsen-Weimar-Eisenach, gekommen war, wurde an ihr gebaut und war sie touristischer ‚Pilgerort‘. – Gleichwohl begann, und dies soll im Einzelnen Gegenstand des Vortrags sein, die Renovierungsgeschichte erst in größerem Stil unter und mit Carl Alexander. Das Geld der Zarentochter Maria Pawlowna (1786–1859), seit 1804 mit Carl Friedrich von Sachsen-Weimar-Eisenach, dem Vater Carl Alexanders, verheiratet, bot die Voraussetzung dafür, dass sich Carl Alexander wohl schon vor seinem Regierungsantritt als Großherzog im Jahr 1853 mit der Wiederherstellung der Burg beschäftigte.
Für die architektonische Aus- und Neugestaltung beschäftigte er Hugo von Ritgen, mit dem er jede Einzelheit des Baus brieflich oder mündlich diskutierte, für die malerische Moritz von Schwind. In dessen Sängerkriegfresko wird nicht nur auf die ‚große‘ Zeit um 1200 Bezug genommen, sondern ebenso auf die Zeit um 1800 und selbst auf die eigene Gegenwart Carl Alexanders. Das Geschenk an die ganze deutsche Nation, das die Wiederherstellung der Wartburg sein sollte – und Carl Alexander wurde nicht müde, dies zu betonen –, war zugleich auch der Versuch, einen historisch grundierten Anspruch auf das Erbe der ludowingischen Landgrafen gewissermaßen in Stein zu meißeln. Neben Weimar wurde die Wartburg so zur zweiten Residenz, die dem Ziel der Bewahrung und Renovierung des Mittelalters ebenso dienen sollte wie der Funktionalisierung des Mittelalters für das eigene Selbstverständnis Carl Alexanders.
Vortrag am 13.12.2013
Ullrich Martin (Stuttgart), Mitglied der Technikwissenschaftlichen Klasse
Dr.-Ing., Professor für Schienenbahnen und Öffentlicher Verkehr und Direktor des Institutes für Eisenbahn- und Verkehrswesen an der Universität Stuttgart, Direktor des Verkehrswissenschaftlichen Institutes; am 13. Februar 2004 zum Korrespondierenden Mitglied der Technikwissenschaftlichen Klasse gewählt.
Arbeitsgebiete: verkehrsträgerübergreifende Verkehrssystemgestaltung mit den Schwerpunkten im spurgeführten und öffentlichen Verkehr unter Berücksichtigung verkehrspolitischer und verkehrswirtschaftlicher Fragestellungen sowie die Prozesssteuerung in Verkehrssystemen, verkehrsträgerübergreifende Gestaltung integraler Verkehrssysteme unter besonderer Beachtung der Schnittstellen zwischen den Verkehrsträgern.
Wie viel Infrastruktur benötigt die Eisenbahn?
In der Politik und in der Bevölkerung besteht ein weitgehender Konsens darüber, dass die auch künftig noch anwachsenden Verkehre verstärkt auf die Eisenbahn verlagert werden sollten. Seitens der Betreiber von Eisenbahnen in Deutschland wird deshalb nicht zu Unrecht auf die Notwendigkeit von Infrastrukturerweiterungen im Eisenbahnnetz verwiesen. Allerdings stehen in den für den Infrastrukturausbau des Eisenbahnnetzes verantwortlichen öffentlichen Bereichen jedoch nur äußerst beschränkte finanzielle Mittel zur Verfügung, und ein extensiver Infrastrukturausbau stößt aufgrund der Siedlungsstruktur in Deutschland zunehmend an Grenzen.
Deshalb rückt die Frage, ob sich die Kapazität des vorhandenen Eisenbahnnetzes durch andere Maßnahmen, die zu einer intensiveren Nutzung der vorhandenen Infrastrukturen führen, erhöhen lässt, zunehmend in den Mittelpunkt der weiteren Verkehrssystemgestaltung. Da Qualität und Umfang des Verkehrs immer auch den Entwicklungsstand der Volkswirtschaft und damit der Gesellschaft kennzeichnen, können intelligente Lösungen zur Beantwortung dieser Frage einen beachtenswerten Beitrag zur Zukunftsfähigkeit der Eisenbahn in Deutschland und Europa leisten.
Vortrag am 8.11.2013
Hans Wiesmeth (Leipzig), Mitglied der Technikwissenschaftlichen Klasse
Dr. rer. pol., Professor für VWL, insbes. Allokationstheorie, an der Technischen Universität Dresden; am 13. Februar 2004 zum Ordentlichen Mitglied der Technikwissenschaftlichen Klasse gewählt.
Forschungsschwerpunkte: Grundsätzliche Fragestellungen der Allokationstheorie, Anwendungen auf verschiedene Sektoren der Wirtschaft, insbesondere Umwelt und Medizin; Analyse praxisrelevanter Problemkreise in diesen Bereichen.
Integrierte Umweltpolitik: Möglichkeiten und Grenzen
Die direkte Übernahme von Erkenntnissen der theoretischen Umweltökonomie zur Lösung aktueller Umweltprobleme im nationalen und internationalen Bereich scheitert meist an Informationsdefiziten zu praxisrelevanten Gegebenheiten. Zusätzlich erfordert heute die „Nachhaltigkeit“ mit ihrer ökologischen, sozialen und ökonomischen Dimension multiple Zielsetzungen, die eine vornehmlich auf Effizienz ausgerichtete marktbasierte Umweltökonomie kaum zu erreichen vermag. Dies gilt erst recht für den internationalen Raum mit seiner Vielzahl unterschiedlicher Wirtschaftssysteme.
Vor diesem Hintergrund übernehmen umweltpolitische Maßnahmen mehr und mehr Aufgaben eines klassischen Allokationsinstruments. Diese beziehen sich naturgemäß in erster Linie auf Umweltgüter, erfassen aber, wie beispielsweise das „Erneuerbare-Energien-Gesetz“ (EEG) deutlich zeigt, auch andere Bereiche der Wirtschaft und dienen gelegentlich auch als Instrument zur Förderung innovativer Technologien. Dazu sei wiederum auf das EEG und die damit verbundene Ansiedlung von Unternehmen im Bereich der Solartechnologie vornehmlich in Mitteldeutschland verwiesen.
Der Vortrag befasst sich in erster Linie mit den Herausforderungen, die mit dieser Ausrichtung für die aktuelle Umweltpolitik einhergehen. Zunächst müssen dazu wichtige Grundlagen aus der Umweltökonomie vorgestellt werden. Fakten zu konkreten Beispielen aus dem nationalen und internationalen Umfeld sollen anschließend den aktuellen Stand der Umweltpolitik als Allokationsinstrument erleuchten. Besondere Aufmerksamkeit wird in diesem Zusammenhang der deutschen „Elektronikschrottverordnung“ gewidmet.
Am Beispiel des „Integrierten Abfallmanagements“ wird sodann der Begriff einer „Integrierten Umweltpolitik“ eingeführt und erläutert. Die strukturellen Eigenschaften der Integrierten Umweltpolitik werden motiviert und wiederum an Einzelheiten der schon erwähnten Elektronikschrottverordnung gemessen. Dies führt schließlich zu einer Revision dieser Verordnung auf der Grundlage einer Integrierten Umweltpolitik.
Der Vortrag verweist damit in erster Linie auf die ökologischen, wirtschaftlichen und gesellschaftlichen Möglichkeiten einer Integrierten Umweltpolitik. Vor allem die geschickte Einbindung aller relevanten Akteure (oder „Stakeholder“) und die Ausnutzung der bei diesen vorhandenen umweltrelevanten Informationen kennzeichnet die Umweltpolitik als Allokationsinstrument. Allerdings können auch dadurch vorhandene Informationsdefizite nicht vollständig beseitigt werden. Zusätzlich stoßen derartige umweltpolitische Ansätze auf Grenzen im internationalen Bereich: ein unterschiedliches Umweltbewusstsein sowie manche internationale Vereinbarungen behindern zumindest eine effektive Implementierung globaler umweltpolitischer Maßnahmen auf der Grundlage eines integrierten Ansatzes.
Vortrag am 8.11.2013
Isolde Röske Klima (Dresden), Mitglied der Mathematisch-naturwissenschaftlichen Klasse
Seniorprofessorin für Angewandte Mikrobiologie an der Technischen Universität Dresden, Fachrichtung Biologie, Institut für Mikrobiologie; am 12. Januar 1996 zum Ordentlichen Mitglied der Mathematisch-naturwissenschaftlichen Klasse gewählt; Projektleiterin des Vorhabens „Die biotische Struktur von Stauseen”.
Hauptarbeitsgebiete: Mikrobiologie der Gewässer sowie biologische und mikrobiologische Prozesse bei der Trinkwasseraufbereitung und Abwasserbehandlung.
Nährstoffe - Bakterien Wasserqualität in Trinkwassertalsperren – wesentliche Einflussfaktoren
In Sachsen werden etwa 40% des Trinkwassers aus Talsperren gewonnen. Für die Bereitstellung von hygienisch einwandfreiem Trinkwasser ist die Wasserqualität der Trinkwassertalsperren deshalb von entscheidender Bedeutung. Der Gehalt an Phytoplankton und dessen Zusammensetzung ist das wichtigste integrierende Kennzeichen der Wasserqualität von Standgewässern und steht daher auch bei der Beurteilung des ökologischen Zustandes von Trinkwassertalsperren an erster Stelle. Trotz des starken und anhaltenden Rückganges der Phosphorimporte in die Talsperre Saidenbach kam es nicht zu einem Rückgang der Phytoplanktonkonzentration im Wasser. Die Untersuchungen zeigten, dass sich die Artenzusammensetzung des Phytoplanktons änderte. Es entwickelten sich in den letzten Jahren verstärkt Cyanobakterien. Die Cyanobakterien sind aber für die Trinkwasseraufbereitung problematisch, denn sie bilden Geruchsstoffe und Toxine. Die Untersuchungen haben ergeben, dass Toxine bildende Cyanobakterien bereits in der Talsperre Saidenbach vorkommen. Bei diesen kleinen kokkalen Cyanobakterien versagen mikroskopische Methoden, deshalb wurden molekularbiologische Untersuchungsverfahren eingesetzt. Die Entflechtung der komplexen Steuermechanismen, die Aufdeckung dieser Zusammenhänge und die Erkenntnis über den wesentlichen Einfluss klimatisch gesteuerter Einflussgrößen wären ohne lange Datensätze nicht möglich gewesen. Dies belegt die Notwendigkeit der Langzeitforschung zur Aufklärung der Folgen globaler Veränderungen.
Vortrag am 11.10.2013
Hans-Jörg Mögel (Freiberg), Mitglied der Mathematisch-naturwissenschaftlichen Klasse
Dr. rer. nat. habil., Professor für Physikalische Chemie an der TU Bergakademie Freiberg; am 13. Februar 2004 zum Ordentlichen Mitglied der Mathematisch-naturwissenschaftlichen Klasse gewählt.
Arbeitsgebiete: Theoretische Physikalische Chemie; Theorie und Computersimulation kolloidaler Systeme und von Phänomenen an Phasengrenzen; Kapillarkondensation; Rheologie komplexer Fluide und Gele.
Computersimulationen der Selbstassoziation von amphiphilen Molekülen und Nanopartikeln mit Coarse-grained-Modellen
Amphiphile Moleküle, die sowohl polare als auch unpolare Anteile enthalten, führen im Prozess der Selbstassoziation in wässrigen Lösungen zur Bildung komplexer Fluide mit einer großen Variabilität von Überstrukturen, wie z.B. Micellen von unterschiedlicher Grösse, Form und Struktur, lyotrope Flüssigkristalle, Bischichten, Vesikel, Bicellen, Fasern und Netzwerke. Sie werden traditionell als Tenside, Reinigungsmittel, Oberflächenbeschichtungen, Schaumstabilisatoren, Emulgatoren usw. verwendet. Im Zusammenhang mit nanotechnologischen und biotechnologischen Entwicklungen werden sie zunehmend auch in Bereichen wie Materialdesign, Sensortechnik, Pharmazie und Medizin eingesetzt. Lipiddoppelschichten und Liposome dienen zudem als Modelle für biologische Membranen in wissenschaftlichen Untersuchungen.
Neben approximativen theoretischen Ansätzen werden seit etwa 2 Jahrzehnten verschiedene Computersimulationstechniken benutzt, um auf der Grundlage detaillierter molekularer Eigenschaften die Phaseneigenschaften, die Gleichgewichtstrukturen der Assoziate und die Kinetik ihrer Gleichgewichtseinstellung vorauszusagen und generelle Kenntnisse über derartige Zusammenhänge zu gewinnen. Die hydrophobe Wechselwirkung als Triebkraft der Selbstassoziation ist eine indirekte entropisch bedingte Wechselwirkung. Durch die energetisch vorteilhafte Umstrukturierung des flüssigen Wassers in der Umgebung unpolarer Molekülteile entsteht ein entropisch benachteiligter Bereich. Durch Überlappung dieser Bereiche um verschiedene Moleküle wird der Entropienachteil verringert, was sich in einer attraktiven Wechselwirkung manifestiert. Da dieser Effekt im Größenbereich von einigen Angström verursacht wird, seine Wirkung auf die Selbstassoziation aber bis zu mehreren hundert Nanometern und sogar Mikrometern reichen kann, stellt eine geeignete Modellbildung für die Theorie und die Computersimulation eine besondere Herausforderung dar. Im Modell müssen sowohl die über mehrere Größenordnungen reichenden charakteristischen Längen- und Zeitskalen als auch die aus Rechengeschwindigkeit und Speicherkapazität resultierenden technischen Einschränkungen berücksichtigt werden. Das wird vor allem mit Coarse-grained-Modellen erreicht, die auf die Simulation der detaillierten Wasserstruktur und atomarer Moleküldetails verzichten. An deren Stelle werden hydrophile und hydrophobe Molekülsegmenten eingeführt, in denen jeweils mehrere Atome oder funktionelle Gruppen zusammengefasst sind. Es ist sogar möglich, die Wirkung des Lösungsmittels nur implizit zu behandeln, indem geeignete effektive Wechselwirkungsschemata angewandt werden. Auf einem solchen Vereinfachungsniveau lässt sich mit ähnlichen Modellen auch die Assoziation von amphiphilen Nanopartikeln, von Blockcopolymeren, von Mischungen aus Stäbchen und kleinen Kugeln auf der Basis von Depletionswechselwirkungen sowie die Gelbildung in nichtwässrigen Lösungsmitteln beschreiben.
An Beispielen der Computersimulation der Bildung von helikalen Fasern aus achiralen Molekülen, der Auflösung von Liposomen durch Gallensalze und der sich selbst begrenzenden Assoziation zu Nanopartikelaggregaten wird gezeigt, wie durch die Kombination weniger einfacher Struktur- und Energievorgaben eine große Vielfalt komplexer Phasen entstehen kann.
Vortrag am 11.10.2013
Eli Franco (Leipzig), Mitglied der Philologisch-historischen Klasse
Dr. phil. habil., Professor für Indologie am Institut für Indologie und Zentralasienwissenschaften der Universität Leipzig; am 10. Februar 2012 zum Ordentlichen Mitglied der Philologisch-historische Klasse gewählt.
Hauptarbeitsgebiete: Indische Philosophie und Buddhismuskune.
Das Philosophiekurrikulum an buddhistischen Klosteruniversitäten im indischen Mittelalter: Zwei neue Handschriften aus Tibet
Dank einer Übereinkunft zwischen dem Institut für Indologie und Zentralasienwissenschaften der Universität Leipzig und dem China Tibetology Research Center (CTRC), Beijing, erhielt das Leipziger Institut Zugang zu einigen einzigartigen buddhistischen Handschriften, von denen Kopien am CTRC aufbewahrt sind. Zwei dieser Handschriften, die zurzeit im Rahmen eines DFG-Projekts bearbeitet werden, enthalten ein umfangreiches in Sanskrit verfasstes Werk namens Vādasthānāni („Strittige Punkte“) des bekannten buddhistischen Philosophen und Tantrikers Jitāri (ca. 940–980). Das Werk hat als modulares Handbuch für buddhistische Mönche gedient, die sich eine Schulung in zentralen Fragestellungen der Philosophie wünschten. Es behandelt demzufolge philosophische Themen, über die buddhistische, brahmanische und jinistische Philosophen seit den Anfängen der indischen Philosophiegeschichte intensiv debattierten, z.B. die Frage nach der Existenz einer Seele, von Universalien und eines Schöpfergottes, die Glaubwürdigkeit von „heiligen“ Schriften und die Frage nach der Dauer existierender Dinge. Darüber hinaus hat Jitāri auch zentrale Themen in „rein“ philosophischen Gebieten wie Sprachphilosophie, Erkenntnistheorie und Logik behandelt und sich mit der Kausalitätslehre beschäftigt. Jitāri war kein ausgesprochen origineller oder innovativer Philosoph. Sein Werk erlaubt uns aber gerade deswegen einen guten Einblick in den aktuellen Stand der Diskussion zu seiner Zeit und verdeutlicht darüber hinaus in das hohe Niveau der damaligen monastischen philosophischen Ausbildung. Dies macht sein Werk besonders interessant.
Vortrag am 14.6.2013
Armin Kohnle (Leipzig), Mitglied der Philologisch-historischen Klasse
Dr. phil., Professor für Spätmittelalter, Reformation und Territoriale Kirchengeschichte an der Theologischen Fakultät der Universität Leipzig; am 10. Februar 2012 zum Ordentlichen Mitglied gewählt.
Projektleiter des aus Drittmitteln finanzierten Projekts einer kritischen Edition der Werke Thomas Müntzers.
Forschungsgebiete: Allgemeine Reformationsgeschichte und Lutherforschung, Territorialkirchengeschichte Mitteldeutschlands und Südwestdeutschlands.
Kaiser Friedrich? Friedrich der Weise, die Königswahl des Jahres 1519 und ein Epigramm Martin Luthers
Kurfürst Friedrich III. von Sachsen, genannt der Weise, wäre am 17. Januar 2013 550 Jahre alt geworden. Aus diesem Anlaß behandelt der Vortrag die Rolle des Kurfürsten bei der Kaiserwahl im Juni 1519. Im Mittelpunkt steht die Frage, ob zunächst Friedrich selbst zum römischen König und künftigen Kaiser gewählt wurde, dieses Amt aber ablehnte oder niederlegte, so daß der Weg für den Habsburger Karl V. frei wurde. Gab es also, wenngleich nur für wenige Stunden, einen wettinischen König Friedrich?
Die These vom Königtum Friedrichs des Weisen wurde am nachdrücklichsten von Paul Kalkoff („Die Kaiserwahl Friedrichs IV. und Karls V., Weimar 1925“) vertreten. Friedrich sei im Juni 1519 in Frankfurt am Main von den Kurfürsten einstimmig zum römischen König und künftigen Kaiser gewählt worden, doch habe er diese Wahl nach einigem Zögern abgelehnt. Dieser von Kalkoff als „Abdankung“ gewertete Rückzieher des Sachsen sei entgegen der offiziellen Begründung – Friedrich sei zu alt und nicht mächtig genug für das Kaisertum – tatsächlich auf massiven habsburgischen Druck hin erfolgt. Kurfürst Friedrich sei demzufolge als gewählter römischer König bzw. Kaiser anzusehen, entsprechend als Friedrich IV. in die Reihe der deutschen Herrscher einzufügen.
Kalkoffs These hat in der historischen Forschung keine Zustimmung gefunden, ohne daß eine angemessene Auseinandersetzung mit seinen Argumenten jemals stattgefunden hätte. Dringt man durch den Firniß nationalprotestantischer Voreingenommenheit und gewagter Konstruktion zur Quellenbasis der Kalkoff-These vor, ergibt sich jedoch mit hinreichender Gewißheit, daß Friedrich der Weise am 27. Juni 1519 tatsächlich zum römischen König gewählt wurde. Nicht miteinander in Einklang zu bringen sind die Quellen bezüglich der Frage, ob er diese Wahl sogleich abgelehnt oder zunächst angenommen und diese Entscheidung erst nach einer gewissen Zeit und womöglich auf äußeren Druck hin revidiert hat.
Die Frage des Königtums Friedrichs ist für das Bild des „weisen“ Kurfürsten, wie es im Luthertum später gepflegt und propagandistisch verbreitet wurde, von erheblicher Bedeutung. Im zweiten Teil des Vortrags wird der Stellenwert der Kaiserwahl Friedrichs für die kursächsische Propaganda an ausgewählten schriftlichen und bildlichen Zeugnissen diskutiert. Ein besonderes Augenmerk gilt dabei der Rolle Martin Luthers, insbesondere seinem in vielen Varianten umlaufenden Epigramm für ein Portrait Friedrichs des Weisen aus dem Jahr 1525.
Vortrag am 14.6.2013
Christis Aneziris (Freiberg), Mitglied der Technikwissenschaftlichen Klasse
Dr.-Ing. habil., Professor für Keramik an der Technischen Universität Bergakademie Freiberg; am 13. Februar 2009 zum Ordentlichen Mitglied gewählt.
Forschungsgebiete: Entwicklung von thermoschock- und korrosionsbeständigen keramischen Werkstoffen für Hochtemperaturanwendungen in Metallurgie, Zement-, Kalk-, Glasindustrie und Energietechnik, Makro- und Mikroprozessoptimierung von offenporösen Keramiken für Hochtemperaturanwendungen, Mikrostrukturelle Modifizierung von ionenleitenden Keramiken für Sensoranwendungen, Alkalikorrosionsbeständige Wärmedämmstoffe, Metall-Matrix-Komposit-Keramiken für Hochtemperatur- und Verschleißanwendungen, Gießformgebung von fein- und grobkörnigen keramischen Werkstoffen (Druckschlickergusstechnologie), Optimierung und Weiterentwicklung von keramischen Formgebungstechnologien (Pressen, Strangpressen und Gießen).
Multifunktionale Filter für die Metallschmelzefiltration – ein Beitrag zu „Zero Defect Materials“
Die Forderung nach erhöhter Metallqualität und geringeren Ausschussraten seitens der Anwender und Weiterverarbeiter machen eine gleichmäßigere Einstellung der chemischen Zusammensetzung und eine verstärkte Kontrolle des Reinheitsgrades erforderlich. Dieses Ziel soll mittels einer erheblichen Reduzierung von anorganischen nichtmetallischen Einschlüssen in der Metallmatrix beim Einsatz intelligenter Filterwerkstoffe bzw. Filtersysteme erreicht werden. Mit einer funktionalisierten Filteroberfläche auf Basis aktiver, keramischer Beschichtungen (mit ähnlicher Chemie wie die der Einschlüsse) und in Kombination mit maßgeschneiderten Druckverhältnissen in den porösen Funktionshohlräumen soll die Abscheidung der Einschlüsse an der Filteroberfläche des Filters erheblich verbessert werden.
Einen weiteren Beitrag leisten reaktive Filteroberflächen, die mit den in den Schmelzen gelösten Gasen reagieren und damit auch Gasverunreinigungen und Einschlüsse, die unterhalb der Liquidus-Temperatur der Metallschmelzen generiert werden, deutlich reduzieren. Die Erforschung neuartiger Filterwerkstoffe sowie ein an die Filtrationstechnik angelehntes modellunterstütztes Filterdesign der Mikro- und Makrostruktur ermöglichen die Herstellung von dünn- als auch dickwandigen, höchstbeanspruchbaren Komponenten auf Basis Stahl, Eisen, Aluminium und Magnesium mit bahnbrechenden Eigenschaften – Festigkeit, Zähigkeit, Ermüdungsresistenz – für die Sicherheit der Insassen von Kraft-, Schienen- und Luftfahrzeugen. Darüber hinaus werden zukunftsträchtige Anwendungsfelder in der Elektronikindustrie am Beispiel Filtration von Kupfer und Silizium, in der Verpackungsindustrie am Beispiel Aluminiumfolien und in der Filtrationstechnik und Konditionierung von Behandlungsschlacken erschlossen.
Vortrag am 3.5.2013
Thomas Geßner (Chemnitz), Mitglied der Technikwissenschaftlichen Klasse
Dr.-Ing. habil., Dr. rer. nat., Professor für Mikrotechnologie an der Technischen Universität Chemnitz, Direktor des Zentrums für Mikrotechnologien der TU Chemnitz und Leiter des Fraunhofer-Instituts für Elektronische Nanosysteme ENAS Chemnitz; am 12. Januar 1996 zum Ordentlichen Mitglied gewählt.
Forschungsschwerpunkte: Smart Systems Integration unter Nutzung von Mikro- und Nanotechnologien, Back-end of Line der Mikro-/Nanoelektronik, Mikro- und Nanosysteme.
Intelligente integrierte Systeme – Beispiele, Anwendungen und Herausforderungen
In unserem Alltag haben in vielen Anwendungen und Geräten intelligente Funktionen, die auf Mikrosystemtechnik basieren, Einzug gehalten. Handies enthalten beispielsweise Kameras, Spielkonsolen oder persönliche digitale Assistenten. Autos werden intelligenter über Selbstkontrollfunktionen und adaptive Sicherheitssysteme. Minimal-invasive Therapien sind ohne Mikrosysteme und deren sensorische Funktion, Signalverarbeitung und Aktoren nicht mehr vorstellbar.
Smart Systems, sogenannte intelligente Systeme, gehen weit über einzelne physikalische, biologische oder chemische Parametermessungen kombiniert mit Signalverarbeitung und Aktorfunktion hinaus. Smart Systems sind mehr oder weniger autonome, miniaturisierte Systeme, die sensorische, aktuatorische, analytische, kommunikative und Steuerfunktionen enthalten. In diesem Sinn sind sie vorhersagend und haben die Möglichkeit zu entscheiden, bei der Entscheidungsfindung zu helfen sowie mit der Umwelt zu interagieren. Smart Systems werden daher in immer größeren Stückzahlen und unterschiedlichsten Anwendungsbereichen eingesetzt.
In Abhängigkeit von ihrem Aufbau und ihrer Funktionalität werden Smart Systems derzeit in drei Generationen eingeteilt. Systeme der ersten Generation beinhalten einzelne Sensoren, Aktoren und eine Einheit zur Signalverarbeitung. Marktrelevante Produkte sind z.B. Choclea-Implantate zur Stimulation des Hörnervs, Airbag- und elektronische Stabilisierungssysteme im Auto oder auch die Inkjetdruckköpfe.
Die zweite Generation ist durch multifunktionale Sensoren und Aktoren gekennzeichnet. Aus der einfachen Signalverarbeitung werden vorhersehende und reagierende Systeme, die darüber hinaus kommunizieren und teilweise mit Selbsttestfunktion ausgestattet sind. Beispiele für derartige Systeme sind Fahrerüberwachungssysteme, intelligente Implantate, Lab-on-a-Chip Systeme oder auch das seitens Fraunhofer ENAS gemeinsam mit dem Fraunhofer IZM, der TU Chemnitz, Industriepartnern und dem Anwender enviaM entwickelte autonome Sensornetzwerk zur Überwachung der Auslastung von Hochspannungsleitungen.
Die dritte Generation ist weltweit in der Entwicklung. Sie wird auch als cyberphysikalische Systeme bezeichnet. Diese Generation wird die Grundlage für das Smart Home, Smart City, Smart Production und das Internet der Dinge sein. Mit dem Slogan „Smart is the new green“ zeigen Frost und Sullivan die Bedeutung der Smart Systems für die gesamte Menschheit. Fachübergreifende Herangehensweisen, die zu Systemen für komplexe Lösungen führen und verteilte sowie in zunehmenden Maße selbst-organisierende Ressourcen nutzen, gehören derzeit zu den anspruchvollsten Herausforderungen.
Vortrag am 3.5.2013
Heinz Penzlin (Jena), Mitglied der Mathematisch-naturwissenschaftlichen Klasse
Dr. rer. nat. habil., Dr. h.c., Professor i.R. für Allgemeine Zoologie und Tierphysiologie an der Friedrich-Schiller-Universität in Jena; am 9. Oktober 1981 zum Ordentlichen Mitglied gewählt.
Forschungsgebiete: Neurobiologie und Endokrinologie der Evertebraten, Neuropeptide, Entwicklungsbiologie, theoretische und philosophische Grundlagen der Biologie, Geschichte der Biologie.
Was ist Leben?
Es gibt keinen Gegenstand „Leben“, den man zum Objekt seiner Untersuchungen machen könnte. Die Biologie ist deshalb auch nicht, wie oft in direkter Übersetzung des Namens behauptet wird, die Wissenschaft vom „Leben“, sondern die Wissenschaft von den lebendigen Wesenheiten, die wir kurz als Lebe-Wesen oder Organismen bezeichnen, weil sie in ihrer Dynamik organisiert sind.
Diese lebendigen Entitäten zeichnen sich einerseits durch eine erhebliche Diversität ihrer äußeren Erscheinungsformen und andererseits durch eine überraschend einheitliche innere Dynamik aus. Letztere zu analysieren und zu systematisieren ist Gegenstand der Theoretischen Biologie und auch Thema des nachfolgenden Vortrages [ 1].
„Leben“ ist Systemleistung. Keine Komponente des Systems allein ist bereits lebendig, weder die Eiweiße noch die Nukleinsäuren oder irgendein anderer Stoff. Die kleinste lebendige Einheit, ein sog. Elementarorganismus, ist die Zelle. Nur sie kann sich selbsttätig über die Zeit am Leben erhalten.
Die lebendigen Systeme sind bei den Temperaturen ihrer Existenz labil. Sie erhalten sich in einem Zustand ständigen Zerfalls und Wiederaufbaus (Fließgleichgewicht, W. OSTWALD). Sie stellen, physikalisch gesehen, „offene“ Systeme dar, da sie in ständigem Stoff- und Energieaustausch mit ihrer Umgebung stehen, und verkörpern einen stationären Zustand fernab vom thermo-dynamischen Gleichgewicht. In diesem Bereich bestehen infolge zahlreicher Rückkopplungsschleifen (Autokatalyse) keine linearen Beziehungen mehr zwischen den korrespondierenden Flüssen und Kräften, was eine mathematische Behandlung außerordentlich schwierig gestaltet.
Das wesentlichste Kennzeichen aller lebendigen Systeme, ihre Daseinsweise schlechthin, besteht in ihrem Metabolismus, der nicht nur Stoff- und Energieumsatz bedeutet, sondern eine funktionelle, das heißt teleonome, ganzheitlich orientierte, harmonische Ordnung repräsentiert. Das „höchste“ Ziel der im Metabolismus zusammengefassten Prozesse und Leistungen besteht darin, den dynamischen Zustand selbsttätig (d.h. autonom) über die Zeit zu erhalten. Ihm sind alle anderen Funktionen untergeordnet. Das kann jedoch nur auf der Grundlage einer effektiven Abstimmung der vielen Einzelprozesse aufeinander geschehen, was wiederum einen intensiven und regelbaren Informationstransfer zwischen den einzelnen Komponenten des Gesamtsystems erfordert. Metabolismus und damit das Phänomen „Leben“ ist nicht auf „Kraft und Stoff“ (Ludwig BÜCHNER) reduzierbar, sondern umfasst die Trias von Kraft, Stoff und Information. Man bezeichnet eine solche funktionelle, teleonome, harmonische Ordnung, wie sie von den Organismen verkörpert wird, als Organisation. Da sie von den lebendigen Systemen selbsttätig aufrechterhalten wird, repräsentieren sie – und nur sie in der Natur! – den Tatbestand einer Selbstorganisation. Im Gegensatz zur Physik spielt der Begriff der Organisation in der Biologie seit ARISTOTELES‘ Zeiten eine zentrale Rolle.
Wenn es im Zusammenhang mit „dissipativen Strukturen“ trotzdem üblich geworden ist, von „Selbstorganisation“ zu sprechen, so ist das wenig hilfreich, weil in hohem Maße missverständlich. Die Bildung biologischer Strukturen erfolgt nicht unter dem Druck außen angelegter „Zwangsbedingungen“ (I. PRIGOGINE). Da ist so gut wie nichts dem Zufall überlassen. Die Entscheidungen sind vorgegeben, sie stellen keinen zufälligen „Symmetriebruch“ dar. Die Strukturen verdanken nahezu nichts der Einwirkung äußerer Kräfte, aber alles den inneren Gesetzen. Sie zeigen eine hochgradige Autonomie. Deshalb schloss Werner HEISENBERG mit Recht: „Es muß den physikalischen und chemischen Gesetzmäßigkeiten etwas hinzugefügt werden, bevor man die biologischen Erscheinungen vollständig verstehen kann“.
[1] Penzlin, H.: The riddle of “life”, a biologist’s critical view. Die Naturwissenschaften 96(2009), 1–23; Die Biologie als autonome Wissenschaft. Naturwissenschaftliche Rundschau 59(2006), 472–479; Was heißt „lebendig“? Biologie in unserer Zeit 42(2012), 56–63
Festvortrag zur Öffentlichen Frühjahrssitzung am 12.4.2013
Elmar Peschke (Halle), Mitglied der Mathematisch-naturwissenschaftlichen Klasse
Dr. med., em. Professor für Anatomie an der Martin-Luther-Universität Halle-Wittenberg; am 12. Januar 1996 zum Ordentlichen Mitglied gewählt.
Die Augenentwicklung – ein Geniestreich der Natur
Augen sind die faszinierendsten Strukturen am Körper eines Lebewesens. Ein Drittel des menschlichen Gehirns und 60% der Hirnrinde sollen am Sehen beteiligt sein. Bis zu 80% der Außenwelt-Informationen sollen über das visuelle System erfolgen.
Der Vortrag verfolgt die Entwicklung der Augen vom Einzeller, dem Augentierchen Euglena viridis, bis zur höchsten Entwicklungsstufe, dem inversen Linsenauge bei Wirbeltieren. Erste Augen treten vor 505 Mio. Jahren auf, seit 440 Mio. Jahren soll es bereits alle heute bekannten Augenformen geben. Die Augenentwicklung erfolgte über diesen Zeitraum nicht kontinuierlich, im Verlauf der Evolution kam es zu Entwicklungsbrüchen mit dem Ergebnis, dass die Augen bis zu 40 Mal neu entwickelt wurden.
Weiterhin beschäftigt sich der Vortrag mit Besonderheiten, wie dem eversen „Dritten Auge", der Epiphysis cerebri, die bei Amphibien und Reptilien Lichtsinnesorgan, bei Säugern als endokrine Drüse mit Bildung und Freisetzung von Melatonin fungiert. In diesem Zusammenhang werden Fragen der Chronobiologie, wie Rhythmusgenerierung und Synchronisation (Melanopsin), sowie deren funktionell-physiologische Bedeutung für den Organismus angesprochen.
Auf die „Retina als endokrine Drüse", in der neben Melatonin zahlreiche andere Hormone, wie Melanopsin, Insulin, Glukagon, Wachstumshormon, Oxytocin, Vasopressin u.a., gebildet werden, die vornehmlich autokrine und parakrine Funktionen erfüllen, wird nur kurz eingegangen, da derzeit noch nicht ausreichend belastbare Ergebnisse vorliegen.
Der Vortrag beschäftigt sich ferner mit speziellen Entwicklungen der Augen im Tierreich während der Phylogenese, die von ganz erstaunlichen Anpassungsvorgängen gekennzeichnet sind. Dazu gehören evolutionsbiologische Veränderungen der Sehnervenkreuzung, Duplizitätstheorie der Sehzellen, Tapetum lucidum, Pecten und Conus papillaris, Linsenformen bei wasserlebenden Tieren unter Berücksichtigung vom Vieraugenfisch (Anableps tetrophthalmus) und Blenniiden (Dialommus spec.), Pupillenformen sowie Schutzmechanismen. Schließlich wird den Möglichkeiten und Spielformen der Akkommodation im Tierreich besondere Aufmerksamkeit geschenkt.
Der Vortrag schließt mit einem Bekenntnis von CHARLES DARWIN, der in seinem epochalen Werk „Origin of Species" 1859 feststellt, dass „die Augen so vielfältig auf ihre Anforderungen eingestellt sind, dass man an ihnen (ihrer wissenschaftlichen Durchdringung) verzweifeln könne".
Vortrag am 8.3.2013
Jörg Kärger (Leipzig), Mitglied der Mathematisch-naturwissenschaftlichen Klasse
Dr. rer. nat. habil., Professor i.R. für Experimentalphysik an der Universität Leipzig; am 10. März 2000 zum Ordentlichen Mitglied gewählt.
Forschungsgebiete: Grenzflächenphysik, Molekularer Stofftransport, Dynamik komplexer Systeme, Physikalische Chemie poröser Materialien, Kernmagnetische Resonanz.
Stofftransport in Nanoporen: Paradigmenwechsel durch neue Experimente
Angeregt durch ihre thermische Energie, unterliegen die Atome und Moleküle in allen Aggregatzuständen einer Zufallsbewegung. Dieser als Diffu-sion bezeichnete Prozess ist ein allgegenwärtiges Phänomen in Natur und Technik, dem – im übertragenen Sinne – auch völlig andere Objekte unterworfen sind, so dass ihr Verhalten ähnlichen Gesetzmäßigkeiten folgt. Das Spektrum der auf diese Weise betrachteten Erscheinungen reicht von der Bewegung der Börsenkurse über Ausbreitung von Krankheiten und Veränderungen der Lebensräume von Pflanzen und Tieren bis hin zur Entwicklung der Fähigkeiten und Fertigkeiten unserer Vorfahren.
Die Technologierelevanz von Diffusionserscheinungen wird bei der Stoffveredelung durch Trennung und Katalyse von Gastmolekülen in nanoporösen Materialien (also in Stoffen, deren Porendurchmesser in der Größenordnung der Moleküldurchmesser liegen) in besonderer Weise augenfällig, da der Ertrag an veredelten Stoffen nie größer sein kann, als es die Geschwindigkeit des Stofftransportes in diesen Materialien zulässt. Die mikroskopischen Ausmaße der hierbei zum Einsatz kommenden Kristalle führte allerdings dazu, dass über Jahrzehnte hinweg der Stofftransport in ihrem Inneren in der Regel nur indirekt untersucht werden konnte, so zum Beispiel über eine „makroskopische“ Beobachtung der Massenzunahme bei Druckerhöhung in der umgebenden Gasphase unter Einbeziehungen von Modellannahmen zum Mechanismus des Stofftransportes.
Beim Betreten wissenschaftlichen Neulands ist eine solche Vorgehensweise nicht ungewöhnlich. Ein Paradebeispiel hierfür sind gerade die Atome und Moleküle, deren Existenz längst auf der Grundlage „indirekter“ (makroskopischer) Experimente vorhergesagt worden war, bevor ihr direkter Nachweis glückte. Bei der Moleküldiffusion in nanoporösen Materialien führte allerdings die Einführung mikroskopischer Messtechniken zu großen Überraschungen [1]. Im Vortrag werden einige dieser Ergebnisse dargestellt, die zunächst mit dem Einsatz einer speziellen Methode der kernmagnetischen Resonanz (und damit in einer der Domänen Leipziger Forschung) erzielt wurden und die in den letzten Jahren, gestützt auf den Einsatzes neuer mikroskopischer Bildgebungsverfahren und die damit geschaffenen Möglichkeit der direkten Aufnahme transienter Konzentrationsprofile der Gastmoleküle im Inneren der nanoporösen Kristalliten, zu einem Paradigmenwechsel in unserem Verständnis vom Stofftransport in diesen Materialien führten.
[1] J. Kärger, D.M. Ruthven, D.N. Theodorou, Diffusion in Nanoporous Materials, Wiley - VCH, Weinheim, 2012.
Vortrag am 8.3.2013
Hans Ulrich Schmid (Leipzig), Mitglied der Philologisch-historischen Klasse
Dr. phil., Professor für Geschichte der deutschen Sprache und für Historische Sprachwissenschaft an der Universität Leipzig; gewählt am 11. Februar 2005, stellv. Sekretar der Philologisch-historischen Klasse, Projektleiter des „Althochdeutschen Wörterbuchs“, Vorsitzender der Projektbegleitenden Kommission der „Deutschen Inschriften des Mittelalters und der Frühen Neuzeit“.
Forschungsgebiete: Historische Laut- und Wortgeographie, Epigraphik des Spätmittelalters und der Frühen Neuzeit, Lexikographie des rezenten Bairischen und des Neuisländischen, Wortbildung des Althochdeutschen und des Bairischen.
Aus Gnaden mit dem Schwertgericht. Zum Sprachgebrauch des Nürnberger Scharfrichters Franz Schmidt (1573 bis 1617)
Die historische Sprachwissenschaft steht vor einem altbekannten materiellen Dilemma: Je weiter man in der Zeit zurück geht, desto dünner wird die verfügbare Quellenlage. Noch um 1600 kommen längst nicht alle Bevölkerungsschichten gleichermaßen schriftlich zu Wort. Davon, wie die Menschen der Frühen Neuzeit gesprochen haben, hat die sprachhistorische Forschung nur lückenhafte Vorstellungen. Denn Bildung, und das heißt Zugang zur Schriftlichkeit, ist immer noch weitgehend ein Privileg der Geistlichkeit, des Adels und des gehobenen Bürgertums. Umso bemerkenswerter ist es, wenn ausnahmsweise ein Vertreter einer am untersten Rande stehenden Bevölkerungsschicht, nämlich ein Scharfrichter (in diesem Fall aus Nürnberg), in einer Art von privatem „Logbuch“ über seine Amtsausübung Rechenschaft gibt. Franz Schmidt, so der Name des Henkers, notiert, was die Delinquenten verbrochen haben, welche Strafen warum gegen sie verhängt worden sind, und wie die Exekution verlaufen ist. Mehrfach erfährt man deshalb auch, wie sich die Verurteilten in ihren letzten Momenten verhalten haben.
In dem Text – und das macht ihn tatsächlich zu einer exzeptionellen sprachhistorischen Quelle – erscheint eine Fülle bislang unbekannter Wörter, einschließlich der Deck- und Spottnamen zahlreicher kleiner und einiger großer Krimineller der Zeit um 1600 in Nürnberg und Umgebung. Mehrfach werden Äußerungen von „Malefizpersonen“ sogar protokollartig wörtlich wiedergegeben. Solche Partien führen uns nahe an die tatsächlich gesprochene (nicht nur schriftlich strukturierte) Sprache um 1600 heran. Bemerkenswert ist zudem das Bemühen des Verfassers, sich juristisch adäquat auszudrücken, ein Bemühen, das freilich mehrmals an den doch eher begrenzten sprachlichen Möglichkeiten des Verfassers scheitert. Das Dokument ist bislang von der sprachhistorischen Forschung nicht zur Kenntnis genommen worden. In dem Referat werden erstmals ausgewählte lexikalische, syntaktische und verbunden damit soziolinguistische Aspekte dieses merkwürdigen Textes thematisiert.
Vortrag am 8.2.2013
Martin Mulsow (Erfurt), Mitglied der Philologisch-historischen Klasse
Dr. phil. habil., Professor für Wissenskulturen der europäischen Neuzeit an der Universität Erfurt und Direktor des Forschungszentrums für kultur-und sozialwissenschaftliche Studien Gotha; seit September 2012 Fellow des Wissenschaftskollegs in Berlin; gewählt am 10. Februar 2012.
Forschungsgebiete: Geistes- und Wissensgeschichte der Frühen Neuzeit, Renaissancephilosophie, Aufklärung, Clandestine Literatur, Hofkultur.
Wissen am Hof
Wie gingen Gelehrte und „politische“ Hofleute miteinander um? Wie gelangte der Wissenschaftler zum Fürsten? Wie verhielten sich Gelehrte untereinander, die gleichzeitig an einem Hof angestellt waren? Wann und wo trafen sie andere Gelehrte? Wenn die frühneuzeitliche Gesellschaft eine Anwesenheitsgesellschaft gewesen ist, dann gilt das für den Hof mindestens ebenso wie für die Stadt. Anwesend zu sein, bedeutet mit körperlicher Präsenz auf die Kopräsenz von anderen zu reagieren, mit Stimme, Miene und Gestik, in Kleidung und räumlicher Situiertheit zu handeln. Oder konnte man sich aus dem Weg gehen, wenn man innerhalb eines Gebäudekomplexes, oder zumindest im Umkreis weniger hundert Meter voneinander lebte? Es sind also sehr simple Fragen, die mich – am Beispiel des Sachsen-Gothaer Hofes um 1700 – beschäftigen: Wo und wann traf man sich? Wie sprach man dann miteinander? Was für Gelegenheiten gab es, informell miteinander zu kommunizieren? Welches waren die Orte und die Räume, in denen Treffen stattfanden und nicht vom Zeremoniell überdeckt wurden?
In jüngster Zeit wird in der Hofforschung nicht nur nach Festen und Zeremonien, nach Gattungen und Höflichkeitsformen gefragt, sondern auch nach „Informellen Strukturen bei Hof“. Informalität ist eine Art notwendiges Pendant zur Formalität: dort wo formelle Regelungen Einzug gehalten haben – und das ist sicherlich am frühneuzeitlichen Hof in starkem Maße der Fall – wächst auch der Bedarf nach Entlastung von diesen Regeln, nach Komplementierung, Umgehung und Ergänzung. Ist dabei informelle Anwesenheitskommunikation das Gegenteil von mediatisierter Kommunikation? Oder gibt es auch eine Medialität der informellen Kommunikation bei Hof? Ich möchte vorschlagen, von einer „schwachen Medialität“ in solchen Fällen zu sprechen, und als Medien dabei alles zu verstehen, was diese Kommunikation ermöglicht oder befördert. Es geht dann nicht um das Zeremoniell, sondern um das, was davor und danach – oder daneben – geschieht, und um die sehr viel weniger regulierten Rahmungen, in denen dieses Agieren „am Rande“ stattfand. Wie wir sehen werden, sind diese schwachen Medien ganz vielfältige und manchmal banale Dinge, vom Schnaps bis zum Kartenspiel, von der gemeinsamen Kutschenfahrt bis zu den Büchern, in denen man blättert.
Vortrag am 8.2.2013
Roland Kasper (Magdeburg), Mitglied der Technikwissenschaftlichen Klasse
Dr.-Ing., Professor für Mechanische Verfahrenstechnik an der Otto-von-Guericke-Universität Magdeburg, am 10. März 2006 zum Ordentlichen Mitglied gewählt.
Arbeitsgebiete: Systematischer Entwurf und Optimierung mechatronischer Systeme, Mechatronische Konzepte der Elektromobilität, Mechatronische Aktoren, Entwurf und Realisierung leistungsfähiger Informationsverarbeitungskomponenten für mechatronische Systeme.
Innovative elektrische Fahrantriebe – in Beitrag zur Elektromobilität
Die langsame jedoch stetige Transformation der Verkehrssysteme von der Ära der fossilen Kraftstoffe und damit verknüpfter konventioneller Antriebe in die Ära nachhaltiger und ressourcenschonender Energieträger und Antriebssysteme stellt alle Beteiligten aus Wissenschaft, Wirtschaft und Politik vor gewaltige Herausforderungen. Insbesondere die Automobilindustrie sieht sich mit großen Risiken konfrontiert, die aufgrund der großen wirtschaftlichen Bedeutung dieser Branche die gesamte Volkswirtschaft und damit jeden Einzelnen direkt betreffen. Auf der anderen Seite bietet eine Evolution dieses Ausmaßes auch riesige Chancen, wissenschaftliche und wirtschaftliche Positionen deutlich auszubauen und zu stärken.
Vor diesem Hintergrund hat die Otto-von-Guericke Universität mit starker Unterstützung des Landes Sachsen-Anhalt und unter Einbeziehung der regionalen Forschungseinrichtungen die Aktivitäten im Bereich Automotive/ Elektromobilität in einem übergeordneten Forschungsschwerpunkt gebündelt. Der Vortrag gibt in seinem ersten Teil einen kurzen Überblick über die Zielsetzung und die Struktur des Forschungsschwerpunkts Automotive sowie des Instituts für Kompetenz in Automobilität IAKM an der Otto-von-Guericke Universität in Magdeburg. Die Arbeitsschwerpunkte „Mobile Energiewandlung“, „Antriebsstrang“ und „Elektrofahrzeug“ werden anhand aktueller Arbeiten kurz vorgestellt.
Direkte und gravierende Auswirkungen hat die Elektromobilität auf den Fahrzeugantrieb. Im zweiten Teil des Vortrags werden die neuen Möglichkeiten innovativer elektrischer Fahrantriebe anhand von zwei Beispielen diskutiert. Radindividuelle Elektroantriebe bieten innerhalb von Millisekunden sehr gut regelbare und sehr große Drehmomente sowohl in positiver als auch in negativer Richtung. Dadurch gelingt im ersten Schritt eine sehr genaue Kontrolle des Reifenschlupfes sowohl beim Bremsen als auch beim Beschleunigen oder in Kurvenfahrten, was sich sehr positiv auf die Fahrsicherheit, den Verschleiß und den Energieverbrauch auswirkt. Heutige energetisch ineffiziente Systeme zur Traktionskontrolle entfallen. Das ABS wird nur noch im Falle einer Notbremsung mit der mechanischen Bremse benutzt. Im zweiten Schritt lässt sich darauf ein Fahrdynamikregelsystem aufbauen, welches durch Kontrolle der Reifenkräfte die Fahrstabilität und die Spurhaltung des Fahrzeugs in jeder Situation optimiert. Herkömmliche energetisch und dynamisch ineffiziente Systeme, wie z.B. das Elektronische Stabilitätsprogramm ESP, entfallen und werden in ihrer Funktion wesentlich verbessert und ergänzt.
Die hierzu erforderlichen Drehmomente können z.B. durch Radnabenmotoren, direkt vor Ort ohne Notwendigkeit eines Getriebes, bereitgestellt werden. Im zweiten Beispiel wird das Funktionsprinzip und ein Prototyp eines neuartigen extrem leichten und drehmomentstarken Radnabenmotors vorgestellt, der direkt für den Einbau in eine 15“ Felge eines PKW konzipiert ist. Durch die sehr kleine Masse von 20 kg bei einer Nennleistung von 40 KW bleiben Fahrsicherheit und Fahrkomfort auch bei höheren Geschwindigkeiten und unebener Fahrbahn erhalten.
Im Ausblick werden weitere interessante Anwendungsmöglichkeiten des neuen getriebelosen Maschinenprinzips im generatorischen Bereich der Energiewandlung gezeigt. Neben einem sehr kompakten und leichten Generator für einen Range Extender auf Basis eines Dieselmotors werden ein Generator für eine Gasturbine im Drehzahlbereich bis 100000 U/min sowie ein Generator für ein Flussstromkraftwerk mit 30 U/min angesprochen.
Vortrag am 11.1.2013
Jürgen Tomas (Magdeburg), Mitglied der Technikwissenschaftlichen Klasse
Dr.-Ing., Professor für Mechanische Verfahrenstechnik an der Otto-von-Guericke-Universität Magdeburg, am 10. März 2006 zum Ordentlichen Mitglied gewählt.
Arbeitsgebiete: Mechanische Verfahrenstechnik, Partikeltechnologie (Fällung, Zerkleinerung, Trennung), Aufbereitung und Recycling fester Abfälle.
Erzeugung und Funktionalisierung ultrafeiner Partikel durch Fällung
Das Ziel der Verfahrenstechnik besteht in der Ressourcen schonenden nachhaltigen, energetisch effizienten, ökologisch verträglichen, industriellen Stoffwandlung zum Zwecke der wirtschaftlichen Nutzung. Unter Stoffwandlung ist die physikalische, physiko-chemische und biochemischen Änderung der stofflichen Eigenschaften der Rohstoffe, Zwischen-, Neben- und Hauptprodukte zu verstehen. Die Mechanische Verfahrenstechnik als methodisch orientierte Ingenieurdisziplin konzentriert sich auf die physikalischen Stoffwandlungsprozesse der Feststoffverfahrenstechnik durch mechanische Einwirkung (Energieeintrag), also auf die sog. Partikeltechnologie. Dafür müssen die gewöhnlich partikelgrößenabhängigen, statistisch verteilten Stoffeigenschaften bzw. Eigenschaftsfunktionen beschrieben werden. Damit ist wiederum eine stochastische Prozessdynamik verknüpft. Produktmenge, Produktqualität (Reinheit) und Prozessgüte (z.B. Misch- oder Trenngüte) stehen folglich im Zentrum der Gestaltung, multiskaligen Modellierung, Simulation, Bewertung und Optimierung der Stoffwandlungsprozesse.
Nanoskalige bis ultrafeine Partikel (d < 0,1 bis 10 µm) können in wässrigen Suspensionen sowohl durch Fällungskristallisation als auch durch Nassmahlung hergestellt werden [1]. Zur Erzeugung von Partikelsuspensionen hat die Fällungskristallisation den Vorteil der schnellen Prozesskinetik, was sowohl die Erzeugung nahezu beliebig kleiner Partikelgrößen als auch relativ enger Produktverteilungen begünstigt.
Zur Gewährleistung dieser engen Partikelgrößenverteilungen müssen aufgrund der erzielten großen spezifischen Oberflächen und der damit verbundenen hohen Bindungsenergien (Oberflächenenergien) die entstehenden Partikelkollektive gegen die unerwünschte Aggregation bzw. Agglomeration („Klumpenbildung“) stabilisiert werden. Diese Vermeidung der Agglomeration stellt bei der Erzeugung nanoskaliger bis ultrafeiner Partikel und bei der Übertragung der Stoffwandlungsprozesse vom Labor in den Industriemaßstab eine wesentliche Herausforderung dar, die die Produkteigenschaften wesentlich bestimmt. Neben der Vermeidung der Agglomeration lassen sich die Partikeloberflächen in wässriger Umgebung durch Zugabe ausgewählter Additive und Beschichtungen modifizieren und funktionalisieren. Dies wird als Produktfunktionalisierung bezeichnet und dient der Steuerung der Produktqualität. Die physiko-chemischen Produkteigenschaften werden gezielt verändert (Produktgestaltung), um beispielsweise ihr Aufnahmeverhalten in biologischen Organismen (Bioverfügbarkeit) zu beeinflussen. So lassen sich für den Organismus inerte, d.h. biokompatible, nanoskalige Trägerpartikel (z.B. Poly-Butyl-cyanoacrylat, PBCA) gezielt gestalten, die in der Lage sind, ansonsten unlösliche Wirkstoffe an den Partikeloberflächen anzulagern und durch die sog. Blut-Hirn-Schranke zu kranken Zellen zu transportieren.
Im Vortrag werden die physikalischen Grundlagen und Mikroprozesse der industriellen Partikelerzeugung durch Fällungskristallisation im Rührreaktor einer Miniplant vorgestellt. An den Beispielen von nanoskaligen TiO2, SiO2 (Stöber-Partikel), BaSO4 (Schwerspat) und Fe3O4 (Magnetit) als typische Modellstoffe sowie biokompatibler PBCA-Nanopartikel wird der Einfluss ausgewählter Prozessparameter und der Additive zur Stabilisierung vorgestellt. Es werden Primärpartikel bis in den nanoskaligen Bereich von etwa d50 = 50 nm (Median der Verteilungsfunktion) gefällt. Außerdem wird ein integrierter Prozess als Kombination von Fällung und Desintegration gezeigt, der Gegenstand eines aktuellen Forschungsprojektes ist.
[1] Tomas, J., Erzeugung ultrafeiner Partikel durch Zerkleinerung, Vortrag SAW 2010
Vortrag am 11.1.2013
Joachim Thiery (Leipzig), Mitglied der Mathematisch-naturwissenschaftlichen Klasse
Dr. med., Professor für Klinische Chemie und Laboratoriumsmedizin am Universitätsklinikum Leipzig und Dekan der Medizinischen Fakultät der Universität Leipzig, am 11. Februar 2011 zum Ordentlichen Mitglied gewählt.
Faszination des Metaboloms – eine Option für die medizinische Diagnostik und Forschung in der Postgenomära
In der Postgenomära richten sich heute viele Forschungsanstrengungen auf die Steuerung und Funktionsaufklärung der Gene, auf epigenetische Regulationsmechanismen und besonders auf die Genprodukte. Von besonderer Bedeutung für den Erhalt der Gesundheit und die Pathogenese von Krankheiten sind dabei die Stoffwechselprodukte (Metabolite) der endogenen Protein-, Lipid- und Kohlenhydratsynthese. Die Gruppe der niedermolekularen Metabolite (»small molcules« <1500 Dalton) lassen sich unter dem Oberbegriff »Metabolom« zusammenfassen. Es existieren mehr als 10 000 Metabolite, die lange nur in Einzelbestimmungen für die Klinik und die pathophysiologische Forschung zugänglich waren. Bekanntestes Beispiel ist das Cholesterin, das über Jahrzehnte methodisch nur überaus aufwändig mit einer komplexen chemischen Reaktion bestimmt werden konnte, heute sind biochemische Cholesterinmessungen aus dem Blut mit Hilfe gekoppelter enzymatischer Tests mit Farbreaktion möglich. Sehr aufwendige Methoden mit Flüssigkeitschromatographie stehen für exogen aufgenommene Lipide wie Phytosterole und fettlösliche Vitamine (D, E, K, A) zur Verfügung, die jedoch auch in ihrer Validität und Robustheit limitiert sind. Ein technologischer Durchbruch ist die Entwicklung der Tandemmassenspektrometrie, die es heute erlaubt, auch systemmedizinische und systembiologische Analysen in Körperflüssigkeiten unter den Bedingungen der klinischen Diagnostik durchzuführen. Der hohe klinische Nutzen der Untersuchung von Metaboliten zur frühzeitigen Vermeidung von Erkrankungen lässt sich am Beispiel des Neugeborenenscreenings (NGS) demonstrieren. Durch die simultane Analytik von Aminosäuren und aktivierten Fettsäuren werden gleichzeitig zehn angeborene Stoffwechselerkrankungen anhand von charakteristischen Änderungen im Metabolitenprofil untersucht.