Klärwerk.info - Wegweiser

Übersicht

Willkommen bei klaerwerk.info. Produkte suchen können Sie ganz einfach, indem Sie das gesuchte Produkt wie z.B. Pumpen  in das Feld „Produktsuche“ eingeben und dann die Enter-Taste drücken. Übersichtlich werden alle gelisteten Lieferanten angezeigt, die das Produkt führen, alle Artikel in www.Klärwerk.info, die sich mit dem Produkt beschäftigen sowie alle Fortbildungsveranstaltungen mit diesem Thema.

Ansonsten finden Sie alle Artikel geordnet in Sachgebiete. Klaerwerk.info bietet eine umfassende Fülle von Informationen und Links, die man täglich braucht. Damit Sie wissen, wo Sie was finden, nachfolgend eine Übersicht über die einzelnen Sachgebiete:

A. Aktuelles

Hier finden Sie alle aktuellen Meldungen chronologisch geordnet. Suchen Sie frühere Meldungen, so sehen Sie in den Sachgebieten nach oder geben rechts oben einen Suchbegriff in das Suchen-Feld ein.

1)      Tägliche Meldungen

B. Forum

1)      Fragen und Antworten

Das Forum steht allen Nutzern zur Verfügung. Hier können Sie alle Beiträge lesen, selbst Beiträge erstellen oder auf Beiträge antworten

C. Fachwissen

Hier schreiben Praktiker für Praktiker. Haben Sie auch etwas Interessantes zu berichten, so schreiben Sie uns an Kontakt@Klaerwerk.info .

1)     Abwasserreinigung
2)      Energie- und E-Technik
3)      Kanal- und Entwässerung
4)      Maschinentechnik
5)      Labor
6)      Schlammbehandlung
7)      Gaserzeugung und BHKW
8)      Aus Bund Ländern und EU
         a) Vom Bund
         b) Aus der EU und aller Welt
         c) Aus den einzelnen Bundesländern (geordnet nach Bundesländer)
9)      Recht und Gesetze
         a) Beiträge zum Umweltgesetzbuch
         b) Beiträge zur Wasserrahmenrichtlinie (WWRL)
         c) Beiträge zum Erneuerbare Energien Gesetz (EEG)
10)    Neue Fachliteratur
         a) Neue Bücher
         b) CD/ DVD's
         c) Downloads
         d) Fachzeitschriften
         e) Lexika und Wörterbücher
11)  Tipps und Tricks

D. Berufliches

Der zweite Schwerpunkt von Klärwerk.info. Hier finden Sie alles für Arbeitnehmer und Vorgesetzte und was Sie persönlich angeht.

1)      Arbeitssicherheit
         a) Unfallverhütungsvorschriften- Regeln und Information
         b) Formulare und Erlaubnisscheine
         c) Gesetze und Verordnungen zur Arbeitssicherheit
         d) Umsetzung der Betriebssicherheitsverordnung
         e) Unterweisungshilfen
         f ) Hilfen zur Gefährdungsbeurteilung
         g) Ex-Schutz auf Kläranlagen
2)
      Tarif- und Arbeitsrecht
         a) Tarifrecht, Tarifvertrag, Gehaltsrechner und mehr
         b) Mitarbeitergespräche, Mitarbeiterbeurteilung
         c) Leistungsorientierte Bezahlung
         d) Tabelle TVöD (West)
         e) Arbeitszeugnisse
3)      Aus- und Weiterbildung
         a) Ansprechpartner
4)      Azubiseite
         a) Ausbildungshilfen für Ausbilder und "Azubis"
         b) Musterkläranlage
         c)  Prüfungsaufgaben
         d) Übungsaufgaben
         e) Informationen für Auszubildende
         f)  UT-Ausbildertreffen Fachkraft für Abwassertechnik
         g) Formeln, PSE und weitere Hilfen
5)      Meisterschüler
         a) Informationen für Meisterschüler
         b) Prüfungsaufgaben
6)        Offene Stellen

E. DWA-Infos

1)      Klärwerksnachbarschaften
         a) Kläranlagennachbarschaften in Bayern
         b) Kläranlagennachbarschaften in Sachsen-Anhalt, Brandenburg, Berlin und Mecklenburg-Vorpommern
         c) Kläranlagennachbarschaften in Hessen, Rheinland-Pfalz und dem Saarland
2)      DWA-Informationen
         a) DWA Arbeitsblätter
         b) KA-Betriebs-Infos
         c) Mitgliederrundbriefe aus den Landesverbänden
         d) Meldungen der DWA

F. Kläranlagen

1)      Links zu Kläranlagen und Abwasserverbänden
2)      Kläranlagen - Videos
3)      Meldungen von den Kläranlagen

G. Nützliches

1)      Wetter und Hochwasser
2)      Firmennachrichten
3)      Verbandsnachrichten        
4)      Nützliche Links
         a) Umweltschutzorganisationen
         b) Fachzeitschriften, Lexika und Wörterbücher
         c) Behörden
         d) Berufsverbände und Vereinigungen
         e) Fachinformationen
         f) Gesetze und Verordnungen
5)      Meldungen aus der Wissenschaft
6)      Meldungen aus aller Welt
7)      Allgemeine Meldungen und Berichte

H. Fortbildungsdatenbank

1)      Fortbildungen
2)      Fortbildungen in Österreich
3)      Fortbildungen in der Schweiz
4)      Messen und Tagungen

I. Produktsuche/ Lieferanten

J. Kontakt

1)      Impressum
2)      Über Uns
3)      Kontakt

22.01.2020 19:18

Klärwerk.info / Aktuelles / Tägliche Meldungen

Tägliche Meldungen

Alle Meldungen 2010
Alle Meldungen 2011 
Alle Meldungen 2012
Alle Meldungen 2013
Alle Meldungen 2014
Alle Meldungen 2015
Alle Meldungen 2016
Alle Meldungen 2017
Alle Meldungen 2018
Alle Meldungen 2019
   
Januar 2020
Umwelt
Gesundheit
Gesellschaft
Umwelt
22.01.2020
Sieben Millionen Euro für energieproduzierende Kläranlage 
21.01.2020
Wissenschaftler der TU Freiberg entwickeln Verfahren zur Entfernung von Mikroplastik aus Abwasser 
20.01.2020
Blaualgen im Wasser und an Land als Quelle für Methan identifiziert 
18.01.2020
Nature-Publikation: Aquakultur verknappt Phosphor und gefährdet Nahrungssicherheit 
17.01.2020
Klimafaktor Wolken - Feldkampagne „EUREC4A" gestartet, um Klimarätsel zu entschlüsseln 
15.01.2020
TU Graz-Forschende entschlüsseln Verhalten von Wassermolekülen 
13.01.2020
Grünere Frühlinge verursachen trockenere Sommer auf der Nordhalbkugel 
12.01.2020
Meeresspiegel-Anstieg oder Temperaturerhöhung: Klimaziel neu definiert 
10.01.2020
Die Wärmewende beginnt im Stadtteil - Konzepte für den urbanen Raum entwickelt 
07.01.2020
Dünger aus Klärschlamm 
06.01.2020
Klimafreundliche Energie aus Abwärme 
02.01.2020
Drehscheibe für Energie 
Gesundheit
16.01.2020
Asfotase alfa bei Hypophosphatasie im Kindes- und Jugendalter: Überlebensvorteil für Kleinkinder 
08.01.2020
Nervenschmerzen frühzeitig verhindern 
05.01.2020
Neue Wirkstoffe gegen multiresistente Keime 
03.01.2020
Artemisinin-Resistenz bei Malariaparasiten entschlüsselt 
Gesellschaft
19.01.2020
Wie das Gehirn Ereignisse vorhersagt 
14.01.2020
Der Partner-Pay-Gap ist weiter vorherrschend - Männer bleiben die Haupt-Brotverdiener in Doppelverdienerhaushalten 
11.01.2020
Immer gegen den Uhrzeigersinn 
09.01.2020 Nicht Ost-West macht den Unterschied, sondern oben und unten 
04.01.2020
Neues Jahr, mehr Gehalt? Wann sich der kritische Blick auf die Gehaltsabrechnung auszahlt, welche Informationen helfen 
01.01.2020
IAB-Arbeitsmarktbarometer: Arbeitsmarkt geht stabil ins nächste Jahr 

 


Sieben Millionen Euro für energieproduzierende Kläranlage

Christian Ernst Presse- und Öffentlichkeitsarbeit
Technische Universität Clausthal

Das Clausthaler Verbundprojekt BioBZ - 2018 ausgezeichnet mit dem Deutschen Nachhaltigkeitspreis - wird mit dem Vorhaben „Demo-BioBZ" fortgesetzt.

Energiewende in der Abwasserreinigung: Durch den Einsatz der bio-elektrochemischen Brennstoffzelle (BioBZ) kann aus dem Abwasser einer Kläranlage - normalerweise der größte kommunale Stromverbraucher - Energie gewonnen werden. Diesen innovativen Ansatz wird ein Forscherteam der TU Clausthal mit mehreren Partnern weiter optimieren und in Goslar in eine Demonstrationskläranlage, die für 250 Einwohner ausgelegt ist, umsetzen. Dafür stellt das Bundesministerium für Bildung und Forschung über den Projektträger Karlsruhe (PTKA) in den kommenden fünf Jahren 5,9 Millionen Euro bereit. Hinzu kommen Mittel aus Industrie und Wissenschaft. Das Kick-off-Meeting für das insgesamt 7 Millionen Euro umfassende Projekt - derzeit eines der größten Forschungsvorhaben der TU Clausthal - findet am 23. Januar statt.

Koordiniert wird das neue Verbundprojekt von Professor Michael Sievers vom CUTEC Clausthaler Umwelttechnik Forschungszentrum. „Eine technische Anlage, wie sie im Projekt Demo-BioBZ zur nachhaltigen Abwasserreinigung mit vollständiger Kohlenstoff- und Stickstoff-Elimination angestrebt wird, existiert bisher weltweit noch nicht", sagt Professor Sievers. Der Weg zu einem solchen Novum ist in drei Phasen eingeteilt: eine zweijährige (Weiter-)Entwicklungsphase, eine einjährige Planungs- und Bauphase der Kläranlage sowie eine zweijährige Betriebsphase mit Prozessoptimierung. Gemäß der neuen High-Tech-Strategie der Bundesregierung sollen gute Ideen schnell in die Praxis überführt werden, damit Deutschland seine Position als Wirtschafts- und Exportnation sowie Innovationsführer stärkt. Eine Umsetzung der bisher in BioBZ entwickelten Innovationen in die Abwasserpraxis würde dazu einen Beitrag leisten, betont Sievers. Zudem würde die Energiewende auf kommunaler Ebene praktiziert, da Abwasserbehandlungsanlagen mindestens energieneutral oder sogar energieproduzierend betrieben werden könnten.

Welches Prinzip steckt dahinter? Dank der bio-elektrochemischen Brennstoffzelle werden die organischen Schmutzstoffe bei deren Abbau direkt in Strom umgewandelt. Als zusätzlicher Effekt reduziert sich der Aufwand für die Belüftung erheblich, die ebenfalls dem Abbau von Schmutzstoffen dient. Außerdem fällt weniger Schlamm an, der ansonsten kostenintensiv entsorgt werden müsste. Innerhalb der Zellen fungieren Mikroorganismen als Biokatalysatoren, die während des Schadstoffabbaus elektrische Energie erzeugen.

Für eine vollständige Reinigung des Abwassers, die Einhaltung aller gesetzlichen Grenzwerte und eine wirtschaftliche Anwendung bedarf es allerdings weiterer Innovationen des BioBZ-Ausgangsansatzes. So werden beispielsweise das System, die Materialien und Komponenten sowie die Konstruktion weiterentwickelt, die Reinigungsleistung muss ausgebaut werden und ein Automatisierungskonzept bzw. Online-Steuerungsmechanismen gilt es zu entwickeln. „Ziel aller Neuerungen ist eine höhere Leistung bei geringerem Energieverbrauch", so der Projektkoordinator. Einige niedersächsische Kommunen haben bereits Interesse an der nachhaltigen Abwasserreinigung mit bio-elektrochemischer Brennstoffzelle bekundet.

Neben dem CUTEC-Forschungszentrum der TU Clausthal sind an dem ambitionierten Verbundprojekt sieben Partnereinrichtungen beteiligt: das Institut für Chemische und Elektrochemische Verfahrenstechnik der TU Clausthal mit Professor Ulrich Kunz, das Institut für Ökologische und Nachhaltige Chemie der TU Braunschweig mit Professor Uwe Schröder, das Engler-Bunte-Institut am Karlsruher Institut für Technologie mit Professor Harald Horn, die Eisenhuth GmbH & Co. KG (Osterode am Harz) um Geschäftsführer Dr. Thorsten Hickmann, die Common Link AG (Karlsruhe) mit Wolfgang Schläfer, die Eurawasser Betriebsführungsgesellschaft mbH (Goslar) mit Jörg Hinke sowie die Umwelttechnik und Anlagenbau GmbH Plauen mit Steffen Lässig und Ron Fischer.

Quelle: IDW 

(nach oben)


Wissenschaftler der TU Freiberg entwickeln Verfahren zur Entfernung von Mikroplastik aus Abwasser

Luisa Rischer Pressestelle
Technische Universität Bergakademie Freiberg

Gemeinsam mit Partnern aus der Industrie erarbeitet die TU Bergakademie Freiberg in den nächsten zwei Jahren eine innovative Lösung, um Industrieabwasser zu reinigen und umweltschädliches Mikroplastik zu entfernen. Das Verfahren soll später auch im kommunalen Bereich zur Anwendung kommen.

Die Verbreitung von Mikroplastik vor allem im Wasser wird immer größer. Als „Mikroplastik" werden Plastikpartikel mit einer Größe von wenigen Nanometern bis hin zu einigen Millimetern bezeichnet. In Kläranlagen können diese Kleinstpartikel bisher nur schwer abgebaut oder abgefiltert werden. Der Lösung dieses Problems widmen sich die Professuren für Strömungsmechanik und Strömungsmaschinen sowie für Thermische Verfahrenstechnik, Umwelt- und Naturstoffverfahrenstechnik an der TU Bergakademie Freiberg.

Sie forschen aktuell an einem komplett neuen Verfahren zur Abwasserreinigung. Dafür greifen die Wissenschaftler/innen auf die Wirkung von Wasserstoffperoxid zurück. Dieses wird zum Abwasser gegeben und setzt sich an die Mikroplastikteilchen und zerfällt zu Wasser und Sauerstoff. Der Sauerstoff bildet Gasblasen und steigt zusammen mit den Plastikpartikeln an die Wasseroberfläche. Dort können sie schließlich abgefischt werden.

Ein innovatives Nachweisverfahren soll es zudem ermöglichen, die zuzugebende Menge an Wasserstoffperoxid individuell auf die jeweilige Mikroplastikverunreinigung des Abwassers abzustimmen und so unnötigen Verbrauch zu verringern.

Das Projekt wird im Rahmen des Zentralen Innovationsprogramms Mittelstand (ZIM) gefördert. Unterstützt werden die Wissenschaftler/innen der TU Freiberg außerdem durch die innoscripta GmbH, München.

Wissenschaftliche Ansprechpartner:
Prof. Dr.-Ing. habil. Rüdiger Schwarze, Tel.: +49 (0)3731 39 2486

Quelle: IDW 

(nach oben)


Blaualgen im Wasser und an Land als Quelle für Methan identifiziert

Nadja Neumann PR und Wissenstransfer
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)

Cyanobakterien, umgangssprachlich auch Blaualgen genannt, gehören zu den häufigsten Organismen auf der Erde. Ein Forschungsteam unter Leitung des Leibniz-Instituts für Gewässerökologie und Binnenfischerei (IGB) und der Universität Heidelberg zeigte nun erstmalig, dass Cyanobakterien in Meeren, Binnengewässern und an Land relevante Mengen an Methan produzieren. Die durch den Klimawandel zunehmenden Blaualgenblüten werden die Freisetzung von Methan aus Binnengewässern und Meeren in die Atmosphäre mit hoher Wahrscheinlichkeit verstärken.

Das Forschungsteam untersuchte 17 Cyanobakterienarten, die im Meer, im Süßwasser oder an Land vorkommen. „Cyanobakterien im Oberflächenwasser sind eine bislang unbekannte Quelle für Methan. Wir konnten erstmalig zeigen, dass diese Bakterien das Treibhausgas im Rahmen ihres regulären Zellstoffwechsels erzeugen", erklärt Dr. Mina Bižić, IGB-Forscherin und Erstautorin der Studie. Thomas Klintzsch von der Universität Heidelberg untersuchte mit isotopenmarkiertem Kohlenstoff, wie bei der Photosynthese Methan in der Zelle entsteht.

Ein früheres wissenschaftliches Paradigma besagt, dass Organismen Methan nur unter sauerstoffarmen Bedingungen bilden können. Bisher konnte unter den Organismen ohne Zellkern nur für die sogenannten Urbakterien (Archaeen) eine Methanbildung nachgewiesen werden. Diese beiden Annahmen werden durch die Ergebnisse der Studie widerlegt.

Das Team verglich in Laborexperimenten die Menge an produziertem Methan von Cyanobakterien mit Werten für Archaeen und Organismen mit Zellkern (Eukaryoten). „Cyanobakterien bilden bei gleicher Biomasse weniger Methan als Archaeen, aber mehr Methan als Pilze oder Pflanzen. Es ist jedoch schwierig, den globalen Anteil an Methan von Cyanobakterien abzuschätzen, denn es fehlen genaue Daten zur Biomasse dieser Organismen in Gewässern und Böden", so Frank Keppler, Professor am Institut für Geowissenschaften der Universität Heidelberg und Mitautor der Studie.

Mehr Blaualgenblüten bedeuten höhere Methanemissionen:
Vermutlich erzeugen Cyanobakterien schon seit der Erdfrühzeit das Treibhausgas Methan. Die ältesten bekannten Fossilien (Stromatolithen) sind Ablagerungen von Cyanobakterien und wurden in 3,5 Milliarden Jahre alten Gesteinen Westaustraliens nachgewiesen.

Heutzutage sind Cyanobakterien überall auf der Welt verbreitet. Im Meer- oder Süßwasser entwickeln sie sich bei einem hohen Nährstoffgehalt und warmen Temperaturen besonders gut. Durch den Klimawandel werden Massenentwicklungen, die sogenannten Blaualgenblüten, in Zukunft also häufiger und in stärkerem Ausmaß auftreten. „Dies wird gemäß unserer aktuellen Erkenntnisse auch den Ausstoß von Methan aus unseren Gewässern erhöhen, was wiederum den Klimawandel verstärkt", sagt Professor Hans-Peter Grossart, IGB-Forscher und Leiter der Studie.

Über das Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB):
„Forschen für die Zukunft unserer Gewässer" ist der Leitspruch des Leibniz-Instituts für Gewässerökologie und Binnenfischerei (IGB). Das IGB ist das bundesweit größte und eines der international führenden Forschungszentren für Binnengewässer. Es verbindet Grundlagen- und Vorsorgeforschung, bildet den wissenschaftlichen Nachwuchs aus und berät Politik und Gesellschaft in Fragen des nachhaltigen Gewässermanagements. Forschungsschwerpunkte sind u. a. die Langzeitentwicklung von Seen, Flüssen und Feuchtgebieten und die Auswirkungen des Klimawandels, die Renaturierung von Ökosystemen, der Erhalt der aquatischen Biodiversität sowie Technologien für eine nachhaltige Aquakultur. Die Arbeiten erfolgen in enger Kooperation mit den Universitäten und Forschungsinstitutionen der Region Berlin-Brandenburg und weltweit. Das IGB gehört zum Forschungsverbund Berlin e. V., einem Zusammenschluss von acht natur-, lebens- und umweltwissenschaftlichen Instituten in Berlin. Die vielfach ausgezeichneten Einrichtungen sind Mitglieder der Leibniz-Gemeinschaft. https://www.igb-berlin.de

Medieninformationen im Überblick: https://www.igb-berlin.de/newsroom
Anmeldung für den Newsletter: https://www.igb-berlin.de/newsletter
IGB bei Twitter https://twitter.com/LeibnizIGB
IGB bei Facebook: https://www.facebook.com/IGB.Berlin/

Wissenschaftliche Ansprechpartner:
Prof. Dr. Hans-Peter Grossart
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
hgrossart@igb-berlin.de
+49(0)3308269991

Dr. Mina Bižić
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
mbizic@igb-berlin.de
+49(0)3308269969

Quelle: IDW 

(nach oben)


Wie das Gehirn Ereignisse vorhersagt

Marilena Hoff Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für empirische Ästhetik

Beim Sport, beim Musizieren und in anderen Bereichen des täglichen Lebens muss das Gehirn wissen, wann Ereignisse eintreten, um schnell reagieren zu können. Doch wie kann der Mensch solche Ereignisse rechtzeitig vorhersehen? Gemäß einer weit verbreiteten Hypothese schätzt das Gehirn die sogenannte Hazard Rate von Ereignissen ab. Dagegen konnte nun ein Team von Wissenschaftlern am Max-Planck-Institut für empirische Ästhetik zeigen, dass das Gehirn ein einfacheres und stabileres Modell seiner Umwelt verwendet, das auf dem Kehrwert der Ereigniswahrscheinlichkeit basiert.

Wie lernt das Gehirn, wann ein Ereignis wahrscheinlicher eintritt, und wie stellt es Wahrscheinlichkeiten über einen längeren Zeitraum hinweg dar? Der bisher wichtigste Mechanismus war die Berechnung der Hazard Rate: der Wahrscheinlichkeit mit der ein Ereignis kurz bevorsteht - vorausgesetzt, es ist noch nicht geschehen. In ihrem Artikel in der Zeitschrift Nature Communications zeigen Matthias Grabenhorst, Georgios Michalareas und weitere Forscher anhand von Verhaltensexperimenten, dass das Gehirn stattdessen eine viel einfachere Berechnung verwendet: Es schätzt lediglich den Kehrwert der Wahrscheinlichkeit. Dies ist eine fundamentale Erkenntnis, die ein kanonisches Prinzip der Modellierung von Wahrscheinlichkeiten im Gehirn beleuchtet. Die enge Beziehung zwischen der reziproken Wahrscheinlichkeit und dem Shanon-Informationsgehalt (auch Surprisal genannt) deutet darauf hin, dass das Gehirn Wahrscheinlichkeiten tatsächlich als Information abbildet.

„Die Wahrscheinlichkeit selbst ist der grundlegende Parameter, den das Gehirn verwendet", fasst Matthias Grabenhorst zusammen.

Ein zweites wichtiges Ergebnis dieser Arbeit betrifft die Unsicherheit bei der Schätzung der verstrichenen Zeit. Bisherige Forschungen haben gezeigt, dass die Unsicherheit der Schätzung des Gehirns umso größer ist, je länger die verstrichene Zeit ist. Grabenhorst, Michalareas und Kollegen zeigen auf, dass dieses Prinzip der monoton steigenden Unsicherheit mit der verstrichenen Zeit nicht immer gilt, sondern dass es tatsächlich die Wahrscheinlichkeitsverteilung von Ereignissen über einen Zeitraum ist, die bestimmt, wann die Unsicherheit am geringsten oder am größten ist.

Schließlich zeigen die Autoren der Studie, dass die zuvorgenannten Ergebnisse in drei verschiedenen Sinnesmodalitäten gelten: beim Sehen, Hören und in der Somatosensorik. Diese Gemeinsamkeit deutet entweder auf einen zentralen Mechanismus hin, der von allen drei Modalitäten genutzt wird, oder auf einen kanonischen peripheren Mechanismus, der in multiplen sensorischen Bereichen des Gehirns eingesetzt wird.

Wissenschaftliche Ansprechpartner:
Dr. med. Matthias Grabenhorst
+49 69 8300479-340
matthias.grabenhorst@ae.mpg.de

Originalpublikation:
Grabenhorst, M., Michalareas, G., Maloney, L. T., & Poeppel, D. (2019). The anticipation of events in time. Nature Communications, 10(1). doi:10.1038/s41467-019-13849-0

Quelle: IDW 

(nach oben)


Nature-Publikation: Aquakultur verknappt Phosphor und gefährdet Nahrungssicherheit

Corina Härning Presse - Öffentlichkeitsarbeit - Information
Universität Augsburg

Augsburg - Die zunehmende Bedeutung von Aquakulturen in der Fischgewinnung trägt zur Verknappung des Rohstoffes Phosphor bei und gefährdet dadurch langfristig die Nahrungssicherheit falls nicht gegengesteuert wird. Dies zeigt eine in Nature Communications veröffentlichte Studie. Zu dem von Dr. Yuanyuan Huang (CSIRO, Melbourne) geleiteten Autorenteam zählt auch Dr. Daniel Goll vom Institut für Geographie der Universität Augsburg.

Phosphor ist ein wesentliches Element für alle Lebensformen auf der Erde. Der rapide Anstieg der menschlichen Nachfrage nach Nahrungsmitteln hat den Phosphoreintrag in Form von Düngemitteln in die Biosphäre seit der vorindustriellen Zeit vervierfacht. Aufgrund der raschen Ausbeutung der endlichen Phosphorquellen und der ineffizienten Verwendung von Phosphor ist die künftige Ernährungssicherheit gefährdet. Infolgedessen hat die Europäische Union im Jahr 2014 Phosphor in die Liste der 20 kritischen Rohstoffe aufgenommen, deren Versorgungssicherheit gefährdet ist und deren wirtschaftliche Bedeutung hoch ist. Die Einführung von Vorschriften für die Verwendung von Phosphordüngemitteln haben zu einer erhöhten Effizienz in der landwirtschaftlichen Produktion geführt, bislang hat der Einsatz von Phosphor in der Fischgewinnung jedoch wenig Beachtung gefunden.

Eine neue Studie zeigt nun, dass in der globalen Fischgewinnung erhebliche Mengen an Phosphor mit einem nur sehr geringen Wirkungsgrad verbraucht werden: Nur etwa ein Viertel des Phosphors, der zur Aufzucht von Fischen verwendet wird, wird mit dem Fisch geerntet, während der im Wasser verbleibende Phosphor potentiellen benachbarten Ökosystemen schadet und z. B. zum Verlust biologischer Vielfalt oder Algenblüten führen kann.

„Der Phosphor, der in Flüsse und Ozeane gelangt, kann als verloren angesehen werden, da es äußerst schwierig ist ihn wiederzugewinnen. Solche Verluste sollten weitmöglichst vermieden werden, um sicherzustellen, dass auch für zukünftige Generationen genügend Phosphor verfügbar ist", erklärt Daniel Goll.

Nachhaltige Phosphorproduktion notwendig
Fisch, Krustentiere und Weichtiere (im Folgenden als Fisch verallgemeinert) gewinnen als Proteinquelle in der menschlichen Ernährung immer mehr an Bedeutung: Im Jahr 2013 stammten 17 Prozent des gesamten tierischen Proteins, das Menschen verzehrten aus Fischerei und Aquakultur. Während gefischte Fische ihren Phosphorbedarf aus natürlich vorkommenden Nahrungsquellen, z. B. anderen Fischen oder Plankton, decken, ist Aquakultur auf die Zugabe von Phosphor in Form von Fischfutter oder Dünger angewiesen, um für pflanzenfressende Fische das Pflanzenwachstum zu fördern.

Der Anteil der aus Aquakultur stammenden Fische für den menschlichen Verzehr ist von unter fünf Prozent in den 1950er-Jahren auf etwa 50 Prozent in den 2010er-Jahren gestiegen. Der frühere Phosphorfluss in Richtung Land durch die Fischerei hat sich darum in einen Verlust von Phosphor vom Land in Form von Dünge- und Futtermitteln gewandelt.

Durchschnittlich werden nur etwa 20 Prozent des zugesetzten Phosphors in Aquakulturen geerntet, was ein erhebliches Nachhaltigkeitsproblem darstellt. In dieser Studie wurde abgeschätzt, dass sich der Anteil an zugesetztem Phosphor, der in der Aquakultur in Form von Fischen geerntet wird, bis zum Jahr 2050 mehr als verdoppeln muss, um eine nachhaltige Phosphorproduktion zu ermöglichen.

„Phosphor ist ein nicht erneuerbarer, begrenzter und lebenswichtiger Nährstoff für Nutzpflanzen und -tiere. Wir sollten uns überlegen, wie wir Phosphor in der Fischwirtschaft recyceln und wiederverwenden können, um damit mehr Feldfrüchte anzubauen. Gleichzeitig sollten wir den Phosphor, den wir in der Aquakultur ins Wasser geben auf ein Minimum reduzieren ", sagt Dr. Yuanyuan Huang, die Leiterin der Studie.

Wissenschaftliche Ansprechpartner:

Dr. Daniel Goll
Physische Geographie mit Schwerpunkt Klimaforschung
Telefon: +49 821 598 2279
E-Mail: dsgoll123@gmail.com

Quelle: IDW 

(nach oben)


Klimafaktor Wolken - Feldkampagne „EUREC4A" gestartet, um Klimarätsel zu entschlüsseln

Gabriele Meseg-Rutzen Presse und Kommunikation
Universität zu Köln

Feldstudie unter Kölner Beteiligung in Barbados erforscht die Rolle von Wolken für das Klima / Forschungsflugzeuge und -schiffe, Observatorien und Klimamodelle sollen neue Daten und Erkenntnisse liefern

Am 20. Januar 2020 startet die knapp sechswöchige Feldstudie EUREC4A (Elucidating the role of clouds-circulation coupling in climate), die durch umfangreiche Messungen in Atmosphäre und Ozean die Rolle der Wolken und der vertikalen Luftbewegung, der so genannten Konvektion, für den Klimawandel erforschen will. Die deutsch-französische Initiative mit mehr als 40 Partnern findet östlich und südlich der Karibikinsel Barbados statt. Unter Kölner Beteiligung wird EUREC4A von Professor Dr. Bjorn Stevens vom Max-Planck-Institut für Meteorologie (MPI-M) in Hamburg und Dr. Sandrine Bony vom Laboratoire de Météorologie Dynamique in Paris geleitet. Die Initiative baut auf einer jahrzehntelangen Zusammenarbeit mit Wissenschaftlern und Wissenschaftlerinnen aus Barbados am Caribbean Institute for Meteorology and Hydrology (CIMH) unter der Leitung von Dr. David Farrell auf und erweitert diese.
Wolken sind ein wesentlicher Klimafaktor. Wie die tiefen Wolken in den Regionen der Passatwinde auf die globale Erwärmung reagieren, bestimmt maßgeblich, wie schnell und intensiv zukünftige Entwicklungen verlaufen werden. Frühere Studien untersuchten die Rolle von Wolken und Konvektion im Klimasystem bisher mit Theorien und Klimamodellen. Mit den umfangreichen Messungen während der Feldstudie EUREC4A werden die Wissenschaftlerinnen und Wissenschaftler den Lebenszyklus der konvektiven Wolken in der Region im Detail studieren, um ein möglichst vollständiges Bild davon zu erhalten und bestehende Theorien und Modelle überprüfen zu können.

Analysen der Klimamodell-Vergleichsstudien über die letzten Jahrzehnte zeigten, dass eine durch die Klimaerwärmung bedingte Abnahme der Wolken in der Passatregion zu einer weiter zunehmenden globalen Erwärmung führt, eine sogenannte positive Rückkopplung. Projektleiter Professor Dr. Bjorn Stevens: „Wir werden überprüfen, ob das Verhalten von Modellen korrekt ist, die eine starke Abnahme der Bewölkung mit der Erwärmung zeigen. Falls ja, würde es bedeuten, dass höhere Schätzungen der zu erwartenden Erwärmung durch ansteigendes CO2 plausibler sind. Bei der Frage nach der Reaktion der Wolken auf den Klimawandel gibt es noch viel Unsicherheit."

In numerischen Modellen reagieren die Passatwolken zum Beispiel unterschiedlich auf Störungen des Klimas. So sagen komplexe Klimamodelle vorher, dass das mit niedrigen Wolken bedeckte Gebiet sehr empfindlich auf die Umgebungsbedingungen reagiert, während einfachere Prozessmodelle das Gegenteil zeigen. Diese Widersprüche zu verstehen und aufzulösen, ist der Ausgangspunkt für die Feldstudie. Projektleiterin Dr. Sandrine Bony fügt hinzu: „Die Abschätzungen der Klimasensitivität sind nach wie vor sehr unsicher, und die meisten dieser Unsicherheiten sind auf die Reaktion der niedrigen Wolken in den Tropen, insbesondere in den Passatwindregionen, zurückzuführen. Die niedrigen Wolken bei Barbados sind repräsentativ für die Wolken, die in den Passatwindregionen in den gesamten Tropen zu finden sind. Daher wird das, was wir aus EUREC4A lernen werden, nicht nur unserem Verständnis der Wolken vor Barbados, sondern auch der tropischen Wolken im Allgemeinen dienen."

Kern der Kampagne ist der Einsatz von fünf Forschungsflugzeugen, vier hochseetauglichen Forschungsschiffen, fortschrittlicher bodengestützter Fernerkundung am Barbados-Wolkenobservatorium (BCO - Barbados Cloud Observatory) des MPI-M, einer neuen Generation hochentwickelter Satellitenfernerkundungsmethoden und modernster Klimamodelle. „Erst durch diese Kombination aus vielfältigen Messungen und hochauflösenden Simulationen wird es möglich, die entscheidenden Prozesse im Detail zu analysieren und dadurch unser Verständnis zu erweitern", erklärt Professorin Dr. Susanne Crewell vom Institut für Geophysik und Meteorologie der Universität zu Köln, die Besonderheiten des Kampagnenaufbaus.

Von deutscher Seite sind an der EUREC4A-Kampagne vier Max-Planck-Institute (MPI-M, MPI für Dynamik und Selbstorganisation, MPI für Chemie und MPI für Marine Mikrobiologie) sowie fünf Universitäten (Hamburg, Hohenheim, Köln, Leipzig und München), drei Helmholtz-Einrichtungen (Deutsches Zentrum für Luft und Raumfahrt (DLR), GEOMAR und Helmholtz-Zentrum Geesthacht Zentrum für Material- und Küstenforschung), das Leibniz-Institut TROPOS und der Deutsche Wetterdienst beteiligt.

Gefördert und unterstützt wird die EUREC4A-Kampagne durch das European Research Council (ERC), die Max-Planck-Gesellschaft (MPG), das Centre National de Recherche Scientific (CNRS), die Deutsche Forschungsgemeinschaft (DFG), das Carribean Institute for Meteorology and Hydrology (CIMH), das Natural Environment Research Council (NERC) und das Weltklimaforschungsprogramm (WCRP).

Inhaltlicher Kontakt:
Professorin Dr. Susanne Crewell
Institut für Geophysik und Meteorologie
+49 221 470-5286
susanne.crewell@uni-koeln.de

Presse und Kommunikation:
Jan Voelkel
+49 221 470-2356
j.voelkel@verw.uni-koeln.de

Weitere Informationen:
http://eurec4a.eu/

Quelle: IDW 

(nach oben)


Asfotase alfa bei Hypophosphatasie im Kindes- und Jugendalter: Überlebensvorteil für Kleinkinder

Jens Flintrop Presse- und Öffentlichkeitsarbeit
Institut für Qualität und Wirtschaftlichkeit im Gesundheitswesen (IQWiG)

Asfotase alfa bei Hypophosphatasie im Kindes- und Jugendalter: Überlebensvorteil für Kleinkinder
Unter der Enzymersatztherapie überleben mehr Kleinkinder die angeborene Stoffwechselstörung. Ob auch ältere Kinder, Jugendliche und Erwachsene profitieren, ist mangels Daten unklar.

Schwache Evidenz lässt keine konkrete Aussage zum Ausmaß des Zusatznutzens zu / Evidenz zu anderen Patientengruppen fehlt
Die Hypophosphatasie (HPP) ist eine seltene erbliche Stoffwechselerkrankung, die Häufigkeit der schweren Verlaufsformen wird auf 1:100.000 geschätzt: Ein Mangel des Enzyms Phosphatase führt zu einer ungenügenden Mineralisation von Knochen und damit zu schweren Skelettfehlbildungen. Der Krankheitsverlauf variiert stark - je früher der Krankheitsbeginn, desto schwerer sind Symptome und Beschwerden. Betroffene Kleinkinder mit einem Krankheitsbeginn vor dem 6. Lebensmonat sterben oft und sehr früh daran, während bei späterem Eintreten der Krankheit die Symptomatik teilweise schwächer ausgeprägt ist.

Eine Langzeit-Enzymersatztherapie mit Asfotase alfa (Handelsname Strensiq) soll bei Patientinnen und Patienten mit HPP erstmals die Krankheitsursache, d. h. das Fehlen des Enzymes, behandeln. Zuvor war nur eine symptomatische Behandlung möglich. Als Arzneimittel zur Behandlung seltener Krankheiten (Orphan Drug) war der Wirkstoff zunächst vom wissenschaftlichen Nachweis eines Zusatznutzens ausgenommen. Mit Überschreiten von 50 Mio. Euro Jahresumsatz hat Asfotase alfa diesen Sonderstatus verloren und sein Zusatznutzen wurde mit einer frühen Nutzenbewertung von Arzneimitteln gemäß AMNOG durch das Institut für Qualität und Wirtschaftlichkeit im Gesundheitswesen (IQWiG) überprüft. Aus der Dossierbewertung ergibt sich für Kleinkinder mit Krankheitsbeginn vor dem 6. Lebensmonat ein Anhaltspunkt für einen nicht quantifizierbaren Zusatznutzen. Vor- und Nachteile für andere Patientengruppen bleiben mangels Daten unklar.

Der Hersteller berichtet in seinem Dossier von zwei einarmigen Studien zur Asfotase-Behandlung von Kleinkindern, die nur zwei Endpunkte (Gesamtüberleben und Atemfunktion) betrachten. Deren Ergebnisse vergleicht er mit Ergebnissen aus wenigen Krankenakten von Patientinnen und Patienten ohne Asfotase-Behandlung. Die beobachteten Unterschiede beim Gesamtüberleben zwischen den beiden Vergleichsgruppen sind so groß, dass sie sich nicht allein auf die vorhandenen Störfaktoren zurückführen lassen: Mit einer Asfotase-Behandlung überleben voraussichtlich mehr Kleinkinder als ohne eine solche Therapie.

„Kleinkinder mit einem Krankheitsbeginn bis zum 6. Lebensmonat profitieren voraussichtlich von einer Behandlung mit dem Medikament - bessere Behandlungsverläufe als bisher sind möglich. Angesichts der großen Krankheitslast insbesondere bei Kindern und Jugendlichen hätten die Betroffenen aber eine bessere Studienlage und eine sorgfältigere Datenauswertung verdient", meint Katharina Biester, Bereichsleiterin im Ressort Arzneimittel beim IQWiG.

Vergleich mit historischen Kontrollgruppen
Das Herstellerdossier liefert Daten aus zwei kleinen einarmigen Studien (2008-2016) mit einer Asfotase alfa-Behandlung von insgesamt 80 Kleinkindern mit einem Krankheitsbeginn bis zum 6. Lebensmonat: 11 Kinder waren ≤ 36 Monate alt und 69 ≤ 5 Jahre. Deren Ergebnisse vergleicht der Hersteller mit historischen Daten zu einer symptomatischen Behandlung ohne Afotase alfa auf Basis von Krankenakten von 48 Kleinkindern mit perinataler oder infantiler Hypophosphatasie: Zum Zeitpunkt der Datenerhebung (2012-2013) waren 35 Patientinnen und Patienten mit Krankenakten bereits verstorben und 13 noch am Leben. Geboren waren die Patientinnen und Patienten zwischen 1970 und 2011 und die Diagnosephase erstreckte sich über drei Jahrzehnte.

Neben dem primären Endpunkt Gesamtüberleben und verschiedenen Operationalisierungen zum Erfassen der Atemfunktion wurden in der Studie auf Basis von Krankenakten allerdings keine weiteren Endpunkte untersucht. Die in die Erhebung eingeschlossenen Patientinnen und Patienten erhielten sowohl medikamentöse als auch nicht medikamentöse unterstützende Maßnahmen.

Studiendaten mangelhaft aufbereitet
Die Aufbereitung der Studiendaten im Herstellerdossier ist intransparent und erschwert dadurch das Ableiten eines konkreten Zusatznutzens. So bleibt der Anteil der Patientinnen und Patienten mit perinatalem Krankheitsbeginn unklar. Es finden sich zudem inkonsistente Angaben zu denselben Daten an unterschiedlichen Stellen im Dossier, bisweilen sind diese sogar widersprüchlich. Dass der Hersteller zur zweckmäßigen Vergleichstherapie (Best supportive Care, BSC) ohne Begründung auf eine systematische Recherche verzichtet, ist wissenschaftlich nicht sauber, denn der Studienpool ist dadurch potenziell unvollständig.

Allerdings ist der Effekt beim Gesamtüberleben zumindest so deutlich, dass er nicht allein auf potenzielle Verzerrungen zurückzuführen ist. Deshalb recherchierten die Wissenschaftlerinnen und Wissenschaftler des IQWiG für die Population der Kleinkinder mit perinataler oder infantiler HPP nicht nur nach zusätzlich relevanten Daten zur zweckmäßigen Vergleichstherapie, sondern schätzten auf Basis von Informationen in den Studienunterlagen auch den Anteil der Patientinnen und Patienten mit perinatalem Krankheitsbeginn.

Zusatznutzen nur für eine Patientengruppe
Die Unterschiede zwischen den Vergleichsgruppen lassen sich insgesamt nicht allein auf andere Störgrößen zurückführen: Mit einer Asfotase-Behandlung überleben mehr Kleinkinder mit einem Krankheitsbeginn vor dem 6. Lebensmonat. Wegen der schwachen Evidenz sind die Ergebnisse allerdings potenziell verzerrt, sodass sich daraus für Kleinkinder mit einer perinatalen oder infantilen Hypophosphatasie nicht mehr als ein Anhaltspunkt für einen nicht quantifizierbaren Zusatznutzen von Asfotase alfa gegenüber der zweckmäßigen Vergleichstherapie BSC ergibt.

Da der Hersteller für die weiteren Patientengruppen im zugelassenen Anwendungsgebiet entweder gar keine Daten (für Kleinkinder mit einem Krankheitsbeginn ab dem 6. Lebensmonat) oder keine geeigneten Daten (für Kinder ab 5 Jahre, Jugendliche, Erwachsene mit perinatalem, infantilem oder juvenilem Krankheitsbeginn) vorgelegt hat, ist ein Zusatznutzen für diese Patientinnen und Patienten jeweils nicht belegt.

Bessere Studiendaten für eine bessere Versorgung
Das Fazit der Nutzenbewertung schließt sich an die Einschätzung des Gemeinsamen Bundesausschusses (G-BA) nach der Zulassung im Jahr 2015 an: Seine Forderung nach weitergehender Evidenz, um den Betroffenen eine verlässliche, zweckmäßige und wirtschaftliche Versorgung zu sichern, wurde allerdings nicht erfüllt.

Deswegen lässt sich für einen Großteil der Betroffenen (Altersgruppe ab fünf Jahre) kein Zusatznutzen ableiten. Der rechtlich unterstellte Zusatznutzen für Orphan Drugs geht auch in diesem Fall mit unzureichenden Daten einher. Orphan Drugs sollten deshalb bereits bei Marktzugang einer frühen Nutzenbewertung unterzogen werden - wie alle anderen neuen Wirkstoffe auch.

Die vom Hersteller angeführte kleine randomisierte kontrollierte Studie (RCT) zur Altersgruppe ab 13 Jahre lässt sich mangels Zulassungskonformität für diese Dossierbewertung nicht heranziehen. Sie zeigt aber einmal mehr, dass auch zur Untersuchung von seltenen Erkrankungen RCT durchführbar sind. Mit adäquater Dosierung und mehr Studienteilnehmern, wäre vermutlich ein verlässlicheres Ergebnis für den Zusatznutzen und damit für die Versorgung zu erreichen gewesen - denn allein in Deutschland gibt es unter den gesetzlich Versicherten potenziell ca. 1000 Patientinnen und Patienten mit HPP.

G-BA beschließt über Ausmaß des Zusatznutzens
Die Dossierbewertung ist Teil der frühen Nutzenbewertung gemäß Arzneimittelmarktneuordnungsgesetz (AMNOG), die der G-BA verantwortet. Nach Publikation der Dossierbewertung führt der G-BA ein Stellungnahmeverfahren durch und fasst einen abschließenden Beschluss über das Ausmaß des Zusatznutzens.

Einen Überblick über die Ergebnisse der Nutzenbewertung des IQWiG gibt folgende Kurzfassung. Auf der vom IQWiG herausgegebenen Website gesundheitsinformation.de finden Sie zudem allgemein verständliche Informationen.

Originalpublikation:

https://www.iqwig.de/de/projekte-ergebnisse/projekte/arzneimittelbewertung/2019/...

Weitere Informationen:

https://www.iqwig.de/de/presse/pressemitteilungen/2020/asfotase-alfa-bei-hypopho...

Quelle: IDW 

(nach oben)


TU Graz-Forschende entschlüsseln Verhalten von Wassermolekülen

Mag., MSc Christoph Pelzl Kommunikation und Marketing
Technische Universität Graz

Mit einer neuen experimentellen Methode geben Forscher der TU Graz in Nature Communications erstmals Einblicke in die Bewegung von Wassermolekülen. Die Ergebnisse könnten helfen, Geräte noch robuster gegenüber rauen Umweltbedingungen zu machen.

Wasser ist eine geheimnisvolle Substanz. Sein Verhalten auf atomarer Ebene zu verstehen, bleibt eine Herausforderung für Experimentalphysikerinnen und -physiker, da die leichten Wasser- und Sauerstoffatome mit herkömmlichen experimentellen Methoden schwer zu beobachten sind. Das trifft vor allem zu, wenn man die mikroskopischen Bewegungen von einzelnen Wassermolekülen beobachten möchte, die innerhalb von Pikosekunden auf einer Oberfläche ablaufen. In ihrer Arbeit „Nanoscopic diffusion of water on a topological insulator" konnten Forscher der Arbeitsgruppe "Exotic Surfaces" des Instituts für Experimentalphysik der TU Graz gemeinsam mit Forschenden vom Cavendish Laboratory, der University of Surrey und der Aarhus University nun einen großen Fortschritt erzielen und das Verhalten von Wasser auf einem derzeit besonders interessanten Material erforschen: dem topologischen Isolator Bismuttellurid. Bismuttellurid könnte für den Bau von Quantencomputern eingesetzt werden. Wasserdampf wäre dann ein Umwelteinfluss, dem aus Bismuttellurid gebaute Anwendungen im realen Betrieb ausgesetzt sein könnten.

Kombination aus Experiment und Theorie
Das Forschungsteam kombinierte für seine Untersuchungen theoretische Berechnungen mit einer neuen experimentellen Methode, der Helium-Spin-Echo-Spektroskopie. Dabei werden Heliumatome mit sehr niedriger Energie genutzt, die es erlauben, isolierte Wassermoleküle zu beobachten, ohne dabei deren Bewegung zu beeinflussen. Die Forschungsgruppe fand heraus, dass sich Wassermoleküle auf Bismuttellurid gänzlich anders verhalten, als auf Standardmetallen. Auf herkömmlichen Materialien zeigen Wassermoleküle anziehende Bewegungen und bilden Ansammlungen in Form von Wasserfilmen. Bei topologischen Isolatoren ist genau das Gegenteil der Fall: Die Wassermoleküle stoßen einander ab, und bleiben auf der Oberfläche isoliert.
Bismuttellurid scheint somit relativ unempfindlich gegenüber Wasser zu sein. Dies ist ein großer Vorteil für Anwendungen, die unter herkömmlichen Umweltbedienungen funktionieren müssen. Weitere Experimente an ähnlich aufgebauten Oberflächen sind bereits in Planung und sollen klären ob die Bewegung der Wassermoleküle auf spezielle Eigenschaften der untersuchten Oberfläche zurückzuführen ist.

Dieser Forschungsbereich ist an der TU Graz im Field of Expertise Advanced Materials Science angesiedelt, einem von fünf wissenschaftlichen Stärkefeldern der TU Graz.

Infobox: Die Arbeit wurde auf der Website von Nature Communications unter https://www.nature.com/articles/s41467-019-14064-7 veröffentlicht.

Wissenschaftliche Ansprechpartner:
Dr. Anton TAMTÖGL
TU Graz | Institut für Experimentalphysik
Petersgasse 16, 8010 Graz, Österreich
Tel.: +43 316 873 8143
tamtoegl@tugraz.at
iep.tugraz.at

Originalpublikation:
Tamtögl, A., Sacchi, M., Avidor, N. et al. Nanoscopic diffusion of water on a topological insulator. Nat Commun 11, 278 (2020) doi:10.1038/s41467-019-14064-7

Weitere Informationen:
https://www.tugraz.at/tu-graz/services/news-stories/medienservice/einzelansicht/... (Pressemeldung TU Graz)
https://www.tugraz.at/institute/iep/forschung/surfaces/ (Website der Arbeitsgruppe Exotic Surfaces des Instituts für Experimentalphysik der TU Graz)
https://www.tugraz.at/forschung/fields-of-expertise/advanced-materials-science/u... (Überblick Advanced Materials Science der TU Graz)

Quelle: IDW 

(nach oben)


Der Partner-Pay-Gap ist weiter vorherrschend - Männer bleiben die Haupt-Brotverdiener in Doppelverdienerhaushalten

Sylvia Nagel Presse- und Öffentlichkeitsarbeit
Deutsches Zentrum für Altersfragen

Ein Team aus vier Wissenschaftlerinnen hat untersucht, wie sich die Einkommensverteilung zwischen den Geschlechtern in Paarhaushalten von 1992 bis 2016 entwickelt und ob sich der sogenannte Partner-Pay-Gap verringert hat. Dabei zeigt sich: Der Beitrag von Frauen zum Haushaltseinkommen bleibt weiterhin hinter dem der Männer zurück und liegt zwischen 35 (Westdeutschland) und 45 (Ostdeutschland) Prozent. Dabei gibt es interessante Unterschiede zwischen den verschiedenen Einkommensgruppen.

In Fragen der Geschlechtergerechtigkeit spielen das Erwerbsverhalten von Frauen und ihre Zugangs- und Arbeitsmarktchancen eine tragende Rolle: mit Konsequenzen für ihre finanzielle Unabhängigkeit und im Hinblick auf ihre Altersvorsorge. Dies gilt auch für Paarhaushalte. Hier herrschte lange Zeit das Modell des männlichen (Allein-)Ernährers vor, in dem Frauen allenfalls einen Zuverdienst zum Haushaltseinkommen erbrachten. Dieses Modell setzt Frauen und ihre Kinder einem Armutsrisiko im Falle einer Trennung aus, und auch unser Rentensystem benachteiligt Hinterbliebene in Partnerschaften, wenn sie weniger eigene Rentenanwartschaften aufbringen als die Hauptverdiener.
Martina Dieckhoff, Vanessa Gash, Antje Mertens und Laura Romeu Gordo haben mit Daten des Sozioökonomischen Panels untersucht, wie sich die Anteile am Haushaltseinkommen zwischen Männern und Frauen im Zeitverlauf entwickelt haben.

Es zeigt sich für den Beobachtungszeitraum sowohl in Ost- als auch in Westdeutschland eine Zunahme an Doppelverdienerhaushalten: In Westdeutschland ist der Anteil von 51 Prozent im Jahr 1992 bis auf rund 79 Prozent in 2016 angewachsen und liegt damit ähnlich hoch wie in Ostdeutschland. Hier gab es von einem höheren Ausgangsniveau von 63 Prozent ausgehend im Jahr 1992 einen Zuwachs auf 78 Prozent. In beiden Teilen ist der Anstieg von 2005 an stärker verlaufen als in den Jahren zuvor. Dies fällt mit der Einführung der Hartz-Reformen, einer stärkeren Deregulierung des Arbeitsmarkts und die damit verbundene Zunahme an Teilzeitbeschäftigung sowie einer Zunahme an Möglichkeiten zur Kinderbetreuung zusammen.

Der Verdienstunterschied in Paarhaushalten scheint demgegenüber ziemlich veränderungsresistent: Ein Zuwachs an Einkommensgleichheit ist kaum zu verzeichnen, obwohl die Partnerschaften in der Mehrheit homogen hinsichtlich ihrer Bildungsabschlüsse und damit ihres Verdienstpotentials sind. In beiden Teilen Deutschlands ist der Anteil am Haushaltseinkommen von Frauen geringer als der von den Männern. In Westdeutschland lässt sich ein geringfügiger Anstieg bei den Frauen um drei Prozentpunkte von rund 32 Prozent auf rund 35 Prozent verzeichnen. In Ostdeutschland ist der Einkommensunterschied in der Partnerschaft geringer, der Anteil der Frauen am Haushaltseinkommen hat aber um ein Prozentpunkt abgenommen (von 44% auf 43%). Dass der Beitrag der Frauen zum Haushaltseinkommen in Ostdeutschland höher ist als in Westdeutschland, lässt sich vermutlich teilweise auf die Einkommen der ostdeutschen Männer zurückführen, die substanziell weniger verdienen als westdeutsche Männer, während die Einkommensunterschiede zwischen Frauen in Ost- und Westdeutschland weniger ausgeprägt sind. Ein weiterer Erklärungsfaktor für die Unterschiede zwischen Ost- und Westdeutschland sind unterschiedliche soziale Normen insbesondere mit Blick auf die Arbeitszeit von Müttern.

Es zeigt sich außerdem, dass die Größe des Partner-Pay-Gaps mit der wirtschaftlichen Stellung der Haushalte variiert: in Paarhaushalten mit Männern im unteren Drittel der Einkommensverteilung haben Frauen einen größeren Anteil am Haushaltseinkommen als mit Partnern im obersten Drittel der Einkommensverteilung. Und auch hier zeigen sich Ost-/ Westunterschiede. Während in Ostdeutschland Frauen mit Partnern aus dem unteren Einkommensdrittel Verdienstgleichheit erreichen, bleiben westdeutsche Frauen mit einem Anteil von um die 40 Prozent am Haushaltseinkommen dahinter zurück. Ostdeutsche Frauen mit Partnern aus dem oberen Einkommensdrittel erreichen zwischen 30 und 40 Prozent des Haushaltseinkommens, während westdeutsche Frauen in diesem Fall mit zwischen 24 und 32 Prozent zum Haushaltseinkommen beitragen. Auch im mittleren Drittel haben die ostdeutschen Frauen einen größeren Beitrag am Haushaltseinkommen (Osten: zwischen 40 und 46 Prozent; Westen: zwischen 29 und 35 Prozent). Der leichte Anstieg des Haushaltsbeitrags von Frauen in Westdeutschland zwischen 1992 und 2016 ist hauptsächlich durch Paare im mittleren und oberen Einkommenssegment getragen. In Ostdeutschland hingegen hat sich der Anteil der Frauen am Haushaltseinkommen im oberen Einkommenssegment um drei Prozentpunkte sogar verringert, während die Frauen aus dem unteren und mittleren Segment einen schwachen Zuwachs zwischen zwei und drei Prozentpunkten erreichten.

Analysen aus Modellrechnungen weisen darauf hin, dass besonderes Teilzeitbeschäftigung der Frauen sowie das Vorhandensein von Kindern (in Westdeutschland stärker als in Ostdeutschland), atypische und befristete Beschäftigung des Partners Einflussfaktoren für den Haushaltsbeitrag der Frauen sind. Und der eigene Bildungsabschluss hat einen größeren Einfluss auf den Haushaltsbeitrag von Frauen mit Partnern aus dem unteren Einkommenssegment als mit Partnern aus dem oberen Einkommenssegment.

Insgesamt zeigt die Studie eine persistierende ökonomische Ungleichheit in doppelverdienenden Paarhaushalten, die robust gegen politischen und institutionellen Wandel zu sein scheint.

Originalpublikation:
Dieckhoff, M., Gash, V., Mertens, A., & Romeu Gordo, L. (2020). Partnered women's contribution to household labour income: Persistent inequalities among couples and their determinants. Social Science Research, Vol. 85 (https://doi.org/10.1016/j.ssresearch.2019.102348).

Quelle: IDW 

(nach oben)


Grünere Frühlinge verursachen trockenere Sommer auf der Nordhalbkugel

Michael Hallermayer Presse - Öffentlichkeitsarbeit - Information
Universität Augsburg

Satelliten zeigen, dass Pflanzen in der nördlichen Hemisphäre mit zunehmendem Kohlendioxid (CO2) in der Atmosphäre darauf reagieren, indem sie den Blattaustrieb vorantreiben und die Pflanzenproduktivität im Frühjahr verbessern. Gleichzeitige Messungen von Wetterstationen in der gesamten Region lassen darauf schließen, dass Dürren und Hitzewellen im Sommer häufiger und länger anhalten. Obwohl diese beiden Phänomene zu verschiedenen Jahreszeiten auftreten, zeigen die neuesten Erkenntnisse, dass es Verbindungen zwischen ihnen gibt.

Ein Forscherteam der Peking-Universität in China und der Universität Augsburg hat in Zusammenarbeit mit weiteren Forscherinnen und Forschern aus Deutschland, Großbritannien, Spanien, Belgien, Frankreich, Australien und den USA festgestellt, dass die frühere Begrünung des Frühlings einen großen Wasserverlust durch Verdunstung verursacht. Dieser Verlust erhöht das Risiko von Bodenfeuchtigkeitsdürren und Hitzeextremen in den folgenden Sommermonaten, so die jüngste in der Fachzeitschrift Science Advances veröffentlichte Studie.

Die Forscher entdeckten diesen Zusammenhang zwischen den Jahreszeiten mit statistischen Methoden, indem sie Satellitenbilder von steigendem Frühlingsgrün mit denen von sinkender Sommerbodenfeuchtigkeit verknüpften. Sie stellen außerdem sicher, dass diese Verknüpfung in Klimamodellen repliziert werden kann.

„Wie eine frühere Begrünung die Bodenfeuchtigkeit beeinflusst, ist tatsächlich komplexer als bisher angenommen. Eine frühere Begrünung führt zu schnelleren Wasserverlusten, indem mehr Wasser in die Atmosphäre gepumpt wird. Das „verlorene Wasser" verschwindet jedoch nicht, ein Teil davon kehrt später als Niederschlag über Land zurück. Wir zeigen, dass dieser Mechanismus die durch Begrünung bedingten Wasserverluste verringert, da sonst die Oberflächentrocknung wesentlich intensiver ausfallen würde. Der Rest des „verlorenen Wassers" kehrt jedoch nicht lokal als Niederschlag zurück, da die Atmosphäre es zu verschiedenen geografischen Orten transportiert", sagte Xu Lian von der Universität Peking, der der Hauptautor dieser Studie ist.

Professor Buermann vom Geographischen Institut der Universität Augsburg und Mitautor der Studie sagte: „Diese Forschung befasst sich mit einer der größten Herausforderungen für die Klimaforschung, nämlich der Quantifizierung des Beitrags von Wechselwirkungen zwischen Biosphäre und Atmosphäre zu den gegenwärtig auftretenden extremen Wetterereignissen wie den Dürren in den nördlichen Breiten in 2018. Die in unserer Studie festgestellten inter-saisonalen Prozesse können teilweise für anhaltende Extreme verantwortlich sein und dürften die sommerliche Bodenfeuchtigkeit und die terrestrischen Ökosysteme unter dem fortschreitenden Klimawandel zusätzlich unter Druck setzen. "

"Hydrologische Kompromisse wie die frühzeitige Begrünung im Frühling im Vergleich zur potenziell erhöhten Bräunung oder Dürre im Sommer sind ein weiteres Beispiel für die komplexen und oft unerwarteten Wechselwirkungen des Klimawandels mit Ökosystemen", fügte Alan Knapp, Professor für Ökologie an der Colorado State University, hinzu der nicht an der Studie beteiligt war, „Diese Analyse bietet neue Erkenntnisse in dieser Hinsicht und schlägt wichtige neue Forschungspfade vor, um zu verstehen, wie sich der Klimawandel auf die Ökosysteme auswirken kann, von denen wir abhängig sind."

Professor Josep Peñuelas vom Nationalen Forschungsrat von Spanien fügte hinzu: „Diese Untersuchung deutet auf einen oft übersehenen positiven Feedback hin: Steigende Treibhausgaskonzentrationen und die damit verbundene Erwärmung verursachen eine frühere Vegetationsphänologie, die die Sommerbodenfeuchtigkeit verringert, was wiederum die durch die globale Erwärmung verursachten Sommerhitze Extremereignisse weiter verstärkt".

Der in der Studie identifizierte Zusammenhang von "grüneren Frühlingen verursachen trockenere Sommer" hält nicht überall an. Eine Ausnahme stellen landwirtschaftliche Gebiete dar, in denen die intensive Bewässerung die durch die Begrünung hervorgerufenen Signale außer Kraft setzt. Eine andere herausragende Ausnahme ist Mittelsibirien, wo das Vegetationswachstum zwar auch früher einsetzt, jedoch die Böden im Sommer feuchter sind, und diese zusätzliche Bodenfeuchtigkeit wird wahrscheinlich durch die Atmosphärische Zirkulation aus Europa übertragen, wo durch Begrünung und erhöhte Verdunstungsraten sich feuchtere Luftmassen bilden.

"Dies ist eine faszinierende `Teleconnection´ in unserem Erdsystem, die durch die Veränderung des Klimas durch den Menschen und den damit verbundenen Auswirkungen auf terrestrische Ökosysteme ausgelöst wird", sagte Dr. Tim R. McVicar von der Commonwealth Scientific and Industrial Research Organization (CSIRO), Australien.

„Diese Forschung trägt zu den wachsenden Beweisen bei, dass der Klimawandel nicht einfach so ablaufen wird, das alles gleich ist, außer den erhöhten Hintergrundtemperaturen. Stattdessen wird der Klimawandel hochkomplexe Wechselwirkungen innerhalb des Planetensystems auslösen, die lokal zu erheblichen Veränderungen führen können ", fügte Chris Huntingford vom Centre for Ecology and Hydrology, UK, hinzu.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Wolfgang Buermann
Physische Geographie mit Schwerpunkt Klimaforschung
Telefon: +49 821 598 2662
wolfgang.buermann@geo.uni-augsburg.de

Originalpublikation:

Xu Lian, Shilong Piao, Laurent Z. X. Li, Yue Li, Chris Huntingford, Philippe Ciais, Alessandro Cescatti, Ivan A. Janssens, Josep Peñuelas, Wolfgang Buermann, Anping Chen, Xiangyi Li, Ranga B. Myneni, Xuhui Wang, Yilong Wang, Yuting Yang, Zhenzhong Zeng, Yongqiang Zhang, Tim R. McVicar: Summer soil drying exacerbated by earlier spring greening of northern vegetation. Im: Science Advances03 Jan 2020: eaax0255

Weitere Informationen:

https://advances.sciencemag.org/content/6/1/eaax0255 Publikation

Quelle: IDW 

(nach oben)


Meeresspiegel-Anstieg oder Temperaturerhöhung: Klimaziel neu definiert

Birgit Kruse Referat Medien- und Öffentlichkeitsarbeit
Universität Hamburg

Statt eine Obergrenze für den globalen Temperaturanstieg festzulegen, könnte die Staatengemeinschaft auch eine Obergrenze für den Anstieg des Meeresspiegels vereinbaren. Falls man letzteren für die wesentliche Folge des Klimawandels hält, wäre ein direktes Meeresspiegel-Ziel langfristig wirksamer und kostengünstiger. Dies zeigt eine Studie des Exzellenzclusters für Klimaforschung CLICCS der Universität Hamburg, die im Fachjournal „Science Advances" erschienen ist.

Bisher orientieren sich Ziele zum Klimaschutz stets an der weltweiten Durchschnittstemperatur. Laut dem Klimaabkommen von Paris soll die mittlere Erwärmung auf zwei Grad oder besser noch 1,5 Grad Celsius begrenzt werden. Ein Forschungsteam der Universität Hamburg und des Max-Planck-Instituts für Meteorologie hat diese Begrenzung nun in Meeresspiegel-Ziele umgewandelt und so neu definiert. Durch die Arbeit soll ein Diskurs angeregt werden, ob und wie Klimaziele angepasst werden sollten, sobald mehr Wissen über die Folgen des Klimawandels vorhanden ist.

Die Temperaturerhöhung trägt dreifach zum Anstieg des Meeresspiegels bei: durch das Abschmelzen von Gebirgsgletschern, von Eisschilden und durch Ausdehnung des Meerwassers durch die zusätzliche Wärme. Weil diese Prozesse langwierig sind, würde der Meeresspiegel auch bei sofortigem Stopp aller Treibhausgas-Emissionen noch Jahrhunderte weiter steigen. Entscheidend für den Anstieg des Meeresspiegels ist, zu welchem Zeitpunkt weltweit wieviel Kohlendioxid (CO2) ausgestoßen wird. Hier sind verschiedene Varianten denkbar, die Emissionspfade genannt werden. Allgemein gilt, je früher die Emissionen auf null sinken, desto eher verlangsamt sich auch der Meeresspiegel-Anstieg.

Für ihre Berechnungen nahmen die Forscher das Zwei-Grad-Ziel als Ausgangspunkt. Hier wird bis zum Jahr 2200 ein Anstieg des Meeresspiegels von weltweit rund 0,89 Metern erwartet. Dieser Wert wird nun als neue Obergrenze für den Meeresspiegel-Anstieg gesetzt. Mithilfe von Rechenmodellen ermittelte das Team, auf welchem Emissionspfad dieses Ziel erreicht werden kann.

Im Vergleich zum Temperaturziel erlaubt der neue Pfad zunächst höhere Emissionen, aber etwa ab dem Jahr 2100 müssten die Emissionen komplett auf null gedrosselt werden. 2200 werden so das Meeresspiegel- und das globale Temperaturziel erreicht. „Der neue Pfad ist deutlich nachhaltiger, da er auch noch nach 2200 den Anstieg des Meeresspiegels stärker abbremst", sagt Chao Li vom Exzellenzcluster für Klimaforschung und Hauptautor der Studie.

Mithilfe eines ökonomischen Modells konnten die Forscher zeigen, dass ein am Temperatur-Ziel orientiertes Meeresspiegel-Ziel auch kostengünstiger wäre. „Es macht finanziell einen Unterschied, zu welchem Zeitpunkt wie viel CO2 reduziert wird", sagt Hermann Held, Co-Autor der Studie. „Sich am Meeresspiegel zu orientieren, gäbe der Gesellschaft mehr Zeit für Innovationen und technische Anpassungen. Das ist sinnvoll, wenn der Meeresspiegelanstieg als das drängendste Problem der Erderwärmung betrachtet wird."

Das Team betont, dass es sich zunächst um grundsätzliche Berechnungen handele. Die Ergebnisse belegten aber, dass lebensnähere Klimaziele zugleich mehr Sicherheit und mehr Spielräume eröffnen können.

Für Rückfragen:
Stephanie Janssen
Universität Hamburg
CEN - Centrum für Erdsystemforschung und Nachhaltigkeit / Öffentlichkeitsarbeit / Outreach
CLICCS - Exzellenzcluster für Klimaforschung
Tel.: +49 40 42838-7596
E-Mail: stephanie.janssen@uni-hamburg.de

Weitere Informationen:
https://www.cliccs.uni-hamburg.de/de/about-cliccs/news/2020-news/2020-01-09-sea-... CLICCS-Webseite
https://advances.sciencemag.org/content/6/2/eaaw9490 Fachpublikation: Li C, Held H, Hokamp S, Marotzke J (2019): Optimal temperature overshoot profile found by limiting global sea-level rise as a lower-cost climate target; Science Advances

Quelle: IDW 

(nach oben)


Immer gegen den Uhrzeigersinn

Dr. Boris Pawlowski Presse, Kommunikation und Marketing
Christian-Albrechts-Universität zu Kiel

Rätsel frühneolithischer Hausausrichtungen endlich gelöst

Menschliches Verhalten wird von vielen Dingen beeinflusst, die uns meist unbewusst bleiben. Dazu gehört ein Phänomen, das unter Wahrnehmungspsychologen unter dem Begriff „Pseudoneglect" bekannt ist. Damit bezeichnen sie die Beobachtung, dass gesunde Menschen ihr linkes Gesichtsfeld gegenüber dem rechten bevorzugen und deshalb eine Linie regelhaft links der Mitte teilen. Eine am Freitag, 10. Januar, in der Online-Zeitschrift PLOS ONE veröffentlichte Studie zeigt nun erstmals, welchen Effekt diese unscheinbare Abweichung in der prähistorischen Vergangenheit hatte.

Menschliches Verhalten wird von vielen Dingen beeinflusst, die uns meist unbewusst bleiben. Dazu gehört ein Phänomen, das unter Wahrnehmungspsychologen unter dem Begriff „Pseudoneglect" bekannt ist. Damit bezeichnen sie die Beobachtung, dass gesunde Menschen ihr linkes Gesichtsfeld gegenüber dem rechten bevorzugen und deshalb eine Linie regelhaft links der Mitte teilen.

Eine am Freitag, 10. Januar, in der Online-Zeitschrift PLOS ONE veröffentlichte Studie zeigt nun erstmals, welchen Effekt diese unscheinbare Abweichung in der prähistorischen Vergangenheit hatte. Ein slowakisch-deutsches Forschungsteam hat die Ausrichtung frühneolithischer Häuser in Mittel- und Osteuropa untersucht. Wissenschaftlerinnen und Wissenschaftlern des Sonderforschungsbereiches (SFB) „TransformationsDimensionen" der Christian-Albrechts-Universität zu Kiel (CAU) und der Slowakischen Akademie der Wissenschaften gelang dabei der Nachweis, dass die Orientierung neu gebauter Häuser um einen kleinen Betrag von derjenigen bereits bestehender Bauwerke abweicht und dass diese Abweichung regelhaft gegen den Uhrzeigersinn erfolgte.

Archäologe Dr. Nils Müller-Scheeßel, der die Studie innerhalb des SFB koordinierte, sagt dazu: „Seit langem geht man in der Forschung davon aus, dass die frühneolithischen Häuser ungefähr eine Generation, dass heißt 30 bis 40 Jahre gestanden haben und in regelmäßigen Abständen neue Häuser neben bereits bestehenden errichtet werden mussten. Durch Altersbestimmungen mithilfe der Radiokarbonmethode können wir nun zeigen, dass die Neuerrichtung mit einer kaum wahrnehmbaren Drehung der Hausachse gegen den Uhrzeigersinn verbunden war. Wir sehen ‚Pseudoneglect‘ als wahrscheinlichste Ursache dafür."

Möglich wurde diese Erkenntnis durch die Interpretation eines der zur Zeit am schnellsten wachsenden archäologischen Datenbestände, nämlich der Ergebnisse geophysikalischer Magnetikmessungen. Dabei werden Unterschiede im Erdmagnetfeld dazu genutzt, um im Untergrund liegende archäologische Befunde sichtbar zu machen. Frühneolithische Hausgrundrisse gehören zu den am besten identifizierbaren Befundgattungen.

„In den letzten Jahren haben wir in unserem Arbeitsgebiet in der Südwestslowakei mit geophysikalischen Prospektionsmethoden Hunderte von frühneolithischen Häusern entdeckt. Diese Häuser alle auszugraben ist weder möglich noch aus denkmalpflegerischen Gründen überhaupt wünschenswert. Die Möglichkeit, über ‚Pseudoneglect‘ die Häuser ohne Ausgrabung in eine relative Abfolge zu bringen und damit das Siedlungsgeschehen einer ganzen Kleinregion aufzuschlüsseln, hebt unsere Forschung auf ein ganz neues Niveau", äußert sich Müller-Scheeßel begeistert. „Die absolute Datierung mit naturwissenschaftlichen Methoden muss selbstverständlich in jedem Fall die Grundtendenz bestätigen."

In der Studie wird ferner auf vergleichbare archäologische Beobachtungen an anderen Orten und Zeiten verwiesen, die zeigen, dass ähnliche Orientierungsveränderungen auch für jüngere prähistorische Perioden zuzutreffen scheinen. Die Bedeutung von „Pseudoneglect" reicht also weit über die Datierung frühneolithischer Häuser hinaus.

Originalpublikation:
Müller-Scheeßel N, Müller J, Cheben I, Mainusch W, Rassmann K, Rabbel W, et al. (2020) A new approach to the temporal significance of house orientations in European Early Neolithic settlements. PLoS ONE 15(1): e0226082. https://doi.org/10.1371/journal.pone.0226082 (nach Ende der Sperrfrist)

Bilder stehen zum Download bereit:
http://www.uni-kiel.de/de/pressemitteilungen/2020/005-luftbild.jpg
Luftbild der Ausgrabungsfläche einer frühneolithischen Siedlung bei Vráble in der Slowakei.
© Nils Müller-Scheeßel

http://www.uni-kiel.de/de/pressemitteilungen/2020/005-magnetmessung.jpg
Vorbereitung für die geophysikalische Untersuchung einer Fläche bei Vráble. Das Messgerät, das über den Boden gezogen wird, zeichnet magnetische Anomalien unter der Oberfläche auf. Dadurch werden archäologische Befunde wie Hausgrundrisse sichtbar.
© Martin Furholt

http://www.uni-kiel.de/de/pressemitteilungen/2020/005-magnetikplan.jpg
Magnetischer Plan einer frühneolithischen Siedlung. Jeweils zwei der dunklen Linien mit einer Länge von 20 bis 30 Metern bilden den Teil eines Hauses ab.
© Nils Müller-Scheeßel

Mehr Informationen im Internet:
http://www.sfb1266.uni-kiel.de

Kontakt:
Dr. Nils Müller-Scheeßel
Institut für Ur- und Frühgeschichte
Christian-Albrechts-Universität zu Kiel
E-Mail: nils.mueller-scheessel@ufg.uni-kiel.de
Telefon: 0431/880-2067

Christian-Albrechts-Universität zu Kiel
Presse, Kommunikation und Marketing, Dr. Boris Pawlowski, Text/Redaktion: Angelika Hoffmann
Postanschrift: D-24098 Kiel, Telefon: (0431) 880-2104, Telefax: (0431) 880-1355
E-Mail: presse@uv.uni-kiel.de Internet: www.uni-kiel.de Twitter: www.twitter.com/kieluni
Facebook: www.facebook.com/kieluni Instagram: www.instagram.com/kieluni

Wissenschaftliche Ansprechpartner:
Dr. Nils Müller-Scheeßel
Institut für Ur- und Frühgeschichte
Christian-Albrechts-Universität zu Kiel
E-Mail: nils.mueller-scheessel@ufg.uni-kiel.de
Telefon: 0431/880-2067

Originalpublikation:
Müller-Scheeßel N, Müller J, Cheben I, Mainusch W, Rassmann K, Rabbel W, et al. (2020) A new approach to the temporal significance of house orientations in European Early Neolithic settlements. PLoS ONE 15(1): e0226082. https://doi.org/10.1371/journal.pone.0226082

Weitere Informationen:
http://www.uni-kiel.de/de/universitaet/detailansicht/news/005-uhrzeigersinn

Quelle: IDW 

(nach oben)


Die Wärmewende beginnt im Stadtteil - Konzepte für den urbanen Raum entwickelt

Richard Harnisch Öffentlichkeitsarbeit und Kommunikation
Institut für ökologische Wirtschaftsforschung GmbH, gemeinnützig

► Forschungsprojekt „Urbane Wärmewende" entwickelt Wärmeversorgungskonzepte für Quartiere und Wärmenetze
► Im Fokus: Nutzung lokaler erneuerbarer Wärmequellen und Abwärme, Wärmeplanung, Resilienz und Sozialverträglichkeit
► Folgeprojekt konzentriert sich zwei weitere Jahre auf die kommunale Wärmeplanung

Eine der Herkulesaufgaben, um die Klimaziele zu erreichen, ist es, den CO2-Ausstoß der Wärmeversorgung radikal zu senken. Eine Forschergruppe unter Leitung des Instituts für ökologische Wirtschaftsforschung (IÖW) zeigt, wie Städte sich sozialverträglich von Kohle, Öl und Gas abwenden können. Im Projekt „Urbane Wärmewende" wurden mögliche Beiträge von erneuerbaren Energien und lokalen Wärmequellen in Berliner Stadtquartieren untersucht. „Abwärme aus Betrieben, Wärme aus Abwasser oder Geothermie werden bislang kaum genutzt. Der Schlüssel für solche umweltfreundliche Wärme sind Quartierskonzepte und Wärmenetze", so Projektleiter Bernd Hirschl vom IÖW. „Eine wichtige Voraussetzung ist ein effizienterer Gebäudebestand. Nur wenn der Wärmebedarf deutlich gesenkt wird, können umweltfreundliche Wärmequellen effizient genutzt werden."

In dem dreijährigen Projekt erarbeite das Projektteam aus IÖW, Universität Bremen und Technischer Universität Berlin gemeinsam mit der Berliner Senatsverwaltung für Umwelt, Verkehr und Klimaschutz mit Förderung des Bundesforschungsministeriums lokale Wärmekonzepte für drei Berliner Quartiere. Ende des Jahres 2019 diskutierten sie ihre Ergebnisse mit der Wärmebranche in Berlin, die Dokumentation der Tagung ist jetzt online auf http://www.urbane-waermewende.de.

Keimzellen für die Wärmewende erschließen
„Bisherige Quartierskonzepte waren oft zu komplex, hatten zu viele verschiedene Akteure und landeten am Ende oft in der Schublade. Deshalb empfehlen wir einen Keimzellenansatz", so Elisa Dunkelberg vom IÖW. Dies können etwa öffentliche Gebäude, Neubauvorhaben, gewerbliche Gebäude oder Wohnungsbaugesellschaften und -genossenschaften sein.

Für ein Altbauviertel im Bezirk Charlottenburg-Wilmersdorf zeigen die Forscher, wie ein solches Quartierskonzept aussehen kann: Zunächst muss der Wärmebedarf durch eine energetische Sanierung gesenkt werden. Die Wärme kann über eine Abwasser-Wärmepumpe, die zum Teil mit vor Ort erzeugtem Solarstrom betrieben wird, in Kombination mit Kraft-Wärmekopplung erzeugt werden. „Vor allem bei öffentlichen Gebäuden, die eine - in Berlin gesetzlich verankerte - Vorreiterrolle haben, sollte im Sanierungsfall und bei Neubauten immer geprüft werden, ob sie sich als Keimzelle für ein Quartierskonzept und die Mitversorgung umliegender Gebäude eignen", betont Dunkelberg.

Klimaneutrale Fernwärme: Abwärme und Erneuerbare nutzen
Fernwärme spielt in urbanen Räumen eine große Rolle. „Um klimaneutral zu werden, ist es wichtig, lokale Wärmequellen aus Abwasser, Flusswasser und Geothermie sowie aus Abwärme mehr in die Fernwärme zu integrieren", so Hirschl. Dabei muss auch auf die Resilienz des Wärmeerzeugungssystems geachtet werden. Eine gemeinsame Fallstudie mit dem Fernheizwerk Neukölln zeigt, dass es möglich ist, lokale Wärmequellen zu nutzen. Aber es muss technisch erprobt werden und es braucht unterstützende, finanzielle Maßnahmen. Nächste Schritte müssten nun etwa Probebohrungen für tiefe Geothermie sein sowie Pilotanlagen, die Abwasser- oder Flusswasserwärme durch Groß-Wärmepumpen für die Fernwärme bereitstellen. Für die Investition in die teils unerprobten und hochinvestiven Technologien braucht es Strategien zur Förderung und Risikoabsicherung.

Wärmewende erfordert kommunale strategische Wärmeplanung - und Sozialverträglichkeit
„Um die identifizierten Potenziale zu erschließen, hilft eine kommunale Wärmeplanung, wie sie in Vorreiterländern wie Dänemark bereits seit Langem und in anderen Bundesländern und Kommunen seit einiger Zeit vorgeschriebene Praxis ist", betont Hirschl. Grundlage hierfür ist ein Wärmekataster, das die Wärmequellen wie Abwasser und gewerbliche Abwärme sichtbar macht. Damit können auch Quartiere für gebäudeübergreifende Konzepte identifiziert werden. Mit der Sektorenkopplung kommt es zudem darauf an, dass Kommunen und Städte infrastrukturübergreifend planen. Instrumente wie die Bauleitplanung und städtebauliche Verträge sind auf Klimaneutralität auszurichten.

Geringe Sanierungsraten der letzten Jahre zeigen, dass rein anreizbasierte Maßnahmen nicht ausreichen, um die energetische Modernisierung sicherzustellen. Deshalb empfehlen die Forscherinnen und Forscher, die Vorschriften stärker umzusetzen und einen Stufenplan zu entwickeln, der den Gebäudebestand in Richtung Klimaneutralität führt. Gleichzeitig müssen Zuschüsse erhöht und Konditionen für die Umlage auf die Miete sozialverträglicher werden. Ein Stufenplan unter den Bedingungen eines Mietendeckels muss so ausgestaltet werden, dass die energetische Modernisierung sowohl für Vermieter als auch für Mieterinnen wirtschaftlich zumutbar ist.

Bundesforschungsministerium finanziert Projekt „Urbane Wärmewende" zwei weitere Jahre
Das Bundesforschungsministerium fördert das Projekt in neuer Partnerkonstellation für zwei weitere Jahre, um Lösungsstrategien für die zentralen Hemmnisse bei der Umsetzung zu erproben und die Forschungsergebnisse in einer kommunalen Wärmeplanung zu verankern. Partner sind neben dem IÖW die Berliner Wasserbetriebe und die Rechtskanzlei Becker Büttner Held.

Infografiken zur Wärmewende in der Stadt:
http://www.urbane-waermewende.de/publikationen/infografiken.html

Über das Projekt:
Das Projekt Urbane Wärmewende untersucht am Beispiel der Stadt Berlin, welche Optionen es für eine umwelt- und klimaschonende Wärmeversorgung geben kann. Im Projekt wird analysiert, wie Wärme-, Gas- und Strominfrastrukturen intelligent miteinander vernetzt werden können und welche Governance- und Beteiligungsformen dafür notwendig sind. Dabei fokussiert das Projekt auf konkrete Gebiete in Berliner Bezirken und entwickelt und analysiert Transformationsszenarien gemeinsam mit Umsetzungsakteuren aus Wirtschaft und Verwaltung.

Das Projekt wird gefördert vom Bundesministerium für Bildung und Forschung (BMBF) in der Förderinitiative „Nachhaltige Transformation urbaner Räume" des Förderschwerpunkts Sozial-ökologische Forschung (SÖF). Projektpartner sind neben dem Institut für ökologische Wirtschaftsforschung (Gesamtprojektleitung) die Berliner Senatsverwaltung für Umwelt, Verkehr und Klimaschutz, die Technische Universität Berlin (Institutionenökonomie, Wärmeplanung) und die Universität Bremen (Resilienz). Informationen und Infografiken zu den inhaltlichen Schwerpunkten des Projektes auf www.urbane-waermewende.de

Pressekontakt:
Richard Harnisch
Institut für ökologische Wirtschaftsforschung
Telefon: +49-30-884 594-16
E-Mail: richard.harnisch@ioew.de

Das Institut für ökologische Wirtschaftsforschung (IÖW) ist ein führendes wissenschaftliches Institut auf dem Gebiet der praxisorientierten Nachhaltigkeitsforschung. Über 60 Mitarbeiterinnen und Mitarbeiter erarbeiten Strategien und Handlungsansätze für ein zukunftsfähiges Wirtschaften - für eine Ökonomie, die ein gutes Leben ermöglicht und die natürlichen Grundlagen erhält. Das Institut arbeitet gemeinnützig und ohne öffentliche Grundförderung.
http://www.ioew.de

Wissenschaftliche Ansprechpartner:
Dr. Elisa Dunkelberg
Institut für ökologische Wirtschaftsforschung
Telefon: +49-30-884 594-36
E-Mail: elisa.dunkelberg@ioew.de

Weitere Informationen:
http://www.urbane-waermewende.de
https://www.urbane-waermewende.de/publikationen/infografiken.html

Anhang
Infografik: Wärmewende in der Stadt
https://idw-online.de/de/attachment78970

Quelle: IDW 

(nach oben)


Nicht Ost-West macht den Unterschied, sondern oben und unten

Katharina Vorwerk Presse- und Öffentlichkeitsarbeit
Otto-von-Guericke-Universität Magdeburg

Studie zeigt Einfluss von Einkommen und Bildung auf Gefühl der Wertschätzung in Deutschland

93 Prozent der Menschen in Deutschland fühlen sich in ihrem Alltag wertgeschätzt, Geringschätzung erfahren deutlich weniger - jedoch immer noch jeder Zweite (52 Prozent). Die meisten Menschen erfahren Wertschätzung vor allem in der Familie und im Freundeskreis, wohingegen Erfahrungen der Geringschätzung eher in öffentlichen Bereichen, wie zum Beispiel dem Arbeitsplatz, gemacht werden. Ostdeutsche und Westdeutsche fühlen sich im Alltag gleichermaßen wertgeschätzt, große Unterschiede bestehen aber nach Einkommen, Bildung und Erwerbsstatus.

Das zeigte eine Studie der Otto-von-Guericke-Universität Magdeburg. Die Soziologen Christian Schneickert, Jan Delhey und Leonie Steckermeier haben untersucht, wer sich in Deutschland in welchen Lebensbereichen wert- oder geringgeschätzt fühlt. Anhand eines von ihnen entwickelten Fragemoduls für die Innovationsstichprobe des Sozio-oekonomischen Panels kamen sie zu durchaus überraschenden Ergebnissen, so Prof. Delhey.

So seien die Alltagserfahrungen der Wert- und Geringschätzung in Deutschland durchaus ungleich verteilt. Dabei mache die sogenannte Schichtposition einen großen Unterschied: Je höher das Einkommen und die Bildung einer Person, desto besser fällt auch die Wertschätzungsbilanz aus. „Auch der Erwerbsstatus ist wichtig", so Delhey weiter, „denn im Gegensatz zu Erwerbstätigen erfahren Arbeitslose weit weniger Wertschätzung und mehr Geringschätzung." Keinen Unterschied hingegen mache die regionale Herkunft: Ost- und Westdeutsche fühlen sich im Alltag gleichermaßen wert- und geringgeschätzt. Auch Menschen mit Migrationshintergrund unterschieden sich in ihrer Wertschätzungsbilanz nicht vom Rest der Bevölkerung.

„Wer sich für die ungleiche Verteilung von Wert- und Geringschätzung im alltäglichen gesellschaftlichen Miteinander interessiert, ist zumindest für Deutschland gut beraten, sich stärker der sozio-ökonomischen Ungleichheit zu widmen als der sozio-kulturellen Unterschiedlichkeit", schlussfolgert Christian Schneickert.

Darüber hinaus haben die Forscher auch untersucht, welche Folgen Geringschätzung und Wertschätzung für die Betroffenen und die Gesellschaft haben. Dabei zeigt sich, dass die positiven und negativen Alltagserfahrungen nicht nur die persönliche Lebenszufriedenheit, sondern auch die Zufriedenheit mit der Demokratie deutlich beeinflussen.

Die Studie entstand im Rahmen des Projekts „Anerkennung, Abwertung und Erfolgsstreben" am Lehrstuhl Makrosoziologie der Otto-von-Guericke-Universität Magdeburg und wurde von der Deutschen Forschungsgemeinschaft DFG finanziert.

Für die empirischen Analysen wurden Daten einer bevölkerungsrepräsentativen Stichprobe von 3.580 Personen in Deutschland im Jahr 2016 ausgewertet. Die Daten wurden im Rahmen der Innovationsstichprobe als Teil des Sozio-oekonomischen Panels erhoben und ermöglichen erstmals detaillierte Einblicke in die Verbreitung und Bedeutung von alltäglichen Erfahrungen von Wert- und Geringschätzung.

Die Studie, die in der renommierten Kölner Zeitschrift für Soziologie und Sozialpsychologie erschienen ist, kann kostenfrei heruntergeladen werden: http://link.springer.com/article/10.1007/s11577-019-00640-8

Wissenschaftliche Ansprechpartner:
Prof. Dr. Jan Delhey, Institut für Gesellschaftswissenschaften, Universität Magdeburg, Tel.: +49 391 67-56537, E-Mail: jan.delhey@ovgu.de

Originalpublikation:
Christian Schneickert, Jan Delhey & Leonie C. Steckermeier (2019): Eine Krise der sozialen Anerkennung? Ergebnisse einer Bevölkerungsbefragung zu Erfahrungen der Wert- und Geringschätzung in Deutschland. Kölner Zeitschrift für Soziologie und Sozialpsychologie, Jg. 72, H. 4

Quelle: IDW 

(nach oben)


Nervenschmerzen frühzeitig verhindern

Unangenehmes Kribbeln in Händen und Füßen, Taubheitsgefühle, Pelzigkeit und Brennen - diese Symptome können auf eine Neuropathie, eine Erkrankung des Nervensystems hindeuten. Dauern die Schmerzen mehrere Monate an, wer-den sie als chronisch bezeichnet. Sie sind dann nur sehr schwer zu behandeln, wobei verfügbare Medikamente oftmals gravierende Nebenwirkungen haben. Forscherinnen und Forscher am Institutsteil Translationale Medizin und Pharma-kologie TMP des Fraunhofer-Institut für Molekularbiologie und Angewandte Oekologie IME haben einen Weg gefunden, um die Entwicklung von neuropathischen Schmerzen frühzeitig zu unterbinden.

Etwa fünf Millionen Menschen in Deutschland leiden an neuropathischen Schmerzen.Sie entstehen durch Schädigungen des peripheren oder zentralen Nervensystems. Die Ursachen sind vielfältig: Oftmals treten die Missempfindungen nach Operationen, beispielsweise bei Bypass-OPs, oder Unfällen auf, etwa wenn das Rückenmark verletzt ist. Auch Phantomschmerzen, unter denen nicht wenige Patienten nach einer Amputation leiden, zählen zu den neuropathischen, mechanisch induzierten Schmerzen. Typisch ist eine Veränderung der Hautsensibilität. Reize wie Kälte, Hitze oder Berührungen werden stärker oder kaum empfunden. Problematisch wird es, wenn der Schmerz sich verselbständigt und chronisch wird. Die Lebensqualität der Betroffenen ist dann erheblich beeinträchtigt. Häufig können sie ihren Beruf nicht mehr ausüben, sie vernachlässigen Freizeitbeschäftigungen und Freundschaften. Die Folgen sind Isolation, Resignation und Depression.

Die Entwicklung von neuropathischen, trauma-induzierten Schmerzen, die nach Operationen oder Unfällen häufig auftreten, muss so früh wie möglich unterbunden werden. Denn sind die neuropathischen Schmerzen erst einmal entstanden, wirken Therapien nur noch eingeschränkt. Hinzu kommt, dass die entspechenden Medikamente starke Nebenwirkungen haben.

Wenn Immunzellen zum Feind werden
Hier setzen Forscherinnen und Forscher des Fraunhofer IME in Frankfurt an. Sie for-schen an alternativen Therapien für die frühzeitige Behandlung von neuropathischen Schmerzen. In Tests konnten sie nachweisen, dass verschiedene Lipide, die als Signalmoleküle bei Verletzungen freigesetzt werden, die Entzündungsreaktionen an den beschädigten Nerven steuern. »Die Nerven schlagen Alarm und setzen Lipide frei, um dem Immunsystem zu signalisieren, dass eine Verletzung vorliegt und die Ursache beseitigt werden muss«, sagt Prof. Dr. Klaus Scholich, Gruppenleiter Biomedizinische Analytik und Imaging am Fraunhofer IME. »Bei neuropathischen Schmerzen werden die angelockten Immunzellen nach einiger Zeit zum Feind. Sie interagieren derart mit den Nerven, dass die betroffenen Areale permanent entzündet sind. Die Nervenschmerzen können nicht mehr abflauen, sie werden chronisch. Indem wir Signalwege unter-brechen, die Immunzellen anlocken, können wir die Schmerzen deutlich verringern.« Möglich ist dies beispielsweise durch den rechtzeitigen Einsatz von Schmerzmitteln wie Ibuprofen und Diclofenac. Frühzeitig verabreicht, können diese Medikamente die Her-stellung des Lipids Prostaglandin E2 stoppen, das eine entscheidende Rolle bei trauma-induzierten Schmerzen spielt, da es sowohl die Nerven sensibilisiert als auch das Immunsystem aktiviert.

Darüber hinaus bindet Prostaglandin E2 den Rezeptor EP3. Neuronen, die diesen Rezeptor aufweisen, setzen das Signalmolekül CCL2 frei. Dieses fördert wiederum die Schmerzentwicklung entscheidend, da es immer neue Immunzellen zu den verletzten Nerven lockt und auch selbst die Schmerzwahrnehmung verstärkt, wie die IME-Forscher in ihren Untersuchungen herausfanden. »Wir konnten die nachgeschalteten Mechanis-men aufklären, die über Entzündungsreaktionen die Entstehung neuropathischer Schmerzen begünstigen«, erläutert Prof. Scholich. »Der Rezeptor EP3 erkennt das Prostaglandin E2. Indem man nun den EP3 ausschaltet und somit die CCL2-Freisetzung hemmt, kann man die Schmerzentstehung deutlich verringern.« Das CCL2 ließe sich mit therapeutischen, spezifischen Antikörpern abfangen. Diese Antikörper könnten bei chronischen Schmerzen zum Einsatz kommen, wenn herkömmliche Arzneimittel wie Ibuprofen nicht mehr wirken. Der Nachteil: Antikörper müssen gespritzt werden. Da dies von den meisten Patienten als unangenehm empfunden wird, forschen Scholich und seine Kolleginnen und Kollegen an alternativen Wirkstoffen, die sich oral verabreichen lassen. Ihre Ergebnisse haben die Forscher in der renommierten Fachzeitschrift »Journal of Biological Chemistry« veröffentlicht.

Die Fraunhofer-Gesellschaft ist die führende Organisation für angewandte Forschung in Europa. Unter ihrem Dach arbeiten 72 Institute und Forschungseinrichtungen an Standorten in ganz Deutschland. Mehr als 26 600 Mitarbeiterinnen und Mitarbeiter erzielen das jährliche Forschungsvolumen von 2,6 Milliarden Euro. Davon fallen 2,2 Milliarden Euro auf den Leistungsbereich Vertragsforschung. Rund 70 Prozent dieses Leistungsbereichs erwirtschaftet die Fraunhofer-Gesellschaft mit Aufträgen aus der Industrie und mit öffentlich finanzierten Forschungsprojekten. Internationale Kooperationen mit exzellenten Forschungspartnern und innovativen Unternehmen weltweit sorgen für einen direkten Zugang zu den wichtigsten gegenwärtigen und zukünftigen Wissenschafts- und Wirtschaftsräumen.

Quelle: Fraunhofer 

(nach oben)


Dünger aus Klärschlamm

Britta Widmann Kommunikation
Fraunhofer-Gesellschaft

Ab 2032 müssen große Kläranlagen Phosphate aus dem Klärschlamm, bzw. der Asche zurückgewinnen - das besagt die neue Abfall- und Klärschlammverordnung. Bisherige Technologien dazu sind jedoch chemikalien- und kostenintensiv. Eine neue Technologie bietet nun eine wirtschaftliche und umweltfreundliche Alternative. Fraunhofer-Forscherinnen und Forscher zeichnen für die Aufskalierung des Verfahrens verantwortlich.

Hobbygärtner dürften es kennen: Ohne Düngemittel gedeihen Blumen, Kohlrabi, Tomaten und Co. nur mäßig. Landwirte setzen beim Düngen vor allem auf phosphathaltige Präparate, schließlich ist Phosphor ein elementarer Bestandteil allen Lebens und wird auch von Pflanzen dringend benötigt. Was die Lieferkette von Phosphor angeht, existiert jedoch ein Nadelöhr - 75 Prozent der Phosphatlagerstätten liegen in Marokko und der westlichen Sahara. Wie kritisch das werden kann, zeigte sich in den Jahren 2008 und 2009: Durch Lieferengpässe und Spekulationen an den Rohstoffmärkten stieg der Phosphorpreis um 800 Prozent. Die Europäische Kommission nahm Phosphor daher in die Liste der 20 kritischen Rohstoffe auf. Auch die Bundesregierung reagierte: Ab 2023 müssen Betreiber großer Kläranlagen ein Konzept vorlegen, wie der Phosphor zurückzugewinnen ist. Zwar kann die Klärschlammasche auch direkt auf die Felder ausgebracht werden, allerdings können die Pflanzen den darin enthaltenen Phosphor nicht in nennenswertem Maße verwerten. Dazu kommt: Die Asche enthält auch Schadstoffe wie Schwermetalle, die nicht auf den Acker gelangen sollten. Zwar gibt es bereits erste Ansätze, den Phosphor über nasschemische Verfahren aus der Klärschlammasche zurückzugewinnen. Jedoch sind hierfür große Mengen an Chemikalien nötig.

Phosphor rückgewinnen: Kostengünstig, pflanzenverfügbar und umweltschonend
Einen alternativen Ansatz verfolgt die P-bac Technologie, die Experten der Firma Fritzmeier Umwelttechnik GmbH & Co. KG entwickelt und im Projekt »Phosphorrecycling - vom Rezyklat zum intelligenten langzeitverfügbaren Düngemittel - PRil« gemeinsam mit der Fraunhofer-Einrichtung für Wertstoffkreisläufe und Ressourcenstrategie IWKS in Alzenau,und der ICL Fertilizers Deutschland GmbH vom Labormaßstab in den Technikumsmaßstab übertragen haben. Das Projekt wurde vom Bundesministerium für Ernährung und Landwirtschaft gefördert.

»Wir haben die Aufskalierung des Verfahrens im Bereich der Prozesswasserrezyklierung sowie der Reststoffverwertung, Wirtschaftlichkeitsbetrachtungen und Analytik begleitet«, erläutert Dr. Lars Zeggel, Projektleiter am Fraunhofer IWKS. »Der Phosphor, den wir über das neuartige Verfahren aus der Asche zurückgewinnen, hat eine Pflanzenverfügbarkeit von 50 Prozent, bezogen auf einen wasserlöslichen Phosphatdünger. Zum Vergleich: Das Phosphat in der reinen Klärschlammasche ist nahezu gar nicht pflanzenverfügbar.« Zudem ist das enthaltene Substrat weitgehend schadstofffrei, die relevanten Schadstoffe können um mehr als 90 Prozent reduziert werden. Auch was die Kosten angeht, kann sich das Düngemittel aus recyceltem Klärschlamm sehen lassen, wie eine Wirtschaftlichkeitsbetrachtung des Fraunhofer IWKS ergab: Etwa zwei Euro pro Kilogramm kostet das so hergestellte Phosphat, während der Preis bei der Herstellung über nasschemische Verfahren bei mindestens vier bis sechs Euro pro Kilogramm liegt. Zwar ist der Phosphor aus recycelten Quellen bislang noch teurer als der primäre Phosphor aus Marokko, der bei 70 Cent pro Kilogramm P2O5 liegt. Doch enthält der primäre Phosphor im Gegensatz zum recycelten zunehmend Schadstoffe wie Cadmium und Uran.

Bakterien machen es möglich
Das Verfahren, mit dem der Phosphor aus dem Klärschlamm zurückgewonnen wird, hat die Firma Fritzmeier entwickelt. Der Clou: Statt Chemikalien wie Schwefelsäure zur Klärschlammasche zu geben, überlassen die Experten Bakterien das Feld. Diese nehmen Kohlenstoffdioxid aus der Luft auf - schaffen somit also einen weiteren Vorteil - und stellen unter Zugabe von elementarem Schwefel selbst Schwefelsäure her, mit dem sie den Phosphor aus der Asche lösen. Andere Bakterien nehmen den Phosphor unter geschickt gewählten Lebensbedingungen auf, reichern ihn an und geben ihn unter anderen Lebensbedingungen wieder ab: Es fällt festes Eisenphosphat aus, das von der Laugungslösung abgetrennt werden kann.

Die Forscher des Fraunhofer IWKS widmeten sich unter anderem dem Prozesswasser. »Um ein Liter Klärschlammasche zu rezyklieren, sind etwa zehn Liter Prozesswasser nötig«, sagt Zeggel. Nach der Abtrennung des Phosphats lässt es sich direkt für die erneute Vermehrung der Bakterien verwenden, und muss erst nach einigen Zyklen entsalzt werden. »Wir haben die Membranfiltration soweit anpassen können, dass wir 98 Prozent des eingesetzten Sulfats - also den Schwefel - aus dem Wasser entfernen und letztendlich 75 Prozent des Prozesswassers im Kreis führen können«, fasst Zeggel zusammen. Damit reduziert sich die Menge des zu entsorgenden Prozesswassers erheblich und führt zu hohen Einsparungen an Energie. Das Verfahren ist somit nicht nur sehr umweltschonend, sondern es fällt auch ein großer Kostenfaktor weg. Denn die Energie, die zum Verdampfen des Wassers aufgewendet werden müsste, ist einer der größten Kostentreiber. Mit der Membranfiltration konnte das Forscherteam die Betriebskosten erheblich senken. Das Gesamtverfahren ist bereits im Hundert-Liter-Maßstab einsatzbereit.

Weitere Informationen:
https://www.fraunhofer.de/de/presse/presseinformationen/2020/januar/duenger-aus-...

Quelle: IDW 

(nach oben)


Klimafreundliche Energie aus Abwärme

Dr. Ulrich Marsch Corporate Communications Center
Technische Universität München

Die Deutsche Physikalische Gesellschaft (DPG) verleiht ihren Technologietransferpreis an das Start-up Orcan Energy, den Lehrstuhl für Energiesysteme der Technischen Universität München (TUM) und das Team Patente und Lizenzen der TUM. Sie zeichnet damit die erfolgreiche Erforschung, Patentierung und Produkteinführung einer Technologie aus, mit der Abwärme in Strom umgewandelt werden kann.

Jeden Tag gehen enorme Mengen an Energie in der Industrie und im Verkehr ungenutzt verloren. In der Produktion und an Motoren entsteht Abwärme. Um diese zu verwerten, entwickelte ein Team am Lehrstuhl für Energiesysteme der TUM eine neue Technologie, die zur Stromerzeugung in Fabriken, Blockheizkraftwerken, Schiffen und vielen weiteren Industrieprozessen eingesetzt werden kann.

Das einfach zu installierende Gerät funktioniert wie ein Dampfkraftwerk, nur dass zum Antrieb der Turbinen eine organische Flüssigkeit statt Wasser eingesetzt wird, die schon bei niedrigen Temperaturen verdampft. Dieses Prinzip, Organic Rankine Cycle (ORC) genannt, nutzt das Team für eine Technologie, die kleine Mengen an Abwärme effizient nutzbar macht und ohne großen Aufwand betrieben werden kann.

Mehr als 100 Patente
Das Team Patente und Lizenzen im Hochschulreferat Forschungsförderung und Technologietransfer (ForTe) meldete für die TUM mit Unterstützung der Bayerischen Patentallianz die ersten Erfindungen zum Patent an. 2008 gründeten Richard Aumann, Dr. Andreas Sichert und Dr. Andreas Schuster Orcan Energy und erwarben die Patente. Inzwischen halten sie mehr als 100 Patente und haben aus dem Start-up ein Unternehmen mit rund 60 Mitarbeiterinnen und Mitarbeitern entwickelt. Orcan Energy hat weltweit bereits mehr als 200 Anlagen verkauft, die insgesamt rund 30 Gigawattstunden Strom produziert haben, ohne CO2 zu freizusetzen. Damit gilt das Unternehmen als weltweit führender Anbieter von ORC-Energietechnologie.

Der DPG-Technologietransferpreis wird am 31. März 2020 auf der Jahrestagung der Deutschen Physikalische Gesellschaft in Bonn überreicht. Die TUM hat die Gründer 2016 mit ihrem Presidential Entrepreneurship Award ausgezeichnet.

Mehr Informationen:
Die TUM meldet jedes Jahr rund 70 Erfindungen ihrer Wissenschaftlerinnen und Wissenschaftler zum Patent an. TUM ForTe Patente & Lizenzen berät und unterstützt bei der Sicherung geistigen Eigentums und bei der Verwertung von Patenten. Teams, die neue Technologien auf den Markt bringen wollen, fördern TUM und UnternehmerTUM, das Zentrum für Innovation und Gründung, mit Programmen für jede Phase einer Unternehmensgründung. Bis zu 30 Teams gleichzeitig können Büros im TUM Incubator nutzen, um sich auf den Start ihres Unternehmens vorzubereiten. UnternehmerTUM investiert mit dem eigenen Venture Capital Fonds UVC in vielversprechende Technologieunternehmen und bietet mit dem MakerSpace und der Bio.Kitchen eine 1.500 Quadratmeter große Hightech-Werkstatt für den Prototypenbau und ein Biotechnologielabor. Jedes Jahr werden an der TUM mehr als 70 Technologieunternehmen gegründet.

Weitere Informationen:
https://www.tum.de/nc/die-tum/aktuelles/pressemitteilungen/details/35154/
Gründungsförderung an der TUM

Quelle: IDW 

(nach oben)


Neue Wirkstoffe gegen multiresistente Keime

Britta Widmann Kommunikation
Fraunhofer-Gesellschaft

Resistenzen gegen Antibiotika nehmen weltweit ständig zu. Im Projekt Phage4Cure gehen Fraunhofer-Forscherinnen und -Forscher gemeinsam mit Partnern neue Wege: Ziel ist es, multiresistente Keime mit Viren, sogenannten Bakteriophagen, zu bekämpfen. Insbesondere gegen den gefürchteten Krankenhauskeim Pseudomonas aeruginosa, häufigster bakterieller Verursacher von Lungenentzündungen, sollen Phagen als zugelassenes Arzneimittel etabliert werden.

Laut Weltgesundheitsorganisation WHO nehmen Antibiotikaresistenzen weltweit alarmierende Ausmaße an. Sie drohten hundert Jahre medizinischen Fortschritts zunichtezumachen, so WHO-Generalsekretär Tedros Adhanom Ghebreyesus. Eine Lösung dafür zu finden, sei eine der dringendsten Herausforderungen im Gesundheitsbereich. Hier setzt das Projekt Phage4Cure (siehe Kasten) an: Die Projektpartner, darunter das Fraunhofer-Institut für Toxikologie und Experimentelle Medizin ITEM in Braunschweig, wollen Bakterienviren, auch als Bakteriophagen oder Phagen bezeichnet, im Kampf gegen bakterielle Infektionen einsetzen. Phagen sind Viren, die in Bakterien eindringen, sich in ihnen vermehren und die Bakterien zum Platzen bringen. Der Vorteil der Phagen: Sie greifen nur ihr spezielles Wirtsbakterium an, haben keinen Einfluss auf Körperzellen und andere Bakterien. In Deutschland gibt es bislang keine zugelassenen Phagenpräparate, daher wollen die Phage4Cure-Partner Phagen als neues Medikament etablieren. »Die Phagentherapie an sich ist nicht neu, in den Ländern der ehemaligen Sowjetunion wurde sie jahrzehntelang erfolgreich eingesetzt. Doch hierzulande konnte sich diese individualspezifische Behandlung nicht durchsetzen. Dies liegt insbesondere an den fehlenden klinischen Studien. Angesichts der Antibiotikaresistenzen rücken die Phagen jedoch immer mehr in den Fokus der Forschung, zumal die pharmazeutische Industrie keine neuen Antibiotika entwickelt«, sagt Prof. Holger Ziehr, Projektleiter am Fraunhofer ITEM.

Phagen als ergänzende Therapie
Die Projektpartner erarbeiten eine neue Phagentherapie, die die Auswahl erfolgversprechender Phagen, den Herstellungsprozess, die pharmazeutische Herstellung, die präklinischen Studien sowie die klinischen Prüfungen umfasst. Zunächst soll ein inhalierbarer Wirkstoffcocktail aus drei Bakteriophagen gegen das multiresistente Bakterium Pseudomonas aeruginosa entwickelt werden, das weltweit die häufigste bakterielle Ursache von Lungenentzündungen bei Mukoviszidose-Patienten, aber auch von Harnwegsinfekten ist und sogar zur Blutvergiftung führen kann. Der neue Wirkstoff soll europäischen Richtlinien für Arzneimittel genügen. Davon profitieren würden erst einmal Mukoviszidose-Patienten. Aber das ist erst der Anfang: »Unser Ziel ist es, Phagen als zusätzliche Therapie für verschiedene Infektionskrankheiten zu entwickeln - vor allem dort, wo Antibiotika nicht mehr wirken«, so der Forscher.

Für den Herstellungsprozess ist das Fraunhofer ITEM verantwortlich. Hierbei werden Bakterien, in diesem Fall Pseudomonas aeruginosa, in Bioreaktoren herangezogen. »Haben diese eine bestimmte Zelldichte erreicht, geben wir Phagen dazu, die den Vermehrungszyklus solange durchlaufen, bis alle Bakterien zerstört sind und eine klare Brühe mit Phagen übrigbleibt, aus der wir im nächsten Schritt pharmazeutisch aufreinigen«, erklärt der Biochemiker. Der Herstellungsprozess ist plattformartig aufgebaut, das heißt er ist mit nur geringen Veränderungen auch auf andere Phagen übertragbar. Das Fraunhofer ITEM bekommt die Phagen von der DSMZ (siehe Kasten) zur Verfügung gestellt.

Wirksamer Phagen-Cocktail indentifiziert
Die Phagen werden als Cocktail für den Patienten zusammengestellt. Im Projekt wurden zunächst klinische Bakterienisolate von Mukoviszidose-Patienten gesammelt. Die DSMZ ermittelte anschließend Phagen, die in der Lage sind, die Isolate aufzulösen. »Beim Screening konnten drei Phagen mit einem möglichst breiten Wirtsspektrum identifiziert werden, die zusammen 70 Prozent der 150 Isolate zerstören. Von hundert Patienten könnten wir also etwa 70 mit unserem Phagen-Cocktail heilen«, so der Forscher.

Der Phagen-Herstellungsprozess ist mittlerweile am Fraunhofer ITEM etabliert. Im nächsten Schritt wird eine Erweiterung der seit mehr als 20 Jahren bestehenden Herstellungserlaubnis beantragt, um die drei Phagen und aus diesen anschließend den Cocktail als pharmazeutisch einsetzbaren Klinikprüfstoff produzieren zu können. Im Frühjahr soll im Hannoveraner Institutsteil des Fraunhofer ITEM die präklinische Forschung starten. »Mittlerweile sind zwei weitere Phagenprojekte dazugekommen. Im Projekt PhagoFlow forschen wir an Bakteriophagen zur schnellen Behandlung von Wundsepsis. Im Projekt Phage2Go entwickeln wir Phagen für die inhalative MRSA-Therapie«, erläutert Ziehr die weiteren Forschungsvorhaben zur Behandlung bakterieller Infektionen.

Weitere Informationen:
https://www.fraunhofer.de/de/presse/presseinformationen/2020/januar/neue-wirksto...

Quelle: IDW 

(nach oben)


Neues Jahr, mehr Gehalt? Wann sich der kritische Blick auf die Gehaltsabrechnung auszahlt, welche Informationen helfen

Rainer Jung Abt. Öffentlichkeitsarbeit
Hans-Böckler-Stiftung

Es ist wohl ein Klassiker unter den guten Vorsätzen für das Neue Jahr: Mit dem Chef oder der Chefin endlich einmal über das eigene Gehalt sprechen. Wer nicht nach einem Tarifvertrag bezahlt wird, ist dabei oft auf sich allein gestellt. Einer der wichtigsten Erfolgsfaktoren für die Gehaltsverhandlung ist eine realistische Einschätzung der angestrebten Gehaltserhöhung.

Insbesondere für Beschäftigte im ersten Drittel ihrer Karriere und für Hochqualifizierte sind hier unter Verweis auf die gestiegene Berufserfahrung durchaus beachtliche Steigerungen möglich. Für alte Hasen und Beschäftigte in einfacheren Tätigkeiten hilft hingegen eher ein Vergleich mit den Gehältern, die bei der Konkurrenz gezahlt werden. Zu diesem Ergebnis kommt eine Auswertung von 195.000 Datensätzen des Portals Lohnspiegel.de, das vom Wirtschafts- und Sozialwissenschaftlichen Institut (WSI) der Hans-Böckler-Stiftung betreut wird.

„Am Anfang des Berufslebens wächst der eigene Erfahrungsschatz besonders schnell und viele übernehmen im Betrieb neue Verantwortlichkeiten", sagt Dr. Malte Lübker, Experte für Tarif- und Einkommensanalysen am WSI. „Das macht einen für den Arbeitgeber wertvoller - und mit etwas Verhandlungsgeschick lässt sich das in barer Münze auszahlen." So verdienen Beschäftigte mit fünf Jahren Berufserfahrung im Mittel 13 Prozent mehr als Neueinsteiger, mit zehn Jahren liegt der Vorsprung bereits bei 22 Prozent. Als Faustregel gilt dabei: Je höher die eigene Qualifikation, desto größer fallen die Gehaltszuwächse mit gestiegener Erfahrung aus (siehe auch die Grafik in der pdf-Version dieser Pressemitteilung; Link unten). Nach 20 Jahren im Beruf verdienen Hochqualifizierte im Durchschnitt etwa 46 Prozent mehr als Anfänger im gleichen Beruf; bei den Helfer- und Anlerntätigkeiten beträgt das Plus hingegen nur 19 Prozent.

Gerade für Beschäftigte in einfacheren Tätigkeiten ist deshalb der Verweis auf die Gehälter bei anderen Arbeitgebern häufig das beste Argument. Was genau machbar ist, hängt dabei neben dem Beruf und der eigenen Berufserfahrung von einer Reihe weiterer Faktoren ab. So zahlen größere Betriebe meistens besser, und das Gehaltsniveau unterscheidet sich auch regional zum Teil erheblich. Das WSI-Portal Lohnspiegel.de bietet deshalb für über 500 Berufe einen Lohn- und Gehaltscheck an, der diese Faktoren berücksichtigt und so individualisierte Vergleichsberechnungen ermöglicht. Das Angebot ist kostenlos und ohne Registrierung oder Angabe einer Email-Adresse nutzbar. Eine gute Orientierung bieten auch die Tarifvergütungen, die vom WSI-Tarifarchiv für zahlreiche Berufe und Branchen zusammengestellt werden. Eine weitere Informationsquelle ist der Entgeltatlas der Bundesagentur für Arbeit.

„Der kritische Blick auf die eigene Gehaltsabrechnung ist besonders wichtig, wenn der Arbeitgeber keinen Tarifvertrag anwendet", sagt Gehaltsexperte Lübker. Nach Daten des Instituts für Arbeitsmarkt- und Berufsforschung (IAB) arbeiteten im Jahr 2018 nur noch 54 Prozent der Beschäftigten in einem tarifgebundenen Betrieb, verglichen mit 68 Prozent im Jahr 2000. Tarifverträge sehen neben den von den Gewerkschaften ausgehandelten Lohnerhöhungen häufig auch Erfahrungsstufen vor, mit denen das Gehalt bei längerer Betriebszugehörigkeit in regelmäßigen Abständen automatisch ansteigt. „Wenn der Tarifvertrag fehlt, hat man es da leider häufig deutlich schwerer", so Lübker. Das ist einer von mehreren Gründen, warum Arbeitnehmer in Unternehmen ohne Tarifvertrag im Schnitt gut zehn Prozent weniger verdienen als vergleichbare Beschäftigte in tarifgebundenen Betrieben der gleichen Branche und ähnlicher Größe.

Wichtig für das Gehaltsgespräch: Einmal ausgehandelt, bleibt die Steigerung in der Regel bestehen und ist zugleich Ausgangsbasis für die nächste Gehaltsverhandlung. Außerdem gilt: Die Löhne wachsen allgemein in Deutschland. Nach Berechnungen des WSI-Tarifarchivs stiegen die Tariflöhne im Jahr 2019 um 3 Prozent, nach einem ähnlichen Wachstum im Vorjahr.

Nur mit einer Gehaltsforderung gewappnet sollte sich freilich niemand in eine Gehaltsverhandlung begeben. Überzeugend wird der eigene Auftritt, wenn man weitere Argumente parat hat: Was ist der eigene Beitrag zum Erfolg des Unternehmens? Wo hat man sich als guter Teamplayer erwiesen, welche Aufgaben sind in der letzten Zeit dazugekommen? „Langfristig bleibt es jedoch der beste Ansatz, sich mit anderen zusammenzutun, um den Arbeitgeber dazu zu bewegen, Tariflöhne zu zahlen", sagt WSI-Experte Lübker.

- Informationen zur Methode -
Die Daten des Portals Lohnspiegel.de beruhen auf einer kontinuierlichen Online-Umfrage unter Erwerbstätigen in Deutschland. Für die Analyse wurden 194.792 Datensätze berücksichtigt, die seit Anfang 2017 erhoben wurden. Die Umfrage ist nicht-repräsentativ, erlaubt aber aufgrund der hohen Fallzahlen detaillierte Einblicke in die tatsächlich gezahlten Entgelte. Die Berechnungen zu den Gehaltsunterschieden nach Berufserfahrung beziehen sich auf die Bruttoverdienste ohne Sonderzahlungen und auf Arbeitnehmer im gleichen Beruf und mit ähnlichen Eigenschaften. Der Lohnspiegel ist ein nicht-kommerzielles Angebot der Hans-Böckler-Stiftung.

Wissenschaftliche Ansprechpartner:
Dr. Malte Lübker
WSI, Experte für Tarif- und Einkommensanalysen
Tel.: 0211 / 77 78-574
E-Mail: Malte-Luebker@boeckler.de

Rainer Jung
Leiter Pressestelle
Tel.: 0211 / 77 78-150
E-Mail: Rainer-Jung@boeckler.de

Originalpublikation:
Die Pressemitteilung mit Grafik (pdf): https://www.boeckler.de/pdf/pm_ta_2020_01_03.pdf

Weitere Informationen:
http://Der Lohn- und Gehaltscheck des WSI-Portals Lohnspiegel.de bietet Vergleichsberechnungen: https://www.lohnspiegel.de/html/gehaltscheck.php
http://Einen Überblick der Tarifvergütungen in zahlreichen Berufen und Branchen findet sich auf den Seiten des WSI-Tarifarchivs: https://www.boeckler.de/wsi-tarifarchiv_4874.htm
http://Der Entgeltatlas der Bundesagentur für Arbeit bietet Angaben zu den mittleren Verdiensten in zahlreichen Berufen: https://entgeltatlas.arbeitsagentur.de

Quelle: IDW 

(nach oben)


Artemisinin-Resistenz bei Malariaparasiten entschlüsselt

Dr. Eleonara Schönherr Presse- und Öffentlichkeitsarbeit
Bernhard-Nocht-Institut für Tropenmedizin

Die Arbeitsgruppe um Tobias Spielmann am Bernhard-Nocht-Institut für Tropenmedizin (BNITM) hat den Mechanismus identifiziert, der für die Resistenz gegen das zurzeit wichtigste Malariamedikament Artemisinin verantwortlich ist. Dabei spielt das Parasitenprotein Kelch13 eine Schlüsselrolle. Die Ergebnisse, die die Hamburger Gruppe zusammen mit Kooperationspartnern von der Radboud Universität in Nijmegen aus den Niederlanden erzielt haben, wurden heute in der Fachzeitschrift Science veröffentlicht (Birnbaum & Scharf et al. 2020).

Plasmodium falciparum, der Erreger der Malaria tropica, ist mit jährlich über 200 Millionen Neuinfektionen und mit über 400.000 Todesfällen einer der bedeutendsten Infektionserreger des Menschen. Um die Malaria zu behandeln, werden in erster Linie Kombinationspräparate eingesetzt, die den Wirkstoff Artemisinin enthalten. Allerdings ist der Erfolg dieser Behandlung durch Resistenzen des Erregers zunehmend bedroht. Frühere Beobachtungen hatten gezeigt, dass ein Zusammenhang zwischen Veränderungen (Mutationen) im Protein „Kelch13" des Malariaparasiten und dem Auftreten von Artemisinin-Resistenzen besteht. Es war jedoch bislang unklar, welche Funktion Kelch13 in der Parasitenzelle ausübt und wie Kelch13-Mutationen Resistenz verursachen.

Malariaparasiten vermehren sich in roten Blutzellen und ernähren sich durch Aufnahme und Verdau des roten Blutfarbstoffs Hämoglobin. Mit Hilfe umfangreicher zellbiologischer Untersuchungen und unter Verwendung aufwendig hergestellter, gentechnisch veränderter Parasiten konnte die Arbeitsgruppe um Spielmann jetzt zeigen, dass Kelch13 mit anderen Proteinen zusammenwirkt, die für die Aufnahme des Hämoglobins in die Parasitenzelle verantwortlich sind. „Erst die Identifikation von Kelch13-Partnerproteinen hat uns den entscheidenden Hinweis gegeben, welche Funktion Kelch13 in der Parasitenzelle ausüben könnte", beschreibt Spielmann die Arbeit seiner Gruppe. „Die gezielte Inaktivierung von Kelch13 bestätigte diese Vermutung und führte in der Tat zu einer verminderten Hämoglobin-Aufnahme."

Weniger ist mehr: Kelch-Mutanten im Vorteil bei Artemisinineinsatz
Um seine toxische Wirkung entfalten zu können, muss Artemisinin nach Aufnahme in die Parasitenzelle aktiviert werden: Der Malariaparasit nimmt Hämoglobin auf, verdaut die Nahrung und produziert dabei Hämoglobinaubbauprodukte. Diese Abbauprodukte aktivieren in der Malariazelle den Wirkstoff Artemisinin; der Parasit stirbt.
In weiteren Experimenten, zeigten die Hamburger Wissenschaftler*innen und ihre Kollaborationspartner, dass die bekannten Kelch13-Mutationen die Hämoglobinaufnahme in die Parasitenzelle vermindern. Dadurch entstehen weniger Hämoglobinabbauprodukte und Artemisinin wird nicht mehr ausreichend aktiviert, um den Parasiten abtöten zu können.

„Eigentlich handelt es sich bei der Arteminisin-Resistenz um eine sehr feinsinnige Balance zwischen Nahrungsaufnahme und Artemisinin-Aktivierung", fasst Spielmann die Ergebnisse zusammen. „Zum einen muss der Parasit trotz verringerter Hämoglobinaufnahme noch genügend Nahrung zu sich nehmen, um zu überleben, zum anderen darf er gerade nur so viel Hämoglobin aufnehmen, dass Artemisinin nicht mehr ausreichend aktiviert wird", erklärt der Gruppenleiter. Die Erkenntnisse könnten helfen, verbesserte Malariamedikamente zu entwickeln, um der zunehmenden Artemisinin-Resistenz zu begegnen.

Über das Bernhard-Nocht-Institut für Tropenmedizin
Das Bernhard-Nocht-Institut für Tropenmedizin (BNITM) ist Deutschlands größte Einrichtung für Forschung, Versorgung und Lehre auf dem Gebiet tropentypischer und neu auftretender Infektionskrankheiten. Aktuelle Forschungsschwerpunkte bilden Malaria, hämorrhagische Fieberviren, Immunologie, Epidemiologie und Klinik tropischer Infektionen sowie die Mechanismen der Übertragung von Viren durch Stechmücken. Für den Umgang mit hochpathogenen Viren und infizierten Insekten verfügt das Institut über Laboratorien der höchsten biologischen Sicherheitsstufe (BSL4) und ein Sicherheits-Insektarium (BSL3). Das BNITM umfasst das nationale Referenzzentrum für den Nachweis aller tropischen Infektionserreger und das WHO-Kooperationszentrum für Arboviren und hämorrhagische Fieberviren. Gemeinsam mit dem ghanaischen Gesundheitsministerium und der Universität von Kumasi betreibt es ein modernes Forschungs- und Ausbildungszentrum im westafrikanischen Regenwald, das auch externen Arbeitsgruppen zur Verfügung steht.

Radboud University - Radboud Institute for Molecular Life Sciences
Radboud Institute for Molecular Life Sciences (RIMLS) - a leading research institute that focuses on the molecular mechanisms of disease - brings together research groups from the Radboud university medical center (Radboudumc) and the Faculty of Science (FNWI) of the Radboud University. Clinical and fundamental scientists who specialize in diverse areas of the life sciences work closely together to understand the underlying molecular causes of disease. By integrating fundamental and clinical research, we obtain multifaceted knowledge of (patho)physiolofical processes.
We aim to improve clinical practice and public health by:
1) generating basic knowledge in the molecular medical science
2) translating our gained knowledge into clinical applications, and into diagnostic, therapeutic and personalized treatment strategies
3) training and exposing researchers of all levels to societal-relevant multidisciplinary research questions.

Wissenschaftliche Ansprechpartner:
Dr. Tobias Spielmann
Gruppenleiter Malariaforschung am BNITM
Tel.: +49 40 42818-486
spielmann@bnitm.de

Prof. Richárd Bártfai
Gruppenleiter an der
Radboud University, Netherlands
phone: +31 24 3610561
r.bartfai@science.ru.nl

Originalpublikation:
A Kelch13-defined endocytosis pathway mediates artemisinin resistance in malaria parasites. Birnbaum & Scharf et al., Science 03 Jan 2020:Vol. 367, 6473: 51-59
https://doi.org/10.1126/science.aax4735

Weitere Informationen:
https://www.bnitm.de/forschung/forschungsgruppen/molekularbiologie-und-immunolog...
Arbeitsgruppe Spielmann (Malaria)

Quelle: IDW 

(nach oben)


Drehscheibe für Energie

Britta Widmann Kommunikation
Fraunhofer-Gesellschaft

Die erzeugte Energiemenge regenerativer Energiequellen schwankt. Ein neuartiges Energiemanagementsystem des Fraunhofer-Instituts für Techno- und Wirtschaftsmathematik ITWM ermöglicht es, Photovoltaikanlagen, Batteriespeichersysteme, Wärmepumpen und Elektroautos intelligent zu koppeln - und einzelne Haushalte oder ganze »Energiequartiere« trotz der Schwankungen weitestgehend mit eigener regenerativer Energie zu versorgen.

Hausboote gehören in den Niederlanden seit eh und je zum Stadtbild. In einer Art »Hausboote 2.0« hat Amsterdam nun eine neue Siedlung geschaffen: Sie besteht aus 30 schwimmenden Häusern. Doch nicht darin liegt die Besonderheit dieses Quartiers, sondern vielmehr in seiner Energieversorgung. Über ein ausgeklügeltes System versorgen sich die Häuser zu einem großen Teil selbst mit regenerativer Energie, lediglich einen einzigen, gemeinsam genutzten schmalen Netzanschluss für wolkenverhangene Tage hat der Netzbetreiber bis zum Quartier legen lassen.

Energiemanagementsystem für Energiegemeinschaften
Möglich macht dies ein Energiemanagementsystem des Fraunhofer-Instituts für Techno- und Wirtschaftsmathematik ITWM und weiterer Partner, entwickelt im ERA-Net-Smart Grids Plus-Projekt »Grid-Friends«. »Wir haben unser bereits existierendes Energiemanagement für einzelne Häuser zu einem Energiemanagementsystem für ganze Energiegemeinschaften weiterentwickelt«, erläutert Projektleiter Matthias Klein. »Das System steuert Photovoltaik-Anlagen ebenso wie Wärmepumpen, füllt die Batteriespeicher, sorgt für geladene Akkus in den Elektroautos und unterstützt somit auch die Sektorenkopplung.« Keine einfache Angelegenheit: Denn auch an dunklen Tagen muss jederzeit genug Energie für alle zur Verfügung stehen, ohne dass es zu einer Überlastung des gemeinsamen Netzanschlusses kommt.

Das Energiemanagement ist modular aufgebaut - auf Wunsch könnte also jedes Modul einzeln installiert werden - und dient als eine Art »Drehscheibe für Energie«. Sprich: Es analysiert zu jedem Zeitpunkt, wo die Energie hin soll und wohin nicht. Dabei funktionieren die in den einzelnen Häusern installierten 30 Photovoltaikanlagen, 30 Wärmepumpen und 30 Energiespeicher im Amsterdamer Quartier wie ein einziges großes System. Ein Beispiel: Angenommen, die Bewohner des Hauses A sind im Urlaub und brauchen daher momentan nur wenig Strom. Die Bewohner des Hauses B haben jedoch derzeit einen erhöhten Strombedarf, etwa weil sie gerade eine Party feiern. Die Energie der Photovoltaikanlage fließt daher unter anderem aus Haus A in Haus B, so dass möglichst wenig Strom vom Netzbetreiber verwendet werden muss. Ist es draußen bereits dunkel und erzeugt die Anlage keinen Strom, greift das System auf die Energiespeicher zu - auch dies erfolgt häuserübergreifend.

Baustein Energiespeicher
Dabei verleiht das Managementsystem jedem Modul seine ganz eigene Intelligenz, die zahlreiche Vorteile mitbringt. So ermöglicht die smarte Steuerung der Energiespeicher beispielsweise, die Photovoltaikanlagen unter Volllast zu betreiben. Das ist keineswegs selbstverständlich: Per Gesetz dürfen Photovoltaikanlagen nicht ihre maximale Leistung ins Netz einspeisen, sondern müssen bei starkem Sonnenschein abgeregelt werden - ansonsten würde das Netz überlastet. Gerade dann also, wenn die Sonne vom Himmel knallt und die Module viel Strom erzeugen könnten, müssen sie gedrosselt werden. Mit Hilfe des Energiemanagementsystems ist das nicht nötig: Der Anteil des Stroms, den die Netzbetreiber nicht abnehmen, fließt in die Speicher und kann später genutzt werden.

Ein Prognosemodell verbessert die Effizienz der Stromspeicherung. Es prognostiziert anhand der Wettervorhersage, wie viel Energie in den kommenden Stunden aus den Photovoltaikanlagen zu erwarten ist und wie hoch der voraussichtliche Wärmeverbrauch sein wird, und steuert die Speicherung anhand der Ergebnisse. Scheint die Sonne beispielsweise vormittags noch verhalten, laufen die Anlagen nicht unter Volllast. Soll es nachmittags dagegen aufklaren, so dass die Anlagen gedrosselt werden müssten, verschiebt das Energiemanagementsystem die Energiespeicherung stattdessen auf den Nachmittag. Die Speicher werden hier also nicht mit der ersten produzierten Kilowattstunde geladen - wie es üblicherweise der Fall wäre - sondern erst nachmittags. Bis abends sind die Speicher trotzdem voll. Es geht keine Energie verloren.

Baustein Elektromobilität
Auch Elektroautos gilt es mit Energie zu versorgen - und zwar vorzugsweise zu Zeiten, in denen die Photovoltaikanlagen ausreichend Strom produzieren. Dennoch möchte niemand vor einem Auto mit leerem Akku stehen, wenn er dringend Besorgungen machen muss. »Die Bewohner können über eine App mit einem Klick angeben, welchen Mindestladezustand sie derzeit für ihr Auto wünschen«, sagt Klein. Reichen vielleicht 50 Prozent, da man nur kurz zum Supermarkt fahren muss? Hat der Nutzer dies angegeben und sein Auto angeschlossen, lädt das System die Batterie bis auf den gewünschten Wert auf - notfalls auch mit Strom vom Netz. Scheint die Sonne, fährt es über diesen Wert hinaus mit der Aufladung fort. Herrscht jedoch Energieflaute, verschiebt das System die weitere Aufladung auf später. Das hat gleich zwei Vorteile: Zum einen steigt die Eigenversorgung mit Energie, zum anderen tangieren die Aufladungen, die über den nötigen Wert hinausgehen, den Netzbetreiber nicht - das Energienetz wird stark entlastet.

Nicht nur für große Siedlungen interessant
Die Module können auch einzeln verwendet und auf den jeweils gewünschten Anwendungsfall zugeschnitten werden. »Es gibt bereits 60 bis 70 dauerhafte Installationen unseres Systems - vom einzelnen Privathaushalt über Kantinen und ganze Betriebe bis hin zu einer Kläranlage. Während das System in Amsterdam Leistungsspitzen bis zu 250 Kilowatt verschiebt, steuert es in der Industrie bislang 150 Kilowatt an«, erläutert Klein. Vertrieben wird das System seit Anfang 2019 über die Wendeware AG, einem Spin-off des Fraunhofer ITWM.

Weitere Informationen:
https://www.fraunhofer.de/de/presse/presseinformationen/2020/januar/drehscheibe-...

Quelle: IDW 

(nach oben)


IAB-Arbeitsmarktbarometer: Arbeitsmarkt geht stabil ins nächste Jahr

Wolfgang Braun Presse- und Öffentlichkeitsarbeit
Institut für Arbeitsmarkt- und Berufsforschung der Bundesagentur für Arbeit (IAB)

Das IAB-Arbeitsmarktbarometer hat sich im Dezember auf seinem Vormonatswert behauptet. Der Frühindikator des Instituts für Arbeitsmarkt- und Berufsforschung (IAB) liegt bei 102,0 Punkten und signalisiert damit weiterhin eine gute Arbeitsmarktentwicklung.

Die Einschätzungen der Arbeitsagenturen im Hinblick auf die Entwicklung der Arbeitslosigkeit haben sich noch einmal leicht um 0,1 Punkte auf 99,4 Punkte verbessert. Bereits im Vormonat hatte sich die Arbeitslosigkeitskomponente des IAB-Arbeitsmarktbarometers deutlich erholt. Zwar steht der aktuelle Wert noch für eine tendenziell eher ungünstige Entwicklung, es sind aber in den nächsten Monaten allenfalls leichte Zunahmen der saisonbereinigten Arbeitslosigkeit zu erwarten. „Die Industrie leidet unter der abgeschwächten Exportnachfrage. Angesichts der Arbeitskräfteknappheit bleiben gravierende Konsequenzen bei der Arbeitslosigkeit aber aus", sagt Enzo Weber, Leiter des IAB-Forschungsbereichs „Prognosen und gesamtwirtschaftliche Analysen".

Die Beschäftigungskomponente des IAB-Arbeitsmarktbarometers verliert im Dezember leicht um 0,1 Punkte auf 104,6 Punkte. Damit bleibt der Beschäftigungsausblick trotz der konjunkturellen Schwäche deutlich positiv. „Der Arbeitsmarkt ist ein Stabilitätsanker für die Binnenkonjunktur. Wenn sich die Weltkonjunktur erholt, wird es 2020 in Deutschland wirtschaftlich auch wieder bergauf gehen", erklärt Weber.

Das IAB-Arbeitsmarktbarometer ist ein Frühindikator, der auf einer monatlichen Umfrage der Bundesagentur für Arbeit unter allen lokalen Arbeitsagenturen basiert. Während Komponente A des Barometers die Entwicklung der saisonbereinigten Arbeitslosenzahlen für die nächsten drei Monate prognostiziert, dient Komponente B der Vorhersage der Beschäftigungsentwicklung. Der Mittelwert aus den Komponenten „Arbeitslosigkeit" und „Beschäftigung" bildet den Gesamtwert des IAB-Arbeitsmarktbarometers. Dieser Indikator gibt damit einen Ausblick auf die Gesamtentwicklung des Arbeitsmarkts. Da das Saisonbereinigungsverfahren laufend aus den Entwicklungen der Vergangenheit lernt, kann es zu nachträglichen Revisionen kommen. Die Skala des IAB-Arbeitsmarktbarometers reicht von 90 (sehr schlechte Entwicklung) bis 110 (sehr gute Entwicklung).

Weitere Informationen:
http://www.iab.de/presse/abzeitreihe
http://www.iab.de/presse/abgrafik

Quelle: IDW 

(nach oben)