Donnerstag, März 28, 2024
StartAblageTägliche Meldungen 2018

Tägliche Meldungen 2018

Dezember 2018
Umwelt
Gesundheit
Gesellschaft
Umwelt
31.12.2018 Megakanäle weltweit im Vergleich 
30.12.2018 Arbeit mit den Elementen: Zum Internationalen Jahr des Periodensystems 
26.12.2018 Licht für die Wurzelentwicklung 
25.12.2018 Neue biologische Verfahren im Trink- und Grundwassermanagement 
22.12.2018 Stadtentwicklung bei Überflutung: Wie Städte Raum für Wasser schaffen können 
21.12.2018 Regensburger Biologen heben „versteckten Schatz“ 
18.12.2018 Rheinfelden wird ultraeffizient 
16.12.2018 Neuer Klimabericht für den Ostseeraum (BACC III) in Arbeit 
12.12.2018 Die große Wäsche – Aufbereitung von Biogas mit ionischen Flüssigkeiten verbraucht weniger Energie 
11.12.2018 Ausweitung des Energiepflanzenanbaus ist für Natur genauso schädlich wie der Klimawandel 
10.12.2018 Klärschlamm: Neuartiges Verfahren ermöglicht bessere Wertstoffrückgewinnung 
08.12.2018 PFC-belastete Gewässer effektiv sanieren 
05.12.2018 Studie: Braunkohlereviere zu Energiewenderegionen transformieren 
03.12.2018 Forschungsprojekt: Abwasseraufbereitung in China soll ressourcen- und energieeffizienter werden 
01.12.2018 Einzigartiger Wissensschatz an der BfG: 30 Jahre Weltdatenzentrum Abfluss 
Gesundheit
23.12.2018 Einfach mal abschalten: Die schnelle Erholung zwischendurch 
18.12.2018 Lungenärzte warnen: Silvesterfeuerwerk belastet Gesundheit und Umwelt 
15.12.2018 Wie Ballaststoffe und Darmbakterien den Herz-Kreislauf schützen 
09.12.2018 Neue Rückrufe von Blutdrucksenkern 
07.12.2018 Neue US-Richtlinie für Bluthochdruck bietet keine Vorteile für Betroffene 
04.12.2018 Warum Einkorn besser für Menschen mit Weizenunverträglichkeit sein könnte 
02.12.2018 THEMEN-SPEZIAL: Kampf gegen multiresistente Bakterien 
01.12.2018 Medica 2018: Mit den Füßen steuern – Computerspiel soll helfen, Thrombose vorzubeugen 
Gesellschaft
29.12.2018 Wie gute Vorsätze im Job umgesetzt werden können 
24.12.2018 Empathie bei Führungskräften: Zu viel Einfühlungsvermögen schadet in Krisensituationen 
20.12.2018 Weiterbildung bringt oft wenig für die Karriere 
17.12.2018 Arbeitszeiten von Frauen und Männern: Familienpolitik zieht – aber nur bei den Müttern 
14.12.2018 Fuchs, du hast die Stadt erobert: Bevölkerung hilft bei der Erforschung von Stadtwildtieren 
13.12.2018 Forschungsprojekt Smarte Daten Smarte Dienste: Wohin mit den Daten in der Agrarwirtschaft? 
06.12.2018 Die Babyboomer gehen in Rente 
01.12.2018 Digitaler Stress in Deutschland 
November 2018
Umwelt
Gesundheit
Gesellschaft
Umwelt
30.11.2018  
28.11.2018 Studie: Mikroplastik in Kosmetik 
25.11.2018 Wie viel Schutt liegt auf Gletschern? 
23.11.2018 Beim Schnapsbrennen die Energiewende im Blick 
22.11.2018 Moore: manchmal unheimlich, aber vor allem unheimlich wichtig 
18.11.2018 Wie die Alpen von unten aussehen 
16.11.2018 Bio-Sprit aus dem Container 
13.11.2018 Hohe Akzeptanz für Seilbahnen in Innenstädten 
10.11.2018 Biologisch abbaubares Plastik 
05.11.2018 Multiresistente Keime aus Abwasser filtern – korrigierte Version 
02.11.2018 Hochwasserrisiko kann deutlich gesenkt werden 
01.11.2018 Umweltingenieurinnen und -ingenieure entwickeln neuartiges Sanitärsystem 
Gesundheit
29.11.2018 Resistente Keime: Können Rohkost und Salat ein Gesundheitsrisiko sein? 
27.11.2018 Medica 2018: Mit der Stress-App der TU Kaiserslautern spielerisch entspannen 
24.11.2018 Die wichtigsten Tipps zur Grippe-Impfung: Ältere Menschen besonders gefährdet 
20.11.2018 Mikroplastik in Lebensmitteln – viele ungeklärte Fragen bei Wissenschaft und Öffentlichkeit 
17.11.2018 Eine Tasse Kaffee oder Tee am Tag fördert die Sportlichkeit 
12.11.2018 Blutdruckgeräte im Test – oder: wer prüft eigentlich was? 
09.11.2018 Von Antitranspirantien mit Aluminium bis Zahnpasta mit Zinksalzen: 50 Jahre Kosmetik-Kommission 
07.11.2018 Kinder sollten Wasser trinken! 
04.11.2018 Test zeigt Erfolgsaussichten von Heuschnupfen-Therapien 
01.11.2018 Lachen ist die beste Medizin – wie Humor hilft, Stress am Arbeitsplatz abzubauen 
Gesellschaft
26.11.2018 Psychologie: Warum Menschen beim Küssen und Umarmen Seitenvorlieben haben 
21.11.2018 Sicherer Umgang mit Druckgasbehältern 
19.11.2018 Studie untersucht Einfluss von Ernährung und Bewegung auf die Gesundheit 
15.11.2018 Krähen stellen Werkzeuge aus mehreren Komponenten her 
14.11.2018 Frauen an der Spitze bringen Teams zu besseren Leistungen 
11.11.2018 Erwerbstätige im Rentenalter arbeiten nur zum Teil des Geldes wegen 
08.11.2018 Arbeitszeit: Beginnt der Job im Zug? 
01.11.2018 Positive Erinnerung an eigene Macht lässt Frauen schneller in den Wettbewerb eintreten 
Oktober 2018
Umwelt
Gesundheit
Gesellschaft
Umwelt
30.10.2018 Methan als umweltfreundlicher Kraftstoff für LKW, Busse und andere Nutzfahrzeuge 
27.10.2018 Biogas-Fachgespräch: Was können Enzyme, Mühlen und Co. wirklich für den Biogasprozess leisten? 
25.10.2018 Gutachten zur Behandlung biologisch abbaubarer Kunststoffe 
22.10.2018 Deutsche Wassertechnologien für indische Städte 
21.10.2018 Ätna: Neues Messsystem belegt Abrutschen des Südosthangs 
17.10.2018 Risiken von Mikroschadstoffen bewerten, Stauräume nachhaltig bewirtschaften, Dürre sichtbar machen 
16.10.2018 Wasser – zu viel oder zu wenig? Tagung zu regionalen Auswirkungen des Klimawandels 
15.10.2018 Gegen Straßenschmutz im Regenwasser 
12.10.2018 Erstmals systematische Untersuchungen von Arzneimitteleinträgen in die Ostsee 
10.10.2018 Umweltauswirkungen der Krabbenfischerei im Nationalpark Wattenmeer 
09.10.2018 Das Hochwasserrisiko besser abschätzen 
08.10.2018 Neue Studie: Wasserelektrolyse hat Potenzial zur Gigawatt-Industrie 
06.10.2018 Versauert die Ostsee? IOWForscher adaptiert erstmals präzise optische pH-Messmethode für Brackwasser 
03.10.2018 Energiewende auf den Flüssen Europas 
01.10.2018 Insektensterben durch Lichtverschmutzung vermeiden 
Gesundheit
31.10.2018 Das Gewicht der Liebe: Wer zusammenzieht, nimmt zu 
28.10.2018 „Wer (alkoholfreies) Bier trinkt, lebt hundert Jahre“ 
26.10.2018 Grippe – Gefahr unter Kontrolle? 
24.10.2018 Entwarnung für Elektroautos: Keine Störung von implantierten Schrittmachern und Defis 
19.10.2018 Warum Vitamin E-Wirkung bisher oft reine Glückssache ist 
18.10.2018 Übergewicht entwickelt sich bereits in der frühen Kindheit – und bleibt dann bestehen 
13.10.2018 Eine Tablette Aspirin täglich hat keinen gesundheitlichen Vorteil für fitte und gesunde Senioren 
11.10.2018 Ein neuer preiswerter Filter macht es möglich: giftiges Wasser wird sicher und trinkbar 
05.10.2018 Experten klären auf: Wann das Smartphone für Kinderaugen gefährlich wird 
02.10.2018 Nach der schweren Grippewelle und vor der nächsten Grippewelle: Schutzmöglichkeiten besser nutzen! 
01.10.2018 Weniger ist manchmal mehr – neue Substanz reduziert das Körpergewicht 
Gesellschaft
29.10.2018 Tarifrunde 2019: Für rund 7,3 Millionen Beschäftigte werden neue Vergütungstarifverträge verhandelt 
23.10.2018 Kinder, Job und Rente: Wie und mit wem wir unsere Zeit verbringen 
04.10.2018 Wohnort und Situation beeinflussen, wie stark wir uns mit anderen vergleichen 
01.10.2018 Gut die Hälfte der rentennahen Erwerbstätigen kann Konsum im Ruhestand nicht halten 
September 2018
Umwelt
Gesundheit
Gesellschaft
Umwelt
28.09.2018 Mit Polyphosphat gegen die Plastikberge in den Weltmeeren 
26.09.2018 Geringere Kosten und sauberes Wasser durch neueste Sensortechnologie 
24.09.2018 Verringerung der Stickstoffeinträge verhindert Algenblüten in Seen 
22.09.2018 Der Verlauf von Dürren: Flüsse werden früher und stärker beeinträchtigt als die Landwirtschaft 
20.09.2018 Tiefseebergbau hinterlässt tiefe Narben -Massiver Artenverlust 26 Jahre nach Abbau nachgewiesen 
17.09.2018 360° – Film nimmt Zuschauer mit auf einen faszinierenden Tauchgang durch ein Korallenriff 
14.09.2018 Natürlicher Hochwasserschutz an der Donau: EU-Projekt mit Aueninstitut der KU 
11.09.2018 DBFZ Jahrestagung 2018: Experten diskutieren die Nutzungsoptionen von Biomasse 
09.09.2018 China als globaler Ozon-Brennpunkt 
06.09.2018 Neue Quallenart im Nord-Ostsee-Kanal 
05.09.2018 Forscher aus Mecklenburg-Vorpommern entwickeln effiziente Biogasanlagen 
02.09.2018 Bienen brauchen es bunt 
Gesundheit
29.09.2018 Vitaminpillen nutzlos gegen Schlaganfall und Herzinfarkt 
27.09.2018 Stirnfalten können Hinweise auf Herz-Sterberisiko geben 
25.09.2018 Kurzer Nachtschlaf verdoppelt das Herz-Kreislauf-Risiko 
23.09.2018 Neue Europäische Blutdruck-Leitlinie: 140/90 mm Hg bleibt «rote Linie» 
21.09.2018 Neue Studie: Wer länger Urlaub macht, lebt länger 
18.09.2018 Joggen in der Stadt. Ist das gesund? 
16.09.2018 Was die Forschung heute weiß: Sieben Ernährungsmythen aufgeklärt 
12.09.2018 Schwachstelle Knie: Präventionsübungen senken Risiko für Verletzung des vorderen Kreuzbands 
10.09.2018 Woher Muskeln wissen, wie spät es ist 
07.09.2018 Sehschwäche in der Schwangerschaft: Bei diesen Warnzeichen sollten Sie zum Augenarzt 
03.09.2018 Valsartan-Rückruf: Verunreinigte Blutdrucksenker 
02.09.2018 Scharfstoff aus Ingwer mindert üblen Atem 
Gesellschaft
30.09.2018 Ausnahmen für Unternehmen bei der EEG-Umlage senken die Zahlungsbereitschaft privater Haushalte 
19.09.2018 Ängste abbauen geht anders – Prof. Christoph M. Schmidt über die Ausweitung der Rentengarantien 
15.09.2018 Füße kribbeln, brennen, sind taub: Neue Biomarker der Entzündung als Risikofaktoren für Neuropathie 
13.09.2018 „Im Alten Rom kannten Beschimpfungen in der Politik kaum Grenzen“ 
08.09.2018 Das Gegenüber entscheidet, wie ich mich verhalte 
04.09.2018 Wie sich die Gehirne von Aufschiebern und Machern unterscheiden 
02.09.2018 Neue Ausgabe forscher – Das Magazin für Neugierige erklärt Kindern den Roboter
August 2018
Umwelt
Gesundheit
Gesellschaft
Umwelt
30.08.2018 Leuphana Wissenschaftler warnt: Abwasserreinigung steht vor großen Problemen 
28.08.2018 Sauber durch Sonnenkraft 
27.08.2018 Gefährliche Altlasten in Nord- und Ostsee 
26.08.2018 Nachweis von Mikroplastik im Wasser: Fraunhofer CSP entwickelte smarte Filteranlagen 
25.08.2018 Warum die Stadt nachts heiß bleibt 
24.08.2018 Wie Nährstoffe im sauerstoffarmen Meer verloren gehen 
23.08.2018 Dieselskandal: Ultrafeinstaub deutlich schädlicher als Stickoxide 
21.08.2018 Spurenschadstoffe im Wasser: Welche Klärtechniken Fischen helfen 
19.08.2018 Neues Standardwerk zu Energietechnologien in Deutschland 
16.08.2018 Durchbruch bei industrieller CO2-Nutzung 
15.08.2018 Forschungsoffensive zu regenerativen Kraftstoffen 
13.08.2018 Erneuerbarer Kraftstoff aus der Kläranlage 
09.08.2018 Designerzellen schlucken das Klimagas CO2 
07.08.2018 Materialien für eine Nachhaltige Wasserwirtschaft – MachWas-Konferenz in Frankfurt am Main 
05.08.2018 Begrünte Fassaden in den Städten helfen gegen Feinstaub, Stickoxide und Hitze 
03.08.2018 Tonnenweise CO2 einsparen – Klimaschutzprojekt ‚InSekt‘ startet 
01.08.2018 Sauberer Strom ist nicht genug: Mehr Klimaschutz in Industrie, Verkehr und Gebäuden nötig 
Gesundheit
29.08.2018 Stillen in Deutschland aus wissenschaftlicher Sicht 
22.08.2018 Warum macht Lesen kurzsichtig? Aktuell in Scientific Reports veröffentlicht 
20.08.2018 Studien belegen: Migränepatienten besitzen erhöhtes Risiko für Gefäßkrankheiten 
17.08.2018 Sicherer Auto fahren ohne Grauen Star: Geringeres Unfallrisiko nach Linsenoperation 
14.08.2018 Risikofaktor für Darmkrebs entschlüsselt 
12.08.2018 Die richtige Bluthochdruckeinstellung, auch im Urlaub! 
08.08.2018 Erfahrungen mit Essstörungen 
04.08.2018 Fakten: Häufige Arbeit am Limit belastet stark 
02.08.2018 Lebensmittel im Blickpunkt: Vorgeschnittenes Obst und Blattsalate können mikrobiell belastet sein 
01.08.2018 Mengensteigerung bei Knie-OPs: „Weckruf“ für die Gesundheitspolitik 
Gesellschaft
31.08.2018 Im europäischen Vergleich werden Pkw in Deutschland gering besteuert 
18.08.2018 Studie: Kein kausaler Zusammenhang zwischen Heirat und Gehalt bei Männern 
10.08.2018 Brustimplantate mit Tomaten-DNA fälschungssicher kennzeichnen 
06.08.2018 Nach unten treten: Studie zeigt, wie Mitarbeiter zukünftige Rivalen kleinhalten 
01.08.2018 Naturbewusstseinsstudie: Deutsche wollen besseren Meeresschutz und keine Genpflanzen 
Juli 2018
Umwelt
Gesundheit
Gesellschaft
Umwelt
28.07.2018 Was Bäume, Gesellschaft und Gewässer über das Klima sagen 
26.07.2018 Klimaschutz: Weniger Lachgas aus der Landwirtschaft 
24.07.2018 35 Jahre Meeresschutz: Fehlende Strategie erhöht Bedarf an Schutzflächen 
22.07.2018 Nachhaltige Fischzucht am Viktoriasee mit dem EU-Projekt VicInAqua 
18.07.2018 BAM-Forschungsprojekt will Mikroplastik im Wasser genauer nachweisen 
15.07.2018 FlexFuture! Biogas sorgt für stabile Netze 
11.07.2018 Weitere Ursachen von Sauerstoffverlust der Ozeane identifiziert 
09.07.2018 SOLUTIONS – für eine bessere Wasserqualität europäischer Flüsse 
06.07.2018 Deutsche Unternehmen gefährden Umwelt und Menschenrechte 
03.07.2018 Planungssicherheit für Kommunen: Den Wasserbedarf der Zukunft prognostizieren
Gesundheit
31.07.2018 „Gemeinschaftsschutz“: Warum wir mit Impfungen nicht nur uns selbst, sondern auch andere schützen 
29.07.2018 Volkskrankheit „Fersenschmerz“: Stoßwellentherapie als Kassenleistung 
27.07.2018 Neue Europäischen Leitlinien für Bluthochdruck: Was ändert sich? 
25.07.2018 Aufwärmen wie die Fußballprofis und Knieverletzungen vermeiden 
23.07.2018 Elektroautos: Keine Einschränkungen für Träger von Herzschrittmachern & Co. 
21.07.2018 Schlaflosigkeit – nur ein böser Traum? 
19.07.2018 Wenn die Kraft im Alter fehlt 
17.07.2018 Studienplattform für Allergiepatienten geht online 
13.07.2018 Erst impfen, dann reisen – Deutsche Leberstiftung warnt vor Hepatitis-Gefahren auf Reisen 
10.07.2018 Bananenschalen statt Pflaster? Forschung zur heilenden Kraft der Banane an der Jacobs University 
07.07.2018 Tattoos: Körperschmuck mit Risiken 
02.07.2018 „Das wurde auch höchste Zeit“ – HPV-Impfung für Jungen empfohlen
Gesellschaft
30.07.2018 Fußball als Wissenschaft: Mit Elfmetern und Gelben Karten menschliches Verhalten erklären 
20.07.2018 Mehr als die Hälfte der Beschäftigten hat ein Arbeitszeitkonto 
16.07.2018 Studie zu Druck im Profi-Fußball: Wenn Perfektionismus zum Problem wird 
12.07.2018 Ein „durchgestyltes“ Fußballerlebnis 
07.07.2018 Fußball durch die Augen des Computers 
05.07.2018 Fußball-WM 2018: Statistik sieht Brasilien vorne 
Juni 2018
Umwelt
Gesundheit
Gesellschaft
Umwelt
29.06.2018 Schützen Biberdämme vor Hochwassern? HSWT erforscht Grundlagen zum Wasserrückhalt durch Biberdämme 
26.06.2018 Biomasse effizient nutzen 
25.06.2018 Achema 2018: Bierbrauen – Braurückstände sollen nachhaltige Verwendung finden 
21.06.2018 Zweites „Leben“ für Phosphor: Wie Phönix aus der Klärschlammasche 
20.06.2018 Biomasseforschungszentrum skizziert Änderungsvorschläge für das Ausschreibungsdesign im EEG 2017 
18.06.2018 Das Klärwerk der Zukunft – Abwasser als Energiequelle 
15.06.2018 Wenn Bakterien Häuser bauen 
14.06.2018 KIT: Wasseraufbereitung: Neues Verfahren eliminiert Hormone 
10.06.2018 UDE: FutureWaterCampus – Neuer Forschungsbau in Sicht 
07.06.2018 Vorläufige Entwarnung 
04.06.2018 Innovatives Verfahren zur umweltschonenden Gülleaufbereitung kommt auf den Markt 
02.06.2018 Wasser reinigen und Boden düngen mit Pflanzenkohle 
01.06.2018 Projekt Klimalandschaften lädt zum Mitmachen ein 
Gesundheit
28.06.2018 Brustkrebs-Verdacht: Bis zu 45 Prozent mehr Tumore per Ultraschall entdecken 
24.06.2018 Studie: Schlafqualität beeinflusst Leistungsfähigkeit stärker als Schlafdauer 
22.06.2018 Bei BMI größer 40 und Typ 2-Diabetes: Neue S3-Leitlinie empfiehlt sofortige Operation 
19.06.2018 Molekül identifiziert, das anfällig für Magersucht macht 
16.06.2018 Solanin in Kartoffeln: Grüne und stark keimende Knollen sollten aussortiert werden 
13.06.2018 LED-Sitzhocker gegen Rückenschmerzen 
11.06.2018 „Stressfresser“ aus dem Kuhstall – Landbewohner mit Nutzierkontakt können Stress besser bewältigen
09.06.2018 Konzentrierter arbeiten im Büro 
08.06.2018 Todesfalle Krankenhauskeim 
05.06.2018 Beeinflusst körperliche Aktivität die Gesundheit künftiger Nachkommen? 
01.06.2018 Die Emotion liegt im Auge des Hörers: Warum überraschende Geräusche die Pupille weiten 
Gesellschaft
27.06.2018 Der gläserne Fußballer 
23.06.2018 WM 2018: Fußball-Fans am Arbeitsplatz – Was ist erlaubt? 
17.06.2018 Männer und Frauen wünschen sich oft kürzere Arbeitszeiten 
12.06.2018 Studie der Hochschule Fresenius zeigt: Muskulöse Männer haben bessere Karrierechancen 
06.06.2018 baua: Praxis: Ungestört arbeitet es sich viel besser 
03.06.2018 Studie zeigt: Sind wir glücklich mit unserem Job, dann fühlen wir uns auch privat wohler 
01.06.2018 Wenn es um Geld geht, ticken Menschen rund um den Globus ähnlich 
Mai 2018
Umwelt
Gesundheit
Gesellschaft
Umwelt
30.05.2018 Stärkere Belege für Abschwächung des Golfstromsystems 
28.05.2018 Alternativer Waldzustandbericht: Deutschlands Wäldern geht es schlecht 
26.05.2018 Phosphorgewinnung aus Klärschlamm und andere regionale Nutzungskonzepte für Biomassen 
25.05.2018 BAM@Hannover Messe: Phosphor-Recycling aus Klärschlamm für den Dünger der Zukunft
24.05.2018 Bottrop testet Mülltonne mit bunten Beuteln und bestellter Abholung bei Bedarf 
22.05.2018 Zweite Wärmequelle optimiert Wärmepumpenanlage 
20.05.2018 Bewertung von Sicherheitsventilen: SIL-Einstufung nicht sinnvoll 
18.05.2018 Neues Bakterium aus Öl des Deepwater-Horizon-Unfalls beschrieben 
15.05.2018 Erstmals verlässliche Drei-Monats-Prognosen für Winter in Europa möglich 
13.05.2018 Biokraftstoffe: Im Verkehrssektor droht das Scheitern des Klimaziels für 2030 
11.05.2018 Biologische Vielfalt von grünlanddominierten Kulturlandschaften unter der Lupe 
08.05.2018 Wassergespräch Lausitz – Wie weiter mit dem Wasser in der Region? 
05.05.2018 Upcycling von PET-Flaschen: Neue Ideen für einen Wertstoffkreislauf in Deutschland 
02.05.2018 Biokraftstoffe: EU-Projekt BioMates gewinnt an Fahrt 
01.05.2018 50 Jahre Lehre und Forschung auf dem Gebiet der Meerestechnik an der Universität Rostock 
Gesundheit
31.05.2018 Folgen eines Zeckenstichs sicher erkennen und behandeln: Leitlinie Neuroborreliose veröffentlicht 
27.05.2018 Europäische Impfwoche 2018 – BM Spahn fordert bessere Zusammenarbeit bei der Masernimpfung 
21.05.2018 Chemikalien im Trinkwasser: Projekt „Neurobox“ der h_da untersucht gesundheitliche Auswirkungen 
19.05.2018 Was wird aus „gesunder Bräune“ in 25 Jahren? Die App zeigt’s! 
17.05.2018 Den Blutzucker fest im Griff 
14.05.2018 Baden-Württemberg: Erblindungsrisiko bei Menschen mit und ohne Diabetes deutlich gesunken 
12.05.2018 Rückenschmerzen – Neuer Artikel in Fachzeitschrift Lancet warnt vor Überdiagnostik 
09.05.2018 Fettleber unter Stress 
06.05.2018 Mikroarray-Schnelltest verkürzt Nachweis bei Legionella pneumophila Ausbruch 
04.05.2018 Wie die Form unserer Ohren bestimmt, was wir hören 
01.05.2018 Trockene Augen: Bei roten, schmerzenden, brennenden Augen zum Augenarzt 
Gesellschaft
23.05.2018 Wenn der Job zur Persönlichkeit passt, ist das Gehalt höher 
10.05.2018 Wohnungsmarkt: mieten oder kaufen? 
07.05.2018 Gesichtserkennung in Australien – die Privatsphäre wurde ganz offiziell abgeschafft 
03.05.2018 Sicherheit ist wichtiger als Flexibilität. Wie Frauen und Männer sich ihren Arbeitsplatz wünschen 
01.05.2018 Neue Arbeitswelt: Arbeitszeitgesetz verliert an Bedeutung 
April 2018
Umwelt
Gesundheit
Gesellschaft
Umwelt
30.04.2018 Zukunftsprojekt zu innovativer Siedlungswasserwirtschaft und urbaner Nahrungsmittelproduktion 
28.04.2018 Auch eine dezentrale Energiewende braucht Netzausbau 
27.04.2018 Bremsenergie ungebremst nutzen 
25.04.2018 Mikropartikel aus Kunststoff im Einzugsgebiet von Rhein und Donau nachgewiesen 
24.04.2018 Neues Forschungsprojekt an der Ostfalia: Sauerstoffeintrag in Belebungsbecken 
21.04.2018 Weltwassertag: Natur bietet Kombi-Lösung für Hunger-, Wasser- & Umweltprobleme 
18.04.2018 Bis 2030 sind deutlich mehr Erneuerbare Energien möglich
17.04.2018 Neue Studie für Greenpeace: Wälder bergen ungenutztes Potential für den Klima- und Naturschutz 
15.04.2018 Energieeffiziente Wassernutzung in der Industrie: 5. Ausschreibungsrunde im Förderprogramm STEP up! 
14.04.2018 Alle Pilze sind schon da: Wenn Bäume den Berg hinauf wandern, warten ihre Pilzpartner auf sie 
13.04.2018 BAM überprüft Energieeffizienz von Wärmepumpen 
10.04.2018 Da haben wir den Salat: Erste Ernte aus aufbereitetem Abwasser im Forschungsprojekt HypoWave 
09.04.2018 Neue IOW-Studie: Birgt Mikroplastik zusätzliche Gefahren durch Besiedlung mit schädlichen Bakterien? 
07.04.2018 Anstatt Abfackeln: Erdölbegleitgas als Rohstoff nutzen 
05.04.2018 Ohren für Icarus 
03.04.2018 Sonnenkonzentrat aus der Folie 
02.04.2018 Schadstoffe im Wasser abbauen: Chemiker der Uni Halle verbessern Verfahren 
01.04.2018 RWI-Stromspiegel: Nicht immer zahlt sich der Wechsel zum stromsparenden Elektrogerät aus 
Gesundheit
23.04.2018 Neue Studie zur Beratung in Sachen Homöopathie bescheinigt Apothekern Weiterbildungsbedarf 
19.04.2018 Fünftes Symposium „Gefahrstoffe am Arbeitsplatz“ 
16.04.2018 Alarmierend: Nur 8% waschen ihre Hände in korrekter Weise 
06.04.2018 Einmal dick – immer dick? 
01.04.2018 Lungenärzte warnen: E-Zigaretten machen abhängig und krank 
Gesellschaft
29.04.2018 Photovoltaik: Einfach integrierbar durch moderne Druckverfahren 
26.04.2018 Hochschule Hamm-Lippstadt entwickelt Lebensmittel-Abholbox für ländliche Regionen 
22.04.2018 Trotz des Gender Pay Gaps empfinden Frauen häufig ihren Verdienst als gerechter als Männer 
11.04.2018 Warum der Chef immer Schuld ist – Studie zur Verteilung von Lob und Tadel 
08.04.2018 Faking in Bewerbungsgesprächen: Wer übertreibt, gewinnt – und ist oft besonders leistungsfähig 
04.04.2018 Haushaltsdienstleistungen zugewanderter Frauen führen dazu, dass einheimische Frauen mehr arbeiten 
01.04.2018 Kieler Studie zeigt: Trockene Haut und Neurodermitis führen zu einem veränderten Hautmikrobiom 
März 2018
Umwelt
Gesundheit
Gesellschaft
Umwelt
30.03.2018 Den Stadtwildtieren auf der Spur: Citizen Science für alle 
27.03.2018 Wilde Nachbarn 
26.03.2018 Es gibt mehr und vielfältigere plastikfressende Bakterien, als bisher angenommen 
23.03.2018 Neun Kommunen bei Bundeswettbewerb „Klimaaktive Kommune 2017″ ausgezeichnet 
20.03.2018 Batterie oder Brennstoffzelle? Jülicher Forscher berechnen Kosten des Infrastrukturausbaus 
18.03.2018 Große Resonanz beim ACHEMA-Gründerpreis 2018 
16.03.2018 Globale Wassermodelle schätzen Wasserspeicheränderungen oft falsch ein 
14.03.2018 Neuerscheinung: Klimaschutz kommunal umsetzen 
12.03.2018 Energiewende: Neuer Regler verteilt Strom einfach und effizienter im Netz 
10.03.2018 Neuer Multi-Parameter Biosensor zur Überwachung der Biogasproduktion 
07.03.2018 Umweltgeschichte aus dem Faulschlamm: Klimawandel lässt „tote Zonen“ im Schwarzen Meer wachsen 
06.03.2018 Biogas: Forschungsprojekt erkundet ungenutzte Potenziale von Anlagen 
05.03.2018 Biogas-Fachgespräch in Nossen diskutiert zum Thema „Emissionen von Biogasanlagen“ 
02.03.2018 Fraunhofer IMWS testet umweltfreundliche Mikroplastik-Alternativen in Kosmetikartikeln 
01.03.2018 Potenzial für eine grüne Wasserstoff-Wirtschaft 
Gesundheit
31.03.2018 Kälte kann Herzinfarkt auslösen 
29.03.2018 Risikofaktoren erkennen und gegensteuern: So kann das Herz selbst im Alter jung bleiben 
25.03.2018 Faszien: Vernetzt von Kopf bis Fuß 
24.03.2018 Medizinerin findet Weg, um Blutdrucksenkung durch Sport vorhersagen zu können 
22.03.2018 Entdeckte Brustkrebsvorstufen im Mammographie-Screening meist aggressiv 
21.03.2018 BfS will Hautkrebsprävention rechtlich verankern 
19.03.2018 Nur selten zu hohe Pflanzenschutzmittelrückstände in Lebensmitteln 
15.03.2018 Häufige Familienmahlzeiten fördern eine gute Ernährung von Kindern 
13.03.2018 Keime & Co. – Küchenhygiene mit Köpfchen 
09.03.2018 Höchstmengen für Vitamine und Mineralstoffe in Nahrungsergänzungsmitteln 
08.03.2018 Kostformen im Vergleich: Für Menschen mit Diabetes ist die Mittelmeer-Diät besonders gut geeignet 
04.03.2018 Wie Omega-3-Fettsäuren das Immunsystem fit halten 
03.03.2018 Den Lebensmittelfälschern auf der Spur 
Gesellschaft
28.03.2018 Wann Mitarbeiter von Handlungsspielräumen im Job profitieren 
17.03.2018 Studie zu Arbeitszeiten von Frauen und Männern: Mütter arbeiten länger und flexibler 
11.03.2018 Beitragsfreie Kita-Betreuung führt nicht dazu, dass Frauen mehr arbeiten 
03.03.2018 Neues Mutterschutzgesetz: Wichtige Änderungen für Arbeitgeber 
Februar 2018
Umwelt
Gesundheit
Gesellschaft
Umwelt
27.02.2018 Klimawandel lässt Flüsse über die Ufer treten: Anpassung nötig 
22.02.2018 Versauerung: Wie der Klimawandel die Süßgewässer belastet 
20.02.2018 Der Artnachweis aus der Wasserflasche 
17.02.2018 Bienen-Parasit: Forscher entdecken Medikament gegen Varroa-Milbe 
13.02.2018 Forschungsergebnisse der Jade Hochschule dienen dem Schutz der Küstenregion vor Überschwemmung 
11.02.2018 Nährstoffüberschuss lässt Ozeane ersticken 
08.02.2018 Die Sauerstoffarmut im Ozean nimmt zu- Science-Studie zeigt Gefahren, aber auch Lösungsansätze auf 
05.02.2018 Würmer machen beliebt 
03.02.2018 „Plastikpiraten“ finden viel Müll an deutschen Flüssen 
02.02.2018 Klimawandel: Selbstverstärkender Effekt nicht durch Bodentiere erklärbar 
01.02.2018 Kleinste Blockheizkraftwerke für Einfamilienhäuser 
Gesundheit
28.02.2018  Fastfood macht Immunsystem langfristig aggressiver
23.02.2018 Neue US-Bluthochdruck-Leitlinien: Wie tief soll der Blutdruck in Deutschland gesenkt werden? 
18.02.2018 Mit Müsli gegen Arthritis 
15.02.2018 Herzinfarkt: Ältere Frauen zu spät im Krankenhaus 
12.02.2018 Urlaubszeit ist Warzenzeit 
09.02.2018 Gehirnjoggings: So lässt sich das Arbeitsgedächtnis trainieren 
06.02.2018 Ursache für kohlartigen Atemgeruch aufgedeckt 
04.02.2018 BfR bewertet Tageshöchstmenge für Magnesium in Nahrungsergänzungsmitteln 
01.02.2018 Welche Auswirkungen haben Kopfbälle im Fußball – Studie läuft an der Uni Paderborn zusammen 
Gesellschaft
26.02.2018 2017 steigen die Tariflöhne nominal um 2,4 Prozent – Real ein Plus von 0,6 Prozent 
21.02.2018 Ob Fußballtrainer, Ärzte ohne Grenzen oder Trachtengruppen: Freiwilliges Engagement ist bunt 
19.02.2018 Schön traurig 
14.02.2018 Im Alter leisten Männer weniger Hausarbeit als Frauen – und fühlen sich dabei gesünder 
07.02.2018 BAuA-Bericht: Fachkräfte für Arbeitssicherheit benötigen viele Kompetenzen 
01.02.2018 WSI zieht erste Tarifbilanz 2017: Tarifabschlüsse zwischen 2 und 3 Prozent 
Januar 2018
Umwelt
Gesundheit
Gesellschaft
Umwelt
31.01.2018 Zukunftsvision für Wärme aus Biomasse 
29.01.2018 Aus Abwässern der Joghurtproduktion sollen Viehfutter und Flugzeug-Kraftstoffe entstehen 
28.01.2018 Belauscht: Akustische Überwachungsgeräte spüren Wilderei und illegalen Holzeinschlag auf 
27.01.2018 Vulkanologie – Was die Gewalt eines Ausbruchs bestimmt 
25.01.2018 Umweltzone senkt Gesundheitsbelastung deutlich 
24.01.2018 Aquakultur: Neues Verfahren spürt Umweltbelastungen durch Lachsfarmen schneller auf 
23.01.2018 Konzept der Universität Rostock zur Ölhavarie-Bekämpfung erfolgreich auf der Warnow erprobt 
21.01.2018 Studie: Thermische Verwertung unverzichtbar in der Circular Economy 
19.01.2018 Bionischer Filter zur Trennung von Mikroplastik 
18.01.2018 Rosige Zeiten für die Meeresforschung: SFB „Roseobacter“ wird weitere vier Jahre gefördert 
17.01.2018 Spektakuläre Filmaufnahmen vom Oberrhein online 
12.01.2018 Damit die Energiewende gelingt: Solar-Institut Jülich der FH Aachen baut neuartigen Stromspeicher 
10.01.2018 Intelligentes Wassermanagement für Indiens Städte 
08.01.2018 Saisonale unterirdische Wärmespeicher können Kohlekraftwerke bei der Wärmeversorgung ersetzen 
06.01.2018 Forschung für die Energiewende in Kommunen und Regionen 
03.01.2018 Plastik in Binnengewässern: Verbundprojekt „PLASTRAT“ gestartet 
02.01.2018 Wenn Kontinente zerbrechen, wird es warm auf der Erde 
01.01.2018 Sonne ernten auf zwei Etagen – Agrophotovoltaik steigert die Landnutzungseffizienz um über 60% 
Gesundheit
30.01.2018 Fernsehen schadet dem Kinderschlaf: Forscher untersuchen erstmals Schlafqualität Dreijähriger 
26.01.2018 Was hilft gegen Angst auf dem Zahnarztstuhl? 
20.01.2018 Marketing für Hülsenfrüchte 
16.01.2018 Neu aus dem ÄZQ: Patientenleitlinie „Kreuzschmerz“ 
11.01.2018 Heilung nach Herzinfarkt – Woher die Immunantwort kommt 
07.01.2018 Masthähnchen sind häufig mit dem Zoonoseerreger Campylobacter belastet 
05.01.2018 Schutz gegen die Wintersonne: Augenärzte geben Tipps für den Kauf der Skibrille 
01.01.2018 Neue Zeckenart in Deutschland entdeckt: Überträgt sie Viren? 
Gesellschaft
22.01.2018 Jobticket nach Europa 
09.01.2018 Der Reiz von Verschwörungstheorien und Fake News 
04.01.2018 Risiken und Nebenwirkungen des Mindestlohns 
01.01.2018 Digitale Balance in der Arbeitswelt 

Megakanäle weltweit im Vergleich

Antje Karbe Hochschulkommunikation
Eberhard Karls Universität Tübingen

Wassertransfer-Megaprojekte sollen in Zukunft Süßwasserversorgung weltweit gewährleisten – Forschende haben bestehende und geplante Kanäle erstmals erfasst und gegenüber gestellt

Es gibt immer mehr große Kanäle und Rohrleitungen, die Süßwasser aus wasserreichen Regionen dorthin transportieren, wo es als Trinkwasser oder für Industrie und Landwirtschaft benötigt wird. 34 Mega-Anlagen existieren bereits, 76 weitere sind in Planung oder werden gebaut. Doch neben den Vorteilen des Wassertransfers sind die Auswirkungen auf Mensch und Ökosysteme enorm. Christiane Zarfl, Professorin für Umweltsystemanalyse von der Universität Tübingen, hat gemeinsam mit ihrer Doktorandin Oleksandra Shumilova vom Leibniz-Institut für Gewässerökologie und Binnenfischerei und weiteren Forschungseinrichtungen diese sogenannten Wassertransfer-Megaprojekte (WTMP) nun erstmals systematisch erfasst. Die Ergebnisse wurden kürzlich in der Fachzeitschrift Frontiers in Environmental Science veröffentlicht.

„Künstliche Flüsse“ und riesige Rohre, also gewaltige Wassertransferanlagen, sollen in Zukunft die weltweite Wasserversorgung gewährleisten, denn Klimawandel, Industrie und Landwirtschaft lassen in manchen Regionen das Wasser knapp werden. In einigen Ländern, beispielsweise in China und den USA, sind WTMP bereits heute ein wichtiger Faktor. Zum Beispiel verbindet der knapp 1500 km lange Süd-Nord-Kanal Chinas wasserreichen Süden mit dem durstigen Norden, in dem sich unter anderem die Hauptstadt Peking befindet.

„Wassertransfer-Megaprojekte können für die Menschen in den betroffenen Regionen viele Vorteile bringen“, erklärt Shumilova. „Gleichzeitig gibt es aber häufig auch negative Auswirkungen auf sozialer, wirtschaftlicher und ökologischer Ebene; vor allem in den Gebieten, denen Wasser entnommen wird.“ Wasser gehe verloren durch Verdunstung oder Lecks, Regionen versalzten, Schadstoffe und invasive Arten könnten sich besser ausbreiten. Außerdem gebe es ein höheres Konfliktpotential zwischen Ländern, die dasselbe Flusseinzugsgebiet teilten.

„Wir haben Informationen zu allen aktuell bestehenden und bis zum Jahr 2050 geplanten Wassertransfer-Megaprojekten in einer Datenbank gesammelt“, erklärt Zarfl. „Wichtige Daten waren für uns beispielsweise die Wassermenge, die transferiert wird, die zu überwindende Entfernung, die geplanten und tatsächlichen Kosten und der Zweck des Wassertransfers“. Als WTMP gelten Bauprojekte, die über 1 Milliarde US-Dollar kosten, mindestens 190 Kilometer überwinden oder mehr als 0,23 km³ Wasser pro Jahr transportieren. Wenn alle im Bau befindlichen und geplanten Großprojekte fertiggestellt sind, werden die WTMP zusammen 1910 km³ Wasser transportieren; das ist etwa die 26-fache jährliche durchschnittliche Wassermenge des Rheins. Hintereinandergelegt sind sie etwa doppelt so lang wie der Äquator, über 80.000 Kilometer. Die Gesamtkosten aller Bauvorhaben schätzen die Forscherin-nen und Forscher auf voraussichtlich 2700 Milliarden US-Dollar.

Bislang wurden allerdings weder die Parameter der WTMP noch die Auswirkungen von einer zentralen Stelle gesammelt. Diese Lücke schließt das Forschungsprojekt und schafft damit eine Voraussetzung für international vereinbarte Kriterien, die den Aufbau, die Leistungsfähigkeit und die Auswirkungen der künstlichen Flüsse auf Mensch und Umwelt vergleichbarer machen. „Bei der Planung künftiger Megaprojekte wird es somit leichter, Kosten und Umweltfolgen einzuschätzen und dem Nutzen gegenüberzustellen“, erläutert Zarfl. „In künftigen Forschungen möchten wir vor allem die Auswirkungen dieser gewaltigen Projekte untersuchen und die Risiken, die damit verbunden sind.“

Wissenschaftliche Ansprechpartner:
Prof. Dr. Christiane Zarfl
Universität Tübingen
Umweltsystemanalytik
Telefon +49 7071 29-76076
christiane.zarfl@uni-tuebingen.de

Originalpublikation:
Oleksandra Shumilova, Klement Tockner, Michele Thieme, Anna Koska, Christiane Zarfl: Global Water Transfer Megaprojects: A Potential Solution for the Water-Food-Energy Nexus? In: Frontiers in Environmental Science. https://doi.org/10.3389/fenvs.2018.00150

Quelle: idw

(nach oben)


Arbeit mit den Elementen: Zum Internationalen Jahr des Periodensystems

Alexander Knebel Presse- und Öffentlichkeitsarbeit
Zuse-Gemeinschaft

Es ist 150 Jahre jung, wächst weiter und hat ein faszinierendes Innenleben: Das Periodensystem der Elemente wird von den Vereinten Nationen wegen seines Stellenwerts für Wissenschaft und Wirtschaft 2019 mit einem Weltjahr geehrt. Viele Forschungsinstitute der Zuse-Gemeinschaft haben eine besondere Beziehung zum Periodensystem, denn sie sind spezialisiert auf innovative Anwendungen in Chemie, Physik und Materialwissenschaften.

Unabhängig voneinander ordneten Dmitri Mendelejew (1834-1907) und wenige Monate später Lothar Meyer (1830-1895) die chemischen Elemente nach ihren Eigenschaften so, dass Prognosen über noch nicht entdeckte Elemente leichter fielen. Derzeit listet das Periodensystem 118 verschiedene Elemente, beginnend mit Wasserstoff und auf heutigen Darstellungen meist endend mit dem erst 2005 entdeckten Element 118, dem Oganesson.

Menschen-Atome zu mehr als 99 Prozent Wasserstoff, Sauerstoff, Kohlenstoff, Stickstoff
Während die Grundlagenforschung im Periodensystem auf der Suche nach immer schwereren, neuen Elementen mit extrem kurzen Halbwertszeiten ist, gewinnt die anwendungsorientierte Forschung ihren Reiz auch aus der Arbeit mit der riesigen Vielfalt der Eigenschaften, welche die Verbindung verschiedener Elemente schafft. Mehr als 99 Prozent der Atome, aus denen der Mensch besteht, sind entweder Wasserstoff, Kohlenstoff, Stickstoff oder Sauerstoff. Jedes der Elemente im verbleibenden Prozent ist aber genauso wichtig, so z.B. Kalzium für den Knochenbau, Eisen für das Blutbild, oder Magnesium für Muskelfunktion und Eiweißsynthese.

Kleine Veränderungen mit radikalen Konsequenzen
Auch bei anorganischen Stoffen führt bereits die Zugabe kleinster Mengen eines Elements zu radikalen Veränderungen der Eigenschaften. So wandelt sich das Element Silizium – eines der häufigsten Elemente auf der Erde – schon bei Zugabe eines millionsten Teils (ppm) des Elements Bor radikal und wird von einem Halbleiter zu einem Leiter. „Das liegt an den durch das Bor verursachten Änderungen in den Bindungsstrukturen der Siliziumatome in ihrem Kristallgitter“, erläutert Georg J. Schmitz von Access e.V., einem Forschungsinstitut der Zuse-Gemeinschaft, das Schwerpunkte seiner Expertise in der Herstellung, Modellierung und Analyse metallischer Legierungen hat.

Elemente in Legierungen maßgeschneidert kombinieren
Welchen wirtschaftlichen Stellenwert Legierungen besitzen, zeigt sich exemplarisch am Stahl: Allein das einschlägige europäische Register zählt rd. 2.400 Sorten von denen etwa die Hälfte in den letzten zwanzig Jahren entwickelt wurde. „Eine Faszination der Metallforschung liegt darin, die gewünschten Eigenschaften der Elemente in technischen Legierungen für einen bestimmten Anwendungsfall maßgeschneidert zu kombinieren. Neben der Zusammensetzung der Legierungen aus den verschiedenen Elementen spielt hierbei die Verfahrenstechnik wie beispielsweise Temperatur-Zeitverläufe eine ebenso große Rolle“, betont Schmitz.

Das einfachste Element mit großer Reaktionsfreude
Bei „Überdosierung“ eines Elementes kann es auch zu unerwünschten Nebenwirkungen kom¬men. Ein Beispiel hierfür ist die sogenannte Wasserstoffversprödung, bei der überschüs-siger Wasserstoff die mechanischen Eigenschaften eines Metalls negativ beeinflusst. Das Wasserstoff-Atom mit einem Proton und einem Elektron ist das einfachste und zugleich ein sehr reaktionsfreudiges Element. In Zeiten der Energiewende hat es wieder Konjunktur: Für eine Energieversorgung die sich hauptsächlich aus erneuerbaren Quellen speist, benötigt man einen speicherbaren und universell einsetzbaren Energieträger. Die Wissenschaftler am Gastechnolo¬gischen Institut (DBI) in Freiberg untersuchen nicht nur, wie sich Wasserstoff problemlos ins Erdgasnetz einspeisen lässt, sondern wollen auch die Nutzung von Wasserstoff zur Strom- und Wärmenutzung am Arbeitsplatz und in den eigenen vier Wänden voranbringen. Dazu haben sie im Verbundprojekt HYPOS für die Versorgung von Gewerbebetrieben und Mehrfamilienhäusern mit Strom und Wärme aus grünem Wasserstoff technische Lösungen entwickelt und Fragen rund um die Schnittstelle von Wasserstoff- und Erdgastransport bearbeitet.

Verbinden und Trennen
Die Trennung von Elementen ist nicht nur eine Aufgabe für die energetische Nutzung von Wasserstoff, der in der Natur praktisch nur in Verbindungen vorkommt. Auch an anderen Stellen in der Zuse-Gemeinschaft beschäftigt man sich mit dem Trennen von Elementen: Das Deutsche Textilforschungszentrum Nord West (DTNW) hat ein neuartiges, funktionelles Textil aus Polyester und Polyvinylamin entwickelt, mit dem sich Edelmetalle wie z.B. Palladium aus niedrigkonzentrierten Industriewässern gewinnen lassen. Leitet man ein edelmetallhaltiges Wasser über das Textil, wird das Metall am Textil zurückgehalten, bevor das Palladium in seiner reinen Form zurückgewonnen werden kann.

Beitrag honorieren
Textilien bestehen zumeist aus organischen Verbindungen. Die häufigste organische Verbindung ist die Zellulose als Hauptbestandteil pflanzlicher Zellwände mit den Elementen Wasserstoff, Sauerstoff und Kohlenstoff. „Die Zellulose mit ihren drei Elementen kann Inspiration für eine am Kreislaufgedanken orientierte Chemie sein, die mit der Natur arbeitet“, erklärt der Präsident der Zuse-Gemeinschaft, Dr. Ralf-Uwe Bauer. Die Entscheidung der Vereinten Nationen für Jahr des Periodensystems biete Gelegenheit, den Stellenwert von Chemie und Physik für Wirtschaft und Gesellschaft aufzuzeigen. Dr. Bauer: „Dazu leisten wir in der Zuse-Gemeinschaft mit unserer engagierten Forschung für Unternehmen und Gesellschaft schon heute technologieübergreifend einen wichtigen Beitrag, der politisch allerdings noch zu wenig gewürdigt wird.“

Anhang
PM der Zuse-Gemeinschaft: Arbeit mit den Elementen – Zum Internationalen Jahr des Periodensystems
https://idw-online.de/de/attachment70540

Quelle: idw

(nach oben)


Wie gute Vorsätze im Job umgesetzt werden können

Eva Mühle Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Arbeitsforschung an der TU Dortmund

Zum Jahreswechsel formulieren viele nicht nur private, sondern auch berufliche Vorsätze. Um diese im Arbeitsalltag umsetzen sowie zahlreiche Aufgaben im Job meistern zu können, braucht es Willenskraft. Dabei spielt es eine Rolle, wie wir unsere Fähigkeit zur Selbstkontrolle einschätzen: Wer davon ausgeht, dass Willenskraft kaum Grenzen kennt, fühlt sich nach mental anstrengenden Aufgaben weniger erschöpft und kann Selbstkontrolle erfolgreicher aufrechterhalten. Zu diesen Erkenntnissen kommt eine aktuelle Studie am Leibniz-Institut für Arbeitsforschung.

„Im kommenden Jahr nehme ich den Job lockerer und arbeite besser mit Kollegen und Kunden zusammen“ – berufliche Neujahresvorsätze gehen aktuell wohl vielen durch den Kopf. Die Beispiele verdeutlichen, dass Anforderungen, bei denen wir unsere Emotionen im Griff haben müssen, in vielen Bereichen der modernen Arbeitswelt selbstverständlich geworden sind. Vom Verkaufspersonal wird beispielsweise erwartet, dass es im Kundenkontakt stets freundlich ist. Unsere wahren Gefühle zugunsten zielorientierten Verhaltens zu unterdrücken, verlangt ein hohes Maß an Selbstkontrolle. Das strengt uns an und kann zur Erschöpfung führen.

Frühere Studien konnten zeigen, dass die Fähigkeit zur Selbstkontrolle stark abnimmt, wenn wiederholt Aufgaben erledigt werden müssen, bei denen man sich kontrollieren muss. Diese lange vorherrschende Annahme von Willenskraft als eine nur begrenzt verfügbare Ressource wird jedoch seit einigen Jahren infrage gestellt. Neuere Erkenntnisse deuten darauf hin, dass es einen Einfluss hat, welches Konzept von Willenskraft in unserem Kopf vorherrscht: Wer davon ausgeht, dass Willenskraft nicht leicht erschöpfbar ist, sondern uns unlimitiert zur Verfügung steht, schneidet bei anhaltenden mental anstrengenden Aufgaben besser ab, als Personen, die von einer nur begrenzt verfügbaren Ressource der Willenskraft ausgehen. Diese Erkenntnisse beruhten bislang auf Laborexperimenten. Forschende am Leibniz-Institut für Arbeitsforschung an der TU Dortmund (IfADo) haben nun erstmals auch für den Arbeitsalltag bestätigt, dass sich bestimmte Vorstellungen von Willenskraft auf die Leistungsfähigkeit auswirken können.

Auf die Einstellung kommt es an
Dazu haben sie eine Tagebuchstudie mit 71 Teilnehmerinnen und Teilnehmer durchgeführt, die alle regelmäßig beruflich in Kontakt mit Kunden, Patienten oder Geschäftspartnern stehen. An zehn aufeinanderfolgenden Arbeitstagen beantworteten die Probanden zweimal pro Tag online einen Fragebogen. Am Nachmittag wurde abgefragt, wie häufig die Probanden am Tag ihre Emotionen der jeweiligen Situation anpassen und somit Selbstkontrolle ausüben mussten. Zudem ging es um die Frage, wie erschöpft sie sich fühlten. Am Abend bewerteten die Studienteilnehmer erneut ihr Wohlbefinden. Vor dem Start der Befragung wurde zudem erhoben, welche Vorstellung die Probanden über Willenskraft haben. Dazu mussten sie bewerten, was sie von bestimmten Aussagen halten, wie „Nach einer mental anstrengenden Aktivität fühlt man sich angeregt für neue herausfordernde Aufgaben“.

„Probanden, die bei der Arbeit ihre Emotionen kontrollieren mussten, profitierten unmittelbar von der Vorstellung, dass Willenskraft nahezu unbegrenzt verfügbar ist. Sie fühlten sich weniger erschöpft durch die Emotionsarbeit, auch zu Hause nach einem anstrengenden Arbeitstag“, fasst IfADo-Studienautorin Anne-Kathrin Konze einen Teil der Studie zusammen, die im „European Journal of Work and Organizational Psychology“ veröffentlicht wurde.

Nicht Grenzen, sondern Möglichkeiten betonen
„Unsere Willenskraft ist möglicherweise nicht so stark begrenzt, wie wir ursprünglich vermutet haben. Gehen wir dennoch davon aus, dass unsere Fähigkeit zur Selbstkontrolle schnell aufgebraucht ist, werden wir gewohnheitsmäßig unsere eigenen Fähigkeiten unterschätzen“, so Konze weiter. Auch die Unternehmenskultur kann einen Einfluss darauf nehmen, welche Einstellung Angestellte bezüglich der Grenzen von Willenskraft haben. „In einem Unternehmen, in dem eher die Grenzen des Machbaren betont, statt Möglichkeiten herausgestellt werden, können Mitarbeiter dazu verleitet werden, an eine sehr stark begrenzte Ressource der Willenskraft zu glauben. Das kann im schlimmsten Fall dazu führen, dass einzelne Teammitglieder das Optimum ihrer Leistungsfähigkeit verfehlen“, sagt IfADo-Arbeitspsychologin Konze.

Wer sich für 2019 vornimmt, im Job disziplinierter zu sein, der profitiert bei der Umsetzung dieses Vorsatzes von der Vorstellung, dass uns Willenskraft nahezu unbegrenzt zur Verfügung steht.

Das IfADo – Leibniz-Institut für Arbeitsforschung an der TU Dortmund erforscht die Potenziale und Risiken moderner Arbeit auf lebens- und verhaltenswissenschaftlicher Grundlage. Aus den Ergebnissen werden Prinzipien der leistungs- und gesundheitsförderlichen Gestaltung der Arbeitswelt abgeleitet. Das IfADo hat mehr als 220 Mitarbeiter/innen aus naturwissenschaftlichen und technischen Disziplinen. Das Institut ist Mitglied der Leibniz-Gemeinschaft, die 93 selbstständige Einrichtungen umfasst. Die Leibniz-Institute beschäftigen rund 19.100 Personen, darunter 9.900 Wissenschaftlerinnen und Wissenschaftler.

Wissenschaftliche Ansprechpartner:
Anne-Kathrin Konze
Wissenschaftliche Mitarbeiterin
Forschungsgruppe „Flexible Verhaltenssteuerung“
E-Mail: konze@ifado.de

Pressekontakt:
Eva Mühle
Pressereferentin
Telefon: + 49 231 1084-239
E-Mail: muehle@ifado.de

Originalpublikation:
Konze, A. K., Rivkin, W., Schmidt, K. H. (2018): Can Faith Move Mountains? How Implicit Theories about Willpower Moderate the Adverse Effect of Daily Emotional Dissonance on Ego-Depletion at Work and Its Spillover to the Home-Domain. European Journal of Work and Organizational Psychology. doi: 10.1080/1359432X.2018.1560269

Weitere Informationen:

https://www.ifado.de/blog/2018/12/28/vorsaetze/

Quelle: idw

(nach oben)


Licht für die Wurzelentwicklung

Rudolf-Werner Dreier Presse- und Öffentlichkeitsarbeit
Albert-Ludwigs-Universität Freiburg im Breisgau

Die Organbildung von Pflanzen passt sich mit Hilfe einer molekularen Uhr an äußere Bedingungen an

Die Freiburger Pflanzenbiologen Dr. Stefan Kircher und Prof. Dr. Peter Schopfer vom Institut für Biologie II der Albert-Ludwigs-Universität haben gezeigt, dass der Umweltfaktor Licht die Ausgestaltung des pflanzlichen Wurzelsystems durch Neubildung von Seitenwurzeln steuert. Licht moduliert die Frequenz von periodischen Genaktivierungspulsen in der Wurzelspitze mit Hilfe eines molekularen Schwingkreises, eines so genannten Oszillatorsystems. Dabei übernimmt das Pflanzenhormon Auxin die Rolle des Zeitgebers, beeinflusst also die Frequenz der Schwingungen. Ihre Studie veröffentlichten die Forschenden im Fachjournal „Development“.

Pflanzen bilden Seitenwurzeln, die in einem regelmäßig angeordneten Muster aus ihrer Hauptwurzel hervortreten und so ein Wurzelsystem bilden, welches zur Aufnahme von Wasser und Mineralstoffen aus dem Boden dient. Es war schon lange bekannt, dass das Pflanzenhormon Auxin maßgeblich an dieser Neubildung von Wurzelorganen beteiligt ist. Kontrovers diskutiert wird jedoch der molekulare Mechanismus, der für die Häufigkeit und Anordnung der Seitenwurzeln entlang der Hauptwurzel verantwortlich ist. Kircher und Schopfer haben nun nachgewiesen, dass hierbei dem Licht eine zentrale Rolle zukommt: Licht moduliert intensitätsabhängig sowohl die periodische Anlage des frühen Genaktivierungsmusters an den Stellen späterer Seitenwurzelentwicklung als auch die weiteren Wachstumsstadien bis hin zum Austritt der Seitenwurzel aus der Hauptwurzel. Basierend auf diesen Erkenntnissen, entwickelten die Freiburger Biologen in Übereinstimmung mit Daten anderer Forschungsgruppen ein molekulares Funktionsmodell einer von Auxin gesteuerten biologischen Uhr: Je mehr Licht einstrahlt, umso mehr Auxin bildet sich, umso schneller läuft die Uhr – und so erhöht sich Häufigkeit der Anlage von Seitenwurzeln pro Zeiteinheit. Nach Ansicht der Autoren repräsentiert dieses Modell einen neuartigen Typ einer biologischen Uhr mit modulierbarer Frequenz, das auch bei Entwicklungsprozessen jenseits des Pflanzenreichs Anwendung finden könnte.

Die Forschungsarbeit ist Teil des von der Deutschen Forschungsgemeinschaft geförderten Projekts „Die Entwicklung und Lichtregulation von Seitenwurzeln in Arabidopsis-Keimlingen“.

Wissenschaftliche Ansprechpartner:
Dr. Stefan Kircher
Institut für Biologie II
Albert-Ludwigs-Universität Freiburg
Tel.: 0761/203-2807
E-Mail: stefan.kircher@biologie.uni-freiburg.de

Originalpublikation:
Kircher, S. / Schopfer, P. (2018): The plant hormone auxin beats the time for oscillating light-regulated lateral root induction. In: Development 2018 145: dev169839. DOI: 10.1242/dev.169839

Weitere Informationen:
https://www.pr.uni-freiburg.de/pm/2018/licht-fuer-die-wurzelentwicklung

Quelle: idw

(nach oben)


Neue biologische Verfahren im Trink- und Grundwassermanagement

Bernd Hegen Referat Öffentlichkeitsarbeit
Universität Koblenz-Landau

Die Trinkwasserkonferenz „Neue biologische Verfahren im Trink- und Grundwassermanagement“ vom 19. Bis 21. März 2019 in Landau stellt neueste Entwicklungen und Methoden vor und will Wissenschaftler und Praktiker zusammen bringen.

Neue Anforderungen im Risikomanagement und in der Qualitätssicherung im Trink- und Grundwasserschutz verlangen neue Verfahren. In den vergangenen Jahren hat eine beeindruckende Entwicklung stattgefunden. Neue Biologische Verfahren im Trink- und Grundwassermanagement bieten mittlerweile maßgeschneiderte Einsatzmöglichkeiten für die Praxis. Die Trinkwasserkonferenz „Neue biologische Verfahren im Trink- und Grundwassermanagement“ vom 19. Bis 21. März 2019 in Landau, greift diese Herausforderungen auf und stellt die neuesten Entwicklungen und Methoden vor.

Die Tagung zeigt den aktuellen Stand der Forschung und die Möglichkeiten und Perspektiven für die Praxis auf. Sie führt Praktiker aus Trinkwasserversorgung und Wasserwirtschaft mit den Wissenschaftlern zusammen, die an den neuen, anwendungsorientierten Techniken arbeiten. Aktuell befassen sich mehrere Forschungsprojekte mit neuen biologischen Verfahren für die wasserwirtschaftliche Praxis und die Trinkwasserversorgung. Ergebnisse dieser Projekte und ihre Anwendung in der Praxis werden auf der Tagung in Landau ebenso vorgestellt, wie bereits verfügbare biologische Verfahren.

Gemeinsame Veranstalter der Trinkwasserkonferenz sind das Institut für Grundwasserökologie IGÖ GmbH, das Institut für Umweltwissenschaften der Universität Koblenz-Landau, das Institut für Grundwasserwirtschaft an der Fakultät Umweltwissenschaften der Technischen Universität Dresden und die Fachsektion Hydrogeologie e.V. in der Deutschen Geologischen Gesellschaft – Geologische Vereinigung e.V. (FH-DGGV).

Weitere Informationen zur Tagung und Anmeldung unter
https://grundwasseroekologie.de/

Wissenschaftliche Ansprechpartner:
PD Dr. Hans Jürgen Hahn
Institut für Grundwasserökologie
Tel: 06341 / 280-31590
E-Mail: hjhahn@uni-landau.de

Weitere Informationen:
https://grundwasseroekologie.de/

Quelle: idw

(nach oben)


Empathie bei Führungskräften: Zu viel Einfühlungsvermögen schadet in Krisensituationen

Katrina Jordan Abteilung Kommunikation
Universität Passau

Empathie kann bei Vorstandsvorsitzenden zu absurden Entscheidungen führen – wie beispielsweise hohe Boni für diejenigen, die für die Krise verantwortlich sind. Das ist eine der Aussagen einer konzeptionellen Studie von Forschenden aus Passau und den USA, die in dem angesehenen Journal „Academy of Management Review“ erschienen ist.

Empathie – darunter verstehen die Autoren und die Autorin der Studie eine Persönlichkeitseigenschaft, die zunächst einmal positiv besetzt ist. Sie beschreibt unter anderem die Fähigkeit, sich in andere Menschen einfühlen zu können.

„Es handelt sich um eine Eigenschaft, die Vorstandsvorsitzende haben sollten“, erklärt Prof. Dr. Andreas König, Inhaber des Lehrstuhls für Betriebswirtschaftslehre mit Schwerpunkt Strategisches Management, Innovation und Entrepreneurship an der Universität Passau. „Denn Empathie hilft in vielen Situationen, insbesondere auch in Krisen. Das Problem ist, dass sie auch Schaden anrichten kann.“

Die Autoren und die Autorin nennen in der Studie unter anderem das Beispiel von Robert Benmosche, dem langjährigen Chef des US-Versicherers AIG, der in der Hochphase der Finanzkrise Boni in Millionen-Höhe an Personen auszahlte, die für die Misere verantwortlich waren. Befragt nach seinen Motiven nannte Benmosche sein Mitgefühl mit dieser Gruppe.

Die Forschenden stellen in ihrer Studie zum Einfluss von Empathie auf das Krisenmanagement von Führungskräften folgende Thesen auf:
• Je empathischer eine Führungskraft ist, umso schneller erkennt sie mögliche Warnsignale – wird aber auch Krisen sehen, wo gar keine sind. Empathischere Führungskräfte erklären häufiger falschen Alarm.
• Empathie hilft Führungskräften, in der Krise an die relevanten Informationen zu kommen, macht sie aber auch voreingenommen in der Verarbeitung dieser Informationen. Fachkräfte teilen ihr Wissen eher mit einer/m Vorgesetzten, die oder der empathisch ist. Allerdings fehlt einer solchen Person in Krisensituationen der kühle Kopf, um die Informationen nüchtern auszuwerten.
• Je empathischer eine Führungskraft ist, desto leichter fällt es ihr, Mitgefühl und Verständnis zu zeigen – das ist grundsätzlich lobenswert, oft aber nur bis zu einem gewissen Grade richtig. In der Krisenkommunikation darf eine Führungskraft im Interesse des Unternehmens und der Beschäftigten nicht voreilig zu viel Verantwortung auf sich nehmen. Sonst kann das Bild, das Stakeholder wie die Öffentlichkeit und Investoren von der Organisation haben, unberechtigterweise kippen, mit langfristigem Schaden für alle Organisationsmitglieder.
• Je empathischer eine Führungskraft ist, desto besser gelingt es ihr, das verletzte Beziehungssystem nach einer Krise zu heilen – aber desto schwerer fällt es ihr, operativen Schaden zu beseitigen. Eine empathischere Führungskraft kann besser erkennen, wann die Belegschaft bereit ist, einen Neuanfang zu wagen. Allerdings bleibt dieser Führungskraft kaum Zeit, um operative Herausforderungen und technische Detailarbeit zu meistern.

„Die Kernbotschaft unserer Studie lautet: In vielen Aspekten beeinflusst Empathie das Krisenmanagement zunächst positiv. Doch es gibt einen Punkt, an dem das Verhältnis kippt. Empathie von Vorstandsvorsitzenden und effektives Krisenmanagement stehen also in einem umgekehrt U-förmigen Zusammenhang“, erklärt der Passauer Innovationsforscher Prof. Dr. König. Die Studie ist unter dem Titel „A blessing and a curse: How CEOs‘ empathy affects their management of organizational crises“ im Academy of Management Review erschienen, einer der international bedeutendensten wissenschaftlichen Zeitschriften zu betriebswirtschaftlichen Themen.

Über die Autoren und die Autorin:
• Prof. Dr. Andreas König, Inhaber des Lehrstuhls für Betriebswirtschaftslehre mit Schwerpunkt Strategisches Management, Innovation und Entrepreneurship an der Universität Passau
• Dr. Lorenz Graf-Vlachy, Akademischer Rat am Lehrstuhl für Betriebswirtschaftslehre mit Schwerpunkt Strategisches Management, Innovation und Entrepreneurship an der Universität Passau
• Prof. Dr. Jon Bundy, Assistant Professor an der W.P. Carey School of Business der Arizona State University (USA).
• Prof. Dr. Laura Little, Associate Professor am Terry College of Business der University of Georgia (USA) und Direktorin des dortigen Instituts für Leadership Advancement.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Andreas König
andreas.koenig@uni-passau.de

Originalpublikation:
https://journals.aom.org/doi/10.5465/amr.2017.0387 – Originalstudie „A blessing and a curse: How CEOs‘ empathy affects their management of organizational crisis“

Weitere Informationen:
https://univideo.uni-passau.de/2018/11/prof-dr-andreas-koenig-ueber-empathie-bei… – Video zur Studie

Quelle: idw

(nach oben)


Einfach mal abschalten: Die schnelle Erholung zwischendurch

Eva Mühle Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Arbeitsforschung an der TU Dortmund

„Im Urlaub kann ich mich dann endlich erholen“ – mit diesem Gedanken trösten sich viele Arbeitnehmer, wenn es im Job zu viel wird. In Wirklichkeit sind die Wechselwirkugen zwischen Arbeitsbelastung, Erschöpfung und Erholung deutlich dynamischer: Ein anstrengender Arbeitstag bereits am selben Tag zu Erschöpfung führen und das Wohlbefinden am Feierabend beeinträchtigen. Genauso kurzfristig wie die Erschöpfung kommt, sollte auch Zeit für die Erholung eingeräumt werden: Bewusstes Abschalten zu Hause fördert die Regeneration und verhindert, dass der Arbeitstag die anschließende Freizeit beeinflusst. Das zeigt eine Tagebuch-Studie des Leibniz-Instituts für Arbeitsforschung an der TU Dortmund.

Ablenkungen im Großraumbüro ausblenden, ungeliebte Projekt-Aufgaben angehen und im Kundenkontakt stets freundlich sein: Solche Anforderungen sind selbstverständlich geworden in der modernen Arbeitswelt. Laut einer Eurofond-Erhebung geben 68 Prozent der Angestellten in der EU an, von Anfragen Dritter wie etwa Kunden abhängig zu sein. 31 Prozent müssen ihre wahren Emotionen bei der Arbeit zugunsten zielorientierten Verhaltens unterdrücken. Das strengt an und kann auf Dauer die Gesundheit und Leistungsfähigkeit beeinträchtigen.

IfADo-Arbeitspsychologinnen und Arbeitspsychologen haben nun untersucht, ob und wie sich solche Anforderungen noch am selben Tag auf das Wohlbefinden von Arbeitnehmern auswirken – und ob kurzfristig erfolgende Erholung davor schützt. Die Forschenden führten eine Online-Befragung mit insgesamt 86 berufstätigen Probandinnen und Probanden durch. An zehn aufeinanderfolgenden Arbeitstagen beantworteten diese zweimal pro Tag einen Fragebogen. Am Nachmittag wurde die gerade erlebte Arbeitsbelastung abgefragt. Am Abend bewerteten die Studienteilnehmer ihr Wohlbefinden. Zudem gaben sie an, wie gut es ihnen an diesem Abend gelang, von der Arbeit abzuschalten.

Freiräume für Erholung nach Feierabend
„Auf Grundlage der Befragung konnten wir bestätigen, dass sich ein anstrengender Arbeitstag direkt auf das Wohlbefinden nach der Arbeit auswirkt. Man bringt die Last quasi mit nach Hause“, sagt IfADo-Studienautorin Lilian Gombert. „Zuhause angekommen fühlt man sich erschöpft und antriebslos, Verabredungen werden abgesagt, die Laune sinkt.“ Dabei sind es gerade Freizeitaktivitäten, die entgegenwirken: „Wenn man am Feierabend einem Hobby nachgeht, Sport treibt oder Freunde trifft, rückt das bei der Arbeit Erlebte in den Hintergrund. Das schafft nach einem anstrengenden Arbeitstag die benötigten Freiräume für Erholung“, so Gombert weiter.

Gerade an Tagen mit hoher Belastung gilt: Nicht immer ins Schneckenhaus zurückziehen, sondern aktiv werden und bewusst von der Arbeit abschalten. Das sollte auch von Arbeitgebern gefördert werden, zum Beispiel durch vereinbarte Regeln im Umgang mit beruflichen E-Mails und Anrufen auf dem Smartphone nach Feierabend.

Das IfADo – Leibniz-Institut für Arbeitsforschung an der TU Dortmund erforscht die Potenziale und Risiken moderner Arbeit auf lebens- und verhaltenswissenschaftlicher Grundlage. Aus den Ergebnissen werden Prinzipien der leistungs- und gesundheitsförderlichen Gestaltung der Arbeitswelt abgeleitet. Das IfADo hat mehr als 220 Mitarbeiter/innen aus naturwissenschaftlichen und technischen Disziplinen. Das Institut ist Mitglied der Leibniz-Gemeinschaft, die 93 selbstständige Einrichtungen umfasst. Die Leibniz-Institute beschäftigen rund 19.100 Personen, darunter 9.900 Wissenschaftlerinnen und Wissenschaftler.

Wissenschaftliche Ansprechpartner:
Ansprechpartnerin:

Lilian Gombert
Wissenschaftliche Mitarbeiterin „Flexible Verhaltenssteuerung“
Telefon: + 49 231 1084-413
E-Mail: gombert@ifado.de
www.ifado.de/gesundheit

Pressekontakt:
Eva Mühle
Pressereferentin
Telefon: + 49 231 1084-239
E-Mail: muehle@ifado.de

Originalpublikation:
Gombert, L., Rivkin, W., & Schmidt, K.-H. (2018). Indirect Effects of Daily Self-Control Demands on Subjective Vitality via Ego Depletion: How Daily Psychological Detachment Pays Off. Applied Psychology: An international Review, S. 1-26. doi: 10.1111/apps.12172

Weitere Informationen:
https://www.ifado.de/blog/2018/12/06/einfach-mal-abschalten-die-schnelle-erholun…

Quelle: idw

(nach oben)


Stadtentwicklung bei Überflutung: Wie Städte Raum für Wasser schaffen können

Sabine Ranke-Heinemann Pressestelle
Australisch-Neuseeländischer Hochschulverbund / Institut Ranke-Heinemann

In Küstenstädten wird es wegen des Klimawandels immer häufiger zu Überflutungen kommen. Daher muss die Menschheit lernen, in Einklang mit dem Wasser zu leben. Es bieten sich naturnahe Lösungen an.

Die Siedlungen an den australischen Küsten sind den Einflüssen des Klimawandels stark ausgesetzt. Städte, die widerstandsfähig gegenüber den klimatischen Bedingungen sind und mit großen Wassermassen umgehen können, müssen daher in Zukunft Standard werden.

Laut der Wissenschaftlerin Elisa Palazzo Dozentin am Fachbereich Urban and Landscape Design der University of New South Wales in Sydney, zeigt die Forschung deutlich, dass das Klima immer unsteter wird. Wetterereignisse wie die Sturzflut in Sydney vor einer Woche werden öfter und extremer vorkommen, während die Zeitspanne zwischen den Vorfällen immer kürzer werden wird. Mit einem höheren Meeresspiegel und regelmäßigen Überflutungen werden Wasserlandschaften ein Teil unseres städtischen Lebens werden.

Die meisten australischen Städte befinden sich in Küstennähe oder in der Nähe von Flüssen. Ob wir es schaffen, die globale Erderwärmung bei unter 1,5°C zu halten oder nicht: die Mehrheit der australischen Bevölkerung wird bald in einer Überschwemmungszone leben.

Perspektivenwechsel: Regenwasser als Ressource, nicht als Abfall
Den Wasserkreislauf zu verstehen, ist eine Möglichkeit, eine positive Beziehung zwischen natürlichen Prozessen, Pflanzen und Menschen zu schaffen. Wir können lernen, Überschwemmungen als regeneratives Element anzusehen, das das Leben auch im städtischen Umfeld verbessern kann.

Für eine lange Zeit hat die Stadtplanung die Möglichkeiten übersehen, die das Regenwasser in städtischen Systemen bietet. Nun muss die Abkehr von dem Gedanken, Regen als zu entsorgenden Abfall anzusehen, überwunden werden. Stattdessen sollte es als nicht-erneuerbare Ressource angesehen werden, die geschützt und wiederbenutzt werden kann.

Diese Veränderung im Umgangs mit Regenwasser ist in einigen städtebaulichen Vorreiterprojekten bereits sichtbar. Städte wie New York, New Orleans und Kopenhagen beginnen nach den Überschwemmungen der vergangenen Jahre bereits mit der Umstrukturierung. Dort verändern städtebauliche Maßnahmen radikal die Art, wie Räume genutzt, erlebt und wahrgenommen werden.

Innovative Strategien verstehen Überflutungen eher als natürlichen Prozess, mit dem gearbeitet werden muss, denn als Prozess, gegen den man standhalten muss. Unstrukturierte, sanfte und auf der Natur basierende Lösungen sollen in Zukunft technisch entwickelte Maßnahmen ersetzen. Diese Projekte nutzen den Klimawandel für sich, um Vorteile für die Bewohner zu entwickeln.

Platz für Wasser schaffen
Die Idee, mit Wasser Hochwasserschutz mit natürlichen Mitteln zu betreiben, wurde schon vielfältig erforscht. Die Ergebnisse lassen sich in vier Strategien einteilen:

Schwammräume und sicheres Ablassen des Wassers: Ein Netzwerk kleiner und mittlerer Grünflächen absorbiert und speichert überschüssiges Wasser. Nahezu alle Freiflächen einer Stadt, beispielsweise Hausdächer, können Teil eines dezentralen „Off-Grid“-Systems sein.

Die Kopenhagener Kampagne zur klimabeständigen Nachbarschaft zielt darauf ab, zumindest 20 Prozent der öffentlichen Fläche als eine Art Schwamm zu nutzen, um Sturzfluten in innerstädtischen Gebieten zu reduzieren. Kontrolliertes Fluten eines Teils dieses Systems vermeidet Wasserprobleme an anderen Stellen, zum Beispiel auf Straßen. Diese „safe to fail“-Orte können zahlreiche weitere Funktionen übernehmen und den Menschen in trockenen Zeiten zur Erholung zur Verfügung gestellt werden.

Design für Variabilität: Die Prozesse des Wassers ändern sich mit der Saison. Die Gestaltung von Wohnsiedlungen sollte diese Veränderbarkeit reflektieren. Ein besseres Verständnis der Prozesse der Natur innerhalb einer Stadt führt zu neuem Design, das neben ökologischen Vorteilen auch den räumlichen Ausdruck verändert. Eine interessante Erneuerung in der Stadtplanung ist die veränderte Gestaltung, die die vormals starren Formen ersetzt. Eine Auswahl verschiedener Pflanzen und Erdsubstraten unterstützt die Variabilität in der räumlichen Gestaltung. Ein gutes Beispiel hierfür ist der Biliancourt Park in Frankreich, in dem Wasser dafür sorgt, dass die Größe der Gärten sich je nach Pegelstand immer wieder verändert.

Verschwende es nicht: Regenwasser ist eine kostbare Ressource, die genutzt werden sollte. Undurchlässiger Boden und Dachoberflächen können Regenwasser auffangen und für eine spätere Benutzung – etwa zur Bewässerung, zum Waschen oder für die Toilettenspülung – speichern. Der Prozess ist einfach und benötigt keine spezielle Technologie. Das gilt besonders für das Wasser vom Dach, denn es ist rein genug, um so, wie es aufgefangen wird, genutzt zu werden.

Lass es durchsickern: Pflastersteine lassen das Wasser in den Grund sickern und so dem Grundwasser zuführen. Durchlässige Böden erhalten den natürlichen Wasserkreislauf und erlauben einen Feuchtigkeitsaustausch zwischen der Luft und der Erde. Zudem sorgt dies für eine Abkühlung der Stadt im Sommer und zudem für eine angenehme Wohnumgebung.

Um die Anzahl der undurchlässigen Böden zu reduzieren, sollte die Anzahl der herkömmlichen Straßen und Parkplätze durch Gras oder wasserdurchlässige Untergründe ersetzt werden. Dort, wo es dennoch nötig ist, Boden zu pflastern, sollte ein Filtersystem eingebaut werden, um die Verunreinigung des Regenwassers möglichst gering zu halten.

Eine große, kollektive Anstrengung ist nötig
Die Umsetzung dieser Strategien zur Vermeidung von Überschwemmungen in privaten und öffentlichen Gebieten ist schwierig. Sie erfordert eine kollektive Anstrengung.

Forschung zu städtischer Klimaadaption zeigt, dass der Prozess dieser Umgestaltung oft ein hierarchischer Prozess ist. Programme zum Wiederaufbau nach Hochwasserschäden wurden in der Vergangenheit nur selten von den Regierungen als Möglichkeit gesehen, auf die Bedürfnisse der lokalen Kommunen einzugehen.

Es werden gemeinsame Entscheidungen zum Wassermanagement benötigt, um die Lebensbedingungen der Bewohner an das sich schnell ändernde Klima anzupassen. Neue Herausforderungen können zu Chancen werden, wenn Umweltziele mit Nachhaltigkeit und sozialer Gerechtigkeit gepaart werden.

Die Umsetzung von Maßnahmen zur Anpassung an das Hochwasser werde noch immer nur sporadisch umgesetzt. Sie beschränkt sich oft auf zentralisierte Feuchtbiotope in großen Parks und Gärten. Es wird ein kapillar-ähnliches Netzwerk benötigt, welches Städte mit hoher baulicher Dichte mit kleinen bis mittleren naturbasierten Maßnahmen durchsetzt.

Bislang gibt es keinen Beweis dafür, dass die Vorteile dieser Systeme effektiv genug sind, um massive Überflutungen zu vermeiden. Deswegen müssen diese Maßnahmen systematisch getestet und überwacht werden. Wir müssen anfangen, uns Fragen zu stellen: Was wäre, wenn jedes Hausdach eine bepflanzte Oberfläche hätte, wenn jeder Gehweg Regenwasser auffangen und speichern würde, wenn jeder Park ein Regengarten wäre?

Wir müssen dieses Wissen dringend anwenden, denn wenn wir nicht schnell lernen, wie wir mit Wasser in Städten umgehen, wird das Wasser sie in der Zukunft noch härter treffen.

Der Artikel wurde am 4. Dezember 2018 im „The Conversation“ veröffentlicht.

Weitere Informationen:
Institut Ranke-Heinemann / Australisch-Neuseeländischer Hochschulverbund
Pressestelle Friedrichstr. 95
10117 Berlin
Email:berlin@ranke-heinemann.de
Tel.: 030-20 96 29 593

oder

Elisa Palazzo PhD
Senior Lecturer in Urban and Landscape Design, UNSW
Email: elisa.palazzo@unsw.edu.au

Das Institut ist die gemeinnützige Einrichtung zur Förderung des Austausches und der Auslandsstudien insbesondere mit allen Universitäten Australiens und Neuseelands sowie zur Förderung von Wissenschaft und Forschung. In seinen Förderprogrammen stellt es SchülerInnen und Studierenden Unterstützung in der Finanzierung durch Stipendien und Coaching in der Studienberatung und Studienplatzbewerbung zur Verfügung.

Originalpublikation:
https://theconversation.com/design-for-flooding-how-cities-can-make-room-for-wat…

Weitere Informationen:

http://https//www.ranke-heinemann.de

Quelle: idw

(nach oben)


Regensburger Biologen heben „versteckten Schatz“

Christina Glaser Referat II/2 – Media Relations & Communications
Universität Regensburg

Schlammpackungen halten fit – zumindest scheint das für Samen von einer Reihe von Pflanzenarten zu stimmen. Denn Biologen der Universität Regensburg haben in einer Studie nachgewiesen, dass in über 100 Teichen in Bayern und Baden-Württemberg so mancher Same in den Schlammböden über 100 Jahre keimfähig bleibt – und das, obwohl einige der gefundenen Keimlinge von Pflanzenarten stammen, die an den entsprechenden Standorten als verschollen oder ausgestorben gelten.

Dass manche Pflanzen ungünstige Umweltbedingungen als Same im Boden überdauern können, weiß man schon länger. Bekannt ist das z. B. für Ackerwildkräuter und Pflanzen auf häufiger gestörten Standorten, d. h. auf Standorten mit einer veränderten Zusammensetzung der Bodenkomponenten. Ersichtlich wird diese „versteckte“ Artenvielfalt erst durch die Untersuchungen der Samenbank im Boden und wird deshalb im angloamerikanischen Sprachgebrauch als „hidden diversity“ bezeichnet. Bei einer Zusammenstellung der Pflanzen aller Lebensräume der nordwesteuropäischen Flora vor etwa 20 Jahren ging man aber davon aus, dass nur sehr wenige Arten, nämlich 14, über sehr lange Zeiträume (z.B. mehr als 100 Jahre) im Boden überleben können. Dies waren häufige Arten und/oder Ackerwildkräuter (in der Regel „Unkräuter“). Der Ökologe und Naturschutzbiologe Prof. Dr. Peter Poschlod von der Universität Regensburg untersucht bereits seit über 30 Jahren die Langlebigkeit von Samen seltener und gefährdeter Arten. In seiner jüngsten Studie zu gefährdeten Arten von Schlammböden – einem Lebensraum, in dem nach Angaben des Bundesamtes für Naturschutz 60 Prozent der Pflanzenarten als gefährdet gelten – hat er mit seinen ehemaligen Arbeitsgruppen der Universitäten Hohenheim und Marburg und seiner aktuellen Arbeitsgruppe in Regensburg im Laufe von 26 Jahren die Sedimente von 108 Fischteichen in Bayern und Baden-Württemberg untersucht. Jetzt hat er die Ergebnisse zusammen mit Dr. Sergey Rosbakh in der renommierten Fachzeitschrift Biological Conservation veröffentlicht.

Dabei zeigte sich, dass alle Teiche bis auf einen keimfähige Samen von wenigstens einer gefährdeten Art der regionalen oder nationalen Roten Listen enthielten – und dies in zum Teil erstaunlich großer Menge (bis zu fast 3.000 pro Liter Sediment). Das Ergebnis ist umso erstaunlicher, weil viele dieser gefährdeten Arten in den Untersuchungsgebieten als entweder nicht vorkommend, seit längerem verschollen oder ausgestorben gelten. Von insgesamt über 540.000 gezählten Keimlingen, die aus den Proben von jeweils sechs bis zehn Litern Sediment pro Weiher aufliefen, stammten über 300.000 Keimlinge von 49 typischen Schlammbodenarten. Von diesen 49 Arten gelten 22 aktuell regional (Bayern, Baden-Württemberg) oder national als gefährdet.

Daten der floristischen Kartierungen der jeweiligen Länder, die Rekonstruktion der Nutzungsgeschichte der Weiher sowie weitere noch nicht publizierte Ergebnisse von Sedimenten der Donau und des Rheins zeigen, dass die Samen von Pflanzen der Schlammböden nicht nur über mehrere Jahrzehnte, sondern auch über 100 Jahre unter den Bedingungen eines überstauten Sediments überleben können. Dies bedeutet, dass keimfähige Samen dieser Arten noch existieren, auch wenn diese selbst an den entsprechenden Standorten als verschollen oder ausgestorben gelten. Dieser „versteckten“ Vielfalt sollte deshalb in Zukunft noch mehr Aufmerksamkeit geschenkt werden. Denn in den Lebensräumen, in denen gefährdete Arten noch in der Samenbank im Boden vorkommen, könnte dieses Potential im Rahmen von Renaturierungsmaßnahmen genutzt werden.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Peter Poschlod
Lehrstuhl für Ökologie und Naturschutzbiologie
Universität Regensburg
Tel.: 0941-943-3108
E-Mail: peter.poschlod@ur.de

Originalpublikation:
Poschlod, P. & Rosbakh, S. (2018): Mudflat species: Threatened or hidden? An extensive seed bank survey of 108 fish ponds in Southern Germany. Biological Conservation 225: 154-163. https://doi.org/10.1016/j.biocon.2018.06.024

Quelle: idw

(nach oben)


Weiterbildung bringt oft wenig für die Karriere

Dr. Harald Wilkoszewski Informations- und Kommunikationsreferat
Wissenschaftszentrum Berlin für Sozialforschung gGmbH

Weiterbildung und lebenslanges Lernen gelten heute als Patentrezept für den beruflichen Aufstieg. Ihr Ertrag für die Karriere ist jedoch geringer als gedacht. Denn für Beförderungen, ein höheres Einkommen und größere soziale Mobilität bringen Weiterbildungsmaßnahmen meist nur dann etwas, wenn sie zu einem anerkannten beruflichen Abschluss führen. Berufsbegleitende Kurse und Lehrgänge ohne formalen Abschluss haben dagegen einen viel geringeren Effekt auf die Karriere. Das zeigt eine neue Studie von Martin Ehlert (Wissenschaftszentrum Berlin für Sozialforschung) und Christian Ebner (Karlsruher Institut für Technologie).

Jedes Jahr nimmt etwa die Hälfte der Erwerbstätigen in Deutschland an Weiterbildung teil. Mehr als 90 Prozent dieser Kurse sind sogenannte non-formale Weiterbildung: relativ kurze Kurse, die nicht zu formalen, also anerkannten, Bildungsabschlüssen führen. Dazu gehören Computer- oder Sprachkurse sowie Schulungen für neue Produkte oder Geräte. Häufig werden die Lehrgänge von Arbeitgebern finanziert und sind auf die Bedürfnisse des Betriebs ausgerichtet. Formale Weiterbildung, die zum Beispiel zum Meister oder zum Abitur an einer Abendschule führt, macht nur etwa 3 Prozent der von Erwachsenen besuchten Kurse aus.

Mit Daten aus dem Nationalen Bildungspanel (NEPS) konnten Martin Ehlert und Christian Ebner zum ersten Mal detailliert die Erträge der Teilnahme an Weiterbildung verfolgen. Für den Zeitraum von 2009 bis 2016 zeigen sie, wie sich Weiterbildung auf die Karriere auswirkt.

Das Ergebnis: Das Credo „Aufstieg durch Bildung“ muss relativiert werden. Non-formale Weiterbildung hilft in erster Linie den Beschäftigten, ihre Kenntnisse an die betrieblichen Erfordernisse anzupassen und damit beschäftigungsfähig zu bleiben. Sie sichert den Arbeitsplatz und beugt damit dem Abstieg vor. Der Aufstieg im Betrieb wie auch jede andere Form von beruflichen Wechseln wird durch die Teilnahme an diesen Kursen aber eher verhindert. „Aus Sicht der Betriebe ist das eine logische Strategie: Wenn Beschäftigte geschult werden, um ihre aktuelle Aufgabe besser zu verrichten, ergibt es keinen Sinn, sie auf andere Stellen zu setzen“, macht WZB-Forscher Martin Ehlert deutlich. Weiterbildungen sind außerdem für viele Tätigkeiten zur Normalität geworden und werden nicht mehr zur Bewertung bei Beförderungen hinzugezogen.

Für die Arbeitsmarktpolitik bedeuten diese Ergebnisse, dass Konzepte, die stark auf die individuelle Verantwortung der Beschäftigten für den Aufstieg durch Weiterbildung setzen, zu kurz greifen. Es bringt wenig, gering bezahlten Arbeitnehmerinnen und Arbeitnehmern zu raten, ihre Einkommenssituation durch mehr non-formale Kurse zu ändern – auch wenn Weiterbildung für den Erhalt der Beschäftigungsfähigkeit und das Verhindern von beruflichen Abstiegen wichtig ist. Darüber hinaus bekommen gerade die Schwächsten im Betrieb selten die Möglichkeit zur Teilnahme. Um Ungleichheit zu begrenzen und niedrig qualifizierte Beschäftigte zu fördern, müssen daher innerbetriebliche Prozesse in den Blick genommen werden. Betriebsräte und Gewerkschaften könnten beispielsweise noch stärker auf die Einrichtung einer inklusiven Weiterbildungs- und Karriereplanung am Arbeitsplatz hinwirken. Außerdem ist es wichtig, formale Abschlüsse durch Weiterbildungen zu fördern, zum Beispiel durch Teilqualifikationen, die es durch mehrere kurze Weiterbildungen ermöglichen einen formalen Ausbildungsabschluss nachzuholen.
Wissenschaftliche Ansprechpartner:

Dr. Martin Ehlert, wissenschaftlicher Mitarbeiter in der Abteilung Ausbildung und Arbeitsmarkt und Themenbereichsleiter des Promotionskollegs „Gute Arbeit“: Ansätze zur Gestaltung der Arbeitswelt von morgen.

Prof. Dr. Christian Ebner, Professur für Soziologische Berufsforschung an der Universität zu Köln und am Bundesinstitut für Berufsbildung (BIBB) in Bonn. Zur Zeit Vertretungsprofessor am Karlsruher Institut für Technologie .

Originalpublikation:
Die Studie von Christian Ebner und Martin Ehlert: „Weiterbilden und Weiterkommen? Non-formale berufliche Weiterbildung und Arbeitsmarktmobilität in Deutschland.“ ist in der Kölner Zeitschrift für Soziologie und Sozialpsychologie erschienen (Jg. 70, H. 2, S. 213-35).

Weitere Informationen:
https://wzb.eu/de/pressemitteilung/weiterbildung-bringt-oft-wenig-fuer-die-karri…

Quelle: idw

(nach oben)


Rheinfelden wird ultraeffizient

Jörg Walz Presse- und Öffentlichkeitsarbeit
Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA

Ein Gewerbegebiet ohne Abfall, Abwasser und Abluft: Genau das soll im südbadischen Rheinfelden Wirklichkeit werden. Unter der Leitung des Fraunhofer- Instituts für Produktionstechnik und Automatisierung IPA erarbeiten Wissenschaftler ein Konzept für das weltweit erste stadtnahe, ultraeffiziente Gewerbegebiet.

Es ist ein ungewöhnlicher Anblick: Wer das Werkgelände der Evonik Industries AG in Rheinfelden (Baden) verlässt, sieht gegenüber, auf der anderen Straßenseite, Mehrfamilienhäuser stehen. Linkerhand überragt ein neobarocker Kirchturm die Kantine. Industrie- und Gewerbegebiete liegen in der südbadischen Stadt in unmittelbarer Nähe zu Wohnsiedlungen. Einerseits ist das historisch bedingt: Als 1898 das Laufwasserkraftwerk in Betrieb ging, siedelte sich rasch Industrie an und es entstanden Arbeitersiedlungen. Andererseits liegt es an der geographischen Lage der Stadt: Im Norden begrenzen Ausläufer des Schwarzwaldes das Stadtwachstum und nur einige hundert Meter weiter im Süden der Hochrhein, der die Grenze zur Schweiz bildet.

»Die seitens der hier ansässigen Unternehmen und der Stadt getroffenen Maßnahmen zur Einsparung von Energie und Ressourcen sowie zur Vermeidung von Emissionen sind beeindruckend«, sagt Ivan Bogdanov vom Fraunhofer IPA, »sie sind ein sehr wichtiges Kriterium für ein stadtnahes, ultraeffizientes Industriegebiet. Wichtig sind auch die kurzen Wege zwischen Wohn- und Industriegebieten.« So gibt es bereits ein firmenübergreifendes Leitungsnetz, über das Salzsäure, Wasserstoff und Dampf ausgetauscht werden. Abwärme wird ins Netz eingespeist und dient dazu, Schulen und Wohnungen im Stadtgebiet zu beheizen.

Elf Bewerbungen, drei Finalisten, ein Sieger
Bogdanov leitet das Arbeitspaket »Stadtnahe, ultraeffiziente Industriegebiete« im Rahmen des Projekts »Ultraeffizienzfabrik – Symbiotisch-verlustfreie Produktion im urbanen Umfeld«, das das Ministerium für Umwelt, Klima und Energiewirtschaft Baden-Württemberg in der aktuellen Förderphase mit rund 1,3 Millionen Euro finanziert. Um einen geeigneten Standort für das weltweit erste stadtnahe, ultraeffiziente Industriegebiet zu finden, haben sich Bogdanov und fünf weitere Wissenschaftler von den drei Stuttgarter Fraunhofer-Instituten IPA, IAO und IGB im Frühjahr auf die Suche nach Städten, Gemeinden und Unternehmen in Baden-Württemberg gemacht, die Effizienz- und Effektivitätsmaßnahmen auf allen fünf Handlungsfeldern der Ultraeffizienzfabrik (s. Kasten) in Industriegebieten planen oder bereits umsetzen.

Dazu riefen die Forscher einen Wettbewerb aus. Bewerbungen aus elf baden-württembergischen Kommunen gingen bis Ende Juni ein, drei schafften es in die engere Wahl: der Gewerbepark Breisgau südlich von Bad Krozingen, der Industriepark Nagold Gäu und die Stadt Rheinfelden (Baden). Um die bestmögliche Wahl zu treffen, machten sich die Wissenschaftler im Sommer vor Ort ein Bild und loteten in Gesprächsrunden mit Gemeinde- und Unternehmensvertretern aus, was dort auf den fünf Handlungsfeldern der UItraeffizienzfabrik geplant und bereits umgesetzt ist.

Bis März soll das Konzept stehen
Das verdichtete Stadtbild, die Stoff- und Energiekreisläufe und die Bemühungen, Emissionen zu vermeiden sowie das Leben und Arbeiten in Rheinfelden attraktiv zu gestalten – all das bewog das Umweltministerium und die Forscher letztlich dazu, der Stadt Rheinfelden (Baden) den Zuschlag zu geben. »Als eine der führenden Wirtschaftsregionen der Welt wollen wir zeigen, wie modernste Produktionsstätten mit geschlossenen Stoff- und Energiekreisläufen die vorhandenen Ressourcen möglichst effizient nutzen können«, sagt Umweltminister Franz Untersteller. »Rheinfelden soll Vorbild dafür sein, dass man wirtschaftlichen Erfolg haben und zugleich die Lebensqualität der Menschen steigern sowie unsere Umwelt entlasten kann. Industrie und urbanes Leben sind so kein Widerspruch.«

Rheinfeldens Oberbürgermeister Klaus Eberhardt freut sich über die Auszeichnung. Die Stadtverwaltung sehe sich dadurch bestärkt in dem Bestreben, »in ständiger Kooperation mit den Unternehmen weiter an städtebaulichen Entwicklungs- und nachhaltigen Energiekonzepten zu arbeiten.«

Bis 31. März 2019 legen die Wissenschaftler um Bogdanov ein ganzheitliches Ultraeffizienzkonzept für die Industrieansiedlungen am östlichen Stadtrand und das Gewerbegebiet im Stadtteil Herten vor. Dabei arbeiten sie eng mit den ansässigen Unternehmen, der Stadtverwaltung sowie den zuständigen Fabrik- und Stadtplanern zusammen. Enthalten sind darin neben konkreten Handlungsempfehlungen auch eine detaillierte, ganzheitliche Analyse von Symbiose-Effekten zum urbanen Umfeld sowie ein Geschäftsmodell für eine Standortbetreibergesellschaft nach der Vision der Ultraeffizienzfabrik.

Die fünf Handlungsfelder der Ultraeffizienzfabrik
1. Material: ressourcenschonend wirtschaften, Stoffkreisläufe aufbauen und so
viele Reststoffe wie möglich weiterverwerten
2. Energie: regenerative Energiequellen erschließen, Abwärme speichern oder
andernorts verwenden
3. Emissionen: Abfall, Abwasser, Abluft und Lärm möglichst komplett vermeiden
4. Mensch/Personal: Arbeitswege kurz halten, flexible, kooperative Arbeitszeitmodelle
etablieren, soziale Einrichtungen in Gewerbegebiete integrieren
5. Organisation: Dienstleistungen und Einrichtungen überbetrieblich gemeinsam
nutzen, innovative Geschäftsmodelle an der Schnittstelle zum urbanen Umfeld

Wissenschaftliche Ansprechpartner:
Ivan Bogdanov
Telefon +49 711 970-1338
Ivan.Bogdanov@ipa.fraunhofer.de

Anhang
Mediendienst Dezember
https://idw-online.de/de/attachment70424

Quelle: idw

(nach oben)


Lungenärzte warnen: Silvesterfeuerwerk belastet Gesundheit und Umwelt

Medizin – Kommunikation Medizinkommunikation
Arbeitsgemeinschaft der Wissenschaftlichen Medizinischen Fachgesellschaften e.V.

Berlin- Am Neujahrstag erreicht die Feinstaubbelastung in Deutschland Spitzenwerte. Die Feinstaubmenge, die durch Raketen und Böller ausgestoßen wird, macht fast einen Fünftel der jährlichen Gesamtmenge durch den Straßenverkehr aus. Die verschmutzte Luft reizt die Atemwege. Besonders stark werden dadurch kleine Kinder, Senioren und Menschen mit chronischen Erkrankungen, vor allem der Lunge und des Herzkreislaufsystems, belastet. Die Deutsche Gesellschaft für Pneumologie und Beatmungsmedizin (DGP) ruft dazu auf, den Gebrauch von Feuerwerkskörpern zu reduzieren oder ganz darauf zu verzichten.

Laut Umweltbundesamt schießen die Deutschen in jeder Silvesternacht 5.000 Tonnen Feinstaub mit Feuerwerkskörpern in die Luft. „Das sind extrem hohe Werte, die die allermeisten Städte an keinem anderen Tag im Jahr erreichen“, sagt Professor Dr. Holger Schulz vom Helmholtz Zentrum München für Gesundheit und Umwelt. Laut Gesetz darf der Tagesmittelwert für Feinstaub (PM10) an jeder Messstelle höchstens 50 Mikrogramm pro Kubikmeter Luft betragen. Am letzten Neujahrsmorgen wurde dieser Grenzwert an 32 Stationen um ein Vielfaches überschritten. Besonders hoch waren die Werte in Leipzig (1860 µg/m³), München und Nürnberg (>1000 µg/m³) (1). Wie schnell die Feinstaubbelastung nach dem Silvesterfeuerwerk abklingt, hängt vor allem von den Wetterverhältnissen ab. Bei windstillem Wetter kann die verschmutzte Luft mehrere Tage über der Region „liegen bleiben“ und sich in den unteren Schichten der Atmosphäre anreichern.

Wie sehr Feinstaub und andere Luftschadstoffe die Gesundheit belasten, ist durch viele internationale Studien gut belegt. Die DGP hat den aktuellen Kenntnisstand dazu kürzlich in einem Positionspapier veröffentlicht (2). Langfristig schadet die schmutzige Luft nicht nur der Lunge, sondern auch dem Herz-Kreislauf-System, dem Stoffwechsel und beeinträchtigt sogar die Entwicklung von Föten im Mutterleib. Kleine Kinder, Senioren und Menschen mit chronischen Erkrankungen leiden an den ersten Tagen im neuen Jahr besonders häufig unter Husten und Atembeschwerden und müssen vermehrt mit akuten Problemen ins Krankenhaus eingeliefert werden. Schutzmöglichkeiten gibt es für diese Patientengruppen kaum, da die gängigen Atemschutzmasken die gefährlichen Partikel nur unzureichend herausfiltern können. „Halten Sie sich bevorzugt in dünn besiedelten Gebieten jenseits der großen Städte auf, wo die Luft sauberer bleibt“, rät der Experte.

Privates Feuerwerk stark einzuschränken oder sogar ganz darauf zu verzichten, ist aus vielen Gründen eine gute Idee, findet DGP-Präsident Professor Dr. med. Klaus Rabe. „Raketen und Böller verursachen eine starke Schadstoffbelastung, der sich niemand entziehen kann. Zumindest aus Rücksichtnahme auf weniger gesunde Mitmenschen, sollte man den privaten Gebrauch überdenken.“ Jedes Jahr werden außerdem Tausende Menschen durch Raketen schwer verletzt – meist handelt es sich bei den Betroffenen um unbeteiligte Zuschauer, die selbst gar keine Rakete gezündet hatten. Viele von ihnen behalten bleibende Schäden an Augen, Ohren oder Händen. Nicht zuletzt hinterlassen die Knallkörper am Neujahrsmorgen auch riesige Müllerberge, die aufwändig und teuer entsorgt werden müssen. „Weniger Raketen und Böller oder gar der Verzicht auf das Feuerwerk hilft vielen Menschen und unserer Umwelt. Den Betrag einer wohltätigen Organisation zu spenden wäre ein zusätzlicher positiver Schritt ins neue Jahr“, schließt Schulz.

Quellen:
(1) Umweltbundesamt:
https://www.umweltbundesamt.de/themen/dicke-luft-jahreswechsel
(2) Atmen: Luftschadstoffe und Gesundheit, Positionspapier der Deutschen Gesellschaft für Pneumologie und Beatmungsmedizin
https://pneumologie.de/service/aktuelles/#cs-news-123

Weitere Informationen:
https://pneumologie.de/service/aktuelles/#cs-news-123

Quelle: idw

(nach oben)


Arbeitszeiten von Frauen und Männern: Familienpolitik zieht – aber nur bei den Müttern

Ulrike Bohnsack Ressort Presse – Stabsstelle des Rektorats
Universität Duisburg-Essen

Mütter in Deutschland arbeiten heute deutlich länger als noch vor sechs Jahren- ganz besonders Mütter von Klein- und Kleinstkindern. Dabei leben Frauen und Männer weiter in unterschiedlichen Arbeitszeitrealitäten: Im Jahr 2017 war fast jede zweite Frau Teilzeit beschäftigt (46,5%), aber nur knapp jeder zehnte Mann (9,4%). Teilzeit gilt trotz der Nachteile für die Altersabsicherung inzwischen als Blaupause für die Vereinbarkeit von Familie und Beruf – wird aber vor allem von Müttern, sehr viel seltener von Vätern gewählt. Das zeigen aktuelle Untersuchungen des Instituts Arbeit und Qualifikation (IAQ) der Universität Duisburg-Essen (UDE).

Mit ca. 35,2 Stunden in der Woche sind die durchschnittlichen Arbeitszeiten in Deutschland seit 2010 stabil. Die der Männer haben sich leicht verringert, während Frauen heute länger – aber vor allem Teilzeit – einem Beruf nachgehen. Der Gender Time Gap, die geschlechterbezogene Arbeitszeitlücke, hat sich damit von 9,3 Std. auf 8,7 Std. weiter reduziert. Im EU-Vergleich haben die deutschen Frauen die zweitkürzesten Arbeitszeiten – bei einer überdurchschnittlich hohen Erwerbstätigenquote. Trotzdem sind Mütter in Deutschland deutlich schlechter in den Arbeitsmarkt eingebunden als Frauen ohne Kinder. „Bei aller Familienfreundlichkeit bleiben Kinder immer noch ein Risikofaktor für die Erwerbstätigkeit und finanzielle Absicherung von Frauen!“, sagt die IAQ-Arbeitszeitexpertin Dr. Angelika Kümmerling.

„Zwar scheinen die familienpolitischen Maßnahmen wie Kita-Ausbau und Elternzeit Wirkung zu zeigen. Allerdings wird hier alleine an der „Schraube“ Frau/ Mutter gedreht, die bestehende Rollenverteilung wird kaum angegriffen“, kritisiert sie. Auf Seiten der Männer habe sich kaum etwas getan. Eine Ursache sieht Kümmerling im Ehegattensplitting, das im Widerspruch zur Familienpolitik steht. „Das ist der Hemmschuh für eine gleichberechtigte Arbeitsteilung!“

Redaktion:
Claudia Braczko, Tel. 0157/71283308, claudia.braczko@gmail.com

Wissenschaftliche Ansprechpartner:
Dr. Angelika Kümmerling, Tel. 0203/37-91825, E-Mail: angelika.kuemmerling@uni-due.de

Originalpublikation:
http://www.iaq.uni-due.de/iaq-report/2018/report2018-08.php

Quelle: idw

(nach oben)


Neuer Klimabericht für den Ostseeraum (BACC III) in Arbeit

Dr. Torsten Fischer Pressestelle
Helmholtz-Zentrum Geesthacht – Zentrum für Material- und Küstenforschung

Gemeinsame Pressemitteilung de Helmholtz-Zentrums Geesthacht und
des Leibniz Institut für Ostseeforschung Warnemünde (IOW)

Der zweite Sachstandsbericht zum regionalen Klimawandel und seiner Auswirkungen auf den Ostseeraum von 2015 („Second Assessment of Climate Change in the Baltic Sea Region“, BACC II) wird zurzeit von Wissenschaftlern des internationalen Baltic Earth-Netzwerks aktualisiert.

Wie auch bei den ersten beiden BACC-Berichten (2008, 2015) werden Experten aus den verschiedenen Fachgebieten zum aktualisierten Report beitragen. „Wir wollen die Erkenntnisse zum Klimawandel im Ostseeraum aufarbeiten, die seit 2012, also dem Redaktionsschluss von BACC II, dazugekommen sind“, sagt Dr. Marcus Reckermann vom Internationalen Baltic Earth-Sekretariat am Helmholtz-Zentrum Geesthacht (HZG). Dabei sollen mehrere hundert Publikationen aus verschiedenen Themenbereichen wie Meteorologie, Hydrologie, Meereskunde, Biologie und Biogeochemie, ausgewertet und zusammengefasst werden. „Oft brauchen neue Erkenntnisse viele Jahre, bis sie im wissenschaftlichen ‚Wissenskanon‘ sichtbar werden. Wir wollen diesen Prozess abkürzen und neue Ergebnisse, auch solche die von früheren abweichen, einordnen und zusammenfassen“, so Dr. Reckermann.
Auch im Rahmen der Erarbeitung des neuen Klimaberichts wird es eine enge Zusammenarbeit mit HELCOM (Helsinki-Kommission zum Schutz der Meeresumwelt der Ostsee) geben, die das von Baltic Earth erarbeitete aktuelle Wissen nochmals mit Hilfe eines Expertengremiums für Laien und Entscheidungsträger als ein übersichtliches „fact sheet“ aufarbeitet. Auch bei der Erstellung dieses Infoblattes sind Baltic Earth-Wissenschaftler beratend beteiligt. „Die HELCOM möchte verstärkt den regionalen Klimawandel und die sich ergebenden Veränderungen in ihre Arbeit einbinden. Baltic Earth ist als Expertennetzwerk von Anfang an beteiligt, damit die Aussagen strengen wissenschaftlichen Ansprüchen genügen“, sagt Prof. Markus Meier vom Leibniz-Institut für Ostseeforschung Warnemünde (IOW), der den neuen Klima-Report („BACC III“) zusammen mit einem Team internationaler Wissenschaftler aus dem gesamten Ostseeraum federführend erarbeiten wird.
Neben dem neuen Klimabericht sollen auch weitere Übersichtsberichte als „Baltic Earth Assessment Reports“ (BEAR) zu den Themenkomplexen von Baltic Earth erarbeitet werden, also zur Salzgehaltsdynamik der Ostsee, den Stoffflüssen im Einzugsgebiet, zu extreme Wetterereignissen, der Dynamik des Meeresspiegels und der Küsten, zum Verständnis des Wasser- und Energiekreislaufes, sowie dem Zusammenspiel verschiedener Faktoren bei den beobachteten Veränderungen im Ostseeraum. Zwei technische Beiträge beschäftigen sich mit dem aktuellen Stand der neuesten Klima-Beobachtungsmethoden einerseits, und der gekoppelten Klimamodellierung andererseits. Ende 2020 sollen diese vom Baltic Earth Sekretariat koordinierten und von externen Gutachtern geprüften Berichte als Sammelband vorliegen.

Wissenschaftliche Ansprechpartner:
Dr. Marcus Reckermann
Leiter des
International Baltic Earth Secretariat
am Helmholtz-Zentrum Geesthacht (HZG)
Phone +49 (0)4152 871693
marcus.reckermann@hzg.de

Prof. Dr. Markus Meier
Vorsitzender der
internationalen Baltic Earth Steuergruppe
Leibniz Institut für Ostseeforschung Warnemünde (IOW)
Phone: +49 (0)381 5197 150
markus.meier@io-warnemuende.de

Weitere Informationen:
https://www.baltic-earth.eu/
https://www.io-warnemuende.de/
https://www.hzg.de/

Quelle: idw

(nach oben)


Wie Ballaststoffe und Darmbakterien den Herz-Kreislauf schützen

Jutta Kramm Kommunikation
Max-Delbrück-Centrum für Molekulare Medizin in der Helmholtz-Gemeinschaft

Die Fettsäure Propionsäure schützt vor den Folgen von Bluthochdruck wie Atherosklerose oder Gewebeumbau des Herzens, zeigt eine Studie an Mäusen. Darmbakterien stellen die Substanz aus natürlichen Ballaststoffen her. Sie beruhigt jene Immunzellen, die den Blutdruck in die Höhe treiben.

„Der Mensch ist, was er isst“, weiß der Volksmund. Doch unser Wohlbefinden hängt auch stark davon ab, was die bakteriellen Gäste unseres Verdauungstrakts zu sich nehmen. Denn die Darmflora hilft, Nahrung zu verwerten und stellt essentielle Mikronährstoffe her, darunter Vitamine.

Aus den Ballaststoffen in der Nahrung stellen nützliche Darmkeime unter anderem eine Fettsäure namens Propionsäure her. Sie schützt vor den schädlichen Folgen von Bluthochdruck. Weshalb das so ist, zeigt ein Berliner Forschungsteam vom Experimental and Clinical Research Center (ECRC), eine gemeinsame Einrichtung von Max-Delbrück-Centrum für Molekulare Medizin (MDC) und der Charité – Universitätsmedizin Berlin. Ihre Studie erschien vorab online im Fachjournal Circulation.

Die Forscherinnen und Forscher verfütterten Propionsäure an Mäuse mit erhöhtem Blutdruck. Die Tiere hatten anschließend weniger ausgeprägte Herzschäden oder krankhafte Vergrößerungen des Organs und waren in der Folge weniger anfällig für Herzrhythmusstörungen. Auch Gefäßschäden wie Atherosklerose gingen bei den Mäusen zurück. „Propionsäure wirkt gegen ein Spektrum an bluthochdruckbedingten Schädigungen des Herz-Kreislaufsystems“, sagt der MDC-Forscher und Arbeitsgruppenleiter Professor Dominik N. Müller. „Interessant könnte das vor allem für die Behandlung von Patienten werden, die zu wenig von dieser Fettsäure haben.“

Umweg über das Immunsystem
„Erst durch unsere Studie ist klar geworden, dass die Substanz den Umweg über das Immunsystem nimmt und so auf Herz und Gefäße einwirkt“, sagen Dr. Nicola Wilck und Hendrik Bartolomaeus vom ECRC, die gemeinsam seit fast fünf Jahren an dem Projekt arbeiten. Insbesondere jene T-Helferzellen, die entzündliche Prozesse befeuern und Bluthochdruck mitverursachen, würden so beruhigt.

Dies wirkt sich unmittelbar etwa auf die Leistungsfähigkeit des Herzens aus. So konnte das Forschungsteam bei 70 Prozent der unbehandelten Mäuse durch einen gezielten elektrischen Reiz Herzrhythmusstörungen auslösen. Durch die Behandlung mit der Fettsäure war lediglich ein Fünftel Tiere dafür anfällig. Weitere Untersuchungen mit Ultraschall, Gewebeschnitten oder Einzelzellanalysen zeigten, dass Propionsäure auch blutdruckbedingte Schäden am Herz-Kreislauf-System der Tiere verminderte und ihre Überlebensrate wesentlich steigerte.

Schalteten die Forscherinnen und Forscher jedoch einen bestimmten Subtyp der T-Zellen, die sogenannten regulatorischen T-Zellen, im Körper der Mäuse aus, verschwanden die positiven Effekte der Propionsäure. Die Immunzellen sind also für den heilsamen Effekt der Substanz unabdingbar. An einem zweiten Tiermodell aus der Forschungsgruppe von Priv.-Doz. Johannes Stegbauer vom Universitätsklinikum Düsseldorf bestätigte das Team seine Befunde.

Kurzkettige Fettsäure als Medikament
Die Ergebnisse erklären, warum eine ballaststoffreiche Diät Herz-Kreislauf-Krankheiten vorbeugt, wie sie Ernährungsgesellschaften schon seit vielen Jahren empfehlen. Vollkornprodukte und Früchte enthalten zum Beispiel Fasern aus Zellulose und Inulin. Unter anderem daraus stellen Darmbakterien nützliche Moleküle her, wie die kurzkettige Fettsäure Propionsäure, deren Rückgrat aus nur drei Kohlenstoffatomen besteht.

„Bisher war nicht geklärt, welche Fettsäure für die positiven Effekte verantwortlich ist und wie sie wirkt“, sagt Wilck. Durch die Studie ergäben sich nun neue Wege in der Therapie von Herzkreislaufkranken. „Vielleicht ist es sinnvoll, Propionsäure oder eine chemische Vorstufe direkt als Medikament zu verabreichen“ – etwa, wenn die Betroffenen selbst zu wenig davon im Blut haben.

Im Klinikalltag muss sich Propionsäure noch bewähren. Daher möchte das Forschungsteam nun menschlichen Probanden untersuchen und so seine Erkenntnisse bestätigen. Dass die Propionsäure sicher für den menschlichen Konsum ist und überdies kostengünstig herstellbar, steht bereits fest: Die Substanz wird seit Jahrhunderten benutzt, etwa als Konservierungsmittel. Sie ist als Lebensmittelzusatzstoff zugelassen. „Unter diesen günstigen Voraussetzungen schafft die Propionsäure hoffentlich schnell den Sprung vom Labor zu den Betroffenen“, sagt Wilck.

Das Experimental and Clinical Research Center (ECRC) ist eine gemeinsame Einrichtung von Max-Delbrück-Centrum für Molekulare Medizin (MDC) und der Charité – Universitätsmedizin Berlin. Hendrik Bartolomaeus, Dominik N. Müller und Nicola Wilck gehören dem Berliner Institut für Gesundheitsforschung (BIH) und dem Deutschen Zentrum für Herz-Kreislauf-Forschung (DZHK) an.

The Max Delbrück Center for Molecular Medicine (MDC)
The Max Delbrück Center for Molecular Medicine in the Helmholtz Association (MDC) was founded in Berlin in 1992. It is named for the German-American physicist Max Delbrück, who was awarded the 1969 Nobel Prize in Physiology and Medicine. The MDC’s mission is to study molecular mechanisms in order to understand the origins of disease and thus be able to diagnose, prevent and fight it better and more effectively. In these efforts the MDC cooperates with the Charité – Universitätsmedizin Berlin and the Berlin Institute of Health (BIH) as well as with national partners such as the German Center for Cardiovascular Research and numerous international research institutions. More than 1,600 staff and guests from nearly 60 countries work at the MDC, just under 1,300 of them in scientific research. The MDC is funded by the German Federal Ministry of Education and Research (90 percent) and the State of Berlin (10 percent), and is a member of the Helmholtz Association of German Research Centers. www.mdc-berlin.de

Wissenschaftliche Ansprechpartner:
Prof. Dominik Müller
Leiter der Forschungsgruppe „Hypertoniebedingte Endorganschäden“
Experimental and Clinical Research Center / Max-Delbrück-Centrum für Molekulare Medizin
+49 30 450 540 286
dominik.mueller@mdc-berlin.de

Dr. Nicola Wilck
Wissenschaftler in der Forschungsgruppe „Hypertoniebedingte Endorganschäden“
Experimental and Clinical Research Center / Charité – Universitätsmedizin Berlin
+49 30 450 540 558
nicola.wilck@charite.de

Hendrik Bartolomaeus
Wissenschaftler in der Forschungsgruppe „Hypertoniebedingte Endorganschäden“
Experimental and Clinical Research Center / Max-Delbrück-Centrum für Molekulare Medizin
+49 30 450 540 558
Hendrik.Bartolomaeus@mdc-berlin.de

Originalpublikation:
Hendrik Bartolomaeus et al. (2018): „The Short-Chain Fatty Acid Propionate Protects from Hypertensive Cardiovascular Damage.“ Circulation. doi:10.1161/CIRCULATIONAHA.118.036652

Weitere Informationen:
https://www.ahajournals.org/doi/10.1161/CIRCULATIONAHA.118.036652 – Direktlink zur Publikation
https://www.mdc-berlin.de/de/news/press/wie-ballaststoffe-und-darmbakterien-den-… Online-Version dieser Mitteilung

Quelle: idw

(nach oben)


Fuchs, du hast die Stadt erobert: Bevölkerung hilft bei der Erforschung von Stadtwildtieren

Mag.rer.nat. Georg Mair Öffentlichkeitsarbeit und Kommunikation
Veterinärmedizinische Universität Wien

Über 1100 Fuchsbeobachtungen aus der Wiener Bevölkerung analysierte ein Forschungsteam rund um die Wildtierökologin Theresa Walter im Rahmen des Citizen Science Projektes StadtWildTiere (www.stadtwildtiere.at). Gemeinsam konnten darin Forscher der Vetmeduni Vienna und der Universität für Bodenkultur Wien (BOKU) zeigen, dass Füchse bestimmte Grätzel und Umgebungen bevorzugen. Es stellte sich auch heraus, dass die Meldung von Fuchsbeobachtungen mit dem Ausbildungsgrad der Bevölkerung zusammenhing.

Urbane Lebensräume gewinnen immer mehr an Bedeutung für diverse Wildtierarten. So wurden auch Füchse in den letzten Jahren zu erfolgreichen Bewohnern von Stadtgebieten. Für Wien wurde nun erstmals im deutschsprachigen Raum eine Analyse von Fuchsbeobachtungen erstellt. Forschende der Vetmeduni Vienna und der Universität für Bodenkultur (BOKU) Wien sammelten diese zu allen Jahreszeiten über einen Zeitraum von fünf Jahren. Begegnungen mit Füchsen wurden aus allen Wiener Bezirken und zu jeder Tageszeit gemeldet.

„Unser Wissen über das Vorkommen, die Verteilung und den Zusammenhang mit der Landnutzung dieser städtischen Füchse ist jedoch marginal, da viele der bevorzugten Lebensräume auf Privatbesitz liegen und daher für Wissenschafterinnen und Wissenschafter kaum zugänglich sind“, erklärt Theresa Walter vom Forschungsinstitut für Wildtierkunde und Ökologie der Vetmeduni Vienna. Diese Informationslücke konnte nun mit Hilfe eines Citizen-Science Ansatzes, bei dem die Wiener Bevölkerung Fuchsbeobachtungen auch aus Privatgärten meldete, geschlossen werden.

Landnutzung beeinflusst Begegnungen
Städte stellen für Wildtiere ein Mosaik an Landnutzungsklassen wie etwa Parks, Gärten und Straßen dar, die sich oftmals durch ihren Anteil an Grünflächen aber auch hinsichtlich ihrer Nutzung durch Menschen stark unterscheiden. Die Analyse der Beobachtungen zeigte: in Gärten, Gebieten mit geringer Bebauungsdichte, Parks oder auf Plätzen waren die Wahrscheinlichkeiten für die Begegnung mit Füchsen wesentlich höher als in landwirtschaftlichen Gebieten, Industriegebieten oder Wäldern. „Das erscheint auf den ersten Blick widersprüchlich, da Füchse ja auch im Wald oder auf Feldern leben“ erläutert Florian Heigl vom Institut für Zoologie der BOKU Wien. „Es ist allerdings so, dass man einen Fuchs in einem Wald mit starkem Unterwuchs oder in einem Weizenfeld nicht so gut beobachten kann, wie einen Fuchs, der durch die Stadt spaziert.“ Des Weiteren werden Füchse in der Stadt von der Bevölkerung als außergewöhnlicher wahrgenommen, als Beobachtungen im Wienerwald.

Zur Beobachtung gehören immer zwei: Fuchs und Mensch
Da für Beobachtungen immer das Aufeinandertreffen von Wildtier und Mensch notwendig ist, wollten die Forschenden auch die menschliche Seite der Beobachtungen unter die Lupe nehmen. Im Rahmen der Analyse von soziodemographischen Kennzahlen der Wiener Bevölkerung zeigte sich, dass unter anderem der Ausbildungsgrad der Bevölkerung einen Einfluss auf die Meldung von Fuchsbeobachtungen hatte. Umso mehr Menschen mit höherer Ausbildung in einem Bezirk lebten, umso mehr Fuchsbeobachtungen wurden gemeldet. Dieses Ergebnis ist für viele Citizen Science Projekte relevant, vor allem wenn Forschende verstehen wollen, wie Beobachtungsdaten entstehen und welchen räumlichen Einfluss soziodemographische Faktoren auf die Verteilung der analysierten Meldungen haben.

Eine weitere Anwendungsmöglichkeit der Ergebnisse sieht Theresa Walter im städtischen Wildtiermanagement: „Es gibt auch Krankheiten, die von Wildtieren auf Haustiere oder auf den Menschen übertragen werden können. Wenn wir wissen, wo Mensch und Wildtier in der Stadt aufeinandertreffen, können punktgenau Maßnahmen getroffen werden.“

Über die Veterinärmedizinische Universität Wien
Die Veterinärmedizinische Universität Wien (Vetmeduni Vienna) ist eine der führenden veterinärmedizinischen, akademischen Bildungs- und Forschungsstätten Europas. Ihr Hauptaugenmerk gilt den Forschungsbereichen Tiergesundheit, Lebensmittelsicherheit, Tierhaltung und Tierschutz sowie den biomedizinischen Grundlagen. Die Vetmeduni Vienna beschäftigt 1.300 MitarbeiterInnen und bildet zurzeit 2.300 Studierende aus. Der Campus in Wien Floridsdorf verfügt über fünf Universitätskliniken und zahlreiche Forschungseinrichtungen. Zwei Forschungsinstitute am Wiener Wilhelminenberg sowie ein Lehr- und Forschungsgut in Niederösterreich gehören ebenfalls zur Vetmeduni Vienna. Die Vetmeduni Vienna spielt in der globalen Top-Liga mit: 2018 belegt sie den exzellenten Platz 6 im weltweiten Shanghai-Hochschulranking im Fach „Veterinary Science“. http://www.vetmeduni.ac.at

Aussender:
Mag.rer.nat. Georg Mair
Wissenschaftskommunikation / Öffentlichkeitsarbeit und Kommunikation
Veterinärmedizinische Universität Wien (Vetmeduni Vienna)
T +43 1 25077-1165
georg.mair@vetmeduni.ac.at

Wissenschaftliche Ansprechpartner:
Theresa Walter, Msc.
Forschungsinstitut für Wildtierkunde und Ökologie (FIWI)
Veterinärmedizinische Universität Wien (Vetmeduni Vienna)
T +43 1 25077-7213
theresa.walter@vetmeduni.ac.at

Originalpublikation:
Der Artikel „Fox sightings in a city are related to certain land use classes and sociodemographics: results from a citizen science project“ von Theresa Walter, Richard Zink, Gregor Laaha, Johann G. Zaller und Florian Heigl wurde in, BMc Ecology veröffentlicht.
https://bmcecol.biomedcentral.com/articles/10.1186/s12898-018-0207-7

Weitere Informationen:
https://www.vetmeduni.ac.at/de/infoservice/presseinformationen/presseinformation…

Quelle: idw

(nach oben)


Forschungsprojekt Smarte Daten Smarte Dienste: Wohin mit den Daten in der Agrarwirtschaft?

Udo Urban DFKI Kaiserslautern
Deutsches Forschungszentrum für Künstliche Intelligenz GmbH, DFKI

Immer bessere Hardware und dazu passende Apps helfen Landwirten, Lohnunternehmern und Maschinenringen bei der Erfüllung von Dokumentationspflichten, steigern die Arbeitseffizienz, erleichtern und verbessern die Zusammenarbeit, tragen zur Ressourcenschonung bei und erhöhen die Wirtschaftlichkeit. Am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) in Kaiserslautern präsentierte ein Team aus Wissenschaftlern und Entwicklern aus der Industrie ihr Forschungsprojekt Smarte Daten Smarte Dienste (SDSD) und damit ein Gesamtkonzept für Datenmanagement in der Landwirtschaft.

Bei diesem Zwischenreview am 12. Dezember 2018 führte das Entwicklungsteam mit Hard- und Software verschiedener Hersteller erstmals das SDSD-Konzept in der praktischen Anwendung vor.

Bei fast allen Prozessen fallen heute große Datenmengen an, die teilweise höchst vertraulich sind und einen eigenen Wert darstellen. Doch wie soll der Endkunde mit dieser Datenernte umgehen? Wo und wie soll man die Daten speichern, damit sie bei Bedarf schnell verfügbar, mit Geschäftspartnern austauschbar und dennoch vor fremden Zugriffen geschützt sind? Wie kann man Maschinendaten unterschiedlicher Hersteller nutzen und Kompatibilitätsprobleme lösen? Welche Daten müssen dauerhaft gespeichert und welche können nach bestimmten Fristen gelöscht werden?

Auf diese und viele weitere Fragen gibt das Forschungsprojekt Smarte Daten, Smarte Dienste (SDSD) Antwort, das bis Mitte 2020 läuft. Das Projekt hat ein finanzielles Gesamtvolumen von rund 4 Mio. Euro und wird mit Mitteln in Höhe von rund 2 Mio. Euro vom Bundeministerium für Ernährung und Landwirtschaft (BMEL) gefördert. Die Projektträgerschaft erfolgt über die Bundesanstalt für Landwirtschaft und Ernährung im Rahmen des Programms zur Innovationsförderung. In diesem Projekt haben sich Landtechnik, Agrarelektronik und Agrarsoftware-Hersteller (AGCO, Competence Center ISOBUS, DKE-Data, Grimme, Krone, Müller-Elektronik, Same Deutz-Fahr) sowie das DFKI und die Hochschule Osnabrück zusammengetan. Dieses Team präsentiert mit SDSD eine umfassende Lösung, die genau auf die Bedürfnisse von Landwirten, Lohnunternehmern und Maschinenringen zugeschnitten ist. Voraussichtlich ab Mitte 2020 können diese Nutzer dann das neue System einsetzen und ihre Daten nicht nur verwalten, sondern vielfältig nutzen.

Das System lässt sich gut mit einem für jeden Endkunden individualisierten Hochregallager vergleichen, in dem maschinell Daten ein- und ausgelagert sowie kommissioniert werden können. Dabei geht es im Kern um Wissensmanagement für die Landwirtschaft. Wissen ist das Produkt aus Information und langjähriger Erfahrung. Die Verfügbarkeit von Wissen spielt in moderner Landwirtschaft eine immer wichtigere Rolle. SDSD ist das perfekte Werkzeug dafür. So kann mit dem SDSD System z.B. der Landwirt zukünftig aus seinen Ertragskarten der vorrangegangen Jahre Ertragspotentialkarten für seine Felder durch einen Dienst ermitteln lassen. Somit wird neues Wissen aus bestehenden Informationen generiert und über die Jahre hinweg durchgehend vergrößert.

Das System funktioniert zunächst als Speicherdienst, der dem Nutzer nicht nur die volle Kontrolle über seine Daten, z. B. dauerhafte Speicherung oder termin- und inhaltsgesteuerte Löschung, überlässt, sondern sie zusätzlich in andere Datenformate konvertieren und vor allem inhaltlich aufbereiten kann (Smarte Daten). Dieser Prozess nennt sich semantische Annotation. Die Originaldateien bleiben immer erhalten. Die Datenspeicherung erfolgt zugriffsgeschützt nach Nutzervorgaben auf gesicherten und gespiegelten Servern. Diese spezielle Art der Cloud-Speicherung ist deutlich sicherer als jede individuelle Office-Lösung.

Mit den konvertierten und durch den Annotationsdienst optimierten Smarten Daten können weitere Aufgaben (Smarte Dienste) erledigt werden, die mit unbehandelten Daten nicht zu bewältigen wären. Das kann zum Beispiel ein Dienst zur Bereinigung von GPS-Daten sein. Dieser zusätzliche vom Endkunden aktivierbare Dienst durchforstet nach Nutzervorgaben alle GPS-Daten vom Befahren der eigenen Schläge, entfernt unsinnige Ausreißer und legt die korrigierten Daten zusätzlich zu den Original-Daten im zentralen Speicher des Nutzers ab. Von da kann er sie jederzeit laden sowie neue Anwendungen damit planen und durchführen.

Ein weiteres Beispiel ist die Korrelation von Daten wie Düngereinsatz und Erträge oder Kulturen- / Sortenauswahl und Niederschlagsmengen. Alle Entscheidungen, die der Landwirt aus seinem ureigenen Wissen ableitet, kann er jetzt speichern, für neue Entscheidungen heranziehen und jederzeit festlegen, welches Wissen er mit wem teilen möchte, sei es als Gesamtpaket für die nächste Generation oder als kleines Datenpaket zur Verbesserung der Zusammenarbeit zwischen Landwirt und Lohnunternehmer oder Maschinenring. Mit jedem Wirtschaftsjahr wächst das Wissen. Die Datenbasis liegt immer zentral vor und wird als Entscheidungshilfe immer besser.

Diese Smarten Daten ermöglichen die Nutzung Smarter Dienste, wie z.B. dem oben beschriebenen GPS-Ausreißer Bereinigungsdienst oder einem Validierungstool für Auftragsdaten (Taskdata.zip nach ISO 11783). Das Datenmanagement erleichtert den Beteiligten nicht nur viele Arbeitsgänge, es schafft auch Mehrwert, weil es den bestmöglichen Nutzen aus der Verknüpfung von Daten erzeugt. Dabei lässt es dem Nutzer völlige Freiheit bei der Wahl von Agrarsoftware wie Farmmanagement-Informationssystemen (FMIS). Die Software kann wechseln, die Daten stehen immer zur Verfügung, denn nach der Nutzung wandern sie wieder in das virtuelle Hochregallager des Nutzers. Das System kann an zukünftige Datenformate angepasst werden und damit buchstäblich mit seinen Aufgaben wachsen.

Um komfortabel mit Maschinen und Agrarsoftware Lösungen verschiedener Hersteller zu kommunizieren, kann der Endkunde sein SDSD-System zukünftig an verschiedene Datenaustauschplattformen anbinden. Die individuell je Endkunde konfigurierbare Datenaustauschplattform agrirouter konnte zum Zwischenreview bereits an einen Account des SDSD-Systems angebunden werden. Die Konsortialpartner demonstrierten dies exemplarisch am Beispiel der Düngemittelausbringung auf dem Feld: Der Landwirt erstellt zunächst eine Applikationskarte mit den Grenzliniendaten seiner Felder und der jeweiligen Düngemenge. Diese Daten überträgt er via agrirouter an seine Maschinen oder die Maschinen der beauftragten Lohnunternehmen. Während der Düngemittelausbringung auf den Feldern werden die Telemetriedaten der Landmaschinen aufgezeichnet, wie etwa die ortbezogene ausgebrachte Düngermenge, den Dieselverbrauch oder die Arbeitszeiten und über den agrirouter anschließend an das SDSD-Tool geschickt. Dort werden die Daten analysiert, inhaltlich aufbereitet (strukturierte Datenbank mit formalisierten Attributen und Werten) und gespeichert.

Ansprechpartner für weitere Auskünfte:
Dr. Ansgar Bernardi
DFKI-Kaiserslautern
Trippstadter Strasse 122
67663 Kaiserslautern
Tel.: +49 (0) 631-205 75 – 1050
E-Mail: ansgar.bernardi@dfki.de

Konsortialführung:
Jan Horstmann
Maschinenfabrik Bernard Krone GmbH
Heinrich-Krone-Straße 10
48480 Spelle
Tel.: +49 (0) 5977 935 – 421
E-Mail: Jan.Horstmann@Krone.de

Weitere Fotos auf Anfrage an uk-kl@dfki.de

Weitere Informationen:
http://sdsd-projekt.de/

Quelle: idw

(nach oben)


Die große Wäsche – Aufbereitung von Biogas mit ionischen Flüssigkeiten verbraucht weniger Energie

Bianca Stur Presse- und Öffentlichkeitsarbeit
Deutsches Biomasseforschungszentrum

Die Aufbereitung von Biogas zu Biomethan wird in rund 200 Anlagen in Deutschland praktiziert. Ingenieure aus Karlsruhe haben gemeinsam mit Praxispartnern im Projekt „BGA-IL – Biogasaufbereitung mit ionischen Flüssigkeiten“ (FKZ-Nr. 03KB104) des Förderprogramms „Energetische Biomassenutzung“ ein energieeffizientes Aufbereitungskonzept entwickelt, das sich die Vorteile ionischer Flüssigkeiten zu Nutze macht.

Die Aufbereitung von Rohbiogas ist technisch sehr aufwändig. Bevor das Gas die für das Erdgasnetz notwendige Qualität erreicht, müssen störender Schwefel und Kohlendioxid (CO2) abgetrennt werden. Gespeichert im Erdgasnetz kann das Biomethan zeit- und ortsunabhängig in verschiedenen Anwendungen zum Einsatz kommen und ist damit eine Flexibilitätsoption im erneuerbaren Energiesystem.

Die sogenannte Gaswäsche ist das derzeit am weitesten verbreitete Verfahren für die Aufbereitung von Rohbiogas. Es arbeitet u.a. auf der Basis von Wasser-Amin-Lösungen, einer Mischung, die Kohlendioxid (CO2) durch chemische Reaktion in der Lösung bindet. Das Verfahren erfordert allerdings hohe Temperaturen für die Regeneration der Waschlösungen (140 – 160 ͦC). Ein Forscherteam vom Engler-Bunte-Institut in Karlsruhe, der Ionic Liquids Technologies GmbH aus Heilbronn und der Powerfarm Bioenergie GmbH aus Tuningen hat nun erfolgreich den Einsatz von ionischen Flüssigkeiten als Waschmedien an einer Biogasanlage demonstriert. Gefördert wurde das Projekt „BGA-IL – Biogasaufbereitung mit ionischen Flüssigkeiten“ (FKZ-Nr. 03KB104) vom Bundesministerium für Wirtschaft und Energie (BMWi) im Förderprogramm „Energetische Biomassenutzung“.

Ionische Flüssigkeiten sind Salzlösungen. Sie bestehen aus geladenen Molekülen, genauer organischen Kationen (+) und/oder Anionen (-) und gehen daher nicht durch Verdampfung in die Gasphase über. Die physikalischen Eigenschaften von ionischen Flüssigkeiten lassen sich außerdem durch geschickte Kombination von Kationen und Anionen gezielt einstellen. Dies machen sich die Wissenschaftler zu Nutze:
Denn im entwickelten Waschprozess findet die Aufnahme (Absorption) von CO2 unter nahezu derselben Temperatur (60 – 80 ͦC) statt, wie die anschließende Rückgewinnung (Regeneration) der Waschflüssigkeit. Externe Wärme benötigt der Regenerationsprozess nicht mehr. Dies spart Energie und senkt die Kosten im Vergleich zu herkömmlichen Konzepten der Gasaufbereitung.

Von der Waschküche im Labor auf die reale Biogasanlage
Im Labor identifizierten die Wissenschaftler vielversprechende ionische Flüssigkeiten, die sie dann stofflich charakterisierten und umfangreichen Tests unterzogen. Neben Versuchen zur Herstellung von ionischen Flüssigkeiten wurde auch die Materialverträglichkeit der Komponenten untersucht, um einen möglichst geringen Verschleiß von Anlagenteilen wie bspw. Dichtungen zu gewährleisten. Im Laborbetrieb konnte die Machbarkeit des Konzeptes nachgewiesen werden. Die notwendigen Gasparameter wurden nach dem „Reinheitsgebot“ der Anforderungen des technischen Regelwerks der Deutschen Vereins des Gas- und Wasserfaches e. V., DVGW G260/261 erreicht. Die Laborergebnisse konnten unter realen Bedingungen in der Biogasanlage in Tuningen bestätigt werden, so dass einer Erprobung in größerem Maßstab, nach einem sogenannten Scale-Up des Verfahrens, nichts mehr im Wege steht.

„Ein hohes Einsparpotenzial bei den Kosten des untersuchten Verfahrenskonzepts sehen wir durch die Verwendung von kostengünstigeren Materialien, die sich durch die geringeren Betriebstemperaturen erst einsetzen lassen“ erläutert Felix Ortloff vom EBI in Karlsruhe die Möglichkeiten, die in der Weiterentwicklung des Verfahrens liegen. „Die Praxisergebnisse zeigen, dass auch in der Biogasaufbereitung, in der die Aufbereitungstechnologien als etabliert gelten, durch den Einsatz neuer Sorbenzien (Mittel, die der Anreicherung bzw. Abtrennung von Stoffen dienen) und neue Prozessführungen noch vieles verbessert werden kann.“

Das Verfahren eignet sich nicht nur für den Aufbereitungsprozess in Biogasanlagen, sondern kann auch in anderen Industrieprozessen zum Einsatz kommen. Die Forscher planen derzeit ein umfangreiches Demonstrationsprojekt, das mit Fördermitteln der EU finanziert werden soll. Aus dem Abgas eines Zementwerks soll das CO2 auf Basis des entwickelten Verfahrens abgeschieden werden – eine Möglichkeit, Treibhausgase zu minimieren.

Ansprechpartner Programmbegleitung:
Diana Pfeiffer – Projektkoordination
Telefon: +49 (0)341 2434-554
E-Mail: diana.pfeiffer@dbfz.de

Wissenschaftliche Ansprechpartner:
DVGW-Forschungsstelle am Engler-Bunte-Institut
Engler-Bunte-Ring 1, 76131 Karlsruhe
www.dvgw-ebi.de

Dr.-Ing. Frank Graf – Projektleiter
Telefon: +49 (0)721 608412-20

Felix Ortloff – Direkter Ansprechpartner
Telefon: +49 (0)721 608412-74
E-Mail: ortloff@dvgw-ebi.de

Originalpublikation:
Pressemitteilung: https://www.energetische-biomassenutzung.de/de/news-media/presse/news-details/ne…

Publikation:
Ortloff, F.; Roschitz, M.; Ahrens, M.; Graf, F.; Schubert, T.; Kolb, T. (2018): Characterization of functionalized ionic liquids for a new quasi-isothermal chemical biogas upgrading process. Separation and Purification Technology, 195, 413-430. doi:10.1016/j.seppur.2017.12.014

Weitere Informationen:
https://www.energetische-biomassenutzung.de/fileadmin/Steckbriefe/dokumente/03KB… (Endbericht)

Anhang

Pressemitteilung Projekt BGA-IL
https://idw-online.de/de/attachment70442

Quelle: idw

(nach oben)


Ausweitung des Energiepflanzenanbaus ist für Natur genauso schädlich wie der Klimawandel

Sabine Wendler Senckenberg Biodiversität und Klima Forschungszentrum Pressestelle
Senckenberg Forschungsinstitut und Naturmuseen

Eigentlich profitiert die Natur vom Klimaschutz, für den die Bioenergie lange als Heilsbringer galt. Um das 1,5-Grad-Ziel zu erreichen, wird aber davon ausgegangen, dass Bioenergie-Pflanzen großflächig angebaut werden müssen. Neuen Modellen zufolge werden dadurch insgesamt mehr Lebensräume von Wirbeltieren vernichtet als von einem abgeschwächten Klimawandel profitieren, berichten Forschende des Senckenberg Biodiversität und Klima Forschungszentrums, der Technischen Universität München und der Durham University diese Woche im Fachblatt „PNAS“. Der vermeintliche Vorteil eines solchen Klimaschutzes käme daher den Arten nicht zugute.

Damit die Globaltemperatur bis 2100 um nicht mehr als 1,5 Grad gegenüber dem vorindustriellen Zeitraum steigt, muss die Menge an CO2, die rund um den Globus in die Luft geblasen wird, deutlich sinken. Eine Begrenzung des Klimawandels nützt auch der Natur, denn er ist einer der Ursachen für das Artensterben. Ein aktuell verbreiteter Ansatz dazu ist es, mehr Energie aus nachwachsenden Rohstoffen wie Mais, Raps, Ölpalme und Co. statt aus fossilen Rohstoffen zu gewinnen.

Doch damit – legt man das Augenmerk auf die biologische Vielfalt – ersetzt man wohl ein Übel durch ein anderes. „Um den Klimawandel damit wirksam zu begrenzen, müssen wir bis 2100 auf circa 4,3 Prozent der globalen Landflächen Bioenergie-Pflanzen anbauen – das entspricht fast der 1,5-fachen Fläche aller EU-Länder zusammen. Damit schaden wir der biologischen Vielfalt, die in diesen Gebieten bisher zuhause ist, gravierend. Die negativen Auswirkungen des Klimawandels, die mit maximaler Bioenergie-Nutzung verhindert werden könnten, werden diese Verluste nicht wettmachen“, so Dr. Christian Hof, der die Studie am Senckenberg Biodiversität und Klima Forschungszentrum Frankfurt durchführte und jetzt an der TU München forscht.

Unter Wissenschaftlerlnnen ist Bioenergie schon länger umstritten und war bisher Gegenstand von Einzelstudien. Hof und sein Team haben erstmals global untersucht, wie Amphibien, Vögel und Säugetiere den Klima- und den Landnutzungswandel bis 2100 zu spüren bekommen. Dabei haben sie zwei Szenarien miteinander verglichen: ein Szenario mit maximaler Bioenergie-Nutzung, welches einer Begrenzung der Erwärmung um circa 1,5 Grad entspricht, und ein Szenario mit minimaler Bioenergie-Nutzung und einem Temperaturanstieg um etwa 3 Grad gegenüber dem vorindustriellen Zeitraum bis 2100.

Die Ergebnisse überraschen: „Ob sich die Temperatur bis 2100 um 1,5 oder 3 Grad erhöht: Rund 36 % der Lebensräume von Wirbeltieren sind entweder durch den Klimawandel oder die neue Landnutzung infolge des Anbaus von Bioenergie-Pflanzen massiv gefährdet. Die Auswirkungen auf die biologische Vielfalt sind also vergleichbar. Unterschiedlich ist nur, auf wessen Konto sie gehen“, erklärt Dr. Alke Voskamp vom Senckenberg Biodiversität und Klima Forschungszentrum.

Darüber hinaus gibt es Gebiete, in denen Wirbeltieren von Energiepflanzen-Plantagen der Platz streitig gemacht wird und ihnen gleichzeitig die höhere Temperatur zu schaffen machen wird. „Bei einem geringeren Temperaturanstieg bis 1,5 Grad, den wir durch die maximale Nutzung von Bioenergie erkaufen, könnten sogar größere Flächen unter dieser Doppelbelastung leiden. Unter diesem 1,5 Grad-Szenario wird insgesamt ein größerer Anteil der Verbreitungsräume von Wirbeltieren durch Klimawandel, Landnutzung oder beides beeinträchtigt“, erklärt Voskamp.

Das Abbremsen des Klimawandels durch den Einsatz von Bioenergie-Pflanzen schadet zudem wahrscheinlich deutlich mehr Wirbeltierarten mit kleinem Verbreitungsgebiet, als ein Temperaturanstieg um 3 Grad. Solche Wirbeltierarten – vor allem Amphibien – leben mehrheitlich in den Tropen und Neotropen. An diesen Orten jedoch werden Plantagen für Bioenergie-Pflanzen am meisten zunehmen.

Für Hof und sein Team lässt die Studie nur einen Schluss zu: „Der Klimawandel ist nach wie vor eine der größten Bedrohungen für die biologische Vielfalt und muss möglichst auf 1,5 Grad Temperaturerhöhung begrenzt werden. Wie unsere Studie zeigt, ist die Bioenergie und die massive Ausweitung der Anbauflächen hierfür aber der falsche Weg. Wir müssen stattdessen stärker daran arbeiten, Energie einzusparen.“

Die Studie ist Teil des vom Bundesministerium für Bildung und Forschung geförderten Projektes BioSzen1punkt5 im Programm „Förderung erweiterter und verbesserter wissenschaftlicher Grundlagen für den IPCC-Sonderbericht zu 1,5 °C globale Erwärmung (SR1.5)“.

Die Natur mit ihrer unendlichen Vielfalt an Lebensformen zu erforschen und zu verstehen, um sie als Lebensgrundlage für zukünftige Generationen erhalten und nachhaltig nutzen zu können – dafür arbeitet die Senckenberg Gesellschaft für Naturforschung seit nunmehr 200 Jahren. Diese integrative „Geobiodiversitätsforschung“ sowie die Vermittlung von Forschung und Wissenschaft sind die Aufgaben Senckenbergs. Drei Naturmuseen in Frankfurt, Görlitz und Dresden zeigen die Vielfalt des Lebens und die Entwicklung der Erde über Jahrmillionen. Die Senckenberg Gesellschaft für Naturforschung ist ein Mitglied der Leibniz-Gemeinschaft. Das Senckenberg Naturmuseum in Frankfurt am Main wird von der Stadt Frankfurt am Main sowie vielen weiteren Partnern gefördert. Mehr Informationen unter www.senckenberg.de.

Die Technische Universität München (TUM) ist mit rund 550 Professorinnen und Professoren, 42.000 Studierenden sowie 10.000 Mitarbeiterinnen und Mitarbeitern eine der forschungsstärksten Technischen Universitäten Europas. Ihre Schwerpunkte sind die Ingenieurwissenschaften, Naturwissenschaften, Lebenswissenschaften und Medizin, verknüpft mit den Wirtschafts- und Sozialwissenschaften. Die TUM handelt als unternehmerische Universität, die Talente fördert und Mehrwert für die Gesellschaft schafft. Dabei profitiert sie von starken Partnern in Wissenschaft und Wirtschaft. Weltweit ist sie mit dem Campus TUM Asia in Singapur sowie Verbindungsbüros in Brüssel, Kairo, Mumbai, Peking, San Francisco und São Paulo vertreten. An der TUM haben Nobelpreisträger und Erfinder wie Rudolf Diesel, Carl von Linde und Rudolf Mößbauer geforscht. 2006 und 2012 wurde sie als Exzellenzuniversität ausgezeichnet. In internationalen Rankings gehört sie regelmäßig zu den besten Universitäten Deutschlands. www.tum.de

Wissenschaftliche Ansprechpartner:
Dr. Christian Hof
Technische Universität München & Senckenberg Biodiversität und Klima Forschungszentrum
Tel. 08161 712489
Christian.hof@tum.de

Dr. Alke Voskamp
Senckenberg Biodiversität und Klima Forschungszentrum
Tel. 069 7542 1871
alke.voskamp@senckenberg.de

Originalpublikation:
Hof, Chr. et al. (2018): Bioenergy cropland expansion may offset positive effects of climate mitigation for global vertebrate diversity. PNAS, doi: 10.1073/pnas.1807745115 (scheduled for publishing on Monday 10 December 2018)

Quelle: idw

(nach oben)


Klärschlamm: Neuartiges Verfahren ermöglicht bessere Wertstoffrückgewinnung

Dipl.-Chem. Iris Kumpmann Abteilung Public Relations
Fraunhofer-Institut für Umwelt-, Sicherheits- und Energietechnik UMSICHT

Klärschlamm enthält viele wichtige Wertstoffe, die bislang nicht optimal verwertet werden. Ein neuartiges Ultraschallverfahren soll es ermöglichen, die Inhaltsstoffe des Klärschlamms besser aufzuschließen und anschließend voneinander abzutrennen. Die so zurückgewonnenen Wertstoffe lassen sich im Sinne einer nachhaltigen, umweltschonenden und wirtschaftlichen Kreislaufführung wiederverwerten. Im BMBF-Verbundprojekt »UltraSep« soll das Verfahren unter Realbedingungen auf einer Kläranlage des Wupperverbands getestet und optimiert werden.

Klärschlamm ist ein heterogenes Gemisch, das sich hauptsächlich aus Wasser, organischen Substanzen, Stickstoff- und Phosphorverbindungen zusammensetzt. Alleine in Deutschland belief sich das Aufkommen in industriellen und kommunalen Kläranlagen im Jahr 2015 auf gut 1,8 Mio t [1]. Bislang werden die Klärschlämme vor allem landwirtschaftlich verwertet oder verbrannt. Die 2017 novellierte Klärschlammverordnung richtet die Klärschlammverwertung neu aus und verlangt, dass aus den Schlämmen mittelfristig Phosphor zurückgewonnen wird.

In verschiedene Wertstofffraktionen abgetrennt
Zu diesem Ziel beitragen könnte ein neues Ultraschallverfahren der AQUATTRO GmbH, Halver, das im Verbundprojekt «UltraSep« in Kooperation mit Fraunhofer UMSICHT und der Wupperverbandsgesellschaft für integrale Wasserwirtschaft WiW erprobt und optimiert wird. Im Mittelpunkt steht eine neuartige und patentierte Ultraschall-Kavitations-Einheit. Ein spezieller Ultraschallgeber bewirkt, dass durch den ständigen Druckwechsel im Klärschlamm unzählige winzige Blasen entstehen – ein Effekt, der auch als Kavitation bezeichnet wird. Die mit einem Gemisch aus Wasserdampf und anderen Gasen gefüllten Mikrobläschen wachsen binnen Sekundenbruchteilen auf ein Vielfaches ihrer ursprünglichen Größe und implodieren schließlich. Dies führt zu verschiedenen physikalischen und chemischen Effekten, die den Klärschlamm aufschließen, der dann in Folgeschritten in verschiedene Wertstofffraktionen abgetrennt werden kann. Im Ergebnis soll das neue Verfahren cellulosereiche Fasern, ein nährstoffreiches Gel sowie eine leicht vergärbare Flüssigkeit liefern, die jeweils für weitere Nutzungen verwendet werden können. Insbesondere die Rückgewinnung von Phosphor, der seitens der EU-Kommission als kritischer Rohstoff eingestuft wird, spielt hierbei eine wichtige Rolle.

Verfahrensoptimierung
Die Projektteilnehmer wollen das neue Verfahren in einer mobilen Pilotanlage testen. Im anschließenden Einsatz auf der kommunalen Kläranlage des Wupperverbands in Hückeswagen soll daraufhin die schrittweise Überführung in den Dauerbetrieb sowie eine Verfahrensoptimierung erfolgen.

Das Verbundprojekt »Innovatives Verfahren zur stofflichen und energetischen Verwertung von Klärschlamm« (UltraSep) ist Teil der BMBF-Fördermaßnahme »KMU-innovativ: Ressourceneffizienz und Klimaschutz«, Anwendungsbereich »Nachhaltiges Wassermanagement«. Die Maßnahme gehört zum BMBF-Programm »Forschung für Nachhaltige Entwicklung« (FONA³).

[1]KLÄRSCHLAMMENTSORGUNG in der Bundesrepublik Deutschland; Herausgeber: Fachgebiete III 2.4 – Abfalltechnik, Abfalltechniktransfer und III 2. – Überwachungsverfahren, Abwasserentsorgung
Wissenschaftliche Ansprechpartner:

Dipl.-Ing. Josef Robert, josef.robert@umsicht.fraunhofer.de, Tel.: +49 208 8598-1150
Lukas Rüller, M.Sc., lukas.rueller@umsicht.fraunhofer.de, Tel.: +49 208 8598-1161

Originalpublikation:
https://www.umsicht.fraunhofer.de/de/presse-medien/pressemitteilungen/2018/ultra…

Quelle: idw

(nach oben)


Neue Rückrufe von Blutdrucksenkern

Dr. Bettina Albers Geschäftsstelle
Deutsche Hochdruckliga

Laut Information der Deutschen Apothekerzeitung darf der Wirkstoff Valsartan von Mylan Laboratories Limited, Indien, bis auf weiteres nicht zur Herstellung valsartanhaltiger Arzneimittel für die EU verwendet werden. Auch Chargen von Irbesartan Heumann 300 mg werden aktuell zurückgerufen. Auf der Pressekonferenz der Deutschen Hochdruckliga, die morgen in Berlin stattfindet, ist die Organisation von Rückrufen ein Thema, auch die Frage, wie mit den Betroffenen kommuniziert wird und welche Therapiealternativen ihnen bleiben.

• Mit Hochdruck auf Herz und Niere – wieviele Organschädigungen Bluthochdruck wirklich macht
Prof. Dr. med. Helmut Geiger, Frankfurt, Tagungspräsident des 42. Wissenschaftlichen Kongresses der Deutschen Hochdruckliga e.V. DHL®

• Rezeptierbarkeit von Fixdosis-Kombinationspräparaten: In der Praxis ein Problem!
Prof. Dr. med. Bernhard Krämer, Mannheim, Vorstandsvorsitzender der Deutschen Hochdruckliga e.V. DHL®

• Blutdrucksenker in Verruf – was wir aus dem „Fall“ Valsartan lernen sollten
Prof. Dr. med. Bernhard Krämer, Mannheim, Vorstandsvorsitzender der Deutschen Hochdruckliga e.V. DHL®

• Interventionelle Verfahren zur Blutdrucksenkung – wo stehen wir heute?
Prof. Dr. med. Joachim Weil, Lübeck, Vorstandsmitglied der Deutschen Hochdruckliga e.V. DHL® und Tagungspräsident des 42. Wissenschaftlichen Kongresses der Deutschen Hochdruckliga e.V. DHL®

Weitere Informationen:
http://www.hochdruckliga.de

Quelle: idw

(nach oben)


PFC-belastete Gewässer effektiv sanieren

Stefanie Bergel Pressestelle
Bergische Universität Wuppertal

Leberschädigend, fortpflanzungsschädigend und potenziell krebserzeugend – per- und polyfluorierte Chemikalien, oder abgekürzt PFCs, sind giftig. Trotzdem bleiben sie für viele Branchen unersetzlich – sei es bei der Herstellung von atmungsaktiver Kleidung, „to go“-Kaffeebechern oder Feuerlösch-Schaum – und finden so ihren Weg immer wieder ins Oberflächen- oder Grundwasser. Die Frage, wie solche PFC-kontaminierten Gewässer saniert werden können, beschäftigt aktuell ein Team der Intrapore GmbH und der Bergischen Universität.

„Die Herausforderung, vor der wir stehen, ist ziemlich groß“, sagt Dr. Julian Bosch von der Intrapore GmbH. „Hauptvertreter der PFCs sind poly- und perfluorierte Alkansäuren, deren hohe Stabilität dazu führt, dass sie extrem persistent in der Umwelt und als nicht bioabbaubar gelten.“ Zudem weisen PFCs aufgrund ihrer guten Wasserlöslichkeit und ihres schlechten Adsorptionsverhaltens eine hohe Mobilität im Grundwasser auf. „Gleichzeitig nimmt die Belastung von Gewässern zu, und für viele Schadensfälle besteht aufgrund neu eingeführter gesetzlicher Grenzwerte eine Sanierungspflicht“, erklärt der Intrapore-Geschäftsführer und Geowissenschaftler. Das PFC-Problem habe also eine extrem hohe Relevanz und Dringlichkeit.

Zur Lösung des Problems schlägt das Forschungsteam einen neuen Weg ein. „Ausgehend von Entwicklungen im Bereich der Nano- und Mikropartikelbasierten Grundwasser-Reinigung werden wir ein maßgeschneidertes, funktionales Material entwerfen, herstellen und testen“, so Prof. Dr.-Ing. Jörg Rinklebe vom Lehr- und Forschungsgebiet Boden- und Grundwassermanagement der Bergischen Universität. „Ziel ist es, eine Suspension aus reaktiven Partikeln zu entwickeln, die man in belastete Grundwasserbereiche injizieren kann, wo sie die PFCs aufnimmt und unschädlich macht.“
Die Entwicklung erfordere eine Reihe von Teilinnovationen. Angefangen bei der Erstellung und Konfiguration der grundlegenden Partikel bis zur Entwicklung eines umfassenden Testprogramms zur Leistungsfähigkeit, Langzeitwirkung und Unbedenklichkeit des Materials. „Wenn wir diese Schritte allerdings erfolgreich durchlaufen, stellt das Material einen bedeutenden Durchbruch bei der Beseitigung der hochproblematischen und derzeit nicht behandelbaren PFC-Schäden dar“, betont Prof. Dr. Rinklebe.

Der Titel des Forschungsprojektes lautet „In situ Eliminierung von Per- und Polyfluorierten Verbindungen in belasteten Grundwässern unter Einsatz von Adsorptiven Komposit-Nanopartikeln auf Basis Oxidativ-Reaktiver Aktivkohle-Polysaccharid-Lipid-Ferrat-Micellen-Aggregate“. Kurz: PANORAMA. Es wird mit rund 1,2 Mio. Euro aus dem Europäischen Fonds für regionale Entwicklung (EFRE) finanziert.

Wissenschaftliche Ansprechpartner:
Prof. Dr.-Ing. Jörg Rinklebe
Lehr- und Forschungsgebiet Boden- und Grundwassermanagement
Tel.: 0202 439-4057
E-Mail: rinklebe@uni-wuppertal.de

Quelle: idw

(nach oben)


Neue US-Richtlinie für Bluthochdruck bietet keine Vorteile für Betroffene

Dr. Ulrich Marsch Corporate Communications Center
Technische Universität München

Wo beginnt gefährlicher Bluthochdruck? Auf diese Frage geben Ärzteorganisationen unterschiedliche Antworten. Beispielsweise gelten Patienten in den USA früher als krank als in Deutschland. Ein Team um Prof. Karl-Heinz Ladwig von der Technischen Universität München (TUM) und dem Helmholtz Zentrum München kommt zu dem Schluss, dass eine niedrige Schwelle für eine Behandlung nicht vor tödlichen Herzerkrankungen schützt – sie könnte sich sogar negativ auf die Psyche der Betroffenen auswirken.

Seit 2017 gibt es in den Leitlinien des American College of Cardiology eine zusätzliche Kategorie für Bluthochdruck: „Stage 1 Hypertension“. Patientinnen und Patienten müssen demnach behandelt werden, wenn bei ihnen die entsprechenden Werte (130-139 mmHg / 80-89 mmHg) gmessen werden. Die European Society of Cardiology sieht bei diesen Werten noch einen „erhöht normalen Blutdruck“ und keinen zwingenden Handlungsbedarf.

„Die Idee hinter den US-Leitlinien ist, Bluthochdruck möglichst früh zu senken und durch die Diagnose einer Erkrankung Patienten zu motivieren, gesünder zu leben“, erläutert Prof. Karl-Heinz Ladwig, Forscher an der Klinik für Psychosomatische Medizin und Psychotherapie des TUM-Universitätsklinikums rechts der Isar und am Helmholtz Zentrum München.

„Motivations-Effekt“ fraglich
Anhand von Daten von knapp 12.000 Patientinnen und Patienten haben Ladwig und sein Team sich ein Bild der Situation in Deutschland verschafft. „Wir haben untersucht, wie hoch innerhalb eines Zeitraumes von zehn Jahren das Risiko für Menschen in den verschiedenen ‚Blutdruck-Kategorien‘ war, an einer Herz-Kreislauferkrankung zu sterben und welche anderen Risikofaktoren jeweils vorlagen“, sagt Seryan Atasoy, Erstautorin der Studie und Epidemiologin am Helmholtz Zentrum München und der Ludwig-Maximilians-Universität München.

In der neugeschaffenen Kategorie „Stage 1 Hypertension“ waren das Risiko an einer Herz-Kreislauferkrankung zu sterben nicht signifikant höher als bei normalem Blutdruck. „Auch der Motivations-Effekt ist fraglich“, sagt Karl-Heinz Ladwig. Bei Patientinnen und Patienten mit gefährlichem Bluthochdruck, die sowohl nach US- als auch nach europäischen Leitlinien mit Medikamenten behandelt werden sollen („Stage 2 Hypertension“), sei das Risiko, an einer Herz-Kreislauferkrankung zu sterben, deutlich erhöht. „Gleichzeitig sind Risikofaktoren wie Rauchen und Bewegungsmangel besonders ausgeprägt. Das zeigt, dass viele trotz Diagnose ihren Lebensstil nicht umstellen.“

Gefährliche Depressionen
Während Menschen mit gefährlichem Bluthochdruck grundsätzlich seltener depressiv waren als andere, lag der Wert bei einer Teilmenge deutlich höher: Bei rund der Hälfte derjenigen, die wegen des gefährlichen Bluthochdrucks Medikamente nahmen, wurden depressive Stimmungslagen festgestellt. Das war nur bei etwa einem Drittel der Nicht-Behandelten der Fall.

„Wir nehmen an, dass es sich um einen Labeling-Effekt handelt“, sagt Ladwig. „Wird man offiziell mit dem Etikett ‚krank‘ versehen, wirkt sich das auf die psychische Gesundheit aus.“ In einer früheren Studie hatten er und sein Team gezeigt, dass Depressionen einen ähnlich hohen Risikofaktor für tödliche Herz-Kreislauferkrankungen darstellen wie hohe Cholesterinwerte oder Fettleibigkeit.

Mehr Kranke durch neue Richtlinien
„Das American College of Cardiology selbst hat errechnet, dass der Anteil der Erwachsenen mit der Diagnose Bluthochdruck durch die neue Leitlinie von 32 auf 46 Prozent steigt“, sagt Karl-Heinz Ladwig. „14 Prozent werden also zusätzlich psychischem Druck ausgeliefert – ohne dass für sie eine signifikant höhere Gefahr bestehen würde, eine tödliche Herz-Kreislauferkrankung zu entwickeln und ohne, dass eine Motivationswirkung der Diagnose zu erwarten wäre.“ Eine Übernahme der US-Leitlinien in Europa wäre daher aus Ladwigs Sicht grundsätzlich falsch.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Karl-Heinz Ladwig
Technische Universität München
Klinikum rechts der Isar
Klinik für Psychosomatische Medizin und Psychotherapie
Tel. +49 89 3187 3623
ladwig@helmholtz-muenchen.de

Originalpublikation:
S. Atasoy, H. Johar, A. Peters, K.-H. Ladwig. „ Association of hypertension cut-off values with 10-year cardiovascular mortality and clinical consequences: a real-world perspective from the prospective MONICA/KORA study „. European Heart Journal (2018). DOI:10.1093/eurheartj/ehy694

Weitere Informationen:
https://www.helmholtz-muenchen.de/epi/the-institute/staff/staff/ma/7105/Prof.%20… Profil Prof. Karl-Heinz Ladwig
http://www.psychosomatik.mri.tum.de/forschung/ag-internistische-psychosomatik-un… Arbeitsgruppe an der Klinik für Psychosomatische Medizin und Psychotherapie
https://www.tum.de/die-tum/aktuelles/pressemitteilungen/detail/article/33661/ Pressmitteilung zum Risikofaktor „Depression“

Quelle: idw

(nach oben)


Die Babyboomer gehen in Rente

Lilli Sippel Presse- und Öffentlichkeitsarbeit
Berlin-Institut für Bevölkerung und Entwicklung

Ein Drittel der Erwerbstätigen vor dem Ruhestand, Kommunen unter Druck

Leere Eigenheime, Wohlstandsgefälle, soziale Isolation: Der Renteneintritt der geburtenstarken Jahrgänge der 1950er und 1960er Jahre ab 2018 hat im schlimmsten Fall gravierende Auswirkungen auf das kommunale Leben. Im besten Fall birgt der Ruhestand der Babyboomer aber ein immenses Potenzial an politisch und gesellschaftlich Engagierten. Zu diesem Schluss kommt das Thesenpapier „Die Babyboomer gehen in Rente. Was das für die Kommunen bedeutet“ des Berlin-Instituts für Bevölkerung und Entwicklung im Auftrag der Körber-Stiftung.

»Dass die Babyboomer altern, bringt für die Kommunen in Deutschland massive Veränderungen mit sich. Ob die Babyboomer für sie zur Belastung werden, weil sie Kosten verursachen und teilweise auf Pflege angewiesen sein werden, oder ob die neuen Alten ihre Kompetenzen und Erfahrungen gewinnbringend lokal einbringen, das haben die Kommunen selbst in der Hand«, so Reiner Klingholz, Direktor des Berlin-Instituts für Bevölkerung und Entwicklung.

Um über den Übergang der Babyboomer in den Ruhestand zu beraten und Lösungen aus der internationalen Praxis zu diskutieren, bringt das Körber Demografie-Symposium am 14. und 15. November in Hamburg ein breites Fachpublikum aus Politik, Verwaltung, Wirtschaft und Gesellschaft zusammen.

Deutsche Kommunen stehen vor großen Herausforderungen:
Wer sind die Babyboomer? Wie ist ihre sozioökonomische Situation? Und was bedeutet die Veränderung ihrer Lebenssituation für deutsche Kommunen? Die Körber-Stiftung hat gemeinsam mit dem Berlin-Institut für Bevölkerung und Entwicklung sechs Thesen zu den Auswirkungen des Ruhestands der Babyboomer entwickelt:
1. Wirtschaft: Der Ruhestand der Babyboomer gefährdet den Wohlstand ihrer Heimatregionen.
2. Engagement: Die Babyboomer gestalten auch künftig das Zusammenleben in der Kommune mit – aber zu ihren Bedingungen.
3. Wohnen: Viele Eigenheimen droht der Leerstand.
4. Sozialleben: Viele Babyboomer werden ohne eine Familie altern, ihnen droht im Alter soziale Isolation.
5. Pflege: Für die kommunalen Pflegenetzwerke sind die Babyboomer eine der größten Herausforderungen.
6. Soziale Sicherung: Einigen Frauen und Migranten aus der Babyboomer-Generation droht Altersarmut.

Die alternde Bevölkerung kann also zu einer großen Aufgabe für die deutschen Kommunen werden. Allerdings gibt es sowohl in Deutschland als auch international gute Beispiele für Lösungen und Vorbilder von Menschen und Organisationen, die den Wandel annehmen und als Chance begreifen.

Angebote für Journalisten:
• Interview mit Karin Haist, Leiterin bundesweite Demografie-Projekte der Körber-Stiftung
• Interview mit Reiner Klingholz, Direktor Berlin-Institut für Bevölkerung und Entwicklung

Material zum Download:
• Thesenpapier: Die Babyboomer gehen in Rente. Was das für die Kommunen bedeutet. (https://www.berlin-institut.org/publikationen/gutachten-policy_papers/Die_Babybo…)

Kontakt:
Pressestelle Körber-Stiftung
Julian Claaßen
Telefon +49 40 80 81 92-233
claassen@koerber-stiftung.de

Die Körber-Stiftung stellt sich mit ihren operativen Projekten, in ihren Netzwerken und mit Kooperationspartnern aktuellen Herausforderungen in den Handlungsfeldern Innovation, Internationale Verständigung und Lebendige Bürgergesellschaft. 1959 von dem Unternehmer Kurt A. Körber ins Leben gerufen, ist die Stiftung heute von ihren Standorten Hamburg und Berlin aus national und international aktiv.

Das Berlin-Institut für Bevölkerung und Entwicklung ist ein unabhängiger Thinktank, der sich mit Fragen regionaler und globaler demografischer Veränderungen beschäftigt. Das Institut wurde 2000 als gemeinnützige Stiftung gegründet und hat die Aufgabe, das Bewusstsein für den demografischen Wandel zu schärfen, nachhaltige Entwicklung zu fördern, neue Ideen in die Politik einzubringen und Konzepte zur Lösung demografischer und entwicklungspolitischer Probleme zu erarbeiten.
Das Berlin-Institut erstellt Studien, Diskussions- und Hintergrundpapiere und bereitet wissenschaft-liche Informationen für den politischen Entscheidungsprozess auf. Weitere Informationen, wie auch die Möglichkeit, den kostenlosen regelmäßigen Online-Newsletter „Demos“ zu abonnieren, finden Sie unter https://www.berlin-institut.org.

Quelle: idw

(nach oben)


Studie: Braunkohlereviere zu Energiewenderegionen transformieren

Richard Harnisch Öffentlichkeitsarbeit und Kommunikation
Institut für ökologische Wirtschaftsforschung GmbH, gemeinnützig

Gemeinsame Pressemitteilung der IFOK GmbH und des Instituts für ökologische Wirtschaftsforschung (IÖW)

Untersuchung im Auftrag des Bundeswirtschaftsministeriums zeigt, dass verstärkte Nutzung erneuerbarer Energien wichtigen Beitrag zu erfolgreichem Strukturwandel in deutschen Braunkohlerevieren leisten kann

Der geplante Kohleausstieg bewegt das Land und die Gemüter. Eine neue Studie im Auftrag des Bundesministeriums für Wirtschaft und Energie zeigt, wie die deutschen Kohlereviere auch zukünftig als wichtige Player in der Energiewirtschaft in Deutschland mitspielen können. Fazit: Eine gezielte Transformation hin zu Energiewenderegionen könnte maßgeblich neue Perspektiven für Beschäftigung und Wertschöpfung im Rheinischen, Mitteldeutschen, Lausitzer und Helmstedter Revier schaffen.

Kohlekraftwerke durch Solar-Windstrom-Großkraftwerke ersetzen
Die Experten mehrerer Forschungs- und Beratungsinstitute empfehlen, die Potenziale erneuerbarer Energien in den Tagebauregionen stärker zu nutzen. Besondere Chancen bietet der verstärkte Ausbau von Solar- und Windstrom im Verbund. Diese Anlagen könnten schrittweise in den Regionen aufgebaut werden und freiwerdende Netzkapazität ersetzen, während die Kohleverstromung heruntergefahren wird. Weiterhin empfiehlt das Gutachten, Anlagen für die sogenannte Power-to-X-Technologie, also das Umwandeln von Strom etwa in Gas oder Wärme, gezielt in den Tagebauregionen anzusiedeln. „Solche Anlagen werden im zukünftigen Energiesystem eine wichtige Rolle zur Speicherung oder anderweitigen Nutzung von temporären Stromüberschüssen aus Wind oder Photovoltaik spielen“, sagt Martina Richwien vom Beratungsinstitut IFOK, das die Erarbeitung der Studie geleitet hat.

Die Potenziale der Reviere für den Strukturwandel in den Blick nehmen
„In der Debatte um den Strukturwandel werden die Potenziale der Energiewende bisher noch zu wenig gesehen“, so Bernd Hirschl vom Institut für ökologische Wirtschaftsforschung (IÖW), das in der Studie berechnet hat, in welchem Umfang Arbeitsplätze und Wertschöpfung in den Bereichen Wind- und Solarenergie neu entstehen können. „Die vorhandenen Infrastrukturen und Kompetenzen bieten sich an, die Reviere zu Energiewende-Modellregionen zu entwickeln – entsprechend ihrer jeweiligen Voraussetzungen. Wenn die Akteure vor Ort dafür zusammen mit den betroffenen Bundesländern und dem Bund an einem Strang ziehen, können nennenswerte Wertschöpfung und Beschäftigung entstehen.“

Gemeinsam vor Ort tätig werden
„Die Erschließung der Potenziale kann nur in den Regionen und gemeinsam mit den regionalen Akteuren erfolgen, die mit den Veränderungen vor Ort leben und arbeiten“, betont Martina Richwien. „So muss beispielsweise die Frage nach der Verfügbarkeit geeigneter Flächen im Dialog vor Ort beantwortet werden. Hier wird es wichtig sein, weitere Vorstellungen der Flächennutzung einzubeziehen und mögliche Unterstützer zu finden, um die insbesondere in der Lausitz erheblichen Beschäftigungspotenziale auch nutzen zu können.“

Die Experten weisen darauf hin, dass für ein Gelingen der Reviertransformation spezifische Maßnahmen erforderlich sind, bei denen die verschiedenen Ebenen zusammenarbeiten müssen. Etwa seien Sonderausschreibungen erforderlich, um die Anlagen gezielt in die Regionen zu bekommen. Damit die Reviere ökonomisch davon profitieren, sind darüber hinaus nennenswerte Beteiligungen von Kommunen, Unternehmen und Bürgern vor Ort erforderlich.

Fallstudie Lausitz: mehrere tausend Arbeitsplätze möglich
In dem Gutachten wurde für das Lausitzer Revier das regionalökonomische Potenzial einer Transformation zur Energiewenderegion abgeschätzt. Bei einem ambitionierten Ausbau von Windenergie und Photovoltaik können beispielsweise allein in diesem Bereich rund eintausend Vollzeit-Arbeitsplätze entstehen. Darin sind noch keine Effekte aus der Anlagenproduktion enthalten, in der heute bereits mehr als eintausend Menschen beschäftigt sind. Aus weiteren Bereichen der Strom-, Wärme- und Verkehrswende können darüber hinaus zahlreiche zusätzliche Arbeitsplätze entstehen – von Biogas über Solarthermie bis Power-to-Gas und in Bereichen wie ÖPNV, Car-Sharing, E-Mobilität oder autonomes Fahren.

Redaktionelle Informationen:
Über die Studie:

Projektbericht Erneuerbare Energien-Vorhaben in den Tagebauregionen im Auftrag des Bundesministeriums für Wirtschaft und Energie (BMWi), 467 Seiten, Berlin.

Mitwirkung von folgenden Forschungs- und Beratungsorganisationen: ► IFOK GmbH ► Deutsche WindGuard GmbH ► Solarpraxis Engineering GmbH ► Prognos AG ► Institut für ökologische Wirtschaftsforschung GmbH (gemeinnützig) ► Becker Büttner Held PartGmbB

Download:
http://www.erneuerbare-energien.de/EE/Redaktion/DE/Downloads/Berichte/erneuerbare-energien-vorhaben-in-den-tagebauregionen.html

Pressekontakt:
IFOK GmbH
Martina Richwien
Tel.: +49 (0) 30 536077-15
martina.richwien@ifok.de

Institut für ökologische Wirtschaftsforschung (IÖW)
Richard Harnisch
Tel.: +49 (0) 30 884594-16
kommunikation@ioew.de

Bundesministerium für Wirtschaft und Energie
pressestelle@bmwi.bund.de
Tel: +49 (0) 30 18 615 -6121

IFOK ist Teil der internationalen Cadmus Group und die marktführende Kommunikations- und Strategieberatung für Beteiligung. In den Kernthemen Energie, Umwelt, Nachhaltigkeit, Digitale Transformation und Beschäftigung gestaltet und begleitet IFOK seit 1995 gesellschaftlich relevante Veränderungsprozesse mit Fach- und Methodenkompetenz. Als Experten für die Herausforderungen der modernen Gesellschaft arbeiten heute rund 120 Mitarbeiterinnen und Mitarbeiter an den Standorten in Bensheim, Berlin, Düsseldorf, München und an mehreren Standorten in den USA für Kunden aus Politik, Wirtschaft und zivilgesellschaftlichen Institutionen nach dem Ansatz „Wandel durch Beteiligung und Dialog“.
http://www.ifok.de

Das Institut für ökologische Wirtschaftsforschung (IÖW) ist ein führendes wissenschaftliches Institut auf dem Gebiet der praxisorientierten Nachhaltigkeitsforschung. 55 Mitarbeiterinnen und Mitarbeiter erarbeiten Strategien und Handlungsansätze für ein zukunftsfähiges Wirtschaften – für eine Ökonomie, die ein gutes Leben ermöglicht und die natürlichen Grundlagen erhält. Das Institut arbeitet gemeinnützig und ohne öffentliche Grundförderung.
http://www.ioew.de

Weitere Informationen:
http://www.erneuerbare-energien.de/EE/Redaktion/DE/Downloads/Berichte/erneuerbar…

Quelle: idw

(nach oben)


Warum Einkorn besser für Menschen mit Weizenunverträglichkeit sein könnte

Dr. Gisela Olias Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Lebensmittel-Systembiologie

Moderne, aber auch ursprüngliche Weizenarten wie Einkorn, Emmer und Dinkel enthalten natürlicherweise eine Gruppe von Eiweißmolekülen, die im Verdacht steht, Symptome einer Weizenunverträglichkeit auszulösen. Eine neue Studie des Leibniz-Instituts für Lebensmittel-Systembiologie an der TU München zeigt erstmals im direkten Vergleich, dass Einkorn im Gegensatz zu Brotweizen, Hartweizen, Dinkel und Emmer keine oder deutlich geringere Mengen dieser Eiweiße enthält. Die Forschenden veröffentlichten ihre Ergebnisse nun in der Fachzeitschrift Journal of Agricultural and Food Chemistry.

Um welche Eiweißmoleküle geht es?
Bei den Eiweißmolekülen handelt es sich um alpha-Amylase-Trypsin-Inhibitoren (ATI), die insbesondere im Getreidekorn enthalten sind. Wissenschaftlichen Erkenntnissen zufolge dienen sie dazu, die Pflanzensamen vor Fraßfeinden zu schützen. Die ATI hemmen die Verdauungsenzyme (alpha-Amylase und Trypsin) von Insekten sowie Menschen und sind zudem aufgrund ihrer besonderen Molekülstruktur selbst schwer verdaulich. Wie neuere Untersuchungen darüber hinaus zeigen, stimulieren sie dosisabhängig die Freisetzung entzündungsfördernder Botenstoffe und so das angeborene Immunsystem. Medizinische Daten weisen darauf hin, dass die Enzym-Inhibitoren nicht nur Darmbeschwerden verursachen. Auch Benommenheit, Müdigkeit, Gelenk- und Muskelschmerzen, Hautveränderungen und depressive Verstimmungen gehören zu den beschriebenen Symptomen. Nicht zuletzt sind die Inhibitoren als Auslöser für Weizenallergien bekannt.

Was beeinflusst den ATI-Gehalt?
Wie hoch der Gehalt der Enzym-Inhibitoren im jeweiligen Getreide ist, ist zum einen durch das Erbgut der Pflanze und zum anderen durch Umwelteinflüsse bestimmt. Aussagekräftige Studien, die den ATI-Gehalt verschiedener Weizenarten und -sorten direkt miteinander verglichen haben, fehlten jedoch bislang.

40 Weizensorten im Vergleich
„In unserer Studie haben wir insgesamt 40 moderne und ursprüngliche Sorten miteinander verglichen. Jeweils acht Sorten pro Weizenart. Das Besondere ist, dass alle untersuchten Getreide unter den gleichen geografischen und klimatischen Bedingungen gewachsen sind“, erklärt Erstautorin Sabrina Geisslitz vom Leibniz-Institut für Lebensmittel-Systembiologie. Alle gemessenen Unterschiede seien daher hauptsächlich auf Unterschiede im Erbgut der Pflanzen zurückzuführen und hätten so einen direkten Vergleich der Weizenarten bzw. -sorten überhaupt erst möglich gemacht.

Das Wissenschaftlerteam untersuchte alle Getreide-Proben mithilfe modernster Analysetechniken. In den Dinkel- und Emmer-Proben waren mit durchschnittlich etwa vier bis sechs Milligramm ATI pro Gramm Probenmaterial sogar größere ATI-Mengen enthalten als in den Brotweizen- und Hartweizen-Proben. Dagegen ließen sich in fünf der untersuchten Einkorn-Proben gar keine bzw. in drei der Proben nur sehr geringe Mengen dieser Enzym-Inhibitoren nachweisen.

Einkorn, die bessere Wahl?
„Das Ergebnis hat uns ein wenig überrascht. Denn im Vergleich zu herkömmlichen Weizen gelten alle drei ursprünglichen Weizenarten in gleichem Maße als bekömmlicher“, sagt Katharina Scherf, die am Leibniz-Institut die Arbeitsgruppe Functional Biopolymer Chemistry leitet. „Hinsichtlich der Amylase-Trypsin-Inhibitoren, scheint jedoch Einkorn für Menschen mit Weizenunverträglichkeit die bessere Wahl zu sein“, so Scherf weiter.
Das Wissenschaftlerteam ist sich einig, dass noch sehr viel Forschungsbedarf besteht – nicht nur in medizinischer Hinsicht. So müsse man auch untersuchen, inwieweit die Auswahl der Getreidesorten oder Verarbeitungsmethoden dazu beitragen könnten, die Verträglichkeit von Getreideprodukten wie Brot zu verbessern.

Publikation:
Geisslitz S, Ludwig C, Scherf KA, Koehler P (2018) J Agric Food Chem, DOI: 10.1021/acs.jafc.8b04411.Targeted LC-MS/MS reveals similar contents of α-amylase/trypsin-inhibitors as putative triggers of non-celiac gluten sensitivity in all wheat species except einkorn
https://pubs.acs.org/doi/pdf/10.1021/acs.jafc.8b04411

Finanzierung:
Das o.g. Forschungsprojekt der Forschungsvereinigung Forschungskreis der Ernährungsindustrie e.V. wurde über die Arbeitsgemeinschaft industrieller Forschungsvereinigungen „Otto von Guericke“ e.V. im Rahmen des Programms zur Förderung der Industriellen Gemeinschaftsforschung vom Bundesministerium für Wirtschaft und Energie aufgrund eines Beschlusses des Deutschen Bundestages gefördert.
https://www.leibniz-lsb.de/fileadmin/doc/PDF/AiF_18355_N_3.pdf

Presseverantwortlich:
Dr. Gisela Olias
Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Lebensmittel-Systembiologie
an der Technischen Universität München
Lise-Meitner-Str. 34
85354 Freising
Tel.: +49 8161 71-2980
E-Mail: g.olias.leibniz-lsb@tum.de
www.leibniz-lsb.de

Wissenschaftliche Ansprechpartner:
Dr. Katharina Scherf
Sektion I
Leiterin der Arbeitsgruppe Functional Biopolymer Chemistry
Leibniz-Institut für Lebensmittel-Systembiologie
an der Technischen Universität München
Lise-Meitner-Str. 34
85354 Freising
Tel.: +49 8161 71-2927
E-Mail: k.scherf.leibniz-lsb@tum.de

Kurzprofil:
https://www.leibniz-lsb.de/institut/mitarbeiterinnen/kurzprofil-dr-katharina-sch…
Originalpublikation:

Geisslitz S, Ludwig C, Scherf KA, Koehler P (2018) J Agric Food Chem, DOI: 10.1021/acs.jafc.8b04411.Targeted LC-MS/MS reveals similar contents of α-amylase/trypsin-inhibitors as putative triggers of non-celiac gluten sensitivity in all wheat species except einkorn
https://pubs.acs.org/doi/pdf/10.1021/acs.jafc.8b04411

Weitere Informationen:
https://www.leibniz-lsb.de/forschung/forschungssektionen/sektion-i/ Sektion I: Biofunktionale Systemchemie des Leibniz-Instituts für Lebensmittel-Systembiologie an der TU München

Quelle: idw

(nach oben)


Forschungsprojekt: Abwasseraufbereitung in China soll ressourcen- und energieeffizienter werden

Melanie Löw Presse- und Öffentlichkeitsarbeit

Technische Universität Kaiserslautern

Wie Abwasser in China ressourceneffizienter aufbereitet werden kann, ist Thema eines neuen deutsch-chinesischen Forschungsvorhabens. Dabei geht es unter anderem darum, wie Phosphor aus Abwasser gewonnen werden kann und um neue Verfahren, die das Wasser energieschonender reinigen. Koordiniert wird das Projekt „PIRAT-Systems“ von Professorin Dr. Heidrun Steinmetz. Sie leitet an der TU Kaiserslautern (TUK) das Fachgebiet Ressourceneffiziente Abwasserbehandlung. Das Team um Steinmetz wird mit Projektpartnern in Deutschland erprobte Techniken für den chinesischen Markt anpassen. Das Bundesministerium für Bildung und Forschung (BMBF) fördert das Vorhaben für drei Jahre mit drei Millionen Euro.

Weltweit steht die Abwasserentsorgung vor einem Paradigmenwechsel. „Sie entwickelt sich weg von einer Entsorgungswirtschaft hin zu einer ressourcenorientieren Herangehensweise“, sagt Professorin Steinmetz von der TUK. „Zukünftig sollen Inhaltsstoffe aus Abwasser genutzt und rückgewonnen werden.“ Außerdem arbeiten Entsorger daran, mithilfe von neuen Techniken den Energieeinsatz bei der Reinigung des Wassers zu senken. „Die Herausforderung liegt darin, dabei auch noch eine bessere Reinigungsleistung zu erreichen“, fährt sie fort. Hinzu kommt, dass organische Abfallstoffe und Klärschlamm für die Produktion von Biogas Verwendung finden sollen.

In Deutschland gibt es hierzu schon eine Reihe von Verfahren. „Sie lassen sich aber nicht ohne Weiteres auf andere Länder übertragen, da die Randbedingungen wie etwa die Zusammensetzung des Abwassers und die Reinigungsanforderungen unterschiedlich sind“, erläutert die Professorin.
Im neuen Forschungsvorhaben „Energetische Prozessoptimierung und Implementierung von Ressourceneffizienten Abwassertechnologien auf kommunalen Kläranlagen“ (PIRAT-Systems) arbeitet ein interdisziplinäres Team aus Deutschland mit der Tongji University Shanghai und weiteren chinesischen Partnern daran, ausgewählte Technologien angepasst für den chinesischen Markt zu entwickeln. Beteiligt sind Planer, Anlagenbauer, Betreiber, Firmen aus der Düngemittelverarbeitung, Behörden und Forschungseinrichtungen. Darüber hinaus wird das internationale Team für zwei chinesische Kläranlagen Konzepte entwickeln, um deren Energieeffizienz zu steigern, die Ablaufqualität des Wassers zu verbessern – vor allem hinsichtlich der Nährstoffe Stickstoff und Phosphor – und Phosphor aus Abwasser zurückzugewinnen.

Das Team wird außerdem passende Maßnahmen erarbeiten, um die Neuentwicklungen im Anschluss auf andere Abwasseranlagen innerhalb und außerhalb Chinas zu übertragen. Ferner zielt das Vorhaben darauf ab, die Aufgaben einer Kläranlage zu erweitern. „Wir werden untersuchen, welche Vermarktungsmöglichkeiten sich für Recyclingprodukte bieten und wie Erdgas aufbereitet und ins Erdgasnetz eingespeist werden kann“, so Steinmetz. Dabei spiele auch die Unterstützung und Akzeptanz der Bevölkerung eine Rolle.

Insgesamt streben die Beteiligten an, geschlossene Stoffkreisläufe zu entwickeln und dabei dank der sehr guten Reinigungsleistung der Kläranlagen die strengen Grenzwerte in China einzuhalten.

Damit leistet PIRAT-Systems einen wichtiger Beitrag, um die Umweltsituation in den Bereichen Gewässerschutz, Klimaschutz und nachhaltiger Ressourcenbewirtschaftung zu verbessern.
Die Koordination des Projekts liegt bei Professorin Steinmetz. Neben der TUK sind als deutsche Partner beteiligt: Dresdener Grundwasserforschungszentrum e.V., Hochschule Emden-Leer, Hochschule Magdeburg-Stendal, Universität Hohenheim, BHU Umwelttechnik GmbH, LUG Engineering GmbH, SF-Soepenberg GmbH, Thorsis Technologies GmbH, UMTEC Silo- und Schüttgutengineering GmbH.

Das Vorhaben „Energetische Prozessoptimierung und Implementierung von Ressourceneffizienten Abwassertechnologien auf kommunalen Kläranlagen“ (PIRAT-Systems) wird vom Bundesministerium für Bildung und Forschung im Rahmenprogramm „Forschung für Nachhaltige Entwicklung – FONA, CLIENT II – Internationale Partnerschaften für nachhaltige Innovationen“ für drei Jahre gefördert. Es ist im September 2018 gestartet.

Wissenschaftliche Ansprechpartner:

Prof. Dr.-Ing. Heidrun Steinmetz
Fachgebiet Ressourceneffiziente Abwasserbehandlung
Tel.: 0631 205-2944
E-Mail: Heidrun.steinmetz@bauing.uni-kl.de

Quelle: idw

(nach oben)


THEMEN-SPEZIAL: Kampf gegen multiresistente Bakterien

Dr. Ulrich Marsch Corporate Communications Center
Technische Universität München

Die hochwirksame Waffe Antibiotikum hat für Jahrzehnte erfolgreich bakterielle Infektionen bekämpft, doch jetzt verliert sie ihre Kraft. Immer mehr Bakterien werden gegen diese Medikamente resistent und damit zu einem der größten Gesundheitsprobleme der Zukunft. Neue Behandlungsmethoden müssen dringend entwickelt werden. In diesem Themenpaket finden Sie drei aktuelle Pressemeldungen der Technischen Universität München (TUM) über das Thema „Kampf gegen multiresistente Bakterien“.

Münchner Studierendenteam entwickelt neues Herstellungsverfahren für Viren gegen Bakterien
Bakterien, die gegen bekannte Antibiotika resistent werden, nehmen zu. Ein Studierendenteam der Technischen Universität München (TUM) und der Ludwig-Maximilians-Universität (LMU) entwickelte eine neue Herstellungsmethode für Bakteriophagen, den natürlichen Feinden von Bakterien, um sie als alternative Behandlungsmethode gegen bakterielle Infektionen zu nutzen. Das Team erzielte den zweiten Platz von über 350 Teams beim renommierten internationalen iGEM-Wettbewerb.
Diese Meldung im Web: https://www.tum.de/die-tum/aktuelles/pressemitteilungen/detail/article/35083/

Neue Ziele im Kampf gegen Antibiotika-Resistenzen
Immer mehr Bakterien sind resistent gegen verfügbare Antibiotika. Ein Team aus der Chemie der Technischen Universität München (TUM) zeigt nun einen neuen Weg: Sie identifizierten wichtige Enzyme im Stoffwechsel von Staphylococcen. Gelänge es, diese Enzyme gezielt auszuschalten, könnte man die Krankheitserreger aushungern.
Diese Meldung im Web: https://www.tum.de/die-tum/aktuelles/pressemitteilungen/detail/article/35087/

Hohe Enterotoxinproduktion macht multiresistente Keime gefährlicher
Die Bakterienart Staphylococcus aureus kann zahlreiche Erkrankungen wie Hautinfektionen, Lungenentzündung oder Blutvergiftung verursachen. Ein Problem sind die starken Immunreaktionen, die die Bakterien auslösen. Grund hierfür sind spezifische Bakteriengifte, wie ein Team der Technischen Universität München (TUM) und der Universität Tübingen herausfand. Sie verringern die Menge an Zellen, die Immunreaktionen eigentlich bremsen können. Multiresistente Keime, die viel Enterotoxin produzieren, macht das noch gefährlicher.
Diese Meldung im Web: https://www.tum.de/die-tum/aktuelles/pressemitteilungen/detail/article/35080/

Originalpublikation:
Hoegl et. al.: Mining the cellular inventory of pyridoxal phosphate-dependent enzymes with functionalized cofactor mimics, Nature Chemistry, Oct. 8, 2018 – DOI: 10.1038/s41557-018-0144-2

Stoll et al.: Staphylococcal Enterotoxins Dose-Dependently Modulate the Generation of Myeloid-Derived Suppressor Cells, Frontiers in Cellular and Infection Microbiology, September 13, 2018, DOI: 10.3389/fcimb.2018.00321 (Open Access)

Weitere Informationen:
https://www.tum.de/die-tum/aktuelles/ – Das Themenpaket auf der Webseite der Technischen Universität München

Quelle: idw

(nach oben)


Einzigartiger Wissensschatz an der BfG: 30 Jahre Weltdatenzentrum Abfluss

Dipl.-Met. Alfred Hommes Referat Öffentlichkeitsarbeit
Bundesanstalt für Gewässerkunde

Auf den Tag genau seit 30 Jahren arbeitet an der Bundesanstalt für Gewässerkunde (BfG) das Weltdatenzentrum Abfluss (Global Runoff Data Centre, GRDC). Das Zentrum bündelt qualitätsgeprüfte Information von über 7.000 Flüssen aus 161 Ländern in einer Datenbank. Die BfG betreibt damit die umfangreichste Sammlung von Abflussdaten weltweit.

Auf den Tag genau seit 30 Jahren arbeitet an der Bundesanstalt für Gewässerkunde (BfG) das Weltdatenzentrum Abfluss (Global Runoff Data Centre, GRDC). Das Zentrum bündelt qualitätsgeprüfte Information von über 7.000 Flüssen aus 161 Ländern in einer Datenbank. Die BfG betreibt damit die umfangreichste Sammlung von Abflussdaten weltweit. Unter der Schirmherrschaft der Weltorganisation für Meteorologie (WMO) unterstützt das GRDC seit dem 14.11.1988 wasser- und klimabezogene Programme und Projekte der Vereinten Nationen, die wissenschaftliche Forschung sowie die Bewirtschaftung grenzüberschreitender Gewässer und Einzugsgebiete. Die Daten dienen auch zur Erkennung von Klimaveränderungen, der verbesserten Nutzung der weltweiten Wasserressourcen sowie der Planung von Wasserbauwerken und der Kalibrierung von Erdbeobachtungssatelliten.

Globales Wasserwissen in einer Datenbank
Welcher Anteil des Niederschlags gelangt in Bäche und Flüsse und wie viel fließt davon in welcher Zeit schließlich ins Meer? Hauptaufgabe des GRDC ist die weltweite Beschaffung, Harmonisierung, Speicherung und Bereitstellung sogenannter historischer Abflussdaten. Historische Daten sind in der Hydrologie keine „veralteten“, sondern nach der Messung von den jeweiligen nationalen Eignern geprüfte und gegebenenfalls korrigierte Werte. Das macht die Daten für Wissenschaft und anwendungsorientierte hydrologische und klimatologische Studien besonders wertvoll. Das Weltdatenzentrum verwaltet Zeitreihen von täglichen und monatlichen Abflusswerten, die an rund 10.000 Messstationen erfasst werden. Insgesamt umfasst die Datenbank Messwerte aus rund 415.000 Abflussjahren mit einer durchschnittlichen Zeitreihenlänge von 43 Jahren. Die frühesten Daten sind über 200 Jahre alt und stammen aus dem Jahr 1807.
Eine weitere Aufgabe des Datenzentrums ist die Mitarbeit bei der Weiterentwicklung internationaler Standards zum hydrologischen Datenaustausch, Datenstrukturen und Metadaten. Darüber hinaus arbeitet das dreiköpfige GRDC-Team an der Erstellung und Pflege globaler anwendungsbezogener Datenprodukte und abflussbezogener Geoinformationen. Diese können teilweise frei über die Homepage des GRDC abgerufen werden. Die Abflussdaten sind ausschließlich für wissenschaftliche Zwecke verfügbar und werden nach vorheriger Anmeldung und Authentifizierung kostenfrei bereitgestellt.

Big Data in der Wissenschaft
„Das GRDC hat sich als zuverlässiger Datenlieferant und Partner bei der Erforschung des Klimawandels und bei der Bewirtschaftung grenzüberschreitender Gewässer und Einzugsgebiete bewährt“, sagt Dr. Birgit Esser, Leiterin der BfG. Es besteht ein wachsender Bedarf nach umfangreichen und aktuelleren Datenbeständen, um die globalen, regionalen und lokalen hydrologischen und umweltbezogenen Fragestellungen zu adressieren. Dies zeigen auch die zunehmenden Anfragen des GRDC, die im Jahr 2017 im Vergleich zum Vorjahr um zehn Prozent anstiegen. „In den kommenden Jahren wird sich der Arbeitsschwerpunkt des Weltdatenzentrum Abfluss verschieben und die Rolle als Vermittler von geprüften hydrologischen Informationen noch größer werden“, sagt die BfG-Leiterin. Das GRDC wird damit auch in den kommenden Jahrzehnten einen wichtigen Beitrag zur globalen Klimaforschung und als Datenlieferant für die internationale Forschungsgemeinschaft leisten.

Weitere Informationen:
https://www.bafg.de/GRDC/EN/Home/homepage_node.html
https://www.bafg.de/GRDC/EN/01_GRDC/13_dtbse/database_node.html

Ansprechpartner für fachliche Informationen:
Ulrich Looser, Leiter des Global Runoff Data Centre (GRDC), Bundesanstalt für Gewässerkunde, Am Mainzer Tor 1, 56068 Koblenz, Fon: 0261/1306 5224, E-Mail: looser@bafg.de

Pressekontakt: Dr. Sebastian Kofalk (Pressesprecher), Bundesanstalt für Gewässerkunde, Am Mainzer Tor 1, 56068 Koblenz, Fon: 0261/1306 5330, E-Mail: kofalk@bafg.de

Die Bundesanstalt für Gewässerkunde (BfG) ist eine Bundesoberbehörde im Geschäftsbereich des Bundesministeriums für Verkehr und digitale Infrastruktur (BMVI). Sie ist das wissenschaftliche Institut des Bundes für wasserbezogene Forschung, Begutachtung und Beratung insbesondere in den Bereichen Hydrologie, Gewässernutzung, Gewässerbeschaffenheit, Ökologie und Gewässerschutz. Die Arbeit der BfG erstreckt sich in erster Linie auf die schiffbaren Flüsse, Kanäle und Küstengewässer (Bundeswasserstraßen), die durch die Wasserstraßen- und Schifffahrtsverwaltung des Bundes (WSV) verwaltet werden. Als Ressortforschungseinrichtung ist die BfG Teil der deutschen Wissenschaftslandschaft.

Quelle: idw

(nach oben)


Digitaler Stress in Deutschland

Klaus P. Prem Presse – Öffentlichkeitsarbeit – Information
Universität Augsburg

Die bislang umfangreichste repräsentative Befragung von Erwerbstätigen zur Belastung und Beanspruchung durch Arbeit mit digitalen Technologien

Augsburg/SB/KPP – 25- bis 34-Jährige sind digital gestresster als andere Altersgruppen. Das ist nicht die einzige Überraschung der mit 2.640 Teilnehmerinnen und Teilnehmern bislang größten und umfassendsten Studie zum Thema „Digitaler Stress in Deutschland“. Von Autorinnen und Autoren der Universität Augsburg unter der Leitung von Prof. Dr. Henner Gimpel und in Zusammenarbeit mit der Fraunhofer Projektgruppe Wirtschaftsinformatik erarbeitet, steht diese von der Hans-Böckler-Stiftung geförderte Studie jetzt frei zum Download zur Verfügung.

„Unsere über Branchen und Bundesländer hinweg repräsentative Studie“, erläutert der Wirtschaftsingenieur Henner Gimpel, der als Mitglied des Zentrums für Interdisziplinäre Gesundheitsforschung (ZIG) der Universität Augsburg Empfänger der Böckler-Fördermittel war, „beschäftigt sich mit der voranschreitenden Digitalisierung und dem aus ihr resultierenden veränderten Belastungs- und Beanspruchungsprofil am Arbeitsplatz. Häufig wissen die Erwerbstätigen damit nicht oder nur unzureichend umzugehen. Die Folge: Digitaler Stress.“

Zunahme gesundheitlicher Beschwerden und Verringerung der Leistungsfähigkeit
Digitaler Stress ist ein Phänomen bzw. Problem, das über alle Regionen, Branchen, Tätigkeitsarten und individuellen demographischen Faktoren hinweg feststellbar ist. Die Studie zeigt, dass übermäßiger digitaler Stress mit einer deutlichen Zunahme gesundheitlicher Beschwerden einhergeht. So leidet mehr als die Hälfte der Arbeitnehmerinnen und Arbeitnehmer, die sich einem hohen digitalen Stress ausgesetzt sehen, unter Rückenschmerzen, Kopfschmerzen und allgemeiner Müdigkeit. Nachweislich verringert übermäßiger digitaler Stress die berufliche Leistung, um zugleich mit einem starken Work-Life-Konflikt einherzugehen.

Diskrepanz zwischen Kompetenzen und Anforderungen als zentraler Stressfaktor
Interessanterweise ist der Digitalisierungsgrad des Arbeitsplatzes nicht alleine ausschlaggebend für das Ausmaß an digitalem Stress, eine zentrale Rolle spielt vielmehr das Ungleichgewicht zwischen den Fähigkeiten im Umgang mit digitalen Technologien einerseits und den Anforderungen, die diese an die Arbeitnehmer stellen, andererseits. „Umso überraschender ist unser Ergebnis, dass digitaler Stress bei den 25- bis 34-jährigen Arbeitnehmerinnen und Arbeitnehmern ausgeprägter ist als bei anderen Altersgruppen“, so Gimpel.

Bemerkenswert ist auch, dass Frauen, die an digitalisierteren Arbeitsplätzen arbeiten, sich als kompetenter fühlen als Männer, zugleich aber mehr unter digitalem Stress leiden als Männer. Geschlechterübergreifend wird die Verunsicherung im Umgang mit digitalen Technologien als der größte Stressor wahrgenommen, aber insbesondere auch die Unzuverlässigkeit der Technologien und die Überflutung mit digitalen Technologien in allen Bereichen des Lebens spielen neben weiteren Faktoren eine signifikante Rolle.

Verhaltens- und verhältnispräventive Maßnahmen
Gimpel resümiert: „Die Erkenntnisse, die wir gewinnen konnten, legen Maßnahmen nahe, die in erster Linie darauf abzielen, Fehlbeanspruchungen durch digitalen Stress zu vermeiden. Darunter fallen in erster Linie verhaltenspräventive Maßnahmen wie die Vermittlung bzw. der Erwerb von Kompetenzen sowohl im Umgang mit digitalen Technologien als auch in der Bewältigung von digitalem Stress. Unter verhältnispräventiven Gesichtspunkten geht es aber auch darum, digitale Technologien maßvoll und individuell optimiert einzusetzen, Support bereit- und sicherzustellen und beim Design der eingesetzten digitalen Technologien höchsten Wert auf deren Verlässlichkeit zu legen.“

Wissenschaftliche Ansprechpartner:
Prof. Dr. Henner Gimpel
Professur für Wirtschaftsingenieurwesen
Kernkompetenzzentrum Finanz- & Informationsmanagement
Projektgruppe Wirtschaftsinformatik des Fraunhofer FIT
Universität Augsburg, 86135 Augsburg
Telefon 0821/598-4818
henner.gimpel@fim-rc.de

Originalpublikation:
Henner Gimpel, Julia Lanzl, Tobias Manner-Romberg und Niclas Nüske: Digitaler Stress in Deutschland. Eine Befragung von Erwerbstätigen zu Belastung und Beanspruchung durch Arbeit mit digitalen Technologien (= Forschungsförderung Working Paper, Nr. 101), Düsseldorf 2018, 57 Seiten, ISSN: 2509-2359

Zum Download frei verfügbar auf:
http://www.fim-rc.de/kompetenzen/digitalisierung/
http://www.boeckler.de/64509.htm?produkt=HBS-007024&chunk=1&jahr=

Quelle: idw

(nach oben)


Medica 2018: Mit den Füßen steuern – Computerspiel soll helfen, Thrombose vorzubeugen

Melanie Löw Presse- und Öffentlichkeitsarbeit
Technische Universität Kaiserslautern

Ein Gerinnsel in einem Blutgefäß kann dazu führen, dass die Arterie verstopft. Mediziner sprechen hier von einer Thrombose. Um ihr vorzubeugen, helfen Übungen für Beine und Füße. Oft fehlt den Betroffenen aber die Motivation. Abhilfe schafft das Computerspiel „jumpBALL“, das Kaiserslauterer Forscher mit Medizinern entwickelt haben. Das Besondere: Es wird über die Füße gesteuert. Die Forscher haben es für Smartphone und Tablet entwickelt. Das Spiel kann auch nach einem Schlaganfall oder einer Hüft- oder Knie-Operation helfen. Auf der Medizintechnik-Messe Medica in Düsseldorf vom 12. bis 15. November stellen die Forscher das Spiel am Forschungsstand (Halle 7a, Stand B06) Rheinland-Pfalz vor.

Die Thrombose ist nach Herzinfarkt und Schlaganfall die dritthäufigste Herz-Kreislauf-Erkrankung. Zur Risiko-Gruppe zählen vor allem ältere Menschen, aber auch Patienten, die wegen einer Krankheit bettlägerig sind oder eine größere Operation hinter sich haben.

Um der Thrombose vorzubeugen, helfen unter anderem gezielte Bewegungsübungen wie die Fußwippe, auch Muskelvenenpumpe genannt. „Dabei wird die Fußspitze zunächst weit nach vorne gestreckt und danach soweit wie möglich an den Körper herangezogen“, erläutert Daniel Steffen, Informatiker in der Nachwuchsgruppe wearHEALTH an der Technischen Universität Kaiserslautern (TUK). Diese Bewegung soll mit beiden Füßen möglichst oft und regelmäßig wiederholt werden. „Das ist sehr monoton und ermüdend, die Patienten sind meist wenig motiviert“, fährt Steffen fort. „Aus Studien wissen wir, dass rund 65 Prozent der Patienten solche Übungen nicht oder nur teilweise durchführen.“

Hier setzt das Computerspiel „jumpBALL“ an, das Steffen mit seinen Kolleginnen, der Psychologin Dr. Corinna Faust-Christmann und der Informatikerin Dr. Gabriele Bleser, sowie dem Mediziner Dr. Markus Muhm vom Westpfalz-Klinikum in Kaiserslautern entwickelt hat. Bei dem Spiel springt ein Wasserball über Baumstämme, auf denen sich verschiedene Gegenstände wie Münzen, Diamanten, Sterne oder Monster befinden. Springt der Ball auf einen der ersten drei Gegenstände, erhält der Spieler Bonuspunkte. Landet der Ball auf einem Monster, werden ihm Punkte abgezogen. Das Besondere: Der Spieler muss es mit den Füßen steuern. „Dabei führt er gleichzeitig die Muskelvenenpumpe durch“, sagt Steffen. In diesem Zusammenhang sprechen Experten von sogenannten Exergames. „Dabei werden Videospiele mit körperlichen Übungen verbunden“, fährt der Wissenschaftler fort.

Für das Spiel ist neben Smartphone oder Tablet nicht viel Technik notwendig: Es gibt zwei kleine drahtlose Sensoren, die mit Klettbändern auf den Füßen befestigt werden und die Bewegungen erfassen. „Mit dem linken Fuß etwa springt ein Wasserball einen Baumstamm weiter, mit dem rechten Fuß springt der Ball bis zum übernächsten Stamm“, so Steffen weiter.

In Studien hat das Team um Steffen schon untersucht, wie gut das Spiel die Motivation fördert. Dabei hat es außerdem überprüft, wie oft und wie lange die Teilnehmer die Übungen durchführen und wie gebrauchstauglich das System ist. Auch ältere Personen haben dabei mitgemacht. „Wir haben festgestellt, dass die älteren Probanden sehr gut mit jumpBALL zurechtgekommen sind und sogar mehr Spaß hatten als jüngere Studien-Teilnehmer“, sagt der Informatiker.

Das Spiel jumpBALL richtet sich vor allem an ältere Menschen beziehungsweise Patienten zur Thromboseprophylaxe. Darüber hinaus kann es während der Rehabilitation zum Einsatz kommen, beispielsweise bei Patienten nach einem Schlaganfall oder nach einer Operation an Hüfte oder Knien. Dazu müssten die Sensoren nur auf Unter- oder Oberschenkel angebracht werden. Die Technik ist aber auch interessant, um Menschen, die auf der Intensivstation liegen, zu leichten Bewegungen zu animieren. Zudem eignet sie sich für Menschen, die daran leiden, dass sich ihre Arterien verschließen, wie es zum Beispiel beim sogenannten Schaufenstersyndrom der Fall ist. Auch hier könnte das Computerspiel zur Bewegungsmotivation eingesetzt werden. Auf der Medica stellt das wearHEALTH Team das Spiel vor.

Die Kaiserslauterer Nachwuchsgruppe wearHEALTH ist ein interdisziplinäres Team aus Informatik, Mathematik, Psychologie, Kognitionswissenschaft, Bewegungswissenschaft und Regelungstechnik. Sie entwickelt digitale Techniken, die die Gesundheit präventiv oder zum Beispiel in Form von Reha-Maßnahmen verbessern sollen. Sie wird vom Bundesministerium für Bildung und Forschung im Rahmen der Maßnahme „Interdisziplinärer Kompetenzaufbau im Forschungsschwerpunkt Mensch-Technik-Interaktion für den demografischen Wandel“ gefördert.

Der Auftritt der Forscher der TU Kaiserslautern auf der Messe wird von Klaus Dosch vom Referat für Technologie und Innovation organisiert. Er ist Ansprechpartner für Unternehmen und vermittelt unter anderem Kontakte zur Wissenschaft.
Kontakt: Klaus Dosch, E-Mail: dosch@rti.uni-kl.de, Tel. (auch während der Messe): 0631 205-3001

Wissenschaftliche Ansprechpartner:
Daniel Steffen
AG wearHEALTH
E-Mail: steffen@cs.uni-kl.de

Quelle: idw

(nach oben)


Spendenprojekt: Ohne Plastik leben – aber wie!?

Mandy Schoßig Öffentlichkeit und Kommunikation
Öko-Institut e. V. – Institut für angewandte Ökologie

Unsere Welt erstickt in Kunststoff: Durch den Pazifik schiebt sich ein riesiger Plastikstrudel, Meeresbewohner und Seevögel verenden an Plastikteilen, an Flussufern und Meeresstränden werden unzählige Plastikteile gefunden. Dazu kommen unsichtbare Gefahren in Form von Mikroplastik, das bereits in Nahrungsmitteln nachgewiesen wurde. Das Recycling von Kunststoffen konnte diese negativen Auswirkungen des ungehemmten Plastikgebrauchs bisher nicht lösen. Wird es Zeit, ganz auf Plastik zu verzichten?

Das aktuelle Spendenprojekt des Öko-Instituts „Ohne Plastik leben – aber wie!?“ stellt die Frage, wie sich eine konsequente Einschränkung der Kunststoffnutzung auswirkt. Ökologisch, sozial und ökonomisch. In unterschiedlichen Szenarien beleuchten die Wissenschaftlerinnen und Wissenschaftler sowohl die Folgen eines radikalen Verzichts als auch die Konsequenzen eines schrittweisen Ausstiegs. Ziel ist es dabei, Handlungsspielräume zu durchdenken und notwendige Veränderungen in unserer Lebensweise zu skizzieren.

Für das Projekt „Ohne Plastik leben – aber wie!?“ spenden (https://mitglieder.oeko.de/index.php?id=80)

Ohne Plastik leben – geht das?
Kunststoffe haben unbestritten zahlreiche Vorteile. Sie machen Kleidung knitterfrei, halten Lebensmittel frisch und machen den Alltag einfach und bequem – etwa durch Getränkeflaschen, Kaffeebecher oder Essensboxen. „Es ist kein Wunder, dass Kunststoffe aus unserem Leben nicht mehr wegzudenken scheinen – sie haben zahlreiche Vorteile“, sagt Andreas Köhler, Senior Researcher am Öko-Institut, „sie sind leicht, billig, perfekt formbar und vielseitig einsetzbar, machen Produkte für alle verfügbar und erschwinglich.“

Doch die übermäßige Nutzung von Plastik hat einen schwerwiegenden Preis für die weltweiten Ökosysteme. „Viele Menschen möchten daran gerne etwas ändern, wissen aber nicht, wie“, sagt Köhler, „sogar jene Verbraucherinnen und Verbraucher, die ökologisch verantwortungsbewusst handeln, stehen oftmals vor der Herausforderung, dass ein Verzicht auf Plastik schlicht nicht möglich scheint.“

Spendenprojekt „Ohne Plastik leben – aber wie!?“ des Öko-Instituts
Im Spendenprojekt 2018 widmet sich ein Expertenteam des Öko-Instituts detailliert den Möglichkeiten und Auswirkungen eines Plastikverzichts. Dabei analysieren die Wissenschaftlerinnen und Wissenschaftler die Gründe für die Kunststoffnutzung ebenso wie die Erfahrungen von Verbraucherinnen und Verbrauchern bei der Plastikvermeidung. Sie beleuchten darüber hinaus den möglichen Einsatz alternativer Materialien und diskutieren vielversprechende Lösungsstrategien mit gesellschaftlichen Gruppen. Die Ergebnisse des Projektes werden schließlich unter anderem in den „Zukunftsgeschichten über ein plastikfreies Leben“ im Blog des Öko-Instituts aufbereitet.

Zum Spendenprojekt „Ohne Plastik leben – aber wie!?“ des Öko-Instituts (https://mitglieder.oeko.de/index.php?id=80)

Das Öko-Institut ist eines der europaweit führenden, unabhängigen Forschungs- und Beratungsinstitute für eine nachhaltige Zukunft. Seit der Gründung im Jahr 1977 erarbeitet das Institut Grundlagen und Strategien, wie die Vision einer nachhaltigen Entwicklung global, national und lokal umgesetzt werden kann. Das Institut ist an den Standorten Freiburg, Darmstadt und Berlin vertreten.

Neues vom Öko-Institut auf Twitter: twitter.com/oekoinstitut

Das Öko-Institut bloggt unter: blog.oeko.de

Aktuelle Ausgabe des Onlinemagazins eco@work: www.oeko.de/e-paper

Wissenschaftliche Ansprechpartner:
Andreas Köhler
Senior Researcher im Institutsbereich
Produkte & Stoffströme
Öko-Institut e.V., Geschäftsstelle Freiburg
Telefon: +49 761 45295-283
E-Mail: a.koehler@oeko.de

Weitere Informationen:
http://Flyer zum Spendenprojekt „Ohne Plastik leben – aber wie!?“ des Öko-Instituts (https://www.oeko.de/fileadmin/oekodoc/Flyer-Spendenprojekt2018.pdf)

Anhang
PM_Spendenprojekt_Plastikfreie_Welt_Öko-Institut
https://idw-online.de/de/attachment67255

Quelle: idw

(nach oben)


Resistente Keime: Können Rohkost und Salat ein Gesundheitsrisiko sein?

Dipl.-Biol. Stefanie Hahn Pressestelle
Julius Kühn-Institut, Bundesforschungsinstitut für Kulturpflanzen

Wissenschaftliche Studie des Julius Kühn-Instituts (JKI) weist antibiotikaresistente Bakterien mit mehreren übertragbaren Resistenzgenen auf Frischeprodukten nach. Gemeinsame Presseinformation des JKI mit dem Bundesinstitut für Risikobewertung (BfR)

(Braunschweig/Berlin) Salate sind beliebte Lebensmittel, um sich ausgewogen und gesund zu ernähren. Für den Konsum werden sie oft bereits fertig geschnitten und in Folie verpackt zum Kauf angeboten. Von solchen Frischeprodukten ist bekannt, dass sie mit Hygiene-relevanten Keimen kontaminiert sein können. Dass darunter auch Keime sind, die Resistenzen gegen Antibiotika tragen, hat eine Arbeitsgruppe unter Federführung von Prof. Dr. Kornelia Smalla vom Julius Kühn-Institut (JKI) nachgewiesen. Die Ergebnisse sind kürzlich unter dem Titel „The transferable resistome of produce“ in der Fachzeitschrift mBio erschienen https://doi.org/10.1128/mBio.01300-18. „Diesem Befund müssen wir auf den Grund gehen“, sagte Dr. Georg Backhaus, Präsident des Julius Kühn-Instituts. Bekannt ist, dass antibiotikaresistente Bakterien in Gülle, Klärschlamm, Boden und Gewässern vorkommen. „Dieser besorgniserregende Nachweis auf Pflanzen reiht sich in ähnliche Befunde bei anderen Lebensmitteln ein“, ergänzt Prof. Dr. Dr. Andreas Hensel, Präsident des Bundesinstituts für Risikobewertung (BfR). „Was dies für das gesundheitliche Risiko von Verbraucherinnen und Verbrauchern bedeutet, wird jetzt vordringlich bewertet.“

Für die Untersuchungen erwarb die Arbeitsgruppe von Professor Smalla in deutschen Supermärkten Mix-Salate, Rucola und die Gewürzpflanze Koriander. Die Proben wurden anschließend untersucht, um die Gesamtheit der übertragbaren Antibiotika-Resistenzgene (die Forscher sprechen vom übertragbaren Resistom) in Escherichia coli, einem meist harmlosen Darmbakterium, auf diesen Lebensmitteln zu ermitteln. Die Expertinnen und Experten konzentrierten sich bei den Untersuchungen auf den Teil der Escherichia coli-Bakterien, die gegen den Wirkstoff Tetrazyklin resistent sind. Denn Tetrazyklinantibiotika werden in der Tierhaltung eingesetzt, wo sie etwa im Darm der Nutztiere die Entwicklung und Vermehrung resistenter Keime fördern können. Diese Keime, aber auch ein Teil der Antibiotika werden ausgeschieden und kommen dann über organische Dünger wie Gülle auf die Felder. Smallas Fazit: „Die Ergebnisse aus den umfangreichen Untersuchungen zeigen eindeutig, dass eine beachtliche Vielfalt von übertragbaren Plasmiden, das sind außerhalb der Chromosomen vorkommende Erbträger in Bakterien, mit Resistenzgenen in den E. coli aus Frischeprodukten gefunden wurde. Diese tragen Resistenzen gegen jeweils mehrere Antibiotikaklassen. E. coli-Bakterien mit diesen Eigenschaften waren auf allen drei geprüften Lebensmitteln zu finden.“

Kommen solche an sich harmlosen Bakterien auf pflanzlichen Lebensmitteln vor, können sie bei deren Rohverzehr in den menschlichen Darm gelangen. Einmal aufgenommen, können die Bakterien ihre Plasmide im Darm an dort vielleicht vorkommende krankmachende Bakterien

weitergeben. Man bezeichnet das als horizontalen Gentransfer. In der Natur versetzt der horizontale Gentransfer Bakterien in die Lage, sich schnell an wechselnde Umweltbedingungen anzupassen. Wird ein Patient mit Antibiotika behandelt, haben Bakterien, die solche übertragbaren Resistenzgene in ihr Erbgut aufgenommen haben, einen Vorteil und vermehren sich stärker als ihre nicht so ausgestatteten Konkurrenten. Wie häufig es angesichts der geringen Belastung mit E. coli auf Salat zu einer Übertragung von Resistenzen im menschlichen Darm kommt, ist bisher nicht bekannt. Wenig bekannt ist auch, ob und in welchem Umfang es zu Erkrankungen durch so entstandene resistente Bakterien kommt.

Die Studie des Julius Kühn-Instituts, der Universität Gießen sowie der University of Idaho zu antibiotikaresistenten Keimen auf Pflanzen ist in der Oktoberausgabe der Fachzeitschrift mBio erschienen: Blau K, Bettermann A, Jechalke S, Fornefeld E, Vanrobaeys Y, Stalder T, Top E.M, Smalla K. 2018: The transferable resistome of produce. mBio 9:e01300-18 (DOI = https://doi.org/10.1128/mBio.01300-18)

Das BfR gibt Aufgrund der Studie folgende Empfehlungen:
Generell sollten Verbraucherinnen und Verbraucher Rohkost, Blattsalate und frische Kräuter vor dem Verzehr gründlich mit Trinkwasser waschen, um das Risiko der Aufnahme von Krankheitserregern oder antibiotikaresistenten Bakterien zu minimieren.

Schwangere und Personen, deren Abwehrkräfte durch hohes Alter, Vorerkrankungen oder Medikamenteneinnahme geschwächt sind, sollten darüber hinaus zum Schutz vor lebensmittelbedingten Infektionen auf den Verzehr von vorgeschnittenen und verpackten Salaten vorsichtshalber verzichten und stattdessen Salate aus frischen und gründlich gewaschenen Zutaten kurz vor dem Verzehr selbst zubereiten.
Durch das Waschen lassen sich die auf den pflanzlichen Lebensmitteln möglicherweise vorhandenen Krankheitserreger oder antibiotikaresistenten Bakterien jedoch nicht sicher entfernen. Deshalb ist es in seltenen Einzelfällen notwendig, dass besonders immungeschwächte Personen gemäß Anweisung ihrer behandelnden Ärzte, Gemüse und frische Kräuter vor dem Verzehr ausreichend (mindestens zwei Minuten auf 70°C im Inneren des Lebensmittels) erhitzen.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Kornelia Smalla
Julius Kühn-Institut, Bundesforschungsinstitut für Kulturpflanzen
Fachinstitut für Epidemiologie und Pathogendiagnostik
Messeweg 11-12, 38104 Braunschweig
Tel.: 0531 299-3814
E-Mail: kornelia.smalla@julius-kuehn.de

Originalpublikation:
Blau K, Bettermann A, Jechalke S, Fornefeld E, Vanrobaeys Y, Stalder T, Top E.M, Smalla K. 2018: The transferable resistome of produce. mBio 9:e01300-18 https://doi.org/10.1128/mBio.01300-18

Quelle: idw

(nach oben)


Studie: Mikroplastik in Kosmetik

Dipl.-Chem. Iris Kumpmann Abteilung Public Relations
Fraunhofer-Institut für Umwelt-, Sicherheits- und Energietechnik UMSICHT

Kosmetikprodukte sind eine häufig genannte Quelle für Mikroplastikemissionen. Doch was ist Mikroplastik in Kosmetik genau, welche Materialien und Funktionen übernehmen Kunststoffe in den Produkten und welche Alternativen gibt es? Diese Fragen hat Fraunhofer UMSICHT im Auftrag der Umweltorganisation NABU untersucht. Neben Kosmetikprodukten werden dabei auch Wasch-, Putz- und Reinigungsmittel (WPR) betrachtet. Die Studie schafft eine wissenschaftliche Grundlage für die öffentliche Diskussion über Mikroplastik.

Obwohl der Begriff Mikroplastik schon länger verwendet wird, war es ein wichtiger Aspekt der Studie, die genaue Definition zu kennen. »Das war nicht einfach, denn unterschiedliche Akteure benutzen verschiedene Definitionen«, sagt Co-Autorin Leandra Hamann. Einigkeit herrscht allein darüber, dass zu Mikroplastik alle Kunststoffpartikel zählen, die kleiner als 5 Millimeter sind. »Nichtsdestotrotz sehen wir auch diese Beschränkung als problematisch, da sie sich weder aus bestimmten Stoffeigenschaften noch ökotoxikologisch begründen lässt. Manche Definitionen enthalten zudem noch eine Begrenzung der unteren Größe, der Löslichkeit oder der Abbaubarkeit. Diese unterschiedlichen Definitionen können zu Missverständnissen führen und auch die Debatte um eine sinnvolle Regulierung nachteilig beeinflussen.«

Mikroplastik nur als Partikel, Polymere auch flüssig, gelöst oder gelartig
Ein bekanntes Beispiel für Mikroplastik in Kosmetik sind die sogenannten Microbeads. Diese Partikel können aus Kunststoff bestehen und werden vor allem für Peelingeffekte eingesetzt. Sie werden nach der Verwendung auf der Haut direkt abgespült und können so in die Umwelt gelangen.

Neben dem Peeling abgestorbener Hautschüppchen erfüllen Kunststoffe noch andere Funktionen in Kosmetikprodukten: Synthetische Polymere dienen der Haarfixierung, bilden Filme und Emulsionen oder regulieren die Viskosität der Kosmetikprodukte. Dafür liegen diese manchmal aber nicht immer als fester Partikel vor, sondern sind wachs- oder gelartig, gelöst oder flüssig. Gelangen die Polymere in die Umwelt, sind sie aber ggf. genauso problematisch wie das Mikroplastik.

Ob ein Polymer in Partikelform, flüssig, gelartig oder gelöst vorliegt, ist aus der heutigen Produktkennzeichnung kaum erkennbar. Jedes einzelne Polymer müsste geprüft werden. Eine Sisyphosarbeit, denn die Autoren fanden mehrere Hundert Polymere in Datenbanken für Kosmetikinhaltsstoffe.

Mengen von Mikroplastik in Kosmetik und WPR-Produkten im Vergleich
Die Einsatzmenge von partikulärem Mikroplastik in Kosmetik beläuft sich auf 922 Tonnen pro Jahr in Deutschland. Dagegen werden in WPR-Produkten nur 55 Tonnen Mikroplastik pro Jahr eingesetzt. Im Vergleich dazu wird ein Vielfaches an gelösten, gelartigen oder wachsartigen Polymeren eingesetzt. Die Mengen werden auf 23 700 Tonnen pro Jahr geschätzt. Für WPR-Produkte liegen sie ähnlich hoch. Zusammengefasst werden jährlich in Deutschland insgesamt ca. 50 000 Tonnen Kunststoffe in Kosmetik- und WPR-Produkten eingesetzt.

»In Anbetracht der hohen Eintragsmengen und der nicht abzuschätzenden Risiken für die Umwelt müssen sämtliche schwer abbaubaren, wasserlöslichen Polymere über die europäische Chemikaliengesetzgebung reguliert werden. Unser Wissen über die Wirkungen, die Polymere in der Umwelt haben, reicht nicht aus. Kunststoffemissionen sollten deshalb über die EU-Chemikaliengesetzgebung oder andere geeignete Wege reguliert werden«, so Jürgen Bertling, für die Studie verantwortlicher Wissenschaftler bei Fraunhofer UMSICHT. »Dabei sollte die lange Verweildauer in der Umwelt ein viel stärkeres Gewicht bei der Bewertung der Umweltgefährdung bekommen. Derzeit werden Polymere, einschließlich Mikroplastik, aufgrund der geringen Toxizität als kaum umweltgefährdend eingestuft«, so Bertling.

Strengere Regulierung gefordert
Die freiwillige Selbstverpflichtung zur Reduzierung von Mikroplastik in Kosmetik wird bereits umgesetzt und ist ein erster Schritt zur Reduzierung von Kunststoffen in Kosmetik. Allerdings sind Mikroplastik, das keine Peelingfunktion hat, Leave-on-Kosmetikprodukte sowie gelöste, gelartige oder wachsartige Polymere bisher von der Verpflichtung ausgenommen. Deswegen fordert NABU-Bundesgeschäftsführer Leif Miller strengere Gesetze: »Wir brauchen ein EU-Verbot von Mikroplastik in Kosmetik und Reinigungsmitteln, da Meere keine nationalstaatlichen Grenzen kennen und die Hersteller für internationale Märkte produzieren. Nur Mikroplastik als Reibkörper in Duschgel und Peeling zu verbieten, wie es manche Staaten verfolgen, greift viel zu kurz. Mikroplastik muss funktions- und produktübergreifend in Kosmetik und Reinigungsmitteln verboten werden. Das muss auch in der EU-Plastikstrategie konkretisiert werden. Die Industrie müsse schnellstmöglich auf besser abbaubare Ersatzstoffe umsteigen.«

Viele Regelungsmaßnahmen erfordern wissenschaftlich fundierte Erkenntnisse zum Gefahrenpotential zu Kunststoffen und Polymeren, um den Einsatz stärker einschränken zu können. Diese sind für Mikroplastik bisher aber noch nicht vorhanden. Dennoch liegen bereits genügend Hinweise auf Schadwirkungen vor und es ist aufgrund des weltweiten Wachstums beim Kunststoffverbrauch sehr wahrscheinlich, dass die Problematik weiter an Relevanz zunimmt, so dass es geboten scheint, bereits heute das Vorsorgeprinzip anzuwenden.

Alternativen und verbraucherfreundliche Informationen
Für Verbraucher ist es im Supermarkt oft nicht ersichtlich, welche Produkte Mikroplastik enthalten. Erste Anhaltspunkte bietet die Datenbank haut.de, in der nach Inhaltsstoffen gesucht werden kann. Allerdings ist dies aufwändig und die Erklärungen sind teilweise schwer verständlich. Deswegen fordert NABU-Konsumexpertin Katharina Istel mehr Transparenz und umweltfreundliche Alternativen: »Zertifizierte Naturkosmetik und Putzmittel mit Umweltkennzeichnungen wie dem Blauen Engel sind aus Umweltsicht die bessere Wahl, haben aber noch extrem geringe Marktanteile. Für den Massenmarkt brauchen wir transparente und verständliche Informationen zu Inhaltsstoffen und Umweltaspekten, wie zum Beispiel der Abbaubarkeit in Gewässern.«

Die nun veröffentlichte Studie bietet einen wissenschaftlichen Überblick zur Definition von Mikroplastik, Kunststoffen und Polymeren in Kosmetik- und WPR-Produkten, Einsatzmengen und Funktionen, sie liefert Alternativen und bewertet Handlungsalternativen. Vielfältige Beispiele machen sie verständlich und helfen Verbrauchern bei der Orientierung rund um das Thema Mikroplastik.

Fraunhofer UMSICHT hat die Studie »Mikroplastik und synthetische Polymere in Kosmetikprodukten sowie Wasch-, Putz- und Reinigungsmitteln« im Auftrag des Naturschutzbund Deutschland (NABU) durchgeführt.

Wissenschaftliche Ansprechpartner:
Leandra Hamann, M.Sc.

Redaktion
Telefon +49 208 8598-1524

Dipl.-Ing. Jürgen Bertling
Business Developer Geschäftsfeld Umwelt / Stellv. Abteilungsleiter Nachhaltigkeits- und Ressourcenmanagement
Telefon +49 208 8598-1168

Weitere Informationen:
https://www.umsicht.fraunhofer.de/de/presse-medien/pressemitteilungen/2018/mikro…
Pressemitteilung Mikroplastik in Kosmetik

Quelle: idw

(nach oben)


Medica 2018: Mit der Stress-App der TU Kaiserslautern spielerisch entspannen

Melanie Löw Presse- und Öffentlichkeitsarbeit
Technische Universität Kaiserslautern

Ob im Job oder in der Freizeit – immer mehr Menschen fühlen sich gestresst. Umso wichtiger ist es, zu lernen, sich bewusst zu entspannen, um den Stress in den Griff zu bekommen. Die App „Stress-Mentor“, die ein Kaiserslauterer Forscherteam entwickelt hat, schafft hier Abhilfe: Spielerisch können die Nutzer Entspannungsmethoden wie etwa Meditation in ihren Tagesablauf einbauen. Ein Tagebuch ermöglicht zusätzlich Auslöser von Stress besser zu erfassen. Die App wurde für Schmerzpatienten zum „Schmerz-Mentor“ weiterentwickelt. Auf der Medizintechnik-Messe Medica in Düsseldorf vom 12. bis 15. November stellen die Forscher ihr Projekt am Forschungsstand (Halle 7a, Stand B06) Rheinland-Pfalz vor.

Schlafstörungen, Erschöpfung, Rückenschmerzen – dies alles können Anzeichen für Stress sein. Laut einer aktuellen Studie der Betriebskrankenkasse pronova BKK trifft dies auf 87 Prozent der Deutschen zu. Langfristig schadet dies der Gesundheit. Zwar gibt es viele Entspannungsmethoden wie Yoga, Meditation oder Muskelentspannungsübungen, im Alltag nehmen sich die meisten dafür jedoch wenig Zeit.

Eine App, die Nutzer täglich daran erinnert, sich zu entspannen, hat Dr. Corinna Faust-Christmann von der Nachwuchsgruppe wearHEALTH an der Technischen Universität Kaiserslautern (TUK) mit ihrem Team entwickelt. „Wir bieten eine Reihe von Übungen an“, sagt die Psychologin. „Diese sind zwischen fünf und 45 Minuten lang. Sie können individuell in den Tagesablauf eingebaut werden.“ Dazu zählen etwa Meditations-, Bewegungs- und Dehnübungen. Die App „Stress-Mentor“ ist spielerisch gestaltet, um die Motivation zu erhöhen. In diesem Zusammenhang sprechen Fachleute von „Gamification“. „Wir haben ein kleines vogelähnliches Fabelwesen in unserer App, den rheinland-pfälzischen Elwetritsch. Der Nutzer muss sich um das Tier kümmern, indem er jeden Tag wenigstens eine Übung durchführt“, so Faust-Christmann weiter. „Bis zu drei Übungen täglich sind möglich.“

Außerdem enthält die App ein Tagebuch, um den Stress im eigenen Alltag besser zu beobachten. „Über Skalen kann der Nutzer schnell einschätzen, wie stressig der Tag verlaufen ist oder welche positiven Erlebnisse es gab. Diese Angaben zu erfassen, dauert rund eine Minute“, sagt die Forscherin.

Die Gesundheits-App ist nicht für den langfristigen Gebrauch gedacht. „Sie ist rund drei Monate aktiv, je nachdem wie regelmäßig sie zum Einsatz kommt“, fährt Faust-Christmann fort. „Sie soll vermitteln, bewusster mit Stress umzugehen.“ Die Übungen sollten nach der Zeit einfach in den Alltag integriert worden sein. Stress-Mentor soll Ende des nächsten Jahres kostenfrei für Android-Geräte auf den Markt kommen.

Das Programm des Kaiserslauterer Forscherteams ist aber nicht nur für die Stressbewältigung interessant, sondern auch für Schmerzpatienten. Daran arbeitet das Team um Faust-Christmann derzeit mit der Medizinerin Dr. Katja Regenspurger von der Universitätsklinik in Halle. Dazu soll die App weitere Funktionen erhalten. Wenn eine Schmerzattacke auftritt, soll sie zum Beispiel helfen, den weiteren Tagesverlauf einfacher zu planen, um etwa Hilfe zu erhalten. „Wir möchten zudem ein Tagebuch anbieten, in dem sich Schmerztage oder Parameter wie Schmerzintensität erfassen lassen“, so Faust-Christmann.

Die App „Schmerz-Mentor“ könnte zum Beispiel als Begleitung zu einer multimodalen Schmerztherapie Verwendung finden. Auf der Medica stellt das Team die Technik vor.

Die Kaiserslauterer Nachwuchsgruppe wearHEALTH ist ein interdisziplinäres Team aus Informatik, Mathematik, Psychologie, Kognitionswissenschaft, Bewegungswissenschaft und Regelungstechnik. Sie entwickelt digitale Techniken, die die Gesundheit präventiv oder zum Beispiel in Form von Reha-Maßnahmen verbessern sollen. Sie wird vom Bundesministerium für Bildung und Forschung im Rahmen der Maßnahme „Interdisziplinärer Kompetenzaufbau im Forschungsschwerpunkt Mensch-Technik-Interaktion für den demografischen Wandel“ gefördert.

Wissenschaftliche Ansprechpartner:
Dr. Corinna Faust-Christmann
AG wearHEALTH
E-Mail: christmann@cs.uni-kl.de
Tel.: 0631 205 3456

Quelle: idw

(nach oben)


Psychologie: Warum Menschen beim Küssen und Umarmen Seitenvorlieben haben

Arne Dessaul Dezernat Hochschulkommunikation
Ruhr-Universität Bochum

Bei Berührungen in sozialen Kontexten, etwa beim Küssen oder Umarmen, haben Menschen häufig eine Seitenpräferenz, neigen den Kopf zum Beispiel eher nach rechts als nach links beim Küssen. Zu den Ursachen gibt es verschiedene Theorien. In einem Übersichtsartikel in der Zeitschrift „Neuroscience und Biobehavioral Reviews“ tragen Forscherinnen und Forscher der Ruhr-Universität Bochum, der Heinrich-Heine-Universität Düsseldorf und der Victoria University of Wellington bislang existierende Daten zusammen, anhand derer sie die Theorien überprüfen. Der Artikel wurde im Oktober 2018 online veröffentlicht.

Das Team um Privatdozent Dr. Sebastian Ocklenburg und Julian Packheiser aus der Bochumer Abteilung Biopsychologie folgert, dass die beobachteten Ergebnisse nicht allein dadurch erklärt werden können, ob jemand Rechts- oder Linkshänder ist. Das spielt zwar eine Rolle, aber es kommt auch auf den emotionalen Kontext an.

Links-Verschiebung in emotionalen Situationen
„In der Bevölkerung gibt es allgemein eine Präferenz, den Kopf beim Küssen nach rechts zu neigen, eine Umarmung mit der rechten Hand zu initiieren und Babys im linken Arm zu wiegen“, schildert Julian Packheiser. Beim Küssen und Umarmen geht man davon aus, dass Menschen eine dominante Führungshand haben, mit der sie die Bewegung initiieren. Beim Wiegen, so die Theorie, wird die dominante Hand freigehalten, um damit andere Dinge tun zu können, während man das Kind hält.

„Da soziale Berührungen häufig mit einer Bewegung der Hände einhergehen, ist es naheliegend zu vermuten, dass die Händigkeit einen Einfluss auf die Seitenpräferenz hat“, sagt Sebastian Ocklenburg. In ihrem Review listen die Forscherinnen und Forscher zahlreiche Studien auf, die einen Einfluss der Händigkeit belegen. Dieser allein kann die Seitenvorlieben aber nicht erklären; auch der emotionale Kontext spielt eine Rolle.

„In emotionalen Situationen verschiebt sich die Seitenpräferenz nach links“, beschreibt Packheiser. „Und zwar unabhängig davon, ob es sich um positive oder negative Emotionen handelt.“ Für die Präferenz ist es also egal, ob zwei Personen sich umarmen, weil sie sich über ein Wiedersehen freuen oder weil die eine die andere trösten möchte.

Emotionen werden im Gehirn asymmetrisch verarbeitet
Die Links-Verschiebung in emotionalen im Vergleich zu neutralen Situationen erklären die Forscher damit, dass Emotionen vornehmlich in der rechten Hirnhälfte verarbeitet werden, welche die Bewegungen der linken Körperhälfte steuert. „Es gibt deutliche Hinweise, dass motorische und emotionale Netzwerke im Gehirn interagieren und miteinander eng verschaltet sind“, sagt Ocklenburg. Dabei sprechen nicht nur die Verhaltensdaten aus den Studien zur sozialen Berührung für die Theorie der rechtshemisphärischen Emotionsverarbeitung, sondern auch Ergebnisse aus bildgebenden und neurophysiologischen Studien.

Insgesamt ist die Asymmetrie in menschlicher sozialer Berührung laut den Autoren also am besten durch eine Kombination von motorischen Präferenzen und rechtshemisphärischer emotionaler Dominanz zu erklären.

Wissenschaftliche Ansprechpartner:
Privatdozent Dr. Sebastian Ocklenburg
Abteilung Biopsychologie
Fakultät für Psychologie
Ruhr-Universität Bochum
Tel.: 0234 32 24323
E-Mail: sebastian.ocklenburg@rub.de

Julian Packheiser
Abteilung Biopsychologie
Fakultät für Psychologie
Ruhr-Universität Bochum
Tel.: 0234 32 24917
E-Mail: julian.packheiser@rub.de

Originalpublikation:
Sebastian Ocklenburg, Julian Packheiser, Judith Schmitz, Noemi Rook, Onur Güntürkün, Jutta Peterburs, Gina M. Grimshaw: Hugs and kisses – the role of motor preferences and emotional lateralization for hemispheric asymmetries in human social touch, in: Neuroscience und Biobehavioral Reviews, 2018, DOI: 10.1016/j.neubiorev.2018.10.007

Quelle: idw

(nach oben)


Wie viel Schutt liegt auf Gletschern?

Josef Zens Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum Potsdam – Deutsches GeoForschungsZentrum GFZ

Eine Studie des Wissenschaftlers Dirk Scherler vom Deutschen GeoForschungsZentrum GFZ und zweier Kollegen aus der Schweiz zeigt, wie die Ausdehnung der Schuttflächen auf Gebirgsgletschern global und automatisiert per Satellitenüberwachung erfasst werden kann. Die Forscher nutzten für ihre Arbeit die Cloud-Computing-Plattform Google Earth Engine. Insbesondere kleinere Gletscher weisen einen hohen Anteil von Schuttbedeckung auf, der durch die globale Erwärmung mit kleiner werdenden Eisflächen vermutlich steigen wird. Zugleich haben Gebirgsgletscher eine hohe Bedeutung für darunter liegende Regionen: Schmelzwasser speist Flüsse, treibt Turbinen und bewässert Felder.

Eine sich erwärmende Erde führt dazu, dass das Volumen von Gebirgsgletschern und ihre Ausdehnung global gesehen seit Jahrzehnten abnehmen. Zeitgleich verändert sich auch die Bedeckung vieler Gletscher mit Schutt. Diese Schuttbedeckung wird bislang jedoch nur selten erfasst. Eine Studie des Wissenschaftlers Dirk Scherler vom Deutschen GeoForschungsZentrum GFZ und zweier Kollegen aus der Schweiz – einer davon bei Google angestellt – zeigt nun eine Möglichkeit, die Ausdehnung der Schuttflächen auf Gebirgsgletschern global und automatisiert per Satellitenüberwachung zu erfassen.

In ihrer Arbeit nutzten die Wissenschaftler dafür die Cloud-Computing-Plattform „Google Earth Engine“. Das ist eine Web-basierte Entwicklungsumgebung und Datenbank mit Satellitenbildern aus vierzig Jahren Fernerkundung, die für Forschende frei zugänglich ist. Die Bilder für die Studie im Fachjournal Geophysical Research Letters stammen von den Satelliten Landsat-8 und Sentinel-2 und haben eine räumliche Auflösung von 30 mal 30 bzw. 10 mal 10 Metern pro Pixel. Die Wissenschaftler glichen die Bilder aus dem Weltall mit einem elektronischen Gletscherkatalog ab, dem „Randolph Glacier Inventory“, um die Bedeckung mit Schutt zu bestimmen. Dazu haben sie ein automatisches Verfahren entwickelt, das erdumspannend Pixel-für-Pixel-Vergleiche anstellt. „Unser Ansatz erlaubt im Prinzip die rasche Kartierung von Veränderungen in der Schuttbedeckung für jeden Zeitraum, für den Satellitenbilder verfügbar sind“, sagt Dirk Scherler.

Eine manuelle Überprüfung zeigte robuste Ergebnisse. Demnach sind 4,4 Prozent der Gletscheroberfläche in Gebirgen von Schutt bedeckt (der grönländische Eisschild und die Antarktis wurden nicht in die Betrachtung aufgenommen). Die Verteilung ist dabei ungleichmäßig: Zu den Polen hin nimmt die Schuttbedeckung ab, da die Landschaft hier eher flach ist. In steilen Gebirgsregionen, wie dem Himalaja, hingegen liegt mehr Schutt auf den Gletschern. Überdies zeigte die Studie, dass der Bedeckungsanteil bei kleineren Gletschern höher ist als bei größeren. Da die Gletscher weltweit schrumpfen, wird der Anteil der Schuttbedeckung voraussichtlich zunehmen – und damit die Überwachung der Schuttbedeckung wichtiger werden.

Gebirgsgletscher haben eine große Bedeutung für Regionen, in die ihr Schmelzwasser fließt: Es dient als Trinkwasser, bewässert landwirtschaftliche Flächen oder treibt Turbinen an. Die Ergebnisse der Studie bilden nach Aussage der Autoren eine Grundlage für künftige Modellierungen der Effekte von Schuttbedeckung auf dem Eis, von der regionalen bis hin zur globalen Skala.

Originalstudie:
Scherler, D., Wulf, H., Gorelick, N. (2018): Global Assessment of Supraglacial Debris Cover Extents. Geophysical Research Letters, doi:10.1029/2018GL080158.

Kontakt:
Josef Zens (josef.zens@gfz-potsdam.de)
Wissenschaftliche Ansprechpartner:

Dirk Scherler (dirk.scherler@gfz-potsdam.de)

Originalpublikation:
Scherler, D., Wulf, H., Gorelick, N. (2018): Global Assessment of Supraglacial Debris Cover Extents. Geophysical Research Letters, doi:10.1029/2018GL080158.

Quelle: idw

(nach oben)


Die wichtigsten Tipps zur Grippe-Impfung: Ältere Menschen besonders gefährdet

Torben Brinkema Presse- und Öffentlichkeitsarbeit
Deutsche Gesellschaft für Geriatrie (DGG)

Es geht wieder los: Die Grippe-Zeit beginnt! Insbesondere ältere Patienten sind durch Influenza-Viren gefährdet. Aber auch Schwangere, Kinder und Pflegepersonal sind besonders betroffen. Deswegen raten Experten jetzt zur gezielten Grippeschutzimpfung. „Für ältere Menschen eignen sich insbesondere die sogenannten tetravalenten Impfstoffe, die nun auch von den Krankenkassen bezahlt werden“, sagt Dr. Andreas Leischker, Impfexperte der Deutschen Gesellschaft für Geriatrie (DGG) sowie Chefarzt der Klinik für Geriatrie des Alexianer-Krankenhauses Krefeld.

Im Interview beantwortet Leischker die wichtigsten Fragen zu Influenza-Viren, aktuellen Übertragungsrisiken, den größten Gefahren und den optimalen Grippeschutz.

Herr Dr. Leischker, in der vergangenen Saison kam es zu vielen Influenza-Erkrankungen, teilweise mit schweren Verläufen. Aus Sicht eines Krankenhausarztes: Woran liegt das?
Ja, die letzte Grippesaison hat leider viele Todesopfer gefordert und viele Krankenhäuser an ihre Kapazitätsgrenzen geführt. Die Influenza war 2017/2018, verglichen mit den Jahren zuvor, heftiger im Auftreten und im Verlauf. Sowohl für Patienten, als auch für das medizinische Personal. Die Praxen und Notaufnahmen der Krankenhäuser waren voll mit Patienten, die an echter Influenza erkrankt waren. Aber auch voll mit Patienten, die durch andere Viren an Infekten der oberen Luftwege litten. Es gibt mehr als 200 Viren, die eine Erkältung verursachen können. Fast alle Infekte der oberen Atemwege und auch die meisten Erkrankungen mit dem Influenza-Virus können zum Glück ambulant behandelt werden. Diese Patienten müssen also nicht im Krankenhaus aufgenommen werden.

Wie wird dann eine Influenza-Infektion am effektivsten behandelt?
Bei jungen und gesunden Menschen, die nicht stationär aufgenommen werden müssen, reicht die Behandlung der Symptome: Ganz wichtig ist ein abschwellendes Nasenspray, damit Sekret aus den Nasennebenhöhlen und dem Mittelohr abfließen kann. Das sollte mindestens viermal täglich angewendet werden, sodass die Nasenatmung immer frei ist.

Welche zusätzlichen Maßnahmen helfen bei Erkältungssymptomen?
Zusätzlich kann man mit Wasserdampf inhalieren, um die ausgetrockneten Schleimhäute anzufeuchten: Drei Teelöffel Kochsalz in eine Schüssel geben, mit heißem Wasser aufgießen, den Kopf mit einem Handtuch abdecken, über die Schüssel halten und dann inhalieren. Am besten dreimal täglich. Bei Kopf- und Gliederschmerzen helfen nicht-steroidale Antirheumatika wie zum Beispiel Ibuprofen. Bei Halsschmerzen bringen Lutschtabletten Linderung. Diese Maßnahmen helfen übrigens auch bei den anderen 200 Erkältungsviren. Und auch wenn es banal klingt: Nicht mehr zur Arbeit gehen, bis die Symptome weg sind! Man ist dann selbst schneller wieder fit und steckt seine Kollegen bzw. Kunden nicht an.

Durch die Influenza ist es zu zahlreichen Todesfällen gekommen. Warum gilt die Grippe trotzdem als eine unangenehme, aber harmlose Erkrankung?
Das ist falsch! Die Grippe ist keine harmlose Erkrankung: Besonders bei alten Menschen und bei Menschen mit chronischen Krankheiten – wie zum Beispiel Diabetes mellitus, Chronisch Obstruktiver Lungenerkrankung, kurz COPD, oder Niereninsuffizienz – kann es zu lebensgefährlichen Komplikationen wie Lungenversagen kommen. Diese Patienten müssen stationär behandelt werden, bei Lungenversagen ist oft eine künstliche Beatmung notwendig. Wir hatten im letzten Winter hier auch viel mehr Herzinfarkte und auch Schlaganfälle zu verzeichnen.

Was haben denn Herzinfarkte mit Influenza zu tun?
Es ist bisher wenig bekannt, aber eine Influenza erhöht das Herzinfarktrisiko erheblich: Während der ersten sieben Tage einer Influenza-Erkrankung ist das Herzinfarktrisiko um das 17-fache erhöht! Und selbst einen Monat nach der Infektion ist das Risiko für einen Infarkt noch deutlich höher als bei Menschen, die nicht erkrankt sind. Schlaganfälle treten im Rahmen einer Influenza häufiger auf. Aber auch umgekehrt: Das Influenza-Risiko ist für Patienten mit kardiovaskulären Erkrankungen um 23 Prozent erhöht.

Weshalb erhöht eine Influenza-Infektion das Herzinfarktrisiko?
Hauptsächlich durch zwei Faktoren: Das Virus führt auch zu einer Entzündung in den Gefäßen. Und wenn sich in diesen sogenannte Plaque-Flecken aus Cholesterin und Kalk befinden, können diese Plaques durch die Entzündung aufplatzen und so beispielsweise ein Herzkranzgefäß verschließen. Eine Influenza mit hohem Fieber ist für den Körper außerdem zusätzlicher Stress. Die vom Körper ausgeschütteten Stresshormone wie Adrenalin und Noradrenalin erhöhen das Herzinfarktrisiko zusätzlich.

Umgekehrt gefragt: Schützt die Influenza-Impfung vor Herzinfarkten?
Ja, definitiv! Und auch vor Schlaganfällen, dies ist mittlerweile auch durch mehrere Studien belegt.

Im vergangenen Winter sind einige Krankenhäuser an die Grenzen ihrer Kapazitäten gekommen. Woran lag das?
Es gab ganz viele Patienten, die wegen Komplikationen durch eine Influenza-Infektionen auf einer Intensivstationen behandelt werden mussten, teilweise mit künstlicher Beatmung. Dadurch wurden Intensivbehandlungsplätze schnell Mangelware. Ich erinnere mich insbesondere an eine Situation, die ich im letzten Winter als Notarzt hatte: Ein Patient musste wegen einer Lungenentzündung beatmet werden, aber kein Krankenhaus in der Umgebung hatte einen Intensivbehandlungsplatz frei. Schließlich konnte ein Krankenhaus den Patienten aufnehmen, das aber über eine Stunde Fahrtzeit entfernt lag. Hinzu kam, dass viele Ärzte und Pflegefachkräfte selbst an Influenza erkrankt und dadurch arbeitsunfähig waren.

Ärzte sollten doch grundsätzlich gegen Influenza geimpft sei, oder nicht?
Ja, das sollten sie, aber die Realität sieht leider anders aus: Weniger als 30 Prozent des medizinischen Personals lässt sich gegen Influenza impfen. Dabei ist es für medizinisches Personal gleich aus drei Gründen wichtig, sich impfen zu lassen: Erstens – und das ist der wichtigste Grund – damit sie ihre häufig abwehrgeschwächten Patienten nicht anstecken. Zweitens, damit sie während einer Influenza-Epidemie arbeitsfähig bleiben und Erkrankte behandeln können. Und last, but not least, um auch sich selbst zu schützen.

Viele Menschen glauben, durch die Impfung überhaupt erst krank geworden zu sein. Was spricht für diese These?
Das hört man häufig, trifft aber nicht zu, denn bei der Influenza-Impfung handelt es sich um einen sogenannten Totimpfstoff, der nur Bruchstücke der Impfviren enthält. Eine Influenza-Totimpfung kann also niemals eine Influenza auslösen. Natürlich können als typische Nebenwirkungen Rötungen, Schmerzen und Schwellungen an der Injektionsstelle auftreten – als Folge der lokalen Antikörperbildung – und klingen innerhalb weniger Tage wieder ab. Auch leicht erhöhte Temperatur sowie leichte Kopf- und Gliederschmerzen gehören zu den typischen Nebenwirkungen einer Influenza-Impfung. Manche verwechseln das mit einer Influenza.
Und die Influenza-Impfung schützt lediglich vor Influenza, aber nicht vor den übrigen 200 Erkältungsviren. An einer Erkältung kann natürlich auch kurz jeder nach einer Grippe-Impfung erkranken – dafür ist aber nicht die Influenza-Impfung verantwortlich!

Im vergangenen Winter sind auch Menschen erkrankt, die gegen Influenza geimpft waren. Woran lag das?
Im letzten Winter waren über die Hälfte der Influenza-Infektionen durch ein Influenza-Virus vom Typ B bedingt. Der Typ B Yamgata war leider in den am häufigsten verwendeten trivalenten Impfstoffen nicht enthalten. Die Arbeitsgruppe Impfen der Deutschen Gesellschaft für Geriatrie hatte daher bereits im Herbst vergangenen Jahres den tetravalenten Impfstoff empfohlen – dieser enthält vier Impfstämme, zwei A- und zwei B-Stämme. Alle Patienten, die mit diesem Impfstoff geimpft wurden, hatten einen Schutz gegen das zirkulierende Influenza-B-Virus. Leider hat die Ständige Impfkommission am Robert-Koch-Institut die Empfehlung zur Verwendung des tetravalenten Impfstoffs erst im Januar 2018 veröffentlicht – das war deutlich zu spät.

Wie genau sehen die Empfehlungen in diesem Jahr aus – und wer übernimmt die Impfkosten?
Es sollten alle Personen nur noch mit dem tetravalenten Impfstoff behandelt werden. Das empfiehlt jetzt neben der Ständigen Impfkommission auch der Gemeinsame Bundesausschuss, der unter anderem den Leistungskatalog der gesetzlichen Krankenkassen festlegt. Für die meisten Impfwillige bedeutet dies, dass keine Kosten auf sie zukommen: Die gesetzlichen Krankenkassen übernehmen jetzt auch die Kosten für den tetravalenten Impfstoff.

Wer sollte sich denn jetzt grundsätzlich impfen lassen?
Meiner Meinung nach sollte sich jeder impfen lassen! Das ist am effektivsten, um die Ausbreitung des Virus‘ zu verhindern. Die Ständige Impfkommission empfiehlt die Impfung von Personen, die entweder ein hohes Risiko für Komplikationen, oder aber ein erhöhtes Ansteckungsrisiko haben. Das sind unter anderem alle Menschen im Alter von über 60 Jahren sowie alle Menschen mit chronischen Grunderkrankungen, wie zum Beispiel Herzkrankheiten, Diabetes mellitus, Chronisch Obstruktive Lungenerkrankung oder chronische Nierenkrankheiten. Auch Schwangere sollten sich impfen lassen, sie riskieren ansonsten Komplikationen. Medizinisches Personal sollte grundsätzlich geimpft sein – ebenso wie Personen, die alte und kranke Menschen pflegen- egal ob beruflich, ehrenamtlich oder privat. Eine junge gesunde Frau, die ihre eigene pflegebedürftige Mutter betreut, sollte sich unbedingt impfen lassen – um auch ihre Mutter vor Influenza zu schützen. Sämtliche Personen, die beruflich vom Publikumsverkehr betroffen sind, sollten sich ebenfalls direkt impfen lassen.

Es scheint kaum jemanden zu geben, der nicht zu einer betroffenen Gruppe gehört. Was sollte beim Impfen von Kindern beachtet werden?
Wenn Sie mich als Geriater fragen, sollten Eltern ihre Kinder impfen lassen. Kinder fassen alles ohne Hemmungen an – einschließlich anderer Kinder. Überall da, wo viele Kinder zusammen sind, ist das Risiko, sich an Influenza anzustecken, besonders hoch. So zum Beispiel in Kindertagesstätten und Schulen. Kinder scheiden Influenza-Viren zudem deutlich länger als Erwachsene aus, im Durchschnitt zehn Tage lang. Wenn die Großmutter dann ihr Enkelkind auf den Arm nimmt, werden die Influenza-Viren gleich über zwei Generationen übertragen. Die Impfung schützt aber natürlich auch die Kinder selbst. Ich kenne eine Familie, deren dreijähriges Kind im Januar diesen Jahres über vier Wochen wegen einer Influenza mit Lungenversagen künstlich beatmet werden musste. Das ist besonders traurig, da dieses Leid für das Kind durch eine Impfung vermeidbar gewesen wäre. Derzeit empfiehlt die Ständige Impfkommission die Influenza-Impfung leider nur für Kinder mit Risikofaktoren. Ich würde alle Kinder impfen!

Kommen wir von den Kindern zu den sogenannten Silver Agern: Es gibt fitte Senioren, die gerne in der nasskalten Zeit Kreuzfahrten in sonnige Regionen machen. Sollen die auch geimpft werden?
Auch die sollten sich unbedingt impfen lassen! Ein Kreuzfahrtschiff ist aus Sicht eines Infektionsepidemologen wie eine Kindertagesstätte für Erwachsene. Genau wie in einer Kita sind dort viele Menschen auf engem Raum zusammen – ideale Voraussetzung für Viren, um sich zu vermehren. In der Vergangenheit kam es zu mehreren Kleinepidemien auf Kreuzfahrtschiffen. Also: Die Grippeimpfung für einen Kreuzfahrer ist ein Must-have!

Aber wenn wir mal von den Routen rund um Skandinavien und dem Polarmeer absehen, führen viele Kreuzfahrten doch in warme Gefilde. Da gibt es doch derzeit keine Influenza, oder?
Doch, in den Tropen sowie in den Subtropen kommt die Influenza sogar ganzjährig vor. Und auf der Südhalbkugel tritt die Influenza auf, wenn bei uns Sommer und Herbst ist. Aktuell grassiert in Australien eine Influenza A. Die Influenza-Viren mögen es entweder trocken und kalt – wie bei uns im Winter – oder warm und feucht – das haben sie in den Tropen ganzjährig.

Welche Infektionsrisiken gibt es bei Flugreisen?
Die Belüftungsanlagen der Flugzeuge haben Filter eingebaut. Diese entfernen effektiv die Tröpfchen und damit die in ihnen enthaltenen Influenza-Viren. Innerhalb des Flugzeugs können Sie sich also nur an den rechts, links und hinter Ihnen sitzenden Mitreisenden infizieren. Und am Kabinenpersonal, wenn einer von ihnen trotz Erkrankung arbeitet. Wenn Sie beim Einchecken oder beim Umsteigen am Flughafen in einer Warteschlange stehen, haben die Influenza-Viren eine weitere Chance. Also: Auch bei Flugreisen sollten Sie gegen Influenza geimpft sein!

Welchen Nutzen haben Gesichtsmasken zum besseren Schutz?
Gesichtsmasken können helfen, wenn sie beispielsweise im Gedränge und öffentlichen Verkehrsmitteln die zwei Meter Abstand nicht einhalten können. Kontrollierte Studien gibt es zu dieser Frage nicht. Aber es lohnt ein Blick in die Geschichte: Während der Spanischen Grippe 1918 hat der Bürgermeister der Stadt New York angeordnet, dass jeder Bürger vor Betreten einer Straßenbahn eine Gesichtsmaske anlegen muss – damals waren diese noch aus Stoff. In anderen amerikanischen Großstädten und in Deutschland war das nicht der Fall. Durch das Tragen der Gesichtsmasken traten in New York vermutlich deutlich weniger Influenza-Fälle auf, als in anderen Großstädten.

Wie kann ich mich – außer durch die Impfung – vor Influenza schützen?
Influenza-Viren werden durch Schmier- und Tröpfcheninfektion übertragen. In der Regel reichen zwei Meter Abstand zu Mitmenschen, um sich nicht anzustecken. Glücklicherweise reagiert das Influenza-Virus auf Umwelteinflüsse sehr empfindlich: Es wird zum Beispiel durch Wasser und Seife abgetötet. Zur Prophylaxe reicht es daher aus, die Hände gründlich mit Wasser und Seife zu waschen. Gerade unterwegs ist allerdings nicht immer fließendes Wasser vorhanden. Ich empfehle deshalb, alkoholhaltige Gels zu verwenden. Auch auf der Augenbindehaut befinden sich Rezeptoren für das Influenza-Virus. Deshalb mit den Händen nicht in das eigene Gesicht fassen, insbesondere nicht in den Augen reiben.

Pressekontakt der DGG
Torben Brinkema
medXmedia Consulting KG
Nymphenburger Str. 19
80335 München
Tel: +49 (0)89 / 230 69 60 21
Fax: +49 (0)89 / 230 69 60 41
E-Mail: presse@dggeriatrie.de

Deutsche Gesellschaft für Geriatrie (DGG)
Die Deutsche Gesellschaft für Geriatrie (DGG) ist die wissenschaftliche Fachgesellschaft der Ärzte, die sich auf die Medizin der späten Lebensphase spezialisiert haben. Wichtige Schwerpunkte ihrer Arbeit sind neben vielen anderen Bewegungseinschränkungen und Stürze, Demenz, Inkontinenz, Depressionen und Ernährungsfragen im Alter. Häufig befassen Geriater sich auch mit Fragen der Arzneimitteltherapie von alten Menschen und den Wechselwirkungen, die verschiedene Medikamente haben. Bei der Versorgung geht es darum, den alten Menschen ganzheitlich zu betreuen und ihm dabei zu helfen, so lange wie möglich selbstständig und selbstbestimmt zu leben. Die DGG wurde 1985 gegründet und hat heute rund 1700 Mitglieder.

Weitere Informationen:
https://www.dggeriatrie.de/presse/pressemeldungen
https://www.dggeriatrie.de/presse/pressemeldungen/1542-pm-die-wichtigsten-tipps-…

Anhang
Die wichtigsten Tipps zur Grippe-Impfung: Ältere Menschen besonders gefährdet
https://idw-online.de/de/attachment67084

Quelle: idw

(nach oben)


Beim Schnapsbrennen die Energiewende im Blick

Katharina Thehos Dezernat Kommunikation und Marketing
Hochschule Ostwestfalen-Lippe

Bei der Herstellung von Alkohol und alkoholischen Getränken wird Kohlenstoffdioxid frei. Wissenschaftler der Hochschule OWL erforschen, wie sich dieses in Erdgas umwandeln und zur Speicherung von erneuerbaren Energien nutzen lässt. Gefördert wird das Vorhaben vom Bundesministerium für Bildung und Forschung.

Mit Windrädern und Sonnenkollektoren alleine lässt sich die Energiewende nicht umsetzen – Fortschritte benötigt die Wissenschaft vor allem bei der Speicherung der Energie: „Schon heute müssen beispielsweise Windräder häufig abgeschaltet werden, weil die Stromnetze überlastet sind. Dadurch und durch Drosselungen in konventionellen Kraftwerken entstehen Ausfallzahlungen, die die Kosten bei der Stromerzeugung in die Höhe treiben“, erklärt Timo Broeker, wissenschaftlicher Mitarbeiter im Fachgebiet Getränketechnologie der Hochschule Ostwestfalen-Lippe. Er und seine Kollegen arbeiten im neu gestarteten Forschungsprojekt „bioCO2nvert“ daran, die Energiewende zu unterstützen.

Die Idee: Strom aus Wind- und Sonnenenergie wird per Elektrolyse in Wasserstoff umgewandelt. Dieser wird mit Hilfe von Kohlenstoffdioxid in Erdgas überführt. Dieses Gas kann mit bestehender Infrastruktur gespeichert werden. Kohlendioxid entsteht bei der alkoholischen Gärung – etwa bei der Herstellung von Spirituosen oder Bier, aber auch bei der Bioethanolproduktion, das dem Kraftstoff beigemischt wird. Partner im Projekt ist unter anderen die Südzucker AG. „Südzucker betreibt große Bioethanolanlagen. Die Verwertung des Kohlenstoffdioxids verbessert die Klimabilanz der Produktion – und im besten Fall auch die Bewertung des Produktes Bioethanol“, erklärt Broeker.

Auf Vorgängerprojekt aufbauen
Grundlage der aktuellen Forschung ist das Vorgängerprojekt „bioCONNECT“. Die Wissenschaftler der Hochschule OWL haben dort untersucht, wie das Kohlenstoffdioxid genutzt werden kann, das beim Bierbrauen während der Gärung entsteht. Dafür haben sie eine Anlage entwickelt, die mit Hilfe des Kohlendioxids Erdgas produziert, das zur Speicherung erneuerbarer Energien dient. Diese Anlage entwickeln die Forscher nun weiter und bauen sie in einem größeren Stil neu auf – Ziel des aktuellen Projektes ist der Nachweis der Wirtschaftlichkeit. Unter anderem soll dafür der Betrieb mit realen Daten aus der Windstromerzeugung am Computer simuliert werden.

Förderung von Bund und Industrie
Geleitet wird das Projekt „Implementierung eines bedarfsgerechten Power-to-Gas-Konzeptes in CO2-emittierende Fermentationsanlagen“ – kurz „bioCO2nvert“ – an der Hochschule OWL von Professor Jan Schneider vom Institut für Lebensmitteltechnologie.NRW (ILT.NRW) und Professor Klaus Heikrodt vom Fachbereich Maschinentechnik und Mechatronik. Es wird gefördert vom Bundesministerium für Bildung und Forschung in der Förderlinie FHprofUnt. Die Hochschule OWL erhält rund 730.000 Euro für drei Jahre. Neben der Südzucker AG sind weitere Industrieunternehmen Partner im Projekt: Auch die Firmen Viessmann, PRG Präzisions-Rührer Gesellschaft Warburg und Klärgastechnik Deutschland aus Lemgo-Lieme unterstützen die Lemgoer Arbeitsgruppe sowohl finanziell als auch in der Ausführung, sodass sich das Projektvolumen in Summe auf etwa 800.000 Euro beläuft.
Wissenschaftliche Ansprechpartner:

Kontakt: Timo Broeker, Telefon 05261 702-5948, E-Mail timo.broeker@hs-owl.de

Quelle: idw

(nach oben)


Moore: manchmal unheimlich, aber vor allem unheimlich wichtig

Nadja Neumann Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)

Seit dem 20. Jahrhundert sind mehr als 90 Prozent aller Feuchtgebiete, darunter auch viele Moore, im mittel- und westeuropäischen Binnenland verschwunden. Moore wurden trocken gelegt, um sie landwirtschaftlich zu nutzen oder um Torf zu gewinnen. Heute weiß man, dass Moore die effektivsten Kohlenstoffspeicher innerhalb der Landökosysteme sind. Außerdem sind sie Hotspots der Biodiversität. Vom 21.bis 29.10.2018 fand in Dubai die „Conference of the Contracting Parties to the Ramsar Convention on Wetlands (COP13)“ statt. Forscher vom Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB) begleiten die Renaturierung ehemaliger Moorflächen mit ihrer Expertise.

Moore zählen zu den Landschaften, um die sich viele Geschichten ranken – meist in einem furchteinflößenden Kontext. Nur wenigen ist klar, welche wichtigen Funktionen Moore erfüllen. „Moore sind manchmal ziemlich gruselig, aber vor allem ihr Verlust mit schwerwiegenden Folgen für die Umwelt sollte uns unheimlich sein“, sagt Dr. Dominik Zak. Der Wissenschaftler hat früher am Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB) in Berlin geforscht und arbeitet nun an der Universität Aarhus in Dänemark. Obwohl Moore nur etwa drei Prozent des globalen Festlandes einnehmen, binden sie 20 bis 30 Prozent der gesamten Kohlenstoffvorräte aller Böden. Das entspricht etwa 40 bis 60 Prozent des gesamten CO2-Gehalts unserer Atmosphäre. Zudem binden Moore in den Torfen die Nährstoffe Phosphor und Stickstoff. Werden Moore trocken gelegt, sinkt der Wasserspiegel und die sonst sauerstofffreien Böden werden belüftet. „Das führt dazu, dass Nährstoffe und Treibhausgase freigesetzt werden“, erklärt Dominik Zak das Problem.

Weltweit geht jährlich immer noch etwa ein Prozent der gesamten Moorflächen verloren. In Deutschland sind bereits fast alle Moorflächen entwässert, nur noch etwa zwei Prozent der ursprünglichen Moorflächen sind in einem naturnahen Zustand. Es gibt aber auch einige Lichtblicke, so laufen europaweit vielfältige Aktivitäten zur Revitalisierung von Mooren. „Vor 43 Jahren trat die Ramsar-Konvention als Übereinkommen über den Schutz von Feuchtgebieten in Kraft. Seit dieser Zeit ist viel passiert“, so Dr. Jörg Gelbrecht, Moor-Experte des IGB. „Eine Revitalisierung ist jedoch nicht ganz einfach“, räumt Gelbrecht ein, „denn eine erfolgreiche Umsetzung von Maßnahmen hängt ganz wesentlich von einem Konsens der verschiedenen Akteure des Naturschutzes, des Gewässer- und Klimaschutzes sowie der Landnutzer ab. Außerdem müssen die verschiedenen Risiken bewertet werden“. Nach Jahrzehnten der Entwässerung sind Moorböden oft stark degradiert, haben Nährstoffe angereichert und an Oberfläche verloren. Tiefgründig entwässerte Moore benötigen deshalb oft mehrere Jahrzehnte, bis sie ihre ursprünglichen landschaftsökologischen Funktionen wieder erfüllen.

Auf den in Mitteleuropa weit verbreiteten Niedermooren entstehen bei der Wiedervernässung häufig Flachseen. Das sind neue, hoch dynamische Ökosysteme, die rasch von sehr seltenen und stark gefährdeten Vogelarten besiedelt werden. In der Anfangsphase werden aber auch oft große Mengen des Treibhausgases Methan, außerdem Phosphor sowie gelöste organische Substanz (DOM) aus den oberen Torfschichten freigesetzt, was die gewünschten Effekte zunächst konterkariert und im Extremfall auch angrenzende Gewässer belasten kann. Die IGB-Forscher entwickelten auf Grundlage umfangreicher Feld- und Laborarbeiten ein vereinfachtes Verfahren zur Risikoabschätzung einer Wiedervernässung. Dies berücksichtigt vor allem die Beeinflussung angrenzender Gewässer und die Freisetzung von Klimagasen. So kann der Oberbodenabtrag eine Möglichkeit sein, diese Risiken zu minimieren. Trotz einiger Vorteile ist er jedoch nicht als universelle Maßnahme bei der Moorrestaurierung zu empfehlen. Für die Moor-Wiedervernässungen sollten daher auch Kenntnisse zur hydrologischen Situation, zum aktuellen und zukünftigen Vorkommen moortypischer Arten und Strategien zur möglichen „nassen“ Moornutzungen vorliegen. Von größter Bedeutung ist zusätzlich eine gezielte Öffentlichkeitsarbeit, um eine breite gesellschaftliche Akzeptanz der geplanten Maßnahmen zu erreichen.

Über das Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB):
Das Leibniz-IGB ist das bundesweit größte Forschungszentrum für Binnengewässer. Es verbindet Grundlagen- und Vorsorgeforschung, bildet den wissenschaftlichen Nachwuchs aus und berät Politik und Gesellschaft in Fragen des nachhaltigen Gewässermanagements. Forschungsschwerpunkte sind u.a. die Langzeitentwicklung von Seen, Flüssen und Feuchtgebieten angesichts sich rasch ändernder Umweltbedingungen, die Renaturierung von Ökosystemen, die Biodiversität aquatischer Lebensräume sowie Technologien für eine ressourcenschonende Aquakultur. Die Arbeiten erfolgen in enger Kooperation mit den Universitäten und Forschungsinstitutionen der Region Berlin-Brandenburg und weltweit. Das Leibniz-IGB gehört zum Forschungsverbund Berlin e. V., einem Zusammenschluss von acht natur-, lebens- und umweltwissenschaftlichen Instituten in Berlin. Die vielfach ausgezeichneten Einrichtungen sind Mitglieder der Leibniz-Gemeinschaft. www.igb-berlin.de/

Wissenschaftliche Ansprechpartner:
Dr. Jörg Gelbrecht
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Müggelseedamm 301
12587 Berlin
E-Mail: gelbr@igb-berlin.de
Telefon: +49 (0)30 64181 730

Dr. Dominik Zak
Aarhus University
Vejlsøvej 25
8600 Silkeborg, Denmark
E-Mail: doz@bios.au.dk
Telefon: +45 93508477

Originalpublikation:
Dominik Zak; Tobias Goldhammer; Alvaro Cabezas; Jörg Gelbrecht; Robert Gurke; Carola Wagner; Hendrik Reuter; Jürgen Augustin; Agata Klimkowska; Robert McInnes: Top soil removal reduces water pollution from phosphorus and dissolved organic matter and lowers methane emissions from rewetted peatlands. Journal of Applied Ecology. – 55(2018)1, S. 311-320

Weitere Informationen:
http://www.igb-berlin.de

Quelle: idw

(nach oben)


Sicherer Umgang mit Druckgasbehältern

Elke Biesel Pressestelle
Deutsche Gesetzliche Unfallversicherung – DGUV

Zerknallende Druckgasbehälter können Einsatzkräfte bei der Brandbekämpfung gefährden. Die Deutsche Gesetzliche Unfallversicherugn (DGUV) hat in Zusammenarbeit mit der Bundesanstalt für Materialforschung und -prüfung (BAM) und anderen Partnern Merkblätter erarbeitet für einen sicheren Umgang mit Druckgasbehältern.

Druckgasbehälter wie Flüssiggas- oder Acetylenflaschen können Einsatzkräfte bei der Brandbekämpfung ernsthaft gefährden, denn bei zu starker Erwärmung besteht die Gefahr, dass sie „zerknallen“. Der Zerknall einer Flüssiggas- oder Acetylenflasche geht mit einer Druckwelle, einem Feuerball und Trümmerflug einher. Solche Ereignisse haben in der Vergangenheit schon häufig zu schweren oder tödlichen Verletzungen geführt. Um das Risiko im Einsatz zu minimieren, haben Fachleute unter der Leitung der Deutschen Gesetzlichen Unfallversicherung (DGUV) Einsatzhinweise erarbeitet. Sie sind in zwei überarbeiteten DGUV Informationen zusammengefasst.

Die Merkblätter geben konkrete Handlungsempfehlungen für verschiedene Brandszenarien, an denen Flüssiggas- bzw. Acetylenflaschen beteiligt sind. Teilweise stimmen die getroffenen Empfehlungen mit denen aus früheren Merkblättern überein. In anderen Fällen weichen sie deutlich von früheren Einsatzhinweisen ab. So wird beispielsweise im Merkblatt zu Acetylenflaschen im Brandeinsatz dringend davon abgeraten, durch den Brand erhitzte Acetylenflaschen zu bewegen, wie zum Beispiel diese zum Kühlen in ein Wasserbad zu transportieren. Neben praktischen Hinweisen vermitteln die Merkblätter auch Hintergrundwissen, um die Akzeptanz der getroffenen Handlungsempfehlungen zu erhöhen.

Die fachliche Grundlage der Empfehlungen bilden langjährige wissenschaftliche Untersuchungen der Bundesanstalt für Materialforschung und -prüfung (BAM). Für eine möglichst umfassende Betrachtung der Problemstellung haben neben der DGUV und der BAM auch die Gasverbände IGV (Industriegaseverband) und DVFG (Deutscher Verband Flüssiggas), verschiedene Feuerwehrunfallkassen (HFUK Nord – Hanseatische Feuerwehr Unfallkasse Nord, FUK Mitte – Feuerwehr-Unfallkasse Mitte), die Firma Linde AG, die Berliner Feuerwehr sowie die Vereinigung zur Förderung des dt. Brandschutzes – vfdb e.V. (Referat 10 „Umweltschutz“) an der Erarbeitung mitgewirkt.

Die Empfehlungen zu wärmebeaufschlagten Acetylenflaschen wurden unter Beteiligung der BAM bereits vor einigen Jahren in den „Operational guidance for the fire and rescue service“ für Feuerwehren in Großbritannien umgesetzt.

Die beiden DGUV Informationen stehen in der Publikationsdatenbank der DGUV ab sofort zur Verfügung, die gedruckten Fassungen sind voraussichtlich ab Mitte November lieferbar:

• Umgang mit ortsbeweglichen Flüssiggasflaschen im Brandeinsatz (DGUV Information 205-030)
• Umgang mit Acetylenflaschen im Brandeinsatz (DGUV Information 205-029)

Weitere Informationen:
http://publikationen.dguv.de/
https://www.bam.de/Content/DE/Paper-des-Monats/2018/2018-03-01-paper-des-monats-…

Quelle: idw

(nach oben)


Mikroplastik in Lebensmitteln – viele ungeklärte Fragen bei Wissenschaft und Öffentlichkeit

Dr. Suzan Fiack Presse- und Öffentlichkeitsarbeit
Bundesinstitut für Risikobewertung (BfR)

BfR-Verbrauchermonitor: Mehr als die Hälfte der Bevölkerung findet Mikroplastik in Lebensmitteln beunruhigend

Insgesamt schätzen 75 Prozent der Bevölkerung Lebensmittel als sicher ein. Mikroplastik in Lebensmitteln bewegt jedoch immer mehr Deutsche. Wie der aktuelle BfR-Verbrauchermonitor – eine regelmäßige Bevölkerungsumfrage des Bundesinstituts für Risikobewertung (BfR) – zeigt, wird das Thema bekannter und beunruhigt die Bevölkerung stärker als vor einem halben Jahr: Waren zuvor 45 Prozent besorgt über Mikroplastik in Lebensmitteln, sind es nun mit einem Anstieg von 11 Prozentpunkten mehr als die Hälfte der Befragten. Für das BfR ist besonders interessant, ob die öffentliche Wahrnehmung von der wissenschaftlichen Einschätzung abweicht. Aus den bisherigen Studien lässt sich nicht ableiten, wie viele Mikroplastikpartikel die Verbraucher beispielsweise durch den Verzehr von Fisch wirklich aufnehmen. Nachgewiesen wurde Mikroplastik vor allem im Magen-Darm-Trakt von Fischen, der in der Regel aber nicht verzehrt wird. „Um das tatsächliche Risiko von Mikroplastik in der Nahrungskette zu bewerten, benötigen wir verlässlichere Daten, sagt BfR-Präsident Professor Dr. Dr. Andreas Hensel. „Das BfR führt derzeit Studien zur Aufnahme von Mikroplastikpartikeln über den Darm und den möglichen gesundheitlichen Auswirkungen durch.“

BfR-Verbrauchermonitor 08/2018
https://www.bfr.bund.de/cm/350/bfr-verbrauchermonitor-08-2018.pdf

Fragen und Antworten zu Mikroplastik
https://www.bfr.bund.de/de/fragen_und_antworten_zu_mikroplastik-192185.html

Ob Antibiotikaresistenzen oder Mikroplastik – welche gesundheitlichen Risiken sind Verbraucherinnen und Verbrauchern bekannt und was beunruhigt sie? Als repräsentative Verbraucherbefragung liefert der BfR-Verbrauchermonitor in halbjährlichem Abstand Einsichten zu der Frage, wie die deutschsprachige Bevölkerung gesundheitliche Risiken wahrnimmt. Dafür werden etwa 1.000 Personen, die in Privathaushalten in Deutschland leben und mindestens 14 Jahre alt sind, im Auftrag des BfR telefonisch interviewt.

Nach wie vor nehmen die Befragten Rauchen, Klima- und Umweltbelastung sowie eine ungesunde oder falsche Ernährung als die größten gesundheitlichen Risiken wahr. Fragt man nach ausgewählten Themen, so führen Salmonellen, gentechnisch veränderte Lebensmittel, Antibiotikaresistenzen und Rückstände von Pflanzenschutzmitteln immer noch die Bekanntheitsskala an – gefolgt von Mikroplastik in Lebensmitteln, Aluminium in Lebensmittelverpackungen und Kohlenmonoxid. Dabei sind Antibiotikaresistenzen und Mikroplastik die Themen, die bei den meisten Befragten für Beunruhigung sorgen. Im Vergleich zur letzten Umfrage ist die Bevölkerung deutlich besorgter um Mikroplastik: Hier ist die Beunruhigung um 11 Prozentpunkte gestiegen. Auch Salmonellen findet mehr als die Hälfte besorgniserregend. Kohlenmonoxid – in diesem Jahr erstmalig abgefragt und dem Großteil der Befragten bekannt – hält im Vergleich dazu nur ein gutes Drittel für beunruhigend.

Spielzeug wird im Vergleich zur Vorgängerbefragung als genauso sicher eingeschätzt. Bei Textilien und Kosmetika ist das Sicherheitsgefühl leicht gesunken. Weiterhin vertrauen die Befragten den staatlichen Stellen in Deutschland überwiegend, dass diese die Gesundheit von Verbrauchern schützen.
Der BfR-Verbrauchermonitor widmet sich einerseits Themen, die in der Öffentlichkeit eine große Aufmerksamkeit erhalten. Andererseits analysiert er Fragen, die bisher weniger im öffentlichen Fokus stehen, aber ebenfalls relevant sind, wie beispielsweise Campylobacter und Schimmelpilzgifte in Lebensmitteln oder die neuartige Methode des „Genome Editings“ zur zielgerichteten Veränderung des Erbguts. Wie schon in der ersten Umfrage im Jahr 2018 sind diese Themen in der öffentlichen Wahrnehmung wenig sichtbar und werden daher auch nicht als besonders beunruhigend angesehen. Ebenso spielt Lebensmittelhygiene zu Hause nur eine geringe Rolle im Bewusstsein von Verbraucherinnen und Verbrauchern.
Über das BfR

Das Bundesinstitut für Risikobewertung (BfR) ist eine wissenschaftlich unabhängige Einrichtung im Geschäftsbereich des Bundesministeriums für Ernährung und Landwirtschaft (BMEL). Es berät die Bundesregierung und die Bundesländer zu Fragen der Lebensmittel-, Chemikalien- und Produktsicherheit. Das BfR betreibt eigene Forschung zu Themen, die in engem Zusammenhang mit seinen Bewertungsaufgaben stehen.

Quelle: idw

(nach oben)


Studie untersucht Einfluss von Ernährung und Bewegung auf die Gesundheit

Mechtild Freiin v. Münchhausen Referat für Kommunikation und Marketing
Leibniz Universität Hannover

Teilnehmerinnen und Teilnehmer gesucht

Aktuelle Studie „BEGinn“: Mehr Gesundheit und Wohlbefinden durch Bewegung und Ernährung

Ernährung und Bewegung nehmen in vielfältiger Weise Einfluss auf die Gesundheit, das Wohlbefinden und die Prävention chronischer Erkrankungen. Körperliche Aktivität kann einer altersbedingten Abnahme von Muskulatur und Knochendichte entgegenwirken sowie die Funktion des Immunsystems verbessern. In welchem Umfang bisher körperlich inaktive Personen hiervon profitieren, ist bisher nicht ausreichend untersucht. Ebenso unklar ist, welchen Beitrag zusätzliche nutritive Maßnahmen leisten. Das Forschungsprojekt „BEGinn“ an der Leibniz Universität Hannover soll diese Wissenslücke schließen und sucht für die Studie Teilnehmerinnen und Teilnehmer im Alter von 50 bis 70 Jahren. Weitere Informationen zur Studie unter http://www.beg.uni-hannover.de

Unter der Leitung von Prof. Andreas Hahn aus dem Institut für Lebensmittelwissenschaft und Humanernährung und Prof. Karsten Krüger, Institut für Sportwissenschaft, werden die Auswirkungen eines Trainingsprogramms allein oder in Kombination mit einer Ernährungsumstellung sowie der Gabe von Omega-3-Fettsäuren auf immunologische, ernährungs- und sportwissenschaftliche Parameter untersucht.

Teilnehmen können Frauen und Männer im Alter von 50 bis 70 Jahren, die keinen regelmäßigen sportlichen Aktivitäten -wie beispielsweise Schwimmen oder Joggen – nachgehen. Innerhalb eines zwölfwöchigen Studienverlaufs absolvieren die Studienteilnehmerinnen und -teilnehmer zweimal pro Woche eigenständig einen Fitness-Zirkel in einem kooperierenden Fitnessstudio. Eine der Studiengruppe erhält zusätzlich eine Ernährungsberatung, eine weitere Gruppe ein Nährstoffsupplement mit Omega-3-Fettsäuren.

Bei Interesse an der Studienteilnahme wenden Sie sich bitte an Paulina Wasserfurth, Institut für Lebensmittelwissenschaft und Humanernährung, Telefon 0511 762 3733, E-Mail: wasserfurth@nutrition.uni-hannover.de

Quelle: idw

(nach oben)


Wie die Alpen von unten aussehen

Meike Drießen Dezernat Hochschulkommunikation
Ruhr-Universität Bochum

Was wir von den Bergen der Alpen sehen können, ist noch lange nicht alles: Ähnlich wie Eisberge, deren größerer Teil unter Wasser liegt, haben die Alpen eine Wurzel, die weit in die Tiefe bis hinein in den Erdmantel reicht. Um sie zu erforschen, werten Geologinnen und Geologen der Ruhr-Universität Bochum gemeinsam mit Kollegen aus ganz Europa Erdbebenwellen aus aller Welt aus. Für das Projekt Alp Array haben sie rund 600 Seismometer im gesamten Alpenraum installiert.

Wellen breiten sich unterschiedlich schnell aus
Hintergrund der Forschung ist, dass sich Erdbebenwellen in verschiedenen Gesteinsarten unterschiedlich schnell ausbreiten. Aus ihrer Geschwindigkeit lassen sich also Rückschlüsse darauf ziehen, durch welche Art von Untergrund sie gelaufen sein müssen.

„Die kontinentale Erdkruste und damit auch die Wurzel der Berge besteht vorrangig aus Gestein geringerer Dichte, wie zum Beispiel Kalkstein, Granit, Gneis oder Sedimenten. Der darunterliegende Erdmantel besteht eher aus dichterem Gestein“, beschreibt Dr. Kasper Fischer, Leiter des Seismologischen Observatoriums der RUB, das Prinzip.

Daten werden zentral gesammelt
Nach dem Projektstart im Jahr 2015 war das dichte Netz aus Messpunkten zwei Jahre später fertig aufgebaut. Alle Daten sämtlicher Messpunkte werden an zentralen Stellen in Europa gesammelt und können jedem, der ihre Nutzung beantragt, zur Verfügung gestellt werden.

„Kleinere auswertbare Erdbeben finden fast täglich statt, größere Ereignisse natürlich wesentlich seltener“, sagt Kasper Fischer. Je nachdem, wo ein Erdbeben seinen Ursprung hat, kommen seine Wellen früher oder später in der Alpenregion an und verlaufen aus verschiedenen Richtungen durch das Messnetz.

Detaillierte Auswertung
Besonders interessant sind für die Forscher die sogenannten Raumwellen. Diese Wellen gehen kugelförmig vom Ursprung eines Bebens aus, der meist in großer Tiefe liegt, und verbreiten sich durch den Erdkörper. Im Gestein des Erdmantels breiten sie sich schneller aus als in der Erdkruste. Durch die Wurzel der Alpen laufen sie also auch langsamer als durch das umgebende Gestein. Das enge Netz des Alp Array erlaubt es, die Informationen, die in den Oberflächenwellen enthalten sind, ebenfalls detailliert auszuwerten.

Erkenntnisse zur Dynamik der Kontinentalplatten
Über die Kenntnis des Untergrunds der Alpen hinaus erhoffen sich die am Projekt beteiligten Forscherinnen und Forscher Rückschlüsse auf die Dynamik der Kontinentalplatten Afrikas und Europas, deren Kollision zur Bildung der Alpen geführt hat. „Nach der gängigen Auffassung taucht Europa unter die adriatische Platte ab“, erläutert Kasper Fischer, „aber ganz so einfach ist das nicht. Vielleicht ist es auch umgekehrt, oder an verschiedenen Stellen unterschiedlich.“ Mehr Wissen über den Untergrund in dieser Region erlaubt dann möglicherweise auch Rückschlüsse auf Strömungen im Erdmantel und die genauen Folgen der Bewegungen der Kontinente.

Initiative Alp Array
Die europäische Initiative Alp Array ist eingebunden in das Schwerpunktprogramm 2017 „4D-MB – Gebirgsbildungsprozesse in vier Dimensionen“, das die Deutsche Forschungsgemeinschaft fördert. Mehr als 50 Einrichtungen aus 18 Ländern sind zurzeit daran beteiligt.

Wissenschaftliche Ansprechpartner:
Dr. Kasper Fischer
Institut für Geologie, Mineralogie und Geophysik
Fakultät für Geowissenschaften
Ruhr-Universität Bochum
Tel.: 0234 32 27574
E-Mail: kasper.fischer@rub.de

Weitere Informationen:
http://news.rub.de/wissenschaft/2018-10-31-seismologie-wie-die-alpen-von-unten-a… ausführlicher Beitrag in Rubin

Quelle: idw

(nach oben)


Eine Tasse Kaffee oder Tee am Tag fördert die Sportlichkeit

Sabine Ranke-Heinemann Pressestelle
Australisch-Neuseeländischer Hochschulverbund / Institut Ranke-Heinemann

Zu müde oder zu energielos für sportliche Aktivitäten? Wissenschaftler der University of Queensland haben herausgefunden, dass Tee oder Kaffee helfen können, in Schwung zu kommen. Frauen, die täglich nur eine Tasse davon trinken, sind häufig aktiver als solche, die darauf verzichten.

Eine Studie der School of Human Movement and Nutrition Sciences der University of Queensland ergab, dass Frauen, die eine oder zwei Tassen Tee oder Kaffee pro Tag trinken, häufiger das empfohlene Level an moderatem bis intensivem Sport absolvieren als jene, die diese Getränke seltener konsumieren.

Dr. Tina Skinner sagt, der Koffeinkonsum durch Kaffee und Tee kann sportliche Aktivitäten von Frauen im mittleren Alter fördern, weil er Müdigkeit und Energielosigkeit reduziert.

„Sportliche Aktivität ist wichtig, um gesund alt zu werden. Müdigkeit und Energielosigkeit halten mittelalte bis alte Frauen oft davon ab, das notwendige Pensum zu schaffen“, so Dr. Skinner.

„Der Konsum von dem natürlich und reichlich in Kaffee und Tee vorkommenden Alkaloid Koffein wurde schon mit verschiedenen gesundheitlichen Nutzen in Verbindung gebracht, etwa einem reduzierten Anstrengungsgefühl bei Bewegung und einer selbstgewählten erhöhten Intensität von sportlichen Übungen“, sagt Dr. Skinner. „Koffein wird auch damit in Verbindung gebracht, das Risiko für Typ-2-Diabetes, Demenz und einige Krebsarten zu reduzieren“.

In der Studie wurden die Gewohnheiten von 7.580 Frauen untersucht, die zwischen 1946 und 1951 geboren wurden und an einer australischen Langzeitstudie zur Frauengesundheit teilnehmen. Die Teilnehmerinnen wurden gebeten, nicht nur ihren durchschnittlichen Tee- und Kaffeekonsum der letzten zwölf Monate zu dokumentieren, sondern auch ihr Bewegungs- und Sportverhalten aus der Vorwoche zu erfassen.

„Kaffee- und Teetrinkerinnen fühlen sich seltener müde und haben mehr Energie“, sagt Dr. Skinner. „Für diejenigen, die eine oder zwei Tassen Kaffee am Tag trinken, ist die Wahrscheinlichkeit 17 Prozent höher, dass sie das empfohlene Level an Bewegung erreichen. Bei denen, die ein bis zwei Tassen Tee am Tag trinken, lag der Wert bei 13 bis 26 Prozent. Sportliche Aktivität ist in jedem Abschnitt des Lebens wichtig. Besonders bei Menschen mittleren Alters sorgt sie für körperliche Funktionalität und Unabhängigkeit und hilft, das Risiko für Altersschwäche möglichst gering zu halten.“

Die Studie wurde im „International Journal of Environmental Reasearch and Public Health“ veröffentlicht.

Weitere Informationen:
Institut Ranke-Heinemann / Australisch-Neuseeländischer Hochschulverbund
Pressestelle Friedrichstr. 95
10117 Berlin
Tel.: 030 209629593
Email: berlin@ranke-heinemann.de

oder

Dr Tina Skinner
+61 7 3346 8810
Email: t.skinner@uq.edu.au
Dani Nash, UQ Communications
Tel.: +61 7 3346 3035
Email: dani.nash@uq.edu.au

Das Institut ist die gemeinnützige Einrichtung zur Förderung des Austausches und der Auslandsstudien insbesondere mit allen Universitäten Australiens und Neuseelands sowie zur Förderung von Wissenschaft und Forschung. In seinen Förderprogrammen stellt es SchülerInnen und Studierenden Unterstützung in der Finanzierung durch Stipendien und Coaching in der Studienberatung und Studienplatzbewerbung zur Verfügung.

Weitere Informationen:
https://www.ranke-heinemann.de

Quelle: idw

(nach oben)


Bio-Sprit aus dem Container

Britta Widmann Kommunikation
Fraunhofer-Gesellschaft

Aus organischen Abfällen, die bisher nicht verwertet wurden, lässt sich Bio-Sprit gewinnen. Eine Technologie dafür haben Forscherinnen und Forscher im EU-Projekt BIOGO entwickelt.

Mehr als vier Milliarden Tonnen Rohöl werden jedes Jahr gefördert. Strom aus Wind-, Solar- und Wasserkraftwerken reicht nicht aus, um fossile Energieträger zu ersetzen. Damit lässt sich im günstigsten Fall der Energiebedarf aller Elektroautos decken und der Wasserstoff für Fahrzeuge mit Brennstoffzellen herstellen. Doch dann fehlt immer noch Benzin für die Verbrennungsmotoren, die noch Jahrzehnte in Betrieb sein werden. Eine nachhaltige Mobilität ist nur möglich, wenn es gelingt, Benzin durch alternative Treibstoffe zu ersetzen.

Eine Technologie zur Erzeugung eines solchen ökologisch unbedenklichen Bio-Sprits haben Wissenschaftlerinnen und Wissenschaftler am Fraunhofer-Institut für Mikrotechnik und Mikrosysteme IMM zusammen mit zwölf Forschungsgruppen aus sieben Ländern im EU-Projekt BIOGO entwickelt. Die Zutaten für den neuen Treibstoff kommen aus dem Wald: »Holzabfälle und Baumrinden sind europaweit in großen Mengen verfügbar, werden bisher aber kaum genutzt. Das macht sie zu einem idealen Rohstoff – man muss sie nicht extra anbauen und tritt daher auch nicht in Konkurrenz zur Nahrungsmittelproduktion«, erklärt Prof. Gunther Kolb vom Fraunhofer IMM, der das EU-Projekt koordiniert hat. Die Nutzung der Holzabfälle ist zudem klimaneutral: Verwandelt man sie in einen Treibstoff und verbrennt diesen, so wird nur Kohlendioxid freigesetzt, das die Bäume der Atmosphäre zuvor beim Wachsen entzogen haben. Es gelangen daher keine zusätzlichen Treibhausgase in die Atmosphäre. Und dann kann der Treibstoff aus Holzabfällen überall hergestellt werden, wo Bäume wachsen. Man muss ihn nicht – wie Erdöl – von der Quelle erst zur Raffinerie und zu den Tankstellen transportieren. »Ein wichtiger Baustein des BIOGO-Konzepts ist eine dezentrale Produktion«, betont Kolb. »Um dies zu realisieren, haben wir mobile Produktionseinheiten entwickelt, die sich in Containern unterbringen und dort installieren lassen, wo sie gerade gebraucht werden.«

Mobile Produktionseinheiten
Der Prototyp der neuen Anlage zur Gewinnung von Bio-Sprit steht auf dem Hof hinter dem Fraunhofer-Institut: In dem weißen Container werden Abfallprodukte der Holzindustrie in hochwertiges Benzin verwandelt. »Ziel des BIOGO-Projekts war es, eine Anlage zu entwickeln, die sich in einen 40-Fuß-Container mit den Standardmaßen 12 mal 3 mal 3 Metern unterbringen lässt, der alle Verfahrens- und Prozessschritte beinhaltet«, erläutert Kolb das Ergebnis der vierjährigen intensiven Forschungs- und Entwicklungsarbeit. »Gleichzeitig sollte das Herstellungsverfahren möglichst ökologisch und ressourcenschonend sein.«

In einer ersten Prozessstufe, die von dem italienischen Unternehmen Spike Renewables entwickelt wurde, erhitzt man die Holzreste, bis sich ein dunkles, zähflüssiges Pyrolyseöl bildet. Dieses lässt sich in der mobilen Anlage weiterverarbeiten. Die Reaktionskammern hierfür, die Mikroreaktoren, haben die Forschenden am Fraunhofer-Institut in Mainz entwickelt. Der erste Reaktor verwandelt das Pyrolyseöl unter Zufuhr von Wärme, Luft und Wasserdampf in Synthesegas. Aus dem wird im zweiten Schritt Methanol gewonnen. Entzieht man diesem den Sauerstoff, entsteht synthetisches Benzin. »Die Herausforderung lag darin, den Prozess so zu optimieren, dass am Ende ein Treibstoff herauskommt, der sich chemisch nicht von Normalbenzin unterscheidet«, berichtet Kolb.

Nanokatalysatoren sparen Ressourcen
Um die chemischen Abläufe zu beschleunigen, werden Katalysatoren benötigt. Für deren Herstellung braucht man bisher große Mengen Edelmetall und seltene Erden. Im BIOGO-Projekt haben die Wissenschaftlerinnen und Wissenschaftler der Firma Teer Coatings eine Methode entwickelt, mit der sich winzige Cluster von katalytisch aktiven Substanzen auf Oberflächen aufbringen lassen. Auf diese Weise entstehen leistungsfähige und ressourcenschonende Nanokatalysatoren.

Der letzte Schritt bei der Entwicklung der mobilen Produktionsanlage bestand darin, die gesamte Technik in einen Container zu integrieren, der alle Anforderungen an Sicherheit und Brandschutz erfüllt. Das Know-how für den Bau der Anlage steuerten Fraunhofer-Forschende und der Partner Microinnova Engineering aus Österreich bei. Die Containertechnik, EcoTrainer@, stammt von der Firma Evonik. Der Prototyp ist bereits so konzipiert, dass auch größere Reaktoren darin Platz finden. In den kommenden Jahren wollen die BIOGO-Teams die Anlage weiterentwickeln. Ziel ist es, bis zu 1000 Liter Ökotreibstoff am Tag zu produzieren.

Gibt es Benzin also schon bald nicht mehr an der Tankstelle, sondern im Wald am Container? Kolb antwortet: »Das hängt von den politischen Rahmenbedingungen ab. Bei den derzeitigen Ölpreisen ist die neue Technik nicht konkurrenzfähig. Entscheidend wird sein, ob wir in Europa wirklich von den fossilen Rohstoffen wegkommen möchten und dafür bereit sind, Ökotreibstoffe von der Steuer zu befreien oder ihre Herstellung zu subventionieren.«

Das Know-how für die Gewinnung von nachhaltigem Treibstoff ist dank BIOGO vorhanden. Da der Holz-Sprit dieselben chemischen Eigenschaften hat wie klassisches Benzin, kann man ihn zumischen oder nach und nach komplett auf den neuen Rohstoff umsteigen. Bis es so weit ist, möchten das Mainzer Forscherteam die dezentral und flexibel einsetzbaren Container auch für andere Anwendungen nutzen: Das Prinzip der Mini-Fabrik ist etwa für die chemische und die petrochemische Industrie hochinteressant. So könnten Chemieunternehmen Container nutzen, um ihre Prozesse zu flexibilisieren und schneller auf Kundenwünsche zu reagieren.

Weitere Informationen:
https://www.fraunhofer.de/de/presse/presseinformationen/2018/november/bio-sprit-…

Quelle: idw

(nach oben)


Krähen stellen Werkzeuge aus mehreren Komponenten her

Dr. Sabine Spehn Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Ornithologie

Ein internationales Team von Wissenschaftlern des Max-Planck-Instituts für Ornithologie in Seewiesen und der Universität Oxford haben herausgefunden, dass Geradschnabelkrähen mehrere, für sich alleine zu kurze Elemente kombinieren, um an einen Leckerbissen heran zu kommen – eine Fähigkeit, die bisher nur bei Menschen und Menschenaffen beobachtet wurde. Die Krähen können also neuartige Probleme schnell und flexibel lösen. Welche Vorgänge dabei im Gehirn ablaufen, ist jedoch noch unklar.

Das Verbinden mehrerer einzelner Komponenten zu einem neuen, funktionsfähigen Werkzeug wurde bisher nur bei Menschen und Affen beobachtet. Anthropologen sehen die Entstehung dieser Fähigkeit bei unseren Vorfahren als wichtigen Schritt in der Evolution des menschlichen Gehirns. Auch in der menschlichen Indiviualentwicklung treten ähnliche Fähigeiten erst spät auf. Babys beginnen ungefähr im Alter von 18 Monaten, Werkzeuge zu benutzen. Jedoch fangen sie erst im Alter von ca. fünf Jahren an, neue Werkzeuge zu erfinden, um ein bestimmtes Problem zu lösen. Das Gehirn muss sich die neuen Objekte dafür vermutlich zunächst in Gedanken vorstellen und dann die Ausführung planen. Archäologische Funde deuten darauf hin, dass Verbundwerkzeuge erst spät in der kulturellen Entwicklung des Menschen aufgetaucht sind und möglicherweise mit der Entwicklung von komplexem Bewusstsein und Sprache einhergehen.

Für geschickten Werkzeuggebrauch sind auch Geradschnabelkrähen (Corvus moneduloides) bekannt. Wissenschaftler um Auguste von Bayern vom Max-Planck-Institut für Ornithologie Seewiesen und Alex Kacelnik von der Universität Oxford wollten nun wissen, ob die Krähen auch in der Lange sind, Verbundwerkzeuge herzustellen, um an Futter außer Reichweite zu gelangen.

Dazu haben sie in ihrer Studie, die heute in der Fachzeitschrift Scientific Reports erschien, acht Geradschnabelkrähen eine Kiste präsentiert, die diese zuvor noch nie gesehen hatten. Sie enthielt einen kleinen Behälter mit einem Leckerbissen, der hinter einer durchsichtigen Tür mit einem Spalt für die Schnäbel nicht zu erreichen war. Zu Beginn der Versuchsreihe stand den Tieren ein langer Stab zur Verfügung, den sie durch den Spalt in die Kiste stecken konnten, um damit das Futter durch eine seitliche Öffnung heraus zu schieben. Alle acht Vögel schafften das ohne Schwierigkeiten. Dann platzierten die Wissenschaftler das Futter nach hinten in die Box und stellten den Krähen verschiedene längliche und hohle Elemente zur Verfügung, die diese zusammenstecken konnten. Für sich alleine waren sie aber zu kurz, um bis zum Futter zu reichen.

Am Ende des Experiments mit fünf Schwierigkeitsstufen blieb immerhin noch ein Vogel übrig, der Werkzeuge aus drei und sogar vier Einzelteilen bastelte. „Dieses Ergebnis ist bemerkenswert, denn die Geradschnabelkrähen bekamen keine Hilfe und auch kein Training, um diese Werkzeuge zu bauen, sie haben ganz alleine herausgefunden, wie sich das Problem lösen lässt“, sagt Auguste von Bayern, Erstautorin der Studie.

Die zugrundeliegende mentale Verarbeitung konnten die Forscher mit diesem Versuch jedoch nicht klären. Alex Kacelnik von der Universität Oxford sagt: „Die Ergebnisse zeigen, dass diese Tiere ausgeprägte flexible Fähigkeiten haben, mit denen sie in der Lage sind, neuartige Probleme schnell zu lösen. Eventuell simulieren sie das Problem, in dem sie mögliche Abläufe im Gehirn wieder und wieder durchspielen. Haben sie eine funktionierende Möglichkeit entdeckt, führen sie diese dann aus.“

Die Tatsache, dass Geradschnabelkrähen Verbundwerkzeuge erstellen können, bedeutet aber nicht, dass die zugrunde liegenden Prozesse im Gehirn die gleichen sein müssen, wie bei Menschen oder Menschenaffen. Für die Wissenschaftler eröffnet sich aber damit eine Möglichkeit, die gedanklichen Prozesse, die für das Erfinden und den Bau von neuen Werkzeugen nötig sind, weiter zu erforschen.

Wissenschaftliche Ansprechpartner:
Dr. Auguste von Bayern
Max-Planck-Institut für Ornithologie, Seewiesen
Email: avbayern@orn.mpg.de
Telefon: +49 178 555 333 9

Originalpublikation:
A.M.P. von Bayern, S. Danel, A.M.I. Auersperg, B. Mioduszewska, A. Kacelnik. Compound tool construction by New Caledonian crows. Scientific Reports, 24. Oktober 2018.
www.nature.com/articles/s41598-018-33458-z (frei verfügbar)

Weitere Informationen:
https://www.youtube.com/watch?v=EryZPmOxwC0

Quelle: idw

(nach oben)


Frauen an der Spitze bringen Teams zu besseren Leistungen

Mark Fallak Presse und Kommunikation
IZA – Institut zur Zukunft der Arbeit

Arbeitsgruppen unter weiblicher Leitung erzielen bessere Prüfungsergebnisse. Trotzdem beurteilen männliche Teammitglieder die Führungsleistung von Frauen schlechter. Das sind die Ergebnisse einer Studie, die das Bonner Forschungsinstitut zur Zukunft der Arbeit (IZA) jetzt veröffentlicht hat. Grundlage war ein breit angelegtes Teamwork-Feldexperiment an einer italienischen Universität.

Das Experiment umfasste 430 Studierende, die sich freiwillig entschieden hatten, einen Teil ihrer Prüfung als Teamarbeit zu absolvieren. Die Zusammensetzung der Dreierteams und die Führungsrolle wurden ausgelost. So konnten die Forscher den Effekt unterschiedlicher Geschlechterkonstellationen in einem realen Arbeitsumfeld messen. Bislang waren Teamwork-Experimente meist nur unter Laborbedingungen durchgeführt worden.

Die Teamleitungen hatten die Aufgabe, gemeinsame Arbeitstreffen zu organisieren und die Vorbereitung auf die Abschlussprüfung zu koordinieren. Bei gutem Abschneiden ihres Teams wurden sie für ihren Mehraufwand mit Extrapunkten belohnt.

Trotz gleichem Zeiteinsatz erzielten die frauengeführten Teams signifikant bessere Abschlussnoten. Ausschlaggebend waren die individuellen Leistungen der Teammitglieder. Insbesondere Frauen liefen unter weiblicher Führung zu besserer Form auf. Dieser Effekt war den Teamleiterinnen gar nicht bewusst – sie beurteilten ihre eigene Führungsleistung nicht besser als männliche Teamleiter.

Die Teamleiterinnen selbst erbrachten hingegen schwächere Prüfungsleistungen als weibliche Teammitglieder. Die Forscher vermuten, dass Frauen mehr Zeit zum Wohle der Gruppe investierten, etwa durch betreuende und koordinierende Tätigkeiten, auch wenn dabei ihr eigenes Lernpensum zu kurz kam. Dafür spricht auch, dass Teamleiterinnen ihre Aufgabe als besonders zeitintensiv empfanden und das Engagement der anderen Teammitglieder kritischer beurteilten als Männer.

Die Teilnehmerbefragung im Anschluss an das Experiment ergab außerdem, dass die weiblichen Teamleitungen von männlichen Teammitgliedern tendenziell schlechter bewertet wurden. „Männer scheinen immer noch Vorbehalte gegen weibliche Führung zu haben, obwohl – oder vielleicht gerade weil – diese sich als besonders effektiv erweisen kann“, sagt IZA-Fellow Vincenzo Scoppa von der Universität Kalabrien, der die Studie gemeinsam mit Maria De Paola (ebenfalls Universität Kalabrien und IZA) sowie Francesca Gioia von der Universität Mailand verfasst hat.

Den Autoren zufolge profitierten frauengeführte Teams im untersuchten Beispiel vom uneigennützigen Engagement der Teamleiterinnen sowie deren Organisations- und Motivationstalent. Diese „typisch weiblichen“ Eigenschaften gewännen in modernen, von Kooperation geprägten Arbeitsumgebungen zunehmend an Bedeutung. In anderen Kontexten könnten jedoch auch „typisch männliche“ Führungseigenschaften wie Selbstbewusstsein und Durchsetzungsvermögen durchaus vorteilhaft sein, heißt es in der Studie.

Download des IZA-Forschungspapiers (nur in englischer Sprache verfügbar):
Maria De Paola, Francesca Gioia, Vincenzo Scoppa:
„Teamwork, Leadership and Gender“
IZA Discussion Paper No. 11861
http://ftp.iza.org/dp11861.pdf

Pressekontakt:
Mark Fallak
Head of Communications, IZA
E-Mail: fallak@iza.org
Tel.: (0228) 3894-223

Quelle: idw

(nach oben)


Hohe Akzeptanz für Seilbahnen in Innenstädten

Michael Brauns Pressestelle
Universität der Bundeswehr München

Wie können Städte den weiter steigenden Verkehr besser in den Griff bekommen?

Das Transportmittel der Zukunft für Innenstädte könnte die Seilbahn sein. Metropolen wie Ankara, La Paz oder Portland nutzen sie bereits als Verkehrsmittel. In München steht dies auch zur Diskussion. Leise, umweltfreundlich und billiger als die U-Bahn.

Der Verkehrsexperte Prof. Klaus Bogenberger von der Universität der Bundeswehr München untersuchte mit seinem Team die Akzeptanz von urbanen Seilbahnen bei den Einwohnern im Großraum München.

Die Umfrage wurde vom 02.05.2018 bis 15.06.2018 online durchgeführt. Insgesamt haben mehr als 700 Personen an der Umfrage teilgenommen, von denen 70% angegeben haben, in München zu wohnen oder zu arbeiten. Zwischen 9 und 86 Jahren waren alle Altersgruppen vertreten. Das Durchschnittsalter der Teilnehmer liegt bei 40,7 Jahren.

Eine große Mehrheit von 87% gab an urbane Seilbahnen nutzen zu wollen. 7,3% der Befragten gaben an, im Allgemeinen nicht dazu bereit zu sein den öffentlichen Nahverkehr zu nutzen. Zudem gaben weitere 5,7% an, im Allgemeinen nicht bereit zu sein eine urbane Seilbahn zu nutzen.
Als Hauptgründe für die Ablehnung einer Seilbahn wurden die Zerstörung des Stadtbilds sowie Angst (Höhenangst und Platzangst) genannt. Den übrigen Teilnehmern wurden verschiedene Szenarien vorgestellt, in denen sie sich zwischen zwei Routenvorschlägen entscheiden müssten: Eine mit Seilbahn und eine ohne. Die Szenarien unterschieden sich neben den Transportmodi auch in Fahrtzeit und in Anzahl der Umstiege.

Lieber Seilbahn als Bus
Im Augenblick wird der Streckenabschnitt zwischen Oberwiesenfeld und Studentenstadt von verschiedenen Bussen bedient. Im direkten Vergleich zwischen einer Strecke mit dem Bus oder mit einer Seilbahn haben 85 % der Teilnehmer angegeben, dass sie bei gleicher Reisezeit eine Seilbahnfahrt einer Busfahrt vorziehen würden. Selbst wenn der Bus bis zu sechs Minuten schneller ist als die Seilbahn, würden die Teilnehmer mit einer Wahrscheinlichkeit von 50 % die Seilbahn bevorzugen.

Knapp ein Drittel (32,7%) der Teilnehmer gaben an, dass sie sogar einen zusätzlichen Umstieg (von Seilbahn auf Tram oder U-Bahn) in Kauf nehmen würden, um eine Busfahrt bei gleicher Reisedauer zu vermeiden.

Wenn durch die Seilbahnfahrt ein Umstieg vermieden werden kann (z.B. von U-Bahn zu U-Bahn, oder von Tram zu U-Bahn) würden bei gleicher Reisezeit 90,8% die Seilbahn bevorzugen. Bei einer Zeitdifferenz bis knapp 8 Minuten ist die Wahrscheinlichkeit, dass ein Fahrgast die Seilbahn nutzt gleich der Wahrscheinlichkeit, dass er eine Alternativroute wählt, bei der er von U-Bahn zu U-Bahn wechseln muss.

Universität der Bundeswehr München
Michael Brauns
Pressesprecher
Werner Heisenberg Weg 39
85577 Neubiberg
Tel.: 089/6004-2004
Fax: 089/6004-2009

Quelle: idw

(nach oben)


Blutdruckgeräte im Test – oder: wer prüft eigentlich was?

Dr. Bettina Albers Geschäftsstelle
Deutsche Hochdruckliga

Die Stiftung Warentest hat heute die Ergebnisse des neuen Tests von Blutdruckmessgeräten veröffentlicht. Von den getesteten Geräten wurde nur ein Gerät für gut befunden. Die Messgenauigkeit der geprüften Geräte wurde maximal mit befriedigend eingestuft. Die Deutsche Hochdruckliga verwendet ein anderes Verfahren zur Bewertung der Qualität von Blutdruckmessgeräten. Beide Verfahren sind nicht vergleichbar. Dennoch begrüßt die Hochdruckliga die Veröffentlichung der Stiftung Warentest. „Dadurch wird die Blutdruckmessung in den Fokus der öffentlichen Wahrnehmung gerückt.“

Die Stiftung Warentest ist die bekannteste gemeinnützige Verbraucherorganisation in Deutschland. Sie testet und vergleicht verschiedene Produkte und hat sich damit deutschlandweit einen Namen gemacht. Heute wurden die Ergebnisse eines neuen Tests von Blutdruckmessgeräten zur Selbstmessung veröffentlicht [1] – die Testsieger sind jedoch nicht deckungsgleich mit den Geräten, die das Prüfsiegel der Deutschen Hochdruckliga e.V. DHL® | Deutschen Gesellschaft für Hypertonie und Prävention erhalten haben [2]. Was viele nicht wissen: Die Deutsche Hochdruckliga prüft auf Antrag der Gerätehersteller Blutdruckmessgeräte und verleiht ein Prüfsiegel für deren Messgenauigkeit. Die Tests finden durch unabhängige Prüfinstitute statt, welche dem Auftraggeber nicht benannt werden. Das Prüfinstitut muss bei seiner Validierung detaillierte Vorgaben bei der Prüfungsvorbereitung, Prüfungsdurchführung und Prüfungsauswertung beachten [3].

Wie lässt sich nun das Prüfsiegel der Deutschen Hochdruckliga mit dem Test der Stiftung Warentest vergleichen? Ganz einfach, gar nicht: Beide Organisationen testen anders und letztlich auch etwas Anderes. Die Deutsche Hochdruckliga testet einzig und allein die Messgenauigkeit, die Stiftung Warentest bewertet aber zusätzlich auch die Handhabung und Störanfälligkeit. Die Handhabung fließt sogar mit 30% in das Gesamtergebnis ein. Dazu zählen die Verständlichkeit der Gebrauchsanleitung, Anzeigen und Bedienelemente und die Batterie-/ bzw. Akkulaufzeit. Zur Störanfälligkeit gehört beispielsweise ein Falltest aus Tischhöhe. Es wird geschaut, ob das Gerät nach zwölf Stürzen aus Tischhöhe noch korrekt misst.

„All das steht nicht im Fokus unserer Testung, zumal viele dieser Dinge auch subjektiv sind. Der eine Anwender findet die eine Bedienoberfläche nutzerfreundlich, der andere präferiert eine andere. Für den anderen ist ein Messwertspeicher für zwei Personen wichtig. Der andere trägt die Werte sofort nach der Messung graphisch in sein Blutdrucktagebuch ein. Warum in einen Test einfließen muss, wie viel Schaden das Gerät nimmt, wenn es vom Tisch fällt, ist schwer nachzuvollziehen, solange vom Gesetzgeber keine Vorgaben hierzu kommen.“, erklärt Professor Bernhard Krämer, Mannheim, Vorstandsvorsitzender der Deutschen Hochdruckliga e.V. DHL® | Deutschen Gesellschaft für Hypertonie und Prävention „Für uns Mediziner ist die Messgenauigkeit das wichtigste Kriterium. Bei näherer Betrachtung liegen die von der Stiftung Warentest geprüften Oberarmgeräte bei der Messgenauigkeit gar nicht so weit auseinander. Das deckt sich mit unseren eigenen Untersuchungen. Wir verzichten daher bewusst auf eine Benotung der von uns validierten Geräte. Das macht keinen Sinn. Geräte die bei uns nicht gelistet sind, wurden entweder nicht validiert bzw. wurden nicht erfolgreich validiert [4].

Die Hochdruckliga kritisiert auch, dass diese „weichen Kriterien“ vom „harten Kriterium“ der Messgenauigkeit ablenken. Ein Gerät, das nicht ganz so genau misst, aber evtl. einen Sturz vom Tisch gut übersteht und vom Tester als sehr bedienfreundlich eingestuft wird, könnte im Gesamtergebnis noch relativ zufriedenstellend abschneiden. Umgekehrt ist es möglich, dass messgenaue Geräte wegen einer schlechteren Beurteilung der Handhabung und Störanfälligkeit ebenfalls nur im Mittelfeld landen.

„Das ist am Ende auch der Grund, warum beide Tests nicht miteinander vergleichbar sind. Stellt man beide Tests gegenüber, so ist es, als vergleiche man Äpfel mit Birnen – beide Prüfverfahren haben unterschiedliche Kriterien“, so Professor Bernd Sanner, Wuppertal, Mitglied des Vorstands der Deutschen Hochdruckliga e.V. DHL® | Deutschen Gesellschaft für Hypertonie und Prävention und Sprecher der Sektion Hochdruckdiagnostik. Es kommt aber noch etwas dazu: Auch wenn man Äpfel mit Äpfeln vergleicht und nur die Messgenauigkeit beider Tests betrachtet, erkennt man Unterschiede bei der Erhebung. Aus Sicht der Deutschen Hochdruckliga sind mindestens 96 Personen erforderlich, um ein hinreichend sicheres Urteil abzugeben [5]. Von der Stiftung Warentest wurden die Geräte an lediglich 32 Probanden getestet, also deutlich weniger. Je grösser die Anzahl der Probanden, desto aussagekräftiger ist das Ergebnis. Statistiker sprechen auch vom Gesetz der großen Zahlen. Aus Sicht der Hochdruckliga wird auch der Patientensimulator abgelehnt. Es macht keinen Sinn, die Beschaffenheit der menschlichen Gefäße sowie das Pump- und Druckverhalten des Herzens künstlich nachzubilden. Die Messgenauigkeit von Blutdruckmessgeräten sollte unter realen Bedingungen an einer ausreichend großen Probandenzahl validiert werden.

„Dennoch sind wir froh, dass die Stiftung Warentest die Testung von Blutdruckgeräten durchführt. Die z.T. etwas unterschiedlichen Einstufungen einiger Geräte lassen sich im Großen und Ganzen mit den unterschiedlichen Messkriterien erklären, die angelegt wurden. Jeder Verbraucher muss für sich entscheiden, welche Prüfkriterien für ihn von Bedeutung sind. Wir sehen uns auch nicht im Prüfwettbewerb mit der Stiftung Warentest, sondern freuen uns darüber, dass sie auch Blutdruckmessgeräte testet. Denn dadurch wird die Blutdruckmessung in den Fokus der öffentlichen Wahrnehmung gelenkt. Das bei weitem größte Problem ist schließlich, dass auch heute noch zu wenig Menschen ihre Blutdruckwerte kennen und selbst Menschen mit zu hohen Werten nicht regelmäßig unter standardisierten Bedingungen ihren Blutdruck messen“, erklärt Professor Krämer.

Um vergleichbare Messwerte zu erhalten, ist die regelmäßige Messung mit der passenden Manschettengröße nach fünf minütiger Pause wichtig. Nur so lassen sich die individuellen Messwerte auch mit den Normwerten vergleichen. Bei der Selbstmessung sollte der obere (systolische) Wert nicht über 135 mm Hg liegen bzw. der untere (diastolische) Wert nicht unter 85 mm Hg. Morgens sollte vor der etwaigen Einnahme von blutdrucksenkenden Medikamenten gemessen werden. Der Messarm sollte nicht durch Kleidung oder Schmuck abgeschnürt sein. Zur Messung sollte man neben einem Tisch auf einem Stuhl sitzen und beide Beine auf den Boden stellen. Der Oberarm liegt bei der Oberarmmessung entspannt auf dem Tisch auf bzw. alternativ wird der Arm mit dem Handgelenksgerät entspannt auf Herzhöhe gehalten. Das geht am besten, wenn ein Kissen untergelegt wird. Dreißig Minuten vor der Messung sollten körperliche Aktivitäten vermieden werden. Während der Messung sollte man sich nicht bewegen und auch nicht sprechen. Wichtig ist auch, zweimal im Minutenabstand zu messen und den zweiten (meist niedrigeren) Wert aufzuschreiben. Bei unregelmäßigen Herzschlägen wird empfohlen, dreimal im Minutenabstand zu messen und den Durchschnitt zu notieren [6].

Wissenschaftliche Ansprechpartner:

Kontakt/Pressestelle
Dr. Bettina Albers
albers@albersconcept.de
Telefon: 03643/ 776423
Mobile: 0174/ 2165629

Originalpublikation:

[4] The German Hypertension League (Deutsche Hochdruckliga) Quality Seal Protocol for blood pressure-measuring devices: 15-year experience and results from 105 devices for home blood pressure control.
Tholl, Ulrich; Lüders, Stephan; Bramlage, Peter; Dechend, Ralf; Eckert, Siegfried; Mengden, Thomas; Nürnberger, Jens; Sanner, Bernd; Anlauf, Manfred.
Blood Pressure Monitoring: August 2016 – Volume 21 – Issue 4 – p 197-205.
doi: 10.1097/MBP.0000000000000186

Weitere Informationen:

http://[1] https://www.test.de/shop/test-hefte/test_11_2018/
http://[2] https://www.hochdruckliga.de/messgeraete-mit-pruefsiegel.html
http://[3] https://www.hochdruckliga.de/tl_files/content/dhl/downloads/DHL-Anforderungen-Pr…
http://[5] https://www.hochdruckliga.de/tl_files/content/dhl/downloads/DHL-XXXXX-16-Pru%cc%…
http://[6] www.blutdruckmessen-aber-richtig.de

Quelle: idw

(nach oben)


Erwerbstätige im Rentenalter arbeiten nur zum Teil des Geldes wegen

Wolfgang Braun Presse- und Öffentlichkeitsarbeit
Institut für Arbeitsmarkt- und Berufsforschung der Bundesagentur für Arbeit (IAB)

Als Grund für eine Erwerbstätigkeit im Rentenalter geben Befragte einer repräsentativen Studie überwiegend soziale und persönliche Motive an: Jeweils rund 90 Prozent der erwerbstätigen Rentner haben Spaß bei der Arbeit, brauchen den Kontakt zu anderen Menschen oder wünschen sich weiterhin eine Aufgabe. Mehr als die Hälfte der Befragten nennt allerdings auch finanzielle Gründe für die Erwerbsarbeit. Das gilt insbesondere für Frauen, die nach eigenen Angaben häufiger als Männer auf einen Hinzuverdienst zur Altersrente angewiesen sind. Das geht aus einer aktuellen Studie des Instituts für Arbeitsmarkt- und Berufsforschung (IAB) hervor.

In Deutschland ist weit mehr als ein Viertel aller Rentnerinnen und Rentner in den ersten drei Jahren nach Übergang in eine Altersrente erwerbstätig: Bei den Frauen beträgt der Anteil 31 Prozent, bei den Männern 28 Prozent.

Eine Beschäftigung bis zum Renteneintritt steigert die Wahrscheinlichkeit, auch nach dem Übergang in die Altersrente erwerbstätig zu sein. Bei den bis zuletzt erwerbstätigen Frauen ist diese Wahrscheinlichkeit fast doppelt so hoch wie bei den vormals nicht erwerbstätigen Frauen (41 Prozent gegenüber 26 Prozent). Bei den Männern liegen die entsprechenden Anteile bei 31 bzw. 24 Prozent.

Eine gute finanzielle Lage nach dem Renteneintritt geht bei Frauen wie bei Männern mit einer höheren Erwerbstätigenquote im Rentenalter einher. Während 29 Prozent der befragten Rentnerinnen bzw. 26 Prozent der befragten Rentner mit einem Einkommen unter 1.000 Euro erwerbstätig sind, erhöhen sich die Werte bei einem Einkommen von 2.500 Euro und mehr auf 58 bzw. 59 Prozent. Das zusätzlich erwirtschaftete Erwerbseinkommen ist bei den ermittelten Einkommensgrenzen von 1.000 bzw. 2.500 Euro nicht enthalten.

Unter den nicht erwerbstätigen Rentenbeziehern würden 13 Prozent aller Frauen und 20 Prozent der Männer gerne eine Erwerbsarbeit aufnehmen. „Politik und Betriebe sollten mit flexiblen Regelungen günstige Rahmenbedingungen schaffen, damit Erwerbswünsche im Rentenalter besser realisiert werden können“, heißt es in der Studie. So könnte beispielsweise in Tarifverträgen generell auf die Festlegung einer automatischen Beendigung des Arbeitsverhältnisses mit Erreichen der Regelaltersgrenze verzichtet werden.

Die IAB-Studie beruht auf den Angaben von rund 1.000 Personen im Alter von 58 bis 69 Jahren.

Weitere Informationen:
http://doku.iab.de/kurzber/2018/kb2418.pdf

Quelle: idw

(nach oben)


Biologisch abbaubares Plastik

Jasmin Bauer Hochschulkommunikation
Technische Hochschule Nürnberg Georg Simon Ohm

Forschungsprojekt der TH Nürnberg generiert eine Alternative für herkömmliche Kunststoffe

Kunststoffe sind aus dem alltäglichen Leben nicht mehr wegzudenken. Die Auswirkungen sind jedoch fatal, wenn sie in die Kreisläufe der Umwelt gelangen. Prof. Dr. Stephanie Stu-te von der Fakultät Verfahrenstechnik der TH Nürnberg forscht an biobasiert hergestellten Kunststoffen, die biologisch abbaubar sind. In ihrem Projekt „Biobasierte Herstellung des biologisch abbaubaren Bio-Kunststoffes Polybuttersäure“ entwickelt sie ein kontinuierli-ches und damit wirtschaftlicheres Herstellungsverfahren für den Bio-Kunststoff Polybuttersäure. Die Staedtler-Stiftung fördert das Projekt mit 40.000 Euro.

Kunststoffe finden sich in allen Lebensbereichen. Für die Herstellung verbraucht die Industrie wertvolle Ressourcen wie Erdöl. Besonders problematisch ist die Verwendung von Kunststoffen für Verpackungen mit einmaliger Nutzung. Der Plastikmüll landet oft in der Umwelt. Ein Resultat daraus ist die größte Müllinsel im Pazifik, die 80.000 Tonnen Plastik umfasst und mit 1,6 Millionen Quadratkilometern mehr als viermal so groß wie Deutschland ist. Das Folgenschwere daran ist, das beispielsweise PET-Flaschen rund 450 Jahre brauchen, bis sie im Wasser zerfallen und als Mikroplastik auf den Meeresgrund sinken.

Die Bundesregierung zählt in ihrer „Hightech-Strategie 2020 für Deutschland. Ideen. Innovation. Wachstum.“ die Biotechnologie zu den Schlüsseltechnologien für eine zukunftsfähige deutsche Wirtschaft. Vor diesem Hintergrund forscht Prof. Dr. Stephanie Stute von der Fakultät Verfahrenstechnik an der TH Nürnberg an biobasiert hergestellten Kunststoffen, die biologisch abbaubar sind. In ihrem Projekt „Biobasierte Herstellung des biologisch abbaubaren Bio-Kunststoffes Poly-buttersäure“ entwickelt sie ein kontinuierliches und damit wirtschaftlicheres Herstellungsverfahren für den Bio-Kunststoff Polybuttersäure (PHB). „Die Polybuttersäure ist ein farbloser Polyester und gilt als vielversprechendster Ersatz für petrochemische Polymere. Bisher sind die Herstellungskos-ten für diesen Bio-Kunststoff sehr hoch, weshalb die Industrie ihn noch nicht im großen Maßstab einsetzt“, so Prof. Dr. Stephanie Stute. Das derzeitige Herstellungsverfahren von Polybuttersäure durch Bakterien kann hinsichtlich der Produktivität noch deutlich verbessert werden.

Viele Bakterien-Arten lagern PHB als Speicherstoff in ihren Zellen ein. Um den Stoffwechselprozess der Bakterien bei der PHB-Synthese im großen Maßstab nutzen zu können, ist es erforder-lich, für die Anzucht der benötigten Bakterienzellen und für die nachfolgende PHB-Produktion un-terschiedliche Prozessbedingungen technisch zu realisieren. „Eine rasche Zellteilung und das da-mit verbundene mikrobiologische Wachstum sind nur bei einer optimalen Versorgung der Bakteri-enzellen mit Nährstoffen und Sauerstoff möglich. Für die Einlagerung von Polybuttersäure benöti-gen die Bakterien allerdings Mangelbedingungen“, erklärt Prof. Dr. Stephanie Stute. Der neue An-satz basiert auf zwei hintereinandergeschalteten Bioreaktoren, die kontinuierlich unter Zulauf von Nährstoffen betrieben werden. In der ersten Stufe herrschen optimale Wachstumsbedingungen. In der zweiten Stufe wird gezielt ein Nährstoffmangel eingestellt, so dass die Einlagerung von PHB in den Bakterien beginnt und durch den Zulauf ausgewählter Nährstoffe verstärkt wird. Die Bakterien bilden so große Mengen des Produkts. Am Auslauf des zweiten Bioreaktors trennt das Team von Prof. Dr. Stephanie Stute die Bakterienzellen vom Nährmedium ab und bereitet das Produkt PHB aus den Bakterienzellen auf. Das Bakterium C. necator lagert beispielsweise PHB von bis zu 80 Prozent der Biotrockenmasse ein und bietet damit das Potenzial zur Massenproduktion. Die Kos-ten für die benötigten Rohstoffe können einen Großteil der Gesamtkosten betragen, so dass die Nutzung von kostengünstigen industriellen Restströmen von großem Interesse ist. Pro Tonne her-gestelltem Biodiesel entstehen etwa 100 kg Rohglycerin, das die Industrie in Deutschland häufig nur gegen niedriges Entgelt verkaufen kann oder sogar kostenpflichtig entsorgen muss. Das Roh-glycerin steht daher in ausreichender Menge zur Verfügung, und hat das Potenzial die Produkti-onskosten des Bio-Kunststoffs erheblich zu reduzieren. Prof. Dr. Stephanie Stute generiert auf der Basis dieses Reststoffs ein wirtschaftliches Herstellungsverfahren für PHB, um dadurch biobasier-te und biologisch abbaubare Kunststoffe zu produzieren. Das Projekt „Biobasierte Herstellung des biologisch abbaubaren Bio-Kunststoffes Polybuttersäure“ wird mit 40.000 Euro von der Staedtler-Stiftung gefördert und markiert den Startpunkt der Forschungsarbeiten im Fachgebiet Bioverfah-renstechnik an der TH Nürnberg – ein Beitrag zu einer nachhaltigen und wissensbasierten Wirtschaftsform.

Quelle: idw

(nach oben)


Von Antitranspirantien mit Aluminium bis Zahnpasta mit Zinksalzen: 50 Jahre Kosmetik-Kommission

Dr. Suzan Fiack Presse- und Öffentlichkeitsarbeit
Bundesinstitut für Risikobewertung (BfR)

Externe, ehrenamtliche Sachverständige beraten das BfR zu wissenschaftlichen Fragen hinsichtlich der Inhaltsstoffe von kosmetischen Mitteln

Anlässlich des 50-jährigen Bestehens der Kosmetik-Kommission hat das Bundesinstitut für Risikobewertung (BfR) am 16. Oktober 2018 das Symposium „50 Jahre Kosmetik-Kommission: Wissenschaft im Dienste des Verbraucherschutzes“ veranstaltet. Auf ihrer Jubiläumssitzung befassten sich die Expertinnen und Experten mit wissenschaftlichen Fragen zur allergischen Reaktion der Haut auf kleinmolekulare Substanzen, wie sie in kosmetischen Mitteln enthalten sein können, mit hormonell wirksamen Substanzen in Sonnenschutzmitteln sowie mit Methoden zur Bestimmung des Lichtschutzfaktors von Sonnenschutzmitteln. „Die Themenauswahl zeigt, wie breit die Kommission fachlich aufgestellt und zusammengesetzt ist“, sagt BfR-Präsident Professor Dr. Dr. Andreas Hensel. Die Beratungsergebnisse und Empfehlungen der Kommission spiegeln den neuesten Wissensstand auf dem Gebiet der kosmetischen Mittel wider. „Ich freue mich, dass wir diesen exzellenten Sachverstand nun schon seit 50 Jahren nutzen können“, so Hensel weiter. 1968 tagte die Kommission für kosmetische Erzeugnisse – wie sie damals hieß – zum ersten Mal beim damaligen Bundesgesundheitsamt.

Aufgabe der Kommission ist es, sich mit aktuellen Fragen zu möglichen gesundheitlichen Risiken kosmetischer Mittel sowie der Regulation und Fortschreibung der EU-Kosmetik-Verordnung und ihrer Anlagen zu befassen. Auch im Krisenfall soll das Expertinnen- und Expertennetzwerk dem BfR wissenschaftlich beratend zur Seite stehen.

In diesem Jahr hat sich die Kosmetikkommission beispielsweise mit der Wirkung von Sonnenschutzmitteln befasst. Sie sind wegen ihrer schützenden Wirkung vor Hautkrebs wichtige Produkte. Es wurde diskutiert, ob der Zusatz von Entzündungshemmern wie Bisabolol die experimentelle Bestimmung des Lichtschutzfaktors verfälscht, weil diese Stoffe die Hautrötung nach Sonneneinstrahlung verzögern. Die Beratung ergab, dass diese Annahme unbegründet war.

In der Kosmetikkommission wurde auch beraten, ob zinkhaltige Mundhygiene-Produkte wie Mundwasser und Zahnpasta bei ihrer Verwendung zu einer zu hohen Zinkaufnahme führen könnte. Aus Sicht der daraufhin erfolgten Risikobewertung des BfR kann die regelmäßige und längerfristige Verwendung von zinkhaltigem Mundwasser für Erwachsene gesundheitlich bedenklich sein, wenn darin das gesetzliche Zinkkonzentrations-Maximum ausgeschöpft wird. Das BfR hat daraufhin empfohlen, die zugelassenen Höchstkonzentrationen von Zink in Mundwasser zu verringern und dass Zahnpasta, die gezielt für Kinder ausgelobt wird, zinkfrei sein sollte bzw. Produkte für Erwachsene entsprechend gekennzeichnet werden.

Allergien sind wegen des oft langen Hautkontaktes von Kosmetika auch nach 50 Jahren Kommissionsarbeit noch ein wichtiges Thema der Kommission. So hat sie sich z. B. gegen die Verwendung des Begriffs „hypoallergen“ in Kosmetikwerbung ausgesprochen, da dieser teilweise mit „löst keine Allergien aus“ gleichgesetzt wird, obwohl der Begriff tatsächlich nur beinhaltet, dass bei weniger Menschen Allergien auftreten.

Die Kommission hat das BfR auch zum Thema Aluminium in Antitranspirantien beraten und einen wichtigen Beitrag zu der Thematik geleistet. In seiner anschließenden Risikobewertung kam das BfR zu dem Ergebnis, dass die regelmäßige Benutzung eines aluminiumhaltigen Antitranspirants über Jahrzehnte hinweg möglicherweise zu einer Erhöhung der Aluminiumbelastung des Körpers führt, die zu einem späteren Zeitpunkt zu gesundheitlichen Beeinträchtigungen beitragen kann. Zur Abschätzung der Langzeitfolgen chronischer Aluminiumexpositionen fehlen dem BfR derzeit noch weitere wissenschaftliche Daten, um eine abschließende Risikobewertung durchführen zu können. Verbraucherinnen und Verbraucher können die Aluminiumaufnahme durch Antitranspirantien vor allem senken, indem diese nicht unmittelbar nach der Rasur bzw. bei geschädigter Achselhaut verwendet werden. Es kann auch ein Deodorant ohne Aluminiumsalze verwendet werden.

Die Geschäftsführung der Kosmetik-Kommission hat das BfR inne. Die Kommission besteht aus 16 berufenen Wissenschaftlerinnen und Wissenschaftlern aus Universitäten, den Länderbehörden, der Industrie und anderen Bereichen sowie aus benannten Sachverständigen, die bei Bedarf für spezifische und fachübergreifende Fragestellungen hinzugezogen werden können. Sie tagt turnusmäßig zwei Mal im Jahr. Mit dem Scientific Committee on Consumer Safety (SCCS), dem wissenschaftlichen Expertengremium, welches die EU-Kommission zu Fragen der Sicherheit von Verbraucherprodukten berät, besteht seit langen Jahren ein enger wissenschaftlicher Austausch. Alle Kommissionsprotokolle werden auf der BfR-Internetseite veröffentlicht. Die Risikobewertungen des BfR werden aber allein von eigenen Beschäftigten des Instituts erarbeitet. Kommissionsempfehlungen haben für das BfR allein beratenden Charakter.

Die Kosmetikkommission ist eine von 15 BfR-Kommissionen. Jede BfR-Kommission beruft für vier Jahre über ein offenes Ausschreibungs- und Bewerbungsverfahren ihre Mitglieder, die sich durch wissenschaftliche Expertise auf ihrem jeweiligen Fachgebiet auszeichnen. Die Kommissionsmitglieder sind hinsichtlich ihrer Kommissionsarbeit zur Unparteilichkeit verpflichtet. Um eventuellen Interessenkonflikten zu einzelnen Sitzungsthemen vorzubeugen, werden diese transparent abgefragt und in jedem Protokoll offengelegt.

Über das BfR
Das Bundesinstitut für Risikobewertung (BfR) ist eine wissenschaftlich unabhängige Einrichtung im Geschäftsbereich des Bundesministeriums für Ernährung und Landwirtschaft (BMEL). Es berät die Bundesregierung und die Bundesländer zu Fragen der Lebensmittel-, Chemikalien- und Produktsicherheit. Das BfR betreibt eigene Forschung zu Themen, die in engem Zusammenhang mit seinen Bewertungsaufgaben stehen.

Quelle: idw

(nach oben)


Arbeitszeit: Beginnt der Job im Zug?

Melanie Hahn Presse & Öffentlichkeitsarbeit
Hochschule Fresenius

Viele Arbeitnehmer pendeln täglich zur Arbeit oder gehen auf Dienstreisen. Unklar ist häufig, ob diese Wege bereits zur vergütungspflichtigen Arbeitszeit zählen. In einem aktuellen Rechtsstreit hatte ein Arbeitnehmer geklagt: Er wurde von seinem Arbeitgeber auf eine Baustelle in den Nordosten Chinas geschickt, wofür er die volle Reisezeit als Überstunden ausbezahlt haben wollte. Das Bundesarbeitsgericht gab ihm heute im Grundsatz Recht: Der Arbeitgeber muss für die erforderliche Reisezeit zahlen. Was Arbeitnehmer im Einzelfall tatsächlich als Arbeitszeiten anrechnen können, erläutert Prof. Dr. Michael Fuhlrott, Arbeitsrechtler und Professor an der Hochschule Fresenius.

„Grundsätzlich ist zwischen der „vergütungsrechtlichen“ und der „arbeitszeitrechtlichen“ Arbeitszeit des Arbeitsschutzrechts zu unterscheiden werden“, erklärt Prof. Dr. Fuhlrott. Ersteres betreffe die Frage, für welche Zeiten der Arbeitnehmer entlohnt wird. Hier bestehe Gestaltungsspielräume für den Arbeitgeber. Letzteres beziehe sich auf die Frage, wie lange der Arbeitnehmer arbeiten darf und wann er zwingend Pausen machen oder Ruhezeiten einlegen muss. Insoweit – aus Gründen des Arbeitnehmerschutzes – habe der Arbeitgeber hinsichtlich der Arbeitszeitregelung kaum Gestaltungsspielraum. „Für „Vollarbeit“ ist der Arbeitnehmer natürlich zu vergüten und diese zählt auch als arbeitsschutzrechtliche Arbeitszeit“, so Fuhlrott. „Bei anderen Tätigkeiten, die nur mittelbar mit der eigentlichen Arbeitsleistung zusammenhängen, wie etwa Reisezeiten, Umkleidezeiten oder Rufbereitschaft können allerdings abweichende Regelungen getroffen werden“.

Kriterium: Beanspruchung des Arbeitnehmers durch die Tätigkeit?
Gerade bei Reisezeiten komme es darauf an, inwieweit der Arbeitnehmer durch die Tätigkeit beansprucht wird. „Führt der Arbeitnehmer selbst einen PKW, kann er nicht abschalten. Diese Zeit ist dann auch als Arbeitszeit zu vergüten. Nimmt der Arbeitnehmer hingegen für die Anreise die Bahn und kann während der Fahrt ein privates Buch lesen oder einen Kaffee im Bordbistro trinken, so ist die Beanspruchung des Arbeitnehmers gering. Diese Zeit zählt für Ruhepausen und Höchstarbeitszeitgrenzen nicht mit. Der Arbeitgeber kann hier mit dem Arbeitnehmer Regelungen treffen, wonach diese Zeit nicht zu vergüten ist. Üblich sind auch Pauschalierungsabsprachen, wonach Tage mit kompletter Reisetätigkeit etwa pauschal mit acht Arbeitsstunden berechnet werden“, erläutert der Arbeitsrechtler. Entscheidend sei hier aber auch der Einzelfall – basierend auf der Frage, was der Arbeitnehmer während der Reise macht: „Liest der Arbeitnehmer etwa eine Akte in der Bahn zur Vorbereitung auf einen späteren Termin, handelt es sich klar um Arbeitszeit“, so Fuhlrott.

Aktueller Fall des BAG: Erforderliche Reisezeit ist zu vergüten
Die Richter des Bundesarbeitsgerichts gaben dem klagenden Arbeitnehmer heute im Grundsatz Recht: Entsendet ein Arbeitgeber einen Arbeitnehmer vorübergehend ins Ausland, erfolgen die Reisen zur auswärtigen Arbeitsstelle und von dort zurück ausschließlich im Interesse des Arbeitgebers, so das BAG (PM Nr. 51/2018 / BAG, Urt. v. 17.10.2018, Az.: 5 AZR 553/17). Erforderlich sei aber nur die Zeit, die für einen Flug in der Economy-Klasse anfalle. Da der Arbeitnehmer einen Business-Klasse Flug gebucht hatte, der einen Zwischenstopp aufwies und damit länger andauerte, muss das Landesarbeitsgericht den Sachverhalt weiter aufklären und sodann erneut entscheiden.

Der Weg zur Arbeitsstätte ist grundsätzlich Privatsache
Wie der Arbeitnehmer hingegen täglich zu seinem Büro gelange, sei seine Privatsache. Diese Fahrtzeit werde nicht vergütet – der Arbeitnehmer dürfe entsprechend auch frei wählen, wo er wohnt, führt Fuhlrott weiter aus. „Für Arbeitnehmer, die auf wechselnden Arbeitsstätten, etwa Baustellen eingesetzt werden, gelten hingegen andere Vorgaben. Hier beginnt die Arbeitszeit oftmals mit dem Erreichen des Betriebsgeländes, von dem aus der Weg zur aktuellen Arbeitsstätte angetreten wird“, so der Jurist.

Der Autor Prof. Dr. Michael Fuhlrott ist Professor für Arbeitsrecht an der Hochschule Fresenius sowie Fachanwalt für Arbeitsrecht und Partner bei der Kanzlei FHM – Fuhlrott Hiéramente & von der Meden Partnerschaft von Rechtsanwälten mbB in Hamburg.

Weitere Informationen:
http://www.hs-fresenius.de

Quelle: idw

(nach oben)


Kinder sollten Wasser trinken!

Giulia Roggenkamp Pressestelle
Stiftung Kindergesundheit

Stiftung Kindergesundheit rät dringend zur Einschränkung des Konsums von zuckerhaltigen Limos, Colas und Energydrinks, um die Fettsucht-Welle zu stoppen

Marco ist ein durchschnittlicher deutscher Teenager. Er trinkt durchschnittlich einen knappen halben Liter Cola am Tag. Auch seine Freunde im Alter zwischen 11 und 13 Jahren trinken jeden Tag durchschnittlich 0,45 Liter Cola, Limo oder ein anderes zuckerhaltiges Getränk. Das bedeutet durchschnittlich 1.260 Kalorien pro Woche. Klingt eigentlich nicht nach besonders viel, ist es aber: Würde Marco statt Cola einfach nur Wasser trinken, wäre er schon nach 2,8 Wochen ein ganzes Pfund schlanker. Mit diesem fiktiven Beispiel macht die Stiftung Kindergesundheit auf die dickmachende Wirkung von zuckerhaltigen Getränken aufmerksam.

„Eine kürzlich publizierte Analyse von elf internationalen Studien kommt zu dem Ergebnis, dass ein regelmäßiger Konsum zuckerhaltiger Getränke für etwa ein Fünftel des Risikos der Fettleibigkeit im Kindes- und Jugendalter verantwortlich ist“, sagt Kinder- und Jugendarzt Prof. Dr. Berthold Koletzko, Ernährungsexperte der Universitäts-Kinderklinik München und Vorsitzender der Stiftung Kindergesundheit. „Auch Studien aus den USA folgern, dass dort rund 20 Prozent der Gewichtszunahmen der Bevölkerung allein auf das Konto zuckerhaltiger Getränke geht“.

Die Häufigkeit von Übergewicht und krankhafter Fettleibigkeit (Adipositas) hat in den letzten vier Jahrzehnten weltweit und auch in Deutschland alarmierend zugenommen. Die aktuellen Zahlen der bundesweiten Gesundheitsstudie KiGGS lassen keinen Durchbruch erkennen: Auch aktuell leidet fast jedes sechste Kind in Deutschland zwischen drei und 17 Jahren (15,3 Prozent der Mädchen und 15,6 Prozent der Jungen) unter Übergewicht. 5,9 Prozent (5,5 Prozent der Mädchen und 6,3 Prozent der Jungen) sind bereits krankhaft fettleibig. „Die Hoffnung vieler Eltern, dass sich das Problem mit dem Babyspeck im Laufe der Pubertät auswächst und dass auch aus einem pummeligen Backfisch später eine gertenschlanke junge Frau wird, ist leider trügerisch“, betont Professor Koletzko. „Aus dicken Kindern werden in aller Regel dicke Erwachsene.“

Weniger Einkommen, mehr Übergewicht
Besonders groß ist die Gefahr von Übergewicht für Kinder und Jugendliche aus bildungsfernen Familien, hebt Professor Koletzko hervor. Nach den aktuellen Zahlen der KiGGS-Studie sind Mädchen aus sozioökonomisch benachteiligten Familien im Vergleich zu Mädchen mit einem hohen sozioökonomischen Status 4,05-fach häufiger adipös. Bei Jungen aus benachteiligten Familien ist das Risiko sogar 4,4-fach höher (11,4 gegenüber 2,6 Prozent) als in Familien mit hohem Bildungsgrad und Einkommen.

Die Stiftung Kindergesundheit hat bereits zum wiederholten Male auf die dickmachende Wirkung von gezuckerten Getränken hingewiesen. Sie empfiehlt: Kinder sollten schon von klein auf lernen, Wasser zu trinken. Limonade, Cola-Getränke, gesüßte Tees oder Eistees, zuckerhaltige Fruchtsäfte, Fruchtnektare oder Fruchtsaftschorle sollten die Ausnahme bleiben und nicht die Regel. In Kindertagesstätten und Schulen sollten keine zuckerhaltigen Getränke angeboten werden.

Was spricht für eine Zuckerabgabe?
Die Stiftung spricht sich auch für die Einführung einer Abgabe auf gezuckerte Getränke aus. Ihre Begründung:

o Der höhere Preis würde den Konsum und dadurch das Risiko für Fettsucht, Fettleber und Karies in der Bevölkerung vermindern.
o Der Staat könnte die zusätzlichen Steuereinnahmen in die Förderung der öffentlichen Gesundheit investieren.
o Der Bevölkerung würde klar gemacht werden, dass gezuckerte Getränke nicht zur gesunden Ernährung gehören.
o Die Hersteller erhielten einen starken Anreiz, ihre Produkte mit weniger Zucker zu süßen und gesünderen Alternativen anzubieten.

Ein gutes Beispiel bietet Mexiko: Dort wurde bereits vor vier Jahren eine Steuer von einem Peso pro Liter gezuckerter Getränke eingeführt. Professor Koletzko: „In diesem Land mit besonders häufigem Auftreten von Adipositas bei Kindern und Erwachsenen führte die Steuer zu einer Abnahme des Verkaufs gezuckerter Getränke um 6,3 Prozent, während der Absatz von abgepacktem Wasser um 16,2 Prozent stieg. Die stärksten Effekte wurden in Haushalten mit niedrigem und mittlerem Einkommen erzielt, die auch die höchste Häufigkeit von Fettsüchtigkeit aufweisen“.

Viele andere Länder folgten bereits dem Beispiel Mexikos. So werden gezuckerte Getränke bereits in Brunei, Katalonien, Portugal, Saudi-Arabien, Thailand, den Vereinigten Arabischen Emiraten und in fünf Städten der USA besteuert. In diesem Jahr wird die Steuer auch in Estland, Großbritannien, Irland, Südafrika und der Stadt Seattle (USA) eingeführt.

Dass die Besteuerung der Süßgetränke tatsächlich positive Auswirkungen auf die Gesundheit von Kindern und Jugendlichen haben kann, beweist das Beispiel Großbritanniens, berichtet die Stiftung Kindergesundheit. Dort müssen Hersteller und Importeure seit April 2018 für zuckergesüßte Getränke Abgaben leisten. Für Getränke mit mehr als fünf bis maximal acht Prozent Zucker werden pro Liter 18 britische Pence und für Getränke mit mehr als acht Prozent Zucker 24 Pence veranschlagt. Wissenschaftler errechneten, dass durch diese Maßnahmen und den verminderten Zuckerkonsum mit Getränken in Großbritannien 144.000 weniger fettsüchtige Kinder und Erwachsene, 19.000 weniger auftretende Fälle von Diabetes Typ 2 und 270.000 weniger durch Karies geschädigte Gebisse pro Jahr erreicht werden können, mit entsprechend enorm hohen unmittelbaren Kosteneinsparungen im Gesundheitswesen.

Weniger Zucker? Es geht doch!
Der Zuckerkonsum der Briten ging aber schon kurz nach der Ankündigung einer Besteuerung deutlich zurück. Wie das? Um von der günstigeren Steuerstufe zu profitieren, haben viele Hersteller haben den Zuckeranteil ihrer Produkte so reduziert, dass für sie nur eine geringere oder gar keine Besteuerung gilt. So hat beispielsweise Coca-Cola in Großbritannien den Zuckergehalt von Fanta von 6,9 auf 4,6 Gramm pro 100 ml und von Sprite von 6,6 Gramm auf 3,3 Gramm gesenkt. Auch Supermarktketten haben den Zuckergehalt vieler Eigenmarken unter die Fünf-Gramm-Grenze gesenkt.
In Deutschland dagegen beträgt der durchschnittliche Zuckergehalt der zuckergesüßten Getränke nach aktuellen Erhebungen von Foodwatch 7,3 Prozent. Das sind nach wie vor etwa sechs Zuckerwürfel je 250 ml Glas.

„Übergewicht wird sowohl durch Essen und Trinken als auch durch das Bewegungsverhalten beeinflusst. In der Praxis allerdings ist der relative Anteil der Bewegung daran deutlich geringer als die Bedeutung der Ernährung“, führt Professor Berthold Koletzko aus. Der Münchner Ernährungsexperte verdeutlicht das am fiktiven Beispiel von Carlo, der im Durchschnitt täglich 450 ml zuckerhaltige Getränke zu sich nimmt. „Wenn er diese Menge gezuckerter Getränke durch von Wasser ersetzen würde, könnte Carlo in fünfeinhalb Wochen ein Kilogramm Gewicht einsparen. Dagegen müsste er 19 Wochen lang jede Woche eine Stunde zusätzlich Fußball spielen, um sein Gewicht um ein Kilogramm zu reduzieren. Für die gleiche Gewichtsänderung müsste er 33 Wochen lang eine Stunde zusätzlich Schwimmen oder fast 40 Wochen lang zusätzlich Fahrrad fahren“.

Wasser marsch – auch in der Schule!
Dass die Förderung des Wassertrinkens auch in Deutschland funktioniert, bewies die Trinkfit-Studie bei über 3.000 Grundschülern in Nordrhein-Westfalen. Die an der Studie beteiligten Kinder bekamen eigene Trinkflaschen und konnten sich an einem Trinkwasserspender jederzeit mit gesprudeltem oder stillem Trinkwasser versorgen, während die Abgabe zuckerhaltiger Getränke in der Schule unterbunden wurde. Den Kindern der Kontrollschulen wurden Flasche, Wasserspender und Unterrichtsmaterialien erst am Ende des Schuljahres zur Verfügung gestellt. Die Studie ergab: Wenn Kinder in der Schule regelmäßig und ausreichend Wasser trinken, reduziert sich ihr Risiko, übergewichtig zu werden. Insgesamt war bei den Kindern, die an der Aktion teilnahmen, das Risiko des Übergewichts um 31 Prozent geringer, als bei denen, die nicht beteiligt waren.

Eine Sonderabgabe auf zuckerhaltige Getränke, wie sie in Großbritannien, Mexiko und vielen anderen Ländern schon existiert, könnte auch in Deutschland die gesündere Getränkeauswahl erleichtern, betont die Stiftung Kindergesundheit. Professor Dr. Berthold Koletzko: „Wir hoffen sehr auf die Bereitschaft der Politik zu konsequenten Maßnahmen, denn die Lasten des heute bestehenden kindlichen Übergewichts für Krankheitsfolgen und eingeschränkte Lebenschancen sind enorm hoch. Allein die Gesundheitskosten für die heute in Deutschland übergewichtigen Kinder und Jugendlichen belaufen sich auf 1,8 Milliarden Euro. Es ist also höchste Zeit zum Handeln“.

Unabhängige und wissenschaftlich basierte Berichterstattung braucht Förderer:
Fördern auch Sie die Gesundheit unserer Kinder durch Ihre Spende, die in voller
Höhe den Projekten der Stiftung Kindergesundheit zugute kommt.

Mit einem Beitritt zum Freundeskreis der Stiftung Kindergesundheit können Sie die Arbeit der
Stiftung regelmäßig fördern.
Mehr Informationen hierzu finden Sie unter: www.kindergesundheit.de
Spendenkonto: HypoVereinsbank München
IBAN: DE41 7002 0270 0052 0555 20
SWIFT (BIC): HYVEDEMMXXX

Quelle: idw

(nach oben)


Multiresistente Keime aus Abwasser filtern – korrigierte Version

Monika Landgraf Strategische Entwicklung und Kommunikation – Gesamtkommunikation
Karlsruher Institut für Technologie

700 bis 800 Tonnen Antibiotika pro Jahr wurden 2014 laut dem Bundesamt für Verbraucherschutz und Lebensmittelsicherheit in Deutschland allein in der Humanmedizin eingesetzt, in der Veterinärmedizin wurden 2017 rund 730 Tonnen an Tierärzte abgegeben. Durch den hohen Einsatz von Antibiotika bilden aber immer mehr Bakterien Multiresistenzen, die eine medizinische Therapie bei einer Erkrankung erschweren. Über Abwässer gelangen die resistenten Erreger in die Umwelt und letztendlich zurück zum Menschen. Forschende des KIT untersuchen im Verbundprojekt HyReKA die Verbreitung der Bakterien und bewerten Maßnahmen wie die Ultrafiltration, um sie effektiv aus dem aufbereiteten Abwasser zu entfernen.

Multiresistente Bakterien haben als Überlebensstrategie gelernt, sich der Wirkung verschiedener Antibiotika zu entziehen – sie haben Abwehrmechanismen gebildet. Nicht alle sind für den Menschen gefährlich, doch können sie ihre Resistenzgene auch an krankmachende Erreger weitergeben. So gibt es immer mehr widerstandsfähige Keime in der Umwelt. „Wenn sich die Bakterien verbreiten, kommt der Mensch auch immer häufiger mit ihnen in Kontakt. Gehen wir nicht gegen die Verbreitung vor, gibt es am Ende immer weniger Antibiotika oder sogar keine Wirkstoffe, mit denen wir eine Erkrankung dieser Bakterien bekämpfen können“, sagt Professor Thomas Schwartz vom Institut für Funktionelle Grenzflächen (IFG) des KIT.

Der Mikrobiologe und sein Team untersuchen in Gewässern das Vorkommen und die Verbreitung klinisch relevanter Antibiotikaresistenzen und Bakterien, die vor allem für Menschen mit geschwächtem Immunsystem, Kleinkinder und alte Menschen eine Gefahr darstellen können. „Resistente Bakterien gelangen über das Abwasser von Kliniken und Pflegeheimen, häuslichen Bereichen, Schlachthöfen und Landwirtschaft in Kläranlagen. Hier konnten wir die Bakterien nicht nur in den Zuläufen, sondern auch in den Abläufen nachweisen“, so Schwartz. Die derzeitige Abwasseraufbereitung filtere also nur einen Teil der Bakterien heraus, der Rest werde mit dem aufbereiteten Wasser in Flüsse und Bäche geleitet.

Deshalb testen und bewerten die Wissenschaftlerinnen und Wissenschaftler verschiedene Methoden für Kläranlagen, um gerade diese kritischen Erreger aus dem Wasser zu entfernen: eine Ultrafiltrationsanlage, eine Ozon- sowie eine UV-Behandlung, eine Kombination aus beiden und eine Aktivkohlebehandlung. „Bei der Ultrafiltration, bei der das Wasser durch extrem feine Membranstränge fließt, gelingt es uns, die antibiotikaresistenten Bakterien so weit zu reduzieren, dass wir sie kaum mehr nachweisen können. Mit der Ozonbehandlung – auch in Kombination mit UV-Strahlen – ist eine geringere, aber auch vielversprechende Reduktion der Keime möglich. Bei der Aktivkohle konnten wir keine effektive Veränderung, das heißt keine Reduktion, feststellen“, zeigt der Mikrobiologe die bisherigen Ergebnisse auf.

Innerhalb HyReKA wollen die Wissenschaftler die Ultrafiltrationsanlage serienreif machen und die Ozon- und UV-Behandlung weiter optimieren, um die Reduktionsleistung zu steigern. Die Forscherinnen und Forscher des KIT erstellen außerdem ein Bewertungskonzept für die einzelnen Verfahren, sodass die Untersuchungsparameter auch auf andere Maßnahmen zur Abwasserbehandlung anwendbar sind. „So könnten wir Kliniken, Pflegeheime oder auch landwirtschaftliche Bereiche, die ebenfalls aufgrund des hohen Einsatzes von Antibiotika ein hohes Risiko für resistente Bakterien vermuten lassen, mit diesen Techniken ausstatten, um auch die Belastungssituationen an kommunalen Kläranlagen zu reduzieren“, blickt Schwartz in die Zukunft.

HyReKA
HyReKA steht kurz für „Biologische beziehungsweise hygienisch-medizinische Relevanz und Kontrolle Antibiotika-resistenter Krankheitserreger in klinischen, landwirtschaftlichen und kommunalen Abwässern und deren Bedeutung in Rohwässern“. Der Forschungsverbund will einen aktiven Beitrag zum umweltbezogenen Gesundheitsschutz der Bevölkerung leisten. Zu seinen Zielen gehört, den Eintrag antibiotikaresistenter Bakterien und Antibiotikarückstände in die Umwelt zu untersuchen, deren Verbreitungswege, Risikopotenziale und Übertragungsrisiken abzuschätzen, technische Verfahren der Abwasseraufbereitung an Kläranlagen zu entwickeln und Handlungsempfehlungen zu formulieren. Der Verbund setzt sich aus Forschern verschiedener Fachrichtungen wie Medizin, Biologie, Geografie, Ingenieurwesen, Agrarwissenschaft, Lebensmitteltechnologie und Ernährungswissenschaft sowie Partnern aus kommunalen Wasserwirtschaftsbetrieben und der Industrie zusammen.

Zu den Forschungspartnern des Verbundprojektes HyReKA zählen neben dem KIT das Universitätsklinikum Bonn, die Universität Bonn, die Technische Universität Dresden, die RWTH Aachen, das Umweltbundesamt (UBA), das Technologiezentrum Wasser in Karlsruhe (TZW) und kommunale Partner, wie der Erftverband Bergheim, der Oldenburgisch-Ostfriesische Wasserverband (OOWV), der Zweckverband Klärwerk Steinhäule und der Industriepartner XYLEM Services GmbH.

Korrekturhinweis:
In der am 16. Oktober 2018 versandten Version dieser Presseinformation wurden leider veraltete Zahlen zum Anitbiotikagebrauch in Deutschland genannt. Wir bitten dies zu entschuldigen.

Im aktuellsten Bericht „GERMAP 2015: Antibiotika-Resistenz und -Verbrauch“ (Herausgegeben von Bundesamt für Verbraucherschutz und Lebensmittelsicherheit und Paul-Ehrlich-Gesellschaft für Chemotherapie e.V. im Jahre 2016) wird angegeben, dass im Jahre 2014 1238 Tonnen Antibiotika an Tierärzte abgegeben wurden. „Die Gesamtmenge der im humanmedizinischen Bereich in Deutschland eingesetzten Antibiotika dürfte ca. 700-800 Tonnen pro Jahr betragen“, so der Bericht. Mehr dazu unter: https://www.bvl.bund.de/DE/05_Tierarzneimittel/05_Fachmeldungen/2016/2016_09_29_…

In seiner Pressemeldung vom 23.Juli 2018 gibt das Bundesamt für Verbraucherschutz und Lebensmittelsicherheit an, dass die Menge der in der Tiermedizin abgegebenen Antibiotika in Deutschland im Jahr 2017 auf 733 Tonnen gesunken ist. Mehr dazu unter: https://www.bvl.bund.de/DE/08_PresseInfothek/01_FuerJournalisten_Presse/01_Press…

Weiterer Pressekontakt:
Sandra Wiebe, SEK-Gesamtkommunikation, Tel.: +49 721 608-21172, E-Mail: sandra.wiebe@kit.edu

Als „Die Forschungsuniversität in der Helmholtz-Gemeinschaft“ schafft und vermittelt das KIT Wissen für Gesellschaft und Umwelt. Ziel ist es, zu den globalen Herausforderungen maßgebliche Beiträge in den Feldern Energie, Mobilität und Information zu leisten. Dazu arbeiten rund 9 300 Mitarbeiterinnen und Mitarbeiter auf einer breiten disziplinären Basis in Natur-, Ingenieur-, Wirtschafts- sowie Geistes- und Sozialwissenschaften zusammen. Seine 25 500 Studierenden bereitet das KIT durch ein forschungsorientiertes universitäres Studium auf verantwortungsvolle Aufgaben in Gesellschaft, Wirtschaft und Wissenschaft vor. Die Innovationstätigkeit am KIT schlägt die Brücke zwischen Erkenntnis und Anwendung zum gesellschaftlichen Nutzen, wirtschaftlichen Wohlstand und Erhalt unserer natürlichen Lebensgrundlagen.

Diese Presseinformation ist im Internet abrufbar unter: http://www.sek.kit.edu/presse.php

Anhang
Multiresistente Keime aus Abwasser filtern
https://idw-online.de/de/attachment66949

Quelle: idw

(nach oben)


Test zeigt Erfolgsaussichten von Heuschnupfen-Therapien

Dr. Ulrich Marsch Corporate Communications Center
Technische Universität München

Eine spezifische Immuntherapie kann den Alltag für Allergiker deutlich angenehmer machen und langfristig vor Asthma schützen. Was dabei genau geschieht, ist jedoch unklar. Ein Team der Technischen Universität München (TUM) und des Helmholtz Zentrums München hat die Prozesse im Körper während einer dreijährigen spezifischen Immuntherapie untersucht. Die Forscherinnen und Forscher fanden dabei Hinweise darauf, warum die Allergieimpfung so viel Zeit benötigt und wie sich die Erfolgsaussichten schon früh bestimmen lassen.

Bei einer spezifischen Immuntherapie, früher Hyposensibilisierung genannt, geben Ärztinnen und Ärzte Injektionen mit den Substanzen, auf die der Körper allergisch reagiert, zumeist Pollen- oder Milbenextrakte. In der ersten Phase der Therapie erhöhen sie die Dosis nach und nach. Ist eine sogenannte Erhaltungsdosis erreicht, werden über einen längeren Zeitraum – in der Regel drei Jahre – Spritzen mit dieser Dosis gegeben. Wenn alles gut geht, sind die allergischen Reaktionen nach dieser Behandlung dauerhaft schwächer.

Bis heute ist unklar, was genau bei diesen Therapien im Körper geschieht. Ein Team um PD Dr. Adam Chaker, Leiter der Allergieambulanz an der Klinik und Poliklinik für Hals-, Nasen- und Ohrenheilkunde des TUM-Universitätsklinikums rechts der Isar und Prof. Carsten Schmidt-Weber, Leiter des Zentrum für Allergie und Umwelt (ZAUM) von TUM und Helmholtz Zentrum München, haben jetzt erstmals während einer Immuntherapie über drei Jahre das komplexe Wechselspiel verschiedener Zelltypen und Substanzen des menschlichen Immunsystems beobachtet.

Viele verschiedene Abwehrzellen beteiligt
Bislang hat sich die Allergie-Forschung besonders auf die Rolle verschiedener Typen sogenannter T-Zellen konzentriert. Pro-allergische T-Zellen (Th2- und auch Th17-Zellen), so das stark vereinfachte Modell, verstärken allergische Reaktionen im Körper, wenn sie auf bestimmte Substanzen treffen. Regulatorische T-Zellen (T-Regs) dagegen hemmen die allergische Reaktion gegen ein Allergen.

„Unsere Daten zeigen, dass die Vorgänge bei einer Immuntherapie komplexer sind als bislang angenommen“, sagt Adam Chaker. „Es sind Zelltypen beteiligt, die bislang in diesem Zusammenhang kaum beachtet wurden. Wir sind insbesondere überzeugt, dass regulatorische B-Zellen eine deutlich wichtigere Rolle spielen als bisher gedacht.“

Test zeigt: Zweite Therapiephase ist kein Roulette-Spiel
„In der zweiten Phase der Behandlung entscheidet sich das Abwehrsystem des Körpers, ob ein Allergen weiterhin massiv bekämpft wird und daher zu Heuschnupfen, Asthma oder anderen allergischen Erkrankungen führt oder ob der Körper lernt, dass Allergen zu tolerieren“, erläutert Adam Chaker. Dabei ändere sich das Verhältnis von pro-allergischen T-Zellen, T-Regs und regulatorischen B-Zellen laufend – in der Studie war, auch abhängig vom Pollenflug und anderen Faktoren, mal ein Zelltyp stärker vertreten, mal ein anderer. Erst nach drei Jahren pendelte sich das Verhältnis ein.

Ein Roulette-Spiel mit zufälligem Ausgang ist diese Phase jedoch nicht. Bei den Patientinnen und Patienten, die die Therapie regulär beendeten, gab es Übereinstimmungen, die schon früh Voraussagen über den Therapie-Erfolg ermöglichten. Wenn direkt nach der ersten Behandlungsphase, also dem Abschluss der Einleitungsphase, besonders viele regulatorische B-Zellen und wenige TH-17-Zellen messbar waren, wurden nach drei Jahren deutlich weniger Allergiesymptome festgestellt.

Argumente fürs Durchhalten
„Wir haben diesen Test patentieren lassen“, sagt Adam Chaker. „Wenn er Serienreife erreicht, könnten wir Patientinnen und Patienten eine aufwendige Behandlung mit geringen Erfolgsaussichten ersparen. Bei einem positiven Ergebnis liefert so ein Test dagegen gute Argumente, eine dreijährige Therapie durchzuziehen. Bislang brechen viele Menschen früher ab.“

Ein besseres Verständnis der molekularen Mechanismen kann zudem die Grundlage für effektivere Therapien sein. Dafür sei es jedoch wichtig, die Ergebnisse der aktuellen Studie in weiteren Untersuchungen zu bestätigen und mehr über die Wirkungsmechanismen herauszufinden, sagt Adam Chaker.

Wissenschaftliche Ansprechpartner:
PD Dr. Adam M. Chaker
Technische Universität München
Klinikum rechts der Isar
Klinik und Poliklinik für Hals-, Nasen- und Ohrenheilkunde und
Zentrum für Allergie und Umwelt (ZAUM)
Tel: +49 89 4140 2370
adam.chaker@tum.de

Originalpublikation:
U.M. Zissler, C.A. Jakwerth, F.M. Guerth, L. Pechtold, J.A. Aguilar-Pimentel, K. Dietz, K. Suttner, G. Piontek, B. Haller, Z. Hajdu, M. Schiemann, C.B. Schmidt-Weber, A.M. Chaker. „Early IL-10 producing B-cells and coinciding Th/Tr17 shifts during three year grass-pollen AIT“. EBioMedicine (2018) DOI: https://doi.org/10.1016/j.ebiom.2018.09.016 (Open Access)

Weitere Informationen:
https://www.zaum-online.de Zentrum Allergie und Umwelt (ZAUM)
http://www.hno.mri.tum.de/ Klinik und Poliklinik für Hals-, Nasen- und Ohrenheilkunde

Quelle: idw

(nach oben)


Hochwasserrisiko kann deutlich gesenkt werden

Katrin Keller Presse & Kommunikation
Jade Hochschule – Wilhelmshaven/Oldenburg/Elsfleth

Forschungsergebnisse der Jade Hochschule dienen dem Schutz der Küstenregion vor Überschwemmung
Oldenburg.Emden. Die Auswirkungen des Klimawandels auf den Wasserhaushalt an der ostfriesischen norddeutschen Küste und mögliche Anpassungen für das Entwässerungssystem, haben Wissenschaftler_innen der Jade Hochschule und der Universität Oldenburg jetzt untersucht. „Vor dem Hintergrund des globalen Wandels steht die Binnenentwässerung vor einer immensen Herausforderung“, sagt Projektleiter Dr. Helge Bormann von der Jade Hochschule. „Die bestehende Entwässerungsinfrastruktur wird zukünftig nicht mehr ausreichen.“ Durch die mit regionalen Partnern erarbeiteten Maßnahmen könne das Hochwasserrisiko jedoch bis Ende des Jahrhunderts deutlich gesenkt werden. Die Ergebnisse des Forschungsprojektes „Klimaoptimiertes Entwässerungsmanagement im Verbandsgebiet Emden“ (KLEVER) wurden gestern im Beisein des niedersächsischen Umweltministers Olaf Lies im Siel- und Schöpfwerk Knock präsentiert.

Kapazität des Entwässerungssystems ist Mitte des Jahrhunderts ausgeschöpft
Basierend auf Klimamodellen vom Potsdam-Institut für Klimafolgenforschung berechneten Dr. Helge Bormann und seine wissenschaftliche Mitarbeiterin Jenny Kebschull von der Jade Hochschule mögliche Veränderungen des Wasserhaushalts. Einflüsse, die sich in Zukunft auf das Entwässerungssystem in der Region auswirken, sind die höheren Winterniederschläge, die Versiegelung von Grünflächen und der Anstieg des Meeresspiegels.

Höhere Niederschläge in den Wintermonaten
Die Simulationsergebnisse zeigen, dass der Klimawandel einen deutlichen Anstieg des Abflussaufkommens in den Wintermonaten bewirken wird. „Niederschläge, die heute noch als Extremereignisse eingestuft werden, werden zukünftig häufiger auftreten“, erklärt Bormann. In den Wintermonaten Dezember, Januar und Februar werde das zu entwässernde Wasservolumen enorm ansteigen: Bis zum Ende des 21. Jahrhunderts können es sogar 25 Prozent sein. Dies entspräche dem halben Volumen der Thülsfelder Talsperre, das im Winter zusätzlich gepumpt oder gesielt werden müsste. Im Gebiet des Ersten Entwässerungsverbandes Emden gibt es zwei Haupt Siel- und Schöpfwerke, die das Wasser ins Meer leiten. Die Kapazität dieser Werke sei jedoch schon jetzt ausgeschöpft.

Zunehmende Flächenversiegelung
Die Analyse zeigt auch, dass eine zunehmende Flächenversiegelung – Bebauung, die verhindert, dass der Niederschlag im Boden versickern kann – die Entwässerungsherausforderung noch verstärken wird. „Im Verbandsgebiet werden pro Jahr aktuell rund 63 Hektar versiegelt – das sind etwa 126 Fußballfelder Grünflächen, die durch Gebäude, Parkplätze, Verkehrswege und weitere Bauwerke zugebaut werden“, erklärt Kebschull. Wenn die Versiegelung mit der aktuellen Rate weiter voranschreitet, würde der Entwässerungsbedarf bis Mitte des Jahrhunderts in den Wintermonaten um weitere zwei Prozent und bis Ende des Jahrhunderts insgesamt um vier Prozent ansteigen.

Anstieg des Meeresspiegels
Neben der Flächenversiegelung sei auch der Anstieg des Meeresspiegels ein Problem. „Bisher werden die Siele bei Ebbe geöffnet, so dass das Wasser ohne den kostenintensiven Betrieb der Pumpen abfließen kann“, erklärt die Wissenschaftlerin. „Wenn der Meeresspiegel wie in den Klimaszenarien beschrieben ansteigt, wird der Wasserstand zur Ebbe seltener niedrig genug sein um die Siele zu benutzen.“ In dem Fall ist der Entwässerungsverband auf seine Pumpen angewiesen. „Der Energieaufwand hierfür ist enorm“, sagt Kebschull. Laut Modellergebnissen wäre der Abfluss des Wassers über die Siele Ende des Jahrhunderts nicht mehr möglich: „Die Anzahl der Stunden, in denen das Sielen möglich ist, wird sich bis 2045 halbieren. Im Jahr 2070 wird der Sielzeitraum nur noch ein Viertel des jetzigen betragen, bevor das Sielen Ende des Jahrhunderts nur im besten Fall noch als Entwässerungsmöglichkeit genutzt werden kann“, erklärt die Expertin.

Maßnahmen um das Hochwasserrisiko zu senken
Die bestehende Entwässerungsinfrastruktur wird zukünftig nicht mehr ausreichen. Im Rahmen des KLEVER-Akteursforums wurde in Zusammenarbeit mit den Kooperationspartnern eine Reihe von Maßnahmenvorschlägen erarbeitet, wie der Herausforderung entgegengetreten werden kann. Diese umfassen vor allem technische Maßnahmen wie die Erweiterung der Pumpkapazitäten der Schöpfwerke. Auch die Speicherkapazitäten in bestehenden Gewässern auszubauen wäre denkbar, sowie die Möglichkeit zusätzliche Retentionsräume zu schaffen.
„Bei vollständiger Umsetzung aller vorgeschlagenen Maßnahmen könnte das Hochwasserrisiko bis Ende des Jahrhunderts deutlich gesenkt werden.“, sagt Bormann. Ein Restrisiko werde aber bestehen bleiben. Für den Umgang damit müssten zukünftig geeignete Risikomanagementkonzepte entwickelt werden.

Kooperationen
Die Hochschulen führten das vom Bundesministerium für Umwelt, Naturschutz und nukleare Sicherheit (BMU) geförderte Projekt in Zusammenarbeit mit dem Ersten Entwässerungsverband Emden (I.EVE) und weiteren Partnern aus der Region durch.

Wissenschaftliche Ansprechpartner:
Dr. Helge Bormann, helge.bormann@jade-hs.de, 0441 7708 – 3775

Quelle: idw

(nach oben)


Umweltingenieurinnen und -ingenieure entwickeln neuartiges Sanitärsystem

Marvin Hamann Universitätskommunikation
Bauhaus-Universität Weimar

Im Rahmen des Verbundprojektes »AWAS« konzipiert die Bauhaus-Universität Weimar in Zusammenarbeit mit Partnern aus der Industrie ein innovatives System zur Trennung häuslicher Abwässer. Das vom Bundesministerium für Bildung und Forschung (BMBF) mit rund 130.000 Euro geförderte zweijährige Vorhaben läuft bis August 2020.

Ziel der Projektpartner ist es, Grauwasser aus Badezimmer und Küche sowie Schwarzwasser aus der Toilette separat zu erfassen, zu transportieren und wiederzuverwerten. Auf dieser Basis werden Rohstoffe gezielt zurückgewonnen, um damit einerseits Ressourcen zu schonen und andererseits die Entsorgungskosten zu senken. Das Besondere daran: Das technische System zur Teilstromerfassung soll mit minimalen baulichen Eingriffen auch in Bestandsgebäuden eingebaut werden können.

»In der Abfallwirtschaft hat sich das Prinzip der getrennten Erfassung von sortenreinen Abfällen bereits erfolgreich durchgesetzt«, erläutert Projektleiter Prof. Dr.-Ing. Jörg Londong von der Bauhaus-Universität Weimar. »Vergleichbare Überlegungen werden in der Siedlungswasserwirtschaft jedoch sehr zögerlich angestellt, da solche neuartigen, kreislauforientierten Sanitärsysteme in bestehenden Siedlungen bislang nur bedingt umgesetzt werden können«, fährt Prof. Londong fort.

Abwasserbehandlung ohne große Eingriffe in Gebäudesubstanz
Hier setzt das Forschungsvorhaben »Entwicklung einer Abwasserweiche und getrennten Abwassersammlung als Vorstufe einer effizienten Wasserwiederverwendung und Energiegewinnung (AWAS)« an. Das technische System, welches das Projektteam zur teilstromspezifischen Erfassung der häuslichen Abwässer entwickelt, besteht im Kern aus einer Abwasserweiche auf Hausbasis und wird ergänzt durch die anschließende getrennte Sammlung von Grau- und Schwarzwasser in einem Zwei-Kammer-Abwasserschacht.

Die Abwasserweiche soll nah am Ort des Abwasseranfalls eingesetzt werden. An den Eintragsstellen, z.B. Toilette, Waschmaschine, Geschirrspülmaschine etc., wird entsprechende Sensorik die Trennung der Abwässer anhand des Zeitpunkts ihrer Einleitung ermöglichen. In einer Vakuumleitung werden die Abwasserteilströme zeitlich getrennt aus dem Zwei-Kammer-Schacht abgeleitet. Durch den separaten Transport können die Nährstoffe aus dem hochkonzentrierten Abwasser rückgewonnen und wiederverwertet sowie zur Energieerzeugung genutzt werden. So eröffnet das Projekt »AWAS« neue Möglichkeiten der Abwasserbewirtschaftung, ohne in die bestehende Bausubstanz der Gebäude eingreifen zu müssen.

Das Verbundprojekt ist Teil der BMBF-Fördermaßnahme »KMU-innovativ: Ressourceneffizienz und Klimaschutz«. Die Maßnahme gehört zum BMBF-Programm »Forschung für Nachhaltige Entwicklung (FONA³)«.

»Entwicklung einer Abwasserweiche und getrennten Abwassersammlung als Vorstufe einer effizienten Wasserwiederverwendung und Energiegewinnung«

Projektförderung:
Bundesministerium für Bildung und Forschung (BMBF); Fördermaßnahme: KMU-innovativ: Ressourceneffizienz und Klimaschutz, Anwendungsbereich: Nachhaltiges Wassermanagement

Projektlaufzeit:
September 2018 – August 2020

Projektpartner:
Bauhaus-Universität Weimar, Professur Siedlungswasserwirtschaft (https://www.uni-weimar.de/de/bauingenieurwesen/professuren/siedlungswasserwirtsc…)
Kubra GmbH (https://www.kubra-gmbh.de/)
MFPA Weimar (https://www.mfpa.de/)
Synantik GmbH – Industrielle Mess- und Regelungstechnik (http://www.synantik.de/)
VAB VakuumanlagenBau GmbH (www.vabgmbh.de)
Abwasserzweckverband „Nordkreis Weimar“ (assoziiert) (https://www.azv-nordkreis-weimar.de/wop/)
QUNDIS GmbH (assoziiert) (https://qundis.de/)

Wissenschaftliche Ansprechpartner:
Für Rückfragen steht Ihnen gerne Prof. Dr.-Ing. Jörg Londong, Fakultät Bauingenieurwesen der Bauhaus-Universität Weimar, unter +493643/58 46 15 oder joerg.londong@uni-weimar.de zur Verfügung.

Quelle: idw

(nach oben)


Positive Erinnerung an eigene Macht lässt Frauen schneller in den Wettbewerb eintreten

Anneliese Odenthal Presse und Kommunikation
Universität zu Köln

Positive Erinnerung an eigene Macht lässt Frauen schneller in den Wettbewerb eintreten
Frauen treten schneller in einen Wettbewerb ein, wenn sie sich an Situationen erinnern, in der sie Kontrolle über andere Menschen hatten / Wirtschaftswissenschaftler verwenden Methode des „Primings“ um den Gender Gap bei Karriere und Bezahlung zu schließen

Männer haben im Vergleich zu Frauen eine größere Bereitschaft sich in einen Wettbewerb zu begeben, was wahrscheinlich zu den Unterschieden in Gehältern und Karriereentwicklungen zwischen Männern und Frauen beiträgt. Der Wirtschaftswissenschaftler Professor Dr. Matthias Sutter vom Department of Economics der Uni Köln zeigt in einer neuen Arbeit, dass eine einfache und praktisch kostenlose Methode die Einkommens- und Karrierekluft zwischen Männern und Frauen schließen kann. Der Artikel „Closing the gender gap in competitiveness through priming“ ist in der aktuellen Ausgabe von Nature Communications erschienen.

Sutter und seine Kollegen Loukas Balafoutas und Helena Fornwagner von der Universität Innsbruck benutzten dafür die Methode des sogenannten „primings with power“, der Bahnung von Reizen durch Erinnerungen an Machtsituationen, bei den Probanden. Unter Priming verstehen die Psychologen die Beeinflussung eines Reizes durch einen gezielten vorhergehenden Reiz, zum Beispiel Erinnerungen. Im Ergebnis der Versuche wurde das Gefühl der weiblichen Probanden gefördert, sich bei der Ausübung von Macht wohlzufühlen. Damit schlossen sie in ihrer Wettbewerbsbereitschaft zu den Männern auf.

Um einen kognitiven Vorgang in einem Menschen auf diese Weise zu beeinflussen, muss er zum Beispiel durch eine Erinnerung an ein vorhergehendes positives oder negatives Ereignis in eine reizverändernde „Stimmung“ versetzt werden. Dadurch kann sich seine Reaktion auf eine folgende Situation verändern. Im Falle des Wettbewerbsverhaltens von Männern und Frauen setzten die Wissenschaftler einen positiven Reiz im Bereich der Macht über Mitmenschen. Die Probanden sollten sich Situationen aus ihrem Leben vorstellen, in der sie entweder in einer neutralen Machtposition waren, einer Position, in der sie von anderen beherrscht wurden und in einer Position, in der sie Kontrolle über andere Individuen hatten. Danach konnten die männlichen und weiblichen Probanden entscheiden, ob sie sich in einem einfachen Wettbewerb, dem Addieren von Zahlen in einer kurzen Zeit, engagieren oder nicht.

Waren die Probanden nicht „geprimet“ (neutral) oder durch eine Erfahrung beeinflusst waren, in der sie beherrscht worden waren, schlugen Männer deutlich öfter den Weg des Wettbewerbs ein als Frauen. „Der Unterschied zwischen Geschlechtern verschwand, wenn die Probanden durch eine Erinnerung an eine Situation vorbereitet wurden, in der sie Kontrolle über andere hatten“, so Sutter. „Diese Erinnerungen beeinflussten das Verhalten der weiblichen Probanden so sehr, dass sie genauso oft wie ihre männlichen Konkurrenten in einen Wettbewerb eintraten. Interessanterweise hat sich die Wettbewerbsbereitschaft von Männern sogar reduziert in dieser Situation, wodurch der Geschlechterunterschied verschwand.“

Firmen und ihre Personalabteilungen könnten in Zukunft von solchen Techniken profitieren, da sie den besten Kandidaten/die beste Kandidatin für eine Aufgabe möchten, ungeachtet des Geschlechts, wobei die Kandidaten/innen sich in einer Wettbewerbssituation wohl fühlen müssen.

Presse und Kommunikation:
Robert Hahn
+49 221 470-2396
r.hahn@verw.uni-koeln.de

Internet:
https://socialsciences.nature.com/users/181362-loukas-balafoutas/posts/39985-the…

Wissenschaftliche Ansprechpartner:
Professor Dr. Matthias Sutter
E-Mail: matthias.sutter@coll.mpg.de
Tel.: 0043 660 710 8525

Originalpublikation:
Zur Publikation:
https://rdcu.be/9AVt

Quelle: idw

(nach oben)


Lachen ist die beste Medizin – wie Humor hilft, Stress am Arbeitsplatz abzubauen

Sabine Ranke-Heinemann Pressestelle
Australisch-Neuseeländischer Hochschulverbund / Institut Ranke-Heinemann

Humor ist, wenn man trotzdem lacht. Das gilt auch am Arbeitsplatz in Situationen, in denen vielen vielleicht nicht zum Lachen zumute ist. Wissenschaftler der Australian National University haben herausgefunden, dass schon ein wenig Humor am Arbeitsplatz helfen kann, besser mit Aggression und stressigen Situationen umzugehen.

Dr. David Cheng vom ANU College of Business and Economics sagt, dass aggressives Verhalten und Mobbing im Job weit verbreitete Probleme sind, die sich auf die mentale Gesundheit der Opfer auswirken. Das kann auch teuer für den Arbeitgeber werden.

Seine Forschungsergebnisse zeigen, dass Humor den negativen Einfluss von aggressivem Verhalten gegenüber anderen Angestellten reduzieren kann. „Während das Vermeiden von unangebrachtem Verhalten am Arbeitsplatz, wie etwa Aggressivität, natürlich die beste Lösung ist, zeigt unsere Studie, dass ein Lachen in stressigen Situationen helfen kann“, so Dr. Cheng.

Für die Studie wurden die Teilnehmer zunächst einer Simulation ausgesetzt, in der sie von einem Kollegen aggressiv angeschrien wurden. Anschließend wurde ihnen entweder ein lustiges oder ein nicht lustiges Video vorgespielt.

„Das Experiment zeigt, dass witzige Stimuli für Menschen, die aggressivem Verhalten ausgesetzt sind, hilfreich sein können“, erklärt Dr. Cheng. „Humor verbessert das psychische Wohlergehen des Opfers, indem er ihm ein neues Gefühl der Stärke verleiht. Die Teilnehmer fühlten sich handlungsfähiger und hatten das Gefühl, dass die Menschen ihnen eher zuhören würden. Das ist wichtig, denn durch Aggressivität am Arbeitsplatz, beispielsweise durch Anschreien, fühlt sich der Angegriffene herabgewürdigt. Humor kann diesem Gefühl offensichtlich entgegenwirken und neue Kraft verleihen.“

Die Studie ist Teil eines größeren Forschungsprojekts, das den Einfluss von Lachen am Arbeitsplatz untersucht. Eine andere Studie von Dr. Cheng zeigt, dass Humor auch die Produktivität anheben kann.

In dieser Studie aus dem Jahr 2015 mussten die Teilnehmer langweilige, sich wiederholende Aufgaben ausführen (einfache mathematische Fragen beantworten). Nach einer bestimmten Zeit machten die Probanden eine zehnminütige Pause. Einer Gruppe sah sich währenddessen lustige Videos an.

„Nach der Pause sagten wir den Leuen, dass sie zu jederzeit aufhören können zu arbeiten. Dann haben wir gemessen, wie lange sie weitergemacht haben und wie gut sie sich dabei angestellt haben“, sagt Dr. Cheng. „Die Gruppe, die die lustigen Videos gesehen hat, machte doppelt so lange und auf dem gleichen Qualitätslevel weiter.“

Die Forschungsergebnisse wurden in dem Paper „Laughter Is (Powerful) Medicine: the Effects of Humor Exposure on the Well-being of Victims of Aggression“ in der wissenschaftlichen Zeitschrift „Business and Psychology“ veröffentlicht.

Weitere Informationen:
Institut Ranke-Heinemann / Australisch-Neuseeländischer Hochschulverbund
Pressestelle Friedrichstr. 95
10117 Berlin
Email: berlin@ranke-heinemann.de
Tel.: 030-20 96 29 593

oder:

Aaron Walker
Tel.: +61 2 6125 7979
Email: media@anu.edu.au

Das Institut ist die gemeinnützige Einrichtung zur Förderung des Austausches und der Auslandsstudien insbesondere mit allen Universitäten Australiens und Neuseelands sowie zur Förderung von Wissenschaft und Forschung. In seinen Förderprogrammen stellt es SchülerInnen und Studierenden Unterstützung in der Finanzierung durch Stipendien und Coaching in der Studienberatung und Studienplatzbewerbung zur Verfügung.

Weitere Informationen:
https://www.ranke-heinemann.de

Quelle: idw

(nach oben)


Das Gewicht der Liebe: Wer zusammenzieht, nimmt zu

Kerstin Skork Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Bildungsforschung

Paare leben in der Regel gesünder und länger als Singles. Jedoch wiegen sie im Durchschnitt auch mehr als Alleinlebende. Unklar war bisher, wie sich Veränderungen von Beziehungen auf das Körpergewicht auswirken und wann Paare am meisten zunehmen. Um das herauszufinden, haben Wissenschaftler*innen des Max-Planck-Instituts für Bildungsforschung, der Universität Mannheim, der Universität Leipzig und des Deutschen Instituts für Wirtschaftsforschung Daten von 20.000 Menschen über einen Zeitraum von 16 Jahren ausgewertet. Die Ergebnisse wurden im Journal Health Psychology veröffentlicht.

Paare haben ein höheres Körpergewicht als Singles – ganz gleich, ob mit oder ohne Trauschein. Anders als bisher oft vermutet, ist es aber weniger die Eheschließung, als vielmehr das erste Zusammenziehen, dass zu einer Gewichtszunahme führt. So nehmen Paare nach dem Zusammenziehen etwa doppelt so viel zu, wie Paare in den ersten vier Ehejahren. Dieser Effekt bleibt bestehen, auch wenn man wichtige Einflüsse wie Alter, Kinderkriegen, Sport, Rauchen, Gesundheitszustand oder Stress herausrechnet. „Das heißt, dass diese Gewichtszunahme vor allem mit der Beziehungsveränderung zusammenhängt. Denn eine Änderung des Beziehungsstatus bedeutet oft auch eine Änderung der alltäglichen Essgewohnheiten – zum Beispiel gemeinsames Frühstücken, das allein vielleicht nicht stattgefunden hätte oder bescheidener ausgefallen wäre. In Gesellschaft isst man in der Regel mehr und nimmt somit mehr Kalorien zu sich“, sagt Ralph Hertwig, Ko-Autor der Studie und Direktor am Max-Planck-Institut für Bildungsforschung.

Trennen sich Paare, so sinkt der Body-Mass-Index (BMI), der das Körpergewicht eines Menschen in Relation zu seiner Körpergröße setzt, bei Frauen und Männern hingegen wieder weitestgehend auf den Wert vor dem Zusammenziehen. Das entspricht der Vorhersage der sogenannten Heiratsmarkthypothese, wonach Menschen auf Partnersuche sich um ein niedrigeres Körpergewicht bemühen, da dies mit mehr Attraktivität verbunden wird. Interessanterweise nehmen beide Geschlechter aber bei Scheidungen, die auf Trennungen folgen, am meisten zu. Eine mögliche Erklärung dazu ist, dass viele Menschen – vor allem Männer – bei der Scheidung wieder in einer neuen Beziehung sind.

„Mit Blick auf die Gewichtszunahme sind Zusammenziehen und Scheidung wichtige Zeitfenster für Prävention. Bisher wurden soziale Einflüsse – zu denen auch Beziehungsveränderungen zählen – in der Entstehung von Übergewicht kaum beachtet. Stattdessen wurden vor allem individuelle Faktoren wie Wissen oder Willensstärke diskutiert. Dabei zeigen unsere Ergebnisse, dass ein unverheirateter Mann, der vor dem Zusammenziehen leicht übergewichtig ist, im Durchschnitt etwa 7,5 Kilogramm zunimmt, nachdem er je mindestens vier Jahren ohne Trauschein zusammengelebt hat, verheiratet, getrennt und geschieden war. Dadurch erhöht er sein allgemeines Sterblichkeitsrisiko um bis zu 13 Prozent“, sagt Jutta Mata, Professorin für Gesundheitspsychologie an der Universität Mannheim und assoziierte Wissenschaftlerin am Max-Planck-Institut für Bildungsforschung.

Mit dieser Studie wurden erstmals die Langzeiteffekte von Veränderungen im Beziehungsstatus auf den BMI untersucht. Dafür verglichen die Wissenschaftler*innen Daten von 20.950 Einzelpersonen zwischen 19 und 100 Jahren in Deutschland über einen Zeitraum von insgesamt 16 Jahren. Die Daten stammen aus der Längsschnittstudie des „Sozio-oekonomischen Panels“ (SOEP), mit der das Deutsche Institut für Wirtschaftsforschung repräsentative Daten über die Bevölkerung in Deutschland erhebt. In Interviews wurden die demographischen Daten, wie Alter, Geschlecht, Familienstand, aber auch Größe und Gewicht abgefragt. Zusätzlich wurde nach wichtigen Lebensereignissen, wie Geburt oder Veränderungen im Berufsleben, wahrgenommenem Stress, dem subjektiven Gesundheitsempfinden und dem Verhalten mit Blick auf Ernährung, Sport und Rauchen gefragt.

Das Max-Planck-Institut für Bildungsforschung wurde 1963 in Berlin gegründet und ist als interdisziplinäre Forschungseinrichtung dem Studium der menschlichen Entwicklung und Bildung gewidmet. Das Institut gehört zur Max-Planck-Gesellschaft zur Förderung der Wissenschaften e. V., einer der führenden Organisationen für Grundlagenforschung in Europa.

Originalpublikation:
Mata, J., Richter, D., Schneider, T., & Hertwig, R. (2018). How cohabitation, marriage, separation, and divorce influence BMI: A prospective panel study. Health Psychology, 37(10), 948-958. dx.doi.org/10.1037/hea0000654

Weitere Informationen:

https://www.mpib-berlin.mpg.de/de/presse/2018/10/das-gewicht-der-liebe-wer-zusam…

Quelle: idw

(nach oben)


Methan als umweltfreundlicher Kraftstoff für LKW, Busse und andere Nutzfahrzeuge

Dipl.-Volkswirt Thomas Jung Presse- und Öffentlichkeitsarbeit
Technische Universität Kaiserslautern

„Deutschland wird die für 2020 gesetzten CO2-Ziele deutlich verfehlen“ – so der aktuelle Klimaschutzbericht der Bundesregierung. Schnell wirksame Maßnahmen zur Reduktion der CO2- wie auch der Schadstoffemission des Verkehrs sind gefragt. Dies stellt gerade Busunternehmen und Speditionen vor Herausforderungen. Eine Lösung bieten alternative Kraftstoffe wie Erdgas, das hauptsächlich aus Methan besteht. Bei seiner Nutzung fallen weniger CO2, Stickoxide und Feinstaub an. Methan als Kraftstoff steht am Mittwoch, den 17. Oktober, 9:30 Uhr, Gebäude 42, Hörsaal 110, im Fokus einer Tagung an der TU Kaiserslautern. Experten diskutieren dabei über seinen Einsatz in Nutzfahrzeugen und seine Rolle bei der klimaneutralen Energieversorgung.

Damit Busse, LKW, Transporter und andere Nutzfahrzeuge künftig weiter in Städten fahren können, braucht es neue Antriebstechniken und Kraftstoffe. „Methan ist ein solches Beispiel“, sagt Professor Dr. Michael Günthner von der TU Kaiserslautern (TUK). „Es ist in Sachen Umweltfreundlichkeit, aber auch aufgrund der guten Verfügbarkeit und vergleichsweise einfachen Handhabung attraktiv.“ Zum einen fallen deutlich weniger Feinstaub und Stickoxide an als beim Einsatz von Dieselkraftstoff, aber auch die Kohlenstoffdioxid-Emission ist bis zu 30 Prozent geringer – und das bereits bei Verwendung von Erdgas aus fossiler Gewinnung. Zudem lässt sich Methan sowohl mit biologischen Verfahren als auch mit großtechnischen chemischen Syntheseprozessen klimaneutral herstellen. „Synthetische Kraftstoffe wie unter Verwendung von Ökostrom hergestelltes Methan könnten in Zukunft eine weitgehend klimaneutrale Energieversorgung für den Verkehrsbereich ermöglichen“, so der Professor weiter.

Auf dem Markt gibt es außerdem bereits entsprechende Gasantriebe, die komprimiertes oder verflüssigtes Erdgas (Compressed Natural Gas, CNG, oder Liquefied Natural Gas, LNG) verwenden. Im Unterschied zum vorwiegend im Pkw-Bereich als Alternativkraftstoff eingesetzten „Autogas“ (LPG) besteht LNG wie auch CNG zum Großteil aus Methan. „Durch den Einsatz von verflüssigtem Erdgas kann auch die Reichweite deutlich erhöht werden“, fährt Professor Günthner fort. Dies macht LNG insbesondere für Langstrecken zum Beispiel im Speditionsverkehr interessant. „Bislang fehlt für LNG allerdings ein flächendeckendes Tankstellen-Netz“, so Günthner. Auch für komprimiertes Erdgas müsse die Infrastruktur weiter zügig ausgebaut werden.

Bei der Tagung „Methan als Kraftstoff für Nutzfahrzeuge“ beleuchten Experten aus Wissenschaft und Wirtschaft, welche Chancen Methan als Kraftstoff bietet. Dabei geht es gleichermaßen um Fragen der technischen Weiterentwicklung wie um Aspekte der Wirtschaftlichkeit von Gasantrieben. Auch zeigen die Referenten auf, wie der Kraftstoff in der Zukunft hergestellt und verteilt werden könnte, und welche Rolle synthetische Kraftstoffe in zukünftigen, sektorübergreifenden Energieszenarien spielen. Hierbei geht es insbesondere darum, wie bei einer Umsetzung der Energiewende mit weitgehender Umstellung auf regenerative Energieträger die Versorgungssicherheit durch eine energetische „Vernetzung“ der verschiedenen Sektoren – Energieerzeugung/Kraftwerke, Verkehr, Industrie, Haushalte und Landwirtschaft – sichergestellt werden kann („Sektorkopplung“). Entwickler berichten zudem über konkrete Einsatzmöglichkeiten gasförmiger Kraftstoffe in verschiedenen Anwendungsbereichen von Nutzfahrzeugen und zeigen die Vorteile auf. Darüber hinaus stehen für Interessierte Probefahrten mit erdgasbetriebenen Nutzfahrzeugen (CNG/LNG) auf dem Programm.

Organisiert wird die Veranstaltung von Professor Dr. Michael Günthner, Dr. Thorsten Fuchs und Dr. Jörg Neugärtner vom Lehrstuhl für Antriebe in der Fahrzeugtechnik (LAF) in Kooperation mit der IVECO Süd-West Nutzfahrzeuge GmbH. Die Tagung wird darüber hinaus unterstützt von „We move it“, einer Initiative des rheinland-pfälzischen Ministeriums für Wirtschaft, Verkehr, Landwirtschaft und Weinbau.

Weitere Informationen zur Veranstaltung unter https://laf.mv.uni-kl.de/lehrstuhl-fuer-antriebe-in-der-fahrzeugtechnik/news/met…

Fragen beantwortet:
Prof. Dr. Michael Günthner
Lehrstuhl für Antriebe in der Fahrzeugtechnik
E-Mail: guenthner@mv.uni-kl.de
Tel.: 0631/205-5796

Quelle: idw

(nach oben)


Tarifrunde 2019: Für rund 7,3 Millionen Beschäftigte werden neue Vergütungstarifverträge verhandelt

Rainer Jung Abt. Öffentlichkeitsarbeit
Hans-Böckler-Stiftung

Service des WSI-Tarifarchivs
Tarifrunde 2019: Für rund 7,3 Millionen Beschäftigte werden neue Vergütungstarifverträge verhandelt – Die Kündigungstermine

Die Tarifrunde 2018 geht in die Schlussphase: In einigen Bereichen wird in den verbleibenden Wochen und Monaten des Jahres noch verhandelt. Dazu gehören zum Beispiel die Deutsche Bahn AG, wo die Verhandlungen morgen beginnen, oder das Bewachungsgewerbe. Zugleich laufen bereits in vielen Branchen die Vorbereitungen für die Tarifrunde 2019. Insgesamt verhandeln die DGB-Gewerkschaften im nächsten Jahr für rund 7,3 Millionen Beschäftigte neue Vergütungstarifverträge.

Wann in welchem Bereich verhandelt wird, zeigt der tarifliche Kündigungsterminkalender, den das Tarifarchiv des Wirtschafts- und Sozialwissenschaftlichen Instituts (WSI) der Hans-Böckler-Stiftung jetzt vorlegt. Einige ausgewählte Beispiele (in Klammern: Beschäftigtenzahlen):

Dezember 2018:
Öffentlicher Dienst Länder (Inklusive Berlin und Hessen) (935.700)*

Januar 2019:
Bankgewerbe (o. Genossenschaftsbanken) (217.900)
Textilindustrie (46.200)

Februar:
Bekleidungsindustrie Westdeutschland (30.200)
Papier erzeugende Industrie (39.000)
Private Energieversorgung Baden-Württemberg (37.000)

März:
Einzelhandel Hessen, Saarland, Baden-Württemberg (498.000)
Groß- und Außenhandel Bayern (180.800)

April:
Einzelhandel Schleswig-Holstein, Hamburg, Niedersachsen, Bremen, Nordrhein-Westfalen, Rheinland-Pfalz, Bayern (1.392.100)
Groß- und Außenhandel Schleswig-Holstein, Hamburg, Niedersachsen, Hessen, Rheinland-Rheinhessen, Pfalz, Saarland, Berlin, Mecklenburg-Vorpommern, Brandenburg, Sachsen-Anhalt (411.200)

Mai:
Kfz-Gewerbe Schleswig-Holstein, Hamburg, Niedersachsen, Nordrhein-Westfalen, Pfalz, Saarland, Baden-Württemberg, Bayern, Mecklenburg-Vorpommern (281.500)

Juni:
Wohnungs- und Immobilienwirtschaft (64.000)

Juli:
Kunststoff verarbeitende Industrie Baden-Württemberg (59.200)

August:
Versicherungsgewerbe (170.500)
Privates Verkehrsgewerbe Schleswig-Holstein (23.500)

September:
Holz- und Kunststoff verarbeitende Industrie Niedersachsen/Bremen, Westfalen-Lippe, Hessen, Rheinland-Pfalz, Baden-Württemberg, Bayern, Sachsen-Anhalt, Thüringen, Sachsen (180.600)
Kfz-Gewerbe Rheinland-Rheinhessen (12.400)

Oktober:
Chemische Industrie Nordrhein, Hessen, Rheinland-Pfalz (268.000)

November:
Chemische Industrie Schleswig-Holstein, Hamburg, Niedersachsen, Bremen, Westfalen, Baden-Württemberg, Bayern, Berlin-West (284.800)
Privates Verkehrsgewerbe Hessen, Rheinland-Pfalz (90.800)

Dezember:
Zeitarbeit (BAP und iGZ), 980.000)
Systemgastronomie (100.000)
Chemische Industrie, Saarland, Ost (46.300)

*Die Tarifverträge bei den Ländern beeinflussen darüber hinaus die Einkommensentwicklung von etwa 2,1 Mio. Beamten und Versorgungsempfängern.

In einigen Branchen wird im kommenden Jahr nicht verhandelt, weil die Verträge bis ins Jahr 2020 gelten. Dies gilt z. B. für die Metall- und Elektroindustrie, Bund und Gemeinden des öffentlichen Dienstes oder das Bauhauptgewerbe. Der ausführliche Überblick in der PDF-Version dieser Pressemitteilung informiert über die Kündigungstermine in zahlreichen weiteren Branchen bis Ende des Jahres 2020. In der Tabelle ist auch ausgewiesen, wie viele Beschäftigte in den jeweiligen Tarifbereichen tätig sind.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Thorsten Schulten
Leiter WSI-Tarifarchiv
Tel.: 0211 / 77 78-239
E-Mail: Thorsten-Schulten@boeckler.de

Rainer Jung
Leiter Pressestelle
Tel.: 0211 / 77 78-150
E-Mail: Rainer-Jung@boeckler.de

Originalpublikation:
Die Pressemitteilung mit Kündigungsterminkalender bis Ende 2020 (pdf): https://www.boeckler.de/pdf/pm_ta_2018_10_10.pdf

Quelle: idw

(nach oben)


„Wer (alkoholfreies) Bier trinkt, lebt hundert Jahre“

Dr. Susanne Langer Kommunikation und Presse
Friedrich-Alexander-Universität Erlangen-Nürnberg

FAU-Forscher untersuchen gesunde Inhaltsstoffe im Bier
Bierinhaltsstoffe als Mittel gegen Entzündungen und Fettleibigkeit? Forscher um Prof. Dr. Claus Hellerbrand, Institut für Biochemie der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU), haben für ihr Forschungsprojekt, das Bierinhaltsstoffe hinsichtlich ihrer entzündungshemmenden Wirkung untersucht, den Forschungspreis der European Foundation for Alcohol Research und der European Brewery Convention über 60.000 Euro erhalten.

„Wer Bier trinkt, lebt hundert Jahre“, so lautet ein italienisches Sprichwort, in dem vielleicht mehr Wahrheit steckt, als erwartet. Bier enthält die Stoffe Xanthohumol und Iso-Alphasäuren. Laut Studien der Arbeitsgruppe von Prof. Hellerbrand hemmt Xanthohumol die durch Übergewicht und Fehlernährung hervorgerufene Leberverfettung und verhindert, dass die Leber vernarbt. Zudem tötet es Leberkrebszellen ab und verhindert bei Überernährung die Gewichtszunahme. Auch die Iso-Alphasäuren haben eine positive Wirkung auf die Gesundheit. Sie hemmen Leberschäden und beeinflussen den Fett- und Zuckerstoffwechsel positiv.

In neuen Forschungsarbeiten fanden die Wissenschaftler gemeinsam mit der Arbeitsgruppe von Prof. Dr. Ina Bergheim, Universität Wien, außerdem heraus, dass die beiden Substanzen biologische Prozesse besonders in der Kombination günstig beeinflussen. Zusammen hemmen sie beispielsweise Entzündungsprozesse noch effektiver. Bereits sehr niedrige Konzentrationen bremsen deutlich die Produktion von Entzündungsfaktoren in Leber- und Blutzellen. Ob auch noch weitere Krankheitsmechanismen wie Diabetes oder Krebs durch die Kombination der beiden Substanzen effektiver bekämpft werden können, soll in dem nun geförderten Forschungsprojekt untersucht werden. Ferner sollen die Mechanismen, die dieser guten kombinatorischen Wirkung zugrunde liegen, entschlüsselt werden.

Hopfen – Gelbes Gold
Xanthohumol gehört zu den Pflanzenpolyphenolen – den aromatischen Verbindungen, die für Farbe und Geschmack der Pflanzen sorgen. Der Stoff ist ausschließlich im Hopfen zu finden und für den gelben Farbton der Hopfenblüten verantwortlich. Hopfen spielt eine wichtige Rolle beim Brauen von Bier, bei dem Xanthohumol jedoch in großen Teilen abgebaut wird. Im Bier selbst liegt nur ein geringer Anteil des Stoffes vor. Ein weiterer Inhaltsstoff des Hopfens sind die Bittersäuren, die den typischen Biergeschmack hervorrufen. Eine Gruppe von ihnen sind die alpha-Säuren, die durch die Erhitzung beim Brauprozess in Iso-Alphasäuren umgewandelt werden.

Minuspunkt: Alkohol
Die derzeit einzige Art, wie Xanthohumol und Iso-Alphasäuren vom Menschen aufgenommen werden, ist über den Genuss von Bier, wenn auch hier in relativ geringer Konzentration. Bier ist jedoch keine Medizin. Der Grund: der Alkoholgehalt. „Es ist jedoch denkbar, dass durch den Konsum von alkoholfreiem Bier oder anderen hopfenhaltigen Nahrungsmitteln und Getränken wie Hopfenlimonade oder Hopfentee eine positive Wirkung zu erzielen ist. Gerade zur Behandlung oder Prävention von Leberschädigung durch Fettleibigkeit scheinen Xanthohumol und Iso-Alphasäuren sehr vielversprechend“, erläutert Hellerbrand.

Wissenschaftliche Ansprechpartner:
Weitere Informationen:
Prof. Dr. Claus Hellerbrand
Tel.: 09131/85-24191 (Sekretariat)
claus.hellerbrand@fau.de

Quelle: idw

(nach oben)


Biogas-Fachgespräch: Was können Enzyme, Mühlen und Co. wirklich für den Biogasprozess leisten?

Paul Trainer Presse- und Öffentlichkeitsarbeit
Deutsches Biomasseforschungszentrum

Steigende Substratpreise und geänderte förderpolitische Ziele erfordern ein Umdenken und Reagieren von Biogasanlagenbetreibern. Optimierungen von prozesstechnischen Abläufen sowie der Einsatz alternativer Substrate sind meist die Folge. Neben technischen Optimierungen der Anlagen spielen auch Verfahren zum Substrataufschluss eine entscheidende Rolle. Das Leipziger Biogas-Fachgespräch am 28. November setzt sich vor diesem Hintergrund mit der Frage auseinander, welchen Einfluss Enzyme, Mühlen und Co. auf den Biogasprozess haben. Anmeldungen zur Veranstaltung sind unter der Adresse www.leipziger-fachgespraeche.de möglich.

Der Aufschluss schwer abbaubarer Substratbestandteile kann die Beschleunigung und ggf. Erhöhung des Substratabbaus im Biogasprozess bewirken sowie Schwimm- und Sinkschichten vermeiden oder verringern. Viele Möglichkeiten des Substrataufschlusses sind bereits am Markt verfügbar, der Nachweis der Wirkung erfolgt jedoch meistens nur unzureichend. Im Rahmen des Leipziger Biogas-Fachgespräches am 28. November sollen die vorhandenen Verfahren, Effekte und Möglichkeiten der Bewertung aufgezeigt und diskutiert werden, was Enzyme, Mühlen und Co. zum Biogasprozess beitragen können.

Zu Beginn der Veranstaltung wird Josephine Hofmann vom Deutschen Biomasseforschungszentrum die Möglichkeiten des Substrataufschlusses bei der Desintegration darstellen. Dr. Liane Müller (DBFZ) erläutert anschließend, wie der Effekt des Substrataufschlusses am Beispiel des Einsatzes von Enzymen bewertet werden kann. Burkhard Heidler (NAWARO BioEnergie) referiert in seinem Erfahrungsbericht zum Einsatz von Desintegrationsverfahren im Biogasanlagenbetrieb und Michael Korn (Biokraft Burgioß GmbH & Co. KG) stellt dar, wie sich Enzyme für vielfältige Substrate in Biogasanlagen einsetzen lassen. Abschließend bietet sich Raum für eine Zusammenfassung und Diskussion der Ergebnisse. Die Veranstaltung wird moderiert von Herrn Tino Barchmann vom DBFZ.

Der Termin noch einmal zusammengefasst:
Termin: 28. November 2018, 11:30 bis 16:30 Uhr
Ort: Deutsches Biomasseforschungszentrum, Torgauer Str. 116, 04347 Leipzig
Anmeldung: bis zum 22. November 2018 unter www.leipziger-fachgespraeche.de
Kosten: Die Teilnahmegebühr beträgt 20,- Euro. Dies beinhaltet Pausengetränke sowie -verpflegung und ist umsatzsteuerbefreit (§4 Abs. 22a UStG)

Hinweis: Im Vorfeld der Veranstaltung besteht die Möglichkeit, im Rahmen einer Führung die Forschungsbiogasanlage des DBFZ zu besichtigen. Bitte melden Sie sich hierfür explizit an.

Ziel der Veranstaltungsreihe „Leipziger Biogas-Fachgespräche“
Das Leipziger Biogas-Fachgespräch ist ein Forum, in dem die Chancen, aber auch die Grenzen der Energiegewinnung aus Biogas analysiert und diskutiert werden. Darüber hinaus geht es um aktuelle Themen aus der landwirtschaftlichen und kommunalen Biogaserzeugung und -nutzung. Primär kommen Referenten aus der Region und externe Referenten zu besonders interessanten Fragestellungen zu Wort. Ziel ist es, ein Branchennetzwerk zu etablieren, mit dem der Informationsfluss nachhaltig verbessert werden kann. Hierdurch soll ein merklicher Beitrag zu einer optimierten Produktion und Nutzung von Biogas als regenerativem Energieträger in Sachsen und den angrenzenden Bundesländern geleistet werden.

Veranstalter der Leipziger Biogas-Fachgespräche ist das Deutsche Biomasseforschungszentrum (DBFZ), unterstützt vom Sächsischen Landesamt für Umwelt, Landwirtschaft und Geologie (LfULG) sowie dem Helmholtz-Zentrum für Umweltforschung (UFZ) und dem Umweltinstitut Leipzig e.V.

Smart Bioenergy – Innovationen für eine nachhaltige Zukunft
Das Deutsche Biomasseforschungszentrum arbeitet als zentraler und unabhängiger Vordenker im Bereich der energetischen und stofflichen Biomassenutzung an der Frage, wie die begrenzt verfügbaren Biomasseressourcen nachhaltig und mit höchster Effizienz und Effektivität zum bestehenden und zukünftigen Energiesystem beitragen können. Im Rahmen der Forschungstätigkeit identifiziert, entwickelt, begleitet, evaluiert und demonstriert das DBFZ die vielversprechendsten Anwendungsfelder für Bioenergie und die besonders positiv herausragenden Beispiele gemeinsam mit Partnern aus Forschung, Wirtschaft und Öffentlichkeit. Mit der Arbeit des DBFZ soll das Wissen über die Möglichkeiten und Grenzen einer energetischen und integrierten stofflichen Nutzung nachwachsender Rohstoffe in einer biobasierten Wirtschaft insgesamt erweitert und die herausragende Stellung des Industriestandortes Deutschland in diesem Sektor dauerhaft abgesichert werden – www.dbfz.de.

Wissenschaftliche Ansprechpartner:
Tino Barchmann
Tel.: +49 (0)341 2434-375
E-Mail: tino.barchmann@dbfz.de

Pressekontakt:
Paul Trainer
Tel.: +49 (0)341 2434-437
E-Mail: paul.trainer@dbfz.de

Weitere Informationen:
https://www.dbfz.de/presse/pressemitteilungen-2018/leipziger-biogas-fachgespraec…
http://www.leipziger-fachgespraeche.de

Quelle: idw

(nach oben)


Grippe – Gefahr unter Kontrolle?

Susanne Thiele Presse und Kommunikation
Helmholtz-Zentrum für Infektionsforschung

Auftakt der HZI-Vortragsreihe „KrankheitsErregend“ mit aktuellen Antworten aus der Grippeforschung

Jetzt beginnt die alljährliche Grippesaison, und mit ihr stellen sich wieder die Fragen: Wie kann ich mich schützen? Soll ich mich impfen lassen? Was geschieht, wenn ich schwer krank werde? Die Grippewelle des vergangenen Winters war eine der schwersten seit langem. Wie die Bedrohung durch die Grippe sogar die Geschichte veränderte und wie sie aktuell erforscht wird, darüber informiert das Helmholtz-Zentrum für Infektionsforschung (HZI) in Braunschweig am 20. Oktober 2018 zum Auftakt der Vortragsreihe „KrankheitsErregend“, die es bereits zum siebten Mal ausrichtet.

Besonders verheerend wirkte 1918 – am Ende des ersten Weltkriegs – die sogenannte Spanische Grippe, die fast 50 Millionen Todesopfer forderte. Hatte diese Epidemie einen Einfluss auf den Verlauf des Krieges, und stehen wir – genau 100 Jahre später – der nächsten schweren Grippewelle noch immer so hilflos gegenüber wie im frühen 20. Jahrhundert? Seitdem traten immer wieder schwerste Influenza-Epidemien auf, zuletzt im Winter 2017/18. Informationen hierzu präsentiert der Wissenschaftliche Geschäftsführer des Helmholtz-Zentrums für Infektionsforschung, Prof. Dirk Heinz, am 20. Oktober 2018 ab 11 Uhr bei der ersten Veranstaltung der diesjährigen Vortragsreihe. Prof. Klaus Schughart, Leiter der Abteilung „Infektionsgenetik“ am HZI, zeigt im zweiten Vortrag, welchen Herausforderungen sich die moderne Grippeforschung heute stellt. Denn: Die Infektionsforschung ist die beste Vorbereitung auf die nächste mögliche Pandemie.

Die Vortragsreihe:
Bei der diesjährigen Ausgabe der Vortragsreihe „KrankheitsErregend“ werden ganz verschiedene Aspekte der Grippe beleuchtet: Am HZI informieren Experten an drei Samstagvormittagen darüber, was Sie tun können, um gesund zu bleiben, und wie genau die neuesten Medikamente im Krankheitsfall wirken. Ebenso stehen die Entwicklung und Wirkweise von Impfstoffen und der aktuelle Stand der Grippeforschung im Fokus. Am 27. Oktober 2018 geht es um Impfstoffe und Impfforschung und am 3. November 2018 um die vielfältigen Möglichkeiten, wie Sie sich vor einer Ansteckung schützen können und welche Therapiemöglichkeiten im Krankheitsfall zur Verfügung stehen.

Die Veranstaltungen beginnen jeweils um 11:00 Uhr im Forum des HZI in der Inhoffenstraße 7, 38124 Braunschweig. Der Eintritt ist frei, eine Voranmeldung ist nicht nötig. Im Anschluss bietet eine moderierte Diskussion Gelegenheit für Zuschauerfragen. Bei Interesse vermitteln wir gern Interviews mit den Referenten.

Nähere Informationen und den Programmflyer finden Sie unter http://www.helmholtz-hzi.de/krankheitserregend/epidemie/. Rückfragen beantwortet gern die Pressestelle des HZI (Telefon: 0531/6181-1404, E-Mail: veranstaltungen@helmholtz-hzi.de).

Diese Pressemitteilung finden Sie auch auf unserer Homepage unter dem Link https://www.helmholtz-hzi.de/de/aktuelles/news/ansicht/article/complete/grippe_g…

Das Helmholtz-Zentrum für Infektionsforschung:
Am Helmholtz-Zentrum für Infektionsforschung (HZI) untersuchen Wissenschaftler die Mechanismen von Infektionen und ihrer Abwehr. Was Bakterien oder Viren zu Krankheitserregern macht: Das zu verstehen soll den Schlüssel zur Entwicklung neuer Medikamente und Impfstoffe liefern. Das HZI ist Mitglied im Deutschen Zentrum für Infektionsforschung (DZIF). http://www.helmholtz-hzi.de

Ihre Ansprechpartnerinnen:
Susanne Thiele, Pressesprecherin
susanne.thiele@helmholtz-hzi.de
Christine Bentz, Veranstaltungsmanagement
christine.bentz@helmholtz-hzi.de

Helmholtz-Zentrum für Infektionsforschung GmbH
Presse und Kommunikation
Inhoffenstraße 7
D-38124 Braunschweig

Tel.: 0531 6181-1400; -1166

Quelle: idw

(nach oben)


Gutachten zur Behandlung biologisch abbaubarer Kunststoffe

Dipl.-Chem. Iris Kumpmann Abteilung Public Relations
Fraunhofer-Institut für Umwelt-, Sicherheits- und Energietechnik UMSICHT

Auch biologisch abbaubare Kunststoffmaterialien können in der Umwelt mehrere Monate und teilweise sogar einige Jahre beständig sein. Dies ist das Fazit eines Gutachtens, das vom Umweltbundesamt publiziert wurde. Das sechsköpfige Autorenteam bestand zur Hälfte aus Expertinnen und Experten von Fraunhofer UMSICHT. Das Gutachten ist kostenfrei als pdf zugänglich.

In Deutschland und in Europa besteht ein kleiner, jedoch stetig wachsender Markt für biologisch abbaubare Kunststoffe. Die Produkte aus den betreffenden Materialien werden in der Landwirtschaft und im Gartenbau sowie als Sammelbeutel für Bioabfälle eingesetzt. Zusätzlich ist ein wachsender Einsatz im Verpackungs- und Bedarfsgegenständesektor zu beobachten. Der Einsatz biologisch abbaubarer Kunststoffe in Produkten und besonders der Umgang mit biologisch abbaubaren Kunststoffabfällen werden jedoch kontrovers diskutiert. So wird die biologische Abbaubarkeit als Chance im Kampf gegen die langfristige Vermüllung der Umwelt, aber auch als Risiko für eine Verschärfung der Litteringproblematik und für einen potenziell verstärkten Eintrag in die Umwelt betrachtet.

Gutachten zum Abbau von Kunststoffen
Vor diesem Hintergrund hat das Umweltbundesamt ein Gutachten in Auftrag gegeben, in welchem Materialien, Produkte und Standards der biologischen Abbaubarkeit beschrieben und die Verwertung betreffender Abfälle in fünf Mitgliedsstaaten der EU vergleichend dargestellt wurden. Zudem erfolgte eine Auswertung wissenschaftlicher Veröffentlichungen, welche sich mit dem Abbau von abbaubaren Kunststoffen in terrestrischen, aquatischen und marinen Ökosystemen beschäftigen. Das Fazit ist, dass auch biologisch abbaubare Materialien in der Umwelt mehrere Monate und teilweise sogar einige Jahre beständig sein können. (Quelle: Umweltbundesamt)

Quelle: idw

(nach oben)


Entwarnung für Elektroautos: Keine Störung von implantierten Schrittmachern und Defis

Prof. Dr. Eckart Fleck Pressesprecher
Deutsche Gesellschaft für Kardiologie – Herz- und Kreislaufforschung e.V.

Die aktuell eingesetzten Elektroautos führen nicht zu elektromagnetischen Wechselwirkungen und in der Folge nicht zu Störungen von implantierten Herzschrittmachern oder Defibrillatoren. Zu diesem Ergebnis kam ein Forscherteam vom Deutschen Herzzentrum München in einer Studie, die bei den Deutschen Herztagen in Berlin präsentiert wurde.

Berlin, Freitag 12. Oktober 2018 – Entwarnung für herzkranke Lenker von Elektroautos, die einen implantierten Herzschrittmacher oder Defibrillator tragen: Die aktuell eingesetzten Elektroautos führen nicht zu elektromagnetischen Wechselwirkungen und in der Folge nicht zu Störungen solcher Implantate mit potenziell gefährlichen Auswirkungen auf die Gesundheit. Zu diesem Ergebnis kam ein Forscherteam vom Deutschen Herzzentrum München, nachdem es 108 Schrittmacher- und ICD-Patienten untersucht hatte. Die aktuelle Arbeit wurde bei den Deutschen Herztagen in Berlin präsentiert.

Die Studienteilnehmer wurden dem elektromagnetischen Feld von vier gebräuchlichen Elektroautos (Nissan Leaf, Tesla Model S, BMW i3, VW eUp) ausgesetzt. Schrittmacher- oder ICD-Fehlfunktionen während des Fahrens oder des Aufladens der Elektroautos wurde durch EKG-Überwachung und Device-Abfragen untersucht. Studien-Erstautor Dr. Amir Brkic: „Es wurden keine Geräte-Fehlfunktionen oder Umprogrammierungen beobachtet. Das elektromagnetische Feld im Fahrzeuginneren war mit 2.0 bis 3.6 Mikrotesla klein, das heißt die Fahrgastzellen sind gut abgeschirmt.“

Die Patienten wurden im Rahmen einer Routine-Geräte-Kontrolle in die Studie eingeschlossen. Die Untersuchung auf potenzielle Interferenzquellen erfolgte auf einem Rollenprüfstand für Autos unter standardisierten Bedingungen in Kooperation mit Wissenschaftlern für Fahrzeugtechnik. Die Patienten fuhren im Rahmen des Tests die Fahrzeuge unter Lastwechseln und beschleunigten auch über 100km/h.

Die größten elektromagnetischen Felder (EMF) wurden während des Ladevorgangs identifiziert (bis 116 Mikrotesla ). Dr. Brkic: „Der Ladevorgang stellt die potenziell gefährlichere EMF-Exposition dar und sollte in Hinblick auf die Schnellladetechnik weiter untersucht werden.“

Elektroautos werden immer häufiger als öffentliches oder privates Verkehrsmittel eingesetzt und stellen eine potenzielle Interferenzquelle (EMI) für Schrittmacher- oder Defibrillatorträger dar. Die mögliche Beeinträchtigung von Patienten mit implantierten Schrittmachern bzw. Defibrillatoren reicht von einer unnötigen Nutzungseinschränkung bis zur lebensbedrohlichen Fehlfunktion des implantierten Geräts.

Quelle: A. Brkic et al.: Störbeeinflussungen von implantierten Schrittmachern und Defibrillatoren durch Elektroautos nicht nachweisbar: eine cross-sectional, in-vivo Studie; Clin Res Cardiol 107, Suppl 3, October 2018

Die Deutsche Gesellschaft für Kardiologie – Herz und Kreislaufforschung e.V. (DGK) mit Sitz in Düsseldorf ist eine gemeinnützige wissenschaftlich medizinische Fachgesellschaft mit mehr als 10.500 Mitgliedern. Sie ist die älteste und größte kardiologische Gesellschaft in Europa. Ihr Ziel ist die Förderung der Wissenschaft auf dem Gebiet der kardiovaskulären Erkrankungen, die Ausrichtung von Tagungen die Aus-, Weiter- und Fortbildung ihrer Mitglieder und die Erstellung von Leitlinien. Weitere Informationen unter www.dgk.org

Weitere Informationen:
http://www.dgk.org/presse
http://www.kardiologie.org

Quelle: idw

(nach oben)


Kinder, Job und Rente: Wie und mit wem wir unsere Zeit verbringen

Silvia Leek Öffentlichkeitsarbeit und Pressestelle
Max-Planck-Institut für demografische Forschung

Wovon es abhängt, ob getrennte Väter regelmäßigen Kontakt zu ihrem Kind halten und wie sich eine Wirtschaftskrise auf die Lebensarbeitszeit auswirkt, lesen Sie in der neuen Ausgabe von „Demografische Forschung Aus Erster Hand“.

1. Wie lang ist ein Arbeitsleben?
Ökonomische Krise hat die erwartete Lebensarbeitszeit in Spanien stark schrumpfen lassen

In Zeiten des demografischen Wandels wird häufig über ein späteres Renteneintrittsalter diskutiert. Doch unsere Arbeitslebenszeit hängt auch stark davon ab, wie kontinuierlich wir arbeiten. In Spanien etwa sank die erwartete Arbeitslebenszeit während der Wirtschaftskrise drastisch, wie eine Studie des Max-Planck-Instituts für demografische Forschung zeigt.

2. Das Recht zur Sorge
Getrennt lebende Väter, die das Sorgerecht haben, sehen ihr Kind häufiger

Wenn Eltern sich trennen, leben die Kinder in den allermeisten Fällen im Haushalt der Mutter. Ob und wie der Vater dann den Kontakt zu ihnen hält, hängt sehr stark vom Sorgerecht, aber auch vom Bildungsniveau, dem Erwerbsstatus und der Lebensform des Vaters ab. Das zeigt eine neue Studie des Rostocker Zentrums zur Erforschung des Demografischen Wandels.

3. Die dritte Phase
Enkelkinder betreuen oder weiter arbeiten? Studie untersucht die Aktivitätsmuster von Rentnern

Wer das Rentenalter erreicht, steht vor vielen Entscheidungen: Möchte ich noch weiter erwerbstätig sein, mich um die Enkel oder kranke Familienangehörige kümmern, engagiere ich mich ehrenamtlich, oder genieße ich die hinzugewonnene Zeit einfach für mich selbst? Welche Aktivitätsmuster es bei den 60- bis 70-Jährigen gibt, untersucht eine neue Studie des Bundesinstituts für Bevölkerungsforschung in Wiesbaden.

Kontakt:
Silvia Leek
Max-Planck-Institut für demografische Forschung
Konrad-Zuse-Str.1
18057 Rostock, Deutschland
Telefon: +49 (381) 2081-0
Telefax: +49 (381) 2081-443
E-Mail: redaktion@demografische-forschung.org

Herausgeber:
Das Magazin ist eine gemeinsame Publikation des Max-Planck-Instituts für demografische Forschung, des Rostocker Zentrums zur Erforschung des Demografischen Wandels, des Bundesinstituts für Bevölkerungsforschung, des Vienna Institute of Demography / Austrian Academy of Sciences und des Wittgenstein Centre for Demography and Global Human Capital.

http://www.demogr.mpg.de – Max-Planck-Institut für demografische Forschung
http://www.oeaw.ac.at – Österreichische Akademie der Wissenschaften
http://www.rostockerzentrum.de – Rostocker Zentrum zur Erforschung des Demografischen Wandels
http://www.bib-demografie.de – Bundesinstitut für Bevölkerungsforschung

Originalpublikation:
https://www.demografische-forschung.org/

Anhang
Demografische Forschung Aus Erster Hand Nr. 3 2018
https://idw-online.de/de/attachment66843

Quelle: idw

(nach oben)


Deutsche Wassertechnologien für indische Städte

Dr. Claudia Vorbeck Presse und Öffentlichkeitsarbeit
Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik IGB

Verschmutzte Flüsse und Seen, fehlende Abwasserkanäle und Kläranlagen – Indiens schnell wachsende Städte kommen beim Ausbau der kommunalen Infrastruktur kaum nach. Am größten ist der Bedarf an angepassten Lösungen für die kommunale Abwasserreinigung und die Überwachung der Wasserqualität. Dies zeigen erste Ergebnisse des Projekts »Smart Water Future India«, das vom Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik IGB koordiniert wird. Als Basis für eine langfristige Zusammenarbeit soll ein Water Innovation Hub dienen. Deutsche Firmen sind willkommen, sich an dieser deutsch-indischen Plattform zu beteiligen.

»Smart Water Future India« heißt das vom Bundesumweltministerium (BMU) geförderte Projekt, in dem intelligente und nachhaltige Wassermanagementstrategien für die südindische Stadt Coimbatore entwickelt werden. Damit es nicht bei Konzepten und Strategien bleibt, sondern diese auch in die Praxis umgesetzt werden, wird im Rahmen des Projekts ein sogenannter »Water Innovation Hub« aufgebaut. In diesem Netzwerk arbeiten deutsche und indische Firmen eng mit Nichtregierungsorganisationen und Stadtverwaltung zusammen, um auch langfristig die dringend benötigten Lösungen für ein bedarfsgerechtes Wassermanagement bereitzustellen. Das Angebot reicht dabei von der Identifizierung von Maßnahmen über die Suche nach geeigneten Finanzierungsmitteln und Industriepartnern bis zur Koordinierung von Pilotprojekten und Demonstration von Prototypen.

Zugang zum indischen Markt durch Water Innovation Hub
»Deutsche Unternehmen aus der Wasserbranche zeigen großes Interesse am dynamisch wachsenden indischen Markt, haben jedoch oft Schwierigkeiten, ihre Produkte hier abzusetzen«, berichtet Philip Okito, geschäftsführender Gesellschafter der trAIDe GmbH und im Projekt für die Einbindung der Unternehmen zuständig. Angesichts der Herausforderungen in ganz Indien kann der geplante Water Innovation Hub deutschen Firmen das Tor zum indischen Markt der Wasser- und Abwasserwirtschaft öffnen.

Ende November will das Team um Projektleiter Dr. Marius Mohr, Wasserexperte am Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik IGB, mit indischen Partnern einen ersten Fahrplan aufstellen, bevor im Februar 2019 der Strategieplan für das Wassermanagement der Stadt und das finale Konzept für den Water Innovation Hub vorgestellt werden. Interessierte deutsche Firmen sind daher aufgerufen, bereits im Vorfeld Kontakt zum Projektteam aufzunehmen.

Stadtanalyse und Stakeholder-Workshop identifizieren zwei Handlungsfelder
»In Coimbatore besteht – wie in vielen anderen indischen Städten – dringender Handlungsbedarf, da sind sich alle Stakeholder vor Ort einig«, berichtet Mohr vom Dialog mit lokalen Interessensgruppen am 26. Juli. Auf der Grundlage einer umfassenden Stadtanalyse und mit der Leitfrage, wie deutsche Wasserexperten zur Verbesserung der wasserwirtschaftlichen Situation in Coimbatore beitragen können, identifizierte das Projetteam dabei zwei konkrete Themenfelder, die von lokalen Akteuren aus Verwaltung, Wirtschaft und Wissenschaft als besonders wichtig eingeschätzt wurden. Sie können zugleich erste Ansatzpunkte für eine langfristige Zusammenarbeit zwischen Deutschland und Indien liefern: Ein integriertes semi-zentrales kommunales Wassermanagement, das auch die Sektoren Energie und Ernährung berücksichtigt, sowie Technologien, um die Wasserqualität von gereinigtem Industrieabwasser, Oberflächengewässern und Grundwasser zu überwachen sowie die Ergebnisse zu visualisieren.

Kommunales Wassermanagement: Semi-zentral und integriert
Wie in anderen schnell wachsenden indischen Städten fehlen auch in Coimbatore Abwasserkanalisation und Kläranlagen: Nicht einmal 40 Prozent des städtischen Abwassers wird zentral gesammelt; vielmehr wird der Großteil der Abwässer unkontrolliert in Flüsse und Seen eingeleitet. Doch wie können gangbare Lösungen aussehen? Da die Bevölkerung der Stadt nach wie vor wächst und mit ihr der Verkehr auf Coimbatores Straßen, ist es kommunalpolitisch problematisch, Hauptverkehrsadern und weitere stark frequentierte Straßen aufzureißen, um Kanäle für die steigende Abwasserfracht zu legen.

Einen sinnvollen Lösungsansatz liefern semi-zentrale Konzepte, in denen die Abwässer von Quartieren, die etwa 5.000 bis 50.000 Einwohner umfassen, gesammelt und gereinigt werden. Der Vorteil: Die Leitungsquerschnitte für die benötigten Abwasserkanäle sind geringer, Hauptverkehrsstraßen können ausgeklammert werden, viele kleinere Abwasserreinigungsanlagen sind einfacher, schneller und kostengünstiger zu realisieren als eine große Zentralkläranlage. »Darüber hinaus erlauben modulare semi-zentrale Systeme, gleichzeitig mit dem Abwasser organische Abfälle zu behandeln und aufbereitetes Wasser wiederzuverwenden, beispielsweise zur Bewässerung von Grünanlagen oder Straßenreinigung«, weiß Mohr.

System zur Überwachung der Wasserqualität
Die Renaturierung von Flüssen und Seen, in die jahrelang ungeklärtes Abwasser eingeleitet wurde, ist oberstes Gebot und wurde im Rahmen der Förderung im »100 Smart Cities«-Programm der indischen Zentralregierung beschlossen. Noch fehlt es jedoch an der Infrastruktur, die Ergebnisse der Renaturierungsmaßnahmen zu analysieren und zu dokumentieren. Und wie wird sichergestellt, dass Stadtteile oder Unternehmen nicht doch unbehandeltes Abwasser einleiten?

»Die Stakeholder waren sich auch hier schnell einig, dass ein Überwachungssystem für die Wasserqualität installiert werden muss, um Erfolge bei der Wasseraufbereitung – aber auch Verstöße – verfolgen zu können«, berichtet Mohr. Für ein solches System werden Sensoren für die automatisierte Erfassung der wichtigsten physikalischen, chemischen und biologischen Parameter der Wasserqualität an kritischen Einleitstellen und ein zentrales Labor zur qualitätsgesicherten Analyse weiterer Proben benötigt. Die Vernetzung, Auswertung und Bereitstellung der Informationen ist dann durch entsprechende IT-Lösungen zu gewährleisten. Werden Echtzeitdaten mittels GIS-gestützter Systeme verknüpft und für alle zugänglich veröffentlicht, kann dies eine gesicherte Grundlage für weitere städtische Investitionsentscheidungen liefern und die notwendige Transparenz verbessern.

Technologien für die industrielle Abwasserreinigung in den Unternehmen, obschon neben den Kommunen weiterer maßgeblicher Verursacher von verschmutztem Grund- und Oberflächenwasser, sind aus Sicht aller lokalen Akteure dagegen durchaus vorhanden und – in der Nachbarstadt Tiruppur beispielsweise – auch erfolgreich im Betrieb. Es hapert hier vielmehr an der Durchsetzung der bestehenden Regelungen. Überwachungssysteme und damit eine größere Transparenz würden den Druck auf alle Beteiligten erhöhen, die Gesetze zu befolgen.

Informationen und Kontakt
Erste Skizzen für den Water Innovation Hub und die geplanten Projekte sind hier zu finden: www.igb.fraunhofer.de/swfi.

Hintergrund: Smart City Coimbatore
Mit 1,7 Millionen Einwohnern auf 257 Quadratkilometern ist Coimbatore eine der über 50 typischen von der Industrie geprägten Millionenstädte Indiens. Schätzungen gehen davon aus, dass die Bevölkerung in den kommenden 30 Jahren um eine weitere Million Menschen wachsen wird. Die Sicherung der Wasserversorgung und Abwasserentsorgung ist eines der dringendsten Probleme der Stadt.

Im Rahmen der deutsch-indischen Zusammenarbeit unterstützt Deutschland Coimbatore, das von der indischen Zentralregierung für das »100 Smart Cities«-Programm ausgewählt wurde, bei der Umsetzung ihrer Smart-City-Pläne.

Wissenschaftliche Ansprechpartner:

Dr.-Ing. Marius Mohr
Gruppenleiter Bioverfahrenstechnik in der Wasser- und Kreislaufwirtschaft
Tel.: +49 711 970-4216
E-Mail: marius.mohr@igb.fraunhofer.de

Weitere Informationen:
https://www.igb.fraunhofer.de/de/presse-medien/presseinformationen/2018/deutsche…

Anhang

Download Presseinformation
https://idw-online.de/de/attachment66885

Quelle: idw

(nach oben)


Ätna: Neues Messsystem belegt Abrutschen des Südosthangs

Dr. Andreas Villwock Kommunikation und Medien
GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel

Die Südostflanke des Ätna rutscht langsam in Richtung Meer. Ein Team des GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel und des Kieler Exzellenzclusters „Ozean der Zukunft“ konnte mithilfe eines neuen, schallbasierten Vermessungsnetzes erstmals nachweisen, dass sich der Hang auch unter Wasser weiterbewegt. Innerhalb von acht Tagen bewegte er sich um circa vier Zentimeter. Ein plötzliches und schnelles Abrutschen des gesamten Hangs könnte zu einem Tsunami mit schwerwiegenden Folgen für die gesamte Region führen. Die Ergebnisse wurden heute in der internationalen Fachzeitschrift Science Advances veröffentlicht.

Als aktivster Vulkan Europas wird der Ätna von der Wissenschaft und den Behörden intensiv überwacht. Dabei zeigen satellitengestützte Messungen seit einiger Zeit, dass der Südosthang des Vulkans langsam in Richtung Meer abrutscht, während die anderen Hänge stabil sind. Unklar war bisher, ob sich die Bewegung auch unter Wasser fortsetzt, da Messungen per Satellit oder GPS dort nicht möglich sind. Mithilfe eines neuartigen Vermessungsnetzes, das Teil des GEOMAR GeoSEA Arrays ist, konnten Wissenschaftlerinnen und Wissenschaftler des GEOMAR Helmholtz-Zentrums für Ozeanforschung Kiel, der Christian-Albrechts-Universität zu Kiel, Schwerpunkt Meereswissenschaften, und des Istituto Nazionale di Geofisica e Vulcanologia (INGV) nun erstmals unter Wasser die Bewegung des Hangs in horizontaler und vertikaler Richtung nachweisen.

Die Ergebnisse bestätigen die Vermutung, dass der gesamte Südosthang in Bewegung ist. Ursache für die Bewegung des Hangs ist aller Wahrscheinlichkeit nach hauptsächlich die Schwerkraft, und nicht, wie bisher angenommen, aufsteigendes Magma. Ein schlagartiges Abrutschen der gesamten Flanke kann nicht ausgeschlossen werden und würde einen starken Tsunami in der Region auslösen. Die Ergebnisse der Untersuchung wurden heute in der internationalen Fachzeitschrift Science Advances veröffentlicht.

„Am Ätna haben wir zum ersten Mal die schallbasierte Vermessung unter Wasser, die sogenannte marine Geodäsie, an einem Vulkan genutzt“, erklärt Dr. Morelia Urlaub, Erstautorin der Studie. Sie leitete die Untersuchungen im Rahmen des Projekts „MAGOMET – Marine geodesy for offshore monitoring of Mount Etna“. Entlang der Störungslinie, die die Grenze zwischen rutschender Flanke und stabilem Hang darstellt, platzierte das GEOMAR-Team dafür im April 2016 insgesamt fünf Transponder-Messstationen. „Drei platzierten wir auf dem abrutschenden Hang, zwei auf der anderen Seite der Störungslinie“, sagt Urlaub.

Die Transponder sendeten sich dann alle 90 Minuten ein akustisches Signal. Da die Geschwindigkeit des Schalls unter Wasser bekannt ist, können über die Zeitdauer, die das Signal unterwegs ist, relative Bewegungen des Meeresbodens zentimetergenau bestimmt werden. „Wir stellten eindeutig fest, dass der Hang im Mai 2017 innerhalb von acht Tagen um vier Zentimeter Richtung Meer abrutschte und dabei einen Zentimeter tiefer sank“, erklärt Urlaub. Diese Bewegung kann dabei mit einem langsamen Erdbeben verglichen werden, ein sogenannter „Slow Slip“. Es war das erste Mal, dass die horizontale Bewegung eines solchen Slow-Slip-Ereignisses unter Wasser erfasst wurde. Insgesamt war das System rund 15 Monate im Einsatz.

Im Vergleich mit per Satellit gewonnenen Daten zeigte sich, dass der Südosthang sich an Land im selben Zeitraum ähnlich weit bewegt hat. „Der komplette Südosthang hat also seine Position verändert“, sagt Dr. Urlaub.

„Insgesamt deuten unsere Ergebnisse darauf hin, dass der Hang aufgrund der Schwerkraft abrutscht und nicht etwa durch den Aufstieg von Magma“, erläutert sie weiter. Würde Magma im Zentrum des Vulkans die Bewegung auslösen, müsste sich der Hang an Land stärker fortbewegen als unter Wasser. Diese Erkenntnis ist wichtig für die weitere Gefahrenabschätzung. „Der gesamte Hang befindet sich durch die Schwerkraft in Bewegung. Daher ist es durchaus möglich, dass er plötzlich abrutscht, was einen Tsunami im gesamten Mittelmeer auslösen könnte“, erklärt Professor Heidrun Kopp, Koordinatorin des GeoSEA-Arrays und Co-Autorin der Studie. Allerdings ist durch die Untersuchungsergebnisse keine Voraussage möglich, ob und wann es zu diesem Ereignis kommen könnte.

„Um die geologischen Vorgänge rund um den Ätna und anderen an Küsten gelegenen Vulkanen zu verstehen, ist weitere Grundlagenforschung nötig. Unsere Untersuchung zeigt aber, dass das schallbasierte Vermessungsnetz uns dabei hervorragend unterstützen kann“, fasst Dr. Urlaub zusammen.

Originalpublikation:
Urlaub, M., F. Petersen, F. Gross, A. Bonforte, G. Puglisi, F. Guglielmino, S. Krastel, D. Lange, H. Kopp (2018): Gravitational collapse of Mount Etna’s southeastern flank. Science Advances 2018; 4: eaat9700, https://doi.org/10.1126/sciadv.aat9700

Weitere Informationen:
http://www.geomar.de Das GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel
https://www.geomar.de/index.php?id=5286&L=1 Das GEOMAR GeoSEA Array

Quelle: idw

(nach oben)


Warum Vitamin E-Wirkung bisher oft reine Glückssache ist

Dr. Ute Schönfelder Stabsstelle Kommunikation/Pressestelle
Friedrich-Schiller-Universität Jena

Pharmazeuten und Biochemiker der Universität Jena entschlüsseln mit internationalem Forscherteam die entzündungshemmende Wirkungsweise von Vitamin E und seiner Stoffwechselprodukte / Ergebnis zeigt Nutzen einer personalisierten Medizin auf / Patentierter Wirkstoffkandidat wird nun weiter erforscht

Es soll die Hautalterung bremsen, Gelenkverschließ bei Rheuma und Arthrose lindern und sogar vor Krebs und Herz-Kreislauferkrankungen schützen. Seit fast 100 Jahren erforschen Wissenschaftler die Wirkungen von Vitamin E, fachsprachlich Alpha-Tocopherol, und haben die chemischen Grundlagen weitgehend geklärt. „Vitamin E ist ein Antioxidans, es neutralisiert zellschädigende freie Radikale“, erläutert PD Dr. Andreas Koeberle von der Friedrich-Schiller-Universität Jena. Doch obwohl dies in Zell- und Tiermodellen unter Laborbedingungen hinreichend belegt ist, überzeugt Vitamin E in klinischen Studien bisher nicht: „Hier finden wir sehr heterogene Ergebnisse“, sagt Koeberle. „Nicht nur, dass die positiven Effekte oft nicht in der erwarteten Stärke auftreten, manchmal zeigt die Gabe von Vitamin E sogar nachteilige Effekte“, so der Biochemiker vom Lehrstuhl für Pharmazeutische Chemie.

Eine mögliche Ursache dafür haben Dr. Koeberle und seine Kollegen nun gefunden: Wie das Jenaer Forscherteam in einer breit angelegten interdisziplinären Studie gemeinsam mit Partnern aus Frankreich, Österreich, Italien und Deutschland belegt, beruht die Wirkung von Vitamin E, das als Tablette oder Kapsel eingenommen wird, gar nicht auf dem Vitamin selbst, sondern auf der eines Stoffwechselprodukts. Diese Substanz mit Namen Alpha-Carboxychromanol besitzt unter anderem eine vielversprechende entzündungshemmende Wirkung. Ihre Ergebnisse haben die Forscher in der Fachzeitschrift „NATURE Communications“ veröffentlicht (DOI: 10.1038/s41467-018-06158-5).

Alpha-Carboxychromanol wird in der Leber gebildet. „In welchem Maße das passiert, ist von Patient zu Patient aber sehr verschieden“, berichtet Prof. Dr. Oliver Werz, der die Studie gemeinsam mit Dr. Koeberle geleitet hat. Wie die Jenaer Wissenschaftlerinnen und Wissenschaftler gezeigt haben, weist der Spiegel des Metaboliten im Blut von Versuchspersonen eine sehr große individuelle Spannweite auf. „Wenn der Effekt von Vitamin E davon abhängt, in welchem Maße der bioaktive Metabolit gebildet wird, dann erklärt das sehr gut, wieso die gleiche Menge Vitamin E bei einer Person eine bestimmte Wirkung zeigt und bei einer anderen Person womöglich eine wesentlich geringere“, macht Werz deutlich. Dies belege, so der Jenaer Pharmazeut weiter, den großen Nutzen, den eine personalisierte Medizin zu bieten hat. „Wenn wir zuvor den Stoffwechsel eines Patienten charakterisieren, lässt sich ein Therapieerfolg – nicht nur für Vitamin E – wesentlich präziser erzielen.“

Schlüsselenzym im Entzündungsprozess wird gehemmt
In der vorliegenden Studie haben die Forschenden das entzündungshemmende Potenzial von Alpha-Carboxychromanol detailliert untersucht. Der bioaktive Metabolit hemmt ein Schlüsselenzym von Entzündungsprozessen (5-Lipoxygenase, kurz 5-LO). Dies sei eine vielversprechende Erkenntnis, sagt Koeberle, denn die 5-LO spiele eine zentrale Rolle bei Entzündungserkrankungen wie Asthma oder Arthritis. „Bislang gibt es aber nur ein einziges zugelassenes Arzneimittel, das die 5-LO hemmt, das aber aufgrund starker Nebenwirkungen nur sehr eingeschränkt eingesetzt werden kann.“ Die Jenaer Forscher wollen ihre Erkenntnisse nutzen, um einen neuen Wirkstoffkandidaten für die Behandlung entzündlicher Erkrankungen zu entwickeln. Ein erster von Alpha-Carboxychromanol abgeleiteter Kandidat sei bereits patentiert, so Koeberle.

Wissenschaftliche Ansprechpartner:
PD Dr. Andreas Koeberle und Prof. Dr. Oliver Werz
Institut für Pharmazie der Friedrich-Schiller-Universität Jena
Philosophenweg 14, 07743 Jena
Tel.: 03641 / 949815
E-Mail: andreas.koeberle@uni-jena.de; oliver.werz@uni-jena.de

Originalpublikation:
Pein H et al. Endogenous metabolites of vitamin E limit inflammation by targeting 5-lipoxygenase. Nature Communications (2018), volume 9, Article number: 3834, DOI: 10.1038/s41467-018-06158-5

Weitere Informationen:
https://rdcu.be/7gHO

Quelle: idw

(nach oben)


Übergewicht entwickelt sich bereits in der frühen Kindheit – und bleibt dann bestehen

Dr. Katarina Werneburg Stabsstelle Universitätskommunikation/Medienredaktion
Universität Leipzig

Forscher der Leipziger Universitätsmedizin haben herausgefunden, dass schon die frühe Kindheit entscheidend für die Entwicklung von Übergewicht und Adipositas ist. Sie analysierten dazu die Entwicklung des Gewichts von mehr als 51.000 Kindern von der Geburt bis in die Adoleszenz. Das Ergebnis ist eindeutig: Fast 90 Prozent der Kinder, die im Alter von drei Jahren übergewichtig waren, waren es auch als Jugendliche. Bei ihnen erfolgte der stärkste Gewichtszuwachs im Kleinkindalter von zwei bis sechs Jahren. Die Ergebnisse haben die Wissenschaftler aktuell im renommierten New England Journal of Medicine veröffentlicht.

Noch bevor ein Kind in die Schule geht, wird der Grundstein für Übergewicht und Adipositas gelegt. „Die Erkrankung manifestiert sich häufig schon sehr früh in der Kindheit. Zugleich liegt die Wahrscheinlichkeit, dass kleine Kinder mit Adipositas zu einem Normalgewicht in der Jugend zurückkehren, bei weniger als 20 Prozent. Diese Effekte konnten wir in einer großen Längsschnittstudie nachweisen mit direkten Implikationen für die Praxis“, sagt Prof. Dr. Antje Körner, Professorin für Pädiatrische Forschung an der Universität Leipzig und Arbeitsgruppenleiterin am Center for Pediatric Research Leipzig (CPL) des Universitätsklinikums Leipzig. In der Untersuchung analysierten die Wissenschaftler um Studienleiterin Antje Körner Daten zum Gewichtsverlauf von 51.505 Kindern aus dem CrescNet Register im Alter von 0 und 18 Jahren.

Das Kleinkindalter von zwei bis sechs Jahren ist das kritische Alter des Gewichtsanstiegs
In ihrer statistischen Analyse konnten die Forscher feststellen, dass in den ersten zwei Lebensjahren die Chancen für Kinder, die adipös waren, später zu einem Normalgewicht zurückzukehren gerade einmal bei 50:50 stehen. Waren die Kinder hingegen schon drei Jahre alt, waren es nur noch knapp zehn Prozent – das bedeutet: Rund 90 Prozent dieser Kinder waren auch als Jugendliche übergewichtig oder adipös. „Wir konnten mit unseren Daten zeigen, dass das Gewicht von Jugendlichen mit Übergewicht und Adipositas am stärksten zwischen zwei und sechs Jahren zugenommen hat“, so Körner. Auch danach stiegen der BMI weiter stetig an, wodurch sich das Ausmaß der Adipositas weiter Jahr für Jahr verschlimmerte.

Auch Geburtsgewicht und Gewicht der Mutter haben Einfluss
Mit Daten der LIFE Child-Studie konnten auch die Bedeutung von Geburtsgewicht und Gewicht der Mutter auf das kindliche Adipositasrisiko nachgewiesen werden. So hatte fast die Hälfte der Babys, die zur Geburt sehr groß und schwer waren, einen höheren BMI in ihrer Kindheit und Jugend. Demgegenüber entwickelten weniger als 30 Prozent der Kinder mit normalem oder niedrigem Geburtsgewicht Übergewicht oder Adipositas im Jugendalter. Kinder von Müttern mit Übergewicht hatten ein deutlich höheres Risiko für kindliches Übergewicht als Kinder von Müttern, die normalgewichtig waren.

Übergewicht im frühen Kindesalter bleibt meist bestehen
„Die meisten Kinder und Jugendliche mit Übergewicht haben es auch noch im Erwachsenenalter. Natürlich ist die Prävalenz, das heißt die Häufigkeit, von Übergewicht bei Erwachsenen noch höher und nicht jeder übergewichtige Erwachsene war ein übergewichtiges Kind. Wenn jedoch Übergewicht bereits im (frühen) Kindesalter einsetzt, bleibt es zuallermeist bestehen – mit allen Konsequenzen beispielsweise für die Entwicklung von Folgeerkrankungen bereits im Jugend- oder jungen Erwachsenenalter. Eine übermäßige Gewichtszunahme bei Kindern unter sechs Jahren kann ein frühes Anzeichen für spätere Adipositas sein. Wachstum und Gewicht müssen von Kinderärzten, Erziehern und Eltern schon früh genau beobachtet werden, um Kinder mit erhöhtem Risiko zu erkennen“, sagt Prof. Dr. Antje Körner.

Die Studie wurde durch den DFG-Sonderforschungsbereich „Mechanismen der Adipositas“ (SFB 1052), durch das Integrierte Forschungs- und Behandlungszentrum AdipositasErkrankungen (IFB) sowie durch das Leipziger Forschungszentrum für Zivilisationserkrankungen (LIFE Child) unterstützt.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Antje Körner
Telefon: +49 341 97-26500
Email: antje.koerner@medizin.uni-leipzig.de

Originalpublikation:
„Acceleration of BMI in Early Childhood and Risk of Sustained Obesity“; DOI: 10.1056/NEJMoa1803527

Weitere Informationen:
https://www.nejm.org/do/10.1056/NEJMdo005405/full/?requestType=popUp&related…

Quelle: idw

(nach oben)


Risiken von Mikroschadstoffen bewerten, Stauräume nachhaltig bewirtschaften, Dürre sichtbar machen

Monika Landgraf Strategische Entwicklung und Kommunikation – Gesamtkommunikation
Karlsruher Institut für Technologie

Wasser gilt als einer der wichtigsten Rohstoffe des 21. Jahrhunderts. Wie die Verfügbarkeit in ausreichender Qualität gewährleistet werden kann, erforschen Universitäten des Landes gemeinsam im Förderprogramm „Netzwerk Wasserforschung Baden-Württemberg“, einer Initiative des Ministeriums für Wissenschaft, Forschung und Kunst (MWK). Die Geschäftsstelle am Karlsruher Institut für Technologie (KIT) veranstaltet ein Statuskolloquium, um Ergebnisse der drei großen Verbundprojekte vorzustellen.

„Aktuelle und zukünftige Herausforderungen in der Wasserforschung verlangen angesichts des globalen Wandels und der komplexen Nutzungskonflikte um Wasserressourcen ein hohes Maß an inter- und transdisziplinären Herangehensweisen“, sagt Harald Horn, Professor am Engler-Bunte-Institut (EBI) des KIT und Sprecher des Netzwerks. „Nur mit einer engen Verzahnung von Natur-, Ingenieur-, Geistes- und Sozialwissenschaften kann die Wasserforschung zukunftsweisende Lösungsansätze entwickeln und umsetzen.“

Die vielfältigen Aktivitäten der Hochschulen des Landes auf diesem Gebiet besser zu vernetzen, ist Ziel des „Netzwerks Wasserforschung Baden-Württemberg“. Zentrale Komponenten sind dabei drei interdisziplinäre Verbundprojekte, in denen Wissenschaftlerinnen und Wissenschaftler von je drei Hochschulen in Baden-Württemberg jeweils ein gemeinsames Thema aus unterschiedlichen Perspektiven bearbeiten:

Effect-Net: Wirkungszusammenhänge für die Risikobewertung von Chemikalien in Gewässerökosystemen
Im Projekt Effect-Net (Effect Network in Water Research) arbeiten Natur- und Sozialwissenschaftlerinnen und -wissenschaftler der Universitäten Heidelberg und Tübingen sowie des Karlsruher Instituts für Technologie (KIT) zusammen. Sie erforschen, ob sich Arzneimittel und künstliche Süßstoffe in Gewässern nachteilig auf Fische und wirbellose Organismen auswirken. Zusätzlich will das Projektteam herausfinden, wie Gesellschaft und Politik diese Thematik wahrnehmen. Zum Nachweis der Substanzen selbst sowie deren Um- und Abbauprodukte in Oberflächenwasser, Abwasser und Organismen haben die Forscherinnen und Forscher chemisch-analytische Methoden entwickelt und optimiert. Ziel von Effect-Net ist, biologische Risiken zu identifizieren, ihnen entgegenzuwirken sowie Konzepte zur Steuerung von Konsumentenverhalten und für die Umweltgesetzgebung zu entwickeln.

Sprecher: Professor Thomas Braunbeck, Universität Heidelberg
Weitere Informationen: http://www.effect-net-wasser.de

CHARM: Stauräume verstehen – Stauräume nachhaltig bewirtschaften
Talsperren und Stauräume wie Speicher und Rückhaltebecken spielen eine bedeutende Rolle für die Wasser- und Energieversorgung, den Hochwasserschutz und die Freizeitgestaltung. Bau und Betrieb sind jedoch mit vielen Herausforderungen verbunden: Ablagerung von Sedimenten, Wachstum von Blaualgen, Emission von Treibhausgasen oder gesellschaftliche Akzeptanz. Im Projekt CHARM (CHAllenges of Reservoir Management) erforscht ein interdisziplinäres Team der Universitäten Stuttgart, Konstanz und Freiburg die Eigenschaften von Stauräumen im Schwarzwald und im Fränkischen Seenland und die damit assoziierten Prozesse. Die Ergebnisse können zu einem verbesserten Speichermanagement beitragen, um die Wirtschaftlichkeit zu erhöhen (z.B. Wasserkraft, Hochwasserschutz), Gefährdungen zu reduzieren (z.B. Treibhausgasemissionen, gesundheitliche Risiken durch Blaualgentoxine) und den Betrieb aus ökologischer Sicht zu verbessern.

Sprecherin: Professorin Silke Wieprecht, Universität Stuttgart
Weitere Informationen: www.charm-bw.de

DRIeR: Auswirkungen von Dürre – Das Unsichtbare sichtbar machen
Die Dürre dieses Jahres zählt zu den folgenreichsten Ereignissen der letzten zwei Jahrzehnte. Solche Extremereignisse könnten in Anbetracht des Klimawandels auch in Baden-Württemberg häufiger auftreten. Ein interdisziplinäres Team an den Universitäten Freiburg, Heidelberg und Tübingen untersucht im Forschernetzwerk DRIeR die komplexen Auswirkungen von Dürre auf Natur und Gesellschaft. Die Forscherinnen und Forscher analysieren Dürreereignisse und deren Auswirkungen seit dem 16. Jahrhundert und verbinden diese mit gegenwärtiger Prozessforschung, um insbesondere die versteckten Auswirkungen, beispielsweise auf Wasserqualität und Biodiversität, sichtbar zu machen. DRleR beschäftigt sich darüber hinaus mit der Frage, wie Staat und Gesellschaft mit dem Risiko einer Dürre umgehen und umgehen sollten.

Sprecherteam: Professorin Kerstin Stahl und Professor Jens Lange, Universität Freiburg
Weitere Informationen: www.drier.uni-freiburg.de

Das Ministerium für Wissenschaft, Forschung und Kunst (MWK) unterstützt das „Netzwerk Wasserforschung in Baden-Württemberg“ über einen Zeitraum von fünf Jahren bis 2020. Die drei interdisziplinären Verbundprojekte erhalten jeweils zwei Millionen Euro. Beim Statuskolloquium stellen die Wasserforscherinnen und -forscher erste Ergebnisse vor.

Das MWK fördert zudem die Geschäftsstelle des Netzwerks Wasserforschung Baden-Württemberg, die am Karlsruher Institut für Technologie (KIT) beim Sprecher des Netzwerks, Professor Harald Horn, eingerichtet wurde. Die Geschäftsstelle organisiert Workshops und Veranstaltungen zu vielfältigen Themen, um neue Kooperationen aufzubauen und weitere Forschungsideen zu entwickeln. Auch der wissenschaftliche Nachwuchs wird dabei schon frühzeitig in den interdisziplinären Austausch und die Ideenentwicklung eingebunden.

Weitere Informationen:
http://www.wassernetzwerk-bw.de

Weiterer Kontakt:
Sarah Werner, Redakteurin/Pressereferentin, Tel.: +49 721 608 21170, E-Mail: sarah.werner@kit.edu

Als „Die Forschungsuniversität in der Helmholtz-Gemeinschaft“ schafft und vermittelt das KIT Wissen für Gesellschaft und Umwelt. Ziel ist es, zu den globalen Herausforderungen maßgebliche Beiträge in den Feldern Energie, Mobilität und Information zu leisten. Dazu arbeiten rund 9 300 Mitarbeiterinnen und Mitarbeiter auf einer breiten disziplinären Basis in Natur-, Ingenieur-, Wirtschafts- sowie Geistes- und Sozialwissenschaften zusammen. Seine 25 500 Studierenden bereitet das KIT durch ein forschungsorientiertes universitäres Studium auf verantwortungsvolle Aufgaben in Gesellschaft, Wirtschaft und Wissenschaft vor. Die Innovationstätigkeit am KIT schlägt die Brücke zwischen Erkenntnis und Anwendung zum gesellschaftlichen Nutzen, wirtschaftlichen Wohlstand und Erhalt unserer natürlichen Lebensgrundlagen.

Diese Presseinformation ist im Internet abrufbar unter: http://www.sek.kit.edu/presse.php

Wissenschaftliche Ansprechpartner:

Sarah Werner, Redakteurin/Pressereferentin, Tel.: +49 721 608 21170, E-Mail: sarah.werner@kit.edu

Originalpublikation:
http://www.kit.edu/kit/pi_2018_123_risiken-von-mikroschadstoffen-bewerten-staura…

Weitere Informationen:

http://sarah.werner@kit.edu
http://www.sek.kit.edu/presse.php
http://www.wassernetzwerk-bw.de
http://www.effect-net-wasser.de

Anhang
KIT: Risiken von Mikroschadstoffen bewerten, Stauräume nachhaltig bewirtschaften, Dürre sichtbar machen
https://idw-online.de/de/attachment66819

Quelle: idw

(nach oben)


Wasser – zu viel oder zu wenig? Tagung zu regionalen Auswirkungen des Klimawandels

Josef Zens Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum Potsdam – Deutsches GeoForschungsZentrum GFZ

Klimawandel in Regionen verstehen, Folgen erkennen und Auswirkungen diskutieren: Die 8.. Regionalkonferenz des Forschungsverbunds REKLIM legt den Schwerpunkt auf die Auswirkungen des Klimawandels in Nordost-Deutschland und beantwortet Fragen rund um das Thema Wasser. Nach dem heißen Sommer und der massiven Dürre in weiten Teilen Deutschlands zeichnen sich die Folgen dieser extremen Wetterbedingungen ab: Ernteausfälle, Einbußen für die Binnenschifffahrt, großflächige Waldbrände sowie Belastungen für Mensch und Natur. Forschende des Verbunds REKLIM „Regionale Klimaänderungen“ der Helmholtz-Gemeinschaft diskutieren mit Politik und Verwaltung die Herausforderungen.

Klimawandel in Regionen verstehen, Folgen erkennen und Auswirkungen diskutieren: Die mittlerweile achte Regionalkonferenz des Forschungsverbunds REKLIM legt in diesem Jahr den Schwerpunkt auf die Auswirkungen des Klimawandels in Nordost-Deutschland und beantwortet insbesondere Fragen rund um das Thema Wasser. Nach dem sehr warmen Sommer im Norden und Osten und der massiven Dürre in weiten Teilen Deutschlands zeichnen sich die Folgen dieser extremen Wetterbedingungen in vielen Bereichen ab: Ernteausfälle, Einbußen für die Binnenschifffahrt, großflächige Waldbrände sowie Belastungen für Mensch und Natur. Wissenschaftlerinnen und Wissenschaftler des Forschungsverbunds REKLIM „Regionale Klimaänderungen“ der Helmholtz-Gemeinschaft diskutieren mit Vertretern aus Politik und Verwaltung, vor welche Herausforderungen der Klimawandel die Gesellschaft bereits heute stellt.

Die in diesem Jahr vom Deutschen GeoForschungsZentrum (GFZ) vorbereitete 8. REKLIM Regionalkonferenz findet am 25. September 2018 im Hörsaalgebäude „H“ auf dem Telegrafenberg in Potsdam statt. Neben Expertinnen und Experten des Helmholtz-Forschungsverbunds REKLIM gestalten Entscheidungsträger aus Politik und Verwaltung das Programm aktiv mit. Es geht dabei besonders um Fragestellungen der Anpassung, wie z. B. der Historischen Gärten in Potsdam, dem Regenwassermanagement in Berlin oder wie sich die Wasserwirtschaft der Stadt Potsdam der Zukunft stellt. Ergänzt wird der Tag durch aktuelle Forschungsergebnisse aus der Wissenschaft.

„Gerade die Frage, ob extreme Wetterereignisse wie Starkregen oder Trockenheit häufiger und intensiver werden, spielt für die Anpassung eine enorm wichtige Rolle“, erklärt der wissenschaftliche Koordinator des Forschungsverbundes, Prof. Dr. Peter Braesicke, der am 1. September 2018 die wissenschaftliche Leitung des Forschungsverbundes von Prof. Dr. Peter Lemke übernommen hat. Er ergänzt: „Die REKLIM-Konferenz bietet eine hervorragende Dialog-Plattform, um mehr über die aktuelle Forschung und ihre Möglichkeiten, Extreme zu verstehen und vorherzusagen, zu erfahren und die Bedürfnisse der Gesellschaft herauszuarbeiten.“

Aber auch die Frage der Einordnung dieser Extremereignisse in den Kontext der Klimawissenschaften wird diskutiert. Seespiegeländerungen als Indikatoren für Klimaänderungen in der Vergangenheit und heute werden ebenso erörtert wie die Klimawirksamkeit wiedervernässter Moore oder die Rolle von Bäumen als Indikatoren von Wärmeinseln in der Stadt. Die Veranstaltung wird von Staatssekretärin Dr. Ulrike Gutheil vom Ministerium für Wissenschaft, Forschung und Kultur des Landes Brandenburg (MWFK) eröffnet.

Die 8. REKLIM Regionalkonferenz schließt mit einem Premierenabend von Kurzfilmen zum Thema Klimawandel, die der Forschungsverbund REKLIM in Kooperation mit der DEKRA Hochschule für Medien, Berlin, entwickelt hat.

Unter dem Titel „Ich wünschte, ich würd‘ in dieser Welt leben“ werden sieben Filme von jungen Filmemachern gezeigt, in denen kurze Geschichten und sehr persönliche Vision über die Folgen des Klimawandels erzählt werden. REKLIM engagiert sich seit 2013 in einer intensiven Kooperation mit der DEKRA Hochschule für Medien, um das Thema Klimawandel mit und insbesondere für die junge Generation fassbar und erfahrbar zu machen.

Über REKLIM
Die Helmholtz-Klimainitiative REKLIM (Regionale Klimaänderungen) ist ein 2009 gegründeter Verbund von neun Forschungszentren der Helmholtz-Gemeinschaft. REKLIM nutzt die in der Helmholtz-Gemeinschaft gebündelte Kompetenz für regionale Beobachtungs- und Prozessstudien in Kombination mit Modellsimulationen zur Verbesserung von regionalen und globalen Klimamodellen, die eine solide Basis für klimabezogene Entscheidungshilfen bieten sollen. Weitere Informationen: www.reklim.de

In der Pressestelle
des Deutschen GeoForschungsZentrums
steht Ihnen Josef Zens (0331-288-1040; Mail: josef.zens@gfz-potsdam.de) zur Verfügung,

in der des Alfred-Wegener-Instituts
steht Ihnen Dr. Folke Mehrtens (Tel.: +49(0)471 4831-2007; E-Mail: medien@awi.de
gern für Rückfragen zur Verfügung.

Wissenschaftliche Ansprechpartner:
Ihr wissenschaftlicher Ansprechpartner am Deutschen GeoForschungsZentrum (GFZ) in Potsdam ist:
Prof. Dr. Achim Brauer (Tel.: +49 (0)331 288-1330; E-Mail: brau@gfz-potsdam.de)

Ihr Ansprechpartner für den REKLIM Verbund ist:
Dr. Klaus Grosfeld (Tel.: +49(0)471 4831-1765; E-Mail: klaus.grosfeld@awi.de)

Weitere Informationen:
https://www.reklim.de/konferenz-2018/

Quelle: idw

(nach oben)


Gegen Straßenschmutz im Regenwasser

Katharina Thehos Dezernat Kommunikation und Marketing
Hochschule Ostwestfalen-Lippe

Autos verschmutzen nicht nur die Luft, sondern auch die Straßen, auf denen sie fahren. Abrieb von Reifen und Bremsen oder Verlust von Öl – wenn es regnet, gelangen Schadstoffe von den Straßen ins Abwasser. Wie dieses bestmöglich gereinigt werden kann, erforschen Wissenschaftler der Hochschule OWL im Rahmen eines vom NRW-Umweltministerium geförderten Projektes. Die Untersuchungen finden an der Bundesstraße 64 in Höxter statt.

Wenn Regen auf versiegelte Flächen fällt, wäscht er von diesen Verunreinigungen ab, bevor er im Abflusssystem verschwindet. Auf Straßen handelt es sich bei den Verunreinigungen nicht nur um Laub oder Staub, sondern auch um Partikel, die nicht natürlichen Ursprungs sind: Abrieb von Bremsen oder von Reifen, Öl oder metallische Teilchen, die beispielsweise von rostenden Leitplanken stammen. All diese Partikel gelangen mit dem Regenwasser in den Straßenablauf. Dort wird versucht, sie mit Filtern oder durch Einrichtungen, in denen sie sich absetzen, aus dem Wasser zu eliminieren – bisher sind die Ergebnisse jedoch nicht zufriedenstellend: „Wir haben in einem inzwischen abgeschlossenen Forschungsprojekt Abscheider untersucht, mit denen das Wasser behandelt wird. Dazu haben wir Messungen in Straßenabläufen durchgeführt und mit Labordaten verglichen. Dabei fällt auf, dass die Abscheider im Einsatz an der Straße nicht so gut arbeiten wie sich aus dem Verhalten im Labor erwarten ließ“, sagt Professor Joachim Fettig vom Fachgebiet Wassertechnologie der Hochschule Ostwestfalen-Lippe.

Er und sein Team bearbeiten jetzt ein Folgeprojekt mit dem Titel „Erfassung und weitergehende Charakterisierung der Fraktion AFS-fein im Zu- und Ablauf von dezentralen Anlagen zur Behandlung des Niederschlagswassers von Verkehrsflächen“. Dabei geht es darum, die Eigenschaften der Schmutz-Partikel genauer zu verstehen, um diese besser als bisher aus dem Wasser abscheiden zu können. Das Projekt wird seit Mai 2018 für zwei Jahre mit 160.000 Euro vom Ministerium für Umwelt, Landwirtschaft, Natur- und Verbraucherschutz des Landes Nordrhein-Westfalen gefördert. Die Wissenschaftler arbeiten an einem Versuchsstand an der Bundesstraße 64 im Stadtgebiet Höxter. Dort entnehmen sie bei Regen automatisiert Proben aus dem abfließenden Wasser. „Die vorhandenen Partikel analysieren wir anschließend mit unterschiedlichen Messmethoden, beispielsweise hinsichtlich ihrer Größe und Dichte“, so Fettig, der auch Sprecher des Forschungsschwerpunktes „Nachhaltige Wasserwirtschaft und vorsorgender Gewässerschutz“ der Hochschule OWL ist. Die betrachteten Partikel, die im Projektnamen als „Fraktion AFS-fein“ benannt sind, sind abfilterbare Stoffe (AFS), die kleiner als 63 Tausendstel eines Millimeter sind.

Die Forscher sammeln über einen Zeitraum von zwei Jahren Daten bei mehreren Dutzend Regengüssen. Neben Metallen und organischen Verunreinigungen steht dabei auch das Thema Mikroplastik im Fokus. „Mikroplastik wird aktuell stark diskutiert, allerdings vor allem im Bereich der Kläranlagen. Der Nachweis im Straßenwasser ist nicht nur für uns neu, sondern allgemein Pionierarbeit“, sagt Fettig. Die Wissenschaftler der Hochschule OWL kooperieren in diesem Gebiet mit der Hochschule Rhein-Main, in deren Labors die Mikroplastik-Analysen stattfinden. Das Projekt in Höxter zeichnet sich zudem durch zwei weitere Besonderheiten aus: Zum einen verfolgt es den zeitlichen Verlauf des Regens und geht damit der Frage nach, ob bzw. inwieweit das am Anfang eines Regengusses fallende Wasser am stärksten verschmutzt wird. Zum anderen bringen die Wissenschaftler die Wasserverunreinigungen mit Verkehrsdaten in Verbindung. Hierzu haben sie ein Messsystem installiert, das erfasst, wie viele Fahrzeuge – getrennt nach PKW, LKW und Bussen – den Versuchsstand passieren.

Forschungsschwerpunkt „Nachhaltige Wasserwirtschaft und vorsorgender Gewässerschutz“
Der Forschungsschwerpunkt „Nachhaltige Wasserwirtschaft und vorsorgender Gewässerschutz“ der Hochschule OWL befasst sich mit der Gewässerreinhaltung und Gewässergütebestimmung, der Wassermengenwirtschaft, der Gewässer- und Auenökologie sowie der Gewässerentwicklung. Zusätzlich berücksichtigen die Forscherinnen und Forscher wasserwirtschaftliche Aspekte der Geotechnik, Abfallwirtschaft und Deponietechnik. Dabei kommen Methoden der Modelltechnik und der modernen Datenverarbeitung zur Anwendung. Ein Schwerpunkt liegt auf der interdisziplinären Forschung. Beteiligt sind Wissenschaftlerinnen und Wissenschaftler aus acht Fachgebieten der beiden Höxteraner Fachbereiche Umweltingenieurwesen und Angewandte Informatik sowie Landschaftsarchitektur und Umweltplanung. www.hs-owl.de/fb8/forschung

Wissenschaftliche Ansprechpartner:
Kontakt: Professor Dr. Joachim Fettig, Telefon 05271 687-7851, E-Mail joachim.fettig@hs-owl.de

Quelle: idw

(nach oben)


Eine Tablette Aspirin täglich hat keinen gesundheitlichen Vorteil für fitte und gesunde Senioren

Sabine Ranke-Heinemann Pressestelle
Australisch-Neuseeländischer Hochschulverbund / Institut Ranke-Heinemann

Viele gesunde Menschen über 70 nehmen jeden Tag eine geringe Dosis Aspirin zu sich, um sich vor Herzinfarkt und Schlaganfall zu schützen. Wissenschaftler der Monash University in Melbourne haben nun herausgefunden, dass sich die Gesundheit der betroffenen Personen hierdurch nicht verbessern lässt. Im Gegenteil: die bekannte Nebenwirkung des erhöhten Blutungsrisikos wurde bestätigt. Also lieber Finger weg vom Aspirin?

Millionen von Senioren nehmen jeden Morgen eine geringe Dosis Aspirin zu sich, ohne dass es hierfür eine medizinische Indikation gibt. Sie tun dies in der Hoffnung, so unter anderem dem ersten Herzinfarkt oder Schlaganfall vorzubeugen. Dabei gibt es in der Forschung kaum Beweise, die diese Annahme unterstützen.

Obwohl in klinischen Richtlinien durchaus auf diesen Mangel an Nachweisen hingewiesen wird, sieht es in der Praxis ganz anders aus: Schon seit Jahrzehnten wird vor diesem Hintergrund täglich Aspirin eingenommen.

Jetzt hat eine große Studie der Monash University ergeben, dass die tägliche Einnahme von niedrig dosiertem Aspirin (100 mg), wenn es gesunde Menschen ab einem Alter von 70 Jahren nehmen, nicht dazu beiträgt, dass das Risiko eines erstmaligen Herzinfarktes oder Schlaganfalls in erheblichem Ausmaß verringert wird.

Die Studie, welche 2010 ihren Anfang genommen hat, wurde in Australien von den Professoren John McNeill und Robyn Woods von der Monash University geleitet. Beide forschen und lehren an der School of Public Health and Preventive Medicine.

Die Studie war eine Zusammenarbeit australischer und amerikanischer Wissenschaftler und vergleicht die Wirkung von niedrig dosiertem Aspirin mit einem Placebo-Wirkstoff bei gesunden Menschen ab 70 Jahren.

Mehr als 19.000 Menschen in Australien und den USA – 16.700 davon im südöstlichen Australien – wurden über einen Zeitraum von sieben Jahren untersucht. Die Studie nannte sich ASPREE: Aspirin in Reducing Events in the Elderly (Aspirin-Einnahme in Hinsicht auf das Vermeiden von Herzinfarkt oder Schlaganfall bei Senioren).

Die Ergebnisse zeigen, dass niedrig dosiertes Aspirin ein gesundes Leben nicht verlängert. Es trägt auch nicht dazu bei, länger zu leben oder die Gefahr eines Herzinfarktes oder eines Schlaganfalls in erheblichem Ausmaß zu reduzieren. Zwischen den Versuchsgruppen mit Aspirin und denen mit Placebo gibt es nur sehr geringfügige Unterschiede.

„Aus dieser komplexen, groß-angelegten und durch Placebo-Präparate kontrollierten Studie kann geschlussfolgert werden, dass gesunde, ältere Menschen, die darüber nachdenken, wie sie ihre Gesundheit am besten fördern können, sehr wahrscheinlich keinen Nutzen aus der Aspirin-Einnahme ziehen.“, sagt Professor McNeil, der Leiter des Department of Epidemiology and Preventive Medicine an der Monash University.

Erhöhtes Blutungsrisiko, eine bekannte Nebenwirkung von Aspirin, konnten von der Studie bestätigt werden. Es lässt sich ein kleiner Anstieg (3,8 Prozent) in Fällen von ernsten Blutungen bei den Probanden, welche Aspirin nahmen, feststellen. Bei den Placebo einnehmenden Probanden beträgt der Anstieg hingegen nur 2,8 Prozent.

„Das bedeutet, dass Millionen von gesunden, älteren Menschen weltweit, welche ohne einen medizinischen Grund niedrig dosiertes Aspirin nehmen, dieses völlig unnötig einnehmen. Die Studie zeigt, dass es keinen größeren Vorteil gibt, der das möglicherweise erhöhte Blutungsrisiko wettmacht.“, sagt Professor McNeil.

Des Weiteren führt er aus, dass Aspirin ein relativ sicheres Medikament bleibt. Dennoch ist es nicht völlig bedenkenlos einzunehmen, und Patienten sollten sich im Hinblick auf den täglichen, niedrig dosierten Gebrauch an die Anweisungen ihres Arztes halten.

Gleichzeitig warnte er, dass sich die Ergebnisse der Studie nicht auf jene Menschen beziehen lassen, die bereits einen Herzinfarkt oder Schlaganfall erlitten haben oder von einer Angina Pectoris betroffen sind. In diesen Fällen ist Aspirin als wichtiges Medikament zur Vorbeugung empfohlen.

Was passiert als Nächstes?
Laut Professor McNeil werden die ASPREE-Ergebnisse dazu führen, dass globale Richtlinien rund um die Aspirin-Verwendung zur Vermeidung von Herz-Kreislauf-Erkrankungen im Alter überdacht werden.

„Obwohl Aspirin schon seit mehr als 100 Jahren auf dem Markt ist, wussten wir bislang nicht, ob ältere Menschen es zur Vermeidung von Herz-Kreislauf-Erkrankungen einnehmen sollten und ob es ihnen ein längeres Leben in Gesundheit ermöglicht. Die Studie hat die Antwort auf diese Fragen nun geliefert“, sagte Professor McNeil.

„Diese Ergebnisse werden dabei helfen, die verschreibenden Ärzte darüber zu informieren. Die Ärzte waren lange Zeit unsicher, ob die Empfehlung von Aspirin für gesunde Patienten ohne klaren medizinischen Grund Sinn ergibt.“

Professor McNeil erläuterte, dass präventive Versuchsreihen in der älteren Bevölkerungsgruppe – so wie ASPREE – zunehmend wichtig werden, da es einen enormen Anstieg von dieser Bevölkerungsgruppe gibt. Deshalb ist es notwendig, neue Methoden zu entdecken, um die Lebensqualität dieser Altersgruppe aufrecht zu erhalten und das Auftreten von gesundheitlichen Einschränkungen zu verzögern.

„Es wird prognostiziert, dass es bis 2056 in Australien 8,7 Millionen Menschen in dieser Altersgruppe geben wird. Und bis 2096 werden 12,8 Millionen Menschen 65 Jahre oder älter sein. Ohne neue Strategien, um das Einsetzen von körperlichen Einschränkungen und Demenz zu verzögern, werden die Kosten in der Pflege die folgenden Generationen signifikant treffen“, erläuterte er.

Die durchgeführte Studie, ASPREE, wurde vom US National Institute of Health, vom Australian National Health and Medical Council, von der Victorian Cancer Agency und der Monash University finanziert.

In den Vereinigten Staaten wurde die Studie von den Professoren Anne Murray und Brenda Kirpach geleitet, welche am Berman Center for Outcomes and Clinical Research in Minneapolis forschen und lehren.

Diese neuen Ergebnisse werden in drei Aufsätzen im New England Journal of Medicine dargelegt.

Weitere Informationen:
Institut Ranke-Heinemann / Australisch-Neuseeländischer Hochschulverbund
Pressestelle Friedrichstr. 95
10117 Berlin
Email: berlin@ranke-heinemann.de
Tel.: 030-20 96 29 593

oder:
John McNeil
john.mcneil@monash.edu

Das Institut ist die gemeinnützige Einrichtung zur Förderung des Austausches und der Auslandsstudien insbesondere mit allen Universitäten Australiens und Neuseelands sowie zur Förderung von Wissenschaft und Forschung. In seinen Förderprogrammen stellt es SchülerInnen und Studierenden Unterstützung in der Finanzierung durch Stipendien und Coaching in der Studienberatung und Studienplatzbewerbung zur Verfügung.

Wissenschaftliche Ansprechpartner:
https://www.ranke-heinemann.de

Quelle: idw

(nach oben)


Erstmals systematische Untersuchungen von Arzneimitteleinträgen in die Ostsee

Dr.-Ing. Bodo Weigert Presse- und Öffentlichkeitsarbeit
KompetenzZentrum Wasser Berlin gGmbH (KWB)

In dem von der EU finanzierten Projekt CWPharma wurde damit begonnen, aktive pharmazeutische Wirkstoffe in sechs Flusseinzugsgebieten zu untersuchen, um ein besseres Bild der Eintragspfade, Emissionen und umweltrelevanten Konzentrationen von Arzneimitteln in der Ostseeregion zu erhalten.

„Wir haben bereits Proben aus sechs Flusseinzugsgebieten und mehreren Kläranlagen in Estland, Finnland, Deutschland, Lettland, Polen und Schweden gesammelt. Ziel des Screenings ist es, den gesamten Eintrag von Pharmazeutika in die Ostseeregion abschätzen zu können“, sagt Projektleiterin Noora Perkola vom Finnischen Umweltinstitut. „Wir analysieren gerade die Proben in unseren Labors in Helsinki im Hinblick auf etwa 80 pharmazeutische Wirkstoffe. Zum ersten Mal wird ein derart umfassendes und systematisches Screening von unterschiedlichen Proben aus verschiedenen Ländern durchgeführt. Damit werden die Ergebnisse tatsächlich vergleichbar und können für eine solide Abschätzung der Emissionen und potenziellen Hotspots genutzt werden.“

Die Beprobung verschiedener Flüsse und Flussmündungen aus Flusseinzugsgebieten in Deutschland wurden bereits vom Kompetenzzentrum Wasser Berlin durchgeführt. Im Fokus waren die Tollense vor und nach der Einleitstelle des Klärwerks Neubrandenburg, die Peenemündung, die Warnow im Stadtgebiet Rostock sowie die Warnowmündung am Leuchtturm in Warnemünde. Um jahreszeitliche Konzentrationsschwankungen in den Oberflächengewässern zu erfassen, erfolgten Probenahmen im Sommer und im Winter. Zusätzlich wurde in der Nähe vom Küstenort Rerik Bodenproben von Agrarflächen genommen, auf denen Klärschlamm ausgetragen wird. Zusätzlich organisierte der DWA-Landesverband Nord-Ost in Kooperation mit dem Betreiber der Kläranlage Rostock eine Beprobung des dortigen Kläranlagenzulaufs sowie des Klärschlamms. Die Proben werden derzeit analysiert. Ergebnisse liegen noch nicht vor.

Weitere Informationen über Medikamente und die Umwelt sind erforderlich!
Während Pharmazeutika nützlich und manchmal lebensrettend für Menschen und Haustiere sind, können sie für die Umwelt schädlich sein. Helcoms Hintergrundbericht zu pharmazeutischen Konzentrationen und Auswirkungen in der Ostsee (2016) wies bereits auf viele Wissenslücken hinsichtlich des Ostseeraumes hin.
Das Projekt CWPharma will diese Wissenslücken schließen, indem u.a. Emissionen aus der Pharmaindustrie, Krankenhäusern, Mülldeponien, Fisch- und Geflügelfarmen und kommunalen Kläranlagen geprüft werden. „Ziel der Beprobungen in Deutschland war es, die Relevanz von Klärwerksemissionen für die Qualität der Ostsee zu erfassen“, sagt Dr. Ulf Miehe, Leiter der Untersuchungen beim Kompetenzzentrum Wasser Berlin.

Es ist bereits bekannt, dass Medikamente für den menschlichen Verbrauch in den Abwässern der Kläranlagen zu finden sind und bestimmte weit verbreitete Arzneimittel wie Codein auch in Fischen der Ostsee gefunden wurden. Dennoch ist in vielen Bereichen sehr wenig über die Menge der in die Umwelt gelangende Medikamente bekannt, und noch weniger wissen wir über die Auswirkungen dieser Substanzen auf die Umwelt.
Der veterinärmedizinische Einsatz von Arzneimitteln ist ein noch größeres Problem. Deshalb nehmen wir auch Proben aus Gewässern in der Nähe von Fisch- und Geflügelfarmen und von Feldern, die mit Mist oder Gülle gedüngt werden.

Wie können die Emissionen reduziert werden?
Zusätzlich zum Screening von Pharmazeutika wird CWPharma verschiedene emissionsmindernde Maßnahmen evaluieren, wie bspw. die Veröffentlichung von Umweltdaten zu pharmazeutischen Produkten und die Erteilung von Umweltgenehmigungen für pharmazeutische Betriebe. „Einige dieser Maßnahmen sind hochtechnisch, wie die weitergehenden Methoden der Abwasserbehandlung, bei anderen wiederum handelt es sich um Low-Tech-Verfahren, die dennoch eine Menge bewirken können, darunter die Rücknahme- und Entsorgungsprogramme für nicht verwendete Arzneimittel „, sagt Noora Perkola.

Bewährte Methoden, wie sie in den Partnerländern bereits praktiziert werden, werden gemeinsam genutzt, um den nachhaltigen Umgang mit Arzneimitteln in der Ostseeregion voranzubringen. Zu diesem Zweck werden im Rahmen des Projekts Leitlinien für eine fortschrittliche Abwasserbehandlung und Emp-fehlungen für Low-Tech-Verfahren zur Kontrolle und Verringerung der Emissionen erarbeitet sowie ein umfassender Aktionsplan für die effizientesten Maßnahmen zur Emissionsminderung.

Wissenschaftliche Ansprechpartner:
Kontakt Deutschland:
Dr. Ulf Miehe, Kompetenzzentrum Wasser Berlin, +49 30 53653 821

Projektleitung CWPharma:
Noora Perkola, Finnish Environment Institute tel. +358 295 251 507
Helene Ek Henning, County administrative board of Östergötland

Weitere Informationen:

http://www.cwpharma.fi
http://www.swedishepa.se/Hazards/Pharmaceuticals
https://youtu.be/oIll3vw63as

Quelle: idw

(nach oben)


Ein neuer preiswerter Filter macht es möglich: giftiges Wasser wird sicher und trinkbar

Sabine Ranke-Heinemann Pressestelle
Australisch-Neuseeländischer Hochschulverbund / Institut Ranke-Heinemann

Eine Erfindung in der Flüssigmetall-Chemie könnte dabei helfen, ein Zehntel der Weltbevölkerung kostengünstig mit sauberem Trinkwasser zu versorgen. Das fanden Forscher der UNSW Sydney und des RMIT in Melbourne in einer bahnbrechenden Studie heraus.

Forscher von der University of New South Wales in Sydney und des Royal Melbourne Institute of Technology haben eine revolutionäre und günstige Methode entwickelt, Filter herzustellen, die mit Schwermetallen kontaminiertes Wasser in wenigen Minuten in sicheres Trinkwasser verwandeln.

Prof. Kourosh Kalantar-zadeh, seit kurzem an der UNSW tätig, und seine früheren Kollegen am RMIT konnten zeigen, dass Nano-Filter aus Aluminiumoxid günstig und mit extrem geringem Energieaufwand mit Hilfe von flüssigem Gallium hergestellt werden können.

Der Hauptautor Dr. Ali Zavabeti (RMIT) und Prof. Kalantar-zadeh erklären, dass ein Stück Aluminium, welches bei Zimmertemperatur in flüssiges Gallium gelegt wird, schnell an der Oberfläche des Galliums Schichten von Aluminiumoxid bildet. Sie entdeckten, dass die Schichten des Aluminiumoxids sehr porös waren. Sie konnten nachweisen, dass Aluminiumoxid geeignet ist, sowohl Schwermetall-Ionen als auch Ölverschmutzungen in noch nie da gewesener Geschwindigkeit zu filtern.

Prof. Kalantar-zadeh, der kurz nach seinem Beitritt in die UNSW School of Chemical Engineering mit dem ARC Australian Laureate Fellowship ausgezeichnet wurde, sagt, dass die kostengünstigen und tragbaren Filter, die durch den neuen Prozess hergestellt werden, von Menschen genutzt werden können, die bisher keinen Zugang zu sauberen Trinkwasser hätten. Sie könnten damit Blei und andere giftige Schwermetalle in wenigen Minuten herausfiltern.

„Weil es sehr porös ist, wird das Wasser sehr schnell durchgefiltert“, so Professor Kalantar-zadeh. „Blei und andere Schwermetalle sind eng verwandt mit Aluminiumoxid. Wenn das Wasser die Milliarden Schichten durchläuft, wird jedes einzelne Blei-Ion von den Aluminiumoxid-Schichten angezogen. Zugleich ist die Methode sehr sicher, denn auch nach wiederholter Nutzung kann das Wasser die Schwermetallionen nicht vom Aluminiumoxid lösen“.

Prof. Kalantar-zadeh ist der Ansicht, dass die Technologie in Afrika und Asien besonderes gut an den Orten eingesetzt werden kann, an denen die Konzentration von Schwermetallionen im Wasser besonders hoch – und damit für Menschen schädlich – ist. Es wird geschätzt, dass 790 Millionen Menschen, also einer von zehn der gesamten Weltbevölkerung, keinen Zugang zu sauberem Wasser haben.

„Wenn die Wasserqualität schlecht ist, nimm einfach einen dieser Filter“, so Prof. Kalantar-zadeh. „Man schüttet das kontaminierte Wasser in eine Flasche mit einem Aluminiumoxid-Filter. Dann wartet man zwei Minuten, und das durch den Filter gelaufene Wasser ist sauber und trinkbar. Und das Gute daran ist, dass der Filter auch noch günstig ist.“

Es gäbe zwar bereits tragbare Filter, die Schwermetalle aus dem Wasser filtern, aber diese seien im Vergleich teuer. Sie kosteten oft mehr als 100 Dollar. Im Gegensatz dazu könnten die Aluminiumoxid-Filter, die mit flüssigem Gallium hergestellt werden, für nur 10 Cent produziert werden, was sie für mögliche zukünftige Investoren interessant macht.

„Um Aluminiumoxid herzustellen, musste man Aluminium bislang auf über 1.000 Grad erhitzen oder andere energieintensive Prozesse nutzen“, sagt Prof. Kalantar-zadeh. „Es würde eigentlich sehr viel Energie kosten, etwas wie diesen Filter herzustellen, wodurch der Prozess sehr teuer wäre. Jetzt reden wir von etwas, was man sogar bei 35 Grad in der Sonne machen kann.“

„Während Aluminium reichlich vorkommt und billig ist, ist Gallium recht teuer. Aber was Gallium in diesem Prozess zum Helden macht, ist die Tatsache, dass es nach der Produktion des Aluminiumoxids rein und unverändert bleibt. Man fügt einfach Aluminium zum Gallium hinzu, und sobald es mit der Wasseroberfläche in Berührung kommt, erhalten wir Aluminiumoxid. Man kann das Gallium wieder und wieder verwenden. Gallium reagiert nicht mit den anderen Stoffen“, erklärt Prof. Kalantar-zadeh.

Prof. Kalantar-zadeh sagt, der Herstellungsprozess sei so günstig und benötige nur so wenig Energie, dass die Filter sogar in der Küche hergestellt werden könnten. „Wir veröffentlichen dieses Konzept und machen es zum Allgemeingut, damit alle Menschen auf der Welt die Idee kostenlos nutzen und ihre Lebensqualität verbessern können“, so Prof. Kalantar-zadeh.

„Hierbei geht es um ein neues Paradigma. Wir haben noch nicht einmal damit angefangen herauszufinden, wir wir flüssige Metalle als Basis für Dinge nutzen können, die günstig, grün und sicher für die Menschheit sind.“

Das Paper wurde im wissenschaftlichen Magazin „Advanced Functional Materials“ veröffentlicht.

Die Arbeit, die von Prof. Kalantar-zadeh und Dr. Zavabeti geleitet wurde, wurde vom ARC Centre for Future Low-Energy Electronics Technologies (FLEET) finanziert.

Weitere Informationen:
Institut Ranke-Heinemann / Australisch-Neuseeländischer Hochschulverbund
Pressestelle Friedrichstr. 95
10117 Berlin
Email: berlin@ranke-heinemann.de
Tel.: 030-20 96 29 593

oder:

Isabelle Dubach
Media and Content
+61 2 9385 7307
i.dubach@unsw.edu.au

Das Institut ist die gemeinnützige Einrichtung zur Förderung des Austausches und der Auslandsstudien insbesondere mit allen Universitäten Australiens und Neuseelands sowie zur Förderung von Wissenschaft und Forschung. In seinen Förderprogrammen stellt es SchülerInnen und Studierenden Unterstützung in der Finanzierung durch Stipendien und Coaching in der Studienberatung und Studienplatzbewerbung zur Verfügung.

Wissenschaftliche Ansprechpartner:
https://www.ranke-heinemann.de

Quelle: idw

(nach oben)


Umweltauswirkungen der Krabbenfischerei im Nationalpark Wattenmeer

Dr. Michael Welling Presse- und Öffentlichkeitsarbeit
Johann Heinrich von Thünen-Institut, Bundesforschungsinstitut für Ländliche Räume, Wald und Fischerei

Thünen-Institut erhält Zuschlag für ein neues, bundesländerübergreifendes Forschungsprojekt

Die deutsche Nordseeküste gehört fast vollständig zum Nationalpark Wattenmeer, einem besonders schützenswerten Ökosystem. In diesem Gebiet sind rund 190 Krabbenfischerei-Betriebe tätig. Hohe Anforderungen an die Nachhaltigkeit sind nötig, um die Garnelenfischerei mit den Nationalparkzielen und der Natura2000-Richtlinie in Einklang zu bringen. Bei ihren Fangfahrten setzen die Krabbenfischer Grundschleppnetze ein, sogenannte Baumkurren, die durch Rollen und Kufen stetigen Kontakt zum Meeresboden haben. Wie stark dies das Ökosystem beeinträchtigt, wird in der Öffentlichkeit kontrovers diskutiert.

Die Auswirkungen der Baumkurren auf den Meeresboden und seine Lebensgemeinschaften besser zu verstehen, ist Ziel des neuen Forschungsprojekts „CRANIMPACT – Auswirkungen der Garnelenfischerei auf Habitate und Lebensgemeinschaften im Küstenmeer der Norddeutschen Bundesländer Schleswig-Holstein, Hamburg und Niedersachsen“. Unter Leitung des Thünen-Instituts für Seefischerei hat sich für dieses Projekt ein Konsortium aus Universitäten, staatlichen Forschungseinrichtungen und Wirtschaftspartnern zusammengefunden; die Kosten von rund 1,4 Millionen Euro werden zu 75 % aus Mitteln des Europäischen Meeres- und Fischereifonds bereitgestellt, die übrigen 25 % tragen die beiden Bundesländer Schleswig-Holstein und Niedersachsen.

Das Projekt hat zwei sich ergänzende Ansätze: Analysen der Zusammensetzung der Bodenlebensgemeinschaften entlang von Gradienten fischereilicher Nutzung und die Untersuchung der Erholungsraten der Lebensgemeinschaften und Bodenstrukturen nach experimenteller Befischung. Als Referenzgebiet dient dabei erstmals ein Teil des dänischen Wattenmeeres, wo Krabbenfischerei seit Jahrzehnten verboten ist. Zusätzlich wird untersucht, wie tief die Baumkurren in die verschiedenen Bodentypen des Küstenmeeres eindringen, um deren physikalische Empfindlichkeit gegenüber der Fischerei herauszuarbeiten.

Für die Arbeiten auf See kommen sowohl kommerzielle Krabbenkutter der Erzeuger-gemeinschaft der Deutschen Krabbenfischer zum Einsatz als auch kleinere Forschungsschiffe, die speziell für den Einsatz im flachen Wattenmeer konzipiert sind. Die Untersuchungsgebiete erstrecken sich vom Lister Tief nördlich der Insel Sylt bis zur Blauen Balje südlich des Jadebusens im Niedersächsischen Wattenmeer.

Neben den praktischen Arbeiten auf See werden verschiedene Datensätze, unter anderem Langzeiterhebungen der Bodenlebensgemeinschaften und Satellitenüberwachungsdaten, ausgewertet, um abschätzen zu können, wie sich die Ökosysteme längerfristig an die Fischerei anpassen. In den biologischen Analysen stehen die Auswirkungen der Fischerei auf die Ökosystemfunktionalität und -leistungen besonders im Fokus.

Die Projektergebnisse liefern eine fundierte wissenschaftliche Grundlage für Management-maßnahmen und Bewirtschaftungspläne für die Krabbenfischerei im Küstenmeer, wie sie z.B. im Rahmen der MSC-Zertifizierung eingefordert werden. Darüber hinaus liefern Sie wichtige Fakten, die die Diskussion über die Vereinbarkeit von Naturschutz und fischereilicher Nutzung im Nationalpark Wattenmeer weiterbringen können.

Wissenschaftliche Ansprechpartner:
Dr. Gerd Kraus
Thünen-Institut für Seefischerei, Bremerhaven
Tel.: 0471 94460-101
E-Mail: gerd.kraus@thuenen.de

Quelle: idw

(nach oben)


Das Hochwasserrisiko besser abschätzen

Dr. Julia Weiler Dezernat Hochschulkommunikation
Ruhr-Universität Bochum

Ingenieure der Ruhr-Universität Bochum haben ein neues statistisches Modell entwickelt, das vorhersagt, wie wahrscheinlich extreme Hochwasserereignisse in Deutschland sind. Anders als in früheren Modellen unterscheiden sie dabei drei Typen von Hochwasser mit verschiedenen Ursachen, etwa Starkregen oder Dauerregen. Das Modell kann helfen, das Hochwasserrisiko in bestimmten Gebieten einzuschätzen und entsprechende Schutzmaßnahmen zu planen. Über ihre Arbeit berichtet das Team um Prof. Dr. Andreas Schumann vom Lehrstuhl für Hydrologie, Wasserwirtschaft und Umwelttechnik im Bochumer Wissenschaftsmagazin Rubin.

Drei Ursachen für Hochwasser
In ihrem Modell unterscheiden die Hydrologen drei Arten von Hochwasser, die auf verschiedene Ursachen zurückgehen: Starkregen, der ein oder zwei Tage andauert; Dauerregen über vier bis fünf Tage; und schneebeeinflusste Hochwasser.

Früher wurden die Jahreshöchstwerte statistisch analysiert, das Modell unterschied also nicht zwischen den drei Hochwassertypen. Genau das ist aber notwendig, um die Hochwasserwahrscheinlichkeit abzuschätzen. Ein kurzer, lokal begrenzter Starkregen kann zum Beispiel in kleineren Gebieten die Flüsse über die Ufer treten lassen, in größeren Gebieten aber nicht.

Wetterdaten und Pegelstände zusammenbringen
Schumanns Gruppe rechnete die drei Hochwassertypen für das neue Modell auseinander. Als Grundlage erhielten sie von den jeweiligen Landesämtern Aufzeichnungen der Pegelstände bestimmter Flüsse und setzten diese mit meteorologischen Daten des Deutschen Wetterdienstes zum gleichen Zeitpunkt in Beziehung. So erhielten sie eine Statistik, welche Wetterereignisse welche Effekte in den Flüssen auslösen, und können darauf basierend Aussagen zum Hochwasserrisiko für die Zukunft ableiten. Das Modell basiert auf Daten des Flusses Mulde und der Region Ostharz. Prinzipiell funktioniert es für ganz Deutschland, allerdings muss es für jedes Gebiet angepasst werden.

Wichtig für eine möglichst gut treffende Aussage sind auch die Randbedingungen jeder Region, die das Modell ebenfalls berücksichtigt. Dazu zählen Bodenfeuchte, Bewaldung, ob und wie ein Gebiet landwirtschaftlich genutzt oder bebaut ist sowie das Relief des Geländes, das zum Beispiel bedingt, ob es eine steile oder flache Flutwelle gibt und wie schnell das Hochwasser abläuft.

Hochwasser treten unregelmäßig auf
„Wir können nun ausrechnen, wie wahrscheinlich es ist, dass in einem beliebigen Jahr eine bestimmte Art von Hochwasser auftritt“, sagt Andreas Schumann. Allerdings sind die Ereignisse nicht gleichmäßig über die Zeit verteilt. Gemeinsam mit Meteorologinnen und Meteorologen der Goethe-Universität Frankfurt suchen die Bochumer Ingenieure derzeit nach einer Erklärung für hochwasserarme und -reiche Perioden.

Kein Beleg für den Klimawandel
Klar ist: Seit ungefähr 1993 befindet sich Deutschland in einer hochwasserreichen Zeit. „Natürlich stellt sich immer die Frage, ob das die Folgen des Klimawandels sind“, weiß Andreas Schumann. „Aber bislang sind die Messreihen nicht lang genug, um einen solchen Zusammenhang zu belegen. Hochwasserreiche Perioden hat es auch schon früher gegeben.“ Trends zeichnen sich hingegen ab: Schneehochwasser sind seltener geworden; Hochwasser durch Starkregen häufiger – statistisch signifikant ist das jedoch derzeit nicht.

Die beschriebenen Arbeiten erfolgen im Rahmen der von der Deutschen Forschungsgemeinschaft geförderten Forschungsgruppe „Space-Time Dynamics of Extreme Floods“.

Ausführlicher Beitrag in Rubin
Einen ausführlichen Beitrag (http://news.rub.de/wissenschaft/2018-09-17-umwelttechnik-hochwasserrisiko-besser…) zum Thema finden Sie im Wissenschaftsmagazin Rubin. Texte auf der Webseite und Bilder aus dem Downloadbereich dürfen unter Angabe des Copyrights für redaktionelle Zwecke honorarfrei verwendet werden.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Andreas Schumann
Lehrstuhl für Hydrologie, Wasserwirtschaft und Umwelttechnik
Fakultät für Bau- und Umweltingenieurwissenschaften
Ruhr-Universität Bochum
Tel.: 0234 32 24693
E-Mail: andreas.schumann@rub.de

Weitere Informationen:
http://news.rub.de/leute/2018-05-18-volker-medal-andreas-schumann-fuer-hochwasse…

Quelle: idw

(nach oben)


Neue Studie: Wasserelektrolyse hat Potenzial zur Gigawatt-Industrie

Karin Schneider Presse und Public Relations
Fraunhofer-Institut für Solare Energiesysteme ISE

Die Wasserelektrolyse zur Erzeugung von Wasserstoff auf Basis von regenerativ erzeugtem Strom entwickelt sich immer mehr zu einer Kerntechnologie der Energiewende. Der steigende Anteil volatilen Wind- und Solarstroms kann in Form von Wasserstoff saisonal gespeichert, rückverstromt oder zu Kraftstoffen und chemischen Grundstoffen weiterverarbeitet werden. Allein für Deutschland wird bis 2050 eine installierte Anlagenleistung im dreistelligen Gigawattbereich prognostiziert, unter der Maßgabe, dass die Klimaschutzziele der Bundesregierung erreicht werden.

Im Auftrag des Bundesministeriums für Verkehr und digitale Infrastruktur (BMVI) haben das Fraunhofer-Institut für Solare Energiesysteme ISE, das Fraunhofer-Institut für Produktionstechnologie und Automatisierung IPA und das Beratungsunternehmen E4tech einen Fahrplan für die Etablierung der Wasserelektrolyse in Deutschland entwickelt.

In der heute veröffentlichten Studie »Industrialisierung der Wasserelektrolyse in Deutschland: Chancen und Herausforderungen für nachhaltigen Wasserstoff für Verkehr, Strom und Wärme« zeigen die Partner auf, wie die notwendigen industriellen Fertigungskapazitäten für Elektrolyseure in den nächsten Jahren aufgebaut werden können. Sie untersuchten hierfür die Herausforderungen beim Aufbau einer Gigawatt-Elektrolyse-Industrie in Deutschland, insbesondere mit Blick auf kritische Komponenten. Unter Einbeziehung von Industrie und Anwendern wurden die technologischen, herstellungstechnischen und akteursspezifischen Handlungsbedarfe diskutiert und Handlungsempfehlungen abgeleitet.

Der künftige Elektrolysebedarf für die Sektoren Verkehr, Wärme und Strom wurde mit dem am Fraunhofer ISE entwickelten Tool REMod-D in einer Energiesystemsimulation für Deutschland ermittelt. Insgesamt wurden sechs Ausbauszenarien betrachtet, um unter anderem die Bandbreite der in der Industrieumfrage ermittelten Leistungsparameter zu berücksichtigen; in allen betrachteten Szenarien gilt dabei die Randbedingung, dass das deutsche Klimaziel einer Absenkung der energie-bedingten CO2-Emissionen um 80 % ohne einen großskaligen Import von synthetischen Energieträgern erreicht wird. Zugleich wird davon ausgegangen, dass energieintensive Industrien auch weiterhin am Standort Deutschland betrieben werden. Im Ergebnis resultiert – abhängig von den jeweils zugrunde gelegten Randbedingungen – ein Ausbaukorridor von größer 100 bis weit über 200 Gigawatt an installierter Elektrolysekapazität im Jahr 2050. Bereits in der zweiten Hälfte des kommenden Jahrzehnts müsste die Zubaurate ein Gigawatt Neuinstallation pro Jahr deutlich übersteigen, und ab den 2030er Jahren gehen die Szenarien von mehreren Gigawatt Neuinstallation pro Jahr aus. »Bereits heute sind die beiden wichtigsten Technologien, die alkalische und die PEM-Elektrolyse, in einem technisch ausgereiften Zustand. Einer großskaligen Nutzung der Elektrolyse steht aus technologischer Sicht nichts im Wege«, erklärt Dr. Tom Smolinka, Abteilungsleiter Chemische Energiespeicherung am Fraunhofer ISE. Einzelne Forschungsthemen müssen jedoch noch weiter verfolgt werden. So ist beispielsweise die Hochtemperatur-Elektrolyse noch nicht wettbewerbsfähig, sie hat aber wegen des geringeren Strombedarfs und der in Deutschland vorhandenen industriellen Abwärme durchaus Potenzial. Auch aus produktionstechnischer Sicht konnten nur wenige hinderliche Aspekte identifiziert werden. »Die zur Produktion der Komponenten nötigen Verfahren werden bereits in anderen Branchen großindustriell angewendet. Eine Skalierung der Produktion ist mit einem vergleichsweise geringen Maschinen- und Kapitaleinsatz möglich«, so Steffen Kiemel, wissenschaftlicher Mitarbeiter am Fraunhofer IPA. Bei den als potenziell kritisch eingestuften Komponenten wurde aufgezeigt, dass weder kurz- noch langfristig mit Lieferengpässen zu rechnen ist.

Markthemmnisse beseitigen
»Handlungsbedarf besteht vor allem auf Seiten des Gesetzgebers: der Markthochlauf, der für die weitere Technologieentwicklung und Kostenreduktion der zentrale Hebel ist, muss durch Anpassungen des regulatorischen Rahmens, insbesondere beim Strombezug unterstützt werden, damit Elektrolyseanwendungen wirtschaftlich werden können«, bekräftigt Franz Lehner, Managing Consultant beim Beratungsunternehmen E4tech. Die Autoren der Studie schlagen daher ein »Marktaktivierungsprogramm Wasserelektrolyse« vor, das den Herstellern und Anwendern Planungssicherheit für Investitionen bietet.

Studie
Die Studie »Industrialisierung der Wasserelektrolyse in Deutschland: Chancen und Herausforderungen für nachhaltigen Wasserstoff für Verkehr, Strom und Wärme« wurde durch die Nationale Organisation Wasserstoff- und Brennstoffzellentechnologie (NOW GmbH) koordiniert und durch den Projektträger Jülich betreut.

Originalpublikation:
https://www.now-gmbh.de/content/service/3-publikationen/1-nip-wasserstoff-und-br…

Weitere Informationen:
https://www.ise.fraunhofer.de/de/presse-und-medien/presseinformationen/2018/neue…

Anhang

Presseinformation [PDF]
https://idw-online.de/de/attachment66627

Quelle: idw

(nach oben)


Versauert die Ostsee? IOWForscher adaptiert erstmals präzise optische pH-Messmethode für Brackwasser

Dr. Kristin Beck Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Ostseeforschung Warnemünde

Großer Fortschritt für das pH-Monitoring in der Ostsee: Um mögliche Versauerungstrends besser beobachten zu können, entwickelte Jens Müller, Meereschemiker am Leibniz-Institut für Ostseeforschung Warnemünde (IOW), eine sehr genaue optische pH-Messmethode, die bislang nur bei hohen Salzgehalten im Ozean anwendbar war, so weiter, dass sie auch bei geringer Salinität im Ostsee-Brackwasser einsatzbereit ist. Das adaptierte Messverfahren, für das bereits ein marktreifes Gerät konstruiert wurde, empfiehlt sich daher für den routi-nemäßigen Einsatz im Rahmen der Ostsee-Umweltüberwachung der Helsinki-Kommission (HELCOM). Durchgeführt wurden die Arbeiten im Rahmen des EU-Projektes BONUS PINBAL*.

Der durch den Menschen verursachte übermäßige CO₂-Ausstoß ist nicht nur ein Problem für das Weltklima, sondern auch für die Weltmeere: Kohlendoxid löst sich im Meerwasser, bil-det Kohlensäure und setzt dadurch Wasserstoff-Ionen frei, die zu einer Versauerung führen. Seit Beginn der Industrialisierung ist der durchschnittliche pH-Wert der Ozeane von 8,2 auf rund 8,1 gefallen. Auch als „das andere CO₂-Problem“ bezeichnet, beeinflusst die Absen-kung des pH-Wertes fast alle biochemischen und biologischen Prozesse im Meer. Sehr emp-findlich reagieren beispielsweise Muscheln, Krebse und Korallen, da der Aufbau ihrer Kalkschalen, -panzer oder -skelette in dem zunehmend sauren Milieu erschwert wird.

Obwohl sich die Wissenschaft bereits seit rund zwei Jahrzehnten mit der Ozeanversauerung befasst, ist es nicht leicht, die aktuelle Dynamik des Phänomens mitzuverfolgen: Langzeit-Messreihen im offenen Ozean zeigen, dass sich der pH-Wert im Schnitt jährlich um ca. 0,002 Einheiten vermindert. Um diese geringen Veränderungen zu erfassen, bedarf es hochgenauer Messmethoden. In der Ozeanographie hat sich dafür die optische pH-Messung als Standard etabliert hat. Sie beruht auf der Zugabe des Farbstoffs m-Kresolpurpur zur Wasserprobe und dessen pH-abhängigen Farbumschlag von Violett nach Gelb. Die Farbigkeit kann mit einem Photometer äußerst exakt bestimmt und in Abhängigkeit von Salzgehalt und Temperatur in pH-Einheiten umgerechnet werden.

Und wie sieht es mit der Ostsee aus? „Wir haben Daten der letzten 20 Jahre analysiert und keinen eindeutigen Versauerungstrend feststellen können – ein ziemlich bemerkenswertes Ergebnis angesichts der bereits nachgewiesenen allgemeinen Ozeanversauerung“, sagt Jens Müller vom IOW, der sich im Rahmen seiner Doktorarbeit intensiv mit dem CO₂-System der Ostsee befasst hat. Dafür kämen verschiedene Gründe in Frage; zwei besonders wichtige seien die folgenden, erklärt der Meereschemiker: 1. Die Datenqualität ist in Bezug auf Mess-genauigkeit unzureichend. 2. Es gibt tatsächlich keinen abnehmenden pH-Trend, da die Versauerung durch konträr wirkende Einflüsse abgepuffert wird.

Dass es in der Ostsee derzeit in der Tat Prozesse gibt, die der Versauerung entgegenwirken, zeigen umfangreiche Analysen zur Alkalinität, also zum Säurebindungsvermögen des Meer-wassers. Der seit 1995 beobachtete Anstieg der Alkalinität in der Ostsee ist wahrscheinlich durch kontinentale Gesteinsverwitterung bedingt, deren Produkte mit den Flüssen in das Binnenmeer gewaschen werden. Wie lange dieser Alkalinitätsanstieg jedoch anhält und eine Versauerung abpuffern kann, ist unbekannt. „Um zu verstehen, was in der Ostsee in Sachen pH passiert, muss ausgeschlossen werden, dass ein Nachweis von Versauerung einfach an Methodenungenauigkeit scheitert“, betont Jens Müller. Derzeit basiert die Erfassung des pH-Werts im Rahmen von Ostsee-Routine-Untersuchungen auf Messungen mit einer Glaselektrode; der Messfehler dieses Verfahrens ist zu groß, um Versauerungstrends sicher nachzuweisen. Jens Müller mahnt daher an, ein entsprechendes Monitoring mit genauester Methodik und möglichst guter zeitlicher und räumlicher Auflösung durchzuführen, damit man bei so einem Schlüsselparameter immer auf dem neusten Stand sei. Müller: „Wir haben deshalb die deutlich genauere optische pH-Messmethode, die bislang nur in den offenen Ozeanen mit hohen Salzgehalten zwischen 20 und 40 anwendbar war, so weiterentwickelt, dass sie auch im Ostsee-Brackwasser bei geringerer Salinität von 5 bis 20 funktioniert und für ein routinemäßiges Monitoring einsatzbereit ist.“

Dazu glich Jens Müller in Kooperation mit der Physikalisch-Technischen Bundesanstalt (PTB) in künstlichen Meerwasserstandards durchgeführte optische pH-Messungen erstmals mit pH-Messungen nach dem primären, messtechnisch definierten elektrochemischen Stan-dardverfahren ab und charakterisierte systematisch das Farbumschlagsverhalten des Indi-katorfarbstoffs m-Kresolpurpur für niedrige Salzgehalte. „Mit Hilfe dieser auf Primärstandards zurückführbaren Daten können wir nun erstmals pH-Messgeräte auch für den Salinitätsbereich der Ostsee eichen und die Farbigkeit des Indikators zuverlässig in pH-Einheiten umrechnen“, erläutert Müller. In einem letzten Schritt konnte der IOW-Forscher noch experimentell ausschließen, dass sich Schwefelwasserstoff und größere Mengen organischen Materials, beides typisch für Brackwasserökosysteme wie die Ostsee, störend auf das neue Messverfahren auswirken.

Um das optische pH-Messverfahren nicht nur auf chemisch-physikalischer Ebene für den Einsatz in der Ostsee startklar zu machen, erarbeitete Jens Müller zusammen mit einer Kieler Meerestechnik-Firma und zwei wissenschaftlichen Partnerinstitutionen eine für den Feldein-satz anwendungsreife technische Umsetzung, die mittlerweile erprobt und auf dem Markt ist. „Unser ‚Roter Kasten‘, in dem alles eingebaut ist, was man zur optisch-photometrischen pH-Messung braucht, kann leicht auf jedem Forschungsschiff installiert werden und auch auf sogenannten ‚voluntary observing ships‘ (VOS) mitfahren“, sagt Müller.

VOS sind regelmäßig auf den Ozeanen und auch auf der Ostsee verkehrende Schiffe, die nicht primär für die Forschung unterwegs sind, aber dennoch Messgeräte an Bord nehmen und wissenschaftliche Daten erheben. „Einer routinemäßigen Verwendung des angepassten Verfahrens für ein deutlich präziseres, hochaufgelöstes und flächendeckendes pH-Monitoring in der Ostsee steht damit nichts mehr im Wege. Wir halten das nun auch Brackwasser-taugliche Verfahren daher für geeignet, als offizielle neue Standard-Messmethode im Ostsee-Monitoring zum Einsatz zu kommen. Dafür machen wir uns bei der HELCOM (Helsinki-Kommission zum Schutz der Ostsee) stark“, kommentiert Gregor Rehder, Leiter der IOW-Arbeitsgruppe „Biogeochemie Umweltrelevanter Gase“ und Koordinator des PINBAL-Projekts, die Forschungsergebnisse seines ehemaligen Doktoranden und jetzigen Kollegen abschließend.

Originalpublikationen im Rahmen von BONUS PINBAL* zur pH-Messung im Brackwasser:
(*kurz für „Development of a spectrophotometric pH-measurement system for monitoring in the Baltic Sea“, weitere Infos: http://www.bonusportal.org/pinbal)

– Jens D. Müller, Frank Bastkowski, Beatrice Sander, Steffen Seitz, David R. Turner, Andrew G. Dickson, Gregor Rehder (2018): „Metrology for pH Measurements in Brackish Waters – Part 1: Extending Electrochemical pHT Measurements of TRIS Buffers to Salinities 5 – 20″, Front. Mar. Sci. 5:176, doi: 10.3389/fmars.2018.00176

– Jens D. Müller and Gregor Rehder (2018): „Metrology for pH Measurements in Brackish Waters – Part 2: Experimental Characterization of Purified meta-Cresol Purple for Spectrophotometric pHT Measurements“, Front. Mar. Sci. 5:177, doi: 10.3389/fmars.2018.00177

– Jens D. Müller, Bernd Schneider, Steffen Aßmann, Gregor Rehder (2018): „Spectrophotometric pH measurements in the presence of dissolved organic matter and hydrogen sulfide“, Limnol. Oceanogr.: Methods 16, 2018, 68-82, doi: 10.1002/lom3.10227

BONUS PINBAL-Partner:
– Kongsberg Maritime Contros GmbH, Kiel
– University of Gothenburg, Göteborg, Schweden
– Institute of Oceanology of Polish Academy of Science, Warschau, Polen

Kontakt IOW-Presse- und Öffentlichkeitsarbeit:
Dr. Kristin Beck | Tel.: 0381 – 5197 135 | kristin.beck@io-warnemuende.de
Dr. Barbara Hentzsch | Tel.: 0381 – 5197 102 | barbara.hentzsch@io-warnemuende.de

Das IOW ist Mitglied der Leibniz-Gemeinschaft, zu der zurzeit 93 Forschungsinstitute und wissenschaftliche Infrastruktureinrichtungen für die Forschung gehören. Die Ausrichtung der Leibniz-Institute reicht von den Natur-, Ingenieur- und Umweltwissenschaften über die Wirtschafts-, Sozial- und Raumwissenschaften bis hin zu den Geisteswissenschaften. Bund und Länder fördern die Institute gemeinsam. Insgesamt beschäftigen die Leibniz-Institute etwa 19.100 MitarbeiterInnen, davon sind ca. 9.900 WissenschaftlerInnen. Der Gesamtetat der Institute liegt bei mehr als 1,9 Mrd. Euro. http://www.leibniz-gemeinschaft.de

Wissenschaftliche Ansprechpartner:
Dr. Jens Müller | Tel.: 0381 – 5197 3458 | jens.mueller@io-warnemuende.de
Prof. Gregor Rehder | Tel.: 0381 – 5197 336 | gregor.rehder@io-warnemuende.de

Quelle: idw

(nach oben)


Experten klären auf: Wann das Smartphone für Kinderaugen gefährlich wird

Lisa-Marie Ströhlein Pressestelle
Deutsche Ophthalmologische Gesellschaft

Berlin – Die übermäßige Nutzung von Smartphones und Tablets fördert die Entwicklung von Kurzsichtigkeit bei Kindern. Das belegen Studien. Doch wieviel Zeit am Handy ist aus Sicht des Augenarztes erlaubt? Auf einer Pressekonferenz im Vorfeld des 116. Kongresses der DOG Deutsche Ophthalmologische Gesellschaft geben Experten konkrete Empfehlungen zum altersangemessenen Umgang mit elektronischen Medien. Die DOG 2018 findet vom 27. bis 30. September 2018 in Bonn statt.

In den vergangenen Jahren ist die Anzahl kurzsichtiger Menschen vor allem in den Industrieländern rasant angestiegen. So sind in Deutschland inzwischen 50 Prozent aller jungen Erwachsenen von einer Kurzsichtigkeit betroffen, in einzelnen asiatischen Ländern beläuft sich die Quote sogar auf bis zu 95 Prozent. „Die Zunahme ist vor allem auf sehr frühen und intensiven Gebrauch von PCs, Smartphones und Tablets bei gleichzeitig immer kürzeren Tagesaufenthalten im Freien zurückzuführen“, sagt Frau Professor Dr. med. Nicole Eter, Präsidentin der DOG und Direktorin der Klinik und Poliklinik für Augenheilkunde am Universitätsklinikum Münster.

Ist Kurzsichtigkeit – in der Fachsprache auch Myopie genannt – einmal vorhanden, bleibt sie bestehen. Eine Myopie beginnt meist im Grundschulalter und nimmt bis ins Erwachsenenalter zu. Es gilt: Je früher sie einsetzt, desto stärker ist ihr Ausmaß. Dabei hat Kurzsichtigkeit nicht nur das Tragen von Brillen oder Kontaktlinsen zur Konsequenz. „Myope Menschen haben auch ein größeres Risiko für schwerwiegende Folgeerkrankungen wie Netzhautablösung, Schädigungen der Makula oder für erhöhten Augeninnendruck, der zu grünem Star führt“, betont Frau Professor Dr. med. Bettina Wabbels, Leiterin der Abteilung für Orthoptik, Neuro- und pädiatrische Ophthalmologie an der Universitäts-Augenklinik Bonn.

Übermäßiger elektronischer Medienkonsum hat aber vermutlich noch weitere negative Auswirkungen. So kann der ständige Blick auf den Screen kindliche Augen reizen, ermüden und austrocknen. Auch steht der abendliche Griff zu Smartphone & Co. in Verdacht, Schlafstörungen auszulösen. „Der hohe Blaulichtanteil der Bildschirme hemmt die Ausschüttung des Hormons Melatonin, das schläfrig macht“, erläutert die Bonner DOG-Expertin. Gehen schon Kleinkinder häufig online, leidet womöglich sogar deren räumliches Vorstellungsvermögen. „Zu viel Smartphone kann zudem Probleme beim Wechsel zwischen Nah- und Fernsicht verursachen, etwa in Form von verschwommenem Sehen oder Schielen“, setzt Bettina Wabbels die Liste schädlicher Folgen fort.

Eltern sollten daher unbedingt die Nutzungsdauer digitaler Medien bei ihrem Nachwuchs begrenzen. „Aus augenärztlicher Sicht sind PC, Smartphone oder Tablet für Kinder bis zu einem Alter von drei Jahren gänzlich ungeeignet“, betont die DOG-Expertin. Für Vier- bis Sechsjährige empfiehlt sie eine tägliche Nutzungsdauer von bis zu dreißig Minuten – so lautet auch die Einschätzung der Bundeszentrale für gesundheitliche Aufklärung. „Im Grundschulalter wäre eine Medienzeit von maximal einer Stunde täglich aus augenärztlicher Sicht vertretbar, ab einem Alter von etwa zehn Jahren von bis zu zwei Stunden pro Tag“, ergänzt die Ophthalmologin.

Besitzen Kinder eigene Geräte, die sie außer Haus mitnehmen, sollten die Eltern entweder klare Regeln aufstellen oder die Nutzungsdauer über technische Einstellungen beschränken, etwa mit einer App oder Kindersicherung. Ebenfalls wichtig: „Um Schlafstörungen zu vermeiden, sind elektronische Medien ein bis zwei Stunden vor dem Zubettgehen tabu“, sagt Bettina Wabbels. Das digitale „Daddeln“ sollte im Übrigen stets mit analoger Freizeitgestaltung kombiniert werden. „Es ist der Gesundheit zuträglich, wenn sich Kinder täglich mindestens zwei Stunden bei Tageslicht im Freien aufhalten, das wirkt auch einer Kurzsichtigkeit entgegen“, betont die Expertin.

Kontakt für Journalisten:
Deutsche Ophthalmologische Gesellschaft (DOG)
Pressestelle
Kerstin Ullrich
Postfach 30 11 20
70451 Stuttgart
Telefon: 0711 8931-641
Telefax: 0711 8931-167
ullrich@medizinkommunikation.org
www.dog.org

Weitere Informationen:
http://www.dog.org

Quelle: idw

(nach oben)


Wohnort und Situation beeinflussen, wie stark wir uns mit anderen vergleichen

Gabriele Meseg-Rutzen Presse und Kommunikation
Universität zu Köln

Sozialpsychologen zeigen, dass die menschliche Neigung sich mit anderen zu vergleichen in bestimmten Situationen und in manchen US-Bundesstaaten weiter verbreitet ist als in anderen.

Wohnort und Situation beeinflussen, wie stark wir uns mit anderen vergleichen
Sozialpsychologen zeigen, dass die menschliche Neigung sich mit anderen zu vergleichen in bestimmten Situationen und in manchen US-Bundesstaaten weiter verbreitet ist als in anderen.

Eine aktuelle Reihe von sozialpsychologischen Studien an der Universität zu Köln und der London Business School hat erstmals gezeigt, dass die menschliche Tendenz, sich mit anderen zu vergleichen, von zwei grundlegenden kulturellen Merkmalen abhängt. Dr. Matthew Baldwin (Social Cognition Center Cologne) and Professor Dr. Thomas Mussweiler (London Business School) fanden heraus, dass Menschen sich zum einen in Situationen, in denen strenge soziale Normen herrschen und ein Abweichungen von diesen bestraft wird, stark mit anderen vergleichen. Zum anderen ist die Neigung zum sozialen Vergleich in Situationen höher, in denen sich Menschen mit anderen stark verbunden fühlen. Eine strenge soziale Situation, in der das richtige Verhalten klar definiert ist, kann beispielsweise ein Vorstellungsgespräch sein. Eine weniger strenge soziale Situation, in der man sich mit jedoch mit anderen Menschen stark verbunden fühlt, ist beispielsweise eine Party.

Dieses Phänomen ist in unterschiedlichen Situationen und Kulturen zu beobachten. Die Ergebnisse aus drei Studien wurden nun unter dem Titel „The culture of social comparison“ in den Proceedings of the National Academy of Sciences (PNAS) veröffentlicht.

In den ersten beiden Studien, die Baldwin und Mussweiler online mit dem Tool MTurk von Amazon durchgeführt haben, befragten sie insgesamt rund 1.000 Amerikaner und Amerikanerinnen zu ihrem Verhalten in Alltagssituationen der sozialen Strenge (Vorstellungsgespräch) und der sozialen Verbundenheit (Party). Dabei stellten sie fest, dass besonders in diesen beiden Arten von Situationen die Neigung zum sozialen Vergleich besonders hoch ist. „Die Reaktionen von Menschen, die viele Kilometer voneinander entfernt lebten und sich nicht kannten, sind dabei bemerkenswert ähnlich“, sagt Baldwin. „Das bedeutet, dass soziale Vergleiche zum Teil in der sozialen Welt verankert ist: es ist nicht nur eine Frage der individuellen Wahrnehmung.“

In der letzten Studie analysierten die beiden Psychologen öffentlich zugängliche Daten von Google mit dem Online-Tool Google Correlate. Für jeden Bundesstaat in den USA schauten sie sich die Suchfrequenzen für eine Vielzahl von Emotionswörtern an, die auf soziale Vergleich hinweisen (z.B. Eifersucht, Stolz). Ein hoher Wert für einen Bundesstaat zeigt, dass Menschen dort öfter nach den Wörtern suchen als Menschen in anderen Staaten. Menschen in Staaten, die kulturell und sozial strenger und kollektivistischer sind, neigen demnach stärker dazu, nach Emotionen des gesellschaftlichen Vergleichs zu suchen. Eine interaktive Karte zu den Forschungsergebnissen in verschiedenen US-Bundesstaaten ist hier verfügbar: www.mattwbaldwin.com/blog/the-culture-of-social-comparison-map.
Sich mit anderen zu vergleichen ist gesellschaftlich weit verbreitet und ein grundlegender Aspekt der menschlichen Kognition. Die Tendenz des Menschen, durch das Denken, Fühlen und Verhalten anderer Informationen zu erhalten, trägt maßgeblich zum Funktionieren der hochkomplexen und vernetzten globalen Welt bei. Allerdings weiß die Wissenschaft noch sehr wenig über den Zusammenhang von kulturellen Unterschieden und sozialen Vergleichen. Die Studie trägt zu einem besseren Verständnis der Ursprünge sozialer Vergleiche und seiner Rolle im menschlichen Zusammenleben bei.

Inhaltlicher Kontakt:
Dr. Matthew Baldwin
+49 221 470-1101
mbaldwin@uni-koeln.de

Presse und Kommunikation:
Eva Schissler
+49 221 470-4030

Publikation:
https://doi.org/10.1073/pnas.1721555115

Quelle: idw

(nach oben)


Energiewende auf den Flüssen Europas

Katharina Vorwerk Presse- und Öffentlichkeitsarbeit
Otto-von-Guericke-Universität Magdeburg

Ingenieure der Universität Magdeburg haben mobile Wasserkraftanlagen und fischfreundliche Wehre für umweltfreundliche Energiegewinnung entwickelt

Ingenieurinnen und Ingenieure der Otto-von-Guericke-Universität Magdeburg arbeiten intensiv an Lösungen für eine umweltfreundliche Energiegewinnung auf den Flüssen Europas. In naher Zukunft will das Bündnis aus Instituten und Unternehmen ökologisch verträgliche Fluss-Wasserkraftanlagen und fischfreundliche Wehre serienreif realisieren, die auf Elbe, Bode oder Tiber mobil eingesetzt werden können.

„In Zeiten steigender Energiekosten und knapper werdender Primärenergiequellen hat die Energienutzung durch Flusskraftwerke ein erhebliches Potenzial“, so der Projektleiter und Sprecher des Bündnisses, Dipl.- Ing. Mario Spiewack. Diese Form der Energiegewinnung habe zudem eine lange Tradition, so Spiewack. „Bis in das 19. Jahrhundert hinein standen mehr als 700 so genannte Flussmühlen auf den Flüssen Europas – allein in Magdeburg mehr als 20. Mit ihrem einfachen Wirkungsprinzip aus Schwimmkörpern und einem Wasserrad versorgten sie ganze Städte mit Mahl- und Schleiferzeugnissen. Erst mit der Nutzung von Kohle und Erdöl verschwanden sie von den Gewässern. Die Zeit für die Renaissance moderner Schiffmühlen ist reif.“

Prof. Dr.-Ing. Dominique Thévenin von der Fakultät für Verfahrens- und Systemtechnik simuliert, zum Beispiel, die komplizierte Strömung und Verwirbelung in Flüssen, um die neu entwickelten Turbinen und Wasserräder zu optimieren. „Die Forschung mit Wasserrädern wurde Ende des 19. Jahrhunderts gestoppt, da dank der Wasserstauung klassische Turbinen viel effizienter wurden. Wir fangen also wieder dort an, wo Kollegen vor 130 Jahren aufgehört haben, aber mit vollkommen neuen Methoden. Ich bin sehr neugierig zu sehen, was wir mit moderner Technik herausholen werden“, so der Strömungsexperte.

Im Forschungsschwerpunkt des Teams von Prof. Dr.-Ing. Roberto Leidhold aus der Fakultät für Elektrotechnik und Informationstechnik steht der Einsatz von innovativen Generatoren in Flusskraftwerken, sogenannten Transversalflussmaschinen. Der Fokus dieser Technologie liegt darauf, Verluste im Zusammenspiel mit der verwendeten Leistungselektronik sowie Regelungs- und Steuerungsverfahren zu minimieren. Zusätzlich wurden Methoden zur optimalen Integration der Generatoren in die Fluss-Strom-Anlagen erarbeitet und erfolgreich getestet.

Der regionale Wachstumskern Fluss-StromPlus wird vom Bundesministerium für Bildung und Forschung BMBF bis 2018 in insgesamt sechs Verbund- und 30 Teilprojekten mit ca. 11 Millionen Euro gefördert. www.flussstrom.eu.

Wissenschaftliche Ansprechpartner:
Dipl.-Ing. Mario Spiewack, Tel.: +49 391 544 8619 217, E-Mail: mario.spiewack@exfa.de

Weitere Informationen:
http://www.flussstrom.eu

Quelle: idw

(nach oben)


Nach der schweren Grippewelle und vor der nächsten Grippewelle: Schutzmöglichkeiten besser nutzen!

Susanne Glasmacher Presse- und Öffentlichkeitsarbeit
Robert Koch-Institut

Die Grippewelle im Winter 2017/18 ist außergewöhnlich schwer gewesen. Das zeigt der neue Influenza-Saisonbericht der Arbeitsgemeinschaft Influenza (AGI) des Robert Koch-Instituts mit seinen umfangreichen Auswertungen.

So gab es zum Beispiel geschätzte neun Millionen influenzabedingte Arztbesuche, zwei Millionen mehr als in den starken Grippesaisons 2012/13 und 2014/15. Besonders ältere Menschen können schwer an der Grippe erkranken oder sogar versterben. „Die Schutzmöglichkeiten müssen besser genutzt werden“, betont RKI-Präsident Lothar H. Wieler. Die Impfung ist trotz der von Saison zu Saison unterschiedlichen Wirksamkeit die wichtigste Schutzmaßnahme. Außerdem werden vor allem gründliches Händewaschen mit Seife und Abstandhalten zu Erkrankten empfohlen, um das Erkrankungsrisiko zu verringern.

Die Ständige Impfkommission (STIKO) empfiehlt die Impfung für alle Personen über 60, für chronisch Kranke aller Altersstufen, für Schwangere und für Medizin- und Pflegepersonal. „Mit keiner anderen Impfung lassen sich hierzulande mehr Leben retten“, unterstreicht Wieler. Erst im Juli hatten RKI-Wissenschaftler über die viel zu niedrigen Impfquoten in Krankenhäusern berichtet. Demnach waren in der Grippesaison 2016/2017 in der Ärzteschaft 61,4 % geimpft, beim Pflegepersonal 32,5 % und bei therapeutischen Berufen 34,2 %, in der Bevölkerung waren gerade einmal 34,8 % der Personen über 60 Jahre geimpft.

Das RKI erhebt Daten mit mehreren Systemen, um die Influenza-Aktivität umfassend bewerten zu können. In der AGI wird die Krankheitslast mit dem Praxisindex gemessen, für den rund 550 Arztpraxen bundesweit ehrenamtlich die Zahl ihrer Patienten mit akuten Atemwegserkrankungen melden. Der Praxisindex war in der Grippewelle 2017/18 so hoch wie in keiner der früheren Saisons, seit das RKI 2001 die wissenschaftliche Federführung der AGI und 2009 die vollständige Durchführung übernommen hat. Besonders betroffen waren die Altersgruppen ab 35 Jahren.

Auf Intensivstationen übertraf die Zahl der Patienten mit schweren akuten respiratorischen Erkrankungen die drei Vorsaisons deutlich. Die Schwere der Grippesaison zeigt sich auch in der Auswertung der „Übersterblichkeit“ im Zeitraum der Grippewelle, die für Berlin bereits vorliegt. Die im Bericht gezeigten Daten für Berlin übertreffen mit geschätzten 1.100 zusätzlichen Todesfällen die bereits hohen Schätzwerte für 2016/17.

Das Nationale Referenzzentrum für Influenza am RKI untersucht Proben von Patienten mit Grippesymptomen und charakterisiert die zirkulierenden Viren. Von Beginn an dominierten Influenza B-Viren. Sie gehörten fast ausschließlich zur Yamagata-Linie und nicht zur Victoria-Linie, die die Weltgesundheitsorganisation als B-Komponente für den weltweit gebräuchlichsten Dreifachimpfstoff empfohlen hatte (neben den zwei Komponenten für die Influenza A-Subtypen H1N1 und H3N2). Die STIKO-Empfehlung für Vierfachimpfstoffe war im Januar 2018 veröffentlicht worden. Da die Produktion von Grippe-Impfstoffen mehrere Monate in Anspruch nimmt, können die Hersteller diese Empfehlung für die kommende Saison erstmals berücksichtigen. Vierfachimpfstoffe enthalten Vertreter beider B-Linien. Allerdings ist die Influenzaimpfung auch bei guter Übereinstimmung der zirkulierenden Viren nicht so gut wirksam wie andere Impfungen. Aufgrund der Häufigkeit der Influenza können mit der Impfung dennoch sehr viele Erkrankungen, schwere Verläufe und Todesfälle verhindert werden.

Weitere Informationen:
http://www.rki.de/influenza & http://www.rki.de/influenza-impfung

Herausgeber
Robert Koch-Institut
Nordufer 20
D-13353 Berlin

http://www.rki.de
Twitter: @rki_de

Pressestelle
Susanne Glasmacher
(Pressesprecherin)
Marieke Degen
(stellv. Pressesprecherin)
Heidi Golisch
Claudia Paape
Judith Petschelt

Kontakt
Tel.: 030-18754-2239, -2562 und -2286
E-Mail: presse@rki.de

Das Robert Koch-Institut ist ein Bundesinstitut im Geschäftsbereich des Bundesministeriums für Gesundheit

Quelle: idw

(nach oben)


Insektensterben durch Lichtverschmutzung vermeiden

Dr. Carolin Liefke, Haus der Astronomie Öffentlichkeitsarbeit
Max-Planck-Institut für Astronomie

Gemeinsame Pressemitteilung der Vereinigung der Sternfreunde und des Hauses der Astronomie in Heidelberg – Studien haben in den vergangenen Jahren einen dramatischen Rückgang von Anzahl und Artenvielfalt bei Fluginsekten festgestellt. Der Lichtverschmutzung – der Aufhellung der Nacht durch künstliche Lichtquellen – fallen nachweislich große Zahlen von nachtaktiven Insekten zum Opfer. Angesichts dessen fordert die Fachgruppe Dark Sky der Vereinigung der Sternfreunde e.V. Maßnahmen zur Reduzierung der Lichtverschmutzung.

Der natürliche Wechsel von hellem Tag und dunkler Nacht ist der grundlegendste Rhythmus der meisten Lebewesen und ein wichtiges Element funktionierender Ökosysteme. Unterbrechungen bedeuten immer eine Störung. Künstliches Licht bei Nacht sollte daher so belastungsarm wie möglich eingesetzt werden.

Durch aktuelle Forschungsergebnisse über den dramatischen Rückgang der Insekten im letzten Jahr rückt das Thema Lichtverschmutzung als eine der wichtigen Ursachen in den Fokus, beispielsweise im Eckpunktepapier der deutschen Bundesregierung [1].

In Anbetracht der Dringlichkeit des Problems fordert die VdS-Fachgruppe Dark Sky, Empfehlungen für umweltfreundliche und verantwortungsvolle Beleuchtung schnellstens bei Planungen und Umsetzungen zu berücksichtigen, die im wesentlichen Lichtlenkung, Lichtmenge und Lichtfarbe umfassen. Die entsprechende Technik ist bereits seit Jahren vorhanden und muss endlich genutzt werden.

Die ehrenamtlich arbeitende Fachgruppe „Dark Sky – Initiative gegen Lichtverschmutzung“ der Vereinigung der Sternfreunde e.V. beschäftigt sich bereits seit über 20 Jahren mit diesem Umweltthema und hat schon vor 10 Jahren an Untersuchungen der Universität Mainz zur Auswirkung künstlichen Lichts auf Insekten mitgewirkt [2]. Diese Untersuchungen in Düsseldorf zeigten, dass Leuchtmittel mit geringen Blau- und Ultraviolettanteilen deutlich weniger Insekten anziehen. In dem Zusammenhang wurde damals bereits auf die rapide Abnahme der Insekten hingewiesen [3].

Die Fachgruppe veröffentlichte vor zwei Jahren gemeinsam mit der „Kommission Lichtverschmutzung“ der Astronomischen Gesellschaft und der Gesellschaft Deutschsprachiger Planetarien Empfehlungen zur Reduzierung der Lichtverschmutzung [4]. Diese Hinweise sind weiterhin aktuell und werden durch neuere wissenschaftliche Studien unterstützt. Sie helfen auf einfache und effektive Weise, das Sterben von Insekten an künstlichen Lichtquellen zu reduzieren. Dadurch werden auch andere Arten und der Mensch gezielt vor negativen Auswirkungen durch künstliches Licht bei Nacht verschont. Diese Empfehlungen für eine nachhaltige künstliche Beleuchtung, die weit über eine reine Energieeffizienz reichen, werden bereits in den Kommunen der Sternenparks, die in den letzten Jahren mit Unterstützung der Fachgruppe Dark Sky als Modellregionen errichtet wurden, praktisch umgesetzt.

Die Fachgruppe Dark Sky arbeitete zudem an der Erstellung einer Broschüre „Nachhaltige Beleuchtung“ des hessischen Umweltministeriums mit, in der Hinweise für Industrie und Gewerbe gegeben werden [5].

Diese von der Fachgruppe Dark Sky empfohlenen Maßnahmen umfassen folgende Punkte:
– Künstliches Licht nachts nur einsetzen, wenn es unbedingt notwendig ist. Insbesondere naturnahe Bereiche sollten nicht beleuchtet werden.
– Licht sollte mithilfe von voll abgeschirmten Leuchten nur dorthin gelenkt werden, wo es benötigt wird, auf die Verkehrs- oder tatsächlich zu beleuchtende Fläche. Insbesondere sollten keine Naturelemente (Bäume, Felsen, Gewässer) angestrahlt werden. Zudem darf kein Licht unnütz nach oben und horizontal abstrahlen. Diese Maßnahme hilft auch Blendung zu vermeiden.
– Die Lichtmenge sollte möglichst gering gewählt werden, oft ist eine gleichmäßige Beleuchtungsstärke von wenigen Lux ausreichend.
– Licht sollte nur bedarfsorientiert eingeschaltet werden, etwa durch Einsatz von Zeitschaltuhren, Schaltern oder Bewegungsmeldern.
– Weißes Licht sollte möglichst wenige Blauanteile enthalten. Deswegen ist warmweißes und gelbes Licht mit einer äquivalenten Farbtemperatur von weniger als 2700 Kelvin (K), keineswegs aber über 3000 K, einzusetzen.

Da diese Maßnahmen leicht zu realisieren sind, fordert die VdS-Fachgruppe Dark Sky endlich ihre schnelle Umsetzung:
– Kommunen sollten sie bei ihren Planungen und Umrüstungen berücksichtigen, etwa indem sie sie in Lichtsatzungen, Lichtmasterplänen oder in Bebauungsplänen einbringen.
– Fördermittel sollten an die Umsetzung dieser Maßnahmen geknüpft werden.
– Architekten, Lichtplaner und ausführende Elektrofirmen sind für diese Maßnahmen zu sensibilisieren.
– Private Haushalte und Handel sollten durch umfassende Informationen zur Umsetzung der Maßnahmen angeregt werden.

Für Fragen und Unterstützungen steht die VdS-Fachgruppe Dark Sky im Rahmen ihrer ehrenamtlichen Möglichkeiten zur Verfügung.

Referenzen:
[1] www.bmu.de/pressemitteilung/bundeskabinett-beschliesst-eckpunkte-fuer-aktionsprogramm-zum-insektenschutz/

[2] Gerhard Eisenbeis: Straßenbeleuchtung und Umwelt – Wirkung konventioneller und moderner Straßenbeleuchtungslampen auf das Anflugverhalten von Insekten, Landeshauptstadt Düsseldorf, Jan. 2009
Gerhard Eisenbeis und Klaus Eick: Studie zur Anziehung nachtaktiver Insekten an die Straßenbeleuchtung unter Einbeziehung von LEDs, Natur und Landschaft 86, 2011, S. 298

[3] „This growing body of evidence strongly suggest that the diversity of insects has declined dramatically in Germany and England during the last decades. The implementation of insect friendly lighting systems may reduce the negative impacts on insects, but if the absolute lighting levels continue to increase then our cities will develop to nearly insect (and perhaps bird) free ghost towns far away from the formerly rich animal life.“ in: Gerhard Eisenbeis und Andreas Hänel: Light pollution and the impact of artificial night lighting on insects, in M.J. McDonnell, A.K. Hahs, J.H. Breuste (ed.): Ecology of Cities and Towns, Cambridge, 2009, p. 260

[4] http://www.lichtverschmutzung.de/zubehoer/download.php?file=Resolution_gegen_Lic…

[5] M. Schmidt, A. Hänel: Nachhaltige Außenbeleuchtung – Informationen und Empfehlungen für Industrie und Gewerbe, Hessisches Ministerium für Umwelt, Klimaschutz, Landwirtschaft und Verbraucherschutz, Wiesbaden, 2017, https://umwelt.hessen.de/presse/pressemitteilung/wie-lichtverschmutzung-reduzier…

Die Vereinigung der Sternfreunde e.V. (VdS) ist mit über 4000 Mitgliedern der größte Verein von Amateurastronomen im deutschsprachigen Raum. Sie widmet sich der Pflege und Förderung der Amateurastronomie durch Beratung und Erfahrungsaustausch bei der astronomischen Arbeit. Zudem fördert sie Kontakte zur Fachastronomie und die astronomische Volksbildung, etwa mit der Organisation des jährlich stattfindenden Astronomietags. Außerdem steht den Mitgliedern die Nutzung der Sternwarte in Kirchheim offen und viermal jährlich wird eine Zeitschrift, das VdS-Journal für Astronomie, veröffentlicht.

Kontakt:
Vereinigung der Sternfreunde e.V., Postfach 1169, 64629 Heppenheim, www.vds-astro.de

Wissenschaftliche Ansprechpartner:
Dr. Andreas Hänel
Fachgruppe Dark Sky der Vereinigung der Sternfreunde e.V., c/o Museum am Schölerberg, Osnabrück
Tel. 0541-5600326
ahaenel@uos.de

Sabine Frank
Sternenpark Rhön
Landkreis Fulda
Tel. 0661-60061659,
info@sternenpark-rhoen.de

Weitere Informationen:
https://www.vds-astro.de/index.php?id=74&tx_ttnews%5Byear%5D=2018&tx_ttn… – Webversion der Meldung bei der Vereinigung der Sternfreunde
http://lichtverschmutzung.de/ – Webseiten der Fachgruppe Dark Sky der Vereinigung der Sternfreunde e.V.

Quelle: idw

(nach oben)


Gut die Hälfte der rentennahen Erwerbstätigen kann Konsum im Ruhestand nicht halten

Rainer Jung Abt. Öffentlichkeitsarbeit
Hans-Böckler-Stiftung

Forscher: Riester & Co. helfen kaum
Gut die Hälfte der rentennahen Erwerbstätigen kann Konsum im Ruhestand nicht halten – Absenken der gesetzlichen Rente verschärft Problem

Viele Erwerbstätige, die kurz vor der Rente stehen, werden sich im Ruhestand einschränken müssen: Mehr als die Hälfte, 58 Prozent, der 55- bis 64-jährigen Erwerbstätigen hätten nicht genug Ansprüche an die gesetzliche, betriebliche oder private Altersversorgung, um ihr aktuelles Konsumniveau aufrecht zu erhalten, wenn sie jetzt in Rente gingen. Falls sie noch bis zum durchschnittlichen Renteneintrittsalter auf ihrer aktuellen Position weiterarbeiten können, sind immer noch rund 50 Prozent davon betroffen.

Ein weiteres Absenken des gesetzlichen Rentenniveaus würde das Problem verschärfen. Entlastend würde eine Stärkung der gesetzlichen ersten Säule wie in Österreich wirken. Zu diesen Ergebnissen kommt eine neue, von der Hans-Böckler-Stiftung geförderte Studie des Deutschen Instituts für Wirtschaftsforschung (DIW)*.

– Gesetzliche Rente weiter Fundament –
Die gesetzliche Rente ist nach wie vor das Fundament der Altersversorgung. Allein reicht sie heute in der Regel aber nicht aus, um das gewohnte Konsumniveau zu halten. Die betriebliche Alterssicherung leistet ebenfalls einen wichtigen Beitrag – wobei jedoch gerade Geringverdiener oder prekär Beschäftigte oft nicht in den Genuss einer Betriebsrente kommen. Im Vergleich dazu bringt die private Altersversorgung wenig, zeigt die Untersuchung. „Die gesetzliche Rente ist und bleibt der Anker der Altersversorgung“, sagt Dr. Dorothea Voss, die die Forschungsförderung der Hans-Böckler-Stiftung leitet. „Jedes weitere Absinken des Rentenniveaus muss verhindert werden – nicht nur bis 2025, sondern dauerhaft.“

Die DIW-Wissenschaftler haben anhand von repräsentativen Daten des Sozio-oekonomischen Panels (SOEP) aus dem Jahr 2012 untersucht, wie hoch die Rente ausfällt, die Erwerbstätigen aus rentennahen Jahrgängen zusteht. In einem zweiten Schritt haben die Forscher für den hypothetischen Fall, dass diese Erwerbstätigen sofort in Rente gehen würden, berechnet, inwieweit die Rente ihren derzeitigen Konsum mit den bis dahin erworbenen Anwartschaften decken kann. Arbeitslose, frühverrentete oder anderweitig nicht erwerbstätige Personen sind nicht in die Berechnung einbezogen.

Bei 69 Prozent der Erwerbstätigen im Alter von 55 bis 64 Jahren, die nur Anspruch auf eine gesetzliche Rente haben, fällt der aktuelle Konsum höher aus als die bisher erworbenen Rentenanwartschaften. Nimmt man zur gesetzlichen Rente noch die Betriebsrenten hinzu, reduziert sich der Anteil auf 50 Prozent. Im Durchschnitt aller älteren Beschäftigten ergibt sich damit ein Wert von 58 Prozent. Rechnet man noch private Versicherungen mit ein, sinkt er lediglich von 58 auf 56 Prozent (siehe auch Tabelle 1 in der Studie; Link unten). „Die Ergebnisse zeigen, dass private Versicherungen als dritte Säule der Alterssicherung insgesamt nur wenig dazu beitragen, die Versorgungslücke zu schließen“, schreiben die Forscher. Insbesondere bei Riester- und Rürup-Renten seien die eingezahlten Beiträge gering, das erreichte Sparguthaben falle auch aufgrund geringer Verzinsung eher klein aus.

Wenn man annimmt, dass die untersuchten Erwerbstätigen durchgängig bis zum durchschnittlichen Renteneintrittsalter in ihrer bisherigen Position weiterarbeiten können, sinkt der Anteil der Betroffenen zwar merklich. Doch auch dann müssen von den Ruheständlern, die Geld aus gesetzlicher und betrieblicher Rente bekommen, 50 Prozent ihren Konsum einschränken. Rechnet man Leistungen aus privaten Versicherungen hinzu, sind es 48 Prozent.

– Zum aktuellen Konsumniveau fehlen im Schnitt 700 Euro –
Bei denjenigen 55- bis 64-jährigen Erwerbstätigen, die eine potenzielle Versorgungslücke haben, beträgt die Differenz zwischen aktuellem Konsumniveau und dem zum Untersuchungszeitpunkt bestehenden Rentenanspruch im Durchschnitt rund 700 Euro. Die Versorgungslücke ist bei Erwerbstätigen, die nur Anspruch auf eine gesetzliche Rente haben, mit knapp 740 Euro am größten. Liegen auch Anwartschaften an Betriebsrenten vor, reduziert sich die Lücke auf rund 620 Euro. Der Einfluss privater Versicherungen ist erneut relativ gering (siehe auch Tabelle 2 in der Studie).

Je nach Erwerbseinkommen gibt es große Unterschiede: Bei betroffenen Menschen im untersten Zehntel der Einkommensverteilung beträgt die Versorgungslücke im Alter rund 300 Euro, im obersten Zehntel sind es knapp 1800 Euro. Doch auch wenn die Lücke bei ihnen absolut betrachtet höher erscheint, können die Besserverdiener diese meist besser ausgleichen, da sie häufig auf weitere Geldanlagen zurückgreifen können und Immobilien besitzen. Für Menschen mit kleinem Einkommen macht es dagegen einen großen Unterschied, wenn am Ende des Monats 300 Euro fehlen. Am schwierigsten sei die Lage für Geringverdiener, Frauen und Alleinlebende, aber auch für Selbständige ohne Angestellte, konstatieren die Forscher. „Entscheidend sind also die Dauer der sozialversicherungspflichtigen Beschäftigung und die daraus erzielten Einkommen“, sagt Dorothea Voss von der Hans-Böckler-Stiftung. „Wer die Alterssicherung stärken will, muss deshalb für eine aktive Beschäftigungspolitik, bessere Löhne und Gehälter sorgen.“

– Alternative Szenarien mit niedrigerem Konsumniveau im Alter –
Diese grundsätzlichen Zusammenhänge bestehen auch in einem weiteren Szenario, das die DIW-Forscher berechnet haben. Es greift die Annahme vieler Experten auf, dass Menschen im Ruhestand weniger ausgeben als Berufstätige. Wenn man daher annimmt, dass Rentner mit 70 Prozent ihres vorherigen Konsums auskommen, fällt die potenzielle Versorgungslücke nach den Berechnungen des DIW geringer, aber weiterhin oft erheblich aus: Betroffen sind dann noch 38 Prozent der rentennahen Erwerbstätigen, bezieht man private Versicherungen ein, sind es 35 Prozent. Die potenzielle Versorgungslücke bei den Betroffenen beträgt beim 70-Prozent-Szenario im Schnitt gut 320 Euro. Beschäftigte mit einer betrieblichen Altersvorsorge hätten gemessen an einem 70-Prozent-Niveau noch eine Versorgungslücke von 200 Euro (Tabelle 2). Allerdings sind das selten Beschäftigte mit niedrigeren Einkommen.

In einem weiteren Szenario haben die Wissenschaftler berechnet, was passieren würde, wenn man das gesamte private Vermögen zur Sicherung des aktuellen Konsums im Alter heranzieht. Das Ergebnis: Selbst wenn sie alle Ersparnisse einsetzen und, falls vorhanden, die selbst genutzte Immobilie zur Finanzierung des Ruhestands verkaufen würden, hätten 41 Prozent der Erwerbstätigen aus rentennahen Jahrgängen eine Versorgungslücke. Würden die untersuchten älteren Erwerbstätigen bis zur Rente auf ihrer Stelle weiterarbeiten, wären es immer noch 33 Prozent. In Ostdeutschland wäre der Anteil höher als in Westdeutschland, da Ostdeutsche nach wie vor über weniger Vermögen verfügen. Wesentlich geringer wäre der Anteil der Betroffenen unter den Selbständigen mit Mitarbeitern, da diese häufig selbst fürs Alter in Form von privatem Vermögen vorsorgen.

– Rentenniveau nicht weiter senken –
Die Wissenschaftler raten dazu, das Rentenniveau nicht weiter abzusenken. Stattdessen solle sich die Politik „stärker am österreichischen Modell orientieren“, das mehr auf die erste Säule der Alterssicherung setzt. Zudem empfehlen sie, Personen mit geringen Anwartschaften stärker zu unterstützten. Möglich wäre das durch eine Modifizierung des strikten Äquivalenzprinzips, womit die Höhe der Rentenleistungen nicht mehr eins zu eins an die Einzahlungsbeiträge gekoppelt wäre. Gerade Geringverdiener sollten dann höhere Leistungen erhalten.

Wissenschaftliche Ansprechpartner:
Dr. Dorothea Voss
Leiterin Abteilung Forschungsförderung
Tel.: 0211-7778-194
E-Mail: Dorothea-Voss@boeckler.de

Rainer Jung
Leiter Pressestelle
Tel.: 0211-7778-150
E-Mail: Rainer-Jung@boeckler.de

Originalpublikation:
*Markus M. Grabka, Timm Bönke, Konstantin Göbler und Anita Tiefensee: Große Lücke in der Sicherung des Lebensstandards bei rentennahen Jahrgängen, DIW-Wochenbericht 37, September 2018. Download: Studie http://www.diw.de/documents/publikationen/73/diw_01.c.597903.de/18-37-3.pdf

Quelle: idw

(nach oben)


Weniger ist manchmal mehr – neue Substanz reduziert das Körpergewicht

Stephan Wiegand, Medizinische Fakultät Carl Gustav Carus der TU Dresden Presse- und Öffentlichkeitsarbeit
Universitätsklinikum Carl Gustav Carus Dresden

In einer weltweiten Studie haben Forscherinnen und Forscher erstmals die Wirksamkeit von Semaglutid wissenschaftlich untersucht. Mit diesem Medikament lässt sich künftig nicht nur das Gewicht reduzieren, sondern auch der Blutdruck verbessern. Die neuen in der Fachzeitschrift The Lancet veröffentlichten Erkenntnisse bedeuten einen großen Fortschritt in der Adipositastherapie. Mitautor ist Prof. Andreas Birkenfeld, Leiter des Studienzentrums Metabolisch-Vaskuläre Medizin am Universitätsklinikum Carl Gustav Carus.

„Diäten und Magenverkleinerungen sind sicherlich wichtig und auch so etwas wie der Königsweg, wenn es darum geht, das Gewicht zu reduzieren. Allerdings sind heute auch andere wirksame Methoden gefragt, um einer drohenden Diabetesepidemie etwas entgegenzusetzen“, sagt Prof. Andreas Birkenfeld, Stoffwechselexperte der Medizinischen Klinik III am Universitätsklinikum Carl Gustav Carus an der TU Dresden und Leiter des neu gegründeten Universitätsstudienzentrums für Stoffwechselerkrankungen. In einer weltweiten Phase-2-Studie (erstmalige Wirksamkeitserprobung am Patienten) mit mehr als 900 Patienten wurde nun erstmals die Wirksamkeit und die Sicherheit von Semaglutid in der Therapie der Adipositas untersucht. Das Medikament ist eine neue Substanz. Sie gehört in die Klasse der Glucagon-like Peptid-1 (GLP-1)-Analoga. Die Wirkungsweise ist ähnlich der körpereigenen Darmhormone, die das Sättigungsgefühl erzeugen. Semaglutid soll einmal wöchentlich verabreicht werden.

Das Studienteam um Prof. Andreas Birkenfeld fand heraus, dass alle Semaglutid-Dosen im Vergleich zu Placebo deutlich das Körpergewicht reduzieren. In der höchsten Dosierung konnte eine Gewichtsabnahme von bis zu 17 Prozent des Ausgangskörpergewichts beobachtet werden. Damit war es möglich, einen Patienten, der zuvor einen BMI von 35 kg/m2 und formal eine Adipositas Grad 2, also eine mittelschwere Adipositas aufwies, auf einen BMI von 29 kg/m2 zurückzuführen. Kurzum: er schaffte den Schritt von formal fettleibig zu übergewichtig. Zeitgleich wurden der Blutzucker, der Blutdruck, und die Blutfette deutlich gesenkt. Prof. Andreas Birkenfeld bewertet die Reaktion positiv: „Der Patient hat nicht nur abgenommen, sondern Semaglutid gut vertragen, die Nebenwirkungen entsprachen denen anderer bekannter GLP-1 Analoga und sind nicht als kritisch einzustufen.“

Diese Wirkung von Semaglutid auf das Körpergewicht läutet jetzt eine neue Ära der pharmakologischen Adipositastherapie ein. Es wird erstmals eine Gewichtsreduktion erreicht, die sonst meist nur mit einer chirurgischen Therapie möglich war. Nachdem Semaglutid in der Typ-2-Diabetestherapie zugelassen wurde, ist absehbar, dass es auch bei Adipositaspatienten zum Einsatz kommt. Denn es wurde bei Patienten mit Typ 2 Diabetes bereits bewiesen: Semaglutid bewirkt nicht nur eine Gewichtsreduktion, sondern reduziert auch das Auftreten kardiovaskulärer Erkrankungen. Die Ergebnisse der Adipositastherapie wurden kürzlich in der Fachzeitschrift Lancet veröffentlicht. Momentan ist Semaglutid ist noch nicht für die Adipositastherapie zugelassen.

Wissenschaftliche Ansprechpartner:
Universitätsklinikum Carl Gustav Carus Dresden
Medizinische Klinik III
Prof. Dr. med. Andreas Birkenfeld
Leiter Studienzentrum Metabolisch-Vaskuläre Medizin, Fiedlerstraße 34, 01307 Dresden
Tel.: 0351 4583651
E-Mail: andreas.birkenfeld@uniklinikum-dresden.de

Originalpublikation:
THE LANCET. 2018 Aug 25;392(10148):637-649
doi: 10.1016/S0140-6736(18)31773-2
PMID: 30122305

Weitere Informationen:
http://www.uniklinikum-dresden.de/mk3
https://tu-dresden.de/med/mf/die-fakultaet/newsuebersicht/weniger-ist-manchmal-m…
http://www.thelancet.com/journals/lancet/article/PIIS0140-6736(18)31773-2/abstra…

Quelle: idw

(nach oben)


Ausnahmen für Unternehmen bei der EEG-Umlage senken die Zahlungsbereitschaft privater Haushalte

Sabine Weiler Kommunikation
RWI – Leibniz-Institut für Wirtschaftsforschung

Die Ausnahmeregelung für stromintensive Unternehmen beim Erneuerbare-Energien-Gesetz (EEG) ist seit Jahren umstritten. Eine neue Studie des RWI – Leibniz-Institut für Wirtschaftsforschung, die heute in der renommierten energiewirtschaftlichen Fachzeitschrift Nature Energy erscheint, zeigt nun, dass solche indirekten Subventionen die Zahlungsbereitschaft von privaten Haushalten beeinflussen: Würden die Ausnahmeregelungen für Unternehmen wegfallen, könnte die Akzeptanz für die Kosten der Energiewende demnach deutlich zunehmen.

Die wichtigsten Ergebnisse:
• Ein großer Teil der Haushalte wäre bereit, den Ausbau der erneuerbaren Energien mit höheren Strompreisen zu finanzieren, wenn die Ausnahmeregelungen für stromintensive Unternehmen entfallen würden. Das ist das Ergebnis eines Experiments mit mehr als 11.000 Teilnehmern des forsa-Haushaltspanels.

• Die Teilnehmer des Experiments wurden nach ihrer Bereitschaft befragt, eine höhere EEG-Umlage zu zahlen, um den Anteil erneuerbarer Energien in Deutschland zu steigern. Einer zufällig ausgewählten Gruppe wurde dabei mitgeteilt, dass die Ausnahmeregelung für die energieintensive Industrie bei der EEG-Umlage bestehe. In einer zweiten zufällig ausgewählten Gruppe sollte die Ausnahmeregelung bei der Erhöhung der EEG-Umlage wegfallen. In dieser zweiten Gruppe zeigten sich – je nach Höhe des Preisaufschlags – zwischen 61 und 74 Prozent der Teilnehmer bereit, eine höhere EEG-Umlage zu akzeptieren. In der Gruppe, bei der die Ausnahmeregelung für Unternehmen bestehen bleiben sollte, waren es dagegen nur rund 23 bis 38 Prozent.

• Die Ergebnisse deuten darauf hin, dass eine Abschaffung der Ausnahmeregelungen, etwa durch deren Steuerfinanzierung, ein entscheidendes Kriterium für die Akzeptanz weiterer Erhöhungen der EEG-Umlage sein könnte.

Der Leiter des Kompetenzbereichs „Umwelt und Ressourcen“ am RWI und Professor für Energieökonomik und angewandte Ökonometrie an der Ruhr-Universität Bochum, Manuel Frondel, sagt: „Die Einstellung zur Energiewende hängt nicht allein von der Höhe des Strompreises ab. Wenn die Belastungen gleichmäßig verteilt sind, ist eine große Mehrheit durchaus bereit, mehr Geld für Strom aus erneuerbaren Energien zu bezahlen.“ Die aus Wettbewerbsgründen etablierte Ausnahmeregelung für energieintensive Unternehmen bei der EEG-Umlage sollte daher künftig aus Steuermitteln finanziert werden und nicht dadurch, dass die übrigen Stromverbraucher mehr zu bezahlen haben.

Die Daten aus dem forsa-Haushaltspanel wurden im Rahmen des RWI-Projekts AKZEPTANZ erhoben, das die gesellschaftliche Einstellung zur Energiewende erforscht. Das Projekt wird durch das Bundesministerium für Bildung und Forschung finanziert.

Ihre Ansprechpartner dazu:
Prof. Dr. Manuel Frondel, Tel. (0201) 81 49-204
Leonard Goebel (Pressestelle), Tel. (0201) 81 49-210

Wissenschaftliche Ansprechpartner:
Prof. Dr. Manuel Frondel, Tel. (0201) 81 49-204

Originalpublikation:

Dieser Pressemitteilung liegt der Artikel M. Andor, M. Frondel und S. Sommer (2018), Equity and the willingness to pay for green electricity in Germany, Nature Energy, zugrunde. Er ist unter http://www.nature.com/articles/s41560-018-0233-x online abrufbar. Eine frühere Version der Studie ist als Ruhr Economic Paper #759 erschienen und unter http://www.rwi-essen.de/media/content/pages/publikationen/ruhr-economic-papers/r… im Open Access frei zugänglich.

Quelle: idw

(nach oben)


Vitaminpillen nutzlos gegen Schlaganfall und Herzinfarkt

Pressesprecher: Prof. Dr. med. Hans-Christoph Diener, Essen Pressestelle der DGN
Deutsche Gesellschaft für Neurologie e.V.

Nahrungsergänzungsmittel wie Vitamine und Mineralien senken nicht das Risiko, an einem Hirninfarkt oder einer Herzkrankheit zu sterben. So lautet das Ergebnis einer aktuellen Übersichtsstudie mit mehr als zwei Millionen Teilnehmern. Verbraucher sollten ihr Geld deshalb lieber in einen Sportverein investieren und auf eine gesunde Ernährung achten, raten Experten der Deutschen Gesellschaft für Neurologie (DGN) und der Deutschen Schlaganfall-Gesellschaft (DSG).

Jeder vierte deutsche Verbraucher schluckt sie, doch die wenigsten brauchen sie: Mit Nahrungsergänzungsmitteln wie Vitamin A, C, D und E, mit Kalzium, Magnesium oder Eisen setzte der Handel im Jahr 2015 laut Verbraucherzentrale Bundesverband rund 1,1 Milliarden Euro um. Dass dieses Geld schlecht angelegt ist, bestätigt nun eine Metaanalyse zum Einsatz der Präparate gegen Schlaganfall und Herzinfarkt.

Insgesamt 3249 Studien aus den Jahren 1970 bis 2016 haben US-Mediziner um den Kardiologen
Dr. Joonseok Kim, Juniorprofessor an der University of Alabama in Birmingham, für die Metaanalyse berücksichtigt. Um zu klären, wie die Einnahme von Nahrungsergänzungsmitteln das Risiko für Schlaganfälle und Herzerkrankungen beeinflusst, analysierten die Forscher 18 besonders hochwertige Studien, an denen insgesamt mehr als zwei Millionen Menschen teilgenommen hatten.

Sterblichkeit ist mit und ohne Nahrungsergänzung gleich
„Das Ergebnis ist ernüchternd und lautet, dass es keinen Nutzen einer solchen Maßnahme für die Gesamtbevölkerung gibt“, sagt Professor Dr. Peter Berlit, DGN-Generalsekretär und ehemaliger Chefarzt der Klinik für Neurologie am Alfried Krupp Krankenhaus in Essen. Fasst man die Sterblichkeit für alle Herz-Kreislauf-Erkrankungen zusammen, so war das relative Risiko (RR) bei der Einnahme von Nahrungsergänzungsmitteln exakt 1,00. Das bedeutet: Es machte keinen Unterschied, ob die Teilnehmer eine Extradosis Vitamine, Mineralstoffe oder Spurenelemente einnahmen oder nicht. Zum gleichen Ergebnis kamen die Forscher – im Rahmen der statistischen Schwankungen – bei der separaten Betrachtung von Herzsterblichkeit (RR 1,02), Tod durch Schlaganfall (RR 0,95) und der Häufigkeit von Schlaganfällen (RR 0,98).

Lediglich das Risiko für Herzerkrankungen schien mit einem RR von 0,88 für Nahrungsergänzungs-mittel zu sprechen. Es besteht aber auch hier kein Zusammenhang: Zieht man lediglich die höherwertigen, sogenannten randomisierten und kontrollierten Studien zur Berechnung heran, ergibt sich ein relatives Risiko von 0,97. „Zu diesem unbefriedigenden Resultat kommt noch das alarmierende Ergebnis einer systematischen Metaanalyse von 78 randomisierten Studien aus dem Jahr 2012 durch die Cochrane Collaboration, wonach die Nahrungsergänzung mit Antioxidantien nicht nur nicht hilft, sondern sogar die Sterblichkeit erhöht!“, so Professor Berlit.

Dabei hatten die Forscher sich in der aktuellen Studie die größte Mühe gemacht, auch Untergruppen zu erkennen, die möglicherweise doch von Nahrungszusätzen profitieren könnten. Das Ergebnis blieb jedoch stets negativ, egal, wie lange die Präparate eingenommen wurden, wie alt die Studienteilnehmer waren, ob Mann oder Frau, Raucher oder Nichtraucher, sportlich oder nicht.

Es gibt bessere Investitionen in die Gesundheit
„Mit Multivitamin-Tabletten werden jährlich Milliardenumsätze gemacht, die Metaanalyse zeigt jedoch klar, dass diese Pillen weder Schlaganfälle verhindern noch die Sterblichkeit an Herz-Kreislauf-Erkrankungen senken“, fasst der 1. Vorsitzende der Deutschen Schlaganfall-Gesellschaft (DSG), Professor Dr. Armin Grau, zusammen: „Von diesen Pillen profitieren nur Hersteller und Verkäufer. Es ist hingegen eindeutig erwiesen, dass Salat, Obst und Gemüse Gefäßerkrankungen entgegenwirken. In Salat, Obst und Gemüse kommen Vitamine in ihrer natürlichen Umgebung vor. Fünf Portionen am Tag gelten als optimal.“ Weitere effektive Maßnahmen, die sogar den Geldbeutel schonen, sind der Verzicht aufs Rauchen und auf größere Mengen von Alkohol sowie regelmäßige körperliche Bewegung.

„Wenn man schon Geld ausgeben will, dann ist es ist viel lohnenswerter, in einen Sportverein oder ein Fitnessstudio zu investieren als in Vitamine und Mineralstoffe“, rät Professor Berlit.

Die Deutsche Gesellschaft für Neurologie e.V. (DGN)
sieht sich als neurologische Fachgesellschaft in der gesellschaftlichen Verantwortung, mit ihren rund 9000 Mitgliedern die neurologische Krankenversorgung in Deutschland zu sichern. Dafür fördert die DGN Wissenschaft und Forschung sowie Lehre, Fort- und Weiterbildung in der Neurologie. Sie beteiligt sich an der gesundheitspolitischen Diskussion. Die DGN wurde im Jahr 1907 in Dresden gegründet. Sitz der Geschäftsstelle ist Berlin. www.dgn.org

Präsident: Prof. Dr. med. Gereon R. Fink
Stellvertretende Präsidentin: Prof. Dr. med. Christine Klein
Past-Präsident: Prof. Dr. med. Ralf Gold
Geschäftsführer: Dr. rer. nat. Thomas Thiekötter
Geschäftsstelle: Reinhardtstr. 27 C, 10117 Berlin, Tel.: +49 (0)30 531437930, E-Mail: info@dgn.org

Wissenschaftliche Ansprechpartner:

Prof. Dr. med. Peter Berlit
Generalsekretär der Deutschen Gesellschaft für Neurologie
Reinhardtstr. 27 C
10117 Berlin
Tel.: +49 (0)30 531437930
E-Mail: berlit@dgn.org

Prof. Dr. med. Armin J. Grau
1. Vorsitzender der Deutschen Schlaganfall-Gesellschaft (DSG)
Direktor der Neurologischen Klinik
Klinikum der Stadt Ludwigshafen a.Rh.
Bremserstr. 79
D-67063 Ludwigshafen a.Rh.
Tel.: +49 (0)621 5034200
Fax: +49 (0)621 5034202
e-mail: graua@klilu.de

Originalpublikation:
Kim J et al.: Association of Multivitamin and Mineral Supplementation and Risk of Cardiovascular Disease: A Systematic Review and Meta-Analysis. Circ Cardiovasc Qual Outcomes. 2018 Jul;11(7):e004224. doi: 10.1161/CIRCOUTCOMES.117.004224.

Weitere Informationen:

https://www.dgn.org/presse/pressemitteilungen/56-pressemitteilung-2018/3656-vita…

Anhang

Pressemitteilung als PDF
https://idw-online.de/de/attachment66469

Quelle: idw

(nach oben)


Mit Polyphosphat gegen die Plastikberge in den Weltmeeren

Katharina Kipp Pressestelle
Fachhochschule Münster

Max Volhard vom Fachbereich Chemieingenieurwesen der FH Münster forscht in seiner Doktorarbeit an einem Verfahren, das Kunststoffe im Salzwasser zersetzt. Das Patent ist bereits angemeldet.

Münster/Steinfurt (3. September 2018). Die Zahl ist gewaltig: 335 Millionen Tonnen Kunststoff wurden 2016 laut Plastics Europe auf der Erde produziert – Tendenz steigend. Rund 40 Prozent davon sind Verpackungsmaterialien. „Solche Kunststoffe sind prädestiniert dafür, sie in der Umwelt zu vergessen oder auf den Weltmeeren durch die Schifffahrt auszubringen“, sagt Max-Fabian Volhard der FH Münster. Die Bilder von riesigen Müllinseln und Müllbergen mitten im Ozean sprechen für sich. Aber der Doktorand am Fachbereich Chemieingenieurwesen und sein betreuender Professor Dr. Thomas Jüstel haben eine Idee: Sie wollen Kunststoffe so verändern, dass sie für ihren Einsatz – zum Beispiel als Flasche – stabil sind, sich aber im Meer von alleine zersetzen. „Normalerweise dauert es Jahrzehnte bis Jahrhunderte, bis das Plastik vollständig abgebaut ist“, sagt Volhard.

Ein ungiftiger Zusatz im Kunststoff soll das jetzt aber deutlich beschleunigen. „Genauer gesagt wollen wir einen Katalysator hinzufügen, der auf Sonnenlicht reagiert“, erklärt Volhard. „Denn der Katalysator Titandioxid ist spezialisiert darauf, Radikale zu bilden, die den Kunststoff zersetzen beziehungsweise mineralisieren können.“ Was zum Schluss vom Plastik übrig bleibt: Wasser und Kohlenstoffdioxid. Es gibt aber ein kleines Problem. Der Katalysator fängt sofort an, die Radikale zu bilden, wenn die Sonne scheint – egal, ob die Flasche gerade im Meer schwimmt oder noch im Einkaufswagen steht. „Deshalb wollen wir ihn optimieren, und das ist unsere Kernidee: Wir wollen den Katalysator beschichten, damit die Radikale nicht nach außen dringen können und den Kunststoff nicht zu früh mineralisieren.“

Dabei setzen Volhard und Jüstel auf eine Polyphosphat-Beschichtung. Sie reagiert sehr sensitiv auf Salze. Der Gedanke: Im Kontakt mit Leitungs- oder Mineralwasser passiert nichts. Aber im salzigen Meerwasser löst sich das Polyphosphat auf und gibt somit die Radikale frei, die den treibenden Plastikmüll zersetzen. Die Idee hat Jüstel aus der Biochemie adaptiert, das Patent haben die beiden Wissenschaftler bereits angemeldet.

„Jetzt ist es meine Aufgabe zu überprüfen, ob das Konzept wirklich funktioniert“, erklärt Volhard. Bisher hat er den Abbau von Kunststoffen im Labor untersucht, die im Leitungswasser und im Meerwasser gelöst sind. Genau mit der Idee: per Polyphosphat-Katalysator und Sonnenlicht – imitiert durch einen UV-LED-Photoreaktor. Das hat funktioniert, die ersten Versuche stimmen ihn zuversichtlich. „Aber die Kunststoffe liegen im Meer ja nicht gelöst vor. Deshalb muss ich jetzt noch näher an die Realität und an die Verpackungsmaterialien kommen.“

Darum verarbeitet Volhard gerade Kunststoffe und Katalysatoren in der Knetkammer des Labors für Kunststofftechnologie von Prof. Dr. Reinhard Lorenz und wird verschiedene Experimente im Labor durchführen. Die neuen Kunststoffe sollen im Idealfall nur noch maximal zehn Jahre brauchen, bis sie sich vollständig zersetzt haben. „Aber so lange kann ich ja nicht auf meine Versuche warten. Um trotzdem valide Aussagen treffen zu können, muss ich mir noch eine neue Methode zur Überprüfung einfallen lassen“, bemerkt Volhard.

Weitere Informationen:

Fachbereich Chemieingenieurwesen
https://www.fh-muenster.de/ciw/index.php
Prof. Dr. Thomas Jüstel
https://www.fh-muenster.de/ciw/personal/professoren/juestel/index.php
Forschungsaktivitäten am Fachbereich Chemieingenieurwesen
https://www.fh-muenster.de/ciw/forschung/index.php?p=6
Labor für Kunststofftechnologie
https://www.fh-muenster.de/ciw/laboratorien/kt/kunststoff.php?p=7,6

Quelle: idw

(nach oben)


Stirnfalten können Hinweise auf Herz-Sterberisiko geben

Prof. Dr. Eckart Fleck Pressesprecher
Deutsche Gesellschaft für Kardiologie – Herz- und Kreislaufforschung e.V.

Menschen mit mehreren tiefen Falten auf der Stirn können ein erhöhtes Risiko haben, an einer Kreis-Kreislauf-Krankheit zu sterben. Eine Untersuchung im Hinblick auf Falten im Augenbrauen-Bereich könnte eine einfache und kostengünstige Methode sein, Menschen mit hohem Sterbe-Risiko zu identifizieren.

Menschen mit mehreren tiefen Falten auf der Stirn können ein erhöhtes Risiko haben, an einer Kreis-Kreislauf-Krankheit zu sterben. Eine Untersuchung im Hinblick auf Falten im Augenbrauen-Bereich könnte eine einfache und kostengünstige Methode sein, Menschen mit hohem Sterbe-Risiko zu identifizieren. Das berichtet Dr. Yolande Esquirol (Toulouse, F) auf einer Pressekonferenz des Europäischen Kardiologiekongresses. In München werden von 25. bis 29. August 31.000 Teilnehmer aus 150 Ländern zusammen kommen, der Kongress der Europäischen Kardiologiegesellschaft (ESC) ist einer der weltweit größten Medizinkongresse.

„Wir untersuchten Stirnfalten als Marker“, sagt Dr. Esquirol. „Ein Blick auf das Gesicht eines Patienten reicht, um Alarm zu schlagen, und wir können ihm Ratschläge geben, wie das Risiko verringert werden kann.“

Die Studienautoren hatten 3.200 gesunde Erwachsenen auf die Anzahl ihrer Stirnfalten hin untersucht, sie je nach dem Ergebnis in Untergruppen eingeteilt und 20 Jahre lang nach verfolgt. Von den 233 Studienteilnehmern, in dieser Zeit verstarben, hatten 15,2 Prozent zwei oder drei Stirnfalten, 6,6 Prozent eine Stirnfalte und 2,1 Prozent keine. Studienteilnehmer mit den meisten Stirnfalten hatten ein zehnmal erhöhtes Sterberisiko im Vergleich zu jenen ohne Stirnfalten.

Die Forscher kennen die genaue Ursachen dieser Zusammenhänge noch nicht. Vermutlich sei Arteriosklerose oder eine Verhärtung der Blutgefäße infolge von Ablagerungen (Plaque) beteiligt. Veränderungen im Collagen-Protein und oxidativer Stress scheinen sowohl bei Arterioskleroseals auch bei Stirnfalten eine Rolle zu spielen. „Außerdem sind Blutgefäße in der Stirn sehr klein undreagieren möglicherweise sensibler auf die Plaqueentstehung und könnten somit ein früheres Zeichen von Gefäßalterung sein“, so Dr. Esquirol. „Unsere ersten Ergebnisse müssen in künftigen Studien bestätigt werden. Aber sie können schon jetzt in Arztpraxen und Krankenhäusern praktisch angewendet werden. Das kostet nichts und bedeutet keinerlei Risiko.“

Quellen:
ESC Abstract N° 85605; Esquirol et al.: Forehead Wrinkles and risk of all cause and cardiovascular mortality over 20year follow-up in working population: VISAT study
Poster session 2: Risk assessment

Über die Europäische Gesellschaft für Kardiologie
Die Europäische Gesellschaft für Kardiologie (ESC) vereinigt Medizinerinnen, Mediziner und Angehörige anderer Gesundheitsberufe aus mehr als 150 Ländern. Sie setzt sich dafür ein, die Herz-Kreislauf-Medizin weiter zu entwickeln und unterstützt die Menschen dabei, länger und gesünder zu leben.

Über den ESC-Kongress 2018
Der ESC-Kongress ist weltweit die größte und einflussreichste wissenschaftliche Veranstaltung im Bereich der Herz-Kreislauf-Medizin. Der ESC-Kongress 2018 findet vom 25. bis 29. August in der Messe München satt. Das wissenschaftliche Programm ist unter http://bit.do/esc2018scientificprogramme zu finden.

ESC-Medienkontakt für deutschsprachige Medien:
B&K – Bettschart & Kofler Kommunikationsberatung (www.bkkommunikation.com)
Roland Bettschart: +43 6766356775; bettschart@bkkommunikation.com
Dr. Birgit Kofler: +43 6766368930; kofler@bkkommunikation.com

Quelle: idw

(nach oben)


Geringere Kosten und sauberes Wasser durch neueste Sensortechnologie

Jasmin Bauer Hochschulkommunikation
Technische Hochschule Nürnberg Georg Simon Ohm

Das Institut Polymer Optical Fiber Application Center (POF-AC) der TH Nürnberg entwickelt einen innovativen Sensor für die Wasseraufbereitung

Wasser ist ein kostbares Gut. Der Aufbereitung von Frischwasser kommt deshalb eine große Bedeutung zu. Prof. Dr.-Ing. Rainer Engelbrecht von der TH Nürnberg forscht mit seinem Team am Polymer Optical Fiber Application Center (POF-AC) an einer Sensortechnologie zur Vermeidung von Ablagerungen in Membranmodulen zur industriellen Wasseraufbereitung. Das Ziel der Forschung ist die Steigerung der wirtschaftlichen Prozessperformance und eine ökologische Ressourcenschonung durch eine verbesserte Regelung der Wasseraufbereitungsanlagen. Die Bayerische Forschungsstiftung fördert das Projekt mit insgesamt 398.900 Euro, davon erhält die TH Nürnberg 214.300 Euro.

Nürnberg, 3. September 2018. Frischwasser in gleichmäßig guter Qualität wird bei der Herstellung von Lebensmitteln beispielsweise in Brauereien sowie für viele chemische und technische Industrieprozesse benötigt. Dies wird häufig durch Aufbereitungsanlagen zur Wasserenthärtung und Entsalzung realisiert, die mit einem Membranfilter und dem Prinzip einer umgekehrten Osmose arbeiten. Mögliche Ablagerungen auf der Membran (sog. Membran-Fouling) sind eine Herausforderung für die Betreiber: Die Reinigung und ein vorsorglicher Membranwechsel verursachen Kosten und Stillstandszeiten. Im Forschungsprojekt „POF_MEM: POF-Foulingsensor für Membranen zur Wasseraufbereitung“ erforscht das Polymer Optical Fiber Application Center (POF-AC) der TH Nürnberg unter der Projektleitung von Prof. Dr.-Ing. Rainer Engelbrecht eine Sensortechnologie zur Vermeidung von Ablagerungen in membranbasierten Wasseraufbereitungsanlagen. Das Team kooperiert in dem Projekt mit der TU München (TUM), Lehrstuhl für Lebensmittelchemie und molekulare Sensorik, Abteilung Wassertechnologie unter Leitung von Dr. Karl Glas sowie den Unternehmen Grünbeck GmbH, Ingenieurbüro Heinl und der Staatsbrauerei Weihenstephan.

Prof. Dr.-Ing. Rainer Engelbrecht, einer der Leiter des Instituts POF-AC: „Unser Ziel ist es, die Prozessführung in Wasseraufbereitungsanlagen wirtschaftlicher zu machen und zugleich die ökologischen Ressourcen zu schonen. Davon profitieren sowohl Menschen als auch die Umwelt. Dazu planen wir gemeinsam mit den Kollegen von der TUM und unseren Industriepartnern einen innovativen optischen Sensor zu entwickeln, der buchstäblich Licht ins Dunkel dieser Membranmodule bringt.“

Das Forschungsteam um Prof. Dr.-Ing. Rainer Engelbrecht untersucht in diesem Kontext
einen Sensor, der auf der Leitung von Licht in polymeren optischen Fasern beruht. Wird der Mantel einer solchen Faser bereichsweise entfernt und die Faser in das Membranfiltermodul eingelegt, so kommt das Wasser in direktem Kontakt mit dem lichtführenden Kern. Wenn sich Ablagerungen auf Membran und dem Kern der optischen Faser bilden, wird die Lichtleitung behindert. Dies ist durch die Messung der übertragenen Lichtmenge zu erkennen. Für eine zuverlässige Funktion verbessert das Forschungsteam in diesem Projekt die Geometrie und die Struktur der faseroptischen Sensoren, entwickelt eine stabile Optoelektronik und klärt wasserchemische Fragen. Anschließend testen die Forscherinnen und Forscher das Sensorsystem unter realitätsnahen Bedingungen im Umfeld einer Brauerei.

Prof. Dr.-Ing. Rainer Engelbrecht: „Der Einsatz des Sensors kann nach diesem Projekt auf verschiedenste Membransysteme übertragen werden, darunter fallen vor allem die Meerwasseraufbereitung sowie die Ultra- und Mikrofiltration. Zudem sind Membranreinigungen in einem frühen Stadium der Ablagerung deutlich effizienter und oftmals nur dann möglich.“

Gefördert wird das Projekt von der Bayerischen Forschungsstiftung mit insgesamt 398.900 Euro, davon erhält die TH Nürnberg 214.300 Euro.

Polymer Optical Fiber Application Center (POF-AC), Technische Hochschule Nürnberg
Das 2001 gegründete Polymer Optical Fiber Application Center (POF-AC) ist ein Institut der TH Nürnberg und beschäftigt sich mit angewandter Forschung und Entwicklung mit Schwerpunkt auf POF für die Bereiche Datenübertragung, Sensorik und Messtechnik, Energieübertragung und Beleuchtung. Das POF-AC hat sich seit seiner Gründung zu einem der führenden Institute für Polymerfasern in Deutschland und Europa entwickelt, wie auch die Teilnahme an großen EU-Förderprojekten wie „POF-ALL“ und „POF-Plus“ oder aktuell am EFRE-Programm (Europäischer Strukturfonds, Projekt OHM-Netze) zeigt. Geleitet wird das POF-AC heute von Prof. Dr.-Ing. Olaf Ziemann, einem erfahrenen Wissenschaftler und renommierten Experten im Bereich Polymerfasern und optischer Datenübertragung, sowie von Prof. Dr.-Ing. habil. Rainer Engelbrecht, der seit 2016 seine Kompetenzen im Bereich Faseroptik und optischer Sensorik einbringt.

Quelle: idw

(nach oben)


Kurzer Nachtschlaf verdoppelt das Herz-Kreislauf-Risiko

Prof. Dr. Eckart Fleck Pressesprecher
Deutsche Gesellschaft für Kardiologie – Herz- und Kreislaufforschung e.V.

Männer mittleren Alters, die pro Nacht nur fünf Stunden oder weniger schlafen, haben ein doppelt so hohes Risiko, in den folgenden 20 Jahren ein schweres Herz-Kreislauf-Event zu erleiden, als Männer mit 7 oder 8 Stunden Nachtschlaf. Das berichten Forscher aus Schweden auf dem Europäischen Kardiologiekongress in München.

Männer mittleren Alters, die pro Nacht nur fünf Stunden oder weniger schlafen, haben ein doppelt so hohes Risiko, in den folgenden 20 Jahren ein schweres Herz-Kreislauf-Event zu erleiden, als Männer die sieben oder 8 Stunden schlafen. „Menschen mit einem aktiven Lebensstil mag Schlafen als Zeitvergeudung erscheinen, unsere Studie zeigt jedoch, dass kurze Schlafdauer mit zukünftigen Herz-Kreislauf-Krankheiten verknüpft sein kann“, sagt Studienautorin Moa Bengtsson (Goetheborg, Schweden) auf einer Pressekonferenz auf dem Europäischen Kardiologiekongress. In München kommen von 25. bis 29. August 31.000 Teilnehmer aus 150 Ländern zusammen – der Kongress der Europäischen Gesellschaft für Kardiologie (ESC) ist einer der weltweit größten Medizinkongresse.

Nach der Untersuchung von 759 Männern, die in vier Gruppen eingeteilt worden waren, zeigte sich, dass hoher Blutdruck, Diabetes, starkes Übergewicht, aktuelles Rauchen, wenig körperliche Aktivitäten und schlechte Schlafqualität weit verbreiteter unter Männern mit einem Nachtschlaf von 5 Stunden oder weniger war als bei jenen, die sieben oder 8 Stunden schliefen. „Männer mit einem Alter von 50 Jahren, die die kürzeste Schlafdauer aufwiesen, hatten ein doppelt so hohes Risiko mit 71 Jahren ein Herz-Kreislauf Ereignis zu erleiden, als jene mit normaler Schlafdauer. Das galt auch, nachdem alle anderen Risikofaktoren berücksichtigt wurden“, sagte Bengtsson in München. „Die Erhöhung des kardiovaskulären Risikos bei unzureichendem Schlaf ist vergleichbar mit jener durch Rauchen oder Diabetes im Alter von 50 Jahren. Unsere Ergebnisse betonen die hohe Bedeutung des Schlafes.“

Quellen:
ESC-Abstract Nr. 83093; Bengtsson et al.: Middle age men with short sleep duration have two times higher risk of cardiovascular events than those with normal sleep duration, a cohort study with 21 years followup
Pressekonferenz: The ZZZs of heart health: the art of good sleeping
Best Posters 3: Best Posters in preventive cardiology

Über die Europäische Gesellschaft für Kardiologie
Die Europäische Gesellschaft für Kardiologie (ESC) vereinigt Medizinerinnen, Mediziner und Angehörige anderer Gesundheitsberufe aus mehr als 150 Ländern. Sie setzt sich dafür ein, die Herz-Kreislauf-Medizin weiter zu entwickeln und unterstützt die Menschen dabei, länger und gesünder zu leben.

Über den ESC-Kongress 2018
Der ESC-Kongress ist weltweit die größte und einflussreichste wissenschaftliche Veranstaltung im Bereich der Herz-Kreislauf-Medizin. Der ESC-Kongress 2018 findet vom 25. bis 29. August in der Messe München satt. Das wissenschaftliche Programm ist unter http://bit.do/esc2018scientificprogramme zu finden.

ESC-Medienkontakt für deutschsprachige Medien:
B&K – Bettschart & Kofler Kommunikationsberatung (www.bkkommunikation.com)
Roland Bettschart: +43 6766356775; bettschart@bkkommunikation.com
Dr. Birgit Kofler: +43 6766368930; kofler@bkkommunikation.com

Quelle: idw

(nach oben)


Verringerung der Stickstoffeinträge verhindert Algenblüten in Seen

Nadja Neumann Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)

Seit Jahrzehnten wird diskutiert, ob ein verringerter Eintrag der Stickstoffverbindungen Nitrat und Ammonium die Gewässergüte nachhaltig verbessert, obwohl Stickstoff auch durch Blaualgen aus der Luft gebunden werden kann. Um das zu klären fehlten Langzeitbeobachtungen von Seen, in denen Stickstoff verringert wurde – bis jetzt: Wissenschaftler vom Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB) haben nachgewiesen, dass eine Reduzierung von Stickstoff im Berliner Müggelsee der Schlüssel zur Vermeidung von Algenblüten im Sommer ist.

Bereits in den 1970ern wurden Nährstoffeinträge durch die Landwirtschaft und Abwassereinleitungen als Hauptverursacher für ein übermäßiges Pflanzen- und Algenwachstum in Seen und Flüssen erkannt. Seither setzt man im Gewässermanagement auf eine Verringerung der Phosphoreinträge. „Diese Strategie ist oft erfolgreich, allerdings längst nicht in allen Gewässern: in flachen Seen gibt das Sediment im Sommer große Mengen Phosphor ab. Dann könnte eine Verringerung des Stickstoffangebotes helfen, weil die Algen sowohl Phosphor als auch Stickstoff zum Wachsen brauchen. Bisher fehlten allerdings stichhaltige Beweise dafür, dass die – aufwendigere und teurere – Reduzierung von Stickstoffeinträgen langfristig erfolgreich ist“, erklärt Dr. Tom Shatwell, Gewässerökologe am IGB, den Ausgangspunkt der Untersuchung.

Langzeitdaten lassen tief blicken
Für ihre Untersuchung haben die Wissenschaftler Daten aus 38 Jahren (1979-2016) statistisch ausgewertet. Im Rahmen eines Langzeitprogramms werden der Müggelsee und seine Zuflüsse seit den 1970ern wöchentlich beprobt und unter anderem die Konzentrationen von Phosphor und Stickstoff sowie die Artenzusammensetzung der Algengemeinschaften untersucht. Der Müggelsee ist einer der wenigen Seen weltweit, dessen Belastung mit Phosphor und Stickstoff deutlich abgenommen hat und der gleichzeitig schon lange genug untersucht wird, um Rückschlüsse auf die Auswirkungen verringerter Stickstoffeinträge zu ziehen.
Phosphor war im Müggelsee jeden Sommer im Überfluss vorhanden, weil er aus den Seesedimenten freigesetzt wurde. Die Algenmenge nahm allein durch die Verringerung des Stickstoffangebotes ab – und die Klarheit des Wassers zu. Die Annahme, dass bestimmte Blaualgenarten den fehlenden Stickstoff aus den Zuflüssen langfristig durch Luftstickstoff ersetzen würden, hat sich im Müggelsee nicht bestätigt. Tatsächlich haben sich die Blaualgen nicht vermehrt und kaum Stickstoff aus der Luft gebunden. „Die Fixierung von Luftstickstoff erfordert sehr viel mehr Energie als die Nutzung von Nitrat oder Ammonium aus dem Wasser. Die Blaualgen nutzen diese Methode offenbar nur dann, wenn es unbedingt nötig ist und wenn ausreichend Sonnenenergie zur Verfügung steht“, erklärt Dr. Jan Köhler, Mitautor und Leiter der Arbeitsgruppe „Photosynthese und Wachstum von Algen und Makrophyten“ am IGB.

Vom Müggelsee lernen
Bislang ist der Müggelsee das einzige Fallbeispiel im großen Stil. Allerdings ist die starke Freisetzung von Phosphor aus dem Sediment und von Stickstoff aus dem Wasser in die Luft typisch für Flachseen im Sommer, sodass sich viele andere flache Seen ähnlich verhalten dürften. „In jedem Fall sollten die Ergebnisse Ansporn genug sein, um eine gezielte Reduzierung von Stickstoff auch für andere Seen zu testen. Unsere Studie ist ein Baustein für ein effektiveres Gewässermanagement“, fasst Tom Shatwell die Relevanz der Ergebnisse zusammen.

Über das Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB):
Das IGB ist das bundesweit größte Forschungszentrum für Binnengewässer. Es verbindet Grundlagen- und Vorsorgeforschung, bildet den wissenschaftlichen Nachwuchs aus und berät Politik und Gesellschaft in Fragen des nachhaltigen Gewässermanagements. Forschungsschwerpunkte sind u.a. die Langzeitentwicklung von Seen, Flüssen und Feuchtgebieten angesichts sich rasch ändernder Umweltbedingungen, die Renaturierung von Ökosystemen, die Biodiversität aquatischer Lebensräume sowie Technologien für eine ressourcenschonende Aquakultur. Die Arbeiten erfolgen in enger Kooperation mit den Universitäten und Forschungsinstitutionen der Region Berlin-Brandenburg und weltweit. Das IGB gehört zum Forschungsverbund Berlin e. V., einem Zusammenschluss von acht natur-, lebens- und umweltwissenschaftlichen Instituten in Berlin. Die vielfach ausgezeichneten Einrichtungen sind Mitglieder der Leibniz-Gemeinschaft.
www.igb-berlin.de/

Wissenschaftliche Ansprechpartner:
Dr. Tom Shatwell, Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB), Abteilung 1 Ökohydrologie, +49 (0)30 64181 690, shatwell@igb-berlin.de (Interviews in Englisch und Deutsch möglich)

Dr. Jan Köhler, Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB), Abteilung 2 Ökosystemforschung, +49 (0)30 64181 687, koehler@igb-berlin.de, (Interviews in Deutsch und Englisch möglich)
Originalpublikation:

Tom Shatwell, Jan Köhler (2018) Decreased nitrogen loading controls summer cyanobacterial blooms without promoting nitrogen-fixing taxa: long-term response of a shallow lake. Limnology and Oceanography. doi: 10.1002/lno.11002

Weitere Informationen:
https://youtu.be/oIME72cZy4M

Quelle: idw

(nach oben)


Neue Europäische Blutdruck-Leitlinie: 140/90 mm Hg bleibt «rote Linie»

Dr. Bettina Albers Geschäftsstelle
Deutsche Hochdruckliga

Auch in der neuen Europäischen Blutdruck-Leitlinie [1], die aktuell publiziert wurde, markiert der Grenzwert von 140/90 mm Hg die «rote Linie». Erst dann kommen Blutdrucksenker ins Spiel. Lebensstilmaßnahmen zum Gegensteuern werden bereits davor empfohlen: Das ist effektiv und schützt vor einem kardiovaskulären Ereignis wie Herzinfarkt und Schlaganfall. Die Gefahr einer möglichen Untertherapie sieht die Deutsche Hochdruckliga nicht.

In den vergangenen Jahren gab es immer wieder Diskussionen um Blutdruckgrenzwerte, da diese in den USA in Folge der SPRINT-Studie [2] 2017 abgesenkt wurden. Krank und somit therapiebedürftig ist dort, wer Blutdruckwerte ≥ 130/80 mm Hg aufweist. Die Frage war, ob auch die Europäer dem amerikanischen Beispiel folgen und den Grenzwert in ihrer Leitlinie absenken. Die neue Leitlinie der europäischen Gesellschaften für Hypertonie und Kardiologie (ESH/ ESC) wurde nun anlässlich des Kongress der European Society of Cardiology (ESC) in München publiziert, sieht aber weiterhin vor, Hypertoniker erst ab einem Blutdruck von ≥ 140/90 mm Hg medikamentös zu behandeln.

Prof. Dr. Bernhard K. Krämer, Mannheim, Vorstandsvorsitzender der Deutschen Hochdruckliga e.V. DHL® | Deutschen Gesellschaft für Hypertonie und Prävention e.V. erklärt: „Viele Studien zeigen ein Ansteigen des kardiovaskulären Risikos bereits ab einem Blutdruck von 130/ 80 mm Hg auf. Mit der roten Linie, dem Grenzwert, wird der Schwellenwert definiert, ab dem der Einsatz von blutdrucksenkenden Medikamenten empfohlen wird. Dieser Grenzwert bleibt bei 140/90 mm Hg. Die neue Leitlinie definiert aber erstmals einen niedrigeren, individuell festzulegenden Zielwert (je nach Ausgangsrisiko in Abhängigkeit von Alter, manifesten Organschäden und körperlicher Verfassung) bei der medikamentösen Hochdruckbehandlung. Dieser Zielwert liegt für Patienten unter 65 Jahre erstmals bei 120/70 bis 130/80 mm Hg (nur bei guter Verträglichkeit).

Professor Dr. med. Peter Trenkwalder, Stellv. Vorstandsvorsitzender der Deutschen Hochdruckliga e.V. DHL® | Deutsche Gesellschaft für Hypertonie und Prävention, erklärt: „Bei uns bleibt 140/90 mm Hg die «rote Linie». Erst ab da muss der Blutdruck medikamentös gesenkt werden. Lebensstilmaßnahmen zur Blutdrucksenkung werden aber bereits bei hochnormalen Blutdruckwerten (130-139/85-89 mm Hg) empfohlen. Hier haben es die Menschen selbst in der Hand, durch ausreichend Bewegung, gesunde Ernährung und Abnehmen bei Übergewicht ihren Blutdruck zu senken. Erst wenn diese Maßnahmen nicht greifen und der Blutdruck über den Grenzwert von 140/90 mm Hg steigt, sollten zusätzlich medikamentöse Blutdrucksenker eingesetzt werden.“

Die Deutsche Hochdruckliga e.V. DHL® | Deutsche Gesellschaft für Hypertonie und Prävention sieht in den neuen Leitlinien keine mögliche Gefährdung oder Untertherapie der Patienten: „Unserer Meinung nach ist das eine Empfehlung mit Augenmaß“, so das Fazit von Prof. Dr. Bernhard K. Krämer. Professor Trenkwalder ergänzt: „Es nützt nichts, die Patienten durch das Absenken der Grenzwerte kränker zu machen. Die Herausforderung und Verantwortung für den Arzt gegenüber seinen Patienten liegt darin, sie in der Therapietreue medikamentös und nichtmedikamentös zu unterstützen.“

Wissenschaftliche Ansprechpartner:
Kontakt/Pressestelle

Dr. Bettina Albers
albers@albersconcept.de
Telefon: 03643/ 776423
Mobile: 0174/ 2165629

Originalpublikation:
Quelle:

[1] Williams B, Mancia G et al. 2018 ESC-ESH Guidelines for the Management of Arterial Hypertension. J Hypertens 2018 (in press)
[2] Wright JT, Jr., Williamson JD, Whelton PK et al. A Randomized Trial of Intensive versus Standard Blood-Pressure Control. N Engl J Med 2015; 373: 2103-2116

Quelle: idw

(nach oben)


Der Verlauf von Dürren: Flüsse werden früher und stärker beeinträchtigt als die Landwirtschaft

Dr. Eberhard Fritz Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Biogeochemie

Eine Studie von Klimaforschern aus Deutschland und Schweden offenbart, wie Auswirkungen heftiger Dürreperioden zeitlich verlaufen. Bei ausbleibendem Regen trocknet zunächst der Boden binnen Tagen aus, bevor innerhalb weniger Wochen die Wasserstände der Flüsse zurückgehen. Erst Monate später vertrocknet die Vegetation, mit entsprechenden Auswirkungen auf die Landwirtschaft. Die Studie wurde unter Federführung des Max-Planck-Instituts für Biogeochemie im Fachjournal „Nature Communications“ veröffentlicht. Die Forscher folgern, dass sich wirkungsvolle Strategien zur Vermeidung von Dürreschäden an dem beschriebenen Verlaufsmuster orientieren sollten.

Dürreperioden, wie in diesem Sommer, können große wirtschaftliche Schäden verursachen. Sie beeinträchtigen unter anderem die Wassertransportwege, die Stromerzeugung, die Trinkwasserversorgung und die landwirtschaftliche Bewässerung. Leidet die Pflanzenwelt durch Dürren, so drohen Ernteausfälle sowie Verluste in der Forstwirtschaft. Hervorgerufen werden Dürren in der Hauptsache durch zu geringe Niederschläge. Ihr Auftreten wird aber auch durch die erhöhte Verdunstung aufgrund steigender Temperaturen begünstigt, sowie durch eine von den Menschen veränderte Wasser- und Landnutzung.

Um den zeitlichen und räumlichen Verlauf von Dürren und deren Auswirkungen zu verstehen, kombinierten und verrechneten Forscher aus Deutschland und Schweden große Datensätze zum Wasserkreislauf. Die Daten decken mehrere Jahrzehnte ab und beziehen sich auf Gebiete, die über ganz Europa und somit über verschiedene Klimaregionen verteilt sind. Als wichtige Grundlage verwendeten die Forscher dabei Messungen von Wasserständen von über 400 kleinen und von Menschen kaum beeinflussten Flussläufen. Diese verglichen sie mit Modelldaten zu dürrebedingten Veränderungen der Verdunstung und dem Wassergehalt der Böden in der jeweiligen Region. So konnten sie für jedes Teilgebiet und über einen Zeitraum von mehreren Jahrzehnten den Weg des Wassers mit täglicher Genauigkeit beschreiben. Diese Ergebnisse verglichen sie abschließend mit dem Gesundheits- und Aktivitätszustand der Pflanzenwelt, der routinemäßig von Forschungssatelliten erfasst wird.

Nach statistischer Auswertung der komplexen und viele Variablen betreffenden Daten ergibt sich für die Forscher ein eindeutiges Bild darüber, wie sich Dürren entwickeln: ausbleibender Regen führt innerhalb weniger Tage zu trockeneren Böden, und im Verlauf von Wochen zu sinkenden Flusspegeln. Die Pflanzenwelt wird dagegen erst nach Monaten beeinträchtigt, erkennbar an der reduzierten Verdunstungsrate und der verringerten Vegetationsaktivität. Letztere sind hauptsächlich in Südeuropa zu beobachten. Nur dort ist das Klima so trocken, dass Dürren so lange Zeiträume anhalten können.

Interessanterweise erholt sich die Vegetation meist unmittelbar nach Ende der Dürre, während Flusspegel trotz wieder einsetzendem Regen noch Wochen oder Monate unter ihren Normalwerten verharren. Der Wasserkreislaufs ist also teilweise blockiert: Das Regenwasser wird zunächst in den Böden und im Grundwasser aufgenommen, bevor es die Flüsse erreicht und deren Pegel wieder ansteigen lässt.

Dürreperioden entwickeln sich also etappenweise und mit jeweils verschiedenen, charakteristischen Auswirkungen auf die Wirtschaft und den globalen Wasserkreislauf. Das ganze Ausmaß der negativen Folgen ist daher meist nicht so unmittelbar ersichtlich wie bei schneller verlaufenden Klimaextremen, wie Überschwemmungen oder Hitzewellen. „Doch dieser Sommer ist außergewöhnlich: Die lange Trockenheit, gepaart mit den hohen Temperaturen, hat in weiten Teilen Westeuropas die Dürre deutlich spürbar gemacht. Sie hat bereits zu starken Beeinträchtigungen der Ökosysteme und auch der Bevölkerung geführt“, bestätigt René Orth, Gruppenleiter am Max-Planck-Institut für Biogeochemie in Jena.

Mit den neuen Erkenntnissen können die Strategien zur Vermeidung von Dürreschäden verbessert werden, sagen die Forscher. Dazu sollten Maßnahmen stufenweise ergriffen werden und sich an dem beschriebenen Verlaufsmuster orientieren: In frühen Stadien einer Dürre sollten Anpassungen an gesunkene Flusspegel im Vordergrund stehen, und erst später wird z.B. die Bewässerung landwirtschaftlicher Anbauflächen immer wichtiger. „Da wir wissen, dass der Klimawandel stärkere oder vermehrt auftretende Dürren hervorrufen könnte, ist ein verbessertes Trockenheitsmanagement besonders wichtig“, bemerkt Georgia Destouni, Koautorin von der Universität Stockholm. Die derzeitige Dürreperiode hat die vielfältige Abhängigkeit der Wirtschaft vom Wasserkreislauf aufgezeigt und die Problematik stärker in das gesellschaftliche Bewusstsein gerückt. Damit, und mit den neuen wissenschaftlichen Erkenntnissen ist der Grundstein gelegt für ein besseres Dürremanagement in der Zukunft.

Wissenschaftliche Ansprechpartner:
Dr. Renè Orth, Max-Planck-Institut für Biogeochemie
Gruppenleiter Wechselwirkungen zwischen Hydrologie-Biosphäre-Klima
Email: rene.orth@bgc-jena.mpg.de
Tel: +49 3641 576250

Originalpublikation:
Orth R. and G. Destouni, 2018. Drought reduces blue-water fluxes more strongly than green-water fluxes in Europe, Nat. Commun. 9, (2018) 9:3602
https://www.nature.com/articles/s41467-018-06013-7

Quelle: idw

(nach oben)


Neue Studie: Wer länger Urlaub macht, lebt länger

Prof. Dr. Eckart Fleck Pressesprecher
Deutsche Gesellschaft für Kardiologie – Herz- und Kreislaufforschung e.V.

Wer sich Urlaub nimmt, kann damit sein Leben verlängern, kürzere Urlaube sind mit einer höheren Sterblichkeit verknüpft. Diese Ergebnisse der „Helsinki Businessmen Study“, die 1.222 männliche Manager umfasste, wurden auf dem Europäischen Kardiologiekongress in München vorgestellt.

Wer sich Urlaub nimmt, kann damit sein Leben verlängern. „Niemand soll glauben, dass man mit einem ansonsten gesunden Lebensstil zu lange Arbeitszeiten und den Verzicht auf Urlaub wettmachen kann. Ferien können eine gute Methode sein, um Stress abzubauen“, sagt Professor Dr. Timo Strandberg (Helsinki) auf einer Pressekonferenz des Europäischen Kardiologenkongresses. In München kommen von 25. bis 29. August 31.000 Teilnehmer aus 150 Ländern zusammen – der Kongress der Europäischen Kardiologengesellschaft (ESC) ist einer der weltweit größten Medizinkongresse.

Die von Prof. Strandberg vorgestellte Studie umfasst 1.222 männliche Manager, die zwischen 1919 und 1934 geboren wurden und in die „Helsinki Businessmen Study“ eingeschlossen wurden. Teilnehmer hatten zumindest einen Risikofaktor für Herz-Kreislauf-Erkrankungen. Die in München präsentierten Ergebnisse bezogen ein verlängertes Follow-up von 40 Jahren mit ein, bei dem auch Faktoren wie Arbeitszeiten, Schlafdauer und Urlaubszeiten berücksichtigt wurden. In einer Interventionsgruppe wurden Teilnehmer fünf Jahre lang alle vier Monate mündlich und schriftlich zu einem gesunden Lebensstil aufgefordert und bekamen bei Bedarf Medikamente gegen Risikofaktoren. Mitglieder der Kontrollgruppe erhielten bloß eine übliche Behandlung.

Fazit: In der Interventionsgruppe zeigte sich, dass kürzere Urlaube mit einer höheren Sterblichkeit verknüpft waren. Studienteilnehmer mit drei Wochen oder weniger Jahresurlaub hatten ein um 37 Prozent erhöhtes Risiko, zwischen 1974 und 2004 zu versterben, als Studienteilnehmer mit längerer Urlaubszeit. „Studienteilnehmer mit kürzeren Urlauben arbeiteten länger und schliefen weniger als jene mit längeren Urlauben. Dieser stressreiche Lebensstil hat vermutlich einen stärkeren Einfluss, als die Gesundheits-Interventionen Vorteile bringen“, so Prof. Strandberg. „Stressreduktion sollte ein wesentlicher Bestandteil von Programmen sein, die auf eine Verringerung der Risiken für kardiovaskuläre Krankheiten abzielen.“

Zur Vorbeugung von Herz-Kreislauf-Ereignissen bei Menschen mit hohem Risiko sollten Ratschläge zum Lebensstil vernünftig mit modernen Medikamenten kombiniert werden, empfiehlt Prof. Strandberg.

Quellen:
ESC Abstract: Strandberg et al.: Increased mortality despite successful multifactorial cardiovascular risk reduction in healthy men. 40-year follow-up of the Helsinki businessmen study intervention trial“; J Nutr Health & Aging. 2018, in press.
Pressekonferenz: Is this really good for you? Challenging conventional wisdom

Über die Europäische Gesellschaft für Kardiologie
Die Europäische Gesellschaft für Kardiologie (ESC) vereinigt Medizinerinnen, Mediziner und Angehörige anderer Gesundheitsberufe aus mehr als 150 Ländern. Sie setzt sich dafür ein, die Herz-Kreislauf-Medizin weiter zu entwickeln und unterstützt die Menschen dabei, länger und gesünder zu leben.

Über den ESC-Kongress 2018
Der ESC-Kongress ist weltweit die größte und einflussreichste wissenschaftliche Veranstaltung im Bereich der Herz-Kreislauf-Medizin. Der ESC-Kongress 2018 findet vom 25. bis 29. August in der Messe München satt. Das wissenschaftliche Programm ist unter http://bit.do/esc2018scientificprogramme zu finden.

ESC-Medienkontakt für deutschsprachige Medien:
B&K – Bettschart & Kofler Kommunikationsberatung (www.bkkommunikation.com)
Roland Bettschart: +43 6766356775; bettschart@bkkommunikation.com
Dr. Birgit Kofler: +43 6766368930; kofler@bkkommunikation.com

Quelle: idw

(nach oben)


Tiefseebergbau hinterlässt tiefe Narben -Massiver Artenverlust 26 Jahre nach Abbau nachgewiesen

Judith Jördens Senckenberg Pressestelle
Senckenberg Forschungsinstitut und Naturmuseen

Gemeinsam mit einem internationalen Team haben Senckenberg-Wissenschaftlerinnen die Auswirkungen von Tiefseebergbau – wie den Abbau von Manganknollen – auf die Artenvielfalt am Meeresboden untersucht. Sie zeigen, dass auch 26 Jahre nach dem Abbau ein erheblicher Verlust bodenlebender Organismen zu verzeichnen ist. Insbesondere filtrierende Tiere sind betroffen – über zwei Jahrzehnte nach dem Abbau bleiben knapp 80 Prozent dieser Arten verschwunden. Die Studie erschien kürzlich im Fachjournal „Biogeosciences“.

Das Bergbau Spuren hinterlässt ist selbstverständlich – das gilt auch für den Abbau von Rohstoffen am Meeresboden. „Es gibt belastbare Studien, die zeigen, dass sich beispielsweise der Abbau von Manganknollen negativ auf das Tiefsee-Leben auswirkt“, erläutert Dr. Lidia Lins vom Senckenberg Forschungsinstitut in Frankfurt und fährt fort: „Ob und wann sich die Tiere wieder von dem Eingriff erholen, ist aber noch weitestgehend unerforscht.“

Die Zweitautorin der kürzlich erschienenen Studie hat daher mit einem internationalen Team die Auswirkungen des „DISturbance and reCOLonization (DISCOL)“-Experiments auf bodenlebende Tiefsee-Organismen untersucht. Während der 1989 beginnenden wissenschaftlichen Versuchsreihe wurden 22 Prozent eines insgesamt 10,8 Quadratkilometer großen manganknollenreichen Gebietes im südöstlichen Pazifik mit schwerem Gerät umgepflügt.
Das Areal wurde einen Monat, sechs Monate, drei, sieben und 26 Jahre nach der Störung erneut untersucht, um die Vielfalt der Makro- und Megafauna und die Fischhäufigkeit zu beurteilen.

„Wir haben diese einzigartige Zeitreihe aus der Tiefsee genutzt, um Nahrungskreisläufe für karbonatproduzierende und -fressende Organismen zu entwickeln. Aus diesen können wir dann ableiten, welche Auswirkungen das Umgraben des Meeresbodens innerhalb und außerhalb des gepflügten Bereiches hat“, erklärt Lins.

Die Ergebnisse sind besorgniserregend: Sogar noch 26 Jahre nach dem Experiment lag die Gesamtmasse von kalkbildenden Organismen innerhalb des gestörten Bereiches 54 Prozent unterhalb der Masse außerhalb des Gebietes. Am wenigsten betroffen waren dabei die auf dem Meeresboden fressenden Organismen – sie verzeichneten einen Verlust von 2,6 Prozent.
„Die filtrierende und suspensionsfressende Fauna hat es umso härter getroffen. Hier gibt es knapp 80 Prozent weniger Aktivität“, ergänzt Lins und fügt hinzu: „Wir konnten zeigen, dass sich die Ökosysteme in der Tiefsee nur sehr langsam von Eingriffen erholen – fast 30 Jahre nach einer vergleichsweisen kleinen Störung ist gerade mal die Hälfte an Leben in das Gebiet zurückgekehrt. Wir plädieren daher für Schutzzonen in den Ozeanen!“

Wissenschaftliche Ansprechpartner:
Dr. Lidia Lins Pereira
Senckenberg Forschungsinstitut und Naturmuseum Frankfurt
Tel. 069- 7542 1303
Lidia.Lins@Senckenberg.de

Originalpublikation:
Stratmann, T., Lins, L., Purser, A., Marcon, Y., Rodrigues, C. F., Ravara, A., Cunha, M. R., Simon-Lledó, E., Jones, D. O. B., Sweetman, A. K., Köser, K., and van Oevelen, D.: Abyssal plain faunal carbon flows remain depressed 26 years after a simulated deep-sea mining disturbance, Biogeosciences, 15, 4131-4145, https://doi.org/10.5194/bg-15-4131-2018, 2018.

Quelle: idw

(nach oben)


Ängste abbauen geht anders – Prof. Christoph M. Schmidt über die Ausweitung der Rentengarantien

Sabine Weiler Kommunikation
RWI – Leibniz-Institut für Wirtschaftsforschung

RWI-Präsident Prof. Christoph Schmidt erläutert in seinem Statement, warum eine Ausweitung der Rentengarantien über das Jahr 2025 hinaus aus ökonomischer Sicht kaum nachvollziehbar ist und vor allem mehr Unsicherheit erzeugt. Er schlägt vor, ab dem Jahr 2030 das Renteneintrittsalter an die Lebenserwartung zu koppeln, um zu verhindern, dass die Rentenbezugsdauer eins-zu-eins mit ihr steigt.

„Die jüngste Diskussion um eine Ausweitung der Rentengarantien über das Jahr 2025 hinaus ist aus ökonomischer Sicht kaum nachvollziehbar. Schließlich hat die große Koalition gerade erst eine Haltelinie bis dahin beschlossen und eine Rentenkommission damit beauftragt, Reformvorschläge für die Zukunft auszuarbeiten. Sinnvoll wäre es nun, deren Ergebnisse abzuwarten. Der aktuelle Aktionismus erzeugt hingegen trotz aller Beteuerungen vor allem eines: mehr Unsicherheit.

Das Rentenniveau bis zum Jahr 2040 einzufrieren, bürdet der jüngeren Generation zudem die Hauptlast des demographischen Wandels auf. Denn dieser führt in unserem umlagefinanzierten Rentensystem dazu, dass sich das Verhältnis zwischen Beitragszahlern und Rentnern drastisch ändert. Werden nun gleichzeitig das Rentenniveau und das Renteneintrittsalter fixiert, müssen entweder die Beiträge noch stärker erhöht werden als ohnehin vorgesehen, oder die Steuerbelastung muss steigen.

Eine kluge Möglichkeit wäre es stattdessen, ab dem Jahr 2030 das Renteneintrittsalter an die Lebenserwartung zu koppeln, um zu verhindern, dass die Rentenbezugsdauer eins-zu-eins mit ihr steigt. Eine weitere Möglichkeit, um eine ausgewogenere Lastenverteilung zwischen den Generationen zu erreichen, ist die Stärkung der privaten und betrieblichen Altersvorsorge. Dagegen ist es mehr als kurzsichtig, die Leistungen des Rentensystems sogar noch auszuweiten, etwa durch die Mütterrente.“

Prof. Dr. Christoph M. Schmidt ist Präsident des RWI – Leibniz-Institut für Wirtschaftsforschung, Vorsitzender des Sachverständigenrates zur Begutachtung der gesamtwirtschaftlichen Entwicklung und Professor an der Ruhr-Universität Bochum.

Ansprechpartnerin:
Sabine Weiler (Pressestelle), Tel. 0201/8149-213

Weitere Informationen:
http://www.rwi-essen.de/presse/mitteilung/328/ 
hier finden Sie das Statement von RWI-Präsident Prof. Christoph Schmidt auf der RWI-Homepage

Quelle: idw

(nach oben)


Joggen in der Stadt. Ist das gesund?

Dr. Ulrich Kümmel Presse- und Öffentlichkeitsarbeit
Deutsche Atemwegsliga e.V.

Bewegung ist wichtig – Bewegung ist gesund. Stimmt das wirklich? Fast täglich erfahren wir, dass Städte über Fahrverbote diskutieren, dass schlechte Luft gesundheitsschädlich ist. Dieselfahrzeuge sollen aus Städten verbannt werden. Sollten wir deshalb in der Stadt besser keinen Sport treiben, um uns nicht zu gefährden? Das Thema des diesjährigen Deutschen Lungentages lautet deshalb „Dicke Luft – Gefahr für die Lunge“. Im Rahmen des Deutschen Lungentages finden im September bundesweit viele Informationsveranstaltungen statt.

Die Luftqualität wird belastet durch den Straßenverkehr, die Industrie, die Landwirtschaft und Kleinfeuerungsanlagen. Der Autoverkehr und insbesondere Dieselmotoren tragen maßgeblich zur Belastung mit Stickoxiden (NOx) bei. Feinstaub wird eher durch ältere Dieselfahrzeuge freigesetzt. Die Konzentrationen von Feinstaub, NOx und Ozon in der Außenluft werden landesweit gemessen. Es gibt Grenzwerte, die der Gesetzgeber festgelegt hat. Werden diese nicht eingehalten, müssen zum Schutz der Bevölkerung Gegenmaßnahmen ergriffen werden. Dies kann u.U. auch Fahrverbote bedeuten.

Wie schädlich sind die Emission durch den Verkehr wirklich und ist der Zusammenhang zwischen Gesundheitsschädigung und Verkehr tatsächlich nachgewiesen?
Die schädlichen Wirkungen von Feinstaub, NOx und Ozon sind ausreichend belegt. Der spezielle Zusammenhang mit den Emissionen des Autoverkehrs kann jedoch lediglich abgeleitet werden, da die eingeatmete Luft ein Gemisch von Schadstoffen aus unterschiedlichen Quellen ist. Personen, die an verkehrsreichen Straßen wohnen, haben ein höheres Erkrankungsrisiko, und Kraftfahrzeugabgase enthalten Schadstoffe. Dies wird als Indizienbeweis gewertet.

Das ESCAPE-Projekt (European Study of Cohorts) untersucht derzeit die Langzeitwirkung von Luftschadstoffen in Europa. Das Besondere ist, dass die individuelle Schadstoffexposition errechnet werden kann, um so einen genaueren Zusammenhang zwischen Exposition und Risiko herzustellen.

Erste Daten wurden bereits analysiert: Feinstaub der Partikelgröße von 10 µm (PM10) erhöhte signifikant das Risiko für Lungenkrebs. Der Zusammenhang zwischen Schadstoffexposition und COPD wurde tendenziell gezeigt. Niedrige Werte der Lungenfunktion ließen sich auf Exposition mit PM10 und NOx zurückführen. Für Kinder erhöhte sich das Risiko für Asthma, wenn auch nicht signifikant. Luftschadstoffe begünstigten das Auftreten von Lungenentzündung, ein Einfluss auf Pseudokrupp wurde nicht beobachtet.

Eine Studie aus England zeigte, dass die Lungenfunktion beim Laufen in hoch belasteten Gegenden schlechter wurde. Dennoch haben diese Studie und weitere Studien zeigen können, dass die positiven Effekte der körperlichen Aktivität, die Nachteile, die mit einer höheren Luftschadstoffexposition verbunden sind, überwiegen. Es gibt also gute Gründe, sich körperlich zu betätigen, und das auch in Gegenden, die durch Straßenverkehr belastet sind, wenn es keine anderen Möglichkeiten in unbelasteten Gebieten gibt.

Jeder ist auf Luft zum Atmen angewiesen. Ziel muss es deshalb sein, saubere Luft für Alle und überall sicher zu stellen.
Grenzwerte sind dabei häufig nur ein vernünftiger Kompromiss, das Wünschenswerte mit dem Machbaren zu vereinen. Vieles kann getan werden, um die Luftqualität zu verbessern. Zu den Maßnahmen gehören neben sauberen Motoren und verkehrsorganisatorischen Maßnahmen ein attraktiver Nahverkehr und Umweltzonen. Eine Verlagerung des Verkehrs an den Messstationen vorbei, verlagert das Problem lediglich. Erste Analysen belegen, dass z.B. ausreichend große Umweltzonen tatsächlich die Luftqualität verbessern.
Wir alle können dazu beitragen, dass unsere Luft besser wir, z.B. indem wir das Auto einmal stehen lassen.

„Dicke Luft – Gefahr für die Lunge“ ist das Thema des diesjährigen Lungentages. Im Rahmen des Deutschen Lungentages finden bundesweit viele Informationsveranstaltungen statt. https://www.lungentag.de/veranstaltungen/page/1.html

Die diesjährige Zentralveranstaltung des Lungentags findet in Berlin statt:
Samstag, 29. September 2018, 10 bis 14 Uhr
Charité Berlin, CCO Auditorium und Foyer, Virchowweg 6

Weitere Informationen:
Deutscher Lungentag
Raiffeisenstr. 38
33175 Bad Lippspringe
www.lungentag.de
Email: info@lungentag.de
Sektionssprecher: Prof. Dr. M. Lommatzsch

Quelle: idw

(nach oben)


360° – Film nimmt Zuschauer mit auf einen faszinierenden Tauchgang durch ein Korallenriff

Dr. Susanne Eickhoff Presse- und Öffentlichkeitsarbeit
Leibniz-Zentrum für Marine Tropenforschung (ZMT)

2018 ist das Internationale Jahr des Riffes. Als einen Beitrag hierzu veröffentlicht das Leibniz-Zentrum für Marine Tropenforschung (ZMT) gemeinsam mit der Filmagentur „The Jetlagged“ einen 360°-Film, der in einem tropischen Korallenriff aufgenommen wurde.

2018 ist das Internationale Jahr des Riffes, eine weltweite Initiative der „International Coral Reef Initiative“, die erstmalig 1997 ausgerufen wurde und nun bereits zum dritten Mal stattfindet. Als einen Beitrag hierzu veröffentlicht das Leibniz-Zentrum für Marine Tropenforschung (ZMT) gemeinsam mit der mehrfach preisgekrönten Filmagentur „The Jetlagged“ einen 360°-Film, der in einem tropischen Korallenriff aufgenommen wurde.

Der Film nimmt den Zuschauer mit auf eine Reise durch das Korallen-Dreieck in Südostasien und seine beeindruckenden Riffe. Mit einem VR-Headset kann der Betrachter die Unterwasserwelt mit einem Blickumfang von 360° erleben, sich wie ein Taucher rundherum umschauen und diesen spannenden Lebensraum erkunden. Das Korallen-Dreieck, das sich von den Inseln der Salomonen über Neuguinea und Borneo bis zu den Philippinen ausstreckt, ist eine der artenreichsten Meeresregionen der Erde.

Während sich unser Planet weiter erwärmt, verändern sich die Ozeane: Korallenbleiche und Ozeanversauerung, dazu noch Überfischung und Verschmutzung bedrohen weltweit die empfindlichen Korallenriffe. Rund 30% der Riffe weltweit gelten aufgrund menschlicher Einflüsse bereits als zerstört, und Klimamodelle sagen ein regelmäßiges Ausbleichen von nahezu 90% aller Riffe bis Mitte des Jahrhunderts voraus. So ist es dringend erforderlich, Menschen für dieses einzigartige Ökosystem zu begeistern und auf die Notwendigkeit eines umfassenden Riffschutzes aufmerksam zu machen.

Der 360°-Film ist Teil eines Forschungsprojektes von Dr. Katie Nelson und Prof. Dr. Achim Schlüter, beide Sozialwissenschaftler am ZMT. Er ist mit verschiedenen Textversionen unterlegt und soll in Kombination mit anderen Medien eingesetzt werden, um herauszufinden, mit welchen Anreizen sich Menschen ökologischer Probleme bewusst werden und lernen, einen Naturraum wertzuschätzen.

In Indonesien führten die beiden Forscher bereits eine Versuchsreihe mit mehr als 1000 Personen durch. Getestet wurde deren Bereitschaft, nach einem virtuellen Tauchgang mithilfe des Films für ein Korallenschutzprojekt zu spenden.

Das ZMT wird den Film mit entsprechender VR-Ausrüstung am 22. und 23. September auf der Forschungsmeile an der Weserpromenade im Rahmen der Maritimen Woche in Bremen zeigen. Im Oktober soll der Film auf der internationalen Our Ocean-Konferenz zum Meeresschutz in Bali präsentiert werden.

Wissenschaftliche Ansprechpartner:
Dr. Katie Nelson (nur Englisch)
Leibniz-Zentrum für Marine Tropenforschung (ZMT)
katie.nelson@leibniz-zmt.de
Tel: 0421 / 23800 – 128

Prof. Dr. Achim Schlüter
Leibniz-Zentrum für Marine Tropenforschung (ZMT)
achim.schlueter@leibniz-zmt.de
Tel: 0421 / 23800 – 104

Weitere Informationen:
https://www.leibniz-zmt.de/de/neuigkeiten/im-fokus/film-nimmt-zuschauer-mit-auf-…

Quelle: idw

(nach oben)


Was die Forschung heute weiß: Sieben Ernährungsmythen aufgeklärt

Dr. Katarina Werneburg Stabsstelle Universitätskommunikation/Medienredaktion
Universität Leipzig

Auch diese August-Woche verspricht wieder heiße Temperaturen und wenig Abkühlung. Dabei vergeht manchem die Lust auf warme Speisen und üppige Mahlzeiten. Doch wie gesund sind die Alternativen? Machen Obst und Essen am Abend wirklich dick? Und sind Übergewichtige dann selbst schuld an ihrem Gewicht? „Nein“, sagt Prof. Dr. Matthias Blüher, Leiter der Adipositas-Ambulanz für Erwachsene am Integrierten Forschungs- und Behandlungszentrum (IFB) AdipositasErkrankungen der Leipziger Universitätsmedizin. Denn Adipositas sei eine Erkrankung, die von vielen Faktoren bestimmt wird. Im Interview spricht der Mediziner über vermeintliche gesunde Obst-Snacks und die Ursachenforschung bei Adipositas.

Im Sommer benötigen wir weniger Kalorien, weil der Körper für die Abkühlung weniger Energie verbraucht.
Prof. Dr. Matthias Blüher: Das stimmt nicht. In Situationen extremer Hitze oder Kälte ist der Energieverbrauch unseres Körpers generell erhöht: Sowohl beim Frieren als auch beim Abkühlen benötigen wir mehr Energie. Allerdings ist nicht davon auszugehen, dass man im Sommer oder im Winter unterschiedlich gute Chancen hat, abzunehmen. Der einzige Unterschied liegt tatsächlich im Ernährungsverhalten: Im Sommer nehmen viele typischerweise leichtere und kalorienärmere Mahlzeiten zu sich, im Winter legt man sich eher den klassischen Winterspeck zu.

Gerade bei heißen Temperaturen setzen viele auf Obst-Snacks. Davon kann man so viel essen, wie man will – Obst ist in jedem Fall gesund.
Prof. Dr. Matthias Blüher: Leider ist das nicht ganz richtig, denn auch beim Obst macht die Dosis das Gift. Früchte können auch eine ganze Menge an Kalorien und Kohlenhydraten enthalten. Ein aktuelles Beispiel aus der Forschung zeigt, dass gerade die Fruktose, die wir verstärkt in Obst finden, einen ganz wesentlichen Beitrag bei der Entstehung der Fettleber leisten kann.

Auch wenn sich die Temperaturen dann etwas abgekühlt haben: Abends essen macht dick.
Prof. Dr. Matthias Blüher: Das stimmt und stimmt auch nicht. Auch hier kommt es wieder darauf an, wie viel zum Abendessen auf den Tisch kommt. Man geht zwar davon aus, dass die Kalorien am Abend nicht gleich wieder verbrannt werden können, weil man dann ins Bett geht. Letztendlich gibt es aber keinen Beweis dafür, zu welcher Tageszeit Kalorien fürs Gewicht schädlicher sind – die Gesamtmenge, die man über den Tag verteilt zu sich nimmt, zählt. Vielen Menschen fällt es aber leichter, abends auf Essen zu verzichten, um ihr Gewicht zu reduzieren. Wissenschaftliche Untersuchungen haben gezeigt, dass Menschen, die regelmäßig frühstücken, eine höhere Chance haben, Gewicht zu verlieren.

Mit Light-Produkten hingegen nimmt man ab.
Prof. Dr. Matthias Blüher: Das stimmt leider nicht. In Light-Produkten wird Zucker oft durch Zuckerersatzstoffe ausgetauscht. Diese Ersatzstoffe können mehr Appetit machen oder direkt auf unsere Darmbakterien wirken. Light-Produkte können also indirekt dazu beitragen, dass man mehr Appetit hat und doch nicht abnehmen kann – auch wenn es der Name anders verspricht.

Übergewichtige und adipöse Menschen sind selber schuld an ihrem Übergewicht.
Prof. Dr. Matthias Blüher: Stimmt nicht. Wir wissen heute zum Beispiel, dass genetische Faktoren eine ganz große Rolle bei der Ausprägung von Übergewicht und Adipositas spielen. Auch hormonelle Aspekte und unser gesellschaftliches Umfeld bedingen die Entstehung von Übergewicht. All diese Faktoren kann der Einzelne nicht aktiv beeinflussen.

Übergewichtige müssen einfach weniger essen und mehr Sport treiben, dann nehmen sie schon ab.
Prof. Dr. Matthias Blüher: Eigentlich stimmt das. Leider muss man sagen, dass Abnehmkonzepte, die nur darauf basieren weniger zu essen und sich mehr zu bewegen, langfristig versagt haben. Woran das liegt, wissen wir nur zum Teil. Es ist sehr wahrscheinlich, dass unser Körper ein einmal erreichtes Gewicht hervorragend verteidigen kann. Hier greifen verschiedene Mechanismen ineinander, die dazu führen, dass der Körper immer wieder zu seinem maximal erreichten Gewicht zurück möchte. Zu diesen Faktoren gehören beispielsweise die Ausschöpfung der aufgenommenen Kalorien aus der Nahrung sowie die Regulation von Grundumsatz, Appetit und Sättigung. Auch diese Faktoren können wir nicht bewusst kontrollieren.

Adipositas ist eine Erkrankung und die Ursachen der Adipositas sind der Wissenschaft in Gänze bekannt.
Prof. Dr. Matthias Blüher: Den ersten Teil der These kann ich bejahen. Wir sehen Adipositas als eine Erkrankung an und stehen damit nicht allein da – auch die Weltgesundheitsorganisation definiert Adipositas mittlerweile als eine Erkrankung. Den zweiten Teil des These muss ich verneinen: Wir sind immer noch bemüht, die Ursachen der Adipositas-Entstehung für den einzelnen Menschen und auf gesellschaftlicher Ebene komplett zu verstehen. Nur für wenige, einzelne Fälle können wir bislang einen klaren Zusammenhang etwa zwischen dem Defekt eines Gens und der Ausprägung von Adipositas herstellen.

Adipositas-Forschung in Leipzig
Die Adipositas-Forschung ist seit vielen Jahren ein Schwerpunkt der Universität Leipzig. Auch der Wissenschaftsrat attestiere dem Standort zuletzt herausragende Kompetenzen in diesem Bereich. Im Februar 2018 hat die Universität Leipzig einen Vollantrag für das Exzellenzcluster „Adipositas verstehen“ in der Exzellenzstrategie des Bundes und der Länder eingereicht. Das Projekt verfolgt einen interdisziplinären Ansatz, der die Medizin mit den Sozial- und Geisteswissenschaften verbindet. Denn Ursachen und Folgen von Adipositas sind kein rein medizinisches Thema, sondern eingebettet in unsere Kultur und Gesellschaft. Wirksame Präventions- und Therapiestrategien müssen daher in diesem Kontext entwickelt und gedacht werden. Die Universität Leipzig stellt die Wissenschaftler und ihre Forschungsarbeit hinter dem Cluster-Antrag vor: Vom Historiker, über Bioinformatiker und Mediziner bis hin zur Kommunikationswissenschaftlerin.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Matthias Blüher

Weitere Informationen:
http://www.adipositas-verstehen.de

Quelle: idw

(nach oben)


Füße kribbeln, brennen, sind taub: Neue Biomarker der Entzündung als Risikofaktoren für Neuropathie

Christina Becker Presse- und Öffentlichkeitsarbeit
Deutsches Diabetes-Zentrum

Die Polyneuropathie gehört zu den häufigsten Komplikationen bei Menschen mit Diabetes. Sie kann aber auch bei bestimmten Risikofaktoren oder Erkrankungen bereits vor der Manifestation eines Diabetes auftreten. Erste Symptome sind häufig Missempfindungen in den Füßen. Obwohl eine Polyneuropathie bei etwa 30% der Menschen mit Diabetes vorliegt, bleibt sie häufig undiagnostiziert. Wissenschaftler aus dem Deutschen Diabetes-Zentrum (DDZ) in Düsseldorf konnten in Kooperation mit Kolleginnen aus dem HelmholtzZentrum München (HMGU), beide Partner im Deutschen Zentrum für Diabetesforschung (DZD), nun erstmals zeigen, dass sechs Biomarker der Entzündung das Risiko für eine Polyneuropathie anzeigen.

Obwohl viele Patienten an Polyneuropathie leiden, weiß man derzeit relativ wenig über ihre Entstehung, was auch die therapeutischen Möglichkeiten begrenzt. Bislang ist bekannt, dass Entzündungsprozesse zu anderen diabetischen Komplikationen wie Herzinfarkt oder Schlaganfall beitragen. Ziel dieser neuen Studie war daher die umfangreiche Analyse von Biomarkern, die Entzündungsprozesse als Risikofaktor für die sogenannte distale sensorische Polyneuropathie charakterisieren. Dabei wurden sowohl Menschen mit Typ-2-Diabetes als auch Menschen in der älteren Allgemeinbevölkerung untersucht. Die Ergebnisse wurden in der aktuellen Ausgabe der Zeitschrift Diabetes veröffentlicht.

„In unserer Studie haben wir neue Biomarker identifiziert, die das Risiko für die Entstehung einer Polyneuropathie anzeigen. Erstmals konnten wir auch Hinweise darauf finden, dass neben dem angeborenen Immunsystem das adaptive Immunsystem an der Entwicklung der Krankheit beteiligt sein könnte“, erläutert Prof. Dr. Christian Herder, Leiter der Studie am Deutschen Diabetes-Zentrum (DDZ). „Diese Befunde könnten neue therapeutische Perspektiven eröffnen. Das Ziel könnte dabei sein, das Immunsystem entsprechend zu beeinflussen und damit letztlich die Entstehung beziehungsweise das Fortschreiten der Neuropathie zu verhindern“, ergänzt der Neurodiabetologe Prof. Dr. Dan Ziegler, Stellvertretender Direktor des Instituts für Klinische Diabetologie am DDZ.

Studie – Ablauf und Design
Die Studie umfasste 513 Männer und Frauen der bevölkerungsbasierten KORA (Kooperative Gesundheitsforschung in der Region Augsburg) F4/FF4-Kohorte im Alter von 62 bis 81 Jahren, die zu Studienbeginn keine distale sensorische Polyneuropathie hatten. Von diesen Personen entwickelten während der 6,5-jährigen Nachbeobachtungszeit 127 Personen eine DSPN. Der Serumspiegel von insgesamt 71 Biomarkern der Entzündung wurde unter Verwendung der neuen Proximity-Extension-Assay-Technologie gemessen. Der Serumspiegel von 26 dieser 71 Biomarkern war bei Personen, die während der Studie eine Polyneuropathie entwickelten, höher als bei den Personen, die keine Polyneuropathie aufwiesen. Nach statistischer Korrektur für multiples Testen blieben höhere Konzentrationen von sechs Biomarkern mit dem DSPN-Risiko verbunden. Drei dieser Proteine (MCP-3/CCL7, MIG/CXCL9, IP-10/CXCL10) waren Chemokine, während die anderen drei (DNER, CD40, TNFRSF9) lösliche Formen von Transmembranrezeptoren waren.

Die Chemokine zeigten neurotoxische Wirkungen in einem Zellkultur-Modell, was für ihre Beteiligung an der Entstehung der Neuropathie spricht. Wenn die Daten für diese sechs Biomarker zu einem klinischen Risikomodell hinzugefügt wurden, verbesserte sich die Vorhersagegüte des Modells signifikant. Weiterführende Pathway-Analysen wiesen darauf hin, dass wahrscheinlich verschiedene Zelltypen von angeborener und adaptiver Immunität an der Entwicklung von DSPN beteiligt sind. Insgesamt konnte diese Studie daher neuartige Assoziationen zwischen Biomarkern der Entzündungen und dem Polyneuropathie-Risiko zeigen und Hinweise darauf liefern, die auf ein komplexes Zusammenspiel von angeborener und adaptiver Immunität in der Entstehung dieser Komplikation hinweisen.

Fazit
Mit dieser Studie verbessert sich das Verständnis für die Rolle von Entzündungsprozessen in der Entstehung der distalen sensorischen Polyneuropathie, sowohl bei älteren Personen ohne als auch mit Typ-2-Diabetes erheblich. Die Hauptbefunde müssen nun in anderen Kohorten repliziert werden. Dabei sind neben den biochemischen Untersuchungen auch Untersuchungen von Immunzellen wichtig. Langfristig soll mit diesen Arbeiten geklärt werden, ob und wie eine Modulation von Entzündungsprozessen die Optionen hinsichtlich Prävention und Therapie der distalen sensorischen Polyneuropathie ergänzen kann.

Wissenschaftliche Ansprechpartner:
Prof. Christian Herder
Deutsches Diabetes-Zentrum (DDZ)
Auf’m Hennekamp 65, 40225 Düsseldorf
Tel. +49 211 3382 649
E-mail: christian.herder@ddz.uni-duesseldorf.de

Originalpublikation:
Herder C, Kannenberg J, Carstensen-Kirberg M, Strom A, Bönhof G, Rathmann W, Huth C, Koenig W, Heier M, Krumsiek J, Peters A, Meisinger C, Roden M, Thorand B, Ziegler D. A Systemic Inflammatory Signature Reflecting Crosstalk Between Innate and Adaptiv Immunity Is Associated With Incident Polyneuropathy: KORA F4/FF4 Study. Diabetes. 2018 Aug 16. db180060. DOI: 10.2337/db18-0060. [Epub ahead of print]

Weitere Informationen:
http://ddz.uni-duesseldorf.de/de/
http://diabetes.diabetesjournals.org/content/early/2018/08/13/db18-0060.full-tex…

Quelle: idw

(nach oben)


Natürlicher Hochwasserschutz an der Donau: EU-Projekt mit Aueninstitut der KU

Dipl.-Journ. Constantin Schulte Strathaus Presse- und Öffentlichkeitsarbeit
Katholische Universität Eichstätt-Ingolstadt

In den vergangenen Jahrzehnten sind die Anrainerstaaten der Donau, die von der Quelle bis zur Mündung zehn europäische Länder durchfließt, von schweren Flutkatastrophen betroffen gewesen. Mit Beteiligung des Aueninstituts Neuburg der Katholische Universität Eichstätt-Ingolstadt (KU) untersucht in den kommenden zwei Jahren ein europäisches Forschungskonsortium von mehr als 20 Kooperationspartnern, wie sich das Risiko von Überschwemmungen durch eine Wiederherstellung von Auen entlang der Donau reduzieren lässt.

Dabei knüpft das Aueninstitut der KU an seine langjährige Expertise an, die es etwa bei der Renaturierung der Donauauen zwischen Ingolstadt und Neuburg oder internationalen Projekten in China gesammelt hat. „Wasser macht nicht an Grenzen halt. Deshalb ist es ein Anliegen des Projektes, auf internationaler Ebene umfassende Perspektiven für das Wassermanagement und die Prävention von Überflutungen zu untersuchen – verbunden mit dem Aspekt von Artenvielfalt, die durch Auen bewahrt und gefördert wird“, erklärt Prof. Dr. Bernd Cyffka, Leiter des Aueninstituts und Inhaber der Professur für Angewandte Physische Geographie. Neben Cyffka und seinem Team sind für die deutsche Seite noch Forscher der TU München am Projekt „Danube Floodplain“ beteiligt. Weitere Mitwirkende sind Wissenschaftlerinnen und Wissenschaftler aus Österreich, der Tschechischen Republik und der Slowakei, Ungarn, Kroatien, Serbien und Bulgarien. Die Leitung des Gesamtprojektes liegt bei der nationalen Wasserbehörde Rumäniens. Für die Teilprojekte des Aueninstituts der KU stellt die Europäische Union rund 250.000 Euro an Fördermitteln zur Verfügung.

Viele Auen entlang der Donau sind im Lauf der Zeit durch Ansiedlungen, Landwirtschaft und Infrastrukturmaßnahmen verloren gegangen. Anhand einer einheitlichen Methodik wollen die beteiligten Wissenschaftler in mehreren Pilotregionen untersuchen, welche positiven Effekte noch bestehende Auengebiete haben bzw. welches Potenzial derzeit trocken liegende Auen aufweisen. Im Vergleich zu aufwändigen und teuren technischen Maßnahmen für den Hochwasserschutz bietet die Renaturierung von Auen darüber hinaus die Gelegenheit, Biodiversität zu erhalten bzw. neue Grundlagen für Artenreichtum zu schaffen.

Da bei solchen Renaturierungsprojekten die Perspektiven vieler Interessensgruppen zu berücksichtigen sind – wie etwa von anliegenden Gemeinden, Waldbesitzern, Fischereiverbänden oder landwirtschaftlichen Betrieben – wird das Aueninstitut der KU die Stakeholderanalysen von anderen Projektbeteiligten zusammenfassen, um daraus sogenannte Ökosystemleistungen von Auen abschätzen zu können. Gemeint sind damit Leistungen der Auen für Mensch und Natur – als Lebensraum für Pflanzen und Tiere, als Erholungsraum, als Filter für Schadstoffe oder als Beitrag zum Hochwasserschutz. Die wechselseitige Abwägung der verschiedenen Anforderungen an das Ökosystem Auen soll in einem zweiten Schritt als Grundlage für ein Modell zur Kosten-Nutzen-Analyse dienen, an dessen Entwicklung das Aueninstitut ebenfalls beteiligt ist. Das Modell wird in einen Leitfaden einfließen, mit dem Regionen entlang der Donau Kriterien und Schritt-für-Schritt-Anleitungen zur Umsetzung eigener Renaturierungsmaßnahmen aufgezeigt bekommen – auch bezogen auf die Lösung möglicher Konflikte mit einzelnen Interessensgruppen.

„Ziel des Projektes ist es auch, zu belegen, dass sich Renaturierungsmaßnahmen im Vergleich zum herkömmlichen Hochwasserschutz in vielerlei Hinsicht als profitabel erweisen können – sowohl für Bevölkerung und Wirtschaft als auch für die Natur“, sagt Professor Cyffka.
Wissenschaftliche Ansprechpartner:

Prof. Dr. Bernd Cyffka (bernd.cyffka@ku.de; Tel. 08421/932-3039)

Weitere Informationen:
http://www.interreg-danube.eu/approved-projects/danube-floodplain

Anhang
Der Auenwald an der Donau zwischen Neuburg und Ingolstadt. Die Erfahrungen aus der Renaturierung dieses Gebietes wollen Wissenschaftler des Aueninstituts der KU auf das EU-Projekt übertragen.
https://idw-online.de/de/attachment66433

Quelle: idw

(nach oben)


„Im Alten Rom kannten Beschimpfungen in der Politik kaum Grenzen“

Viola van Melis Zentrum für Wissenschaftskommunikation
Exzellenzcluster „Religion und Politik“ an der Westfälischen Wilhelms-Universität Münster

52. Deutscher Historikertag beleuchtet Schmähungen und „Hate Speech“ in allen Epochen – Althistoriker Martin Jehne: Unter römischen Senatoren waren persönliche Attacken gängig – Das Volk in der Volksversammlung durfte beleidigen, selbst aber nicht gekränkt werden – „Ungeheure Spaltung zwischen Arm und Reich“ – „Moderne Gesellschaften könnten im Umgang mit Beschimpfungen etwas römische Robustheit brauchen“

Das Alte Rom hat politische Debatten Historikern zufolge mit großer Härte und persönlichen Angriffen geführt, die mancher Hassrede im Internet in nichts nachstehen. „Die Angriffe, auch Invektiven genannt, gehörten für Senatoren der römischen Republik fest zum öffentlichen Leben“, erläutert der Althistoriker Prof. Dr. Martin Jehne von der Technischen Universität Dresden, der auf dem 52. Deutschen Historikertag im September in Münster in einer Sektion über Schmähungen von der Antike bis heute zur Streitkultur im antiken Rom spricht. „Heftige Abwertungen des politischen Gegners schweißten die Unterstützergruppe zusammen und sorgten für Aufmerksamkeit, Unterhaltung und Empörung – ähnlich wie Beleidigungen, Drohungen und Hate Speech heute im Internet.“ Der Ton in der stark hierarchisierten römischen Politik sei rau gewesen, so Jehne, aber nicht ohne Regeln. „Politiker beschimpften einander rücksichtslos. Zugleich mussten sie sich in der Volksversammlung vom Volk beleidigen lassen, ohne es selbst schmähen zu dürfen – ein Ventil, das in einer tiefen Spaltung in arm und reich die Allmachtsphantasien der Elite begrenzte.“ Politiker und Publikum hätten Schmähungen kaum für bare Münze genommen. Auch wenn der Vergleich zu heute teils hinke, so Jehne: „Eine gewisse römische Robustheit im Umgang mit Schmähgemeinschaften wie AfD oder Pegida könnte helfen, den Aufregungspegel zu senken und sachlicher zu werden.“

Kränkungen auszuhalten und zu überwinden, kann nach den Erkenntnissen des Historikers für das Alte Rom letztlich politisch stabilisierend wirken. Die üble Nachrede in der römischen Republik (509-27 v. Chr.) ging durchaus weit: „Der berühmte Redner und Politiker Marcus Tullius Cicero (106-43 v. Chr) etwa schreckte, als er seinen Unterstützer Sestius verteidigte, nicht davor zurück, dem Feind Clodius öffentlich Inzest mit Brüdern und Schwestern vorzuwerfen“, so Prof. Jehne. Eine Sexualpraxis, die auch in Rom als unzulässig galt. „Clodius warf Cicero wiederum vor, er hätte sich als Konsul wie ein König aufgeführt. Eine schwere Anschuldigung, war doch das Königtum in der römischen Republik verpönt.“ So gab es im politischen Streit kaum Grenzen, wie der Historiker betont. Das unterscheide sich von heute, wo intensiv über Grenzen des Erlaubten in Debatten auf der Straße oder im Web nachgedacht werde. „Die Römer scheint das wenig interessiert zu haben. Es gab zwar das Delikt der iniuria, zu der auch verbale Verletzungen gehörten – aber kaum solche Anklagen.“

„Keine Morde aus gekränkter Ehre“
Die Stadtrömer waren dem Historiker zufolge stolz auf ihren bissigen, rücksichtslosen Witz auf Kosten anderer: „Sie hielten das für einen wichtigen Teil von urbanitas, den Kommunikationsformen der Hauptstädter, im Gegensatz zur rusticitas der Landeier.“ Man habe sich regelrecht gerühmt, dass die üble Nachrede in der Stadt besonders blühte. „Als Geschmähter hielt man das aus, und wenn möglich, revanchierte man sich.“ Oft arbeiteten Invektivgegner schon bald danach wieder zusammen und pflegten normalen Umgang. Das politische Klima blieb leidlich stabil: Morde aus gekränkter Ehre gab es nur in der Ausnahmesituation des Bürgerkriegs.

Dass das Volk vom scharfen Umgang der Senatoren in politischen Arenen ausgenommen war, selbst aber die politische Elite beleidigen und auspfeifen durfte, zeigt nach Prof. Jehne, dass die Politiker der Republik die Volksversammlung „unbestritten als politisches Volk anerkannten“. An heutigen demokratischen Wahlverfahren gemessen habe es sich zwar höchstens um drei Prozent der Abstimmungsberechtigten gehandelt, „doch die Senatoren sahen darin das Volk als Entscheidungsinstanz für das Gemeinwesen verkörpert“. So versuchte Cicero zwar in der Debatte um das Agrargesetz im Jahr 63 vor Christus das Volk umzustimmen. „Er versprach aber, sich dem Volk zu beugen und seine Meinung zu ändern, wenn ihm das nicht gelinge.“ Wer das Volk als Entscheidungsinstanz in Frage stellte, riskierte, dass die Menge aufbrüllte und die Rednertribüne stürmte. „Diese Macht des Volkes galt allerdings nur in offiziellen politischen Kommunikationsarenen“, betont Jehne. „Wenn Angehörige des ‚einfachen Volkes‘ den Senatoren und ihrem Gefolge in den Straßen nicht rechtzeitig Platz machte, wurden sie rüde angegangen und keineswegs hofiert.“

„Etwas mehr Gelassenheit in aktuellen Debatten“
Heutige Debatten in sozialen Netzwerken sieht Jehne persönlich gelassener, seit er Schmähungen in der römischen Republik untersucht. „Die empörenden Grenzüberschreitungen von Schmähgemeinschaften wie Pegida oder AfD, mit denen sie ihre Unterstützer integrieren wollen, erhalten in der überschießenden Medienvielfalt eine Resonanzverstärkung. Meine Forschung hat mich aber dazu gebracht, meinen Aufregungspegel bei neuen Schmähungen der Gegenwart erheblich zurückzufahren – die Schmähungen waren es jedenfalls nicht, die den Untergang der römischen Republik herbeiführten.“

Auf dem 52. Deutschen Historikertag in Münster leitet der Althistoriker Prof. Dr. Martin Jehne die Sektion „Invektive Spaltungen? Exkludierende und inkludierende Dynamiken von Schmähungen von der Antike bis zur Zeitgeschichte“ am Donnerstag, 27. September, gemeinsam mit den Dresdener Historikern Prof. Dagmar Ellerbrock und Prof. Gerd Schwerhoff. Dabei werden neben den Schmähungen der römischen Republik auch Beschimpfungen zwischen Geistlichen und Laien im christlichen Mittelalter, Schmähungen unter aufgeklärten Philosophen und die Situation in den USA der 1960er Jahre und im kolonialen Afrika beleuchtet. Hintergrund sind Forschungen am Sonderforschungsbereich 1285 „Invektivität. Konstellationen und Dynamiken der Herabsetzung“, der TU Dresden, an dem Prof. Jehne das Teilprojekt „Invektivität in Arenen ritualisierter Kommunikation während der römischen Republik und Kaiserzeit“ leitet. (sca/vvm)

„Gespaltene Gesellschaften“ – 52. Deutscher Historikertag
Mit dem Thema „Gespaltene Gesellschaften“ in allen Epochen und Kontinenten befasst sich der 52. Deutsche Historikertag vom 25. bis 28. September 2018 an der Universität Münster. Rund 3.500 Wissenschaftler aus dem In- und Ausland tauschen sich auf dem größten geisteswissenschaftlichen Kongress in Europa in mehr als 90 Sektionen über aktuelle Forschungsthemen aus. Als Gastredner werden auch erwartet Wolfgang Schäuble, Christopher Clark, Herfried Münkler, Ulrich Raulff, Aladin El-Mafaalani und Birgit Schäbler. Das Gastland Niederlande vertreten etwa die Parlamentsvorsitzende Khadija Arib und der Autor Geert Mak.

Die Sektionen befassen sich in vielen Fallbeispielen mit sozialen, ökonomischen, religiösen oder ethnischen Spaltungen, die nicht erst die Gegenwart, sondern auch frühere Epochen herausforderten. Erörtert werden etwa Flüchtlingsdebatten vom Altertum bis zur Gegenwart, die soziale, wirtschaftliche und rechtliche Ausgrenzung bestimmter Gruppen in verschiedenen Epochen, die Frage nach dem Westfälischen Frieden als Vorbild für Nahost, ökonomische Spaltungen in der Bundesrepublik etwa zwischen „Hartz-IV-Familien und Helikoptereltern“ oder die politische Instrumentalisierung von Geschichtsbildern in heute gespaltenen Gesellschaften wie Katalonien, Schottland und Kosovo.

Ausrichter des Historikertags sind der Verband der Historiker und Historikerinnen Deutschlands (VHD), der Verband der Geschichtslehrer Deutschlands (VGD) und die Westfälische Wilhelms-Universität Münster (WWU). Der Kongress geht auf die „erste Versammlung deutscher Historiker“ 1893 in München zurück, wird alle zwei Jahre ausgetragen und widmet sich drängenden Fragen in Geschichtswissenschaft und Gesellschaft. (vhd/sca/vvm)

Weitere Informationen:

https://www.uni-muenster.de/Religion-und-Politik/aktuelles/2018/aug/PM_Schmaehungen_im_Alten_Rom_und_Hassrede_heute.html

Quelle: idw

(nach oben)


Schwachstelle Knie: Präventionsübungen senken Risiko für Verletzung des vorderen Kreuzbands

Anne-Katrin Döbler und Lisa Ströhlein, Thieme-PR Presse- und Öffentlichkeitsarbeit
Deutsche Gesellschaft für Orthopädie und Unfallchirurgie e. V.

Pressemitteilung zum DKOU 2018
Deutscher Kongress für Orthopädie und Unfallchirurgie
23. bis 26. Oktober 2018, Messegelände Süd, Berlin

Berlin – Wer regelmäßig spezielle Übungen zur Prävention von vorderen Kreuzbandverletzungen macht, eine Innendrehung des Knies beim Sport vermeidet und auf eine korrekte Bewegungstechnik achtet, halbiert sein Risiko für entsprechende Verletzungen oder gar einen Kreuzbandriss. Frauen profitieren noch mehr als Männer von diesen Übungen. In Situationen ohne Kontakt zu anderen Sportlern sinkt ihr Verletzungsrisiko um zwei Drittel. Das schließen Orthopäden und Unfallchirurgen aus mehreren großen Studien (1).

Experten raten Trainern, ihre Sportler gezielt auf Präventionsprogramme hinzuweisen. Wie Knie- und Muskelverletzungen vermieden und effektiv behandelt werden, erklären Experten auf einer Pressekonferenz im Rahmen des Deutschen Kongresses für Orthopädie und Unfallchirurgie (DKOU) 2018.

Verletzungen am vorderen Kreuzband zwingen Sportler häufig zu monatelangen Ruhepausen mit Operationen und Reha. Für professionelle Athleten können sie auch das Karriere-Aus bedeuten: Eine Untersuchung hat gezeigt, dass nur zwei Drittel der Sportler in den 41 Monaten nach der Verletzung wieder mit dem üblichen Einsatz spielen können (2). „Präventionsübungen sind deshalb keine verlorene Zeit, sondern eine wichtige Investition in einen verletzungsfreien Sport“, sagt Dr. med. Gerd Rauch, Kongresspräsident des Berufsverbands für Orthopädie und Unfallchirurgie für den DKOU 2018. Zudem erhöht eine Knieverletzung auch das Risiko, im späteren Leben an einer Kniearthrose zu erkranken – auch nach einer operativen Behandlung des vorderen Kreuzbands.

Sportarten mit vielen Sprüngen, abrupten Stopps, schnellen Richtungswechseln und Drehbewegungen belasten das Knie in besonderer Weise. Deswegen verletzen sich vor allem Fuß-, Hand- und Basketballer sowie Skifahrer, Feldhockeyspieler und Judokämpfer am vorderen Kreuzband. Frauen sind dabei zwei- bis achtmal häufiger betroffen als Männer (3). Kreuzbandverletzungen entstehen meist, wenn das Knie in die sogenannte X-Beinstellung gerät: Das bedeutet, dass das Knie sich nach innen dreht, während der Schwerpunkt des Körpers gleichzeitig hinter den Knien liegt und die Beine ungleichmäßig belastet werden. Das passiert meist, wenn der Sportler nach einem Sprung landet, abrupt die Laufrichtung ändert, plötzlich stoppt oder sich dreht. „Verliert der Sportler dabei die Kontrolle über den Bewegungsablauf, ist eine Verletzung des vorderen Kreuzbands quasi vorprogrammiert“, erklärt Rauch, der als Mannschaftsarzt die Handballer vom MT Melsungen betreut. Die Deutsche Kniegesellschaft hat ein Trainingsprogramm entwickelt, das Sportler darin schulen soll, die X-Beinstellung zu vermeiden. In einer 30-seitigen Broschüre beschreiben Experten verschiedene Lauf-, Balance-, Sprung- und Kraftübungen, die die Gelenke und die umliegende Muskulatur stabilisieren. „Diese Übungen sollten zwei- bis dreimal pro Woche in ein 20- bis 30-minütiges Aufwärmtraining eingebaut werden“, empfiehlt Rauch. Ein weiteres Präventionsprogramm heißt FIFA 11+ und wurde vom Weltfußballverband entwickelt.

Ob ein Sportler zur X-Beinstellung neigt, lässt sich mit einem einfachen Sprungtest feststellen. Dazu springt der Athlet von einem Kasten, landet und springt dann mit maximaler Kraft in die Höhe und landet wieder. Sind die Knie bei der Landung nach innen geneigt, sprechen Orthopäden und Unfallchirurgen von der X-Beinstellung. Diese Menschen sind besonders gefährdet und sollten gezielt an einer Änderung dieses Bewegungsmusters arbeiten. „Auch wenn wir viele Knieverletzungen erfolgreich behandeln können, ist Vorbeugen immer die beste Variante“, betont Rauch. „Vor allem im Breitensport findet Prävention immer noch zu wenig Aufmerksamkeit.“ Sportverletzungen und Verletzungsprävention stehen deshalb wieder groß auf der Agenda des DKOU 2018.

Die Broschüre „Stop X – Programm zur Prävention von Sportverletzungen am Kniegelenk“ ist zum kostenlosen Download erhältlich: https://stop-x.de/
Das Präventionsprogramm FIFA 11+ kann unter folgendem Link heruntergeladen werden:
https://www.dfb.de/fileadmin/_dfbdam/16988-Elf-Plus-Manual-Deutsch.pdf

Quellen:
(1) Webster KE, Hewett TE. Meta-Analysis of meta-analyses of anterior cruciate ligament injury reduction training programs. J Orthop Res. (2018)
Doi:10.1002/jor.24043
(2) Ardern CL et al. Return to sport following anterior cruciate ligament reconstruction surgery: a systematic review and meta-analysis of the state of play. Br J Sports Med. (2011) 45:596-606
(3) Joseph AM et al. A multisport epidemiologic comparison of anterior cruciate ligament injuries in Highschool athletics. J Athl Train (2013). 48:810-817

Terminhinweis
Kongress-Pressekonferenz im Rahmen des DKOU 2018
Donnerstag, 25. Oktober 2018, 12.30 bis 13.30 Uhr
Ort: Messe Berlin, Eingang Süd, Halle 6.3, Raum 411

Wie Sportverletzungen im Breitensport entstehen und wie sie verhindert werden können
Dr. med. Gerd Rauch, Kongresspräsident

Muskelverletzungen im Sport: Entstehungsmuster, ACP/PRP-Therapie und internistische Aspekte
Professor Dr. med. Tim Meyer, Deutscher Fußballbund

Return-to-Play: Der sportliche Wiedereinstieg nach Verletzung
Finn Lemke, Handballprofi

Neues bei der Therapie und der Rehabilitation von vorderen Kreuzbandverletzungen
Dr. med. Christian Schoepp, MSV Duisburg

Behandlungs- und optimierte Rehabilitationskonzepte
Privatdozent. Dr. med. habil. Raymond Best

Wie die Digitalisierung hilft neue Versorgungskonzepte in O & U zu entwickeln
Dr. med. Johannes Flechtenmacher

Ihr Kontakt für Rückfragen/zur Akkreditierung:
Lisa Ströhlein, Heinke Schöffmann
Pressestelle DKOU 2018
Pf 30 11 20, 70451 Stuttgart
Tel.: 0711 8931-459, Fax: 0711 8931-167
stroehlein@medizinkommunikation.org

Weitere Informationen:
http://www.dkou.de

Quelle: idw

(nach oben)


DBFZ Jahrestagung 2018: Experten diskutieren die Nutzungsoptionen von Biomasse

Paul Trainer M.A. Presse- und Öffentlichkeitsarbeit
Deutsches Biomasseforschungszentrum

Zum dritten Mal präsentiert das Deutsche Biomasseforschungszentrum (DBFZ) am 19./20. September 2018 den aktuellen Stand der Bioenergieforschung. Unter dem Motto „Energie und Stoffe aus Biomasse: Konkurrenten oder Partner?“ soll u.a. die Frage diskutiert werden, wie und in welchem Maße nachwachsende Rohstoffe gleichzeitig zu einer nachhaltigen Energieversorgung wie auch zu einer biobasierten Wirtschaft beitragen können. Parallel zur Jahrestagung werden vom DBFZ auch das Fachforum „Hydrothermale Prozesse“ sowie das 1. Deutsche Doktorandenkolloquium Bioenergie ausgerichtet. Die Anmeldung zu allen Veranstaltungen ist unter www.bioenergiekonferenz.de möglich.

Biomasse stellt mit einem aktuellen Anteil von rund 60 % den wesentlichsten Part der erneuerbaren Energieversorgung. In zunehmendem Maße werden nachwachsende Rohstoffe jedoch auch stofflich, z.B. für Werkstoffe oder in der chemischen Industrie eingesetzt. Ergibt sich hieraus ein Dilemma für die zukünftige Energieversorgung oder vielmehr eine Möglichkeit zur Synergie? Auf welchem Weg befindet sich die Bioenergieforschung und welche politischen Rahmenbedingungen sind für eine erfolgreiche Umsetzung der Energiewende notwendig? Fragen, welche die diesjährige Jahrestagung des DBFZ unter dem Motto „Energie und Stoffe aus Biomasse: Konkurrenten oder Partner?“ mit zahlreichen Experten aus Wissenschaft und Wirtschaft sowie Vertretern verschiedener Bundesministerien zu beantworten sucht. Neben einem abendlichen Netzwerk-Event bietet die Veranstaltung mit Posterausstellung und Science-Slam sowie dem sich anschließenden 1. Deutschen Doktorandenkolloquium Bioenergie eine Vielzahl von Möglichkeiten zur wissenschaftlichen Vernetzung mit namhaften Experten und dem wissenschaftlichen Nachwuchs aus allen Bereichen der Bioenergieforschung. Weitere Informationen sowie die Möglichkeit zur Anmeldung finden sich unter: www.bioenergiekonferenz.de

Fachforum Hydrothermale Prozesse

Parallel zur Jahrestagung wird vom DBFZ am 19./20. September 2018 auch wieder das Fachforum „Hydrothermale Prozesse zur stofflichen und energetischen Wertschöpfung“ ausgerichtet. In verschiedenen Vorträgen sowie Poster-Speedpräsentationen verfolgt die Spezialveranstaltung das Ziel, die neuesten Trends und Entwicklungen von hydrothermalen Prozessen (HTP) als Schlüsseltechnologie darzustellen und insbesondere den gegenseitigen Erfahrungsaustausch zwischen Forschung und Wirtschaft zu fördern. Die Veranstaltung richtet sich an Institutionen und Entscheidungsträger aus Wissenschaft und Forschung, Beteiligte aus der Agrar-, Energie- und Umweltpolitik, Fachleute aus regional und überregional ansässigen Unternehmen, Verbände und Vereine der Energiebranche, Vertreter aus Industrie und Wirtschaft, kommunale und staatliche Einrichtungen sowie Wissenschaftler von universitären und außeruniversitären Einrichtungen. Weitere Informationen sowie die Möglichkeit zur Anmeldung unter www.dbfz.de/htp

Die Termine noch einmal zusammen gefasst:
Veranstaltungen: DBFZ Jahrestagung 2018 / HTP-Fachforum / Doktorandenkolloquium Bioenergie
Termine: 19./20./21. September 2018
Ort: Veranstaltungszentrum Hotel de Pologne (Leipziger Foren), Hainstr. 16, 04109 Leipzig
Anmeldung: www.bioenergiekonferenz.de / www.htp-inno.de / www.dbfz.de/doktoranden

Smart Bioenergy – Innovationen für eine nachhaltige Zukunft

Das Deutsche Biomasseforschungszentrum arbeitet als zentraler und unabhängiger Vordenker im Bereich der energetischen und stofflichen Biomassenutzung an der Frage, wie die begrenzt verfügbaren Biomasseressourcen nachhaltig und mit höchster Effizienz und Effektivität zum bestehenden und zukünftigen Energiesystem beitragen können. Im Rahmen der Forschungstätigkeit identifiziert, entwickelt, begleitet, evaluiert und demonstriert das DBFZ die vielversprechendsten Anwendungsfelder für Bioenergie und die besonders positiv herausragenden Beispiele gemeinsam mit Partnern aus Forschung, Wirtschaft und Öffentlichkeit. Mit der Arbeit des DBFZ soll das Wissen über die Möglichkeiten und Grenzen einer energetischen und integrierten stofflichen Nutzung nachwachsender Rohstoffe in einer biobasierten Wirtschaft insgesamt erweitert und die herausragende Stellung des Industriestandortes Deutschland in diesem Sektor dauerhaft abgesichert werden – www.dbfz.de.

Wissenschaftlicher Kontakt:
Prof. Dr. Michael Nelles
Tel.: +49 (0)341 2434-112
E-Mail: michael.nelles@dbfz.de

Organisatorischer Kontakt:
Katja Lucke
Tel.: +49 (0)341 2434-119
E-Mail: katja.lucke@dbfz.de

Weitere Informationen:
https://www.dbfz.de/presse/pressemitteilungen-2018/dbfz-jahrestagung-am-1920-sep…

Anhang

DBFZ Jahrestagung am 19./20. September 2018: Experten aus Wissenschaft, Wirtschaft und Politik diskutieren die Nutzungsoptionen von Biomasse
https://idw-online.de/de/attachment66317

Quelle: idw

(nach oben)


Woher Muskeln wissen, wie spät es ist

Sonja Opitz, Abteilung Kommunikation
Helmholtz Zentrum München – Deutsches Forschungszentrum für Gesundheit und Umwelt

Wie bereiten sich Muskelzellen auf einen anstrengenden Arbeitstag vor? Wissenschaftlerinnen und Wissenschaftler des Helmholtz Zentrums München und der Ludwig-Maximilians-Universität München (LMU), Mitglieder im Deutschen Zentrum für Diabetesforschung (DZD), haben diese Frage untersucht und die Ergebnisse in ‚PLOS Biology‘ publiziert. Die Arbeit deckt ein ganzes Stoffwechselnetzwerk auf, das wider Erwarten nicht durch das Gehirn, sondern über die ‚innere Uhr‘ der Muskelzellen gesteuert wird.

Quasi alle Zellen des menschlichen Körpers besitzen eine eigene innere Uhr. Sie steuert sämtliche Vorgänge, die nicht gleichzeitig stattfinden oder nicht mit immer gleicher Intensität ablaufen sollen. „Das betrifft beispielsweise die Verwertung von Nährstoffen wie Fett und Proteinen“, erklärt Prof. Dr. Henriette Uhlenhaut. Sie ist Gruppenleiterin am Institut für Diabetes und Adipositas des Helmholtz Zentrums München (IDO) sowie am Genzentrum der LMU. „Gerät die innere Uhr des Körpers aber aus dem Takt, so kann das schwere Folgen für den Stoffwechsel haben. So ist beispielsweise bekannt, dass Menschen, die viel im Schichtdienst arbeiten, besonders anfällig für Stoffwechselkrankheiten wie Diabetes sind.“

In der aktuellen Arbeit konzentrierte sich das Team um Uhlenhaut nun erstmals auf den 24-Stunden-Stoffwechsel-Rhythmus der Muskeln. „Wir hatten speziell zwei Proteine im Blick, die als sogenannte Master Regulatoren der inneren Uhr fungieren“, sagt Dr. Kenneth Dyar, Wissenschaftler am IDO und Erstautor der aktuellen Studie. „Diese beiden Moleküle binden an die DNA und stoßen alle nachfolgenden Prozesse an.“ In Muskelzellen von Mäusen konnten die Wissenschaftler die Aktivität dieser beiden Proteine im Tagesverlauf sehr genau ermitteln. „Dabei haben wir angefangen bei der Bindung an das Erbgut über die zu- oder abnehmende Genaktivität bis hin zu den entsprechenden Gen- und Stoffwechselprodukten alles gemessen“, erklärt Kenneth Dyar den umfassenden Ansatz. Aufbauend auf früheren Studien untersuchten die Wissenschaftler den Auf- und Abbau von Fetten und Proteinen – ein Ansatz der auch für Sportler interessant sein dürfte.

Stoffwechselnetzwerk aufgedeckt
In Zusammenarbeit mit italienischen und österreichischen Kollegen (vom Venezianischen Institut für Molekulare Medizin sowie den Universitäten von Padua, Triest und Graz) arbeiteten die Wissenschaftler bestimmte Vorgänge heraus, die nachts von den Regulatoren der inneren Uhr angeschaltet werden: „Darunter fällt beispielsweise das Speichern von Fett, der Zuckerstoffwechsel oder die Sensitivität gegenüber dem Hormon Insulin“, erklärt Henriette Uhlenhaut. Gleichzeitig würden gegenläufige Prozesse wie die Fettsäureoxidation oder der Proteinabbau heruntergefahren, so die Autoren. Diese Muster seien vor allem in den Stunden vor dem Aufwachen besonders ausgeprägt und bereiten die Muskeln auf den kommenden Tag vor.

Im letzten Schritt untersuchten die Wissenschaftler Eingriffsmöglichkeiten in diese Vorgänge. Dazu beobachteten sie Mäuse, bei denen einer der Master Regulatoren fehlte. Ohne ihre innere Uhr bildeten die Tiere deutlich weniger Fettmasse und die Produktion von Muskelproteinen wurde erhöht. „Zusammengenommen deckt unsere Arbeit auf mehreren Ebenen ein ganzes Stoffwechselnetzwerk auf“, erklärt Studienleiterin Uhlenhaut. „Biologisch spannend dabei ist auch, dass der Taktgeber dafür nicht wie zu vermuten zentral im Gehirn sitzt, sondern die innere Uhr der Muskelzellen selbst ist.“ Langfristig wollen die Autoren die Mechanismen auch im Menschen untersuchen und eine Möglichkeit finden, darin einzugreifen. So wäre es demnach denkbar, eine Insulinresistenz bei Typ-2-Diabetes zu bekämpfen, oder die Energieverbrennung anzukurbeln, um krankhaftes Übergewicht zu reduzieren.

Weitere Informationen
Hintergrund:

Konkret verglichen die Autoren die genomweite Bindung der beiden Transkriptionsfaktoren BMAL1 und REV-ERBα. Die Autoren Michaël Hubert und Katrin Fischer sind Teilnehmer am Doktoranden-Ausbildungsprogramms Helmholtz Graduate School Environmental Health, kurz HELENA.

Das Helmholtz Zentrum München verfolgt als Deutsches Forschungszentrum für Gesundheit und Umwelt das Ziel, personalisierte Medizin für die Diagnose, Therapie und Prävention weit verbreiteter Volkskrankheiten wie Diabetes mellitus, Allergien und Lungenerkrankungen zu entwickeln. Dafür untersucht es das Zusammenwirken von Genetik, Umweltfaktoren und Lebensstil. Der Hauptsitz des Zentrums liegt in Neuherberg im Norden Münchens. Das Helmholtz Zentrum München beschäftigt rund 2.300 Mitarbeiter und ist Mitglied der Helmholtz-Gemeinschaft, der 18 naturwissenschaftlich-technische und medizinisch-biologische Forschungszentren mit rund 37.000 Beschäftigten angehören. http://www.helmholtz-muenchen.de

Das Institut für Diabetes und Adipositas (IDO) erforscht die Erkrankungsmechanismen des Metabolischen Syndroms mit systembiologischen und translationalen Ansätzen. Mittels zellulärer Systeme, genetisch modifizierter Mausmodelle und klinischer Interventionsstudien sollen neue Signalwege und Zielstrukturen entdeckt werden. Ziel ist die interdisziplinäre Entwicklung innovativer Therapieansätze zur personalisierten Prävention und Behandlung von Adipositas, Diabetes und deren Begleiterkrankungen. Das IDO ist Teil des Helmholtz Diabetes Center (HDC). http://www.helmholtz-muenchen.de/ido

Das Deutsche Zentrum für Diabetesforschung e.V. ist eines der sechs Deutschen Zentren der Gesundheitsforschung. Es bündelt Experten auf dem Gebiet der Diabetesforschung und verzahnt Grundlagenforschung, Epidemiologie und klinische Anwendung. Ziel des DZD ist es, über einen neuartigen, integrativen Forschungsansatz einen wesentlichen Beitrag zur erfolgreichen, maßgeschneiderten Prävention, Diagnose und Therapie des Diabetes mellitus zu leisten. Mitglieder des Verbunds sind das Helmholtz Zentrum München – Deutsches Forschungszentrum für Gesundheit und Umwelt, das Deutsche Diabetes-Zentrum DDZ in Düsseldorf, das Deutsche Institut für Ernährungsforschung DIfE in Potsdam-Rehbrücke, das Institut für Diabetesforschung und Metabolische Erkrankungen des Helmholtz Zentrum München an der Eberhard-Karls-Universität Tübingen und das Paul-Langerhans-Institut Dresden des Helmholtz Zentrum München am Universitätsklinikum Carl Gustav Carus der TU Dresden, assoziierte Partner an den Universitäten in Heidelberg, Köln, Leipzig, Lübeck und München sowie weitere Projektpartner. http://www.dzd-ev.de

Wissenschaftliche Ansprechpartner:

Prof. Dr. Henriette Uhlenhaut, Helmholtz Zentrum München – Deutsches Forschungszentrum für Gesundheit und Umwelt (GmbH), Institut für Diabetes und Adipositas, Ingolstädter Landstr. 1, 85764 Neuherberg – Tel. +49 89 3187 2052 – E-Mail: henriette.uhlenhaut@helmholtz-muenchen.de

Originalpublikation:
Dyar, K. et al. (2018): Transcriptional programming of lipid and amino acid metabolism by the skeletal muscle circadian clock. PLOS Biology, DOI: 10.1371/journal.pbio.2005886

Quelle: idw

(nach oben)


China als globaler Ozon-Brennpunkt

Dipl.-Biologin Annette Stettien Unternehmenskommunikation
Forschungszentrum Jülich

Eine neue Studie von chinesischen, amerikanischen und Jülicher Wissenschaftlern zeigt, dass China zu einem globalen Ozon-Hotspot geworden ist. Im Gegensatz zum allgemeinen Rückgang der Ozonbelastung in den USA und Europa zeigen die verfügbaren Daten in China seit den 1990er Jahren deutliche Zuwächse. Die Forscher verwendeten für ihre Studie die neuesten Ozonmessungen des chinesischen Überwachungsnetzes, und kombinierten sie mit der globalen Datenbank des Tropospheric Ozone Assessment Reports (TOAR) für andere Industrieregionen. Eine vergleichende Auswertung der letzten fünf Jahre zeigt, dass der Anstieg des Oberflächen-Ozons noch immer zunimmt.

Weit oben schützt uns Ozon vor gefährlicher UV-Strahlung, in den unteren Luftschichten ist es ein Schadstoff. Erhöhte Ozon-Konzentrationen in Bodennähe haben negative Auswirkungen auf das Pflanzenwachstum, das Klima – und die Gesundheit: Neuere Untersuchungen zeigen, dass selbst relativ niedrige Ozonwerte chronische Atemwegserkrankungen zur Folge haben können.

In einer neuen Studie hat ein internationales Team von Wissenschaftlern aus China, den USA und Jülich die Konzentrationen von bodennahem Ozon in China ausgewertet – und kamen zu dem Schluss, dass China zu einem globalen Brennpunkt der Ozonbelastung geworden ist: Während die mittleren Ozonwerte mit denen in anderen Industrieregionen in Europa und Nordamerika vergleichbar sind, sind Extremwerte in China nicht nur höher als in diesen Gebieten, sie treten auch häufiger auf. „Nach unserem Wissen gibt es keine andere Region in der Welt, in der die Ozonbelastung so hoch und so häufig ist“, erklärt Dr. Martin Schultz vom Jülich Supercomputing Centre.

Die sommerliche Ozonbelastung ist in China in den letzten Jahren zu einem wachsenden Problem geworden: Im Sommer 2017 wurde in vielen chinesischen Städten besonders hohe Konzentrationen von bodennahem Ozon gemessen. „Im Gegensatz zum allgemeinen Rückgang der Ozonkonzentrationen in den USA und Europa zeigen die verfügbaren entsprechenden Daten für China seit 1990 deutliche Zuwächse“, so Schultz. „Trotz der zunehmenden Aufmerksamkeit wurde jedoch die Schwere der Ozonbelastung in China – anders als in anderen Industrienationen – bisher nicht auf Grundlage einer umfassenden Ozonüberwachung genau erfasst.“

Die Daten
Für ihre Studie verwendeten die Forscher die kürzlich verfügbar gemachten Daten der chinesischen landesweiten Oberflächen-Ozonmessungen. Das Beobachtungsnetz zur Überwachung der städtischen und vorstädtischen Luftverschmutzung auf dem chinesischen Festland wurde 2013 in ersten Großstädten in Betrieb genommen und umfasst bis 2017 knapp 1600 nicht-ländliche Gebiete in 454 Städten.

Zum globalen Vergleich diente der Tropospheric Ozone Assessment Report (TOAR). Grundlage für TOAR ist eine im Herbst letzten Jahres veröffentlichte, vom Jülich Supercomputing Centre betriebene Datenbank. Dabei handelt es sich um die weltweit umfangreichste Datensammlung bodennaher Ozonmessungen, die alle global verfügbaren Messdaten von 1975 bis heute in einheitlichem Format frei zugänglich macht. „Die TOAR-Ozondatenbank enthält Ozonstatistiken und -metriken, die für Studien über Klima, menschliche Gesundheit und Vegetationsexposition relevant sind, berechnet aus stündlichen Ozonmessungen an mehr als 9.000 Messstellen weltweit“, erklärt Schultz.

Rasante Urbanisierung
Bodennahes Ozon entsteht unter dem Einfluss von Sonnenlicht aus sogenannten Vorläuferschadstoffen: Vor allem Stickoxide und flüchtige organische Verbindungen, daneben auch Kohlenmonoxid und Methan. Um den Ausstoß dieser Schadstoffe zu begrenzen, sind in Europa und Nordamerika seit den 90er Jahren strenge Luftreinhaltungsmaßnahmen in Kraft: Das hat die schädlichen Ozonkonzentrationen in den westlichen Industrienationen erheblich verringert. „In Süd- und Ostasien jedoch haben eine rasante Urbanisierung und Industrialisierung alle Anstrengungen zur Luftreinhaltung überholt und so zu einem deutlichen Anstieg der Emissionen von Ozon-Vorläuferschadstoffen geführt“, so Schultz.

Um der zunehmenden Luftverschmutzung Herr zu werden, startete die chinesische Regierung 2013 einen Aktionsplan. „Durch diesen konnten primäre Luftschadstoffe wie Stickstoffdioxid, Schwefeldioxid oder Kohlenmonoxid erfolgreich reduziert werden“, erklärt der Autor der Studie, Dr. Lin Zhang von der Universität Peking. „Die sich nun abzeichnende Schwere der Ozonbelastung stellt eine neue Herausforderung für die Emissionskontrolle dar.“

Die Wissenschaftler konnten auch zeigen, dass die Ozonwerte in China in den letzten fünf Jahren stetig gestiegen sind. „Auch wenn der betrachtete Fünfjahreszeitraum zu kurz ist, um statistisch belastbare Trendschätzungen abzuleiten, deuten unsere Ergebnisse auf eine zunehmende Ozonbelastung von Menschen, Pflanzen und Ökosystemen in ganz China hin“, erklärt Martin Schultz. „Aus historischer Sicht ist das heutige Ozon in chinesischen Großstädten vergleichbar mit der Situation von 1980 in den USA, als dort Emissionskontrollen gerade erst begonnen hatten, die Ozon-Spitzenwerte zu beeinflussen.“

Wissenschaftliche Ansprechpartner:
PD Dr. Martin Schultz
Jülich Supercomputing Centre
Tel.: +49 2466 61-96870
E-Mail: m.schultz@fz-juelich.de

Originalpublikation:
Severe Surface Ozone Pollution in China: A Global Perspective
Xiao Lu , Jiayun Hong, Lin Zhang, Owen R. Cooper, Martin G. Schultz, Xiaobin Xu, Tao Wang, Meng Gao, Yuanhong Zhao, and Yuanhang Zhang
Environ. Sci. Technol. Lett., 2018, 5 (8), pp 487-494
DOI: 10.1021/acs.estlett.8b00366

Weitere Informationen:
http://www.fz-juelich.de/SharedDocs/Pressemitteilungen/UK/DE/2018/2018-08-23-chi…
Pressemitteilung des Forschungszentrums Jülich

Quelle: idw

(nach oben)


Das Gegenüber entscheidet, wie ich mich verhalte

Jennifer Hohensteiner Public Relations und Kommunikation
Goethe-Universität Frankfurt am Main

Sozialpsychologische Studie belegt: Das Aufwachsen in einer sozialen Klasse ist prägend für das spätere Auftreten, noch mehr aber die Kommunikationssituation

FRANKFURT. Sind Menschen mit mehr Geld und Bildung dominanter und weniger warmherzig? Eine sozialpsychologische Studie an der Goethe-Universität hinterfragt Stereotypen.

Wie wird unser Verhalten durch unsere soziale Klasse beeinflusst? Diese Frage beschäftigt die Soziologie schon seit jeher. Je nachdem, ob Menschen in einem Arbeitermilieu aufwachsen oder in einem Akademikerhaushalt, übernehmen sie für diese Schicht charakteristische Verhaltensweisen, so die Hypothese. Die Frankfurter Sozialpsychologin Dr. Anna Lisa Aydin hat neue Belege für diese Hypothese gefunden. Ihre gemeinsam mit Forschenden aus Zürich, Hagen, Idaho und Tel Aviv erarbeitete Studie, die im Fachmagazin Social Psychological and Personality Science erschienen ist, zeigt jedoch auch, dass Menschen nicht nur stur ihr klassenspezifisches Verhalten zeigen, sondern flexibel auf ihr Gegenüber aus anderen sozialen Klassen reagieren.

Ein Großteil der Forschung zum Einfluss sozialer Klasse beruht auf den Ideen des Soziologen Pierre Bourdieus. Er beschreibt, wie sich das Umfeld, in dem wir aufwachsen, tief in unsere Identität einschreibt. Sozialpsychologische Autoren argumentieren, dass Menschen aus einer niedrigeren sozialen Klasse über weniger Ressourcen verfügen und ihre Umwelt in geringerem Maße beeinflussen können. Sie seien somit stärker auf gegenseitige Hilfe angewiesen, was dazu führe, dass Zusammenhalt ein wichtiger Wert sei. Die Menschen identifizierten sich mit diesem Wert und verhielten sich dementsprechend kooperativ. Menschen aus einer höheren sozialen Klasse hingegen verfügten über mehr Ressourcen, sie könnten zwischen mehreren Alternativen entscheiden und seien weniger auf gegenseitige Hilfe angewiesen. Dies resultiere in individualistischeren Selbstkonzepten, bei denen es zentral sei, seine Umwelt nach den eigenen Vorstellungen zu gestalten. Die unterschiedlichen Verhaltensweisen stellen somit eine Anpassungsleistung an das jeweiliges Lebensumfeld dar.

Diese Theorie ließ sich in den vorliegenden Studien zum Teil stützen. Insgesamt wurden mehr als 2000 Personen in Deutschland befragt. So war den Befragten, die sich einer niedrigeren sozialen Klasse zugehörig fühlten, ein warmherziger und kooperativer Umgang mit anderen Menschen aus ihrer sozialen Klasse wichtiger als jenen, die sich einer höheren sozialen Klasse zugehörig fühlten. Darüber hinaus legten diejenigen, die mehr verdienten und besser gebildet waren, mehr Wert darauf, im Kontakt mit anderen ihre Kompetenz zu zeigen und dominant aufzutreten als die Angehörigen der Gruppe mit geringerem Verdienst und weniger guter Ausbildung.

Die Befürchtung der Autoren: Derartige Verhaltensunterschiede könnten zu einer weiteren Zunahme sozialer Ungleichheit in Deutschland führen. Denn wer dominanter auftritt, hat bessere Chancen auf sozialen Aufstieg. Die beobachteten Verhaltensunterschiede waren jedoch relativ klein. Deutlich grösser war der Einfluss der sozialen Klasse des Gegenübers. Wie verhalten sich Menschen, wenn sie es mit jemandem aus einer niedrigeren oder höheren Klasse zu tun haben? Die Mehrheit der Befragten bezeichnete die sozialen Unterschiede in Deutschland als nicht bzw. weniger gerechtfertigt. Sie fanden es folglich wichtig, sich gegenüber Menschen mit weniger Geld und Bildung warmherzig und kooperativ zu verhalten. Umgekehrt legten sie Wert darauf, gegenüber Menschen mit mehr Geld und Bildung kompetent zu erscheinen und sich zu behaupten.

Diese Befunde sind insbesondere vor dem Hintergrund relevant, dass die soziale Ungleichheit in Deutschland und vielen anderen Teilen der Welt zunimmt, obwohl sie von den meisten Menschen als ungerechtfertigt wahrgenommen wird. Während die auf soziologischen Theorien basierende Forschung erklären kann, wie sich diese Ungleichheit durch die Prägung in den unterschiedlichen sozialen Klassen noch verstärken kann, bietet die aktuelle Studie einen etwas optimistischeren Ausblick: Sobald es nämlich zum Austausch zwischen Personen unterschiedlicher Klassen kommt und die Klassenunterschiede als illegitim empfunden werden, zeigt sich Solidarität gegenüber Armen und ein Selbstbehauptungswille gegenüber Reichen.

Publikation: Aydin, A. L., Ullrich, J., Siem, B., Locke, K. D., & Shnabel, N. (in press). The effect of social class on agency and communion: Reconciling rank-based and identity-based perspectives.
Manuscript accepted for publication in Social Psychological and Personality Science. http://journals.sagepub.com/doi/pdf/10.1177/1948550618785162
https://psyarxiv.com/waz8e/
Informationen: Dr. Anna Lisa Aydin, Institut für Psychologie, Theodor-W.-Adorno-Platz 6, PEG, 5.G030, Telefon ++49(0)69 798 35287, E-Mail Aydin@psych.uni-frankfurt.de

Aktuelle Nachrichten aus Wissenschaft, Lehre und Gesellschaft in GOETHE-UNI online (www.aktuelles.uni-frankfurt.de)

Die Goethe-Universität ist eine forschungsstarke Hochschule in der europäischen Finanzmetropole Frankfurt. 1914 mit privaten Mitteln überwiegend jüdischer Stifter gegründet, hat sie seitdem Pionierleistungen erbracht auf den Feldern der Sozial-, Gesellschafts- und Wirtschaftswissenschaften, Medizin, Quantenphysik, Hirnforschung und Arbeitsrecht. Am 1. Januar 2008 gewann sie mit der Rückkehr zu ihren historischen Wurzeln als Stiftungsuniversität ein hohes Maß an Selbstverantwortung. Heute ist sie eine der drittmittelstärksten und drei größten Universitäten Deutschlands mit drei Exzellenzclustern in Medizin, Lebenswissenschaften sowie Geistes- und Sozialwissenschaften. Zusammen mit der Technischen Universität Darmstadt und der Universität Mainz ist sie Partner der länderübergreifenden strategischen Universitätsallianz Rhein-Main(siehe auch www.uni-frankfurt.de/59086401/rhein-main-allianz). Internet: www.uni-frankfurt.de

Herausgeberin: Die Präsidentin der Goethe-Universität Redaktion: Dr. Anke Sauter, Referentin für Wissenschaftskommunikation, Abteilung PR & Kommunikation, Theodor-W.-Adorno-Platz 1, 60323 Frankfurt am Main, Telefon 069 798-13066, Fax 069 798-763-12531, sauter@pvw.uni-frankfurt.de
Wissenschaftliche Ansprechpartner:

Dr. Anna Lisa Aydin, Institut für Psychologie, Theodor-W.-Adorno-Platz 6, PEG, 5.G030, Telefon ++49(0)69 798 35287, E-Mail Aydin@psych.uni-frankfurt.de

Originalpublikation:
http://journals.sagepub.com/doi/pdf/10.1177/1948550618785162
https://psyarxiv.com/waz8e/

Weitere Informationen:
https://aktuelles.uni-frankfurt.de/aktuelles/sozialpsychologische-studie-das-geg…

Quelle: idw

(nach oben)


Sehschwäche in der Schwangerschaft: Bei diesen Warnzeichen sollten Sie zum Augenarzt

Lisa-Marie Ströhlein Pressestelle
Deutsche Ophthalmologische Gesellschaft

Jede sechste werdende Mutter ist während der Schwangerschaft von Augenproblemen betroffen. Die meisten Beschwerden sind harmlos und bilden sich nach der Schwangerschaft von selbst zurück, sagen Experten der DOG – Deutsche Ophthalmologische Gesellschaft. In seltenen Fällen können aber auch Symptome auftreten, die auf einen Schwangerschaftsdiabetes oder eine Schwangerschaftsvergiftung – die sogenannte Präeklampsie – hinweisen. Bei wechselnder Sehschärfe, Flimmern oder Schatten vor den Augen oder bei komplettem Sehverlust sollten Schwangere sofort einen Augenarzt aufsuchen.

Viele Schwangere bekommen bräunliche Flecken um die Augen herum, die zum Nasenrücken auslaufen. Diese Pigmenteinlagerungen sind harmlos und verschwinden nach der Schwangerschaft von selbst. Seltener kommt es zu leichten Einblutungen unter die Bindehaut, die zwar beängstigend aussehen, das Sehvermögen jedoch nicht beinträchtigen.

Trockene Augen und Sehschwäche – auf Kontaktlinsen und Lasern vorerst verzichten
Schwangerschaftshormone können auch die Zusammensetzung der Tränenflüssigkeit verändern. Dadurch trocknen die Augen schneller aus, sind häufig gereizt und brennen. „Während einer Schwangerschaft ist es deshalb ratsam, auf Kontaktlinsen zu verzichten oder Augentropfen mit künstlicher Tränenflüssigkeit zu verwenden“, empfiehlt Privatdozent Dr. med. Thomas Neß von der Klinik für Augenheilkunde am Universitätsklinikum Freiburg. Bei 14 Prozent der werdenden Mütter ändert sich in den Schwangerschaftsmonaten die Brillenstärke – eine Kurzsichtigkeit kann sich um bis zu 1,5 Dioptrien verschlechtern. „Das liegt daran, dass sich Flüssigkeit in der Linse und in der Hornhaut einlagert, die die Brechkraft verändert“, erklärt Neß. Bei den meisten Frauen bilden sich diese Veränderungen laut dem Experten nach der Geburt wieder zurück, sodass der Kauf einer neuen Brille in der Regel nicht lohnt. Aus diesem Grund sollten Schwangere sich auch nicht die Augen lasern lassen – frühestens ein Jahr nach der Geburt ist die Brillenstärke wieder ausreichend stabil dafür.

Wechselnde Sehschärfe – Auf Diabetes untersuchen lassen
Ändert sich die Sehschärfe plötzlich oder mehrmals am Tag, kann das ein Zeichen für einen Schwangerschaftsdiabetes sein – eine Form der Zuckerkrankheit, die erstmals in der Schwangerschaft auftritt: Durch die hormonelle Umstellung kann der Körper Zucker aus der Nahrung nicht so schnell verarbeiten wie vor der Schwangerschaft. Durch die Blutzuckerschwankungen kommt es zu Wassereinlagerungen in der Augenlinse, die die Brechkraft verändern, sodass das scharfe Sehen verloren geht. „Wer solche Anzeichen bei sich bemerkt, sollte unbedingt einen Augenarzt aufsuchen“, rät DOG-Experte Neß. Der Arzt kann mit einer Spiegelung des Augenhintergrundes die Gefäße der Netzhaut untersuchen und diabetesbedingte Veränderungen erkennen, bevor die Stoffwechselerkrankung sich mit anderen Symptomen bemerkbar macht. Erhärtet sich der Verdacht, wird die Patientin an den Hausarzt oder Internisten überwiesen, der sie auf Diabetes hin untersucht. Frauen, die bereits vor der Schwangerschaft einen Diabetes haben, müssen engmaschig überwacht werden, da die diabetesbedingten Veränderungen an der Netzhaut im Laufe der Schwangerschaft behandlungsbedürftig werden können.

Schatten, Flimmern, Sehverlust – Gefahr für Mutter und Kind
Wenn Teile des Gesichtsfelds schwarz werden oder Blitze vor den Augen auftreten, können das Anzeichen einer Präeklampsie sein, einer gefährlichen Schwangerschaftskomplikation, die unter anderem durch einen erhöhten Blutdruck hervorgerufen wird. Bis zu zehn Prozent aller Schwangeren leiden – nicht selten unbemerkt – an Bluthochdruck. „Bei vielen Betroffenen lässt sich der Hochdruck an einer veränderten Netzhaut ablesen“, sagt Neß. „Diese müssen dringend weiter untersucht werden, denn Bluthochdruck kann Mutter und Kind in Gefahr bringen“, betont der Experte. Bei nahezu allen Augenerkrankungen ist eine normale Entbindung möglich. Weder Kurzsichtigkeit noch ein Glaukom, eine vorherige Netzhautablösung oder eine vorherige Augenoperation sind ein Grund für einen Kaiserschnitt.

DOG: Forschung – Lehre – Krankenversorgung
Die DOG ist die medizinisch-wissenschaftliche Fachgesellschaft für Augenheilkunde in Deutschland. Sie vereint unter ihrem Dach mehr als 7.400 Ärzte und Wissenschaftler, die augenheilkundlich forschen, lehren und behandeln. Wesentliches Anliegen der DOG ist es, die Forschung in der Augenheilkunde zu fördern: Sie unterstützt wissenschaftliche Projekte und Studien, veranstaltet Kongresse und gibt wissenschaftliche Fachzeitschriften heraus. Darüber hinaus setzt sich die DOG für den wissenschaftlichen Nachwuchs in der Augenheilkunde ein, indem sie zum Beispiel Stipendien vor allem für junge Forscher vergibt. Gegründet im Jahr 1857 in Heidelberg ist die DOG die älteste augenärztliche Fachgesellschaft der Welt und die älteste fachärztliche Gesellschaft Deutschlands.

Weitere Informationen:
http://www.dog.org

Quelle: idw

(nach oben)


Neue Quallenart im Nord-Ostsee-Kanal

Dr. Andreas Villwock Kommunikation und Medien
GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel

Eine neue Quallenart hat sich im Nord-Ostsee-Kanal etabliert. Die Brackwasser-liebende Blackfordia virginica ist seit Sommer 2016 ein neuer Spieler im dortigen Ökosystem. Das ergab die Auswertung von regelmäßigen biologischen Monitoring-Fahrten der vergangenen zehn Jahre, die Forschende des GEOMAR-Helmholtz-Zentrums für Ozeanforschung Kiel, der Technischen Universität Dänemark und der Universität Kiel jetzt veröffentlich haben. Eine weitere Ausbreitung von Blackfordia virginica in die Ostsee ist demnach wahrscheinlich.

Globale Studien zeigen, dass die Zahl der Arten, die in fremde Ökosysteme einwandern, ständig zunimmt. Zwar können sich bei weitem nicht alle Spezies in den neuen Umgebungen etablieren. Doch die erfolgreichen Bio-Invasoren haben das Potenzial, betroffene Ökosysteme stark zu verändern. Auch in der Ostsee konnten in den vergangenen Jahrzehnten zahlreiche bislang fremde Arten nachgewiesen werden. Ein prominentes Beispiel ist die amerikanische Rippenqualle Mnemiopsis leidyi, auch Meerwalnuss genannt.

Wissenschaftlerinnen und Wissenschaftler des GEOMAR Helmholtz-Zentrums für Ozeanforschung Kiel, der Technischen Universität Dänemark (DTU Aqua) und der Christian-Albrechts-Universität zu Kiel (CAU) haben jetzt bei der Auswertung von regelmäßigen Monitoringfahrten im Nord-Ostsee-Kanal und in der Ostsee eine weitere, für diese Region neue Quallenart entdeckt. Ihr fachlicher Name lautet Blackfordia virginica.

„Unsere Langzeit-Daten zeigen, dass diese Quallen-Art seit dem Sommer 2016 im Nord-Ostsee-Kanal etabliert ist und sich aktiv vermehrt, also einen neuen Bestandteil des Ökosystems bildet“, sagt Dr. Cornelia Jaspers, die als Biologische Ozeanographin am GEOMAR und am Nationalen Institut für Aquatische Ressourcen der DTU in Lyngby arbeitet.

Die Art Blackfordia virginica wurde 1904 erstmals in den Gewässern vor dem US-Bundesstaat Virginia wissenschaftlich beschrieben. Spätere Studien lassen aber vermuten, dass sie ursprünglich aus dem Schwarzen Meer stammt. „Mittlerweile findet sie sich aber auch in Indien, Südamerika und Südafrika. Seit den 1970er Jahren kommt sie in Brackwassergebieten Nord-Frankreichs und seit den 1980er Jahren auch in Portugal vor“, erklärt Dr. Jaspers. „Wir haben es also mit einer Art zu tun, die auf eine lange Erfolgsgeschichte als Eroberer fremder Ökosysteme zurückblicken und dort sehr große Populationsdichten erreichen kann“.

Wie die Quallen in den Nord-Ostsee-Kanal gelangt sind, ist nicht genau nachweisbar. Da der Kanal die am stärksten befahrene künstliche Wasserstraße der Welt ist, haben höchstwahrscheinlich Schiffe die Quallen eingeschleppt. Ballastwasser darf im Kanal allerdings nicht abgepumpt werden. „Deshalb sind die Quallen wohl über Quallenpolypen an Schiffsrümpfen, die Jungquallen, sogenannte Ephyren, ins Wasser abgegeben haben, hier angekommen“, sagt Dr. Jaspers.

Auch außerhalb des Kanals, in der Kieler Förde, konnten die Wissenschaftlerinnen und Wissenschaftler bereits Exemplare nachweisen. Dort gibt es bislang aber keine Belege, dass sich die Art aktiv vermehrt. „Im Rahmen unserer Studie haben wir jedoch gezeigt, dass die Ostsee als Brackwassergebiet einen geradezu idealen Lebensraum für Blackfordia virginica darstellt. Wir erwarten deshalb eine weitere Ausbreitung“, sagt Dr. Jaspers.

Welche Folgen das für die Ostsee haben könnte, ist noch unklar. Aus anderen Regionen ist bekannt, dass Blackfordia virginica eine erhebliche Konkurrenz zu anderen Planktonfressern darstellt. Außerdem kann sie den Nachwuchs von Fischarten beeinträchtigen, weil sie deren Larven frisst. Das könnte letztendlich auch wirtschaftliche Folgen haben.

Unterstützt wurde die Untersuchung von Studierenden des Kieler Master-Studiengangs „Biological Oceanography“, die während ihrer Ausbildungs-Seereise mit dem Forschungsschiff ALKOR im August 2017 mehrere tausend Kubikmeter Wasser von Flensburg bis nach Finnland durchfischt und inspiziert haben.

„Insgesamt zeigt die Entdeckung, wie wichtig regelmäßiges Monitoring der Artenzusammensetzung in küstennahen Gewässern ist, da diese Gebiete besonders starken anthropogenen Einflüssen ausgesetzten sind. Besonders das gelatinöse Plankton, also Quallen, müssen wir dabei noch stärker als bisher berücksichtigen“, betont Dr. Jaspers.
Originalpublikation:

Jaspers, C., B. Huwer, N. Weiland-Bräuer, C. Clemmesen (2018): First record of the non-indigenous jellyfish Blackfordia virginica (Mayer, 1910) in the Baltic Sea. Helgoland Marine Research, https://doi.org/10.1186/s10152-018-0513-7

Weitere Informationen:

http://www.geomar.de Das GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel
http://www.aqua.dtu.dk Das National Institut für Aquatische Ressourcen der DTU
http://www.uni-kiel.de Die Christian-Albrechts-Universität zu Kiel
http://www.metaorganism-research.com Der Sonderforschungsbereich 1182 „Metaorganism“ in Kiel

Quelle: idw

(nach oben)


Forscher aus Mecklenburg-Vorpommern entwickeln effiziente Biogasanlagen

Henning Kraudzun Stab – Wissenschaftsmanagement
Leibniz-Institut für Plasmaforschung und Technologie e.V.

Durch eine innovatives Technologie, die Ultraschall- und Plasmaverfahren vereint, soll der Aufschluss organischer Verbindungen deutlich verbessert und somit die Wirtschaftlichkeit von Biogasanlagen erhöht werden.

Mecklenburg-Vorpommern ist Spitzenreiter bei der Umsetzung der Energiewende. Der Nordosten deckt seinen Primärenergiebedarf bereits zu mehr als einem Drittel aus regenerativen Quellen. Damit diese Entwicklung weiter vorangetrieben wird, muss die Effizienz der Energieerzeugung gesteigert werden, da es immer weniger Ausbaukapazitäten gibt. Während neue Generationen von Windkraftanlagen bereits installiert werden, gewinnt auch die Nachrüstung von Biogasanlagen, mit denen 17 Prozent des Stroms in MV erzeugt werden, eine größere Bedeutung. Mit diesen technischen Fragen beschäftigt sich ein Projekt des Leibniz-Instituts für Plasmaforschung und Technologie (INP), der Universität Rostock und des Unternehmens PRE Power Recycling Energyservice aus Neubrandenburg. Das auf zwei Jahren angelegte Verbundvorhaben wird vom Landesministerium für Wirtschaft, Arbeit und Gesundheit mit einer Million Euro gefördert.

Das Projekt verfolgt das Ziel, die Aufbereitung der Einsatzstoffe – pflanzliche Abfälle, Gülle, Klärschlämme und Bioabfälle – in den Vergärungsprozessen zu verbessern. Bislang werden in herkömmlichen Anlagen nur rund 65 Prozent der schwer abbaubaren organischen Anteile von den Bakterien aufgeschlossen und hauptsächlich zu Methan umgewandelt. Der Rest bleibt ungenutzt. Mittels Ultraschall kann schon ein Teil der zuvor nicht verfügbaren Organik verwertet und zur Energieerzeugung genutzt werden, wie die „Wave-Box“ (s. Abb.) des Forschungspartners PRE bewiesen hat. Diese Erfahrungen bilden die Grundlage des innovativen Geräts „Kombi-Max“, welches Ultraschall- und Plasmaverfahren vereint.

Aus der Synergie beider Technologien erwarten die Projektbeteiligten einen Quantensprung in der Effizienzsteigerung bei der Auflösung organischer Verbindungen. Einen Schwerpunkt bildet die Untersuchung geeigneter Plasmaquellen, die in Verbindung mit Ultraschall zur Prozessoptimierung eingesetzt werden können. Im Fokus der Forscher stehen insbesondere schwer aufzubrechende biomolekulare Verbindungen wie Lignin, aber auch unerwünschte Chemikalien. Gleichzeitig wollen die Wissenschaftler mit dem neuen Verfahren eine Verringerung der Stickstoffemissionen erreichen.

„Wir haben die berechtigte Hoffnung, dass durch den Einsatz beider Technologien der Wirkungsgrad und somit die Wirtschaftlichkeit der Biogasanlagen spürbar erhöht werden kann“, sagt Volker Brüser, Abteilungsleiter für Plasmaprozesstechnik im INP und zugleich Verantwortlicher für ein Teilprojekt von „Kombi-Max“. Dies sei für die Zukunft dieser Energietechnologie von großer Bedeutung. Norbert Rossow, Geschäftsführer von PRE, betont: „Mit unserem Hochleistungs-Ultraschallgerät, der Wave Box, haben wir in der Biomasse-Aufbereitung für Biogasanlagen eine sehr gute Effizienzsteigerung von bis zu 20 Prozent erreicht. Die Kombination beider Aufschluss-Systeme im neuen Gerätetyp wird, wie aus wissenschaftlichen Veröffentlichungen ersichtlich, die Effizienzsteigerung multiplizieren. Hierbei erwarten wir eine deutliche Minderung der eingesetzten Energie, Verdoppelung des Aufschlussgrades und deutliche Verkleinerung der Gerätegröße.“ Aus der Zusammenarbeit des INP mit der PRE Neubrandenburg und den ersten konstruktiven Schritten zu dem neuen Gerät sei bereits ein neues internationales Patent beider Partner entstanden. Im Jahr 2020 sind industrienahe Tests der Demonstrationsanlage geplant.

Wissenschaftliche Ansprechpartner:
Dr. Volker Brüser
Abteilungsleiter Plasmaprozesstechnik
Leibniz-Institut für Plasmaforschung und Technologie (INP)
Tel. +49 3834 5543808
E-Mail: brueser@inp-greifswald.de

Norbert Rossow
Geschäftsführer
PRE Power Recycling Energyservice
Tel. +49 395 7074709
E-Mail: nr@pre-mv.de

Anhang
PM INP 15/08/18 Forscher aus Mecklenburg-Vorpommern entwickeln effiziente Biogasanlagen
https://idw-online.de/de/attachment66333

Quelle: idw

(nach oben)


Wie sich die Gehirne von Aufschiebern und Machern unterscheiden

Dr. Julia Weiler Dezernat Hochschulkommunikation
Ruhr-Universität Bochum

Warum manche Menschen Aufgaben eher vor sich herschieben als sofort zu handeln, haben Forscherinnen und Forscher der Ruhr-Universität Bochum untersucht. Mittels Kernspintomografie identifizierten sie zwei Hirnbereiche, deren Größe und funktionelle Verknüpfung damit zusammenhängt, wie gut eine Person ihre Handlungen kontrollieren kann. Die Ergebnisse berichtet das Team um Caroline Schlüter, Dr. Marlies Pinnow, Prof. Dr. Dr. h. c. Onur Güntürkün und Dr. Erhan Genç von der Arbeitseinheit Biopsychologie in der Zeitschrift Psychological Science vom 17. August 2018.

Zwei Hirnregionen hängen mit Handlungskontrolle zusammen
Die Biopsychologinnen und Biopsychologen untersuchten 264 Frauen und Männer im Kernspintomografen. Sie bestimmten das Volumen einzelner Hirnareale und ihre funktionelle Vernetzung. Außerdem füllten alle Probanden einen Fragebogen aus, mit dem ihre Fähigkeiten zur Handlungskontrolle eingeschätzt wurden.

Menschen mit schlechter Handlungskontrolle hatten eine größere Amygdala. Außerdem war bei ihnen die funktionelle Verbindung zwischen der Amygdala und dem sogenannten dorsalen anterioren cingulären Kortex (dorsaler ACC) weniger stark ausgeprägt. „Die beiden Hirnregionen sind bereits in früheren Studien mit der Steuerung von Handlungen in Verbindung gebracht worden“, sagt Erhan Genç.

Handlungen bewerten und auswählen
Die Funktion der Amygdala ist es vor allem, eine Situation und ihren jeweiligen Ausgang zu beurteilen und uns vor möglichen negativen Konsequenzen einer Handlung zu warnen. Der dorsale ACC nutzt hingegen Informationen über den potenziellen Ausgang einer Handlung, um Handlungen auszuwählen, die in die Tat umgesetzt werden. Er unterdrückt auch konkurrierende Handlungen und Emotionen, sodass eine ausgewählte Handlung erfolgreich abgeschlossen werden kann.

Ist das Zusammenspiel zwischen Amygdala und dorsalem ACC gestört, kann die Handlungskontrolle nicht mehr erfolgreich ausgeführt werden, so die Theorie der Forscherinnen und Forscher. „Menschen mit höherem Amygdala-Volumen könnten eine größere Furcht vor den negativen Konsequenzen einer Handlung haben – sie zögern und schieben Dinge auf“, vermutet Erhan Genç. „Die geringe funktionelle Kopplung zwischen der Amygdala und dem dorsalen ACC könnte diesen Effekt weiter verstärken, indem störende negative Emotionen und Handlungsalternativen unzureichend reguliert werden.“

Trainierbar oder nicht?
Künftige Studien sollen zeigen, ob die unterschiedlich gut ausgeprägte Handlungskontrolle durch spezifische Trainings oder Hirnstimulation verändert werden kann. „Obwohl die individuellen Unterschiede in der Fähigkeit zur Handlungskontrolle einen großen Einfluss auf unseren persönlichen und beruflichen Erfolg sowie unsere psychische und physische Gesundheit haben, sind ihre neuronalen Grundlagen bisher nur wenig erforscht“, sagt Caroline Schlüter, die sich dem Thema in ihrer Promotion widmet.

Förderung
Die Deutsche Forschungsgemeinschaft förderte die Arbeiten im Rahmen der Grants mit den Nummern GU 227/16-1 und GE 2777/2-1 sowie im Rahmen des Sonderforschungsbereichs 1280. Weitere Unterstützung kam vom Mercator Research Center Ruhr durch den Grant An-2015-0044.

Wissenschaftliche Ansprechpartner:
Caroline Schlüter
Arbeitseinheit Biopsychologie
Fakultät für Psychologie
Ruhr-Universität Bochum
Tel.: 0234 32 21775
E-Mail: caroline.schlueter@rub.de

Originalpublikation:
Caroline Schlüter, Christoph Fraenz, Marlies Pinnow, Patrick Friedrich, Onur Güntürkün, and Erhan Genç: The structural and functional signature of action control, in: Psychological Science, 2018, DOI: 10.1177/0956797618779380

Quelle: idw

(nach oben)


Valsartan-Rückruf: Verunreinigte Blutdrucksenker

Pierre König Presse- und Öffentlichkeitsarbeit
Deutsche Herzstiftung e.V./Deutsche Stiftung für Herzforschung

Was müssen Herzpatienten jetzt tun?
Seit Anfang Juli rufen die Aufsichtsbehörden europaweit Blutdrucksenker mit dem Wirkstoff Valsartan zurück. In bestimmten Valsartan-haltigen Präparaten wurde die potenziell gefährliche Verunreinigung N-Nitrosodimethylamin (NDMA) gefunden, eine Substanz die von der internationalen Agentur für Krebsforschung, der Weltgesundheitsorganisation (WHO) und der EU als wahrscheinlich krebserregend für Menschen eingestuft wird. N-Nitrosodimethylamin und andere so genannte Nitrosamine finden sich beispielsweise im Zigarettenrauch und in gepökeltem oder geräuchertem Fleisch. Aktuell sind zahlreiche betroffene Chargen Valsartan-haltiger Arzneimittel vom Markt genommen. Betroffen sind zum jetzigen Zeitpunkt Nachahmerprodukte (Generika) der Originalprodukte. Es ist möglich, dass noch weitere Sartane von der Verunreinigung betroffen sind. Mittlerweile hat sich bestätigt, dass die zurückgerufenen Valsartan-Tabletten bis zu 22 Mikrogramm pro Tablette NDMA enthalten. Konkrete Grenzwerte für die täglich erlaubte Menge von NDMA gibt es nicht. Die mittlere Aufnahme von Nitrosaminen aus Lebensmitteln wird auf insgesamt 0,3 Mikrogramm pro Tag geschätzt. Bei Menschen, die täglich 20 Zigaretten rauchen, kann die Belastung mit Nitrosaminen auf 17 bis 85 Mikrogramm pro Tag ansteigen. Eine aktuelle Übersicht über die mit NDMA verunreinigten Valsartan-haltigen Präparate ist abrufbar unter
http://www.abda.de/amk-nachricht/artikel/online-nachricht-amk-liste-der-chargenbezogenen-rueckrufe-valsartan-haltiger-arzneimittel/ .*

Was können betroffene Patienten tun?
Viele Patienten sind verunsichert. Sie wissen nicht, ob ihr Valsartan-Präparat von der Verunreinigung betroffen ist, auf welches andere Valsartan sie umsteigen können, ob sie es ganz absetzen oder durch ein anderes Sartan ersetzen sollen. „Patienten sollten ihren Hausarzt aufsuchen und um eine Alternative bitten. In der Regel sollten Betroffene auf ein anderes gleichdosiertes Valsartan-Präparat umsteigen, das nicht von der Verunreinigung betroffen ist“, empfiehlt der Kardiologe und Pharmakologe Professor Dr. Thomas Meinertz von der Deutschen Herzstiftung. Spätestens bei der Ausstellung eines neuen Rezepts sollte die Umsetzung auf ein anderes, nicht betroffenes Valsartan oder ein anderes Sartan, beispielsweise Candesartan oder Telmisartan, in gleich effektiver Dosierung erfolgen. „Generell sollten Blutdrucksenker nicht abgesetzt werden“, warnt Meinertz. Ein plötzliches Absetzen blutdrucksenkender Medikamente kann bei Bluthochdruck-Patienten Blutdruckspitzen erzeugen, die Herz und Kreislauf gefährlich belasten können.

Langfristige Folgen wissenschaftlich untersuchen
Ob für Patienten, die über lange Jahre mit NDMA verunreinigtes Valsartan eingenommen haben, die Gefahr besteht an Krebs zu erkranken, muss wissenschaftlich untersucht werden, fordert die Deutsche Herzstiftung. Zum Schutz der Patienten gilt es darüber hinaus, die bisherigen Kontrollmechanismen zu überprüfen. Im Fall der verunreinigten Valsartan-haltigen Präparate hatte die chinesische Hersteller-Firma der europäischen Aufsichtsbehörde (EDQM) gemäß der rechtlichen Bestimmungen gemeldet, den Wirkstoff nach einem veränderten Verfahren zu produzieren. Nach Angaben des Herstellers gab es keinen Hinweis darauf, dass es aufgrund der neuen Synthese zur Verunreinigung mit der potenziell krebserzeugenden Substanz kommen könnte. Auch die Experten der europäischen Aufsichtsbehörde (EDQM) hatten aufgrund der vom Hersteller vorgelegten Unterlagen keinen Verdacht geschöpft. Das deutet auf Lücken im Prüfverfahren hin. „Der Gesetzgeber sollte deshalb die Kontrollen von Generika verstärken, beispielsweise durch Eingangsprüfungen. Eine andere Maßnahme wäre die Einführung bundeseinheitlich verbindlicher Tests durch eine zentrale Bundesbehörde.“

* Quelle: Arzneimittelkommission der Deutschen Apotheker (AMK)

Informationen:
Deutsche Herzstiftung e.V.
Pressestelle:
Michael Wichert /Pierre König
Tel. 069 955128-114/-140
presse@herzstiftung.de
https://www.herzstiftung.de

Weitere Informationen:

https://www.herzstiftung.de
http://www.abda.de/amk-nachricht/artikel/online-nachricht-amk-liste-der-chargenb…

Anhang
Valsartan-Rückruf: Verunreinigte Blutdrucksenker
https://idw-online.de/de/attachmentdata66284.pdf

Quelle: idw

(nach oben)


Bienen brauchen es bunt

Corinna Russow Presse- und Öffentlichkeitsarbeit
Julius-Maximilians-Universität Würzburg

Das Bienensterben aufhalten, ist ein Ziel von Wissenschaftlern. Forscher unter Leitung der Universität Würzburg haben herausgefunden, dass eine vielfältige Pflanzenlandschaft Bienen hilft, stabile Populationen aufrecht zu erhalten.

Bisher vermuteten Wissenschaftler, dass landwirtschaftlich intensiv genutzte Habitate generell schlecht für Bienen sind, da sie dort Pestiziden ausgesetzt sind und nur eine sehr geringe Auswahl an Nahrungsressourcen und Nistmöglichkeiten finden. Auch darauf führte man das weltweite Bienensterben zurück. Bienen können jedoch durchaus in landwirtschaftlich genutzten Flächen gut leben. Voraussetzung ist, dass die Bienen Zugang zu sogenannten Habitatinseln mit hoher Pflanzendiversität haben.

Das zeigten Wissenschaftler der Julius-Maximilians-Universität Würzburg (JMU), zusammen mit anderen deutschen und australischen Forschern nun erstmals in einer Studie. Ihre Ergebnisse veröffentlichten sie in „Scientific Reports“.

Soziale Bienen untersucht
„Tetragonula carbonaria“ heißt die australische, stachellose Bienenart, die die Wissenschaftler über mehr als zwei Jahre untersuchten. „Beispielhaft beobachteten wir an ihr, ob die Fitness und der Fortpflanzungserfolg sozialer Bienen von der sie umgebenden Diversität der Pflanzen und der damit verbundenen Qualität der Nahrungsressourcen abhängt“, sagt Dr. Sara Leonhardt, die Leiterin der Studie an der JMU. Zu sozialen Bienen gehören unter anderen Honigbienen und stachellose Bienen. Sie sind für einen Großteil der weltweiten Bestäubungsleistung verantwortlich.

Für die Studie installierten die Wissenschaftler Bienenkolonien in drei verschiedenen Habitaten. „Wir wählten naturbelassene Wälder, urbane Gärten und landwirtschaftlich intensiv genutzte Macadamia-Plantagen und beobachteten das Wachstum und die Produktion von Arbeiterinnen, Königinnen und neuen Kolonien“, sagt Dr. Benjamin Kaluza, der Erstautor der Studie. Außerdem analysierten sie die Nahrungsqualität des gesammelten Pollens und Honigs und kartierten die Pflanzendiversität in diesen Habitaten.

Rückgang der Biodiversität als Ursache für das Bienensterben
Das Ergebnis: Die Lebensqualität der Bienen war in Gärten und artenreichen Wäldern am höchsten und in Plantagen am geringsten. Nehme die Pflanzenvielfalt in der Umgebung ab, produzieren die Bienen weniger Nachkommen, folglich schrumpfen die Kolonien. „Bienen brauchen Diversität“, sagt Kaluza. „Nur in Landschaften mit hohem Pflanzenarten-Reichtum finden sie kontinuierlich ausreichend ausgewogene und qualitativ hochwertige Nahrung und andere Ressourcen.“

Laut Leonhardt ist dieser Effekt bereits sichtbar, wenn die Bienen auch nur kleine Habitatinseln mit hoher Blütendiversität in Flugdistanz haben. „Denn dann können sie sowohl den negativen Einfluss von Pestiziden als auch von Monokulturen kompensieren“, sagt sie und ergänzt: „Dieses Ergebnis bedeutet, der weltweite massive Rückgang der Biodiversität könnte eine Hauptursache für das Bienensterben sein.“

Die Folgen ihrer Erkenntnisse: „Wir erhoffen uns jetzt natürlich verstärkten Schutz und Re-etablierung biodiverser Habitate, vor allem in landwirtschaftlich stark genutzten Regionen, wie zum Beispiel Plantagen“, sagt Kaluza.

Zusammenarbeit mit anderen Forschern
Die Forschung wurde finanziell von der Deutschen Forschungsgemeinschaft unterstützt. Beteiligt waren Professorin Helen Wallace von der University of the Sunshine Coast (Australien), Dr. Tim Heard, Bienenberater aus Brisbane (Australien), Dr. Vanessa Minden von der Universität Oldenburg und Professorin Alexandra-Maria Klein von der Universität Freiburg. In weiteren Forschungen wollen Sara Leonhardt und ihr Team nun untersuchen, wie genau die Bienen ihre Ressourcen finden und wie sie von den unterschiedlichen Ressourcen profitieren.
Wissenschaftliche Ansprechpartner:

Dr. Sara Leonhardt, Zoologie III,sara.leonhardt@uni-wuerzburg.de, T.: +49 931 31-80168

Originalpublikation:
Social bees are fitter in more biodiverse environments, Benjamin F. Kaluza, Helen M. Wallace, Tim A. Heard, Vanessa Minden, Alexandra Klein, Sara D. Leonhardt, DOI: 10.1038/s41598-018-30126-0, https://rdcu.be/4FDx

Quelle: idw

(nach oben)


Neue Ausgabe forscher – Das Magazin für Neugierige erklärt Kindern den Roboter

Luise Wunderlich Wissenschaftsjahr 2018 – Arbeitswelten der Zukunft
Wissenschaftsjahr 2018 – Arbeitswelten der Zukunft

Die neue Ausgabe der Kinder- und Jugendzeitschrift „forscher“ ist ab sofort kostenfrei erhältlich – Magazin für Neugierige erklärt Kindern den Roboter

Es sind knifflige Fragen, die im neuen „forscher – Das Magazin für Neugierige“ unter die Lupe genommen werden. Mit der aktuellen Ausgabe der Kinder- und Jugendzeitschrift, die sich an junge Leserinnen und Leser zwischen acht und zwölf Jahren richtet, können diese jedoch im Handumdrehen beantwortet werden. Passend zum Wissenschaftsjahr 2018 dreht sich auch in dieser Ausgabe fast alles um die Arbeitswelten der Zukunft.

Welche Technik steckt eigentlich in Robotern? Und wie funktionieren diese menschenähnlichen Maschinen? Auf diese und viele weitere spannende Fragen unter anderem zu modernen Technologien und den Arbeitswelten von heute, morgen und übermorgen gibt das Magazin interessante Antworten. „forscher“ wird vom Bundesministerium für Bildung und Forschung herausgegeben. Die neue Ausgabe ist ab sofort kostenfrei erhältlich.

Die preisgekrönte Zeitschrift bereitet die Themen in vielfältigen Formaten altersgerecht auf – von Reportagen über Illustrationen bis hin zu einer Bauanleitung für einen Mini-Roboter. So zeigt die Titelgeschichte „Hallo, Roboter!“, wie automatische Maschinen funktionieren, die den Menschen eines Tages zum Beispiel in der Lehre oder in der Pflege unterstützen können. Im Interview mit Biologieprofessor Till Roenneberg dreht sich alles um die Innere Uhr des Menschen. Ein weiterer Artikel erklärt anschaulich, wie es Computerfachleuten gelingt, Maschinen mit künstlicher Intelligenz auszustatten.

Warum interessieren sich Forscherinnen und Forscher für den Tastsinn des Elefantenrüsselfisches? Welche Tiere helfen dem Menschen schon seit Jahrtausenden bei der Arbeit? Auch auf diese Fragen findet „forscher – Das Magazin für Neugierige“ faszinierende Antworten, die die jungen Leserinnen und Leser begeistern werden.

Das Kinder- und Jugendmagazin erscheint zweimal jährlich mit einer Auflage von rund 250.000 Exemplaren und wird von mehr als 1.300 Vertriebspartnern kostenfrei verteilt, darunter Schulen, Unternehmen, Vereine, Jugendherbergen und Museen. „forscher – Das Magazin für Neugierige“ ist Träger des begehrten Best of Content Marketing Award (Kategorie: Customer-Print-Magazine B2C, Non-Profit/Verbände/Institutionen).

Die neue Ausgabe ist ab sofort kostenfrei erhältlich unter http://www.forscher-online.de/bestellen, telefonisch unter +49 30 182722721 (14 Cent/Min. aus dem deutschen Festnetz, Mobilfunk max. 42 Cent/Min.) oder per E-Mail (obligatorisch ab 100 Exemplaren) an vertrieb@forscher-online.de.

Weitere Informationen:
https://www.wissenschaftsjahr.de/ | http://www.forscher-online.de/

Wissenschaftsjahr 2018 – Arbeitswelten der Zukunft
Das Wissenschaftsjahr 2018 widmet sich dem Thema Arbeitswelten der Zukunft. Durch die Digitalisierung, alternative Arbeitsmodelle und die Entwicklung künstlicher Intelligenz stehen Forschung und Zivilgesellschaft vor neuen Chancen und Herausforderungen: Wie werden die Menschen in Zukunft arbeiten? Wie machen sie sich fit dafür? Und welche Rolle spielen Wissenschaft und Forschung bei der Gestaltung eben dieser neuen Arbeitswelten? Das Wissenschaftsjahr 2018 zeigt, welchen Einfluss soziale und technische Innovationen auf die Arbeitswelten von morgen haben – und wie diese nicht nur den Arbeitsalltag verändern, sondern auch neue Maßstäbe im gesellschaftspolitischen Dialog setzen. „Erleben. Erlernen. Gestalten.“ – unter diesem Motto werden Bürgerinnen und Bürger im Wissenschaftsjahr 2018 dazu aufgerufen mitzumachen, Fragen zu stellen und gemeinsam Lösungsansätze zu finden.

Die Wissenschaftsjahre sind eine Initiative des Bundesministeriums für Bildung und Forschung (BMBF) gemein-sam mit Wissenschaft im Dialog (WiD). Sie tragen als zentrales Instrument der Wissenschaftskommunikation Forschung in die Öffentlichkeit und unterstützen den Dialog zwischen Forschung und Gesellschaft.

Weitere Informationen:
https://www.wissenschaftsjahr.de
https://www.facebook.com/wissenschaftsjahr
https://www.youtube.com/user/wissenschaftsjahr
https://twitter.com/w_jahr

Anhang
Neue Ausgabe „forscher – Das Magazin für Neugierige“
https://idw-online.de/de/attachment66273

Quelle: idw

(nach oben)


Scharfstoff aus Ingwer mindert üblen Atem

Dr. Ulrich Marsch Corporate Communications Center
Technische Universität München

Der im Ingwer enthaltene Scharfstoff 6-Gingerol stimuliert ein Speichelenzym, das übelriechende Substanzen abbaut. Es sorgt damit für frischen Atem und einen besseren Nachgeschmack. Zitronensäure erhöht dagegen den Natriumionen-Gehalt im Speichel, sodass Salziges weniger salzig wirkt. Um mehr über Lebensmittelinhaltsstoffe herauszufinden, untersuchte ein Team der Technischen Universität München (TUM) und des Leibniz-Instituts für Lebensmittel-Systembiologie deren Effekte auf die im Speichel gelösten Moleküle.

Viele Lebensmittelinhaltsstoffe tragen direkt durch ihren Eigengeschmack, ihren Duft oder ihre Schärfe zum typischen Geschmack von Speisen und Getränken bei. Sie beeinflussen aber auch indirekt über andere, noch weitgehend unbekannte biochemische Mechanismen unser Geschmacksempfinden. Dies hat ein Team um Professor Thomas Hofmann vom Lehrstuhl für Lebensmittelchemie und Molekulare Sensorik nun genauer erforscht.

6-Gingerol sorgt für frischen Atem
Wie die Ergebnisse dieser Untersuchung zeigen, lässt das im Ingwer enthaltene, scharf schmeckende 6-Gingerol innerhalb weniger Sekunden den Spiegel des Enzyms Sulfhydryl-Oxidase 1 im Speichel um das 16-fache ansteigen. Die an jeweils vier Frauen und Männern durchgeführten Speichel- und Atemluftanalysen belegen, dass das Enzym übelriechende schwefelhaltige Verbindungen abbaut. Auf diese Weise ist es in der Lage, den lang anhaltenden Nachgeschmack vieler Lebensmittel wie Kaffee zu vermindern. „Auch unser Atem riecht dadurch besser“, erklärt Studienleiter Prof. Hofmann, Direktor des Leibniz-Instituts für Lebensmittelsystembiologie an der TUM. Der entdeckte Mechanismus könne zukünftig dazu beitragen, neue Mundpflegemittel zu entwickeln.

Zitronensäure mindert unser Salzempfinden
Zitronensäure beeinflusst dagegen laut der Studie unsere Geschmackswahrnehmung über einen ganz anderen Mechanismus. Wie jeder aus eigener Erfahrung weiß, stimulieren saure Lebensmittel wie zum Beispiel der Saft von Zitronen den Speichelfluss. Proportional zur Speichelmenge erhöht sich dabei auch die Menge der im Speichel gelösten Mineralstoffe.

Laut Prof. Hofmann steigt der Natriumionen-Spiegel nach der Stimulation mit Zitronensäure rasch um das etwa Elffache an. Dieser Effekt lässt uns dann weniger sensitiv auf Kochsalz reagieren. Der Lebensmittelchemiker erklärt dies so: „Kochsalz ist nichts anderes als Natriumchlorid, wobei die Natriumionen beim Menschen für den Salzgeschmack verantwortlich sind. Enthält der Speichel bereits höhere Konzentrationen an Natriumionen, müssen verkostete Proben einen deutlich höheren Salzgehalt aufweisen, um sie vergleichsweise salzig zu empfinden.“

Hofmann sieht noch viel Forschungsbedarf, um das komplexe Zusammenspiel zwischen den geschmacksgebenden Molekülsystemen in Lebensmitteln, den biochemischen Prozessen, die im Speichel ablaufen, und unserem Geschmacksempfinden zu verstehen. Mittels eines systembiologischen Ansatzes verfolgt Hofmann das Ziel, eine neue wissenschaftliche Basis für die Produktion von Lebensmitteln zu entwickeln, deren Inhaltsstoff- und Funktionsprofile an den gesundheitlichen und sensorischen Bedürfnissen der Verbraucherinnen und Verbraucher ausgerichtet sind. Hierfür kombinieren er und sein Team Methoden der biomolekularen Grundlagenforschung mit analytischen Hochleistungstechnologien und Methoden der Bioinformatik.

Wissenschaftliche Ansprechpartner:
Prof. Thomas Hofmann
Lehrstuhl für Lebensmittelchemie und molekulare Sensorik
Leibniz-Institut für Lebensmittel-Systembiologie an der TUM
E-Mail: thomas.hofmann@tum.de
Telefon +49 (89) 289 – 22201 oder
Telefon 2: +49 (8161) 71-2902

Originalpublikation:
Chemosensate-Induced Modulation of the Salivary Proteome and Metabolome Alters the Sensory Perception of Salt Taste and Odor-Active Thiols. Bader M, Stolle T, Jennerwein M, Hauck J, Sahin B, Hofmann T. J Agric Food Chem. 2018 Jul 13. doi: 10.1021/acs.jafc.8b02772.

Quelle: idw

(nach oben)


Im europäischen Vergleich werden Pkw in Deutschland gering besteuert

Renate Bogdanovic Pressestelle
Deutsches Institut für Wirtschaftsforschung DIW Berlin

Reform der Fahrzeug- und Kraftstoffbesteuerung ratsam – Bei einem systematischen Europa-Vergleich aller Abgaben auf Pkw belegt Deutschland einen Platz im unteren Drittel – Pkw-Abgaben sind hierzulande weder fiskalisch ausreichend ergiebig, noch setzen sie hinlänglich Anreize für einen weniger umweltbelastenden Pkw-Verkehr

Deutschland sollte die Besteuerung von Personenkraftwagen und Kraftstoffen reformieren, Priorität sollte dabei die schrittweise Erhöhung der Dieselsteuer haben. Zu diesem Schluss kommt Uwe Kunert, Verkehrsökonom am Deutschen Institut für Wirtschaftsforschung (DIW Berlin).

Kunert hat das Abgabensystem für Pkw in 30 europäischen Ländern (EU-28, Norwegen und Schweiz) in einer neuen Studie systematisch analysiert und verglichen. „Es zeigt sich eine sehr variantenreiche Gestaltung der Steuersysteme, mit vielfältigen Bemessungsgrundlagen und im Ergebnis recht unterschiedlicher Steuerlast“, fasst Uwe Kunert das Ergebnis zusammen. Die Summe der Abgaben, die beim Erwerb (Umsatzsteuer, Zulassungssteuer und -gebühren), bei der Haltung (Kfz-Steuer, Versicherungssteuer) sowie bei der Nutzung (Steuern auf Kraftstoffe) für einen Mittelklassewagen im Erstgebrauch mit einer jährlichen Fahrleistung von 15.000 Kilometern anfallen, liegen für die Mehrzahl der Länder zwischen 1.200 und 2.000 Euro. Für die Länder mit noch höheren Abgaben ist die Zulassungssteuer – die in Deutschland nicht existiert – ausschlaggebend. Zudem ergibt diese Beispielrechnung unter dem Strich in 26 Ländern eine geringere Abgabenbelastung für Pkw mit Dieselmotor als für die mit Ottomotor. Unter den untersuchten Ländern erheben nur die osteuropäischen EU-Länder, die baltischen Länder sowie die Schweiz und Luxemburg geringere Steuern auf Pkw-Besitz und -nutzung als Deutschland. Berücksichtigt man die Kaufkraftparität in den jeweiligen Ländern, liegt Deutschland zusammen mit Luxemburg und der Schweiz ganz am Ende der Skala.

„Zumindest was die Steuern angeht, kosten Autobesitz und -nutzung in Deutschland deutlich weniger als in den meisten Nachbarländern“, kommentiert Uwe Kunert. „Die verschiedenen Abgaben sind zudem für den Staat fiskalisch nicht ergiebig. Gleichzeitig werden offensichtlich nicht ausreichend Anreize für weniger umweltschädliche Technologien gesetzt, denn die CO2-Emissionen im Verkehrssektor steigen und die Luftqualität – vor allem in Städten – ist unzureichend. Das Abgabensystem ist dringend reformbedürftig.“

Energiesteuer und Kfz-Steuer reformieren
Priorität sollte dabei eine schrittweise Angleichung des Steuersatzes auf Dieselkraftstoff auf das Niveau von Vergaserkraftstoff haben, so Kunert. In Deutschland wird wie in den meisten europäischen Ländern die Dieseltechnologie mit einem niedrigeren Satz der Energiesteuer, die auf jeden Liter verbrauchten Kraftstoffs entfällt, stark begünstigt (47 Cent für Diesel und 65,5 Cent für Benzin). Das hat Dieselfahrzeugen zu einem stattlichen Marktanteil verholfen.

In einem weiteren Reformschritt sollten beide Steuersätze angehoben werden. Die Energiesteuer, die auf jeden verbrauchten Liter Kraftstoff entfällt, wurde hierzulande seit dem Jahr 2003 nicht mehr erhöht. Dagegen haben seit dem Jahr 2009 die meisten der untersuchten Länder ihren Steuersatz für Benzin und für Diesel angehoben. Hieraus erzielte Mehreinnahmen sollte der Fiskus zum Beispiel durch die Senkung anderer Steuern, die nicht am Umweltverbrauch ansetzen, ausgleichen.

Ein dritter Reformansatz ist die Bemessungsgrundlage der Kfz-Steuer. Der Pkw-Bestand ist seit dem Jahr 2008 um etwa 13 Prozent gewachsen. Dennoch stagnieren die Einnahmen aus der Kfz-Steuer, weil sie sich am Hubraum der Fahrzeuge und an offiziellen Angaben von CO2-Emissionswerten orientieren. Sowohl Hubraum als auch angegebene CO2-Emissionen sinken. Dabei liegen die offiziellen Angaben zu den Emissionen weitaus niedriger als die tatsächlich emittierten Mengen. „Die Basis für die Kfz-Steuer erodiert, und das Aufkommen der Steuer reflektiert keinesfalls die Tatsache, dass immer mehr Autos auf den deutschen Straßen sind. Als alternative Bemessungsgrundlagen würden sich stattdessen das Gewicht oder die Motorleistung eignen“, so Uwe Kunert. „Beide Größen sind objektiv messbar, beide stehen im Zusammenhang mit Umweltaspekten, und beide steigen kontinuierlich.“

Weitere Informationen:
http://www.diw.de

Quelle: idw

(nach oben)


Leuphana Wissenschaftler warnt: Abwasserreinigung steht vor großen Problemen

Henning Zuehlsdorff Pressestelle
Leuphana Universität Lüneburg

Für Chemiker Prof. Dr. Klaus Kümmerer und seine Kollegen von der Leuphana Universität Lüneburg steht fest: Chemische Substanzen müssen künftig in der Umwelt schnell unschädlich werden, sonst steht die Abwasserreinigung vor fast unlösbaren Problemen.

Lüneburg. Chemische Stoffe gelangen über eine Vielzahl von Konsumartikeln oder Arzneimitteln in das Abwasser. Künftig muss schon bei ihrer Herstellung viel stärker darauf geachtet werden, diesen Eintrag frühzeitig zu verringern, sonst kann eine wirkungsvolle Abwasserreinigung nicht mehr sichergestellt werden. In einem jetzt in der renommierten Wissenschaftszeitschrift Science erschienenen Beitrag beschreibt der Chemiker Professor Dr. Klaus Kümmerer von der Leuphana Universität Lüneburg zusammen mit Kollegen die aktuellen Probleme der Abwasserreinigung und Trinkwasseraufbereitung. Für die Forscher ist klar: Chemische Substanzen müssen künftig in der Umwelt schnell unschädlich werden, sonst steht die Abwasserreinigung vor fast unlösbaren Problemen.

Chemikalien sind aus dem modernen Leben nicht wegzudenken, sichern sie doch Wohlstand, Gesundheit und Lebensqualität. Viele chemische Stoffe bereiten aber auch Probleme, weil sie in den Wasserkreislauf und über diesen auch in die Nahrungskette gelangen. Schon heute stößt die Abwasserreinigung an ihre Grenzen, wenn es darum geht, alle kritischen Stoffe zu entfernen. Immer aufwendigere Verfahren werden dafür benötigt. Dadurch steigen die Kosten und auch der Einsatz zusätzlicher Chemikalien wird erforderlich. Trotzdem wird das Wasser nicht immer sauber, manchmal sogar zusätzlich verschmutzt.

Ein weiteres Problem ergibt sich aus dem Klimawandel: Starkregenereignisse und in deren Folge Überschwemmungen können Kläranlagen beschädigen. Der Großteil des Wassers gelangt dann an der Kläranlage vorbei ungereinigt in die Oberflächengewässer. Das führt zu weiteren Gefahren für das Grundwasser. Hinzu kommt, dass in 80 Prozent der Länder dieser Erde überhaupt keine Abwasserreinigungsanlagen existieren.

„Wir müssen viel größeren Wert darauf legen, dass kritische chemische Stoffe gar nicht erst ins Abwasser gelangen. Wo dies unvermeidlich ist, müssen chemische Stoffe und Arzneimittel von Anfang an so designt werden, dass sie in der Umwelt keinen Schaden anrichten“, ist Kümmerer überzeugt. Es sei viel effektiver, die Verschmutzung der Umwelt schon an der Quelle zu bekämpfen, als immer aufwendigere Reinigungsverfahren zu entwickeln. Für die Industrie bedeute dies, die Anzahl der verwendeten Chemikalien in den Produkten zu reduzieren, nicht-abbaubare durch abbaubare Stoffe zu ersetzen und unterschiedliche Abwässer möglichst getrennt zu halten, um sie leichter und besser reinigen zu können.

Aus Produktionsabwässern lassen sich auch Stoffe zurückgewinnen und erneut verwenden, wie etwa Salz oder Farbstoffe bei der Textilfärbung. Mikroplastik, das in der Kosmetik-Industrie häufig eingesetzt wird und große Probleme in der Umwelt verursacht, kann durch ungefährliche Materialien problemlos ersetzt werden. In der aktuellen Diskussion um die Vermeidung problematischer Abwässer besteht ein aussichtsreicher Ansatz darin, die Funktion chemischer Substanzen für den Produktionsprozess und im Produkt genau zu analysieren und nach nicht-chemischen Alternativen zu suchen, die den gleichen Zweck erfüllen.

„Wir werden weiter Chemikalien und Arzneimittel benötigen. Der beste Weg, das Problem der damit einhergehenden Umweltverunreinigung zu lösen, lautet aber ‚benign by design'“, ist sich Kümmerer sicher. „Wir müssen dahin kommen, chemische Stoffe so zu gestalten, dass sie in der Umwelt schnell und vollständig wieder abgebaut werden können“, sagt der Experte für nachhaltige Chemie. Damit das künftig besser zum Tragen kommen könne, benötige man neben guten Anreizsystemen auch eine entsprechende Regulierung, eine bessere Innovationskultur und ein Bewußtsein dafür, dass mit neuen, serviceorientierten Geschäftsmodellen und umweltverträglicheren Stoffen auch Geld verdient werden kann.

Quelle: idw

(nach oben)


Stillen in Deutschland aus wissenschaftlicher Sicht

Dr. Suzan Fiack Presse- und Öffentlichkeitsarbeit
Bundesinstitut für Risikobewertung (BfR)

Themenheft des Bundesgesundheitsblattes erschienen

Ist Stillen wirklich besser? Über diese Frage wird seit Jahrzehnten intensiv diskutiert, wobei die Debatten oft kontrovers und emotional aufgeladen geführt werden. Stillen ist mehr als die Ernährung des Babys. Sowohl bei Kindern als auch bei Müttern geht Stillen mit körperlichen und psychischen Veränderungen einher. Die Herausforderung für die Forschung: Welche unterschiedlichen Effekte hat das Stillen für Mutter und Kind? Das neu erschienene Heft gibt einen wissenschaftlichen Überblick über das Thema „Stillen in Deutschland“ und widmet sich insbesondere der Verbreitung des Stillens, dem Nutzen und möglichen Risiken des Stillens sowie Maßnahmen zur Stillförderung. Das Fazit: Die positiven Effekte des Stillens für Kind und Mutter sind klar belegt. Das Themenheft wurde mit Unterstützung der Nationalen Stillkommission (NSK) am Bundesinstitut für Risikobewertung (BfR) erstellt und umgesetzt. Das Heft kann abgerufen werden über:
https://link.springer.com/journal/103/61/8/page/1

Muttermilch ist ein komplexes Getränk mit vielen Inhaltsstoffen, das in Millionen von Jahren der Evolution entwickelt und optimiert wurde. Aus Sicht der Wissenschaft ist es jedoch eine Herausforderung, die Wirkung des Stillens auf Mutter und Kind genauer zu bestimmen. Kontrollierte Studien zu diesem Thema sind schwer umsetzbar, oft fehlt es auch an langfristigen Daten. Hinzu kommt: In Deutschland gibt es derzeit kein flächendeckendes nationales Stillmonitoring. Stillhäufigkeit und Stilldauer können auf Basis der vorhandenen Daten bislang nicht nach einheitlichen wissenschaftlichen Kriterien bestimmt werden.

Die Autorinnen und Autoren des Themenhefts greifen diese methodologischen Schwierigkeiten auf und stellen Konzepte zur systematischen Datenerhebung in Deutschland vor. In einem Artikel werden erstmals aktuelle Daten zum Stillen aus der Studie zur Gesundheit von Kindern und Jugendlichen in Deutschland (KiGGS) veröffentlicht, während ein anderer Beitrag Stillquoten und Stillförderung in ausgewählten Ländern in Europa vergleicht. Zwei weitere Artikel beschreiben kurz- und langfristig positive Effekte für das Kind bzw. die Mutter, wenn entsprechend der Empfehlung vier bis sechs Monate ausschließlich gestillt wird. In diesem Fall haben Säuglinge ein geringeres Risiko für Atemwegsinfekte und erkranken seltener an Übergewicht und Diabetes mellitus Typ 2. Allerdings können sich durch Fremdstoffe und Krankheitserreger auch Risiken für den Säugling ergeben. Diese erläutern Forscherinnen und Forscher der Berliner Charité und des BfR in einem gemeinsamen Beitrag. Hier der Link:
https://link.springer.com/article/10.1007/s00103-018-2764-5

Zudem stellen Fachleute Handlungsfelder zur Stillförderung vor. In einer Studie des Bundesinstituts für Risikobewertung zur öffentlichen Wahrnehmung des Stillens in Deutschland nannte jede zehnte Mutter, die bereits abgestillt hatte, die ablehnende Haltung in der Öffentlichkeit als einen Grund für das Abstillen. Hier der Link:
https://link.springer.com/article/10.1007/s00103-018-2785-0

Über die Nationale Stillkommission am BfR
Die Nationale Stillkommission wurde 1994 mit dem Ziel gegründet, die Entwicklung einer neuen Stillkultur in der Bundesrepublik Deutschland zu unterstützen und dazu beizutragen, dass Stillen zur normalen Ernährung für Säuglinge wird. Der Kommission gehören Mitglieder aus medizinischen Berufsverbänden und Organisationen an, die sich für die Förderung des Stillens in Deutschland einsetzen. Weitere Informationen zur Arbeit der Nationalen Stillkommission sind auf der folgenden Website veröffentlicht:
https://www.bfr.bund.de/de/nationale_stillkommission-2404.html

Über das BfR
Das Bundesinstitut für Risikobewertung (BfR) ist eine wissenschaftlich unabhängige Einrichtung im Geschäftsbereich des Bundesministeriums für Ernährung und Landwirtschaft (BMEL). Es berät die Bundesregierung und die Bundesländer zu Fragen der Lebensmittel-, Chemikalien- und Produktsicherheit. Das BfR betreibt eigene Forschung zu Themen, die in engem Zusammenhang mit seinen Bewertungsaufgaben stehen.

Quelle: idw

(nach oben)


Sauber durch Sonnenkraft

Britta Widmann Kommunikation
Fraunhofer-Gesellschaft

In Verbindung mit den richtigen Materialien können Sonnenstrahlen Wunder wirken: Sie reinigen Gebäudefassaden, zersetzen Schadstoffe aus der Luft oder im Wasser. Photokatalyse heißt das Zauberwort. Doch die Wirksamkeit dieses »Wundermittels« in der Praxis schwankt stark, je nach eingesetztem Material und Umwelteinflüssen. Mit einem neuen Messgerät wollen Forscher jetzt die photokatalytische Wirksamkeit von Oberflächen genauer und schneller bestimmen und damit die Effizienz erhöhen.

Fahrverbote, Dieselnachrüstung oder blaue Plakette – es wird derzeit viel diskutiert, wie sich die Stickoxid- und Feinstaubbelastung in Städten reduzieren lassen. Wie praktisch wäre es, wenn Häuserfassaden und Dächer die Stadtluft einfach nebenbei reinigen würden? Und wenn sich Gebäude gleich selbst von Schmutz befreien könnten? Die gute Nachricht ist: Mit Photokatalyse ist das bereits möglich. Mischt man Baumaterialien einen sogenannten Katalysator wie zum Beispiel Titandioxid (TiO2) bei, löst Sonnenlicht in Verbindung mit Sauerstoff eine chemische Reaktion aus. Das Titandioxid bildet dabei reaktive Substanzen, die Schmutz und Schadstoffe abbauen. Ob Beton, Glas oder Fassadenfarbe, fast jedes Material kann man photokatalytisch aufrüsten.

Doch es gibt gleich mehrere Haken: Je nach Trägermaterial, Oberflächenstruktur und Umwelteinflüssen schwankt die photokatalytische Effizienz in Abhängigkeit von Schadstoff und Produkt um bis zu 100 Prozent und mehr. Die Wirksamkeit ist auch eine Frage der richtigen Mischung: Beschichtet man nur die Oberfläche, wäscht sich der Katalysator schnell ab oder erodiert. Mischt man ihn ins Material, ist ein Großteil nicht wirksam. Das Optimum ist noch nicht gefunden. Auch das Langzeitverhalten und die Stabilität solcher Baumaterialien lassen sich außerhalb des Labors nur schwer vorhersagen.

Erschwerend kommt hinzu, dass es eine hohe Diskrepanz zwischen den im Labor erreichbaren Wirksamkeiten und den draußen im praktischen Einsatz erzielten gibt. All dies ist bislang kaum untersucht worden. Ein besseres Verständnis dieser Zusammenhänge strebten die elf Partner im Verbundprojekt PureBau an. Ihr Ziel war es, die Effizienz von Materialverbindungen zu steigern, so dass bessere photokatalytisch wirksame Baustoffe entwickelt werden können.

Ein neues Werkzeug für effiziente Forschung
Als einer der Partner arbeitet das Fraunhofer-Institut für Schicht- und Oberflächentechnik IST in Braunschweig an einem Messverfahren, das genau das ermöglicht. »Die bisherige Erforschung und Entwicklung von photokatalytisch aktiven Baumaterialen lief mangels eines geeigneten Messverfahrens oft nach dem Versuch-Irrtum-Prinzip. Zudem war es schlichtweg noch nicht möglich, zuverlässige Messungen im Feld durchzuführen. Zwar lassen sich Effekte anhand von Simulation berechnen, doch dies ist aufwändig und zudem noch wenig verbreitet«, sagt Dipl.-Ing. (FH) Frank Neumann, Leiter Arbeitsgruppe Photokatalyse am Fraunhofer IST.

Neumann und seine Mitarbeiter hatten bereits ein Verfahren patentiert, um die photokatalytische Selbstreinigung von Produkten schnell und reproduzierbar im Labormaßstab zu messen. Damit lässt sich bestimmen, wie schnell ein Material mit einem bestimmten Katalysator zum Beispiel eine Fassade oder ein Ziegeldach reinigt. Das Grundprinzip: Ein lumineszierender Farbstoff wird auf eine Oberfläche aufgedampft und dann gemessen, wie schnell er unter Lichteinfluss verblasst. Zusammen mit den Parametern Dicke der Farbschicht und Lichtintensität lässt sich daraus der Wirkungsgrad ermitteln.

Vom Labor ins Feld
Die Herausforderung war nun, dieses Prinzip auf ein portables Gerät zu übertragen, das ohne Vakuumbedingungen funktioniert, und die Messung gleichzeitig deutlich zu beschleunigen. Die Forscher erreichten das in Zusammenarbeit mit dem Institut für Hochfrequenztechnik (IHF) der TU Braunschweig in zwei Schritten: Da die bislang im Labor verwendete Farbstoffsynthese im Feld zu viele ungewünschte chemische Reaktionen zeigte, mussten sie neue Farbstoffe finden. Zum Einsatz kamen Farbstoffe mit Europium-Metallkomplexen, wie sie auch in OLEDs angewendet werden. Zudem funktionierte das bisherige Verfahren des Aufdampfens für den mobilen Zweck nicht mehr. »Stattdessen transferierten wir die Farbstoffe in einer Mono-Lage auf eine polymere Trägerfolie und verbanden beides chemisch durch sogenannte Ankergruppen «, erklärt Neumann. Die Trägerfolie hat die Vorteile, dass sie sich jeder Oberfläche gut anpasst, chemische Reaktionen mit dem Material minimiert und durch Messungen direkt an Fassaden entstehende Schäden (z.B. durch Farbauftrag) vermeidet. Die Beschichtung mit einer einzelnen Lage Farbstoff gewährleistet die Reproduzierbarkeit des Verfahrens.

Im nächsten Schritt wurde zusammen mit der Firma Omicron Laserage Laserprodukte GmbH ein Demonstrator einer mobilen Messpistole entwickelt. In einen Bajonettverschluss wird dort die Folie mit der Farbbeschichtung eingespannt und auf die zu prüfende Oberfläche gepresst. Das Gerät misst dann das Abklingen der Lumineszenz durch den UV-Einfluss und bestimmt darüber die photokatalytische Wirksamkeit – sowohl qualitativ als auch quantitativ durch den Effizienzgrad. Die Messdauer hat sich bei diesem Prozedere im Vergleich zu einschlägigen Normprüfverfahren von zum Teil drei Stunden auf etwa 15 Minuten reduziert.

Neumann ist zuversichtlich, dass die Messlösung in ein bis zwei Jahren marktreif sein könnte. Interessant wäre dies dann für Baustoffhersteller, Beschichtungsexperten und Messdienstleister, aber auch für Anwender: »Vor allem die Qualitätskontrolle derzeit eingesetzter Produkte wäre damit erstmals vor Ort möglich, aber auch die Entwicklung wirksamer photokatalytischer Materialien ließe sich so beschleunigen«. Langfristig könnte dies wiederum die weitreichende Selbstreinigung von Fassaden, Dächern und Verkehrswegen fördern und für ein besseres Klima in unseren Städten sorgen.

Wissenschaftliche Ansprechpartner:
https://www.fraunhofer.de/de/presse/presseinformationen/2018/august/Sauber-durch…

Quelle: idw

(nach oben)


Gefährliche Altlasten in Nord- und Ostsee

Britta Widmann Kommunikation
Fraunhofer-Gesellschaft

Millionen Tonnen alter Munition und Giftgasgranaten liegen auf dem Grund von Nord- und Ostsee – gefährliche Hinterlassenschaften der beiden Welt- kriege. Denn die alten Kampfmittel rosten und geben ihre giftigen Inhaltstoffe frei. Die Beseitigung ist gefährlich, aufwendig und teuer. Deshalb entwickeln Fraunhofer-Forscher gemeinsam mit Bergungsunternehmen ein Roboter- system, das eine teilautomatische Entsorgung ermöglicht.

Etwa 1,6 Millionen Tonnen konventionelle und 220 000 Tonnen chemische Kampfmittel, so die aktuellen Schätzungen, lagern am Grund von Nord- und Ostsee und rotten seit Jahrzehnten vor sich hin – ein enormes Gefahrenpotenzial für Flora und Fauna wie auch für das Bergungspersonal. Immer häufiger werden diese explosiven Hinterlassenschaften der Kriege zum Problem. Denn die Baustellen auf dem Meer nehmen zu, neue Fahrrinnen müssen freigelegt, Pipelines gebaut, Seekabel für die Landanbindung von Windparks verlegt werden. Das Waffenarsenal, das die Kampfmittelräumdienste aufspüren, reicht von Pistolenpatronen und Panzerfäusten über Seeminen, Sprengbomben, Brandbomben und Torpedos bis hin zu Giftgasgranaten. Der Großteil der explosiven Fracht wurde am Ende des zweiten Weltkriegs im Meer versenkt. Fischer sollten im Auftrag der Alliierten die Kampfmittel in ausgewiesenen Gebieten weit draußen auf See verklappen. Doch offensichtlich kippten einige die Fracht viel früher ins Meer, um Treibstoff zu sparen. Daher befindet sich auch außerhalb der markierten Munitionsgebiete viel Munition. Zudem werden alte Minen, Torpedos und Bomben durch starke Strömungen und Grundschleppfischerei umgelagert.

Minen in Schifffahrtsrinnen
So müssen die Taucher des Kampfmittelräumdienstes immer wieder auch Munition aus Fahrrinnen räumen, die als minenfrei galten. Dank empfindlicher Sonartechnik und Magnetsonden kann der Kriegsschrott inzwischen besser aufgespürt werden – und umso mehr Bomben, Granaten und Minen werden entdeckt. Die Räumung ist aber bisher nur in gefährlicher Handarbeit durch Taucher der Kampfmittelräumdienste oder spezialisierter Firmen möglich. Große Bomben können nicht geborgen werden: Oft reicht die Druckveränderung schon aus, dass sie explodieren. Deshalb verlagert man sie in die bekannten Munitionsgebiete oder sprengt sie vor Ort. Dabei verteilt sich aber ein Teil des giftigen Sprengstoffs weiträumig im Wasser. Außerdem können durch eine Explosion Meereslebewesen wie z. B. Schweinswale oder Fische tödlich verletzt werden.

Für die Beseitigung großer Mengen des explosiven Kriegserbes sind neue umweltschonende, ungefährliche und wirtschaftliche Lösungen gefragt. So entwickeln, gefördert vom Bundesministerium für Wirtschaft und Energie, Forscher des Fraunhofer-Instituts für Chemische Technologie ICT in Pfinztal gemeinsam mit der Universität Leipzig und mehreren Industriepartnern ein »Robotisches Unterwasser-Bergungs- und Entsorgungsverfahren inklusive Technik zur Delaboration von Munition im Meer«, kurz RoBEMM. Die Koordination des Vorhabens hat das Kampfmittelräumunternehmen Heinrich Hirdes EOD Services GmbH übernommen. »Langfristiges Ziel des Projektes ist es«, erklärt Paul Müller vom Fraunhofer ICT, »die Munition bereits direkt am Fundort unter Wasser teilautomatisiert unschädlich zu machen und umweltgerecht zu entsorgen.« Für die Automatisierung und Anbindung der Teilkomponenten ist die automatic Klein GmbH zuständig.

Das Fraunhofer ICT bringt seine Kernkompetenz in der sicherheitstechnischen Betrachtung und Charakterisierung von Gefahrstoffen ein. Aufgabe war, die Handhabung mit den Explosivstoffen in allen Prozessschritten so auszulegen, dass das unvermeidliche Restrisiko einer spontanen Explosion minimiert wird. Das reicht vom Munitionshandling über die Zerlegung bis hin zur Sprengstoffvernichtung und Reststoffbehandlung. Wichtiges Element ist das Herabsetzen der Empfindlichkeit des Sprengstoffs durch die Zugabe von Wasser und die anschließende Zerkleinerung. Dann werden die Metallhülsen gereinigt und der Sprengstoff wird verbrannt, so dass nur Metallschrott an Land gebracht wird.

Jede Bombe ist anders
Selbst nach mehr als 70 Jahren sind die Kampfstoffe gefährlich. Der Sprengstoff kann nach wie vor explodieren, die Abbaustoffe sind hochgiftig. Die Forscherinnen und Forscher am Fraunhofer ICT haben beispielsweise festgestellt, dass die Schlagempfindlichkeit der Explosivstoffe sogar erhöht sein kann. Um eine spontane Detonation zu vermeiden, muss beim Handling größte Vorsicht gewährleistet sein. Ein großes Problem sind die extrem unterschiedlichen Munitionsformate. Am Ende des Krieges wurden für die Herstellung von Munition alle noch verfügbaren Materialien verwendet. Daher weiß man nie wirklich, welche Inhaltsstoffe vorhanden sind und wie sie unter Umständen plötzlich miteinander reagieren. »Aus den sicherheitstechnischen Untersuchungen der damals tatsächlich verwendeten Explosivstoffgemische konnten wir ableiten, was beim Handling zu beachten ist«, sagt der Sicherheitsexperte Paul Müller. Bald beginnen erste Tests mit dem neuen Bergungs- und Entsorgungssystem RoBEMM, das die derzeit gefährlichen Tauchereinsätze und die oftmals alternativlosen Sprengungen der Munition ersetzen kann.

Weitere Informationen:
https://www.fraunhofer.de/de/presse/presseinformationen/2018/august/gefaehrliche…

Quelle: idw

(nach oben)


Nachweis von Mikroplastik im Wasser: Fraunhofer CSP entwickelte smarte Filteranlagen

Michael Kraft Presse- und Öffentlichkeitsarbeit
Fraunhofer-Institut für Mikrostruktur von Werkstoffen und Systemen IMWS

Mikroplastikpartikel im Wasser sind ein zunehmendes Problem für die Umwelt. Ein neues Filtersystem, mit dem sich die Belastung von Gewässern schneller und einfacher messen lässt, entwickelt das Fraunhofer-Center für Silizium-Photovoltaik CSP gemeinsam mit Partnern. Das Forschungsprojekt unter Federführung der Bundesanstalt für Materialforschung und -prüfung (BAM) will eine Datenbasis schaffen, um die Belastung von Gewässern analysieren und anschließend verringern zu können.

Der Eintrag von Mikroplastikpartikeln – also Plastikteilchen mit einer Größe von weniger als 1 Millimeter – in unser Ökosystem wird zunehmend problematischer. Doch wie gelangt Mikroplastik in Gewässer und Abwässer? Und wie kann es dort untersucht und nachgewiesen werden? Momentan fehlt eine verlässliche, wissenschaftliche Datenbasis über die Quellen, das Vorkommen sowie die Auswirkungen von Mikroplastikpartikeln auf die Umwelt.

Das Forschungsprojekt »Repräsentative Untersuchungsstrategien für ein integratives Systemverständnis von spezifischen Einträgen von Kunststoffen in die Umwelt (RUSEKU)«, das von der Bundesanstalt für Materialforschung und -prüfung (BAM) ins Leben gerufen wurde, will bis zum Jahr 2021 ein Untersuchungsverfahren entwickeln, mit dem sich der Partikeleintrag in Gewässer einheitlich und schneller messen lässt. Dadurch soll sich auch feststellen lassen, an welchen Orten eine besonders hohe Belastung von Gewässern durch Mikroplastik vorliegt.

Das Fraunhofer-Center für Silizium-Photovoltaik CSP entwickelt im Rahmen des Verbundforschungsprojektes gemeinsam mit der SmartMembranes GmbH ein spezielles Filtersystem als wichtigen Baustein für ein einheitliches und unkompliziertes Verfahren zur Entnahme von Proben. Die Kaskaden-Filtrationsanlage soll spezielle Siliziumfilter mit definierten Lochdichten und -größen einsetzen, in denen die Plastikpartikel hängen bleiben.

»Wesentlich für tragfähige Aussagen über die Mengen von Mikroplastik im Grund-, Trink- sowie Schmutzwasser oder in Oberflächengewässern ist die Methodik für die Probenentnahme. Geplant ist eine Art Probenentnahme-Set, das dazu einen entscheidenden Beitrag leisten soll«, sagt Dr. Christian Hagendorf, der auf Seiten des Fraunhofer CSP für das Forschungsprojekt verantwortlich ist. »Mithilfe von Laser- und chemischen Ätzprozessen werden wir auf dem Siliziumträger passende Lochgrößen schaffen, in denen die Partikel zurückgehalten werden. Bei der späteren Analyse im Labor machen wir uns die chemische Zusammensetzung von Silizium zunutze, das in einem breiten Wellenlängenbereich des Infrarotlichtes im Transmissionsverfahren durchsichtig ist und darauf liegende Mikroplastikteilchen für die spektroskopische Messtechnik sichtbar macht«, sagt Hagendorf weiter.

Eine weitere wichtige Kenngröße für die Qualität der Filter ist die mechanische Festigkeit. Denn Lastzustände, die durch Wasserströmungen während der Probenentnahme verursacht werden, dürfen nicht zum Bruch der Filter führen. Außerdem müssen die Filter eine »smarte«, optimierte Lochgeometrie und Oberflächenbeschaffenheit besitzen. Ein weiteres Arbeitsziel ist es, zusammen mit den Partnern einen vorgeschriebenen Arbeitsablauf von der Probenahme über die Aufreinigung bis zur Analyse der Mikroplastikpartikel zu definieren. Durch »Smart Sampling« wird der Nachweis von Mikroplastik von der Probenahme bis zur Schnellanalytik perfekt abgestimmt.

Das damit ermöglichte Verfahren zur effizienten und zuverlässigen Mikroplastik-Probenentnahme bietet eine Grundlage für Strategien und Regelungen, die helfen, Mikroplastik im Wasserkreislauf zu verringern. Das Verbundforschungsprojekt wird vom Bundesministerium für Bildung und Forschung (BMBF) gefördert und findet im Rahmen des Forschungsschwerpunktes »Plastik in der Umwelt« statt. Beteiligt sind neben dem Fraunhofer CSP sechs weitere wissenschaftliche Einrichtungen sowie drei mittelständische Unternehmen.

Über das Fraunhofer-Center für Siliziumphotovoltaik CSP
Das Fraunhofer CSP betreibt angewandte Forschung in den Themengebieten der Siliziumkristallisation, Waferfertigung, Solarzellencharakterisierung und der Modultechnologie. Es entwickelt dabei neue Technologien, Herstellungsprozesse und Produktkonzepte entlang der gesamten photovoltaischen Wertschöpfungskette.

Schwerpunkte sind die Zuverlässigkeitsbewertung von Solarzellen und Modulen unter Labor- und Einsatzbedingungen sowie die elektrische, optische, mechanische und mikrostrukturelle Material- und Bauteilcharakterisierung. Basierend auf dem Verständnis von Ausfallmechanismen werden dadurch Messmethoden, Geräte und Fertigungsprozesse für Komponenten und Materialien mit erhöhter Zuverlässigkeit entwickelt.

Ergänzt wird das Portfolio der Photovoltaik durch Forschungen im Bereich der regenerativen Wasserstofferzeugung, -Speicherung und -Nutzung, hierbei insbesondere der Entwicklung, Charakterisierung und Testung neuer Materialien für Brennstoffzellen und Elektrolyseure sowie der Simulationen und der Wirtschaftlichkeitsbetrachtungen von dezentralen Photovoltaik-Elektrolysesystemen.

Das Fraunhofer CSP ist eine gemeinsame Einrichtung des Fraunhofer-Instituts für Mikrostruktur von Werkstoffen und Systemen IMWS und des Fraunhofer-Instituts für Solare Energiesysteme ISE.

Über die SmartMembranes GmbH
SmartMembranes, im Jahr 2009 von Dr. Petra Göring und Monika Lelonek in Halle (Saale) gegründet, ist der weltweit führende Hersteller von porösen hochgeordneten Materialien aus Aluminiumoxid und Silizium mit definiert einstellbaren Membraneigenschaften und Strukturparametern für eine Vielzahl von innovativen Anwendungen. Ein weiteres wichtiges Standbein neben der Produktion der Membrane nach Kundenwunsch ist die Entwicklung neuer Prozesse und Produkte rund um das Kerngeschäft.

Die SmartMembranes GmbH ist ein Spin-Off des Fraunhofer-Instituts für Mikrostruktur von Werkstoffen und Systemen IMWS in Halle. Die am Standort – dem Technologie- und Gründerzentrum Halle – vorhandene Infrastruktur mit einer Vielzahl an F&E-Einrichtungen wie der Martin-Luther-Universität Halle-Wittenberg, dem Max-Plack-Institut für Mikrostrukturphysik und dem Fraunhofer IMWS ermöglichen eine enge Zusammenarbeit, Kooperation und Vernetzung.

Wissenschaftliche Ansprechpartner:

Dr. Christian Hagendorf, Telefon +49 345 5589-5100, christian.hagendorf@csp.fraunhofer.de

Weitere Informationen:

https://www.imws.fraunhofer.de/de/presse/pressemitteilungen/filteranlage-mikropl…

Quelle: idw

(nach oben)


Warum die Stadt nachts heiß bleibt

Robert Emmerich Presse- und Öffentlichkeitsarbeit
Julius-Maximilians-Universität Würzburg

Die Hitzewelle geht weiter. Dabei kann es in der Würzburger Innenstadt nachts sehr viel wärmer sein als am Stadtrand: Im Forschungsprojekt „Klimaerlebnis Würzburg“ wurde ein Unterschied von 5,4 Grad Celsius gemessen.

Der Juli 2018 ist sehr heiß verlaufen; vielerorts wurden die Monatsrekorde gebrochen. Spitzenreiter war am Dienstag, 31. Juli, die Kreisstadt Bernburg in Sachsen-Anhalt mit 39,5 Grad Celsius. Aber auch in Unterfranken war Schwitzen angesagt: In Kitzingen zum Beispiel zeigte das Thermometer 39 Grad Celsius an.

„Ursache für die Hitzewelle ist sehr warme Luft vom Mittelmeer, die über eine südwestliche Strömung zu uns gelangt“, erklärt Klima-Experte Professor Heiko Paeth vom Institut für Geographie der Julius-Maximilians-Universität Würzburg (JMU). Dazu komme eine sehr stabile Wetterlage mit Hochdruckeinfluss. Diese beeinflusse – mit kurzen Unterbrechungen – seit April das Wettergeschehen in Deutschland. In vielen Regionen habe sie für extreme Trockenheit gesorgt.

Acht Messstationen sammeln Daten
Auch in Würzburg war es in den vergangenen Tagen sehr heiß. Hier haben die acht Messstationen des Forschungsprojekts „Klimaerlebnis Würzburg“ fleißig Daten gesammelt.

„In der Würzburger Innenstadt haben wir am 30. Juli und am Tag danach Spitzenwerte von 36,6 und 37,0 Grad Celsius gemessen“, sagt Paeths Doktorand Christian Hartmann. „Das ist zwar bei weitem nicht auf dem Niveau des Rekords mit 39,4 Grad vom 7. August 2015, für einen Sommertag jedoch schon sehr beachtlich.“

Wärmeinseleffekt ist deutlich ausgeprägt
In der Hitze fiebern viele Menschen den Abendstunden entgegen, wenn die Luft langsam wieder abkühlt und sie die Wohnung noch einmal richtig durchlüften können. Dann aber stellt so mancher enttäuscht fest, dass die Luft draußen bei weitem wärmer ist als gedacht.

In der Innenstadt macht sich der sogenannte städtische Wärmeinseleffekt bemerkbar. „Bebaute Gebiete mit ihren Straßen und Häuserfassaden heizen sich tagsüber stärker auf und können abends schlechter abkühlen als das Umland“, erklärt Hartmann. Besonders in den frühen Nachtstunden geben Asphalt, Steine und Beton die gespeicherte Wärme wieder ab.

Deutlich zeigte sich das beispielsweise am Montag (30. Juli 2018): Gegen 22 Uhr war es am grünen Ortsrand der stadtnahen Gemeinde Gerbrunn rund 5,4 Grad Celsius kühler als in der Würzburger Innenstadt. Dabei liegen die beiden Messstationen nur etwa vier Kilometer Luftlinie voneinander entfernt.

„Wie lange die Hitze in Deutschland noch bleibt, weiß nur Petrus“ sagt Hartmann. Für die kommenden Tage stünden die Weichen auf jeden Fall weiter für Temperaturen von über 30 Grad Celsius.

Forschungsprojekt „Klimaerlebnis Würzburg“
Drei Jahre lang werden das Würzburger Stadtklima und die Lebensbedingungen der Stadtbäume genau unter die Lupe genommen: Im Forschungsprojekt „Klimaerlebnis Würzburg“ kooperiert die JMU mit der TU München im Rahmen des Zentrums für Stadtnatur und Klimaanpassung. Das bayerischen Staatsministerium für Umwelt und Verbraucherschutz fördert das Projekt.

Bei dem Projekt wird unter anderem gemessen, ob die Stadtbäume über genug Wasser verfügen oder wieviel CO2 sie speichern. Alle Interessierten können die Messwerte in Echtzeit über das Internet abrufen unter http://www.klimaerlebnis.de

Dort lässt sich zum Beispiel sehen, dass es einer Linde, die im Ringpark nahe der Residenz steht, in Sachen Wasserversorgung aktuell nicht so gut geht. Oder dass sie seit Jahresbeginn 3,9 Kilogramm CO2 gespeichert hat. Auch wieviel Wasser sie pro Stunde verdunstet und um wie viel kühler es direkt unter dem Baum ist als in Umgebung, lässt sich von der Website ablesen.

Wissenschaftliche Ansprechpartner:
Kontakt

Christian Hartmann, Institut für Geographie und Geologie der JMU, T +49 931 31-89696, christian.hartmann@uni-wuerzburg.de

Quelle: idw

(nach oben)


Wie Nährstoffe im sauerstoffarmen Meer verloren gehen

Dr. Boris Pawlowski Presse, Kommunikation und Marketing
Christian-Albrechts-Universität zu Kiel

Kieler Forschungsteam beschreibt erstmals genetische und evolutionäre Mechanismen der Nitratumwandlung bei Foraminiferen

Im Zuge der globalen Klimaveränderungen beobachten Wissenschaftlerinnen und Wissenschaftler eine Zunahme sauerstoffarmer Gebiete im Ozean, die sie auch als Sauerstoffminimumzonen bezeichnen (Englisch: Oxygen Minimum Zones, OMZ). In großer Ausdehnung existieren sie zum Beispiel im Pazifik vor der Küste Südamerikas oder im Indischen Ozean. Da dort in Abhängigkeit von der Wassertiefe wenig bis gar kein Sauerstoff vorhanden ist, sind Lebewesen im Vorteil, deren Stoffwechsel sauerstoffunabhängig ablaufen kann. Zu diesen Organismen zählen einige Vertreter der Foraminiferen: einzellige, gehäusebildende Kleinstlebewesen, die bereits über einen Zellkern verfügen und damit zu den sogenannten Eukaryoten zählen. Ihre Lebensweise geht mit einem bestimmten Stoffwechselweg einher, der als anaerobe Atmung bezeichnet wird. Dabei wandeln sie im Wasser vorhandenes Nitrat in Abwesenheit von Sauerstoff in molekularen Stickstoff um. Dieser mehrstufige Prozess ist auch als Denitrifizierung bekannt und bildet einen zentralen Teil in der globalen Verwertung von Stickstoff, einem für die Lebensprozesse aller Organismen essentiellem Element. In Meeresgebieten mit besonders geringem Sauerstoffanteil treten Foraminiferen auffallend häufig auf. Sie binden dort Nitrat in großem Umfang und entziehen es so dem globalen Nährstoffkreislauf. Damit tragen Foraminiferen möglicherweise entscheidend zum Nährstoffverlust in den OMZ bei. Einem Forschungsteam vom Institut für Allgemeine Mikrobiologie an der Christian-Albrechts-Universität zu Kiel (CAU), dem Sonderforschungsbereich (SFB) 754 „Klima-Biogeochemische Wechselwirkungen im tropischen Ozean“ am GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel und dem Kiel Evolution Center (KEC) gelang es nun, den bislang unbekannten Denitrifizierungsprozess in Foraminiferen anhand zweier Arten zu beschreiben: Die Forschenden konnten nachweisen, dass Globobulimina turgida sowie die verwandte Art Globobulimina auriculata über einen einzigartigen, eukaryotischen Stoffwechselweg zur Denitrifizierung verfügen. Dazu veröffentlichte das Forschungsteam heute, (Donnerstag, 2. August) erstmals eine Charakterisierung der dazu nötigen genetischen Ausstattung dieser Foraminiferenarten in der renommierten Fachzeitschrift Current Biology.

Zunächst nahm das Forschungsteam Sedimentproben im südschwedischen Gullmarfjord. Er weist durch seine besondere Form und die damit verbundene Wasserschichtung saisonal ein ähnliches Sauerstoffvorkommen auf wie die großen ozeanischen OMZ. Im Fjord leben Foraminiferen in den obersten Zentimetern des Meeresbodens. Hier ist mehrere Monate im Jahr kaum Sauerstoff vorhanden. Den Forschenden gelang es, die Kleinstlebewesen in einem eigens entwickelten Verfahren im Labor zu halten: „Um die stark auf ihre besonderen Umweltbedingungen spezialisierten Foraminiferen im Detail untersuchen zu können, mussten wir die natürlichen Sauerstoffverhältnisse in etwa 120 Metern Tiefe künstlich erzeugen“, betont Dr. Alexandra-Sophie Roy aus der Arbeitsgruppe Genomische Mikrobiologie an der CAU. Gemeinsam mit ihrem Kollegen Dr. Christian Wöhle ist sie Erstautorin der nun erschienenen Studie, die im Rahmen des SFB 754 entstanden ist.

Anschließend untersuchten die Forschenden die gesamten genetischen Informationen der Foraminiferen auf Hinweise, ob sie eigenständig zur Denitrifizierung fähig sind oder ob zum Beispiel symbiotische Bakterien dafür verantwortlich sind. Bereits bekannt war, dass Bakterien und Pilze denitrifizieren können und daher über eine entsprechende genetische Ausstattung verfügen. Die Forschenden suchten also im Genom der Foraminiferen nach bereits von Bakterien oder Pilzen bekannten spezifischen Genen, die dort an der Nitratumwandlung beteiligt sind. „Wir sind auf drei proteincodierende Gene gestoßen, die definitiv nicht von symbiotischen Bakterien stammen“, hebt Wöhle hervor. Bei der vollständigen Denitrifizierung wird Nitrat in vier Schritten zum Endprodukt, dem molekularen Stickstoff, umgewandelt. Um die dafür notwendigen Moleküle bilden zu können, verfügen alle denitrifizierenden Organismen über eine ähnliche genetische Ausstattung. Zwar habe man nicht alle an der Nitratumwandlung beteiligten Gene gefunden, die nun entdeckten Erbinformationen sind aber Teil des Foraminiferen-eigenen Genoms. Ihr Stoffwechsel unterscheide diese marinen Kleinstlebewesen auf jeden Fall von allen anderen eukaryotischen Organismen, unterstreichen Roy und Wöhle die Bedeutung der Forschungsarbeit.

Gestützt wird diese Theorie auch vom offenkundigen ökologischen Erfolg der Foraminiferen in der sauerstoffarmen Meeresumwelt: Untersuchungen der OMZ vor der peruanischen Küste haben zum Beispiel gezeigt, dass die Kleinstlebewesen dort eine Schlüsselrolle im Nitratzyklus einnehmen und mit mehr als 500 Individuen pro Kubikzentimeter im Sediment auftreten können. Diese Dominanz erlangten sie offenbar auch durch den evolutionären Erwerb der Fähigkeit zur vollständigen Denitrifizierung. Eine Beteiligung symbiotischer Bakterien an der Umsetzung des Nitrats in großen Mengen kann ausgeschlossen werden, da diese Form des Zusammenlebens mit den Foraminiferen zu selten vorkommt, um das Phänomen zu erklären. Die eukaryotischen Kleinstlebewesen müssen also eigenständig zur Denitrifizierung in der Lage sein. In weiteren Forschungsarbeiten möchten die Wissenschaftlerinnen und Wissenschaftler künftig die übrigen bei Globobulimina daran beteiligten Gene identifizieren. Weiterhin wollen sie klären, ob sich die an bestimmten Spezies und einem besonderen Meeresgebiet gewonnenen Erkenntnisse auch auf andere Foraminiferen und grundsätzlich auf Sauerstoffminimumzonen übertragen lassen.

„Besser zu verstehen, wie sich die genetischen Grundlagen der Denitrifizierung im Laufe der Evolution bei verschiedenen Organismen entwickelt haben, liefert uns ein wichtiges Puzzleteil, um ein größeres Bild der biogeochemischen Kreisläufe im Meer zusammensetzen zu können“, hebt Professorin Tal Dagan, Co- Autorin der Studie und Leiterin der Arbeitsgruppe Genomische Mikrobiologie an der CAU, hervor. Anhand der Evolution der beteiligten Gene könne man die erdgeschichtliche Entstehung dieser Stoffkreisläufe und den Anteil einzelner Lebewesen daran besser nachvollziehen, so Dagan weiter. „Im Zusammenhang globaler Umweltveränderungen wird ein genaueres Verständnis des Umsatzes und der Verteilung von elementaren Stoffen im Ozean immer wichtiger. Mit den neuen Ergebnissen tragen wir ein Stück dazu bei, den Einfluss des Klimawandels auf vom Sauerstoffgehalt abhängige Nährstoffkreisläufe im Meer besser zu verstehen“, ergänzt der ebenfalls an der Studie beteiligte Dr. Joachim Schönfeld vom SFB 754. So könne man zum Beispiel künftig besser abschätzen, wie sich geänderte Umweltbedingungen auf das Nährstoffangebot und damit die Nahrungsbeziehungen zwischen verschiedenen Lebewesen im Ozean auswirken, fasst Schönfeld zusammen.

Originalarbeit:
Christian Wöhle, Alexandra-Sophie Roy, Nicolaas Glock, Tanita Wein, Julia Weissenbach, Philip Rosenstiel, Claas Hiebenthal, Jan Michels, Joachim Schönfeld, Tal Dagan (2018) „A novel eukaryotic denitrification pathway in foraminifera“. Current Biology, Published on August 2, 2018, https://doi.org/10.1016/j.cub.2018.06.027

Bilder stehen zum Download bereit:
www.uni-kiel.de/fileadmin/user_upload/pressemitteilungen/2018/256-currbio-1.jpg
Mit einem Gerät zur Entnahme von Sedimentproben, dem sogenannten Multicorer, können die Forschenden Sedimente vom Grund des Gullmarfjords gewinnen.
Foto/Copyright: Tal Dagan

www.uni-kiel.de/fileadmin/user_upload/pressemitteilungen/2018/256-currbio-2.jpg
In einem Inkubationsbehälter befinden sich in jeder Öffnung jeweils steriler Sand und ein einzelnes Foraminiferen-Individuum.
Foto/Copyright: Tal Dagan

www.uni-kiel.de/fileadmin/user_upload/pressemitteilungen/2018/256-currbio-3.jpg
Eine der beiden untersuchten Foraminiferen-Arten, Globobulimina turgida, hat eine Größe von etwa 700 Mikrometern.
Foto/Copyright: Jan Michels

Kontakt:
Prof. Tal Dagan
Genomische Mikrobiologie,
Institut für Allgemeine Mikrobiologie, CAU
Telefon: 0431 880-5712
E-Mail: tdagan@ifam.uni-kiel.de

Dr. Christian Wöhle
Genomische Mikrobiologie,
Institut für Allgemeine Mikrobiologie, CAU
Telefon: 0431 880-5744
E-Mail: cwoehle@ifam.uni-kiel.de

Dr. Alexandra-Sophie Roy
Genomische Mikrobiologie,
Institut für Allgemeine Mikrobiologie, CAU
Telefon: 0431 880-5714
E-Mail: sroy@ifam.uni-kiel.de

Weitere Informationen:
Genomische Mikrobiologie (AG Dagan),
Institut für Allgemeine Mikrobiologie, CAU
www.mikrobio.uni-kiel.de/de/ag-dagan

Sonderforschungsbereich (SFB) 754 „Klima-Biogeochemische Wechselwirkungen im tropischen Ozean“, GEOMAR:
www.sfb754.de/de

Forschungszentrum „Kiel Evolution Center“, CAU Kiel:
www.kec.uni-kiel.de

Ocean Deoxygenation Conference, Öffentliche Vorträge am 5.9.2018,
Sonderforschungsbereich (SFB) 754:
conference.sfb754.de/event/1/page/15-public-event-teacher-workshop

Christian-Albrechts-Universität zu Kiel
Presse, Kommunikation und Marketing, Dr. Boris Pawlowski, Text/Redaktion: Christian Urban
Postanschrift: D-24098 Kiel, Telefon: (0431) 880-2104, Telefax: (0431) 880-1355
E-Mail: presse@uv.uni-kiel.de, Internet: www.uni-kiel.de, Twitter: www.twitter.com/kieluni
Facebook: www.facebook.com/kieluni, Instagram: www.instagram.com/kieluni

Wissenschaftliche Ansprechpartner:
Prof. Tal Dagan
Genomische Mikrobiologie,
Institut für Allgemeine Mikrobiologie, CAU
Telefon: 0431 880-5712
E-Mail: tdagan@ifam.uni-kiel.de

Dr. Christian Wöhle
Genomische Mikrobiologie,
Institut für Allgemeine Mikrobiologie, CAU
Telefon: 0431 880-5744
E-Mail: cwoehle@ifam.uni-kiel.de

Dr. Alexandra-Sophie Roy
Genomische Mikrobiologie,
Institut für Allgemeine Mikrobiologie, CAU
Telefon: 0431 880-5714
E-Mail: sroy@ifam.uni-kiel.de

Originalpublikation:
Christian Wöhle, Alexandra-Sophie Roy, Nicolaas Glock, Tanita Wein, Julia Weissenbach, Philip Rosenstiel, Claas Hiebenthal, Jan Michels, Joachim Schönfeld, Tal Dagan (2018) „A novel eukaryotic denitrification pathway in foraminifera“. Current Biology, Published on August 2, 2018, https://doi.org/10.1016/j.cub.2018.06.027

Weitere Informationen:
https://www.uni-kiel.de/de/detailansicht/news/wie-naehrstoffe-im-sauerstoffarmen…

Quelle: idw

(nach oben)


Dieselskandal: Ultrafeinstaub deutlich schädlicher als Stickoxide

Dr. Thomas Nesseler Presse- und Öffentlichkeitsarbeit
Deutsche Gesellschaft für Arbeitsmedizin und Umweltmedizin e.V.

Seit bekannt ist, dass Automobilhersteller die Motorsteuerung ihrer Fahrzeuge durch illegale Abschalteinrichtungen manipulierten um Abgasnormen zu umgehen, kocht die Debatte um den Dieselskandal immer wieder hoch. Es gibt Studien, die meinen den Nachweis erbringen zu können, dass europaweit jährlich etwa 5.000 Menschen vorzeitig sterben, weil Dieselautos im realen Straßenverkehr diese Grenzwerte überschreiten. Neuste Erkenntnisse weisen nun allerdings darauf hin, dass vermutlich nicht Stickoxide, sondern ultrafeine Partikel die Ursache für Gesundheitsgefahren sind. Dabei sind diese Feinstäube besser zu beseitigen.

Was ist Stickstoffdioxid?
Stickstoffdioxid (NO2) entsteht beim Verbrennen von Brenn- und Treibstoffen, insbesondere bei hohen Verbrennungstemperaturen, wie in Dieselmotoren. Als Hauptquelle für die Bildung von NO2 gilt der Straßenverkehr. NO2 ist stark gesundheitsgefährdend – insbesondere für Asthmatiker, Kinder oder ältere Menschen. In der EU gilt daher seit 2010 ein Jahresmittel-Grenzwert von 40 Mikrogramm NO2 pro Kubikmeter Luft. Zum Vergleich: Der Grenzwert in den UBA liegt etwa bei 100 Mikrogramm, in der Schweiz dagegen sind nur 30 Mikrogramm erlaubt.

Was ist an Dieselabgasen so gefährlich?
Feinstaub dringt tief in Lunge und Herzkreislaufsystem ein und kann Krankheiten wie Schlaganfall, Herzerkrankungen, Lungenkrebs oder Atemwegsinfekte verursachen. Laut jüngsten Berichten der Weltgesundheitsorganisation WHO erleiden jährlich ca. 7 Millionen Menschen schwerwiegende gesundheitliche Beeinträchtigungen durch Feinstaub. In diesem Bericht wird NO2 als Schadstoff allerdings nicht explizit erwähnt, sondern vielmehr auf ultrafeine Partikel (UFP) und Metallabrieb aus dem Motor hingewiesen, die für die lebensbedrohenden Gesundheitsschäden verantwortlich sein sollen.

Medizin und Umweltschutz haben den technischen Fortschritt übersehen
Wenn nicht NO2 die tödlichen Gesundheitsschäden auslöst sondern ultrafeine Partikel, haben dann Umweltmedizin und Umweltschutz den technischen Fortschritt und neuesten Stand der Forschung übersehen? Dieser Auffassung ist Dr. Heinz Fuchsig, Arbeitsmediziner und Umweltreferent der Tiroler und Österreichischen Ärztekammer. In der aktuellen Ausgabe der ASU – Zeitschrift für Prävention fasst er die aktuellen Kenntnisse zusammen. Fuchsig erklärt darin, dass durch technische Weiterentwicklung und Erhöhung des Motorendrucks die erzeugten Partikel in den letzten Jahrzehnten immer kleiner geworden sind. Diese „neuen“, ultrafeinen Partikel seien bei aktuelleren Vermessungen nicht erfasst und in der medizinischen Forschung daher schlicht übersehen worden. Aber auch das Verkennen von Emissionen durch mechanischen Motorenabrieb oder die starke Emissionserhöhung infolge der Schwefelentfernung aus Schiffsdiesel hätten zu der „Täuschung“ beigetragen, NO2 sei der gesundheitsschädigende Übeltäter statt ultrafeine Partikel.

Die Lösung: Partikelfilter müssen unbedingt nachgerüstet werden
In der weiteren Dieseldebatte muss unbedingt diesen ultrafeinen Partikeln die Hauptaufmerksamkeit gelten, so Heinz Fuchsig. Eine Nachrüstung großer Schwerfahrzeuge mit entsprechenden Filtern wäre daher wesentlich wichtiger als die Nachrüstung von PKWs mit Hardware zur Verminderung der weniger relevanten Stickoxide aus Auspuffabgasen. Die Technik ist dabei nicht nur erheblich günstiger, sondern auch wirksamer: Studien ergeben eine Partikel-Reduktion um 99,99%. Die Schweiz hat 95% der öffentlichen Busse mit Filtern nachgerüstet und kann dadurch einen Grenzwert von 12 Mikrogramm pro Kubikmeter Luft vermutlich bald einhalten. In Deutschland werden währenddessen doppelt so hohe Grenzwerte sogar überschritten. Notwendig wird auch ein zielgerichtetes Handeln in der Politik, sei es durch steuerliche Vergünstigungen nachgerüsteter Fahrzeuge, die Förderung von Elektromobilität oder das Schaffen höherer Anreize, ein autofreies Leben zu führen – zum Schutz der Gesundheit in der Bevölkerung.

Mehr zu diesem Thema erfahren Sie im Beitrag „Dieselskandal: Sind Stickoxide das geringere Übel?“ von Dr. Heinz Fuchsig in der aktuellen Ausgabe der Zeitschrift Arbeitsmedizin | Sozialmedizin | Umweltmedizin (ASU) unter: https://www.asu-arbeitsmedizin.com/Archiv/ASU-Heftarchiv/article-831861-110576/d…

Fachlicher Kontakt bei Rückfragen:
Alfons W. Gentner Verlag GmbH & Co. KG
Dr. med. Annegret Schoeller
Forststr. 131 • 70193 Stuttgart
Tel. 0711/63 672-896 • Fax 0711/63 672-711
E-Mail: schoeller@asu-arbeitsmedizin.com
Web: http://www.gentner.de

Über ASU – Zeitschrift für medizinische Prävention:
Die Zeitschrift Arbeitsmedizin Sozialmedizin Umweltmedizin ist das Leitmedium der deutschsprachigen Arbeitsmedizin. Das Publikationsorgan der Fachinstitutionen DGAUM, ÖGA, SGARM, VDBW, Vereinigung Deutscher Staatlicher Gewerbeärzte e.V. sowie der arbeitsmedizinischen Akademien und richtet sich an Betriebsärzte, Arbeitsmediziner und Akteure in wichtigen Schnittstellenbereichen zur Arbeitsmedizin. Die Zeitschrift ist peer reviewed. 1965 gegründet, erscheint ASU monatlich und erreicht nahezu alle arbeits- und präventionsmedizinisch orientierten Akteure im deutschsprachigen Raum. Weitere Informationen unter http://www.asu-arbeitsmedizin.com.

Kontakt DGAUM:
Deutsche Gesellschaft für Arbeitsmedizin und Umweltmedizin e.V.
Hauptgeschäftsführer: Dr. Thomas Nesseler
Presse: Berit Kramer
Schwanthaler Str. 73 b • 80336 München
Tel. 089/330 396-0 • Fax 089/330 396-13
E-Mail: gs@dgaum.de
Web: http://www.dgaum.de

Über DGAUM:
Die DGAUM wurde 1962 gegründet und ist eine gemeinnützige, wissenschaftlich-medizinische Fachgesellschaft der Arbeitsmedizin und der klinisch orientierten Umweltmedizin. Ihr gehören heute über 1000 Mitglieder an, die auf dem Gebiet der Arbeitsmedizin und Umweltmedizin arbeiten, vor allem Ärztinnen und Ärzte, aber auch Angehörige anderer Berufsgruppen wie etwa Natur- und Sozialwissenschaftlerinnen und -wissenschaftler. Die Mitglieder der Fachgesellschaft engagieren sich nicht nur in Wissenschaft und Forschung, um so bereits bestehende Konzepte für die Prävention, die Diagnostik und Therapie kontinuierlich zu verbessern, sondern sie übernehmen die ärztliche und medizinische Beratung von Arbeitgebern und Arbeitnehmern an der Schnittstelle von Individuum und Unternehmen. Darüber hinaus beraten die Mitglieder der DGAUM alle Akteure, die ihren Beitrag zu der medizinischen Versorgung leisten und auf Fachwissen aus der betrieblichen Gesundheitsförderung und Prävention, der arbeits- und umweltbezogenen Diagnostik und Therapie, der Beschäftigungsfähigkeit fördernden Rehabilitation sowie aus dem versicherungsmedizinischen Kontext angewiesen sind. Weitere Informationen unter http://www.dgaum.de.

Quelle: idw

(nach oben)


Warum macht Lesen kurzsichtig? Aktuell in Scientific Reports veröffentlicht

Bianca Hermle Kommunikation und Medien
Universitätsklinikum Tübingen

Andrea C. Aleman, Min Wang und Frank Schaeffel haben einen unerwarteten Grund gefunden, warum Lesen kurzsichtig machen könnte. Die Wissenschaftler des Forschungsinstituts für Augenheilkunde am Universitätsklinikum Tübingen leiten eine überraschend einfache Strategie gegen die Entwicklung einer Myopie ab. Heute haben sie dazu in Scientific Reports Nature publiziert.

Etwa die Hälfte der Abiturienten in Deutschland ist kurzsichtig. Bei Kurzsichtigkeit (Myopie) wächst das Auge zu lang, das Bild wird vor der Netzhaut scharf abgebildet und man sieht in der Ferne unscharf. Kurzsichtigkeit ist der Preis für gute Ausbildung: pro Jahr Ausbildung wird man im Mittel etwa eine Viertel-Dioptrie kurzsichtiger. Weltweit nimmt die Myopie zu, denn gute Ausbildung ist immer wichtiger.

Kinder, die viel Zeit im Freien bei Tageslicht verbracht haben, werden später kurzsichtig. Spätestens jedoch, wenn sie im Laufe ihrer Ausbildung viel Lesen, steigt das Risiko eine Myopie zu entwickeln. Was genau in der Schule beim Lesen kurzsichtig macht, ist immer noch nicht klar erforscht. Lange wurde angenommen, dass zu wenig Akkommodation beim Lesen das scharfe Bild etwas hinter die Netzhaut verlegt, was die Netzhaut veranlasst, das Auge schneller wachsen zu lassen. Diese Daten waren aber nie vollständig überzeugend. Andrea C. Aleman, Min Wang und Frank Schaeffel vom Forschungsinstitut für Augenheilkunde am Universitätsklinikum Tübingen haben nun einen unerwarteten Grund gefunden, warum Lesen kurzsichtig machen könnte.

Anders als eine Digitalkamera, die jeden Pixel ausliest, misst die Netzhaut hauptsächlich Unterschiede zwischen benachbarten „Pixeln“, den Photorezeptoren. Dies wird erreicht, in dem Zellen die Helligkeit in der Mitte und der Peripherie ihres lichtempfindlichen Bereiches vergleichen, und nur den Unterschied an das Gehirn weiterleiten. Die Sehinformation wird also massiv reduziert, was notwendig ist, da die Netzhaut zwar über rund 125 Millionen „Pixel“ verfügt, der Sehnerv aber nur über etwa eine Million „Kabel“. Der Sehnerv ist also der Flaschenhals der Informationsübertragung.

In der Netzhaut gibt es Zellen, die bewerten, ob in ihrem lichtempfindlichen Bereich (rezeptiven Feld) die Mitte heller und die Umgebung dunkler ist (ON-Zellen). Andere wiederum bewerten, ob die Mitte dunkler, und die Umgebung heller ist (OFF-Zellen). Während unserer normalen Seherfahrung werden beide Typen ähnlich stark gereizt. Aber wie ist das beim Lesen von Text?

Schaeffel hat eine Software entwickelt, die die Reizstärke für ON und OFF-Zellen in unserer visuellen Welt quantifiziert. Dabei hat sich gezeigt, dass dunkler Text auf hellem Hintergrund hauptsächlich die OFF-Zellen reizt (Abbildung 1A), während heller Text auf dunklem Hintergrund hauptsächlich die ON-Zellen reizt (Abbildung 1B).
Von früheren Experimenten mit Hühnern und Mäusen war bereits bekannt, dass die Stimulation der ON-Zellen das Augenwachstum eher hemmen, Stimulation der OFF-Zellen es aber verstärken kann.

Spielt dieser Mechanismus auch beim Menschen eine Rolle spielt?
Mittels der optischen Kohärenztomographie (OCT) kann im lebenden Auge die Dicke der Gewebsschichten genau vermessen (Mikrometerbereich) werden. Bei Hühnern, verschiedenen Affenarten und bei Kindern wurde bereits erforscht, dass die Veränderung der Dicke der Aderhaut, das ist die Schicht hinter der Netzhaut, vorhersagt, wie das Auge in nächster Zeit wachsen wird. Wird die Aderhaut dünner, weist das auf die Entwicklung einer Myopie hin, wird sie dicker, bleibt das Augenwachstum gehemmt, es entwickelt sich keine Myopie.

Alleman, Wang und Schaeffel haben Probanden dunklen Text auf hellem Hintergrund lesen lassen sowie hellen Text auf dunklem Hintergrund. Bereits nach 30 Minuten konnten sie messen, dass die Aderhaut dünner wurde, wenn schwarzer Text gelesen wurde, und dicker, wenn Text mit umgekehrtem Kontrast gelesen wurde (Abbildung 2).

Dies lässt erwarten, dass schwarzer Text auf hellem Hintergrund die Myopieentwicklung fördert, und heller Text auf dunklem Hintergrund die Myopie hemmt. Den Textkontrast umzukehren, wäre deshalb eine einfach umzusetzende Maßnahme, die Myopieentwicklung aufzuhalten, denn immer mehr Zeit wird beim Arbeiten und Lesen an Computerbildschirmen und Tablets verbracht.

Diese Strategie gegen die Entwicklung von Kurzsichtigkeit muss noch verifiziert werden. Dazu haben die Tübinger Wissenschaftler bereits eine Studie mit Schulkindern geplant. Ihre aktuelle Untersuchung zeigt aber bereits im Experiment, dass die Aderhautdicke sich in beide Richtungen ändern kann, nur durch Lesen mit verschiedenem Textkontrast.

Wissenschaftliche Ansprechpartner:
Universitätsklinikum Tübingen
Forschungsinstitut für Augenheilkunde
Professor Frank Schaeffel
Elfriede-Aulhorn-Str. 7, 72076 Tübingen
Tel. 07071 29-80739
E-Mail frank.schaeffel@uni-tuebingen.de

Originalpublikation:
http://www.nature.com/articles/s41598-018-28904-x
Reading and Myopia: Contrast Polarity Matters. Andrea C. Aleman, Min Wang & Frank Schaeffel. Scientific Reports volume 8, Article number: 10840 (2018)
DOI:10.1038/s41598-018-28904-x

Quelle: idw

(nach oben)


Spurenschadstoffe im Wasser: Welche Klärtechniken Fischen helfen

Dr. Karl Guido Rijkhoek Hochschulkommunikation
Eberhard Karls Universität Tübingen

Forschungsteam der Universität Tübingen untersucht, wie Abwasserreinigungsanlagen zum Schutz der Wasserlebewesen aufgerüstet werden sollten

Schadstoffe in Flüssen und Seen können selbst in kleinen Spuren eine Gefahr für Wasserorganismen darstellen. Diese Umweltproblematik ist im vergangenen Jahrzehnt stärker ins Bewusstsein der Öffentlichkeit gelangt. Zu den Spurenschadstoffen zählen Rückstände aus im täglichen Leben eingesetzten Chemikalien wie zum Beispiel aus Spültabs, Waschmitteln oder Duschgels ebenso wie aus Medikamenten, Kosmetika oder Pflanzenschutzmitteln. Die Stoffe gelangen über häusliche Abwässer in Kläranlagen, wo sie durch konventionelle Reinigungsmethoden vielfach nicht vollständig zurückgehalten oder abgebaut werden können. Über das gereinigte Abwasser werden sie deshalb in unsere Gewässer eingetragen. Unter der Leitung von Professorin Rita Triebskorn hat eine Gruppe von Wissenschaftlerinnen und Wissenschaftlern vom Institut für Evolution und Ökologie der Universität Tübingen untersucht, welche Auswirkungen verschiedene Klärtechnologien auf die Gesundheit von Fischen haben. Sie kommen zu dem Ergebnis, dass in Abhängigkeit von der Zusammensetzung des Abwassers im Einzelfall entschieden werden sollte, mit welchen Reinigungstechniken Wasserorganismen nachhaltig geschützt werden können. Ihre Studie wurde im Fachjournal Environmental Sciences Europe veröffentlicht.

In konventionellen Kläranlagen durchläuft das Abwasser aus privaten Haushalten und der Industrie mechanische, biologische und chemische Reinigungsstufen. Seit einigen Jahren werden zunehmend zusätzliche Reinigungstechnologien zum Beispiel auf der Basis von Aktivkohle oder Ozonierung als vierter Reinigungsstufe eingesetzt. „Im Rahmen einer Untersuchung am Bodensee konnten wir zeigen, dass sich durch eine zusätzliche Aktivkohlestufe Spurenstoffe effizient entnehmen lassen und dass sich die Gesundheit der Gewässerorganismen im Vorfluter dadurch deutlich verbesserte“, sagt Rita Triebskorn. „Doch bisher gibt es leider immer noch relativ wenige Studien dazu, wie sich die Spurenstoffelimination langfristig auf Gewässerökosysteme auswirkt.“

Standardisierte Versuchsbedingungen
In ihre vergleichende Untersuchung bezogen die Forscher drei konventionelle Kläranlagen ein, von denen eine, das Klärwerk Langwiese auf der Gemarkung Ravensburg, im Studienverlauf zusätzlich mit einer Aktivkohlefilteranlage ausgerüstet wurde. Sie setzten jeweils ober- und unterhalb der Ein-leitungsstelle der Kläranlage Käfige mit Regenbogenforellen ins Wasser. „Gegenüber der Untersuchung von Wildfischen hat das den Vorteil, dass wir viele Eigenschaften der Fische, wie Alter, Ernährung und Entwicklungsstand, standardisieren können. So lassen sich etwaige Effekte auf die Gesundheit der Tiere klarer erkennen“, sagt die Erstautorin der Studie Sabrina Wilhelm aus dem Forschungsteam. Sie untersuchte mit etablierten Verfahren zum einen, ob die Zellkerne der Regenbogenforellen vermehrt gentoxische Veränderungen aufwiesen. Zum anderen wurde anhand bestimmter Leberwerte der Fische gemessen, ob sie verstärkt Entgiftungsprozesse zum Ab- und Um-bau von Spurenstoffen einsetzen mussten.

Von Fall zu Fall entscheiden
„Während wir bei einer der konventionellen Kläranlagen keine negativen Auswirkungen von Spurenschadstoffen auf die Gesundheit der Fische feststellen konnten, waren die kritischen Leberwerte bei den Regenbogenforellen unterhalb der zweiten konventionellen Anlage stark erhöht“, fasst Sabrina Wilhelm die Ergebnisse zusammen. „Auch beim Klärwerk Langwiese haben wir vor der Aufrüstung solche negativen Effekte gemessen.“ Hier habe die Ausstattung der Anlage mit dem zusätzlichen Aktivkohlefilter sowohl die fraglichen Leberwerte der Fische als auch gentoxische Effekte deutlich reduziert.

„Die Investitionen in moderne Klärtechniken kommen dem Wasserökosystem vor allem dann zugute, wenn konventionelle Technologien die Schadstoffe nicht ausreichend entfernen“, sagt Rita Triebskorn. „Je nach Zusammensetzung des Abwassers lassen sich jedoch negative Einflüsse auf Wasserlebewesen auch durch eine optimierte konventionelle Reinigung reduzieren.“ Unter dem Strich lohne es, in gute Abwasserreinigung zu investieren, um unsere Umwelt nachhaltig zu schützen.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Rita Triebskorn
Universität Tübingen
Institut für Evolution und Ökologie
Telefon +49 7071 29-78892
rita.triebskorn@uni-tuebingen.de

Originalpublikation:
Sabrina Wilhelm, Stefanie Jacob, Michael Ziegler, Heinz-R. Köhler, Rita Triebskorn: Which kind of wastewater treatment do we need to avoid genotoxicity and dioxin-like toxicity in effluent-exposed fish?. Environmental Sciences Europe, https://doi.org/10.1186/s12302-018-0154-0.

Quelle: idw

(nach oben)


Studien belegen: Migränepatienten besitzen erhöhtes Risiko für Gefäßkrankheiten

Pressesprecher: Prof. Dr. Hans-Christoph Diener Pressestelle der DGN
Deutsche Gesellschaft für Neurologie e.V.

Menschen mit Migräne besitzen ein erhöhtes Risiko für Gefäßerkrankungen. „Zwei große aktuelle Studien aus den USA und aus Dänemark zeigen, dass Migränepatienten etwas häufiger Herzinfarkte, Schlaganfälle und venöse Thrombosen erleiden“, so Privatdozent Dr. med. Charly Gaul, Generalsekretär der Deutschen Migräne- und Kopfschmerzgesellschaft (DMKG). „Zwar ist die Sterblichkeit von Menschen mit Migräne insgesamt nicht höher als in der Allgemeinbevölkerung. Ärzte, die Migränepatienten behandeln, sollten sich des Risikos aber bewusst sein“, sagt Prof. Dr. Hans-Christoph Diener von der Deutschen Gesellschaft für Neurologie (DGN).

Menschen mit Migräne besitzen ein erhöhtes Risiko für Gefäßerkrankungen. „Zwei große aktuelle Studien aus den USA und aus Dänemark zeigen, dass Migränepatienten etwas häufiger Herzinfarkte, Schlaganfälle und venöse Thrombosen erleiden“, so Privatdozent Dr. med. Charly Gaul, Generalsekretär der Deutschen Migräne- und Kopfschmerzgesellschaft (DMKG). „Zwar ist die Sterblichkeit von Menschen mit Migräne insgesamt nicht höher als in der Allgemeinbevölkerung. Ärzte, die Migränepatienten behandeln, sollten sich des Risikos aber bewusst sein“, sagt Prof. Dr. Hans-Christoph Diener von der Deutschen Gesellschaft für Neurologie (DGN). Er rät dazu, insbesondere Frauen mit häufiger Migräne mit Aura auf Risikofaktoren für Herz-Kreislauf-Erkrankungen zu untersuchen und diese dann proaktiv zu behandeln.

Etwa ein Fünftel aller Frauen und acht Prozent der Männer sind von Migräne betroffen, berichten DGN und DMKG in ihrer aktuellen medizinischen Leitlinie, die Ende April erschienen ist. Damit ist Migräne die häufigste neurologische Erkrankung in Deutschland. Heftige, häufig einseitige Kopfschmerzen, die mit Appetitlosigkeit, Übelkeit und Erbrechen einhergehen, zählen zu den typischen Merkmalen der Kopfschmerzerkrankung. Für die Behandlung und Vorbeugung von Migräneattacken steht zwar eine Vielzahl von Arzneien zur Verfügung, doch ein erheblicher Anteil der Migränepatienten wird nicht oder nicht ausreichend behandelt, wie eine Repräsentativbefragung der DMKG belegt.
Die klinische Wissenschaft stellt sich in jüngerer Zeit die Frage, ob Menschen mit Migräne häufiger von zerebro- und kardiovaskulären Ereignissen betroffen sind als andere. Hinweise darauf hatten in den vergangenen Jahren mehrere Untersuchungen an ausgewählten Bevölkerungsgruppen ergeben, die nun gleich durch zwei große Studien bestätigt werden.

Vergleichsstudien mit 450.000 Patienten
„Die größte bisher publizierte Metaanalyse zum Zusammenhang zwischen zerebro- und kardiovaskulären Erkrankungen mit Migräne stützt sich auf die Daten von 16 Studien“, erläutert DMKG-Generalsekretär Gaul. Eingeschlossen wurden annähernd 400.000 Migränepatienten und ca. 750.000 nicht Betroffene als Kontrolle. Nimmt man alle vaskulären Ereignisse zusammen, so war das Risiko der Migränepatienten um 42 Prozent erhöht, für den Schlaganfall um 41 Prozent und für Herzinfarkte um 23 Prozent. Dabei war das Risiko unter den verschiedenen Formen der Migräne ungleich verteilt: Jenes Drittel der Patienten, die bei ihren Anfällen eine Aura erleben – das sind Sehstörungen wie flimmernde Blitze oder Gesichtsfeldausfälle -, hatte ein um 56 Prozent höheres Risiko für Schlaganfälle. Und während die Sterblichkeit an Krankheiten aller Art in der gesamten Gruppe nicht höher war als bei den Kontrollen, galt dies nicht für die Migräne mit Aura. Die Gesamtsterblichkeit dieser Patienten war um 20 Prozent erhöht.
Zu ganz ähnlichen Ergebnissen kommt eine Studie aus Dänemark, wo man die Daten aller mehr als 50.000 Patienten im Land über einen Zeitraum von bis zu 19 Jahren mit denen von 500.000 Kontrollen verglichen hat.

Keine Sorge, aber Vorsicht
„Von dem erhöhten Risiko sollten Patienten sich nicht verängstigen lassen, denn die absolute Zahl der Ereignisse ist relativ gering“, so Diener, der zusammen mit Gaul und dessen Kollegen Peter Kropp auch die aktuelle Migräne-Leitlinie koordiniert hat. Eine Gruppe von Patienten erfordere jedoch besondere Aufmerksamkeit, wie sich aus den Studiendaten ergibt: „Frauen mit häufigen Migräneattacken mit Aura sollten nach ihren vaskulären Risikofaktoren befragt und diese dann konsequent behandelt werden. Von besonderer Bedeutung sind hier das Rauchen und die orale hormonelle Kontrazeption.“ Die Frage, ob durch eine wirksame Behandlung der Migräne auch das Risiko für vaskuläre Ereignisse gesenkt werden kann, ist noch nicht beantwortet. „Um dies nachzuweisen, müssten Studien mit einer Beobachtungszeit von mehr als zehn Jahren durchgeführt werden“, so Gaul.

Quellen
Mahmoud AN et al.: Migraine and the risk of cardiovascular and cerebrovascular events: a meta-analysis of 16 cohort studies including 1 152 407 subjects. BMJ Open. 2018 Mar 27;8(3):e020498. doi: 10.1136/bmjopen-2017-020498.

Adelborg K et al.: Migraine and risk of cardiovascular diseases: Danish population based matched cohort study. BMJ. 2018 Jan 31;360:k96. doi: 10.1136/bmj.k96.

Therapie der Migräneattacke und Prophylaxe der Migräne. Leitlinie der Deutschen Gesellschaft für Neurologie (DGN) in Zusammenarbeit mit der Deutschen Migräne- und Kopfschmerzgesellschaft (DMKG), 26. April 2018. Online.

Neue Migräne-Leitlinie veröffentlicht: Patienten in Deutschland müssen besser versorgt werden. Pressemitteilung der Deutschen Gesellschaft für Neurologie (DGN), 26. April 2018. Online.

Gemeinsame Presseinformation der Deutschen Gesellschaft für Neurologie (DGN) und der Deutschen Migräne- und Kopfschmerzgesellschaft (DMKG)

Fachlicher Kontakt bei Rückfragen
Priv.-Doz. Dr. med. Charly Gaul
Generalsekretär der Deutschen Migräne- und Kopfschmerzgesellschaft
Migräne- und Kopfschmerzklinik Königstein
Ölmühlweg 31, 61462 Königstein im Taunus
Tel.: +49 (0)6174-29040, E-Mail: , www.dmkg.de

Prof. Dr. Hans-Christoph Diener
Seniorprofessor für klinische Neurowissenschaften
Klinik für Neurologie, Universitätsklinikum Essen,
Universität Duisburg-Essen
Tel.: +49 (0)201 723 6540, E-Mail:

Pressestelle der Deutschen Gesellschaft für Neurologie
c/o albertZWEI media GmbH, Oettingenstraße 25, 80538 München
Tel.: +49 (0)89 46148622, E-Mail:

Weitere Informationen:
https://www.dgn.org/presse/pressemitteilungen/56-pressemitteilung-2018/3626-stud…

Anhang

Pressemitteilung als PDF
https://idw-online.de/de/attachment66040

Quelle: idw

(nach oben)


Neues Standardwerk zu Energietechnologien in Deutschland

Christin Hasken Kommunikation
Wuppertal Institut für Klima, Umwelt, Energie gGmbH

Technologieberichte bilden Grundlage für 7. Energieforschungsprogramm
Im Herbst wird das neue 7. Energieforschungsprogramm (EFP) der Bundesregierung verabschiedet. Das Leitprojekt „Trends und Perspektiven der Energieforschung“, Teilvorhaben: „Technologien für die Energiewende“ – kurz TF_Energiewende – liefert eine wesentliche wissenschaftliche Basis für die Entwicklung des Programms. Das Projekt führte das Wuppertal Institut federführend mit 12 weiteren renommierten Forschungseinrichtungen durch. Nun liegen die Ergebnisse öffentlich zugänglich vor: Sie geben einen umfassenden Überblick zum Innovations- und Marktpotenzial der einzelnen Energietechnologien, bewerten Chancen und Risiken sowie den möglichen Beitrag zur Umsetzung der Energiewende und zeigen den Forschungs- und Entwicklungsbedarf. Zwei umfangreiche Bände mit 31 einzelnen Technologieberichten, ein zusammenfassender Bericht sowie ein Methodikband wurden jetzt offiziell an den parlamentarischen Staatssekretär Thomas Bareiß des Bundesministeriums für Wirtschaft und Energie (BMWi) überreicht.

Technologische Innovationen sind ein Schlüssel für den Erfolg der Energiewende. Nachhaltige Energietechnologien zu erforschen und zur Marktreife zu entwickeln ist das Ziel der Energieforschung. Nur durch beständige Forschung und Entwicklung neuer Technologien ist es möglich, kontinuierlich eine höhere Energieeffizienz im Energiesystem zu erreichen, erneuerbare Energien noch stärker nutzen zu können, die Systemstabilität aufrechtzuerhalten und zugleich die Kosten zu senken. Energieforschung kann zudem einen wichtigen Beitrag dafür leisten, die Marktposition der deutschen Wirtschaft auf dem Weltmarkt zu festigen. Das Energieforschungsprogramm der Bundesregierung, das gerade überarbeitet wird, bildet hierfür den zentralen Rahmen.

Das Wuppertal Institut liefert federführend mit dem Leitprojekt „Trends und Perspektiven der Energieforschung“, Teilvorhaben: „Technologien für die Energiewende“ – kurz TF_Energiewende – eine zentrale und umfassende wissenschaftliche Grundlage für diesen Prozess. Zu den Verbundpartnern gehören das Fraunhofer-Institut für System- und Innovationsforschung ISI und das Institut für ZukunftsEnergie- und Stoffstromsysteme (IZES); zehn weitere renommierte wissenschaftliche Institute unterstützten das Großprojekt. Das Bundesministerium für Wirtschaft und Energie (BMWi) förderte das Projekt von August 2016 bis April 2018 mit rund 1,3 Millionen Euro.

Detaillierte Bewertung von Energietechnologien
Ein zentrales Ergebnis des Projekts sind 31 Technologieberichte, die auf insgesamt über 1.700 Seiten den aktuellen Wissensstand zusammenfassen. Jeder einzelne Bericht gibt einen Überblick über zentrale Technologien, die nach heutigem Stand für die Energiewende derzeit und künftig einen relevanten Beitrag leisten können. Innerhalb von „TF_Energiewende“ führte das Konsortium eine umfassende multikriterielle Bewertung des Potenzials von Energietechnologien durch. Diese umfasst unter anderem das Innovations- und Marktpotenzial einzelner Energietechnologien sowie die damit verbundenen Chancen und Risiken. „Mit dem Projekt liegt eine umfassende Wissensbasis vor, die eine Einschätzung über die große Bandbreite der heute in der Diskussion befindlichen Energietechnologien ermöglicht. Sie zeigt auf, welchen Beitrag sie zur Umsetzung der Energiewende grundsätzlich leisten können und wo auch noch Technologielücken bestehen, die zukünftig geschlossen werden müssen“, sagt Prof. Dr.-Ing. Manfred Fischedick, Vizepräsident des Wuppertal Instituts.

Die Technologieberichte geben dem BMWi konkrete Hinweise, die bei der Weiterentwicklung der Energieforschungspolitik und der Vorbereitung des 7. Energieforschungsprogramms (EFP) berücksichtigt werden können. Zusätzlich dienen sie der Wirtschaft als wichtige Grundlage – etwa für die Entscheidung über Entwicklungsschwerpunkte – und sollen Forschungseinrichtungen dabei helfen, Prioritäten bei Forschung und Entwicklung zu formulieren. Zudem unterstützt das neue Technologiekompendium die interessierte Fachöffentlichkeit bei der Meinungsbildung. Damit legen die Verbundpartner ein umfassendes und aktuelles Standardwerk vor. „Die Berichte dienen auch in den kommenden Jahren als umfassendes Nachschlagewerk mit vielfältigen Informationen zu 31 Technologiefeldern des Energiesektors“, erläutert Dr. Peter Viebahn, stellvertretender Leiter der Abteilung Zukünftige Energie- und Mobilitätsstrukturen am Wuppertal Institut.

Begleitet wurden die Berichte durch eine Innovationslückenanalyse auf Grundlage aktueller sektorübergreifender Zielszenarien für Deutschland und die Welt. Mittels ihrer Hilfe zeigte das Konsortium auf, wo mögliche Forschungslücken bestehen, die sich durch bestehende Kompetenzen, oder aufgrund des erwarteten globalen Potenzials durch noch zu entwickelnde Kompetenzen, füllen lassen.

Die 31 Technologieberichte sind in folgende sechs Kategorien unterteilt:
• Erneuerbare Energien
Einzelberichte zu den Themen Bioenergie, Tiefengeothermie, Photovoltaik, solare Wärme und Kälte, solarthermische Kraftwerke, Windenergie mit Exkurs Meeresenergie und Umweltwärme

• Konventionelle Kraftwerke
Einzelberichte zu zentralen Großkraftwerken und dezentralen Kraftwerken (Brennstoffzellen sowie Motoren und Turbinen), CO2-Abscheidung und Lagerung (Carbon Capture and Storage, CCS) sowie CO2-Nutzung

• Infrastruktur
Einzelberichte zu den Themen Stromtransport und -verteilung, Wärmetransport und -verteilung, Energiespeicher (elektrisch, elektrochemisch sowie thermisch, thermochemisch, mechanisch) sowie Nutzung von Erdgas- und Erdölinfrastrukturen und Raffinerien für strombasierte Brennstoffe

• Sektorenkopplung
Einzelberichte zu den Themen Power-to-Gas (Wasserstoff, Methanisierung chemisch-katalytisch sowie biologische Methanisierung), Power-to-Liquids/Power-to-Chemicals und Verfahren der CO2-Abtrennung aus Faulgasen und Umgebungsluft

• Energie- und ressourceneffiziente Gebäude
Ein Einzelbericht zu den Themen energieeffiziente Gebäude und Gebäudetechnik

• Energie- und Ressourceneffizienz in der Industrie
Einzelberichte zu den Themen energieeffiziente Prozesstechnologien, energieeffiziente Querschnittstechnologien, Technologien zur Abwärmenutzung sowie Low-Carbon- und ressourceneffiziente Industrie

Die Berichte beinhalten zusätzlich eine übergreifende Kategorie mit integrativen Aspekten, die energiewirtschaftliche Themen der Elektromobilität in zwei Einzelbänden für Pkw und leichte Nutzfahrzeuge sowie Hybrid-Oberleitungs-Lkw, Fragen der Digitalisierung, Informations- und Kommunikationstechnologien sowie Entwicklungen im Bereich der Systemintegration, -innovation und -transformation thematisieren.
Die Wissenschaftlerinnen und Wissenschaftler fassten die für die Bewertung genutzten Kriterien in einem gesonderten Bericht zusammen. Ein separater Politikbericht enthält vierseitige Zusammenfassungen zu jedem Technologiebericht sowie eine Kurzdarstellung der Bewertungsmethodik.

Beispiele des Forschungsbedarfs
In der Studie bewertete das Projektkonsortium lang bewährte Energietechnologien und solche, die erst im Zuge der fortschreitenden Energiewende benötigt werden. Die Photovoltaik (PV) ist beispielsweise eine schon seit vielen Jahren zur Stromerzeugung aus Solarenergie etablierte Technik. Die Forschungsförderung des 6. EFP trug dazu bei, die Modulwirkungsgrade kristalliner PV innerhalb von zehn Jahren von 12 bis 17 Prozent auf heute 16 bis 22 Prozent zu erhöhen. Gleichzeitig stieg die Lebensdauer von 20 auf 30 Jahre.

Vielfältigen Entwicklungsbedarf sehen die Forscherinnen und Forscher bei der kristallinen Photovoltaik und der Dünnschicht-Technologie. Beispielsweise müssen die bisher erreichten wesentlich höheren Laborwirkungsgrade in die Praxis übertragen werden. „Weiteren Forschungsbedarf sehen wir unter anderem bei bauwerkintegrierter Photovoltaik, die energieerzeugendes Solarmodul und zugleich Funktions- und Designelement ist“, ergänzt Peter Viebahn.

Ein Beispiel für großen Forschungs- und Entwicklungsbedarf stellt zudem die Sektorenkopplung dar – also die Verknüpfung des Stromsektors mit dem Wärme-, Verkehrs- und Industriesektor. Da die Energiewende bisher hauptsächlich eine sogenannte „Stromwende“ ist und es in den anderen Sektoren bislang nur eine geringe Reduktion der CO2-Emissionen gibt, gehen die Wissenschaftlerinnen und Wissenschaftler in mehreren Technologieberichten auf diesen Handlungsbedarf ein, um die klimaverträgliche Versorgung dieser Sektoren über Stromanwendungen zu ermöglichen.

Konsultationsprozess für das 7. Energieforschungsprogramm der Bundesregierung
Das Teilvorhaben „Technologien für die Energiewende“ des Leitprojekts unterstützte zusammen mit einem weiteren Teilvorhaben namens „Handlungsempfehlungen für die Energieforschungspolitik“, kurz EnFo-2030, unter der Leitung der TU München, den öffentlichen Konsultationsprozess, den das BMWi als federführendes Ministerium der Bundesregierung für die Erarbeitung des 7. EFP bis Ende Januar 2018 durchführte. Der Prozess, der von der Energiewende-Plattform „Forschung und Innovation“ des BMWi begleitet wurde, setzt sich aus Empfehlungen der Forschungsnetzwerke Energie, Onlineumfragen sowie Stellungnahmen von Bundesländern, Verbänden, Unternehmen und Wissenschaftseinrichtungen zusammen. In sieben technologiespezifischen Forschungsnetzwerken – Energiewendebauen, Systemanalyse, Stromnetze, Erneuerbare Energien, Energie in Industrie und Gewerbe, Flexible Energieumwandlung und Bioenergie -, die das BMWi ab 2015 sukzessive initiiert hat, sowie im Rahmen des Statusseminars Brennstoffzelle, haben sich Arbeitsgruppen mit den energiepolitischen und energietechnischen Herausforderungen sowie dem daraus abzuleitenden Forschungsbedarf beschäftigt.

Bildunterschrift:
Übergabe der Technologieberichte „TF_Energiewende“ an den parlamentarischen Staatssekretär Thomas Bareiß des Bundesministeriums für Wirtschaft und Energie durch Prof. Dr.-Ing. Manfred Fischedick, Vizepräsident des Wuppertal Instituts und Dr. Peter Viebahn, stellvertretender Leiter der Abteilung Zukünftige Energie- und Mobilitätsstrukturen am Wuppertal Institut sowie die Verbundpartner Prof. Dr. Martin Wietschel des Fraunhofer ISI und M.Sc. Wirtschafts-Ing. Juri Horst der IZES gGmbH.
Ebenfalls anwesend: Vertreter des zweiten Projekts, Dr.-Ing. Christoph Pellinger der Forschungsstelle für Energiewirtschaft FfE und Dipl.-Ing. Patrick Wimmer der TU München.
Quelle: Susanne Eriksson/BMWi

Wissenschaftliche Ansprechpartner:
Prof. Dr.-Ing. Manfred Fischedick, Vizepräsident des Wuppertal Instituts (https://wupperinst.org/c/wi/c/s/cd/5/)

Dr. Peter Viebahn, stellvertretender Leiter der Abteilung Zukünftige Energie- und Mobilitätsstrukturen am Wuppertal Institut (https://wupperinst.org/c/wi/c/s/cd/98/)

Originalpublikation:
Projektwebsite TF_Energiewende
https://wupperinst.org/p/wi/p/s/pd/626/

Technologien für die Energiewende – Kriterienraster
Wuppertal Report Nr. 12
https://wupperinst.org/a/wi/a/s/ad/4380/

Technologien für die Energiewende – Technologiebericht Band 1
Wuppertal Report Nr. 13.1
https://wupperinst.org/a/wi/a/s/ad/4381/

Technologien für die Energiewende – Technologiebericht Band 2
Wuppertal Report Nr. 13.2
https://wupperinst.org/a/wi/a/s/ad/4382/

Technologien für die Energiewende – Politikbericht
Wuppertal Report Nr. 14
https://wupperinst.org/a/wi/a/s/ad/4379/

Weitere Informationen:
https://wupperinst.org/p/wi/p/s/pd/626/ (Projektwebsite TF_Energiewende)

Quelle: idw

(nach oben)


Studie: Kein kausaler Zusammenhang zwischen Heirat und Gehalt bei Männern

Melanie Löw Presse- und Öffentlichkeitsarbeit
Technische Universität Kaiserslautern

„Verheiratete Männer haben ein höheres Gehalt.“ – Dieser kausale Zusammenhang wird in den Wirtschafts- und Sozialwissenschaften schon seit Jahrzehnten behauptet; immer wieder belegt durch Studien. Vor allem in den USA ist das nach wie vor ein großes Thema. Zu einem ganz anderen Schluss hingegen kommen zwei Sozialwissenschaftler aus Kaiserslautern und München in ihrer aktuellen Studie. Sie haben Daten von über 4.000 US-amerikanischen Männern ausgewertet und mit neuen Statistikverfahren untersucht. Ihr Fazit: Ein kausaler Zusammenhang zwischen Heirat und hohem Gehalt lässt sich nicht nachweisen. Die Studie wurde in der renommierten Fachzeitschrift „American Sociological Review“ veröffentlicht.

Der Schritt vor den Traualtar lässt das Einkommen von Männern steigen. Zu diesem Fazit sind in den vergangenen Jahrzenten zahlreiche Untersuchungen gekommen. Literatur zu dem Gehaltsunterschied von verheirateten und unverheirateten Männern gibt es reichlich. „Vor allem in den USA ist dazu viel geforscht worden“, sagt Juniorprofessor Dr. Volker Ludwig vom Fachgebiet Angewandte Soziologie an der Technischen Universität Kaiserslautern (TUK). „Es wird dort stärker thematisiert als bei uns in Europa.“ Als ein Grund dafür wurde oftmals aufgeführt, dass sich der Ehemann auf die Karriere konzentriert, während die Frau ihm den Rücken freihält und sich um Haushalt und Erziehung der Kinder kümmert.

Das grundlegende Problem bei solchen Themen sei, so der Professor weiter, ob es wirklich einen kausalen Zusammenhang gebe. „Kann man also wirklich davon ausgehen, dass die Heirat Männer produktiver macht“, sagt er. „Oder ist es vielleicht nicht eher so, dass Männer, die mehr verdienen, eher heiraten.“

Mit dieser Thematik hat sich Ludwig gemeinsam mit seinem Kollegen Professor Dr. Josef Brüderl von Lehrstuhl für Quantitative Ungleichheits- und Familienforschung der Ludwig-Maximilians-Universität (LMU) München in einer aktuellen Studie befasst. Sie haben mit neuen statistischen Verfahren die Daten von über 4.000 US-amerikanischen Männern ausgewertet, die bis zu 33 Jahre lang regelmäßig zu ihrer Lebenssituation befragt worden sind.

„Bei solchen Untersuchungen gibt es immer bestimmte Variablen, die man nicht berücksichtigen kann“, sagt Brüderl. Fachleute sprechen in diesem Zusammenhang von einem Selektionsproblem. Zum Beispiel können Faktoren wie Aussehen, Gesundheit oder Charaktereigenschaften, die wichtig für die Partnerwahl sind, durchaus auch eine Rolle für die berufliche Karriere und das Gehalt spielen. Auch kann es sein, dass Frauen sich auf dem Heiratsmarkt eher für die Männer interessieren, die gut verdienen. „Was ist hierbei auf selektive, was auf kausale Zusammenhänge zurückzuführen“, sagt Brüderl weiter.

In vergangenen Studien wurde die „Selektion von Besserverdienern in die Ehe“, wie es im Fachjargon heißt, nur teilweise berücksichtigt und konnte mit den herkömmlichen Verfahren auch nicht vollständig herausgerechnet werden. Mit neuen statistischen Methoden hingegen konnten die beiden Sozialwissenschaftler nun die Datensätze „bereinigen“. „Wir kommen zu dem Schluss, dass es keinen kausalen Zusammenhang zwischen Lohn und Heirat gibt“, resümiert Ludwig. „Vielmehr spielt die Selektion hierbei eine größere Rolle, als es bislang berücksichtigt worden ist. Nicht die Heirat führt zu höherer Produktivität und damit höheren Löhnen, sondern produktivere, besser verdienende Männer werden eher geheiratet. Was das Gehalt betrifft, lohnt es sich nicht, zu heiraten.“

Mit ihrer Arbeit möchten die beiden Wissenschaftler auch auf einen methodisch bedingten Trugschluss hinweisen, bei dem es sich wahrscheinlich um ein allgemeineres Problem handeln dürfte. „Es gibt zahlreiche Studien, die sich mit den Vorteilen der Ehe befassen“, erläutert der Professor. Beispielsweise haben solche Untersuchungen in der Vergangenheit gezeigt, dass in der Ehe die Lebenszufriedenheit höher ist oder dass Verheiratete länger leben. „Auch bei diesen Fällen müsste überprüft werden, ob es sich wirklich um einen rein kausalen Zusammenhang handelt“, so Brüderl.

Angesichts dieser Ergebnisse stellt sich die Frage, ob dies auch in Europa so gilt. Erste Ergebnisse für Deutschland liegen vor und zeigen, dass auch bei uns die Heirat nicht produktiver macht, sondern besserverdienende Männer eher heiraten. Allerdings ist in Deutschland das Ausmaß der Selektion in die Ehe geringer als in den USA. Gegenwärtig dehnen die beiden Forscher ihre Analyse mit den neuen Verfahren auf weitere europäische Länder aus.

Die Studie wurde in der renommierten Fachzeitschrift „American Sociological Review“ veröffentlicht: „Is There a Male Marital Wage Premium? New Evidence from the United States“
DOI: https://doi.org/10.1177/0003122418784909
http://journals.sagepub.com/doi/10.1177/0003122418784909

Fragen beantworten:
Juniorprof. Dr. Volker Ludwig
TU Kaiserslautern / Fachbereich Sozialwissenschaften
Tel.: 0631-2055786
E-Mail: ludwig@sowi.uni-kl.de

Professor Dr. Josef Brüderl
Ludwig-Maximilians-Universität
Tel.: 0170-6610025
E-Mail: bruederl@lmu.de
Wissenschaftliche Ansprechpartner:

Juniorprof. Dr. Volker Ludwig
TU Kaiserslautern / Fachbereich Sozialwissenschaften
Tel.: 0631-2055786
E-Mail: ludwig@sowi.uni-kl.de

Professor Dr. Josef Brüderl
Ludwig-Maximilians-Universität
Tel.: 0170-6610025
E-Mail: bruederl@lmu.de
Originalpublikation:

American Sociological Review: „Is There a Male Marital Wage Premium? New Evidence from the United States“
DOI: https://doi.org/10.1177/0003122418784909

Quelle: idw

(nach oben)


Sicherer Auto fahren ohne Grauen Star: Geringeres Unfallrisiko nach Linsenoperation

Lisa-Marie Ströhlein Pressestelle
Deutsche Ophthalmologische Gesellschaft

Patienten, die einen Grauen Star operieren lassen, haben ein um 9 Prozent geringeres Risiko, als Autofahrer einen schweren Verkehrsunfall zu verursachen. Zu diesem Ergebnis kommt eine aktuelle Studie, die kürzlich im Fachjournal JAMA Ophthalmology erschien. Die DOG – Deutsche Ophthalmologische Gesellschaft weist vor diesem Hintergrund darauf hin, dass schlechtes Sehen das Unfallrisiko im Straßenverkehr erhöhen kann. Vor allem ältere Menschen ab dem 60. Lebensjahr sollten ihre Augen deshalb regelmäßig auf Anzeichen eines Grauen Stars untersuchen und, wenn nötig, operieren lassen.

Die Autoren beobachteten über 500 000 Menschen im durchschnittlichen Alter von 76 Jahren über einen Zeitraum von dreieinhalb Jahren bevor und ein Jahr nachdem sie wegen eines Grauen Stars (Katarakt) operiert wurden. Nach dem Eingriff verzeichneten die Studienautoren 9 Prozent weniger Verkehrsunfälle, die durch ihre Patienten verursacht wurden. Die Autoren notierten nur Unfälle, bei denen der Fahrer mit schweren Verletzungen in der Notaufnahme behandelt werden musste. Nach Schätzung der DOG wechseln deutsche Augenärzte mindestens 800 000 Augenlinsen pro Jahr und verhindern dadurch – glaubt man der Studie – rund 200 schwere Verkehrsunfälle. Professor Dr. med. Bernd Lachenmayr von der Verkehrskommission der DOG und des Berufsverbands der Augenärzte erklärt: „Angesichts der hohen Sterblichkeit und der Tatsache, dass Senioren sich meist nicht vollständig von einem Unfall erholen, ist jede Maßnahme, die das Unfallrisiko verringert, ein Schritt in die richtige Richtung.“

Ab dem 60. Lebensjahr kann die menschliche Augenlinse trüb werden. Bei fast 10 Millionen Menschen in Deutschland schreitet die Trübung so weit voran, dass das Sehen dadurch stark eingeschränkt wird. „Besonders im Straßenverkehr, wo es auf gutes Sehvermögen ankommt, kann der Graue Star zu Unfällen führen“, betont Lachenmayr. Dadurch, dass die Trübung oft schleichend verläuft, merken viele Patienten nicht, dass sie schlechter sehen, ergänzt der Münchener Ophthalmologe: „Viele Betroffene sehen noch ausreichend, um einen Fahreignungstest zu bestehen – aber beim Autofahren können auch kleine Einschränkungen schon zu einem Unfall führen.“ Damit sie nicht unentdeckt in dieser Grauzone bleiben, sollten Menschen ab dem 60. Lebensjahr regelmäßig zur Kontrolluntersuchung beim Augenarzt gehen.

Die Katarakt-Operation ist ein Routineeingriff, der fast immer ohne Komplikationen verläuft. Dabei tauscht der Augenarzt die getrübte Linse gegen eine künstliche Linse aus, mit der der Patient wieder scharf sehen kann. Die Kosten dafür trägt die Krankenkasse.

DOG: Forschung – Lehre – Krankenversorgung
Die DOG ist die medizinisch-wissenschaftliche Fachgesellschaft für Augenheilkunde in Deutschland. Sie vereint unter ihrem Dach mehr als 7.200 Ärzte und Wissenschaftler, die augenheilkundlich forschen, lehren und behandeln. Wesentliches Anliegen der DOG ist es, die Forschung in der Augenheilkunde zu fördern: Sie unterstützt wissenschaftliche Projekte und Studien, veranstaltet Kongresse und gibt wissenschaftliche Fachzeitschriften heraus. Darüber hinaus setzt sich die DOG für den wissenschaftlichen Nachwuchs in der Augenheilkunde ein, indem sie zum Beispiel Stipendien vor allem für junge Forscher vergibt. Gegründet im Jahr 1857 in Heidelberg ist die DOG die älteste augenärztliche Fachgesellschaft der Welt und die älteste fachärztliche Gesellschaft Deutschlands.

Weitere Informationen:
http://www.dog.org

Quelle: idw

(nach oben)


Durchbruch bei industrieller CO2-Nutzung

Dr. Ulrich Marsch Corporate Communications Center
Technische Universität München

Professor Arne Skerra von der Technischen Universität München (TUM) ist es zum ersten Mal gelungen, in einer biotechnischen Reaktion gasförmiges CO2 als einen Grundstoff für die Produktion eines chemischen Massenprodukts zu verwenden. Es handelt sich um Methionin, das als essentielle Aminosäure vor allem in der Tiermast in großem Maßstab eingesetzt wird. Das neu entwickelte enzymatische Verfahren könnte die bisherige petrochemische Produktion ersetzen. Die Ergebnisse wurden nun in der Zeitschrift „Nature Catalysis“ veröffentlicht.

Die heute gängige industrielle Herstellung von Methionin erfolgt in einem 6-stufigen chemischen Prozess aus petrochemischen Ausgangsstoffen, bei der unter anderem hochgiftige Blausäure benötigt wird. Im Rahmen einer Ausschreibung lud das Unternehmen Evonik Industries – einer der weltweit größten Hersteller von Methionin – im Jahr 2013 Hochschulforscherinnen und -forscher ein, neue Verfahren vorzuschlagen, mit dem sich die Substanz gefahrloser herstellen lässt. Im Laufe des bisher verwendeten Prozesses entsteht das technisch unproblematische Zwischenprodukt Methional, das in der Natur als Abbauprodukt von Methionin vorkommt.

„Ausgehend von der Überlegung, dass Methionin in Mikroorganismen von Enzymen unter Abgabe von CO2 zu Methional abgebaut wird, versuchten wir diesen Prozess umzukehren“, erklärt Professor Arne Skerra, Inhaber des Lehrstuhls für Biologische Chemie an der TUM. „Denn jede chemische Reaktion ist im Prinzip umkehrbar, allerdings oft nur unter hohem Einsatz von Energie und Druck.“ Mit diesem Konzept beteiligte sich Skerra an der Ausschreibung. Evonik prämierte die Idee und förderte das Projekt.

Zusammen mit dem Postdoc Lukas Eisoldt begann Skerra, die Rahmenbedingungen für den Herstellungsprozess zu ermitteln und die nötigen Biokatalysatoren (Enzyme) herzustellen. Die Wissenschaftler unternahmen erste Versuche und erprobte, welcher CO2-Druck nötig wäre, um in einem biokatalytischen Prozess Methionin aus Methional herzustellen. Überraschend ergab sich eine unerwartet hohe Ausbeute schon bei relativ niedrigem Druck – etwa entsprechend dem Druck in einem Autoreifen von zirka zwei Bar.

Aufgrund der bereits nach einem Jahr erzielten Erfolge verlängerte Evonik die Förderung, und nun untersuchte das Team, verstärkt durch die Doktorandin Julia Martin, die biochemischen Hintergründe der Reaktion und optimierte mit Hilfe von Protein-Engineering die beteiligten Enzyme.

Effizienter als die Photosynthese
In mehrjähriger Arbeit gelang es schließlich, die Reaktion im Labormaßstab nicht nur bis zu einer Ausbeute von 40 Prozent zu verbessern, sondern auch die theoretischen Hintergründe der biochemischen Abläufe aufzuklären.

„Im Vergleich zur komplexen Photosynthese, in der die Natur ebenfalls auf biokatalytischem Wege CO2 als Baustein in Biomoleküle einbaut, ist unser Verfahren hochelegant und einfach“, berichtet Arne Skerra. „Die Photosynthese verwendet 14 Enzyme und hat eine Ausbeute von nur 20 Prozent, während unsere Methode bloß zwei Enzyme benötigt.“

Das Grundmuster dieser neuartigen biokatalytischen Reaktion kann künftig auch Vorbild für die industrielle Herstellung anderer wertvoller Aminosäuren oder von Vorprodukten für Arzneimittel sein. Das Team von Professor Skerra wird das inzwischen patentierte Verfahren durch Protein-Engineering nun so weit verfeinern, dass es sich für die großtechnische Anwendung eignet.

Damit könnte es zum ersten Mal einen biotechnologischen Herstellungsprozess geben, der gasförmiges CO2 als unmittelbaren chemischen Grundstoff nutzt. Bisher scheiterten Versuche, das klimaschädliche Treibhausgas stofflich zu verwerten, an dem äußerst hohen Energieaufwand, der dazu nötig ist.

Weitere Informationen:
Methionin ist eine Aminosäure, also ein Grundbaustein von Eiweißstoffen, der für viele Lebewesen – vor allem den Menschen – essentiell ist, aber von diesen nicht selbst produziert werden kann. Diese Aminosäure muss deshalb mit der Nahrung aufgenommen werden. Ähnlich wie Mineraldünger das Wachstum von Pflanzen beschleunigt, verbessert Methionin das Wachstum von Masttieren wie etwa Geflügel oder Fisch. Die Jahresproduktion von Methionin beträgt derzeit etwa eine Million Tonnen weltweit.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Arne Skerra
Technische Universität München
Lehrstuhl für Biologische Chemie
Tel.: +49 (0)8161 71-4351
E-Mail: skerra@tum.de

Originalpublikation:
Martin, J., Eisoldt, L. & Skerra, A.: Fixation of gaseous CO2 by reversing a decarboxylase for the biocatalytic synthesis of the essential amino acid L-methionine, Nature Catalysis 1, 555-561, 07/2018. DOI 10.1038/s41929-018-0107-4

Weitere Informationen:

https://www.tum.de/die-tum/aktuelles/pressemitteilungen/detail/article/34836/

Quelle: idw

(nach oben)


Forschungsoffensive zu regenerativen Kraftstoffen

Monika Landgraf Strategische Entwicklung und Kommunikation – Gesamtkommunikation
Karlsruher Institut für Technologie

Der von fossilen Kraftstoffen getriebene Verkehr trägt durch den CO2-Ausstoß wesentlich zum Klima-wandel bei. Synthetische Kraftstoffe – „reFuels“ – lassen sich auch aus nicht-fossilen Kohlenstoffquellen wie bio-genen Reststoffen in Kombination mit der direkten Umwandlung von CO2 und erneuerbarem Wasserstoff herstellen. Das KIT will mit Partnern aus der Automobil-, Automobilzuliefer- und Mineralölindustrie und mit Unterstützung der Landesregierung Baden-Württembergs die Chancen, die diese Kraftstoffe für Gesellschaft, Wirtschaft und Umwelt bieten, in einem breit angelegten Programm erforschen. Eine entsprechende Absichtserklärung wurde heute in Stuttgart unterzeichnet.

Beim Projekt „reFuels – Kraftstoffe neu Denken“ sollen Verfahren, mit denen Otto- und Dieselkraftstoffe aus nachhaltig zugänglichen Rohstoffen wie etwa Pflanzenteilen auch in großem Maßstab produziert werden können, betrachtet werden. Untersucht werden soll außerdem, wie sich die regenerativen Kraftstoffe auf den Schadstoffausstoß der bestehenden Flotte und auf die Funktion der Fahrzeuge sowie einzelner Komponenten auswirken. Schließlich wollen die Projektpartner bei Gesellschaft und Verbrauchern schon heute Akzeptanz für die neuartigen Treibstoffe schaffen. All dies haben Landesregierung und KIT heute am Rande des Jahrestreffens des Strategiedialogs „Automobilwirtschaft“ in Stuttgart vereinbart.

„Um die vorgegebenen Klimaziele zu erreichen, benötigen wir einen intelligenten Mix aus unterschiedlichen alternativen Antrieben. Effiziente synthetische Kraftstoffe aus nachhaltigen Quellen können dabei mittel- und langfristig eine mögliche klimaneutrale Perspektive für den Verbrennungsmotor sein“, sagte Ministerpräsident Winfried Kretschmann. „Indem wir nun gemeinsam mit den Partnern aus der Automobil- und Zulieferindustrie, der Mineralölwirtschaft und der Zivilgesellschaft die Forschung dazu intensivieren, gehen wir einen wichtigen Schritt auf dem Weg hin zu klimafreundlicher Mobilität.“

Verkehrsminister Winfried Hermann sagte: „Synthetische Kraftstoffe aus regenerativen Energiequellen könnten in Zukunft einen wichtigen Beitrag zur dringend notwendigen Verringerung des CO2-Ausstoßes im Verkehrssektor darstellen. Nur wenn wir alle Instrumente für den Klimaschutz im Verkehrssektor nutzen, können wir die international vereinbarten Ziele von Paris erreichen. Ich freue mich daher, dass wir mit dem Projekt reFuels die Effizienz solcher Kraftstoffe in Baden-Württemberg weiterentwickeln und sinnvolle Anwendungsbereiche ausloten können.“

„reFuels sind ein wichtiger Schritt hin zum Wirtschaften in einem geschlossenen CO2-Kreislauf“, sagte der Präsident des KIT, Professor Holger Hanselka. „Mit dem Klimawandel geht das KIT nicht nur eines der drängendsten gesellschaftlichen Probleme an. Regenerative Kraftstoffe können entlang der gesamten Wertschöpfungskette zukünftig auch ganz neue Geschäftsfelder eröffnen“, so Hanselka weiter.

„Da Effizienzgewinne bei Benzin- und Dieselmotoren in den vergangenen Jahren durch die Zunahme des Verkehrs ausgeglichen wurden, aber Verbrennungsmotoren bei der Beförderung schwerer Lasten und weiten Strecken auf absehbare Zeit weiter eine wichtige Rolle spielen werden, können umweltfreundliche und motorenverträgliche synthetische Kraftstoffe einen substantiellen Beitrag für einen nachhaltigeren Verkehr leisten“, sagte Professor Thomas Hirth, Vizepräsident des KIT für Innovation und Internationales.

Mit „bioliq“ und dem „Energy Lab 2.0″ verfügt das KIT schon jetzt über zwei Plattformen für die Herstellung von „reFuels“. Für das bioliq-Verfahren, mit dem hochwertige Kraftstoffe aus biogenen Roh- und Reststoffen wie etwa Stroh erzeugt werden können, existiert eine Pilotanlage, die bereits Musterkraftstoffe liefert. Das Energy Lab 2.0, das gerade aufgebaut wird, ist ein Anlagenverbund, der unterschiedliche Technologien zur Erzeugung und Nutzung elektrischer, thermischer und chemischer Energie wie beispielsweise Gasturbinen, Power-to-Methan und Wasserelektrolyse verknüpft und unterschiedliche Kraftstoffkomponenten wie Dieselkraftstoffe oder Jetfuels produzieren kann.

Folgende Partner (in alphabetischer Reihenfolge) haben bereits ihre Mitwirkung an dem Projekt „reFuels“ zugesagt:
AUDI AG, Caterpillar Energy Solutions GmbH (MWM), Daimler AG, Eberspächer GmbH & Co. KG, Freudenberg Sealing Technologies GmbH & Co. KG, KS Kolbenschmidt GmbH, Mahle GmbH, Mann + Hummel GmbH, Dr. Ing. h.c. F. Porsche AG, Robert Bosch GmbH, Rolls-Royce Powersystems AG (MTU) sowie ENBW AG und MiRO GmbH & Co. KG mit Unterstützung des Mineralölwirtschaftsverbandes (MWV).

Weitere Materialien:
Bilder von der Unterzeichnung in Kürze hier: http://www.kit.edu/kit/pi_2018_088_forschungsoffensive-zu-regenerativen-kraftsto…

Weiterer Kontakt:
Dr. Felix Mescoli, Redakteur/Pressereferent, Tel.: +49 721 608-48120, E-Mail: felix.mescoli@kit.edu

Als „Die Forschungsuniversität in der Helmholtz-Gemeinschaft“ schafft und vermittelt das KIT Wissen für Gesellschaft und Umwelt. Ziel ist es, zu den globalen Herausforderungen maßgebliche Beiträge in den Feldern Energie, Mobilität und Information zu leisten. Dazu arbeiten rund 9 300 Mitarbeiterinnen und Mitarbeiter auf einer breiten disziplinären Basis in Natur-, Ingenieur-, Wirtschafts- sowie Geistes- und Sozialwissenschaften zusammen. Seine 25 500 Studierenden bereitet das KIT durch ein forschungsorientiertes universitäres Studium auf verantwortungsvolle Aufgaben in Gesellschaft, Wirtschaft und Wissenschaft vor. Die Innovationstätigkeit am KIT schlägt die Brücke zwischen Erkenntnis und Anwendung zum gesellschaftlichen Nutzen, wirtschaftlichen Wohlstand und Erhalt unserer natürlichen Lebensgrundlagen.

Diese Presseinformation ist im Internet abrufbar unter: http://www.sek.kit.edu/presse.php

Anhang

Forschungsoffensive zu regenerativen Kraftstoffen
https://idw-online.de/de/attachment66154

Quelle: idw

(nach oben)


Risikofaktor für Darmkrebs entschlüsselt

Dr. Annegret Burkert Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Stoffwechselforschung

Kölner Forscher klären Zusammenhang zwischen Übergewicht und Tumorwachstum auf

Laut Deutschem Krebsforschungszentrum zählt Darmkrebs hierzulande bei Männern zur dritt- und bei Frauen zur zweithäufigsten Tumorerkrankung. Auch bei Neuerkrankungen liegt Deutschland im internationalen Vergleich mit an der Spitze. Dabei scheinen vor allem die Ernährungs- und Lebensgewohnheiten eine grundlegende Rolle zu spielen, denn Übergewichtige haben ein erhöhtes Risiko zu erkranken. Wissenschaftler vom Max-Planck-Institut für Stoffwechselforschung in Köln entschlüsselten nun die detaillierten Zusammenhänge dieses Phänomens und liefern damit die Grundlage für neue Therapieansätze.

„Wenn der Körper immer mehr überschüssiges Fett speichern muss, entsteht im Fettgewebe eine Stressreaktion“, erklärt Forschungsgruppenleiter und Privatdozent Dr. Thomas Wunderlich. Die Stressreaktion alarmiert die körpereigene Immunabwehr, die wiederum im Fettgewebe eine Entzündung auslöst. Anhaltendes Übergewicht versetzt den Körper in Dauerstress und die Entzündung breitet sich über das Blut im ganzen Körper aus. Dies führt letztlich zu einer Umprogrammierung von Zellen der Immunabwehr, die dadurch Krebszellen nicht mehr bekämpfen, sondern ihr Überleben fördern und so das Tumorwachstum unterstützen.

Diese neuen molekularbiologischen Erkenntnisse veröffentlichten die Wissenschaftler kürzlich in der Fachzeitschrift Nature Communications. Erstautorin Dr. Claudia Wunderlich, die einen Großteil der Forschungsarbeit leistete, betont aber: „Nur weil man dick ist, erkrankt man noch lange nicht an Krebs. Doch sollten entartete Zellen im Körper vorhanden sein, begünstigt Übergewicht das Tumorwachstum.“

Die Studie gibt aber nicht nur Aufschluss darüber, wie Übergewicht und Darmkrebs zusammenhängen. „Anhand von Mausmodellen konnten wir spezifische Angriffspunkte für mögliche Therapieansätze beim Menschen herausarbeiten“, erläutert Dr. Claudia Wunderlich. In übergewichtigen Mäusen konnten die Forscher das Erkrankungsrisiko bereits senken. Hierzu eliminierten sie zum einen spezielle Immunzellpopulationen, zum anderen veränderten sie die Genetik der Tiere so, dass bestimmte Immunzellen trotz fettreicher Ernährung nicht mehr umprogrammiert werden konnten. In beiden Fällen schwächte sich die Entzündung ab, entartete Zellen wurden wieder bekämpft und die Darmkrebsentwicklung vermindert.

Wissenschaftliche Ansprechpartner:
Dr. Thomas Wunderlich
Max-Planck-Institut für Stoffwechselforschung, Köln
+49 221 47260 678
thomas.wunderlich@sf.mpg.de

Originalpublikation:Claudia M. Wunderlich, P. Justus Ackermann, Anna Lena Ostermann, Petra Adams-Quack, Merly C. Vogt, My-Ly Tran, Alexei Nikolajev, Ari Waisman, Christoph Garbers, Sebastian Theurich, Jan Mauer, Nadine Hövelmeyer, F. Thomas Wunderlich.

Obesity exacerbates colitis-associated cancer via IL-6-regulated macrophage polarisation and CCL-20/CCR-6-mediated lymphocyte recruitment.
Nature Communications, 2018.

Quelle: idw

(nach oben)


Erneuerbarer Kraftstoff aus der Kläranlage

Monika Landgraf Strategische Entwicklung und Kommunikation – Gesamtkommunikation
Karlsruher Institut für Technologie

Einen wichtigen Schritt zu einem geschlossenen Kohlendioxid-Kreislauf gehen die Ausgründung des Karlsruher Instituts für Technologie (KIT) INERATEC und das spanische Energieunternehmen GAS NATURAL FENOSA: Im katalonischen Sabadell haben sie eine Anlage errichtet, die aus klimaschädlichem Kohlendioxid (CO2) und erneuerbarem Wasserstoff synthetisches Erdgas erzeugt. Das Verfahren basiert auf der Herstellung von Wasserstoff durch Elektrolyse und deren Reaktion mit CO2 aus biogenen Quellen – zum Beispiel aus Klärschlamm.

In der Kläranlage der 200.000-Einwohner-Stadt Sabadell im Großraum Barcelona sind die Grundstoffe reichlich vorhanden, wie INERATEC-Geschäftsführer Tim Böltken erläutert. „Der Prozess nutzt Energie aus erneuerbaren Quellen und speichert diesen im chemischen Energieträger Methan. Spanien hat in den vergangenen vier Jahren bereits 40 Prozent seiner Elektrizität aus erneuerbaren Energiequellen – meist Windkraft – erzeugt“, sagt Böltken, Alumnus des KIT. Das Power-to-Gas-Verfahren wandelt nun überschüssigen oder dezentral anfallenden Strom aus erneuerbaren Quellen wie Sonnen- oder Windkraft in Methan um.

Ziel ist, erneuerbare Gase zu produzieren, die mit der bestehenden Erdgasversorgung in Spanien kompatibel sind. Der große Vorteil: Das erneuerbare Gas kann in der bestehenden Gasinfrastruktur gespeichert und in Gebiete in ganz Spanien transportiert werden. Die Gasspeicherkapazität in Spanien beträgt etwa 30 Terawattstunden, was bedeutet, dass der in dortigen Windkraftanlagen erzeugte Strom ein halbes Jahr lang gespeichert werden kann.

Bislang war solch eine dezentrale Produktion nicht wirtschaftlich möglich, weil für das chemische Verfahren normalerweise extrem teure, großtechnische chemische Anlagen nötig sind. Den Ineratec-Gründern gelang der Durchbruch, indem sie eine passende chemische Reaktortechnologie entwickelten, die zum Beispiel in einen Schiffscontainer passt. Die fertig montierten, modularen Kompaktanlagen sind nach dem Baukastensystem konzipiert, sodass sich die Kapazität ganz nach Bedarf erweitern lässt.

Die Pilotanlage in Sabadell soll vorerst 100 Kubikmeter Gas pro Tag produzieren. Sie ist zusätzlich mit einem Katalysator ausgestattet, der vom katalonischen Institut für Energieforschung (IREC) für die Umsetzung von CO2 aus biogenen Quellen entwickelt wurde. Die Anlage ist Teil des spanischen Projekts Synthetic Fuels – Combustibles Sintètics (CoSin), das vom Europäischen Fonds für regionale Entwicklung gefördert wird.

Weiterer Kontakt:
Dr. Felix Mescoli, Redakteur/Pressereferent, Tel.: +49 721 608 48120, E-Mail: felix.mescoli@kit.edu
Details zum KIT-Zentrum Energie: http://www.energie.kit.edu

Als „Die Forschungsuniversität in der Helmholtz-Gemeinschaft“ schafft und vermittelt das KIT Wissen für Gesellschaft und Umwelt. Ziel ist es, zu den globalen Herausforderungen maßgebliche Beiträge in den Feldern Energie, Mobilität und Information zu leisten. Dazu arbeiten rund 9 300 Mitarbeiterinnen und Mitarbeiter auf einer breiten disziplinären Basis in Natur-, Ingenieur-, Wirtschafts- sowie Geistes- und Sozialwissenschaften zusammen. Seine 25 500 Studierenden bereitet das KIT durch ein forschungsorientiertes universitäres Studium auf verantwortungsvolle Aufgaben in Gesellschaft, Wirtschaft und Wissenschaft vor. Die Innovationstätigkeit am KIT schlägt die Brücke zwischen Erkenntnis und Anwendung zum gesellschaftlichen Nutzen, wirtschaftlichen Wohlstand und Erhalt unserer natürlichen Lebensgrundlagen.

Diese Presseinformation ist im Internet abrufbar unter: http://www.sek.kit.edu/presse.php

Wissenschaftliche Ansprechpartner:
felix.mescoli@kit.edu
http://www.energie.kit.edu
http://www.sek.kit.edu/presse.php

Anhang
Erneuerbarer Kraftstoff aus der Kläranlage
https://idw-online.de/de/attachment66095

Quelle: idw

(nach oben)


Die richtige Bluthochdruckeinstellung, auch im Urlaub!

Dr. Bettina Albers Geschäftsstelle
Deutsche Hochdruckliga

Eine optimale Blutdruckeinstellung ist wichtig – auch im Urlaub. Eine wichtige Botschaft, denn manche Patienten machen auch einfach „Medikamentenferien“, was regelrecht gefährlich werden kann. Die richtige Bluthochdruckeinstellung ist aber nicht nur eine Frage der inneren Einstellung, sondern auch der Information und Organisation: Was ist bei einem Langstreckenflug zu beachten? Und wie verhält sich der Blutdruck bei hohen Temperaturen? Was muss ich bei der Tabletteneinnahme im Sommer beachten? So kommen Blutdruckpatienten „ohne Druck“ und gesundheitliche Komplikationen durch den Hochsommer und die Feriensaison.

Bei hohen Temperaturen im Sommer ist der Blutdruck in der Regel niedriger als in den Wintermonaten: Die Blutgefäße erweitern sich bei Hitze, es kommt zu vermehrten Verlusten von Kochsalz und Wasser beim Schwitzen und in der Folge fällt der Druck ab. Das kann zur Folge haben, dass bei einigen Patienten die „normale“ Dosis der blutdrucksenkenden Medikamente bei Hitzeperioden zu hoch ist und es unter Umständen zu Schwindel, Müdigkeit und Schwäche kommen kann. Wenn sich eines dieser Symptome bei Hochdruckpatienten im Sommer einstellt, ist die Wahrscheinlichkeit hoch, dass die Blutdruckmedikamente für die Jahreszeit zu stark dosiert sind. „Mit der täglichen Blutdruckmessung haben die Patienten den Werteverlauf im Blick und sehen, wenn der Blutdruck stärker als sonst abgefallen ist, obwohl sie die Medikamente wie gewohnt eingenommen haben. Das ist der Grund, warum wir die tägliche Selbstmessung vor allem in den Sommermonaten empfehlen“, erklärt Professor Bernhard Krämer, Präsident der Deutschen Hochdruckliga e.V. DHL® | Deutsche Gesellschaft für Hypertonie und Prävention. Ist der Blutdruck deutlich niedriger als üblich bei gleicher Medikamenteneinnahme, empfiehlt Prof. Krämer den Gang zum Hausarzt. Der kann dann einen neuen Dosierungsplan für die heißen Tage erstellen. „Patienten sollten es erst gar nicht so weit kommen lassen, dass ihr Blutdruck im Sommer (oder im Urlaub) unter normaler Dosierung zu stark abfällt, dass sich Symptome wie Schwindel entwickeln“, so der Experte. Gerade wenn ein Urlaub in warmen Gefilden geplant ist, sollte das vorab mit dem Hausarzt besprochen werden. „Vor Ort ist es immer schwierig, einen Arzt zu finden, zumal oft auch Verständigungsschwierigkeiten dazu kommen. Außerdem möchte man den Urlaub ja auch genießen und nicht beim Arzt sitzen“. Daher empfiehlt es sich also, vorher mit den Arzt zu sprechen und einen reduzierten Einnahmeplan dabei zu haben, für den Fall, dass der Blutdruck unter der normalen Blutdruckmedikation zu weit abfällt. „Ein Blutdruckmessgerät gehört bei Patienten mit Bluthochdruck sowieso ins Reisegepäck“, so der Experte, „denn Bluthochdruck macht keine Ferien!“

Will man keine gefährlichen Folgekrankheiten wie Schlaganfall oder Herzinfarkt riskieren, muss der Blutdruck ganzjährig gut eingestellt sein. „Die tägliche Kontrollmessung ist dafür wichtig, aber auch die regelmäßige Einnahme der Tabletten, und zwar ohne Pause. Patienten sollten sicherstellen, dass sie ihre Medikamente im Urlaub dabeihaben – und zwar in ausreichender Menge. Wenn´s knapp wird, lieber noch schnell ein Rezept beim Hausarzt anfordern und gut vorbereitet auf die Reise gehen, als dass es einem im Urlaub schlecht geht.

Beim Thema „Langzeitflüge“ muss darüber hinaus beachtet werden, dass es durch die Zeitverschiebung zu Änderungen kommen kann. Grundsätzlich sind alle Flüge, die zu einem Zeitunterschied von bis zu 3 Stunden führen, problemlos, da muss bei der Einnahme nichts geändert werden. Wer seine Blutdruckmedikamente morgens um 9 Uhr einnimmt, kann sie dann auch im Urlaubsziel zur Ortszeit 9 Uhr einnehmen.

Bei Langstreckenflügen, die zu einem Zeitunterschied von mehr als 3 Stunden führen, kommt es darauf an, in welche Richtung man fliegt. Eine Zeitverschiebung von mehr als 3 Stunden bei Flügen in Richtung Osten führt dazu, dass der Reisetag deutlich verkürzt ist. Bleibt man an dem Tag beim normalen Einnahmeschema, kann das zu einer Überdosierung der Medikamente führen, eine Reduktion der Standardmedikation oder Verschiebung des Einnahmezeitpunktes sollte also erwogen werden. Umgekehrt kommt es bei langen Flügen in Richtung Westen zu einer Verlängerung des Tages, die eventuell eine Zusatzdosis notwendig macht. Vor einem Langstreckenflug sollten sich Bluthochdruck-Patienten von ihrem Hausarzt beraten lassen, wie sie während des Flugs und auf der Reise ihre Medikamente einnehmen sollten.

Wichtiger Tipp zum Schluss: Nehmen Sie Ihre Medikamente immer im Handgepäck mit. Denn sollte einmal der Koffer verloren gehen, ist sichergestellt, dass Sie das Wichtigste, Ihre Medikamente, bei sich haben! Da einige Länder restriktive Zoll-Einfuhrbestimmungen haben, empfiehlt es sich auch, eine Bescheinigung des Arztes mitzuführen, die bestätigt, dass die Medikamente für den eigenen Gebrauch sind. Der ADAC bietet ein entsprechendes mehrsprachiges Formular an, dass vorm Urlaub vom Arzt ausgefüllt werden muss, siehe: https://www.adac.de/_mmm/pdf/Formular-Aerztliches-Attest_Texteingabe_290174.pdf

Kontakt/Pressestelle
Dr. Bettina Albers
albers@albersconcept.de
Telefon: 03643/ 776423
Mobile: 0174/ 2165629

Weitere Informationen:
https://www.hochdruckliga.de/

Quelle: idw

(nach oben)


Brustimplantate mit Tomaten-DNA fälschungssicher kennzeichnen

Britta Widmann Kommunikation
Fraunhofer-Gesellschaft

Jahrelang hat ein französisches Unternehmen Brustimplantate aus billigen Industrie-Silikonkomponenten verkauft. Der Skandal, der 2010 erstmals für Schlagzeilen sorgte, beschäftigt bis heute die Gerichte. Ein Forscherteam des Fraunhofer-Instituts für Angewandte Polymerforschung IAP hat jetzt ein Verfahren entwickelt, das derartigen Betrug verhindert. Künftig können Hersteller Implantate fälschungssicher kennzeichnen – mit Hilfe von verkapselter Tomaten-DNA.

Produktfälschungen erweisen sich im Zuge der Globalisierung als wachsendes Problem für Hersteller. Für den Verbraucher wird es riskant, wenn Fälscher sensible Produkte wie Medizintechnik und Medikamente ins Visier nehmen. Die Plagiate sind meist minderwertig und können die Gesundheit der Patienten erheblich beeinträchtigen oder sich sogar als lebensgefährlich erweisen. Dies hat der Skandal um Brustimplantate einer französischen Firma gezeigt, die bei der Herstellung der Implantate nicht zugelassene Silikone zugemischt hatte, um die Produktionskosten zu senken (siehe Kasten »So werden Brustimplantate hergestellt«).

Die unerlaubte Manipulation nachzuweisen, ist nachträglich kaum möglich. Ob minderwertiges Silikon verwendet wurde, lässt sich im Nachhinein nur mit erheblichem analytischen Aufwand aufdecken. »In der Regel kaufen die Fälscher hochwertige Einzelkomponenten von renommierten Lieferanten und strecken diese mit billigem Silikon, das einen Bruchteil des erstklassigen Materials kostet. Der finanzielle Gewinn der Produktpiraten ist immens«, weiß Dr. Joachim Storsberg, Wissenschaftler am Fraunhofer IAP in Potsdam und Gutachter in Gerichtsverfahren, die Brustimplantate betreffen. Eine Methode, die eine nachträgliche Manipulation einer oder mehrerer Komponenten sowohl qualitativ als auch quantitativ nachweist, wäre ideal.

Keine Chance für Produktpiraterie
Ein solches Verfahren haben Storsberg und sein Team – dem unter anderem Marina Volkert von der Beuth Hochschule für Technik Berlin angehört – entwickelt, es ist bereits patentiert. Die Idee: Mithilfe von DNA-Sequenzen könnten Implantate permanent und identitätssicher markiert werden. Hersteller hätten so die Möglichkeit, Produkte fälschungssicher zu kennzeichnen und so für mehr Patientensicherheit zu sorgen. Der Clou: Als Marker nutzen die Forscher Tomaten-DNA, die sich in diversen Experimenten als ideales Markierungsmaterial erwies. »Wir haben aus Tomatenblättern genomische DNA (gDNA) isoliert und in die Silikonmatrix eingebettet. Dabei haben wir zum Herstellen von Brustimplantaten zugelassene Siloxane, Bausteine für Silikonprodukte, verwendet«, erläutert Storsberg. In Modellversuchen konnten die Forscherinnen und Forscher die Temperaturbeständigkeit der extrahierten DNA demonstrieren. Hierfür wurde das Silikon, in dem sich die gDNA befindet, über einen Zeitraum von fünf Stunden bei 150 Grad vulkanisiert, und anschließend per PCR, einer Technik zur Vervielfältigung der DNA, und einem speziellen Analyseverfahren, der Gelelektrophorese, überprüft. Das Ergebnis: Die DNA wurde nicht abgebaut, sie blieb stabil.

»Brustimplantate bestehen aus Komponenten, sprich aus mehreren Silikonpolymeren, die vernetzt werden und ein Gel bilden. Der Hersteller der Komponenten hat nun die Möglichkeit, gleich beim Produktionsprozess die Silikone mit der verkapselten Tomaten-DNA-Sequenz zu markieren. Die eingesetzte DNA sowie deren Konzentration sind nur ihm bekannt. Erst dann werden die Komponenten an den Produzenten des eigentlichen Implantats verkauft. Streckt dieser nun die Komponenten nachträglich mit minderwertigen Materialien oder verwendet er eine niedrigere Konzentration, so lässt sich dies per PCR nachweisen. Das funktioniert im Prinzip wie ein Vaterschaftstest«, führt Storsberg aus. Der Vorteil der Tomaten-DNA: Sie ist quasi kostenlos und eignet sich zum Kennzeichnen vieler polymerbasieren Implantate, also beispielsweise auch zum fälschungssicheren Markieren von Linsenimplantaten.

Die Ergebnisse der IAP-Forscher wurden bereits in der Fachzeitschrift »Plastische Chirurgie« veröffentlicht.

Weitere Informationen:
https://www.fraunhofer.de/de/presse/presseinformationen/2018/august/brustimplant…

Quelle: idw

(nach oben)


Designerzellen schlucken das Klimagas CO2

Christina Mühlenkamp Stabsstelle Hochschulkommunikation
Philipps-Universität Marburg

Marburger Forschergruppe erhält 1,5 Millionen Euro der VolkswagenStiftung zur Erforschung neuer CO2-Umwandlungswege

Im Projekt „BRILIANCE“ (BRinging Inorganic carbon to LIfe with Artificial CO2-fixation in a minimal Cell) sollen Designerzellen so umprogrammiert werden, dass sie einen komplett neuen Stoffwechselweg entwickeln, mit dem sie das Klimagas CO2 binden und umwandeln können. Hierfür kooperieren in Marburg am Zentrum für Synthetische Mikrobiologie (Synmikro) die Arbeitsgruppen von Prof. Dr. Roland Lill (Institut für Zytobiologie der Philipps-Universität) und Dr. Tobias Erb (Max-Planck-Institut für terrestrische Mikrobiologie) mit dem J. Craig Venter Institute in den USA. Das Konsortium erhält im Rahmen der Förderlinie „Leben? – Ein neuer Blick der Naturwissenschaften auf die grundlegenden Prinzipien des Lebens“ 1,5 Millionen Euro der VolkswagenStiftung über einen Zeitraum von fünf Jahren.

Der neue Weg der CO2-Umwandlung kann als Alternative zu natürlich entstandenen CO2-Umwandlungswegen dienen, wie sie etwa während der Photosynthese bei Pflanzen vorkommen. Durch die neuen Synthesewege von CO2 sollen organische Verbindungen leicht hergestellt werden können, die wir im täglichen Leben benötigen – etwa für die Produktion von Nahrungsmitteln, Treibstoffen und Pharmazeutika direkt aus CO2. Die fundamentale Eigenschaft des Lebens, unbelebten Kohlenstoff in organische Verbindungen umzuwandeln, soll somit genau erforscht, nachgeahmt und neu erfunden werden.

Insgesamt wurden 95 Anträge bei der VolkswagenStiftung eingereicht. Davon werden nun sieben Projekte mit einer Gesamtsumme von 9,8 Millionen Euro gefördert. Alle geförderten Projekte widmen sich der fundamentalen Frage nach den Grundprinzipien des Lebens. Die wissenschaftlichen Vorhaben haben beispielsweise die Bildung von mehrzelligen Lebewesen aus Einzelzellen oder die Herkunft der ersten Eiweiße in der Zelle zum Thema.

Wissenschaftliche Ansprechpartner:
Prof. Dr. Roland Lill
Institut für Zytobiologie
Fachbereich Medizin
Philipps-Universität Marburg
Tel.: 06421 28-66449
E-Mail: lill@staff.uni-marburg.de
Website: www.uni-marburg.de/fb20/cyto

Dr. Tobias J. Erb
Department für Biochemie & Synthetischer Metabolismus
Max Planck Institut für terrestrische Mikrobiologie
35043 Marburg
Tel.: 06421 178-700
E-Mail: toerb@mpi-marburg.mpg.de
Website: http://www.mpi-marburg.mpg.de/erb

Weitere Informationen:
http://www.volkswagenstiftung.de/leben

Quelle: idw

(nach oben)


Erfahrungen mit Essstörungen

Rudolf-Werner Dreier Presse- und Öffentlichkeitsarbeit
Albert-Ludwigs-Universität Freiburg im Breisgau

Die Website www.krankheitserfahrungen.de präsentiert ein neues Modul zum Thema Anorexie und Bulimie

Erfahrungen, Informationen, Unterstützung: Das neue Modul „Essstörungen: Anorexie und Bulimie“ auf der Website www.krankheitserfahrungen.de ist veröffentlicht. Auf der Internetplattform erzählen Menschen von ihrem Leben zwischen Gesundheit und Krankheit. Die verschiedenen Krankheitsbilder und Erfahrungen mit dem Gesundheitssystem werden wissenschaftlich aufbereitet und präsentiert. Im Mittelpunkt stehen die Schilderungen von betroffenen Menschen in Form von Video-, Audio- und Textausschnitten.

Das neue Modul bedeutet für das Projekt ein Jubiläum: Mit der Veröffentlichung ist nun der zehnte Erfahrungsbereich auf der Internetplattform verfügbar. Das Modul berichtet von Erfahrungen mit einer Essstörung – von Betroffenen für Betroffene, Angehörige sowie Professionelle. Beteiligt haben sich 19 Frauen zwischen 18 und 63 Jahren, die zwischen einem Jahr und 40 Jahren mit einer Essstörung leben oder gelebt haben. Zum Zeitpunkt der Interviews waren sie in unterschiedlichen Krankheitsstadien: Einige waren akut betroffen, andere haben die Erkrankung komplett hinter sich gelassen. Die Berichte der Erzählerinnen umfassen unter anderem den Beginn ihrer Essstörung, deren Auswirkungen auf den Alltag sowie verschiedene Erfahrungen mit Hilfsangeboten. Die Nutzerinnen und Nutzer der Website können Ausschnitte zum jeweiligen Thema aus den Interviews anschauen, anhören oder lesen.

Die Internetplattform www.krankheitserfahrungen.de gibt es seit nunmehr acht Jahren. Sie ist ein Projekt der Abteilung Rehabilitationspsychologie und Psychotherapie am Institut für Psychologie der Universität Freiburg und des Instituts für Allgemeinmedizin der Universität Göttingen in Kooperation mit dem Institut für Public Health der Berliner Universitätsmedizin Charité.

Zur Website
www.krankheitserfahrungen.de

Kontakt:
Dr. Lisa Schäfer-Fauth
Institut für Psychologie
Albert-Ludwigs-Universität Freiburg
Tel.: 0761/203-3041
lisa.schaefer@psychologie.uni-freiburg.de

Weitere Informationen:
https://www.pr.uni-freiburg.de/pm/2018/erfahrungen-mit-essstoerungen?set_languag…

Quelle: idw

(nach oben)


Materialien für eine Nachhaltige Wasserwirtschaft – MachWas-Konferenz in Frankfurt am Main

Dr. Christine Dillmann Öffentlichkeitsarbeit
DECHEMA Gesellschaft für Chemische Technik und Biotechnologie e.V.

Die Fördermaßnahme MachWas des Bundesministeriums für Bildung und Forschung (BMBF) fördert Werkstoff- und Materialentwicklungen, um wirkungsvolle Impulse für eine nachhaltige Wasserwirtschaft durch Minimierung des Wasserverbrauchs, Maximierung der Wasserverfügbarkeit sowie Technologien zur Wasseraufbereitung und -gewinnung zu erzeugen.

Auf der MachWas-Konferenz Ende Mai.2018 in Frankfurt am Main stellten die Verbundprojekte ihre Fortschritte und Ergebnisse vor. Experten aus der Materialforschung für nachhaltige Wasserwirtschaft trafen sich bei dieser öffentlichen Veranstaltung zum Austausch und Diskurs über die neuen Erkenntnisse und Entwicklungen aus den geförderten Projekten.

Zusätzlich lud der MachWas-Marktplatz mit Postern und Exponaten dazu ein, sich weitergehend zu informieren. In ihrem Grußwort betonte MinR’in Liane Horst vom BMBF die Wichtigkeit, im Hinblick auf bestehende Herausforderungen wie z.B. übermäßige Wassernutzung, Schadstoffen und Plastikmüll in Gewässern mit Forschung zu Materialinnovationen für den Einsatz in der Wasserwirtschaft einen Beitrag zum Schutz der wertvollen Ressource Wasser zu leisten.

In MachWas entwickeln Akteure aus Wissenschaft, Wirtschaft und Praxis in 13 Verbundprojekten in vier Themenfeldern technologische Lösungen und neue Materialkonzepte.

Projekte aus dem Themenfeld „Materialien für Membranverfahren“ beschäftigen sich mit Mikro-, Ultra- und Nanofiltration sowie Umkehrosmose, welche sich als Alternativen zu konventionellen Trennverfahren in der Wasserreinigung etablieren konnten und mittlerweile als Schlüsseltechnologien auch für die betriebliche Wasserkreislaufschließung und Wertstoffrückgewinnung gelten.

Das zweite Themenfeld befasst sich mit oxidativen und reduktiven Verfahren, welche auf eine Umwandlung von kritischen Substanzen abzielen. Mittels chemischer Reaktionen sollen diese Substanzen in weniger kritische Substanzen überführt und zum Teil dauerhaft immobilisiert werden. Aufgrund der in Prozess-, Ab- und Grundwasser in der Regel vorhandenen großen Anzahl verschiedener Substanzen ist die Selektivität der oxidativen und reduktiven Verfahren von hoher Bedeutung, um einen gezielten Abbau im Wasser zu ermöglichen.

Das Themenfeld „Adsorptionsmaterialien“ zeigt auf, dass neben der Filtration die Adsorption eine bedeutende Rolle in der Wasserreinigung und -aufbereitung spielt. Besonders die Gewässerbelastung mit organischen, endokrinen und persistenten Stoffen (z. B. Medikamente und deren Metabolite) bereitet zunehmend Besorgnis. Adsorptionsmaterialien können dabei helfen, diese Stoffe zu binden und auf diesem Weg aus dem Wasserkreislauf zu entfernen.

Darüber hinaus werden in einem vierten Themenfeld Materialentwicklungen für weitere Anwendungen in der Wassertechnik gefördert. Fokus dieser Projekte sind die Reduzierung bzw. Entfernung von Mikroplastik in Wasserkreisläufen; Beschichtungen zur Verringerung von Fouling oder Scaling sowie die Umweltverträglichkeit von Hilfsstoffen.

Die in den Projekten angestrebten neuen Materialkonzepte bilden die Grundlage für weitere Fortschritte in der Entwicklung einer modernen und nachhaltigen Wassertechnologie.

Die DECHEMA Gesellschaft für Chemische Technik und Biotechnologie e.V. unterstützt mit dem wissenschaftlichen Begleitvorhaben MachWasPlus die BMBF-Fördermaßnahme durch die fachliche Begleitung und Vernetzung der geförderten Verbundprojekte. Darüber hinaus werden die Verbundprojekte bei der Identifizierung von Anwendungsfeldern und dem Transfer der Ergebnisse über die Wertschöpfungskette Materialien – Wassertechnologie – Anwendungsfelder in die Praxis unterstützt.

Wissenschaftliche Ansprechpartner:
Dr. Thomas Track (thomas.track@dechema.de)
Katja Wendler (katja.wendler@dechema.de)
Alexander Frey (alexander.frey@dechema.de)

Weitere Informationen:
http://www.machwas-material.de – weitere Informationen zum Projekt

Quelle: idw

(nach oben)


Nach unten treten: Studie zeigt, wie Mitarbeiter zukünftige Rivalen kleinhalten

Kristina Brümmer Presse- und Öffentlichkeitsarbeit
Kühne Logistics University – Wissenschaftliche Hochschule für Logistik und Unternehmensführung

Wettbewerb unter Kollegen führt nicht immer zu den besten Ergebnissen. Ist das Arbeitsklima zu kompetitiv, beginnt der Konkurrenzkampf unter den Mitarbeitern. Dabei sabotieren sie nicht nur Chefs und Mitarbeiter mit höherem Ansehen und Status, sondern verhindern auch den beruflichen Aufstieg von Kollegen, die sie in Zukunft überflügeln könnten. Zu diesem Ergebnis kommen Wissenschaftler der Kühne Logistics University (KLU) in einer aktuellen Studie.

Es beginnt mit flapsigen Sprüchen, damit, dass man „vergisst“, wichtige Informationen weiter zu geben, und reicht bis zur Sabotage einer Karriere: Social Undermining lautet der Fachbegriff, der ein subtiles negatives Verhalten gegenüber Kollegen beschreibt. In vielen Unternehmen ist dieses Verhalten an der Tagesordnung und schadet auf lange Sicht dem beruflichen Erfolg der Opfer. Bisher ging man davon aus, dass der Konkurrenzkampf vor allem zwischen Kollegen auf der gleichen Hierarchieebene tobt oder sich gegen Mitarbeiter mit höherem Status richtet. Zu Unrecht, wie eine aktuelle Studie zeigt. „Neid und daraus folgendes negatives Verhalten können sich auch auf Personen beziehen, die eigentlich auf einer niedrigeren beruflichen Ebene stehen“, erklären Susan Reh, Christian Tröster und Niels Van Quaquebeke von der KLU. Die Doktorandin hat zusammen mit den beiden Professoren für Leadership and Organizational Behavior Vergleichsprozesse in Unternehmen und daraus resultierendes Verhalten untersucht. Für ihre Studie haben sie verschiedene Experimente durchgeführt.

„Wenn ich sehe, dass ein Kollege sich in der Vergangenheit besonders schnell beruflich entwickelt hat, nehme ich an, dass er das auch in Zukunft tun wird und mir damit meine Position streitig machen könnte.“ Grund genug für manche Mitarbeiter, den aufstrebenden Kollegen auf subtile Art zu sabotieren. „Aus Angst um meine eigene Position versuche ich, die Weiterentwicklung des anderen zu behindern“, fasst Tröster das Phänomen zusammen.

Dieses Verhalten lässt sich nicht nur in bestehenden Teams beobachten. Es kann sogar Auswirkungen auf die Auswahl neuer Mitarbeiter haben. „Ein Vorgesetzter, der auf seinem Gebiet sehr gut ist, erwartet auch viel von seinen Mitarbeitern und wird nur Top-Leute in sein Team holen“, erklärt Van Quaquebeke. „Ein Chef mit geringerem Potential wird dagegen eher Mitarbeiter einstellen, deren Fähigkeiten noch unter seinen eigenen liegen. Aus Angst, von kompetenteren Mitarbeitern überflügelt zu werden, arbeitet er lieber mit einem mittelmäßigen Team.“

Besonders häufig kommen die Sabotageversuche laut den Wissenschaftlern in Unternehmen mit einem ausgeprägten Wettbewerb unter den Mitarbeitern vor. Der kann zum Beispiel durch leistungsbasierte Bonussysteme angefacht werden. „Wenn alle nur nach dem Bonus schielen, führt das zu Vergleichen, Konkurrenz und Missgunst untereinander. Dann geht es nur noch darum, den eigenen Vorteil zu wahren. Auf Kosten der Kollegen.“ sagt Van Quaquebeke.

Aus ihren Ergebnissen ziehen die Wissenschaftler verschiedene Schlüsse. „Unternehmen sollten gut überlegen, ob und in welcher Form sie Bonussysteme einführen“, gibt Doktorandin Reh zu bedenken. Manager und Personalverantwortliche müssten sich die Frage stellen, wie viel Konkurrenz dem Team gut tut. „Sonst werden die mühsam geförderten High Potentials von den eigenen Kollegen sabotiert und an der Karriere gehindert.“

Auch für Mitarbeiter hat Reh eine Empfehlung: Sich möglichst leistungsstarke Chefs und Kollegen zu suchen. „Auf den ersten Blick scheint es anstrengender zu sein, mit hohen Leistungsstandards mitzuhalten. Auf lange Sicht ist das aber besser als von Vorgesetzten, die sich um ihre Position sorgen, am eigenen Fortschritt gehindert zu werden.“

Der Artikel „Keeping (Future) Rivals Down: Temporal Social Comparison Predicts Coworker Social Undermining via Future Status Threat and Envy“ ist im Journal of Applied Psychology erschienen.
http://dx.doi.org/10.1037/apl0000281

Über die KLU
Die Kühne Logistics University – Wissenschaftliche Hochschule für Logistik und Unternehmensführung (KLU) ist eine private Hochschule mit Sitz in der Hamburger HafenCity. Die Schwerpunkte der unabhängigen, staatlich anerkannten Hochschule liegen in den Bereichen Logistik und Management. Mit einem Bachelor- und drei Masterstudiengängen, einem strukturierten Doktorandenprogramm und einem berufsbegleitenden MBA bietet die KLU ihren 330 Vollzeit-Studierenden eine hohe Spezialisierung und exzellente Studienbedingungen. Fach- und Führungskräfte profitieren in offenen und maßgeschneiderten Managementseminaren von der Anwendung wissenschaftlicher Erkenntnisse auf praktische Fragestellungen.

Die KLU richtet sich an Studierende aus dem In- und Ausland, ein internationales Team von 22 Professoren unterrichtet auf Englisch. Die Forschung an der KLU konzentriert sich um die Kompetenzschwerpunkte Sustainability, Digital Transformation und Creating Value in den Bereichen Transport, globale Logistik und Supply Chain Management.

2017 hat die KLU das Promotionsrecht erhalten und ist damit eine von nur 15 der 118 privaten Hochschulen in Deutschland, die eigenständig Doktortitel vergeben dürfen.
Im neuesten CHE-Hochschulranking erreicht die KLU in allen Hauptkriterien die Höchstbewertung.

Mehr Informationen unter www.the-klu.org. Regelmäßige Neuigkeiten auf Twitter unter @THE_KLU.

Pressekontakt:
Kristina Brümmer
PR Manager
Tel.: +49 40 32 87 07-152
kristina.bruemmer@the-klu.org

Quelle: idw

(nach oben)


Begrünte Fassaden in den Städten helfen gegen Feinstaub, Stickoxide und Hitze

Anneliese Odenthal Presse und Kommunikation
Universität zu Köln

Kölner Wissenschaftler zeigen, dass Fassadenbegrünung in Städten messbare Vorteile für Luftqualität, Sauerstoffproduktion und Artenvielfalt mit sich bringt

Wissenschaftler von der Universität zu Köln und dem Forschungszentrum Jülich haben gezeigt, dass grüne Fassaden nicht nur das Hausklima positiv regulieren, sondern auch gesundheitsschädliche Stickoxide und Feinstaubpartikel absorbieren und filtern.

Das Team um Professor Dr. Hans Georg Edelmann vom Institut für Biologiedidaktik der Uni Köln hatte die Tagestemperatur-Verläufe von Efeu-begrünten Fassaden im Vergleich zu klassischen, verputzten Hausfassaden sowie die fassadennahe Luftfeuchte über mehrere Wochen aufgezeichnet. Dabei zeigte sich, dass Efeu, wie auch andere (Kletter-)Pflanzen, im Sommer nachhaltig kühlend, im Winter wärmeisolierend auf die Fassaden wirkt: Es gab keine starken Temperaturunterschiede wie bei den unbegrünten Hausfassaden. So zeigte die grüne bewachsene Fassade im Sommer im unteren Temperaturbereich Temperaturschwankungen von 10 bis 13 Grad Celsius am Tag, während die Temperatur von blanke Hausfassade um bis zu 35 Grad Celsius schwankten.

Zusammen mit dem Forschungsinstitut Jülich untersuchten die Kölner Forscher zudem die Wirkung von Efeu auf die Absorption von Stickoxiden (NOx) und die Adsorption (Bindung und Anreicherung von Stoffen an die Blattfächen) von Feinstaub mit einer durchschnittlichen Größe von 2,5 Mikrometer (PM 2,5). Sie konnten zeigen, dass Efeu die gesundheitsschädlichen Stickoxide absorbierte und den Feinstaub filtrierte. Zudem hat die Bepflanzung einen positiven Effekt auf die Absorption des Treibhausgases CO2.

Städte sind durch sehr hohe Verkehrsdichten sowie intensive Verbauung gekennzeichnet. Den wenigen freien Grünflächen stehen ein Vielfaches an Asphalt-, Beton- sowie Dach- und Fassadenflächen gegenüber, die im Sommer intensiv aufgeheizt werden und im Winter recht schnell auskühlen. Das führt im Rahmen des Klimawandels neben anderen negativen Effekten (Stickoxidbelastung, CO2-Belastung) zunehmend zu einer Überhitzung der Städte und zu einer Konzentrierung von Feinstaubpartikeln, deren gesundheitsschädliche Wirkung im Zusammenhang mit Krebs, Diabetes, Asthma, Herzinfarkt und weiteren Krankheiten wie Demenzerkrankungen diskutiert wird.

„Begrünte Fassaden stellen eine sehr sinnvolle Maßnahme zur Anpassung an den Klimawandel dar – nicht nur im Hinblick auf die Stadttemperatur, sondern auch hinsichtlich der Feinstaubproblematik“, erläutert Biologe Edelmann. Grundsätzlich trügen grüne Fassaden zu einer ganzen Reihe städteklimatisch vorteilhafter Eigenschaften bei, so Edelmann weiter: „Fassadenbepflanzung verbessert sowohl das Stadt- als auch das Raumklima, mindert Überhitzung und Smog, sie produziert Sauerstoff und trägt zur Erhaltung und Erhöhung der Artenvielfalt in der Stadt als Lebensraum für Fauna und Flora bei.“

Edelmann beobachtet: „Leider haben mit Kletterpflanzen bewachsene Fassaden zumindest in der deutschen Gesellschaft bislang kein gutes Image. Sie werden von vielen Menschen als Indikator für Vernachlässigung und Verfall von Gebäuden, als gebäudeschädigend und betreuungsintensive Gewächse angesehen.“ Im Kontext des Klimawandels und der zu erwartenden, noch stärkeren Aufheizung der Städte sowie der anhaltenden Verschlechterung der Luftqualität vor allem durch Autoabgase scheine sich dieses Image jedoch zu ändern.

Typische Fassaden-Kletterpflanzen sind der Efeu (Hedera helix) mit zahlreichen Sorten oder der Wilde Wein (Parthenocissus). Sie sind sehr anpassungsfähig und trockenheitsverträglich und gedeihen auch an verhältnismäßig anspruchslosen Standorten.

Inhaltlicher Kontakt:
Prof. Dr. Hans Georg Edelmann
Institut für Biologiedidaktik
+49 221 478-1893
h.edelmann@uni-koeln.de

Presse und Kommunikation:
Anneliese Odenthal
+49 221 470-5602
odenthal@uni-koeln.de

Quelle: idw

(nach oben)


Fakten: Häufige Arbeit am Limit belastet stark

Jörg Feldmann Pressestelle
Bundesanstalt für Arbeitsschutz und Arbeitsmedizin

Etwa jeder sechste abhängig Beschäftigte arbeitet häufig an der Grenze seiner Leistungsfähigkeit. Dabei sehen sie sich sowohl höheren körperlichen Belastungen wie schwerem Heben und Tragen als auch höherer psychischer Belastung beispielsweise durch Termin- und Leistungsdruck ausgesetzt als die übrigen Erwerbstätigen. Nur jeder fünfte Betroffene bezeichnet seinen Gesundheitszustand als sehr gut oder ausgezeichnet. Bei den übrigen Erwerbstätigen ist es etwa jeder Dritte. Das zeigen Ergebnisse der BIBB/BAuA-Erwerbstätigenbefragung 2012.

Das jetzt von der Bundesanstalt für Arbeitsschutz und Arbeitsmedizin (BAuA) veröffentlichte Faktenblatt „Arbeiten an der Leistungsgrenze“ fasst die Ergebnisse zusammen. Dabei geht das Faktenblatt dezidiert auf die Pflegeberufe ein, die besonders betroffen sind.

Häufiges Arbeiten an der Grenze der Leistungsfähigkeit geht mit gesundheitlichen Beschwerden einher und wird von den Betroffenen als belastend wahrgenommen. 16 Prozent der abhängig Beschäftigten arbeiten häufig an der Leistungsgrenze. In den Pflegeberufen verdoppelt sich fast dieser Anteil (30 Prozent). Der Löwenanteil der Betroffenen fühlt sich durch diese Anforderung belastet (74 Prozent bei den Beschäftigten/85 Prozent in den Pflegeberufen). Rund vier von fünf Beschäftigten, die häufig ihre Leistungsgrenze erreichen, sehen sich starkem Termin- und Leistungsdruck ausgesetzt. Bei den übrigen Beschäftigten ist es nur knapp jeder Zweite (46 Prozent). Sie werden auch deutlich seltener bei der Arbeit gestört, müssen seltener sehr schnell arbeiten oder mehrere Aufgaben gleichzeitig betreuen, als Erwerbstätige, die oft an ihre Leistungsgrenze gehen. In dieser Personengruppe berichtet zudem jeder Dritte über häufige gefühlsmäßige Belastung (31 Prozent), während das bei den übrigen Beschäftigten nur jeder zwölfte tut. Wer häufig seine Leistungsgrenze erreicht, arbeitet doppelt so häufig unter Zwangshaltung (28 Prozent) oder bewegt schwere Lasten (40 Prozent) als die übrigen Erwerbstätigen. Im Pflegebereich sind die körperlichen Belastungen, beispielsweise aufgrund des notwendigen Patiententransfers, noch deutlich höher.

Die höheren körperlichen und psychischen Belastungen von Menschen, die häufig an ihre Leistungsgrenze gehen, spiegeln sich in ihrer gesundheitlichen Situation wider. Rund zwei Drittel der Betroffenen geben an, unter drei oder mehr psychosomatischen Beschwerden wie Müdigkeit, Erschöpfung oder Reizbarkeit zu leiden. Bei den Beschäftigten, die manchmal, selten oder nie an ihre Grenzen gehen, ist es nur etwa jeder Dritte. Ein ähnliches Bild zeigt sich bei den Beschwerden im Bewegungsapparat.

Deshalb sollte gerade in Berufen mit besonders hohen psychischen und körperlichen Anforderungen, wie etwa in der Pflege, die Gestaltung guter Arbeitsbedingungen in den Mittelpunkt rücken. Führungskräfte sollten geeignete Maßnahmen ergreifen, indem sie beispielsweise mehr Personal einplanen, realistische Ziele vereinbaren und Fort- und Weiterbildungen anbieten. Auch neue Technologien sollten daraufhin beurteilt werden, ob sie den Arbeitsalltag der Beschäftigten erleichtern können.

baua: Fakten „Arbeiten an der Leistungsgrenze“ gibt es als PDF im Internetangebot der BAuA unter http://www.baua.de/dok/8749542.

Forschung für Arbeit und Gesundheit
Die BAuA ist eine Ressortforschungseinrichtung im Geschäftsbereich des BMAS. Sie betreibt Forschung, berät die Politik und fördert den Wissenstransfer im Themenfeld Sicherheit und Gesundheit bei der Arbeit. Zudem erfüllt die Einrichtung hoheitliche Aufgaben im Chemikalienrecht und bei der Produktsicherheit. An den Standorten Dortmund, Berlin und Dresden sowie in der Außenstelle Chemnitz arbeiten über 700 Beschäftigte.
http://www.baua.de

Die BAuA ist Partner im Wissenschaftsjahr 2018 – Arbeitswelten der Zukunft

Quelle: idw

(nach oben)


Tonnenweise CO2 einsparen – Klimaschutzprojekt ‚InSekt‘ startet

Ulrike Bohnsack Ressort Presse – Stabsstelle des Rektorats
Universität Duisburg-Essen

Immer noch stößt Deutschland zu viele Treibhausgase aus. Ein Projekt der Universität Duisburg Essen (UDE), der Bergischen Universität Wuppertal sowie der Stadtwerke Lemgo könnte den Klimaschutz voranbringen. Ihre Idee: Eine umweltfreundliche Abwasser-Wärmepumpe wird durch eine neuartige Automatisierung so gesteuert, dass jährlich etwa 3.200 Tonnen Kohlendioxid eingespart werden. ‚InSekt‘, so der Name des vielversprechenden Vorhabens, wird aus EU- und Landesmitteln gefördert.*

Aus Abwasser lässt sich sehr gut Wärme gewinnen – genau das möchten die Stadtwerke Lemgo tun: Sie beginnen demnächst mit dem Aufbau einer großen Wärmepumpe an ihrer zentralen Kläranlage. Dort soll mithilfe von Wind- und Solarenergie Wärme aus dem Abwasser gewonnen und ins örtliche Netz eingespeist werden. Etwa 1.600 Haushalte und Betriebe ließen sich dadurch beheizen und mit warmem Wasser versorgen.

Zwar haben Fernwärmenetze einen hohen Wirkungsgrad, es geht aber auch immer Energie verloren, sei es bei der Einspeisung oder dem Transport durchs Leitungssystem. Um die Verluste möglichst gering zu halten, entwickeln die Wissenschaftler beider Universitäten eine neue Betriebsstrategie. So genannte Softwareagenten steuern und regeln die Anlagen automatisch. Diese eigenständig arbeitenden Computerprogramme kennt man etwa aus der industriellen Fertigung; sie in Wärmeversorgungsystemen zu installieren, ist hingegen neu.

Die Energietechniker der UDE, die das Projekt leiten, sind Experten für Wärmenetze. Sie sorgen im Projekt dafür, dass Messwerte und Faktoren – etwa Netztemperaturen – korrekt berücksichtigt werden und die Anlagen stabil Wärme liefern. Die Wirtschaftsinformatiker der UDE entwickeln die Software weiter und integrieren beispielsweise Netzdaten der Stadtwerke oder aktuelle Wettervorhersagen in das Programm.

Die Wuppertaler Fachleute für Elektrische Energieversorgungstechnik bringen ihr Wissen zu den Stromnetzen ein. Da die Wärmepumpe mit einer hohen Leistung (etwa 1,1 Megawatt) versorgt werden muss, wirkt sich das auf die Stabilität des Lemgoer Stromnetzes aus. Dies muss bei der Regelung der Wärmepumpe berücksichtigt werden.

Die drei Projektpartner sind überzeugt, dass sich mit dieser intelligenten Kopplung von Strom und Wärme jährlich um die 3.200 Tonnen Kohlendioxid einsparen lassen. Spätestens im Frühjahr 2021 werden sie wissen, ob sie damit richtigliegen. Anschließend möchten sie die Steuerung mittels Softwareagenten auf andere Anlagen, beispielsweise Solaranlagen, übertragen. So ließe sich künftig überschüssige Solarenergie in das Wärmenetz einspeisen.

* InSekt (Intelligente Sektorenkopplung zur Reduktion von CO2-Emissionen in Energieversorgungssystemen) gehört zu den Gewinnern im Klimaschutzwettbewerb EnergieSektorenkopplung.NRW. Das Projekt erhält aus dem Europäischen Fond für regionale Entwicklung (EFRE) knapp 700.000 Euro für drei Jahre.

Wissenschaftliche Ansprechpartner:
Universität Duisburg-Essen: Christian Thommessen, Energietechnik, Tel. 0203/37-9-2745, christian.thommessen@uni-due.de
Nils Loose, Wirtschaftsinformatik und Softwaretechnik, Tel. 0201/18-32467, nils.loose@icb.uni-due.de
Bergische Universität Wuppertal: Marcel Ludwig, Elektrische Energieversorgungstechnik, Tel. 0202/439-1978, marcel.ludwig@uni-wuppertal.de
Stadtwerke Lemgo: Ralf Settertobulte, Bereichsleiter Netze, Tel. 05261/255-107, settertobulte@stadtwerke-lemgo.de

Quelle: idw

(nach oben)


Lebensmittel im Blickpunkt: Vorgeschnittenes Obst und Blattsalate können mikrobiell belastet sein

Nina Banspach Pressestelle
Bundesamt für Verbraucherschutz und Lebensmittelsicherheit (BVL)

Obstbecher und in Folien verpackte Blattsalate müssen gekühlt angeboten und aufbewahrt werden

Praktisch, appetitlich und vitaminreich – aufgeschnittenes Obst und vorgeschnittene Blattsalate werden gerade im Sommer gerne für unterwegs mitgenommen. Doch vom Anbau bis zur Verpackung besteht das Risiko einer mikrobiellen Kontamination, wie das Bundesamt für Verbraucherschutz und Lebensmittelsicherheit (BVL) in Berlin betont. Die Untersuchungsergebnisse der Bundesländer der vergangenen Jahre zeigen, dass Enterobakterien, Schimmelpilze und Hefen vermehrt auftreten. Bei vorgeschnittenen, verpackten Blattsalaten wurden in Einzelfällen auch potentiell krankmachende Keime nachgewiesen. Verbraucher sollten daher darauf achten, dass Obst und Salate, die vorgeschnitten sind, im Handel immer gekühlt angeboten und zu Hause im Kühlschrank aufbewahrt werden.

Sowohl zerkleinertes Obst als auch zerkleinerte, in Folien verpackte Blattsalate gehören zu den leicht verderblichen Lebensmitteln. Lebensmittelunternehmer müssen daher bei diesen Produkten strenge Hygienevorschriften beachten. Ob diese eingehalten werden, überprüfen die Lebensmittelüberwachungsbehörden der Bundesländer regelmäßig. So werden im Rahmen des risikoorientierten Bundesweiten Überwachungsplanes (BÜp) und des repräsentativen Zoonosen-Monitorings Lebensmittel regelmäßig auf mikrobiologische Parameter untersucht.
Im BÜp 2016 wurden 745 Proben vorverpackten aufgeschnittenen Obstes (Obstmischungen und exotisches Obst) auf diverse Mikroorganismen untersucht. Dabei wurde nicht jede Probe auf alle Untersuchungsparameter untersucht. 80 % der Proben wurde im Handel gekühlt angeboten.

Am häufigsten konnten Schimmelpilze nachgewiesen werden – 135 von 737 Proben (18 %) enthielten Gehalte über dem DGHM-Richtwert (Empfehlungen der Deutschen Gesellschaft für Hygiene und Mikrobiologie). In 81 (11 %) bzw. 31 (4,3 %) der 713 darauf untersuchten Proben wurden die Richt- bzw. Warnwerte für Enterobakterien überschritten. Dies ist ein möglicher Hinweis darauf, dass die Prinzipien einer guten Hygienepraxis nicht eingehalten wurden. Die Anzahl an Hefen überschritt in 65 (9 %) von 738 auswertbaren Proben den DGHM-Richtwert. In fünf von 745 Proben konnte Escherichia coli nachgewiesen werden, zwei Proben davon überschritten den DGHM-Richtwert. In zwei von 700 Proben wurden die Richtwerte für koagulase-positive Staphylokokken überschritten. Salmonellen konnten in keiner der 632 ausgewerteten Obstproben nachgewiesen werden.

Keine Salmonellen in Melonen
Ein Jahr zuvor standen ungekühlte und aufgeschnittene Wasser-, Honig-, Cantaloupe- und Netzmelonen im Fokus der Überwachungsämter. Sie wurden auf Salmonellen untersucht. Hier war das Ergebnis erfreulicher. Von den 486 untersuchten Proben waren alle mikrobiologisch unauffällig – in keiner der Proben konnte Salmonella spp. nachgewiesen werden.

Die im Zoonosen-Monitoring des Jahres 2015 untersuchten Proben von vorgeschnittenen, verpackten Blattsalaten waren in Einzelfällen mit potentiell krankmachenden Keimen kontaminiert. In einer der 391 Proben (0,3 %) wurden Salmonellen nachgewiesen. Den gesetzlichen Anforderungen gemäß gilt vorzerkleinerter Salat, in dem Salmonellen nachgewiesen werden, als gesundheitsschädlich und muss vom Markt genommen werden. 2 % der 344 Proben von vorgeschnittenen, verpackten Blattsalaten waren mit Listeria monocytogenes kontaminiert. Allerdings wurden nur niedrige Keimgehalte festgestellt, die üblicherweise keine Gesundheitsgefahr für den Menschen darstellen.

Tipps für Verbraucher
Aufgrund der Anbaubedingungen können Obst und Salate in Kontakt mit diversen Mikroorgansimen kommen. Vorgeschnittene Salate und abgepackte Obststücke werden roh verzehrt und durchlaufen in aller Regel keinen Produktionsschritt, der geeignet ist, die Mikroorganismen abzutöten. Während das Obst durch das Aufschneiden und den damit verbundenen Kontakt mit der Schale kontaminiert werden kann, sorgen bereits kleine Schnitt- und Bruchstellen bei Salatblättern und dem dort austretenden Saft für das Wachstum verschiedener Mikroorganismen. Das häufig säurearme Fruchtfleisch der angebotenen Obstsorten und das feuchte Milieu der folienverpackten Salatmischungen fördern das Wachstum der Keime. Werden die Produkte dann noch ungekühlt gelagert, können sich die Bakterien noch schneller vermehren. Das BVL rät daher, beim Kauf von vorgeschnittenem Obst und Salaten auf Folgendes zu achten:

– Eine hohe Keimbelastung ist selten mit bloßem Auge zu erkennen. Trotzdem lohnt ein gezielter Blick, um den Frischezustand des Produktes zu erkennen. Farbverlust, braune Stellen oder viel Flüssigkeit weisen auf eine mangelnde Frische hin. Ebenso kritisch ist eine gewölbte Verpackung, da die gebildeten Gase Zeichen der einsetzenden Gärung sind.

– Achten Sie beim Kauf darauf, dass vorgeschnittenes Obst und Salate im Kühlregal liegen, und halten sie das Verbrauchs- bzw. Mindesthaltbarkeitsdatum ein.

– Verzehren Sie das aufgeschnittene Obst bzw. den bereits zerkleinerten Salat rasch oder bewahren Sie es im Kühlschrank oder einer Kühltasche auf. Entsorgen Sie Produkte, die längere Zeit einer hohen Temperatur ausgesetzt waren, also beispielsweise ungekühlt gelagert oder gar dem direkten Sonnenlicht ausgesetzt wurden.

Hintergrundinformation
Das Bundesamt für Verbraucherschutz und Lebensmittelsicherheit (BVL) ist eine eigenständige Bundesoberbehörde im Geschäftsbereich des Bundesministeriums für Ernährung und Landwirtschaft. Das BVL ist für die Zulassung von Pflanzenschutzmitteln, Tierarzneimitteln und gentechnisch veränderten Organismen in Deutschland zuständig. Im Bereich der Lebensmittel- und Futtermittelsicherheit übernimmt es umfassende Managementaufgaben und koordiniert auf verschiedenen Ebenen die Zusammenarbeit zwischen dem Bund, den Bundesländern und der Europäischen Union. In der Rubrik „Lebensmittel im Blickpunkt“ stellt das BVL regelmäßig Informationen zu bestimmten Lebensmitteln zusammen.

Weiterführende Informationen
Berichte zur Lebensmittelsicherheit – Bundesweiter Überwachungsplan (BÜp):
http://www.bvl.bund.de/buep

Berichte zur Lebensmittelsicherheit – Zoonosen-Monitoring:
http://www.bvl.bund.de/zoonosenmonitoring

Fragen und Antworten des Bundesinstituts für Risikobewertung zum Schutz vor Lebensmittelinfektionen im Privathaushalt: http://www.bfr.bund.de/de/fragen_und_antworten_zum_schutz_vor_lebensmittelinfekt…

Anhang
2018 06 28 PI Obst und Salate
https://idw-online.de/de/attachment66007

Quelle: idw

(nach oben)


Naturbewusstseinsstudie: Deutsche wollen besseren Meeresschutz und keine Genpflanzen

Ruth Schedlbauer Presse- und Öffentlichkeitsarbeit
Bundesamt für Naturschutz

Umfrage: Plastikmüll im Meer wird als Bedrohung gesehen, große Unterstützung für Meeresschutzgebiete
Eine große Mehrheit der Deutschen sieht die Vermüllung der Meere durch Plastik als Gefahr für den Naturschutz und unterstützt die Einrichtung von Meeresschutzgebieten. Die große Mehrheit der mehr als 2.000 Befragten der aktuellen Naturbewusstseinsstudie wünscht sich auch strengere Regeln und Gesetze, damit die Fischerei mehr für den Schutz der Meeresumwelt tut. Verbraucherinnen und Verbraucher wollen sich zudem darauf verlassen können, dass der Handel keine Produkte von bedrohten Fischarten anbietet.

Ein Großteil der Bevölkerung spricht sich außerdem für eine Kennzeichnungspflicht von tierischen Produkten aus, die mit gentechnisch manipulierter Nahrung gefüttert wurden. Das sind einige Ergebnisse der alle zwei Jahre erscheinenden Naturbewusstseinsstudie, die Bundesumweltministerin Svenja Schulze und Beate Jessel, Präsidentin des Bundesamts für Naturschutz, heute in Berlin vorgestellt haben.

Bundesumweltministerin Svenja Schulze: „Im Kampf gegen den Plastikmüll in unseren Meeren unterstützt uns fast die gesamte Bevölkerung. Die Vermüllung gefährdet Ökosysteme auf dem ganzen Planeten. Wir müssen daher weltweit überflüssiges Plastik vermeiden und den Rest im Kreislauf halten und recyceln. Eine große Mehrheit der Befragten unterstützt zudem Meeresschutzgebiete und strengere Regelungen für die Fischerei zum Schutz der Natur. Auch die Bedenken der Bürgerinnen und Bürger gegenüber der Gentechnik nehme ich sehr ernst. Wir brauchen endlich bundesweit einheitliche Regelungen, um den Anbau von Genpflanzen zu verbieten.“

BfN-Präsidentin Beate Jessel: „Die Bevölkerung in Deutschland gibt uns starke Signale, dass wir uns für den Schutz und die nachhaltige Nutzung der Meere einsetzen sollen: Neun von zehn Befragten befürworten die Einrichtung von Naturschutzgebieten in Nord- und Ostsee. Wir brauchen derart geschützte Gebiete, in denen Tiere und Pflanzen möglichst ungestört leben können. Die Menschen wissen auch um die Gefährdung dieser Lebensräume durch Abfälle und Schadstoffeinträge. Die Schädigung von Arten und Lebensräumen in den Meeren durch die Fischerei ist ebenfalls sehr stark in ihrem Bewusstsein verankert. Damit besteht in der Bevölkerung Deutschlands ein großer Rückhalt für stringentere Regelungen hin zu einer nachhaltigen Fischerei.“

Zum ersten Mal wurde in der Naturbewusstseinsstudie auch die Einstellung der Deutschen zum Meeresnaturschutz detailliert abgefragt. Die Auswertung zeigt, dass der Bevölkerung der Schutz und die nachhaltige Nutzung der Meere ein großes Anliegen ist. So befürwortet eine überwältigende Mehrheit von 94 Prozent der Befragten Naturschutzgebiete in Nord- und Ostsee, 53 Prozent halten solche Gebiete sogar für „sehr wichtig“. Zudem sprechen sich 83 Prozent der Befragten für strengere Regeln und Gesetze aus, damit die Fischerei mehr für den Naturschutz tut, selbst wenn dadurch die Fischpreise steigen. 92 Prozent der Befragten möchten sich darauf verlassen können, dass der Handel keine Fischprodukte von bedrohten Arten anbietet, 90 Prozent befürworten die Kennzeichnung von Fischprodukten aus naturschonender Fischerei. Unter den wahrgenommenen Gefährdungsursachen steht Plastikmüll an erster Stelle, 78 Prozent sehen darin ein „sehr großes Problem“. Erdölverschmutzung (71 Prozent) und radioaktive Abfälle (66 Prozent) folgen dicht darauf.

Gegenüber dem Einsatz von Gentechnik in der Landwirtschaft vertritt eine große Mehrheit der Bevölkerung in Deutschland eine skeptische Position: So sprechen sich 79 Prozent der Befragten für ein Verbot von Gentechnik in der Landwirtschaft aus. 93 Prozent sind der Meinung, dass mögliche Auswirkungen auf die Natur immer untersucht werden sollten, wenn Pflanzen gezielt gentechnisch verändert werden. Ebenso sprechen sich 93 Prozent der Befragten dafür aus, Lebensmittel von Tieren, die mit gentechnisch veränderter Nahrung gefüttert werden, im Handel zu kennzeichnen.

Der aktuellen, mittlerweile fünften Naturbewusstseinsstudie liegt eine bundesweite Befra-gung zugrunde, die zum Jahresende 2017 durchgeführt wurde. Insgesamt 2.065 zufällig ausgewählte Personen aus der deutschsprachigen Wohnbevölkerung im Alter ab 18 Jahren nahmen an der Studie teil. Die Naturbewusstseinsstudie erfasst die gesellschaftlichen Einstellungen zur Natur und biologischen Vielfalt in Deutschland. Sie stellt aktuelle und empirisch abgesicherte Daten bereit, die für die Naturschutzpolitik, den öffentlichen Diskurs und die Bildungsarbeit wertvolle Grundlagen sind. Die Naturbewusstseinsstudien werden im Auftrag des Bundesumweltministeriums und des Bundesamtes für Naturschutz seit 2009 alle zwei Jahre veröffentlicht.

Die Naturbewusstseinsstudie 2017 sowie ein Informationspapier mit wesentlichen Aussagen der Studie steht zum Download unter: https://www.bmu.de/PU496

Weitere Informationen:

https://www.bmu.de/PU496

Quelle: idw

(nach oben)


Sauberer Strom ist nicht genug: Mehr Klimaschutz in Industrie, Verkehr und Gebäuden nötig

Jonas Viering Presse- und Öffentlichkeitsarbeit
Potsdam-Institut für Klimafolgenforschung

Kohle versus Wind- und Solarenergie – die Debatte über die Pariser Klimaziele dreht sich oft um die Stromversorgung. Doch selbst in einer Welt strenger Klimapolitik und sauberer Stromerzeugung könnte die verbleibende Nutzung fossiler Brennstoffe in der Industrie, dem Verkehr und im Wärmesektor noch genügend CO2-Emissionen verursachen, um die von der internationalen Gemeinschaft vereinbarten Klimaziele zu gefährden. Das hat jetzt ein internationales Forscherteam ermittelt. Die in Nature Climate Change veröffentlichte Studie ist die erste, die sich speziell auf die fossilen Rest-Emissionen jener Sektoren konzentriert, die nicht so leicht dekarbonisiert werden können wie die Stromerzeugung.

+++GRAFIK und VIDEO auf Anfrage verfügbar+++
„Wir wollten herausfinden, was wirklich zählt bei Kohlenstoffbudgets und Rest-Emissionen. Um entscheidende Engpässe auf dem Weg zu einer CO2-freien Wirtschaftsweise in Richtung einer Klimastabilisierung bei 1,5 oder 2 Grad Celsius zu erkennen, haben wir uns auf die Rolle der Emissionen fossiler Brennstoffe konzentriert, die in Industrien wie der Zementproduktion oder Stahlherstellung entstehen, die unseren Transportsektor vom Auto über die Fracht bis zur Luftfahrt antreiben, und die unsere Gebäude beheizen“, erklärt Shinichiro Fujimori, Forscher des Nationalen Institutes für Umweltstudien (NIES) und der Universität Kyoto in Japan. „Diese Sektoren sind viel schwieriger CO2-frei zu bekommen als unsere Energieversorgung, da es hier keine so offensichtlichen Alternativen wie die Erzeugung von Wind- und Solarstrom gibt.“

Dabei zeigt sich, dass es tatsächlich diese Sektoren sind, die entscheidend bestimmen, wieviel CO2 in diesem Jahrhundert ausgestoßen wird, sowie ob und wieviel die Welt auf sogenannte negative Emissionen angewiesen sein wird – Technologien also, die der Atmosphäre CO2 entziehen. Und letztlich sind diese Sektoren dafür entscheidend, ob die international vereinbarten Klimaziele erreicht werden können.

+++Für 1,5° Celsius sind negative Emissionen nicht mehr eine bloße Möglichkeit – sondern eine Notwendigkeit+++
Das Pariser Ziel, die globale Erwärmung deutlich unter 2° Celsius und vielleicht sogar bei 1,5° zu halten, bedeutet eine enge Beschränkung der CO2-Emissionen bis 2100. Nach gegenwärtigen Abschätzungen beträgt das verbleibende Emissions-Budget für das 1,5°C-Ziel möglicherweise lediglich 200 Gigatonnen CO2, was in krassem Gegensatz zu den 4.000 Gigatonnen CO2 steht, die bei einer Fortsetzung der aktuellen Trends ausgestoßen würden. Die von den Nationalstaaten bisher zugesagten Minderungsmaßnahmen reichen nicht aus, um die Emissionen ausreichend zu reduzieren. Dies gibt Anlass zur Sorge, dass wir zunehmend von unsicheren und potenziell risikoreichen Technologien für negative Emissionsen abhängig werden. Diese entziehen der Atmosphäre CO2, indem sie beispielsweise die Bioenergienutzung mit dem Abscheiden und Speichern von CO2 aus Kraftwerksabgasen deutlich ausbauen (Carbon Capture and Storage, CCS).

Daher untersuchten die Forscher verschiedene Dekarbonisierungspfade zu den Pariser Klimazielen. Mit ernüchternden Ergebnissen: „Wir haben errechnet, dass selbst bei enormen Anstrengungen aller Länder, einschließlich einer frühzeitigen und substanziellen Stärkung der beabsichtigten nationalen Beiträge, im Fachjargon NDCs oder nationally determined contributions genannt, die verbleibenden fossilen Kohlenstoffemissionen bei etwa 1000 Gigatonnen CO2 verbleiben werden“, erklärt Gunnar Luderer vom Potsdam-Institut für Klimafolgenforschung (PIK, Mitglied der Leibniz-Gemeinschaft), Hauptautor der Studie. „Dies scheint das untere Ende dessen zu sein, was selbst mit sehr ehrgeiziger Klimapolitik erreicht werden kann, da ein Großteil der Rest-Emissionen aufgrund der vorhandenen Infrastrukturen und der Abhängigkeit von fossilen Brennstoffen bereits fest im System drin ist.“ Um das 1,5°C-Ziel für die Erwärmung am Ende des Jahrhunderts anzustreben, wäre eine unglaublich große Menge von mindestens 600 Gigatonnen CO2-Entfernung erforderlich – das entspricht dem 15-fachen der derzeitigen jährlichen CO2-Emissionen, betont Luderer. „Negative Emissionen wäre also nicht mehr eine unter mehreren möglichen Optionen, sondern eine geophysikalische Notwendigkeit.“

Das Team von Modellierern aus ganz Europa, den USA und Japan arbeitete mit sieben hochmodernen Integrated Assessment Models – ausgefeilte Computersimulationen, welche die sozialen und wirtschaftlichen Wechselwirkungen, die den Klimawandel bestimmen, sowie die Möglichkeiten zur Stabilisierung des Klimas durch Reduzierung der Treibhausgasemissionen unter Berücksichtigung der Temperaturziele sowie der wirtschaftlichen Kosten und technologischen Optionen beschreiben. Ihre Studie ist der erste Multi-Modell-Vergleich im Lichte der Pariser Vereinbarung, der Szenarien einer frühzeitigen Stärkung der politischen Ambitionen im Einklang mit den 1,5-2°C-Zielen mit Szenarien kontrastiert, die keine Stärkung der Klimaversprechen der Länder vor 2030 unterstellen.

+++Jede Verzögerung bindet die Welt noch enger an fossile Infrastrukturen+++
„Unsere Analyse zeigt, dass die Stabilisierung der Erwärmung im Bereich von 1,5 bis 2° Celsius neben einer schnellen vollständigen Dekarbonisierung der Energieversorgung auch eine erhebliche Reduzierung des Energiebedarfs in Sektoren wie Industrie, Verkehr und Gebäude erfordert“, betont Zoi Vrontisi vom E3MLab der Nationalen Technischen Universität Athen. „Um die für die 1,5°-Stabilisierung erforderlichen zusätzlichen Einsparungen an fossilen Brennstoffen zu erreichen, müssen wir die Verbesserung der Energieeffizienz und eine weitgehende Elektrifizierung des gesamten Energiebedarfs beschleunigen.“ Die Forscher zeigen auch, dass eine Verzögerung der Stärkung der von den Nationen angekündigten Treibhausgasreduktionen (NDCs) vor 2030 nicht nur bedeuten würde, dass zu einem späteren Zeitpunkt noch mehr Emissionen reduziert werden müssten. Es würde vor allem auch die Abhängigkeit von Technologien zur Kohlendioxid-Entfernung erhöhen, da sie noch mehr Investitionen in fossilen Infrastrukturen bindet, so die Studie. Dies dürfte das 1,5°C-Ziel insgesamt außer Reichweite bringen.

„Klimaschutz mag eine komplexe Herausforderung sein, aber am Ende geht es nur um einfache Mathematik: Um die Pariser Ziele zu erreichen, müssen die zukünftigen CO2-Emissionen innerhalb eines begrenzten Budgets gehalten werden“, fasst Elmar Kriegler vom Potsdam-Institut zusammen. „Je mehr das Budget überschritten wird, desto relevanter werden Technologien zur Kohlendioxid-Entnahme aus der Luft, die mit großen Unsicherheiten behaftet sind. Auch wenn es immer noch schwierig ist, das verbleibende CO2-Budget für 1,5° Celsius genau zu bestimmen, so ist doch eines ganz klar: Die Treibhausgase müssen deutlich schneller reduziert werden als bisher geplant, um die Pariser Ziele zu erreichen.“

Artikel: Gunnar Luderer, Zoi Vrontisi, Christoph Bertram, Oreane Y. Edelenbosch, Robert C. Pietzcker, Joeri Rogelj, Harmen Sytze De Boer, Laurent Drouet, Johannes Emmerling, Oliver Fricko, Shinichiro Fujimori, Petr Havlík, Gokul Iyer, Kimon Keramidas, Alban Kitous, Michaja Pehl, Volker Krey, Keywan Riahi, Bert Saveyn, Massimo Tavoni, Detlef P. Van Vuuren, Elmar Kriegler (2018): Residual fossil CO2 emissions in 1.5-2°C pathways. Nature Climate Change [DOI: 10.1038/s41558-018-0198-6]

Weblink zum Artikel, sobald er veröffentlich ist: https://doi.org/10.1038/s41558-018-0198-6

Förderung: Die Forschung, die zu diesen Ergebnissen geführt hat, wurde durch das Siebte Forschungsrahmenprogramm (Projekt-Nr. 308329 ADVANCE) und das Forschungs- und Innovationsprogramm Horizon 2020 (CD-LINKS, Nr. 642147) der Europäischen Union gefördert. Mehrere Forscher des PIK wurden zudem im Rahmen von ENavi, einem der vier Kopernikus-Projekte zur Energiewende, durch das BMBF gefördert.

Kontakt für weitere Informationen:
Potsdam-Institut für Klimafolgenforschung, Pressestelle
Telefon: +49 (0)331 288 2507
E-Mail: presse@pik-potsdam.de
Twitter: @PIK_Klima
www.pik-potsdam.de

Wer wir sind: Das Potsdam-Institut für Klimafolgenforschung (PIK) ist eines der weltweit führenden Institute in der Forschung zu globalem Wandel, Klimawirkung und nachhaltiger Entwicklung. Natur- und Sozialwissenschaftler erarbeiten hier interdisziplinäre Einsichten, welche wiederum eine robuste Grundlage für Entscheidungen in Politik, Wirtschaft und Zivilgesellschaft darstellen. Das PIK ist ein Mitglied der Leibniz-Gemeinschaft.

Quelle: idw

(nach oben)


Mengensteigerung bei Knie-OPs: „Weckruf“ für die Gesundheitspolitik

Susanne Herda, Swetlana Meier Presse- und Öffentlichkeitsarbeit
Deutsche Gesellschaft für Orthopädie und Unfallchirurgie e. V.

In der am 19. Juni 2018 von der Bertelsmann-Stiftung veröffentlichten Studie unter dem Titel „Knieprothesen – starker Anstieg und große regionale Unterscheide“ werfen die Autoren die Frage auf: „Wird vorschnell operiert?“ Dazu beziehen die Deutsche Gesellschaft für Orthopädie und Unfallchirurgie (DGOU), die Deutsche Gesellschaft für Endoprothetik (AE), die Deutsche Kniegesellschaft (DKG) und der Berufsverband für Orthopädie und Unfallchirurgie (BVOU) wie folgt Stellung: Der Anstieg für den Ersatz eines künstlichen Kniegelenkes seit 2009 liegt mit acht Prozent im internationalen Durchschnitt.

Die Fachgesellschaften erwarten aufgrund des demografischen Wandels jedoch noch höhere Zahlen: Denn Deutschland befindet sich beim Altersdurchschnitt der Bevölkerung weltweit in einer Spitzengruppe.Daher verstärken die Fachgesellschaften DGOU, AE, DKG und BVOU seit Jahren ihre Maßnahmen im Bereich der Kniegelenkerkrankungen – sowohl für die qualitätsgesicherte chirurgische Versorgung durch die Initiative EndoCert® zur Zertifizierung von endoprothetischen Versorgungszentren als auch für gelenkerhaltende Behandlungsmaßnahmen. „Diese Strategie kann aber nur dann noch erfolgreicher sein, wenn die Qualität und konservative Behandlung zukünftig wieder besser vergütet werden“, sagt Professor Dr. Carsten Perka, DGOU-Vizepräsident und AE-Präsidiumsmitglied.

Im Interview sprechen DGOU-Experte Professor Dr. Klaus-Peter Günther und BVOU-Präsident Dr. Johannes Flechtenmacher über die Gründe der Mengensteigerung bei Knie-Operationen, regionale Unterschiede, Maßnahmen der Fachgesellschaften und des Berufsverbandes und die Studie, die sie auch als Weckruf an die Gesundheitspolitik verstehen.

Wie werten Sie die Studie der Bertelsmann-Stiftung?
Günther: Der erschienene Bertelsmann-Report zur Entwicklung der Knie-Endoprothetik in Deutschland wird in weiten Teilen von den Fachgesellschaften unterstützt. Leider weisen die Autoren nicht darauf hin, dass das Verfahren der regionalen Bestimmung von Operationsraten in der Endoprothetik bereits vor Jahren mit Unterstützung der Deutschen Gesellschaft für Orthopädie und Orthopädische Chirurgie (DGOOC) und des AOK-Bundesverbands etabliert wurde. Damals schon wiesen diese Institutionen auf eine auffällige Ungleichverteilung von Operationsraten in den einzelnen Bundesländern hin. Vor allem die Fachgesellschaften haben seither eine Reihe von Maßnahmen entwickelt, die eine patientengerechte operative Versorgung unterstützen.

Welche Gründe gibt es für die Mengenentwicklung aus Sicht der Fachgesellschaften?
Günther: Betrachtet man den Anstieg der Endoprothesenzahlen nicht nur in den letzten drei Jahren, sondern – wie im Bericht der Bertelsmann-Stiftung eigentlich dargestellt – im Gesamtverlauf seit 2009, fällt die Steigerungsrate deutlich moderater aus und liegt mit etwa acht Prozent im internationalen Durchschnitt. Die wichtigste Ursache dafür ist der demografische Wandel. Hier würden eigentlich noch höhere Zahlen zu erwarten sein, denn Deutschland liegt im Altersdurchschnitt der Bevölkerung weltweit in einer Spitzengruppe.
Vor allem aber sind die Ergebnisse in der Knie-Endoprothetik in den letzten Jahren nochmals deutlich verbessert worden, wovon nicht nur ältere, sondern auch jüngere Patienten mit hohem Leistungsanspruch profitieren. Die besseren Ergebnisse führen auch zu einer verstärkten Nachfrage nach dieser Versorgung auch in dieser Altersgruppe, verbunden mit dem Ziel, wieder voll funktionstüchtig zu werden. Konservative Maßnahmen wie Physiotherapie, medikamentöse Therapie und Injektionen können dies in dieser Altersgruppe meist nicht im gewünschten Umfang leisten.

Welche Gründe gibt es für die Mengensteigerung, die im Vergütungssystem begründet liegen?
Günther: Der Bericht weist zu Recht auf wichtige Faktoren hin, die in der Mengenentwicklung von künstlichen Kniegelenken eine zentrale Rolle spielen. Dazu gehört in erster Linie das im Gegensatz zu anderen Ländern exzessiv betriebene Refinanzierungssystem mit DRG-Fallpauschalen. Seit Jahren wird die alternative konservative Behandlung unzureichend vergütet. Wenn ärztliche Beratung und konservative Maßnahmen nicht angemessen honoriert werden, ist die frühere Entscheidung zum Kunstgelenkersatz keine Überraschung. Auch ist nach wie vor die Zahl der Einrichtungen, in denen der Kniegelenkersatz angeboten wird, zu groß.

Flechtenmacher: Eine konservative Behandlung zur Abwendung einer Operation braucht Zeit. Patienten mit Arthrose muss man intensiv beraten: Wie wichtig ist es abzunehmen? Welche Begleiterkrankungen sind zu beachten, bevor man Schmerzmittel empfiehlt? Warum ist Bewegung wichtig? Die Zeit dafür fehlt in den stark frequentierten Praxen, sie wird auch nicht vergütet. Und die Budgets erlauben es nicht, so engmaschig wie manchmal nötig Krankengymnastik zu verordnen.

Geht es auch anders, zum Beispiel mit einer intensivierten konservativen Therapie?
Flechtenmacher: Das funktioniert aktuell leider vor allem in Selektivverträgen. Darüber kann dann beispielsweise eine Option „Alternative konservative Behandlung bei drohenden Operationen“ angeboten und finanziert werden. Ein gutes Beispiel ist der gemeinsam von BVOU und der Deutschen Arzt AG verhandelte Selektivvertrag für Versicherte von DAK, Barmer und einigen Betriebskrankenkassen. Bei diesem Modell arbeiten Orthopäden und Physiotherapeuten eng mit dem Patienten zusammen, um unter anderem durch eine hohe Frequenz an Krankengymnastik und eventuell einem Gerätetraining eine Operation hinauszuzögern oder zu vermeiden. So schöpfen Patienten oft erst wieder Hoffnung, mit ihren Beschwerden und Schmerzen gut leben zu können – auch ohne eine Operation. Aber selbst die Patienten, bei denen eine Operation unumgänglich ist, profitieren von dem Angebot. Sie werden intensiv darauf vorbereitet und sind nach der OP rascher wieder mobil.
Auch der erfolgreiche Orthopädie-Facharztvertrag von AOK Baden-Württemberg, MEDI und dem BVOU ist ein gutes Bespiel für eine strukturierte und intensivierte ambulante Betreuung mit dem Fokus auf einer leitlinienorientierten konservativen Therapie bei Knie- und Hüftarthrosepatienten. Leider sind das bisher zu wenige regionale Leuchtturm-Ansätze. Die Schlussfolgerungen der Bertelsmann-Stiftung zeigen aber, wie notwendig die Implementierung und Finanzierung konservativer Therapiekonzepte ist. Das sollte als Appell an die Kostenträger verstanden werden.

Muss die Gesundheitspolitik an dieser Stelle wirksamer werden?
Flechtenmacher: Hochwertige Medizin ist sowohl in der konservativen Therapie als auch in der Endoprothetik nicht zum Billigtarif zu haben. Im Vergleich zu den von den Fachgesellschaften und vom Berufsverband bereits eingeleiteten Maßnahmen bleiben die Steuerungsmöglichkeiten der Gesundheitspolitik aktuell noch deutlich zurück – zum Beispiel hinsichtlich Qualitätsverträgen und Zentrumszuschlägen. Die umfassenden Möglichkeiten der ambulanten konservativen Therapie werden derzeit vom GKV-System nur über Selektivverträge vergütet und stehen damit weder flächendeckend noch für alle Versicherten gleichermaßen zur Verfügung.

Günther: Die jetzt beobachtete Mengensteigerung muss auch als starker Weckruf an die Gesundheitspolitik verstanden werden. Die Fachgesellschaften arbeiten seit Jahren an qualitätsfördernden Maßnahmen im Bereich der Endoprothetik. Dazu gehört in erster Linie die EndoCert-Initiative der DGOOC gemeinsam mit der AE und dem BVOU. Dort werden hohe Qualitätsstandards gefordert – insbesondere auch für die Indikationsstellung. Aktuell wird in allen EndoCert-Kliniken und darüber hinaus die ebenfalls mit Unterstützung von DGOOC und AE erstellte AWMF-Leitlinie für die Entscheidung zum Kunstgelenkersatz eingeführt. Diese Initiative soll sicherstellen, dass durch eine ausführliche ärztliche Beratung die Entscheidung zur Operation nicht zu früh getroffen wird und zuvor eine angemessene konservative Behandlung erfolgt ist.
Gleiches gilt für den Mehraufwand, den zertifizierte Kliniken in der Patientenfürsorge betreiben. Seit Jahren verstärken Fachgesellschaften wie die AE und die DKG gerade im Bereich der Kniegelenkerkrankungen die Schulung in gelenkerhaltenden Behandlungsmaßnahmen. Sollte nach allen ausgeschöpften gelenkerhaltenden Maßnahmen dann aber das Kunstgelenk notwendig werden, muss sichergestellt sein, dass die Behandlung in Einrichtungen mit ausreichend hohen Fallzahlen und geprüften Behandlungsstandards erfolgt. Beides sind entscheidende Voraussetzungen für den Behandlungserfolg, wie mittlerweile nicht nur international, sondern auch an deutschen Daten nachgewiesen werden konnte: im EndoCert-Verfahren wie auch dem von der DGOOC etablierten Deutschen Prothesenregister EPRD.

Hier ist zu wünschen, dass einige der im Bertelsmann-Bericht gezogenen Schlussfolgerungen auch gehört werden.

Zu den Personen:
Professor Dr. Carsten Perka ist Ärztlicher Direktor des Centrums für Muskuloskeletale Chirurgie, Charité – Universitätsmedizin Berlin.
Professor Dr. Klaus-Peter Günther ist Geschäftsführender Direktor des Universitätscentrums für Orthopädie & Unfallchirurgie, Universitätsklinikum Carl Gustav Carus Dresden.
Er hat als Mitautor an der 2013 erschienenen Publikation „Knieoperationen – Regionale Unterschiede und ihre Einflussfaktoren“ aus der Reihe Faktencheck Gesundheit der Bertelsmann-Stiftung mitgearbeitet.
Dr. Johannes Flechtenmacher ist niedergelassener Facharzt für Orthopädie und Unfallchirurgie am Ortho-Zentrum in Karlsruhe.

Weitere Informationen:
www.dgou.de
https://www.ae-germany.com/
http://deutsche-kniegesellschaft.de/
https://www.bvou.net/

Kontakt für Rückfragen:
Susanne Herda, Swetlana Meier
Presse- und Öffentlichkeitsarbeit
Deutsche Gesellschaft für Orthopädie und Unfallchirurgie (DGOU) e.V.
Straße des 17. Juni 106-108, 10623 Berlin
Telefon: +49 (0)30 340 60 36 -06 oder -00
Telefax: +49 (0)30 340 60 36 01
E-Mail: presse@dgou.de

Quelle: idw

(nach oben)


„Gemeinschaftsschutz“: Warum wir mit Impfungen nicht nur uns selbst, sondern auch andere schützen

Medizin – Kommunikation Medizinkommunikation
Arbeitsgemeinschaft der Wissenschaftlichen Medizinischen Fachgesellschaften e.V.

Wer sich impfen lässt, schützt nicht nur sich selbst – schließlich kann man eine Infektion, die man sich selbst gar nicht erst zuzieht, auch nicht auf andere übertragen. Oft sind es Säuglinge, die auf diesen Gemeinschaftsschutz angewiesen sind, bevor sie selbst geimpft werden können. Aber auch Erwachsene profitieren von dem Effekt, der auch als Herdenimmunität bezeichnet wird. Über die wechselseitigen Schutzbeziehungen, die Impfungen mit sich bringen, sagten Experten auf der heutigen Pressekonferenz anlässlich des Kongresses für Infektionskrankheiten und Tropenmedizin (KIT 2018) in Köln.

Mit den Impfempfehlungen, die die Ständige Impfkommission des Robert Koch-Instituts für Deutschland formuliert, werden eine ganze Reihe unterschiedlicher Ziele verfolgt. „Neben dem Individualschutz vor Infektionskrankheiten und deren möglichen Folgen spielen auch gesellschaftlich relevante Ziele wie die Unterbrechung von Infektionsketten oder die Ausrottung von Erregern eine Rolle“, sagt Professor Dr. med. Markus Knuf, Direktor der Klinik für Kinder und Jugendliche der Helios Dr. Horst Schmidt Kliniken Wiesbaden und Kongress-Präsident von Seiten der Deutschen Gesellschaft für Pädiatrische Infektiologie (DGPI). Auch der Aufbau einer Herdenimmunität falle in diese zweite Kategorie – denn nur durch sie können Menschen, die selbst nicht geimpft werden können, vor den betreffenden Infektionen und möglichen Komplikationen geschützt werden.

Auch wenn Säuglinge und Kleinkinder diesen Schutz besonders benötigen, tragen sie umgekehrt wesentlich zur Herdenimmunität bei, wie Knuf am Beispiel der Pneumokokken und der von ihnen hervorgerufenen Erkrankungen zeigt: Weil das Erkrankungsrisiko bei Kindern unter fünf Jahren besonders groß ist, sieht der Impfkalender bereits im Säuglings- und Kleinkindalter eine Impfung gegen häufige Pneumokokken-Varianten vor. „Genau diese Varianten treten seitdem auch bei Senioren deutlich seltener auf“, sagt Knuf. Auch diese Gruppe sei durch Pneumokokken-Infektionen und deren Komplikationen besonders gefährdet.

Ob der Aufbau einer Herdenimmunität als Argument ausreicht, um auch die jährliche Grippeimpfung für alle Kinder zu empfehlen, ist unter Experten umstritten. Bisher sieht das RKI die Impfung nur für Kinder vor, die selbst ein erhöhtes Risiko für Komplikationen haben. Für Markus Knuf gibt es dennoch gute Gründe, auch gesunde Kinder gegen die Influenza zu impfen. „Zwar verläuft die Grippe bei ihnen meist unkompliziert, doch kommt es auch hier immer wieder zu schweren Verläufen“, erklärt er. Zudem seien Kinder der Dreh- und Angelpunkt der Influenza in der Gesellschaft. Kinder im Vorschulalter scheiden über einen langen Zeitraum hinweg eine große Anzahl von Viren aus, haben eine hohe Kontaktrate und wissen noch nichts von Hygiene. Viele Erwachsene stecken sich daher gerade bei Kleinkindern mit der Grippe an.

Meist sind es jedoch die Jüngsten, die den Herdenschutz benötigen. Als Beispiel dafür, wie geimpfte Erwachsene zum Schutz von Säuglingen beitragen, nennt Knuf die Impfung gegen Keuchhusten (Pertussis). Diese für Säuglinge gefährliche Krankheit wird meist über Jugendliche oder Erwachsene übertragen, bei denen der Impfschutz bereits nachlässt. „Es ist daher sinnvoll, den Schutz gegen Pertussis im Jugend- oder Erwachsenenalter aufzufrischen“, sagt der DGPI-Experte. Auch die sogenannte maternale Immunisierung, also die Impfung einer werdenden Mutter im letzten Schwangerschaftsdrittel, kann ein Konzept sein, das Neugeborene zu schützen.

Weitere Informationen:
http://www.kit2018.de

Quelle: idw

(nach oben)


Fußball als Wissenschaft: Mit Elfmetern und Gelben Karten menschliches Verhalten erklären

Susanne Bossemeyer Stabsstelle 2 – Kommunikation und Öffentlichkeitsarbeit
FernUniversität in Hagen

Argentinien wird Fußball-Weltmeister. So lautete der Tipp von Fußballfan Dr. Hendrik Sonnabend. Als Wissenschaftler der FernUniversität in Hagen dürften ihn bei der laufenden WM in Russland insbesondere unberechtigt gegebene Elfmeter und der Missbrauch der Gelbsperren-Regel interessieren. Denn mit Hilfe von Strafstößen und Gelben Karten erforscht Dr. Hendrik Sonnabend Verhalten im Wettbewerb.

„Daten aus dem Profifußball eignen sich gut, um ökonomische Hypothesen zu testen. Das Umfeld zeichnet sich durch extrem hohe Anreize aus. Die Daten sind sehr gut dokumentiert, die Leistung ist leicht zu messen und die Fußballer sind Profis in ihrer Aufgabe“, erklärt der Wissenschaftliche Mitarbeiter am Lehrstuhl für VWL, insb. Wirtschaftspolitik. „So lassen sich Erkenntnisse gewinnen, die auch Rückschlüsse auf menschliches Verhalten in anderen Lebensbereichen zulassen.“

Um das Erleben unfairer Vorteile auf das Leistungsvermögen geht es in einem gemeinsamen Projekt mit Dr. Mario Lackner von der Universität Linz. Werden unberechtigt gegebene Elfmeter häufiger verschossen? Ins Spiel kommen hier 857 Strafstöße aus der Fußball-Bundesliga, die sich im Merkmal „korrekte Entscheidung“ und „nicht korrekte Entscheidung“ unterscheiden. Die Analyse zeigt, dass es grundsätzlich keinen Zusammenhang zwischen der Qualität der Schiedsrichterentscheidung und der Trefferwahrscheinlichkeit gibt. Wird allerdings der Spielstand berücksichtigt, werden unberechtigt gegebene Elfmeter häufiger verschossen, wenn die Mannschaft in Führung liegt. Konkret reduziert sich die Trefferwahrscheinlichkeit um 14 Prozent. „Die Führung lässt mehr Raum für Gerechtigkeitsbedenken. Außerdem könnte es eine unbewusste Neigung geben, den erwarteten Sieg nicht beschmutzen zu wollen“, interpretiert Dr. Hendrik Sonnabend die Ergebnisse.

Sollte Bundestrainer Jogi Löw bei der Fußball-WM vor der Entscheidung stehen, wer einen unberechtigt gegebenen Elfmeter schießt, ist es für die Trefferwahrscheinlichkeit übrigens egal, ob der Gefoulte selbst den Strafstoß ausführt oder nicht.

Mit Blick auf die Spiele in Russland ist auch der Missbrauch der Gelbsperren-Regel interessant. „Diese Regel wird strategisch genutzt, um Ressourcen zu sparen“, sagt Dr. Hendrik Sonnabend. In einem weiteren Projekt hat der FernUni-Wissenschaftler mit Prof. Dr. Christian Deutscher (Universität Bielefeld), Prof. Dr. Marco Sahm (Universität Bamberg) und Dr. Sandra Schneemann (Universität Bielefeld) strategisches und antizipierendes Verhalten in Turnieren untersucht.

Bei der WM gilt: Zwei Gelbe Karten aus zwei unterschiedlichen Spielen ziehen eine Sperre für das nächste Spiel nach sich. Eine „weiße Weste“ (Streichung aller einzelnen Gelben Karten) gibt es erst ab dem Viertelfinale, um Gelbsperren im Finale zu verhindern. „Dies lässt Raum für die Art von strategischem Missbrauch der Regel, den wir mithilfe von Bundesliga-Daten nachweisen können“, sagt Dr. Hendrik Sonnabend.

Gewinnt eine Mannschaft in Russland die ersten beiden Spiele der Gruppenphase und sieht sich im dritten Spiel einem schwachen Gegner gegenüber, so besteht folgender Anreiz: Im ersten Spiel verwarnte Spieler könnten im zweiten Spiel eine weitere gelbe Karte provozieren, um dann im dritten Spiel auszusetzen und somit „unbelastet“ in das Achtelfinale zu gehen.

Der Fairplay-Gedanke gerät dabei ins Wanken. „Es ist ein schwieriger Konflikt, in dem Spieler während der WM stehen“, sagt Dr. Hendrik Sonnabend. „Sie bewegen sich im Spannungsfeld zwischen Erfolgs- und Fairnesserwartungen.“

Quelle: idw

(nach oben)


Volkskrankheit „Fersenschmerz“: Stoßwellentherapie als Kassenleistung

Friederike Gehlenborg Pressestelle
Deutsche Gesellschaft für Ultraschall in der Medizin (DEGUM)

Berlin – Stechende Schmerzen beim Auftreten und keine sichtbare Veränderung am Fuß?! Wer das kennt, leidet wahrscheinlich unter der Plantarfasziitis – einer Gewebeveränderung in der Sehnenplatte der Fußsohle. Eine wirksame Methode ist die extrakorpale Stoßwellentherapie (EWST). Der Gemeinsame Bundeausschuss (G-BA) hat entschieden, dass diese Therapie ab sofort zur Kassenleistung wird. Die Deutsche Gesellschaft für Ultraschall in der Medizin e.V. (DEGUM) begrüßt das. Sie fordert jedoch auch, dass Patienten diese Therapie frühzeitiger in Anspruch nehmen können sollten und betont, dass es für den Therapieerfolg unerlässlich sei, dass Ultraschall-Experten diese durchführen.

Die Plantarfasziitis verursacht bei Betroffenen einen starken Fersenschmerz. „In Anbetracht der Erkrankungshäufigkeit und weil viele Patienten sogar bis zu zehn Jahre mit diesen Fersenschmerzen leben müssen – was ihre Lebensqualität erheblich einschränkt – begrüßen wir die G-BA-Entscheidung zur Erstattung der ESTW“, betont Dr. med. Rainer Berthold, stellvertretender Leiter des Arbeitskreises Bewegungsorgane der DEGUM und niedergelassener Orthopäde.

Eine Plantarfasziitis entsteht üblicherweise, wenn der Fuß längerfristig stark belastet wird und sich die Sehnen an der Fußsohle im Bereich der Ferse entzünden. Ursache hierfür sind meist starkes Übergewicht, Tragen von Schuhen mit harten Absätzen, Überbelastung beim Sport, stehende Berufe, eine genetisch bedingte Verkürzung des Waden- oder Oberschenkelmuskels oder ein Hohl- beziehungsweise Plattfuss. Die Patienten klagen über Anlaufschmerz in der Ferse bei den ersten morgendlichen Schritten und nach längerem Sitzen. Der Schmerz an der medio-plantaren Ferse („loco tipico“) wird als stechend beschrieben. Er bessert sich häufig nach einigen Schritten oder im Laufe des Tages. Zudem leiden Betroffene an einer Bewegungseinschränkung im oberen Sprunggelenk. Im Erkrankungsverlauf klagen sie über einen dumpfen Schmerz unterschiedlicher Lokalisation, der teilweise auch in Ruhe besteht. Helfen konservative Therapien mit Schuheinlagen, Dehnübungen, Medikamenten oder Physiotherapie nicht, kann die Extrakorporale Stoßwellentherapie (ESTW) eingesetzt werden.

„Üblicherweise gilt die Extrakorpale Stoßwellentherapie (ESTW) für rund zehn Prozent der Betroffenen als letzte Therapiemöglichkeit bevor es zu einer Operation kommt“, erläutert Berthold. Bei der ESTW werden über die Haut Ultraschallstoßwellen in die betroffene Region gebracht. Dadurch wird eine mechanische Reizung der Plantaraponeurose am so genannten kalkanearen Ursprung bewirkt. Die Reizung führt zu Mikrorissen, die einen reaktiven Heilungsprozess des Körpers auslösen, was wiederum die Durchblutung erhöht. Ferner wirkt die ESTW häufig schon während der Anwendung schmerzstillend. Die Methode hat wegen ihres guten Erfolgs in der physikalischen Therapie zur Bewegungsverbesserung und Schmerzreduktion zunehmend an Bedeutung gewonnen. „Da die Behandlungskosten im Vergleich zu den sonst übrigen Pauschalen der gesetzlichen Krankenversicherung relativ hoch sind, hat der G-BA nun entschieden, dass nur chronisch Erkrankte und Patienten, die auf andere konservative Maßnahmen nicht ansprechen, eine Erstattung durch die Krankenkasse erhalten“, erklärt Berthold. „Hier sehen wir das Problem, dass viele Patienten zunächst einen langen Leidensweg von mindestens sechs Monaten gehen müssen, bis sie die ESTW kostenfrei erhalten können. Wir riskieren damit, dass diese Patienten über die Plantarfasziitis hinaus noch einen größeren Fersensporn entwickeln und Zeiten unnötiger Arbeitsunfähigkeit hinzukommen.

Die DEGUM weist überdies darauf hin, dass bei der Diagnose und Therapie der Ultraschall-Anwender eine Schlüsselrolle einnimmt, die der G-BA in seinem Beschluss nicht berücksichtigt hat. Als schonendste und günstigste Diagnosemaßnahme gilt der Ultraschall. Dieser sollte jedoch durch einen ausgewiesenen Ultraschall-Spezialisten erfolgen. „Nur ein erfahrener Sonografie-Spezialist kann zum Beispiel bei beidseitigem Befall eine generalisierte Enthesiopathie rheumatischer Genese – also eine schmerzhafte Erkrankung des Sehnenansatzes – schnell erkennen und so eine nicht sinnvolle Behandlung vermeiden“, erklärt Berthold. „Die Plantarfaszie – also die Sehnenplatte an der Unterseite des Fußes – hat bei einem gesunden Menschen eine Dicke von drei bis vier Millimetern, während bei einer Plantarfasziitis die Faszienschichten oft auf sieben bis zehn Millimeter verdickt sind.“ Auch diffuse hypoechogene Strukturen, die als Ödeme aufgrund von kleinsten Rissen interpretiert werden – im Ultraschall dunkel dargestellte Flächen – kann der Spezialist erkennen. „Der Erfolg einer ESWT-Therapie hängt ebenso wie die Diagnostik stark vom Anwender ab“, betont Berthold. Der Experte empfiehlt deshalb, sich an DEGUM-zertifizierte Orthopäden zu wenden, die Erfahrungen mit dieser Therapie haben. Denn es komme bei der ESWT neben Dauer, Intensität und Frequenz auch auf die exakte Applikation der Stosswellen an. „Es gibt bislang kein einheitliches Behandlungsschema bei der Stosswellentherapie. Daher ist es wichtig, dass der behandelnde Arzt langjährige Erfahrungen vorzuweisen hat“, so Berthold abschließend.

Quellen:
G-BA: Extrakorporale Stoßwellentherapie kann zukünftig auch ambulant zur Fersenschmerz-Behandlung eingesetzt werden
https://www.g-ba.de/institution/presse/pressemitteilungen/743/

Über die DEGUM:
Die Deutsche Gesellschaft für Ultraschall in der Medizin (DEGUM) bietet ein Forum für den wissenschaftlichen und praktischen Erfahrungsaustausch auf dem Gebiet des medizinischen Ultraschalls. Sie vereint rund 10 000 Ärzte verschiedener Fachgebiete, medizinische Assistenten, Naturwissenschaftler und Techniker. Ultraschalldiagnostik ist heute das am häufigsten eingesetzte bildgebende Verfahren in der Medizin. Ultraschallanwendern bescheinigt die DEGUM eine entsprechende Qualifikation mit einem Zertifikat der Stufen I bis III. DEGUM-zertifizierte Ärzte finden Patienten im Internet unter: http://www.degum.de

Weitere Informationen:
https://www.g-ba.de/institution/presse/pressemitteilungen/743/
http://www.degum.de

Quelle: idw

(nach oben)


Was Bäume, Gesellschaft und Gewässer über das Klima sagen

Dr. Susanne Langer Kommunikation und Presse
Friedrich-Alexander-Universität Erlangen-Nürnberg

Wie wirken sich Großwetterlagen auf bayerische Waldökosysteme aus? Welche Rolle spielen regionale Klimaverhältnisse? Was wissen Schülerinnen und Schüler über den Klimawandel? Mit diesen Fragen befassen sich Wissenschaftler der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU) im neuen Verbundprojekt BayTreeNet und setzen dabei auf sogenannte Talking Trees. Das Projekt verbindet naturwissenschaftliche Klimamodellierung und Dendroökologie mit sozialwissenschaftlicher Bildungsforschung in einem bisher einzigartigen interdisziplinären Ansatz.

Der Klimawandel ist eine der gewaltigsten globalen Herausforderungen des 21. Jahrhunderts. Das Bayerische Staatsministerium für Wissenschaft und Kunst fördert deshalb seit Mai 2018 für eine Laufzeit von fünf Jahren das Bayerische Klimaforschungsnetzwerk bayklif mit Geldern in Höhe von insgesamt 18 Millionen Euro. Wissenschaftler des Departments Geographie und Geowissenschaften der FAU sind in drei Verbundprojekten von bayklif vertreten und erhalten Fördermittel in Höhe von rund 1,7 Millionen Euro.

BayTreeNet
Im Projekt BayTreeNet unter Leitung der FAU untersuchen die Forscher systematisch, wie Waldökosysteme auf die Dynamik des Klimas reagieren. Erstmals tun sie dies flächendeckend – bisher gab es nur punktuelle Klimarekonstruktionen, zum Beispiel zur lang anhaltenden Nordwest-Wetterlage im Frühjahr 2015. Diese hatte in Franken zu extremer Trockenheit geführt, in Oberbayern dagegen zu Überschwemmungen im Wolkenstau der Nordalpen. Wie Bäume auf diese extreme klimatische Schwankung reagiert haben, können Forscher auch Jahre später an den Jahresringen ablesen und mit aktuellen Daten in Beziehung setzen – diese Wissenschaft heißt Dendroökologie.

Für BayTreeNet etabliert Prof. Dr. Achim Bräuning vom Lehrstuhl für Geographie (Physische Geographie) der FAU ein dendroökologisches Netzwerk mit zehn sogenannten Talking Trees. Sie stehen in verschiedenen Regionen Bayerns in klimatisch unterschiedlichen Gebieten, fünf in einer Hochlage, fünf in einer Tieflage. Der Clou an der Sache ist: Die Bäume sind mit einer internetfähigen Übertragungseinheit ausgestattet – und jede Reaktion des Baumes auf die lokalen Witterungsbedingungen ist in Echtzeit über das Internet abrufbar. In beiden Lagen entnehmen die Wissenschaftler monatliche Holzproben der Wachstumszone der Bäume, messen mit elektronischen Sensoren die aktuellen Zuwachsschwankungen sowie den Wassertransport an Bäumen und speisen die Daten dann in die Hochleistungsrechner der FAU ein. Diese nutzt auch Prof. Dr. Thomas Mölg, Professur für Geographie, der am Computer das künftige Auftreten von Großwetterlagen und die zugrundeliegenden atmosphärischen Zirkulationsmuster modelliert. Diese steuern die räumliche und zeitliche Verteilung von Wasserdefizit oder -überschuss sowie von Hitze und Kälte.

Talking Trees
Die Talking Trees werden von einem Netzwerk von Partnerschulen betreut und sind auch für die interessierte Öffentlichkeit zugänglich. Die Schülerinnen und Schüler übersetzen im Unterricht die ökologischen und meteorologischen Messdaten des Baumes in menschliche Sprachbotschaften, so dass auch die breite Öffentlichkeit versteht, was die sprechenden Bäume zu sagen haben. Das Unterrichtskonzept zu den Talking Trees wird von Prof. Dr. Jan Christoph Schubert vom Lehrstuhl Didaktik der Geographie der FAU forschend begleitet. Mit Methoden der empirischen Sozialforschung untersucht er, wie der Transfer der Daten in schulische Bildungsarbeit gelingt. Dafür füllen die Schülerinnen und Schüler Fragebögen aus und nehmen an leitfadengestützten Interviews teil. Der Bildungsforscher sieht so, welches Wissen und welche Einstellungen sie mitbringen und wie sich beides durch den Unterricht verändert.

Insgesamt verbindet das Projekt Pflanzenwissenschaften, Klimaforschung und Bildungsforschung – und es stärkt die Verbindung zwischen Hochschulen und Schulen im Bereich der MINT-Fächer.

BLIZ und AQUAKLIF
Auch an zwei weiteren Verbundprojekten von bayklif sind Wissenschaftler des Departments Geographie und Geowissenschaften der FAU beteiligt.

Prof. Dr. Perdita Pohle, Lehrstuhl für Geographie (Kulturgeographie und Entwicklungsforschung), arbeitet im Verbundprojekt „BLIZ – Blick in die Zukunft: Wechselwirkungen zwischen Gesellschaft, Landnutzung, Ökosystemleistungen und Biodiversität in Bayern bis 2100″ mit. Es ist an der Technischen Universität München (TUM) angesiedelt und untersucht die Auswirkungen des Klimawandels auf ökologische und sozio-ökonomische Systeme und deren Wechselwirkungen. Das Teilprojekt von Prof. Pohle befasst sich mit sozial-ökologischen Transformationen in der Landwirtschaft in Anpassung an den Klimawandel. Aus Sicht verschiedener Akteure aus Politik, Umwelt, Wirtschaft und Zivilgesellschaft analysiert sie die Akzeptanz und Präferenz von nachhaltigen Landnutzungsoptionen und diskutiert Umsetzungsmöglichkeiten mit Partnern aus der Praxis.

Prof. Johannes Barth, Lehrstuhl für Angewandte Geologie am GeoZentrum Nordbayern der FAU, ist im Projekt AQUAKLIF aktiv. Das Projekt wird von der Universität Bayreuth geleitet und untersucht die Auswirkungen klimatischer Einflussfaktoren. Hierzu gehören Änderungen der Temperatur und des Niederschlages sowie veränderte Feinsedimentfrachten als wichtige Faktoren, die auf die Gewässerökologie und Wasserqualität Einfluss nehmen. Entscheidend für den angestrebten „guten Zustand“ eines Gewässers ist der gelöste Sauerstoff im Wasser. Prof. Barth untersucht mit einer neuen Messmethode der „stabilen Isotopenverhältnisse“ den Sauerstoff und kann so seine Umsetzungen in Bächen und ihren Sedimenten sowie im Grundwasser bestimmen.

Ansprechpartner für Medien:
BayTreeNet
Prof. Dr. Achim Bräuning
Tel.: 09131/85-29372
achim.braeuning@fau.de

BLIZ
Prof. Dr. Perdita Pohle
Tel.: 09131/85-22639
perdita.pohle@fau.de

AQUAKLIF
Prof. Johannes Barth, Ph.D.
Tel.: 09131/85- 22621
johannes.barth@fau.de

Quelle: idw

(nach oben)


Neue Europäischen Leitlinien für Bluthochdruck: Was ändert sich?

Dr. Bettina Albers Geschäftsstelle
Deutsche Hochdruckliga

Auf dem Kongress der „European Society of Hypertension“ (ESH) wurden am vergangenen Wochenende in Barcelona die neuen europäischen Leitlinien für die Behandlung von Bluthochdruck vorgestellt. Die ESH/ESC-Leitlinie hält an der Definition von Bluthochdruck von ≥140/90 mm Hg fest und setzt verstärkt auf Prävention und Früherkennung: Menschen mit optimalen Blutdruckwerten unter 120/80 mm Hg sollen sich alle 5 Jahre eine Blutdruck-Screening-Messung unterziehen, Erwachsene mit hochnormalen Blutdruckwerten (130-139/85-89 mm Hg) mindestens jährlich. Die Therapietreue soll durch den Einsatz von Fixdosis-Kombinationen verbessert werden.

Auf dem Kongress der „European Society of Hypertension“ (ESH) wurden erstmals die neuen Europäischen Leitlinien für die Behandlung von Bluthochdruck präsentiert, die zusammen von der ESH und der „European Society of Cardiology“ (ESC) erstellt wurden und deren Publikation im August erwartet wird [1]. Die neuen Leitlinien halten nach wie vor an der bestehenden Krankheitsdefinition von ≥140/90 mm Hg fest, empfehlen aber, eine Senkung in den Normalbereich (<130/80 mm Hg) anzustreben.

Professor Dr. med. Peter Trenkwalder, Stellv. Vorstandsvorsitzender der Deutschen Hochdruckliga e.V. DHL® | Deutsche Gesellschaft für Hypertonie und Prävention kommentiert: „Die US-Leitlinien definieren Bluthochdruck bereits ab Werten ≥130/80 mm Hg, der Grenzwert wurde 2017 u.a. als Reaktion auf die SPRINT-Studie [2] abgesenkt. Die europäische Leitlinienkommission hingegen sah für eine solche Empfehlung keine ausreichende Evidenz. Die neue Leitlinie sieht weiterhin vor, die Mehrzahl der Hypertoniker erst ab einem Blutdruck von 140/90 mm Hg medikamentös zu behandeln.“ Wie die vorherige Leitlinie differenziert sie zwischen einem optimalen Blutdruckbereich (<120/80 mm Hg), einem normalen (120-129/80-84 mm Hg) und einem hochnormalen (130-139/85-89 mm Hg). Erst darüber liegende Werte werden als krankhaft eingestuft und sollten medikamentös behandelt werden, wenn eine Lebensstiländerung, die bereits Patienten mit hochnormalen Werten empfohlen wird, keine Erfolge gezeigt hat.

„Generell gilt aber: Bluthochdruck ist ein komplexes Erkrankungsbild und die moderne Bluthochdrucktherapie sollte individualisiert erfolgen, die Leitlinien setzen lediglich den groben Rahmen“, erklärt Professor Krämer, Präsident der Deutschen Hochdruckliga e.V. DHL® | Deutsche Gesellschaft für Hypertonie und Prävention. „Primäres Ziel muss ein, alle Hypertoniker erfolgreich unter diesen Wert von 140/90 mm Hg, nach Möglichkeit aber in den Normalbereich (<130/80 mm Hg) zu bringen. Doch derzeit ist die Hälfte aller Menschen mit Bluthochdruck nicht bzw. nicht erfolgreich behandelt“, so der Experte. Die Gründe dafür liegen in einer mangelnden Therapietreue der Patienten und in einer immer noch bestehenden Dunkelziffer der Erkrankung.

Diese beiden Probleme adressiert die neue Leitlinie, was die Deutsche Hochdruckliga e.V. DHL® | Deutsche Gesellschaft für Hypertonie und Prävention ausdrücklich begrüßt. Zum einen empfiehlt sie, dass normotensive Erwachsene mit optimalen Blutdruckwerten unter 120/80 mmHg alle 5 Jahre eine Blutdruck-Screening-Messung erhalten und Erwachsene mit hochnormalen Blutdruckwerten (130-139/85-89 mmHg) mindestens jährlich. Um die Therapietreue zu stärken, empfiehlt sie den Einsatz von Fixdosis-Kombinationen (im engl. „single pill combinations“ = SPC; 2-3 blutdrucksenkende Substanzen in einer einzigen Tablette) – es ist bekannt, dass die Therapietreue nachlässt, je mehr verschiedene Tabletten die Patienten einnehmen müssen. Entsprechend hat sich auch ein Paradigmenwechsel in der Therapie ergeben: „Die medikamentöse Therapie soll nun primär als 2-fach-Kombinationstherapie aus ACE-Hemmern oder Angiotensin-Rezeptor-Blocker (ARB) und Kalziumantagonist oder Thiaziddiuretikum erfolgen, die Monotherapie hat als Erstlinientherapie ausgedient“, kommentiert Professor Krämer.

Literatur
[1] Williams B., Mancia G. et al. 2018 Guidelines of the ESC/ESH in press Eur Heart J / J Hypertens
[2] Wright JT, Jr., Williamson JD, Whelton PK et al. A Randomized Trial of Intensive versus Standard Blood-Pressure Control. N Engl J Med 2015; 373: 2103-2116.

Kontakt/Pressestelle
Dr. Bettina Albers
albers@albersconcept.de
Telefon: 03643/ 776423
Mobile: 0174/ 2165629

Weitere Informationen:
https://www.hochdruckliga.de/

Quelle: idw

(nach oben)


Klimaschutz: Weniger Lachgas aus der Landwirtschaft

Monika Landgraf Strategische Entwicklung und Kommunikation – Gesamtkommunikation
Karlsruher Institut für Technologie

Lachgas gehört mit Kohlendioxid und Methan zu den bedeutendsten Treibhausgasen: Es ist etwa 300-mal so klimaschädlich wie Kohlendioxid. In Deutschland ist überwiegend die Landwirtschaft für die Emissionen von Lachgas verantwortlich, vor allem bedingt durch den intensiven Einsatz von Stickstoffdünger. Die möglichen Folgen – mit Blick auf Nahrungsmittelproduktion und Klimawandel – wird eine neue Forschergruppe am Karlsruher Institut für Technologie (KIT) im Programm „Make Our Planet Great Again – German Research Initiative“ untersuchen. Ziel des deutsch-französischen Programms ist es, die Klimaforschung im Anschluss an das Pariser Abkommen zu stärken.

Mit dem gemeinsamen Förderprogramm, das auf die Initiative „Make Our Planet Great Again“ des französischen Staatspräsidenten zurückgeht, können exzellente Forscherinnen und Forscher aus dem Ausland an einer deutschen oder französischen Einrichtung ihrer Wahl an Projekten forschen, die die Pariser Klimaziele unterstützen. Leiter der neuen Gruppe am KIT wird Dr. Clemens Scheer, der von der Queensland University of Technology Brisbane, Australien, kommt.

Distickstoffmonoxid (N2O) – auch bekannt als Lachgas – wirkt erderwärmend, schädigt die Ozonschicht und wird mikrobiologisch in (überdüngten) Böden, Gewässern oder Kläranlagen gebildet, entsteht aber auch bei Verbrennungsprozessen. Am Institut für Meteorologie und Klimaforschung – Atmosphärische Troposphärenforschung des KIT (IMK-IFU) beschäftigen sich Wissenschaftlerinnen und Wissenschaftler seit langen mit der Quantifizierung der Quellstärke von landwirtschaftlichen Systemen für N2O. Unter anderem fanden Sie heraus, dass Emissionen reduziert werden können, wenn Landwirte den Düngemitteleinsatz besser auf das Pflanzenwachstum abstimmen und Zwischenfrüchte anbauen.

Diese – bisher regionalen – Untersuchungen erweitert die neue Forschergruppe nun sowohl um die globale Komponente als auch um den Aspekt der Nahrungsmittelproduktion. „Im Mittelpunkt steht die Frage, wie mehr Nahrungsmittel zu geringeren Umweltkosten produziert werden können, um den wachsenden Bedarf einer zunehmenden Weltbevölkerung abzudecken“, so Professor Klaus Butterbach-Bahl vom IMK-IFU, der unter anderem in Steppen und Savannen zu N2O-Emissionen aus der Tierhaltung forscht. Begleitend werde ein globales Netzwerk von Forscherinnen und Forschern initialisiert, die an solchen Fragen arbeiten, um gemeinsam Standards für Messungen und Modellierungen zu entwickeln.

Der Forschungsschwerpunkt von Dr. Clemens Scheer liegt in den Auswirkungen von Landnutzung und Landwirtschaft auf den Austausch von umweltwirksamen Gasen zwischen Boden, Pflanzen und Atmosphäre. „Das Programm bietet ideale Voraussetzungen, um meine Forschungsinteressen zu Landwirtschaft und Klimawandel voranzutreiben“, erläutert Scheer. „Ich freue mich sehr über die Möglichkeit, die nächsten vier Jahre am KIT arbeiten zu können: Es bietet mir modernste Technik und beste Ausstattung sowie ein stimulierendes akademisches Umfeld.“

Eine Expertenjury des Deutschen Akademischen Austauschdienstes (DAAD) hat Clemens Scheer als einen von insgesamt 13 renommierten internationalen Forscherinnen und Forscher als Leiter für Projekte in Deutschland ausgewählt, die die Pariser Klimaziele unterstützen. Sie sind Teil eines deutsch-französischen Förderprogramms, das beide Regierungen nach dem Pariser Klimaabkommen vereinbart haben. Der Deutsche Akademische Austauschdienst (DAAD) und das Bundesministerium für Bildung und Forschung (BMBF) fördern die Projekte mit insgesamt 15 Millionen Euro. Insgesamt bewarben sich mehr als 700 Forscher aus allen fünf Kontinenten und rund 70 Ländern.

Clemens Scheers Gruppe am KIT erhält von DAAD und BMBF eine Förderung von 775.000 Euro, das KIT leistet einen zusätzlichen Eigenbeitrag in gleicher Höhe, um das neue Forschungsprojekt voraussichtlich Anfang 2019 zu realisieren.

Details zum KIT-Zentrum Klima und Umwelt: http://www.klima-umwelt.kit.edu

Als „Die Forschungsuniversität in der Helmholtz-Gemeinschaft“ schafft und vermittelt das KIT Wissen für Gesellschaft und Umwelt. Ziel ist es, zu den globalen Herausforderungen maßgebliche Beiträge in den Feldern Energie, Mobilität und Information zu leisten. Dazu arbeiten rund 9 300 Mitarbeiterinnen und Mitarbeiter auf einer breiten disziplinären Basis in Natur-, Ingenieur-, Wirtschafts- sowie Geistes- und Sozialwissenschaften zusammen. Seine 25 500 Studierenden bereitet das KIT durch ein forschungsorientiertes universitäres Studium auf verantwortungsvolle Aufgaben in Gesellschaft, Wirtschaft und Wissenschaft vor. Die Innovationstätigkeit am KIT schlägt die Brücke zwischen Erkenntnis und Anwendung zum gesellschaftlichen Nutzen, wirtschaftlichen Wohlstand und Erhalt unserer natürlichen Lebensgrundlagen.

Diese Presseinformation ist im Internet abrufbar unter: http://www.sek.kit.edu/presse.php

Weitere Informationen:
http://www.klima-umwelt.kit.edu
http://www.sek.kit.edu/presse.php

Anhang
Klimaschutz: Weniger Lachgas aus der Landwirtschaft
https://idw-online.de/de/attachment65976

Quelle: idw

(nach oben)


Aufwärmen wie die Fußballprofis und Knieverletzungen vermeiden

Susanne Herda, Swetlana Meier Presse- und Öffentlichkeitsarbeit
Deutsche Gesellschaft für Orthopädie und Unfallchirurgie e. V.

Auch für Freizeitsportler gilt: vor dem Fußballspielen aufwärmen. Mit speziellen Aufwärmprogrammen lässt sich das Verletzungsrisiko von Knieverletzungen um bis zu 50 Prozent reduzieren. Denn aufgrund der spieltypischen Sprung- und Abbremsbewegungen kommen Kreuzbandrupturen im Ballsport besonders häufig vor. Darauf weist die Deutsche Gesellschaft für Orthopädie und Unfallchirurgie e.V. (DGOU) im Vorfeld der Fußball-Weltmeisterschaft hin. Geeignet ist ein 20- bis 30-minütiges Zirkeltraining mit Lauf-, Balance-, Sprung- und Kraftübungen.

Mit einem Sprungtest können Sportler zudem klären, ob bei ihnen eine funktionelle X-Bein-Stellung vorliegt und damit das Risiko für eine Knieverletzung erhöht ist. Der Sprungtest und die Präventionsübungen werden in der neuen Broschüre „Stop X“ der DGOU-Sektion Deutsche Kniegesellschaft (DKG) ausführlich beschrieben.

Das 30-seitige Programm zur Prävention von Sportverletzungen am Kniegelenk steht kostenfrei zum Download auf der DGOU-Website zur Verfügung. „Prävention im Sport muss noch eine viel größere Beachtung bekommen. Denn damit können Verletzungen deutlich reduziert werden“, sagt DGOU-Präsident Professor Dr. Dr. Werner Siebert.

Eine Verletzung am Knie ist der Alptraum eines jeden Profi-Kickers. Ist das Knie verdreht, das Kreuzband gerissen oder der Meniskus verletzt, hat das weitreichende Folgen: Operation, monatelange Reha, Trainingsausfall und die Ungewissheit, ob und wann das Comeback gelingt. Um Knieverletzungen zu reduzieren, enthält das Training beim Profifußball daher auch immer Aufwärmübungen zur Verletzungsprävention. Beim Amateurfußball sieht das noch anders aus: „Der Verletzungsprävention wird in Deutschland bisher leider noch zu wenig Aufmerksamkeit gewidmet“, sagt Prof. Dr. Wolf Petersen, DKG-Vizepräsident und Mitautor der Broschüre „Stop X“. Dabei ist eine schwere Knieverletzung, egal ob beim Profi oder beim Hobbysportler, eine lebensverändernde Erfahrung – viele Verletzungen wären vermeidbar.

Das DKG-Programm „Stop X“ zur Prävention von Sportverletzungen am Kniegelenk vereint verschiedene internationale wissenschaftlich etablierte Präventionsprogramme und enthält auch Elemente aus dem Aufwärmprogramm der FIFA mit dem Titel „11+“. Studien zeigen, dass Verletzungen des Kniegelenkes durch regelmäßig durchgeführte Aufwärm- und Präventionsprogramme um 27 Prozent und Rupturen des vorderen Kreuzbandes um 51 Prozent reduziert werden können. Daher betont Professor Dr. Thomas Tischer, Incoming-Präsident der Gesellschaft für Orthopädisch-Traumatologische Sportmedizin (GOTS) und Leiter der neugegründeten GOTS-Kommission für Prävention: „Wer mit kalten Muskeln an den Ball geht, der riskiert ein Eigentor für seine Gesundheit.“

Oft treten Knieverletzungen beim Landen nach einem Sprung oder bei Drehbewegungen auf: Ist das Knie dabei nach innen geknickt – in der sogenannten X-Bein-Position – und der Körperschwerpunkt befindet sich hinter dem Knie, kommt es zu einer starken Anspannung des Streckmuskels im Oberschenkel. Diese Kraft kann dann zur Ruptur des vorderen Kreuzbandes führen. Das Einbrechen des Kniegelenks nach innen wird begünstigt, wenn Hüft- und Rumpfmuskulatur ungenügend trainiert sind.

Daher raten die Experten von DGOU, DKG und GOTS, es den Profis gleich zu tun und geben folgende Tipps zur Verletzungsprävention:

Sprungtest: Bei einem Sprungtest lässt sich feststellen, ob der Sportler aufgrund einer X-Bein-Position ein erhöhtes Risiko für Knieverletzungen hat. Dazu springt der Sportler von einem Kasten, landet und springt dann mit maximaler Kraft in die Höhe. Beim Landen wird die Stellung der Beine analysiert:
X-Bein: Risiko
Gerades Bein: geringes Risiko
O-Bein: geringes Risiko

Liegt eine X-Bein-Stellung vor, sollte der Patient versuchen, dieses Risiko mit Hilfe eines Präventionsprogrammes auszuschalten.

Folgende Übungen eignen sich für Aufwärmübungen:
Beachte: Alle folgenden Übungen müssen so ausgeführt werden, dass Hüfte, Knie und Fußgelenk in einer Linie stehen – die X-Bein-Stellung wird vermieden.

1) Für Laufübungen eignen sich: Geradeauslaufen, Laufen mit Hüftdrehung nach außen, Laufen mit Richtungswechsel, Laufen mit Hoch-Weit-Sprüngen
2) Für Balanceübungen eignen sich: Einbeinstand mit Ball, Einbeinige Balanceübung auf dem Wackelbrett, Einbeinige Balanceübungen auf einem Balancekissen mit gegenseitigem Zuwerfen eines Balles
3) Für Sprungübungen eignen sich: Sprung auf Weite, Sprung auf Höhe
4) Für Kraftübungen eignen sich: Kniebeuger, Statischer Unterarmstütz, Dynamischer Unterarmstütz mit wechselndem Anheben der Beine, Seitlicher Unterarmstütz, Abspreizen der Hüfte gegen einen Widerstand, Kniebeugen auf einem Bein mit Partner, Kniebeugen im Ausfallschritt

Alle Übungen werden in der Broschüre ausführlich beschrieben und mit Bildern erklärt.

Download der Broschüre „Stop X“ – Programm zur Prävention von Sportverletzungen am Kniegelenk“ unter:
deutsche-kniegesellschaft.de/wp-content/uploads/2017/02/DKG_Stop-X_Pr%C3%A4vention-von-Sportverletzungen-am-Kniegelenk.pdf

Referenzen:
1) Wolf Petersen et al., Prävention von Knieverletzungen und VKB-Rupturen, Deutscher Ärzteverlag, Orthopädische und Unfallchirurgische Praxis, 2016;5 (10)
2) Thomas Stoffels, Andrea Achtnich, Wolf Petersen, Prävention von Knieverletzungen – besteht Evidenz?, Elsevier, Sports Orthopaedics and Traumatology 33, 344-352 (2017)

Weitere Informationen:
https://dgou.de/dgou/
http://deutsche-kniegesellschaft.de/
http://www.gots.org/

Kontakt für Rückfragen:
Susanne Herda, Swetlana Meier
Presse- und Öffentlichkeitsarbeit
Deutsche Gesellschaft für Orthopädie und Unfallchirurgie (DGOU) e.V.
Straße des 17. Juni 106-108, 10623 Berlin
Telefon: +49 (0)30 340 60 36 -06 oder -00
Telefax: +49 (0)30 340 60 36 01
E-Mail: presse@dgou.de

Weitere Informationen:
http://deutsche-kniegesellschaft.de/wp-content/uploads/2017/02/DKG_Stop-X_Pr%C3%…
https://dgou.de/dgou/
http://deutsche-kniegesellschaft.de/
http://www.gots.org/

Quelle: idw

(nach oben)


35 Jahre Meeresschutz: Fehlende Strategie erhöht Bedarf an Schutzflächen

Birgit Kruse Referat Medien- und Öffentlichkeitsarbeit
Universität Hamburg

Obwohl mehr als 16 Prozent aller nationalen Meeresflächen geschützt sind, bilden diese Flächen viele Ökoregionen und Länder nicht ab. Die heutige Ausdehnung ist ebenso teuer wie ineffizient, wie Dr. Kerstin Jantke und Team in einer aktuellen Studie des Centrums für Erdsystemforschung und Nachhaltigkeit der Universität Hamburg zeigen. Hätte man von Anfang an strategisch geplant, könnte längst jede Ökoregion angemessen geschützt sein.

In internationalen Vereinbarungen wie den Sustainable Development Goals (SDG) und den Aichi-Zielen der Vereinten Nationen (UN) ist festgelegt, dass bis zum Jahr 2020 mindestens zehn Prozent der Küsten und Ozeane unter Naturschutz stehen sollen. Dieses Flächenziel wurde mit heute rund 16,8 Prozent bereits erreicht. Wo diese Flächen liegen ist jedoch nicht beliebig: So ist vereinbart, dabei jeden der marinen Lebensräume zu erfassen, um den Verlust von biologischer Vielfalt weltweit aufzuhalten.

Gemeinsam mit Forscherinnen und Forschern der Universität Queensland, Australien, analysierte die Umweltwissenschaftlerin Kerstin Jantke Meeresschutzgebiete von den Anfängen im Jahr 1982 bis 2016. Das Team betrachtete dabei nur die nationalen Gewässer (39 Prozent der Ozeanfläche), da internationale Gewässer bisher schwer unter Schutz zu stellen sind. Die nationalen Gewässer bestehen aus 258 Ökoregionen. Das sind relativ große Gebiete, die sich in Artenzusammensetzung und Umweltbedingungen geografisch abgrenzen lassen. Jede dieser Regionen sollte zu zehn Prozent ihrer Fläche unter Schutz stehen. Die Studie zeigt, dass mehr als die Hälfte der Ökoregionen (157) nicht ausreichend geschützt sind, zehn davon noch überhaupt nicht.

Besonders wichtig ist, die Flächen in Zukunft strategisch auszuwählen. Das Team verglich deren Größe von Jahr zu Jahr und simulierte eine optimale Ausdehnung der Schutzgebiete. Hätte man schon im Jahr 1982 begonnen, taktisch zu planen, wären dafür nur 10,3 Prozent der nationalen Meeresfläche nötig gewesen. Noch bis zum Jahr 2011 hätte eine Fläche von knapp 13 Prozent ausgereicht, um alle Ökoregionen wie vereinbart zu zehn Prozent zu schützen. Das Ziel hätte also längst erreicht sein können und auch die Folgekosten, die beispielsweise durch eine eingeschränkte Nutzung für die Fischerei entstehen, wären weitaus geringer gewesen.

„Die Länder müssen systematisch vorgehen und strategisch zusammenarbeiten. Nur so lassen sich die massiven Lücken im bisherigen System schließen“, sagt Jantke. „Doch nationale und wirtschaftliche Interessen gehen meist vor. In Zukunft sollten neue Schutzzonen zunächst in den wenig geschützten Ökoregionen ausgewiesen werden.“

Im Jahr 2020 werden in China unter Federführung der UN neue Ziele zum Naturschutz verhandelt. Viele Expertinnen und Experten gehen davon aus, dass die Zukunft einer Ökoregion nur gesichert ist, wenn mindestens 30 Prozent ihrer Fläche unter Schutz stehen. „Ich bin dafür, weitere Flächen zu schützen. Denn Biodiversität bildet letztlich unsere Lebensgrundlage“, sagt Jantke. „Dazu kommt, dass der Klimawandel auch vor einem Schutzgebiet nicht haltmacht. Doch sind die Gebiete geschützt, können sie sich wahrscheinlich besser an veränderte Klimabedingungen anpassen.“ Die aktuelle Studie liefert jetzt die Basis für einen zukünftigen Meeresschutz mit System.

Fachartikel:
Jantke K., Jones K.R., Allan J.R., Chauvenet A.L.M., Watson J.E.M., Possingham H.P. (2018): Poor ecological representation by an expensive reserve system: evaluating 35 years of marine protected area expansion. Conservation Letters, DOI: 10.1111/conl.12584
https://doi.org/10.1111/conl.12584

Bilder zum Download finden Sie unter:
https://www.cen.uni-hamburg.de/about-cen/news/1-news-2018/2018-06-26-meeresschut…

Das Centrum für Erdsystemforschung und Nachhaltigkeit, kurz CEN, ist ein zentrales Forschungszentrum an der Universität Hamburg. Das CEN arbeitet interdisziplinär: Es verknüpft Natur- und Gesellschaftswissenschaften und beantwortet so grundsätzliche Fragen aus Klima-, Umwelt und Erdsystemforschung.

Kontakt:
Dr. Kerstin Jantke
Universität Hamburg
Centrum für Erdsystemforschung und Nachhaltigkeit (CEN)
Tel.: +49 40 42838-2147
Mobil: +49 170 55 00 778
E-Mail: kerstin.jantke@uni-hamburg.de

Stephanie Janssen
Universität Hamburg
Centrum für Erdsystemforschung und Nachhaltigkeit (CEN)
Öffentlichkeitsarbeit CliSAP/CEN
Tel.: +49 40 42838-7596
E-Mail: stephanie.janssen@uni-hamburg.de

Quelle: idw

(nach oben)


Elektroautos: Keine Einschränkungen für Träger von Herzschrittmachern & Co.

Christine Vollgraf Presse- und Öffentlichkeitsarbeit
Deutsches Zentrum für Herz-Kreislauf-Forschung e.V.

Patienten mit Herzschwäche oder Herzrhythmusstörungen wird häufig ein Herzschrittmacher oder ein Defibrillator eingesetzt, um die Herzfunktion zu regulieren. Diese kleinen Geräte sind jedoch anfällig für elektromagnetische Interferenzen, wie sie auch in Elektroautos potenziell auftreten können. Dr. Carsten Lennerz, Wissenschaftler des Deutschen Zentrums für Herz-Kreislauf-Forschung (DZHK) am Deutschen Herzzentrum München, Klinik an der Technischen Universität München kommt in einer Studie zu dem Schluss, dass von derzeitigen Elektroautos keine Gefahr für Träger von Herzschrittmachern und anderen implantierten elektrischen Herzgeräten ausgeht.

„Wir wollten eine sichere Datengrundlage für Menschen mit Herzschrittmachern und Defibrillatoren schaffen, vor allem um unnötige Restriktionen zu vermeiden“, so Dr. Carsten Lennerz. Schließlich würden Elektroautos zunehmend für den öffentlichen und privaten Transport eingesetzt. Deshalb hat er mit Patienten überprüft, welche Auswirkungen die elektromagnetischen Felder eines Elektroautos auf ihre implantierten elektrischen Herzgeräte (kurz CIEDs für cardiac implantable electronic devices) haben.

Befürchtete Komplikationen sind etwa, dass die CIEDs durch das elektromagnetische Feld Signale wahrnehmen, die nichts mit dem Herzschlag zu tun haben und daraufhin falsch reagieren. Zum Beispiel könnte ein Herzschrittmacher Signale empfangen, die einen Herzschlag vortäuschen, woraufhin das Gerät fälschlicherweise aussetzen würde. Das Herz des Patienten würde dann nicht mehr ausreichend bei seiner Pumparbeit unterstützt. Defibrillatoren könnten auch fälschlicherweise Schocktherapien abgeben, falls das elektromagnetische Feld als Kammer-Rhythmusstörung fehlinterpretiert würde. Außerdem wird diskutiert, dass elektromagnetische Felder die implantierten elektrischen Herzgeräte umprogrammieren könnten. Die Studie mit 108 Trägern von Herzschrittmachern oder Defibrillatoren gab DZHK-Wissenschaftler Lennerz und seinen Kollegen jedoch keinen Hinweis darauf, dass die Funktion der implantierten Geräte durch Elektroautos gestört wird. Dabei haben sie Elektroautos von vier unterschiedlichen Herstellern untersucht, deren Modelle einen großen Marktanteil haben.

Maximale Leistung
Anders als in vorausgegangenen Studien, bei denen die Autos bei laufendem Motor lediglich angehoben wurden, fuhren die Patienten bei dieser herstellerunabhängigen Studie mit den Elektroautos auf einem Rollprüfstand der Technischen Universität München. So wollten die Wissenschaftler sicherstellen, dass die Motoren auch tatsächlich die maximale Leistung erbringen. Während der Fahrt auf dem Rollprüfstand wurde bei den Probanden ein Elektrokardiogramm (EKG) aufgezeichnet, um eventuelle, durch elektromagnetische Interferenzen ausgelöste Abweichungen der Schrittmacher- oder Defibrillatorfunktion zu registrieren. Außerdem wurde auch die Stärke des elektromagnetischen Feldes gemessen und mit Messwerten verglichen, die beim Fahren auf der Straße aufgezeichnet wurden. Damit konnten die Forscher zeigen, dass auf dem Rollprüfstand die gleichen elektromagnetischen Felder wirken wie im Straßenverkehr.

Die stärksten elektromagnetischen Felder maßen Lennerz und seine Kollegen, wenn die Patienten die Autos aufluden. „Die Autos sind innen so ausgestattet, dass die Insassen gut abgeschirmt sind. Deshalb ist das Aufladen der kritischere Moment“, erläutert Lennerz. Aber auch dann traten keine Wechselwirkungen mit den CIEDs auf.

„Obwohl unsere Untersuchungen zeigen, dass Fehlfunktionen sehr unwahrscheinlich sind, kann man keine dauerhafte Entwarnung geben“, sagt Lennerz. Schließlich entwickelten sich die Elektroautos und die Ladetechnik immer weiter, sodass dann neue Untersuchungen nötig wären. Aber mit den derzeitigen Modellen können laut dem Münchener Wissenschaftler auch Patienten mit Herzschrittmachern und Defibrillatoren Elektroautos ohne Angst benutzen.

**Originalarbeit**: Electric Cars and Electromagnetic Interference With Cardiac Implantable Electronic Devices: A Cross-sectional Evaluation. Lennerz C, O’Connor M, Horlbeck L, Michel J, Weigand S, Grebmer C, Blazek P, Brkic A, Semmler V, Haller B, Reents T, Hessling G, Deisenhofer I, Whittaker P, Lienkamp M, Kolb C. Ann Intern Med. 2018 Apr 24. DOI: 10.7326/M17-2930

Kontakt: Christine Vollgraf, Presse- und Öffentlichkeitsarbeit, Deutsches Zentrum für Herz-Kreislauf-Forschung (DZHK), Tel.: 030 3465 529 02, presse@dzhk.de

Dr. Carsten Lennerz, Deutsches Herzzentrum München des Freistaates Bayern, Klinik an der Technischen Universität München, lennerz@dhm.mhn.de

Weitere Informationen:
https://dzhk.de/das-dzhk/presse/artikel/elektroautos-keine-einschraenkungen-fuer…

Quelle: idw

(nach oben)


Nachhaltige Fischzucht am Viktoriasee mit dem EU-Projekt VicInAqua

Anette Mack Presse- und Öffentlichkeitsarbeit
Steinbeis-Europa-Zentrum

Im EU-Projekt VicInAqua wird ein effizientes, flexibles und robustes System für Abwasserreinigung und -Wiederverwertung in Fischzucht und Bewässerung für die Region des Viktoriasees entwickelt. Die Demonstrationsanlage in Kenia bietet einen innovativen Ansatz für umweltfreundliche Aufbereitung und Wiederverwertung vom Abwasser.

Das Institut für Angewandte Forschung an der Hochschule Karlsruhe ist Koordinator des Projekts und errichtet mit zehn weiteren europäischen und afrikanischen Partnern eine Demonstrationsanlage in der Stadt Kisumu in Kenia. Auf der Grundlage vergangener Projekte im Bereich der Wasser- und Abwasserbehandlung hat die Hochschule Karlsruhe mit der Steinbeis 2i GmbH (S2i) über Umweltthemen wie z .B Eutrophierung im Wasser des Viktoriasees diskutiert und mit weiteren Partnern gemeinsam ein Konzept erarbeitet, das zur Verbesserung der sozioökonomischen Situation am Viktoriasee beitragen soll. Das entstandene Projekt VicInAqua wird von der Europäischen Kommission im Rahmen des Forschungs- und Innovationsprogramms Horizont 2020 gefördert (GA Nr. 689427). Unter den Projektpartnern sind industrielle, wissenschaftliche und öffentliche Organisationen aus Dänemark, Deutschland, Italien, Kenia, Malta, Tansania und Uganda. Die S2i unterstützt als Projektpartner die Verbreitung und Verwertung der Projektergebnisse, das administrative und finanzielle Management und die Kommunikation über Projektziele und Fortschritte.

Die Partner verfolgen einen integrierten Ansatz, um eine nachhaltige Kombination aus Abwasserbehandlung und einem re-zirkulierenden Aquakultursystem (recirulating aquaculture system, RAS) für die Wiederverwendung des Wassers und die Qualitätssteigerung der Fischzucht im Viktoriaseebecken zu entwickeln. Das System soll zur Verminderung der Belastung des empfindlichen Ökosystems und zur Steigerung der Ernährungs- und Gesundheitssicherheit beitragen. Im RAS werden Fischlaiche großgezogen, die durch die optimale und ständig überprüfte Wasserqualität und Versorgung eine besonders hohe Qualität besitzen. Die Fischlaiche werden später an lokale Fischteichbetreiber zur weiteren Aufzucht übergeben.

Darüber hinaus wird ein neuartiger selbstreinigender Wasserfilter entwickelt und eingesetzt, der aus einem Membranbioreaktor (MBR) als Hauptbehandlungseinheit in einem kombinierten Behandlungssystem besteht. In Bezug auf MBR besteht das Hauptproblem in Membranverschmutzung, die eine häufige Reinigung mit teuren Chemikalien erfordert. VicInAqua entwickelt neuartige selbstreinigende Membranmaterialien, die zu einer besseren und umweltschonenderen Langzeitleistung beitragen. Ein innovatives, leicht bedienbares Monitoringsystem ermöglicht es, die gesamte Anlage vor Ort und über das Smartphone zu überwachen. Das gefilterte, nährstoffreiche Abwasser fließt wieder in das RAS und wird zusätzlich für die landwirtschaftliche Bewässerung genutzt. Der gefilterte Überschussschlamm aus dem Filtersystem wird mit organischen Abfällen aus der Umgebung verwendet, um Biogas zu produzieren. Zusammen mit einer fortgeschrittenen Photovoltaikanlage sorgt dieses Biogas für eine flexible, dezentrale Energieversorgung.

„In VicInAqua entwickeln wir eine innovative Rundumlösung, die für einen erfolgreichen Betrieb in Afrika aber auch weiteren Regionen der Welt mit Wasser- oder Nahrungsmittelknappheit angepasst werden und die letztendlich dazu beitragen sollen, neue Geschäftsmöglichkeiten für die lokale Bevölkerung zu entwickeln. Die größte Herausforderung neben den technischen Innovationen besteht darin, den gegenseitigen kulturellen und technischen Austausch zwischen der europäischen und der afrikanischen Gesellschaft zu fördern, um den Menschen in Afrika eine Perspektive in ihren Heimatländern zu bieten,“ sagt Prof. Dr. Jan Hoinkis, Projektkoordinator und Professor an der Hochschule Karlsruhe.

„Uns gefällt der innovative Ansatz von VicInAqua, der sich insbesondere mit den Problemen in Kenia und den weiteren Ländern des Viktoriasees, Uganda und Tansania befasst. Es geht nicht nur um den allgemeinen technologischen und ökologischen Fortschritt, sondern auch darum, eine afrikanische Lösung für die effiziente Wiederverwendung von Wasser und die Kontrolle der Umweltverschmutzung vorzuschlagen“, ergänzt Susan Clare Adhiambo, Chief Fisheries Officer, verantwortlich für Kisumu East Sub-County im Ministerium für Landwirtschaft, Viehzucht und Fischerei (Department of Agriculture, Livestock and Fisheries , DALF) des Kisumu County in Kenia und Partner in VicInAqua. Das DALF bringt seine langjährige Expertise in der Planungs-, Umsetzungs- und Regelungspolitik von Fischzucht und Fischerei in Kenia und am Viktoriasee ein. Da das DALF die Pilotanlage auch nach Projektende betreiben wird, spielt es eine wichtige Rolle bei der Koordinierung der Bauarbeiten, die im Frühling 2018 begonnen haben.

Wenn die Technologie von Fischern oder lokalen Behörden am Viktoriasee eingesetzt wird, wird dies zu neuen und nachhaltigen Beschäftigungschancen und einer verstärkten qualitativen Fischproduktion durch Aquakultur führen.

Eine der größten Herausforderungen des Projekts ist es, eine für den lokalen Markt finanziell erschwingliche technologische Lösung zu finden. Um die lokale Bevölkerung, Unternehmen und Entscheidungsträger zu überzeugen, dass die Anlage und deren innovativen Technologie funktionieren und sich lohnen, konzentriert sich das Projektkonsortium gleichzeitig darauf, verschiedene Schulungen zu den VicInAqua Technologien, Studienbesuche und runde Tische zum Kompetenzaufbau und zur Aufklärung durchzuführen.

Weitere Informationen:
http://www.vicinaqua.eu/get-involved/ – mehr über das Projekt erfahren

Quelle: idw

(nach oben)


Schlaflosigkeit – nur ein böser Traum?

Benjamin Waschow Stabsstelle Unternehmenskommunikation
Universitätsklinikum Freiburg

Schlaflosigkeit ließ sich bisher im Labor kaum nachweisen. Forscher des Universitätsklinikums Freiburg zeigen jetzt: Schlaflose Nächte finden oft nur im Traum statt. Das macht sie nicht weniger belastend, ermöglicht aber neue Therapien.

Schlaflosigkeit wird von Betroffenen als sehr belastend wahrgenommen. Sie fühlen sich müde, wenig leistungsfähig und unkonzentriert. Doch messen lässt sich die Schlaflosigkeit oft nicht. „Die meisten Patienten, die eine stark ausgeprägte Schlaflosigkeit schildern, schlafen im Schlaflabor rund 80 Prozent des normalen Pensums“, sagt Dr. Bernd Feige, Forschungsgruppenleiter an der Klinik für Psychiatrie und Psychotherapie des Universitätsklinikums Freiburg. Nach dem Grund für diese Diskrepanz zwischen subjektiver Wahrnehmung und objektiv messbarer Schlafdauer suchen Wissenschaftler seit rund 20 Jahren. Erstmals liefern jetzt Forscher der Klinik für Psychiatrie und Psychotherapie am Universitätsklinikum Freiburg eine objektiv messbare Erklärung. Sie beschreiben im Fachmagazin Sleep, dass Schlaflosigkeit in vielen Fällen nur ein böser Traum ist.

Für ihre Studie baten die Freiburger Forscher 27 Probanden mit schweren Schlafstörungen und 27 gesunde Schläfer ins Schlaflabor. In den ersten beiden Nächten gewöhnten sich die Probanden an die Umgebung. In den beiden Folgenächten weckten die Forscher die Probanden mit einem Signalton aus der REM-Phase, die auch als Traumphase bezeichnet wird.

REM-Schlaf wird von Sorgen um Schlaflosigkeit beherrscht
Sobald sie aufgewacht waren, drückten die Studienteilnehmer einen Knopf und ein Studienmitarbeiter befragte sie im abgedunkelten Zimmer. Die erste Frage war: ‚Haben Sie gerade geschlafen oder waren Sie wach?‘

Das erstaunliche Resultat: „Obwohl alle Probanden aus dem Traumschlaf geweckt wurden, war sich jeder sechste Proband mit Schlafproblemen sicher, wachgelegen zu haben“, sagt Dr. Feige. Gesunde Probanden wähnten sich hingegen fast nie wach.

Befragt nach ihrer letzten Erinnerung vor dem Signalton – also nach ihren Träumen -, berichteten die vermeintlich wachen Probanden von quälenden Gedanken darüber, nicht schlafen zu können. „Offensichtlich bauen manche Menschen die Sorge vor einer Schlafstörung in ihre Träume ein. Sie träumen also ‚nur‘ von einer Schlafstörung“, sagt Dr. Feige.

Bei ihrer Befragung vermieden die Mitarbeiter Begriffe wie „Träumen“, „Wecken“ und „Schlafen“, um den Probanden keinen Hinweis auf ihren Zustand zu geben.

Traumtherapie könnte helfen
„Ganz wichtig ist: Für die Belastung der Patienten macht es keinen Unterschied, ob die Schlafstörung objektiv messbar oder nur im Traum vorhanden ist. Aber die Erkenntnis gibt uns wertvolle Hinweise zur Behandlung der Schlafstörung“, sagt Studienleiter Prof. Dr. Dieter Riemann, Sprecher des Schlafmedizinischen Zentrums am Universitätsklinikum Freiburg. So können etablierte Traumtherapien den Betroffenen helfen oder auch Medikamente, die auf eine Stärkung der Traumphase abzielen.

Schlaflosigkeit als psychische und körperliche Belastung
„Schlaflosigkeit kann eine schwere Krankheit sein und das Risiko für andere schwere Krankheiten erhöhen, etwa Depression oder Schlaganfall“, sagt Prof. Riemann. Viele Insomnie-Patienten sind sehr leistungsorientiert, fokussiert und geplant. „Genau diese Strategie funktioniert aber beim Schlaf nicht. Schlaf kommt, wenn man sich von Erwartungen löst“, so Prof. Riemann.

Original-Titel der Studie: Insomnia-perchance a dream? Results from a NREM/REM sleep awakening study in good sleepers and patients with insomnia

DOI: 10.1093/sleep/zsy032

Link zur Studie: https://www.ncbi.nlm.nih.gov/pubmed/29432570

Weitere Informationen:
Kontakt:
Dr. Bernd Feige
Forschungsgruppenleiter
Klinik für Psychiatrie und Psychotherapie
Universitätsklinikum Freiburg
Telefon: 0761 270-68240
bernd.feige@uniklinik-freiburg.de

Johannes Faber
Referent für Presse- und Öffentlichkeitsarbeit
Unternehmenskommunikation
Universitätsklinikum Freiburg
Telefon: 0761 270-84610
Johannes.faber@uniklinik-freiburg.de

Weitere Informationen:
https://www.uniklinik-freiburg.de/psych/forschung-research/research-groups/rg-fe… Forschungsgruppe Dr. Feige
https://www.uniklinik-freiburg.de/psych/forschung-research/research-groups/rg-ri… Forschungsgruppe Prof. Dieter Riemann

Quelle: idw

(nach oben)


Mehr als die Hälfte der Beschäftigten hat ein Arbeitszeitkonto

Wolfgang Braun Presse- und Öffentlichkeitsarbeit
Institut für Arbeitsmarkt- und Berufsforschung der Bundesagentur für Arbeit (IAB)

Seit 1999 ist der Anteil der Beschäftigten mit einem Arbeitszeitkonto um 21 auf 56 Prozent gestiegen. Der Anteil der Betriebe mit Arbeitszeitkonten hat sich um 17 auf 35 Prozent erhöht. Besonders häufig werden Konten mit einem kürzeren Ausgleichzeitraum genutzt. Langzeitkonten bleiben weiterhin die Ausnahme. Das geht aus einer am Dienstag erschienenen Studie des Instituts für Arbeitsmarkt- und Berufsforschung (IAB) hervor.

Bei zwei von zehn Betrieben, die Arbeitszeitkonten führen, beträgt der Ausgleichszeitraum maximal ein halbes Jahr. Bei vier von zehn Betrieben müssen die Zeitguthaben oder -schulden innerhalb eines Zeitraums zwischen einem halben und einem Jahr ausgeglichen werden bzw. darf an einem Stichtag ein bestimmter Wert nicht über- oder unterschritten werden. Ebenfalls vier von zehn Betrieben haben Arbeitszeitkonten ohne einen feststehenden Ausgleichszeitraum. Hier sind die Ausgleichszeiträume entweder nicht geregelt oder aber nur grundsätzlich festgelegt und kurzfristig modifizierbar. So könnten Betriebe den Arbeitseinsatz an kurzfristige Schwankungen der Auftragslage anpassen, erklären die IAB-Forscher Peter Ellguth, Hans-Dieter Gerner und Ines Zapf. Beschäftigte wiederum könnten die Spielräume nutzen, um die Vereinbarkeit von Berufs- und Privatleben zu verbessern.

Obwohl das im Jahr 2009 in Kraft getretene Gesetz zur Verbesserung der Rahmenbedingungen für die Absicherung flexibler Arbeitszeitregelungen („Flexi-II-Gesetz“) die Nutzung von Langzeitkonten auf eine neue rechtliche Grundlage gestellt hat, machen nur wenige Betriebe davon Gebrauch: Lediglich zwei Prozent führen separate Langzeitkonten. Dort angesparte Guthaben werden am häufigsten für längere Freistellungen sowie für Familien- oder Weiterbildungszeiten genutzt. Weniger bedeutend hingegen sind Konten, die eine Verkürzung der Lebensarbeitszeit ermöglichen.

Arbeitszeitkonten sind je nach Branche deutlich unterschiedlich verbreitet. Mit 76 Prozent haben am häufigsten Betriebe der öffentlichen Verwaltung und Sozialversicherung Arbeitszeitkonten, gefolgt von 59 Prozent der Betriebe im Bereich Energie, Wasser, Abfall und Bergbau sowie 54 Prozent im Bereich Produktionsgüter. Im Bereich Finanz- und Versicherungsdienstleistungen liegt der Anteil dagegen bei 26 Prozent, im Gastgewerbe bei 24 Prozent.

Weitere Informationen:
http://doku.iab.de/kurzber/2018/kb1518.pdf
https://twitter.com/iab_news

Quelle: idw

(nach oben)


Wenn die Kraft im Alter fehlt

Gunnar Bartsch Presse- und Öffentlichkeitsarbeit
Julius-Maximilians-Universität Würzburg

Altersbedingte Veränderungen in den peripheren Nerven können die Lebensqualität drastisch einschränken. Würzburger Wissenschaftler haben jetzt einen Auslöser dieser Veränderungen identifiziert.

Die durchschnittliche Lebenserwartung der Menschen ist so hoch wie nie zuvor und nimmt weiter zu. Damit einhergeht ein Zuwachs an altersbedingten Krankheiten, die das Nervensystem betreffen, wie beispielsweise Morbus Alzheimer und andere Formen der Demenz. Solche krankhaften Veränderungen finden sich allerdings nicht nur im Gehirn. Auch im peripheren Nervensystem, das beispielsweise Muskeln und die Sinnesstrukturen der Haut versorgt, steigt das Risiko für Degenerationserscheinungen mit zunehmendem Alter.

Zunehmende Muskelschwäche
Die Folgen für die Betroffenen sind ernst: Sie leiden oft unter Missempfindungen und quälenden Schmerzen in den Extremitäten. Die zunehmende Muskelschwäche ist besonders bedeutungsvoll, schränkt sie doch die Betroffenen in ihrer Mobilität deutlich ein und führt nicht selten zu gefährlichen Stürzen, die dann häufig den Verlust der Selbstständigkeit nach sich ziehen.

Obwohl die Konsequenzen der altersbedingten Degeneration peripherer Nerven von großer Bedeutung für die Lebensqualität im Alter und für die Volkswirtschaft sind, wurden deren Ursachen bislang nicht systematisch untersucht. Das hat sich jetzt geändert: In einem neuen Projekt haben Wissenschaftler der Neurologischen Klinik des Würzburger Universitätsklinikums einen wichtigen und möglicherweise therapierbaren Teilaspekt der altersbedingten Nervendegeneration genauer untersucht. Verantwortlich dafür war Professor Rudolf Martini, Leiter der Sektion Experimentelle Entwicklungsneurobiologie an der Neurologischen Klinik. In der Fachzeitschrift Journal for Neuroscience haben die Forscher die Ergebnisse ihrer Studie veröffentlicht.

Makrophagen im Visier
„In Zusammenarbeit mit Kollegen der Universität Aachen haben wir zuerst systematisch die Veränderungen erfasst, die sich in peripheren Nerven von Menschen im Alter zwischen 65 und 79 Jahren finden“, beschreibt Rudolf Martini die Vorgehensweise seines Teams. In ihren Proben stießen die Forscher dabei auf eine erhöhte Anzahl von Makrophagen. Makrophagen sind Zellen, die zum Abwehr- und Entsorgungssystem des Körpers gehören. Sie nehmen beispielsweise Krankheitserreger, Fremdpartikel sowie alternde Körperzellen auf und verdauen und entsorgen diese. Sie setzten Entzündungsprozesse in Gang, helfen dabei, Wunden zu heilen, und reinigen das Gewebe. Unglücklicherweise richten sie aber auch bei einigen Erkrankungen Schaden an.

Ob dies bei den altersbedingten degenerativen Veränderungen in den Nerven ebenfalls der Fall war, haben die Wissenschaftler im Experiment mit Mäusen studiert. „Wir haben dafür die Nerven von 24 Monate alten Mäusen genau untersucht, was für Mäuse schon ein ziemlich hohes Alter ist“, erklärt Rudolf Martini. Dabei zeigte sich, dass die altersbedingten Veränderungen in den peripheren Nerven der Mäuse denen in den Nerven der Menschen stark ähnelten. Wie beim Menschen war auch bei den Mäusen die Anzahl der Makrophagen erhöht. Ebenso hatten die älteren Tiere weniger Kraft als jüngere Exemplare, und ihre motorischen Endplatten – die Synapsen zwischen Nerven und Muskelfasern – waren ebenfalls weniger intakt.

Erfolgreiche Therapie im Tierversuch
In einem weiteren Schritt untersuchten Martini und sein Team, ob tatsächlich Makrophagen als Auslöser dieser Veränderungen in Frage kommen. Dafür haben sie Mäusen im fortgeschrittenen Alter von 18 Monaten eine spezielle Substanz im Futter verabreicht, die ein Absterben der Makrophagen bewirkte. „Nach sechsmonatiger Behandlung konnten wir feststellen, dass die degenerativen Altersveränderungen in den behandelten Mäusen wesentlich schwächer ausgeprägt waren“, schildert Martini das Ergebnis. Dementsprechend verfügten die Tiere über stärkere Muskeln und ihre motorischen Endplatten waren besser erhalten, verglichen mit unbehandelten Exemplaren.

Für Martini und seine Kollegen steht damit fest: „Unsere Studie zeigt nicht nur einen kausalen Zusammenhang von entzündlichen Reaktionen in alternden Nerven mit degenerativen Alterungsprozessen, sondern auch eine potenzielle Therapierbarkeit.“ Ihrer Ansicht nach kann eine gezielte und möglichst spezifische Behandlung altersbedingter, Makrophagen-vermittelter Entzündungsreaktionen zu einer Verbesserung von Struktur und Funktion der Nerven führen – und damit einhergehend – zu einer verbesserten Mobilität und höheren Lebensqualität.

Für Infektionen und Diabetes von Bedeutung
Die Interpretation der jetzt gewonnenen Erkenntnisse lässt allerdings noch weitergehende Schlüsse zu: Weil bei Infektionen oder im Alter häufig auftretenden chronischen Krankheiten wie Diabetes mellitus im Körper ebenfalls Entzündungsreaktionen ablaufen, bilden diese ein zusätzliches Risiko für alternde Nerven. Die Forscher hoffen deshalb, dass ihre Erkenntnisse dazu beitragen, die Erforschung und Entwicklung von Wirkstoffen anzustoßen, die speziell an Makrophagen ansetzen.

Martini und sein Team wollen in weiteren Experimenten untersuchen, wie es zur altersbedingten Entzündungsreaktion im Nerven kommt. Sie wollen herausfinden, welche Zellen im Nerven für die erhöhte Anzahl der Makrophagen verantwortlich ist, und ob es neben einer medikamentösen Therapie möglicherweise andere Ansätze zur Behandlung der degenerativen Veränderungen gibt – beispielsweise spezielle physiotherapeutische Trainingsprogramme, wie man sie von anderen entzündlichen Erkrankungen kennt. Neben diesen wichtigen Erkenntnissen zur Entstehung von Nervendegeneration im Alter zeigt diese Studie erneut die Unverzichtbarkeit von präzise geplanten Tierversuchen für die Entwicklung von Therapien bei bislang unbehandelbaren Erkrankungen des Menschen.

Macrophage depletion ameliorates peripheral neuropathy in aging mice. Xidi Yuan, Dennis Klein, Susanne Kerscher, Brian L. West, Joachim Weis, Istvan Katona and Rudolf Martini. Journal of Neuroscience 30 April 2018, 3030-17; DOI: https://doi.org/10.1523/JNEUROSCI.3030-17.2018

Kontakt
Prof. Dr. Rudolf Martini, Universitätsklinikum Würzburg, Neurologische Klinik, Sektion Experimentelle Entwicklungsneurobiologie, E-Mail: rudolf.martini@mail.uni-wuerzburg.de

Quelle: idw

(nach oben)


BAM-Forschungsprojekt will Mikroplastik im Wasser genauer nachweisen

M.A., LL.M./LL.B. Venio Quinque Unternehmenskommunikation
Bundesanstalt für Materialforschung und -prüfung (BAM)

Ein neues Forschungsverbundprojekt unter Leitung der Bundesanstalt für Materialforschung und -prüfung (BAM) will herausfinden, über welche Wege Mikroplastik in Gewässer gelangt. Ziel ist es, die Verfahren für die Entnahme repräsentativer Proben aus Wasser und Abwasser zu optimieren. Nur durch eine repräsentative Probenentnahme können die Quellen von Mikroplastik genauer erfasst und daraus Vermeidungsstrategien abgeleitet werden.

Dass Plastikpartikel in die Umwelt gelangen, wird bereits seit über 40 Jahren beobachtet. In den letzten Jahren hat sich die Aufmerksamkeit auf die winzigen Zersetzungsprodukte von Plastik, dem Mikroplastik, verlagert. Bislang fehlen verlässliche Daten über Quellen, Vorkommen und Auswirkungen von Mikroplastik auf Menschen und Ökosysteme. Fest steht nur, dass Mikroplastik in der Umwelt fast überall zu finden ist.

Hier setzt das Projekt „Repräsentative Untersuchungsstrategien für ein integratives Systemverständnis von spezifischen Einträgen von Kunststoffen in die Umwelt (RUSEKU)“ an. Bis Anfang 2021 will das Verbundprojekt Untersuchungsverfahren entwickeln, die den Mikroplastikgehalt über die verschiedenen Bereiche des Wasserkreislaufs besser und schneller messen können. Im Fokus stehen dabei Probeentnahmeverfahren.

„Die aktuellen Probenentnahmeverfahren sind nicht auf Kunststoffe abgestimmt und liefern daher oft fehlerhafte Ergebnisse bei der Bestimmung des Mikroplastikgehalts“, so Dr. Ulrike Braun, Leiterin des RUSEKU-Projekts und Wissenschaftlerin an der BAM. „Wir wollen ein verlässliches, praxisnahes Verfahren für die Wasserbeprobung entwickeln, welches gleichzeitig auf unsere bewährte Mikroplastik-Analytik abgestimmt ist. Nur so können wir Daten sammeln, um künftige Einträge von Mikroplastik in Gewässer zu verhindern.“

Braun und ihre Kooperationspartner wollen Mikroplastikpartikel verschiedener Größen und Formen im Labor und in Simulationsanlagen hinsichtlich ihrer Wiederfindung testen und bewerten. Zusätzlich will das Team numerische Berechnungen entwickeln, die die Dynamik und vertikale Verteilung von Mikroplastikpartikeln in turbulenten Fließgewässern voraussagen. Die neuen Verfahren werden auch in realen Abwassersystemen in Kaiserslautern geprüft.

An dem Forschungsprojekt sind neben der BAM sieben wissenschaftliche Institutionen und drei mittelständische Unternehmen beteiligt. Gefördert wird RUSEKU vom Bundesministerium für Bildung und Forschung (BMBF) im Rahmen des Forschungsschwerpunkts „Plastik in der Umwelt“.

Weitere Informationen zum Projekt RUSEKU finden Sie hier: https://netzwerke.bam.de/Netzwerke/Navigation/DE/Projekte/RUSEKU/ruseku.html

Kontakt:
Venio Quinque, M.A., LL.M./LL.B.
Leiter Referat Unternehmenskommunikation
Bundesanstalt für Materialforschung und -prüfung (BAM)
T: + 49 30 8104-1002
presse@bam.de
www.bam.de

Über die BAM
Die BAM gewährleistet Sicherheit in Technik und Chemie.
Die Bundesanstalt für Materialforschung und -prüfung (BAM) ist eine Bundesoberbehörde im Geschäftsbereich des Bundesministeriums für Wirtschaft und Energie.

Die BAM forscht, prüft und berät zum Schutz von Mensch, Umwelt und Sachgütern. Im Fokus aller Tätigkeiten in der Materialwissenschaft, der Werkstofftechnik und der Chemie steht dabei die technische Sicherheit von Produkten und Prozessen. Dazu werden Substanzen, Werkstoffe, Bauteile, Komponenten und Anlagen sowie natürliche und technische Systeme von volkswirtschaftlicher Dimension und gesellschaftlicher Relevanz erforscht und auf sicheren Umgang oder Betrieb geprüft und bewertet. Die BAM entwickelt und validiert Analyseverfahren und Bewertungsmethoden, Modelle und erforderliche Standards und erbringt wissenschaftsbasierte Dienstleistungen für die deutsche Wirtschaft im europäischen und internationalen Rahmen.

Sicherheit macht Märkte.
Die BAM setzt und vertritt für Deutschland und seine globalen Märkte hohe Standards für Sicherheit in Technik und Chemie zur Weiterentwicklung der erfolgreichen deutschen Qualitätskultur „Made in Germany“.

Quelle: idw

(nach oben)


Studienplattform für Allergiepatienten geht online

Sonja Opitz, Abteilung Kommunikation
Helmholtz Zentrum München – Deutsches Forschungszentrum für Gesundheit und Umwelt

Der Allergieinformationsdienst am Helmholtz Zentrum München baut die bundesweit erste Plattform für klinische Studien zu Allergien auf. Ziel ist, für Patienten ein unabhängiges, transparentes Forum zu schaffen, auf dem sie sich über Möglichkeiten informieren können, an Studien zu ihrem allergischen Krankheitsbild teilzunehmen. Im Fokus stehen zu Beginn insbesondere Studien zu häufigen allergischen Erkrankungen wie Heuschnupfen, allergisches Asthma oder Neurodermitis.

Zwischen 20 und 30 Millionen Menschen in Deutschland leiden an mindestens einer Allergie. Viele von ihnen müssen deutliche Einschränkungen ihrer Lebensqualität hinnehmen. Dem gegenüber stehen vergleichsweise wenige neue Behandlungsansätze. Umso wichtiger sind Erfolge in der klinischen Forschung.

Der Allergieinformationsdienst des Helmholtz Zentrums München, der vom Bundesministerium für Gesundheit gefördert wird, baut nun sein online-Angebot aus und richtet eine Studienplattform als Orientierung für Patienten, Mediziner und Forschende ein. Dort finden sich für jede Studie neben Angaben zum Krankheitsbild, zu Aufnahmekriterien und Untersuchungsrahmen auch Informationen über Finanzierungsquellen und Ansprechpartner in den teilnehmenden Studienzentren. Außerdem gibt es umfangreiche Hinweise zur Organisation von Studien und zu den Rechten der Patienten.

„Die Studienplattform ist ein weiteres Angebot, mit dem wir Patienten direkt aus der Forschung unterstützen wollen“, betont Prof. Günther Wess, CEO des Helmholtz Zentrums München. „Sie erhalten damit die Möglichkeit, sich schnell einen Überblick über aktuelle Studien zu allergischen Krankheitsbildern zu verschaffen.“ Doch könne dies nur ein Anfang sein. „Generell muss die Allergieforschung in Deutschland einen deutlich höheren Stellenwert erhalten“, erklärt Prof. Wess.

Eine Steuerungsgruppe aus fünf führenden Allergologinnen und Allergologen deutscher Universitäten und Forschungseinrichtungen begutachtet jede Studie, ehe sie auf der Plattform veröffentlicht wird. „So stellen wir sicher, dass nur Informationen zu seriösen wissenschaftlichen Studien die Patienten erreichen“, erläutert Prof. Dr. Thomas Werfel, Präsident der Deutschen Gesellschaft für Allergologie und klinische Immunologie (DGAKI) und Mitglied der Steuerungsgruppe im wissenschaftlichen Beirat des Allergieinformationsdienstes. „Die DGAKI unterstützt dieses neue Angebot ausdrücklich.“
Die Initiatoren der Plattform legen großen Wert auf Transparenz, beispielsweise bei der Offenlegung gegebenenfalls beteiligter Firmen.
Das Helmholtz Zentrum München hat in den letzten fünf Jahren zu allen drei medizinischen Forschungsschwerpunkten eigene Informationsdienste und darin verankerte Studienplattformen entwickelt. Neben dem Allergieinformationsdienst stehen Angebote für Diabetes und Lungenerkrankungen zur Verfügung. Alle drei Dienste wurden mit dem Ziel aufgebaut, bundesweit Standards zu setzen für qualitätsgesicherte, evidenzbasierte und gleichzeitig allgemein verständliche Patienteninformation im digitalen Zeitalter.

Weitere Informationen
Link zur Studienplattform des Allergieinformationsdienstes:
https://www.allergieinformationsdienst.de/forschung/studienplattform-allergie.ht…

Link zur Studienplattform des Diabestesinformationsdienstes:
https://www.diabetesinformationsdienst-muenchen.de/studien/index.html

Link zur Studienplattform des Lungeninformationsdienstes:
https://www.lungeninformationsdienst.de/klinische-studien/index.html

Das Helmholtz Zentrum München verfolgt als Deutsches Forschungszentrum für Gesundheit und Umwelt das Ziel, personalisierte Medizin für die Diagnose, Therapie und Prävention weit verbreiteter Volkskrankheiten wie Diabetes mellitus und Lungenerkrankungen zu entwickeln. Dafür untersucht es das Zusammenwirken von Genetik, Umweltfaktoren und Lebensstil. Der Hauptsitz des Zentrums liegt in Neuherberg im Norden Münchens. Das Helmholtz Zentrum München beschäftigt rund 2.300 Mitarbeiter und ist Mitglied der Helmholtz-Gemeinschaft, der 18 naturwissenschaftlich-technische und medizinisch-biologische Forschungszentren mit rund 37.000 Beschäftigten angehören. www.helmholtz-muenchen.de

Ansprechpartner für die Medien:
Abteilung Kommunikation, Helmholtz Zentrum München – Deutsches Forschungszentrum für Gesundheit und Umwelt (GmbH), Ingolstädter Landstr. 1, 85764 Neuherberg – Tel. +49 89 3187 2238 – E-Mail: presse@helmholtz-muenchen.de

Fachliche Ansprechpartnerin:
Ulrike Koller, Helmholtz Zentrum München – Deutsches Forschungszentrum für Gesundheit und Umwelt (GmbH), Abteilung Kommunikation, Informationsdienste, Ingolstädter Landstr. 1, 85764 Neuherberg – Tel. +49 89 3187 2526 – E-Mail: koller@helmholtz-muenchen.de

Quelle: idw

(nach oben)


Studie zu Druck im Profi-Fußball: Wenn Perfektionismus zum Problem wird

Dipl.-Journ. Carsten Heckmann Stabsstelle Universitätskommunikation/Medienredaktion
Universität Leipzig

Fußball-Weltmeister Per Mertesacker hat im März eine große Debatte ausgelöst um den Druck, dem Profifußballer ausgesetzt sind. Nun stehen ab Donnerstag wieder große Duelle an, K.O.-Spiele, Elfmeterschießen, vor einem Millionenpublikum – die Fußball-Weltmeisterschaft in Russland beginnt. Zum Trainingsprogramm sollte und wird der Umgang mit Druck gehören, sagt Anne-Marie Elbe, Professorin für Sportpsychologie an der Universität Leipzig. Der Bedarf sei immens. In einer Studie mit dänischen und schwedischen Profi-Fußballern fand die Sportpsychologin heraus: Fast 17 Prozent der Teilnehmer zeigten Symptome einer Depression.

„Was viele Leistungssportler auszeichnet, ist der Perfektionismus“, sagt Anne-Marie Elbe. „Der wirkt erstmal positiv, motivierend. Aber er kann auch Angst erzeugen, nämlich die Angst davor, nicht perfekt zu sein. Und die treibt viele Profi-Fußballer um, gepaart mit der Angst vor der Bewertung durch andere, der sogenannten sozialen Angst. Diese Zusammenhänge hat unsere Studie deutlich aufgezeigt.“

Gefühle von Hilflosigkeit und Schuld, wenig Appetit und Schlafstörungen und eine depressive Stimmung könnten die Folge sein – und wurden von fast 17 Prozent der Befragten geäußert. Für die Leipziger Forscherin kein überraschendes Ergebnis: „Mentale Probleme können im Profisport gehäuft auftreten. Wichtig ist, ihnen professionell zu begegnen. Denn wenn die genannten Verstimmungen über einen längeren Zeitraum andauern, spricht man von Depression, und dann braucht es Hilfe seitens der klinischen Psychologie.“

323 Spieler der ersten und der U19-Mannschaften der dänischen und schwedischen Erstligisten beantworteten die Fragen der Wissenschaftler – drei Viertel der angefragten Fußballer. Anne-Marie Elbe war bis 2017 an der Universität Kopenhagen tätig und leitete die Studie. Die Ergebnisse, die nach Elbes Einschätzung in anderen Ländern ähnlich zu erwarten wären, veröffentlichten die Forscher in der renommierten Fachzeitschrift „Psychology of Sport and Exercise.“

„Die Verantwortlichen in den Vereinen und die Spieler selbst waren sehr offen, das hat uns die Arbeit natürlich erleichtert“, berichtet Elbe. Allgemein sei das Thema Depression in der Branche kein Tabu mehr, auch in Deutschland nicht. „Es gab prominente Fälle, und es gibt inzwischen nicht nur bei der Nationalmannschaft einen Sportpsychologen, sondern auch bei den meisten Bundesligavereinen und deren Nachwuchsleistungszentren.“

Letzteres sei auch zwingend nötig. „Generell gilt es, sportpsychologische Trainingsmethoden stärker in die Nachwuchsausbildung zu integrieren. Bereits im Jugendalter sollten Fußballer darauf vorbereitet werden, wie sie mit Drucksituationen umgehen können. „Das sollte genauso dazugehören wie das technische und taktische Training.“

Aber kann man sich wirklich darauf vorbereiten, in das Elfmeterschießen eines WM-Finales zu gehen und vor einer Kulisse von 80.0000 lauthals skandierenden Zuschauern den entscheidenden Elfmeter zu halten? „Ja, das kann man trainieren“, sagt Sportpsychologin Elbe. „Es gibt diverse Methoden dafür, neuerdings auch Simulationsmöglichkeiten mithilfe der sogenannten virtuellen Realität. Wichtig ist dabei immer: Jeder Spieler braucht eine individuelle Betreuung, denn jeder hat seine eigene Version dessen, was wir in der Fachsprache optimale Funktionszone nennen. Was braucht er also in welcher Situation? Muss er sich rauf- oder runterregulieren? Welche Methode wirkt bei ihm am besten? Das gilt es herauszufinden.“

Die Entwicklung gehe in die richtige Richtung, nicht nur im Fußball. „Aber wir sollten die psychologischen Faktoren weiter erforschen, um die Prävention zu erleichtern. Auslöser für Depressionen sind bei Leistungssportlern eben andere als zum Beispiel bei Lehrern. Ungewöhnlich sind sie nicht, die Profi-Fußballer können den Druck nicht loswerden. Aber dass einem Spieler vor einem WM-Match in der Kabine vor Angst schlecht wird, das sollte nicht passieren.“

Die Publikation:
Jensen, S.N., Ivarsson, A., Fallby, J., Dankers, S. und Elbe, A.-M: „Depression in Danish and Swedish Elite Football Players and its relation to perfectionism and anxiety.“ In: Psychology of Sport and Exercise, Ausgabe Mai 2018.

Hinweis:
Prof. Dr. Anne-Marie Elbe ist eine von mehr als 150 Expertinnen und Experten der Universität Leipzig, auf deren Fachwissen Sie mithilfe unseres Expertendienstes zurückgreifen können.

Weitere Informationen:
https://doi.org/10.1016/j.psychsport.2018.02.008 Publikation in „Psychology of Sport and Exercise“
http://www.uni-leipzig.de/experten Expertendienst der Universität Leipzig

Quelle: idw

(nach oben)


FlexFuture! Biogas sorgt für stabile Netze

Bianca Stur Presse- und Öffentlichkeitsarbeit
Deutsches Biomasseforschungszentrum

Biogasanlagen gelten als die Joker des erneuerbaren Energiesystems, denn sie können flexibel Strom und Wärme einspeisen und so Fluktuationen ausgleichen. An einer Praxisanlage wurde nachgewiesen, dass Engpässe und Überlastungen im Stromnetz vermieden werden können, wenn Photovoltaik- und Biogasanlage aufeinander abgestimmt Strom einspeisen.

Die Stabilität der Stromnetze und damit die Versorgungssicherheit in Deutschland jederzeit zu gewährleisten, ist ein wesentlicher Schwerpunkt der Energiewende. Gerade bei der zunehmenden Einspeisung fluktuierender erneuerbarer Stromerzeuger, wie Windkraft oder Photovoltaik (PV), kommt es jedoch vermehrt zu Engpässen oder zu einer Überlastung der Verteilnetze. Das Nadelöhr zum Mittelspannungs-Verteilnetz, in das PV- und Biogasanlagen einspeisen (bis 50 kV), ist der sogenannte Netzverknüpfungspunkt (NVP), der für eine maximale Stromeinspeisung ausgelegt ist. Bei Überschreiten dieser Leistung werden die Anlagen abgeregelt, um die Netzstabilität zu sichern. Diese Belastung ohne kostenintensiven Netzausbau zu reduzieren, hat sich das Institut für neue Energie-Systeme (InES) gemeinsam mit den Projektpartnern im Projekt „FlexFuture – Integration von Biogasanlagen in Netze mit hohem Anteil fluktuierender Stromerzeuger“ (FKZ: 03KB102) zum Ziel gesetzt. Die Wissenschaftler nutzten die Regelbarkeit von Biogasanlagen für den Lastausgleich. Das heißt, kurzfristige Schwankungen im Stromnetz werden über die regelbare Stromproduktion der Biogas-Blockheizkraftwerke (BHKW zur Erzeugung von Strom und Wärme) ausgeglichen. Auf Basis von Prognosen der PV-Einspeisung wird der Lastausgleich vorgenommen.

„Wir haben im Realbetrieb an der Biogasanlage Zellerfeld in Bayern gezeigt, dass durch eine intelligente Anlagensteuerung Stromspitzen in der Einspeisung erneuerbaren Stroms vermieden werden können“, erklärt Prof. Wilfried Zörner, Projektleiter am Institut für neue Energie-Systeme (InES) an der Technischen Hochschule Ingolstadt. Zusammen mit dem Biogas-Technik-Hersteller UTS Products GmbH und dem Standortentwickler PROLIGNIS Energie Consulting GmbH wurde ein Steuerungskonzept zur automatisierten und verteilnetzorientierten Fahrweise von Biogasanlagen entwickelt, welches auf Praxisanlagen übertragbar ist. So können durch die Installation weiterer BHKW und entsprechend dimensionierter Gasspeicher an der Biogasanlage zusätzliche Kapazitäten für die Erzeugung von Strom bereitgestellt werden. Im Fall einer hohen PV-Einspeisung kann die Stromerzeugung am Biogas-BHKW heruntergefahren oder sogar ausgesetzt werden. In Zeiträumen geringer Sonneneinstrahlung wird durch die BHKW mehr Biogas zu Strom und Wärme umgewandelt.

Die Entwickler hatten dabei nicht nur die Netzdienlichkeit, d. h. den Beitrag zur Stabilisierung der Stromnetze, sondern auch die Ertragssteigerung für den Biogasanlagenbetreiber im Blick. Für den BHKW-Betrieb wurden im Projekt Fahrpläne für jeweils 32 Stunden im Voraus generiert. Diese berücksichtigen einerseits den Füllstand des Biogasspeichers und die tagesaktuellen Wetter- und Einstrahlungsprognosen und andererseits die Preisentwicklung an der Strombörse EPEX SPOT SE. So konnte der Biogasstrom vor allem in Zeiten hoher Strompreise bereitgestellt werden. Durch die flexible Fahrweise der Biogasanlage wurde zeitgleich die lokale PV-Einspeisung ausbalanciert.

Das Projektteam sieht nach dem erfolgreichen Projekt noch einige Herausforderungen: So ist das Anlagenmonitoring beider Stromerzeuger mit einem hohen technischen Kommunikations- und Vernetzungsaufwand verbunden. In einer Zukunft mit zunehmend vernetzten Energieanlagen müssen diese sensibler aufeinander reagieren können. Die wichtige Prognose der PV-Einspeisung kann beispielsweise durch die Installation eines Wolken-Tracking-Systems verbessert werden. Damit kann eine noch gezieltere Anpassung der Stromerzeugung aus Biogasanlagen an die PV-Einspeisung ermöglicht werden. Des Weiteren bieten die derzeitigen Rahmenbedingungen und Gewinnmöglichkeiten keine Anreize für Anlagenbetreiber ihre Biogasanlagen im Hinblick auf die Netzdienlichkeit zu flexibilisieren.

Die konkreten Ergebnisse werden demnächst im Endbericht des Projektes veröffentlicht.

Neugierig geworden? Weitere Informationen zum Projekt:
Das Projekt „FlexFuture – Integration von Biogasanlagen in Netze mit hohem Anteil fluktuierender Stromerzeuger“ (FKZ-Nr. 03KB102) wurde im Rahmen des Programms „Energetische Biomassenutzung“ des Bundesministeriums für Wirtschaft und Energie (BMWi) gefördert.
Projektsteckbrief FlexFuture: https://www.energetische-biomassenutzung.de/proj/flexfuture-458/

Kontakt Projektkoordination
Technische Hochschule Ingolstadt
Institut für neue Energie-Systeme (InES)
Esplanade 10, 85049 Ingolstadt
– Prof. Dr.-Ing. Wilfried Zörner – Projektleiter
Telefon: +49 (0)841 9348 2270
E-Mail: wilfried.zoerner‍@‍thi.de
– Katharina Bär M.Sc. – Direkte Ansprechpartnerin
Telefon: +49 (0)841 9348 6453
E-Mail: katharina.baer‍@‍thi.de

Partner
– UTS Products GmbH
Oestinghausener Straße 12, 59510 Lippetal
– PROLIGNIS Energie Consulting GmbH
Friedrichshofener Straße 1, 85049 Ingolstadt

Assoziierte Partner
– Biogas Zellerfeld GmbH & Co. KG
– Lechwerke AG
– LEW Verteilnetz GmbH

Programmbegleitung des Förderprogramms „Energetische Biomassenutzung“
Diana Pfeiffer – Projektkoordination
Telefon: +49 (0)341 2434-554 E-Mail: diana.pfeiffer‍@‍dbfz.de
Angela Gröber – Öffentlichkeitsarbeit
Telefon: +49 (0)341 2434-457 E-Mail: angela.groeber‍@‍dbfz.de
Förderprogramm: http://www.energetische-biomassenutzung.de

Publikationen:
Bär, K. / Sonnleitner, M. / Zörner, W. (2017): Optimierung der Betriebsweise von Biogasanlagen in Netzen mit hohem Anteil fluktuierender Stromerzeuger. In: VDI-Berichte, 2303, Fachtagung Optimierung in der Energiewirtschaft, 12, S. 81-84.
Bär, Katharina / Zörner, Wilfried (2018): Solareinstrahlungsprognose und Leistungssimulation von Photovoltaik-Freiflächenanlagen. In: Conexio GmbH, PV-SYMPOSIUM 2018, S. 644-672.

Themenrelevante Projekte im Förderprogramm:
Projektsteckbrief BioStrom: https://www.energetische-biomassenutzung.de/proj/biostrom-392/
Projektsteckbrief Optflex: https://www.energetische-biomassenutzung.de/proj/optflex-biogas-416/
Projektsteckbrief RegioBalance: https://www.energetische-biomassenutzung.de/proj/regiobalance-442/

Das Förderprogramm
Im Juni 2008 startete das Förderprogramm „Energetische Biomassenutzung“. Das Programm wird vom Bundesministerium für Wirtschaft und Energie (BMWi) gefördert und war bisher mit rund 57 Millionen Euro ausgestattet. Nach fast achtjähriger Laufzeit umfasst das Programm 133 Verbundprojekte bzw. über 330 Einzelprojekte, die zum Thema Biomasse als Energieträger forschen. Im Fokus stehen Forschungs- und Entwicklungsprojekte zur praxistauglichen Weiterentwicklung wettbewerbsfähiger Technologien, insbesondere in den Bereichen Verbrennung, Vergasung und Vergärung von Biomasse. Weitere Forschungsschwerpunkte sind systemflexible Anlagenkonzepte und Produkte für eine nachhaltige und effiziente Erzeugung von Strom und Wärme aus Biomasse, hier vor allem aus biogenen Rest- und Abfallstoffen. Fördermittelempfänger sind klassische Forschungseinrichtungen, aber vor allem auch klein- und mittelständische Unternehmen, die die Markteinführung bestimmter Technologien anstreben. Insgesamt sind seit 2009 rund 220 Institutionen im Programm beteiligt, davon über 120 KMUs. Die Programmbegleitung angesiedelt am DBFZ Deutsches Biomasseforschungszentrum gemeinnützige GmbH ist für die wissenschaftliche Begleitung und Öffentlichkeitsarbeit des Förderprogramms zuständig. Mit der fachlichen und administrativen Koordination desselben wurde der Projektträger Jülich (PtJ) beauftragt.

Weitere Informationen:
http://www.energetische-biomassenutzung.de – Förderprogramm
https://www.energetische-biomassenutzung.de/proj/flexfuture-458/ – Projektsteckbrief FlexFuture

Anhang
PM FlexFuture
https://idw-online.de/de/attachment65804

Quelle: idw

(nach oben)


Erst impfen, dann reisen – Deutsche Leberstiftung warnt vor Hepatitis-Gefahren auf Reisen

Rita Wilp externe Pressestelle
Deutsche Leberstiftung

„Gut geplant ist halb gewonnen“ lautet ein Sprichwort, das auch auf das „Projekt“ Urlaub zutrifft. Bald startet die Ferienzeit und viele Erholungssuchende werden die „schönste Zeit des Jahres“ im Ausland verbringen. Für die Planung nutzen viele Menschen To-do-Listen, in denen oft auch aufgeführt ist, sich über die für das Reiseziel notwendigen und empfohlenen Impfungen zu informieren – und sich gegebenenfalls impfen zu lassen. Infektionsrisiken für die Ansteckung mit Hepatitis-Viren gibt es schon in der nahen Mittelmeer-Region. Wie wichtig der Impfschutz gegen eine Infektion mit Hepatitis-Viren speziell für Reisende ist, erklärt die Deutsche Leberstiftung zum Ferien-Beginn 2018.

Die Erwartungen, die Reisende an einen perfekten Urlaub stellen, sind sehr unterschiedlich. Einige suchen Entspannung, andere möchten sich mehr bewegen und dann gibt es auch noch die Urlauber, die maximalen Spaß suchen. Wie unterschiedlich die Ansprüche auch sind, einen Wunsch haben alle Reisenden gemeinsam: gesund nach Hause zurückzukehren. Damit dies gewährleistet wird und die Leber bei der Rückkehr so virenfrei wie bei der Anreise ist, sollten Reisende über Risikogebiete, Ansteckungswege und Schutzmöglichkeiten informiert sein. „Über die Hälfte aller neu diagnostizierten Hepatitis A-Virusinfektionen in Deutschland sind ein ungewolltes Reisesouvenir“, sagt Professor Dr. Michael P. Manns, Vorstandsvorsitzender der Deutschen Leberstiftung und ergänzt: „Die Hepatitis A wird als ‘Reisehepatitis‘ bezeichnet. Sie tritt häufig in beliebten Urlaubsländern mit geringen Hygienestandards auf wie beispielsweise im Mittelmeerraum, Südostasien, Russland, Afrika, Mittel- und Südamerika sowie dem Vorderen Orient.“

Übertragen wird das Hepatitis A-Virus (HAV) fäkal-oral durch Schmier- oder Kontaktinfektion. Der Erreger wird von infizierten Personen über den Darm ausgeschieden und verfügt über eine ausgeprägte Umweltstabilität sowie über hohe Thermostabilität und Desinfektionsmittelresistenz. Beispielsweise kann der Verzehr von ungenügend gegartem Gemüse oder das Trinken von belastetem oder verunreinigtem Trinkwasser (auch als Eiswürfel) zu einer Infektion mit dem HAV führen. Diese Infektion mit dem HAV kann eine akute Leberentzündung verursachen, die jedoch nicht chronisch verläuft und bei gesunden Menschen oft ohne ernsthafte Komplikationen ausheilt. Die Symptome sind meist unspezifisch und können Fieber sowie eine „Gelbsucht“ umfassen. In seltenen Fällen wie beispielsweise bei älteren Menschen kann Hepatitis A auch zu einem akuten Leberversagen führen. Gegen Hepatitis A gibt es keine spezifische Therapie. Die prophylaktische Impfung – die auch noch kurz vor Reiseantritt erfolgen kann – ist der sicherste Schutz.

Auch gegen das Hepatitis B-Virus (HBV), das ein weiteres Infektionsrisiko im Urlaub darstellen kann, ist eine Impfung der sicherste Schutz. Bei der Verwendung von Kombinations-Impfstoffen, die gegen Hepatitis A und B schützen, ist die Anzahl der notwendigen Injektionen vermindert. Mit der Impfung gegen Hepatitis B ist sogar ein doppelter Schutz gewährleistet: Der Impfstoff gegen das HBV schützt auch gegen die Hepatitis delta, da es eine Hepatitis delta nur mit einer Hepatitis B geben kann.

Weltweit sind etwa 240 Millionen Menschen nach Angaben der Weltgesundheitsorganisation (WHO) chronisch mit dem HBV infiziert. Die Ansteckung mit dem HBV erfolgt über Körpersekrete wie Blut, Sperma oder Speichel. Neben ungeschütztem Sex zählen Tätowierungen oder Piercings, die nicht steril durchgeführt werden, zu den häufigsten Übertragungswegen. Auch bei Kontakten mit der Gefahr kleinster Hautverletzungen wie beim Barbier, bei der Fußpflege oder bei unvorhergesehenen ärztlichen und zahnärztlichen Behandlungen besteht ein Infektionsrisiko, wenn unhygienische Bedingungen im Reiseland herrschen. Meist bemerken Infizierte nichts von ihrer Erkrankung. Kommt es jedoch zu einer chronischen Leberentzündung, besteht ein erhöhtes Risiko für bindegewebsartige Veränderungen der Leber (Fibrose) oder für eine Zirrhose.

Gegen das Hepatitis C-Virus (HCV), einem weiteren Hepatitis-Erreger, steht bisher keine Schutzimpfung zur Verfügung. Das HCV wird fast ausschließlich über Blut-Kontakte übertragen. Unsterile Tätowiernadeln, Piercings oder Rasiermesser sind die Haupt-Infektionsquellen. In einigen Regionen Asiens oder Afrikas tragen mehr als fünf Prozent der Bevölkerung das Hepatitis C-Virus in sich. Es gibt heute sehr wirksame Therapien gegen Hepatitis C. Die Heilungsraten liegen in der Regel zwischen 90 und 100 Prozent. Allerdings wird die Erkrankung oft spät erkannt und kann unbehandelt in einer Leberzirrhose oder einem Leberzellkrebs münden. Laut WHO sind etwa 71 Millionen Menschen weltweit chronisch mit HCV infiziert. Die chronische Hepatitis C zählt nach der Fettleberhepatitis zur zweithäufigsten Ursache von Leberzirrhose und Leberzellkrebs in Deutschland.

„Bei allen Infektionen mit einem Hepatitis-Virus ist die frühe Entdeckung die Voraussetzung für eine erfolgreiche Behandlung. Der beste Schutz der Gesundheit ist die Vermeidung einer Infektion. Impfung und Vorsichtsmaßnahmen tragen dazu bei, dass Reisende so gesund aus dem Urlaub zurückkehren, wie sie es beim Reisestart waren“, betont Professor Manns.

Die Deutsche Leberstiftung bietet Informationsfaltblätter über Hepatitis B für Ärzte und Hepatitis C für Ärzte sowie beide Ausgaben für Betroffene und ihre Angehörigen an. Bestellmöglichkeiten und Download auf der Serviceseite unter http://www.deutsche-leberstiftung.de

Deutsche Leberstiftung
Die Deutsche Leberstiftung befasst sich mit der Leber, Lebererkrankungen und ihren Behandlungen. Sie hat das Ziel, die Patientenversorgung durch Forschungsförderung und eigene wissenschaftliche Projekte zu verbessern. Durch intensive Öffentlichkeitsarbeit steigert die Stiftung die öffentliche Wahrnehmung für Lebererkrankungen, damit diese früher erkannt und geheilt werden können. Die Deutsche Leberstiftung bietet außerdem Information und Beratung für Betroffene und Angehörige sowie für Ärzte und Apotheker in medizinischen Fragen. Diese Aufgaben erfüllt die Stiftung sehr erfolgreich.
Weitere Informationen: http://www.deutsche-leberstiftung.de.

BUCHTIPP:
„Das Leber-Buch“ der Deutschen Leberstiftung informiert umfassend und allgemeinverständlich über die Leber, Lebererkrankungen, ihre Diagnosen und Therapien – jetzt in dritter, aktualisierter und erweiterter Auflage! „Das Leber-Buch“ ist im Buchhandel erhältlich: ISBN 978-3-89993-899-9, 16,99 Euro.
Weitere Informationen: http://www.deutsche-leberstiftung.de/Leber-Buch.

Kontakt:
Deutsche Leberstiftung
Bianka Wiebner
Carl-Neuberg-Straße 1
30625 Hannover
Tel 0511 – 532 6815
Fax 0511 – 532 6820
presse@deutsche-leberstiftung.de
http://www.deutsche-leberstiftung.de

Weitere Informationen:
http://www.deutsche-leberstiftung.de
http://www.deutsche-leberstiftung.de/aktuelles/presseportal

Quelle: idw

(nach oben)


Ein „durchgestyltes“ Fußballerlebnis

Stephan Düppe Stabsstelle 2 – Kommunikation und Öffentlichkeitsarbeit
FernUniversität in Hagen

Egal ob auf dem Bolzplatz, in der Fankurve oder beim Public Viewing – die Deutschen lieben Fußball. Besonders bei Weltmeisterschaften wird Begeisterung spürbar: Zu Hunderttausenden finden sich die Menschen in Stadien, vor Bildschirmen und Leinwänden zusammen, um die 90-minütige Torjagd zu feiern. Aber warum ist das so? Dr. Jasper Böing, Soziologe an der FernUniversität in Hagen, deutet den Sport als Ventil.

„Wir leben in einer modernen, ökonomisierten Gesellschaft. Der Alltag wird zunehmend rationalisiert. In der hochemotional aufgeladenen Arena oder beim Fußballschauen auf dem Sofa kriegt man dazu einen Ausgleich“, so Böing. Ein weiterer Grund ist das positive Wir-Gefühl im Kontext von Sportveranstaltungen. „Man hat ein Gemeinschaftserlebnis, das an relativ wenige Vorrausetzungen gebunden ist“, erklärt der Sozialwissenschaftler. „Um dabei zu sein, muss man nicht reich oder besonderes gebildet sein.“

Fans als „Ware“?
Jasper Böing ist seit rund zehn Jahren am Soziologischen Institut der FernUniversität tätig – anfänglich als Wissenschaftliche Hilfskraft, dann als Wissenschaftlicher Mitarbeiter. Seit 2014 arbeitet er im Lehrgebiet „Soziologie I: Allgemeine Soziologie und Soziologische Theorie“ von Prof. Dr. Frank Hillebrandt. Dort begleitet der Postdoc-Stipendiat unter anderem ein Forschungsprojekt zum Thema „Ökonomisierung“. Ein potenzielles Untersuchungsfeld ist dabei auch der Sport.

Millionenschwere Übertragungsrechte, gewichtige Werbedeals und FIFA-Skandale machen den starken Einfluss von ökonomischen Interessen auch bei der Weltmeisterschaft in Russland spürbar. Böing hat sich mit der Kommerzialisierung im Fußball auseinandergesetzt. Aus seiner Sicht ist die Rationalisierung ein wichtiger Aspekt: „Das ganze Fußball-Erlebnis wird immer mehr ‚durchgestylt‘“. Was in der Arena passiert, soll möglichst gut planbar sein, organisiert und kalkulierbar ablaufen. Fraglich ist aus Sicht des Soziologen, wie weit diese Praxis gehen kann, ohne die Atmosphäre im Stadion zu gefährden. „Um das Produkt ‚Fußball‘ aus ökonomischer Sicht bestmöglich zu vermarkten, braucht es emotionalisierte Fans, die aber gleichzeitig unter Kontrolle gehalten werden müssen“, erklärt Böing die Gratwanderung zwischen wirtschaftlich zuträglicher und schädlicher Restriktion.

Problematisch wird es dann, wenn sich Fußballfans nur noch als „Ware“ verstanden wissen. Denn viele von ihnen identifizieren sich auf einer sehr persönlichen Ebene mit ihrem Nationalteam oder Club. „Identifikation bedeutet, sich als Person, als Mensch einzubringen“, erklärt der Soziologe. „Es ist einfach verletzend, von der Interaktionspartnerin oder dem Interaktionspartner gespiegelt zu bekommen, dass man nur eine ‚Nummer‘ ist.“ Der Frust über mangelnde Wertschätzung durch Vereine und Verbände kann sich auf verschiedene Weise bahnbrechen – schlimmstenfalls in Form gewaltsamer Ausschreitungen während Fußballevents.

Professionalisierung auf dem Rasen
Parallel zur Ökonomisierung des Sportevents wird das eigentliche Spielgeschehen zusehends professionalisiert. Ein Novum bei der diesjährigen Weltmeisterschaft ist zum Beispiel der sogenannte „Videobeweis“ zur nachträglichen Prüfung von Torschüssen. Böing erkennt in dem Verfahren Vor- und Nachteile: „Am Fußball ist das eigentlich Spannende, dass man vorher nicht weiß, wie es ausgeht. Auch Schwächere können gewinnen. Dieses ‚Unerwartete‘ wird durch den Videobeweis – zumindest in der Theorie – ein Stück weit zurückgeschraubt. Abgesehen von technischen Unzulänglichkeiten macht er das Spiel aber gerechter.“

Von einem persönlichen Standpunkt aus beargwöhnt der Soziologe den psychischen Druck und die Zwänge, unter denen die Teams stehen. Oftmals wird natürliches menschliches Verhalten sanktioniert. Zum Beispiel dürfen sich Trainerinnen und Trainer im Überschwang ihrer Gefühle nicht frei am Spielfeldrand bewegen, sondern müssen in den streng bemessenen „Coaching-Zones“ verharren. „Diese ‚Verregelung‘ ist eigentlich eine Zumutung“, findet Böing. „Gewisse Emotionen gehören nun einmal zum Fußballspiel dazu.“

Quelle: idw

(nach oben)


Weitere Ursachen von Sauerstoffverlust der Ozeane identifiziert

Dr. Andreas Villwock Kommunikation und Medien
GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel

Messungen in den Ozeanen und Modellrechnungen zeigen gleichermaßen, dass der Sauerstoffgehalt der Ozeane abnimmt. Allerdings unterschätzen die Modelle diese Abnahme deutlich. Das macht Prognosen für die Zukunft schwierig. In einer Studie, die heute in der internationalen Fachzeitschrift Nature Geoscience erscheint, zeigen vier GEOMAR-Forscher die Lücken der Modelle auf und identifizieren weitere, bisher unterschätzte Ursachen des Sauerstoffverlustes.

Die Ozeane verlieren Sauerstoff. Zahlreiche Studien auf lokaler, regionaler und globaler Ebene belegen diesen Trend. So hat eine von Kieler Ozeanographen Anfang 2017 veröffentlichte umfangreiche Datenanalyse gezeigt, dass die Meere in den vergangenen 50 Jahren weltweit zwei Prozent ihres Sauerstoffgehalts eingebüßt haben. Auch Computermodelle der Ozeane und des Erdsystems zeigen diesen Trend und prognostizieren eine Beschleunigung in der Zukunft. Dabei gibt es aber ein Problem. „Die uns zur Verfügung stehenden Modelle schaffen es nicht, die bisherige Entwicklung exakt nachzuvollziehen. Sie zeigen deutlich weniger Sauerstoffverlust als die tatsächlich gemessenen Werte“, sagt Prof. Dr. Andreas Oschlies vom GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel.

Diese Diskrepanz macht die Prognosen für die Zukunft unsicher. In der internationalen Fachzeitschrift Nature Gesoscience veröffentlicht Professor Oschlies heute zusammen mit seinen Kollegen Prof. Dr. Peter Brandt, Dr. Lothar Stramma und Dr. Sunke Schmidtko vom GEOMAR eine Studie, die die Lücken der Modelle und damit gleichzeitig weitere, bisher unterschätzte Treiber des Sauerstoffverlustes aufzeigt. „Der Vergleich mit unseren Beobachtungsdaten zeigt verschiedene Unzulänglichkeiten der Modelle und gibt uns Hinweise, in welche Richtungen wir unsere Forschungsanstrengungen konzentrieren müssen“, sagt Co-Autor Peter Brandt.

Gesichert ist, dass die globale Erwärmung Hauptursache für die Sauerstoffabnahme ist. Doch sie wirkt sich auf mehreren Wegen auf die Ozeane aus. So beeinflusst sie unter anderem die Löslichkeit von Sauerstoff im Wasser. Je wärmer das Wasser, desto weniger Gase kann es aufnehmen. „Dieser Prozess betrifft vor allem die obersten Wasserschichten, die in direkterem Kontakt zur Atmosphäre stehen“, erklärt Dr. Schmidtko. Dieser Effekt könne bis zu 20 Prozent der bisherigen Sauerstoffabnahme erklären und sei in den Modellen auch schon gut nachvollziehbar, führt er weiter aus.

Die Erwärmung verändert aber auch Muster der globalen Ozeanzirkulation. Da das komplexe System von Oberflächen- und Tiefenströmungen die tieferen Bereiche der Meere mit Sauerstoff versorgt, könnten diese Veränderungen den Sauerstoffgehalt im gesamten Ozean beeinflussen. „Hier haben viele Modelle Probleme, weil Transportprozesse oft nicht gut genug aufgelöst oder fehlerhaft wiedergegeben werden“, sagt Co-Autor Dr. Lothar Stramma.

Auch die äußerst komplexen Wechselwirkungen zwischen biologischen, chemischen und physikalischen Prozessen im Ozean sind bisher nur unzureichend in den Modellen repräsentiert. „Uns fehlen in diesem Bereich oft einfach die Daten oder das Wissen über die vielen Faktoren, die bei der Reaktion des Ozeans auf die globale Erwärmung ineinander greifen“, betont Andreas Oschlies, der auf die Modellierung biogeochemischer Prozesse spezialisiert ist. „Unsere Studie zeigt, dass bisherige Modelle die Auswirkungen dieses Zusammenspiels zumindest auf die Sauerstoffverteilung deutlich unterschätzen.“

Um diese aufgezeigten Lücken zu schließen, plädieren die vier Autoren für eine intensivere und international koordinierte Ozeanbeobachtung. „Wir benötigen multidisziplinäre Prozessuntersuchungen, um das delikate Gleichgewicht von Sauerstoffversorgung und Sauerstoffverbrauch im Ozean besser zu verstehen“ betont Andreas Oschlies, „internationale Initiativen wie das Global Ocean Oxygen Network sind dabei hilfreich.“

Eine Verbesserung der Modelle in Bezug auf das Sauerstoff-Budget der Ozeane hätte nebenbei noch einen weiteren Vorteil: „Sauerstoff eignet sich hervorragend zur Eichung von Modellen, die die Aufnahme von Kohlendioxid im Ozean berechnen. Wir würden also gleichzeitig unser Wissen über den Kohlenstoffkreislauf verbessern“, sagt Oschlies.

Originalarbeit
Oschlies, A., P. Brandt, L. Stramma, S. Schmidtko (2018): Drivers and mechanisms of ocean deoxygenation. Nature Geoscience, http://dx.doi.org/10.1038/s41561-018-0152-2

Weitere Informationen:
http://www.geomar.de Das GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel
http://www.sfb754.de Der Sonderforschungsbereich 754
https://www.ocean-oxygen.org/ Nachrichten-Seite des Global Ocean Oxygen Networks

Quelle: idw

(nach oben)


Bananenschalen statt Pflaster? Forschung zur heilenden Kraft der Banane an der Jacobs University

Thomas Joppig Corporate Communications & Public Relations
Jacobs University Bremen gGmbH

Bananen schmecken nicht nur gut, sie heilen auch. Statt mit einem Pflaster werden in vielen Entwicklungsländern offene Wunden mit Bananenblättern oder -schalen bedeckt, selbst größere Wunden lassen sich erfolgreich behandeln. Ein Team von Wissenschaftlern an der Jacobs University Bremen um den Chemie-Professor Dr. Nikolai Kuhnert hat nun die heilende Kraft von Bananen genauer unter die Lupe genommen und 70 verschiedene Inhaltsstoffe identifiziert, die für die Wundheilung verantwortlich sein könnten.

Bananen schmecken nicht nur gut, sie heilen auch. Statt mit einem Pflaster werden in vielen Entwicklungsländern offene Wunden mit Bananenblättern oder -schalen bedeckt, selbst größere Wunden lassen sich erfolgreich behandeln. Ein Team von Wissenschaftlern an der Jacobs University Bremen um den Chemie-Professor Dr. Nikolai Kuhnert hat nun die heilende Kraft von Bananen genauer unter die Lupe genommen und 70 verschiedene Inhaltsstoffe identifiziert, die für die Wundheilung verantwortlich sein könnten.

Den Anstoß für das Forschungsprojekt gab eine von der Alexander von Humboldt Stiftung finanzierte Gastprofessur der aus Nigeria stammenden Pharmazeutin Prof. Dr. Mubo Sonnibare an der Jacobs University. Im westlichen Afrika wie in weiten Teilen Asiens sind Bananen traditionelle Heilmittel. Allerdings handelt es sich dabei nicht um die in deutschen Supermärkten gängige Cavendish-Banane, der keine Heilkraft zugeschrieben wird, sondern um Musa acuminata, eine andere Pflanzenart.

Wie Kaffee oder Tee zeichnet sich die Banane durch viele polyphenolische, also aromatische Verbindungen aus. Einige wirken antibakteriell und desinfizierend, was zum Schutz einer Wunde vor bakteriellen Infektionen beiträgt. Andere wiederum wirken adstringierend, also zusammenziehend – ein Effekt, der etwa auf der Zunge spürbar ist. Wenn diese Verbindungen auf die Haut treffen, verändern sie deren Eiweiße und bilden eine Art Schutzschicht über der Wunde.

Um genau festzustellen, welche Heilkraft die einzelnen Verbindungen haben, müssten weitere, aufwändige Versuche durchgeführt werden, denn für die Wundheilung spielt eine ganze Reihe von Faktoren eine Rolle. „Durch die Forschung haben wir ein tieferes Verständnis über ein traditionelles Arzneimittel gewonnen“, sagt Kuhnert. Die Ergebnisse der Untersuchung wurden jetzt im „Journal of Food Measurement and Characterization“ veröffentlicht.

Quelle:
Sonibare, M. A.; Ayoola, I. O.; Gueye, B.; Abberton, M. T.; D’Souza, R.; Kuhnert, N., Leaves metabolomic profiling of Musa acuminata accessions using UPLC-QTOF-MS/MS and their antioxidant activity. Journal of Food Measurement and Characterization 2018, 1-14.

Fragen beantwortet:
Prof. Dr. Nikolai Kuhnert | Professor of Analytical Chemistry
n.kuhnert@jacobs-university.de | Tel.: +49 421 200-3120

Über die Jacobs University Bremen:
In einer internationalen Gemeinschaft studieren. Sich für verantwortungsvolle Aufgaben in einer digitalisierten und globalisierten Gesellschaft qualifizieren. Über Fächer- und Ländergrenzen hinweg lernen, forschen und lehren. Mit innovativen Lösungen und Weiterbildungsprogrammen Menschen und Märkte stärken. Für all das steht die Jacobs University Bremen. 2001 als private, englischsprachige Campus-Universität gegründet, erzielt sie immer wieder Spitzenergebnisse in nationalen und internationalen Hochschulrankings. Ihre fast 1400 Studierenden stammen aus mehr als 100 Ländern, rund 80 Prozent sind für ihr Studium nach Deutschland gezogen. Forschungsprojekte der Jacobs University werden von der Deutschen Forschungsgemeinschaft oder dem Europäischen Forschungsrat ebenso gefördert wie von global führenden Unternehmen.

Für weitere Informationen:

https://www.jacobs-university.de
https://www.facebook.com/jacobs.university
https://www.youtube.com/user/JacobsUni
https://twitter.com/jacobs_bremen
https://www.instagram.com/jacobsuniversity/
https://www.weibo.com/jacobsuniversity

Quelle: idw

(nach oben)


SOLUTIONS – für eine bessere Wasserqualität europäischer Flüsse

Susanne Hufe Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum für Umweltforschung – UFZ

Viele europäische Flüsse enthalten Chemikalien-Cocktails, die Algen und Wassertieren nicht gut bekommen. Zwar werden die Konzentrationen bestimmter Schadstoffe in den EU-Gewässern überwacht. Doch es gibt Zweifel, ob die richtigen Schadstoffe im Fokus der Untersuchungen stehen und welche Rolle Abbauprodukte und Schadstoffmischungen dabei spielen. Im europäischen Projekt SOLUTIONS haben Wissenschaftlerinnen und Wissenschaftler unter Leitung des UFZ Werkzeuge, Methoden und praktische Lösungen erarbeitet, mit denen vorrangig zu behandelnde Schadstoffe erkannt, das Risiko der Chemikaliencocktails bewertet und dazu beigetragen werden kann, die Schadstoffbelastung zu minimieren.

Lösungen zu finden, wie die vielen Stoffe überwacht und gemanagt werden können, die als komplexe Mischungen in unseren Gewässern vorkommen und die dort unsere Ökosysteme und unsere Gesundheit gefährden – das war das ambitionierte Ziel, mit dem das EU-Projekt SOLUTIONS 2013 gestartet ist. Mehr als 100 Wissenschaftlerinnen und Wissenschaftler haben dafür neue Methoden und Modelle entwickelt und getestet, mit denen die Überwachung der Wasserqualität angepasst werden kann. Sie haben relevante Schadstoffe identifiziert und Empfehlungen erarbeitet, die das Regelwerk der Europäischen Wasserrahmenrichtlinie (WWRL) verbessern können. Zudem haben sie große Fallstudien durchgeführt, mit denen überprüft werden konnte, inwieweit die erarbeiteten Methoden, Modelle und Werkzeuge funktionieren. Laut Projektkoordinator Dr. Werner Brack vom Helmholtz-Zentrum für Umweltforschung (UFZ) konnten damit alle wesentlichen Ziele des Projekts erreicht werden.

Überwachung, Bewertung und Management verbessern
Derzeit sind in der EU-Wasserrahmenrichtlinie 45 Schadstoffe, sogenannte prioritäre Schadstoffe, gelistet. Sie dürfen in einem Gewässer mit guter Wasserqualität nicht oder nur in geringem Maße vorkommen. Demgegenüber stehen allerdings mehr als 100.000 verschiedene chemische Substanzen, die wir täglich benutzen und die in unsere Umwelt und Gewässer gelangen. Die meisten Substanzen werden bei der Bewertung der Gewässerqualität nach der derzeitigen EU-Wasserrahmenrichtlinie also gar nicht berücksichtigt. „Das gegenwärtige Monitoring ist teuer, ignoriert den größten Teil der Schadstoffe und läuft den eigentlichen Problemen hinterher. Denn die meisten prioritären Schadstoffe sind längst vom Markt und durch andere sehr ähnlich wirkende chemische Substanzen ersetzt. Neue Stoffe auf die Liste zu bekommen, ist ein langwieriger politischer Prozess“, kritisiert Werner Brack. Außerdem beschränkt sich die WRRL bislang nur auf die Prüfung von Einzelstoffen. Schadstoffe wirken in der Umwelt aber nicht einzeln, sondern in Kombination, und können sich dadurch in ihrer Wirkung gegenseitig verstärken. „Nicht das Vorkommen eines Schadstoffes ist ausschlaggebend, sondern seine Wirkung im Gewässer“, sagt Brack. Deshalb empfehlen die SOLUTIONS-Wissenschaftler, die Überwachung der Gewässerqualität von der chemischen Analytik einzelner Schadstoffe auf effektbasierte Methoden – wie etwa biologische Wirkungstests – umzustellen. So würden alle Stoffe mit derselben Wirkung erfasst, auch Stoffgemische. Und teure chemische Analytik wäre nur noch erforderlich, falls bestimmte Wirkschwellen überschritten werden. Für ihren Vorschlag haben die Forscher vorhandene biologische Testverfahren geprüft und auf dieser Basis eine Testbatterie aus organismischen und sehr spezifischen zellbasierten Testsystemen entwickelt. Diese Testbatterie kann sowohl akut toxische Effekte auf Wasserorganismen als auch Langzeitwirkungen z.B. auf die Reproduktion von Organismen detektieren. Für die Unterscheidung zwischen problematisch und unproblematisch wurden außerdem entsprechende Grenzwerte formuliert. Dass dieser effektbasierte Ansatz funktioniert und hilft, nicht nur die Stoffe, sondern auch die Quellen ausfindig zu machen, zeigte sich laut Projektkoordinator Brack nicht zuletzt in den zahlreichen Fallstudien an europäischen Flüssen wie Donau und Rhein, die wichtiger Bestandteil der fünfjährigen Projektarbeit waren.

Die SOLUTIONS-Wissenschaftlerinnen und -Wissenschaftler haben außerdem zahlreiche Modelle entwickelt und verbessert, mit denen es möglich wird, die Verteilung, den Transport und den Abbau von Schadstoffen sowie deren Risiko abzuschätzen und damit die Umweltüberwachung zu unterstützen. Um die Konzentrationen tausender Stoffe in den europäischen Flussgebieten vorhersagen zu können, haben sie die Modelle wie Waggons in einem Eisenbahnzug verknüpft. „Dass wir damit auf dem richtigen Weg sind, zeigt die oft verblüffend hohe Übereinstimmung von modellierten und gemessenen Werten“, sagt Werner Brack, „auch wenn das nicht darüber hinwegtäuschen darf, dass es weiterhin viele Unsicherheiten gibt.“ Die sind v.a. den fehlenden Daten zu Produktionsmengen und zur Nutzung vieler Stoffe geschuldet, was dazu führt, dass die Wissenschaftler derzeit an vielen Stellen ihre Modelle nur mit Schätzungen füttern können. Trotzdem zeigen sie schon jetzt, dass Chemikalien neben den Nährstoffen ein wichtiger Faktor für den schlechten ökologischen Zustand vieler europäischer Gewässer sind. Die Modelle können helfen, Stoffe auszusondern, die mit hoher Wahrscheinlichkeit kein Problem für die Gewässer darstellen.

Alleiniges Messen und Bewerten der Gewässerqualität reicht aber nicht aus, um den Zustand eines Gewässers zu verbessern – es müssen entsprechende Maßnahmen folgen. „Deshalb geben wir Empfehlungen für ein stärker lösungsorientiertes Gewässermanagement, bei dem Überwachung, Bewertung und mögliche Maßnahmen von Anfang an viel enger miteinander verzahnt sein sollten, als dies heute der Fall ist“, sagt Brack. Eindrucksvoll zeigten beispielsweise die Untersuchungen am Oberrhein, welche Wirkung die Aufrüstung von Kläranlagen in der Schweiz mit einer vierten Reinigungsstufe hat: Es konnte eine deutliche Verbesserung der Wasserqualität im Hinblick auf die Konzentration von Arzneiwirkstoffen oder Kosmetikbestandteilen festgestellt werden.
„Auch nach dem Abschluss von SOLUTIONS bleibt jedoch noch viel zu tun“, resümiert Brack. Im Hinblick auf das effektbasierte Monitoring wäre es wichtig, wenn für alle wichtigen Wirkweisen der Schadstoffe spezifische Werkzeuge zur Verfügung stünden. „So weit sind wir leider noch nicht“, bedauert der Wissenschaftler. Im Laufe der Projektarbeit zeigte sich außerdem die Bedeutung chemischer und toxikologischer Fingerabdrücke von verschiedenen Belastungsquellen. Die zu erforschen, war im Forschungsprogramm von SOLUTIONS jedoch nicht vorgesehen. „Deshalb haben wir jetzt mit einer Studie begonnen, die Kläranlagenausläufe und Einträge durch die Landwirtschaft erfasst. Wir können damit direkt an SOLUTIONS anknüpfen. Auch bei der Priorisierung von Minderungsmaßnahmen ist noch Einiges zu tun, vor allem in Bezug auf wissenschaftlich fundierte Prioritätensetzung und Erfolgskontrolle.“

Hintergrund
2000 trat die EU-Wasserrahmenrichtlinie (WRRL) in Kraft. Sie legt fest, dass Flüsse, Seen, Küstengewässer und Grundwasser einen „guten Zustand“ erreichen müssen – ursprünglich bis 2015, nach Verlängerung nun bis spätestens 2027. Das heißt, die Gewässer sollen möglichst nur geringfügig durch Schadstoffe belastet sein und Pflanzen und Tieren einen naturnahen Lebensraum bieten. Von der Erreichung dieses Ziels ist Europa jedoch noch weit entfernt. Derzeit geht man davon aus, dass nur wenige Prozent der europäischen Gewässer in einem guten Zustand sind.

Das EU-Projekt SOLUTIONS (SOLUTIONS for present and future emerging pollutants in land and water resources management) vereinigt 39 Partner aus weltweit 17 Ländern. Über fünf Jahre Laufzeit wurde es mit insgesamt 12 Millionen Euro von der Europäischen Union gefördert.

Konferenzprogramm
https://www.solutions-project.eu/wp-content/uploads/2018/05/Agenda_Final_Confere…

weitere Informationen:
PD Dr. Werner Brack
Leiter des UFZ-Departments Wirkungsorientierte Analytik und Projektleiter SOLUTIONS
Telefon: ++49 341 235 1531
werner.brack@ufz.de

Weitere Informationen:
http://www.ufz.de/index.php?de=36336&webc_pm=20/2018

Quelle: idw

(nach oben)


Fußball durch die Augen des Computers

Julia Wandt Stabsstelle Kommunikation und Marketing
Universität Konstanz

Konstanzer Informatiker realisieren eine automatisierte grafische Spielanalyse für Fußballübertragungen – live und ohne Zeitverzögerung

Fußball im Fernsehen: Ein Pass nach links außen, eine Lücke in der Verteidigung, ein freistehender Stürmer kurz vor dem Strafraum. Plötzlich friert das Fernsehbild ein. Linien und Diagramme erscheinen zwischen den Spielern. Ein Pfeil zeigt einen sicheren Pass zu dem freien Stürmer an, weitere Linien signalisieren dessen Schussfeld aufs Tor. Grafische Analysen wie diese sind aus Fußballübertragungen nicht mehr wegzudenken. Sie helfen, das Spiel in seiner Dynamik und Taktik zu verstehen und die Entscheidungen der Spieler nachzuvollziehen. Hinter den Kulissen bedeuten sie aber zunächst einmal viel Arbeit. Das Fernsehteam muss die Grafiken live während des Spiels unter Zeitdruck erstellen. Bis die Diagramme fertig sind, ist die Spielsituation längst vorbei, so dass die Grafiken typischerweise im Nachhinein als Rückblenden eingespielt werden. Wie einfach wäre es, wenn all dies von selbst ginge, wenn der Fernseher all diese Grafiken ohne Zeitverzug selbst einblenden könnte? Informatiker der Universität Konstanz machen nun genau dies möglich: Sie entwickeln eine Software, die all diese Arbeitsschritte automatisiert. Die Konstanzer Software analysiert das Spielgeschehen bis zu 30 mal pro Sekunde und blendet die entscheidenden Diagramme live und ohne Zeitverzug direkt ins Fernsehbild ein. Sie ist unter anderem in der Lage, Dominanzbereiche der Mannschaften im Spielfeld anzuzeigen und Passmöglichkeiten in Echtzeit einzublenden. Sie signalisiert, wie stark einzelne Spieler unter Druck gesetzt werden, und ist sogar in der Lage, Was-wäre-wenn-Szenarien von alternativen Spielverläufen durchzuspielen.

Der Kopf hinter dieser Software ist Manuel Stein, Informatiker und Doktorand an der Universität Konstanz im Forschungsbereich „Collective Behaviour“ (Kollektivverhalten). Mit seiner Software will er einerseits Fußballanalysten die Arbeit erleichtern, andererseits die Muster eines Fußballspiels sichtbar machen – die wechselseitigen Einflüsse und Interaktionen zwischen den Spielern und Mannschaften. „Jeder versucht, Daten im Fußball zu sammeln, aber kaum einer weiß, was er damit anfangen soll. Wir versuchen, Wissen daraus zu generieren“, schildert Manuel Stein.

Dem Computer Fußball beibringen
Um den Computer zum Spielfeld-Analytiker zu machen, muss Manuel Stein ihm aber zunächst einiges über Fußball beibringen. Nicht die Regeln, auch nicht Mannschaftsnamen oder Tabellenplätze, sondern ein sehr viel grundlegenderes Unterscheidungsvermögen: Was auf dem Fernsehbild ist ein Spieler, was ist der Ball? Wohin schaut der jeweilige Spieler, wie schnell bewegt er sich, wie rasch könnte er beim Ball sein? Bis zu 30 mal pro Sekunde ermittelt der Computer die Position, Geschwindigkeit und Bewegungsrichtung jedes einzelnen Spielers sowie des Balls. Auf dieser Grundlage berechnet er nun für jeden Quadratmeter des Spielfelds, welcher Spieler dort zuerst sein könnte und wie viele Feldspieler jeder Mannschaft diesen Punkt bedrohen. Sein Ergebnis legt er im Bruchteil einer Sekunde als Diagramm über das laufende Fernsehbild: Eine dynamische, sich stets wandelnde Karte der Einflusszonen jeder Mannschaft. Durch einfache Farbsignale zeigt Manuel Steins Software unter anderem, wie stark jeder Spieler von der gegnerischen Mannschaft bedroht ist, wo Freiräume sind und wo sich sichere Pässe anbieten. Für all dies sind weder GPS-Sender an den Trikots der Spieler nötig, noch komplizierte Techniken der Kamera-Erfassung. Alles, was Manuel Stein braucht, ist das bloße Fernsehbild.

Intelligente Filter
Mit all diesen Farbsignalen kann ein Spielfeld schnell sehr bunt werden. Damit der Zuschauer nicht Gefahr läuft, „den Wald vor lauter Bäumen nicht zu sehen“, lassen sich die verschiedenen Analysefunktionen separat an- und ausschalten und als Filter übereinanderlegen. Die intelligente Software macht zudem Vorschläge, welche Filter in der aktuellen Situation sinnvoll sind, und schaltet sie auf Wunsch auch automatisiert zu oder ab, um das Spielgeschehen übersichtlich zu halten.

An den Fernsehzuschauer auf dem heimischen Sofa richtet sich die Software jedoch nur sekundär. Als Zielgruppe hat Manuel Stein vielmehr Fußballanalysten und Sportjournalisten im Blick. Ihnen erlaubt die Software, Diagramme von Spielsituationen im Bruchteil von Sekunden zu erstellen und diese ohne Zeitverlust als Fernsehbild aufzubereiten.

Was wäre wenn?
Aktuell arbeitet Manuel Stein an einer „Was-wäre-wenn“-Analyse – einer Prognose, wie das Spiel unter anderen Bedingungen verlaufen wäre – auf Grundlage seiner Software. In dieser Funktion können Schlüsselsituationen eines Spiels aufgerufen und in alternativen Szenarien neu abgespielt werden. Der Computer berechnet dabei auf Grundlage der Positionsdaten und Einflussfaktoren jedes Spielers einen schlüssigen, realistischen Verlauf des Szenarios. Was wäre geschehen, wenn der Spieler den Ball nach rechts und nicht nach links gepasst hätte? Wie hätte sich die Dynamik des Spielfelds verändert, wenn ein Verteidiger fünf Meter weiter rechts gestanden hätte? Wie hätte sich eine Mannschaft optimal positionieren können, um dem Gegner keinen Raumgewinn zuzulassen? Diese Analyse-Tools sind mit Sicherheit auch für Trainer wertvoll, zum Beispiel in der Nachbesprechung eines Spiels.

Zusammenarbeit mit Mannschaften und Sendern
Je mehr Daten Manuel Steins Software vorliegen, desto präziser kann sie das Spielfeld einschätzen und ihre Auswertungen treffen. In der aktuellen Praxis sind die Informationen jedoch auf das Fernsehbild beschränkt. Was sich außerhalb der Kamera abspielt, weiß der Rechner nicht und kann es nur vage abschätzen. Die Konstanzer Informatiker sind daher an Kooperationen mit Mannschaften und Fernsehsendern interessiert, die Bild- und Positionsdaten von Fußballspielen erheben. Wenn diese ihre Daten zur Verfügung stellen, können die Informatiker im Gegenzug präzisere Analysen liefern. Das Angebot ist nicht auf Fußball begrenzt; die Analyse-Software kann auf jeden Mannschaftssport angewendet werden.

Collective Behaviour
Manuel Steins Forschung findet im Rahmen des Konstanzer Forschungsbereichs „Collective Behaviour“ statt. Dieses junge Forschungsfeld befasst sich mit den wechselseitigen Einflüssen und Interaktionen zwischen Mitgliedern eines Kollektivs. Die Wissenschaftler interessieren sich insbesondere für das Entscheidungsverhalten innerhalb einer Gruppe und die Frage, wie sich die Individuen eines Schwarms gegenseitig koordinieren. Beispiele sind das Verhalten von Tierschwärmen und Schwarmintelligenz, die Koordination von selbstfahrenden Autos, aber auch ökonomische Netzwerke oder das Verhalten von Menschengruppen. Im Sportbereich finden die wissenschaftlichen Methoden unter anderem in der Analyse von Mannschaftsverhalten Anwendung: Welche Muster zeichnen sich in der Taktik einer Mannschaft ab? Wie reagieren zwei Mannschaften aufeinander und wie beeinflussen sich die Spieler in ihren Entscheidungen gegenseitig?

Faktenübersicht:
– Konstanzer Informatiker realisieren eine automatisierte Spielanalyse für Fußballübertragungen.
– Der Computer ermittelt Position, Geschwindigkeit und Richtung jedes einzelnen Spielers sowie des Balls. Aus diesen Daten berechnet er unter anderem Einflussbereiche beider Mannschaften, Passmöglichkeiten und Was-wäre-wenn-Szenarien.
– Die Auswertung wird als Diagramm live und ohne Zeitverzögerung in laufende Fernsehübertragungen eingeblendet. Grundlage der Computeranalyse ist das reine Fernsehbild, weitere Daten sind nicht erforderlich.
– Die Software richtet sich insbesondere an Fußballanalysten und Sportjournalisten, aber auch an Trainer. Sie ist prinzipiell auch für andere Mannschaftssportarten einsetzbar.

Ein Video kann im Folgenden heruntergeladen werden:
http://www.uni-konstanz.de/shared/Fussballanalyse.mp4
Erläuterung: So nimmt der Computer ein Fußballspiel wahr: Diese Erfassung von Spielern und Ball bildet die Grundlage für die automatisierten Analysegrafiken, die im folgenden Schritt in das reale Fernsehbild eingeblendet werden.
Copyright: Universität Konstanz

Für Videobeispiele der Analysegrafiken können Sie sich gern an Manuel Stein, E-Mail: stein@dbvis.inf.uni-konstanz.de, wenden.

Fotos können im Folgenden heruntergeladen werden:
1) https://cms.uni-konstanz.de/fileadmin/pi/fileserver/2018/Bilder/Fussball_durch_d…
Bildunterschrift: Screenshot der automatisierten Spielanalyse. Die Farbflächen markieren freie Räume, die für die Torsituation relevant sind. Die Software reagiert dabei in Echtzeit auf die Ereignisse und passt die eingeblendeten Markierungen bis zu 30 mal pro Sekunde an. Weitere Analysegrafiken können mit eingeblendet werden, darunter Dominanzbereiche der Mannschaften und Passmöglichkeiten.
Copyright: Dietmar Wallner

2) https://cms.uni-konstanz.de/fileadmin/pi/fileserver/2018/Bilder/Fu%C3%9Fballanal…
Bildunterschrift: Manuel Stein, Entwickler der Analyse-Software. Manuel Stein ist Informatiker und Doktorand im Forschungsbereich „Collective Behaviour“ (Kollektivverhalten) an der Universität Konstanz.
Bild: Manuel Stein

Kontakt:
Universität Konstanz
Kommunikation und Marketing
Telefon: + 49 7531 88-3603
E-Mail: kum@uni-konstanz.de

Quelle: idw

(nach oben) 


Tattoos: Körperschmuck mit Risiken

Dr. Suzan Fiack Presse- und Öffentlichkeitsarbeit
Bundesinstitut für Risikobewertung (BfR)

Tätowierungen sind Schwerpunktthema des aktuellen BfR-Wissenschaftsmagazins BfR2GO

Trotz ihrer großen Verbreitung werden Tattoos bislang selten im Zusammenhang mit gesundheitlichen Risiken diskutiert. Dabei können Tätowierungen unerwünschte gesundheitliche Folgen haben wie Infektionen, Entzündungen, Narben und Allergien. Zudem sind Langzeitwirkungen möglich, über die bislang kaum Erkenntnisse vorliegen. Verschiedene Forschungsprojekte am Bundesinstitut für Risikobewertung (BfR) liefern Ergebnisse, die weltweit Beachtung finden und in der aktuellen Ausgabe des BfR-Wissenschaftsmagazin BfR2GO vorgestellt werden. „Farbpigmente von Tattoos bleiben nicht lokal unter der Haut, sondern wandern im Körper“, sagt BfR-Präsident Professor Dr. Dr. Andreas Hensel. „Durch UV-Licht und Alterung zerfallen manche Pigmente in toxische Substanzen. Wer die aktuelle Ausgabe von BfR2GO liest, erhält Einblicke in die Forschung und Bewertung des BfR auf dem Gebiet der gesundheitlichen Risiken durch Tätowiermittel.“

BfR2GO 1/2018: www.bfr.bund.de/cm/350/bfr-2-go-ausgabe-1-2018.pdf
Eine wichtige Aufgabe des BfR ist es, die Öffentlichkeit über mögliche Risiken gesundheitlicher Art zu informieren. BfR2GO ist ein neues Publikationsformat des BfR, das wichtige Themen des gesundheitlichen Verbraucherschutzes aufgreift. In jeder Ausgabe von BfR2GO wird ein aktuelles Thema aus dem Arbeitsbereich des BfR schwerpunktmäßig vorgestellt: In der aktuellen Ausgabe sind es die Risiken des Tätowierens. Daneben finden sich Berichte, Interviews und Meldungen aus den Arbeitsgebieten des BfR – Risikokommunikation, Lebensmittelsicherheit, Produkt- und Chemikaliensicherheit sowie Schutz von Versuchstieren. Weitere Themen dieser Ausgabe sind: Küchenhygiene in TV-Kochshows, Nudging-Maßnahmen im gesundheitlichen Verbraucherschutz, „Botanicals“ für Sportlerinnen und Sportler, Neues zur Europäischen Chemikalienverordnung REACH, Begasungen von Schiffscontainern sowie ein Interview mit dem Leiter des Deutschen Zentrums zum Schutz von Versuchstieren am BfR.

Das Wissenschaftsmagazin BfR2GO erscheint zweimal im Jahr in deutscher und englischer Sprache und wird auf der BfR-Website unter www.bfr.bund.de/de/publikation/wissenschaftsmagazin-201894.html veröffentlicht. Dort kann es kostenlos heruntergeladen oder direkt bestellt werden. Interessenten können sich per E-Mail (publikationen@bfr.bund.de) für ein kostenloses Abonnement des Magazins vormerken lassen.

Über das BfR
Das Bundesinstitut für Risikobewertung (BfR) ist eine wissenschaftlich unabhängige Einrichtung im Geschäftsbereich des Bundesministeriums für Ernährung und Landwirtschaft (BMEL). Es berät die Bundesregierung und die Bundesländer zu Fragen der Lebensmittel-, Chemikalien- und Produktsicherheit. Das BfR betreibt eigene Forschung zu Themen, die in engem Zusammenhang mit seinen Bewertungsaufgaben stehen.

Das BfR ist 15 Jahre alt. Aus diesem Anlass hat das BfR eine Jubiläumsbroschüre herausgegeben, die unter www.bfr.bund.de/de/publikation/broschueren-660.html kostenlos heruntergeladen oder bestellt werden kann.

Quelle: idw

(nach oben) 


Deutsche Unternehmen gefährden Umwelt und Menschenrechte

Mandy Schoßig Öffentlichkeit und Kommunikation
Öko-Institut e. V. – Institut für angewandte Ökologie

Deutsche Firmen sollten Produkte, die in der Europäischen Union wegen möglicher Gefahren für die Menschenrechte und die Umwelt nicht zugelassen sind, auch im Ausland nicht vertreiben. Eine aktuelle Fallstudie des Öko-Institut zeigt jedoch, dass deutsche Chemieunternehmen besonders gefährliche, in der EU verbotene Pestizide im Ausland anbieten. Ein anderes Beispiel zur Abwrackung von Schiffen belegt, dass deutsche Reedereien ihre Schiffe in Bangladesch entsorgen lassen, obwohl dies verboten ist.

Das Öko-Institut fordert in seinem Spendenprojekt „Umweltschutz wahrt Menschenrechte“, dass die deutschen Unternehmen ihrer globalen Verantwortung gerecht werden und ihre Sorgfaltspflichten zum Schutz von Mensch und Umwelt ernst nehmen. Der deutsche Staat muss dafür sorgen, dass im Ausland EU-Standards nicht unterlaufen werden – dieser Pflicht kommt er heute teilweise nur unzureichend nach. Diese Forderungen gelten für alle untersuchten Fälle, darunter auch für den Kupferbergbau in Peru.

Pestizide: Hochgiftige Stoffe aus Produktsortiment verbannen
In seiner Fallstudie zu Pestiziden legt das Öko-Institut den Schwerpunkt auf besonders gefährliche Chemikalien. Viele von ihnen sind unmittelbar toxisch; sie führen beim Einatmen oder bei der Anwendung zu schweren Vergiftungen. Andere wirken langfristiger, indem sie krebserregend sind, den Hormonhaushalt negativ beeinflussen oder das Erbgut schädigen. Gelangen sie in Böden und Gewässer, können sie ihren Weg in Nahrungsmittel und Trinkwasser finden. Andere Chemikalien sind äußerst schädlich für Bienen. Das Öko-Institut fordert ein Exportverbot der hochgiftigen, in der EU nicht zugelassenen Pestizide.

Schiffsrecycling: Bestehende Regelungen einhalten
Zumeist über Zwischenhändler gelangen Schiffe deutscher Reedereien zur Verschrottung nach Bangladesch. Dort werden sie statt in geeigneten Recyclingeinrichtungen direkt am Strand auseinandergenommen. Dabei gelangen Schweröle, Asbest und weitere Gefahrstoffe ins Meer; Arbeiter kommen häufig ungeschützt mit ihnen in Berührung. Die Folge sind Arbeitsunfälle und Vergiftungen sowie Verseuchungen des Meerwassers. Nach internationalem und europäischem Recht ist die nicht fachgerechte Entsorgung ausgedienter Schiffe in Bangladesch verboten. Das Öko-Institut fordert, dass die bestehenden Regelungen eingehalten und vom deutschen Staat konsequent durchgesetzt werden.

Risiken kennen, Gegenmaßnahmen ergreifen
„Alle drei Fallstudien zeigen, dass deutsche Unternehmen ihrer Verantwortung zur Wahrung von Menschenrechten und Umweltschutz nur unzureichend nachkommen“, kritisiert Dr. Nele Kampffmeyer, Expertin für nachhaltige Unternehmensführung am Öko-Institut. „Solange keine gesetzlichen Regelungen existieren, können Unternehmen zwischen Geschäftsinteressen und Menschenrechten abwägen. Aus unserer Sicht muss der Schutz von Mensch und Umwelt jedoch über finanziellen Interessen stehen.“
Um diesen Prioritäten folgen zu können, müssen die Unternehmen entlang ihrer Wertschöpfungskette – also von der Herstellung, über die Nutzung bis zur Entsorgung ihrer Produkte – die Risiken für Menschen und Umwelt analysieren. Dabei sollten Betroffene vor Ort, etwa Kleinbauern, einbezogen werden. In einem zweiten Schritt sollten sie dann wirksame Schutzmaßnahmen ergreifen. Dazu gehört auch die Einrichtung von Beschwerdestellen, an die sich mögliche Betroffene wenden können.

Das Projekt wurde mit Hilfe von privaten Spenden finanziert. Diese geben dem Öko-Institut die Möglichkeit, Themen wissenschaftlich zu bearbeiten, die es als besonders wichtig erachtet, für die aber kein Auftragsmandat vorliegt.

Working Paper „Umweltschutz wahrt Menschenrechte! Deutsche Unternehmen in der globalen Verantwortung“ des Öko-Instituts (https://www.oeko.de/fileadmin/oekodoc/WP-Umweltschutz-wahrt-Menschenrechte.pdf)

Kurzfassung „Umweltschutz wahrt Menschenrechte! Unternehmen und Politik in der Verantwortung“ des Öko-Instituts (https://www.oeko.de/fileadmin/oekodoc/Umweltschutz-wahrt-Menschenrechte-Kurzfass…)

Ansprechpartnerin am Öko-Institut
Dr. Nele Kampffmeyer
Wissenschaftliche Mitarbeiterin im Institutsbereich
Umweltrecht & Governance
Öko-Institut e.V., Büro Berlin
Telefon: +49 30 405085-346
E-Mail: n.kampffmeyer@oeko.de

Das Öko-Institut ist eines der europaweit führenden, unabhängigen Forschungs- und Beratungsinstitute für eine nachhaltige Zukunft. Seit der Gründung im Jahr 1977 erarbeitet das Institut Grundlagen und Strategien, wie die Vision einer nachhaltigen Entwicklung global, national und lokal umgesetzt werden kann. Das Institut ist an den Standorten Freiburg, Darmstadt und Berlin vertreten.

Neues vom Öko-Institut auf Twitter: twitter.com/oekoinstitut

Das Öko-Institut bloggt unter: blog.oeko.de

Aktuelle Ausgabe des Onlinemagazins eco@work: www.oeko.de/e-paper

Anhang
PM_Umweltschutz-wahrt-Menschenrechte_Öko-Institut
https://idw-online.de/de/attachment65842

Quelle: idw

(nach oben) 


Fußball-WM 2018: Statistik sieht Brasilien vorne

Dr. Dirk Frank Public Relations und Kommunikation
Goethe-Universität Frankfurt am Main

Auf fussballmathe.de kann man den Ausgang der Weltmeisterschaft berechnen. Umfangreiches Material für den schulischen Einsatz

FRANKFURT. Die deutschen Fußballfans sehnen sich nach einem weiteren Stern auf dem Trikot, was für den fünften Gewinn der Fußballweltmeisterschaft stünde. Doch nach der Prognose des Portals fussballmathe.de hat das Team Brasiliens die größten Chancen: Die Siegwahrscheinlichkeit Brasiliens liegt bei 25,67 Prozent, Deutschland folgt mit 17,84 Prozent, knapp dahinter Spanien mit 17,11 Prozent. Prof. Matthias Ludwig, Mathematik-Didaktiker an der Goethe-Universität, betreibt mit seinem Team seit sechs Jahren das Portal fussballmathe.de: Das Instrument ermöglicht eine spannende Beschäftigung mit Statistik im schulischen Kontext. Umfangreiches Material kann kostenfrei auf fussballmathe.de heruntergeladen werden. Der Didaktiker möchte mit dem Portal vor allem das Verständnis für die mathematischen Grundlagen der Statistik stärken, Fußball ist dafür ein geeigneter Anwendungsbereich.

Anhand dreier Parameter werden die fußballerischen Wahrscheinlichkeiten berechnet: historische Ergebnisse, die erreichten ELO-Punkte (ein Ranglistensystem) sowie der aktuelle Mannschaftswert fließen in die Prognose ein. Die aktuellen Spielergebnisse der Fußball-WM 2018 werden natürlich eingearbeitet. Die online abrufbaren und jeweils aktuellen Prognosen erfreuen sich auch bei wettfreudigen Zeitgenossen jenseits von Schule und Hochschule einer großen Beliebtheit, Ludwig rechnet während der WM mit gewaltigen Zugriffszahlen.

Weitere Informationen:
Prof. Matthias Ludwig, Institut für Didaktik der Mathematik und Informatik. Tel. (069) 798-28695; ludwig@math.uni-frankfurt.de; http://www.fussballmathe.de

Weitere Experten der Goethe-Universität zum Thema „Fußball-WM 2018″:
Prof. Robert Gugutzer ist Sportsoziologe und beschäftigt sich mit der Soziologie des Fußballs; er hat unter anderem das Phänomen „Public Viewing“ untersucht. In diesem Sommersemester ist die Fußball-WM auch Thema in seinem Seminar „Medien und Sport“. Tel. (069)798-24529; gugutzer@sport.uni-frankfurt.de

Prof. Winfried Banzer ist Sportmediziner und leitet die Abteilung Sportmedizin; er war u.a. einige Jahre lang der Mannschaftsarzt der deutschen Tennis-Daviscup-Spieler. Tel. (069) 798-24543; winfried.banzer@sport.uni-frankfurt.de

Der Politologe Prof. Reinhard Wolf ist Professor für Internationale Beziehungen mit dem Schwerpunkt Weltordnungsfragen; er beschäftigt sich mit dem Verhältnis alter und neuer Großmächte und ist ein guter Kenner der Außen- und Sicherheitspolitik der Russischen Föderation. Tel. (069) 798-36608; wolf@soz.uni-frankfurt.de

Quelle: idw

(nach oben) 


Planungssicherheit für Kommunen: Den Wasserbedarf der Zukunft prognostizieren

Melanie Neugart Wissenskommunikation und Öffentlichkeitsarbeit
ISOE – Institut für sozial-ökologische Forschung

Es gehört zu den Aufgaben von Kommunen, eine sichere Wasserversorgung zu garantieren. Eine realistische Planung gestaltet sich aber immer schwieriger, denn die Einflüsse auf den Wasserbedarf sind vielfältig: Demografische und klimatische Entwicklungen beeinflussen die Bedarfswerte ebenso wie sich verändernde Wirtschaftsstrukturen, neue Wassertechnologien oder Gewohnheiten verschiedener Verbrauchsgruppen. Damit Kommunen trotzdem langfristig planen können, sind sie auf Wasserbedarfsanalysen für ihr Gemeindegebiet angewiesen.

Das ISOE – Institut für sozial-ökologische Forschung hat ein Prognosemodell entwickelt, das die komplexen Einflüsse in einem Versorgungsgebiet erstmals verlässlich und kleinräumig abbilden kann.

Ein typisches Phänomen in vielen deutschen Städten: Obwohl die Bevölkerungszahlen steigen, ist der Wasserbedarf rückläufig. Das hat vielfältige Gründe – effizientere Haushaltsgeräte, die immer weniger Wasser benötigen, oder eine modernere Sanitärausstattung und ein sparsameres Verbrauchsverhalten. All diese Veränderungen frühzeitig zu erkennen, kann die Planungssicherheit für Kommunen erhöhen. Selbstverständlich auch im umgekehrten Fall, wenn ein steigender Bedarf zu Engpässen in der Wasserversorgung führt.

Weil Investitionen in die Infrastruktur lange Vorlaufzeiten benötigen, sind Kommunen auf langfristige Prognosen ihres Wasserbedarfs angewiesen. „Für ihre Planungssicherheit reichen die üblicherweise verwendeten Daten wie bundesweite Durchschnittswerte des Pro-Kopf-Verbrauchs oder Bevölkerungszahlen nicht aus“, sagt ISOE-Wasserforscher Stefan Liehr, der am ISOE ein Prognosemodell für die Ermittlung des Wasserbedarfs mitentwickelt hat.

Trends frühzeitig erkennen, um Wasserbedarfsprognosen auf Stadtteilebene zu berechnen
„Im Vergleich zu früher liegen heute viel detailliertere Daten zu sozio-ökonomischen, siedlungsstrukturellen oder technischen Faktoren vor. Diese erlauben ein deutlich genaueres und kleinräumigeres Bild über die zu erwartende Bedarfsentwicklung“, sagt Liehr. Auch müssten Trends wie ein unter Umständen wasserintensives Konsumverhalten oder die zunehmende Nutzung alternativer Wasserquellen wie Regen- und Brauchwasser berücksichtigt werden. Das integrierte Prognosemodell des ISOE schließt alle relevanten Einflussfaktoren ein und ermöglicht Kommunen einen hohen Detailierungsgrad bis hin zu einzelnen Stadtteilen oder Quartieren.

Zu den besonders relevanten Einflussfaktoren zählt Wasserforscher Liehr neben den technologischen Wassersparpotenzialen bei Haushalten und Betrieben vor allem die dynamische Bevölkerungsentwicklung und die wirtschaftliche Entwicklung. „Zudem ist zu erwarten, dass in den nächsten Jahrzehnten extreme Witterungsverläufe zu Schwankungen im Wasserbedarf führen“, sagt Liehr. Grundlegend für die Analyse seien eine kleinräumlich gegliederte Verbrauchsstatistik, Daten der Bevölkerungs-, Wohnraum-, Siedlungs- und Wirtschaftsstruktur, statistische und räumliche Analysen mittels eines Geografischen Informationssystems (GIS) sowie Kunden- und Expertenbefragungen.

ISOE – Institut für sozial-ökologische Forschung, Frankfurt am Main
Das ISOE gehört zu den führenden unabhängigen Instituten der Nachhaltigkeitsforschung. Seit mehr als 25 Jahren entwickelt das Institut wissenschaftliche Grundlagen und zukunftsfähige Konzepte für Politik, Zivilgesellschaft und Wirtschaft – regional, national und international. Zu den Forschungsthemen gehören Wasser, Energie, Klimaschutz, Mobilität, Urbane Räume, Biodiversität und sozial-ökologische Systeme.

Ansprechpartner:
Melanie Neugart
Pressekontakt
Tel. 069 707 69 19-51
neugart@isoe.de

Dr. Stefan Liehr
Forschungsschwerpunkt Wasserressourcen und Landnutzung
Tel. 069 707 69 19-36
liehr@isoe.de

Weitere Informationen:

http://www.isoe.de

Anhang
Planungssicherheit für Kommunen: Den Wasserbedarf der Zukunft prognostizieren
https://idw-online.de/de/attachment65859

Quelle: idw

(nach oben) 


„Das wurde auch höchste Zeit“ – HPV-Impfung für Jungen empfohlen 

Dr. Sibylle Kohlstädt Presse- und Öffentlichkeitsarbeit
Deutsches Krebsforschungszentrum

Die Ständige Impfkommission (STIKO) des Robert Koch-Instituts hat soeben beschlossen, die Impfung gegen krebserregende humane Papillomviren (HPV) nun auch für Jungen im Alter von 9 bis 14 Jahren zu empfehlen. Diese Empfehlung ist die Grundlage für eine Kostenübernahme durch die gesetzlichen Krankenkassen. Der Medizin-Nobelpreisträger Harald zur Hausen, Wegbereiter der HPV-Impfung, fordert bereits seit Jahren, auch die Jungen zu impfen.

Herr zur Hausen, seit der HPV-Impfstoff 2007 in Deutschland zugelassen wurde, fordern Sie, nicht nur Mädchen, sondern auch Jungen gegen HPV zu impfen. Freuen Sie sich über die STIKO-Entscheidung?
Zur Hausen: Das wurde auch höchste Zeit! Es gibt ja schon seit langem eine ganze Reihe an zwingenden Gründen dafür, auch Jungs zu impfen: Das offensichtlichste Argument ist, dass in nahezu allen Kulturen die jungen Männer mehr Sexualpartner haben als Frauen der gleichen Altersgruppe. Damit sind Männer die wichtigsten Verbreiter der Infektion. Ich habe immer plakativ gesagt: Würden wir nur die Jungs impfen, würden wir wahrscheinlich mehr Fälle von Gebärmutterhalskrebs verhüten als mit der ausschließlichen Impfung der Mädchen!

Profitieren denn die Männer selbst auch von der Impfung?
Zur Hausen: Auf jeden Fall, denn Männer sind nicht nur die Überträger, sondern auch die Opfer der Viren! Die Impfung schützt ja nicht nur vor Gebärmutterhalskrebs, sondern auch vor verschiedenen anderen Krebsarten, die auch Männer treffen können, und die durch die gleichen HPV-Typen ausgelöst werden, etwa Mund-Rachen-Krebs oder Analkrebs. Insgesamt gehen pro Jahr in Deutschland etwa 1.000 Krebsfälle bei Männern auf das Konto von HPV.
Neben dem wirksamen Schutz vor Krebs kann die Impfung auch vor den weitverbreiteten Genitalwarzen schützen, die zwar nicht lebensbedrohlich, dafür aber sehr hartnäckig und unangenehm sind. Werden Jungen geimpft, so profitieren außerdem auch homosexuelle Männer, die ein besonders hohes Risiko für HPV-bedingte Krebsarten haben.

Auch bislang war der Impfstoff schon für Jungen ab neun Jahren zugelassen – doch die Eltern mussten die Impfung selbst bezahlen. Was war die Konsequenz?
Zur Hausen: Das hatte zur Folge, dass bislang nur ein verschwindender Bruchteil der Jungen gegen die krebserregenden HPV geschützt ist. Ohne eine Impfung der Jungen können wir nie eine so genannte Herdenimmunität erreichen. Darunter versteht man eine ausreichend hohe Immunisierungsrate, die eine weitere Ausbreitung der HPV-Infektion verhindert. Die dafür erforderliche Impfrate unterscheidet sich je nach Krankheitserreger. Bei HPV schätzen wir, dass etwa 85 Prozent aller Jugendlichen geimpft sein müssen, um die Infektionskette zu durchbrechen. Doch angesichts der in Deutschland skandalös niedrigen HPV-Impfrate von Mädchen, die gerade mal bei 40 Prozent liegt, sind wir meilenweite von einem solchen Gemeinschaftsschutz entfernt.
Ich kann daher nur an die Eltern aller Jungs appellieren: Nutzen Sie die Chance und schützen Sie Ihren Sohn und seine zukünftigen Partnerinnen vor diesen vermeidbaren Krebserkrankungen!

Gibt es inzwischen Zahlen zum Rückgang von Gebärmutterhalskrebs unter den geimpften Frauen?
Zur Hausen: Kürzlich haben finnische Kollegen die Frauen untersucht, die im Rahmen der Zulassungsstudien die Impfung erhalten haben. Bei den geimpften Frauen wurde kein einziger Fall von HPV-bedingten Krebsarten festgestellt, bei den nicht geimpften Kontrollen dagegen in der erwarteten Anzahl.
Für die Frauen, die erst nach der Markteinführung der Vakzine, also nach 2006, geimpft wurden, ist es noch immer zu früh für statistisch gesicherte Aussagen zum Rückgang von Gebärmutterhalskrebs: Nach einer HPV-Infektion dauert es schätzungsweise 15 bis 30 Jahre, bis eine Krebserkrankung festgestellt werden kann. Aber der signifikante Rückgang von behandlungspflichtigen Krebsvorstufen, aus denen mit einer hohen Wahrscheinlichkeit Krebs entsteht, spricht eine deutliche Sprache.

Harald zur Hausen, von 1983 bis 2003 Vorstandvorsitzender des Deutschen Krebsforschungszentrums hat mit seiner Forschung den Zusammenhang von Viren und Gebärmutterhalskrebs belegt und damit die Grundlage für die Entwicklung der HPV-Impfstoffe geschaffen. Dafür wurde er 2008 mit dem Nobelpreis für Medizin ausgezeichnet.

Die STIKO empfiehlt für Jungen eine Nachholimpfung bis zum Alter von 17 Jahren. Die HPV-Impfempfehlung für Mädchen bleibt unverändert.

Die Empfehlung der STIKO gilt erst mit der Veröffentlichung im Epidemiologischen Bulletin 34/2018 des Robert-Koch Instituts. Im Anschluss an diese Veröffentlichung prüft der Gemeinsame Bundesausschuss die Kostenübernahmen durch die gesetzlichen Krankenversicherer. Eltern, die ihre Söhne umgehend impfen lassen möchten, sollten bis dahin eine mögliche Kostenübernahme direkt mit ihrer Krankenkasse besprechen.

Ein Foto von Harald zur Hausen steht zur Verfügung unter:
www.dkfz.de/de/presse/pressemitteilungen/2018/bilder/ZurHausen_Harald.jpg

Das Deutsche Krebsforschungszentrum (DKFZ) ist mit mehr als 3.000 Mitarbeiterinnen und Mitarbeitern die größte biomedizinische Forschungseinrichtung in Deutschland. Über 1.000 Wissenschaftlerinnen und Wissenschaftler erforschen im DKFZ, wie Krebs entsteht, erfassen Krebsrisikofaktoren und suchen nach neuen Strategien, die verhindern, dass Menschen an Krebs erkranken. Sie entwickeln neue Methoden, mit denen Tumoren präziser diagnostiziert und Krebspatienten erfolgreicher behandelt werden können. Die Mitarbeiterinnen und Mitarbeiter des Krebsinformationsdienstes (KID) klären Betroffene, interessierte Bürger und Fachkreise über die Volkskrankheit Krebs auf. Gemeinsam mit dem Universitätsklinikum Heidelberg hat das DKFZ das Nationale Centrum für Tumorerkrankungen (NCT) Heidelberg eingerichtet, in dem vielversprechende Ansätze aus der Krebsforschung in die Klinik übertragen werden. Im Deutschen Konsortium für Translationale Krebsforschung (DKTK), einem der sechs Deutschen Zentren für Gesundheitsforschung, unterhält das DKFZ Translationszentren an sieben universitären Partnerstandorten. Die Verbindung von exzellenter Hochschulmedizin mit der hochkarätigen Forschung eines Helmholtz-Zentrums ist ein wichtiger Beitrag, um die Chancen von Krebspatienten zu verbessern. Das DKFZ wird zu 90 Prozent vom Bundesministerium für Bildung und Forschung und zu 10 Prozent vom Land Baden-Württemberg finanziert und ist Mitglied in der Helmholtz-Gemeinschaft Deutscher Forschungszentren.

www.dkfz.de

Quelle: idw

(nach oben) 


Schützen Biberdämme vor Hochwassern? HSWT erforscht Grundlagen zum Wasserrückhalt durch Biberdämme

Gerhard Radlmayr ZFW – Forschungskommunikation
Hochschule Weihenstephan-Triesdorf

Die Wissenschaftler Prof. Dr. Volker Zahner und Prof. Dr. Carsten Lorz vom Institut für Ökologie und Landschaft der Hochschule Weihenstephan-Triesdorf erarbeiteten in dem Forschungsprojekt „Die Wirkung des Europäischen Bibers (Castor fiber) auf den natürlichen Wasserrückhalt an ausgewählten Fließgewässern Bayerns“ die Grundlagen der hydraulischen und hydrologischen Wirkung von Biberdämmen bei Hochwasserereignissen in Europa. In dem damit in Verbindung stehenden Projekt „ProNaHo“ des Lehrstuhls für Hydrologie und Flussgebeitsmanagement der TU München erfolgt dann die prozessbasierte Modellierung.

Nach März 1988, Pfingsten 1999, dem August 2002 und 2005 trat im Juni 2013 das fünfte außergewöhnliche Hochwasserereignis in Bayern innerhalb eines verhältnismäßig kurzen Zeitraums auf. Die bayerische Staatsregierung beschloss daraufhin die Anstrengungen im Hochwasserschutz zu verstärken. Neben dem „Technischen Hochwasserschutz“ und der „Hochwasservorsorge“ gilt in diesem Zusammenhang auch dem „Natürlichen Rückhalt“ besondere Aufmerksamkeit. Die Hochschule Weihenstephan-Triesdorf (HSWT) sollte in einem vom Bayerischen Staatsministerium für Umwelt und Verbraucherschutz geförderten Forschungsprojekt untersuchen, inwieweit Biberdämme einen wirksamen Beitrag für den natürlichen Wasserrückhalt leisten können. Bayern ist heute wieder weitgehend vom Biber besiedelt. Dabei weisen rund 30-40 % der Reviere Dämme auf. Diese Dämme haben einen hohen Stellenwert für den Naturschutz, weisen aber auch ein hohes Konfliktpotenzial auf. Gerade unter hydraulischen und hydrologischen Aspekten gab es bislang wenig belastbare Informationen zur Bewertung und Modellierung im Hochwasserfall.

Die Wissenschaftler Prof. Dr. Volker Zahner und Prof. Dr. Carsten Lorz vom Institut für Ökologie und Landschaft der HSWT erarbeiteten in dem Forschungsprojekt „Die Wirkung des Europäischen Bibers (Castor fiber) auf den natürlichen Wasserrückhalt an ausgewählten Fließgewässern Bayerns“ die Grundlagen der hydraulischen und hydrologischen Wirkung von Biberdämmen bei Hochwasserereignissen in Europa. In dem damit in Verbindung stehenden Projekt „ProNaHo“ des Lehrstuhls für Hydrologie und Flussgebeitsmanagement der TU München erfolgt dann die prozessbasierte Modellierung. Mit einer bayernweiten Umfrage wurden in verschiedenen Naturräumen die Anzahl und Verteilung von Biberdämmen erfasst und nach relevanten Parametern typisiert. Dabei zeigte sich, dass Biber nur an kleinen Fließgewässern Dämme bauen, die meist weniger als sechs Meter breit und weniger als 70cm tief sind sowie mindestens einen Gehölzsaum aufweisen. Dämme werden nur in nicht zu steilem Gelände errichtet, bei über 7% Gefälle finden sich in aller Regel keine Dämme mehr. Je nach Topographie und Geländeneigung entstehen Dammkaskaden. Das durch die Dämme zurück gehaltene Sedimentvolumen schwankt dabei in Abhängigkeit der Fläche der Biberteiche zwischen 42 und 3858 Kubikmetern.

Vor allem der als Freibord bezeichnete Abstand zwischen dem Wasserspiegel und der Oberkante des Dammes entscheidet in Verbindung mit der Biberteichgröße darüber, wie viel der anströmenden Wassermenge aufgenommen und zurückgehalten wird. Die bei den stabilsten Dämmen im Bayerischen Wald ermittelte Maßzahl HQ10 sagt dabei aus, dass die dortigen Biberdämme zehnjährigen Hochwasserereignissen standgehalten haben. Mit ansteigender Biberpopulation steigt auch die Zahl der Dämme, jedoch nicht zwangsläufig proportional. Wenn die günstigsten Reviere besetzt sind, führt der Populationsdruck dazu, dass marginalere (kleinere) Gewässer besiedelt werden, die ohne Dammbauten für den Biber nicht bewohnbar wären. So entstehen Dämme vor allem in Kleingewässern und in Oberläufen, wie es zum Beispiel in Unterfranken der Fall war. Die potentielle Wirkung von Biberdämmen auf den Hochwasserabfluss wird durch die Verringerung der Fließgeschwindigkeit, die durch das Freibord zurückgehaltene Wassermenge sowie längerfristig von der Dammstabilität bestimmt.

Weitere Informationen:
https://forschung.hswt.de/web/915/show_new

Quelle: idw

(nach oben) 


Brustkrebs-Verdacht: Bis zu 45 Prozent mehr Tumore per Ultraschall entdecken

Friederike Gehlenborg Pressestelle
Deutsche Gesellschaft für Ultraschall in der Medizin (DEGUM)

Berlin – Brustkrebs?! Sobald dieser Verdacht besteht, ist die Sorge bei Patientinnen groß. Bei einer frühen Diagnose sind die Heilungschancen zwar recht hoch, jedoch bleiben viele Tumore zu lange unentdeckt. Das Problem: Mit der Röntgenuntersuchung der Brust – dem hierzulande häufigsten Diagnoseverfahren – kann ein Großteil der sogenannten Mammakarzinome häufig nicht eindeutig identifiziert werden. Wenn jedoch die Ultraschalldiagnostik ergänzend eingesetzt wird, können bis zu 45 Prozent mehr invasive Karzinome erkannt werden.

Auf einer Pressekonferenz der Deutschen Gesellschaft für Ultraschall in der Medizin e.V. (DEGUM) fordern Experten deshalb, dass die Brustuntersuchung per Ultraschall schon bei Routineuntersuchungen zur Früherkennung von Krebs standardmäßig zum Einsatz kommen sollte. Die Pressekonferenz findet am Dienstag, den 19. Juni in Berlin statt.

„Der hohe Mehrwert der Sonografie zur Krebsfrüherkennung ist viel zu wenig bekannt“, bemängelt DEGUM-Experte Professor Dr. med. B. Joachim Hackelöer, der unter anderem Professuren für Gynäkologie und Geburtshilfe an Universitäten in Hamburg und Marburg innehatte. So habe der Medizinische Dienst des Spitzenverbandes Bund der Krankenkassen (MDS) den Nutzen dieser Untersuchung vor kurzem in einem Beurteilungsverfahren von mehreren Individuellen Gesundheitsleistungen (IGeL-Leistungen) als unklar eingestuft. Nach Ansicht von Hackelöer besteht vor diesem Hintergrund ein dringender Aufklärungsbedarf.

Doch warum ist der Nutzen des Brustultraschalls so groß? „Die weibliche Brust besteht aus einem Milchdrüsengewebe. Bindegewebe und Fett hüllen dieses Drüsengewebe ein“, so Hackelöer. „Durch die Ultraschalluntersuchung der Brust wird das Drüsen- und Bindegewebe mit hellen Echos dargestellt, Karzinome hingegen oft mit dunklen Echos.“ So entsteht ein Echokontrast, der die Diagnose wirksam ermöglicht. Im Gegensatz dazu weist die Röntgenuntersuchung der Brust – die sogenannte Mammografie – keinen so klaren Kontrast zwischen dem Tumor und dem übrigen Drüsen- und Bindegewebe auf. Hier werden die Karzinome hell oder weiß abgebildet und können deshalb durch das übrige restliche Drüsen- und Bindegewebe maskiert oder verborgen werden. Besonders häufig ist das bei Frauen mit dichtem Gewebe – also einem hohen Anteil an Milchdrüsengewebe – der Fall. Diese Frauen sollten nach Ansicht der DEGUM deshalb dringend auch per Ultraschall untersucht werden – und das sind zahlreiche: „Nach neuesten Daten hat fast die Hälfte der Frauen ab 50 Jahren ein dichtes Brustgewebe. „Problematisch ist, dass derzeit im Deutschen Mammographie Screening-Programm die Brustdichte nicht systematisch erfasst und mitgeteilt wird. Frauen mit extrem dichtem Drüsengewebe haben jedoch ein höheres Risiko, an Brustkrebs zu erkranken“, sagt Professor Dr. med. Alexander Mundinger, Chefarzt der Brustzentrum-Sektion Bildgebende und minimal-invasive Mammadiagnostik der Niels-Stensen-Kliniken am Franziskus-Hospital Harderberg in Georgsmarienhütte. Gleichzeitig sei das Risiko der Maskierung von Brustkrebs bei diesen Patientinnen am höchsten. „Aber auch ihnen wird zur Früherkennung von Brustkrebs hierzulande lediglich alle zwei Jahre eine Röntgenuntersuchung empfohlen und finanziert. Das muss sich dringend ändern.“

Damit zukünftig mehr Brustkrebstumore frühzeitiger entdeckt werden, fordern die DEGUM-Experten ein neues Konzept: „Wir benötigen in Deutschland dringend ein risikoadaptiertes, optimiertes Screening-Programm. Hier sollte die Mammografie zwingend durch die Ultraschall-Diagnostik der Brust ergänzt werden“, meint Hackelöer. „Zudem muss die Früherkennung sehr individualisiert durchgeführt werden.“ Ideal wäre es nach Ansicht der DEGUM-Experten, wenn die Ultraschall- und die Röntgenuntersuchung – je nach Dichtegrad der Brust – bei Frauen ab dem 40. Lebensjahr etwa einmal pro Jahr standardisiert angewendet würde. Diese Untersuchungen sollten möglichst DEGUM-zertifizierte Gynäkologen und Radiologen durchführen. Nach Ansicht der Ultraschall-Experten sollte das DEGUM-Konzept bereits in die Screening-Ausbildung der angehenden Ärzte integriert werden – so könne eine hohe Qualität in der Sonografie am besten gewährleitet werden.

Weiterführende Informationen:
https://www.mds-ev.de/presse/pressemitteilungen/neueste-pressemitteilungen/2018-…

Quelle: idw

(nach oben) 


Der gläserne Fußballer

Dr. Ulrich Marsch Corporate Communications Center
Technische Universität München

Wie wird Erfolg im Fußball messbar? Mit der heute verfügbaren Menge an Positionsdaten im Fußball scheint diese Frage vor einer Weltmeisterschaft besonders interessant. Trainingswissenschaftler Dr. Daniel Link von der Technischen Universität München (TUM) hat ein Modell entwickelt, mit dem sich die Torgefährlichkeit einer Mannschaft messen lässt.

Tore lassen im Fußball nur bedingt eine Aussage über die Leistung einer Mannschaft und die Qualität ihrer Spieler zu: Sie fallen selten, manchmal durch eine einzige Unaufmerksamkeit oder einer hochdominanten Mannschaft fehlt das Quäntchen Glück.

Indikatoren wie Torschüsse, erfolgreiche Pässe, Zweikämpfe, Ballbesitz und zurückgelegte Distanzen sind insbesondere in den Medien weit verbreitet, jedoch auch ihr Nutzen ist als Maßeinheit für Leistung zu hinterfragen. Im Halbfinale der letzten Weltmeisterschaft 2014 beispielsweise hatte Deutschland weniger Torschüsse als Brasilien (im Verhältnis 14:18), aber kaum ein Zuschauer würde an der Überlegenheit Deutschlands in diesem Spiel (7:1 Tore) zweifeln.

Für das Buch „Data Analytics in Professional Soccer“ von Dr. Daniel Link sind Situationen, in denen die Möglichkeit besteht ein Tor zu erzielen, zentrales Kriterium für die „Leistung“ im Fußball. „Im Fußball kommt es primär darauf an, dass eine Mannschaft mit dem Ball in den torgefährlichen Bereich um das Tor kommt und den Gegner umgekehrt daran hindert“, sagt der Wissenschaftler vom Lehrstuhl für Trainingswissenschaft und Sportinformatik der TUM. In dem gerade veröffentlichten Werk präsentiert er sechs Einzelstudien mit innovativen mathematischen Ansätzen zur Spielanalyse und Spielerbewertung im Profifußball.

Echtzeit-Analyse mithilfe von optischem Tracking
Der Trainingswissenschaftler stellt in dem ursprünglich in „PLOS One“ veröffentlichten Kapitel 3 objektive Kriterien vor, um in Echtzeit die Mannschaftsleistung mit einem eigens dafür entwickelten Algorithmus festzustellen. Mit seinem Verfahren ermittelt er für jeden Zeitpunkt, zu dem ein Spieler im Ballbesitz ist, eine quantitative Darstellung der Wahrscheinlichkeit, dass ein Tor erzielt wird – „ich bezeichne dies als Dangerousity“, sagt Link. Die Berechnung dieser Metrik basiert auf der räumlichen Konstellation von Spieler und Ball und besteht aus den vier Komponenten Druck, Dichte, Ballkontrolle und Spielfeldzone. Der englische Begriff Dangerousity wird in der Sportdaten-Community inzwischen weltweit referenziert.

Mit diesem Ansatz hat der Autor in Zusammenarbeit mit der Deutschen Fußball Liga (DFL) 64 Bundesligaspiele ausgewertet. Die Positionsdaten der Spieler und des Balls wurden über ein optisches Tracking-System erfasst. Außerdem wurde die automatische Bewertung durch Links Algorithmus mit Bewertungen durch semi-professionelle Fußballtrainer bei hundert Spielszenarien verglichen. Hierbei zeigte sich eine hohe Übereinstimmung zwischen der Einschätzung der Szenen zwischen der Maschine und dem Menschen. Die Auswertung erfolgte mit Unterstützung des DFL-Tochterunternehmens Sportec Solutions (STS).

„Aus der Gefährlichkeit lassen sich weitere Metriken ableiten, mit denen Fragen zur Analyse des Spiels beantwortet werden können“, erklärt der Sportwissenschaftler seinen neuen Ansatz. „Wir verwenden diese Metriken, um einzelne Aktionen in einem Spiel zu analysieren, Spielpassagen zu beschreiben und die Leistung als auch Effizienz von Teams über die Saison zu charakterisieren.“ Für zukünftige Studien würden sie ein zufalls- und ergebnisunabhängiges Kriterium darstellen, um den Einfluss von zentralen Ereignissen in einem Fußballspiel, verschiedenen Spielsystemen oder taktischen Gruppenkonzepten auf den Erfolg hin zu untersuchen.

Publikation:
Daniel Link: Data Analytics in Professional Soccer – Performance Analysis Based on Spatiotemporal Tracking Data, Springer Vieweg 2018. ISBN 978-3-658-21177-6

Kontakt:
PD Dr. Daniel Link
Technische Universität München
Lehrstuhl für Trainingswissenschaft und Sportinformatik
Tel: +49.89.289.24498
daniel.link@tum.de

Weitere Informationen:
https://www.tum.de/die-tum/aktuelles/pressemitteilungen/detail/article/34675/

Quelle: idw

(nach oben)


Biomasse effizient nutzen

Britta Widmann Kommunikation
Fraunhofer-Gesellschaft

Große Waldgebiete und Industriestandorte liegen meist weit voneinander entfernt. Wegen des schwierigen Transports wird Holz daher nur begrenzt als industrieller Rohstoff genutzt. Im EU-Projekt SteamBio haben Forschende des Fraunhofer-Instituts für Grenzflächen- und Bioverfahrenstechnik IGB gemeinsam mit Partnern ein spezielles Dampftrocknungs-Verfahren entwickelt. Damit lassen sich die Transportkosten in Zukunft deutlich senken. Ein weiterer Pluspunkt: Das Verfahren wird bereits in einer spanischen Pilotanlage angewendet. Vom 11. bis 15. Juni wird ein Modell der Anlage auf der Messe ACHEMA in Frankfurt am Main (Halle 9.2, Stand D66) präsentiert.

Die industrielle Nutzung von Holz bietet große Chancen, Erdöl und Erdgas zu ersetzen. Die Herausforderung besteht darin, mit innovativen Verfahren die Biomasse so zu behandeln, dass nachhaltige Produkte und Produktionswege entstehen.

Üblicherweise werden Waldrestholz, Schwachholz und anderes minderwertiges Holz zu Hackschnitzeln zerkleinert. Hackschnitzel sind ein wichtiger Rohstoff für die holzverarbeitende Industrie. Außerdem dienen sie in Heizkraftwerken und Hackschnitzelheizungen als Brennstoff. Der hohe Wassergehalt der frischen Hackschnitzel verursacht zwei Probleme: Das Transportgewicht ist sehr hoch und die feuchte Masse lässt sich schlecht lagern. Schützt man die Hackschnitzel nicht vor Regen, verrottet das Material schnell.

Hackschnitzel transportfähig machen
Ein neues Verfahren, Hackschnitzel transport- und lagerfähig zu machen, haben Forscherinnen und Forscher des Fraunhofer-Instituts für Grenzflächen- und Bioverfahrenstechnik IGB nun im EU-Projekt SteamBio entwickelt – gemeinsam mit zehn weiteren Projektpartnern aus vier europäischen Ländern. »Statt die Biomasse gehäckselt zu transportieren, torrefizieren wir sie«, erläutert Siegfried Egner, Abteilungsleiter am IGB und Koordinator des Projekts SteamBio. »Wir erhitzen die Biomasse in einer Dampfatmosphäre ohne Sauerstoff. Von den drei Hauptbestandteilen der Biomasse – Cellulose, Lignin und Hemicellulose – treiben wir auf diese Weise einen komplett aus, und zwar die Hemicellulose.« Das Gewicht wird erheblich reduziert, der spezifische Heizwert deutlich erhöht und das Material kann zu hochreaktivem Pulver vermahlen werden.

Die torrefizierte Biomasse ist wasserabweisend und hat ein deutlich besseres Brennverhalten, da sie nur noch aus Wasserstoff und Kohlenstoff besteht. Die Biomasse kann als offenes Schüttgut transportiert werden, da Regen an der Oberfläche abperlt, ohne in das Innere einzudringen. Zudem ist die torrefizierte Biomasse deutlich leichter als das unbehandelte Material – das spart erheblich Transportkosten.

Kohle durch Biomasse ersetzen
Die torrefizierten Holzhackschnitzel lassen sich leicht zwischen zwei Fingern zerreiben. Man kann sie zu Pellets pressen oder zu Staub vermahlen. Durch die größere Oberfläche hat der Biomasse-Staub bei der stofflichen Nutzung eine höhere Reaktivität als größere Materialstückchen. Zum anderen kann er bei der energetischen Nutzung mit Steinkohle-Staub vermischt und in die Feuerung von Kohlekraftwerken eingeblasen werden. Die Kohle ließe sich sogar bei gleicher Feuerungstechnik gänzlich durch Biomasse ersetzen.
Chemikalien nachhaltig erzeugen

Besonders wertvoll sind die flüchtigen Substanzen, die bei der Torrefizierung entstehen. Aus ihnen lassen sich Chemikalien gewinnen, die als Ausgangsmaterial für viele andere Industrieprodukte dienen. Diese Plattformchemikalien wurden bisher aus Erdöl oder Erdgas gewonnen, über die Torrefizierung lassen sie sich dagegen nachhaltig erzeugen. »Die Plattformchemikalien werfen bei vielen Biomasse-Materialien so viel Gewinn ab, dass sie den gesamten Torrefizierungsprozess finanzieren«, sagt Dr. Antoine Dalibard, Gruppenleiter am Fraunhofer IGB.

Dampftrocknung bei über 200 Grad
Doch was genau geschieht bei der Wärmebehandlung? »Die Torrefizierung an sich ist kein neues Verfahren«, erklärt Bruno Scherer, Projektingenieur am IGB. »Im SteamBio-Projekt setzen wir auf die am IGB entwickelte Dampftrocknungs-Technologie, die wir für diesen Prozess angepasst haben. Wir arbeiten hier bei Temperaturen zwischen 200 bis 250 Grad Celsius.« Das Besondere an der Technologie: Die in der Biomasse enthaltene Feuchte sowie dampfförmige Reaktionsprodukte der Torrefizierung werden kontrolliert im Prozessraum gehalten und bilden selbst das Prozessmedium. »Wir arbeiten also mit überhitztem Dampf«, verdeutlicht Scherer.

Die hohe Temperatur trocknet die Biomasse und führt dazu, dass niedrig siedende organische Verbindungen flüchtig werden. Während Cellulose und Lignin als Feststoff zurückbleiben, gehen die flüchtigen Stoffe in die Gasphase über. Mithilfe spezieller Kondensatoren fangen die Forscher diese gasförmigen Substanzen auf, kühlen sie selektiv ab und gewinnen sie auf diese Weise als Flüssigkeiten zurück.

Eine Pilotanlage ist bereits im Einsatz: Sie wurde beim Projektpartner Heckmann Metall- und Maschinenbau GmbH gefertigt und dort bereits betrieben – sieben Tage die Woche rund um die Uhr. Als Biomasse wurde Buche verwendet. Seit Januar 2018 steht die Anlage in Spanien. Hier torrefizieren Projektpartner Kiefern-, Eichen- und Buchenholz sowie Rebschnitt und Reststoffe der Olivenproduktion. Auf der Messe ACHEMA 2018 in Frankfurt am Main zeigten die Forscherinnen und Forscher vom Fraunhofer IGB eine Modell-Pilotanlage sowie getrocknete und torrefizierte Proben am Fraunhofer-Gemeinschaftsstand in Halle 9.2, Stand D66.

Weitere Informationen:

https://www.fraunhofer.de/de/presse/presseinformationen/2018/juni/biomasse-effiz…

Quelle: idw

(nach oben)


Achema 2018: Bierbrauen – Braurückstände sollen nachhaltige Verwendung finden

Melanie Löw Presse- und Öffentlichkeitsarbeit
Technische Universität Kaiserslautern

Um die 104 Liter Bier hat jeder Deutsche 2016 im Schnitt getrunken. Beim Brauen des Gerstensafts fallen viele Rückstände an, europaweit kommen pro Jahr circa 400.000 Tonnen zusammen. Nur ein Teil davon wird als Tierfutter wiederverwertet. Wie dieser Abfall nachhaltig genutzt werden kann, zum Beispiel als Rohstoff für die Chemie-Industrie oder als Quelle für pharmakologische Wirkstoffe, daran arbeiten Forscherteams aus drei Fachbereichen an der Technischen Universität Kaiserslautern (TUK) in einem europäischen Projekt.

Beim Brauen setzen Hefen die im Malz enthaltenen Zucker während der Gärung zu Alkohol und Kohlendioxid um. Weitere Bestandteile aus dem Getreidemalz benötigen die Mikroorganismen, um zu wachsen und sich zu vermehren. Trotzdem fällt hierbei viel Abfall an. In diesen Rückständen, in Fachkreisen auch Treber genannt, stecken noch etliche wertvolle Inhaltstoffe. Hier setzt das Projekt an, an dem drei Arbeitsgruppen der TUK gemeinsam mit Kooperationspartnern forschen: Sie untersuchen, wie der Treber künftig nachhaltig und ressourcenschonend genutzt werden kann.

Bei Professor Dr. Roland Ulber im Lehrgebiet Bioverfahrenstechnik geht das Team um die Doktoranden Jens Weiermüller und Alexander Akermann der Frage nach, welche Substanzen anfallen, wenn die Brau-Rückstände weiter fermentiert werden. „Wir nutzen dazu verschiedene Mikroorganismen wie Pilze und Bakterien“, sagt Akermann. Bei diesen Prozessen fallen eine Vielzahl von chemischen Produkten an, wie etwa Milchsäure. Sie könnte zum Beispiel in Zukunft als Ausgangsstoff für Bioplastik für die Industrie dienen.

In der Anorganischen Chemie beschäftigt sich das Forscherteam um Professor Dr. Werner Thiel und die Doktoranden Ranja Saynisch und Pascal Weingart mit den Fetten, die im Treber vorkommen. „Sie enthalten beispielsweise zahlreiche ungesättigte Fettsäuren, die die Hefen bei der Gärung nicht brauchen“, sagt Thiel. Diese Stoffe möchten die Chemiker zunächst genauer identifizieren. In einem nächsten Schritt möchten sie daraus Produkte für die Industrie aufbereiten. „Aus den Fetten lässt sich etwa Glyzerin gewinnen, das zu Zwischenprodukten für die chemische Industrie umgewandelt werden kann“, fährt der Professor fort. „Aus den ungesättigten Fettsäuren kann man unter anderem Vorprodukte für die Kunststoffherstellung gewinnen. Dazu werden wir die nötigen Katalysatoren entwickeln.“

Das Team vom Fachgebiet Lebensmittelchemie und Toxikologie um Professorin Dr. Elke Richling mit den Doktorandinnen Daniela Becker und Verena Kirsch wird Substanzen als auch Extrakte, die unter anderem von Projektpartnern aus dem Treber gewonnen werden, auf ihre biologische Aktivität untersuchen. So werden diese zunächst hinsichtlich möglicher toxikologischer Wirkungen geprüft. „Wir müssen uns rückversichern, dass bei den Stoffen keinerlei Gefahr für die Gesundheit besteht“, sagt Kirsch. Darüber hinaus werden sie untersuchen, wie die Substanzen den Zuckerstoffwechsel des Menschen beeinflussen. „Es gibt einige Hinweise darauf, dass verschiedene Stoffe aus dem Treber die Aufnahme von Zucker ins Blut unterbinden“, sagt Becker weiter. „Wir werden uns anschauen, welchen Einfluss sie genau haben.“ Möglicherweise ließe sich mit den gewonnenen Erkenntnissen eines Tages der Glukosestoffwechsel beeinflussen. Dies ist bei der Behandlung von Diabetes von großer Bedeutung.

Am Projekt „BIOVAL“ sind neben der TUK die Saar-Uni sowie die Universitäten in Lothringen, Luxemburg und Lüttich sowie das belgische Unternehmen Celabor beteiligt. Der Europäische Strukturfond zur regionalen Entwicklung (EFRE) fördert es mit 1,84 Millionen Euro. Das Gesamtbudget liegt bei über drei Millionen Euro.

Der Auftritt der Forscher der TU Kaiserslautern auf der Messe wird von Klaus Dosch vom Referat für Technologie und Innovation organisiert. Er ist Ansprechpartner für Unternehmen und vermittelt unter anderem Kontakte zur Wissenschaft.
Kontakt: Klaus Dosch, E-Mail: dosch@rti.uni-kl.de, Tel.: 0631 205-3001

Quelle: idw

(nach oben)


Studie: Schlafqualität beeinflusst Leistungsfähigkeit stärker als Schlafdauer

Thomas Joppig Corporate Communications & Public Relations
Jacobs University Bremen gGmbH

Um tagsüber fit und leistungsfähig zu sein, spielen eine gesunde, fettarme Ernährung sowie ungestörter Schlaf eine wichtige Rolle. Von geringerer Bedeutung ist dagegen die Dauer des Schlafes. Das ist das Ergebnis einer jetzt in der Zeitschrift „Health Behavior & Policy Review“ veröffentlichten Studie, die an der Jacobs University Bremen entstanden ist.

Dr. Sonia Lippke, Professorin für Gesundheitspsychologie, hat gemeinsam mit zwei Kolleginnen aus ihrer Forschungsgruppe die Wechselbeziehungen zwischen Lebensqualität und Wohlbefinden einerseits und Schlaf und Ernährung andererseits untersucht. Konkret ging es dabei um den Fettgehalt der Nahrung sowie die Dauer und die Qualität des Schlafes.

Unzureichender Schlaf gilt generell gerade bei älteren Erwachsenen als Risikofaktor für eine Reihe von chronischen Erkrankungen wie Bluthochdruck, Herz-Kreislauf-Probleme oder Diabetes. Die Wissenschaft widmet sich dem Faktor Schlaf deshalb in jüngster Zeit vermehrt. Allerdings ist bislang wenig bekannt über die Zusammenhänge zwischen Schlaf und verschiedenen Lebensstilfaktoren wie etwa Ernährung. „Es war und ist uns deshalb wichtig, wechselseitige Einflüsse in diesem Bereich zu erkunden“, sagt Sonia Lippke. „Denn dies ermöglicht Empfehlungen und Maßnahmen, die wiederum die Lebensführung verbessern können.“

Für ihre Studie haben sie und ihr Team 126 Erwachsene befragt, die älter als 50 Jahre waren. Auffällig war insbesondere der positive Einfluss von fettreduzierter Ernährung und einem ungestörten, als gut empfundenen Schlaf auf die Leistungsfähigkeit tagsüber. Bei Untersuchungsteilnehmern, die von dieser Kombination profitierten, war die Dauer des Schlafes hingegen von untergeordneter Bedeutung. Sieben bis acht Stunden Schlaf gelten als ausreichend, aber es kommt insbesondere darauf an, dass diese erholsam sind.

Quelle:
Tan, S. L., Whittal, A., & Lippke, S. (2018). Associations among Sleep, Diet, Quality of Life, and Subjective Health. Health Behavior & Policy Review, 5(2), 46-58.

Über die Jacobs University Bremen:
In einer internationalen Gemeinschaft studieren. Sich für verantwortungsvolle Aufgaben in einer digitalisierten und globalisierten Gesellschaft qualifizieren. Über Fächer- und Ländergrenzen hinweg lernen, forschen und lehren. Mit innovativen Lösungen und Weiterbildungsprogrammen Menschen und Märkte stärken. Für all das steht die Jacobs University Bremen. 2001 als private, englischsprachige Campus-Universität gegründet, erzielt sie immer wieder Spitzenergebnisse in nationalen und internationalen Hochschulrankings. Ihre fast 1400 Studierenden stammen aus mehr als 100 Ländern, rund 80 Prozent sind für ihr Studium nach Deutschland gezogen. Forschungsprojekte der Jacobs University werden von der Deutschen Forschungsgemeinschaft oder dem Europäischen Forschungsrat ebenso gefördert wie von global führenden Unternehmen.

Weitere Informationen unter
www.jacobs-university.de

Thomas Joppig | Jacobs University Bremen gGmbH
Corporate Communications & Public Relations
t.joppig@jacobs-university.de | Tel.: +49 421 200-4504

Quelle: idw

(nach oben)


WM 2018: Fußball-Fans am Arbeitsplatz – Was ist erlaubt?

Melanie Hahn Presse & Öffentlichkeitsarbeit
Hochschule Fresenius

Am 14. Juni war Anpfiff: Mit dem Eröffnungsspiel startet die Fußball-WM 2018 in Russland. Vier Wochen lang wird nahezu ganz Deutschland wieder mit der deutschen Nationalmannschaft mitfiebern – auch während der Arbeitszeit. Welche Freiheiten Arbeitnehmer haben und was der Arbeitgeber nicht durchgehen lassen muss, erklärt der Arbeitsrechtler und Professor an der Hochschule Fresenius in Hamburg, Dr. Michael Fuhlrott.

Die Deutschen sind ein fußballbegeistertes Volk – besonders zu großen Turnieren wie der Weltmeisterschaft. Bis zu 35 Millionen Zuschauer verfolgten 2014 allein in Deutschland das Finale im Fernsehen. Einen Monat steht auch in diesem Sommer alles ganz im Zeichen des Fußballs. In der Vorrunde finden einige Spiele bereits während der Arbeitszeit um 16 Uhr statt. Für viele Arbeitnehmer ist es selbstverständlich, dass sie diese Spiele im Fernsehen, Radio oder auch im Internet live am Arbeitsplatz verfolgen. Doch wie sieht es arbeitsrechtlich aus? Dürfen Mitarbeiter für dieses Event ihre Arbeit unterbrechen? „Das dürfen sie nicht“, stellt Prof. Dr. Michael Fuhlrott eindeutig klar. „Weder für die Fußball-WM noch für andere Sportereignisse dürfen Mitarbeiter ihre Arbeit unterbrechen, um die Spiele zu verfolgen. Es sei denn, dies wurde ausdrücklich vom Arbeitgeber genehmigt.“ Der Arbeitgeber sei zudem dazu berechtigt, das Einschalten des Radios zu untersagen, auch wenn die Mitarbeiter parallel weiterarbeiten könnten. Dies trotzdem zu machen, sei zwar kein Grund für eine Kündigung, wohl aber für eine Abmahnung. Auch ein Anspruch auf Urlaub oder Freistellung besteht nicht: „Wollen alle Arbeitnehmer das Finale sehen und dafür einen Urlaubstag einreichen, so wird der Arbeitgeber anordnen dürfen, dass eine gewisse Mindestbesetzung weiterhin im Betrieb bleibt.“ Nach Siegen der Nationalelf wird häufig lange und ausgiebig gefeiert. Hier gilt: Alkoholisiert am Arbeitsplatz zu erscheinen, ist ebenfalls ein Grund für eine Abmahnung, in gravierenden Fällen sogar für eine Kündigung. „Um ein gutes Betriebsklima zu schaffen, sollte der Arbeitgeber allerdings während der WM auch mal ein Auge zudrücken,“ so der Jurist. „Gefährdet man weder die eigene Sicherheit noch die anderer, kann im Einzelfall auch in der Mittagspause ein Glas Bier oder Sekt erlaubt sein.“ Wichtig sei aber, so der Arbeitsrechtler Fuhlrott, dass man sich vorher dazu abstimme. Denn dann könne das gemeinsame Fiebern und Feiern auch integrativ wirken und das Betriebsklima stärken, wenn der Arbeitgeber etwa zum gemeinsamen WM-Spiel-Schauen einlädt und vielleicht sogar noch Würstchen und Bier stellt.

Weitere Informationen:
http://www.hs-fresenius.de

Quelle: idw

(nach oben)


Bei BMI größer 40 und Typ 2-Diabetes: Neue S3-Leitlinie empfiehlt sofortige Operation

Helena Reinhardt Pressestelle / Unternehmenskommunikation
Universitätsklinikum Leipzig AöR

UKL-Chirurg Prof. Dietrich gestaltet neue Handlungsempfehlungen maßgeblich mit
Operieren statt Insulin spritzen: Übergewichtigen Patienten mit einem „Body Mass Index“ (BMI) von 40 oder höher, die gleichzeitig an einer Typ 2-Diabetes leiden, wird zukünftig eine sofortige Operation empfohlen, weil konservative Therapien in diesen Fällen nicht zu einer Reduzierung des Risikos von Schlaganfällen und Herzinfarkten führen und eine nachhaltige Gewichtsreduktion meist nicht erreicht wird. Dieser metabolische Chirurgie genannte Eingriff ist einer der Kernpunkte der neuen S3-Leitlinie „Chirurgische Therapie der Adipositas und metabolischer Erkrankungen“. Über zwei Jahre haben Ärzte, Patientenvertreter und Selbsthilfegruppen aus ganz Deutschland daran gearbeitet. Geleitet hat diese Kommission Prof. Arne Dietrich, Geschäftsführender Direktor der Klinik und Poliklinik für Viszeral-, Transplantations-, Thorax- und Gefäßchirurgie am UKL.

Gemeinsam mit Dr. Tatjana Schütz vom IFB Adipositas-Erkrankungen gestaltete er die neue Leitlinie der Deutschen Adipositas-Gesellschaft somit maßgeblich mit. Sie stellt ein Instrument dar, die Behandlung von Adipositas und metabolischen Erkrankungen zu optimieren. Allgemein gelten Leitlinien als wissenschaftlich fundierte, praxisorientierte Handlungsempfehlungen, sind jedoch keine gesetzlichen Regelungen.
Erstmals wird hier nun zwischen der klassischen Adipositas-Chirurgie und der metabolischen Chirurgie unterschieden.
Auch bei ersterer setzt das Papier nun viel eindeutigere Formulierungen als früher. Bei Patienten mit einem BMI von mehr als 50 soll von nun an sofort über eine OP nachgedacht werden, da konservative Therapien in diesem hohen BMI-Bereich kaum Erfolgsaussichten haben. „Operationen zeigen nachhaltig guten Erfolg, vor allem was Langzeitüberleben und Lebensqualität betrifft“, sagt Prof. Dietrich, „Diät und Sport, was natürlich jeder Übergewichtige oder Adipöse zuerst versuchen sollte, führen nur extrem selten zu einem bleibendem Erfolg im BMI-Bereich über 50.“

Adipositas sei heute eine von der Weltgesundheitsorganisation WHO anerkannte Krankheit mit komplexen Ursachen, betont der UKL-Experte. Es liege nicht einfach nur an falscher Ernährung.
Gleichwohl sei Essen weiterhin „ein Mittel zum Glücklich sein“, Lebensmittel seien hierzulande überall und preiswert zu haben. „Adipositas – davon spricht man ab einem BMI von 30 – kann man leider zu oft nicht einfach durch eine reine Änderung des Lebensstils rückgängig machen“, hebt Prof. Dietrich hervor.
Ziel aller Operationen, so steht es in der neuen Leitlinie, sei nicht primär die Gewichtsreduktion, sondern ebenso ein verbesserter Gesundheitszustand, höhere Lebensqualität und Lebenserwartung – erreicht über die Gewichtsreduktion.

Das Körpergewicht der Menschen in den westlichen und Schwellenländern stieg in den letzten Jahrzehnten kontinuierlich an. Adipositas geht oft mit einer Reihe bedeutsamer Erkrankungen einher, wie zum Beispiel Diabetes mellitus Typ 2, Bluthochdruck, Asthma, Schlafapnoesyndrom, bestimmte Krebsarten oder Lebererkrankungen. Sie reduziert bemerkbar die Lebenserwartung.

„Die Zahl adipositas-chirurgischer Eingriffe ist in den vergangenen Jahren auch in Deutschland gestiegen. Dazu beigetragen haben unter anderem neue Techniken, eine enorme Zunahme wissenschaftlicher Studien und die Erkenntnis, dass eine nachhaltige Gewichtsreduktion bei einem BMI von mehr als 40 bei der Mehrheit der Betroffenen nur durch einen chirurgischen Eingriff erreicht werden kann“, erklärt Prof. Dietrich.

Weitere Informationen:

http://www.awmf.org/leitlinien/detail/ll/088-001.html

Quelle: idw

(nach oben)


Zweites „Leben“ für Phosphor: Wie Phönix aus der Klärschlammasche

Franz-Georg Elpers Pressestelle
Deutsche Bundesstiftung Umwelt (DBU)

DBU unterstützt Verfahren zur Düngergewinnung mit 119.000 Euro – Als fertiges Produkt einsetzbar
Phosphor fördert in Form von Phosphat das Pflanzenwachstum und ist oft die Basis für Dünger. Doch der Abbau des Mineralstoffs birgt viele Probleme. Das macht die rund zwei Millionen Tonnen Klärschlamm, die in Deutschland pro Jahr anfallen und recyclingfähiges Phosphor enthalten, zu einer wichtigen Quelle. Mit der Firma Seraplant (Haldensleben) und der Materialforschungs- und Prüfanstalt an der Bauhaus-Universität Weimar hat die Firma Glatt Ingenieurtechnik (Weimar) eine Möglichkeit gefunden, phosphorhaltigen Dünger aus der Asche verbrannten Klärschlamms zu erzeugen. Dabei wird in einem zweistufigen Verfahren aus der Asche ein pflanzenverfügbares Düngergranulat gefertigt. So lässt sich der Kreislauf des Phosphors schließen. Die Deutsche Bundesstiftung Umwelt (DBU) unterstützt das Projekt fachlich und finanziell mit rund 119.000 Euro. DBU-Experte Dr. Maximilian Hempel: „Hier zeigt sich, wie Phosphor nicht nur umweltverträglich zurückgewonnen, sondern in Form eines marktfähigen Produktes direkt eingesetzt werden kann.“

Von der Klärschlammasche zum Dünger in zwei Schritten
Würde der in Deutschland anfallende Klärschlamm getrocknet, läge sein Gewicht bei rund zwei Millionen Tonnen pro Jahr – rund 60.000 Tonnen davon seien Phosphor, der lebensnotwendige Stoff für alle Organismen. „Bisher wird jedoch weniger als die Hälfte des Klärschlamms und damit seiner wertvollen Inhaltsstoffe genutzt. Das wollen wir mit unserem Verfahren ändern“, so Projektleiter Dr. Lars Leidolph von Glatt Ingenieurtechnik. In dem von seiner Firma entwickelten Verfahren wird in zwei Hauptverfahrensschritten aus der Asche des verbrannten Klärschlamms einsatzbereiter Standarddünger. Zunächst wird der Asche Phosphorsäure hinzugefügt, um die Phosphatumwandlung anzustoßen. Ohne diesen Schritt könnten die in der Asche enthaltenen Nährstoffe nicht von den Pflanzen aufgenommen werden. Indem die Minerale mit der Säure reagieren, entstehen für Pflanzen verfügbare und daher für die Düngemittelindustrie interessante Phosphate. Der Mischung aus Feststoff und Flüssigkeit (Suspension) können bei Bedarf weitere Nährstoffe in flüssiger sowie fester Form oder zusätzliche Phosphatquellen zugesetzt werden. Zudem ist das Verfahren für unterschiedliche Aschen geeignet. Anschließend wird die Suspension granuliert, sodass am Ende phosphorhaltiger Dünger entsteht. „Der so gewonnene Dünger entspricht den gesetzlichen Anforderungen und kann direkt in der Landwirtschaft verwendet werden“, so Leidolph weiter.

Bisherige Probleme durch zweistufiges Verfahren gelöst
Ein wichtiger Vorteil des Verfahrens sei die einfache technische Umsetzbarkeit. Zudem würde kein Rohphosphat sowie weniger Energie benötigt, und es entstünden keine Abfälle. Hempel: „Die Grundidee des Verfahrens wird schon länger getestet. Doch bisher verhinderten technische Probleme, dass es auch eingesetzt wird.“ Unkontrollierte Reaktionen der einzelnen Bestandteile, die schwankende Qualität des Düngers und schneller verschleißende Anlagen hätten aufgrund des zweistufigen Aufbaus im Rahmen des Projektes beseitigt werden können. Darüber hinaus können Schwankungen in der Zusammensetzung der Klärschlammaschen einfach ausgeglichen werden, indem die Rezeptur angepasst werde. Das sichere eine gleichbleibend hohe Qualität. Nun seien die Projektpartner dabei, das Verfahren in die industrielle Anwendung zu überführen. Zudem soll getestet werden, ob beispielsweise auch Gülle oder andere Stoffe mithilfe des Verfahrens in Dünger umgewandelt werden können. „Mit dem neuen Verfahren kann wirkungsvoll eine Lücke im Phosphor-Kreislauf geschlossen werden, die einen nachhaltigen Umgang mit dem Stoff bisher erschwert hat“, fasst Hempel zusammen.

Zum Hintergrund:
Phosphor ist Teil unserer Lebensgrundlage und kann nicht durch andere Stoffe ersetzt werden. Er fördert beispielsweise das Wachstum von Pflanzen, weshalb große Mengen davon als Dünger in der Landwirtschaft eingesetzt werden. Bisher wird Phosphor im Tagebau abgebaut. Doch das hat große Auswirkungen auf die Umwelt, findet häufig in Ländern mit schwieriger politischer Lage statt und benötigt viel Energie. Zudem ist er häufig mit Schadstoffen belastet. Über unsere Nahrung landet ein großer Teil des Phosphors schließlich im Klärschlamm. Dieser kann jedoch nicht mehr ohne weiteres in der Landwirtschaft wiederverwendet werden, da er häufig zu viele Schadstoffe enthält. Zwar gibt es alternative Rückgewinnungs-Verfahren. Sie benötigen bisher jedoch große Mengen Chemikalien und Energie.
So lange Phosphor nicht wiederverwendet wird, besteht die Gefahr, eine der von internationalen Experten definierten Belastungsgrenzen des Erdsystems zu überschreiten und die Chance zu verpassen, die 2015 beschlossenen globalen nachhaltigen Entwicklungsziele der Vereinten Nationen langfristig zu erreichen. Sie sollen eine nachhaltige Entwicklung auf ökonomischer, sozialer sowie ökologischer Ebene sichern.

Weitere Informationen:
https://www.dbu.de/123artikel37663_2442.html

Quelle: idw

(nach oben)


Biomasseforschungszentrum skizziert Änderungsvorschläge für das Ausschreibungsdesign im EEG 2017

Paul Trainer M.A. Presse- und Öffentlichkeitsarbeit
Deutsches Biomasseforschungszentrum

Mit der aktuellen Novellierung des Erneuerbare-Energien-Gesetz (EEG) wurde die zukünftige Förderung von Biomasseanlagen und anderen erneuerbaren Energieträgern auf ein Ausschreibungsverfahren umgestellt. Obwohl das Volumen von ca. 122 MWel installierter Leistung in der ersten Ausschreibungsrunde nicht vollständig ausgeschöpft wurde, lassen sich aus den ersten Erfahrungen bereits konkrete Vorschläge zur Verbesserung des Ausschreibungsdesigns ableiten. In einer jetzt vorgelegten Stellungnahme haben Wissenschaftler des DBFZ insgesamt sechs Änderungsvorschläge skizziert, welche auch Vorschläge von Verbänden aus der Bioenergiebranche berücksichtigen.

Im September 2017 wurde im Rahmen des novellierten Erneuerbare-Energien-Gesetzes die erste Ausschreibungsrunde für Bioenergieanlagen durchgeführt. Unter anderem aufgrund der langen durchschnittlichen Vergütungs-Restlaufzeit der meisten Bioenergieanlage, zeigte sich, dass das Interesse bislang noch verhalten ist. Das Ausschreibungsvolumen betrug ca. 122 MWel installierte Leistung. Von 33 Geboten mit einem Volumen von rund 41 MWel erhielten 24 Gebote mit einem Volumen von rund 28 MWel einen Zuschlag.

Obwohl das Volumen in der ersten Ausschreibungsrunde folglich nicht ausgeschöpft wurde, lassen sich aus den ersten Erfahrungen bereits konkrete Änderungsvorschläge zur Verbesserung des Ausschreibungsdesigns ableiten. So fordert das DBFZ in der jetzt vorgelegten Stellungnahme u.a. eine Verhinderung des Abbruchs der Flexibilisierung von Bestandsanlagen, die Erhöhung des Wettbewerbs im Ausschreibungsverfahren, eine Förderung der Güllevergärung außerhalb des Ausschreibungsverfahrens sowie die Verlängerung des Ausbaukorridors mit dem Ziel, den Technologiepfad zu erhalten. Auch eine Förderung von Kleinanlagen sowie ein Anreize zur Sektorkopplung sollten im Zuge der nächsten Novellierung angestrebt werden.

„Das Ziel des Ausschreibungsdesigns muss sein, den Wettbewerb innerhalb der Ausschreibungen für Biomasseanlagen zu erhöhen und Perspektiven für die Entwicklung des Anlagenbestands aufzuzeigen. Die Politik muss sich entscheiden, wie die Bioenergie im Rahmen des EEG weiterentwickelt werden soll. Sowohl für den möglichen Ausbau zur Flexibilisierung von Biogasanlagen als auch dem Ausbaupfad nach 2022 muss der politische Rahmen festgelegt werden“, so Mattes Scheftelowitz, einer der Autoren der Stellungnahme.

Download:
Das Dokument des DBFZ kann unter dem folgenden Link heruntergeladen werden:
www.dbfz.de/referenzen-publikationen/statements

Hintergrund EEG:
Das Erneuerbare-Energien-Gesetz (EEG) regelt seit dem Jahr 2000 den Ausbau der erneuerbaren Energien und wurde seither in mehreren Stufen novelliert. Ziel ist es, den Anteil der erneuerbaren Energien an der Stromversorgung bis zum Jahr 2050 auf bis zu 80 Prozent zu steigern. Deutschland hatte im Jahr 2016 ca. 7,2 GW installierter elektrischer Leistung von Biomasseanlagen im EEG, die insgesamt 41 TWhel Strom produziert haben. 2017 sind geschätzte 200 Anlagen hinzugekommen – vor allem im Kleinanlagenbereich, der außerhalb der Ausschreibungsverpflichtung liegt. Bedingt durch die politischen Rahmenbedingungen und das aktuelle EEG 2017 gehen Schätzungen des DBFZ aktuell von einer Absenkung der Stromerzeugung von derzeit 33 TWh (2017) auf unter 40 % im Jahr 2035 aus.

Smart Bioenergy – Innovationen für eine nachhaltige Zukunft
Das Deutsche Biomasseforschungszentrum arbeitet als zentraler und unabhängiger Vordenker im Bereich der energetischen und stofflichen Biomassenutzung an der Frage, wie die begrenzt verfügbaren Biomasseressourcen nachhaltig und mit höchster Effizienz und Effektivität zum bestehenden und zukünftigen Energiesystem beitragen können. Im Rahmen der Forschungstätigkeit identifiziert, entwickelt, begleitet, evaluiert und demonstriert das DBFZ die vielversprechendsten Anwendungsfelder für Bioenergie und die besonders positiv herausragenden Beispiele gemeinsam mit Partnern aus Forschung, Wirtschaft und Öffentlichkeit. Mit der Arbeit des DBFZ soll das Wissen über die Möglichkeiten und Grenzen einer energetischen und integrierten stofflichen Nutzung nachwachsender Rohstoffe in einer biobasierten Wirtschaft insgesamt erweitert und die herausragende Stellung des Industriestandortes Deutschland in diesem Sektor dauerhaft abgesichert werden – www.dbfz.de.

Wissenschaftlicher Kontakt:
Mattes Scheftelowitz
Tel.: (0)341 2434-592
E-Mail: mattes.scheftelowitz@dbfz.de

Pressekontakt:
Paul Trainer
Tel.: (0)341 2434-437
E-Mail: paul.trainer@dbfz.de

Weitere Informationen:
https://www.dbfz.de/presse/pressemitteilungen-2018/biomasseforschungszentrum-ski…
https://www.dbfz.de/referenzen-publikationen/statements

Quelle: idw

(nach oben)


Molekül identifiziert, das anfällig für Magersucht macht

Anke Schlee Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Psychiatrie

Wissenschaftler am Max-Planck-Institut für Psychiatrie (MPI) haben ein Molekül in der Plazenta identifiziert, das dafür verantwortlich sein könnte, dass Nachkommen, deren Mutter während der Schwangerschaft Stress ausgesetzt waren, an Magersucht erkranken.

Die Anfälligkeit für Essstörungen wurde oft mit Stress in der frühen Kindheit in Verbindung gebracht. Stress allein führt jedoch nicht zwangsläufig zu einer Essstörung, es ist vielmehr eine Kombination aus Veranlagung und einer Vielzahl von Faktoren aus dem frühen Leben, die zur Erkrankung führt.

In einer Studie, die kürzlich in der renommierten Fachzeitschrift Nature Communications veröffentlicht wurde, liefern Wissenschaftler des Max-Planck-Instituts für Psychiatrie entscheidende biologische Einblicke in diese Krankheit. Mariana Schroeder, Autorin der Studie und Projektgruppenleiterin im Team von Alon Chen, dem Geschäftsführenden Direktor des MPI, ging davon aus, dass die Anfälligkeit für Anorexie bereits im Mutterleib entsteht. Sie testete heranwachsende Mäuse mit einem Modell, das aktivitätsbasierte Magersucht nachbildet, indem es den Tieren die Wahl zwischen Bewegung und Fressen lässt. Im Ergebnis zeigten weibliche Mäuse eine hohe Anfälligkeit für aktivitätsbasierte Magersucht, sie zogen die Bewegung dem Fressen vor. Schroeder ergänzt: „Interessanterweise haben sich die weiblichen Mäuse in zwei Gruppen geteilt, wenn sie dem Aktivitätsmodell ausgesetzt wurden. Ungefähr 40 Prozent wurden magersüchtig, die anderen 60 Prozent nicht. Die Männchen waren weitgehend resistent.“ Schröder fährt fort: „Erstaunlicherweise unterband pränataler Stress diese Anfälligkeit.“

Im nächsten Schritt wollten die Wissenschaftler den molekularen Mechanismus identifizieren, der dieser Programmierung in der Schwangerschaft zugrunde liegt. Dazu untersuchten sie die micro-RNA-Niveaus in der Plazenta. – Micro-RNA´s sind Moleküle, die wichtig für die Genregulation sind. – Eine micro-RNA stach besonders hervor, die so genannte miR-340. Diese war bei Weibchen hochgradig variabel, während sie in der Plazenta männlicher Nachkommen kaum nachweisbar war.

Die Forscher manipulierten die Expression dieser micro-RNA künstlich, um ihren Anteil in der Plazenta zu erhöhen. Daraufhin stieg die Anfälligkeit für Magersucht sowohl bei männlichen als auch bei weiblichen Mäusen an. MiR-340 beeinflusste den Nährstofftransfer von der Mutter auf den Fötus indirekt und veränderte dabei das Gehirn des Fötus.

Chen, folgert daraus: „Diese Studie liefert bedeutsame Einblicke in die frühe Entstehung dieser kaum verstandenen Essstörung.“

Magersucht, lateinisch anorexia nervosa, ist eine Essstörung, die durch selbstauferlegtes Hungern geprägt ist. Sie tritt häufig erstmals im Teenageralter oder im jungen Erwachsenenalter auf und zwar etwa zehnmal so oft bei Frauen wie bei Männern. Von allen psychischen Erkrankungen zeigt sie die höchste Sterblichkeitsrate. Trotzdem weiß man wenig darüber. Ihre Behandlung führt daher auch nur selten zur vollständigen Genesung.

Weitere Informationen:
http://www.psych.mpg.de/2365972/pm1618-magersucht

Quelle: idw

(nach oben)


Das Klärwerk der Zukunft – Abwasser als Energiequelle

Dr.-Ing. Bodo Weigert Presse- und Öffentlichkeitsarbeit
KompetenzZentrum Wasser Berlin gGmbH (KWB)

Nach dreijähriger Forschungsarbeit und Praxisuntersuchungen unter der Leitung des Kompetenzzentrums Wasser Berlin stellt das Projekt POWERSTEP gemeinsam mit 15 europäischen Partnern aus Forschung und Industrie seine Ergebnisse vor. Die Untersuchungen haben gezeigt, dass in häuslichem Abwasser enthaltene Energiepotenziale umfangreicher als bisher mit schon heute verfügbaren Technologien genutzt werden kann. Mit diesen Erkenntnissen können Kläranlagen vom Energievernichter zum Energieproduzenten umgestaltet werden.

In Deutschland wird Abwasser fast flächendeckend in öffentlichen Kläranlagen gereinigt. Für den Betrieb wird Energie in der Größenordnung von zwei Großkraftwerken benötigt. Abwässer enthalten jedoch viel chemische Energie, die umgerechnet einer Leistung von 12 Großkraftwerken entspricht. Um diese Energiequelle richtig nutzen und verwerten zu können, wurden im Projekt POWERSTEP in sechs über Europa verteilten Klärwerken mit Fallstudien verschiedene neue Konzepte der Abwasserreinigung aber auch Energieverwertung untersucht. Die Reinigungsleistung der Klärwerke sollte dabei nicht beeinträchtigt werden.

Der Koordinator des Vorhabens POWERSTEP am Kompetenzzentrum Wasser Berlin, Dr. Christian Loderer, erklärt: „POWERSTEP hat gezeigt, dass eine signifikante Erzeugung von Energie aus Abwasser mit bereits heutige am Markt verfügbaren Technologien keine Vision mehr ist.“

Die Bedeutung der Ergebnisse von Powerstep für Europa wurde kürzlich in einem Fersehinterview mit Dominique Ristori, dem Generaldirektor der Generaldirektion Energie der europäischen Union, besonders gewürdigt.

POWERSTEP Projektvolumen: 5.2 Millionen Euro; 15 Partner; Laufzeit: 2015-2018.
POWERSTEP wird gefördert im Europäischen Programm für Forschung und Innovation „Horizon 2020″ unter dem Förderkennzeichen n°641661.

Dr. Christian Loderer, Koordinator POWERSTEP, Ansprechpartner für technische Fragen
Kompetenzzentrum Wasser Berlin gGmbH
+49 176 20106787
Christian.Loderer@kompetenz-wasser.de

Weitere Informationen:
http://powerstep.eu/powerstep-final-conference

Anhang
Presseinformation: Das Klärwerk der Zukunft – EU-Verbundvorhaben POWERSTEP hat neue Verfahren zur Nutzung von Abwasser als Energiequelle getestet
https://idw-online.de/de/attachment65511

Quelle: idw

(nach oben)


Männer und Frauen wünschen sich oft kürzere Arbeitszeiten

Wolfgang Braun Presse- und Öffentlichkeitsarbeit
Institut für Arbeitsmarkt- und Berufsforschung der Bundesagentur für Arbeit (IAB)

50 Prozent der männlichen und gut 40 Prozent der weiblichen Beschäftigten würden ihre Arbeitszeit gerne um mindestens 2,5 Wochenstunden verkürzen. Überdurchschnittlich häufig wollen Beschäftigte mit höheren Bildungsabschlüssen und größerer beruflicher Autonomie weniger arbeiten. Das geht aus einer am Dienstag veröffentlichten Studie des Instituts für Arbeitsmarkt- und Berufsforschung (IAB) hervor.

„Gerade in anspruchsvollen Jobs besteht ein hohes Risiko, in Wochenstundenzahlen hineinzurutschen, die man eigentlich nicht wollte“, erklärt Enzo Weber, Leiter des IAB-Forschungsbereichs „Prognosen und gesamtwirtschaftliche Analysen“. Flexible Arbeitszeitmodelle wie eine lebensphasenorientierte Arbeitszeitgestaltung, Langzeit-Arbeitszeitkonten sowie ein Recht auf Rückkehr in Vollzeit wären hier mögliche Lösungsansätze.

Mindestens 2,5 Stunden pro Woche länger arbeiten würden gerne 17 Prozent der weiblichen Beschäftigten. Oft stehen diesem Wunsch jedoch Haushaltsverpflichtungen sowie fehlende Kinderbetreuungsangebote entgegen. Eine partnerschaftliche Aufgabenteilung auch im Haushalt, umfassende und flexible Kinderbetreuungsmöglichkeiten sowie bessere steuerliche Anreize für eine Ausweitung der Erwerbstätigkeit von Ehefrauen könnten hier Veränderungen bringen, heißt es in der Studie. Derzeit würden das Ehegattensplitting und die Minijob-Regelungen einer Ausweitung der Arbeitszeiten von Frauen tendenziell entgegenwirken. Der Anteil der männlichen Beschäftigten, die mindestens 2,5 Stunden mehr arbeiten wollen, liegt bei knapp zehn Prozent. Männer geben als Grund für Teilzeitarbeit am häufigsten an, dass eine Vollzeitstelle nicht zu finden sei, wohingegen Frauen in Teilzeit insbesondere familiäre Verpflichtungen nennen.

Jeweils rund 40 Prozent der männlichen und weiblichen Beschäftigten sind mit dem Umfang ihrer Arbeitszeit zufrieden. Im Durchschnitt würden Männer gerne rund 37 Wochenstunden arbeiten, Frauen rund 30.

Die Daten zu den Arbeitszeitwünschen und den tatsächlich geleisteten Arbeitsstunden stammen aus dem Sozio-oekonomischen Panel (SOEP) des Deutschen Instituts für Wirtschaftsforschung (DIW), einer jährlich durchgeführten Befragung von 30.000 Personen. Je nach Befragungsweise können die gemessenen Arbeitszeitdiskrepanzen variieren. Daher fallen sie beispielsweise im Mikrozensus geringer aus.

Weitere Informationen:
http://doku.iab.de/kurzber/2018/kb1318.pdf
https://twitter.com/iab_news

Quelle: idw

(nach oben)


Solanin in Kartoffeln: Grüne und stark keimende Knollen sollten aussortiert werden

Dr. Suzan Fiack Presse- und Öffentlichkeitsarbeit
Bundesinstitut für Risikobewertung (BfR)

BfR erinnert an die üblichen Empfehlungen zur Lagerung und Zubereitung von Kartoffeln
Anlässlich eines Vergiftungsfalles durch ein Kartoffelgericht erinnert das Bundesinstitut für Risikobewertung (BfR) an einen sachgerechten Umgang mit Kartoffeln. Glykoalkaloide, darunter Solanin als ein wichtiger Vertreter, sind natürliche Inhaltstoffe in der Kartoffel. Die Aufnahme einer bestimmten Menge an Glykoalkaloiden kann beim Menschen zu Vergiftungen führen. „Aus den letzten 100 Jahren sind nur wenige Vergiftungsfälle durch Kartoffelgerichte bekannt und dokumentiert“, sagt BfR-Präsident Professor Dr. Dr. Andreas Hensel. „Um gesundheitliche Risiken zu vermeiden, sollten dennoch grüne und stark keimende Kartoffelknollen nicht verzehrt werden.“ Das BfR leitet auf Basis des aktuellen Kenntnisstandes einen vorläufigen NOAEL (No Observed Adverse Effect Level) von 0,5 Milligramm (mg) Glykoalkaloide pro Kilogramm (kg) Körpergewicht und Tag ab. Dies entspricht der höchsten Dosis, bei der keine unerwünschten gesundheitlichen Wirkungen beobachtet wurden. Um ein Überschreiten des NOAEL zu vermeiden, sollte der Glykoalkaloidgehalt in Speisekartoffeln bei unter 100 mg pro kg Frischgewicht liegen. Bisher werden im Allgemeinen Kartoffeln mit einem Glykoalkaloidgehalt von bis zu 200 mg pro kg als unbedenklich eingestuft.

Link zur Stellungnahme:
http://www.bfr.bund.de/cm/343/speisekartoffeln-sollten-niedrige-gehalte-an-glyko…

Um die Aufnahme an Glykoalkaloiden möglichst gering zu halten, erinnert das BfR an folgende übliche Empfehlungen im Zusammenhang mit der Lagerung und Zubereitung von Kartoffeln:

– Kartoffeln sollten kühl, dunkel und trocken gelagert werden
– Alte, eingetrocknete, grüne oder stark keimende Kartoffeln, sowie Kartoffelschalen als Snacks, die überwiegend aus Kartoffelschalen bestehen, sind für den Verzehr nicht geeignet
– Grüne Stellen und sogenannte „Augen“ in Kartoffeln sollten großzügig entfernt werden
– Wenn Verbraucherinnen und Verbraucher die Schale mitessen wollen, sind hierfür grundsätzlich nur unverletzte, frische Kartoffeln geeignet
– Kartoffelgerichte sollten nicht verzehrt werden, wenn sie einen bitteren Geschmack aufweisen
– Insbesondere kleine Kinder sollten keine ungeschälten Kartoffeln essen
– Verbraucherinnen und Verbraucher sollten das Kochwasser von Kartoffeln nicht wieder verwenden
– Frittierfett für Kartoffelprodukte sollte regelmäßig gewechselt werden

Glykoalkaloide sind natürliche Inhaltsstoffe, die in Nachtschattengewächsen wie z. B. Kartoffeln enthalten sind. Sie reichern sich dabei insbesondere in grünen, keimenden und beschädigten Kartoffeln sowie in Kartoffelschalen an. In der Kartoffel finden sich insbesondere die beiden Glykoalkaloide α-Solanin und α-Chaconin. Sie dienen der Pflanze zur Abwehr von Schädlingen und Krankheitserregern. Beim Menschen äußern sich leichte Vergiftungen durch Übelkeit, Bauchschmerzen, Erbrechen und Durchfall, mitunter begleitet von Fieber. Bei schweren Vergiftungsfällen können zusätzlich Bewusstseinsstörungen, sehr selten bis zum vollständigen Bewusstseinsverlust, sowie weitere Störungen der Hirnfunktion, der Atmung oder des Kreislaufes auftreten. Einzelne tödliche Vergiftungen wurden in der Literatur berichtet. Aus den letzten 50 Jahren sind jedoch keine Todesfälle aufgrund von einer Vergiftung durch Glykoalkaloiden beschrieben worden. Darüber hinaus sind insgesamt nur wenige Vergiftungsfälle aus den letzten 100 Jahren bekannt und dokumentiert. Aufgrund der unspezifischen Symptome, insbesondere im Fall von leichteren Vergiftungen, könnte allerdings eine nicht unerhebliche Dunkelziffer bestehen.

Anlässlich eines Vergiftungsfalles durch ein Kartoffelgericht, bei dem im November 2015 eine Familie erkrankt war, nachdem sie ein Kartoffelgericht mit hohen Gehalten an Glykoalkaloiden verzehrt hatte, hat das BfR den Verzehr von Glykoalkaloiden über Speisekartoffeln bewertet. Das BfR leitet einen NOAEL (No Observed Adverse Effect Level – höchste Dosis, bei der keine unerwünschten gesundheitlichen Wirkungen beobachtet wurden) von 0,5 mg pro kg Körpergewicht und Tag ab. Um ein Überschreiten des NOAELmöglichst zu vermeiden, sollte der Glykoalkaloidgehalt von Speisekartoffeln bei unter 100 mg pro kg Frischgewicht liegen. Diese Empfehlungen sind angesichts der derzeitigen unvollständigen Datenlage als vorläufig zu betrachten. Zur Verbesserung der Datenlage bezüglich der bestehenden Glykoalkaloidgehalte in handelsüblichen Speisekartoffeln hat das BfR die Durchführung von entsprechenden Untersuchungen (Lebensmittelmonitoring) angeregt.

Über das BfR
Das Bundesinstitut für Risikobewertung (BfR) ist eine wissenschaftlich unabhängige Einrichtung im Geschäftsbereich des Bundesministeriums für Ernährung und Landwirtschaft (BMEL). Es berät die Bundesregierung und die Bundesländer zu Fragen der Lebensmittel-, Chemikalien- und Produktsicherheit. Das BfR betreibt eigene Forschung zu Themen, die in engem Zusammenhang mit seinen Bewertungsaufgaben stehen.

Weitere Informationen:
http://www.bfr.bund.de/de/fragen_und_antworten_zu_solanin__glykoalkaloiden__in_k…
Fragen und Antworten zu Solanin

Quelle: idw

(nach oben)


Wenn Bakterien Häuser bauen

Dipl.-Geogr. Anja Wirsing Pressestelle des Forschungsverbundes Berlin e.V.
Forschungsverbund Berlin e.V.

Biofilme sind schleimartige Schichten an Grenzflächen, in denen Mikroorganismen hausen und widrigen Umweltbedingungen trotzen. Das Bakterium Bacillus subtilis baut diese Schutzhütten mit einer bisher unbekannten Strategie, wie ein Team um die Berliner Forscherinnen Anne Diehl vom Leibniz-Forschungsinstitut für Molekulare Pharmakologie (FMP) und Yvette Roske vom Max-Delbrück-Centrum für Molekulare Medizin (MDC) im Fachblatt PNAS berichtet.

Der wichtigste Baustein des Biofilms – das Protein TasA – wird überraschenderweise bereits im Zellinneren vorgeformt. Gelangt TasA nach außen, bilden diese Bausteine längere Ketten, sogenannte Fibrillen, die wie ein Grundgerüst bzw. Mauern den Biofilm stabilisieren.

Biofilme können auch für den Menschen eine Gefahr darstellen, da sie Krankheitserregern Schutz vor den Waffen des Immunsystems und Antibiotika bieten. Um die Ausbildung von Biofilmen zu hemmen und die Wirksamkeit von Antibiotika zu garantieren, ist es notwendig, die Struktur der Bausteine zu kennen.

TasA ist ein überraschend dynamisches Protein
Auf Anregung des B. subtilis-Experten Kürşad Turgay von der Universität Hannover haben die Berliner Forscherinnen die molekulare Struktur des wichtigsten Proteins in diesem Biofilm, TasA, nun gelöst. Anne Diehl aus der von Hartmut Oschkinat geleiteten Abteilung „NMR-unterstützte Strukturforschung“ des FMP startete mit der Produktion von TasA und studierte die verschiedenen Erscheinungsformen des Proteins, die leicht ineinander übergehen.

Dabei tat sich dafür eine unerwartete Hürde auf: „Ich habe in den 32 Jahren meiner Berufstätigkeit auf dem Gebiet der Proteinstrukturforschung noch nie mit einem so dynamischen Protein gearbeitet. Bereits nach kurzer Zeit lagern sich die löslichen TasA-Proteine zusammen und erzeugen einen Gelee-artigen Zustand“, so Anne Diehl im Rückblick auf die erfolgreiche Charakterisierung der einzelnen Zustände.

Ein robuster Kern mit flexiblen Schlaufen
Einen möglichen Grund fand Yvette Roske aus der Abteilung „Makromolekulare Strukturen und Interaktionen“ des MDC, geleitet von Udo Heinemann. Ausgehend von frisch gereinigtem TasA züchtete sie Kristalle, analysierte diese mittels hochenergetischer Röntgenstrahlung am BESSY in Berlin-Adlershof und entschlüsselte so die dreidimensionale Faltung des Proteins.

„Es zeigte sich, dass die Struktur von TasA in weiten Bereichen hoch geordnet ist. Ein großer Anteil an ß-Faltblatt-Elementen verleiht dem Protein einen robusten Kern, der jedoch mit flexiblen Schlaufen dekoriert ist“, fasst Yvette Roske ihre Erkenntnisse zusammen.

Interessanterweise gehört die Aminosäure Arginin nicht zu den Bestandteilen von TasA. Durchschnittlich bestehen Proteine zu 10 % aus dieser basischen Aminosäure, das ist doppelt so viel, wie eine statistische Verteilung aller 20 vorkommender Aminosäuren erwarten lässt. „Dass ein Protein gänzlich auf diesen Grundbaustein verzichtet, muss einen Grund haben“, erläutert Anne Diehl.

Arginin dient häufig als Ansatzpunkt für Proteasen – Enzyme, die andere Proteine zerschneiden. Die Abwesenheit von Arginin erklärt möglicherweise die außerordentliche Stabilität von TasA gegenüber Proteasen und macht dieses Protein damit zu einem robusten Stützpfeiler des schützenden Biofilms.

TasA könnte erklären, warum Bacillus subtilis nicht pathogen ist
Dabei ähnelt die Aminosäureabfolge in TasA einer Protease mit Namen Camelysin, die viele pathogene Bacillus-Stämme an Stelle von TasA als Grundgerüst für ihre Biofilme nutzen. Die Struktur von TasA erlaubte daher die Konstruktion eines Modells für Camelysin. „Unser Strukturmodell für Camelysin zeigt, dass die dreidimensionale Faltung der beiden Proteine mit hoher Wahrscheinlichkeit sehr ähnlich ist“, sagt Yvette Roske. Doch während das Camelysin des Milzbrand-Erregers B. anthracis eine Protease ist, fehlt dem TasA des harmlosen B. subtilis diese Eigenschaft. TasA scheint im Laufe der Evolution diese enzymatische Aktivität und damit seine Pathogenität verloren zu haben.

Die Erforschung der Biofilme geht nun in die nächste Phase. Mit Hilfe der Festkörper-NMR konnten die Teams vom FMP und MDC bereits zeigen, dass sich zuvor ungeordnete flexible Teile von TasA neu ausrichten, wenn sich die Bausteine zu Fibrillen zusammenlagern. Weitere Untersuchungen der Fibrillen sollen dazu beitragen, die Stabilität der Biofilme besser zu verstehen und vielleicht sogar neue Ansätze im Kampf gegen Krankheitserreger zu finden.

Quelle:
Anne Diehl, Yvette Roske, Linda Ball, Anup Chowdhury, Matthias Hiller, Noel Molière, Regina Kramer, Daniel Stöppler, Catherine L. Worth, Brigitte Schlegel, Martina Leidert, Nils Cremer, Natalja Erdmann, Daniel Lopez, Heike Stephanowitz, Eberhard Kraus, Barth-Jan van Rossum, Peter Schmieder, Udo Heinemann, Kürşad Turgay, Ümit Akbey, and Hartmut Oschkinat. Structural changes of TasA in biofilm formation of Bacillus subtilis, PNAS 12. März 2018, DOI 10.1073/pnas.1718102115

Kontakt:
Prof. Dr. Hartmut Oschkinat
Leibniz-Forschungsinstitut für Molekulare Pharmakologie (FMP)
oschkinat@fmp-berlin.de
Tel. +49 30 94793-160
www.leibniz-fmp.de/oschkinat

Dr. Anne Diehl
Leibniz-Forschungsinstitut für Molekulare Pharmakologie (FMP)
diehl@fmp-berlin.de
Tel. +49 30 94793-310

Öffentlichkeitsarbeit
Silke Oßwald
Leibniz-Forschungsinstitut für Molekulare Pharmakologie (FMP)
osswald@fmp-berlin.de
Tel. +49 30 94793-104

Das Leibniz-Institut für Molekulare Pharmakologie (FMP) gehört zum Forschungsverbund Berlin e.V. (FVB), einem Zusammenschluss von acht natur-, lebens- und umweltwissenschaftlichen Instituten in Berlin. In ihnen arbeiten mehr als 1.900 Mitarbeiter. Die vielfach ausgezeichneten Einrichtungen sind Mitglieder der Leibniz-Gemeinschaft. Entstanden ist der Forschungsverbund 1992 in einer einzigartigen historischen Situation aus der ehemaligen Akademie der Wissenschaften der DDR.

Weitere Informationen:
http://www.pnas.org/content/early/2018/03/07/1718102115
http://www.leibniz-fmp.de/oschkinat

Quelle: idw

(nach oben)


KIT: Wasseraufbereitung: Neues Verfahren eliminiert Hormone

Monika Landgraf Strategische Entwicklung und Kommunikation – Gesamtkommunikation
Karlsruher Institut für Technologie

Hormone und andere Mikroschadstoffe gefährden die Gesundheit, wenn ihre Rückstände über das Trinkwasser in den Körper gelangen. Breit einsetzbare Lösungen zu ihrer Beseitigung gibt es bislang aber nicht. Das Karlsruher Institut für Technologie (KIT) hat nun ein Verfahren entwickelt, mit dem Hormone schnell und energieeffizient aus dem Abwasser eliminiert werden können. Die Forschungsergebnisse sind im Journal of Hazardous Materials publiziert.

„Die Verunreinigung des kommunalen Trinkwassers mit Mikroschadstoffen könnte sich zu einer der größten Herausforderungen für den Schutz unserer Gesundheit und Umwelt entwickeln“, erklärt Professorin Andrea Schäfer von der Membrantechnologie am Institut für funktionelle Grenzflächen (IFG). Die Expertin und ihr Team führen Studien zur Beseitigung der Hormone Estrone, Estradiol, Progesteron und Testosteron durch. Ihr Anteil in einem Liter Wasser, in das behandelte Abwässer eingeleitet werden, beträgt rund 100 Nanogramm. „Das gleicht der Suche nach der Nadel im Heuhaufen“, sagt Schäfer. „Und doch sind diese Hormone in solchen Konzentrationen wirksam“. Die geringe Konzentration und Größe der Hormon-Moleküle erschweren nicht nur ihren Nachweis mittels analytischer Verfahren, sondern vor allem auch ihre Beseitigung.

Ein neues, in der Membrantechnologie entwickeltes Verfahren verbindet die Vorteile der Adsorption (Bindung) von Mikroschadstoffen durch eine von einem Industriepartner gefertigte Aktivkohle mit denen der Ultrafiltration von Schadstoffpartikeln durch eine semipermeable Membran. In einem integrierten System wird das Abwasser zunächst durch eine Polymermembran „gedrückt“, die Mikroorganismen und größere Verunreinigungen herausfiltert. Dahinter liegt eine Schicht aus spezieller Aktivkohle, die ursprünglich für Luftfilter entwickelt wurde. Ihre Oberfläche hat nicht nur eine besondere Affinität gegenüber Hormonen, das heißt die Kohlenstoff- und Hormonmoleküle gehen leicht Verbindungen ein. Sie bietet auch die Kapazitäten, um große Wassermengen durchfließen zu lassen und viele Moleküle zu binden. Dies alles geschieht mit sehr viel weniger Energie als bei Alternativverfahren wie der Umkehrosmose.

„Die spezielle Konfiguration aus aktiviertem Kohlenstoff und einer Polymermembran ist wasserabweisend, erlaubt dank der großen spezifischen Oberfläche der eingesetzten Kohlenstoffpartikel einen hohen Wasserdurchfluss und sie arbeitet schnell und energiesparsam“, fasst Schäfer die Vorteile zusammen. Die Adsorptionsschicht ist mit rund zwei Millimetern extrem dünn, sorgt aber für eine Beseitigung von Hormonmolekülen in einer realistischen Größenordnung. In Laborversuchen hat sich gezeigt, dass mit diesem Verfahren bei einem Inhalt von neun Litern Wasser und einer sehr kleinen Membranfläche von 38 Quadratzentimetern 60 Prozent der hormonellen Schadstoffe eliminiert werden können. Abhängig von der Dicke der Adsorptionsschicht kann dieser Wert auf bis zu 90 Prozent steigen.

„Wir glauben, dass wir eine vielversprechende Technologie entwickelt haben, mit der wir bei der Elimination von hormonellen Mikroschadstoffen aus Wasser einen großen Schritt weiter kommen“, betont Matteo Tagliavini, Doktorand in Schäfers Gruppe und Mitautor der aktuellen Publikation. Die Kompositmembran ist flexibel und in unterschiedlichen Modulen einsetzbar. Damit eignet sie sich für industrielle Großanlagen ebenso wie für Anwendungen in kleinerem Maßstab bis hin zum häuslichen Wasserhahn. Dass das eingesetzte Material bereits zugelassen ist, erleichtert die Überführung des neuen Verfahrens in die Praxis. Ein erstes Industrieprojekt ist bereits in Planung.

Weitere Informationen:
http://mt.ifg.kit.edu

Originalpublikation:
https://doi.org/10.1016/j.jhazmat.2018.03.032

Weiteres Material:
Veröffentlichung im Journal of Hazardous Materials:
https://doi.org/10.1016/j.jhazmat.2018.03.032

Weiterer Kontakt:
Tu-Mai Pham-Huu, Redakteurin/Pressereferentin, Tel.: +49 721 608-48122, E-Mail: tu-mai.pham-huu@kit.edu

Als „Die Forschungsuniversität in der Helmholtz-Gemeinschaft“ schafft und vermittelt das KIT Wissen für Gesellschaft und Umwelt. Ziel ist es, zu den globalen Herausforderungen maßgebliche Beiträge in den Feldern Energie, Mobilität und Information zu leisten. Dazu arbeiten rund 9 300 Mitarbeiterinnen und Mitarbeiter auf einer breiten disziplinären Basis in Natur-, Ingenieur-, Wirtschafts- sowie Geistes- und Sozialwissenschaften zusammen. Seine 25 500 Studierenden bereitet das KIT durch ein forschungsorientiertes universitäres Studium auf verantwortungsvolle Aufgaben in Gesellschaft, Wirtschaft und Wissenschaft vor. Die Innovationstätigkeit am KIT schlägt die Brücke zwischen Erkenntnis und Anwendung zum gesellschaftlichen Nutzen, wirtschaftlichen Wohlstand und Erhalt unserer natürlichen Lebensgrundlagen.

Diese Presseinformation ist im Internet abrufbar unter: http://www.sek.kit.edu/presse.php

Weitere Informationen:

http://www.sek.kit.edu/presse.php
https://doi.org/10.1016/j.jhazmat.2018.03.032
https://doi.org/10.1016/j.jhazmat.2018.03.032
http://mt.ifg.kit.edu
http://tu-mai.pham-huu@kit.edu

Anhang
Wasseraufbereitung: Neues Verfahren eliminiert Hormone
https://idw-online.de/de/attachment65518

Quelle: idw

(nach oben)


LED-Sitzhocker gegen Rückenschmerzen

Britta Widmann Kommunikation
Fraunhofer-Gesellschaft

Stundenlanges Sitzen – sei es im Büro, in der Schule, im Auto oder auf der Couch – schadet. Rückenschmerzen, Fettleibigkeit, Diabetes und andere Krankheiten sind die Folge von Bewegungsmangel. Wichtig ist es daher, dynamisches Sitzen in den Alltag zu integrieren. Fraunhofer-Forscher demonstrieren auf der MS Wissenschaft, wie man dies mit den entsprechenden Hilfsmitteln trainieren kann. Der Spaß bleibt dabei nicht auf der Strecke.

Viele Menschen verbringen einen Großteil ihres Tages im Sitzen: Beim Essen, bei der Fahrt zum Arbeitsplatz, bei Meetings und Schreibarbeiten im Büro, beim Fernsehen, im Kino. Doch wer sich zu wenig bewegt, erhöht sein Risiko für viele Erkrankungen. Durch das lange Sitzen entstehen Verspannungen und Haltungsschäden. Die wiederum lösen Rückenschmerzen aus, ein Großteil der deutschen Bevölkerung leidet darunter. Betroffene sitzen oftmals verkrümmt, dadurch werden die Muskeln noch mehr belastet – ein Teufelskreis. Aber auch Herz-Kreislauf-Probleme, Übergewicht und Bluthochdruck können auf das Konto eines inaktiven Lebensstils gehen.

Personal Trainer für gesundes Sitzen
Um den Teufelskreis aus Schmerzen und schlechter Sitzhaltung zu durchbrechen, helfen nur aktive und bewusste Bewegungen im Sitzen und im Stehen. Um diese gezielt zu unterstützen, haben Forscher des Fraunhofer-Instituts für Arbeitswirtschaft und Organisation IAO und für Silicatforschung ISC einen Personal Trainer für gesundes Sitzen und Bewegen konzipiert. Die Technologieentwicklung liegt beim Fraunhofer ISC, die Produktentwicklung beim Fraunhofer IAO.

Ein mit Sensoren und Leuchtdioden ausgestatteter Sitzhocker gibt per Farbsignal oder alternativ über eine App Feedback, ob man ergonomisch sitzt. »Durch viele Interviews mit Betroffenen, Firmen und Experten haben wir herausgefunden, dass ein starker Bedarf nach Hilfsmitteln besteht, die die Rückengesundheit beim Sitzen unterstützen. Wichtig ist, dass man ein wenig Zeit investieren muss«, erläutert Truong Le, Wissenschaftler am Fraunhofer IAO, die Grundidee des LED-Sitzhockers.

Drucksensoren erkennen die Gewichtsverteilung
In der Standard-Funktion erkennen mehrere Drucksensoren anhand der Gewichtsverteilung in der Sitzfläche die Haltung, also z. B. schiefes oder zu langes Sitzen in derselben Position. Die Auswertung der Daten wird auf einen PC, Laptop, Tablet oder Smartphone übertragen. Dann erfolgt eine Erinnerung über ein Feedback in der Sitzfläche. Auf Wunsch erscheint eine Anzeige am Bildschirm oder auch eine Statistik über einen bestimmten Zeitraum. Ein Video zeigt, dass die Sitzhaltung beziehungsweise die Neigung des Körpers als empfindlich erkannt wird. Gegebenenfalls erfolgt eine konkrete Aufforderung, sich zu bewegen. Per Videoanleitung kann man bestimmte Bewegungsübungen durchführen, die die Sensoren ebenfalls registrieren.

Bei den Drucksensoren handelt es sich um weiche, sensible Sensoren, die sich in unterschiedlichste Umgebungen integrieren, etwa in Matten, Autositze, aber auch in die Fahrzeugdecke oder das Lenkrad. Sie senden elektrische Impulse aus, um Dinge zu steuern. Zu diesem Zweck sind sie wie ein elektrischer Kondensator aufgebaut: Zwei Elektrodenschichten aus leitfähigem Silikon unten und oben, eine isolierende Folienschicht dazwischen.

Auf der MS Wissenschaft präsentieren die Forscher vom Fraunhofer IAO eine spezielle Variante des intelligenten Sitzhockers. Eine bewegungs- und gleichzeitig spaßorientierte Anwendung erfahren spielorientierte Nutzer durch die Funktion des Hockers mit Bewegungsspielen. Von den Sensoren aufgenommene Hüftbewegungen werden hier dazu genutzt, ein Ping-Pong-Spiel am Bildschirm mit dem Gesäß zu steuern.

Weitere Informationen:
https://www.fraunhofer.de/de/presse/presseinformationen/2018/Mai/LED-Sitzhocker-…

Quelle: idw

(nach oben)


Studie der Hochschule Fresenius zeigt: Muskulöse Männer haben bessere Karrierechancen

Melanie Hahn Presse & Öffentlichkeitsarbeit
Hochschule Fresenius

Gibt es bei Männern einen Zusammenhang zwischen dem Streben nach Muskulösität und dem Karriereerfolg? Das hat Dr. Dominic Gansen-Amman in einer experimentellen Studie mit 115 Studierenden der Psychologie (B.Sc.) an der Hochschule Fresenius, Fachbereich Wirtschaft & Medien, untersucht. Der Psychologe präsentierte das Ergebnis im Rahmen der diesjährigen Kölner Wissenschaftsrunde im Fitnessstudio „Point of Power“.

Wer seine Karriere vorantreiben will, kann sich beispielsweise coachen lassen oder Ratgeber lesen. Dass auch ein Besuch im Fitnessstudio besonders für Männer in wirtschaftsnahen Tätigkeitsfeldern hilfreich sein kann, scheint zunächst absurd. Doch das für den Muskelaufbau notwendige körperliche Training kann mit einem hohen Maß an Leistungsorientierung und Selbstmanagement einhergehen – Eigenschaften, die auch in der Berufswelt gefragt sind. Ob die Zuschreibungen dieser Attribute auch tatsächlich zu besseren Chancen auf der Karriereleiter führen, dieser Frage ist Dr. Dominic Gansen-Amman, Studiengangsleiter für Psychologie (B.Sc.), in seiner aktuellen Studie nachgegangen. In einem experimentellen Forschungsdesign sollten die Probanden Begriffe, die für eine erfolgreiche Berufslaufbahn stehen – wie Gewissenhaftigkeit oder Geselligkeit – Fotos von muskulösen und nicht-muskulösen Männern zuordnen. Das Ergebnis: Die Versuchsteilnehmer wiesen karriereförderliche Merkmale eher muskulösen Männer zu.

„Dies liegt daran, dass körperliche Aktivität und Muskulösität mit Eigenschaften einhergehen können, die im Arbeitskontext leistungsförderlich sind und für Arbeitgeber wünschenswert erscheinen. Zum Beispiel: ein besserer körperlicher und psychischer Gesundheitszustand, höhere Kreativität und geistige Flexibilität, Leistungs- und Wettbewerbsorientierung, höhere Gewissenhaftigkeit und niedrigerer Neurotizismus“, erklärt Gansen-Ammann. Man müsse jedoch zwischen einem ungesunden Muskulösitätsstreben, das pathologische Züge aufweise, und einem gesunden unterscheiden. Übertreiben es Männer mit dem Muskelaufbau, führe dies nicht zu besseren Karrierechancen. Der Psychologe rät: „Demonstrieren Sie auf angemessene Art und Weise, dass Sie sich körperlich fit halten. Als aktiver Mitarbeiter werden Sie wahrscheinlich in besserem Licht dastehen als inaktive Kollegen.“

Der Diplomwissenschaftler und Mitgründer von „Point of Power“, Till Ebener, empfiehlt für Einsteiger ein moderates, aber regelmäßiges Training. „Wer etwas für seinen Körper tun möchte, der sollte mit den Grundlagen beginnen, um die Basis für ein erfolgreiches Training zu schaffen. Wichtige Komponenten sind: ein gut ausgearbeiteter Trainingsplan, die nötige Lust, die richtige Ernährung, aber auch Zeit, um sich wieder zu regenerieren“, so Ebener.
Weitere Informationen:

http://www.hs-fresenius.de

Quelle: idw

(nach oben)


„Stressfresser“ aus dem Kuhstall – Landbewohner mit Nutzierkontakt können Stress besser bewältigen

Andrea Weber-Tuckermann Pressestelle
Universität Ulm

Was macht das Landleben eigentlich so gesund? Die dörfliche Ruhe, die frische Luft oder die intakte Nachbarschaft? Wissenschaftler der Universität Ulm haben darauf eine ganz andere Antwort: Landbewohner mit engem Kontakt zu Nutztieren können Stresssituationen immunologisch viel besser bewältigen als Großstädter, die ohne Haustiere aufgewachsen sind. Hilfe bekommen sie dabei von den „old friends“ unter den Mikroben.

Was macht das Landleben eigentlich so gesund? Die dörfliche Ruhe, die frische Luft oder die intakte Nachbarschaft? Wissenschaftler der Universität Ulm haben darauf eine ganz andere Antwort: Landbewohner mit engem Kontakt zu Nutztieren können Stresssituationen immunologisch viel besser bewältigen als Großstädter, die ohne Haustiere aufgewachsen sind. Hilfe bekommen sie dabei von den „old friends“ unter den Mikroben. „Damit gemeint sind Umweltbakterien, mit denen der Mensch seit Jahrtausenden recht friedlich zusammenlebt, und die es in der Großstadt heute schwer haben“, erklärt Professor Stefan Reber, Leiter der Sektion für Molekulare Psychosomatik an der Ulmer Universitätsklinik für Psychosomatische Medizin und Psychotherapie.

Der Ulmer Wissenschaftler hat gemeinsam mit Kollegen aus dem Universitätsklinikum Ulm und Forschern aus Erlangen, London und Boulder (Colorado) herausgefunden, dass Männer, die die ersten 15 Lebensjahre auf einem Bauernhof mit Nutztierhaltung aufgewachsen sind, psychosozialen Stress besser verarbeiten können als Männer, die die ersten 15 Lebensjahre in einer Großstadt mit über 100 000 Einwohnern und ohne Haustiere verbracht haben. Für ihre Studie, die kürzlich im renommierten Fachmagazin PNAS veröffentlicht wurde, haben die Forscher insgesamt 40 gesunde männliche Probanden einem Stresstest unterzogen und begleitend dazu Stresshormone und immunologische Parameter erhoben. „Gestresst“ wurden die Probanden in einem standardisierten Laborexperiment mit dem sogenannten „Trier-Social-Stress-Test“ (TSST). Dabei werden die Versuchsteilnehmer einer fingierten Bewerbungssituation ausgesetzt und mehr und mehr unter Druck gesetzt. Sie müssen zwischendurch Kopfrechenaufgaben lösen und bei Fehlern erneut von vorne beginnen. Vor und nach dem Test haben die Wissenschaftler Blut- und Speichelproben entnommen, um bestimmte Immunzellen wie mononukleäre Zellen des peripheren Blutes (PBMC) zu gewinnen oder Stressparameter wie Cortisol zu erfassen.

Dabei kam heraus, dass die „Landbewohner“ im Test zwar einerseits höhere Stresswerte zeigten als die „Großstädter“; dabei waren sowohl die basalen Stresshormonlevel höher als auch das im Fragebogen abgefragte subjektive Stressempfinden. Andererseits ließ sich das Immunsystem der „Landbewohner“ nicht so stark zu einer Reaktion provozieren wie das der „Großstädter“, die in ihrer Kindheit keinen Kontakt zu Tieren hatten. So war bei den Probanden, die in der Großstadt ohne Tiere aufgewachsen sind, nicht nur der stressinduzierte PBMC-Anstieg größer, sondern auch die Werte für den Entzündungsmarker Interleukin 6 blieben länger erhöht als bei der Vergleichsgruppe.
Und ein weiteres klares Indiz, dass das Immunsystem der „Landbewohner“ Stress besser verkraftet, fanden die Wissenschaftler. Dafür wurden die isolierten mononukleären Zellen des peripheren Blutes auf die Ausschüttung des Entzündungshemmers Interleukin 10 untersucht. Das Ergebnis: nach dem Stresstest war bei den tierlosen Städtern die Abgabe dieser antientzündlich wirkenden Substanz deutlich verringert, nicht jedoch bei den nutztiernahen Ländlern.

Für die Gesundheit sind überschießende Immunantworten ein Problem, weil diese häufig zu chronischen Entzündungsreaktionen führen. „Solche Prozesse spielen beispielsweise bei der Entstehung von Asthma und allergischen Erkrankungen eine Rolle, vergrößern aber auch das Risiko für psychische Erkrankungen wie beispielsweise Depressionen und Posttraumatische Belastungsstörungen, erläutert der Ulmer Psychoneuroimmunologe Stefan Reber.
Schon länger ist bekannt, dass die Anfälligkeit für Asthma und Allergien sowie für psychische Erkrankungen bei Menschen, die in der Großstadt leben, überdurchschnittlich hoch ist. Mit dem globalen Trend zur Verstädterung – immer mehr Menschen zieht es vom Land in die Metropolen – gewinnt dieser Befund noch an Brisanz. Dass dabei der fehlende Kontakt zu bestimmten Bakterien eine Schlüsselrolle spielt, wie die sogenannte „missing microbes“-Hypothese besagt, wird in der Forschung seit ein paar Jahren vermutet. In einem früheren Experiment mit Mäusen konnte ein Forscherteam um Professor Reber bereits zeigen, dass sich die Stressresilienz der Tiere durch die „Impfung“ mit solchen altbekannten Umweltbakterien verbessern lässt. Schön wäre es natürlich, wenn sich die Ergebnisse von der Maus auf den Menschen übertragen ließen. Möglicherweise könnte eine solche Impfung in Zukunft auch bei menschlichen Risikogruppen funktionieren. Ob es in der Stadt vielleicht auch der frühe Kontakt mit Haustieren tut, wollen die Wissenschaftler in einer Folgestudie herausfinden.

Weitere Informationen:
Prof. Dr. Stefan Reber, Leiter der Sektion für Molekulare Psychosomatik, Klinik für Psychosomatische Medizin und Psychotherapie, Universitätsklinikum Ulm,
Tel.: 0731 / 500 61943, E-Mail: stefan.reber@uniklinik-ulm.de;

Literaturhinweis:
Boebel T, Hackl S, Langgartner D, Jarczok MN, Rohleder N, Rook GA, Lowry CA, Guendel H, Waller C, Reber SO: Less imune acitvation following social stress in rural vs. urban participants raised with regular or no animal contact, respectively, PNAS April 30, 2018, published ahead of print April 30
http://www.pnas.org/content/early/2018/04/24/1719866115

Text und Medienkontakt: Andrea Weber-Tuckermann

Weitere Informationen:
http://www.pnas.org/content/early/2018/04/24/1719866115

Quelle: idw

(nach oben)


UDE: FutureWaterCampus – Neuer Forschungsbau in Sicht

Beate Kostka M.A. Ressort Presse – Stabsstelle des Rektorats
Universität Duisburg-Essen

Acht Projekte wurden jetzt zum Auf- und Ausbau von Forschungseinrichtungen in Nordrhein-Westfalen ausgewählt. Erfolgreich war dabei auch das Konzept des FutureWaterCampus (FWC) der Universität Duisburg-Essen (UDE), das zur Antragstellung aufgefordert wurde. Demnächst kann also ein neuer Forschungsbau auf dem Thurmfeld am Essener Uni-Campus entstehen, der die Aktivitäten im Bereich der Wasserforschung bündeln wird.

„Dies ist ein hervorragendes Signal für unsere breit aufgestellte Wasserforschung, die bislang hauptsächlich virtuell zusammengearbeitet hat. Ein eigenes Gebäude bietet natürlich weitaus mehr Möglichkeiten zur disziplinübergreifenden Zusammenarbeit“, berichtete die neue Forschungs-Prorektorin, Prof. Dr. Dagmar Führer-Sakel, kürzlich dem UDE-Senat.

Rektor Prof. Ulrich Radtke ergänzte: „Unsere Vision ist, ein Kompetenzzentrum für Wissenschaft und Praxis mit europäischer Strahlkraft zu entwickeln. Der FutureWaterCampus wird die NRW-Wasserexperten der verschiedensten Forschungseinrichtungen unter einem Dach mit Praxispartnern zusammenbringen.“

Knapp 8,8 Mio. Euro Fördermittel
Mit dem Wettbewerb „Forschungsinfrastrukturen NRW“ will die Landesregierung die Innovationskraft der Wirtschaft stärken und fördert dazu Vorhaben zum Auf- und Ausbau von Forschungsinfrastrukturen und Kompetenzzentren mit bis zu 200 Millionen Euro aus Mitteln des Landes und des Europäischen Fonds für regionale Entwicklung (EFRE). An die UDE werden knapp 8,8 Mio. Euro fließen.

Überzeugt hat die Jury die gute Vorarbeit des Zentrums für Wasser- und Umweltforschung (ZWU) an der UDE. Dank seiner Vernetzungsaktivität wurden bereits mehrere Forschungsverbünde und anwendungsnahe Projekte mit Partnern aus Unternehmen, Verbänden und Zivilgesellschaft durchgeführt, etwa das Fortschrittskolleg FUTURE WATER, in dem derzeit zwölf Promovierende forschen. Hier arbeiten Partner aus sechs Forschungsinstitutionen an Fragen der nachhaltigen Wassernutzung im urbanen Raum zusammen. Solche Aktivitäten können künftig im neuen Forschungsgebäude intensiviert werden.

Sauberes Wasser für alle
Der FWC greift eine der größten gesellschaftlichen Herausforderungen unserer Zeit auf: Wie kann der Umgang mit Wasser und Abwasser nachhaltig gestaltet werden? Im Fokus steht hier vor allem die effizientere Wassernutzung; dazu leistet der FWC mit seinem inter- und transdisziplinären Forschungsumfeld einen essentiellen Beitrag, etwa durch die Entwicklung gekoppelter Verfahren, Prozesse und Technologien. Dazu zählt auch die geplante Verwendung innovativer technischer Membranen in der Wasserwirtschaft mit weitreichenden Einsatzgebieten.

Bereits jetzt bündelt das ZWU die Wasserkompetenz über sechs UDE-Fakultäten hinweg sowie zu den Partneruniversitäten der Universitätsallianz Ruhr und mehreren Fachhochschulen (aktuell 130 Mitglieder). Die gelebte Interdisziplinarität mit Partnern aus den Natur-, Ingenieur-, Wirtschafts-, Gesellschafts- und Sozialwissenschaften erlaubt die Entwicklung innovativer Systemkomplettlösungen. Deutschlandweit einmalig ist auch die Einbindung wirtschaftlicher und kommunaler Vertreter, der sondergesetzlichen Wasserverbände, der Wasserversorger sowie der Fachbehörden des Landes NRW.

Weitere Informationen:
Dr. Michael Eisinger, ZWU-Geschäftsführer, Tel. 0201/183-3890, michael.eisinger@uni-due.de
Redaktion: Beate Kostka, Tel. 0203/379-2430, beate.kostka@uni-due.de

Weitere Informationen:
https://www.uni-due.de/zwu/
https://www.uni-due.de/unikate/051/unikate_051.html
https://www.wirtschaft.nrw/pressemitteilung/acht-projekte-zum-auf-und-ausbau-von…

Quelle: idw

(nach oben)


Konzentrierter arbeiten im Büro

Britta Widmann Kommunikation
Fraunhofer-Gesellschaft

Rund 40 Prozent aller Erwerbstätigen hierzulande arbeiten im Büro. Doch oftmals werden Büroimmobilien den Bedürfnissen moderner Arbeitsanforderungen nicht gerecht und führen zu Reizüberflutung, Ablenkung und Stress. Internationalen Studien zufolge nehmen Büroarbeiter vor allem die Akustik als besonderen Störfaktor wahr. Wie sich diese leistungsmindernden Einflüsse reduzieren lassen, demonstrieren Fraunhofer-Forscher auf der diesjährigen MS Wissenschaft. Sound Masking lautet das Zauberwort.

Raum- und Arbeitsplatzgestaltung haben maßgeblichen Einfluss auf Gesundheit, Wohlbefinden und Leistungsfähigkeit, dies ist wissenschaftlich längst bewiesen. Dennoch erfüllen – trotz normgerechter Ausführung – viele der rund 17 Millionen Büroarbeitsplätze in Deutschland die Bedürfnisse moderner Arbeitsanforderungen nicht. Normen garantieren in der Regel nur eine Mindestqualität. Fragt man Menschen in Büros nach ihrer Zufriedenheit mit verschiedensten Aspekten ihres Arbeitsumfelds, stehen akustische Umgebungsbedingungen ganz oben auf der Beschwerdeliste. Störungen oder Arbeitsunterbrechungen durch Gespräche von Kollegen bzw. der »leise Lärm« sind Ursachen für die zunehmenden psychischen Belastungen im Büro. Die Folgen: Unzufriedenheit, mehr Fehler und schlechtere Arbeitsergebnisse, erhöhter Krankenstand und gesteigerte Mitarbeiterfluktuation.

Neutrale Schallsignale überlagern Hintergrundschall
»Die aktuell angewandten Kenngrößen aus Richtlinien und Normen zur raumakustischen Konditionierung von Büroflächen gewährleisten keine ausreichend und wahrnehmbar gute akustische Qualität«, sagt Noemi Martin, Wissenschaftlerin am Fraunhofer-Institut für Bauphysik IBP in Stuttgart. Die störenden Einflüsse im Büro fordern kreative und innovative Lösungen. Mit Sound Masking (Geräuschüberdeckung) bieten Martin und ihre Kollegen vom Fraunhofer IBP eine Technologie zur Verbesserung der akustischen Umgebungsbedingungen. Dabei wird störendes Hintergrundsprechen durch das Einspielen neutraler Schallsignale (Rauschen) zielgerichtet überlagert. Sound Masking soll die empfundenen Störungen durch irrelevanten Sprachschall reduzieren, die Leistungsfähigkeit steigern und das Privatheitsempfinden der Mitarbeiter erhöhen. Gerade in Großraumbüros führen schlechte Akustik und enges Zusammensitzen zu häufigen Arbeitsunterbrechungen und zu einer starken Beeinträchtigung der Privatsphäre. Die entsprechenden Systeme lassen sich teils unsichtbar in die Architektur oder ins Mobiliar integrieren. »Um die akustischen Bedingungen zu verbessern, wird der Umgebung Schall hinzugefügt, was für die meisten Menschen intuitiv nicht nachvollziehbar ist. Dabei wird das Grundgeräusch zielgerichtet angehoben, Gespräche von Kollegen lassen sich dadurch überdecken – die Sprachverständlichkeit wird dadurch reduziert«, erläutert Martin das Grundprinzip von Sound Masking.

Mit dem Raumlabor für ganzheitliche Wirkungsforschung haben die Wissenschaftlerinnen und Wissenschaftler am Fraunhofer IBP eine Testumgebung geschaffen, in der sie den Zusammenhang zwischen negativen Wirkfaktoren in der Arbeitsumgebung und gesundheitlicher sowie leistungsbezogener Beeinträchtigung und Minderung des Wohlbefindens untersuchen. Dieser Zusammenhang gilt aber nicht nur für Büroräume, sondern auch für vergleichbare Räume in Bildungseinrichtungen, Krankenhäusern und anderen Gebäuden. In dem Raumlabor erforschen die Experten am Fraunhofer IBP innovative Lösungen wie das Sound Masking. »Wichtig ist es, die Akzeptanz des Systems bei den Mitarbeitern zu fördern, etwa durch das Entwickeln angenehmer Signale sowie durch das Lehren des richtigen Umgangs mit der Technologie«, so Martin.

Gedächtnistest mit Hintergrundgeräusch
Auf der MS Wissenschaft 2018 können die Besucher die Zusammenhänge zwischen akustischem Komfort und Leistungsfähigkeit in Büro- und Schulumgebungen selbst erfahren. An dem dort installierten Büroarbeitsplatz wird eine Arbeitsaufgabe in Form eines Gedächtnistests implementiert, der sensitiv für Störungen durch Hintergrundsprechen ist. Die Besucher bearbeiten den Test. Zeitgleich werden über Kopfhörer verschiedene Hintergrundgeräuschkulissen dargeboten, die die Leistungsfähigkeit während der Aufgabenbearbeitung in unterschiedlicher Weise beeinträchtigen. Die Besucher erhalten unmittelbar Feedback über ihre Fehlerrate in den einzelnen Bedingungen. Somit wird die unterschiedliche Wirkung verschiedener Geräuschkulissen sowie das Potenzial von Sound Masking erlebbar.

Weitere Informationen:
https://www.fraunhofer.de/de/presse/presseinformationen/2018/Mai/Konzentrierter-…

Quelle: idw

(nach oben)


Todesfalle Krankenhauskeim

Janna von Greiffenstern Kommunikation und Service
SRH Hochschule Heidelberg

Anlässlich des Aktionstags Saubere Hände am 5. Mai 2018 beschreibt Prof. Dr. Julia Gokel von der SRH Hochschule Heidelberg aus medizinrechtlicher Sicht, warum eine sorgfältige Handhygiene insbesondere in Krankenhäusern so wichtig ist und welche Rolle Patientenbesucher dabei spielen. Erst kürzlich hatten Psychologie-Studierende der SRH Hochschule Heidelberg untersucht, wie es um das Händewasch-Verhalten auf öffentlichen Toiletten bestellt ist und dabei enthüllt: Nur 8% aller Toiletten-Besucher waschen sich ihre Hände richtig.

Infektionsskandal im Krankenhaus: Das kann das Aus für die Einrichtung bedeuten. „Das Thema Handhygiene und Infektionsprävention hat nicht nur eine gesellschaftliche, sondern auch eine erhebliche haftungsrechtliche Relevanz“, erklärt Dr. Julia Gokel, Professorin für Sozialrecht an der SRH Hochschule Heidelberg. Probleme mache vor allem der multiresistente Erreger MRSA (Methicillin resistenter Staphyloccus aureus). „Für kranke oder immungeschwächte Patienten, etwa solche, die frisch operiert wurden, kann er zur Todesfalle werden.“ Wenn dabei nachgewiesen werde, dass die Hygienegrundsätze wie die gebotene Händedesinfektion nicht beachtet wurden, könne dies als „grober Behandlungsfehler“ gewertet werden.

„Es ist zu empfehlen, Patienten und Besucher in die Maßnahmen der Händehygiene einzubeziehen“, rät das Robert-Koch-Institut darüber hinaus. „Die Breitenaufklärung und Sensibilisierung der Bevölkerung ist und bleibt eine entscheidende Voraussetzung, um den sogenannten `Drehtür-Effekt´ – das Einschleusen von Keimen und Bakterien über Patienten und Angehörige in Krankenhäuser und Pflegeeinrichtungen – zu vermeiden“, sagt Prof. Gokel. Die Studie der Psychologie-Studierenden der SRH Hochschule Heidelberg habe dazu einen wichtigen Beitrag geleistet, um das öffentliche Interesse auf das Thema zu lenken. Die Studierenden hatten 1.000 Besuchern öffentlicher Toiletten in der Rhein-Neckar-Region auf die Finger geschaut: Rund 7% verzichteten gänzlich auf das Händewaschen. 27% wuschen ihre Hände nur mit Wasser und rund 58% benutzten Wasser und Seife, allerdings nicht mit der erforderlichen Gründlichkeit. Lediglich rund 8% reinigten ihre Hände vorbildlich: mindestens 20 Sekunden lang mit Wasser und Seife an den Innen- und Außenseiten und zwischen den Fingern.

Prof. Dr. Julia Gokel LL.M. unterrichtet an der SRH Hochschule Heidelberg Sozial- und Gesundheits-recht und steht für Schulungen für Krankenhaushygieniker und Hygienefachkräfte zur Verfügung. Im Bachelor- oder Master-Studium des Sozialrechts sind medizinrechtliche Themen wichtig, da Sozialjuristen diese Kenntnisse häufig in sozialen Einrichtungen, Personalabteilungen oder Unternehmensberatungen benötigen.

Die nationale Kampagne „Aktion Saubere Hände“ weist mit ihrem Aktionstag am 5. Mai auf die Notwendigkeit der Händedesinfektion hin, um die Patientensicherheit zu verbessern.

Weitere Informationen:
http://www.aktion-sauberehaende.de

http://www.hochschule-heidelberg.de

Quelle: idw

(nach oben)


Vorläufige Entwarnung

Tanja Hoffmann M.A. Stabsstelle für Presse, Kommunikation und Marketing
Universität Siegen

Welche Auswirkungen haben Nanomaterialien, wenn sie über Kläranlagen in die Umwelt gelangen? Das haben WissenschaftlerInnen der Universität Siegen gemeinsam mit mehreren Partnern in einem interdisziplinären Forschungsprojekt untersucht.

Wir haben täglich mit ihnen zu tun – ohne es zu bemerken. So genannte „Nanomaterialien“ sind in vielen alltäglichen Gebrauchsgegenständen enthalten, von Sonnencreme und Zahnpasta über Verbandsmaterial bis hin zu Funktionsbekleidung. Das Besondere an diesen Materialien ist, dass sie aus winzig kleinen Einheiten bestehen: Ein Nanopartikel ist tausend Mal dünner als ein menschliches Haar. Ihre geringe Größe und besonderen chemischen und physikalischen Eigenschaften machen Nanomaterialien für viele Anwendungen interessant. Aber was passiert, wenn sie über Kläranlagen in die Umwelt gelangen? WissenschaftlerInnen der Uni Siegen haben das gemeinsam mit Partnern aus Deutschland, Österreich und Portugal untersucht. Das interdisziplinäre ERA-NET Forschungsprojekt „FENOMENO“ wurde mit insgesamt 1,1 Millionen Euro gefördert.

Im Rahmen eines Workshops an der Uni Siegen haben die ForscherInnen jetzt erste Ergebnisse des Projektes vorgestellt. „Auf Basis der bislang bekannten Teilergebnisse können wir vorläufige Entwarnung geben“, sagt Projektleiter Prof. Dr. Holger Schönherr vom Lehrstuhl für Physikalische Chemie der Uni Siegen. Am Beispiel von Silber- und Titandioxid-Nanomaterialien haben er und sein Team mögliche Auswirkungen auf Gewässer und darin lebende Pflanzen und Tiere untersucht. „Zwar steht die endgültige Auswertung noch aus, bisher konnten wir aber keinerlei Auswirkungen auf die verschiedenen Stufen der Nahrungskette feststellen“, erklärt Schönherr.

Die WissenschaftlerInnen haben zum einen Proben aus dem österreichischen Mondsee analysiert, in den eine Kläranlage unmittelbar mündet. Zum anderen wurden am Fraunhofer Institut IME in Schmallenberg in Modellanlagen Klärprozesse simuliert. Die Zuläufe wurden mit Nanomaterialien angereichert, um anschließend Algen, Wasserflöhe und Fische aus den Kläranlagenausläufen zu untersuchen. „Wissenschaftlerinnen und Wissenschaftler unterschiedlicher Disziplinen haben in dem Projekt eng zusammengearbeitet. Wir haben die Proben chemisch, mikroskopisch, verhaltensbiologisch, molekular und biochemisch genauestens unter die Lupe genommen“, sagt Projektleiter Schönherr.

Schönherr und sein Siegener Kollege Prof. Dr. Carsten Engelhard haben die Proben mit ihren Arbeitsgruppen mikroskopisch und vor allem massenspektrometrisch untersucht. Mit einem in Siegen weiterentwickelten, hochempfindlichen Messverfahren – der so genannten „Einzelpartikelmassenspektrometrie“ – konnten sie die Zusammensetzung und Größe der enthaltenen Nanopartikel bestimmen. Außerdem gelang es den Chemikern zu analysieren, wie sich die Partikel in der Modellkläranlage durch den Klärprozess verändern. „In der Kläranlage können die Silbernanopartikel unter anderem zu Silbersulfid umgewandelt werden. Sie verbleiben als schwerlösliche Verbindung im Klärschlamm und sind damit für die Umwelt weniger schädlich“, erklärt Engelhard.

Um die Auswirkungen von Nanopartikeln aus Kläranlagen auf das Ökosystem noch weiter zu untersuchen, haben BiologInnen der Uni Siegen über einen längeren Zeitraum Wasserflöhe aus den Ausläufen der Modellkläranlagen beobachtet. Die Flöhe ernähren sich von Algen, an denen die winzigen Nanopartikel anhaften. Auswirkungen auf Fruchtbarkeit oder Sterblichkeit der Wasserflöhe habe man über sechs Generationen hinweg nicht feststellen können, fasst Professorin Klaudia Witte zusammen: „Auch in ihren Bewegungsmustern zeigten die Tiere keine Veränderung, wenn sie Silbernanopartikeln aus einer Modellkläranlage ausgesetzt wurden. Wohl aber, wenn sie sich in einer Lösung mit reinen Silbernanopartikeln bei gleicher nomineller Konzentration aufhielten.“

WissenschaftlerInnen aus Österreich untersuchten im Rahmen des Projektes Fische im Mondsee. An der Universität Aveiro in Portugal werden Gewebeproben aktuell noch auf biochemischer Ebene analysiert. „In den Laboruntersuchungen konnten wir bisher herausarbeiten, unter welchen Bedingungen und ab welcher Konzentration die untersuchten Nanopartikel Auswirkungen auf die verschiedenen Stufen der Nahrungskette haben“, erklärt Prof. Schönherr. Diese Konzentrationen liegen zumeist weit oberhalb der in den Feldstudien gefunden Konzentrationen. Aus Sicht der Wissenschaftler besteht daher kein Anlass zur Sorge hinsichtlich toxischer Effekte.

Hintergrund:
An dem Projekt „FENOMENO“ sind ForscherInnen der Universität Siegen, des Fraunhofer Instituts IME in Schmallenberg, des Limnologischen Instituts Mondsee der Universität Innsbruck, sowie der Universität Aveiro in Portugal beteiligt. Das Projekt wurde im Rahmen des SIINN ERA-NET Programms von den partizipierenden nationalen Förderinstitutionen, für Deutschland dem Bundesministerium für Bildung und Forschung (BMBF), mit insgesamt 1,1 Millionen Euro gefördert. Weitere Informationen unter www.fenomeno-nano.de.

Ansprechpartner:
Prof. Dr. Holger Schönherr (Projektleiter)
E-Mail: schoenherr@chemie.uni-siegen.de
Tel.: 0271-740 2806

Weitere Informationen:
http://www.fenomeno-nano.de

Anhang
Im Rahmen eines Workshops an der Uni Siegen haben Projektleiter Prof. Dr. Holger Schönherr und seine KollegInnen erste Ergebnisse vorgestellt.
https://idw-online.de/de/attachment65450

Quelle: idw

(nach oben)


baua: Praxis: Ungestört arbeitet es sich viel besser

Jörg Feldmann Pressestelle
Bundesanstalt für Arbeitsschutz und Arbeitsmedizin

Multitasking und Arbeitsunterbrechungen gehören heute zum Alltag vieler Beschäftigter. Doch Störungen und Multitasking belasten die Beschäftigten und senken die Produktivität. Deshalb gibt die baua: Praxis „Arbeitsunterbrechungen und Multitasking täglich meistern“ Hintergrundinformationen und Tipps zur belastungsgünstigen Arbeitsgestaltung. Die jetzt von der Bundesanstalt für Arbeitsschutz und Arbeitsmedizin (BAuA) veröffentlichte Broschüre praktische Hinweise, was Unternehmen und Beschäftigte tun können, um stress- und störungsfreier zu arbeiten.

Die beste Störung ist die, die gar nicht erst stattfindet. Lediglich Beschäftigte, die einer einfachen und monotonen Aufgabe nachgehen, empfinden Störungen im Arbeitsablauf als positiv. Wer jedoch bereits drei Minuten von hochkonzentrierter Arbeit abgelenkt wird, braucht anschließend rund zwei Minuten, um wieder auf dem Stand vor der Unterbrechung weiterarbeiten zu können. Das verlängert nicht nur die Bearbeitungszeit einer Aufgabe unnötig. Auch die Arbeitsergebnisse sind schlechter: Forscher der Universität Michigan haben herausgefunden, dass sich die Leistungsfähigkeit des Gehirns um 20 bis 40 Prozent verringert, wenn parallel statt nacheinander gearbeitet wird. Und wer das Gefühl hat, seine Aufgaben wegen ständiger Unterbrechungen nicht mehr richtig erledigen zu können, fühlt sich gestresst.

Die Forscher raten deshalb, dass der Beschäftigte entscheidet, welche Aufgabe Vorrang hat. Muss die aktuelle Arbeit unbedingt vor der Fertigstellung unterbrochen werden wie beispielsweise in Krankenhäusern, dann helfen Notizen dabei, sich anschließend wieder problemlos in der alten Aufgabe zurechtzufinden. Außerdem sollten die Beschäftigten ihre Aufgabe nach Möglichkeit dort unterbrechen, wo es später leichter fällt weiterzuarbeiten. Um Überlastung vorzubeugen, empfiehlt die Broschüre, Kollegen frühzeitig um Hilfe zu bitten.

Beschäftigte sollten vermeiden, mehrere Dinge gleichzeitig zu erledigen. Studien zeigen, dass Multitasking weder Zeit noch Aufwand spart. Wer dennoch so arbeiten muss, sollte die Arbeit in Ruhe angehen und sich an persönlichen Erfahrungen orientieren. Zudem lassen sich Zeitfenster einrichten, in denen es sich ungestört arbeiten lässt.

Doch auch die Kollegen und Vorgesetzten können einiges tun: Meist wollen sie nur „mal eben“ etwas fragen oder besprechen und meinen es nicht böse. Dann kann ein freundliches Gespräch helfen, ihnen bewusst zu machen, wie störend das sein kann. Ein weiterer Grund für Unterbrechungen können unvollständige oder missverständliche Absprachen in Teamrunden oder zwischen Mitarbeiter und Vorgesetztem sein. Hier rät die Broschüre zu klärenden Gesprächen darüber, wie genau Teamabsprachen sein sollten.

Für den Fall, dass verschiedene Berufsgruppen und Fachbereiche zusammenarbeiten müssen, haben sich „Gesundheitszirkel“ als hilfreich erwiesen. Dabei handelt es sich um einen strukturierten und festgelegten Austausch unter der Leitung eines geschulten externen Moderators. Was ein „Gesundheitszirkel“ wirksam gegen Arbeitsunterbrechungen machen kann, verrät ebenfalls die baua: Praxis.

„Arbeitsunterbrechungen und Multitasking täglich meistern“; 1. Auflage; Dortmund; 2018; ISBN: 978-3-88261-234-9; 36 Seiten; DOI: 10.21934/baua:praxis20170914. Die baua: Praxis kann über den Onlineshop der BAuA bezogen werden. Eine Version im PDF-Format zum Herunterladen gibt es im Internetangebot der BAuA unter www.baua.de/publikationen.

Forschung für Arbeit und Gesundheit
Die BAuA ist eine Ressortforschungseinrichtung im Geschäftsbereich des BMAS. Sie betreibt Forschung, berät die Politik und fördert den Wissenstransfer im Themenfeld Sicherheit und Gesundheit bei der Arbeit. Zudem erfüllt die Einrichtung hoheitliche Aufgaben im Chemikalienrecht und bei der Produktsicherheit. An den Standorten Dortmund, Berlin und Dresden sowie in der Außenstelle Chemnitz arbeiten über 700 Beschäftigte.
www.baua.de

Weitere Informationen:

http://www.baua.de/dok/8658050 Direkter Link zur baua: Praxis „Arbeitsunterbrechungen und Multitasking täglich meistern“

Quelle: idw

(nach oben)


Beeinflusst körperliche Aktivität die Gesundheit künftiger Nachkommen?

Dr. Marcus Neitzert Presse- und Öffentlichkeitsarbeit
Deutsches Zentrum für Neurodegenerative Erkrankungen e.V. (DZNE)

Körperliche und geistige Aktivität sind nicht nur gut für das eigene Gehirn, sie können auch die Lernfähigkeit späterer Nachkommen beeinflussen – zumindest bei Mäusen. Diese besondere Form der Vererbung wird durch bestimmte RNA-Moleküle vermittelt. Sie beeinflussen die Genaktivität und reichern sich nach körperlicher und geistiger Aktivität nicht nur im Gehirn, sondern auch in den Keimzellen an. Prof. André Fischer und Fachkollegen vom Deutschen Zentrum für Neurodegenerative Erkrankungen (DZNE) in Göttingen und München und der Universitätsmedizin Göttingen (UMG) berichten darüber im Fachjournal „Cell Reports“.

Die vollständige Pressemitteilung finden Sie hier: https://www.dzne.de/aktuelles/presse-und-oeffentlichkeitsarbeit/pressemitteilung…

Quelle: idw

(nach oben)


Innovatives Verfahren zur umweltschonenden Gülleaufbereitung kommt auf den Markt

Dr. Claudia Vorbeck Presse und Öffentlichkeitsarbeit
Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik IGB

Das am Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik IGB entwickelte BioEcoSIM-Verfahren zur Aufbereitung von Gülle wird von SUEZ Deutschland GmbH als Betreiber großtechnischer Anlagen in den Markt eingeführt. Für Agrarbetriebe wird so eine Möglichkeit geschaffen, überschüssige Gülle abzugeben. Produkte der Gülleaufbereitung sind Phosphordünger, Ammoniumdünger und organische Bodenverbesserer.

Etwa 200 Millionen Kubikmeter Gülle aus der Viehzucht landen jährlich in Deutschland auf Feldern und Wiesen. Das »schwarze Gold« besteht zu über 90 Prozent aus Wasser und enthält beachtliche Mengen der wichtigen Pflanzennährstoffe Stickstoff und Phosphor. Wenn jedoch mehr Gülle auf die Felder ausgebracht wird, als die Böden binden und Pflanzen aufnehmen können, wandeln Mikroorganismen den Ammoniumstickstoff im Boden zu Nitrat um, das ins Grundwasser sickert. Das Problem: Dort, wo die Gülle in großen Mengen anfällt, fehlen häufig Ackerflächen, die gedüngt werden müssen. Über sogenannte Güllebörsen ordern Mastbetriebe daher Tanklaster an, um ihre Gülle in Gebiete mit Nährstoffbedarf transportieren zu lassen – oft mehrere hundert Kilometer entfernt.

Eine umweltschonende Lösung hat das Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik IGB mit seinem BioEcoSIM-Verfahren entwickelt. »Wir haben verschiedene Aufbereitungsstufen zu einem Gesamtprozess kombiniert und in einer modular aufgebauten Anlage integriert«, erläutert der Nährstoff-Experte Dr. Iosif Mariakakis vom Fraunhofer IGB. Damit können die wertvollen Nährstoffe als leicht transportierbare und exakt dosierbare Phosphor- und Ammoniumdüngesalze zurückgewonnen werden. Auch die festen organischen Bestandteile werden verwertet und mit einem energieeffizienten Verfahren getrocknet und konditioniert. Sie stehen dann als humusbildende Bodenverbesserer zur Verfügung. Gülle wird so nahezu vollständig verwertet und die recycelten Bestandteile dem Boden wieder zugeführt.

Großtechnische Umsetzung und Betreibermodell
Mit der SUEZ Deutschland GmbH hat das Fraunhofer IGB nun einen Lizenznehmer für die patentierte Technologie gewonnen. Das global agierende Entsorgungs- und Verwertungsunternehmen wird als Betreiber in Aufbereitungsanlagen investieren. »Nach und nach sollen flächendeckend großtechnische Anlagen entstehen, die Landwirten, Zucht- und Mastbetrieben überschüssige Gülle abnehmen. Bei der Auswahl der Anlagenstandorte werden vor allem die logistischen Aspekte der Anlieferung berücksichtigt«, beschreibt Kai Bastuck, Leiter Geschäftsfeldentwicklung Recycling und Recovery der SUEZ Deutschland GmbH, das Geschäftsmodell. »Durch die Rückgewinnung des endlichen Rohstoffs Phosphor wird die Abhängigkeit Deutschlands von Phosphorimporten abgebaut. Das schont die endlichen Phosphorressourcen und verringert Schadstoffeinträge in Böden. So tragen wir zu einer nachhaltigen Zukunft bei und machen Nährstoff zum Wertstoff«, so Bastuck. Das Fraunhofer IGB unterstützt SUEZ Deutschland bei der Weiterentwicklung des Verfahrens.

Eine erste Aufbereitungsanlage mit einem Durchsatz von einem Kubikmeter pro Stunde wird aktuell als »Lebendes Technikum« am SUEZ-Standort Zorbau in Sachsen-Anhalt errichtet. Die flexibel ausgelegte Anlage soll Rinder- und Schweinegülle, aber auch Gärreste aus Biogasanlagen, verarbeiten und damit als Blaupause für weitere großtechnische Anlagen dienen.

»Eine durchschnittliche großtechnische Anlage produziert dann stündlich aus zehn Kubikmetern Rohgülle etwa 100 Kilogramm Phosphatdünger, 100 Kilogramm Stickstoffdünger und 900 Kilogramm organische, nährstoffarme Feststoffe«, führt Siegfried Egner, Abteilungsleiter am Fraunhofer IGB, aus. Das Einsparpotenzial an synthetischen Düngern ist enorm: Mit der Kapazität von einer Million Kubikmetern Gülle pro Jahr, was in etwa der Menge aus ca. hundert Schweinemastbetrieben entspricht, können 10 000 Tonnen Ammoniumdünger und 10 000 Tonnen Phosphordünger hergestellt werden. Dies entspricht fast dem jährlichen Bedarf in ganz Deutschland.

Das BioEcoSIM-Verfahren
Um Gülle vollständig aufzubereiten, sind verschiedene Verfahrensschritte notwendig. In einem ersten Schritt wird die wässrige Gülle vorbehandelt, damit der Phosphor vollständig in Lösung geht. Über eine zweistufige Filtration wird sie in eine feste und eine flüssige Phase getrennt.

Die entwässerte feste Phase wird mit einem ebenfalls am Fraunhofer IGB entwickelten energieeffizienten Verfahren getrocknet, das mit überhitztem Wasserdampf in einem geschlossenen System und daher besonders energieeffizient arbeitet. Die getrockneten organischen Bestandteile können optional weiter bei 450 °C über einen Pyrolyse-Schritt – wie im Trocknungsschritt in einer Atmosphäre aus überhitztem Wasserdampf – zu organischer Biokohle umgesetzt werden.

Die flüssige Güllefraktion enthält die gelösten anorganischen Nährstoffe. In einem Fällungsreaktor wird zunächst Phosphor zurückgewonnen und als Calciumphosphat, Magnesiumphosphat oder Magnesiumammoniumphosphat gefällt und abfiltriert. Stickstoff wird in einem zweiten Schritt zurückgewonnen. Hierzu wird die wässrige Fraktion über eine Membranadsorption als Ammoniumsulfat abgetrennt und kristallisiert. Übrig bleibt ein Wasser, das nur noch Spuren von Phosphor und Stickstoff enthält, aber reich an Kalium ist – und optimal zur Bewässerung eingesetzt werden kann.

In umfangreichen Untersuchungen und Feldstudien haben die Fraunhofer-Forscher gezeigt, dass die aus Gülle aufbereiteten mineralischen Düngemittel und organischen Bodenverbesserer direkt als gut verfügbare Dünger und humusbildende Substrate in der Landwirtschaft eingesetzt werden können.

Das BioEcoSIM-Aufarbeitungsverfahren wurde im Rahmen des Projekts BioEcoSIM entwickelt, das von Oktober 2012 bis Dezember 2016 im 7. Forschungsrahmenprogramm der EU gefördert wurde.

Weitere Informationen:
https://www.igb.fraunhofer.de/de/presse-medien/presseinformationen/2018/innovati…

Anhang
Download Presseinformation
https://idw-online.de/de/attachment65477

Quelle: idw

(nach oben)


Studie zeigt: Sind wir glücklich mit unserem Job, dann fühlen wir uns auch privat wohler

Melanie Hahn Presse & Öffentlichkeitsarbeit
Hochschule Fresenius

In einer empirischen Arbeit der Hochschule Fresenius, Fachbereich Wirtschaft & Medien, wurde untersucht, ob es einen Zusammenhang zwischen Beruf und subjektivem Wohlbefinden gibt und welche Faktoren dabei eine Rolle spielen. Dazu befragte Oliver Hasenclever im Rahmen seiner Abschlussarbeit im Studium der Angewandten Psychologie (B.Sc.) über 200 Personen. Das Ergebnis: Sind wir im Job glücklich, fühlen wir uns auch nach Feierabend besser.

Arbeit nimmt einen großen Teil unserer Lebenszeit ein. Vielen Unternehmen ist deshalb ein gutes Betriebsklima wichtig, denn sie wissen: Fühlen sich die Angestellten wohl, wirkt sich das positiv auf die Arbeitshaltung aus. Doch steigt mit der Arbeitszufriedenheit auch das persönliche Wohlbefinden? Und welche Rolle spielt dabei das Einkommen?

Um herauszufinden, ob ein Zusammenhang zwischen subjektivem Wohlbefinden und der Arbeitszufriedenheit besteht, befragte Oliver Hasenclever für seine Bachelorarbeit 207 Personen zwischen 18 und 74 Jahren, die zur Zeit der Befragung mindestens eine berufliche Haupt- oder Nebentätigkeit ausübten. Um weitere Aussagen zum subjektivem Wohlbefinden treffen zu können, bezog Hasenclever auch die Variablen Einkommen, Alter, Bildungsniveau und Geschlecht mit ein.

In seinen Untersuchungen stellte Hasenclever so einen eindeutigen Zusammenhang zwischen Arbeitszufriedenheit und Wohlbefinden fest. Macht uns der Beruf Spaß, fühlen wir uns nach dem Feierabend wohler. Dies ist dann der Fall, wenn wir einen Sinn in dem sehen, was wir tun und wir die Aufgaben für interessant halten. Ebenso spielen Aufstiegsmöglichkeiten und Weiterbildungsmöglichkeiten eine große Rolle. Auch das Team und die Unternehmenskultur sowie die Anerkennung vom Vorgesetzten haben Einfluss darauf, wie wohl wir uns an unserem Arbeitsplatz fühlen.

Das Einkommen und das Alter konnten in dieser Erhebung hingegen nicht in Verbindung mit dem Wohlbefinden gebracht werden. Auch konnten kaum Unterschiede in Bezug auf das Geschlecht festgestellt werden. Männer als auch Frauen empfanden demnach ähnlich.

Die Forschung zum Thema „Wohlbefinden“ hat in den letzten Jahren stark zugenommen. Die Hochschuldozentin und Psychologin Dr. Kathrin Schütz hat die Erhebung betreut. Sie betont: „Es gibt immer noch kein Patentrezept, wie Wohlbefinden für die einzelne Person entsteht. Es handelt sich dabei um ein komplexes Konstrukt, welches vielen internalen sowie externalen Einflüssen unterliegt“. So komme es beispielsweise auch darauf an, welchen Ausgleich es zwischen Beruf und Freizeit gibt. „Verwendet man alle Ressourcen für berufliche Tätigkeiten, sind wir zu müde, um unseres Hobbys nachzugehen oder Freunde zu treffen. Einige Studien verweisen zwar darauf, dass das Geld die entscheidende Variable ist, wohingegen Studien wie diese zeigen, dass es eben doch nicht so einfach ist. Hier gibt es also noch ausreichend Forschungsbedarf“, führt die Psychologin weiter aus.

Weitere Informationen:
http://www.hs-fresenius.de

Quelle: idw

(nach oben)


Wasser reinigen und Boden düngen mit Pflanzenkohle

Franz-Georg Elpers Pressestelle
Deutsche Bundesstiftung Umwelt (DBU)

Kleinkläranlagen zur Phosphorrückgewinnung in Burkina Faso – DBU unterstützt mit 121.000 Euro

Die Abwasserproblematik entschärfen und gleichzeitig einen Dünger für ausgelaugte Böden gewinnen: Kleinkläranlagen neuen Typs sollen den Menschen im westafrikanischen Burkina Faso bald eine deutliche Verbesserung ihrer Lebenssituation bringen. Mithilfe von Pflanzenkohle soll lebensnotwendiger Phosphor aus dem Abwasser zurückgewonnen und als Bodendünger verwendet werden. Entwickelt und umgesetzt hat das Konzept die Firma Ökoservice (Denkendorf) gemeinsam mit der Technischen Universität Hamburg-Harburg (TUHH) und lokalen Partnern vor Ort wie ClimateSol. Die Deutsche Bundesstiftung Umwelt (DBU) fördert sie dabei fachlich und finanziell mit rund 121.000 Euro. „Die Projektergebnisse zeigen eindrucksvoll, dass der Phosphor-Kreislauf mit cleverer Umwelttechnik geschlossen werden kann – in Deutschland und weltweit. Das muss auch ein zentrales Anliegen sein, um durch entsprechende Kooperationen unsere gemeinsame Lebensgrundlage zu erhalten“, so DBU-Generalsekretär Alexander Bonde.

Abfallprodukt wird zum Dünger
Bei diesem Typ von Kleinkläranlangen könne generell auf die Vorklärung verzichtet werden, weshalb dort kein hochbelasteter Fäkalschlamm anfalle. Da somit die Nachbehandlung entfalle und die Anlage außerdem deutlich kompakter als andere gebaut werden könne, würden sich deutliche Kostenvorteile und ein geringerer ökologischer Fußabdruck ergeben, erläutert Projektleiter Jörg Fingas von der TUHH. Im Rahmen des Projektes sei eine bestehende Anlage an die speziellen Bedürfnisse in Burkina Faso angepasst worden. „Das Besondere ist, dass wir dem Klärschlamm regionale Pflanzenkohle hinzugegeben haben. Die bleibt beim Kochen über, wird aus den Schalen des Wüstendattelbaums gewonnen und ist ein Abfallprodukt der Ölherstellung“, so Fingas weiter. Auf der Kohle lagere sich der im Schmutzwasser enthaltene Phosphor und Biomasse ab. Deshalb könne sie anschließend gezielt als Dünger eingesetzt werden und nährstoffarme Böden wieder fruchtbarer machen. Das Wasser sei am Ende soweit gereinigt, das damit Felder bewässert werden können.

Forschung geht weiter, Ziel ist es Trinkwasserqualität zu erreichen
Großen Wert hätten die Projektpartner darauf gelegt, ökologische und ökonomische Aspekte zu berücksichtigen. „Deshalb haben wir die Anlage so konzipiert, dass sie von lokalen Handwerkern gebaut werden kann und damit eine Wertschöpfung vor Ort stattfindet“, sagt Thomas Czoske von Ökoservice. Möglichst viele Bauteile sollen lokal beschafft werden können. Nur ein kleiner Teil komme aus Deutschland. Ausgelegt sei die getestete Anlage für einen Haushalt mit bis zu 12 Personen. Es sei jedoch möglich, sie in Größen für bis zu 5.000 Menschen zu bauen. Damit eigne sie sich für einzelne Wohngebäude ebenso wie für Hotels, Schulen oder Camps. Die Verhandlungen mit ersten Interessenten dazu würden bereits laufen. Für die nächsten zwei Jahre sei der Betrieb der Testanlage bereits gesichert. In dieser Zeit soll im Rahmen einer Doktorarbeit ermittelt werden, ob mit der Kleinkläranlage und beispielsweise mittels Moringasamen zur Desinfektion sogar Trinkwasserqualität erreicht werden kann. „Mit dem Projekt stärken wir gleich mehrere Kreisläufe: neben dem des Phosphors auch den des Wassers und der lokalen Wertschöpfung“, fasst DBU-Experte Franz-Peter Heidenreich zufrieden zusammen.

Zum Hintergrund:
Phosphor ist Teil unserer Lebensgrundlage und kann nicht durch andere Stoffe ersetzt werden. Er fördert beispielsweise das Wachstum von Pflanzen, weshalb große Mengen davon als Dünger in der Landwirtschaft eingesetzt werden. Bisher wird Phosphor im Tagebau abgebaut. Doch das hat große Auswirkungen auf die Umwelt, findet häufig in Ländern mit schwieriger politischer Lage statt und benötigt viel Energie. Zudem ist er häufig mit Schadstoffen belastet. Über unsere Nahrung landet ein großer Teil des Phosphors schließlich im Klärschlamm. Dieser kann jedoch nicht mehr ohne weiteres in der Landwirtschaft wiederverwendet werden, da er häufig zu viele Schadstoffe enthält. Zwar gibt es alternative Rückgewinnungs-Verfahren. Sie benötigen bisher jedoch große Mengen Chemikalien und Energie.
So lange Phosphor nicht wiederverwendet wird, besteht die Gefahr, eine der von internationalen Experten definierten Belastungsgrenzen des Erdsystems zu überschreiten und die Chance zu verpassen, die 2015 beschlossenen globalen nachhaltigen Entwicklungsziele der Vereinten Nationen langfristig zu erreichen. Sie sollen eine nachhaltige Entwicklung auf ökonomischer, sozialer sowie ökologischer Ebene sichern.

Weitere Informationen:
https://www.dbu.de/123artikel37632_2442.html

Quelle: idw

(nach oben)


Wenn es um Geld geht, ticken Menschen rund um den Globus ähnlich

Peter Kuntz Presse- und Öffentlichkeitsarbeit
Universität Trier

Wirtschaftswissenschaftler der Universität Trier legen eine für die Finanzberatung erkenntnisreiche Studie vor

Geldanleger kann man in Schubladen stecken: da gibt es die an Finanzen Interessierten, die Sparer, die Vorsichtigen, die Intuitiven oder die Konsumfreudigen. Finanzberatern kann dieses „Schubladen-Denken“ dazu dienen, ihre Kunden richtig einzuschätzen und ihnen die auf den jeweiligen Typus zugeschnittenen Produkte anzubieten. Bislang ging man davon aus, dass diese Kategorien für die Bevölkerung westlicher und hoch entwickelter Staaten gelten. Bei einem Vergleich der Einstellungen zu Geld von Anlegern in der Schweiz und Vietnam haben Prof. Dr. Marc Oliver Rieger und Thuy Chung Phan von der Universität Trier zusammen mit Prof. Dr. Mei Wang (WHU Vallendar) herausgefunden, dass die Merkmale in beiden Ländern gleichermaßen zutreffen – trotz der enormen kulturellen und wirtschaftlichen Unterschiede. Für die Finanzbranche hätte das zur Folge, dass sie ihre Empfehlungsmuster und Produkte für „westliche“ Kunden auch in globalem Stil anwenden kann.

„Die Ergebnisse unserer Arbeit können Finanzberater darin unterstützen, länderübergreifende Marketingstrategien zu entwickeln, die spezifische finanzielle Bedürfnisse jeder Anlegergruppe berücksichtigen und ihnen damit effizienteren Service anzubieten“, fasst Professor Rieger praxisbezogene Ergebnisse der Studie zusammen. Ein Finanzprodukt für einen intuitiv veranlagten Menschen in der Schweiz sollte auch auf einen instinktiv handelnden Investor in Vietnam passen.

Bezogen auf die Schweiz hatten die Autoren Brigitte Fünfgeld und Mei Wang in einer vorhergehenden Studie fünf Kategorien für die Einstellung zu Geld herausgearbeitet. Auf der Basis dieser Typologie lassen sich der Bedarf der Kunden und maßgeschneiderte Produkte weitaus treffsicherer ermitteln als durch soziodemografische Unterscheidungen wie Alter, Geschlecht oder Einkommen.

Marc Oliver Rieger und Thuy Chung Phan übertrugen das von Fünfgeld/Wang für die Schweiz entwickelte Muster auf mehr als 3.000 in Vietnam befragte Investoren. Dort zeigten sich zwar andere prozentuale Verteilungen der jeweiligen Anleger-Typen. Den Finanzmarktforschern der Universität Trier ging es jedoch primär um die Erkenntnis, ob die Typologie auf beide Länder gleichermaßen zutrifft.

„Wenn die Faktoren in so unterschiedlichen Ländern wie der Schweiz und Vietnam greifen, dann liegt die Vermutung nahe, dass sie auf eine Vielzahl von weiteren Ländern anwendbar sind. Die Ergebnisse lassen auch den Schluss zu, dass bereits eine homogene globale Konsumkultur besteht oder im Entstehen begriffen ist“, sagt Thuy Chung Phan.

Nach Wissen der beiden Trierer Ökonomen ist dies die erste interkulturelle Studie, in der finanzbezogene Einstellungen und Verhaltensweisen als Variablen für die Unterscheidung von Kundengruppen verwendet werden. Weitere interkulturell angelegte Studien könnten die Zuverlässigkeit der getroffenen Aussagen untermauern.

Das Paper zur Studie von Thuy Chung Phan, Marc Oliver Rieger und Mei Wang wird im International Journal of Bank Marketing veröffentlicht.

Kontakt
Prof. Dr. Marc Oliver Rieger
Universität Trier/Betriebswirtschaftslehre
mrieger@uni-trier.de
Tel. 0651/201-2721
https://banking-finance.uni-trier.de 

Quelle: idw

(nach oben)


Projekt Klimalandschaften lädt zum Mitmachen ein

Meike Drießen Dezernat Hochschulkommunikation
Ruhr-Universität Bochum

Warum erst zum Klimaschützer werden, wenn der eigene Keller wegen Starkregens unter Wasser stand? Forscherinnen und Forscher der Arbeitsgruppe Geomatik der Ruhr-Universität Bochum (RUB) laden Bürgerinnen und Bürger sowie die Kommunalpolitik jetzt schon zum Mitmachen ein: Im Projekt „Stadt und Land im Fluss – Netzwerk zur Gestaltung einer nachhaltigen Klimalandschaft“, kurz Klimnet, erarbeiten alle zusammen einen Handlungsleitfaden zur Klimaanpassung für die Modellregionen Ruhrgebiet und Bonn.

Den Blick öffnen zur kreativen Anpassung
Das Thema Klimaschutz ist mittlerweile jedem ein Begriff. Trotzdem beschäftigen sich die meisten mit Klimaanpassung erst dann aktiv, wenn sie persönlich durch Starkregen, ein Jahrhunderthochwasser, eine Trockenperiode oder einen Bäume entwurzelnden Sturm unmittelbar von den Folgen des Klimawandels betroffen sind. „Um den Blick zu öffnen, wie man sich kreativ anpassen kann, bringt es nichts, bei den Bedrohungen stehenzubleiben“, sagt Dr. Andreas Rienow von der Arbeitsgruppe Geomatik der RUB. „Wir wollen den Klimawandel zum Anlass nehmen, Veränderungspotenziale und den Ideenreichtum durch neue Kooperationsformen zu wecken.“

Effekte des Klimawandels abpuffern
Dazu gibt es im Projekt, an dem auch der Wissenschaftsladen Bonn, die Arbeitsgruppe Fernerkundung des Geographischen Instituts der Universität Bonn sowie die Städte Bonn und Gelsenkirchen beteiligt sind, Exkursionen, Seminare, Info-Punkte und ein sogenanntes Crowd-Mapping, bei dem die Forscherinnen und Forscher gemeinsam mit den Bürgerinnen und Bürgern nach Orten suchen, die eine Anpassung an das veränderte Klima nötig hätten. Diese Angebote zeigen allen Interessierten auf, wie sich das Klima vor Ort wandelt, was das bedeutet und was man tun kann, um sich anzupassen. „Begrünte Gebäude, entsiegelte Plätze, schattenspendende Alleen, das alles kann die Effekte des Klimawandels in den Städten abpuffern“, erläutert Prof. Dr. Carsten Jürgens, der das Projekt begleiten wird.

Satellitenbilder auswerten
Außerdem nutzen sie Satellitenbilder der vergangenen Jahrzehnte, um Orte auszumachen, die man verändern könnte, um dem Klimawandel entgegenzuwirken. „Riesige Pflasterflächen sind zum Beispiel ungünstig, weil sie sich im Sommer stark aufheizen“, so Andreas Rienow. Dazu entwickeln die Forscherinnen und Forscher aus Bochum und Bonn auch ein interaktives geografisches Informationssystem zum Klimawandel, das im Sommer an den Start gebracht werden wird.

Masterstudierende entwickeln Crowd-Mapping
Im Sommersemester 2018 bietet er zudem im Geografie-Masterstudiengang ein Seminar zum Projektthema an. Darin untersuchen die Studierenden unter anderem Hotspots klimarelevanter Landschaftsmerkmale und -veränderungen. Dazu gehören zum Beispiel verbaute Frischluftschneisen, neue Windkraftanlagen, der Anbau von Energiepflanzen und die Vegetation in Städten. Außerdem entwickeln die Seminarteilnehmer Aktionsfelder für ein Crowd-Mapping, das die Bevölkerung für die Teilnahme an kommunalen und wissenschaftlichen Themen interessieren soll.

Förderung
Das Projekt Klimnet wird vom Bundesministerium für Umwelt, Naturschutz und nukleare Sicherheit gefördert (FKZ: 03DAS098C).

Pressekontakt
Dr. Andreas Rienow
Arbeitsgruppe Geomatik
Geographisches Institut
Ruhr-Universität Bochum
Tel.: 0234 32 24791
E-Mail: andreas.rienow@rub.de

Weitere Informationen:
http://klimalandschaften-nrw.de/ – Projektwebseite

Quelle: idw

(nach oben)


Die Emotion liegt im Auge des Hörers: Warum überraschende Geräusche die Pupille weiten

Sophie Ehrenberg Wissenschaftsorganisation & Öffentlichkeitsarbeit
Leibniz-Institut für Neurobiologie

Magdeburg/Leipzig. Ein Baby weint oder ein Hund knurrt – beide Geräusche wecken bei uns Emotionen, die sich an den Augen ablesen lassen. Dr. Nicole Wetzel, Leiterin der CBBS-Forschergruppe Neurokognitive Entwicklung am Leibniz-Institut für Neurobiologie (LIN), sowie Andreas Widmann und Prof. Dr. Erich Schröger von der Universität Leipzig haben in einer Grundlagenstudie im Fachmagazin Biological Psychology gezeigt, wie unser Gehirn überraschende emotionale Geräusche verarbeitet. Mit einer neuen Methode konnten die Forscher nachweisen, wie neuronale Aktivität im Gehirn die Pupillenweite über das sympathische und parasympathische Nervensystem beeinflusst.

„Wie unser Gehirn überraschend auftretende emotionale Geräusche verarbeitet, lässt sich auch an den Augen ablesen“, erklärt Nicole Wetzel. In einer methodischen Grundlagenstudie haben sie und Andreas Widmann bei erwachsenen Probanden untersucht, wie zum Beispiel das Geräusch eines schreienden Babys die Pupille und die hirnelektrische Aktivität, die mittels Elektoenzephalographie (EEG) gemessen wird, beeinflusst. „Dabei haben wir einen neuen methodischen Ansatz genutzt, der die Messung der Pupillenweite und der Hirnströme miteinander kombiniert“, sagt Widmann. Dank dieser Messungen lassen sich Rückschlüsse auf die neuronale Aktivität im Gehirn ziehen, die sich sonst nicht ohne weiteres beobachten lässt.

„Die Weite der Pupillen wird nicht allein durch die Helligkeit bestimmt, sondern kann auch kognitive Prozesse abbilden. Versucht zum Beispiel jemand, sich eine Reihe von Zahlen zu merken, weiten sich die Pupillen zunehmend. Oder wenn wir ein unerwartetes Geräusch hören, werden unsere Pupillen größer und wir können ein spezifisches Muster in den Hirnströmen beobachten“, berichtet Widmann. Diese überraschenden Ereignisse aktivieren das sympathische Nervensystem, das den Körper auf Flucht oder Kampf vorbereitet. Gleichzeitig hemmen sie das parasympathische Nervensystem, dessen Aktivität in Ruhe- und Regenerationsphasen überwiegt. Beide Teile des autonomen Nervensystems können die Weitung der Pupille getrennt voneinander über zwei verschiedene Muskeln steuern. Bisher ließen sich die Beiträge beider Muskeln beziehungsweise Nervensysteme auf die Weitung der Pupille jedoch nicht voneinander trennen.

Die Forscher haben in ihrer aktuellen Studie deshalb versucht, die Aktivität der Muskeln, die die Pupillenweite steuern, durch unterschiedliche Umgebungshelligkeiten zu beeinflussen. Den Probanden wurden in vollständiger Dunkelheit und bei normaler Beleuchtung überraschende, emotionale Störgeräusche, wie zum Beispiel das Weinen eines Kindes, sowie nicht-emotionale Störgeräusche, beispielsweise ein vorbeifahrendes Auto, vorgespielt. Der ringförmige Muskel, der durch das parasympathische Nervensystem gesteuert wird, erschlafft im Dunkeln und kann deshalb nicht mehr zur Pupillenweitung beitragen. Mittels statistischer Verfahren ließen sich so die Beiträge der sympathischen und parasympathischen Nervensysteme zur Pupillenweitung voneinander trennen. Dabei fiel auf: Im Vergleich zu nicht-emotionalen Geräuschen war bei emotionalen Geräuschen der Beitrag der Aktivierung des sympathischen Nervensystems erhöht, nicht aber die Hemmung des parasympathischen Nervensystems. „Wenn ein Störgeräusch ein emotionales Geräusch ist, werden unsere Pupillen also automatisch noch größer. Das bestätigt unsere Hypothese, dass solche Gefühlsregungen mit der Aktivierung des sympathischen Nervensystems verknüpft sind“, fasst Nicole Wetzel die Studienergebnisse zusammen.

Auch im EEG wird durch überraschende Geräusche ein typisches Hirnstrommuster ausgelöst. Dieses wird vermutlich dadurch hervorgerufen, dass die Erregungsschwelle von Neuronen in der Großhirnrinde gezielt gesenkt und neuronale Aktivität verstärkt wird, um wichtige Ereignisse schnell analysieren und darauf reagieren zu können. Das Antwortmuster auf emotionale Störgeräusche kann daher mit hoher Wahrscheinlichkeit einer Koaktivierung mit dem sympathischen Nervensystem zugeordnet werden.

„Die Möglichkeit, emotionale und kognitive Prozesse und deren zugrundeliegende neuronale Aktivität durch nicht belastende, videobasierte Messung der Pupillenweite zu erforschen, eröffnet weitreichende Möglichkeiten zur Forschung insbesondere bei Babys und Kleinkindern“, sagt Wetzel. Widmann ergänzt: „Sie ist aber auch bei anderen Probanden einsetzbar, für die andere Forschungsmethoden nicht in Betracht kommen.“ Außerdem gewinnt der Ansatz, Pupillenweitung und Hirnstrommessungen kombiniert auszuwerten, aufgrund der weiterentwickelten Technik zunehmend an Bedeutung. Er soll in künftigen Studien der Arbeitsgruppe zur auditiven Aufmerksamkeitsforschung auch bei Kindern angewendet werden, um in der Entwicklungsforschung zu verstehen, wie neuronale Systeme bei Störgeräuschen arbeiten. Vor allem Kinder im Alter von ein bis sechs Jahren sind bisher wenig erforscht. Diese Lücke will das Team um Nicole Wetzel und Andreas Widmann schließen.

Weitere Informationen:
http://www.sciencedirect.com/science/article/pii/S0301051118300498

Quelle: idw

(nach oben)


Folgen eines Zeckenstichs sicher erkennen und behandeln: Leitlinie Neuroborreliose veröffentlicht

Pressesprecher: Prof. Dr. med. Hans-Christoph Diener, Essen Pressestelle der DGN
Deutsche Gesellschaft für Neurologie e.V.

Die Zeckensaison 2018 startet mit neuen Empfehlungen für die Diagnose und Therapie der durch Zecken übertragenen Erkrankung Neuroborreliose. Die Deutsche Gesellschaft für Neurologie (DGN) hat heute nach mehr als dreijähriger Arbeit die erste S3-Leitlinie Neuroborreliose veröffentlicht. S3-Leitlinien sind Leitfäden für Ärzte und Patienten, die nach strengen Regeln erarbeitet werden und den aktuellen Stand der wissenschaftlichen Medizin wiedergeben. Die Leitlinie Neuroborreliose, deren Veröffentlichung sich durch einen Rechtsstreit um einige Wochen verzögert hatte, bezieht klar Stellung zu vermeintlichen Spätfolgen einer Borrelieninfektion, die Jahre nach dem Zeckenstich auftreten sollen.

„Krankheitsbilder mit anhaltenden unspezifischen bzw. untypischen Symptomen sind häufig keine Borreliosen“, so Professor Sebastian Rauer vom Universitätsklinikum Freiburg, der die Leitlinienarbeit gemeinsam mit PD Dr. Stephan Kastenbauer aus München koordiniert hat. Die Leitlinie gilt erstmals auch für die Neuroborreliose im Kindes- und Jugendalter und ist im Internetauftritt der DGN frei zugänglich (dgn.org/leitlinien).

Die Leitlinie erläutert, welche diagnostischen Schritte und Labortests die Diagnose Neuroborreliose sichern, und bietet einen Überblick über wirksame Therapien. Sie enthält außerdem ein Informationsblatt für Patienten zur Nachbeobachtung eines Zeckenstichs und gibt Empfehlungen zur Prävention einer Borrelieninfektion. Die S3-Leitlinie ist eine Weiterentwicklung der bisher gültigen S1-Leitlinie. Sie wurde unter Federführung der Deutschen Gesellschaft für Neurologie (DGN) in einem mehr als dreijährigen strukturierten Evidenzprozess nach den methodischen Vorgaben der Arbeitsgemeinschaft der Wissenschaftlichen Medizinischen Fachgesellschaften (AWMF) erstellt. S3 steht in dieser Methodik für die höchste Qualitätsstufe der Entwicklung. Die Empfehlungen basieren auf einer systematischen Auswertung der wissenschaftlichen Literatur zur Neuroborreliose.

Akute Neuroborreliose: 3 bis 15 Prozent der Borrelieninfektionen betreffen das Nervensystem
Die Lyme-Borreliose (auch Lyme-Disease genannt) ist die am häufigsten durch Zecken übertragene Krankheit in Europa. In Deutschland erkranken jährlich zwischen 60.000 und mehr als 200.000 Menschen. Eine frühzeitige Entfernung der Zecke, bevor sie sich mit Blut vollgesaugt hat, kann die Übertragung des Erregers verhindern. Die Borrelien, spiralförmige Bakterien, befallen vorwiegend die Haut. Typisches Erkennungszeichen ist die sogenannte Wanderröte: Um den Zeckenstich bildet sich ein roter Rand, der sich langsam nach außen ausweitet; oft kommen Muskel- und Gelenkschmerzen und andere grippeähnliche Beschwerden hinzu.
Im übrigen Körper können die Borrelien Gelenke, das Nervensystem und selten das Herz befallen. In 3 bis 15 Prozent der Fälle ist das Nervensystem betroffen, man spricht dann von einer Neuroborreliose. In diesen Fällen typisch sind nächtlich betonte, brennende und stechende Schmerzen, die häufig gürtelförmig verteilt sind und schlecht auf Schmerzmittel ansprechen. Auch Lähmungen können vorkommen, vor allem der Gesichtsnerven, der Arme und Beine. Bei Kindern äußert sich die Neuroborreliose am häufigsten in einer Gesichtsnervenlähmung oder Hirnhautentzündung (Meningitis). „Anhand der typischen Symptome in Verbindung mit entzündlichen Veränderungen im Nervenwasser und dem positiven Antikörpernachweis lässt sich eine Neuroborreliose in der Regel zweifelsfrei feststellen“, erklärt Professor Rauer. Von Blut- oder Liquortests auf Borreliose bei unspezifischen Beschwerden rät DGN-Experte Rauer ab. „Laboruntersuchungen sind nur bei ausreichendem klinischem Verdacht sinnvoll.“

Chronische Neuroborreliose: Schlechte Langzeitverläufe basieren auf Fehldiagnosen
Zu den umstrittenen vermeintlichen chronischen Neuroborreliosen liefert die S3-Leitlinie eindeutige wissenschaftliche Fakten. Nicht haltbar ist die Theorie, wonach Erschöpfung, Konzentrationsstörungen, chronische Müdigkeit, wandernde Schmerzen, Gedächtnisstörungen, Kopfschmerzen und andere schwer greifbare Beschwerden trotz unauffälliger Liquordiagnostik auf eine nicht erkannte oder unzureichend behandelte Infektion des Nervensystems mit Borrelien zurückzuführen sind. „Die Neuroborreliose verläuft überwiegend gutartig“, betont Rauer. „Schlechte Langzeitverläufe, von denen immer wieder berichtet wird, sind zum erheblichen Teil auf Fehldiagnosen zurückzuführen. Das Nichtansprechen auf die Therapie liegt in diesen Fällen also nicht daran, dass die Borrelien überleben. Der Grund ist vielmehr, dass die Patienten keine Neuroborreliose haben, sondern eine andere Erkrankung, die nicht auf Antibiotika anspricht.“
Auch den sogenannten Lymphozyten-Transformationstest, der bei diffusen Beschwerden wie chronischer Müdigkeit, muskuloskelettalen Schmerzen, Abgeschlagenheit oder Konzentrationsstörungen eine chronische Borreliose nachweisen soll, halten die wissenschaftlich-medizinischen Fachgesellschaften für nicht aussagekräftig.

Aktuelle Empfehlungen zur Art und Dauer der Antibiotikatherapie
Die Antibiotikabehandlung sollte mit Doxycyclin oder Penizillin G oder Ceftriaxon oder Cefotaxim erfolgen. „Diese Substanzen sind bei gleicher Verträglichkeit gleich gut wirksam gegen Borrelien“, so Rauer. „Über die Wirksamkeit von anderen Substanzen oder Antibiotika-Kombinationsbehandlungen liegen zu wenig auswertbare Studiendaten vor.“ Die Leitlinie betont, dass eine medikamentöse Therapiedauer von 14 Tagen bei früher und von 14 bis 21 Tagen bei später Neuroborreliose im Regelfall ausreichend ist. „Eine längere Behandlung bringt keinen Mehrwert, sondern setzt die Patienten einem unnötigen Risiko von schweren Nebenwirkungen aus. Wenn die Antibiotika nach zwei bis drei Wochen nicht anschlagen, bringen auch weitere Wochen oder gar Monate nichts.“

An der Entwicklung der S3-Leitlinie Neuroborreliose waren Vertreter aller Fachrichtungen beteiligt, die mit dem Krankheitsbild zu tun haben: 20 wissenschaftliche medizinische Fachgesellschaften, das Robert Koch-Institut, die Paul Ehrlich Gesellschaft, drei Patientenorganisationen sowie die Deutsche Borreliose-Gesellschaft e.V. (DBG), eine Vereinigung von Wissenschaftlern und Ärzten, die sich mit der Borreliose und assoziierten Infektionskrankheiten befassen. Es gab fünf Konsensuskonferenzen und eine außerordentliche Konferenz, bei denen die vorhandenen wissenschaftlichen Studien sowie die Erfahrungen der Experten ausführlich in der Leitliniengruppe diskutiert wurden. Nicht zu allen Punkten sei ein Konsens gefunden worden, berichtet Rauer, Neuroborreliose-Spezialist der DGN: „Im Hinblick auf die späte Neuroborreliose und vermeintliche latente Langzeitinfektionen besteht zwischen den wissenschaftlichen Fachgesellschaften einerseits und den Patientenorganisationen bzw. der DBG andererseits eine große Kontroverse.“ Die Deutsche Borreliose-Gesellschaft e.V. und der Borreliose und FSME Bund Deutschland e.V. versuchten sogar, die Leitlinie mit einer einstweiligen Verfügung zu stoppen. Das Landgericht Berlin hat diese mit Urteil vom 12. März 2018 aufgehoben (die DGN berichtete).

Quellen
Rauer S., Kastenbauer S. et al. S3-Leitlinie Neuroborreliose. 2018. In: Deutsche Gesellschaft für Neurologie, Hrsg., Leitlinien für Diagnostik und Therapie in der Neurologie. Online: www.dgn.org/ leitlinien und www.awmf.org
„Leitlinie zur Neuroborreliose kann in Kraft treten“. Pressemeldung der Deutschen Gesellschaft für Neurologie (DGN) vom 19. März 2018

Fachlicher Kontakt bei Rückfragen
Professor Dr. med. Sebastian Rauer
Neurologische Universitätsklinik
Breisacherstraße 64, 79106 Freiburg
Tel.: +49 (0)761 270 53070
E-Mail: sebastian.rauer@uniklinik-freiburg.de

Pressestelle der Deutschen Gesellschaft für Neurologie
c/o albertZWEI media GmbH, Oettingenstraße 25, 80538 München
Tel.: +49 (0)89 46148622, Fax: +49 (0)89 46148625
Pressesprecher: Prof. Dr. med. Hans-Christoph Diener, Essen
E-Mail: presse@dgn.org

Die Leitlinien der DGN
Die Kommission Leitlinien der Deutschen Gesellschaft für Neurologie (DGN) unter der Leitung von Prof. Dr. Hans-Christoph Diener (Essen) und Prof. Dr. Christian Gerloff (Hamburg) bringt mit ihren circa 80 medizinischen Leitlinien neue wissenschaftliche Erkenntnisse schnellstmöglich in die therapeutische Praxis und damit an die Patienten mit neurologischen Erkrankungen. Leitlinien spielen damit eine wichtige Rolle für die schnelle und kompetente Verbreitung von Forschungsergebnissen. Verfasst werden die Leitlinien für Diagnostik und Therapie von ausgewiesenen Experten auf dem jeweiligen Gebiet, unter Beteiligung von österreichischen und Schweizer Neurologen, teilweise auch unter Beteiligung von Therapeuten und Patientenvertretern. Wichtig ist die bestmögliche Objektivität der ausgesprochenen Empfehlungen. Aus diesem Grund erfolgen die Zusammenstellung der Leitliniengruppe und die Konsensfindung bei Empfehlungen nach klaren Vorgaben auf Basis des Regelwerks der Arbeitsgemeinschaft der Wissenschaftlichen Medizinischen Fachgesellschaften (AWMF). Alle Leitlinien der DGN sind auf www.dgn.org frei zugänglich publiziert.

Die Deutsche Gesellschaft für Neurologie e.V. (DGN)
sieht sich als neurologische Fachgesellschaft in der gesellschaftlichen Verantwortung, mit ihren rund 9000 Mitgliedern die neurologische Krankenversorgung in Deutschland zu sichern. Dafür fördert die DGN Wissenschaft und Forschung sowie Lehre, Fort- und Weiterbildung in der Neurologie. Sie beteiligt sich an der gesundheitspolitischen Diskussion. Die DGN wurde im Jahr 1907 in Dresden gegründet. Sitz der Geschäftsstelle ist Berlin.
www.dgn.org

Präsident: Prof. Dr. med. Gereon R. Fink
Stellvertretende Präsidentin: Prof. Dr. med. Christine Klein
Past-Präsident: Prof. Dr. med. Ralf Gold
Geschäftsführer: Dr. rer. nat. Thomas Thiekötter
Geschäftsstelle: Reinhardtstr. 27 C, 10117 Berlin, Tel.: +49 (0)30 531437930, E-Mail: info@dgn.org

Weitere Informationen:
https://www.dgn.org/presse/pressemitteilungen/56-pressemitteilung-2018/3580-folg…

Anhang
Pressemitteilung als PDF
https://idw-online.de/de/attachment65245

Quelle: idw

(nach oben)


Stärkere Belege für Abschwächung des Golfstromsystems

Jonas Viering Presse- und Öffentlichkeitsarbeit
Potsdam-Institut für Klimafolgenforschung

Die als Golfstromsystem bekannte Umwälzströmung im Atlantik – eines der wichtigsten Wärmetransportsysteme der Erde, das warmes Wasser nach Norden und kaltes Wasser nach Süden pumpt – ist heute schwächer als je zuvor in den vergangenen 1000 Jahren. Temperaturdaten von der Meeresoberfläche liefern neue Belege dafür, dass sich diese große Ozeanzirkulation seit Mitte des 20. Jahrhunderts um etwa 15 Prozent verlangsamt hat. Das zeigt eine Studie, die jetzt von einem internationalen Wissenschaftlerteam in der renommierten Fachzeitschrift Nature veröffentlicht wurde. Der vom Menschen verursachte Klimawandel ist der Hauptverdächtige für diese beunruhigenden Beobachtungen.

„Wir haben ein spezielles Muster entdeckt – eine Abkühlung des Ozeans südlich von Grönland und eine ungewöhnliche Erwärmung vor der US-Küste“, sagt die Leit-Autorin Levke Caesar vom Potsdam-Institut für Klimafolgenforschung (PIK). „Dieses Muster ist sehr charakteristisch für eine Verlangsamung der Umwälzung der Wassermassen im Atlantik. Es ist praktisch wie ein Fingerabdruck einer Abschwächung dieser Meeresströmungen.“ Wenn sich die Strömungen verlangsamen, bringen sie weniger Wärme nach Norden, was zu einer Abkühlung des Nordatlantiks führt – tatsächlich ist dies weltweit die einzige Meeresregion, die sich trotz der globalen Erwärmung abgekühlt hat. Gleichzeitig verlagert sich der Golfstrom in der Nähe der USA nach Norden und Richtung Land, dabei erwärmt er die Gewässer entlang der nördlichen Hälfte der US-Atlantikküste.

„Diese Region hat sich in den letzten Jahrzehnten schneller erwärmt als fast alle anderen Teile der Weltmeere“, sagt Ko-Autor Vincent Saba vom National Oceanic and Atmospheric Administration (NOAA) Laboratory in Princeton, USA. „Ein solches Muster der Ozeantemperaturen wurde von Computersimulationen vorhergesagt als Reaktion auf den zunehmenden Ausstoß von Treibhausgasen – jetzt wurde diese Vorhersage durch Messungen bestätigt.“

+++Messungen der Meerestemperaturen bestätigen Computersimulationen+++
Seit Jahrzehnten untersuchen Wissenschaftler die Veränderungen der großen atlantischen Umwälzströmung. Computersimulationen sagen voraus, dass diese als Golfstromsystem bekannte Zirkulation sich als Reaktion auf die vom Menschen verursachte globale Erwärmung abschwächen wird. Ob dies aber bereits geschieht, war bisher unklar, da es keine langfristigen direkten Messreihen zu der Strömung gibt. „Die Belege, die wir jetzt haben, sind die bisher robustesten“, sagt Stefan Rahmstorf vom Potsdam-Institut, der die Studie konzipiert hat. „Wir haben alle verfügbaren Daten über die Temperatur der Meeresoberfläche analysiert, vom späten 19. Jahrhundert bis heute.“

„Das spezifische Trendmuster, das wir in den Messungen gefunden haben, sieht genauso aus, wie es von Computersimulationen als Folge einer Verlangsamung des Golfstromsystems vorhergesagt wird, und ich sehe keine andere plausible Erklärung dafür“, sagt Rahmstorf. Tatsächlich ist es nicht nur das räumliche Muster, das zwischen Computersimulation und Beobachtungen übereinstimmt, sondern auch der Wechsel im Jahreszyklus.

+++Globale Erwärmung als wahrscheinliche Ursache – Auswirkungen sind weitreichend+++
Die Abschwächung wird durch eine Reihe von Faktoren verursacht, die mit der durch Treibhausgase aus fossilen Brennstoffen verursachten globalen Erwärmung in Zusammenhang gebracht werden können. Die Umwälzströmung des Atlantik wird durch die Dichte-Unterschiede des Meerwassers angetrieben: Wenn das warme und damit leichtere Wasser von Süden nach Norden fließt, wird es kälter und damit dichter und schwerer – es sinkt in tiefere Meeresschichten und fließt zurück in den Süden. „Aber mit der globalen Erwärmung, verstärkten Regenfällen sowie Schmelzwasser aus dem arktischen Meereis und Grönlandeis wird das Wasser des Nordatlantiks verdünnt, sein Salzgehalt sinkt. Weniger salzhaltiges Wasser ist weniger dicht und damit weniger schwer – was es für das Wasser schwieriger macht, von der Oberfläche in die Tiefe zu sinken“, erklärt Alexander Robinson von der Universität Madrid, der die Studie mitverfasst hat.

Seit Jahrzehnten wird diskutiert, ob die Umwälzströmung des Atlantiks als Kippelement im Erdsystem völlig versiegen könnte. Die vorliegende Studie betrachtet aber nicht das zukünftige Schicksal dieser Zirkulation, sondern untersucht, wie sie sich in den letzten hundert Jahren verändert hat. Dennoch warnt Robinson: „Wenn wir die globale Erwärmung nicht rasch stoppen, müssen wir mit einer weiteren langfristigen Verlangsamung der Atlantikströmung rechnen. Wir fangen erst an, die Folgen dieses beispiellosen Prozesses zu verstehen – aber sie dürften weitreichend sein.“

Mehrere Studien haben beispielsweise gezeigt, dass eine Verlangsamung des Golfstromsystems den Anstieg des Meeresspiegels an der US-Küste für Städte wie New York und Boston verschärft. Andere zeigen, dass die damit verbundene Veränderung der atlantischen Meeresoberflächentemperaturen das Wetter in Europa beeinflusst, etwa die Zugbahnen von Stürmen, die vom Atlantik kommen. Konkret wurde die europäische Hitzewelle des Sommers 2015 mit der Rekordkälte im Nordatlantik in diesem Jahr in Verbindung gebracht – dieser scheinbar paradoxe Effekt entsteht, weil ein kalter Nordatlantik ein Luftdruckmuster begünstigt, das warme Luft aus dem Süden nach Europa leitet.

+++Studie zur Erdgeschichte in derselben Ausgabe von Nature stützt die Ergebnisse+++
Die Ergebnisse werden durch eine zweite Studie eines Teams um David Thornalley vom University College London, die in der gleichen Ausgabe von Nature veröffentlicht wurde, im Wesentlichen gestützt und in einen längerfristigen Zusammenhang gestellt. Diese wichtige Analyse untersucht das Klima der Erde in der Vergangenheit – mit Hilfe von Informationen, die zum Beispiel in der Zusammensetzung von Ablagerungen auf dem Meeresboden zu finden sind -, um Veränderungen in der atlantischen Umwälzströmung in den letzten 1600 Jahren zu rekonstruieren. Diese so genannten paläoklimatischen Proxydaten liefern eine unabhängige Bestätigung für frühere Schlussfolgerungen, wonach die jüngste Abschwächung des Golfstromsystems seit mindestens tausend Jahren beispiellos ist. Die Entwicklung der atlantischen Umwälzströmung im vergangenen Jahrtausend, die sich aus indirekten Belegen für die Temperaturen unterhalb der Meeresoberfläche ableitet, entspricht dabei fast genau derjenigen, die Rahmstorf und Kollegen 2015 in einer Studie ermittelt haben – was bemerkenswert ist, weil die neue Studie auf Sedimenten aus der Tiefe des Ozeans basiert, während die frühere Studie so genannte Klima-Archive an Land nutzte, wie Daten aus Eisbohrkernen und Baumringen.

„Jetzt kommen mehrere unabhängige Belege zusammen und ergeben ein schlüssiges Bild der Abschwächung der atlantischen Umwälzströmung seit den 1950er Jahren“, so Rahmstorf. „Die subpolare atlantische Abkühlung, die Erwärmung in der Golfstromregion, die Proxydaten von Thornalley für die Temperaturen des Ozeans unterhalb der Oberfläche und frühere Proxydaten aus Tiefseekorallen über Veränderungen der Wassermassen im Golf von Maine.“

Die Thornalley-Studie deutet auch darauf hin, dass ein Teil der atlantischen Umwälzströmung – die Tiefenströmung aus der Labradorsee – vor 150 Jahren durch Erwärmung und Eisschmelze am Ende der „Kleinen Eiszeit“ abgeschwächt wurde. Dies verdeutlicht die Empfindlichkeit der Umwälzströmung gegenüber Erwärmung und Süßwassereintrag – etwas, das nun mit der vom Menschen verursachten Erwärmung und Beschleunigung der Grönland-Schmelze wieder geschieht. Nach den Temperaturen unterhalb der Meeresoberfläche in der Erdvergangenheit zu urteilen, war dieses Ereignis vor 150 Jahren jedoch nicht mit einer so tiefgreifenden Verringerung des Wärmetransports im Atlantik verbunden, wie es heute durch die Treibhausgase aus fossilen Brennstoffen der Fall ist. Also aufgrund einer globalen Erwärmung, die größer ist als jemals zuvor in der Geschichte der menschlichen Zivilisation.

Artikel: Levke Caesar, Stefan Rahmstorf, Alexander Robinson, Georg Feulner, Vincent Saba (2018): Observed fingerprint of a weakening Atlantic Ocean overturning circulation. Nature [DOI: 10.1038/s41586-018-0006-5]

Weblink zum Artikel, sobald er veröffentlicht ist: http://dx.doi.org/10.1038/s41586-018-0006-5

Kontakt für weitere Informationen:
Potsdam-Institut für Klimafolgenforschung, Pressestelle
Telefon: +49 (0)331 288 2507
E-Mail: presse@pik-potsdam.de
Twitter: @PIK_Klima
www.pik-potsdam.de

Weitere Informationen:
https://youtu.be/7KJlrpvUXw8

Quelle: idw

(nach oben)


Alternativer Waldzustandbericht: Deutschlands Wäldern geht es schlecht

Matthias Fischer Presse- und Öffentlichkeitsarbeit
Naturwald Akademie gGmbH

Zum Tag des Baumes 2018 am 25.04. veröffentlichte die Naturwald Akademie den alternativen Waldzustandsbericht. Dieser belegt, dass fast 90% der Waldfläche Deutschlands in einem naturschutzfachlich schlechten Zustand sind. Die letzten verbliebenen naturnahen Wälder sind kaum geschützt oder bereits vernichtet. Die Analyse der Wälder zeigt auch, dass sie für ein ökologisches Gleichgewicht zu jung sind.

Fast 90 % der Waldfläche in Deutschland ist in einem naturschutzfachlich schlechten Zustand. So lautet das alarmierende Fazit einer aktuellen Studie der Naturwald Akademie. Die AutorInnen des heute erschienenen „Alternativen Waldzustandsberichtes“ betonen, dass dieser Mangel an naturnahen Waldökosystemen zu einem starken Verlust der biologischen Vielfalt führt.

Besorgniserregende Verarmung der Waldökosysteme
Ergebnisse der Studie sind: Zahlreiche heimische Waldökosysteme drohen auszusterben. Denn auf den meisten deutschen Waldflächen wachsen nur wenige unterschiedliche Baumarten. Zudem sind es oft Baumarten, die dort natürlich nicht vorkommen würden. Besonders alarmierend ist der schlechte naturschutzfachliche Zustand bei drei für Deutschland typischen Waldtypen, die von Eichen und Buchen dominiert sind. Zu deren Schutz sind Maßnahmen dringend nötig.

Die Analyse zeigt auch, dass Deutschlands Wälder für ein ökologisches Gleichgewicht zu jung sind. Es fehlen alte Bäume. Alte Bäume mit mehr als 140 Jahren stärken das Ökosystem Wald. Sie sind existentiell für das Leben von zahlreichen Tier-, Pilz- und Pflanzenarten, die nur auf oder mit ihnen leben können. In Deutschland dürfen jedoch nur wenige Bäume alt werden. Lediglich auf 4,5 % naturnaher Waldflächen wachsen Bäume, die älter als 140 Jahre sind. Und nur 0,2 % dieser ökologisch besonders wertvollen Waldflächen mit alten Baumbestand sind dauerhaft geschützt.

Mehr Schutz von Wäldern notwendig
Durch den Mangel an naturnahen Wäldern mit alten Bäumen geht auch ein wichtiges Potenzial im Klimaschutz verloren. Denn in alten Bäumen kann mehr klimaschädliches Kohlendioxid langfristig im Holz gespeichert werden.
„Unsere Studie belegt, dass in Deutschland naturnahe Waldflächen für fast alle prägenden Waldtypen die Ausnahme sind – Bund und Länder sind deshalb gefordert. Sie müssen die besonders bedrohten und seltenen naturnahen Reste der Eichenwälder sofort unter Schutz stellen. Sonst sind diese wertvollen Wälder für Generationen verloren. Wir empfehlen außerdem einen Abholzungsstopp für über 140-jährige Bäume auf gefährdeten Waldflächen,“ sagt Dr. Torsten Welle, wissenschaftlicher Leiter der Naturwald Akademie.

Die WissenschaftlerInnen der Naturwald Akademie haben Daten der 3. Bundeswaldinventur des staatlichen Thünen-Instituts und Daten des Bundesamts für Naturschutz ausgewertet. Sie haben sechs, für das Ökosystem Wald entscheidende und anerkannte, naturschutzfachliche Kriterien analysiert und diese in einem Waldzustandsindex zusammengefasst. Mit ihm kann der naturschutzfachliche Zustand des Waldes einfacher beschrieben und kommuniziert werden.

Weitere Informationen:
http://www.naturwald-akademie.org/presse/pressemitteilungen – Infografiken und viele Hintergrundinformationen.

Quelle: idw

(nach oben)


Europäische Impfwoche 2018 – BM Spahn fordert bessere Zusammenarbeit bei der Masernimpfung

Susanne Glasmacher Presse- und Öffentlichkeitsarbeit
Robert Koch-Institut

Gemeinsame Pressemitteilung des Bundesministeriums für Gesundheit, der Bundeszentrale für gesundheitliche Aufklärung und des Robert Koch-Instituts

Trotz schärferer Gesetze werden weiter zu wenige Kinder gegen Masern geimpft. Das geht aus den neuen Impfquoten für Schulanfänger hervor, die das Robert Koch-Institut (RKI) anlässlich der Europäischen Impfwoche vorgelegt hat. Danach haben zwar im Jahr 2016 erstmals alle Bundesländer bei der ersten Masernimpfung die Impfquote von 95 Prozent erreicht. Bei der entscheidenden zweiten Masernimpfung ist die bundesweite Impfquote aber nur geringfügig auf 92,9 Prozent gestiegen.

Bundesgesundheitsminister Jens Spahn: „Es ist verantwortungslos, Kinder nicht gegen Masern impfen zu lassen oder eigene Impflücken hinzunehmen. Wir brauchen bundesweit eine Impfquote von 95 Prozent für die 2. Impfung, damit diese ansteckende Virus-Erkrankung ausgerottet wird. Ärzteschaft, Schulen, Kitas, Betriebe, Behörden und natürlich die Eltern müssen noch besser zusammenarbeiten. Niemand muss heute noch an Masern erkranken oder gar sterben.“

Dem Robert Koch-Institut wurden für 2017 insgesamt 929 Masernerkrankungen übermittelt, fast dreimal mehr als die 325 Erkrankungen in 2016. Für die ersten 12 Wochen dieses Jahres wurden dem RKI 92 Krankheitsfälle gemeldet. „Eine Infektion mit Masernviren ist keineswegs harmlos. Etwa ein Viertel der gemeldeten Fälle muss im Krankenhaus behandelt werden. Wir sehen im Durchschnitt drei bis sieben Todesfälle im Jahr aufgrund von Masern oder der Masernfolgeerkrankung SSPE“, betont Lothar H. Wieler, Präsident des Robert Koch-Instituts.

Oft wird auch zu spät geimpft, wie die interaktive Online-Karte VacMap der KV-Impfsurveillance am Robert Koch-Institut veranschaulicht (http://www.vacmap.de). Bei VacMap können Masern-Impfquoten unter anderem für das Alter von 15 und 24 Monaten abgerufen werden. Das sind die Altersgruppen, in denen ein Kind die erste bzw. zweite Impfung erhalten haben sollte. 24 Monate alte Kinder des Geburtsjahrgangs 2014 waren nur zu 73,9 Prozent zweimal geimpft, nur geringfügig mehr als der Jahrgang 2013. Die Quoten für die zeitgerechte Impfung sind auch für alle Stadt- und Landkreise verfügbar. Seit kurzem können bei VacMap zusätzlich Impfquoten der Säuglingsimpfung gegen Rotaviren abgerufen werden.

Häufig, aber noch nicht oft genug, werden Impfungen bis zum Schulanfang nachgeholt. Neben den Masern-Impfquoten sind bei Schulanfängern auch die Impfquoten für Windpocken und Meningokokken leicht gestiegen. Alle anderen Impfquoten, etwa für Diphtherie und Tetanus, sind dagegen geringfügig gesunken.

Dr. Heidrun Thaiss, Leiterin der Bundeszentrale für gesundheitliche Aufklärung (BZgA), erläutert: „Trotz bestehender Impflücken in der Bevölkerung hat sich die Einstellung zum Impfen erkennbar gebessert. Lediglich fünf Prozent der befragten 16- bis 85-Jährigen haben eine (eher) ablehnende Haltung, wie die Ergebnisse der bundesweiten Repräsentativbefragung der Bundeszentrale für gesundheitliche Aufklärung zeigen. Wir sind grundsätzlich auf einem guten Weg, allerdings ist eine konsequente und zielgerichtete Impfaufklärung weiterhin notwendig. Denn wer geimpft ist, schützt nicht nur sich selbst, sondern auch die Gemeinschaft.“

Die Bundeszentrale für gesundheitliche Aufklärung bietet umfassende Informationen rund um den Masern-Impfschutz an und ruft regelmäßig zum Impfcheck auf. Anlässlich der Europäischen Impfwoche stellt sie ein neues Erklärvideo mit Tipps zum stress- und schmerzarmen Impfen auf der Internetseite http://www.impfen-info.de/mediathek/filme zum Download zur Verfügung. Das Video basiert auf den aktuellen Empfehlungen der Weltgesundheitsorganisation (WHO) und der Ständigen Impfkommission (STIKO).

Das Robert Koch-Institut informiert zur diesjährigen Impfwoche auch mit einer Poster-Ausstellung über Impfungen. Die Ausstellung wird vom 23. April bis 6. Mai 2018 im Foyer des Hauptsitzes am Nordufer in Berlin-Wedding gezeigt. So können neben Gästen und Mitarbeitern des Instituts auch die Besucher des neuen RKI-Museums die Poster-Ausstellung besuchen. Am 23. April 2018 wird die Ausstellung um 17.00 Uhr mit dem Vortrag „Impfen oder nicht impfen? Ein psychologischer Blick auf eine globale Herausforderung“ eröffnet. Referentin ist Cornelia Betsch von der Universität Erfurt. Die Eröffnungsveranstaltung kann von allen Interessierten besucht werden.

Die seit Mitte 2015 geltenden Regelungen zur Verbesserung des Impfschutzes sehen beispielsweise vor, dass alle Gesundheits-Routineuntersuchungen bei Kindern und Erwachsenen dazu genutzt werden, den Impfstatus zu überprüfen. Auch Betriebsärzte können Impfungen vornehmen. Ungeimpfte Kinder und Jugendliche können vorübergehend vom Besuch einer Kita oder Schule ausgeschlossen werden, um einen Krankheitsausbruch zu verhindern. Eltern müssen vor dem Kita-Eintritt ihres Kindes eine verpflichtende ärztliche Impfberatung nachweisen. Kitas müssen Familien, die die Impfberatung verweigern, dem Gesundheitsamt melden. Diese können in hartnäckigen Fällen auch Bußgelder verhängen.

Weitere Informationen unter
http://www.bundesgesundheitsministerium.de/Impfungen
http://www.rki.de

Herausgeber
Bundesministerium für Gesundheit
Pressestelle
Friedrichstr. 108
10117 Berlin
Tel.: +49 (0)30 18441-2225
Fax: +49 (0)30 18441-1245
pressestelle@bmg.bund.de

Bundeszentrale für gesundheitliche Aufklärung
Pressestelle
Maarweg 149-161
50825 Köln
Tel.: +49 (0)221 8992-280
pressestelle@bzga.de

Robert Koch-Institut
Pressestelle
Nordufer 20
13353 Berlin
Tel: +49 (0)30 18754-2562
presse@rki.de

Quelle: idw

(nach oben)


Phosphorgewinnung aus Klärschlamm und andere regionale Nutzungskonzepte für Biomassen

Dipl.-Chem. Iris Kumpmann Abteilung Public Relations
Fraunhofer-Institut für Umwelt-, Sicherheits- und Energietechnik UMSICHT

Viele biogene Reststoffe, insbesondere Klärschlamm, enthalten relevante Wertstoffe, die jedoch bislang nicht optimal verwertet werden. Ein umwelt-schonender und nachhaltiger Ansatz dazu ist eine Kreislaufführung dieser Rohstoffe durch eine gezielte regionale Wertstoffrückgewinnung. Fraunhofer UMSICHT zeigt Lösungen für die Aufbereitung und Verwertung von Klärschlamm zur Phosphorrückgewinnung mittels Ultraschall sowie andere regionale Nutzungskonzepte für Biomassen, von der Brennstoffbereitstellung bis zur stofflichen Nutzung.

Klärschlamm ist ein heterogenes Vielstoffgemisch, das sich hauptsächlich aus Was-ser, organischen Substanzen, Stickstoff- und Phosphorverbindungen sowie aus ande-ren Rückständen wie z. B. Schwermetallverbindungen oder Arzneimittelrückständen zusammensetzt. Alleine in Deutschland belief sich das Aufkommen in industriellen und kommunalen Kläranlagen im Jahr 2015 auf gut 1,8 Mio t. Aufgrund neuer gesetzlicher Regularien (Novellierung der Klärschlammverordnung) ist ein Umdenken in der bisherigen Klärschlammverwertung notwendig. Fraunhofer UMSICHT arbeitet dazu mit Projektpartnern an der Weiterentwicklung und Umsetzung eines innovati-ven Verfahrens zur Behandlung und anschließenden Fraktionierung von Klär-schlammbestandteilen, insbesondere zur Phosphorrückgewinnung.

Ultraschallbehandlung von Klärschlamm
Kernstück der neuen Prozesskette ist eine Ultraschall-Kavitations-Anlage. Ein spezi-eller Ultraschallgeber bringt einen sehr hohen Leistungseintrag in das zu behandeln-de Medium ein. Dadurch werden innerhalb des durchströmten Mediums akustische Kavitationsblasen erzeugt. Implodieren diese, werden verschiedene physikalische und chemische Effekte hervorgerufen. Die große Schwingungsamplitude, die durch die neue Ultraschalltechnik erreicht werden kann, ist dabei ein entscheidender Ein-flussparameter. »Es kommt zum Zellaufschluss und einer verbesserten Trenneigen-schaft, sodass der Klärschlamm besser mechanisch in verschiedene Wertstofffrakti-onen separiert werden kann«, erklärt Lukas Rüller aus der Abteilung Verfahrens-technik bei Fraunhofer UMSICHT. Es entsteht eine cellulosereiche Faserfraktion, eine nährstoffreiche Gelfraktion und eine leicht vergärbare Flüssigkeitsphase, die jeweils für weitere Nutzungskonzepte (Ammonium- und Phosphorrückgewinnung, Vergärung etc.) verwendet werden können.

Im Rahmen des Vorhabens »UltraSep« möchte Fraunhofer UMSICHT die physikali-schen und chemischen Wirkmechanismen der Technologie untersuchen. Zusammen mit der BSonic GmbH und dem Chemischen Laboratorium Dr. Fülling GmbH & Co. KG wird eine Versuchsanlage konzipiert, die in der Folge als portable Containerver-sion zu errichten ist. Nach ersten Probeversuchen soll die Versuchsanlage in ein Klärwerk integriert und im Praxisbetrieb optimiert werden.

Ersatz für fossile Brennstoffe: regionale Nutzungskonzepte für Biomasse
Um langfristig den weiter steigenden Energiebedarf decken zu können, braucht es Technologien, die auch bis dato ungenutzte nachhaltige Rohstoffe als Energieliefe-ranten nutzbar machen; Rohstoffe wie Gras- und Grünschnitt, Ernterückstände, Verarbeitungsreste aus land- und forstwirtschaftlicher Produktion oder Bioabfälle. »Fraunhofer UMSICHT treibt vor dem Hintergrund des nachhaltigen Wirtschaftens die Umwandlung von bislang nicht brennbaren, geringwertigen Rohstoffen in höher-wertige Produkte voran«, so Dr. Esther Stahl, Abteilung Verfahrenstechnik bei Fraunhofer UMSICHT.

»Durch geeignete Aufbereitungsschritte wie Zerkleinerungs-, Trocknungs- und Kom-paktierungsverfahren oder durch die hydrothermale Carbonisierung (HTC) entstehen Produkte, die sich als CO2-neutraler Ersatz für fossile Brennstoffe eignen.« Die bei der Biomassekonfektionierung entstehende Feinfraktion kann nach einem Hygieni-sierungsschritt als Bodenverbesserer in der Landwirtschaft eingesetzt werden. Das entsprechende Hygienisierungsverfahren hat Fraunhofer UMSICHT gemeinsam mit der Franz-Josef Kipp GmbH & Co. KG entwickelt. So kann das Stoffstrommanage-ment von biogenen Reststoffen vor allem auf regionaler Ebene optimiert werden.

Weitere Informationen:
http://s.fhg.de/Tw2 Broschüre Fraunhofer-Innovationscluster bioenergy

Quelle: idw

(nach oben)


BAM@Hannover Messe: Phosphor-Recycling aus Klärschlamm für den Dünger der Zukunft

M.A., LL.M./LL.B. Venio Quinque Unternehmenskommunikation
Bundesanstalt für Materialforschung und -prüfung (BAM)

Ohne Phosphor geht (fast) nichts: Alle Lebewesen brauchen den Nährstoff und müssen ihn über die Nahrung aufnehmen. Obwohl Phosphor ein wertvoller und begrenzter Rohstoff ist, wird er in großen Mengen als Bestandteil von Klärschlammaschen deponiert. Die Bundesanstalt für Materialforschung und -prüfung (BAM) entwickelt thermochemische Verfahren, mit denen der Nährstoff aus Klärschlammasche zurückgewonnen und in modernen Düngemitteln wiederverwendet werden kann – ganz im Sinne einer nachhaltigen Nutzung. Ihre aktuellen Forschungsergebnisse präsentiert die BAM auf der Hannover Messe in Halle 2, Stand C 51.

„Thermisch aufbereiteter Klärschlamm eignet sich besonders gut zur Rückgewinnung von Phosphor, weil die Klärschlammasche hohe Konzentrationen des Nährstoffs enthält und sich gut recyceln lässt“, erklärt BAM-Wissenschaftler Dr. Christian Adam. Gemeinsam mit seinem Team entwickelt er im Fachbereich Thermische Reststoffbehandlung und Wertstoffrückgewinnung Verfahren zum Recycling von Phosphor.

Die Nachbehandlung der Klärschlammasche bei Temperaturen von knapp 1000 Grad Celsius bringt gleich mehrere Vorteile: Das entstehende Ausgangsmaterial für Düngemittel enthält keine organischen Schadstoffe mehr, beispielsweise Arzneimittelrückstände, denn diese werden bei hohen Temperaturen zerstört. Im Vergleich zu herkömmlichen Mineraldüngern ist zudem die Belastung mit Metallen wie Cadmium oder Uran deutlich geringer.

Umweltfreundlich und passgenau: Der Dünger der Zukunft
Das Phosphor-haltige Ausgangsmaterial, das aus der Klärschlammasche gewonnen wird, ist nicht wasserlöslich, kann aber von Pflanzen sehr gut aufgenommen werden. Beide Eigenschaften sind für die Verwendung in Düngemitteln von Vorteil, denn der Nährstoff landet dort wo er gebraucht wird: in der Pflanze, nicht im Grundwasser. „Düngemittel sollen zukünftig die Nährstoffe synchron zum Pflanzenwachstum freigeben“, erläutert Christian Adam. „Unsere thermochemisch behandelten Klärschlammaschen können bei der Entwicklung dieser neuen Produkt-Generation eine wichtige Rolle spielen.“

Zum Thema „Dünger der Zukunft“ kooperieren Christian Adam und sein Team seit vielen Jahren mit internationalen Partnern. Die Zusammenarbeit führte unter anderem zu gemeinsamen Patenten mit Industrieunternehmen.

Die BAM auf der Hannover Messe 2018
Am BAM-Stand (C 51) in der Halle 2 Research & Technology können sich Besucherinnen und Besucher umfassend zum Thema informieren.

Mehr Informationen zum Auftritt der BAM auf der Hannover Messe: www.bam.de/hannovermesse

Kontakt:
Venio Quinque, M.A., LL.M./LL.B.
Leiter Referat Unternehmenskommunikation
Bundesanstalt für Materialforschung und -prüfung (BAM)
T: + 49 30 8104-1002
presse@bam.de
www.bam.de

Über die BAM
Die BAM gewährleistet Sicherheit in Technik und Chemie.
Die Bundesanstalt für Materialforschung und -prüfung (BAM) ist eine Bundesoberbehörde im Geschäftsbereich des Bundesministeriums für Wirtschaft und Energie.

Die BAM forscht, prüft und berät zum Schutz von Mensch, Umwelt und Sachgütern. Im Fokus aller Tätigkeiten in der Materialwissenschaft, der Werkstofftechnik und der Chemie steht dabei die technische Sicherheit von Produkten und Prozessen. Dazu werden Substanzen, Werkstoffe, Bauteile, Komponenten und Anlagen sowie natürliche und technische Systeme von volkswirtschaftlicher Dimension und gesellschaftlicher Relevanz erforscht und auf sicheren Umgang oder Betrieb geprüft und bewertet. Die BAM entwickelt und validiert Analyseverfahren und Bewertungsmethoden, Modelle und erforderliche Standards und erbringt wissenschaftsbasierte Dienstleistungen für die deutsche Wirtschaft im europäischen und internationalen Rahmen.

Sicherheit macht Märkte.
Die BAM setzt und vertritt für Deutschland und seine globalen Märkte hohe Standards für Sicherheit in Technik und Chemie zur Weiterentwicklung der erfolgreichen deutschen Qualitätskultur „Made in Germany“.

Quelle: idw

(nach oben)


Bottrop testet Mülltonne mit bunten Beuteln und bestellter Abholung bei Bedarf

Dr. Barbara Laaser (Pressestelle) Öffentlichkeitsarbeit/Pressestelle
Westfälische Hochschule

Gemeinsam mit der Westfälischen Hochschule als Wissenschaftspartner testet die Bottroper Entsorgung und Stadtreinigung, ob eine neue Art des Müllsammelns bürgernah, umweltschonend und rohstoffsparend ist. Zu erkennen ist das neue System an der „Tonne mit den bunten Beuteln drin“, die ab jetzt bis Juni in drei Bottroper Testgebieten an den Start geht. Gleichzeitig wird die Abholung auf automatische oder individuelle Abholung umgestellt, damit es keine überfüllten Mülltonnen mehr gibt.

Bottrop/Gelsenkirchen. Ab sofort bis Ende Juni werfen mehrere Stadtbezirke in Bottrop ihren Müll nicht mehr in einfarbige Spezialtonnen wie etwa in die gelbe Recyclingtonne oder die schwarze Restmülltonne, sondern aller Müll geht in dieselbe Tonne. Sortiert wird aber trotzdem und zwar vorher und in verschiedenfarbige Tüten. Die sind je nach Müllsorte weiß (Altkleider), rot (Elektroschrott), gelb (Verpackungen), braun (Papier/Pappe), grau (Restmüll) oder grün beschrifteter Biobeutel (Speisereste). Weiterhin wird es eine Biotonne für Grünschnitt geben. Um Fehlsortierungen zu vermeiden, kann der Bürger bei den Müllcontainern an Mehrfamilienwohnanlagen an einer Prüfsäule den Beutel vor einen Sensor halten: Dann öffnet sich automatisch die richtige Tonnenklappe. „Wir versprechen uns davon, dass der Müll sortenreiner als bisher an den Entsorger zurückfließt und wir damit die Wiederverwendungsquote von wertvollen Stoffen im Müll steigern können“, so Recyclingprofessor Ralf Holzhauer von der Westfälischen Hochschule, der das Projekt wissenschaftlich begleitet.
Zugleich mit der Umstellung auf den „Sack im Behälter“ wird die Abholung neu organisiert: Bei den Wohnanlagen, an denen Sensoren die Tüten kontrollieren, sagt der Sensor auch Bescheid, wenn der Müllcontainer voll ist und BEST AöR (Bottroper Entsorgung und Stadtreinigung) ihn abholen kann. Holzhauer: „Das ist das Ende für überfüllte Mülltonnen.“ Bei den Haushalten, in denen die neuen Mülltüten nicht im Container, sondern in einer herkömmlichen Mülltonne gesammelt werden, hat der Bürger die Wahl: Er kann auf einen „Trash Button“ genannten Knopf drücken oder sich über eine App oder über „WhatsApp“ oder per Mail melden, die volle Tonne wird dann am Folgetag geleert. In diesen Fällen gelten daher die festen Abholtermine für Müll nicht mehr.
Der Feldversuch findet in Bottrop im Bezirk Altstadt und Nordost als städtischem Testgebiet, in Batenbrock Nord (vorstädtisches Gebiet) und in Kirchhellen Nordost (ländlich) als repräsentative Gebiete mit rund 600 Haushalten statt. Vorbereitet wurde er durch eine Bürgerbefragung und eine Bürgerversammlung. Soeben sind die teilnehmenden Haushalte kostenfrei mit dem entsprechenden Set aus Tüten versorgt worden. Jetzt geht es in die Praxis. Bis Juni können sich die Bürger in der neuen Art des Müllsammelns üben und die Hochschule schreibt die Sammelergebnisse mit.

Ihre Medienansprechpartner für weitere Informationen:
Prof. Dr. Ralf Holzhauer, Campus Gelsenkirchen der Westfälischen Hochschule, Telefon (0209) 9596-163, E-Mail ralf.holzhauer@w-hs.de
Nicole Gottemeier, BEST: Bottroper Entsorgung und Stadtreinigung,
Telefon (02041) 796921, E-Mail best@best-bottrop.de

Quelle: idw

(nach oben)


Wenn der Job zur Persönlichkeit passt, ist das Gehalt höher

Monika Wimmer Pressestelle
Sozio-oekonomisches Panel (SOEP)

Wer in einem Job arbeitet, dessen Anforderungen seiner Persönlichkeit entsprechen, verdient mehr als andere. Vor allem Menschen, die genau das für ihre Arbeit erforderliche Maß an Offenheit für Neues mitbringen, werden besser bezahlt als ihre KollegInnen. Das belegt nun erstmals eine Studie auf Basis der Daten der für Deutschland repräsentativen Langzeitstudie Sozio-oekonomisches Panel (SOEP) am DIW Berlin. Die Untersuchung wurde kürzlich in der Fachzeitschrift „Psychological Science“ veröffentlicht.

Um herauszufinden, wie Persönlichkeit und Einkommen zusammenhängen, hatte eine Gruppe von Forschenden um den Psychologen Jaap Denissen von der Universität Tilburg in den Niederlanden die Daten von 8.458 erwerbstätigen Männern und Frauen, die im Rahmen der Langzeitstudie SOEP immer wieder befragt wurden, ausgewertet. Diese hatten unter anderem Angaben über ihren Beruf und ihr Einkommen gemacht und darüber hinaus in den Jahren 2005, 2009 und/oder 2013 auf einer Skala von 1 bis 7 eingeschätzt, für wie extrovertiert, verträglich, gewissenhaft, emotional stabil oder offen sie sich selbst hielten. Außerdem werteten die ForscherInnen die Angaben von als Berufsexperten ausgebildeten PsychologInnen aus, die die die Anforderungen an die Persönlichkeit in unterschiedlichen Berufen anhand der gleichen Skala eingeschätzt hatten.

Das Ergebnis der Studie zeigt: Anders als viele WissenschaftlerInnen bisher angenommen haben, sind offenbar nicht nur bestimmte Erfolg versprechende Persönlichkeitsmerkmale wie Gewissenhaftigkeit oder Extraversion entscheidend für den wirtschaftlichen Erfolg von ArbeitnehmerInnen. Wie viel jemand verdient, hängt auch davon ab, wie gut die eigene Persönlichkeit zu den Anforderungen des Jobs passt. Lediglich in Bezug auf die emotionale Stabilität gilt dieser Zusammenhang nicht.
„Menschen, deren Persönlichkeit zu ihrem Job passt, können in einem Jahr bis zu einem Monatsgehalt mehr als ihre KollegInnen verdienen“, sagt Jaap Denissen, Erstautor der Studie. Vor allem Arbeitnehmende, die das den Anforderungen ihres Berufes entsprechende Maß an Offenheit mitbringen, profitieren finanziell. Ihr Gehalt ist im Jahr um bis zu 3.231 Euro höher als das der KollegInnen. „Das erforderliche Maß an Offenheit für Neues ist von Job zu Job sehr unterschiedlich“, sagt Jaap Denissen. „Wer es mitbringt, kann sehr hohe Leistungen erzielen und wird dann entsprechend gut bezahlt“, sagt Jaap Denissen.

Menschen hingegen, bei denen bestimmte Persönlichkeitsmerkmale stärker oder weniger stark ausgeprägt sind als es ihre Arbeit erfordert, verdienen in der Regel weniger als ihre KollegInnen.

Eine Ausnahme bilden Erwerbstätige, die weniger gewissenhaft oder verträglich sind als ihr Job es erfordert: Sie verdienen im Durchschnitt mehr als ihre KollegInnen. „Der Grund dafür liegt möglicherweise darin, dass wenig gewissenhafte Menschen zwar oft weniger sorgfältig, dafür aber auch schneller arbeiten als andere“, vermutet Jaap Denissen. Für weniger verträgliche Menschen könnte es sich auszahlen, dass sie mehr Zeit in ihr berufliches Fortkommen investierten als in gute Beziehungen zu ihren KollegInnen. Das hätten auch schon frühere Studien belegt.

DAS SOZIO-OEKONOMISCHE PANEL (SOEP)
Das Sozio-oekonomische Panel (SOEP) ist die größte und am längsten laufende multidisziplinäre Langzeitstudie in Deutschland. Das SOEP im DIW Berlin wird als Teil der Forschungsinfrastruktur in Deutschland unter dem Dach der Leibniz-Gemeinschaft vom Bundesministerium für Bildung und Forschung (BMBF) und den Ländern gefördert. Für das SOEP werden seit 1984 jedes Jahr vom Umfrageinstitut Kantar Public (zuvor TNS Infratest Sozialforschung) in mehreren tausend Haushalten statistische Daten erhoben. Zurzeit sind es etwa 30.000 Personen in etwa 15.000 Haushalten. Die Daten des SOEP geben unter anderem Auskunft über Einkommen, Erwerbstätigkeit, Bildung, Gesundheit und Lebenszufriedenheit. Weil jedes Jahr dieselben Personen befragt werden, können nicht nur langfristige gesellschaftliche Trends, sondern auch die gruppenspezifische Entwicklung von Lebensläufen besonders gut analysiert werden.

Die Studie:
Denissen, Jaap J. A., et al. 2017. Uncovering the Power of Personality to Shape Income. Psychological Science 29, Nr. 1, 3-13.
https://doi.org/10.1177/0956797617724435

Weitere Informationen:
https://doi.org/10.1177/0956797617724435 Link zur Studie

Quelle: idw

(nach oben)


Zweite Wärmequelle optimiert Wärmepumpenanlage

Rüdiger Mack Marketingkommunikation
FIZ Karlsruhe – Leibniz-Institut für Informationsinfrastruktur GmbH

Luft-Wasser-Wärmepumpen nutzen die Außenluft als Wärmequelle. Wegen ihrer vergleichsweise günstigen Anschaffungskosten erfreuen sie sich derzeit wachsender Beliebtheit bei den Besitzern neuer oder sanierter Einfamilienhäuser mit niedrigem Energiebedarf. Ihr Nachteilt: Sie arbeiten bei sinkenden Außenlufttemperaturen, wenn der Heizwärmebedarf also steigt, mit abnehmender Energieeffizienz. Das neue BINE-Projektinfo „Doppelt heizt besser“ (04/2018) stellt ein neues Anlagenkonzept vor, bei dem die Gebäudeabluft als zweite Wärmequelle ins System integriert und die Regelung der Wärmeverteilung optimiert wird.

Zentrale Einzelraum- und Vorlaufregelungen ergänzen das Konzept
Abluft liefert Wärme auf vergleichsweise hohem Temperaturniveau und führt zu günstigen Systemkosten. Die Wissenschaftler erprobten die Zusammenarbeit der Wärmepumpe mit dem Kreuzwärmetauscher des Lüftungskompaktgerätes, um den optimalen Entnahmepunkt für die Abwärme zu finden. Die Ergebnisse sprechen für eine Entnahme nach dem Wärmetauscher. Ein zweiter Schwerpunkt lag auf der Optimierung der Regelungsstrategie für das Wärmeverteilsystem. Ziel war zu vermeiden, dass die Wärmepumpe die Temperatur höher anhebt als es dem tatsächlichen Wärmebedarf entspricht. Dafür führten die Wissenschaftler die Daten der verschiedenen Einzelraumreglungen zentral zusammen und nutzten sie für die Festlegung der Vorlauftemperatur im Wärmeverteilsystem.

Bei den abschließenden Simulationen wurden die Daten aus den beiden Teilprojekten zur Quellen- und Senkenseite zusammengeführt und ausgewertet. Die Untersuchungen beziehen sich auf neue und sanierte Einfamilienhäuser mit 140 m² Wohnfläche auf zwei Etagen und einem Energiebedarf von unter 120 kWh/m²a. Das Forschungsprojekt hat die Vaillant GmbH gemeinsam mit dem Fraunhofer-Institut für Solare Energiesysteme sowie dem E.ON Energy Research Center der RWTH Aachen durchgeführt.

Pressekontakt
BINE Informationsdienst
Uwe Milles/Birgit Schneider
Tel. 0228/9 23 79-26/-28
Fax 0228/9 23 79-29
E-Mail presse@bine.info
Kaiserstraße 185-197
53113 Bonn
http://www.bine.info

BINE Informationsdienst ist ein Service von FIZ Karlsruhe und wird vom Bundesministerium für Wirtschaft und Energie (BMWi) gefördert.

FIZ Karlsruhe – Leibniz-Institut für Informationsinfrastruktur ist eine gemeinnützige Gesellschaft, die im öffentlichen Auftrag weltweit publizierte wissenschaftliche Information zugänglich macht und entsprechende Dienstleistungen zur Verfügung stellt. FIZ Karlsruhe
hat die Aufgabe, den nationalen und internationalen Wissenstransfer und die Innovationsförderung zu unterstützen.

Weitere Informationen:

http://www.bine.info/en – BINE Information Service – Energy research for practical applications
http://www.twitter.com/bineinfo – Schnell, schneller, Twitter – @BINEInfo
https://www.facebook.com/BINE.Informationsdienst – Auch auf Facebook
https://www.instagram.com/bineinfo/ – Sichtbar informativ @BINEInfo

Quelle: idw

(nach oben)


Chemikalien im Trinkwasser: Projekt „Neurobox“ der h_da untersucht gesundheitliche Auswirkungen

Simon Colin Hochschulkommunikation
Hochschule Darmstadt

Darmstadt. Durch Arzneimittel, Pestizide oder Kosmetika gelangt eine Vielzahl von Chemikalien in den Wasserkreislauf und unser Trinkwasser. Die Wirkung dieser Stoffe auf Mensch, Tier und Umwelt ist bei vielen dieser Stoffe noch nicht vollständig untersucht. Das vom Umweltbundesamt koordinierte Verbundprojekt „Neurobox“ soll das ändern: Ziel ist es, Wasserversorgern und Behörden eine Testbatterie zur Verfügung zu stellen, mit der so genannte neurotoxische Substanzen erkannt und bewertet werden können.

An der Hochschule Darmstadt (h_da) untersucht Dr. Petra Waldmann vom Fachbereich Chemie- und Biotechnologie in einem Teilprojekt von Neurobox auf zellulärer Ebene potenzielle Auswirkungen hormonell wirksamer Stoffe auf die Zell-Entwicklung (Differenzierung) und das Nervensystem. Die Forschung wird vom Bundesministerium für Bildung und Forschung (BMBF) gefördert. Bis zum Jahr 2020 sollen Ergebnisse vorliegen.

Neurotoxische Stoffe schädigen das Nervensystem. Manche Stoffe wie einige Phthalate (Weichmacher), Pestizide und Alkylphenole haben neben einer hormonartigen auch eine neurotoxische Wirkung und wurden in Studien wiederholt mit Entwicklungsverzögerungen bei Kindern, Autismus, Aufmerksamkeitsdefizitsyndrom, verminderter Reproduktionsfähigkeit und weiteren negativen Effekten in Verbindung gebracht. Deshalb sind in der EU bereits mehrere dieser Substanzen in vielen Anwendungen verboten. Im Rahmen eines Vorgängerprojekts haben die beteiligten Wissenschaftlerinnen und Wissenschaftler bereits eine Testbatterie entwickelt. Speziell für den Bereich der neurotoxischen Stoffe zeigte sich jedoch der Bedarf an weiterer Forschung. „Wasserversorger finden immer mehr Stoffe im Wasser, die sie schlecht einschätzen können“, sagt Dr. Petra Waldmann, Toxikologin am Fachbereich Chemie- und Biotechnologie der h_da. Das Verbundprojekt Neurobox hat zum Ziel, für Wasserversorger und Behörden eine Batterie von Tests zu entwickeln, mit denen sie Spurenstoffe im Wasserkreislauf bewerten können.

Das Team der Hochschule Darmstadt untersucht hormonell wirksame Stoffe auf eine schädliche Wirkung auf embryonale Stammzellen. Daraus kann abgeleitet werden, wie schädlich diese Stoffe für Embryos und die Entwicklung von Nervenzellen sind. Diese Simulation auf zellulärer Ebene hat den Vorteil, dass auf Tierversuche verzichtet werden kann. Die verwendeten Stammzellen sind pluripotent, das heißt, anders als omnipotente Stammzellen können sie sich nicht zu einem ganzen Organismus entwickeln. „Aus embryonalen Stammzellen von Mäusen gewinnen wir schlagende Herzmuskelzellen“, sagt Dr. Waldmann. Mäusestammzellen lagern sich in Kultur zu sogenannten „embryonalen Körperchen“ (embryoid bodies) zusammen. Dabei nehmen diese Körperchen eine tropfenähnliche oder kugelige Form an und rekapitulieren in einem begrenzten Maße die frühe embryonale Entwicklung eines Organismus. Die Wissenschaftlerinnen und Wissenschaftler geben diese Körperchen auf Zellkulturplatten. Die Zellen der Körperchen wachsen dort am Boden fest und differenzieren aus, das heißt, sie wachsen zum Teil zu Herzmuskelzellen heran. „Die Mäusestammzellen setzen wir, während sie embryonale Körperchen ausbilden, der zu testenden Substanz aus, um festzustellen, ob sie embryotoxisch wirkt.“

Eine toxische Wirkung wird unter dem Mikroskop sichtbar: Nur noch wenige der Körperchen bilden schlagende Herzmuskelzellen aus. Mäusestammzellen können unter bestimmten Kulturbedingungen auch zur Bildung von Nervenzellen angeregt werden. Unter Zugabe einer Testsubstanz kann ermittelt werden, ob diese Substanz schädlich auf die Bildung von Nervenzellen und Netzwerken aus Nervenzellen wirkt. „Chemikalien werden in der Regel nur im Nano- oder Mikrogramm-Bereich im Wasser gefunden, also in kleinsten Mengen“, sagt Waldmann, „aber sind sie im Trinkwasser, werden sie oft auch ein Leben lang vom Menschen aufgenommen“. Daher müsse untersucht werden, ob diese Substanzen schädlich für Mensch und Umwelt seien.

Weitere Informationen zum Verbundprojekt und den Verbundpartnern:
https://www.umweltbundesamt.de/neurobox-bewertung-neurotoxischer-effekte-im#text…

Ansprechpartnerin für die Medien:
Dr. Petra Waldmann
Hochschule Darmstadt
Fachbereich Chemie- und Biotechnologie
E-Mail: petra.waldmann@h-da.de
Tel.: +49 6151 16 30129

Weitere Informationen:
https://www.umweltbundesamt.de/neurobox-bewertung-neurotoxischer-effekte-im#text…

Quelle: idw

(nach oben)


Bewertung von Sicherheitsventilen: SIL-Einstufung nicht sinnvoll

Dr. Christine Dillmann Öffentlichkeitsarbeit
DECHEMA Gesellschaft für Chemische Technik und Biotechnologie e.V.

Ein richtig bemessenes Sicherheitsventil reicht bei fachgerechter Planung und Anwendung auch ohne Redundanz aus, um die sicherheitstechnischen Funktionen zu gewährleisten. Eine SIL-Einstufung ist nicht sinnvoll. Zu diesem Schluss kommt der ProcessNet-Arbeitsausschuss „Sicherheitsgerechtes Auslegen von Chemieanlagen“ im aktuellen Ergebnispapier „Die Verfügbarkeit von mechanischen Sicherheitseinrichtungen – Sicherheitsventile“. Das Papier ist unter http://dechema.de/Verfügbarkeit_Sicherheitsventile erhältlich.

In der Prozessleittechnik hat sich ein risikobasierter Ansatz etabliert, um die Zuverlässigkeit von Sicherheitseinrichtungen zu bewerten. Er liegt unter anderem der Einstufung nach SIL zu Grunde. Eine Arbeitsgruppe des ProcessNet-Arbeitsausschusses „Sicherheitsgerechtes Auslegen von Chemieanlagen“ hat sich mit der Frage beschäftigt, inwieweit dieses Vorgehen auch auf mechanische Sicherheitseinrichtungen und speziell auf Sicherheitsventile anwendbar ist.

Nach Ansicht der Experten eignet sich die Unterscheidung von systematischen und zufälligen Fehlern, wie sie in der funktionalen Sicherheit üblich ist, nicht für mechanische Sicherheitseinrichtungen. Stattdessen ist die Betrachtung des Gesamtfehlers erheblich sinnvoller. Dieser Gesamtfehler geht zum weit überwiegenden Teil auf vermeidbare systematische Fehler bei Planung, Konstruktion oder Einsatz zurück. Die Arbeitsgruppe umreißt in dem Papier, wie solche systematischen Fehler vermieden werden können und welche Anforderungen bei Auswahl, Einbau und Betrieb von Sicherheitsventilen erfüllt werden müssen. Zufällige Fehler spielen demgegenüber praktisch keine Rolle. Daher ist eine SIL-Einstufung, die nur auf zufälligen Fehlern beruht, nach Ansicht der Experten für Sicherheitsventile nicht sinnvoll.

Sicherheitsventile sind robuste, einfache Bauteile und erfüllen ihre Funktion nach Einschätzung des Arbeitskreises mit einer Ausfallwahrscheinlichkeit („probability of failure on demand“, PFD) < 10-3, entsprechend IPL 3, und sind ohne Redundanz für die höchste Anforderungsstufe geeignet.

ProcessNet ist die deutsche Plattform für Verfahrenstechnik Chemieingenieurwesen und Technische Chemie. Hier treffen sich über 5.000 Mitglieder aus Wissenschaft, Wirtschaft und Verwaltung, um Erfahrungen auszutauschen, aktuelle Fragestellungen zu diskutieren und neue wissenschaftliche Trends zu identifizieren. ProcessNet ist eine gemeinsame Initiative von DECHEMA und VDI-GVC. Mehr unter http://www.processnet.org

Weitere Informationen:
http://dechema.de/Verfügbarkeit_Sicherheitsventile – download des Papiers

Quelle: idw

(nach oben)


Was wird aus „gesunder Bräune“ in 25 Jahren? Die App zeigt’s!

Julia Bird Unternehmenskommunikation
Universitätsklinikum Heidelberg

„Sunface App“ soll Jugendliche für Gefahren durch UV-Strahlung sensibilisieren / Dr. Titus Brinker, Universitäts-Hautklinik und Nationales Centrum für Tumorerkrankungen Heidelberg, für digitale Idee zur Hautkrebsprävention ausgezeichnet / Preisverleihung auf Frühjahrstagung der Universitäts-Hautklinik Heidelberg am 24. März 2018

UV-Strahlung – egal ob bei ausgedehnten Sonnenbädern oder häufigem Solariumsbesuch – setzt der Haut zu. Nachhaltig. Wie das in fünf oder 25 Jahren am eigenen Gesicht aussieht, zeigt die von Dr. Titus Brinker – seit Dezember 2017 am Nationalen Centrum für Tumorerkrankungen (NCT) Heidelberg tätig – entwickelte „Sunface App“. Inwieweit die App Jugendliche und Erwachsene für Hautschutz und Hautkrebsprävention sensibilisieren und ihr Verhalten diesbezüglich beeinflussen kann, sollen mehrere groß angelegte, internationale Studien unter Heidelberger Federführung klären. Für seine Arbeit um die Sunface App ist der junge Arzt nun mit dem mit 25.000 Euro Preisgeld dotierten Young Research Award der La Roche-Posay Foundation ausgezeichnet worden. Brinker, der bereits mehrere Gesundheits-Apps entwickelt hat, leitet seit Januar 2018 die App-Entwicklung am NCT und absolviert parallel seine Facharztweiterbildung an der Universitäts-Hautklinik.

Die Sunface App soll vor allem Jugendlichen und jungen Erwachsenen auf lockere Art ihr persönliches Hautkrebsrisiko vor Augen führen. Sie zeigt anhand eines Selfies das Gesicht der Zukunft – abhängig davon, ob für gewöhnlich auf Sonnen- und UV-Schutz geachtet wird oder nicht. „Die Haut vergisst nichts. Die Sunface App verdeutlicht das sehr eindrücklich und richtet sich primär an eine Altersgruppe, die man ansonsten mit Präventionsmaßnahmen nur schwer erreicht“, erklärt Professor Dr. Alexander Enk, Ärztlicher Direktor der Universitäts-Hautklinik Heidelberg, der die Auszeichnung bei Frühjahrstagung der Klinik am 24. März mit überreichte.

Sunface App kann kostenlos heruntergeladen werden

„Vor allem junge Leute wollen mit dem ungesunden Bräunen ihre Attraktivität steigern. Das zeigen Befragungen unter Solariennutzern“, erklärt Brinker. „Dass dieser Schuss nach hinten losgeht, die Haut schädigt und ihre Alterung beschleunigt, zeigt die Sunface App als Blick in den Spiegel in naher oder auch etwas weiter entfernter Zukunft.“ So funktioniert es: App kostenlos herunterladen, Selfie schießen, Hauttyp sowie eine von drei Verhaltensoptionen – Sonnenschutz, kein Sonnenschutz oder wöchentlicher Solariumsbesuch – auswählen und dem um fünf oder 25 Jahre gealterten Ich ins Gesicht blicken, in 3D und mit animierten Effekten. Dazu berechnet die App, wie stark sich, je nach Verhalten, das Hautkrebsrisiko erhöht, erklärt, wie man Hautkrebs und seine Vorstufen bei sich erkennen kann, und gibt Tipps für den richtigen Sonnenschutz. Wer will, kann sein animiertes Selfie via Social Media teilen.

Der 27-Jährige Mediziner entwickelte die App am Universitätsklinikum Essen. Seit Mai 2017 gibt es sie kostenlos für iPhones und Android Smartphones. Eine erste Studie mit insgesamt 205 Schülerinnen und Schülern im Alter von 13 bis 19 Jahren in Essen zeigte bereits: Die App motivierte die Schüler, sich besser vor UV-Strahlung zu schützen und das Solarium zu meiden. „Die Sunface App scheint ihren Zweck als niederschwellige Präventionsmaßnahme zu erfüllen“, so Dr. Brinker. „Prospektive Effekte müssen langfristig angelegte Folgestudien mit Vergleichsgruppe allerdings noch bestätigen.“

Apps aus dem NCT sollen Infos zu Krebsprävention breiter streuen

Das Potential dieser niederschwelligen Angebote in Form von Apps hat man am NCT erkannt und eine Forschungsgruppe „App-Entwicklung“ eingerichtet. Ziel des vierköpfigen Teams unter Brinkers Leitung ist es, digitale Gesundheitsangebote für Smartphone und Webbrowser zu entwickeln und auszuwerten. An Ideen und Erfindergeist mangelt es dem Nachwuchswissenschaftler nicht: Neben Sunface entwickelte er bereits sieben weitere Apps, darunter die Tabakpräventions-Apps Smokerface und Smokerstop mit mehr als 500.000 Nutzern. Außerdem ist er Inhaber der Smart Health Heidelberg GmbH, die Gesundheitsapps unter Nutzung von künstlicher Intelligenz entwickelt und vertreibt.

Der schwarze Hautkrebs, das Melanom, nimmt in seiner Häufigkeit so rasant zu wie weltweit kein anderer bösartiger Tumor: Laut Robert Koch-Institut haben sich die Erkrankungsraten allein in Deutschland seit den 1970er Jahren mehr als verfünffacht. „Das liegt vor allem daran, dass es in Mode kam, sich im Urlaub, oder später auch im Solarium, bräunen zu lassen. Viele empfinden das leider auch heute noch als schick“, so Brinker. „Da ist noch viel Aufklärungsarbeit nötig.“ In Deutschland erkranken jährlich rund 21.000 Menschen an schwarzem Hautkrebs, rund 3.000 sterben daran. Wichtigster Risikofaktor ist die natürliche oder künstliche UV-Strahlung durch Sonne oder Solarien, insbesondere in der Kindheit und Jugend.

„Sunface App“ kostenlos für iPhones: itunes.apple.com/de/app/sunface/id1226606410

„Sunface App“ kostenlos für Android Smartphones play.google.com/store/apps/details

Wissenschaftliche Veröffentlichungen zur Sunface App:

1) Vorstellung der App-Funktionalität und Querschnittsdaten in Fokusgruppe: mhealth.jmir.org/2017/7/e101/
2) Querschnittsdaten bei Sekundarschülern aus Deutschland: www.jmir.org/2017/9/e319/
3) Querschnittsdaten bei Sekundarschülern aus Brasilien: mhealth.jmir.org/2018/3/e60/
4) Protokoll zu randomisierter Längsschnittstudie bei Schülern in Brasilien: bmjopen.bmj.com/content/8/3/e018299

Weitere Informationen:
http://www.nct-heidelberg.de
http://www.klinikum.uni-heidelberg.de/Hautklinik.113977.0.html
http://www.smarthealth.de

Quelle: idw

(nach oben)


Neues Bakterium aus Öl des Deepwater-Horizon-Unfalls beschrieben

Dr. Corinna Dahm-Brey Presse und Kommunikation
Carl von Ossietzky-Universität Oldenburg

Erstmals konnten Oldenburger Forscher zusammen mit Kollegen aus Braunschweig und Chapel Hill (USA) ein aus ölbelasteten Proben des Deepwater-Horizon-Unfalls von 2010 isoliertes Bakterium wissenschaftlich beschreiben. Es gehört zur Gruppe der Roseobacter und damit zu einer der wichtigsten Gruppen von Meeresbakterien.

In der März-Ausgabe des International Journal of Systematic and Evolutionary Microbiology zeigt das Team um Dr. Helge-Ansgar Giebel vom Institut für Chemie und Biologie des Meeres (ICBM) der Universität Oldenburg mit Erstautorin Franziska Klotz, dass der jetzt gefundene Organismus einer neuen Gattung zuzuordnen ist. Eine ihrer herausragenden Eigenschaften: Die Fähigkeit, spezielle aromatische Verbindungen abbauen zu können. Die Frage, welche Mikroorganismen Öl abbauen und welche Rolle sie dabei konkret spielen, ist für den Umgang mit Ölunfällen besonders wichtig. Nur so sei es den Wissenschaftlern zufolge möglich, unterstützende Bedingungen zu schaffen oder sogar gezielt große Mengen ölzersetzender Organismen einzusetzen.

Das jetzt neu beschriebene Bakterium erhielt von Umweltwissenschaftler Giebel den wissenschaftlichen Namen Tritonibacter horizontis. Der Gattungsname spielt an auf Triton, einen Meeresgott der griechischen Mythologie. Der Artenname horizontis stellt die Verbindung zur Herkunft des Isolats aus dem Öl des Deepwater-Horizon-Unfalls her. „Einen solchen Organismus, der auf dem Öl des Deepwater-Horizon-Unfalls überlebt, wollten wir uns sehr genau anschauen“, sagt Giebel. „Dabei wurde uns bald klar, dass wir das Bakterium einer ganz neuen Gattung zuordnen müssen“. Es vereine Eigenschaften einzelner Vertreter der Roseobacter-Gruppe, während typische Charakteristika der nächst verwandten Gattung jedoch fehlten. Das Erbgut für den Abbau spezieller aromatischer Verbindungen finde sich so ansonsten nur bei weiter entfernten Gattungen, so Giebel. „Dafür kann das neue Bakterium ein bestimmtes Antibiotikum nicht produzieren, was nahverwandte Arten durchaus tun“, ergänzt der Wissenschaftler.

Nach Explosion und Untergang der Ölplattform Deepwater Horizon im Golf von Mexiko am 20. April 2010 traten bis zum 19. September des Jahres, dem Tag des Verschlusses der Ölquelle, geschätzt 800 Millionen Liter Rohöl aus. Das Ereignis gilt als die bislang schwerste Umweltkatastrophe dieser Art. Der Aufwand, den Einsatzkräfte nach dem Unglück betreiben mussten, war enorm. In unterschiedlichen Tiefen auftretende Ölschwaden wurden beispielsweise mit großen Mengen spezieller Chemikalien fein verteilt; die Mikroorganismen sollten so die Ölbestandteile schneller angreifen können.

„Ein nicht unumstrittenes Verfahren“, sagt Co-Autor Prof. Dr. Andreas Teske, Meereswissenschaftler an der Universität North Carolina, derzeit Gast am ICBM. Er ergänzt: „Neue Ergebnisse in der Literatur deuten darauf hin, dass zunächst die eingesetzten Chemikalien abgebaut werden“. Die Bakterien würden also von ihrer eigentlichen Aufgabe, dem Ölabbau, „abgelenkt“. „Sie bilden ein Netzwerk verschiedener sich unterstützender Mikroorganismen, das wir gerade erst zu verstehen beginnen. Tritonibacter könnte sein Scherflein dazu beitragen, anderen Bakterien den Ölabbau zu erleichtern“.

Umweltwissenschaftler Giebel erklärt das so: „Tritonibacter verwertet neben einem Spektrum von Zuckern und Aminosäuren auch verschiedene aromatische Verbindungen, wie sie in Öl vorkommen, als Kohlenstoff- und Energiequelle.“ Unter Mitwirkung anderer Bakterien entstehe aus bestimmten Ölinhaltsstoffen etwa die aromatische 4-Hydroxybenzoesäure. Über verschiedene Zwischenschritte sorge Tritonibacter dafür, dass verschiedene Abbauprodukte entstehen – die dann wiederum auch von anderen Bakterienarten verwertet werden könnten.

Für weitere Untersuchungen wird Tritonibacter am ICBM bei minus 80 Grad Celsius stabil aufbewahrt. „Erstmalig können wir so der Wissenschaftsgemeinde ein vollständig Genom-sequenziertes und taxonomisch beschriebenes Bakterium aus dem Deepwater-Horizon-Ölunfall zur Verfügung stellen.“

Bereits seit dem Jahr 2010 forschen Mikrobiologen, Naturstoffchemiker, Genetiker und Bioinformatiker unter Leitung des Oldenburger Mikrobiologen und Mitautors Prof. Dr. Meinhard Simon im Sonderforschungsbereich „Roseobacter“. Die Wissenschaftler befassen sich mit den evolutionären, genetischen und physiologischen Eigenschaften und Anpassungen der Bakterien in ihren verschiedenen Lebensräumen.

„Tritonibacter horizontis gen. nov., sp. nov., a member of the Rhodobacteraceae, isolated from the Deepwater Horizon oil spill“, Franziska Klotz, Thorsten Brinkhoff, Heike M. Freese, Matthias Wietz, Andreas Teske, Meinhard Simon, Helge-Ansgar Giebel, Int. J. Syst. Evol. Microbiol.. 2018 Mar; 68(3):736-744. DOI:10.1099/ijsem.0.002573

Weitere Informationen:
http://icbm.de/

Quelle: idw

(nach oben)


Den Blutzucker fest im Griff

Dr. Gabriele Neumann Stabsstelle Hochschulkommunikation
Philipps-Universität Marburg

Internetplattform „ONSIDE“ unterstützt Diabetikerinnen und Diabetiker
Ein neues Online-Portal soll Patientinnen und Patienten mit Diabetes Typ 2 unterstützen, im Alltag besser mit der Erkrankung zurechtzukommen sowie die Behandlung zu optimieren. Entwickelt wurde „ONSIDE“ („Online-Selbsthilfe Diabetes“) von Prof. Dr. Winfried Rief vom Fachbereich Psychologie der Philipps-Universität Marburg in Zusammenarbeit mit dem Universitätsklinikum Hamburg-Eppendorf und der GAIA AG Hamburg.
Etwa sechs Millionen Erwachsene leiden in Deutschland an Diabetes mellitus Typ 2. Die Behandlung der Stoffwechselerkrankung ist umfangreich und stellt große Anforderungen an die Betroffenen, da sie meist schleichend verläuft. Betroffene spüren häufig jahrelang keine Symptome und sehen keinen Handlungsbedarf – bis es zu spät ist. So kann es langfristig zu schweren Folgeerkrankungen kommen, wie der Schädigung von Netzhaut (Retinopathie), Nerven (Neuropathie), Nieren (Nephropathie) und dem diabetischen Fußsyndrom.
„Dabei lässt sich Diabetes sehr effektiv behandeln“, sagt Antje Dorothea Arlt, die das Portal „ONSIDE“ mitbetreut. Neben gesundheitsfördernden Lebensgewohnheiten, wie regelmäßigem Sport und der Umstellung der Ernährung, sei häufig auch die regelmäßige Einnahme von Arzneimitteln zentral. „Einige wissenschaftliche Studien belegen, dass Online-Programme Personen mit Diabetes mellitus Typ 2 bei der Umsetzung unterstützen können.“
Das neu entwickelte Online-Selbsthilfeprogramm „ONSIDE“ („Online-Selbsthilfe Diabetes“) basiert auf Methoden der kognitiven Verhaltenstherapie und beinhaltet verschiedene wissenschaftlich fundierte Module. Das Programm vermittelt Wissen zur Erkrankung und unterstützt und motiviert zu gesundheitsfördernden Lebensgewohnheiten, um Langzeitfolgen der Erkrankung zu vermeiden. Zudem werden die Teilnehmerinnen und Teilnehmer angeleitet, sich persönliche Ziele zu stecken und diese umzusetzen. „Sie erhalten individuell angepasste Anregungen zur Entspannung und Stressbewältigung sowie Übungen zur Stärkung der Achtsamkeit, welche bei bestehenden Ängsten oder Depressionen helfen können“, so Arlt.
Es besteht die Möglichkeit, an einer Studie teilzunehmen und die Plattform so kostenlos zu testen. Teilnehmen können Personen, die mindestens 18 Jahre alt sind, die Diagnose Diabetes Mellitus Typ 2 durch einen Arzt erhalten haben, regelmäßig ihre Kontrolltermine wahrnehmen und einen Internetzugang haben sowie ein Gerät (z.B. Computer, Smartphone), um diesen zu nutzen.

Ansprechpartnerin:
Antje Dorothea Arlt
Fachbereich Psychologie
Philipps-Universität Marburg
Tel.: 06421 28-23629
E-Mail: onside@uni-marburg.de

Quelle: idw

(nach oben)


Erstmals verlässliche Drei-Monats-Prognosen für Winter in Europa möglich

Birgit Kruse Referat Medien- und Öffentlichkeitsarbeit
Universität Hamburg

Mit einer ganz neuen Methode kann die Qualität der saisonalen Vorhersagen für den Winter in vielen Teilen Europas deutlich erhöht werden. Bisher konnten vor allem für die Tropen brauchbare Vorhersagen gemacht werden. Ein Team um Dr. Mikhail Dobrynin und Prof. Dr. Johanna Baehr vom Centrum für Erdsystemforschung und Nachhaltigkeit (CEN) der Universität Hamburg veröffentlichte die Ergebnisse jetzt im Fachblatt Geophysical Research Letters.

Drei-Monats-Prognosen – auch Jahreszeiten-Vorhersagen oder saisonale Vorhersagen genannt – geben einen Durchschnittswert für das Wetter in den nächsten drei Monaten an. Mit verbesserter Zuverlässigkeit könnten sie wichtige Daten für Landwirtschaft und Industrie liefern.

Doch der Winter über Europa galt bisher als kaum vorhersagbar, die so genannte Nordatlantische Oszillation (kurz NAO) als zu chaotisch. Doch gerade dieses typische Zusammenspiel von Island-Tief und Azoren-Hoch hat auf den Winter in vielen Teilen Europas einen besonders starken Einfluss. Dies machte sich das Team um Dobrynin zunutze. Die NAO funktioniert wie ein Schalter, der jeweils den Weg der Luftströmungen über dem Atlantik beeinflusst. Kann man vorhersagen, wie der Schalter steht, erhalten wir Hinweise auf das zukünftige mittlere Wetter in Europa.

Mit einem neuen Verfahren kann Dobrynin die Schalterphasen der NAO erstmals viel sicherer vorhersagen: Wie die Auswertung der Winter von 2001 bis 2017 zeigte, haben sich die Prognosen in mehr als 50 Prozent der Fälle verbessert. Dies ist damit weltweit das erste Mal, dass eine Prognose für Europa eine ähnlich hohe Qualität wie für die Tropen erreicht.

„Zwar gibt es schon länger internationale und deutsche Projekte zu saisonalen Vorhersagen, doch bisher waren die Ergebnisse kaum besser, als wenn wir geraten hätten“, so Dobrynin. „Jetzt erreichen wir zum ersten Mal eine sehr gute Trefferquote.“

Der Ozeanograf bezieht dafür so genannte Telekonnektionen mit ein. Dies sind bestimmte Regionen rund um den Globus verstreut, die eine deutliche Verbindung zum mittleren Wetter einer anderen Region der Erde haben. So beeinflusst zum Beispiel die Schneedicke in Sibirien im Oktober den kommenden Winter in Europa, ebenso wie der Nordatlantische Ozean oder höhere Luftschichten über der Arktis. Telekonnektionen sind schwer zu identifizieren und verändern sich noch dazu im Laufe der Zeit. Einbezogen in Drei-Monats-Vorhersagen können sie diese aber offenbar viel genauer machen – und sind damit potenziell als neues Werkzeug für bessere Prognosen weltweit geeignet.

In einem europäischen Projekt wird Dobrynin jetzt die neue Methode in vier unterschiedliche Prognose-Systeme einbauen. Damit kann das neue Werkzeug demnächst in Echtzeit getestet und verglichen werden. Eines der Systeme ist das German Climate Forecast System, das ebenso wie die neue Methode von der Universität Hamburg, dem Max-Planck-Institut für Meteorologie, der Eidgenössisch Technischen Hochschule Zürich und dem Deutschen Wetterdienst gemeinsam entwickelt wurde.

Fachartikel:
Dobrynin M., Domeisen D. I. V., Müller W. A., Bell L., Brune S., Bunzel F., Düsterhus A., Fröhlich K., Pohlmann H., Baehr J. (2018): Improved teleconnection-based dynamical seasonal predictions of boreal winter. Geophysical Research Letters, 43. https://doi.org/10.1002/2018GL077209

Weitere Infos:
German Climate Forecast System (GCFS): Jahreszeitenvorhersagen des Deutschen Wetterdienstes:
https://www.dwd.de/DE/leistungen/jahreszeitenvorhersage/projektbeschreibung.html…

Vorhersagen:
https://www.dwd.de/DE/leistungen/jahreszeitenvorhersage/jzvhs_home_node.html

Für Rückfragen:
Dr. Mikhail Dobrynin
Universität Hamburg
Centrum für Erdsystemforschung und Nachhaltigkeit (CEN)
Tel.: +49 40 42838-7750
E-Mail: mikhail.dobrynin@uni-hamburg.de

Stephanie Janssen
Universität Hamburg
Centrum für Erdsystemforschung und Nachhaltigkeit (CEN)
Presse- und Öffentlichkeitsarbeit
Tel.: +49 40 42838-7596
E-Mail: stephanie.janssen@uni-hamburg.de

Quelle: idw

(nach oben)


Baden-Württemberg: Erblindungsrisiko bei Menschen mit und ohne Diabetes deutlich gesunken

Christina Becker Presse- und Öffentlichkeitsarbeit
Deutsches Diabetes-Zentrum

– Rate der Neuerblindungen bei Menschen mit Diabetes in Baden-Württemberg zwischen 2008 und 2012 annähernd halbiert

– Abnahme der Neuerblindungsraten bei Menschen ohne Diabetes in diesem Zeitraum um knapp 30 Prozent

– Kontinuierlicher Rückgang vermutlich auf eine verbesserte Früherkennung und Therapie von Augenerkrankungen und Verbesserung der Versorgung bei diabetischer Retinopathie zurückzuführen

Für Deutschland fehlten bislang belastbare Zahlen zum Vergleich der Neuerblindungen bei Personen mit und ohne Diabetes und deren zeitlichen Verlauf. Forscher am Deutschen Diabetes-Zentrum (DDZ) haben nun berechnet, dass das Erblindungsrisiko in der Bevölkerung in Süddeutschland deutlich abgenommen hat – bei Personen mit Diabetes mehr als bei Personen ohne Diabetes. Das Ergebnis der Auswertung lässt vermuten, dass sich neben der Versorgung bei diabetischer Retinopathie auch die Früherkennung und Therapie des grauen und grünen Stars (Katarakt, Glaukom) sowie der altersbedingten Makula-Degeneration verbessert hat.

Fast neun Prozent der Menschen (ca. 415 Millionen) weltweit leiden an Diabetes. Dieser ist eine häufige Ursache für eine Erblindung. Bereits Anfang der 1990er Jahre wurden in Folge dessen Maßnahmen ergriffen, die Anzahl an Erblindungen bei Personen mit Diabetes zu verringern. So wurden beispielsweise in Deutschland Leitlinien eingeführt, die regelmäßige Untersuchungen des Augenhintergrundes empfahlen, um die diabetische Retinopathie frühzeitig erkennen und behandeln zu können. Die Wissenschaftlerinnen und Wissenschaftler am Deutschen Diabetes-Zentrum (DDZ) haben deshalb Neuerblindungen bei Menschen mit und ohne Diabetes in Baden-Württemberg in Kooperation mit dem Landesgesundheitsamt und den örtlichen Sozialhilfeträgern Baden-Württembergs untersucht. Die Studie dazu wurde in der Zeitschrift „Diabetes Care“ veröffentlicht.

Datenbasis und Ergebnisse
Die Datenbasis für die Untersuchung bilden neu anerkannte Blindengeldempfänger in etwa 50 Prozent aller Landkreise und kreisfreien Städte in Baden-Württemberg, welche für den Zeitraum 2008-2012 erfasst wurden. Insgesamt wurden dabei 1.897 Personen neu als Blindengeldempfänger registriert (davon 23,7 % Personen mit Diabetes). Zwischen 2008 und 2012 ging die Zahl der neu als Blindengeldempfänger registrierten Personen in der Gruppe der Bevölkerung mit Diabetes zurück: Von 100.000 Personen mit Diabetes waren es in 2008 rund 17 Personen, während es in 2012 nur noch rund 9 Personen waren. Ebenso wurde erstmals eine Abnahme der Zahl der neu als Blindengeldempfänger registrierten Personen ohne Diabetes festgestellt: Von 100.000 Personen ohne Diabetes waren es im Jahr 2008 rund 9 Personen. In 2012 waren 7 Personen betroffen. Dabei gab es keine geschlechterspezifischen Unterschiede – für Männer und Frauen wurden ähnliche Ergebnisse abgeleitet. Das relative Risiko, welches angibt, wie viel höher das Erblindungsrisiko in der Bevölkerung mit Diabetes im Vergleich zur Bevölkerung ohne Diabetes ist, sank von Faktor 2 im Jahr 2008 auf den Faktor 1,4 in 2012. „Die Reduktion verlief somit deutlich stärker bei Personen mit Diabetes – besonders in der letzten Dekade“, erklärt Prof. Dr. Dr. Andrea Icks, Direktorin des Instituts für Gesundheitsökonomie und Versorgungsforschung am DDZ.

Fazit
Zusammenfassend lässt sich ableiten, dass das Erblindungsrisiko in Baden-Württemberg mit sowie ohne Diabetes deutlich abgenommen hat. Der beobachtete Rückgang besteht dabei unabhängig von der Alterung der Bevölkerung. Daher vermuten die Autoren der Studie, dass der kontinuierliche Rückgang der Erblindungen auf die Verbesserung der Versorgung bei diabetischer Retinopathie sowie durch das frühere Identifizieren und Behandeln anderer Augenerkrankungen wie Katarakt, Glaukom und der senilen Makula-Degeneration zurückzuführen ist.

Ein Vergleich mit Studienergebnissen aus anderen Ländern ist schwierig, da sich die Definitionen und Erfassung von Erblindungen wesentlich voneinander unterscheiden. In Deutschland ist die Definition von Erblindung – Sehfähigkeit von weniger als ein Fünfzigstel der normalen Sehkraft – sehr streng. Um einen Einblick zu bekommen, ob vergleichbare Ergebnisse auch in Deutschland in anderen Regionen für einen längeren bzw. aktuelleren Zeitraum beobachtet werden, wird derzeit eine entsprechende Auswertung für Daten aus Sachsen für den Zeitraum 2008-2016 durchgeführt.

Originalpublikation: Claessen H, Kvitkina T, Narres M, Trautner C, Zöllner I, Icks A. Decreasing incidence of blindness in people with and without diabetes in southern Germany, 2008-2012. Diabetes Care 41(3):478-484. doi: 10.2337/dc17-2031. Epub 2018 Jan 9.

Weitere Informationen:
http://ddz.uni-duesseldorf.de

Quelle: idw

(nach oben)


Biokraftstoffe: Im Verkehrssektor droht das Scheitern des Klimaziels für 2030

Paul Trainer M.A. Presse- und Öffentlichkeitsarbeit
Deutsches Biomasseforschungszentrum

Im Rahmen des diesjährigen Biokraftstoff-Fachgespräches haben Leipziger Forscher am gestrigen Donnerstag (19.4.) mit Entscheidungsträgern aus der Politik und hochrangigen Vertretern der Biokraftstoffbranche über das Klimaziel im Verkehrssektor bis 2030 diskutiert. Ergebnis: die Vorgaben der EU bleiben deutlich hinter den hohen Zielen der Bundesregierung zurück. Diese strebt für 2030 eine Reduktion der Klimagase um 40 – 42% gegenüber 1990 an.

Der nationale Klimaschutzplan sieht vor, bis zum Jahr 2030 mehr als 40 Prozent der Klimagase im Verkehrssektor zu reduzieren. Gleichzeitig wird prognostiziert, dass der Güter- und Personenverkehr signifikant zunehmen wird. Auf EU-Ebene ist derzeit die Änderung der maßgebenden Richtlinie in Vorbereitung und Abstimmung. Beim dreizehnten Leipziger Biokraftstoff-Fachgespräch am 19. April 2018 haben Vertreter der verantwortlichen Bundesministerien (BMEL, BMVI und BMWi) den zu erwartenden politischen Rahmen und damit die Entwicklungsperspektiven für konventionelle und fortschrittliche Biokraftstoffe für den Zeitraum bis 2030 vorgestellt. Im Anschluss erörterten Vertreter aus Forschung und Praxis (Verbio AG, Clariant, CropEnergies AG, dena und DBFZ), moderiert durch die Fachagentur Nachwachsende Rohstoffe e.V. (FNR), im Rahmen einer Podiumsdiskussion die technischen Möglichkeiten und begleitenden Herausforderungen.

Im Rahmen der Diskussion zeigte sich, dass mittels der derzeit diskutierten EU-Ziele für erneuerbare Energien im Verkehr die deutschen Klimaziele bei weitem nicht erreichbar sind. Maßgeblicher Hebel für Klimaschutz im Verkehr bleiben absehbar die eingesetzten Energieträger und damit in erster Linie Biokraftstoffe. Diskutiert wurde auch das nach wie vor große und nahezu ungenutzte Potenzial für Biomethan als regenerativen Gaskraftstoff. Einigkeit herrschte zudem darüber, dass ohne die etablierten Biokraftstoffe die Implementierung sogenannter fortschrittlicher Biokraftstoffe kaum umsetzbar ist. Investitionsentscheidungen für neue Produktionsanlagen in Deutschland werden nicht nur von Marktrisiken, sondern insbesondere von klaren und verlässlichen politischen Rahmenbedingungen bestimmt, diese fehlen aber nach wie vor. Deutsche Player investieren zunehmend im europäischen und internationalen Ausland. Bis zum Jahresende soll der EU ein Maßnahmenkatalog zur Erreichung der Klimaziele durch die Bundesregierung vorgelegt werden. Zu dessen Erarbeitung sind weitere fachliche Diskussionen mit allen Akteuren erforderlich.

Wissenschaftlicher Kontakt:
Karin Naumann
Tel.: 0341 2434-711
E-Mail: karin.naumann@dbfz.de

Pressekontakt:
Paul Trainer
Tel.: (0)341 2434-437
E-Mail: paul.trainer@dbfz.de

Smart Bioenergy – Innovationen für eine nachhaltige Zukunft
Das Deutsche Biomasseforschungszentrum arbeitet als zentraler und unabhängiger Vordenker im Bereich der energetischen und stofflichen Biomassenutzung an der Frage, wie die begrenzt verfügbaren Biomasseressourcen nachhaltig und mit höchster Effizienz und Effektivität zum bestehenden und zukünftigen Energiesystem beitragen können. Im Rahmen der Forschungs-tätigkeit identifiziert, entwickelt, begleitet, evaluiert und demonstriert das DBFZ die vielversprechendsten Anwendungsfelder für Bioenergie und die besonders positiv heraus-ragenden Beispiele gemeinsam mit Partnern aus Forschung, Wirtschaft und Öffentlichkeit. Mit der Arbeit des DBFZ soll das Wissen über die Möglichkeiten und Grenzen einer energetischen und integrierten stofflichen Nutzung nachwachsender Rohstoffe in einer biobasierten Wirtschaft insgesamt erweitert und die herausragende Stellung des Industriestandortes Deutschland in diesem Sektor dauerhaft abgesichert werden – www.dbfz.de

Weitere Informationen:
https://www.dbfz.de/presse/pressemitteilungen-2018/biokraftstoffe-im-verkehrssek…

Quelle: idw

(nach oben)


Rückenschmerzen – Neuer Artikel in Fachzeitschrift Lancet warnt vor Überdiagnostik

Anna Julia Voormann Geschäftsstelle der DGRh
Deutsche Gesellschaft für Rheumatologie e.V.

Weltweit sind 540 Millionen Menschen von Rückenschmerz betroffen. Die Ursachen sind vielfältig. Drei Artikel in der aktuellen Ausgabe der Fachzeitschrift „The Lancet“ beleuchten Rückenschmerz als Volkskrankheit. Die Autoren der Serie betonen, dass bei Rückenschmerzpatienten oft teure Überdiagnostik stattfindet: Sie werden zu umfassend gerätetechnisch untersucht. Auch die Deutsche Gesellschaft für Rheumatologie e.V. (DGRh) rät bei nichtspezifischem Kreuzschmerz unter sechs Wochen und ohne Warnzeichen von bildgebender Diagnostik ab. Umso mehr bedürfen entzündlich rheumatische Krankheiten dringend einer qualifizierten Diagnostik, so die Experten der DGRh.

Spezifische Erkrankungen der Wirbelsäule wie Wirbelkörperbrüche, Tumoren, Infektionen oder entzündlich rheumatische Erkrankungen sind eher selten Ursache von Rückenschmerzen. „Der Arzt muss jedoch ausreichend qualifiziert sein, um den Verdacht darauf zu formulieren und an einen Facharzt zu überweisen“, betont Professor Dr. med. Hanns-Martin Lorenz, Präsident der DGRh. Nach wie vor geschieht es, dass rheumatisch entzündliche Krankheiten nicht rechtzeitig diagnostiziert werden, fortschreiten und Schäden setzen, die nicht umkehrbar sind.

Das gilt auch für die häufigste entzündlich rheumatische Erkrankung der Wirbelsäule, die axiale Spondyloarthritis – Grund für etwa fünf Prozent der Fälle von chronischem Rückenschmerz. Die oft auch „Morbus Bechterew“ genannte Erkrankung befällt insbesondere Menschen im Alter zwischen 20 und 40 Jahren. Im Verlauf der Erkrankung versteifen die Gelenke der Wirbel. Im Endstadium zwingt dies die Betroffenen in eine gebückte Haltung. Die Betroffenen klagen im Frühstadium oft darüber, dass morgens die untere Wirbelsäule steif ist. In Bewegung bessern sich die Symptome. „Wenn der Allgemeinarzt in diesen und ähnlichen Fällen Verdacht auf eine spezifische Ursache für Rückenschmerzen hat, sollte er den Patienten an einen Rheumatologen überweisen“ empfiehlt Professor Dr. med. Joachim Sieper aus Berlin, einer der Autoren der Serie in The Lancet.

„Primärer Anlaufpunkt für Patienten mit Rückenschmerzen ist jedoch die Allgemeinarztpraxis“, meint Professor Sieper. Die klare Empfehlung des Rheumatologen von der Charité – Universitätsmedizin Berlin: „Aufwendige diagnostische Maßnahmen sollten in der Regel vermieden werden“. Denn die Beschwerden der meisten Patienten bessern sich schon durch Beratung, physikalische Therapie und psychologische Betreuung. Es sei wichtig, so Sieper, dass Patienten aktiv bleiben, weiterhin am täglichen Leben teilnehmen und ihrem Alltag und damit auch ihrer Arbeit nachgehen.

Auch die DGRh hat diese Negativempfehlung für Ärzte schon 2016 im Rahmen der Initiative „Klug Entscheiden“ formuliert: Halten nicht spezifische Kreuzschmerzen weniger als sechs Wochen an und weisen keine sogenannten „Red Flags“ auf, sollte der Arzt auf Bildgebung wie Röntgen und andere Verfahren verzichten. „Red Flags“ sind verschiedene eindeutige Warnhinweise auf Erkrankungen der Wirbelsäule, bei denen dringender Handlungsbedarf besteht. Die Artikelserie in The Lancet thematisiert umfassend Ursachen, Folgen und Behandlung der Volkskrankheit Rückenschmerz – von einfach therapierbaren Leiden bis hin zu ernsthaften Krankheiten, die bleibende Schäden setzen.

Literatur: The Lancet; „Low back pain 1-3″; Published Online March 21, 2018; Elsevier

Die DGRh ist mit mehr als 1.400 Mitgliedern die größte medizinisch-wissenschaftliche Fachgesellschaft in Deutschland im Bereich der Rheumatologie. Sie repräsentiert hierzulande seit 90 Jahren die rheumatologische Wissenschaft und Forschung und deren Entwicklung. Als gemeinnütziger Verein arbeitet die DGRh unabhängig und ohne Verfolgung wirtschaftlicher Ziele zum Nutzen der Allgemeinheit.

Weitere Informationen:
http://www.thelancet.com/series/low-back-pain
https://dgrh.de/Start/DGRh/Presse/Pressemitteilungen/Pressemitteilungen/2018/Pre…

Quelle: idw

(nach oben)


Biologische Vielfalt von grünlanddominierten Kulturlandschaften unter der Lupe

Gerhard Radlmayr ZFW – Forschungskommunikation
Hochschule Weihenstephan-Triesdorf

Die abnehmende Biodiversität in unseren Ökosystemen ist ein wachsendes Thema in den Medien. Die nationale Biodiversitätsstrategie und die bayerischen Strategie zum Erhalt und zur Steigerung der biologischen Vielfalt haben sich zum Ziel gesetzt, gerade außerhalb von Schutzgebieten besonders artenreiche Bereiche zu erhalten und sinnvoll miteinander zu verbinden. Die Hochschule Weihenstephan-Triesdorf untersucht in einem dreijährigen vom Freistaat Bayern geförderten Forschungsprojekt, welche Lebensräume in grünlanddominierten Landschaften besonders artenreich sind, welche Vielfalt an Arten und Vegetationstypen vorhanden ist und was mehrjährige Naturschutzmaßnahmen bewirken können.

Die abnehmende Biodiversität in unseren Ökosystemen ist ein wachsendes Thema in den Medien. Wissenschaftliche Studien belegen, dass Vogel-, Insekten- und Pflanzenbestände in bedrohlichem Tempo schwinden. Die nationale Biodiversitätsstrategie und die bayerischen Strategie zum Erhalt und zur Steigerung der biologischen Vielfalt haben sich zum Ziel gesetzt, gerade in der „Normallandschaft“ außerhalb von Schutzgebieten besonders artenreiche Bereiche zu erhalten und sinnvoll miteinander zu verbinden. Vor allem Grünland als Nutzungsform nimmt immer weiter ab, bedingt durch Grünlandumbruch, Brachlegung, Aufforstung oder durch den Flächenbedarf für Infrastruktur und Siedlungsbereiche. Die sich daraus ableitende Dringlichkeit zur Untersuchung und Erhaltung der biologischen Vielfalt in grünlanddominierten Landschaften wird in dem vom Bayerischen Wissenschaftsministerium mit rund einer Viertel Million Euro geförderten Forschungsprojekt der Hochschule Weihenstephan-Triesdorf aufgegriffen. Das von 2018 bis Ende 2020 am Biomasse-Institut am Campus Triesdorf laufende Projekt soll aufzeigen, welche Lebensräume im Untersuchungsgebiet „Oberes Altmühltal“ besonders artenreich sind, welche Vielfalt an Arten und Vegetationstypen vorhanden ist und was mehrjährige Naturschutzmaßnahmen bewirken können. Im Projektgebiet befinden sich außerhalb der Schutzgebiete ausgedehnte Überflutungsbereiche, die eine Grünlandnutzung bedingen. Der Kern der Untersuchung konzentriert sich auf das Wiesmet, einem Natura2000-Gebiet mit einer in Bayern sehr hohen Bedeutung für Wiesenbrüter. Dort gibt es neben konventionell genutzten Wiesen und Reinsaatflächen auch Vertragsnaturschutzflächen mit spätem Erstmahdtermin. Hier soll auch ein experimenteller Blockversuch durchgeführt werden, da über das Bayerische Vertragsnaturschutzprogramm (VPN) die Bewirtschaftungsvarianten wie Mahdzeitpunkt oder Mähtechnik sowie der Wasserhaushalt in einem gewissen Rahmen gesteuert werden können.

Mit den Ergebnissen des Projektes hoffen die Forschenden aufzuzeigen, welche Lebensräume besonders artenreich sind, welcher Reichtum an Gefäßpflanzenarten und Vegetationstypen im Durchschnitt vertreten ist und was bei mehrjährigen Anstrengungen über die VPN-Maßnahmen maximal erreicht werden kann. Letztendlich soll beurteilt werden, wie groß der Bedarf an Maßnahmen zugunsten der Vielfalt der Gefäßpflanzen in der Normallandschaft ist. So kann entschieden werden, ob bisherige Naturschutzmaßnahmen wie bisher weitergeführt werden können. Die Ergebnisse finden Anwendung in der Praxis des Vertragsnaturschutzes und schaffen zugleich einen Bewertungsrahmen für Vielfalt. Sie unterstützen die Entscheidungen der Naturschutzbehörden und des Landschaftspflegeverbandes zur Steuerung der Nutzung und des Wasserregimes.

Weitere Informationen:
https://www.hswt.de/forschung/news/article/biologische-vielfalt-von-gruenlanddom…

Quelle: idw

(nach oben)


Wohnungsmarkt: mieten oder kaufen?

Robert Emmerich Presse- und Öffentlichkeitsarbeit
Julius-Maximilians-Universität Würzburg

Wer ein Haus oder eine Wohnung kauft, kann sich damit im Alter finanziell absichern. In Deutschland gibt es aber relativ wenige Immobilienbesitzer. Warum das so ist, erforschen Würzburger Finanzwissenschaftler mit Simulationsmodellen.

• „Können wir uns im Ruhestand die teure Miete für eine Wohnung überhaupt noch leisten? Vielleicht sollten wir uns rechtzeitig eine eigene Immobilie kaufen, damit später mehr von der Rente übrig bleibt.“

• „Wenn ich im Alter in ein Pflegeheim muss, kann ich das vielleicht nicht bezahlen. Meine Kinder sollen aber auch nicht dafür aufkommen müssen. Sie können dann meine Wohnung verkaufen und mit dem Erlös meine Pflege finanzieren.“

Das sind nur zwei Überlegungen, die vermutlich schon vielen Menschen in Deutschland durch den Kopf gegangen sind. Gerade in einer Gesellschaft, in der sich der Anteil älterer Menschen immer mehr erhöht, sollte es eigentlich besonders viele Haus- und Wohnungseigentümer geben – dafür sprechen mehrere gute Gründe.

Die Realität sieht aber anders aus: „In Deutschland besitzen nur rund 44 Prozent der Haushalte Wohneigentum, in Spanien oder Australien dagegen sind es etwa 80 Prozent“, sagt Professor Hans Fehr, Inhaber des Lehrstuhls für Finanzwissenschaft an der Julius-Maximilians-Universität Würzburg (JMU). Und: „Diese Zahlen verwundern einen noch mehr, wenn man die hohen Vermögen der deutschen Rentner bedenkt.“

Mögliche Gründe für die geringe Wohneigentumsquote
Warum haben so wenige Deutsche Wohneigentum? Dafür gibt es womöglich auch psychologische Gründe. Manche Leute wollen vielleicht nicht die Verantwortung tragen, die mit dem Besitz eines Hauses verbunden ist – soll sich doch lieber der Vermieter um kaputte Heizungen und andere lästigen Dinge kümmern. Andere scheuen es, zur Finanzierung des Hauskaufs einen Kredit aufzunehmen. Sie wollen grundsätzlich keine Schulden machen oder haben Angst, arbeitslos zu werden und dann den Kredit nicht mehr abzahlen zu können.

„Die Schuldenphobie der Deutschen zu hinterfragen, ist Sache der Psychologie“, sagt Professor Fehr. Sein Interesse als Wissenschaftler gilt mehr den ökonomischen Gründen, die erklären, warum zum Beispiel mehr Spanier oder Australier Immobilien besitzen als Deutsche. „Dafür scheinen vor allem Unterschiede in den Haushaltsstrukturen, der Steuer-, Renten-, Sozial- und Wohnungspolitik sowie in den Hypotheken- und Mietmarktregulierungen eine zentrale Rolle zu spielen“, so Fehr.

Deutsche Forschungsgemeinschaft fördert das Projekt
Die genannten und andere Faktoren will der JMU-Professor in seinem Projekt „Wohneigentum und Wohnungsmarkt in einer alternden Gesellschaft“ analysieren. Die Deutsche Forschungsgemeinschaft (DFG) fördert das Vorhaben, an dem Fehrs Doktorand Maurice Hofmann mitarbeitet.

„Wir möchten mit numerischen Simulationsmodellen den Einfluss verschiedener Faktoren auf die individuelle Entscheidung zwischen Wohneigentum und Miete bestimmen“, sagt Fehr. Danach gelte es, mit Hilfe des Modells die Effekte unterschiedlicher wirtschaftspolitischer Instrumente auf Wohnungsangebot und -nachfrage in Deutschland zu quantifizieren.

Zwischen städtischen und ländlichen Wohnungsmärkten wird dabei nicht unterschieden, dadurch würde das Modell zu kompliziert. Auch die Psychologie muss außen vor bleiben: Die Forscher setzen voraus, dass die Menschen wirtschaftlich rational denken und ihr Verhalten nach ökonomischen Anreizen ausrichten.

Erstes Teilmodell bildet einzelnen Haushalt ab
Fehrs Team hat bereits ein Teilmodell entwickelt, in dem es zunächst um einen einzigen Haushalt geht. Abgebildet wird dabei ein Mensch in der Lebensspanne von 20 bis 100 Jahren, seine Einkommensverhältnisse und Konsumentscheidungen, sein Spar- und Anlageverhalten (Immobilien, risikolose Staatspapiere, risikobehaftete Aktien), seine Pflegekosten im höheren Alter.

An diesem Teilmodell lassen sich verschiedene Szenarien durchspielen. Ihm zufolge steigern zunehmende Pflegekosten und -risiken die Nachfrage nach Wohneigentum. „Das wird in der Zukunft ein wichtiger Punkt sein“, meint Fehr. Aber noch sei in Deutschland die Sozialversicherung so gut ausgebaut, dass nicht alle Menschen daran denken, sich mit Wohneigentum fürs Alter abzusichern. In Ländern mit großzügigen Rentensystemen und einer guten Pflegeversicherung gebe es in der Tendenz generell eine niedrigere Wohneigentumsquote.

Effekte politischer Entscheidungen modellieren
Bis Ende 2018 wollen die Würzburger Finanzwissenschaftler ihr gesamtes Modell fertig haben. Um den Einzelhaushalt herum werden dann unter anderem ein Renten- und Sozialsystem sowie ein Wohnungsbausektor modelliert sein. So lassen sich die Wirkungen spezifischer deutscher Politik-Instrumente austesten – etwa die Förderung des sozialen Wohnungsbaus oder die Einführung eines Baukindergelds.

Mit dem Simulationsmodell sollten sich auch die Gewinner und Verlierer einer bestimmten Wirtschaftspolitik identifizieren lassen – zum Beispiel können dann die Auswirkungen einer Rentenreform ermittelt werden. „Im Idealfall kann am Ende des Projektes eine Art Empfehlung für die Wirtschaftspolitik herausgearbeitet werden“, sagt Fehr.

Kontakt
Prof. Dr. Hans Fehr, Lehrstuhl für Finanzwissenschaft, Universität Würzburg,
T +49 931 31-82972, hans.fehr@uni-wuerzburg.de

Weitere Informationen:
https://www.wiwi.uni-wuerzburg.de/lehrstuhl/fiwi/home/ Website von Prof. Dr. Hans Fehr

Quelle: idw

(nach oben)


Fettleber unter Stress

Dr. Suzan Fiack Presse- und Öffentlichkeitsarbeit
Bundesinstitut für Risikobewertung (BfR)

BfR-Forscher untersuchen, wie krankhafte Prozesse die Entgiftungszentrale des Körpers belasten

Falsche Ernährungsgewohnheiten und andere Risikofaktoren machen die Leber krank. Das Stoffwechselorgan verfettet und kann sich entzünden. Auf lange Sicht drohen unwiderrufliche und lebensgefährliche Organschäden (Leberzirrhose oder „Schrumpfleber“). Fachleute des Bundesinstituts für Risikobewertung (BfR) in Berlin haben nun an Leberzellen in der Petrischale untersucht, wie Verfettung und Entzündung die Entgiftungszentrale des Körpers schwächen. „Die Ergebnisse zeigen, dass vor allem Entzündungen die Arbeit wichtiger Enzyme der Leberzelle blockieren“, sagt Professor Dr. Dr. Andreas Hensel, Präsident des BfR. „Damit kann die Leber ihre Aufgabe, mit der Nahrung aufgenommene Fremdstoffe zu entgiften, nur noch begrenzt wahrnehmen.“

Link zur Studie (Abstract):
http://dmd.aspetjournals.org/content/46/4

Bislang ist nicht vollständig geklärt, wie sich eine verfettete und entzündete Leber auf ihre Fähigkeit auswirkt, Fremdstoffe wie Chemikalien oder Medikamente zu erkennen und abzubauen. In Zusammenarbeit mit dem Dr. Margarete Fischer-Bosch-Institut für Klinische Pharmakologie in Stuttgart behandelten die BfR-Forscherinnen und Forscher menschliche Leberzellen mit Fettsäuren, entzündungsfördernden Substanzen und Fremdstoffen. Auf diese Weise stellten sie die Bedingungen in der Leber nach und zeichneten auf, wie die Zellen darauf reagierten.

Das Hauptergebnis: Während eine bloße Verfettung der Leberzelle noch keine weitreichenden Folgen für die Entgiftung hatte, änderte sich das, wenn eine Entzündung erzeugt wurde, wie die Wissenschaftlerinnen und Wissenschaftler im Fachblatt „Drug Metabolism and Disposition“ berichten. Die Fähigkeit, Fremdstoffe unschädlich zu machen, ist deshalb bei einer fettleberbedingten Entzündung vermutlich deutlich verringert.

Über das BfR
Das Bundesinstitut für Risikobewertung (BfR) ist eine wissenschaftlich unabhängige Einrichtung im Geschäftsbereich des Bundesministeriums für Ernährung und Landwirtschaft (BMEL). Es berät die Bundesregierung und die Bundesländer zu Fragen der Lebensmittel-, Chemikalien- und Produktsicherheit. Das BfR betreibt eigene Forschung zu Themen, die in engem Zusammenhang mit seinen Bewertungsaufgaben stehen.

Quelle: idw

(nach oben)


Wassergespräch Lausitz – Wie weiter mit dem Wasser in der Region?

Tina Berger Stabsstelle Kommunikation und Marketing
Brandenburgische Technische Universität Cottbus-Senftenberg

Veränderung von Seewasserspiegeln in Nordostdeutschland – verschiedene Ursachen, verschiedene Wirkungen?
Während in der Lausitz – verknüpft mit dem nachbergbaulichen Grundwasserwiederanstieg – fast 30 Bergbaufolgeseen entstehen, werden seit etwa 25 Jahren in Nordostdeutschland fallende oder verstärkt schwankende See- und Grundwasserspiegel beobachtet. Das betrifft auch eine Reihe von Seen im gewässerreichen aber wasserarmen Bundesland Brandenburg. Vor allem an Grundwasserseen und an Endseen, welche von Natur aus abflusslos sind, sind diese Phänomene zu beobachten.

Veränderung von Seewasserspiegeln in Nordostdeutschland – verschiedene Ursachen, verschiedene Wirkungen?
Während in der Lausitz – verknüpft mit dem nachbergbaulichen Grundwasserwiederanstieg – fast 30 Bergbaufolgeseen entstehen, werden seit etwa 25 Jahren in Nordostdeutschland fallende oder verstärkt schwankende See- und Grundwasserspiegel beobachtet. Das betrifft auch eine Reihe von Seen im gewässerreichen aber wasserarmen Bundesland Brandenburg. Vor allem an Grundwasser-seen und an Endseen, welche von Natur aus abflusslos sind, sind diese Phänomene zu beobachten.

Für diesen »hydrologischen Wandel von Seen«, der mit erheblichen wasserwirtschaftlichen, wirtschaftlichen und ökologischen Veränderungen verbunden ist, wird in den Medien und in der Öffentlichkeit häufig der globale Klimawandel als Hauptursache festgemacht. Ohne Zweifel ist bei fortschreitender Erwärmung in den kommenden Jahrzehnten – verknüpft z.B. mit einer zunehmenden Verdunstung, einem gleich bleibenden Jahresniederschlag und mehr abflusswirksamen Extremereignissen – mit stark schwankenden Grundwasserneubildungs- und Abflussraten zu rechnen.

Leider existieren für die Seen in Nordostdeutschland keine systematischen hydrologischen bzw. landschaftswasserhaushaltlichen Untersuchungen, obwohl eine Vielfalt von Daten. Exemplarische, interdisziplinäre Untersuchungen in Nordostdeutschland zeigen aber, dass vielfältige Prozesse im Umfeld der Seen und in deren Einzugsgebieten zu Wasserspiegeländerungen führen können. Diese und die daraus resultierenden Konsequenzen für Umwelt und Nutzung werden im Vortrag dargestellt und Ansatzpunkte zu einer Stabilisierung des lokalen Seewasserhaushalts diskutiert.

Letztlich zeigt sich, dass solche Maßnahmen mit Blick auf die Seen eingebettet sind in solche, welche der generellen Verbesserung des regionalen Landschaftswasserhaushaltes dienen. Diese sind jedoch keineswegs nur wasserwirtschaftlicher, hydrologischer oder ökologischer Art, sondern sie greifen weit in andere gesellschaftliche Bereiche wie Land- und Waldwirtschaft, Tourismus und Infrastrukturentwicklung hinein.

Weitere Informationen:
https://www.b-tu.de/news/artikel/13755-oeffentliche-ringvorlesung-wassergespraec…

Quelle: idw

(nach oben)


Gesichtserkennung in Australien – die Privatsphäre wurde ganz offiziell abgeschafft

Sabine Ranke-Heinemann Pressestelle
Australisch-Neuseeländischer Hochschulverbund / Institut Ranke-Heinemann

In Zeiten von Big Data wird der Schutz der Privatsphäre immer häufiger nicht beachtet. Oft werden unsere persönlichen Daten aber auch verwendet, ohne das wir davon wissen – so die Gesichtserkennung, für die in Australien eine gesetzliche Grundlage geschaffen wurde. Dr Monique Mann von der Queensland University of Technology in Brisbane fasst zusammen, wie die Daten der Australier genutzt werden und warum auch Führerscheine und Reisepässe nicht mehr privat sind.

Es ist allgemein bekannt, dass Handys Bewegungsprofile und Kreditkartenfirmen Einkaufsgewohnheiten sammeln. Für gewöhnlich stört dies die Betroffenen nicht, da sie vermeintlich nichts zu verheimlichen haben. Was viele Menschen jedoch nicht wissen, ist, in welchem Umfang Technologien der Gesichtserkennung im Rahmen der Gesetzesvollstreckung und zur kommerziellen Verwendung in Australien genutzt werden. „Es werden persönliche Daten gesammelt, gespeichert und freigegeben, ohne dass wir jemals zugestimmt haben oder es überhaupt wissen“, meint Dr Mann vom Crime and Justice Research Centre der Queensland University of Technology (QUT) in Brisbane.

„Das wachsende Sammeln persönlicher Informationen im Rahmen der Gesetzesausübung und durch Sicherheitsbehörden wird nicht durch eine angemessene Aufsicht oder Haftungsmaßnahmen begleitet. Die Sicherheit der Privatsphäre kann nicht gewährleistet werden. Viele Menschen sind sich nicht darüber bewusst, dass mit der Inkraftsetzung der seit 2016 in Australien geltenden „National Facial Biometric Matching Capability“ (NFBMC) der Grundstein für das Speichern von Gesichtern zu Gunsten der Gesichtserkennung gelegt wurde. Hierbei wurden die biometrischen Daten von jedem australischen Staatsbürger mit Reisepass genutzt, sodass die Datenbank die Gesichtsvorlagen von etwa 12 Millionen Australiern beinhaltet. Es gibt auch Versuche, die Daten der Führerscheindatenbanken miteinzubeziehen. Die Verwaltung von Queensland hat hierzu vergangene Woche bereits grünes Licht gegeben.“

Laut Dr Mann wächst die Nutzung von Big Data, sodass Individuen mittlerweile ohne größere Probleme anhand ihrer Daten identifiziert werden können. „Darüber hinaus verhilft die Gesichtserkennung dazu, Individuen in der Realität zu erkennen und zu verfolgen, während gleichermaßen weiterhin Daten für die Datenbanken der Regierung, Gesetzesvollstreckung und Sicherheitsbehörden gesammelt werden.“

„Die meisten von uns sind sich nicht darüber bewusst, wie viele unserer persönlichen Informationen genutzt werden. Dabei ist es unerheblich, ob wir – im Falle der Reisepässe und Führerscheine – darüber Bescheid wissen, oder – im Falle der Sozialen Medien – dies unabsichtlich geschieht. Des Weiteren wissen wir nicht, wie unsere Daten weitergeleitet oder für sekundäre Gründe verarbeitet und genutzt werden. Australische Staatsbürger haben nur begrenzte Absicherung für den Gebrauch der persönlichen Daten, die ausserdem mit erheblichen Ausnahmen versehen sind.“

Weitere Informationen zur Nutzung der biometrischen Daten und Diskussionen zum Thema gibt es in dem Buch »Biometrics, Crime and Security« von Dr Mann und den Co-Autoren Dr Marcus Smith von der Charles Start University und Assistenzprofessor Gregor Urban von der University of Canterbury in Neuseeland.

Weitere Informationen:
Institut Ranke-Heinemann / Australisch-Neuseeländischer Hochschulverbund
Pressestelle Friedrichstr. 95
10117 Berlin
Email: berlin@ranke-heinemann.de
Tel.: 030-20 96 29 593

Oder:

QUT Media contacts
Niki Widdowson
Email: n.widdowson@qut.edu.au
Tel.:+ 61 (0) 7-3138-2999

Das Institut ist die gemeinnützige Einrichtung zur Förderung des Austausches und der Auslandsstudien insbesondere mit allen Universitäten Australiens und Neuseelands sowie zur Förderung von Wissenschaft und Forschung. In seinen Förderprogrammen stellt es SchülerInnen und Studierenden Unterstützung in der Finanzierung durch Stipendien und Coaching in der Studienberatung und Studienplatzbewerbung zur Verfügung.

Weitere Informationen:
https://www.ranke-heinemann.de

Quelle: idw

(nach oben)


Mikroarray-Schnelltest verkürzt Nachweis bei Legionella pneumophila Ausbruch

Dr. Ulrich Marsch Corporate Communications Center
Technische Universität München

Bei einem Ausbruch der Legionärskrankheit ist es wichtig, so schnell wie möglich die genaue Quelle zu finden, um weitere Infektionen zu verhindern. Bisher dauert es Tage, bis eine genaue Analyse vorliegt. Forschende der Technischen Universität München haben nun einen Schnelltest entwickelt, der dies in rund 35 Minuten kann.

Legionellen sind stäbchenförmige Bakterien, die beim Menschen eine lebensgefährliche Lungenentzündung auslösen können. Sie vermehren sich in warmem Wasser. Über Kühltürme, Verdunstungs-Rückkühlanlagen und Warmwassersysteme können sie in die Luft gelangen.

Die gefährlichste Spezies unter den knapp 50 Legionellen-Arten ist ein Subtyp von Legionella pneumophila. Er ist für 90 Prozent aller Erkrankungen verantwortlich. Kommt es zu einem Ausbruch, muss schnellstmöglich die Quelle der Keime identifiziert werden, um weitere Infektionen zu verhindern.

Den Ausbruchsort hat man gefunden, wenn, ähnlich wie beim Vaterschaftstest, die Keime im Prozesswasser der technischen Anlage mit den beim Patienten nachgewiesenen eindeutig übereinstimmen. Dazu sind jedoch oft viele Anlagen zu testen, und die für den Test notwendige Kultivierung dauert rund zehn Tage.

Schneller Nachweis mit Antikörpern
Für den Nachweis des Legionella-Erregers in der Klinik gibt es inzwischen einen Schnelltest, der von den Legionellen gebildete Verbindungen im Urin der Patienten nachweisen kann. „Leider ist dieser Schnelltest nur ein erster Hinweis und für den Nachweis im Wasser technischer Anlagen nicht geeignet“, sagt PD Dr. Michael Seidel, Leiter der Forschungsgruppe am Lehrstuhl für Analytische Chemie und Wasserchemie der TU München.

Das Wissenschaftlerteam entwickelte daher im Rahmen des vom Bundesforschungsministerium geförderten Projekts „LegioTyper“ einen Mess-Chip, der nicht nur den gefährlichen Erreger Legionella pneumophila nachweisen kann sondern auch zeigt, welcher der rund 20 Subtypen vorliegt.

Schnell, kostengünstig und vielseitig
Der folienbasierte Mess-Chip nutzt die Mikroarray-Analyseplattform MCR der Münchner Firma GWK GmbH. Mithilfe von 20 verschiedenen Antikörpern liefert das System eine vollständige Analyse innerhalb von 34 Minuten.

„Im Vergleich zu bisherigen Messungen, liefert die neue Methode nicht nur einen riesigen Geschwindigkeitsvorteil“, sagt Michael Seidel, „sondern ist auch noch so billig, dass wir den Chip zum Einmalgebrauch einsetzen können.“

Das System kann sowohl in der Umwelthygiene als auch in der klinischen Diagnostik angewandt werden. In Kombination mit einem weiteren, DNA-basierten Verfahren kann das System sogar zwischen abgestorbenen und lebenden Legionella-Erregern unterscheiden. Damit ist es möglich, den Erfolg von Desinfektionsmaßnahmen zu überwachen. Auf der Analytica 2018 in München (Halle 3, Stand 315) stellen die Projektbeteiligten ihr System erstmals öffentlich vor.

Publikationen:
Wunderlich, A.; Torggler, C.; Elsaesser, D.; Lück, C.; Niessner, R.; Seidel, M., Rapid quantification method for Legionella pneumophila in surface water. Analytical and Bioanalytical Chemistry 2016, 408(9), 2203-2213. DOI: 10.1007/s00216-016-9362-x.

Kober, C.; Niessner, R.; Seidel, M. Quantification of viable and non-viable Legionella spp. by heterogeneous asymmetric recombinase polymerase amplification (haRPA) on a flow-based chemiluminescence microarray. Biosensors and Bioelectronics, 2018, 100, 49-55. https://doi.org/10.1016/j.bios.2017.08.053

Mehr Informationen:
Das LegioTyper-Projekt wird vom Bundesministerium für Bildung und Forschung im Rahmen des Programmes „Zivile Sicherheit – Schutz vor biologischen Gefahrenlagen und Pandemien“ gefördert gefördert. Die Antikörper stellte das an der TU Dresden angesiedelte deutsche Referenzlabor für Legionellen.

Die Mikroarray-Analyseplattform MCR 3 der Münchner Firma GWK GmbH wird auch bei dem vom gleichen Lehrstuhl entwickelten Test auf Antibiotikarückstände in Milch verwendet:
https://www.tum.de/die-tum/aktuelles/pressemitteilungen/detail/article/31075/

Kontakt
PD Dr. Michael Seidel
Technische Universität München
Lehrstuhl für Analytische Chemie und Wasserchemie
Institut für Wasserchemie und Chemische Balneologie
Marchioninistr. 17, 81377 München, Germany
Tel.: +49 89 2180 78252 – E-Mail: michael.seidel@ch.tum.de
Web: http://www.hydrochemistry.tum.de/home/

Weitere Informationen:
https://www.tum.de/nc/die-tum/aktuelles/pressemitteilungen/detail/article/34535/ Link zur Presseinformation
http://www.bayern-innovativ.de/analytica2018/tum-chemie/
http://www.LegioTyper.de

Quelle: idw

(nach oben)


Upcycling von PET-Flaschen: Neue Ideen für einen Wertstoffkreislauf in Deutschland

Anke Zeidler-Finsel Presse- und Öffentlichkeitsarbeit
Fraunhofer-Institut für Betriebsfestigkeit und Systemzuverlässigkeit LBF

Ein neu gestartetes Forschungsvorhaben „UpcyclePET“ entwickelt ein innovatives Verfahren für eine hochwertige Kreislaufnutzung von Polyethylenterephthalat (PET). Dieses ermöglicht die Verwertung von PET-Abfällen aus gebrauchten Getränkeflaschen als Industriekunststoff und reduziert dadurch den Verbrauch von neuwertigem Kunststoff auf Basis von Polyamid. Das Projektteam besteht aus der Firma EASICOMP GmbH, dem Fraunhofer-Institut für Betriebsfestigkeit und Systemzuverlässigkeit LBF und dem Öko-Institut.

Upcycling statt Recycling
Dr.-Ing. Tapio Harmia, Geschäftsführer der Firma EASICOMP, erläutert: „Wir wollen gebrauchtes PET nicht nur einfach als Getränkeflaschen recyceln, sondern zur Herstellung hochwertiger und langlebiger Produkte einsetzen. Diese Idee bezeichnet man als Upcycling.“ Dr. Volker Strubel, Verbundkoordinator des Projekts, ergänzt: „Mit diesem Upcycling stellen wir aus Recycling-PET neue glasfaserverstärkte Leichtbau-Teile her und reduzieren so den Einsatz von Polyamiden zur Produktion von Automobilbauteilen wie Motorlager oder Montageträger.“

Im Projekt UpcyclePET nutzen die Partner Kompetenzen aus der Material- und Prozessentwicklung, um einen integrierten Fertigungsprozess zur Herstellung glasfaser-verstärkter PET-Bauteile zu entwickeln. Dabei kommt ein Strangziehverfahren (Pultrusionsprozess) zum Einsatz, mit dem der PET-Kunststoff mit Langglasfasern verstärkt und dadurch technisch aufgewertet wird. Dieser Ansatz kombiniert die mechanischen Vorteile der besonders stabilen Langglasfasern mit den vorteilhaften Eigenschaften von PET. Dazu gehören etwa die geringe Quellfähigkeit und gute Dimensionsstabilität. „Das Besondere dieses Ansatzes besteht darin, zwei in der heutigen Praxis entkoppelt laufende Prozessschritte zu kombinieren und die Eigenschaften des eingesetzten Recycling-PET durch Additivierung und Modifikation gezielt maßzuschneidern“, erläutert Dr. Frank Schönberger vom Fraunhofer LBF.

Weil alle erforderlichen Prozessschritte in nur einer Anlage erfolgen, ist die Produktion besonders kostengünstig. Am Beispiel eines Leichtbauteils aus der Automobilindustrie bewertet das Projektteam die Potenziale für den technischen Ersatz des Materials und zeigt mögliche ökologische wie ökonomische Vorteile auf. Dr. Andreas R. Köhler vom Öko-Institut dazu: „Wir erwarten vom UpcyclePET-Projekt einen Innovationsschub für ein hochwertiges Recycling von Kunststoffabfällen in Deutschland. Das Upcycling von PET-Abfällen birgt das Potenzial für deutliche Umweltvorteile, weil langlebige Produkte entstehen und Kunststoffarten mit wesentlich höherem Treibhausgaspotenzial ersetzt werden können.“

Hintergrund: Recycling von PET-Flaschen
Der Trend zum Recycling von Polyethylenterephthalat (PET) aus Flaschenabfällen hat in Deutschland ein hohes Niveau erreicht. Im Jahr 2015 wurden in Deutschland dank des eingeführten Pfandsystems über 97 Prozent des Flaschen-PET wiederverwertet. Sie stellen damit eine wertvolle Quelle für Recycling-PET dar, das sowohl für die Produktion neuer PET-Flaschen Verwendung findet als auch, vor allem in Asien, zu Textilien verarbeitet wird. Diese Abfälle können aber auch im Sinne eines besonders hochwertigen Recyclings („Upcycling“) dazu genutzt werden, langlebige technische Anwendungen jenseits der Verpackungs- und Textilindustrie zu erschließen. Dieser Ansatz gewinnt besonders an Bedeutung, seitdem China zum Jahresbeginn einen Importstopp von Kunststoffabfällen in Kraft gesetzt hat.

Über die Projektpartner
Die Firma EASICOMP GmbH ist einer der führenden Hersteller auf dem Gebiet von langglasfaserverstärkten Thermoplasten mittels Strangziehverfahren und zeichnet sich für die großtechnische Umsetzung des langglasfaserverstärkten UpcyclePET verantwortlich.

Das Fraunhofer LBF wendet seine umfangreiche Expertise in der Additivierung, Modifikation und Verarbeitung technischer Kunststoffe im Projekt zur maßgeschneiderten Material- und Prozessentwicklung an.

Das Öko-Institut e. V. führt ökologische und ökonomische Analysen zu den relevanten Nachhaltigkeitseffekten (Ressourcen-, Energie- und CO2-Einsparung etc.) durch. Das Bundesministerium für Bildung und Forschung (BMBF) unterstützt das Projekt im Rahmen der Förderlinie „KMU Innovativ“ finanziell.

Quelle: idw

(nach oben)


Wie die Form unserer Ohren bestimmt, was wir hören

Susann Huster Stabsstelle Universitätskommunikation/Medienredaktion
Universität Leipzig

Wenn wir unsere Augen schließen, wissen wir, aus welcher Richtung ein Ton kommt. Dadurch können wir in einer Gesprächsrunde, etwa auf einer Party, mehrere Sprecher voneinander unterscheiden und dem Sprechenden gezielt unsere Aufmerksamkeit widmen. Die Form unserer Ohren spielt dabei eine entscheidende Rolle: Sie bestimmt, wie der Schall in unser Innenohr reflektiert wird und ändert ihn dabei ganz leicht, abhängig von seiner Richtung im Raum. So kann unser Gehirn die Lage des Tons im Raum berechnen.

Wie das genau passiert, war bisher unbekannt. Neurowissenschaftler der Universität Leipzig und der Universität Montreal haben nun entschlüsselt, wie sich die gehörte Tonrichtung im Gehirn widerspiegelt. Diese Erkenntnisse könnten helfen, Hörgeräte zu verbessern.

Manche sind klein, manche groß, manche eher hängend, andere wiederum spitz nach oben ragend: Ohren. So unterschiedlich sie auch aussehen mögen, so sehr scheint ihre Form darüber zu entscheiden, was wir hören. Wissenschaftler der Universitäten Leipzig und Montreal haben in einer aktuellen Studie erkannt, dass die Form unserer Hörorgane und ihrer Wulste beeinflusst, wie die aus allen Richtungen eintreffenden Schallwellen in unser Innenohr reflektiert werden. Aus diesen individuellen Reflektionsmustern ermittelt unser Gehirn dann, ob ein Ton von oben oder unten auf uns eintrifft.

Bislang war bereits bekannt, wodurch wir erkennen, ob ein Ton von rechts oder links kommt. Klingelt rechts von uns ein Telefon, so erreichen die Schallwellen zuerst das rechte Ohr, anschließend mit etwas Verzögerung das linke. Unser Gehirn kann daraus zuordnen, woher das entsprechende Geräusch kommt. Unklar war bisher jedoch, wie es uns gelingt, einen Ton vertikal im Raum zu verorten.

„Töne aus verschiedenen Richtungen treffen unterschiedlich auf die äußeren Bereiche unserer Ohren. Die Ohrmuschel reflektiert durch ihre unregelmäßige Form den Schall in den Gehörgang. Dadurch entsteht ein kurzes Echo, das die Klangfarbe ändert“, erklärt Marc Schönwiesner, Professor am Institut für Biologie der Universität Leipzig. „Unser Gehirn kann diese kleinen Unterscheide lernen und mit verschiedenen Richtungen assoziieren.“ Die Klangfarbe ist dabei die Eigenschaft eines Tons, die sich aus der Lautstärke der einzelnen im Ton enthaltenen Frequenzen bestimmt. Sie ist der Grund, warum ein und dieselbe Note, etwa ein hohes C, von einer Geige anders klingt als von einer Blockflöte.

Untersucht haben die Wissenschaftler die Rolle der äußeren Ohrform für unser räumliches Hören, indem sie diese bei 15 Personen veränderten. Dazu bekamen die Teilnehmer ein kleines, von außen nicht erkennbares Silikonstück eingesetzt. Zuvor und anschließend spielten sie den Teilnehmern in einem Schall-Labor Töne vor, von denen sie entscheiden sollten, ob sie von oben oder unten kamen. Obwohl diese dabei jeweils den gleichen Tönen lauschten, zeigten sich in den Hörtests deutliche Unterschiede: Vor der Veränderung ihrer Ohrform konnten sie die Töne recht präzise verorten, mit den eingesetzten Silikonstücken gelang ihnen das kaum. „Als wir ihnen etwa einen Ton oberhalb ihres Kopfes vorspielten, glaubten sie dann plötzlich, dass er von unten kam“, erklärt der Neurowissenschaftler. Nachdem jedoch einige Tage vergangen waren und sie die Hörtests wiederholten, konnten die Probanden wieder an ihre früheren Hör-Erfolge anknüpfen.

Um zu beobachten, was während dieser drei Stationen im Gehirn vor sich ging, spielten die Forscher den Probanden die aus allen Richtungen eintreffenden Töne auch vor, als diese im Magnetresonanztomographen lagen. Dabei konzentrierten die Neurowissenschaftler sich auf die Aktivitäten im Hörcortex, also in dem Bereich der Großhirnrinde, der auf das Hören spezialisiert ist und erkannten: Die Neurone sind umso weniger aktiv, je höher die Quelle eines Tones über unserem Kopf liegt. Anhand der Signale des Gehirns konnten die Wissenschaftler sogar direkt auf die Lage der Töne im Raum schließen. Mit frisch eingesetzten Silikonstücken im Ohr zeigte sich ihnen jedoch ein anderes Muster: Die Neurone feuerten deutlich unorganisierter auf die eintreffenden akustischen Reize, ein Rückschluss auf die Lage der Töne im Raum war nicht möglich. Das änderte sich allerdings, nachdem sich die Freiwilligen mit ihren neuen Ohren durch den Alltag bewegt hatten. Die Hirnaktivitäten hatten sich wieder sortiert und entsprachen denen der unveränderten Ohrformen.

„Wir können mit unseren eigenen individuell gestalteten Ohren hören, weil unser Gehirn ihre Form kennt. Wenn sich diese jedoch ändert, braucht es einige Zeit, um sich anzupassen. Das ist beispielsweise auch der Fall, wenn wir wachsen“, erklärt Schönwiesner.

Die Erkenntnisse des deutsch-kanadischen Forscherteams geben nicht nur Aufschluss darüber, wie unser Gehirn lernt, sich an neue Bedingungen flexibel anzupassen. Sie können auch helfen, Hörgeräte zu verbessern. „In Deutschland sind aktuell etwa 17 Prozent der Bevölkerung von Hörverlust betroffen. Mit steigender Tendenz, denn unsere Umwelt wird immer lauter, gleichzeitig werden die Menschen immer älter“, erklärt der Leipziger Biologe. „Aktuell sind nach Schätzungen von Hörgeräteherstellern und Ärzten bis zu 25 Prozent der Hörgeräte nicht im Einsatz, weil Patienten häufig unterschätzen, dass das Gehirn Zeit zur Gewöhnung braucht und erwarten stattdessen eine sofortige Verbesserung. Wenn wir den Gewöhnungsprozess besser verstehen, können wir ihn vielleicht beschleunigen, sodass Patienten zielgerichtet beraten werden könnten.“

Weitere Informationen:
Prof. Dr. Marc Schönwiesner
Institut für Biologie
General Zoology and Neurobiology
Telefon: +49-341-9736723
E-Mail: marcs@rz.uni-leipzig.de

Weitere Informationen:
https://biologie.biphaps.uni-leipzig.de/institut/ag/neuro/

Quelle: idw

(nach oben)


Sicherheit ist wichtiger als Flexibilität. Wie Frauen und Männer sich ihren Arbeitsplatz wünschen

Dr. Harald Wilkoszewski Informations- und Kommunikationsreferat
Wissenschaftszentrum Berlin für Sozialforschung gGmbH

Frauen wünschen sich einen sicheren Arbeitsplatz und eine interessante Arbeit. Flexible Arbeitszeiten sind ihnen dagegen weniger wichtig. Dies hat Mareike Bünning vom Wissenschaftszentrum Berlin für Sozialforschung (WZB) in einer neuen Studie zu den Arbeitsbedingungen von Erwerbstätigen in Deutschland herausgefunden.

Im Mittelpunkt der Studie stehen die Wünsche von Frauen und Männern an ihren Arbeitsplatz, den sie anhand von neun Merkmalen bewerten konnten. Eine sichere und interessante Arbeit zu haben, steht für erwerbstätige Frauen an erster Stelle; über die Hälfte der Frauen findet diese beiden Kriterien sehr wichtig. Darin unterscheiden sie sich nicht von den männlichen Erwerbstätigen, für die beide Kriterien ebenfalls auf den ersten beiden Plätzen der Liste stehen. Flexible Arbeitszeiten, ein hohes Einkommen und gute Aufstiegsmöglichkeiten landen bei Frauen wie bei Männern auf den hinteren Plätzen der Liste.

Nur 14 Prozent der Erwerbstätigen sind flexible Arbeitszeiten sehr wichtig, was angesichts der Debatten um Vereinbarkeit von Familie und Beruf besonders bei den weiblichen Erwerbstätigen erstaunt. „Mütter mit kleinen Kindern sind die Gruppe, die am meisten Wert auf flexible Arbeitszeiten legt“, sagt Mareike Bünning, „aber auch von ihnen finden nur 20 Prozent flexible Arbeitszeiten sehr wichtig. Während einige Frauen flexible Arbeitszeiten als hilfreich für die Vereinbarkeit ansehen, hilft es anderen mehr, wenn sie klar geregelte, feste Arbeitszeiten haben. “

Auf die Plätze drei und vier der Liste setzen Frauen den Wunsch, bei der Arbeit Kontakt zu anderen Menschen zu haben, und die Möglichkeit, selbstbestimmt und unabhängig zu arbeiten. Jeweils 39 Prozent ist dies sehr wichtig. Hier unterscheiden sich die Geschlechter am stärksten. Männer legen im Vergleich zu Frauen mehr Wert auf Gestaltungsspielräume (sehr wichtig bei 45 Prozent) und weniger Wert auf Kontakt zu anderen Menschen (32 Prozent). Auf Platz fünf und sechs folgt bei Frauen wie bei Männern der Wunsch, anderen Menschen zu helfen und eine Arbeit auszuüben, die nützlich für die Gesellschaft ist.

Unterschiede gibt es bei den Frauen je nach Bildungsgrad: Frauen mit Abitur legen im Vergleich zu Frauen mit Haupt- oder Realschulabschluss deutlich mehr Wert auf eine interessante und unabhängige Arbeit, auch flexible Arbeitszeiten sind ihnen etwas wichtiger. Frauen mit Hauptschulabschluss wünschen sich dagegen besonders oft ein hohes Einkommen.

Auch die tatsächlichen Arbeitsplatzmerkmale wurden in der Studie untersucht: Positiv ist, dass die meisten Arbeitsplätze die Merkmale aufweisen, die den Erwerbstätigen besonders wichtig sind. Jeweils über 80 Prozent der weiblichen und männlichen Erwerbstätigen erklären, einen sicheren Arbeitsplatz zu haben, einer interessanten und unabhängigen Arbeit nachzugehen und Kontakt zu anderen Menschen zu haben. Defizite gibt es laut Selbsteinschätzung der Beschäftigten bei den Aufstiegsmöglichkeiten und der Möglichkeit, ein hohes Einkommen zu erzielen. Diese beiden Bedingungen finden Frauen mit 30 Prozent zudem deutlich seltener vor als Männer (40 Prozent).

Die Daten stammen aus dem International Social Survey Programme (ISSP) 2015, einer repräsentativen internationalen Befragung. In Deutschland wurden 1.029 Erwerbstätige ab 18 Jahren befragt.

Pressekontakt
Dr. Mareike Bünning
Wissenschaftliche Mitarbeiterin der Nachwuchsgruppe
Arbeit und Fürsorge
Telefon 030 25491-297
mareike.buenning@wzb.eu

Kerstin Schneider
WZB-Pressestelle
Telefon 030 25491-506
kerstin.schneider@wzb.eu

Weitere Informationen:
https://www.wzb.eu/sites/default/files/u8/tabelle_arbeitsplatzwuensche.pdf (Tabelle)
https://www.wzb.eu/de/pressemitteilung/sicherheit-ist-wichtiger-als-flexibilitae…

Quelle: idw

(nach oben)


Biokraftstoffe: EU-Projekt BioMates gewinnt an Fahrt

Dipl.-Chem. Iris Kumpmann Abteilung Public Relations
Fraunhofer-Institut für Umwelt-, Sicherheits- und Energietechnik UMSICHT

Das von der Europäischen Union (EU) geförderte Projekt BioMates geht in die nächste Runde: Experten des acht Partner umfassenden Projektes entwickelten jüngst eine Pilotanlage, die erstmalig im Testbetrieb bis zu fünf Kilogramm Stroh und Nicht-Nahrungsmittelpflanzen (Miscanthus) zu Bio-Öl einer neuen Generation verarbeiten kann. Gleichzeitig hat das internationale Forscherteam die idealen Einsatzpunkte für dieses Öl innerhalb konventioneller Raffinerien identifiziert. Damit rückt das im Oktober 2016 gestartete Projekt schrittweise seinem Ziel näher, künftig aus lignocellulosehaltiger Biomasse im Demonstrationsmaßstab Kraftstoffe herzustellen.

BioMates steht für: »Bio-based Intermediates«, also ein biobasiertes Zwischenprodukt. Das Vorhaben wird vom Europäischen Rahmenprogramm für Forschung und Innovation Horizon 2020 gefördert und vom Fraunhofer-Institut für Umwelt-, Sicherheits- und Energietechnik UMSICHT in Oberhausen koordiniert. Intensive Forschung und die enge Zusammenarbeit des BioMates-Teams sind die Grundlage für den Erfolg des Projekts. So konnten unter anderem in Heidelberg im Rahmen eines Workshops konkrete Systembeschreibungen erarbeitet werden, die alle wesentlichen Lebenswegabschnitte entlang der Wertschöpfungskette für die Nachhaltigkeitsbewertung umfassen.

All das ist wichtig, um mittelfristig Zwischenprodukte aus Holz oder holzartigen Reststoffen sowie Agrarprodukten wie Stroh und Gräsern herzustellen, die verlässliche Stoffeigenschaften aufweisen und für den hoch sensiblen Erdöl-Raffinerieprozess geeignet sind. Letztendlich könnte mit diesem erneuerbaren Einsatzstoff für die Raffinerien Hybridkraftstoff mit bis zu 30 Prozent Bioanteil hergestellt werden, der messbar weniger fossiles CO2 emittiert als vergleichbare herkömmliche Kraftstoffe.

Herstellung von Biokraftstoff
Der Clou: Bisher entstehen Kraftstoffe mit biogenem Anteil fast ausschließlich durch das Mischen (Blenden) von Kraftstoffen aus konventionellen Raffinerien mit fertig produzierten Biokraftstoffen, die erst am Ende beider Prozesse zusammengemischt werden. Ganz anders bei BioMates. Demnach wird die Biomasse zunächst zu so genanntem »Bio-Öl« umgesetzt. Dabei wird der Einsatzstoff bei hoher Temperatur gegen einen rotierenden Wärmeträger gepresst und so in weniger als einer Sekunde verflüssigt.

Anschließend kann das Bio-Öl mittels sogenannter milder Hydrierung zu definierten Intermediaten (BioMates) weiterverarbeitet werden, die sich als Zwischenprodukten in die Raffinerie einspeisen lassen. So wird gewährleistet, dass die zur Einspeisung in den hoch sensiblen Raffinerieprozess wichtigen Stoffeigenschaften wie zum Beispiel Säurezahl, Sauerstoff- oder Schwefelgehalt trotz schwankenden Rohstoffeigenschaften zu jeder Zeit die vorgegebenen Werte einhalten.

Betrieb im Pilotmaßstab
Die Praxistauglichkeit der Technik wird in Pilotanlagen in einer realitätsnahen Umgebung unter anderem bei Fraunhofer UMSICHT in Oberhausen und bei CERTH in Thessaloniki demonstriert. HyET aus Arnheim entwickelt und liefert die Einheit zur elektrochemischen Wasserstoffverdichtung, und Ranido aus Prag entwickelt mit Unterstützung der Universität für Chemie und Technologie Prag die Katalysatoren. IFEU aus Heidelberg steuert gemeinsam mit dem Imperial College aus London eine einheitliche Nachhaltigkeitsbewertung bei. Als Raffineriebetreiber wird BP die Analysen und ökonomische Auswertung durchführen. Schließlich wird der Einsatz der hergestellten „BioMates“ in einer griechischen Pilotraffinerie praxisnah getestet.

Bei Fraunhofer UMSICHT in Oberhausen wird die Umwandlung der Einsatzstoffe Stroh und Miscanthus zum ersten Zwischenprodukt, dem Bio-Öl, durchgeführt. Während das Chinaschilf (Miscanthus sinensis) das Gelände schmückt, wird sein ertragreicherer Verwandter, das Riesen-Chinaschilf (Miscanthus × giganteus), nebenan in einer Versuchsanlage zur so genannten Ablativen Schnellpyrolyse kurzzeitig auf 550 °C erhitzt. Der entstehende Dampf wird dann passgenau in mehreren Stufen wieder abgekühlt, sodass das als Hauptprodukt erzeugte Bio-Öl schon ideale Eigenschaften für die Weiterverarbeitung bei den Projektpartnern in Prag und Thessaloniki besitzt.

Projektpartner
• Fraunhofer-Institut für Umwelt-, Sicherheits- und Energietechnik UMSICHT, Deutschland
• Centre for Research & Technology Hellas / CERTH – Chemical Process & Energy Resources Institute / CPERI, Griechenland
• University of Chemistry and Technology Prague, Tschechische Republik
• Imperial College London, Vereinigtes Königreich
• ifeu – Institut für Energie- und Umweltforschung Heidelberg GmbH , Deutschland
• Hydrogen Efficiency Technologies (HyET) B.V., Niederlande
• RANIDO, S.R.O., Tschechische Republik
• BP Europa SE, Deutschland

Förderhinweis: Das Vorhaben trägt die Horizont 2020-Fördernummer 727463. Diese Pressemitteilung spiegelt lediglich die Ansichten der Autoren wieder. Die europäische Kommission und ihr Projektträger INEA können für die Verwendung der darin enthaltenen Informationen nicht haftbar gemacht werden.

Weitere Informationen:

http://www.biomates.eu/en/ Webseite BioMates (englisch)

Quelle: idw

(nach oben)


50 Jahre Lehre und Forschung auf dem Gebiet der Meerestechnik an der Universität Rostock

Ann-Kathrin Schöpflin Presse- und Kommunikationsstelle
Universität Rostock

Am Anfang stand ein Regierungsbeschluss der DDR. Das war 1968. Die damalige Technische Fakultät der Universität Rostock bekam den Auftrag, eine Fachrichtung zu etablieren, die Experten für die Fischereitechnik ausbildet. Sie sollten fischerei- und schiffstechnische Herausforderungen miteinander verknüpfen können. Daran erinnert sich der emeritierte Professor Harry Stengel noch sehr gut. Der jetzt 85-Jährige leitete den neu gegründeten Lehrstuhl für Fischereitechnik bis zum Herbst 1992 sehr erfolgreich. Heute ist die Universität Rostock eine der ältesten Lehr-und Forschungseinrichtungen auf dem Gebiet der ingenieurwissenschaftlichen Meerestechnik in Deutschland.

Am 1. Oktober 1992 erhielt der Lehrstuhl, der bis dato als Fischereitechnik firmierte, den neuen Namen Meerestechnik und agiert weiterhin international an der Fakultät für Maschinenbau und Schiffstechnik. Ein Grund für die Neuorientierung lag im Rückgang der Fischerei und des Fischereifahrzeugbaus im wiedervereinten Deutschland. Als Schlussfolgerung wurde der neue Studiengang Schiffs- und Meerestechnik eingerichtet.

Professor Stengel definiert die Aufgaben so: „Die Meerestechnik kombiniert und integriert Techniken, die für den Schutz und die Nutzung der Meere eingesetzt werden können“. Dieser Satz ist bis heute gültig.

Seit 1992 leitet Professor Mathias Paschen den Lehrstuhl. Er hatte in seiner Habilitationsarbeit tiefgreifende Erkenntnisse in der Meerestechnik präsentiert und war somit genau der richtige Mann. Unter seiner Leitung werden beispielsweise theoretische und experimentelle Methoden von schwimmenden und verankerten Offshore-Systemen bzw. unbemannten Unterwasserfahrzeugen und -systemen entworfen. Dazu ein Beispiel aus der praktischen Forschung: Der Lehrstuhl von Professor Paschen hat mit Unterstützung von TenneT, einem der führenden europäischen Übertragungsnetzbetreiber, ein Modell entwickelt, das zuverlässig bestimmt, wann und unter welchen Umständen sich Munition auf dem Meeresboden zu bewegen beginnt. Denn: Eine große Herausforderung beim Ausbau der Windkraft in Nord- und Ostsee ist Altmunition. Tausende Tonnen aus dem Ersten und Zweiten Weltkrieg sind eine Belastung für Mensch und Umwelt. Diese Kriegs-Altlasten stellen eine Gefahr beim Bau von Windparks und Offshore-Netzanschlüssen, insbesondere beim Verlegen von Kabeln, dar. Das Räumen von Munitions-Altlasten hat dabei oberste Priorität.

Die Wirtschaft weiß die Forschung und Ausbildung am Lehrstuhl zu schätzen: „Schiffbau und Meerestechnik an der Universität Rostock haben eine lange Tradition, wie die Werften in Mecklenburg-Vorpommern. Eine enge Verbindung ist uns sehr wichtig, denn wir brauchen gut ausgebildete Ingenieure für den Bau unserer XXL-Kreuzfahrt-Riesen“, so Björn Cleven, Direktor Personal bei MV WERFTEN.

Das Herzstück der Forschung in der Meerestechnik der Universität Rostock ist der Windkanal. „Er ist mit seiner ringförmigen Bauart ein wichtiges Mittel für Untersuchungen von Objekten in einem strömenden Medium“, erklärt Forscher Christian Semlow. Hierfür würden Windgeschwindigkeiten bis zur doppelten Orkanstärke genutzt. Mit der installierten Messtechnik in der fast drei Meter langen Messstrecke des Windkanals werden die auf die Objekte wirkenden Kräfte sowie Strömungsgeschwindigkeiten und Druckverläufe bei der An- bzw. Umströmung dieser Objekte gemessen. Für die experimentelle Strömungsanalyse kommt laut Semlow vorrangig lasergestützte Messtechnik zum Einsatz. So wurden beispielsweise Untersuchungen über die richtungsabhängigen Windbelastungen und Strömungsverteilungen an Modellen von Offshore-Arbeitsschiffen, Superyachten und großen Containerschiffen durchgeführt. Da Luft ebenso wie Wasser zu den newtonschen Flüssigkeiten zählt, ist es beispielsweise auch möglich, das Bewegungsverhalten von Unterwasserrobotern in einer Strömung mit vier im Windkanal installierten Hochgeschwindigkeitskameras zu messen. Selbst die Segeleigenschaften historischer Schiffe seien schon getestet worden, so Semlow.

Mit der Zusatzausrüstung eines Propellerversuchsstandes in der Messstrecke des Windkanals werden auch Propeller-Ruder-Interaktionen untersucht. Einen Versuchsstand dieser Art gibt es nur noch an der Universität Southampton. Das hiesige, in Kooperation mit einem Rostocker Unternehmen entwickelte Propellerdynamometer, so die korrekte Bezeichnung, wird insbesondere zur Überprüfung numerischer Simulationen eingesetzt, die u.a. für die Entwicklung von so genannten High-Performance-Schiffsrudern genutzt werden. Zum Rückblick auf ein halbes Jahrhundert Lehrstuhl Meerestechnik gehört auch, dass allein von 1964 bis 1992 217 Studenten, darunter aus Benin, Jemen, Kongo und Vietnam erfolgreich ein Studium in der Fachrichtung Fischereitechnik absolviert haben.

Dass ein begeisterter Meerestechniker wie Mathias Paschen die sich seit der Wiedervereinigung bietende Chance der Internationalisierung seiner Forschung und Lehre nutzt, ist unbestritten. Bereits 1993 etablierte er mit zahlreichen Wissenschaftlern aus Europa, Japan und Südkorea den internationalen Workshop DEMaT, der in zweijährigem Rhythmus auch Nachwuchswissenschaftlern aus ca. 12 Nationen die Möglichkeit bietet, ihre Forschungsergebnisse einem internationalen Publikum vortragen zu können. In den 1990er Jahren leitete er sein erstes EU-Projekt mit Kollegen aus Belgien und den Niederlanden. Heute bietet der Lehrstuhl Meerestechnik Vorlesungen und Experimentalveranstaltungen sowohl für deutschsprachige Studiengänge der Universität Rostock als auch für den internationalen EMship-Studiengang mit Studierenden aus Afrika, Asien, Europa und Südamerika an. Text: Wolfgang Thiel

Kontakt:
Prof. Dr.-Ing. Mathias Paschen
Universität Rostock
Fakultät für Maschinenbau u Schiffstechnik
Lehrstuhl für Meerestechnik
Tel.: + 49 381 498-9230
E-Mail: mathias.paschen@uni-rostock.de

Universität Rostock
Presse- und Kommunikationsstelle
Tel: +49 381 498-1012
Fax: +49 381 498-1032
E-Mail: pressestelle@uni-rostock.de
www.uni-rostock.de

Quelle: idw

(nach oben)


Trockene Augen: Bei roten, schmerzenden, brennenden Augen zum Augenarzt

Lisa-Marie Ströhlein Pressestelle
Deutsche Ophthalmologische Gesellschaft

Trockene Augen zählen zu den häufigsten Augenleiden. Rund 20 Prozent der Augenarztpatienten sind deswegen in Behandlung. In der kalten Jahreszeit verstärken trockene Heizungsluft, eine geringe Luftfeuchtigkeit und langes Arbeiten am Computer häufig die Symptome. Experten der Stiftung Auge raten, bei roten, kratzenden und brennenden Augen dennoch in jedem Fall den Augenarzt aufzusuchen, da auch ernstere Erkrankungen dahinter stecken können. Außerdem gibt die Stiftung Auge Tipps, wie das Office-Eye-Syndrom gelindert werden kann.

Ursache für trockene Augen kann entweder ein Tränenmangel oder eine zu schnelle Verdunstung des Tränenfilms sein. „Der Tränenfilm mit einer ausreichenden Menge an Tränen ist wichtig für die Gesundheit der Augen“, erklärt Professor Dr. med. Frank G. Holz, Vorsitzender der Stiftung Auge und Direktor der Universitäts-Augenklinik Bonn. „Er benetzt die Augenoberfläche, hält diese glatt und geschmeidig und spült Fremdkörper weg. Zudem versorgt er die Hornhaut mit Sauerstoff und Nährstoffen.“ Verändert sich die Zusammensetzung des Tränenfilms, kann die Augenoberfläche nicht mehr richtig versorgt werden. Die unangenehmen Folge sind Schmerzen, Jucken und Tränen – ein Gefühl wie Schleifpapier in den Augen.

Es gibt allerdings auch andere Ursachen für trockene Augen. „Rheumatische Erkrankungen, Diabetes mellitus oder chirurgische Eingriffe am Auge können ebenfalls das sogenannte Sicca-Syndrom hervorrufen“, erläutert Holz. Auch die langfristige Einnahme bestimmter Medikamente – dazu zählen die Anti-Baby-Pille oder Schlaf- und Beruhigungsmittel – können zu trockenen Augen führen. Gleiches gilt für Umweltbelastungen und klimatische Einflüsse wie trockene Umgebungsluft, Klimaanlagen oder Staub. Zusätzlich tritt bei trockenenen Augen oft eine Lidrandentzündung auf. Dabei sind die Drüsen im Bereich der Lidränder verstopft, die den Fettanteil der Tränenflüssigkeit produzieren – die Augen trocknen dann noch schneller aus. „Betroffene, die Symptome wie Jucken, Brennen oder Rötungen in den Augen wahrnehmen, sollten dies unbedingt durch einen Augenarzt abklären lassen“, betont der Stiftungsvorsitzende. „Nur so können ernsthafte, andere Erkrankungen ausgeschlossen werden.“

Es gibt unterschiedliche Behandlungsmöglichkeiten bei trockenen Augen. Tränenersatzmittel können helfen, die Augenoberfläche zu benetzen. Je nach Schweregrad kommen unterschiedliche Präparate in Frage. „Arzt und Patient sollten gemeinsam entscheiden, welches Tränenersatzmittel geeignet ist, da die Wirksamkeit und Verträglichkeit sehr unterschiedlich empfunden wird“, rät Professor Dr. med. Christian Ohrloff, Mediensprecher der Stiftung Auge. „Träger weicher Kontaktlinsen sollten nur Mittel ohne Konservierungsstoffe verwenden, da diese sich in der Kontaktlinse anreichern und dann die Hornhaut schädigen können“, so Ohrloff. Bei sehr ausgeprägten Beschwerden und einer unzureichenden Benetzung können die Tränenabflusskanälchen mit einem kleinen Eingriff verschlossen werden, um die verfügbare Tränenmenge zu erhöhen. Zusätzlich können kleine Maßnahmen im Alltag dazu beitragen, die Symptome zu lindern (siehe Tipps weiter unten).

Das können Sie tun, um die Beschwerden bei trockenen Augen zu lindern:
– Lassen Sie ihre Beschwerden in jedem Fall augenärztlich abklären.
– Mehrmals täglich für frische Luft im Raum sorgen.
– Luftbefeuchter für die richtige Luftfeuchtigkeit im Raum einsetzen.
– Halten Sie die Luftzirkulation im Auto niedrig. Das Gebläse sollte selten eingesetzt und die Luft nicht zu stark aufgeheizt werden. Richten Sie das Gebläse nie direkt auf die Augen.
– Trinken Sie ausreichend, d.h. mindestens zwei Liter Wasser am Tag.
– Häufiges und bewusstes Blinzeln beim Lesen und bei der Arbeit am Computer können helfen, den Tränenfilm zu erneuern.

2008 von der DOG gegründet, setzt sich die Stiftung Auge dafür ein, vermeidbare Erblindungen und schwere Seheinschränkungen zu bekämpfen. Informationen zu den Projekten der Stiftung Auge sind unter http://www.stiftung-auge.de nachzulesen.

Weitere Informationen:
http://www.stiftung-auge.de

Quelle: idw

(nach oben)


Neue Arbeitswelt: Arbeitszeitgesetz verliert an Bedeutung

Mark Fallak Presse und Kommunikation
IZA – Institut zur Zukunft der Arbeit

Die Grenzen zwischen Arbeit und Freizeit verschwimmen zunehmend. Schon heute verbringen Arbeitnehmer in ihrer Freizeit durchschnittlich mehr als fünf Stunden pro Woche mit beruflichen Aktivitäten. Das geht aus einer aktuellen Auswertung der Studie „Arbeiten in Deutschland“ hervor, die das Institut zur Zukunft der Arbeit (IZA) gemeinsam mit dem Karrierenetzwerk XING durchführt. In der repräsentativen Befragung gaben 62,8 Prozent von 1.809 Beschäftigten zwischen 25 und 54 Jahren an, sich auch in ihrer Freizeit mit Tätigkeiten zu beschäftigen, die eigentlich ihrer regulären Arbeitszeit zuzurechnen sind. Unter den zusätzlich befragten 1.967 XING-Mitgliedern sind es sogar 87,6 Prozent.

Dieser Befund wirft ein Schlaglicht auf Veränderungen in der Arbeitswelt, mit denen das gegenwärtige Arbeitsrecht nur schwer Schritt halten kann. So geht beispielsweise das Arbeitszeitgesetz davon aus, dass sich Arbeitszeit eindeutig messen lässt. Wird jedoch ein wachsender Teil der Arbeitsleistung nicht mehr am Arbeitsplatz erbracht, lassen sich Arbeitszeitüberschreitungen immer schwerer erfassen. Ein Instrument, das dazu gedacht ist, Arbeitnehmer vor Überlastung zu schützen, verliert damit an Wirkung.

Die Realität überholt auch die im Arbeitsrecht gängige Definition von Arbeit als Zeit, in der Arbeitnehmer dem Weisungsrecht des Arbeitgebers unterliegen. „Wenn aber Dienstgeschäfte freiwillig außerhalb der Bürozeiten erledigt werden, erfüllt das nicht das Kriterium des Weisungsrechts und wäre somit keine Arbeit, was den Betroffenen einigermaßen absurd vorkommen dürfte“, erklärte Prof. Dr. Hilmar Schneider, Leiter des IZA, im Rahmen der XING-Veranstaltung „New Work Experience“, einer Konferenz zur Zukunft der Arbeit, in Hamburg.

Einerseits schafft die Digitalisierung ganz neue Möglichkeiten für Arbeitnehmer wie auch für Arbeitgeber, Arbeitszeiten flexibel an die jeweiligen Bedürfnisse anzupassen. Andererseits lösen sich auf diese Weise die Grenzen von Arbeit und Freizeit immer weiter auf. Diese Entgrenzung lässt sich empirisch beobachten. In der IZA/XING-Studie geben zwar weiterhin rund zwei Drittel (65,7%) der befragten Arbeitnehmer an, feste Arbeitszeiten zu haben. Bei den befragten XING-Mitgliedern, bei denen es sich überwiegend um „moderne Wissensarbeiter“ handeln dürfte, sind es allerdings weniger als die Hälfte (45,1%). Bei den XING-Mitgliedern hat somit bereits heute eine Mehrheit flexible Arbeitszeiten. Die IZA/XING-Studie zeigt außerdem, dass enorme Potenziale für flexible Arbeitszeitregelungen noch ungenutzt bleiben. So könnten die meisten Beschäftigten (53,5%) mindestens die Hälfte ihrer Tätigkeiten auch außerhalb ihrer regulären Arbeitszeiten erledigen. Bei den XING-Mitgliedern sind dies rund zwei Drittel (67,2%).

In der IZA/XING-Studie geben vier von zehn Arbeitnehmern (41,2%) an, in ihrer Freizeit mehr als zwei Stunden pro Woche mit Tätigkeiten zu verbringen, die eigentlich ihrer regulären Arbeitszeit zuzuordnen sind (z.B. Lesen und Beantworten von dienstlichen E-Mails, Beschäftigung mit Informationsmaterial und Fachliteratur). Bei den XING-Mitgliedern sind es deutlich mehr als die Hälfte (58,1%). Der durchschnittliche Arbeitnehmer verbringt auf diese Weise gut fünf Stunden seiner wöchentlichen Freizeit mit beruflichen Tätigkeiten. Mehr als sechs Stunden pro Woche beschäftigen sich Arbeitnehmer in der Freizeit zumindest gedanklich mit Vorgängen, die mit ihrer Arbeit zusammenhängen.

Die Studie offenbart auch Unterschiede zwischen Männern und Frauen: In der repräsentativen Gruppe über alle Beschäftigen verbringen 67% der Männer, aber nur 50% der weiblichen Befragten einen Teil ihrer Freizeit mit beruflichen Aktivitäten. Die Forscher führen diese Diskrepanz zum Teil auf die immer noch ungleiche Verteilung der Arbeit im Haushalt zurück, die Frauen daheim weniger Zeit für Berufliches lässt. Ein weiterer Erklärungsansatz sind die Geschlechterunterschiede in den Tätigkeitsprofilen. So zeigt sich unter den XING-Mitgliedern, die sich von den Branchen und Tätigkeiten her ähnlicher sind als die repräsentative Gruppe, eine deutliche Angleichung von Frauen (83,7%) und Männern (88,8%) hinsichtlich Arbeit in der Freizeit.

IZA-Chef Schneider sieht durch die Studienergebnisse die These bestätigt, dass das Arbeitszeitgesetz in seiner jetzigen Form nicht mehr zeitgemäß ist: „Ein immer größerer Teil der Wertschöpfung gründet sich auf Wissensarbeit und soziale Interaktion. Beides findet zunehmend außerhalb eines physisch zu verortenden Arbeitsplatzes statt. Die Messbarkeit von Arbeitszeit gerät damit zur Illusion.“ So erfolge etwa die Steuerung moderner Unternehmen nicht mehr allein auf Grundlage von Inputgrößen wie der Arbeitszeit, sondern es werde zunehmend der Arbeitsoutput berücksichtigt. Eine Präsenzkultur am Arbeitsplatz, wie sie etwa aus Japan oder auch den USA bekannt ist, wirke sich dagegen eher als Kreativitätshemmnis aus.

Schneider hält deshalb auch eine grundsätzliche Debatte über die Definition von Arbeit für notwendig. Die Digitalisierung bewirke, dass selbständige Arbeit und abhängige Beschäftigung einander immer ähnlicher werden. Dadurch verliere der Arbeitnehmerschutz an Wirksamkeit und müsse an die neuen Gegebenheiten angepasst werden. Mit rückwärts gewandten Forderungen wie etwa dem Verbot von E-Mails außerhalb der offiziellen Bürozeiten sei dem nicht beizukommen.

Über die IZA/XING-Studie „Arbeiten in Deutschland“
Die Studie „Arbeiten in Deutschland“ wurde Anfang 2017 vom Institut zur Zukunft der Arbeit (IZA) und XING gestartet. Anfang 2018 wurde bereits die zweite Befragungswelle dieser gemeinsamen Initiative abgeschlossen, um vor dem Hintergrund des fortschreitenden Wandels der Arbeitswelt neue Erkenntnisse über die Zukunftsperspektiven der Bevölkerung in Deutschland zu gewinnen. Die IZA/XING-Studie setzt sich aus zwei Befragungsteilen zusammen – einer nationalrepräsentativen Online-Umfrage mit rund 3.000 Teilnehmern und einer Online-Befragung von bis zu 6.000 zufällig ausgewählten XING-Mitgliedern.

Pressekontakt:
Mark Fallak
Head of Communications, IZA
fallak@iza.org
Tel +49 228 3894 223

Anhang
Vollständige Pressemitteilung mit weiteren Grafiken
https://idw-online.de/de/attachment64898

Quelle: idw

(nach oben)


Zukunftsprojekt zu innovativer Siedlungswasserwirtschaft und urbaner Nahrungsmittelproduktion

Dipl.-Chem. Iris Kumpmann Abteilung Public Relations
Fraunhofer-Institut für Umwelt-, Sicherheits- und Energietechnik UMSICHT

Spül-, Waschmaschinen und Toilettenwasser fällt in deutschen Haushalten zur Genüge an. Das Verbundprojekt »ROOF WATER-FARM« untersucht, wie sich häusliches Abwasser dezentral aufbereiten und für die Gemüseproduktion nutzen lässt. Fraunhofer UMSICHT entwickelt in diesem zukunftsträchtigen Vorhaben ein neuartiges Aufbereitungsverfahren, das aus Toilettenwasser flüssigen Pflanzendünger herstellt. Eine Pilotanalage wurde in Berlin bereits erfolgreich in Betrieb genommen.

Rund 70 Prozent unseres verfügbaren Trinkwassers gehen in die Landwirtschaft über, welche wiederum 14 Prozent der weltweiten CO2-Emissionen ausmacht. Um auch in der Zukunft eine ausreichende Wasser- und Nahrungsversorgung zu gewährleisten, müssen umweltschonende Alternativen zur landwirtschaftlichen Erzeugung von Lebensmitteln gefunden werden.

Frisches Gemüse und frischer Frisch direkt von den Dächern unserer Städte – das ist die Vision von »ROOF WATER-FARM«: Das vom Bundesministerium für Bildung und Forschung (BMBF) geförderte Projekt erprobt dafür die dezentrale Abwasseraufbereitung und -nutzung in Gebäuden und Siedlungsräumen. Denn statt häusliche Abwässer aus Dusche, Waschmaschine, Badewanne oder Toilette in Kläranlagen zu transportieren, lassen sie sich auch direkt vor Ort weiterverwerten.

In zwei unabhängigen Versuchstrecken wurde in der »ROOF WATER-FARM« das Toilettenabwasser (auch Schwarzwasser genannt) getrennt vom Abwasser aus Dusche, Waschmaschine, Badewanne so aufbereitet, dass schmackhafte Gurken und Salat geerntet werden konnten.

Dünger aus Abwasser
Erprobt werden alle für das Projekt »ROOF WATER-FARM« entwickelten Konzepte und Verfahren in einem Gebäudekomplex als Pilotstandort in Berlin-Kreuzberg. Hier steht auch die von Fraunhofer UMSICHT entwickelte Schwarzwasser-Flüssigdünger-Anlage, die aus Schwarzwasser mit einem hohen Gehalt an Nährstoffen (Stickstoff-, Phosphat- und Kalium) flüssiges Pflanzendüngemittel gewinnt. Seit Inbetriebnahme bereitet die Anlage zuverlässig das Abwasser von 50 Anwohnern zu Flüssigdünger auf. Dieser wird wiederum für die Gemüseproduktion in einem Gewächshaus verwendet werden, das ebenfalls am Standort in Berlin-Kreuzberg steht, allerdings in dieser ersten Pilotphase noch auf dem Boden statt dem Dach.

Ökobilanzierung
Um die Umweltwirkung der im Projekt »ROOF WATER-FARM« eingesetzten Elemente einschätzen zu können, haben Mitarbeitende von Fraunhofer UMSICHT außerdem eine Ökobilanzierung durchgeführt. Dazu wurden Treibhausgasemissionen und Energieaufwand, die im Rahmen der Abwasserwasseraufbereitung und Gemüseproduktion anfallen, berechnet und mit etablierten Technologien verglichen. Die Ergebnisse der Ökobilanzierung von Fraunhofer UMSICHT zeigen, dass aus klimarelevanten Aspekten die dezentrale Wasseraufbereitung und -nutzung eine mögliche Alternative zur zentralen Abwasseraufbereitung darstellt. Um künftig mit solchen Konzepten auch signifikante Mengen an Treibhausgasen einzusparen, müssten vor allem noch Technologien zur Wärmerückgewinnung aus Abwasser integriert werden.

Urbane Agrikultur
Fraunhofer UMSICHT gehört in Deutschland zu den Pionieren für gebäudeintegrierte Lebensmittelproduktion. Unter der Dachmarke inFarming® treibt das Institut den Aufbau und die Integration von Agrikultur in Städten voran. Durch die Verwendung von Dächern und Gebäuden als landwirtschaftliche Nutzflächen wird das Gemüse in unmittelbarer Nähe des Verbrauchers angebaut. Dadurch entfallen nicht nur weite Transportwege, auch Kohlendioxid-Emissionen werden auf diese Weise erheblich gesenkt. Um diese Ziele zu erreichen, hat das Institut vertikale Kultivierungsmethoden, Kreislaufverfahren für Nährstoffe und spezielle Belichtungsstrategien entwickelt.

Weitere Informationen:

http://www.roofwaterfarm.com/ Webseite ROOF WATER FARM
https://www.altmarktgarten-oberhausen.de/ Webseite Altmarktgarten
https://infarming.de/ Webseite inFARMING®

Quelle: idw

(nach oben)


Photovoltaik: Einfach integrierbar durch moderne Druckverfahren

Dr. Sandra Mehlhase Presse- und Öffentlichkeitsarbeit
Fraunhofer-Institut für Angewandte Polymerforschung IAP

Unterwegs das Handy laden, weil die Jacke Strom erzeugt? Beim Fahrradfahren nicht nur Kleidung tragen, die reflektiert, sondern selber leuchtet? Was futuristisch klingt, lässt sich dank innovativer Druckverfahren schon heute einfach und effizient umsetzen.

Erneuerbare Energien sind heutzutage aus der gesellschaftlichen Debatte nicht mehr wegzudenken. Moderne Drucktechniken versprechen eine einfache und kostengünstige Herstellung von Photovoltaikelementen, und das über Anwendungen in der Architektur hinaus.

Das Fraunhofer IAP präsentiert auf der LOPEC 2018 seine Kompetenz, insbesondere in der Inkjet-Drucktechnik. Damit lassen sich beispielweise größere Fassadenelemente zur Erzeugung von Solarenergie drucken. Weitere Einsatzgebiete finden sich in der Optoelektronik und in der Medizin. Auch für textile Anwendungen können die Druckspezialisten das Verfahren einsetzen. Neben einem Fassadenelement zeigen die Forscher eine Jacke, die genug Energie erzeugt, um Handwärmer und Handy-Ladegerät zu betreiben. Die erzeugte Energie kann in dem Kleidungsstück selbst gespeichert werden. Aktuell entwickeln die IAP-Forscher gemeinsam mit Industriepartnern eine solarbetriebene LED-beleuchtete Fahrradjacke.

Hergestellt werden die gedruckten Elemente auf der institutseigenen Pilotanalage für gedruckte Elektronik. »Auf unserer Pilotanlage werden die Druckprozesse im industrienahen Maßstab entwickelt, die wir dann mit Maschinenbauern in die Anlagen von Kunden überführen. Unsere Druckverfahren optimieren wir stetig und passen sie individuell an die jeweiligen Anforderungen an«, erklärt Dr. Armin Wedel, Leiter des Forschungsbereichs Funktionale Polymersysteme am Fraunhofer IAP.

Für kleine Flächen arbeiten die Fraunhofer-Forscher an einem neuartigen Drop-on-Demand System, dem Esjet-Druck (electro-static printing). Die Technik erlaubt eine größere Bandbreite an Tinten, die für den Druck besonders feiner Strukturen essenziell sind. Insbesondere das Viskositätsspektrum der eingesetzten Tinten kann im Vergleich zum Inkjet-Druck deutlich erweitert werden. Dies eröffnet neue Perspektiven für den Druck von feinen Metallgrids mit hoher Transmission, die in der Photovoltaik als Ersatz der bisher üblichen transparenten ITO-Elektroden eingesetzt werden können.

Das Fraunhofer IAP in der German OLED Technology Alliance, GOTA
Auf der LOPEC präsentieren die Forscher auch erste Kundenprojekte der GOTA Alliance. In enger Zusammenarbeit mit den Maschinenherstellern MBraun Inertgas-Systeme GmbH in München, Notion GmbH in Schwetzingen und der ARDENNE GmbH in Dresden, entwickelt das Fraunhofer IAP Prozesse und Materialien für zukünftige OLED-Produktionsanlagen. Die vier Partner haben sich zur OLED Technology Alliance GOTA zusammengeschlossen, um auf dem Markt komplette OLED-Produktionsanlagen anzubieten.

Das Fraunhofer IAP ist seit über 25 Jahren in der organischen elektronischen Forschung tätig und konzentriert sich auf lösungsverarbeitete Devices mit Anwendungen in OLEDs, QLEDs, OTFT, OPV, Perowskit-Solarzellen, Sensoren und Aktoren. In einem großen Reinraum stehen mehrere Verarbeitungstechniken zur Verfügung, vom Spin Coating zur Materialevaluation in Laborgeräten bis hin zu fortgeschrittenen Verarbeitungstechniken wie dem Inkjet-Druck und dem High-precision-slot-die-coating auf einer robotergesteuerten S2S-Fertigungspilotlinie für Größen bis zu 150 mm x 150 mm einschließlich unterschiedlicher Verdampfungs- und Verkapselungstechniken.

Weitere Informationen:
https://www.iap.fraunhofer.de/de/Forschungsbereiche/Funktionale_Polymersysteme/f…

Quelle: idw

(nach oben)


Auch eine dezentrale Energiewende braucht Netzausbau

Romy Klupsch Öffentlichkeit und Kommunikation
Öko-Institut e. V. – Institut für angewandte Ökologie

Gemeinsame Pressemitteilung von Öko-Institut, Renewables Grid Initiative und Germanwatch
Auch eine dezentrale Stromerzeugung kommt nicht ohne die bis 2030 geplanten rund 4.000 Kilometer neuen Stromtrassen aus. Das ist die wichtigste Erkenntnis der heute vorgestellten Studie „Dezentralität, Regionalisierung und Stromnetze – Studie über Annahmen, Narrative und Erkenntnisse“, die das Öko-Institut im Auftrag der Renewables Grid Initiative (RGI) erstellt hat. Die Studie greift damit ein heiß diskutiertes Thema auf: Insbesondere von neuen Leitungen betroffene Anwohner fragen sich, ob der Netzausbau mit einem dezentraleren Stromsystem, mehr Windkraft in Süddeutschland sowie Speichern nicht deutlich geringer ausfallen könnte.

Um dies zu beantworten hat das Öko-Institut zehn Studien analysiert und verglichen, die im Laufe der vergangenen fünf Jahre zu Dezentralitätskonzepten und den Folgen dezentraler Stromsysteme für den Netzausbau veröffentlicht wurden. Das Institut kommt in dieser Meta-Studie zu folgenden Ergebnissen:

Der bis 2030 geplante Netzausbau ist selbst dann notwendig, wenn alle Speicher und Flexibilitätsoptionen zur Verfügung stehen. Da die Potenziale für die Erzeugung von Wind- und Solarstrom über Deutschland hinweg ungleich verteilt sind und in der Nähe der großen Verbrauchszentren oft nicht ausreichen, ist eine jederzeit verbrauchsnahe Stromversorgung auf der Grundlage erneuerbarer Energien nicht vorstellbar. Dies gilt umso mehr, wenn nicht allein technische Möglichkeiten, sondern auch einschränkende Aspekte wie Naturschutz und Akzeptanz zum Beispiel von Windkraftanlagen in der Nähe von Siedlungen berücksichtigt werden.

Die untersuchten Studien, die einen geringeren Netzausbaubedarf errechnen, gehen vor allem von einem starken Ausbau der Windenergie im Süden Deutschlands aus; so werden im Vergleich zu derzeitigen Planungen zum Beispiel zwei- bis viermal höhere Ausbauzahlen für Bayern und Baden-Württemberg verwendet. Diese Annahmen hätten gravierende Folgen: neben einem höheren Flächenbedarf wäre von einem geringeren Wirkungsgrad der Windanlagen, höheren Kosten und – wegen der gasbasierten ergänzenden Kraftwerke – gegebenenfalls auch höheren Treibhausgasemissionen auszugehen. Für einen sachgerechten Vergleich müssten diese Folgen denen des geplanten Leitungsausbaus gegenübergestellt werden. Viele der betrachteten Studien berücksichtigen diese Aspekte jedoch allenfalls am Rande.

Schließlich zeigt ein Vergleich der Studienergebnisse zu den längerfristigen Entwicklungen und mit Blick auf höhere Versorgungsanteile erneuerbarer Energien, dass der aktuell geplante Leitungsausbau in jedem Fall notwendig wird. Die verbleibenden Unterschiede beziehen sich damit ganz überwiegend nicht auf das Ob, sondern das Wann und Wie des Leitungsausbaubedarfs. Insbesondere für die Zeit nach 2030 bedarf es jedoch guter vergleichbarer Studien, die prüfen, inwiefern immer günstigere erneuerbare Energien und vor allem Speicher den zusätzlichen Neubaubedarf von Stromnetzen mindern könnten.

„Die Studie bringt Gewissheit, dass derzeit geplante Übertragungsnetze für die Energiewende unabdingbar sind. Gleichzeitig werden aber deutliche Wissenslücken aufgezeigt: wir brauchen ein größeres Spektrum an Analysen zu vorstellbaren Entwicklungen des deutschen und europäischen Stromsystems mit allen damit verbundenen Folgen für Flächenbedarf, Kosten, Treibhausgasemissionen und Netzausbau. Nur so werden wir mehr Klarheit in die Debatte bringen ob Dezentralität langfristig einen weiteren Netzausbaubedarf verringern könnte“, sagt Antonella Battaglini, Geschäftsführerin der Renewables Grid Initiative

„Dezentralität ist ein wichtiges Thema für ein klimafreundliches Stromsystem. Aber in der Diskussion um Dezentralität und Stromnetzausbau werden wichtige Aspekte wie die begrenzten Flächenpotenziale und die Gesamtkosten zu oft außen vor gelassen. Gerade bei den Analysen zu den hinreichend sicher erreichbaren regionalen Ausbaupotenzialen für Wind- und Sonnenenergie besteht noch ein großer und vor allem kurzfristiger Klärungsbedarf“, bestätigt Dr. Felix Matthes, Forschungskoordinator Energie- und Klimapolitik des Öko-Instituts und Autor der Studie.

Christoph Bals, Politischer Geschäftsführer von Germanwatch, ergänzt: „Wo es möglich ist, sollte eine dezentrale Energiewende vorangebracht werden, die regionale Wertschöpfung und Teilhabe schafft. Angesichts der sinkenden Kosten für Wind- und Solarstrom sowie Stromspeicher kann dies in der Zukunft auch weniger Netzbedarf bedeuten. Aber da in absehbarer Zeit – auch aus gutem Grund – oft nicht ausreichend Wind vor Ort zugebaut werden kann oder soll, ist das kein Argument gegen die bisher geplanten Übertragungsleitungen.“ Germanwatch ist RGI-Mitglied und Teil des Projektteams.

Studie „Dezentralität, Regionalisierung und Stromnetze“ des Öko-Instituts
https://www.oeko.de/fileadmin/oekodoc/Meta-Studie-Dezentralitaet-Regionalisierun…

Ansprechpartner am Öko-Institut
Dr. Felix Chr. Matthes
Forschungskoordinator Energie- und Klimapolitik
Öko-Institut e.V., Büro Berlin
Telefon: +49 30 405085-380
E-Mail: f.matthes@oeko.de

Ansprechpartnerin bei der Renewables Grid Initiative (RGI)
Theresa Schneider
Pressesprecherin RGI
Telefon: 0162 2056686
E-Mail: theresa@renewables-grid.eu

Ansprechpartner bei Germanwatch
Stefan Küper
Pressesprecher Germanwatch
Telefon: 0151 25211072
E-Mail: kueper@germanwatch.org

Quelle: idw

(nach oben)


Bremsenergie ungebremst nutzen

Julia Wunderlich Presse- und Öffentlichkeitsarbeit
Hochschule Ostwestfalen-Lippe

Um Massen in Schwung zu bringen, ist Energie nötig. Beim Abbremsen wird ein großer Teil dieser Energie in Wärme umgewandelt – und ist somit für eine weitere Nutzung verloren. Ein Team des „Future Energy – Institut für Energieforschung“ der Hochschule OWL hat eine Schaltung entwickelt, die Bremsenergie zurück ins Stromnetz speist. Johann Austermann hat hierzu seine Promotion erfolgreich abgeschlossen.

Wenn ein Aufzug aus dem siebten Stock ins Erdgeschoss fährt, wird beim Bremsen Energie frei, die bislang vor allem als Wärme in die Umgebung eingeht. Gleiches gilt für alle bewegten Massen. Für Anwendungen, die an ein Stromnetz angeschlossen sind, haben Wissenschaftler der Hochschule Ostwestfalen-Lippe eine Lösung entwickelt: eine Schaltung, die an der Stelle des Bremswiderstands sitzt und die Bremsenergie zurück ins Stromnetz speist. „Da sich die Schaltung ähnlich wie die bisher eingesetzten Bremswiderstände verhält, können problemlos auch bestehende Antriebssysteme damit nachgerüstet werden“, erklärt Johann Austermann, der am „Future Energy – Institut für Energieforschung“ (iFE) der Hochschule OWL arbeitet und über die Entwicklung dieser Schaltung seine Doktorarbeit verfasst hat.

Neben dem ökologischen Ziel, Energie zu sparen, hatten die Wissenschaftler auch die ökonomischen Gesichtspunkte im Blick. „Bisher war die Rückgewinnung von Bremsenergie bei Kleinantrieben nicht wirtschaftlich genug. Deshalb konnte sie sich in der Industrie nicht durchsetzen“, erklärt Austermann. Dank der Schaltung aus Ostwestfalen-Lippe soll sich das ändern: Innerhalb von zwei Jahren sollte sich der Umbau durch die eingesparten Energiekosten gerechnet haben, schätzen die Wissenschaftler der Hochschule OWL. „Mit seiner Arbeit hat Johann Austermann einen wichtigen Beitrag innerhalb der Energieeffizienzforschung für industrielle Antriebe geleistet“, sagt Professor Holger Borcherding, der die Promotion an der Hochschule OWL betreute. Die Arbeit trägt den Titel „Rückspeisestromrichter mit geregeltem Zwischenkreisstrom“. Die kooperative Promotion erfolgte gemeinsam mit der Technischen Universität Braunschweig. Momentan bereitet Johann Austermann die Veröffentlichung seiner Doktorarbeit im Verlag Shaker vor.

Sprung aus der Wissenschaft in die Wirtschaft
Bisher hat das Team des iFE für die Entwicklung zwei Schutzrechte zur Anmeldung eingereicht. Den Sprung in die Wirtschaft haben die Ergebnisse bereits geschafft: Die Unternehmen Lenze SE (Hameln) und MSF-Vathauer Antriebstechnik GmbH & Co. KG (Detmold) bieten Produkte an, in die die neue Technik eingeflossen ist. Darüber hinaus haben die Wissenschaftler ihre Forschung mehrfach auf der Hannover Messe präsentiert, um Anwender oder neue Projektpartner zu gewinnen. Angesprochen von der Entwicklung sind vor allem Unternehmen, die sich mit elektrischer Antriebstechnik befassen. Zudem erhielt das Team den „OWL Transferpreis 2014″. Im Rahmen der Promotion sind rund 15 Studienabschlussarbeiten entstanden, die Austermann betreut hat.

Die Entwicklung wurde zwischen 2010 und 2018 durch verschiedene Projekte finanziert: zunächst über das Bundesministerium für Bildung und Forschung im Programm „FHprofUnt“ und anschließend über den Spitzencluster „it’s OWL – Intelligente Technische Systeme OstWestfalenLippe“ in den Projekten „Effiziente leistungselektronische Schaltung zur Nutzung von Bremsenergie“ (gemeinsam mit Vathauer) und „Intelligente Antriebs- und Steuerungstechnik für die energieeffiziente Intralogistik“ (zusammen mit Lenze). Die Wissenschaftler setzen die Forschung inzwischen im branchenübergreifenden Projekt „DC-INDUSTRIE“ fort. Hier hat Johann Austermann inzwischen die Leitung des Arbeitspakets „Geräteentwicklung“ übernommen.

Kontakt: Johann Austermann, Telefon 05261 702-5290, E-Mail johann.austermann@hs-owl.de

Weitere Informationen:
http://www.ife-owl.de – das „Future Energy – Institut für Energieforschung“
http://www.hs-owl.de/graduiertenzentrumnew – das Graduiertenzentrum.OWL

Quelle: idw

(nach oben)


Hochschule Hamm-Lippstadt entwickelt Lebensmittel-Abholbox für ländliche Regionen

Kerstin Heinemann Kommunikation und Marketing
Hochschule Hamm-Lippstadt

Packstation statt Paketzusteller: Ein Konzept, das im Onlinehandel für viele Produkte schon länger angewandt wird, steckt für Lebensmittel noch in den Kinderschuhen. Die Hochschule Hamm-Lippstadt hat im Rahmen eines Forschungsprojektes für den Hofladen Sauerland den Prototyp einer Lebensmittel-Abholbox entwickelt. Die mit mehreren Einzelfächern versehene Abholstation kann mit einem QR-Code durch Kundinnen und Kunden selbständig und zeitlich flexibel bedient werden, so dass bestellte Lebensmittel dort entnommen, aber auch neue Aufträge am Terminal platziert werden können.

Zum Einsatz kommen sollen die Abholboxen perspektivisch in ländlicheren Strukturen wie dem Sauerland, wo die Nahversorgung mit Lebensmittel über den stationären Handel immer mehr ausdünnt. Gefördert wurde das Projekt durch einen Innovationsgutschein F&E des Ministeriums für Wirtschaft, Innovation, Digitalisierung und Energie des Landes Nordrhein-Westfalen.

Trotz eines Umsatzes von über 180 Milliarden Euro in 2017 im deutschen Lebensmitteleinzelhandel, finden aktuell lediglich 1 bis 2 Prozent dieses Marktes online statt. Anbieter wie Amazon Fresh, AllYouNeedIsFresh oder auch die Supermarktketten Edeka und Rewe konzentrieren sich in Sachen E-Commerce mit Lieferdiensten auf Ballungsräume oder erheben hohe Gebühren für den Versand. In ländlichen Regionen sind Lieferangebote wie auch der stationäre Handel mit Lebensmitteln eher rar gesät. Diese Lücke soll mit den Abholboxen und dem Hofladen Sauerland geschlossen werden. Entwickelt wurde der Prototyp von Prof. Dr. Alexander Stuckenholz, Inhaber der Professur „Praktische Informatik“ an der Hochschule Hamm-Lippstadt, unter Mitarbeit von Fabian Lehnert, Masterstudent „Business and Systems Engineering“, und Lena Niedzwetzki, Bachelorstudentin „Biomedizinische Technologie“.

Die smarte Abholbox, deren Kommunikationselektronik zum Beispiel erkennt, ob Türen verschlossen oder geöffnet sind, ist Ergebnis der Forschung für den Hofladen Sauerland. Mit dem Hofladen-Sauerland.de fokussiert Geschäftsführer Christian Schulte den Vertrieb regionaler Produkte von kleinen Höfen, familiengeführten Metzgereien oder Landbäckereien aus der knapp 900.000 Einwohnerinnen und Einwohner starken Gegend. Bestellungen können telefonisch, online, per WhatsApp, über spezielle Terminals an ausgewählten Punkten wie auch im stationären Hofladen aufgegeben werden. Die Lieferung erfolgt durch unternehmenseigene Lieferfahrzeuge. Um die Lieferung der Lebensmittel zu flexibilisieren, die Auslastung der Logistik zu erhöhen und ein besseres Angebot für die Nahversorgung von Lebensmitteln im ländlichen Raum zu schaffen, entstand die Idee für die Abholstationen. An diese werden Lebensmittel zugestellt, die nach einer entsprechenden Benachrichtigung an die Kundinnen und Kunden entnommen werden können. Damit die Abholbox für alle Altersgruppen nutzbar ist, wurde Wert auf eine einfache Bedienbarkeit gelegt. Die Authentifizierung gegenüber der Box erfolgt über einen QR-Code. Dieser kann per E-Mail, SMS, per Post oder direkt im Ladengeschäft dem Kunden übergeben werden. Die Box scannt mittels einer Kamera den Code und öffnet das Fach mit dem individuell bestellten Inhalt. Um ihren Dienst zu verrichten, benötigt die Abholbox Strom und Internetzugang.

„Wir möchten den ‚Einkauf der Zukunft‘ für ländliche Regionen aktiv mitgestalten“, erklärt Christian Schulte die Idee. „Innovationen müssen nicht immer nur in Großstädten stattfinden, mit den Abholboxen möchten wir die Stärken der Regionalität mit technischen Innovationen verbinden.“ Das Projekt zeige die Möglichkeiten eines gewinnbringenden Transfers zwischen Wissenschaft und Wirtschaft, findet Prof. Alexander Stuckenholz. Christian Schulte prüft dank des Prototyps nun die Weiterentwicklung und Serienfertigung der Abholbox. „Erste Gespräche mit geeigneten Partnern, wie Kommunen und Energieversorgungsunternehmen fielen sehr positiv aus“, erklärt Schulte.

Weitere Informationen:
http://www.hshl.de

Quelle: idw

(nach oben)


Mikropartikel aus Kunststoff im Einzugsgebiet von Rhein und Donau nachgewiesen

Dipl. Mathematiker Helmut Weinberger Presse- und Öffentlichkeitsarbeit
Hessisches Landesamt für Naturschutz, Umwelt und Geologie

Gemeinsames Pilotprojekt von fünf Bundesländern zur Verbreitung von Mikroplastik in Flüssen abgeschlossen – Mikropartikel aus Kunststoff in unterschiedlichen Konzentrationen im Einzugsgebiet von Rhein und Donau nachgewiesen

Das Thema Mikroplastik in Gewässern wird aktuell viel diskutiert. Eine umfassende Datengrundlage zur Verbreitung von Mikroplastik in unseren Gewässern fehlt jedoch bislang. Die Ergebnisse einer umfassenden Pilotstudie in insgesamt fünf Bundesländern geben zum ersten Mal einen Überblick über das Vorkommen von Mikroplastikpartikeln in verschiedensten Regionen: vom Alpenvorland bis zum Niederrhein, vom Kleingewässer bis zu Deutschlands größtem Fluss.

Die Bundesländer Baden-Württemberg, Bayern, Hessen, Nordrhein-Westfalen und Rheinland-Pfalz haben oberflächennahe Wasserproben an 25 Flüssen im Einzugsgebiet von Rhein und Donau auf Mikroplastik analysieren lassen und in jedem einzelnen Gewässer unterschiedliche Konzentrationen von Mikroplastik nachgewiesen. Insgesamt 52 Proben wurden vom Projektpartner, dem Lehrstuhl für Tierökologie an der Universität Bayreuth, mit Hilfe der FTIR-Spektroskopie untersucht. Die nun vorliegenden Analysenergebnisse bilden einen der weltweit größten, methodisch einheitlich gewonnenen Datensätze zum Vorkommen von Plastikpartikeln in Flüssen.

Insgesamt mehr als 19.000 Objekte wurden analysiert, 4.335 davon als Kunststoffpartikel identifiziert. Der Anteil größerer Kunststoffobjekte (Makroplastik) war sehr gering. Rund 99 Prozent der Kunststoffpartikel waren kleiner als 5 Millimeter und damit Mikroplastik zuzuordnen. Auffallend war, dass sehr kleine Mikroplastikpartikel mit einer Größe zwischen 0,3 Millimeter bis 0,02 Millimeter mit rund 62 Prozent am häufigsten vertreten waren. Die Partikel bestanden zumeist aus den Kunststoffsorten Polyethylen oder Polypropylen, welche die höchsten Marktanteile vor allem für Verpackungen und die meisten Bedarfsgegenstände aus Kunststoff in Europa haben. Hauptsächlich handelte es sich um Kunststofffragmente, unregelmäßig geformte Partikel, die von größeren Kunststoffobjekten stammen können. Zudem wurden an einem großen Teil der Messstellen auch Plastikfasern gefunden. Andere Partikelformen wie Folienreste, sogenannte Beads (Kügelchen) und Pellets wurden seltener nachgewiesen.

Dabei variiert die Anzahl der Partikel zwischen den einzelnen Messstellen. Höhere Partikelkonzentrationen wurden vor allem in kleineren und mittleren Nebengewässern gemessen. Im größten untersuchten Gewässer, dem Rhein, wurden eher niedrige bis mittlere Konzentrationen gefunden, was vor allem damit zu tun hat, dass durch das größere Wasservolumen eine stärkere Vermischung und damit Abnahme der Partikelkonzentration folgt.

Insgesamt liegen die aktuellen Ergebnisse der Länder in der gleichen Größenordnung wie Befunde aus vergleichbaren europäischen und nordamerikanischen Gewässern. In einem nächsten Forschungsvorhaben wird nun das Mikroplastik in den Sedimenten und in verschiedenen Wassertiefen der untersuchten Flüsse analysiert.

Die Forschung zu Mikroplastik in der Umwelt und den möglichen Folgen steht noch am Anfang, gewinnt aber zunehmend an Bedeutung. Ziel der Forschungen derzeit ist, die Wissensbasis ständig zu verbreitern, um gezielter Probenahme- und Analyseverfahren zu entwickeln und zukünftige Monitoringprogramme weiter zu optimieren. Fragen zu möglichen Eintragspfaden, Auswirkungen auf die Umwelt und Minderungsmöglichkeiten werden derzeit unter anderem im Rahmen eines vom Bundesforschungsministeriums (BMBF) geförderten Forschungsschwerpunktes „Plastik in der Umwelt“ bis 2021 untersucht. Erforscht werden hier vor allem Vermeidungsstrategien, um einen Eintrag von Plastikabfällen in die Umwelt zu vermindern und wenn technisch möglich komplett zu vermeiden.

Der Forschungsbericht „Mikroplastik in Binnengewässern Süd- und Westdeutschlands“ kann im Internet heruntergeladen werden unter: https://www.hlnug.de/?id=11242.

Informationen zur BMBF Fördermaßnahme „Plastik in der Umwelt“ sind zu finden unter https://www.fona.de/mediathek/pdf/2017_Plastik-in-der-Umwelt_Verbundprojekte_Umw…

Pressekontakte der beteiligten Landesumweltämter:
Landesamt für Natur, Umwelt und Verbraucherschutz Nordrhein-Westfalen (LANUV)
Wilhelm Deitermann (Pressesprecher)
E-Mail: pressestelle@lanuv.nrw.de
Tel.: 0201 7995 1337

Bayerisches Landesamt für Umwelt
Pressestelle
E-Mail: pressestelle@lfu.bayern.de
Tel.: 0821 9071 5242

LUBW Landesanstalt für Umwelt Baden-Württemberg
Tatjana Erkert (Pressesprecherin)
E-Mail: pressestelle@lubw.bwl.de
Tel.: 0721 5600-1387

Landesamt für Umwelt Rheinland-Pfalz
Milan Sell (stv. Pressesprecher)
E-Mail: milan.sell@lfu.rlp.de
Tel.: 06131 6033 1917

Hessisches Landesamt für Naturschutz, Umwelt und Geologie (HLNUG)
Helmut Weinberger (Pressesprecher)
E-Mail: helmut.weinberger@hlnug.hessen.de
Tel.: 0611 6939 571

Weitere Informationen:
https://www.hlnug.de/?id=11242

Abschlussbericht des Projektes
https://idw-online.de/de/attachment64997

Quelle: idw

(nach oben)


Neues Forschungsprojekt an der Ostfalia: Sauerstoffeintrag in Belebungsbecken

Evelyn Meyer-Kube Presse/Public Relations
Ostfalia Hochschule für angewandte Wissenschaften

Die Fakultät Bau-Wasser-Boden am Campus Suderburg der Ostfalia Hochschule für angewandte Wissenschaften und der Abwasserzweckverband Uelzen haben ein neues Forschungsprojekt zum Sauerstoffeintrag in Belebungsbecken gestartet.

Projektleiter Prof. Dr. Artur Mennerich von der Ostfalia erläutert dazu: „Auf unseren Kläranlagen wird das Abwasser sehr weitgehend gereinigt. Dabei ist der biologische Abbau der im Abwasser enthaltenen Schmutzstoffe durch den Belebtschlamm, einer Mischung aus in der Natur vorkommenden Mikroorganismen, der entscheidende Schritt. Damit das funktioniert, gibt es am Boden der Belebungsbecken Belüftungselemente, durch die Luft eingetragen wird – ähnlich wie in einem Aquarium, nur dass die Luftmengen und die dafür benötigten Gebläse auf einer Kläranlage viel größer sind.“

Dietmar Kahrs, Geschäftsführer des Abwasserzweckverbandes Uelzen, sagt: „Auf der Kläranlage Uelzen gibt es dafür sechs große Gebläse, deren Elektromotoren eine Antriebsleistung von jeweils 50 Kilowatt haben. Da verwundert es nicht, dass diese Belüftung der Belebungsbecken der größte Energieverbraucher auf der Kläranlage ist. Obwohl es sich um hocheffiziente Technik handelt, wurden dazu im letzten Jahr etwa 800.000 Kilowattstunden verbraucht. Das ist ungefähr so viel wie 160 Haushalte mit vier Personen benötigen.“

Mennerich sieht auf den Kläranlagen noch Optimierungspotential: „Ein Ansatz liegt darin, die Auslegung der Belüftungseinrichtungen und die Regelungstechnik besser an die sich ständig ändernde Atmung der Mikroorganismen anzupassen. Aber auch räumlich sind innerhalb der Becken Unterschiede vorhanden, über die man bisher wenig weiß.“

In dem Forschungsvorhaben sollen nun in umfangreichen Messkampagnen genau diese Veränderungen messtechnisch bestimmt werden. „Natürlich gibt es Abschätzungen, in welchem Rahmen diese Änderungen liegen. Aber die Mühe, dazu wirklich Messungen zu machen, haben sich bisher nur Wenige gemacht. Wir wollen das jetzt systematisch angehen und sind froh, dass wir mit dem Abwasserzweckverband einen Partner haben, der dafür seine Anlage zur Verfügung stellt“, sagt Mennerich.

Die Ergebnisse sollen in die Modellansätze einfließen, mit denen Ingenieure biologische Kläranlagen planen und dimensionieren. Dadurch sind genauer an den Bedarf angepasste Becken und Belüftungseinrichtungen möglich. Weiter sollen die Erkenntnisse auch genutzt werden, um Mess- und Regelungsstrategien so zu programmieren, dass der Stromverbrauch so klein wie möglich ist und trotzdem gute Reinigungsergebnisse erreicht werden.

Das Projekt wird mit Mitteln des Europäischen Fonds für regionale Entwicklung und einer Co-Finanzierung des Landes Niedersachsen in Höhe von insgesamt 319.550 Euro gefördert. Weiterer Partner in dem anwendungsorientierten Projekt sind die Dr. Born-Dr. Ermel Ingenieure GmbH, Achim.

Quelle: idw

(nach oben)


Neue Studie zur Beratung in Sachen Homöopathie bescheinigt Apothekern Weiterbildungsbedarf

Carmen Voigt Pressestelle
Universität Erfurt

Das Geschäft mit der Homöopathie boomt. Globuli gehören in Deutschland zu den häufig konsumierten Arzneimitteln. Allerdings gibt es keinen belastbaren empirischen Nachweis für die Wirkung homöopathischer Präparate. Trotzdem gehören sie zum Sortiment der Apotheken. Doch wie zuverlässig klären Apotheker die Kundschaft über die pseudomedizinischen Mittel auf? Ein Team von Wissenschaftlern der Universität Erfurt unter Leitung von Tilmann Betsch, Professor für Sozial-, Organisations- und Wirtschaftspsychologie, hat dies in einer Studie, die jetzt in der Zeitschrift „Skeptiker“ erschienen ist, untersucht und bescheinigt der Mehrheit der Apotheker Weiterbildungsbedarf.

Zur Wirksamkeit der Homöopathie finden sich in der Literatur eine Reihe von klinischen Studien. Einige davon verfehlen jedoch die methodischen Mindeststandards für valide Untersuchungen. In den verbleibenden Studien, die wissenschaftlichen Kriterien genügen, lässt sich kein nachweisbarer Effekt homöopathischer Präparate feststellen, der über die Wirkung eines Placebos hinausginge. Patienten konsumieren aber weiterhin homöopathische Präparate. Gekauft werden sie immer noch am häufigsten in den Apotheken. Insofern kommt den Apothekern eine besondere Verantwortung zu. Nach den Leitlinien der Bundesapothekenkammer sollen Beratung und Beurteilung der Wirksamkeit von Präparaten nach pharmakologisch-toxikologischen Kriterien erfolgen. Bedeutet: Kunden dürfen erwarten, in einer Apotheke nach aktuellen wissenschaftlichen Kriterien beraten zu werden.

Ob wir das wirklich, wenn es um Homöopathie geht, haben Tilman Betsch und sein Team in einer Feldstudie untersucht. Dafür haben sie 2017 insgesamt 100 Apotheken in Stuttgart, Erfurt, Leipzig und Frankfurt zufällig ausgesucht – 25 pro Stadt. In die Stichprobe befanden sie 23 Filialen einer Kette und 77 freie Apotheken. Ihre Erhebung führten die Wissenschaftler als verdecktes Interview durch, die vier weiblichen Mitglieder des Autorenteams besuchten die ihnen zugelosten Apotheken als Kundinnen und baten um ein Mittel für ihre erkälteten Familienmitglieder. Für den Verlauf des weiteren Gesprächs hatte das Team einen Leitfaden mit standardisierten Antworten auf Fragen erstellt, die nach den Vorgaben der Bundesapothekenkammer für Beratungsgespräche zu erwarten wären. In allen Varianten fragte die Kundin zuerst, ob es sich bei vorgeschlagenen Medikamenten auch um homöopathische Präparate handelt. Wurde dies bejaht, fragte sie nach Unterschieden in der Wirksamkeit. Enthielt die Erstempfehlung keine homöopathischen Präparate, fragte die Kundin: „Ich habe gehört, dass Homöopathie vielleicht auch eine Alternative wäre. Stimmt das?“ Abschließend bat die Kundin um eine konkrete Empfehlung. Direkt im Anschluss an das Beratungsgespräch wurde ein Gedächtnisprotokollbogen ausgefüllt. Zentral dabei war, ob Unterschiede in der Wirksamkeit zwischen homöopathischen und nicht-homöopathischen Präparaten thematisiert wurden, und ob die Wirksamkeit mit Bezug auf den Stand der Forschung begründet wurde.

Das Ergebnis: In 54 der 100 Fälle enthielt das Beratungsgespräch mindestens eine Frage aus den Beratungsleitlinien der Bundesapothekenkammer, z.B. das Vorliegen anderer Erkrankungen. Die Erstempfehlungen enthielten immer mehrere Präparate. Am häufigsten wurden Halsschmerzmittel empfohlen, gefolgt von schleimhautabschwellenden Nasensprays, Schmerzmitteln und Komplexmitteln. Die große Mehrheit der Erstempfehlungen enthielt kein homöopathisches Präparat, ausschließlich homöopathische Präparate wurden in keinem Fall empfohlen. In 14 der 100 Beratungen enthielten die Erstempfehlungen auch homöopathische Präparate. Nach Unterschieden in der Wirksamkeit zwischen homöopathischen und „schulmedizinischen“ Präparaten gab der Apotheker in 14 Fällen an, dass keine Unterschiede in der Wirksamkeit bestünden. Unterschiede in der Wirksamkeit in den restlichen 13 Fällen wurde am häufigsten damit begründet, dass Homöopathie besser bei Kindern als bei Erwachsenen wirke und sich deshalb auch als Alternative zu stärker wirkenden schulmedizinischen Präparaten anböte. Auf empirische Evidenz wurde nur in zwei Fällen Bezug genommen. Hier wurde allerdings behauptet, dass die, wenn auch schwächere Wirkung von Homöopathie, in klinischen Studien nachgewiesen worden wäre. In den 86 Beratungsgesprächen, in denen die Erstempfehlung keine homöopathischen Präparate enthielt, fragte die Kundin, ob Homöopathie eine Alternative wäre. In 27,9 % der Fälle wurde dies verneint, in 48,8 % der Fälle wurde die Frage bejaht. In den restlichen 20 Beratungsgesprächen wurde die Frage nicht eindeutig beantwortet. Mitunter wurde dabei darauf verwiesen, dass Kunden häufig homöopathische Präparate in Kombination mit anderen „zur Unterstützung“ einnähmen. Auch in diesen 86 Gesprächen fragte die Kundin nach der Wirkung von Homöopathie. In lediglich 5 der 86 Fälle verwiesen die Apotheker darauf, dass die Wirkung von Homöopathie empirisch nicht nachgewiesen sei. In 19 Fällen wurde sogar behauptet, dass die Wirkung homöopathischer Präparate durch klinische Studien eindeutig bewiesen sei. In 11 Fällen (12,8 %) wurde gesagt, dass die Wirkung durch das Erfahrungswissen nachgewiesen wäre. Abschließend fragte die Kundin immer nach einer endgültigen Empfehlung. Insgesamt blieb die überwiegende Mehrheit der Apotheker bei ihrer Erstempfehlung. Nur fünf Personen boten zusätzlich homöopathische Präparate an.

Aber was lässt sich daraus bezüglich der Beratung der Apotheker in Sachen Homöopathie schließen? „Zum einen zeigen unsere Ergebnisse, dass im Falle eines grippalen Infektes die überwiegende Mehrzahl von ihnen zu schulmedizinischen Präparaten rät, die mit hoher Wahrscheinlichkeit zu einer Linderung der Symptome führen“, erläutert Prof. Tilmann Betsch. Wird also laut der Erfurter Studie in Apotheken mit Bezug auf wissenschaftliche Kriterien beraten? „Was die Wirkung von Homöopathie betrifft, so zeichnet unser Untersuchungsergebnis ein eher düsteres Bild“, sagt Professor Betsch. In nur 5 % aller Beratungsgespräche wurde gesagt, dass es für die Wirkung von Homöopathie keine wissenschaftlichen Belege gäbe. In 30 % aller Beratungsgespräche wurde dagegen behauptet, dass die Wirkung von Homöopathie entweder in Studien nachgewiesen sei oder sich aus dem Erfahrungswissen ergäbe. „Nach den Leitlinien der Bundesapothekenkammer soll jedoch die Beurteilung der Wirksamkeit von Präparaten nach pharmakologisch-toxikologischen Kriterien erfolgen. Zumindest was die Begründung ihrer Empfehlungen betrifft, folgte die überwiegende Mehrheit der von uns befragten Apotheker diesen Leitlinien nicht. Während ihre Empfehlungen in der Regel nachweislich wirksame Medikamente enthielten, unterschied sich ihr Wissen über die Wirkung von Homöopathie mehrheitlich nicht von Laien-Meinungen. Zumindest was letzteren Bereich betrifft, scheint ein (Weiter)-Bildungsbedarf bei vielen Apothekern zu bestehen.“

Zur Studie von Tilmann Betsch, Jana Chalupny, Susanne Grünewald, Lena Hofert und Lisa-Marie Männer im „Skeptiker“: https://www.gwup.org/zeitschrift-skeptiker

Weitere Informationen / Kontakt:
Prof. Dr. Tilmann Betsch
Tel.: 0361/737-2221
E-Mail: tilmann.betsch@uni-erfurt.de

Quelle: idw

(nach oben)


Trotz des Gender Pay Gaps empfinden Frauen häufig ihren Verdienst als gerechter als Männer

Monika Wimmer Pressestelle
Sozio-oekonomisches Panel (SOEP)

Die Lohnlücke zwischen Männern und Frauen betrug bei Vollbeschäftigten zuletzt immer noch 16 Prozent. Doch obwohl die meisten Frauen im Durchschnitt weniger verdienen als Männer, bewerten sie häufig ihr eigenes Einkommen als gerechter als dies Männer tun. Ein wesentlicher Grund für diesen Befund liegt in einer immer noch weitgehend in typische Männer- und Frauenberufe unterteilten Arbeitswelt. Dies zeigt nun erstmals eine für Deutschland repräsentative Untersuchung auf Basis der Daten der Langzeitstudie Sozio-oekonomisches Panel (SOEP) am DIW Berlin.

„Frauen haben kein grundsätzlich anderes Gerechtigkeitsempfinden als Männer“, sagt der Soziologe Peter Valet, Autor der Studie. „Aber ein überwiegend frauendominiertes berufliches Umfeld führt offenbar dazu, dass sie die Gerechtigkeit ihrer Löhne nach anderen Vergleichsmaßstäben bewerten als Männer“. Die Studie wurde kürzlich in der Fachzeitschrift „Work and Occupations“ veröffentlicht.

Das so genannte „Paradox of the contented female worker“ ist unter SoziologInnen seit vielen Jahren bekannt. Den Grund dafür vermuteten viele WissenschaftlerInnen bisher darin, dass für Frauen die Höhe ihres Einkommens weniger wichtig ist als für Männer. Eine andere Annahme in der Soziologie besteht darin, dass Frauen ihren Verdienst vor allem mit dem von anderen Frauen vergleichen und ihre Einkommensnachteile gegenüber Männern daher gar nicht erkennen.

Um diese Annahme zu überprüfen, analysierte der Bielefelder Soziologe Peter Valet, wissenschaftlicher Mitarbeiter in der Arbeitsgruppe des SOEP-Direktors Stefan Liebig, die Daten von 16837 erwerbstätigen Männern und Frauen, die zwischen 2009 und 2015 im Rahmen der Langzeitstudie SOEP immer wieder befragt wurden. Neben der Auskunft über ihr Erwerbseinkommen machten die Befragten auch alle zwei Jahre Angaben darüber, welche Einkommenshöhe sie als gerecht empfinden würden. Darüber hinaus berücksichtigte Valet, ob die Frauen in einem frauen- oder in einem männerdominierten Beruf arbeiteten.

Das Ergebnis der Analyse zeigt: Vier von fünf befragten Frauen empfanden ihren Verdienst als gerechter als das Männer in einer vergleichbaren beruflichen Position taten. Valet konnte jedoch zeigen, dass diese Frauen überwiegend in einem beruflichen Umfeld arbeiteten, in denen mehr als die Hälfte der KollegInnen ebenfalls Frauen waren. Wenn die Frauen hingegen in Berufen arbeiteten, in denen mindestens die Hälfte der Beschäftigten Männer waren, bewerteten sie ihre Einkommen als genauso gerecht oder ungerecht wie ihre männlichen Kollegen in einer vergleichbaren Position. Bei Frauen, die im Laufe ihres Berufslebens von einem frauen- in einen männerdominierten Beruf gewechselt hatten, zeigte sich der gleiche Effekt.

„Wenn Frauen in einem Beruf arbeiten, in dem mehr Frauen als Männer tätig sind, vergleichen sie ihr Erwerbseinkommen offenbar vor allem mit dem ihrer Kolleginnen“, erklärt Peter Valet diesen Zusammenhang. In männerdominierten Berufen hingegen würden sich die Frauen auch mit den besser verdienenden männlichen Kollegen vergleichen. „Erst wenn sie das tun, werden sich Frauen des Gender Pay Gap bewusst und empfinden ihren Verdienst als entsprechend ungerechter“, sagt Valet.

Überrascht hat den Soziologen, dass die Gerechtigkeitswahrnehmungen von Männern offenbar unabhängig davon sind, ob der Großteil der KollegInnen Männer oder Frauen sind. Wie die SOEP-Daten zeigen, orientieren sich Männer in frauendominierten Berufen daran, was Männer generell im Durchschnitt verdienen.

Insgesamt betrachtet zeigt die Studie: Eine noch immer weitgehend in frauen- und männerdominierte Berufe unterteilte Arbeitswelt führt dazu, dass Frauen ihre eigenen Einkommen – trotz des Gender Pay Gaps – für gerechter halten als Männer das tun. „Das kann dazu führen, dass sie bei Lohnverhandlungen weniger fordern als Männer und sich die Lohnlücke zwischen Frauen und Männern demzufolge weiter verfestigt“, sagt Peter Valet. Er empfiehlt daher, dass Arbeitgeber ihre Gehälter für alle Mitarbeitenden transparent machen sollten. So hätten alle MitarbeiterInnen dieselben Vergleichsmöglichkeiten – unabhängig davon in welchem Beruf sie arbeiten.

SOZIO-OEKONOMISCHES PANEL (SOEP)
Das Sozio-oekonomische Panel (SOEP) ist die größte und am längsten laufende multidisziplinäre Langzeitstudie in Deutschland. Das SOEP im DIW Berlin wird als Teil der Forschungsinfrastruktur in Deutschland unter dem Dach der Leibniz-Gemeinschaft vom Bundesministerium für Bildung und Forschung (BMBF) und den Ländern gefördert. Für das SOEP werden seit 1984 jedes Jahr vom Umfrageinstitut Kantar Public (zuvor TNS Infratest Sozialforschung) in mehreren tausend Haushalten statistische Daten erhoben. Zurzeit sind es etwa 30.000 Personen in etwa 15.000 Haushalten. Die Daten des SOEP geben unter anderem Auskunft über Einkommen, Erwerbstätigkeit, Bildung, Gesundheit und Lebenszufriedenheit. Weil jedes Jahr dieselben Personen befragt werden, können nicht nur langfristige gesellschaftliche Trends, sondern auch die gruppenspezifische Entwicklung von Lebensläufen besonders gut analysiert werden.

LINK ZUR STUDIE:
Valet, Peter (2018). Social Structure and the Paradox of the Contented Female Worker: How Occupational Gender Segregation Biases Justice Perceptions of Wages.
Work and Occupations (online first).

http://journals.sagepub.com/doi/abs/10.1177/0730888417753048?journalCode=woxb.

Quelle: idw

(nach oben)


Weltwassertag: Natur bietet Kombi-Lösung für Hunger-, Wasser- & Umweltprobleme

Florian Klebs Hochschulkommunikation
Universität Hohenheim

Universität Hohenheim: Intelligente Bewirtschaftung nutzt Mega-Deltas der großen Flüsse für kombiniertes Wassermanagement, Nahrungsmittelproduktion und Umweltschutz

Die Natur bietet Lösungen für Menschheitsprobleme – vorausgesetzt, die Menschheit versteht es, ökologische Zusammenhänge zu nutzen, so das Credo von Prof. Dr. Folkard Asch von der Universität Hohenheim in Stuttgart. Als Beispiel nennt er die Mega-Deltas großer Flüsse: Sie gelten als Reis-Körbe der Menschheit mit einem Produktionspotenzial, das noch lange nicht ausgereizt sei. Doch Wassermanagement, Küstenschutz und Maßnahmen gegen Meeresspiegelanstieg und Versalzungsgefahr seien nur mit naturnahen Lösungen möglich, betont der Agrarwissenschaftler im Vorfeld des Weltwassertages am 22. März 2018. Prof. Dr. Asch ist Leiter des Graduiertenkollegs „Wasser-Mensch-Landwirtschaft“, gefördert von der Anton & Petra Ehrmann-Stiftung.

Wasser ist Lebensgrundlage und Bedrohung – das zeigt sich besonders deutlich in den Mündungsgebieten großer Flüsse mit ihren Quadratkilometer großen Überschwemmungsgebieten.

Auch die Konflikte um Wasser, die die Vereinten Nationen mit dem jährlichen Weltwassertag am 22. März ins Bewusstsein rücken, träten dort gleich in außergewöhnlichen Dimensionen auf, erklärt Prof. Dr. Asch von der Universität Hohenheim: Steigende Meeresspiegel und drohende Versalzung bedrohten Ackerland, Trinkwasser verknappe, Stadt- und Landbevölkerung konkurrierten um Süßwasser für menschliche Nutzung und Bewässerung.

Falscher Umgang mit Wasser bedroht Nahrungsgrundlage der halben Menschheit
Dabei handelt es sich keineswegs um ein lokales Problem. „Vor allem in Asien bilden die großen Flussdeltas die Reis-Körbe der Menschheit – und damit eine der wichtigsten Nahrungsquellen der Welt“, erklärt Prof. Dr. Asch von der Universität Hohenheim.

Weltweit lebten drei von sieben Milliarden Menschen vor allem von Reis als Grundnahrungsmittel. Bislang hielten sich Bevölkerungswachstum und Produktionssteigerung halbwegs die Waage. Dies verdanke die Menschheit vor allem den fruchtbaren Böden der Flussdeltas.

Dank ihnen habe die Reisproduktion in den vergangenen 25 Jahren um 50 Prozent gesteigert werden können. Aktuell betrage sie 890 Mio. Tonnen pro Jahr. „Bis 2050 benötigen wir eine weitere Steigerung um 27 Prozent. Dies lässt sich nicht ohne weitere Produktionssteigerung in den Flussdeltas bewerkstelligen.“

Naturnahe Lösungen als Schlüssel für Umweltschutz, Wasser- und Ernährungssicherung
Der Schlüssel dazu sei eine nachhaltige Intensivierung, die ökologische Zusammenhänge nutzt. Auf diese Weise ließen sich Ernährungssicherung, Armutsbekämpfung, der Zugang zu sicherem Trinkwasser und die Balance des Wasserbedarfs von Stadt und Land ins Lot bringen mit Küstenschutz und anderen Maßnahmen gegen Erosion und Versalzung.

Das Konzept entspräche damit dem des diesjährigen Weltwassertages, den die UN unter das Motto „Nature-Based Solutions for Water“ stellt. „Es ist der Mensch, der beim Thema Wasser zunehmend vor Herausforderungen gestellt wird. Die Natur stellt dazu die Lösungen.“

Der Ansatz sei in vielen Fällen auch ingenieurstechnischen Großmaßnahmen überlegen. „Flussdeltas wie das des Indus, Mekong oder des Ganges-Brahmaputras haben eine Ausdehnung von mehreren 100 Kilometern. Küstenschutz durch Sperren und Deiche wie in Norddeutschland oder den Niederlanden ist hier weder sinnvoll noch finanzierbar.“

Küstenschutz, Erosionsminderung und Aufbau von Grundwasser
Den Küstenschutz würde Prof. Dr. Asch lieber natürlichen Mangrovenwäldern überlassen. Diese Bäume wachsen im Brackwasser des Gezeitenbereiches. So sichern sie den Boden auch bei Sturmfluten. Ihre Wurzeln bauen zusätzlich noch Erdwälle auf.

Auch der Reisanbau im Hinterland entspräche vom Ansatz her den natürlichen Gegebenheiten. „Reis ist eine der wenigen Kulturpflanzen, die in Sumpfgebieten wächst.“ Das aufgestaute Süßwasser auf den Feldern erhalte auch den Boden, denn „es verhindert, dass Meerwasser aus dem Untergrund durch die Verdunstung nach oben gesaugt wird und den Boden versalzt.“

Gleichzeitig lieferten die Felder einen wichtigen Beitrag zum lokalen Wetter: „Durch die Verdunstung auf den Feldern entstehen Nebel, Wolken und Regen. Dieser versickert und baut unter dem Delta eine Frischwasserblase auf, die die Großstädte mit Trinkwasser versorgt.“

Shrimp-Farming: Gefahr durch neue Formen der Landnutzung
Als gefährlich wertet der Agrarwissenschaftler dagegen den Trend, die fragilen Deltas für neue, nicht angepasste Produktionsformen zu nutzen. „Ein Negativ-Beispiel ist sicher die zunehmende Shrimps-Produktion im Mekong-Delta von Vietnam“, urteilt Prof. Dr. Asch. Shrimps seien lukrativ, das wecke Begehrlichkeiten. Doch die Krustentiere lebten im Brackwasser, das sich in künstlich angelegten Teichen sammle. Durch diese künstlichen Teiche gelangten Salz und große Mengen Antibiotika in den Wasserkreislauf, das natürliche System würde zerstört.

Sanfte Optimierung kann neue Einkommensquellen erschließen
Um den steigenden Wasser- und Nahrungsbedarf zu stillen sei es dagegen notwendig, das gewachsene System weiter zu optimieren. „Wir müssen das vorhandene Wasser besser ausnutzen, indem wir gewährleisten, dass die Pflanzen nur die genau notwendige Menge an Wasser erhalten und nur zu den Zeiten, in denen sie es wirklich verwerten können.“

Ein Ansatz sei durch verbesserte Anbauformen zu verhindern, dass zu viel Regenwasser ungenutzt ablaufe. Gleichzeitig seien die Deltas vielfältiger, als bislang genutzt. „Auch im Flachland der Deltas gibt es erhöhte Lagen, die nicht überstaut und sumpfig sind. Hier ließen sich andere, hochwertigere Kulturen wie Gemüse oder sogar Zitrusfrüchte für zusätzliche Einkommen anbauen. Das wäre eine sinnvolle Weiterentwicklung, die sich in die Ökologie eingepasst.“

Hohe Bedeutung von Forschung und Wissenstransfer
Tatsächlich bestehe in vielen Fragen auch noch Forschungsbedarf. „Die gesellschaftlichen Herausforderungen, die Deltas zu schützen, sind wesentlich größer als das Wissen und die Finanzen, um die naturnahen Lösungen umzusetzen“, resümiert der Wissenschaftler der Universität Hohenheim. Wichtig sei deshalb, dass Wissenschaft und Transfermedien auch vor Ort intensiv zusammen arbeiteten.

Einen Beitrag dazu wolle die Universität Hohenheim mit der Anton & Petra Ehrmann-Stiftung durch das Graduiertenkolleg „Wasser-Mensch-Landwirtschaft“ leisten. Darin beschäftigen sich derzeit 15 Doktoranden mit globalen Fragestellungen und Herausforderungen zum Thema Wasser. 50 Prozent der Nachwuchswissenschaftler stammen aus Übersee. „Für uns sind das künftige Ausbilder und Multiplikatoren in ihren Heimatländern“, so Prof. Dr. Asch.

Dem Weltwassertag am 22. März 2018 widmet das Graduiertenkolleg ein eigenes Kolloquium. Unter der Überschrift „Nature-based solutions for societal challenges related to water“ beschäftigen sich die Vorträge speziell mit dem Thema Flüsse, Küsten und Deltas. Das Kolloquium an der Universität Hohenheim beginnt um 13:00 Uhr in Schloss Hohenheim, 70599 Stuttgart. Programm und Informationen unter https://water4use.uni-hohenheim.de/wwd2018

Kontakt für Medien
Prof. Dr. Folkard Asch, Universität Hohenheim, Hans-Ruthenberg-Institut für Tropische Agrarwissenschaften / Anton & Petra Ehrmann-Graduiertenkollegs „Wasser-Mensch-Landwirtschaft“
T 0711 459 23550, E fa@uni-hohenheim.de
Text: Klebs

Weitere Informationen:
http://water4use.uni-hohenheim.de „Graduiertenkolleg „Wasser-Menschen-Landwirtschaft““
http://water4use.uni-hohenheim.de/wwd2018 „Kolloquium zum Weltwassertag“
http://www.uni-hohenheim.de/expertenliste-wasser „Expertenliste Wasser“

Quelle: idw

(nach oben)


Fünftes Symposium „Gefahrstoffe am Arbeitsplatz“

Jörg Feldmann Pressestelle
Bundesanstalt für Arbeitsschutz und Arbeitsmedizin

Ohne Messungen am Arbeitsplatz lassen sich die Belastungen bei Tätigkeiten mit Gefahrstoffen oftmals nicht beurteilen. Im Mittelpunkt des fünften Symposiums „Gefahrstoffe am Arbeitsplatz“ stehen praktische Aspekte zur Umsetzung der Regelungen, die für die Messung von Gefahrstoffen relevant sind, sowie über deren Messbarkeit. Das Gefahrstoffsymposium findet am 18. und 19. September 2018 in der Bundesanstalt für Arbeitsschutz und Arbeitsmedizin (BAuA) in Dortmund statt.

Zum Symposium „Gefahrstoffe am Arbeitsplatz“ laden die Arbeitsgruppe Analytik der Deutschen Gesetzlichen Unfallversicherung (DGUV) unter Federführung der Berufsgenossenschaft Rohstoffe und chemische Industrie (BG RCI), der Arbeitskreis „Luftanalysen“ der Ständigen Senatskommission zur Prüfung gesundheitsschädlicher Arbeitsstoffe der Deutschen Forschungsgemeinschaft (DFG) und die BAuA ein. Angesprochen sind Vertreter von Messstellen und analytischen Laboratorien, Sicherheitsingenieure und Fachkräfte für Arbeitssicherheit, Behördenvertreter sowie Aufsichtspersonen der Länder und Träger der gesetzlichen Unfallversicherung.

Das Symposium greift praktische Aspekte der für die Messung von Gefahrstoffen relevanten Regelungen und der Qualitätssicherung auf. Zudem werden konkrete Beispiele und Probleme der Gefahrstoffmessung vorgestellt und diskutiert. Dabei gehen Referenten beispielsweise auf Entwicklungen im Technischen Regelwerk für Gefahrstoffe, Grenzwerte oder die Arbeit mit direkt anzeigenden Messgeräten ein. Zudem werden Ergebnisse aktueller Forschungsprojekte vorgestellt. Das gesamte Programm gibt es unter der Adresse http://analytik.bgrci.de (direkt unter Seiten-ID #70Q6). Hier ist auch eine Anmeldung möglich.

Die Tagungsgebühr für das Symposium beträgt bei Buchung bis zum 31. Mai 2018 170 Euro, inklusive Tagungsunterlagen und Abendveranstaltung am 18. September. Bei Anmeldungen nach dem 31. Mai erhöht sich die Tagungsgebühr auf 200 Euro.

Anmeldungen per Brief, Fax oder E-Mail bitte an
BG RCI
Gabriele Haass
Kurfürsten-Anlage 62
69115 Heidelberg
Telefon: 06221 5108-28105 • Fax: 06221 5108-21199
E-Mail: symposium-gefahrstoffe@bgrci.de

Die BAuA ist Partner im Wissenschaftsjahr 2018 – Arbeitswelten der Zukunft

Forschung für Arbeit und Gesundheit
Sichere und gesunde Arbeitsbedingungen stehen für sozialen Fortschritt und eine wettbewerbsfähige Wirtschaft. Die Bundesanstalt für Arbeitsschutz und Arbeitsmedizin (BAuA) forscht und entwickelt im Themenfeld Sicherheit und Gesundheit bei der Arbeit, fördert den Wissenstransfer in die Praxis, berät die Politik und erfüllt hoheitliche Aufgaben – im Gefahrstoffrecht, bei der Produktsicherheit und mit dem Gesundheitsdatenarchiv. Die BAuA ist eine Ressortforschungseinrichtung im Geschäftsbereich des Bundesministeriums für Arbeit und Soziales. Über 700 Beschäftigte arbeiten an den Standorten in Dortmund, Berlin und Dresden sowie in der Außenstelle Chemnitz.
http://www.baua.de

Weitere Informationen:
http://www.bgrci.de/veranstaltungen/tagungen/symposium-gefahrstoffe-am-arbeitsplatz/ Direkter Link zum Programm des 5. Symposiums „Gefahrstoffe am Arbeitsplatz“

Quelle: idw

(nach oben)


Bis 2030 sind deutlich mehr Erneuerbare Energien möglich

Anne-Catherine Jung Pressestelle
Fraunhofer-Institut für System- und Innovationsforschung (ISI)

Ein Anteil von bis zu 35 Prozent Erneuerbaren Energien am gesamten Energieverbrauch bis 2030 ist realistisch: Zu diesem Ergebnis kommt eine kürzlich veröffentlichte Studie des Fraunhofer ISI für das Europäische Parlament.

Die Europäische Union strebt an, bis 2030 einen Anteil von 27 Prozent Erneuerbaren Energien (EE) am gesamten Energieverbrauch zu erreichen. Im Jahr 2016 belief sich dieser auf rund 17 Prozent, wie in der Publikation »The State of Renewable Energies in Europe – Edition 2017« ersichtlich ist.

Das Fraunhofer-Institut für System- und Innovationsforschung ISI hat für die Studie »Renewable Energy Directive Target« zusammen mit Enerdata und SQ Consult untersucht, welche Auswirkungen ein höherer Anteil Erneuerbarer Energien am gesamten Endenergieverbrauch auf Wirtschaft und Gesellschaft hätte. Um die Möglichkeiten für einen EE-Anteil von 30 bis 35 Prozent zu prüfen, haben die Wissenschaftlerinnen und Wissenschaftler mehr als 30 Studien ausgewertet.

Die wichtigsten Faktoren für die Berechnungen sind die Technologiekosten, die Brennstoffpreise und die Kosten für Kapital:

• Im Hinblick auf Technologiekosten halten die Autorinnen und Autoren der Studie fest, dass die Kosten für erneuerbare Energietechnologien heutzutage geringer sind als noch vor einigen Jahren angenommen. Daraus schließen sie, dass erneuerbare Energieträger, vor allem Windenergie, eine wichtige Rolle im zukünftigen Energiesystem spielen werden, da geringere Technologiekosten generell zu einer schnellen und weiten Verbreitung führen.
• Niedrige Brennstoffpreise führen zu einem geringeren Anteil Erneuerbarer Energien. Erhöhen sich die Brennstoffpreise, erhöht sich auch der EE-Anteil. Da es aktuell starke Schwankungen bei den Brennstoffpreisen gibt, ist die Voraussage für diesen Aspekt mit großen Unsicherheiten behaftet.
• Die Höhe der Kosten für Kapital hat Einfluss auf die Erzeugungskosten und damit auf die Auswahl der Investitionen: Hohe Abzinsungssätze begünstigen in der Regel Investitionen in Anlagen, die eher niedrige Anfangsinvestitionen haben, beispielsweise Gaskraftwerke. Bei niedrigen Sätzen werden laufende Betriebskosten stärker gewichtet und somit Anlagen mit geringen Betriebskosten wie Solar- und Windanlagen begünstigt.

Nach der Auswertung aller Faktoren kommen die Autorinnen und Autoren der Studie zu dem Schluss, dass ein Anteil Erneuerbarer Energien zwischen 30 und 35 Prozent am gesamten Energieverbrauch bis 2030 ökonomisch realisierbar ist. Die Auswirkungen auf Bruttoinlandsprodukt, Beschäftigung und Gesundheit wären insgesamt gering, aber zumeist positiv. Auch im Hinblick auf Brennstoffimporte und Treibhausgasemissionen wären positive Effekte zu erwarten.

Bei einem EE-Anteil von 30 bis 35 Prozent am gesamten Endenergieverbrauch steigt laut den ausgewerteten Studien der Anteil Erneuerbarer Energien im Stromsektor auf über 50 Prozent. Für die Integration steigender Anteile Erneuerbarer Energien in das Stromsystem muss dieses hinreichend flexibel sein, beispielsweise durch flexible Nachfrage sowie flexible Erzeugungsanlagen und Speicher. Eine vor kurzem veröffentlichte Analyse des Fraunhofer ISI im 17. EurObserv’ER Report zeigt, dass für einen EE-Anteil von knapp 30 Prozent im Strombereich (2016) die gegenwärtig bestehende Flexibilität des Systems gut ausreicht.

Kontakt:
Anne-Catherine Jung MA
Telefon: +49 721 6809-100
E-Mail: presse@isi.fraunhofer.de

Das Fraunhofer-Institut für System- und Innovationsforschung ISI analysiert Entstehung und Auswirkungen von Innovationen. Wir erforschen die kurz- und langfristigen Entwicklungen von Innovationsprozessen und die gesellschaftlichen Auswirkungen neuer Technologien und Dienstleistungen. Auf dieser Grundlage stellen wir unseren Auftraggebern aus Wirtschaft, Politik und Wissenschaft Handlungsempfehlungen und Perspektiven für wichtige Entscheidungen zur Verfügung. Unsere Expertise liegt in der fundierten wissenschaftlichen Kompetenz sowie einem interdisziplinären und systemischen Forschungsansatz.

Weitere Informationen:
http://www.europarl.europa.eu/RegData/etudes/STUD/2018/614201/IPOL_STU%282018%29… Studie »Renewable Energy Directive Target«Renewable Energy Directive Target
https://www.eurobserv-er.org/pdf/annual-overview-2017-en-fraunhofer-isi/ 17. EurObserv’ER Report

Quelle: idw

(nach oben)


Neue Studie für Greenpeace: Wälder bergen ungenutztes Potential für den Klima- und Naturschutz

Mandy Schoßig Öffentlichkeit und Kommunikation
Öko-Institut e. V. – Institut für angewandte Ökologie

Wälder in Deutschland können maßgeblich zum Klimaschutz beitragen, wenn sie stärker geschützt werden. Bis zu 48 Millionen Tonnen CO2 könnten diese Wälder pro Jahr bei einer ökologischeren Bewirtschaftung binden – dies entspricht etwa der Hälfte des jährlichen CO2-Ausstoßes von PKW in Deutschland.
Nach einer heute veröffentlichten Studie des Freiburger Öko-Instituts im Auftrag von Greenpeace würde der Wald bei gleichbleibender Nutzung etwa zwei Drittel weniger klimaschädliches CO2 binden.

Computersimulationen zeigen, dass der Wald bei intensiverer Bewirtschaftung als heute seine Klimaschutzfunktion zeitweilig sogar verlieren könnte. „Deutschland ignoriert das beträchtliche Potential seiner Wälder für den Klimaschutz“, sagt Sandra Hieke, Waldexpertin von Greenpeace: „Im Entwurf des neuen Koalitionsvertrages beabsichtigen CDU/CSU und SPD zudem, noch mehr Holz einschlagen zu lassen. Nicht nur in der Verkehrs- und Energiepolitik, auch in der Forstpolitik nimmt die Bundesregierung ihre Klimaziele nicht ernst.“

Industrieforste würden wieder zu lebendigen Laubwäldern
Die Studie untersucht die Auswirkung dreier Szenarien zur Waldbewirtschaftung auf den Schutz von Klima und Natur. Im ambitionierten Szenario „Waldvision“ können sich mehr Industrieforste bis Anfang des nächsten Jahrhunderts zu naturnahen Laubmischwäldern entwickeln. Diese sind in der Regel widerstandsfähiger gegenüber Stürmen und bieten mehr Lebensraum für Tiere und Erholungsraum für Menschen. Bei diesem Szenario bindet der Wald pro Jahr im Schnitt 48 Millionen Tonnen CO2. Ein zweites Szenario schreibt die aktuelle Bewirtschaftung fort: Hier bindet der Wald im Schnitt nur 17,2 Millionen Tonnen CO2. Das dritte Szenario analysiert die von der Holzindustrie geforderte intensive Bewirtschaftung und ergibt eine CO2-Minderung um lediglich 1,4 Millionen Tonnen pro Jahr.

„Wird der Wald ökologischer und weniger intensiv bewirtschaftet, steigt sein Beitrag zum Klimaschutz, aber auch zum Naturschutz“, sagt Dr. Hannes Böttcher, Experte für Waldökosysteme und Klimaschutz am Öko-Institut: „Wir zeigen mit der „Waldvision“ die Synergien auf: Wälder können durch eine andere Bewirtschaftung und effizientere Holznutzung zu beidem beitragen.“ In der weltweiten Krise des Klimawandels sind Wälder unverzichtbar für den Klimaschutz. Sie stabilisieren das Weltklima, speichern schädliches Kohlendioxid und setzen dabei Sauerstoff frei.

Website „Waldvision“ des Öko-Instituts
Alle Ergebnisse der Studie „Waldvision Deutschland“ im Auftrag von Greenpeace Deutschland stellt das Öko-Institut auf seiner Website „Waldvision“ vor. Interaktive Grafiken erlauben einen Blick in die Zukunft der ökologischen Waldwirtschaft und die Auswirkungen auf den Baumbestand im deutschen Wald.

Zur Website „Waldvision“ des Öko-Instituts (http://waldvision.de/)

Greenpeace Waldvision online lesen (https://www.greenpeace.de/presse/publikationen/wenn-waelder-wieder-wachsen)

Infografiken zur Waldvision:
Infografik „Vom Fichtenwald zum strukturierten Laubmischwald“ des Öko-Instituts (https://www.flickr.com/photos/oekoinstitut/39784191014/in/album-7215769213757775…)

Infografik „Schonende Nutzung für mehr Klasse als Masse“ des Öko-Instituts (https://www.flickr.com/photos/oekoinstitut/38683884900/in/album-7215769213757775…)

Studie und Modellbeschreibung:
Studie „Waldvision Deutschland. Beschreibung von Methoden, Annahmen und Ergebnissen“ des Öko-Instituts (in deutscher Sprache) (https://www.oeko.de/fileadmin/oekodoc/Waldvision-Methoden-und-Ergebnisse.pdf)

Study „Forest Vision Germany. Description of methodology, assumptions and results by
Oeko-Institut (in English language) (https://www.oeko.de/fileadmin/oekodoc/Forest-Vision-Methods-and-Results.pdf)

Beschreibung des Modells „Forestry and Agriculture Biomass Model (FABio)“ des Öko-Instituts (https://www.oeko.de/fileadmin/oekodoc/FABio-Wald-Modellbeschreibung.pdf)

Ansprechpartner am Öko-Institut
Dr. Hannes Böttcher
Senior Researcher im Institutsbereich
Energie & Klimaschutz
Öko-Institut e.V., Büro Berlin
Telefon: +49 30 405085-389
E-Mail: h.boettcher@oeko.de

Ansprechpartnerinnen bei Greenpeace
Sandra Hieke (Kampaignerin Wälder & Biodiversität)
Telefon: 0160 9065 9754

Simone Miller (Pressesprecherin)
Telefon: 0171 8706 647
E-Mail: presse@greenpeace.de

Mandy Schoßig
Leiterin Referat Öffentlichkeit & Kommunikation
Öko-Institut e.V., Büro Berlin
Telefon: +49 30 405085-334
E-Mail: m.schossig@oeko.de

Anhang
PM_Waldvision_Öko-Institut
https://idw-online.de/de/attachment64823

Quelle: idw

(nach oben)


Alarmierend: Nur 8% waschen ihre Hände in korrekter Weise

Janna von Greiffenstern Kommunikation und Service
SRH Hochschule Heidelberg

Hände weg von Männerhänden: Im Rahmen einer Beobachtungsstudie an 1.000 Menschen stellten Studierende der Fakultät für Angewandte Psychologie der SRH Hochschule Heidelberg fest, dass kaum einer seine Hände nach dem Toilettengang richtig wäscht.

Sie wütet wieder heftig, die Grippewelle. Dabei ist es einfach, die Erreger fernzuhalten: Das Infektionsrisiko mit Viren und Bakterien lässt sich durch eine korrekt ausgeführte Handhygiene um bis zu 99,9% verringern. Denn rund 80% aller ansteckenden Krankheiten werden über die Hände übertragen, mit denen wir im Durchschnitt 16 Mal pro Stunde unser Gesicht berühren. So gelangen die Keime durch Mund, Nase und Augen über die Schleimhäute in unseren Körper und entwickeln sich dort zur Infektion. In ihrem Experimentalpraktikum beobachteten zehn Psychologie-Studierende der SRH Hochschule Heidelberg die Besucher mehrerer öffentlicher Toiletten in und um Heidelberg. Die Ergebnisse erschütterten sie.

Die SRH-Studentinnen schauten 1.000 Toilettenbesuchern auf die Finger: Rund 7% verzichteten gänzlich auf das Händewaschen. 27% wuschen ihre Hände nur mit Wasser und rund 58% benutzten Wasser und Seife, allerdings nicht mit der erforderlichen Gründlichkeit. Lediglich rund 8% reinigten ihre Hände vorbildlich. Die Bundeszentrale für gesundheitliche Aufklärung empfiehlt hierfür eine mindestens 20 Sekunden dauernde Reinigung mit Wasser und Seife nicht nur der Handflächen, sondern auch der Fingerzwischenräume.

Auch zwischen den Geschlechtern bestand ein bedeutender Unterschied im Händewaschverhalten. Während ca. 11 % der Männer auf das Reinigungsritual gänzlich verzichteten, sind es bei den Frauen nur 3%. Mit Wasser und Seife, allerdings ohne Berücksichtigung der Intensität, rückten immerhin 82% der untersuchten Frauen den Ansteckungskeimen auf den Leib. Bei den Männern waren es nur 51%. Der Handkontakt mit Männern birgt also ein höheres Übertragungsrisiko. „Dieser Unterschied hat uns schon schockiert“, gesteht die SRH-Studentin Jana Zeeb.

„Allein in Deutschland machte die Pharmaindustrie im Jahr 2016 mit Erkältungsmitteln einen Umsatz von über 700 Millionen Euro. Nicht nur die Kosten für den einzelnen, sondern auch für Gesellschaft und Wirtschaft sind enorm“, erklärt Prof. Dr. Frank Musolesi, Leiter der Beobachtungsstudie. Auch die Arbeitsunfähigkeitstage bedeuten Produktionsausfälle in Höhe von mehreren Milliarden Euro für die deutsche Wirtschaft. „Dabei lassen sich Infektionskrankheiten durch regelmäßiges Händewaschen wirksam und kostengünstig vermeiden, und dies ganz ohne Nebenwirkungen“, so Musolesi.

Weitere Informationen:
http://www.hochschule-heidelberg.de

Quelle: idw

(nach oben)


Energieeffiziente Wassernutzung in der Industrie: 5. Ausschreibungsrunde im Förderprogramm STEP up!

Wiebke Ehret Presse- und Öffentlichkeitsarbeit
VDI/VDE Innovation + Technik GmbH

Bis zum 31. Mai 2018 können Unternehmen der gewerblichen Wirtschaft, einschließlich wirtschaftlich tätiger kommunaler Betriebe, bei STEP up! Projektanträge zur Durchführung von Energieeffizienz-Maßnahmen stellen. Möglich sind bis zu 30 % Förderung.

STEP up! bietet auch in seiner 5. Ausschreibungsrunde wieder eine offene und eine geschlossene Ausschreibung. Die offene Ausschreibung ist technologie- und branchenoffen für stromeffiziente Projekte. Die geschlossene Ausschreibung fokussiert auf Effizienzmaßnahmen in der Wasser- und Abwassertechnik sowie der Prozesswassernutzung. Auch Kombi-Projekte „Strom-Wärme“, welche neben reinen Stromeinsparungen zusätzlich auch wärmeseitige Effizienzverbesserungen an anderen Energieträger erzielen, können gefördert werden.

Wasser ist eine der am häufigsten verwendeten Ressourcen in der deutschen Industrie mit vielfältigen Einsatzmöglichkeiten je nach Industriezweig. Beispielsweise in der Lebensmittel- und Papierindustrie sowie in der chemischen und pharmazeutischen Industrie ist Wasser ein unersetzlicher Prozessbestandteil. Je nach Anwendungsfall muss das Wasser dabei hohen Qualitätsanforderungen genügen und bedarf mitunter aufwändiger Aufbereitungs- und Reinigungsverfahren. Doch auch bei der nachfolgenden Behandlung des Abwassers kommen energieaufwändige Prozesse zum Einsatz, bevor das Wasser wieder in Fließgewässer oder Seen eingeleitet werden kann.

Die eingesetzten Verfahren sind vielfältig, doch eines haben sie gemeinsam: Sie sind energieintensiv und weisen gleichzeitig hohe Einsparpotenziale auf. STEP up! fokussiert daher in der geschlossenen Ausschreibung Projekte aus dem genannten Bereich und unterstützt Unternehmen bei deren Umsetzung.

STEP up! ist ein Programm des Bundesministeriums für Wirtschaft und Energie. Für die Pilotphase von STEP up! stehen bis zum 31.12.2018 300 Mio. Euro Fördermittel zur Verfügung.

Die neue Förderbekanntmachung, die Merkblätter und Tools sowie Projektbeispiele stehen unter http://www.stepup-energieeffizienz.de zur Verfügung.

Kontakt:
VDI/VDE Innovation + Technik GmbH
Projektträger STEP up!
Steinplatz 1
10623 Berlin
Telefon: 030 310078-5555
Telefax: 030 310078-102
stepup-information@vdivde-it.de

Weitere Informationen:
http://www.stepup-energieeffizienz.de

Quelle: idw

(nach oben)


Alle Pilze sind schon da: Wenn Bäume den Berg hinauf wandern, warten ihre Pilzpartner auf sie

Sabine Wendler Senckenberg Biodiversität und Klima Forschungszentrum Pressestelle
Senckenberg Forschungsinstitut und Naturmuseen

Wenn es durch den Klimawandel in tieferen Lagen wärmer wird, kann sich vielerorts die Baumgrenze nach oben verschieben. An den essentiell wichtigen Pilzpartnern der Bäume soll es jedenfalls nicht liegen, denn die sind bereits jetzt oberhalb der Baumgrenze im Boden auffindbar. Einen Haken hat die Sache allerdings: auch die für die Bäume schädlichen Pilze sind im potentiell neuen Zuhause bereits heimisch. Das hat ein Team der Senckenberg Gesellschaft für Naturforschung und der Goethe-Universität bei der Untersuchung der Zirbelkiefer, die in den Zentralalpen die Baumgrenze bildet, und der mit ihr vergesellschaften Pilze herausgefunden. Die Studie ist im „Journal of Ecology“ erschienen.

Für Bäume sind Mykorrhizapilze extrem wichtig, denn sie optimieren den Wasser- und Nährstofftransport zu den Wurzeln. Insbesondere für Standorte mit geringem Nährstoffgehalt an der Baumgrenze spielen sie daher eine entscheidende Rolle, damit Bäume überhaupt wachsen können. Bei der Zirbelkiefer Pinus cembra trägt beispielsweise der Pilz Rhizopogon salebrosus zum Gedeihen bei. Aber auch für die Pilze lohnt sich die Lebensgemeinschaft. Eine neue Studie zeigt jedoch: Selbst über der Baumgrenze kommen die Pilzpartner des Baumes vor.

„Das war unerwartet. Eigentlich geht man davon aus, dass solche und andere Pilze, die sich in ihrer Lebensweise voll und ganz auf Kiefern spezialisiert haben, nur in deren Nähe überleben können. Ihr Vorkommen sollte daher oberhalb der Baumgrenze signifikant zurückgehen“, so der Erstautor der Studie, Dominik Merges, Senckenberg Biodiversität und Klima Forschungszentrum. Gemeinsam mit Kollegen hatte er in den Schweizer Alpen nahe Davos in Höhen zwischen 1850 und 2250 m Bodenproben genommen und anschließend per Hochdurchsatz-DNA-Analyse die darin befindlichen Organismen bestimmt.

Darüber, wie die Pilze das Überleben ohne ihren Partner oberhalb der Baumgrenze meistern, kann das Team nur spekulieren. „Womöglich können die bisher als Spezialisten geltenden Pilze unter harschen Klimabedingungen mit anderen Pflanzen, beispielsweise Heidesträuchern, kooperieren und sind flexibler als gedacht“, erklärt Dr. Eike Lena Neuschulz, Leiterin des Forschungsprojekts vom Senckenberg Biodiversität und Klima Forschungszentrum. Möglich wäre auch, dass die DNA-Analyse bei genetischen Spuren von Pilzsporen anschlägt. Diese können weit fliegen und für sehr lange Zeit im Boden überdauern.

Die Zirbelkiefer bildet in den Zentralalpen in der Schweiz vielfach die Baumgrenze. Außerdem ist der markante Baum im angrenzenden Alpenraum in Frankreich und Österreich zu finden; in Deutschland gibt es einzelne Bestände in den Bayerischen Alpen. Merges dazu: „Der Baum steht stellvertretend für eine Reihe von Pflanzen, denen potentiell die Flucht nach oben bleibt, um ihrer präferierten klimatischen Nische hinterher zu wandern und sich so an den Klimawandel anzupassen. Unsere Studie zeigt, dass die Pilze diese Verschiebung der Verbreitungsräume nicht behindern.“

Unter den Pilzen, die laut DNA-Analyse oberhalb der bisherigen Baumgrenze im Boden lauern, gibt es jedoch auch jede Menge Gegenspieler der Zirbelkiefer. Kein Entrinnen gibt es daher vor generellen Schädlingen wie Pilzen der Gattung Lophoderminum, die eine Verfärbung der Nadel und deren Abfallen verursachen, oder Gremmenia infestans, ein Pilz, der die Bäume mit der Krankheit Schneeschimmel infiziert. „Zwar können die Bäume wohl mit Pilzunterstützung potentiell oberhalb der bisherigen Baumgrenze wachsen, leicht gemacht wird es ihnen aber trotzdem nicht, sich dort zu etablieren“, bilanziert Neuschulz.

Kontakt
Dr. Eike Lena Neuschulz
Senckenberg Biodiversität und Klima Forschungszentrum
Tel. +49 (0)69- 7542 1872
eike-lena.neuschulz@senckenberg.de

Dominik Merges
Senckenberg Biodiversität und Klima Forschungszentrum
Tel. +49 (0)69- 7542 1873
dominik.merges@senckenberg.de

Sabine Wendler
Pressestelle
Senckenberg Biodiversität und Klima Forschungszentrum
Tel. +49 (0)69- 7542 1818
pressestelle@senckenberg.de

Publikation
Merges, D., Bálint, M., Schmitt, I., Böhning-Gaese, K. and Neuschulz, E. L. (2018): Spatial patterns of pathogenic and mutualistic fungi across the elevational range of a host plant. Journal of Ecology, doi:10.1111/1365-2745.12942

Die Pressebilder können kostenfrei für redaktionelle Berichterstattung zu dieser Pressemeldung verwendet werden unter der Voraussetzung, dass der genannte Urheber mit veröffentlicht wird. Eine Weitergabe an Dritte ist nur im Rahmen der aktuellen Berichterstattung zulässig.

Die Pressemitteilung sowie weiteres Bildmaterial finden Sie auch unter http://www.senckenberg.de/presse

Die Natur mit ihrer unendlichen Vielfalt an Lebensformen zu erforschen und zu verstehen, um sie als Lebensgrundlage für zukünftige Generationen erhalten und nachhaltig nutzen zu können – dafür arbeitet die Senckenberg Gesellschaft für Naturforschung seit nunmehr 200 Jahren. Diese integrative „Geobiodiversitätsforschung“ sowie die Vermittlung von Forschung und Wissenschaft sind die Aufgaben Senckenbergs. Drei Naturmuseen in Frankfurt, Görlitz und Dresden zeigen die Vielfalt des Lebens und die Entwicklung der Erde über Jahrmillionen. Die Senckenberg Gesellschaft für Naturforschung ist ein Mitglied der Leibniz-Gemeinschaft. Das Senckenberg Naturmuseum in Frankfurt am Main wird von der Stadt Frankfurt am Main sowie vielen weiteren Partnern gefördert. Mehr Informationen unter http://www.senckenberg.de

Anhang
Pressemitteilung zum Download
https://idw-online.de/de/attachment64848

Quelle: idw

(nach oben)


BAM überprüft Energieeffizienz von Wärmepumpen

M.A., LL.M./LL.B. Venio Quinque Unternehmenskommunikation
Bundesanstalt für Materialforschung und -prüfung (BAM)

Die Bundesanstalt für Materialforschung und -prüfung (BAM) hat den Energieverbrauch von Wärmepumpen überprüft. Dazu hat das Expertenteam der BAM 20 prominente Modelle verschiedener Hersteller in unabhängigen, akkreditierten Laboratorien untersuchen lassen. Das Fazit der BAM: Bei allen bislang überprüften Modellen gibt es keine Abweichung zwischen Messwert und deklariertem Energiewert auf dem Label.

Im Winter ist ein warmes Zuhause unentbehrlich. Doch wer ausgiebig heizt, wird beim Blick auf die Rechnung oft böse überrascht, denn Heizen verbraucht im Haushalt die meiste Energie. Eine intelligente Heizungstechnik hilft, den Energieverbrauch zu senken. Besonders effizient und gleichzeitig umweltfreundlich funktioniert Heizen mit Wärmequellen aus der Umwelt. Mit einer Wärmepumpe kann dem Erdboden, dem Grundwasser oder der Außenluft Wärme entzogen und für die Raumheizung oder für die Warmwassererzeugung genutzt werden.

Um den Verbraucherinnen und Verbrauchern die Auswahl der richtigen Heizung zu erleichtern, werden in Europa Heizungen in Energieeffizienzklassen eingeteilt. Seit 2012 sind diese für Wärmepumpen verpflichtend. Ob die Produktangaben zum Energieverbrauch richtig sind, überprüfen derzeit Wissenschaftlerinnen und Wissenschaftler der BAM im Projekt Unterstützung der Marktüberwachung am Beispiel von Wärmepumpen. Sie wollen Schwachstellen in den Prüfmethoden aufdecken und die Prüfungen verbessern. Damit wird auch die Marktüberwachung unterstützt.
„Das Einhalten der Vorschriften zu Ökodesign und Energieverbrauchskennzeichnung muss wirksam überwacht werden. Dies erfordert einen hohen Aufwand an technischen Prüfungen, auch, damit die Marktüberwachungsbehörden gerichtsfest nachweisen können, dass das drin ist, was auf dem Produkt draufsteht, auch bei der Energieeffizienz“, so Dr. Floris Akkerman, Leiter des BAM-Referats Ökodesign und Energieverbrauchskennzeichnung.

Im Projekt Unterstützung der Marktüberwachung arbeiten die Wissenschaftlerinnen und Wissenschaftler der BAM eng mit den Marktüberwachungsbehörden der Länder zusammen, denn: Marktüberwachung obliegt den Ländern. Die Erkenntnisse aus dem Projekt sollen die Marktüberwachungsbehörden unterstützen und helfen, gleiche Wettbewerbsbedingungen im Markt zu fördern. Gleichzeitig soll das Vertrauen der Verbraucherinnen und Verbraucher in die Angaben zur Energieeffizienz auf den Etiketten und Datenblättern gestärkt werden.
Das Projekt Unterstützung der Marktüberwachung ist eine von vielen Maßnahmen im Nationalen Aktionsplan Energieeffizienz (NAPE) der Bundesregierung. Das Ziel von NAPE ist es den Primärverbrauch bis 2050 zur halbieren. Weitere Informationen zum Projekt NAPE finden Sie unter www.bam.de/nape

Kontakt:
Venio Quinque, M.A., LL.M./LL.B.
Leiter Referat Unternehmenskommunikation
Bundesanstalt für Materialforschung und -prüfung (BAM)
T: + 49 30 8104-1002
presse@bam.de
www.bam.de

Über die BAM
Die BAM gewährleistet Sicherheit in Technik und Chemie.
Die Bundesanstalt für Materialforschung und -prüfung (BAM) ist eine Bundesoberbehörde im Geschäftsbereich des Bundesministeriums für Wirtschaft und Energie.
Die BAM forscht, prüft und berät zum Schutz von Mensch, Umwelt und Sachgütern. Im Fokus aller Tätigkeiten in der Materialwissenschaft, der Werkstofftechnik und der Chemie steht dabei die technische Sicherheit von Produkten und Prozessen. Dazu werden Substanzen, Werkstoffe, Bauteile, Komponenten und Anlagen sowie natürliche und technische Systeme von volkswirtschaftlicher Dimension und gesellschaftlicher Relevanz erforscht und auf sicheren Umgang oder Betrieb geprüft und bewertet. Die BAM entwickelt und validiert Analyseverfahren und Bewertungsmethoden, Modelle und erforderliche Standards und erbringt wissenschaftsbasierte Dienstleistungen für die deutsche Wirtschaft im europäischen und internationalen Rahmen.
Sicherheit macht Märkte.

Die BAM setzt und vertritt für Deutschland und seine globalen Märkte hohe Standards für Sicherheit in Technik und Chemie zur Weiterentwicklung der erfolgreichen deutschen Qualitätskultur „Made in Germany“.

Weitere Informationen:
http://www.bam.de/nape

Quelle: idw

(nach oben)


Warum der Chef immer Schuld ist – Studie zur Verteilung von Lob und Tadel

Anneliese Odenthal Presse und Kommunikation
Universität zu Köln

Sozialer Status spielt bei positiver oder negativer Beurteilung von handelnden Personen eine wichtigere Rolle als gedacht

In einem Experiment von Kölner und Bochumer Forschern und Forscherinnen zeigte sich, dass bei der Zuschreibung von Lob und Tadel, anders als bislang angenommen, der soziale Status der handelnden Person entscheidend ist und nicht die Tatsache, wie viel Einfluss eine Person aktiv auf die Situation genommen hat. Die Ergebnisse beschreiben der Psychologe Prof. Dr. Dr. Kai Kaspar von der Universität zu Köln und die Philosophen Prof. Dr. Albert Newen und Dr. Pascale Willemsen von der Ruhr-Universität Bochum gemeinsam in der Zeitschrift „Philosophical Psychology“.

„In der Ethik wird typischerweise angenommen, dass für die Menge an Lob und Tadel, die jemand verdient, drei Faktoren relevant sind: was er getan hat, wie schlimm die Konsequenzen seines Handelns für andere sind, und welche Absichten er verfolgt hat“, sagt Pascale Willemsen. „Aber so läuft es in der Praxis nicht.“ Die Untersuchung konnte zeigen, dass ein Chef für negative Konsequenzen seines Handelns deutlich mehr getadelt wird als ein Mitarbeiter, dessen Handeln gleiche Konsequenzen nach sich zog.
„Diese Asymmetrie in der Zuschreibung von Lob und Tadel und auch eine gewisse Kulturunabhängigkeit des Effekts konnten wir bereits in früheren Studien zeigen. Die zugrundeliegenden Bewertungsprozesse sind für lokal wie global operierende Unternehmen daher hoch interessant“, ergänzt Kai Kaspar.
Bisherige Theorien waren davon ausgegangen, dass nur der Grad, zu dem man etwas kausal beeinflussen kann, die Zuschreibung von Lob und Tadel beeinflusst. „Der bisherigen Theorie nach erhielte der Chef nur deswegen mehr Tadel als der Arbeitnehmer, weil er die Entscheidung gefällt hat und somit mehr kausalen Einfluss in der Situation hat“, erklärt Kai Kaspar. Die soziale Rolle als Boss hätte nach dieser Theorie keinen Einfluss.
Willemsen, Newen und Kaspar testeten genau diese Annahme in einer Online-Studie mit Probanden aus den USA. Die Teilnehmerinnen und Teilnehmer mussten Stellung zu folgender Situation nehmen: Nicht der Chef, sondern ein Angestellter trifft eine wichtige Entscheidung im Unternehmen. Sowohl dem Angestelltem als auch dem Boss ist dabei bewusst, dass die Entscheidung zwar im Interesse der Firma ist, aber negative Nebeneffekte für die Umwelt haben wird. Beiden sind diese explizit egal.
In dem Experiment erhielt der Chef mehr Tadel als der Angestellte, obwohl er die Entscheidung gar nicht selbst getroffen hatte. „Wir haben nun guten Grund zu der Annahme, dass die soziale Rolle wesentlich mit darüber entscheidet, wie viel Tadel wir einer Person für negative Konsequenzen zuschreiben. Die philosophische Ethik vernachlässigt die soziale Verankerung ethischer Beurteilungen bislang. Dabei zeigen empirische Befunde, dass Menschen ihre moralischen Urteile auf andere Weise fällen, als Moralphilosophen es gerne hätten“, resümiert Albert Newen.

Originalveröffentlichung
Willemsen, P., Newen, A. & Kaspar, K. (2018). A new look at the attribution of moral responsibility: The underestimated relevance of social roles. Philosophical Psychology. https://doi.org/10.1080/09515089.2018.1429592

Inhaltlicher Kontakt:
Prof. Dr. Dr. Kai Kaspar
Institut für Psychologie
Humanwissenschaftliche Fakultät
Universität zu Köln
+49 221 470 6828
kkaspar@uni-koeln.de

Prof. Dr. Albert Newen
Institut für Philosophie II
Fakultät für Philosophie und Erziehungswissenschaft
Ruhr-Universität Bochum
+49 234 32 22139
albert.newen@rub.de

Dr. Pascale Willemsen
Institut für Philosophie II
Fakultät für Philosophie und Erziehungswissenschaft
Ruhr-Universität Bochum
+49 234 32 28724
pascale.willemsen@rub.de

Presse und Kommunikation:
Jan Voelkel
+49 221 470-2356
j.voelkel@verw.uni-koeln.de

Quelle: idw

(nach oben)


Da haben wir den Salat: Erste Ernte aus aufbereitetem Abwasser im Forschungsprojekt HypoWave

Melanie Neugart Wissenskommunikation und Öffentlichkeitsarbeit
ISOE – Institut für sozial-ökologische Forschung

Salatpflanzen nur mit gereinigtem Abwasser versorgen und eine hochwertige Ernte erzielen – geht das? Im Forschungsprojekt „HypoWave“ wurden erstmals Setzlinge in einem hydroponischen Verfahren angepflanzt und mit speziell aufbereitetem Bewässerungswasser aus einer Kläranlage versorgt. Die Ernte aus dem bisherigen Anbau zeigt erste gute Ergebnisse für die Umsetzbarkeit. Vor dem Hintergrund des hohen Wasserverbrauchs in der Landwirtschaft setzt das vom Bundesministerium für Bildung und Forschung (BMBF) geförderte Projekt auf eine wassersparende Pflanzenproduktion.

Dazu werden in einem Gewächshaus auf der HypoWave-Pilotanlage bei Wolfsburg seit Sommer 2017 Salatsetzlinge in einem hydroponischen Verfahren angebaut. Die Setzlinge kommen in ihren Pflanzengefäßen ohne Erde aus, dadurch versickert kein Bewässerungswasser in den Boden und es verdunstet weniger. Das macht die hydroponische Pflanzenproduktion zu einem wassersparenden Anbauverfahren. Das Forschungsprojekt HypoWave zielt darauf, die Effizienz dieser Anbauform noch zu erhöhen, indem speziell aufbereitetes Wasser aus kommunalem Abwasser verwendet wird.

Mit der Wiederverwendung von Wasser kann nicht nur die Ressource geschützt werden. Auch die im Abwasser enthaltenen Nährstoffe bieten sich für ein gesundes Pflanzenwachstum an. „Die ersten Ergebnisse zeigen, dass schon bei geringer Nährstoffzufuhr ein gutes Wachstum der Salatpflanzen erzielt werden kann“, sagt Projektleiter Thomas Dockhorn vom Institut für Siedlungswasserwirtschaft der TU Braunschweig. „Wir konnten fast alle notwendigen Nährstoffe, wie Stickstoff und Phosphor, aus dem Abwasser bereitstellen und unerwünschte Stoffe reduzieren.“ Mit Blick auf einen effizienten Nährstoffeinsatz sei das ein gutes Ergebnis.

Wasserwiederverwendung in der Landwirtschaft schont die Ressource
In der kommenden Vegetationsperiode soll das System durch technische Anpassungen der Abwasserbehandlungsstufen noch weiter optimiert werden. Zudem werden die Analysen möglicher organischer Spurenstoffe und mikrobiologische Untersuchungen zur Keimbelastung weitergeführt. Das interdisziplinäre Forschungsteam wird sich auch mit der Frage beschäftigen, wie effizient bei dieser Form der Bewirtschaftung die Ressource Wasser genutzt werden kann. „Durch die Verwendung von Abwasser und die Vermeidung von Wasserverlusten durch Versickern und Verdunsten können wir den Druck auf die Ressource im doppelten Sinne reduzieren“, sagt Thomas Dockhorn. Das sei nicht unerheblich mit Blick auf den weltweiten Wasserverbrauch in der Landwirtschaft, der bei bis zu 70 Prozent liegt.

Ein weiterer Schwerpunkt des Forschungsprojekts gilt der Vorbereitung für die praktische Anwendung. In Zeiten des Klimawandels und steigender Wasserknappheit werden neue, ressourcenschonende Produktionsverfahren weltweit attraktiv. „Eine technische Innovation alleine ist aber nicht überlebensfähig ohne die notwendigen Rahmenbedingungen und ohne neue Geschäftsmodelle“, sagt Projektkoordinatorin Martina Winker vom ISOE – Institut für sozial-ökologische Forschung in Frankfurt. „Wir entwickeln deshalb schon in der Projektlaufzeit tragfähige Kooperationsformen zwischen Siedlungswasserwirtschaft und Landwirtschaft für diese spezielle Variante der Pflanzenproduktion.“ Hierfür werden zur Übertragung des Konzepts Fallstudien in Deutschland, Belgien und Portugal durchgeführt.

Über das Forschungsprojekt HypoWave
Das Verbundprojekt „Einsatz hydroponischer Systeme zur ressourceneffizienten landwirt-schaftlichen Wasserwiederverwendung (HypoWave)“ wird vom Bundesministerium für Bildung und Forschung (BMBF) im Rahmen der Maßnahme WavE gefördert. Die Projektpartner im Forschungsverbund unter der Leitung der Technischen Universität Carolo-Wilhelmina zu Braunschweig, Institut für Siedlungswasserwirtschaft (ISWW), sind das ISOE – Institut für sozial-ökologische Forschung, das Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik IGB, die Universität Hohenheim (UHOH), der Abwasserverband Braunschweig (AVB), WEB – Wolfsburger Entwässerungsbetriebe, ACS-Umwelttechnik GMBH & Co. KG, aquadrat ingenieure (a2i), aquatectura – studios for regenerative landscapes, aquatune – Dr. Gebhardt & Co. GmbH, BIOTEC Biologische Naturverpackungen GmbH und Co. KG sowie Xylem Services GmbH (Xylem). Die dreijährige Laufzeit von HypoWave endet am 31. August 2019.

Projektleitung
Technische Universität Braunschweig, Institut für Siedlungswasserwirtschaft
Prof. Dr.-Ing. Thomas Dockhorn
Pockelsstr. 2a
38106 Braunschweig
Tel. +49 531 391-7937
t.dockhorn@tu-braunschweig.de
www.tu-braunschweig.de/isww

Medienkontakt
Melanie Neugart
ISOE – Institut für sozial-ökologische Forschung (Projektpartner)
Hamburger Allee 45
60486 Frankfurt am Main
Tel. +49 69 707 6919-51
neugart@isoe.de
www.isoe.de

Weitere Informationen:
Ausführliche Informationen zum Forschungsprojekt unter www.hypowave.de
Zudem finden Sie Bildmaterial zu Ihrer Verwendung unter https://www.flickr.com/photos/102295333@N04/albums/72157688518183561
Anhang
Da haben wir den Salat: Erste Ernte aus aufbereitetem Abwasser im Forschungsprojekt HypoWave
https://idw-online.de/de/attachment64757

Quelle: idw

(nach oben)


Neue IOW-Studie: Birgt Mikroplastik zusätzliche Gefahren durch Besiedlung mit schädlichen Bakterien?

Dr. Kristin Beck Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Ostseeforschung Warnemünde

Die alarmierende Allgegenwart von Mikroplastik in Flüssen, Seen und Ozeanen steht zunehmend im Fokus der Forschung. Bislang gab es aber keine gesicherten Erkenntnisse, ob Mikroplastik in Wasserökosystemen die Entstehung spezieller Bakteriengemeinschaften oder gar die Ausbreitung von Krankheitserregern fördert. Mit diesem Thema hat sich das Projekt MikrOMIK* unter Federführung des IOW befasst. In einer neuen Studie im Rahmen des Projektes wurde nun erstmals systematisch untersucht, ob sich bakterielle Biofilme auf Mikroplastik von denen auf natürlichen Materialien unterscheiden und welchen Einfluss verschiedene Umweltfaktoren dabei haben – etwa Salzgehalt oder Nährstoffe im umgebenden Wasser.

Mikroplastik – Kunststoffteilchen kleiner als 5 Millimeter – kann mittlerweile überall in der Umwelt nachgewiesen werden. In Meeren und Flüssen werden viele 100.000 Teilchen pro Quadratkilometer gefunden, und das nicht nur in der Nachbarschaft zu Zivilisationshotspots, wie etwa im Nordatlantik vor New York oder im Mündungsbereich des Rheins mit seinen insgesamt rund 60 Mio. Einwohnern im Einzugsgebiet. Auch fernab jeder menschlichen Besiedlung im arktischen Eis, den Sedimenten der Tiefsee oder mitten im Pazifik findet sich der Minimüll in riesigen Mengen. Nicht nur seine Allgegenwart hat die Wissenschaft alarmiert, sondern auch erste Befunde über die Schädlichkeit der Partikel, die Umweltgifte an ihrer Oberfläche anreichern und Tiere schädigen können, die Mikroplastik mit der Nahrung aufnehmen.

„Obwohl sich die Forschung seit fast 15 Jahren verstärkt mit dem Phänomen der Mikroplastikanreicherung in den Meeren beschäftigt, ist erstaunlich wenig darüber bekannt, welchen Einfluss die Teilchen auf Ökosysteme haben und welches Schadpotenzial tatsächlich von ihnen ausgeht“, sagt Mikrobiologe Matthias Labrenz vom Leibniz-Institut für Ostseeforschung Warnemünde (IOW) und Leiter des Projekts MikrOMIK*, das sich über drei Jahre intensiv mit der Rolle von Mikroplastik in der Ostsee und seiner Interaktion mit verschiedenen Organismen befasst hat. Von besonderem Interesse war, welche Mikroorganismen sich auf Mikroplastik ansiedeln. Denn die im Wasser treibenden Partikel bieten trotz ihrer geringen Größe eine feste Oberfläche, auf der sich wie bei natürlichen Treibseln dichte Biofilme bilden können. „Zum einen beschäftigt uns die Frage, ob es Bakterien gibt, die sich auf die Besiedlung von Plastik spezialisiert haben. Zum anderen gab es beunruhigende Einzelbeobachtungen, die darauf hindeuteten, dass sich gesundheitsbedrohliche Keime wie etwa Wundbrand verursachende Vibrionen auf Mikroplastik anreichern könnten“, sagt Labrenz. Solche Krankheitserreger gehören zur normalen Bakterienflora im Meer. Verdünnt im freien Wasser seien sie meist unproblematisch. „Eine Anreicherung als Biofilm auf Mikroplastik könnte sie deutlich gefährlicher machen, da die Plastikpartikel schneller und weiter verdriftet werden als einzelne Bakterienzellen, was eine Ausbreitung der Pathogene fördern und damit die Gefahren durch Mikroplastik für den Menschen erhöhen würden“, so der IOW-Forscher.

Um zu klären, ob sich Biofilme auf Kunststoff überhaupt von solchen auf natürlichem Material unterscheiden und welche Umweltfaktoren sich auf ihre Zusammensetzung auswirken, setzte Sonja Oberbeckmann, ebenfalls IOW-Wissenschaftlerin und Autorin der kürzlich im Rahmen von MikrOMIK* publizierten neuen Studie, Pellets aus Plastik und Holz in einem Feldversuch verschiedenen Umweltbedingungen aus. Diese deckten einen Gradienten von einer nährstoffarmen, salzigen Meeresumwelt in der Ostsee über zunehmenden Süßwassereinfluss in der Warnow-Mündung bis hin zu nährstoffreichen Süßwasserbedingungen in der Unterwarnow und in einem Klärwerk ab. Die auf den Pellets neu entstehenden Biofilme wurden nach zweiwöchiger Inkubation im Freiland genetisch charakterisiert, um ihre Zusammensetzung vergleichen zu können.

„Eine gute Nachricht vorweg: Wir haben zwar Vibrionen in unseren Proben gefunden, allerdings haben sie sich nicht auf Plastik angereichert. Im Gegenteil: Wir konnten sogar zeigen, dass sie dort im Vergleich zu natürlichen Partikeln in geringeren Anzahlen vorkommen“, kommentiert Projektleiter Matthias Labrenz die Ergebnisse. „Dies passt zu Ergebnissen vorangegangener MikrOMIK*-Studien. Die haben untersucht, ob Miesmuscheln und Wattwürmer, beides Organismen, die im Meer häufig und als natürliche Vibrionen-Träger bekannt sind, Mikroplastikpartikel in ihrem Verdauungstrakt mit Vibrionen anreichern. Dies war nicht der Fall“, so Labrenz weiter.

„Ein anderer Befund unserer aktuellen Freiland-Studie in Warnow und Ostsee verdient allerdings besondere Aufmerksamkeit“ fügt Sonja Oberbeckmann hinzu. „Im Klärwerk hat sich die Bakteriengattung ‚Sphingopyxis‘ verstärkt auf Plastik angesiedelt, die häufig Antibiotika-Resistenz ausbildet. Mikroplastik-Partikel sind also möglicherweise Hotspots für die Weitergabe von solch potenziell gefährlichen Resistenzen. In welchem Umfang dies geschieht und ob diese Prozesse ein Umweltrisiko darstellen, dazu haben wir gerade neue Untersuchungen gestartet“, so die Mikrobiologin. Das Forscherteam konnte auch andere Bakterien identifizieren, die sich vermutlich auf die Besiedlung von Plastik spezialisiert haben. „Interessant sind beispielsweise die Vertreter der Gattung ‚Erythrobacter‘, denn sie können giftige polyzyklische aromatische Kohlenwasserstoffe abbauen, die sich durch menschliche Aktivitäten weltweit in der Umwelt finden und die sich aufgrund ihrer chemischen Eigenschaften verstärkt an Mikroplastik anlagern“, erläutert Oberbeckmann.

Ob sich auf Mikroplastik spezielle Bakteriengemeinschaften entwickeln oder nicht, hängt aber im Wesentlichen von den jeweiligen Umweltbedingungen ab. An den nährstoffreichen Stationen des Freilandexperiments habe man in den Biofilmen – egal ob auf Holz oder Kunststoff – viele der „üblichen Verdächtigen“ gefunden, die eine sesshafte Lebensweise auf Partikeln gegenüber dem Leben im Freiwasser bevorzugen, so Sonja Oberbeckmann. An vergleichsweise nährstoffarmen Stationen dagegen bildeten sich auf Mikroplastik Bakteriengemeinschaften, die sich von den natürlichen Gemeinschaften deutlich unterschieden. Ein endgültiges Fazit, ob Mikroplastik zusätzliche Gefahren durch die Besiedlung mit Bakterien birgt, können beide IOW-Forscher nicht ziehen. „Unsere Ergebnisse deuten aber darauf hin, dass Plastikverschmutzung in nährstoffarmer Umgebung eine weitaus höhere ökologische Relevanz hat, als bisher vermutet. Denn dort wird tatsächlich die Entstehung spezieller Plastik-Bakterienpopulationen gefördert. Dies gilt insbesondere für die Plastikakkumulationsgebiete im Meer wie beispielsweise die riesigen Plastikstrudel im Atlantik“, so Sonja Oberbeckmann und Matthias Labrenz abschließend.

#Wichtige Originalpublikationen im Rahmen von MikrOMIK*
(*kurz für „Die Rolle von Mikroplastik als Träger mikrobieller Populationen im Ökosystem Ostsee“, mehr unter http://www.io-warnemuende.de/mikromik-home.html):

– Oberbeckmann, S., Kreikemeyer, B., Labrenz, M. (2018): „Environmental Factors Support the Formation of Specific Bacterial Assemblages on Microplastics“, Frontiers in Microbiology 8:2709, http://doi.org/10.3389/fmicb.2017.02709

– Kesy, K., Hentzsch, A., Klaeger, F., Oberbeckmann, S., Mothes, S., Labrenz, M. (2017): „Fate and stability of polyamide-associated bacterial assemblages after their passage through the digestive tract of the blue mussel Mytilus edulis“, Marine Pollution Bulletin 125, 132-138

– Kesy, K., Oberbeckmann, S., Müller, F., Labrenz, M. (2016): „Polystyrene influences bacterial assemblages in Arenicola marina-populated aquatic environments in vitro“, Environmental Pollution 219, 219-227

#Fragen zur Studie beantworten:
Dr. Sonja Oberbeckmann | 0381 5197 3464 | sonja.oberbeckmann@io-warnemuende.de
PD Dr. Matthias Labrenz | 0381 5197 378 | matthias.labrenz@io-warnemuende.de

#Kontakt Presse- & Öffentlichkeitsarbeit:
Dr. Kristin Beck | Tel.: 0381 – 5197 135 | kristin.beck@io-warnemuende.de
Dr. Barbara Hentzsch | Tel.: 0381 5197-102 | Barbara.Hentzsch@io-warnemuende.de

Das IOW ist Mitglied der Leibniz-Gemeinschaft, zu der zurzeit 91 Forschungsinstitute und wis-senschaftliche Infrastruktureinrichtungen für die Forschung gehören. Die Ausrichtung der Leibniz-Institute reicht von den Natur-, Ingenieur- und Umweltwissenschaften über die Wirtschafts-, Sozial- und Raumwissenschaften bis hin zu den Geisteswissenschaften. Bund und Länder fördern die Institute gemeinsam. Insgesamt beschäftigen die Leibniz-Institute etwa 18.100 MitarbeiterInnen, davon sind ca. 9.200 WissenschaftlerInnen. Der Gesamtetat der Institute liegt bei mehr als 1,6 Mrd. Euro. (http://www.leibniz-gemeinschaft.de)

Quelle: idw

(nach oben)


Faking in Bewerbungsgesprächen: Wer übertreibt, gewinnt – und ist oft besonders leistungsfähig

Annika Bingmann Pressestelle
Universität Ulm

Faking in Auswahlgesprächen ist ein verbreitetes Phänomen: Über 90 Prozent der Bewerber geben an, in solchen Gesprächen vermeintlich erwünschte Antworten zu geben, um einen besseren Eindruck zu machen. Nun konnten Psychologen der Universität Ulm und der University of Missouri – St. Louis (USA) erstmals zeigen, dass Kandidaten, die Faking einsetzen, wirklich besser beurteilt werden. Dennoch trägt Faking nicht unbedingt dazu bei, dass die „falschen“, weniger qualifizierten Bewerber ausgewählt werden.

Der Traumjob oder der gefragte Masterstudienplatz scheinen zum Greifen nahe: Da ist die Versuchung groß, beim Bewerbungsgespräch vermeintlich erwünschte Antworten zu geben und dabei vielleicht sogar die eigenen Qualifikationen zu erhöhen. Psychologen der Universität Ulm haben „Faking“ in Auswahlgesprächen untersucht und konnten zeigen: Kandidaten, die ihre Antworten den vermuteten Anforderungen angleichen, werden tatsächlich besser beurteilt. Dennoch müssen Personaler dieses Verhalten nicht fürchten, denn die Studie zeigt: Erfolgreiches Faking lässt auf eine hohe kognitive Leistungsfähigkeit schließen.

Die Ausgangslage ist so bekannt wie scheinbar ungerecht: Beim Bewerbungsgespräch weiß ein Kandidat seine mittelmäßigen Leistungen ins rechte Licht zu rücken und bekommt die Stelle. Sein eigentlich qualifizierterer Mitbewerber, der grundehrlich auf die Fragen des Personalers antwortet, erhält eine Absage. Bisherige Studien zum Thema Faking haben ergeben, dass über 90 Prozent der Bewerber ihre Antworten in Auswahlgesprächen anpassen, um einen besseren Eindruck zu machen – und deshalb womöglich auch übertreiben. Für Interviewer ist dieses Verhalten nur schwer zu erkennen. Doch mindert Faking überhaupt die Qualität eines Auswahlprozesses? Psychologen aus Ulm und St. Louis (USA) haben erforscht, inwiefern Personen, die Faking in Interviews einsetzen, tatsächlich besser beurteilt werden als ihre „ehrlichen“ Mitbewerber. Weiterhin erhoben die Wissenschaftler um Dr. Anne-Kathrin Bühl und Professor Klaus Melchers, Leiter der Ulmer Abteilung für Arbeits- und Organisationspsychologie, die (vor allem kognitiven) Fähigkeiten der Studienteilnehmer. „Bisher gab es zahlreiche Studien, die belegen, dass Bewerber in Persönlichkeitstests durch Faking ein deutlich positiveres Bild abgeben. Inwieweit Faking in Auswahlgesprächen jedoch ebenfalls zu besseren Leistungsbeurteilungen führt und ob es die Vorhersagekraft dieser Gespräche beeinträchtigt, war bis jetzt völlig unklar“, erläutert Professor Klaus Melchers.

Um Faking in Auswahlgesprächen auf die Spur zu kommen, haben die Forscher umfangreiche Erhebungen mit 111 studentischen Probandinnen und Probanden durchgeführt. Alle Studienteilnehmer wurden zu jeweils zwei Interviews eingeladen, durch die ihre akademische Leistungsfähigkeit eingeschätzt werden sollte. Bei einem Gespräch erhielten sie die Anweisung, sich bestmöglich, als idealer Bewerber für ein hochselektives Masterprogramm zu präsentieren. Darüber hinaus wurde gutes Abschneiden mit Geldpreisen belohnt. Ein weiteres Interview, bei dem vergleichbare Fragen gestellt wurden, lief in deutlich entspannterer Atmosphäre ab: In diesem Fall wurden die Probanden instruiert, ehrlich über ihr Studienverhalten zu berichten. Dabei sollten die Rahmenbedingungen ein „realistisches“ Antwortverhalten fördern. Zwischen den beiden Gesprächen, die von interviewerfahrenen Universitätsmitgliedern geführt und bewertet wurden, lagen mindestens zehn Tage. Zuvor hatten die Studienteilnehmer einen Online-Fragebogen zu Persönlichkeitsmerkmalen, demographischen Variablen und ihrem Notendurchschnitt ausgefüllt. Weitere Hinweise auf ihre Studienleistung gaben Einschätzungen von Kommilitonen.

„Faking erfordert ein hohes Ausmaß an kognitiven Fähigkeiten: Bewerber müssen blitzschnell die Ziele des Interviewers erkennen und eine Antwort formulieren, die zum bisherigen Wissen des Gesprächspartners über ihre Person passt“, erklären die Autoren. Deshalb absolvierten alle Probanden einen zusätzlichen Intelligenztest sowie den so genannten ATIC-Test (Ability to identify Criteria), der Rückschlüsse auf ihre Fähigkeit erlaubt, Bewertungskriterien korrekt zu identifizieren. Um Faking statistisch nachzuweisen und Auswirkungen nachzuvollziehen, wurden die bewerteten Antworten aus beiden Gesprächen gegenübergestellt sowie mit den Resultaten der weiteren Erhebungen, etwa zur Leistungsfähigkeit im Studium, verglichen.

Die Ergebnisse der Arbeits- und Organisationspsychologen dürften Personaler insgesamt beruhigen: „Tatsächlich sind Bewerber besser beurteilt worden, wenn sie „Faking“ einsetzten. Das Ausmaß der Verbesserung hing jedoch systematisch mit dem Abschneiden beim Intelligenz- sowie ATIC-Test zusammen“, erklärt Dr. Anne-Kathrin Bühl. Womöglich trägt Faking also gar nicht dazu bei, dass die „falschen“ Bewerber mit weniger Potenzial ausgewählt werden. In der aktuellen Studie ließ sich die Studienleistung von Personen sogar besser anhand des Interviews unter „Faking-Bedingungen“ vorhersagen. Eine bessere Vorhersage der so genannten kontextbezogenen Leistung im Studium, die beispielsweise das freiwillige Engagement und Hilfsbereitschaft umfasst, lieferte jedoch das „ehrliche“ Interview. Demnach mindert Faking nicht unbedingt die Aussagekraft von Bewerbungsgesprächen. Vielmehr kommt es darauf an, auf welche Leistungsdimensionen Interviewer schließen wollen. Die Studie ist im Journal of Business and Psychology erschienen.

Weitere Informationen:
Prof. Dr. Klaus Melchers: Tel.: 0731/50-31740, klaus.melchers@uni-ulm.de
Dr. Anne-Kathrin Bühl: anne-kathrin.buehl@alumni.uni-ulm.de

Anne-Kathrin Buehl and Klaus G. Melchers, Therese Macan, Jana Kuehnel: Tell me sweet little lies: How does faking in interviews affect interview scores and interview validity? Journal of Business and Psychology. doi:10.1007/s10869-018-9531-3

Quelle: idw

(nach oben)


Anstatt Abfackeln: Erdölbegleitgas als Rohstoff nutzen

Dr. Karin J. Schmitz Abteilung Öffentlichkeitsarbeit
Gesellschaft Deutscher Chemiker e.V.

Bei der Erdölförderung fällt stets ein Gas als Nebenprodukt an. Derzeit wird es verbrannt oder abgeblasen. Dabei gelangen das klimaschädigende Methan und Schadstoffe wie Schwefelwasserstoff und Schwermetalle in die Atmosphäre. Stattdessen ließe sich das Begleitgas als Rohstoff für die chemische Industrie nutzen. Gereinigtes Gas kann zudem in Blockheizkraftwerken elektrische Energie und Wärme erzeugen. Wie Erdölbegleitgas sich abtrennen und nutzt lässt, steht in den „Nachrichten aus der Chemie“.

Erdölbegleitgas ist bei hohem Druck im Erdinneren im Erdöl gelöst und entweicht während der Förderung des Öls. Das Gas besteht typischerweise aus Methan, Kohlenstoffdioxid, Stickstoff, weiteren Komponenten wie Aromaten und Spuren von Schwermetallen. Weltweit wurden im Jahr 2011 zirka 140 Milliarden Kubikmeter Erdölbegleitgas abgefackelt – das entspricht so viel Kohlenstoffdioxid wie 77 Millionen Autos pro Jahr emittieren. Klimaschädigend wirkt zudem das Treibhausgas Methan, das beim Abblasen in die Luft gelangt. Umweltfreundlicher und wirtschaftlich sinnvoller wäre es, das Erdölbegleitgas energetisch und stofflich zu nutzen.

Nach Förderung aus dem Bohrloch wird Erdölbegleitgas vom Roherdöl und Lagerstättenwasser abgetrennt und je nach Verwendung gereinigt. Daraufhin ist die technisch einfachste Verwertung, aus dem Gas in einem Blockheizkraftwerk elektrische Energie und Wärme zu erzeugen. Eingespeist in das örtliche Energienetz lässt sich das gereinigte Erdölbegleitgas zudem für Heizung und Warmwasser verwenden. Für die stoffliche Nutzung kann das im Gas enthaltene Kohlenstoffdioxid mit der trockenen Methanreformierung zu Synthesegas umgesetzt werden. Aus diesem kann die chemische Industrie dann Folgeprodukte herstellen.

Julian Zenner, Gunter Hördt und Volkmar M. Schmidt erläutern in den „Nachrichten aus der Chemie“, welche Schritte das Erdölbegleitgas vom Bohrloch bis zur Verwertung durchläuft, und welche Möglichkeiten es derzeit zur energetischen und stofflichen Nutzung gibt. Die PDF-Datei des Beitrags gibt es bei der Redaktion der „Nachrichten aus der Chemie“ unter nachrichten@gdch.de.

Nahezu 60.000 anspruchsvolle Chemiker und Chemikerinnen aus Wissenschaft, Wirtschaft und Lehre informieren sich mit den „Nachrichten“ über Entwicklungen in der Chemie, in angrenzenden Wissenschaften sowie über gesellschaftliche und wirtschaftliche Aspekte. Kennzeichen der Zeitschrift der Gesellschaft Deutscher Chemiker sind das breite Spektrum der Berichte sowie das einmalige Informationsangebot an Personalien, Veranstaltungs- und Fortbildungsterminen.

Weitere Informationen:

nachrichten@gdch.de
http://www.nachrichtenausderchemie.de

Quelle: idw

(nach oben)


Einmal dick – immer dick?

Giulia Roggenkamp Pressestelle
Stiftung Kindergesundheit

Praktische Empfehlungen der Stiftung Kindergesundheit zur Vorbeugung gegen Übergewicht im Kindesalter

Die immense Zunahme von Fettsucht bei Kindern übertrifft alle früheren Annahmen und ist zu einer dramatischen Bedrohung ihrer Gesundheit geworden. Übergewicht und Adipositas haben epidemische Ausmaße angenommen und müssen von Gesellschaft und Politik konsequenter als bisher bekämpft werden, fordert die Stiftung Kindergesundheit in einer aktuellen Stellungnahme.

„Die Häufigkeit von Übergewicht und Adipositas bei Kindern und Jugendlichen hat in den letzten 40 Jahren um mehr als das Achtfache zugenommen! Das hat enorme Konsequenzen für die Gesundheit der betroffenen Kinder“, berichtet Professor Dr. Berthold Koletzko, Stoffwechselexperte der Universitätskinderklinik München und Vorsitzender der Stiftung Kindergesundheit. Die bestürzende Zahl stammt aus einer kürzlich publizierten Analyse von 416 Studien mit mehr als 160 Millionen Kindern und Jugendlichen aus 200 Ländern. Danach hat der Anteil der fettsüchtigen Mädchen von 0,7 Prozent im Jahr 1975 auf 5,6 Prozent im Jahr 2016 und bei Jungen von 0,9 Prozent auf 7,8 Prozent zugenommen.

Nach den für Deutschland repräsentativen Daten der großen bundesweiten Erhebung KiGGS sind hierzulande 15 Prozent der 3- bis 17-jährigen Kindern übergewichtig und 6,3 Prozent adipös, also regelrecht fettsüchtig. Übergewicht und Fettsucht im Kindesalter haben jedoch erhebliche Folgen für die Gesundheit bis in das Erwachsenenalter und sind mit einer deutlich verkürzten Lebenserwartung verbunden, stellt die Stiftung Kindergesundheit fest.

Gefährlicher als Krebs
„Übergewicht ist mehr als Babyspeck, Posaunenengel leben gefährlich“, sagt Professor Koletzko. Die Liste von möglichen gesundheitlichen Folgen von Übergewicht und Adipositas ist lang. Sie reicht von Diabetes, Bluthochdruck, Herzinfarkt und Schlaganfall über Leberzirrhose, Erkrankungen des Muskel- und Skelettsystems und bestimmte Krebsarten bis zu psychischen Belastungen, einer beeinträchtigten Leistungsfähigkeit und Depressivität.

Nach aktuellen Studien erhöht sich bei fettsüchtigen Jugendlichen im Vergleich zu Gleichaltrigen mit Normalgewicht im Laufe der nächsten vierzig Jahre ihres Lebens das Risiko für den Tod um das 4,9-fache und für den Tod durch alle Herz-Kreislauf-Ursachen um das 3,5-fache. Im Vergleich zu normalgewichtigen Kindern haben übergewichtige Jugendliche außerdem ein 1,4-fach und Adipöse ein 2,5-fach erhöhtes Risiko für psychische Auffälligkeiten. Übergewicht bei jungen Erwachsenen verkürzt ihr Leben um 2,5 Jahre, bei einer Adipositas leichten Grades um knapp sechs Jahre, bei schwerer Fettsucht sechs bis acht Jahre. Professor Berthold Koletzko: „Das bedeutet, dass eine schwer ausgeprägte Adipositas das Leben stärker verkürzt als manche bösartige Erkrankung“.

Dicke Kinder werden nicht schlank
„Das verwächst sich“, hoffen manche Eltern von dicken Kindern. Eine trügerische Hoffnung, sagt Professor Berthold Koletzko: „Leidet ein Kind oder ein Jugendlicher unter Adipositas, wird sich sein Gewicht später in aller Regel nicht wieder normalisieren. Ein dickes Kind wird nicht schlank“.

Die Ursachen für die Fettsucht-Epidemie sind vielfältig, so die Stiftung Kindergesundheit. Eine verführerische Werbung, leicht zugängliche Lebensmittel und süße Getränke, die massive Nutzung von Bildschirmmedien, Smartphones und Handys und der damit verbundene Mangel an Bewegung begünstigen die Entstehung von Übergewicht und Adipositas.

Es zeigt sich immer deutlicher, dass zuckerhaltige Getränke ein eigenständiger Risikofaktor für eine übermäßige Gewichtszunahme sind, konstatiert die Stiftung Kindergesundheit. Sie empfiehlt: Kinder sollten schon von klein auf an das Wasser-Trinken gewöhnt werden. Zuckerhaltige Getränke, zum Beispiel Limonade, Cola-Getränke, gesüßte Tees oder Eistees, Fruchtsäfte, Fruchtnektare oder Fruchtsaftschorlen sollten die Ausnahme bleiben und nicht die Regel.

In Bildungseinrichtungen für Kinder und Jugendliche jeden Alters sollten keine zuckerhaltigen Getränke angeboten werden. Gleichzeitig sollten Kinder, Eltern und Betreuende Kenntnisse und praktische Kompetenz zu Getränken, Ernährung und Gesundheit erhalten.

Wasserspender helfen beim Abnehmen
„Dass dies tatsächlich gelingen kann, zeigt beispielsweise das von der Stiftung Kindergesundheit entwickelte Kindergartenprogramm TigerKids mit seinen einfachen und praktischen Elementen“, unterstreicht Professor Berthold Koletzko. Bei diesem Projekt wird in der Kita eine Trinkstation eingerichtet, an der Wasser und zuckerfreie Tees angeboten werden. Zudem bereiten die Kinder sich selbst Obstteller mit klein geschnittenem Gemüse und Obststückchen zu. Der Erfolg zeigt sich schon nach kurzer Zeit: Für die Vorschulkinder wird es zur Gewohnheit, selbstverständlich und regelmäßig Wasser zu trinken und Gemüse und Obst zu essen. Die Gewöhnung der Kinder an das gesundheitsförderliche Verhalten führt dann auch zu Hause zu einem häufigeren Verzehr von Gemüse, Obst und Wasser und einem Rückgang des Konsums gezuckerter Getränke.

Ein weiteres Beispiel lieferte die in Nordrhein-Westfalen durchgeführte TrinkFit-Studie: Grundschulkinder erhielten eigene Trinkflaschen und konnten sich an einem Wasserspender jederzeit mit gesprudeltem oder stillem Trinkwasser versorgen. Allein die Aufstellung von Wasserspendern führte zum Trinken von mehr Wasser und weniger zuckerhaltigen Getränken und schon nach einem Schuljahr zu einer um 31 Prozent geringeren Häufigkeit von Übergewicht als in den Kontrollschulen. Auch deshalb motiviert das interaktive Grundschulprogramm „Die Rakuns“ Kinder zum Trinken von Wasser anstelle von zuckerhaltigen Getränken.

Werbung für Chips und Snacks macht dick
Eine verhängnisvolle Rolle spielt die an Kinder gerichtete Werbung für Lebensmittel im Fernsehen und durch die sozialen Medien. Sie beeinflusst nachweislich die Bevorzugung, den Kauf und Verzehr von unausgewogenen und dickmachenden Produkten, wie Cola, Chips und süßen Snacks. Die Zusage einiger großer Unternehmen, die an Kinder unter zwölf Jahren gerichtete Werbung freiwillig zu begrenzen, hat sich als Augenwischerei erwiesen.

„Eine Studie in den USA zeigte, dass die von Unternehmen ausgelobte freiwillige Selbstbeschränkung der Werbung an Kinder nicht effektiv war“, betont Professor Berthold Koletzko. „Die Vorschulkinder sind deshalb weiterhin täglich der Werbung für ungesunde Lebensmittel in Kinderprogrammen ausgesetzt“.

Die bisherigen Versuche zur besseren Aufklärung über gesundes Essen und Trinken erwiesen sich auch hierzulande als weitgehend vergebens. Die Ernährungswirtschaft wehrt gesetzliche Regulierungen durch ihre Lobbyarbeit erfolgreich ab. Entgegen einer Forderung der Weltgesundheitsorganisation schreibt der Gesetzgeber in Deutschland weder die Bewertung der Nährstoffe noch eine einheitliche Kennzeichnung der Lebensmittelqualität durch einfache Symbole vor. Die Selbstverpflichtungen der Hersteller funktionieren nicht oder entpuppen sich sogar als Mogelpackung. Es wird höchste Zeit für strengere gesetzliche Regelungen, für eine klare und verständliche Kennzeichnung von Lebensmitteln und für ihre wirksame amtliche Überwachung, betont die Stiftung Kindergesundheit mit großem Nachdruck.

Strengere Regeln dringend erforderlich
Mögen sie noch so sinnvoll sein, Einzelmaßnahmen reichen nicht aus, um die unheilvolle Entwicklung aufzuhalten, unterstreicht die Stiftung Kindergesundheit. Wissenschaft, Gesellschaft und Politik müssen zusammenarbeiten, um die dickmachende Lebenswelt der Kinder zu verändern. Die wichtigsten Schritte dazu sind:

O Konsequente Förderung des Stillens;

O Begrenzung des hohen Zuckerkonsums durch Aufklärung und gesetzgeberische Maßnahmen;

O Förderung des Wasserkonsums durch Besteuerung stark gezuckerter Getränke;

O Einschränkung der an Kinder gerichteten Werbung in Massenmedien und in den sozialen Medien des Internets;

O Eine einfache und allgemeinverständliche Kennzeichnung von Lebensmitteln, damit der Verbraucher die besseren Produkte schnell erkennen kann (in Schweden oder Frankreich bereits mit Erfolg eingeführt).

„Wichtig sind auch regelmäßige Bewegungsaktivitäten in Kitas, Schulen und in der Freizeit“, unterstreicht Professor Berthold Koletzko. „Kinder und Jugendliche sollten sich mindestens 90 Minuten am Tag bewegen. Die Eltern sollten außerdem die Nutzung audiovisueller Medien ihrer Kinder auf höchstens zwei Stunden am Tag begrenzen“.

Die Bekämpfung der Fettsuchtepidemie ist auch unter wirtschaftlichen Gesichtspunkten dringend notwendig, betont die Stiftung Kindergesundheit. Die künftig entstehenden zusätzlichen Kosten bei deutschen Kindern mit Übergewicht und Fettsucht belaufen sich auf 4.209 Euro bei Männern und 2.445 Euro bei Frauen. Daraus resultieren für diese heutige Gruppe von Betroffenen zusätzliche Lebenszeitkosten von 145 Milliarden Euro.

Unabhängige und wissenschaftlich basierte Berichterstattung braucht Förderer:

Fördern auch Sie die Gesundheit unserer Kinder durch Ihre Spende, die in voller
Höhe den Projekten der Stiftung Kindergesundheit zugute kommt.

Mit einem Beitritt zum Freundeskreis der Stiftung Kindergesundheit können Sie die Arbeit der
Stiftung regelmäßig fördern.
Mehr Informationen hierzu finden Sie unter: www.kindergesundheit.de
Spendenkonto: HypoVereinsbank München
IBAN: DE41 7002 0270 0052 0555 20
SWIFT (BIC): HYVEDEMMXXX

Quelle: idw

(nach oben)


Ohren für Icarus

Dr. Harald Rösch Wissenschafts- und Unternehmenskommunikation
Max-Planck-Gesellschaft zur Förderung der Wissenschaften e.V.

Russische Rakete bringt Antenne des Tierbeobachtungssystems zur Internationalen Raumstation
Eine russische Rakete hat heute die Antenne der Icarus-Mission zur Internationalen Raumstation ISS transportiert. Damit ist nach dem Icarus-Bordcomputer eine weitere zentrale Komponente des weltraumgestützten Tierbeobachtungssystems erfolgreich im All. Mit dem von Wissenschaftlern der Max-Planck-Gesellschaft in Zusammenarbeit mit der Russischen und Deutschen Raumfahrtagentur Roskosmos und DLR sowie der Universität Konstanz entwickelten System wollen Forscher weltweit die Bewegungen von Tieren untersuchen und die Bedingungen messen, in den diese leben.

Die russische Sojus-Progress-Rakete, die heute um 9:13 Uhr mitteleuropäischer Zeit vom Weltraumbahnhof Baikonur in Kasachstan abgehoben hat, hatte eine wissenschaftlich besonders wertvolle Fracht an Bord: die knapp 200 Kilogramm schwere Icarus-Antenne. „Der erfolgreiche Start war ein weiterer Meilenstein dieser Mission. Nicht auszudenken, wenn dabei etwas schiefgegangen wäre – das hätte Icarus um Jahre zurückgeworfen. Umso größer war die Erleichterung, dass alles geklappt hat. Nach dem Start haben wir vor lauter Freude erstmal angestoßen – natürlich standesgemäß mit einem Gläschen Wodka“, erzählt Martin Wikelski, Direktor am Max-Planck-Institut für Ornithologie in Radolfzell und Leiter der Icarus-Mission.

Die zur ISS gebrachte Antenne besteht aus drei bis zu zwei Meter langen Empfangs- und einer Sendeantenne. Die Empfangsantennen können weltweit die Daten von 15 Millionen und mehr Sendern an jedem Ort auf der Erde empfangen. Diese fünf Gramm leichten Messgeräte im Miniaturformat beruhen auf einer neuen Technologie und wurden speziell für die Icarus-Mission entwickelt. Mit ihnen können selbst kleine Tiere wie Zugvögel ausgestattet werden. Die ersten Tiere, die mit der neuen Icarus-Technologie ausgestattet werden, sind Amseln. „Ab Juni werden wir an 35 Orten in Deutschland rund 300 Amseln mit unseren Minisendern ausstatten. So wollen wir herausfinden, wo sie leben, wohin sie fliegen, wo sie sterben“, erklärt Wikelski.

Die Sendeantenne wiederum schickt den Icarus-Sendern Konfigurationskommandos und die genauen Bahndaten, wann sie das nächste Mal wieder Kontakt zur Empfangsstation haben werden. Die Antenne empfängt mit ihren beiden faltbaren Flügeln Signale aus einem 30 mal 800 Kilometer großen Gebiet. Da sich die Flugbahn der Raumstation bei jeder Erdumrundung um 2500 Kilometer nach Westen verschiebt, decken die Empfangsantennen so in einem Tag bis zu 80 Prozent der Erdoberfläche ab.

Anfang August werden sich die beiden russischen Kosmonauten Oleg Artemyev und Sergei Prokopiev auf einen fünfstündigen Weltraumspaziergang begeben und die Antenne an der Außenseite des russischen Servicemoduls der ISS montieren. Damit beginnt eine etwa zweimonatige Testphase, in der überprüft werden soll, ob alle Komponenten des Systems wie vorgesehen funktionieren. Wenn alles glattgeht, kann Icarus im Herbst seinen wissenschaftlichen Betrieb aufnehmen. Weltweit werden dann 150 Forschungsprojekte die Wanderungen unterschiedlichster Tiere untersuchen, darunter Meeresschildkröten, Jaguare, Fledermäuse und Zugvögel.

Weitere Informationen:
http://www.mpg.de/11939568/ohren-fuer-icarus?c=2191 Originalmeldung
http://www.tiersensoren.mpg.de/de Leben in Bewegung

Quelle: idw

(nach oben)


Haushaltsdienstleistungen zugewanderter Frauen führen dazu, dass einheimische Frauen mehr arbeiten

Wolfgang Braun Presse- und Öffentlichkeitsarbeit
Institut für Arbeitsmarkt- und Berufsforschung der Bundesagentur für Arbeit (IAB)

Durch die Zuwanderung wächst auch das Angebot an Haushaltsdienstleistungen, beispielsweise im Bereich der Hauswirtschaft, der Kinderbetreuung oder der häuslichen Altenpflege. Eine am Dienstag veröffentlichte Studie des Instituts für Arbeitsmarkt- und Berufsforschung (IAB) zeigt: Ein Anstieg des Anteils der Migrantinnen an der Bevölkerung in einer Region erhöht bei den einheimischen Frauen die Wahrscheinlichkeit, mehr Stunden erwerbstätig zu sein. Gleichzeitig wenden die einheimischen Frauen dann im Schnitt weniger Zeit für Kinderbetreuung und Hausarbeit wie Waschen, Kochen und Putzen auf.

Ein Anstieg im Anteil der Migrantinnen an der Bevölkerung in einer Region um zehn Prozent, zum Beispiel von drei Prozent auf 3,3 Prozent, führt laut der Studie zu einer Erhöhung des Angebots von Haushaltsdienstleistungen um 18 Prozent. „Eine bessere Verfügbarkeit von Haushaltsdienstleistungen kann einheimische Frauen entlasten und damit einen möglichen Konflikt bei der Entscheidung zwischen Familie und Beruf entschärfen“, heißt es in der Studie.

Ein Anstieg im Anteil der Migrantinnen an der Bevölkerung um zehn Prozent erhöht die Wahrscheinlichkeit, dass einheimische Frauen länger als 30 Stunden erwerbstätig sind, um 0,9 Prozentpunkte. Die Wahrscheinlichkeit steigt dann von durchschnittlich 53 auf 53,9 Prozent. Die Wahrscheinlichkeit, dass einheimische Frauen mehr als 35 Stunden arbeiten, steigt um einen ganzen Prozentpunkt von 46 auf 47 Prozent.

Bei den einheimischen Frauen mit mittlerer Qualifikation ist der Effekt am stärksten. Hier beträgt er 1,2 Prozentpunkte bei einem Ausgangsniveau von 52 Prozent bei der 30-Stunden-Schwelle. Bei der 35-Stunden-Schwelle beträgt der Zuwachs 1,3 Prozentpunkte ausgehend von einem Niveau von 45 Prozent.

Zudem steigt bei den einheimischen Frauen mit mittlerer Qualifikation bei einem höheren Anteil der Migrantinnen an der Bevölkerung auch die Wahrscheinlichkeit, ein Kind zu bekommen. So erhöht ein Anstieg im Anteil der Migrantinnen an der Gesamtbevölkerung einer Region um zehn Prozent die Wahrscheinlichkeit, ein Kind unter einem Jahr zu haben, im Durchschnitt für einheimische Frauen mittlerer Qualifikation um 0,3 Prozentpunkte. Da diese Wahrscheinlichkeit im Durchschnitt bei 4,4 Prozent liegt, bedeutet das einen Anstieg auf 4,7 Prozent.

Dass der Effekt bei den Frauen mit mittlerer Qualifikation wie einer Berufsausbildung am stärksten ist, wird in der Studie damit erklärt, dass Akademikerinnen häufig finanziell besser gestellt seien und sich damit Haushaltsdienstleistungen oft selbst dann noch leisten können, wenn das Angebot knapper ist. Geringqualifizierte Frauen, also Frauen ohne Berufsabschluss, würden dagegen häufig so starken finanziellen Einschränkungen unterliegen, dass sie auch bei einer Ausweitung des Angebots an Haushaltsdienstleistungen diese kaum in Anspruch nehmen.

„Zusammenfassend lässt sich feststellen, dass einheimische Frauen, insbesondere diejenigen mit mittlerem Qualifikationsniveau, mithilfe der Zuwanderung sowohl Erwerbstätigkeit und Hausarbeit als auch Erwerbstätigkeit und Kinderbetreuung leichter vereinbaren können“, lautet das Fazit der Studie.

Weitere Informationen:
http://doku.iab.de/kurzber/2018/kb0318.pdf
https://twitter.com/iab_news

Quelle: idw

(nach oben)


Sonnenkonzentrat aus der Folie

Dr. Elisabeth Hoffmann Presse und Kommunikation
Technische Universität Braunschweig

Bisher sind es nur Zukunftsvisionen: Farbige Hausfassaden etwa, die auch bei miesem Wetter Sonnenstrom produzieren, oder Elektroautos, die ihre Batterien selbst im Schatten mit solaren Ampères laden können. Doch Forscher um Prof. Peter Jomo Walla von der Technischen Universität (TU) Braunschweig sind auf dem Weg zu geeigneten und bezahlbaren Photovoltaiksystemen für solche Anwendungen einen wichtigen Schritt vorangekommen. Davon berichten sie in der aktuellen Ausgabe des Fachzeitschrift Nature Communications (DOI: 10.1038/s41467-018-03103-4).

Wallas Team hat eine mit Farbstoffen gespickte, kostengünstige Kunststofffolie entwickelt, die künftig großflächig Licht einfangen und auf kleine Hochleistungssolarzellen lenken könnte – und das deutlich effizienter als bisherige Systeme. „Unser Verfahren verspricht deutlich höhere Wirkungsgrade als Siliziumsolarzellen sie jemals haben werden“, sagt der Chemiker. Das Potenzial der Siliziumphotovoltaik ist mit einem Wirkungsgrad von etwa 25 Prozent praktisch ausgereizt, selbst der theoretisch maximal mögliche Wirkungsgrad liegt stoffbedingt bei nur 29 Prozent.

Die von Wallas Team anvisierten Hochleistungssolarzellen dagegen, die etwa Gallium- oder Indiumverbindungen enthalten, können schon heute Wirkungsgrade bis zu 45 Prozent erzielen. Da sie aber sehr teuer sind, werden in der Regel möglichst kleine Flächen dieser Materialien mit möglichst billigen Lichtsammelsystemen kombiniert. Üblicherweise kommen dafür optische Linsen zum Einsatz, die das Sonnenlicht auf die Solarzellen konzentrieren. „Leider funktionieren die aber nur mit direkter Sonneneinstrahlung“, betont Walla. „Bei diffusem Licht, bewölktem Himmel und im Schatten liefern diese Systeme kaum noch Strom.“

Um Abhilfe zu schaffen, arbeiten Forscher wie Walla mit fluoreszierenden Farbstoffmolekülen, die Licht schlucken und wieder abgeben können. Da diese Moleküle normalerweise kreuz und quer durcheinanderliegen, etwa in einer Kunststoffmatrix, trifft praktisch jeder Lichtstrahl auf ein im passenden Winkel liegendes Teilchen. Das Licht, das sie nach der Absorption wieder aussenden, findet allerdings nicht immer den Weg zur Solarzelle. „Die Verluste sind recht hoch. Nur ein kleinerer Teil wird letztlich in Strom verwandelt“, erklärt Walla.

Licht einfangen wie bei der Photosynthese
Dieses Problem können die Chemiker aus Braunschweig nun durch einen besonderen Kniff beheben. Sie ziehen ihre farbstoffhaltigen Folien in eine Richtung lang, strecken sie so auf etwa das Vierfache. Dabei richten sich bestimmte Farbstoffmoleküle parallel zueinander aus und zwar so, dass sie den größten Teil des von den ungeordneten Teilchen gesammelten Lichts aufnehmen und auf die Solarzelle umlenken können. „Das geschieht mit einer hohen Effizienz. Die Verluste bisheriger Systeme können um etwa den Faktor drei verringert werden“, berichtet Walla. Das Ganze funktioniere ähnlich wie Lichtsammelsysteme in Pflanzen. Auch bei der Photosynthese fangen Farbstoffe das Licht ein und lenken es zur Energiewandlung an geeignete Reaktionszentren weiter.

Trotz der vielversprechenden Ergebnisse haben die Forscher noch eine Menge Arbeit vor sich. Bisher konnten sie nur für Wellenlängen aus dem blau-grünen Bereich des Lichtspektrums zeigen, dass das Prinzip funktioniert. Deshalb wollen sie als nächstes weitere Farbstoffe testen, die andere Wellenlängen schlucken. Zugleich gilt es, stabilere Farbstoffteilchen zu finden. Die Moleküle aus der veröffentlichten Studie zersetzen sich unter Licht noch recht schnell. „Wir testen deshalb zurzeit stabile Farbstoffe, die zum Beispiel in Monitoren zum Einsatz kommen“, erzählt der Chemiker. Dazu arbeite sein Team mit dem Kavli Energy Nanoscience Institute der University of Berkeley, USA, zusammen, wo er sich auch gerade für ein Forschungssemester aufhält.

Bis zur praktischen Anwendung sei es noch ein gutes Stück Weg, räumt Walla ein. Gleichwohl ist er überzeugt, dass es sich lohnt, weiterzugehen. „Die Sonne strahlt an nur einem halben Tag so viel Energie zur Erde, wie die Menschheit im ganzen Jahr verbraucht. Zurzeit nutzen wir noch viel zu wenig davon“, so der Forscher.

Weitere Informationen:
http://www.pci.tu-bs.de/agwalla/de/ Arbeitsgruppe Prof. Peter Jomo Walla
https://kavli.berkeley.edu/ Kavli Energy Nanoscience Institute

Quelle: idw

(nach oben)


Schadstoffe im Wasser abbauen: Chemiker der Uni Halle verbessern Verfahren

Tom Leonhardt Pressestelle
Martin-Luther-Universität Halle-Wittenberg

Wie sich hartnäckige Schadstoffe im Wasser einfach und kostengünstig abbauen lassen, haben Chemiker der Martin-Luther-Universität Halle-Wittenberg (MLU) herausgefunden. Dafür benötigen die Forscher lediglich eine grüne LED-Leuchte, einen Katalysator und Vitamin C. So können sie eine spezielle Art von Elektronen herstellen, die die Schadstoffe im Wasser zuverlässig zerlegen. Bisher waren dafür komplexe Lasersysteme nötig. Die Studie wurde kürzlich in der internationalen Fachzeitschrift „Angewandte Chemie“ veröffentlicht.

In der Photochemie arbeiten Forscher an der Frage, wie sich mit Licht chemische Reaktionen starten lassen. „Die Idee ist, dass das Licht in ein Molekül eindringt und dort eine Reaktion auslöst“, sagt Chemiker Prof. Dr. Martin Goez von der MLU, dessen Arbeitsgruppe das neue Verfahren entwickelt hat. Von besonderem Interesse sind dabei Elektronen, die durch die Lichtenergie aus ihrer Molekülverbindung im Vitamin C gelöst werden und dann frei im Wasser vorliegen. „Diese sogenannten hydratisierten Elektronen sind extrem reaktionsfreudig und können zum Beispiel dabei helfen Schadstoffe abzubauen. Der Vorteil gegenüber anderen Stoffen ist, dass die Elektronen nach der Reaktion vollständig verschwunden sind, also keine schädlichen Reste zurücklassen“, so Goez weiter. Diese speziellen Elektronen können sogar mit sehr stabilen Stoffen reagieren und diese in ihre einzelnen Bestandteile zerlegen.

Bisher waren teure und komplexe Hochleistungslaser nötig, um diese Art der Elektronen zu erzeugen. Der Einsatz der Anlagen ist auch an strenge Sicherheitsvorkehrungen geknüpft. Die neue Entwicklung der halleschen Chemiker ist dagegen deutlich einfacher und kostengünstiger: „Unser System besteht aus einer handelsüblichen grünen Leuchtdiode, Spuren eines Metallkomplexes als Katalysator und Vitamin C. Dieses Verfahren können Studierende zum Beispiel schon im Anfängerpraktikum umsetzen“, sagt der Chemiker Goez. Die Arbeitsgruppe testete die neue Methode an der Chloressigsäure, einer extrem giftigen und sehr stabilen Substanz. Mit ihrem System konnten die Forscher die Verbindung in ihre unschädlichen Bestandteile zerlegen. Dabei zeigte sich, dass die kostengünstige Alternative der Hallenser genauso viele Elektronen erzeugen konnte wie ein Hochleistungslaser.

Die Entwicklung der Arbeitsgruppe an der MLU eignet sich nicht nur dazu, um etwa schädliche Chloride oder Fluoride abzubauen. Der Ansatz lässt sich auf viele weitere photochemische Reaktionen übertragen, die mit anderen Mitteln nur schwer in Gang zu setzen sind.

Zur Publikation:
R. Naumann, F. Lehmann, M. Goez, Generating Hydrated Electrons for Chemical Syntheses by Using a Green Light-Emitting Diode (LED). Angew. Chem. Int. Ed. 2018, 57, 1078. DOI: 10.1002/anie.201711692

Quelle: idw

(nach oben)


Kieler Studie zeigt: Trockene Haut und Neurodermitis führen zu einem veränderten Hautmikrobiom

Dr. Tebke Böschen Presse- und Öffentlichkeitsarbeit
Exzellenzcluster Entzündungsforschung

Patientinnen und Patienten mit Neurodermitis haben im Vergleich zu gesunden Menschen ein deutlich verändertes und weniger vielfältiges bakterielles Besiedlungsmuster der Haut. Dies betrifft nicht nur Stellen mit akuten oder chronischen Ekzemen, sondern auch nicht entzündete Hautareale, wie ein Team des Exzellenzclusters Entzündungsforschung in einer Studie herausfand. Allerdings gibt es Unterschiede zwischen Körperregionen, die mit einer unterschiedlichen Zusammensetzung der Hautlipide einhergehen.

Überraschend für Erstautor Dr. Hansjörg Baurecht vom Universitätsklinikum Schleswig-Holstein war, dass diese regionalen Unterschiede in den Hintergrund treten, wenn die Haut sich entzündet. „Die natürlichen Unterschiede in der Zusammensetzung des Mikrobioms an unterschiedlichen Körperstellen sind dann aufgehoben, und es entsteht ein typisches weniger vielfältiges Muster der bakteriellen Besiedelung, wenn die Hautentzündung chronisch wird.“ Die Ergebnisse der Studie wurden jetzt im Journal of Allergy and Clinical Immunology veröffentlicht.

Die Haut des Menschen ist Lebensraum unzähliger Mikroorganismen, deren Gesamtheit als Mikrobiom bezeichnet wird. Dabei findet man an verschiedene Körperstellen jeweils typische Bakterienstämme, und die bakterielle Zusammensetzung unterscheidet sich zum Teil erheblich, zum Beispiel zwischen Stirn und Fußsohle. Das ist zunächst weder gut noch schlecht, sondern einfach durch die jeweilige Umgebung bedingt. Feuchtigkeit, pH-Wert, Temperatur und Lipidgehalt der Haut haben Einfluss auf das Besiedlungsmuster, ebenso wie genetische Faktoren und Umwelteinflüsse. Das feine Zusammenspiel von Hautzellen, Immunzellen und den Mikroben sorgt dafür, dass die Haut ihre Barrierefunktion ausübt. Veränderungen im Mikrobiom können diese Funktion beeinflussen.

Die am besten beschriebene Ursache für eine generelle Barrierestörung der Haut ist ein Mangel am Hauteiweiß Filaggrin. Bei etwa zehn Prozent der Bevölkerung ist dieser Mangel durch vererbte Mutationen entstanden. Diese Personen leiden an einer allgemeinen Hauttrockenheit und verminderter Barrierefunktion, das heißt die Haut ist durchlässiger für Einflüsse von außen. Der angeborene Filaggrinmangel führt nicht zwangsläufig zu Neurodermitis, geht aber mit einem deutlich erhöhten Erkrankungsrisiko einher. Eine Ursache dafür könnte ein verändertes Hautmikrobiom sein. Die jetzt veröffentlichte Studie stützt diese Vermutung: Die bakterielle Besiedlung bei Menschen mit Filaggrinmangel ähnelt in Teilen der von Neurodermitispatientinnen und -patienten. Kommt es dann zur Erkrankung, verändert sich das Mikrobiom weiter.

Bislang war das Mikrobiom von Menschen mit Neurodermitis nur an den typischerweise betroffenen Körperstellen wie Kniekehlen und Armbeugen gut untersucht. Die aktuelle Studie zeigte, dass dort die für die Neurodermitis typischen Veränderungen des Hautmikrobioms zwar am deutlichsten ausgeprägt sind, aber auch nicht betroffene Hautareale typische Veränderungen aufweisen. Zu diesen Besonderheiten zählen eine verminderte Vielfalt von Bakterien und eine unterschiedliche Zusammensetzung von Staphylokokken-Stämmen.

„Die Diversität, also die Bakterienvielfalt, und der Anteil bestimmter Staphylokokken nimmt von gesunder über trockene zu entzündeter Haut sukkzessive ab, während bestimmte andere Stämme, insbesondere S. aureus immer mehr dominieren“, betont Dr. Hansjörg Baurecht, Mitarbeiter in der Arbeitsgruppe von Clustermitglied Professor Stephan Weidinger an der Klinik für Dermatologie, Venerologie und Allergologie des UKSH Kiel. „Wirklich überraschend war, dass wir die für Gesunde typische körperstellenspezifischen Unterschiede im Hautmikrobiom auf akuten und chronischen Ekzemen von Neurodermitispatienten nicht mehr finden. Die Entzündung verändert das Hautmikrobiom massiv, unabhängig von der Körperstelle. Das hatten wir in dem Ausmaß nicht erwartet.“

„Unsere neuen Daten vertiefen das Verständnis der wechselseitigen Abhängigkeit zwischen Hautfunktion und bakterieller Besiedlung“, betont Professor Stephan Weidinger, stellvertretender Direktor der Universitäts-Hautklink Kiel und Leiter der Abteilung für entzündliche Hautkrankheiten. „Das Besiedlungsmuster der Haut ist bei Patientinnen und Patienten mit Neurodermitis generell verändert, und ist sowohl Ausdruck als auch Triggerfaktor der Entzündung und kann Ausgangspunkt für echte Infektionen sein.“

Stichwort Neurodermitis
Neurodermitis (atopisches Ekzem) ist eine der häufigsten chronischen, nicht ansteckenden entzündlichen Hauterkrankungen. Sie tritt meist schon in frühester Kindheit auf und verläuft in Schüben. Schätzungsweise 10 bis 20 Prozent der Kinder und 5 bis 10 Prozent der Erwachsenen sind betroffen. Kennzeichen sind extremer Juckreiz, immer wieder kehrende Ekzeme, und meist eine generelle Hauttrockenheit. Die Ursachen der Neurodermitis liegen zum größten Teil in einer erblichen Veranlagung zu einer Überempfindlichkeit der Haut sowie Überreaktionen des Immunsystems. Bei der Neurodermitis ist die optimale Versorgung der Haut mit Feuchtigkeit und Fetten gestört und die natürliche Barrierefunktion herabgesetzt Auf diese Weise können irritierende und allergieauslösende Stoffe aus der Umwelt leichter eindringen.

Originalpublikation:
Baurecht, H, Rühlemann, MC, Rodríguez, E, Thielking, F, Harder, I, Erkens, AS, Stölzl, D, Ellinghaus, E, Hotze, M, Lieb, W, Wang, S, Heinsen, FA, Franke, A und Weidinger, S (2018): Epidermal lipid composition, barrier integrity and eczematous inflammation are associated with skin microbiome configuration. Journal of Allergy and Clinical Immunology, https://doi.org/10.1016/j.jaci.2018.01.019

Kontakt:
Dr. Hansjörg Baurecht
Klinik für Dermatologie, Venerologie und Allergologie am UKSH Kiel
Tel.: 0431/500 21111
hbaurecht@dermatology.uni-kiel.de

Prof. Dr. Stephan Weidinger
Klinik für Dermatologie, Venerologie und Allergologie am UKSH Kiel
Tel.: 0431/500 21110
sweidinger@dermatology.uni-kiel.de

Bildmaterial steht zum Download bereit:
http://inflammation-at-interfaces.de/de/newsroom/aktuelles/Grafik_NeurodermitisD…
Die bakterielle Besiedlung der Haut unterscheidet sich zwischen gesunden und an Neurodermitis erkrankten Menschen deutlich. Bei Neurodermitis-Patientinnen und Patienten ist die Bakterienvielfalt deutlich geringer, und der Anteil bestimmter Bakterienarten deutlich erhöht. Dies ist auch der Fall, wenn die Haut scheinbar gesund aussieht. Im Fall eines Ekzems, also einer akuten Entzündung der Haut, sinkt die Vielfältigkeit der Bakterien weiter ab und der Anteil bestimmter „schlechter Bakterien“ steigt an.

Der Exzellenzcluster „Inflammation at Interfaces/Entzündungsforschung“ wird seit 2007 durch die Exzellenzinitiative des Bundes und der Länder mit einem Gesamtbudget von 68 Millionen Euro gefördert; derzeit befindet er sich in der zweiten Förderphase. Die rund 300 Clustermitglieder an den insgesamt vier Standorten: Kiel (Christian-Albrechts-Universität zu Kiel, Universitätsklinikum Schleswig-Holstein, Muthesius Kunsthochschule), Lübeck (Universität zu Lübeck, UKSH), Plön (Max-Planck-Institut für Evolutionsbiologie) und Borstel (Forschungszentrum Borstel – Leibniz-Zentrum für Medizin und Biowissenschaften) forschen in einem innovativen, systemischen Ansatz an dem Phänomen Entzündung, das alle Barriereorgane wie Darm, Lunge und Haut befallen kann.

Exzellenzcluster Entzündungsforschung
Wissenschaftliche Geschäftsstelle, Leitung: Dr. habil. Susanne Holstein
Postanschrift: Christian-Albrechts-Platz 4, D-24118 Kiel
Telefon: (0431) 880-4850, Telefax: (0431) 880-4894
E-Mail: spetermann@uv.uni-kiel.de
Twitter: I@I @medinflame

Weitere Informationen:
http://inflammation-at-interfaces.de/de/newsroom/aktuelles/kieler-studie-neurode…

Quelle: idw

(nach oben)


Lungenärzte warnen: E-Zigaretten machen abhängig und krank

Medizin – Kommunikation Medizinkommunikation
Arbeitsgemeinschaft der Wissenschaftlichen Medizinischen Fachgesellschaften e.V.

Dresden – E-Zigaretten, Shishas und Heat Sticks machen junge Menschen nikotinabhängig und ebnen den Weg in den Tabakkonsum. Darauf weist die Deutsche Gesellschaft für Pneumologie und Beatmungsmedizin (DGP) anlässlich ihres Kongresses in Dresden hin. Damit reagiert sie auf Marketingkampagnen der Tabakindustrie, die E-Zigaretten als „gesündere Alternative“ zur Tabakzigarette bewerben. Auch zur Rauchentwöhnung sei das Inhalieren von E-Zigaretten, Wasserpfeifen und Tabakerhitzern nur bedingt geeignet, betonen die Experten.

Schätzungsweise 1 Millionen Deutsche rauchten 2016 regelmäßig E-Zigaretten (1). Die Wasserpfeife ist bei Jugendlichen beliebt: nach Angaben der DAK rauchen 15 Prozent der Zehntklässler regelmäßig Shisha. „Der süße Geschmack der E-Zigarette und das breite Angebot an Aromastoffen, machen das Dampfen vor allem bei jungen Menschen beliebt und erhöhen die Akzeptanz für das Rauchen“, warnt der Pneumologe Dr. med. Peter Kardos. US-amerikanische Untersuchungen zeigen, dass die E-Zigarette den Einstieg in den konventionellen Tabakkonsum bahnen kann (2). „Tabakkonzerne steigen in das E-Zigarettengeschäft ein, um das Image des Rauchens zu verbessern und mehr junge Menschen zum täglichen Konsum zu verleiten“, sagt Kardos. In einem Positionspapier weist die DGP darauf hin, dass Inhalationsprodukte wie E-Zigaretten und Wasserpfeifen gesundheitsgefährdende Suchtmittel sind und deshalb den gleichen gesetzlichen Regularien unterliegen sollten wie Tabakprodukte (3)

Was das Inhalieren von Dampfen E-Zigaretten, Wasserpfeifen und Tabakerhitzern langfristig für ihre die Gesundheit bedeutet, lässt sich aufgrund der aktuellen Studienlage nicht beurteilen, sagt Kardos, der dem diesjährigen DGP-Kongress als Kongresspräsident vorsteht. Nach Beginn der industriellen Produktion hat es auch bei den konventionellen Zigaretten gut 30 Jahre gedauert, bis mit wissenschaftlicher Genauigkeit feststand, dass Rauchen Lungenkrebs verursacht. „Zwar enthalten E-Zigaretten keine Verbrennungsprodukte – aber auch das beim Dampfen dabei entstehende Aerosol enthält entzündungsfördernde, reizende und krebserregende Substanzen, die die Lunge langfristig schädigen können (5)“. So fand eine andere amerikanische Studie Hinweise dafür, dass Jugendliche, die regelmäßig dampfen, doppelt so häufig an Bronchitis erkranken wie ihre nichtrauchenden Altersgenossen (6). Hinzu kommt, dass die meisten E-Zigaretten den Suchtstoff Nikotin enthalten, der möglicherweise selbst schon krebserregend ist (7).

Ob E-Zigaretten bei der Rauchentwöhnung helfen können, ist aus wissenschaftlicher Sicht nicht belegt. Eine aktuelle Metaanalyse fand keine aussagekräftigen Hinweise dafür (8). Dennoch bewirbt die Industrie E-Zigaretten und sogenannte Tabakerhitzer (Heat Sticks) die das Nikotin ohne Verbrennungsprodukte abgeben – als Ersatzprodukt für Raucher. Experten geben zu bedenken, dass Heat Sticks den Rauchstopp sogar erschweren können, weil sie das Ritual des Rauchens aufrechterhalten. Viele Nutzer greifen trotzdem auch noch regelmäßig zur Tabakzigarette (sog. Dual Users), betont Kardos. „Wer sich das Rauchen abgewöhnen möchte – oder es sich aus gesundheitlichen Gründen abgewöhnen muss – sollte vorrangig in professionellen Entwöhnungsprogrammen, Medikamenten und Nikotinersatzprodukten Unterstützung suchen“, so der Experte.

Quellen
(1) Eichler M, Blettner M, Singer S. The use of e-cigarettes -a population-based cross-sectional survey of 4002 individuals in 2016. Dtsch Arztebl Int 016; 113: 847- 54.
(2) Soneji S, Barrington-Trimis JL, Wills TA, et al. Association between initial use of e-cigarettes and subsequent cigarette smoking among adolescents and young adults: a systematic review and meta-analysis. JAMA Pediatr 2017; 171: 788-797
(3) D. Nowak et. al „Positionspapier der Deutschen Gesellschaft für Pneumologie und Beatmungsmedizin e. V. (DGP) zur elektronischen Zigarette (E-Zigarette)“. Pneumologie 2015; 69: 131-134
(4) Reidel B, Radicioni G, Clapp P et al. E-Cigarette Use Causes a Unique Innate Immune Response in the Lung, Involving Increased Neutrophilic Activation and Altered Mucin Secretion. Am J Respir Crit Care Med ePub 2018
(5) McConnell R, Barrington-Trimis JL, Wang K et al. Electronic-cigarette „Use and Respiratory Symptoms in Adolescents“. Am J Respir Crit Care Med 2017; 195: 1043-1049
(6) Hyun-Wook et al., E-cigarette smoke damages DNA and reduces repair activity in mouse lung, heart, and bladder as well as in human lung and bladder cells, PNAS 2018
(7) Sun HJ, Jia YF, Ma XL. Alpha5 Nicotinic Acetylcholine Receptor Contributes to Nicotine-Induced Lung Cancer Development and Progression. Front Pharmacol. 2017 Aug 23;8:573
(8) El Dib R, Suzumura EA, Akl EA, et al. Electronic nicotine delivery systems and/or electronic non-nicotine delivery systems for tobacco smoking cessation or reduction: a systematic review and meta-analysis. BMJ Open 2017; 7: e012680.

Kontakt:
Lisa Ströhlein | Stephanie Balz
Kongress-Pressestelle
Postfach 30 11 20 | 70451 Stuttgart
Telefon: 0711 8931-459 |-168
stroehlein@medizinkommunikation.org
balz@medizinkommunikation.org

Quelle: idw

(nach oben)


RWI-Stromspiegel: Nicht immer zahlt sich der Wechsel zum stromsparenden Elektrogerät aus

Jörg Schäfer Kommunikation
RWI – Leibniz-Institut für Wirtschaftsforschung

Wie hoch der mittlere jährliche Stromverbrauch von in deutschen Haushalten verbreiteten Kühlschränken oder Waschmaschinen ist, ist mangels smarter Messgeräte vielfach nicht bekannt. Dadurch ist auch ungewiss, wieviel Geld sich durch die Investition in ein neues Elektrogerät mit niedrigerem Stromverbrauch einsparen lässt. Nachrechnen lohnt sich. Das zeigt eine aktuelle RWI-Studie zum Stromverbrauch in privaten Haushalten, die auf zwei umfangreichen Erhebungen basiert.

Wie hoch der mittlere jährliche Stromverbrauch von in deutschen Haushalten verbreiteten Kühlschränken oder Waschmaschinen ist, ist mangels smarter Messgeräte vielfach nicht bekannt. Dadurch ist auch ungewiss, wieviel Geld sich durch die Investition in ein neues Elektrogerät mit niedrigerem Stromverbrauch einsparen lässt. Nachrechnen lohnt sich. Das zeigt eine aktuelle RWI-Studie zum Stromverbrauch in privaten Haushalten, die auf zwei umfangreichen Erhebungen basiert.

Da die Strompreise die Budgets privater Haushalte immer stärker belasten, erscheinen stromsparende Maßnahmen immer lohnenswerter. Um ermitteln zu können, wieviel Strom und damit Geld durch neue stromsparende Geräte eingespart werden kann, muss jedoch bekannt sein, wieviel Strom die zu ersetzenden alten Geräte verbrauchen. Laut einer aktuellen Studie des RWI – Leibniz-Institut für Wirtschaftsforschung sind beispielsweise für den Betrieb eines Kühlschranks durchschnittlich rund 300 Kilowattstunden (kWh) pro Jahr erforderlich, für einen Gefrierschrank etwa 400 kWh. Bei einem durchschnittlichen Strompreis von aktuell rund 30 Cent pro kWh kostet der Betrieb dieser Geräte demnach jährlich 90 bzw. 120 Euro.

Grundlage der Studie sind zwei umfangreiche Erhebungen, die zur Ergänzung des Deutschen Haushaltsenergieverbrauchspanels GRECS (German Residential Energy Consumption Survey) vom Berliner Marktforschungsinstitut forsa Gmbh, Berlin, durchgeführt wurden. Sie geben Auskunft über den Stromverbrauch von mehr als 2.000 Haushalten in den Jahren 2011 bis 2013 sowie über deren Ausstattung mit Elektrogeräten.

Investition in energieeffiziente Elektrogeräte lohnt finanziell nicht immer
Würde ein Haushalt mit einem Kühlschrank mit durchschnittlichem Verbrauch von 300 kWh pro Jahr ein neues energieeffizientes Gerät (mit Gefrierfach) mit einem Verbrauch von rund 160 kWh anschaffen, könnte er demnach bei einem Strompreis von 30 Cent pro kWh jährlich rund 42 Euro einsparen. Bei einem Anschaffungspreis von 700 Euro eines solchen aktuell auf dem Markt befindlichen Gerätes würde sich eine solche Investition innerhalb der durchschnittlichen Lebensdauer von Kühlschränken von zehn Jahren jedoch nicht rechnen. Auch unter Umweltgesichtspunkten kann der Austausch des alten Kühlschranks gegen einen neuen unvorteilhaft sein, da zur Herstellung eines neuen Kühlschranks erhebliche Mengen an Energie erforderlich sind und dabei Treibhausgase emittiert werden.

Noch weniger auszahlen würde sich diese Investition, wenn der neue Kühlschrank die durchschnittliche Lebensdauer von zehn Jahren deutlich unterschreiten und früher kaputt gehen würde oder der Haushalt einen günstigen Stromtarif deutlich unterhalb des durchschnittlichen Niveaus von derzeit rund 30 Cent je kWh hätte. Eher rechnen könnten sich solche Investitionen hingegen, wenn der alte Kühlschrank einen überdurchschnittlich hohen Verbrauch aufweist, besonders in Zeiten steigender Strompreise. Es lohnt sich also, den Stromverbrauch des zu ersetzenden Gerätes zu ermitteln und auf dieser Grundlage über den Kauf eines neuen zu entscheiden.

Haushalte verwenden ein Viertel des Stromverbrauchs zur Kühlung
Ein weiteres Ergebnis der Studie ist, dass der Stromverbrauch einzelner Geräte stark über die Haushalte hinweg variiert. So fällt bei Haushalten im untersten Viertel der Stromverbrauchsverteilung der Stromverbrauch einer einzelnen Lampe mit 5,3 kWh deutlich schwächer aus als bei Haushalten des obersten Viertels (15,9 kWh). Bei Kühlschränken beträgt der Unterschied im jährlichen Stromverbrauch zwischen Haushalten des untersten und obersten Viertels der Stromverbrauchsverteilung pro Jahr etwa 65 kWh.

Haushalte mit geringem Verbrauch verwenden zudem einen größeren Anteil des Stroms für elementare Anwendungen wie Kühlen und Kochen als Haushalte mit hohem Stromverbrauch. Eine Ursache für den hohen Stromverbrauch mancher Haushalte liegt nicht selten am Gebrauch energieintensiver Einrichtungsgegenstände wie Saunen, Wasserbetten oder Solarien.

Haushalte mit einem mittleren Stromverbrauch nutzen rund ein Viertel des Stromverbrauchs zur Kühlung, 15 Prozent für Information und Kommunikation, also den Betrieb von Fernsehgeräten, Computern oder Notebooks. Weitere alltägliche Anwendungen wie Warmwasserbereitung, Beleuchtung, Kochen, Waschen und Trocknen machen jeweils zwischen 2 und 6 Prozent des gesamten Stromkonsums aus.

Ihre Ansprechpartner:
Prof. Dr. Manuel Frondel Tel.: (0201) 8149-204
Sabine Weiler (Pressestelle) Tel.: (0201) 8149-213

Weitere Informationen:
http://www.rwi-essen.de/rep/ Dieser Pressemitteilung liegt das Ruhr Economic Paper #722 („Heterogeneity in Residential Electricity Consumption: A Quantile Regression Approach“) zugrunde.
http://www.rwi-essen.de/stromspiegel Weitere Informationen zum RWI-Stromspiegel.

Quelle: idw

(nach oben)


Kälte kann Herzinfarkt auslösen

Michael Wichert Presse- und Öffentlichkeitsarbeit
Deutsche Herzstiftung e.V./Deutsche Stiftung für Herzforschung

Studie zeigt Zusammenhang zwischen Minusgraden und Risiko für Herzanfälle / Deutsche Herzstiftung gibt Tipps für Herzpatienten

Niedrige Temperaturen belasten das Herz. Herzpatienten sollten daher bei Temperaturen unter null Grad besonders vorsichtig sein und große Anstrengungen vermeiden. An sehr kalten Tagen steigt sogar die Zahl an Herzinfarkten, wie eine schwedische Langzeitstudie an mehr als 280.000 Patienten zeigt.* „Brustschmerzen oder Atemnot sollten daher insbesondere im Winter nicht auf die leichte Schulter genommen werden“, warnt der Herzspezialist Prof. Dr. med. Thomas Voigtländer vom Vorstand der Deutschen Herzstiftung. „Geht ein bisher Gesunder in die Kälte hinaus und bekommt plötzlich Schmerzen, einen Druck oder Brennen im Brustkorb und Atemnot, dann ist das ein Warnzeichen. Umgehend sollte ein Arzt aufgesucht werden, der das Herz gründlich untersucht.“ Die Symptome können Vorboten eines Herzinfarkts sein (https://www.herzstiftung.de/Anzeichen-Herzinfarkt.html).
Besonders gefährdet sind Patienten mit einer koronaren Herzkrankheit (KHK) und Angina pectoris-Beschwerden oder nach einem Herzinfarkt. Starke Kälte belastet die Herzkranzgefäße, indem sich die Gefäße verengen und die Blutversorgung des Herzmuskels vermindern, der dadurch weniger Sauerstoff bekommt. Gleichzeitig werden auch die Widerstandsgefäße im übrigen Körper verengt (Blutdruckanstieg!), so dass das Herz gegen einen größeren Widerstand anpumpen muss. „Besonders wachsam sollten in den Wintermonaten auch Hochdruckpatienten und Betroffene mit Herzschwäche sein.“ Was Herzpatienten im Winter beachten sollten, können Betroffene unter https://www.herzstiftung.de/Kaelte-Herz-Herzinfarkt.html oder in der kostenfreien Expertenschrift „Wie komme ich gut durch den Winter?“ nachlesen, die per Tel. unter 069 955128400 oder per E-Mail unter bestellung@herzstiftung.de angefordert werden kann.

Große Anstrengungen bei Kälte vermeiden
Wer bereits an einer Herzerkrankung leidet, sollte bei Minusgraden auf starke körperliche Anstrengungen wie Schneeschippen verzichten. Zwar ist regelmäßige Bewegung auch im Winter empfehlenswert. Statt zu hoher Belastung rät die Deutsche Herzstiftung Herzpatienten allerdings zu weniger anstrengender Bewegung wie Spaziergängen oder Walkingrunden. Bei Minusgraden legen sich Herzpatienten zum Schutz am besten einen Schal über Mund und Nase, so gelangt die Luft bereits vorgewärmt in die Atemwege. Bei großer Kälte kann es auch sinnvoll sein, das Training in die Sporthalle oder das Schwimmbad zu verlegen. Einzelne Studien deuten darauf hin, dass auch eine kühle Wohnung den Blutdruck erhöhen und das Herz gefährden kann. Koronarpatienten sollten daher die Wohnung angenehm warm halten, ohne sie zu überheizen.

Herzmedikamente schützen – auf regelmäßige Einnahme achten
Grundsätzlich sollten Menschen mit Herzerkrankungen im Winter regelmäßig ihren Blutdruck messen und besonders sorgfältig ihre Medikamente nehmen. Eine aktuelle finnische Studie (Ryti N. R. I. et al, Sci. Rep. 2017) bestätigt, dass Kälte die Prognose bei Herzpatienten ungünstig beeinflussen kann. Gemäß der Studie schützt die Einnahme von Herzmedikamenten wie ASS, Betablockern oder Nitraten Herz-Kreislauf-Patienten vor einem akuten Koronarereignis (z. B. Herzinfarkt oder Angina pectoris).
„Bei einigen Betroffenen muss – und dies nur in Absprache mit dem behandelnden Arzt! – die Dosis der Arzneien im Winter angepasst werden, da der Blutdruck in der kalten Jahreszeit oft höher liegt“, betont Prof. Voigtländer, der auch Ärztlicher Direktor am Bethanien Krankenhaus, Cardioangiologisches Centrum Bethanien (CCB) in Frankfurt ist. Wichtig ist auch der Zeitpunkt der Medikamenteneinnahme: Da der Blutdruck bei den meisten Patienten nach dem Aufstehen ansteigt, sollten sie ihre Tabletten in der Regel morgens nehmen – und zwar bevor sie hinaus in die Kälte gehen.

Tipp: Wichtige Tipps zum Thema Kälte bei Herzproblemen bietet die Herzstiftung unter https://www.herzstiftung.de/Kaelte-Herz-Herzinfarkt.html kostenfrei an. Der Sonderdruck „Wie komme ich gut durch den Winter?“ kann angefordert werden unter Tel. 069 955128-400 oder per E-Mail unter bestellung@herzstiftung.de

* European Society of Cardiology:
16 year study suggests air temperature is external trigger for heart attack;
https://www.escardio.org/The-ESC/Press-Office/Press-releases/16-year-study-sugge…
https://doi.org/10.1093/eurheartj/ehx504.2949

Informationen:
Deutsche Herzstiftung e.V.
Pressestelle:
Michael Wichert /Pierre König
Tel. 069 955128-114/-140
Fax: 069 955128-345
E-Mail: wichert@herzstiftung.de/
koenig@herzstiftung.de
www.herzstiftung.de

Weitere Informationen:
https://www.herzstiftung.de/Kaelte-Herz-Herzinfarkt.html
https://www.herzstiftung.de/Anzeichen-Herzinfarkt.html
https://doi.org/10.1093/eurheartj/ehx504.2949
https://www.escardio.org/The-ESC/Press-Office/Press-releases/16-year-study-sugge…

Anhang

PM_Kälte_Herzrisiko

Quelle: idw

(nach oben)


Den Stadtwildtieren auf der Spur: Citizen Science für alle

Steven Seet – Leibniz-IZW Pressestelle des Forschungsverbundes Berlin e.V.
Forschungsverbund Berlin e.V.

Wildtiere erobern die Städte, in Berlin und anderswo. Und so treffen viele ihr erstes Wildtier „in freier Wildbahn“ im urbanen Bereich – meistens, aber nicht immer, sind das spannende Begegnungen mit einem erfreulichen Ausgang. Um das wachsende Interesse zu befriedigen, den aufkommenden Wissensdurst zu stillen und Angebote vorzustellen, die eine Beteiligung der Öffentlichkeit an wissenschaftlichen Forschungsarbeiten ermöglichen, gibt es jetzt die Internetseite für alle an Wildtieren in der Stadt Interessierte.

Die Berliner Internetseite „http://berlin.stadtwildtiere.de“ bündelt Informationen und Angebote rund um Wildtiere in der Stadt. Sie wird vom Leibniz-Institut für Zoo- und Wildtierforschung (Leibniz-IZW) und dem Verein StadtNatur in Zürich betreut. Auf dieser Seite gibt es Informationen zu allen Wildtieren, die uns in der Stadt begegnen können, Antworten auf oft gestellte Fragen zum Thema „Wildtiere in der Stadt“ und Veranstaltungshinweise zum Thema Stadtökologie – und Tipps für ein gutes Miteinander zwischen Mensch und Tier.

Besonders spannend sind die interaktiven Optionen: Interessierte können Tiersichtungen und deren Spuren oder Nester melden und sich diese auf einer interaktiven Karte anzeigen lassen. Sie können sich über Forschung zu Stadtökologie informieren und Forschungsprojekte finden, die zum Mitmachen einladen. In Berlin zum Beispiel stehen Fuchs, Hase, Igel, Waschbär und mehr ab sofort unter Beobachtung. Die an den Projekten beteiligten WissenschafterInnen nutzen die aus verschiedenen Städten gemeldeten Informationen, um zum Beispiel herausfinden, ob es in Berlin mehr Igel als in Freiburg gibt. Oder warum es möglicherweise manche Tierarten vom Land in die Stadt zieht, während andere Arten die Stadt meiden.

Wer gerne mitforschen möchte, kann beispielsweise mit einer „App“ fürs Smartphone Lichtverschmutzung messen oder Igel finden. Solche Projekte werden gerne mit „Citizen Science“ (Bürgerwissenschaften) bezeichnet: Teilnehmende aus der Öffentlichkeit bereichern mit ihrem persönlichen Wissen das Projekt, sammeln Daten, übernehmen Aufgaben oder helfen bei der Entwicklung der Fragestellungen der Forschungsprojekte. Dabei lernen die Beteiligten nebenbei, wie Forschung heutzutage funktioniert. Die WissenschaftlerInnen profitieren ebenfalls: Sie lernen von ihren Mitforschenden viel Interessantes aus deren persönlichem Erfahrungssschatz und erhalten Daten, die sie aus Kapazitätsgründen nie alleine erheben könnten.

Die Internetseite „berlin.stadtwildtiere.de“ bietet auch Antworten auf typische Fragen zum Thema Wildtiere in der Stadt. Dazu gehören: „Wohin mit dem verlassenen Krähenkind?“ oder „Was sind invasive Arten?“. Darüber hinaus stellen sich die zurzeit laufenden wissenschaftlichen Forschungsprojekte zu Wildtieren in Berlin und Umgebung vor.

Die Bürgerwissenschaften-Projekte „Stadtwildtiere“ und „Wilde Nachbarn“ wurden in Zürich entwickelt und gestartet. Inzwischen gibt es diese Projekte auch in anderen Städten und Regionen. Die Internetseite „berlin.stadtwildtiere.de“ wird vom Leibniz-IZW und dem Züricher Verein „StadtNatur“ betreut. Die beteiligten WissenschaftlerInnen erhoffen sich, dass in Zukunft immer mehr Städte und Regionen an dem Projekt teilnehmen. Neben Berlin wurde für Deutschland jetzt das Projekt „Wilde Nachbarn Baden-Württemberg“ (http://bw.wildenachbarn.de) eingeführt.

Kontakt Leibniz-IZW:
Steven Seet: seet@izw-berlin.de, 049 30 51 68 125
Sarah Kiefer: kiefer@izw-berlin.de, 049 30 51 68 128

Weitere Informationen:
http://berlin.stadtwildtiere.de
http://bw.wildenachbarn.de

Quelle: idw

(nach oben)


Risikofaktoren erkennen und gegensteuern: So kann das Herz selbst im Alter jung bleiben

Janina Wetzstein Pressestelle
Deutsche Gesellschaft für Innere Medizin e. V.

Viele Beschwerden, die als „normale“ Alterserscheinungen gelten, sind in Wahrheit Endpunkte eines schleichenden Krankheitsprozesses: Übergewicht und Bewegungsmangel bringen die Blutfettwerte in Schieflage und erhöhen das Diabetesrisiko. Damit einher gehen oft Bluthochdruck, Schäden an den Gefäßwänden und Arteriosklerose, die letztlich auch das Risiko für einen Herzinfarkt oder Schlaganfall in die Höhe treiben. Wie dieser Prozess verlangsamt und insbesondere das Herz länger gesund erhalten werden kann, war Thema auf der Pressekonferenz der Deutsche Gesellschaft für Innere Medizin e.V. (DGIM) in Berlin.

Dass das Herz im Alter immer schwächer und anfälliger wird, schien lange Zeit unausweichlich zu sein. „Es wird aber immer deutlicher, dass man solche Alterserscheinungen nicht einfach hinnehmen muss“, sagt Professor Dr. med. Ursula Müller-Werdan, die den Schwerpunkt Geriatrie der Inneren Medizin an der Berliner Charité leitet. Vielmehr lägen den schleichenden Alterungsprozessen, die sich an den verschiedenen Organen vollziehen, und den dann scheinbar unvermittelt auftretenden Alterskrankheiten ähnliche Entstehungsmechanismen zugrunde.

Für das Herz heißt das: Wer die bekannten Risikofaktoren für Herz-Kreislauf-Leiden vermeidet, beugt auch einer vorzeitigen Alterung von Herz und Gefäßen vor. Die Liste der schädlichen Einflüsse, denen es entgegenzuwirken gilt, ist heute allgemein bekannt und oft wiederholt worden: Zigarettenrauch, Übergewicht und körperliche Inaktivität zählen dabei zu denjenigen Faktoren, die der Einzelne vermeiden oder gegen die er aktiv vorgehen kann. Andere Risikofaktoren können nicht immer vermieden werden – sie sollten aber frühzeitig erkannt und konsequent behandelt werden, um das Herz zu schützen. Dazu zählen etwa ein Diabetes, ein bereits bestehender Bluthochdruck, chronische Entzündungsprozesse oder hohe LDL-Cholesterinwerte.

All diese Faktoren beeinträchtigen zunächst die Funktion der Gefäßwände und leisten Bluthochdruck und Arteriosklerose Vorschub. „Damit steigt das Risiko für verschiedene Herz-Kreislauf-Erkrankungen, die sich wechselseitig bedingen und verstärken können“, erläutert Müller-Werdan. Im Rahmen dieses so genannten kardiovaskulären Kontinuums wird letztlich auch der Herzmuskel in Mitleidenschaft gezogen, der nicht mehr ausreichend mit Blut versorgt wird. Wenn sich erste Krankheitszeichen bemerkbar machen, sind die zugrundeliegenden Schädigungen oft schon weit fortgeschritten. „Ein Herzinfarkt scheint dann mitunter aus heiterem Himmel aufzutreten, aus völliger Gesundheit heraus“, so Müller-Werdan.

Haben sich Herz-Kreislauf-Schäden wie Arteriosklerose, Herzrhythmusstörungen oder eine Herzmuskelschwäche erst einmal etabliert, sind sie in der Regel chronisch – ihr Verlauf lässt sich dann nur noch verlangsamen, nicht aber umkehren. „Daher sollte möglichst frühzeitig auf einen gesunden Lebensstil geachtet und Risikofaktoren konsequent vermieden werden“, betont Professor Dr. med. Cornel Sieber, Vorsitzender der DGIM. Damit die Jahre, die die Menschen heute durchschnittlich länger leben, auch möglichst gesunde Jahre sind.

http://www.dgim.de | http://www.facebook.com/DGIM.Fanpage/ | http://www.twitter.com/dgimev

Quelle: idw

(nach oben)


Wann Mitarbeiter von Handlungsspielräumen im Job profitieren

Eva Mühle Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Arbeitsforschung an der TU Dortmund

Wer bei der Arbeit viel zu tun hat und unter Zeitdruck steht, profitiert davon, wenn er frei über die Arbeitseinteilung entscheiden kann. Handlungsspielräume im Job können uns aber auch schaden, wie eine aktuelle Studie des Leibniz-Instituts für Arbeitsforschung zeigt. Denn es kommt darauf an, was vorrangig verlangt wird: Ist der Job eher durch Emotionsarbeit statt Zeitdruck gekennzeichnet, können Mitarbeiter von geringeren Handlungsspielräumen profitieren. Demnach erscheinen in emotional belastenden Berufen, in denen bestimmte Gefühle nach außen gezeigt werden sollen, konkrete Richtlinien hilfreicher als Freiheiten.

Die Abgabefrist rückt näher, auf ein Meeting folgt das nächste und dann wartet noch ein anspruchsvoller Kunde: Laut einer Eurofond-Erhebung beklagt rund jeder dritte Angestellte in der EU, unter zu hohem Zeitdruck arbeiten zu müssen. Gleichzeitig erfordern viele Tätigkeiten, bestimmte Emotionen nach außen zu zeigen, auch wenn diese nicht mit den tatsächlich erlebten Gefühlen übereinstimmen, z.B. im Kundenkontakt. Unsere Gefühle den Erwartungen des Unternehmens anpassen zu müssen, strengt uns enorm an und kann langfristig zu Burnout führen – ähnlich wie ein auf Dauer zu hoher Workload.

In der arbeitspsychologischen Forschung ging man bisher generell davon aus, dass Handlungsspielräumen, also die Möglichkeiten eigenständig entscheiden zu können, wann und wie eine vereinbarte Aufgabe bearbeitet wird, förderlich für das psychische Wohlergehen der Mitarbeiter sind. Fraglich war bislang jedoch, ob Handlungsspielräume bei unterschiedlichen Formen von Arbeitsanforderungen ähnlich positive Effekte aufweisen. PsychologInnen des Leibniz-Instituts für Arbeitsforschung an der TU Dortmund (IfADo) haben jetzt die Wechselwirkung von Handlungsspielräumen und verschiedenen Arbeitsanforderungen untersucht.

Selbsteinschätzung per Onlinebefragungen
Für die Studie haben die Forschenden Daten von rund 140 Beschäftigten eines Versorgungsunternehmens analysiert. Die Beschäftigten wurden zweimal im Abstand eines halben Jahres befragt und haben Fragen zu ihrer Arbeitssituation in Form von Online-Fragebögen beantwortet. Dabei wurde unter anderem gefragt, wie hoch sie ihre Handlungsspielräume am Arbeitsplatz einschätzen, wie erschöpft sie sich fühlen, ob sie oft unter Zeitdruck arbeiten und ob sie ihre Emotionen regulieren müssen. „Unsere Ergebnisse verdeutlichen, dass ein hohes Maß an Handlungsspielräumen während der Arbeit förderlich für die Gesundheit sein kann. Das gilt aber nicht für alle Berufe. Denn teilweise sein eigener Chef zu sein, kann uns auch schaden,“ sagt IfADo-Studienautorin Anne-Kathrin Konze.

Während sich Personen mit hohem Arbeitspensum und vielen Abgabefristen weniger erschöpft fühlen, wenn sie die eigenen Arbeitsabläufe selbst bestimmen können, können große Handlungsspielräume Berufstätige belasten, die bei der Arbeit ihre tatsächlichen Gefühlen anpassen müssen.

Handlungsfreiheit je nach Arbeitsanforderung
Denn wenn uns Freiheiten eingeräumt werden, sind wir selbst dafür verantwortlich, den Arbeitstag so zu strukturieren, dass wir vereinbarte Aufgaben fristgerecht erledigen. „Das erfordert ein hohes Maß an Selbstkontrolle – ähnlich wie beim Umgang mit Kunden, bei dem wir unsere Gefühle im Griff haben müssen. Beides zusammen kann schnell zu viel werden“, so Arbeitspsychologin Konze.

In der Praxis sollten Arbeitgeber zunächst klären, was vom jeweiligen Beschäftigten schwerpunktmäßig verlangt wird. Ist die vorrangige Arbeitsanforderung ermittelt, kann entschieden werden, wie selbstständig jemand arbeiten sollte. Handelt es sich um Tätigkeiten unter hohem Zeitdruck, sind Spielräume förderlich.

„Bei emotional belastende Tätigkeiten beispielsweise im Service- und Verkaufsbereich können jedoch Richtlinien helfen, das Wohlbefinden des Personals zu steigern“, rät Konze. Denn in anspruchsvollen Situationen wie beispielsweise dem Umgang mit Kundenbeschwerden ad-hoc selbst über eine Vorgehensweise zu entscheiden, kann die Beschäftigten zusätzlich belasten. Vorgegebene Verhaltensstrategien für solche Situationen könnten die Beschäftigten hingegen entlasten.

Publikation:
Konze, A-K., Rivkin, W., Schmidt, K-H. (2017). Is Job Control a Double-Edged Sword? A Cross-Lagged Panel Study on the Interplay of Quantitative Workload, Emotional Dissonance, and Job Control on Emotional Exhaustion. Int. J. Environ. Res. Public Health, 14, 1608. doi: 10.3390/ijerph14121608 (Open Access)

Ansprechpartnerin:
Anne-Kathrin Konze
Wissenschaftliche Mitarbeiterin „Flexible Verhaltensforschung“
Telefon: + 49 231 1084-237
E-Mail: konze@ifado.de

Pressekontakt:
Eva Mühle
Pressereferentin
Telefon: + 49 231 1084-239
E-Mail: muehle@ifado.de

Das IfADo – Leibniz-Institut für Arbeitsforschung an der TU Dortmund erforscht die Potenziale und Risiken moderner Arbeit auf lebens- und verhaltenswissenschaftlicher Grundlage. Aus den Ergebnissen werden Prinzipien der leistungs- und gesundheitsförderlichen Gestaltung der Arbeitswelt abgeleitet. Das IfADo hat mehr als 200 Mitarbeiter/innen aus naturwissenschaftlichen und technischen Disziplinen. Das Institut ist Mitglied der Leibniz-Gemeinschaft, die 93 selbstständige Einrichtungen umfasst. Die Leibniz-Institute beschäftigen rund 18.600 Personen, darunter 9.500 Wissenschaftlerinnen und Wissenschaftler. Der Gesamtetat der Institute liegt bei 1,7 Milliarden Euro.

Weitere Informationen:
http://www.mdpi.com/1660-4601/14/12/1608 Zum Paper (Open Access)

Quelle: idw

(nach oben)


Wilde Nachbarn

Rudolf-Werner Dreier Presse- und Öffentlichkeitsarbeit
Albert-Ludwigs-Universität Freiburg im Breisgau

Bürger können ihre Beobachtungen von Wildtieren in Städten und Dörfern Baden-Württembergs in einem Web-Portal melden

Wildtiere haben längst entdeckt, dass menschliche Siedlungen einen hervorragenden Lebensraum mit konstantem Nahrungsangebot, milderem Klima, bester Deckung und wenigen Feinden bieten. Dadurch kommt es immer wieder zu Begegnungen zwischen Mensch und Tier. Wer in Baden-Württemberg einen Waschbären hinter der Mülltonne entdeckt, nachts einen Igel auf der Terrasse zu Gast hat oder auf dem Heimweg einem Fuchs begegnet, hat jetzt die Möglichkeit, seine Beobachtung auf dem Web-Portal www.bw.wildenachbarn.de zu melden. Wildtiersichtungen, Spurenfunde, Fuchs- und Dachsbaue sowie Fundorte toter Tiere können dort in eine Karte eingetragen werden. Wem es gelingt, ein Foto seiner Beobachtung zu machen, kann dieses hochladen und sich die von anderen Nutzerinnen und Nutzern eingereichten Bilder anschauen.

„Wilde Nachbarn“ ist Bestandteil des vom Ministerium für Ländlichen Raum und Verbraucherschutz geförderten Projekts „Wildtiere im Siedlungsraum Baden-Württembergs“ der Professur für Wildtierökologie und Wildtiermanagement der Universität Freiburg. Das Web- Portal wird in Zusammenarbeit mit dem Verein StadtNatur betreut. Damit folgt Baden-Württemberg Städten wie Wien, Zürich und Berlin (www.berlin.StadtWildTiere.de), in denen solch eine Meldemöglichkeit schon besteht und von der dortigen Bevölkerung gerne angenommen wird. Nach dem Prinzip der „Citizen Science“ gewinnen Bürgerinnen und Bürger Daten, die Forscherinnen und Forschern ein Bild von der Verteilung der einzelnen Tierarten über den Siedlungsraum vermitteln. Dadurch wird es möglich, Rückschlüsse auf Interaktionshotspots zu ziehen – also Orte, an denen sich Mensch und Wildtier besonders oft begegnen. Dieses Wissen kann für das zukünftige Wildtiermanagement, mit dem Konflikten vorgebeugt werden soll, nützlich sein. Indem Bürger aufgerufen werden, sich an der wissenschaftlichen Forschung zu beteiligen, werden sie gleichzeitig für das Thema sensibilisiert und vielleicht sogar begeistert. Dies ist dem Forschungsteam zufolge in einer Zeit, in der ein Bezug der Menschen zur Natur schwindet, sehr wichtig.

Neben der Möglichkeit zur Meldung von Sichtungen und Konfliktfällen bietet die Website auch umfassende Informationen zu diversen Tierarten sowie Tipps, wie man diese am besten beobachten kann.

www.bw.wildenachbarn.de

Kontakt:
Geva Peerenboom oder Fanny Betge
Wildtierökologie und Wildtiermanagement
Albert-Ludwigs-Universität Freiburg
Tel.: 0761/203-3662
E-Mail: geva.peerenboom@wildlife.uni-freiburg.de
oder fanny.betge@wildlife.uni-freiburg.de

Weitere Informationen:
https://www.pr.uni-freiburg.de/pm/2018/wilde-nachbarn?set_language=de

Quelle: idw

(nach oben)


Es gibt mehr und vielfältigere plastikfressende Bakterien, als bisher angenommen

Birgit Kruse Referat Medien- und Öffentlichkeitsarbeit
Universität Hamburg

Kunststoffe wie PET (Polyethylenterephalat), aus dem Flaschen oder Verpackungen bestehen, werden nur zu einem geringen Teil recycelt, der Großteil gelangt in die Umwelt. Dort wird er nur sehr langsam abgebaut: Laut Umweltbundesamt dauert es bis zu 450 Jahre, bis eine Kunststoffflasche sich aufgelöst hat. 2016 wurde erstmals ein Bakterium entdeckt, das Kunststoff angreift und zersetzt.

Wissenschaftlerinnen und Wissenschaftler um Prof. Dr. Wolfgang Streit vom Biozentrum Klein Flottbek der Universität Hamburg haben jetzt herausgefunden, dass es weitaus mehr und vielfältigere plastikfressende Bakterien gibt, als bisher angenommen. Das Forschungsteam hat seine Ergebnisse gerade in der aktuellen Ausgabe der Fachzeitschrift „Applied and Environmental Microbiology“ veröffentlicht.

Die Mikrobiologinnen und Mikrobiologen analysierten mithilfe von globalen Datenbanken das Erbgut von Bakterien aus verschiedenen Lebensräumen zu Land und im Wasser. Dabei fanden sie heraus, dass viele Bakterien mitverantwortlich für den Abbau von PET sein können und dass die beteiligten Bakterien von ihrer stammesgeschichtlichen Entwicklung vielfältiger sind, als bisher angenommen. Das Forschungsteam untersuchte die Abbauprodukte, die in den Bakterien beim Abbau des Kunststoffs entstehen und die daran beteiligten Enzyme. Dabei konnten sie mehrere hundert neuartige Enzyme finden, die so genannten PET-Hydrolasen. „Wir waren überrascht, dass die beteiligten Bakterienarten viel diverser sind, als bisher angenommen. Unsere Charakterisierung von vier ausgewählten PET-Hydrolasen erweitert nun das Verständnis von den Abbaumechanismen. Es bestätigte sich jedoch, dass der Abbau von PET durch die Bakterien prinzipiell sehr langsam ist“, so Prof. Streit.

Originalveröffentlichung:
New insights into the function and global distribution of polyethylene terephthalate (PET) degrading bacteria and enzymes in marine and terrestrial metagenomes

Dominik Danso, Christel Schmeisser, Jennifer Chow, Wolfgang Zimmermann, Ren Wei, Christian Leggewie, Xiangzhen Li, Terry Hazen, and Wolfgang R. Streit

Appl. Environ. Microbiol. AEM.02773-17; Accepted manuscript posted online 2 February 2018, doi:10.1128/AEM.02773-17, http://aem.asm.org/content/early/2018/01/29/AEM.02773-17

Für Rückfragen:
Prof. Dr. Wolfgang Streit
Universität Hamburg
Biozentrum Klein Flottbek
Tel.: +49 40 42816-463/-461
E-Mail: wolfgang.streit@uni-hamburg.de

Weitere Informationen:
http://aem.asm.org/content/early/2018/01/29/AEM.02773-17 – Originalveröffentlichung: New insights into the function and global distribution of polyethylene terephthalate (PET) degrading bacteria and enzymes in marine and terrestrial metagenomes

Quelle: idw

(nach oben)


Faszien: Vernetzt von Kopf bis Fuß

Dr. Anne Hardy Public Relations und Kommunikation
Goethe-Universität Frankfurt am Main

In einem Artikel für Gray´s Anatomy fassen Sportwissenschaftler und Sportmediziner der Goethe-Uni überraschende Erkenntnisse aus der neueren Forschung zusammen.

FRANKFURT. Lange Zeit galten Faszien als vornehmlich passives Verpackungsmaterial für Muskeln ohne bedeutsame Funktionen für das Bewegungssystem. Als neuere Forschungsergebnisse zeigten, dass sie eine weitaus wichtigere Rolle spielen könnten, entwickelte sich bald das Faszientraining. In seiner neusten Ausgabe würdigt auch das renommierte amerikanische Anatomiebuch „Gray´s Anatomy“ das muskelumhüllende Gewebe mit einem Eintrag. Geschrieben ist er von den Frankfurter Forschern Dr. Jan Wilke und Prof. Winfried Banzer.

In Anatomiebüchern wurden Faszien bisher nur selten exponiert dargestellt, in Anatomiekursen fielen sie meist schnell dem Skalpell zum Opfer, da das dünne, weißliche Gewebe den Blick auf die Muskeln des Körpers verstellt. Inzwischen weiß man aber, dass es eine höhere Nervendichte und Schmerzempfindlichkeit besitzt als Muskeln und somit bei verschiedenen orthopädischen Beschwerden relevant sein könnte. So erklärt sich auch der gegenwärtige Hype um das Faszientraining: Kaum ein Fitnessstudio verzichtet darauf, die Industrie entwickelt unablässig neue Trainingsgeräte und Buchläden präsentieren diverse Werke mit bunten, teils reißerischen Covers.

Mit einem Eintrag in der kürzlich erschienenen 42. Auflage des renommierten Anatomiebuchs „Gray’s Anatomy“ haben Faszien nun auch einen festen Platz im Lehrbuchwissen erhalten. Der Atlas zählt zu den bekanntesten und einflussreichsten Werken weltweit und ist, insbesondere im anglo-amerikanischen Sprachraum, ein Klassiker. Die Frankfurter Sportwissenschaftler Dr. Jan Wilke und Prof. Winfried Banzer, der zugleich Sportmediziner ist, wurden eingeladen, einen Kommentar zu ihren Forschungsergebnissen für Gray´s Anatomy zu verfassen. Beide Autoren beschäftigen sich mit der potenziellen mechanischen Rolle des kollagenen Bindegewebes.

Mit einer systematischen Literaturanalyse konnten Wilke und Banzer nachweisen, dass Faszien, entgegen zahlreicher Darstellungen in Standardwerken der Anatomie, die Muskeln des Körpers nicht voneinander abgrenzen, sondern – teils von Kopf bis Fuß – direkt verbinden. Möglicherweise erklären die so entstehenden Muskel-Faszien-Ketten, warum Schmerzen manchmal in entfernten Körperregionen auftreten. Da im Verlauf der Kontinuitäten auch Kräfte übertragen werden, beschränken sich die Wirkungen von klassischen Sportübungen wie Dehnen oder Krafttraining auch nicht auf den Anwendungsort. Mehrere Studien aus dem Frankfurter Institut für Sportwissenschaften zeigten, dass Dehnübungen der Beinmuskulatur sogar die Beweglichkeit der Halswirbelsäule steigern und nicht weniger effektiv sind, als lokale Übungen des Nackens selbst. Aktuell versuchen Wilke und Banzer herauszufinden, ob die Ergebnisse aus der Grundlagenforschung bei Gesunden auch auf Patienten übertragbar sind.

Hinweise:
• Die 42. Auflage von „Gray´s Anatomy“ ist kürzlich als Ebook erschienen. Die gedruckte Version ist für das Jahr 2020 geplant.
• Am 27. Januar um 22.50 Uhr zeigte ARTE eine Dokumentation zum Thema Faszien, in der, neben anderen führenden Faszienforschern, auch der Frankfurter Wissenschaftler Dr. Jan Wilke zu sehen ist.

Information: Dr. Jan Wilke, Abteilung Sportmedizin, Fachbereich 5, Sportcampus Ginnheim, Tel.: (069) 798 24588, wilke@sport.uni-frankfurt.de.
Aktuelle Nachrichten aus Wissenschaft, Lehre und Gesellschaft in GOETHE-UNI online (www.aktuelles.uni-frankfurt.de)

Die Goethe-Universität ist eine forschungsstarke Hochschule in der europäischen Finanzmetropole Frankfurt. 1914 mit privaten Mitteln überwiegend jüdischer Stifter gegründet, hat sie seitdem Pionierleistungen erbracht auf den Feldern der Sozial-, Gesellschafts- und Wirtschaftswissenschaften, Medizin, Quantenphysik, Hirnforschung und Arbeitsrecht. Am 1. Januar 2008 gewann sie mit der Rückkehr zu ihren historischen Wurzeln als Stiftungsuniversität ein hohes Maß an Selbstverantwortung. Heute ist sie eine der zehn drittmittelstärksten und drei größten Universitäten Deutschlands mit drei Exzellenzclustern in Medizin, Lebenswissenschaften sowie Geistes- und Sozialwissenschaften. Zusammen mit der Technischen Universität Darmstadt und der Universität Mainz ist sie Partner der länderübergreifenden strategischen Universitätsallianz Rhein-Main. Internet: www.uni-frankfurt.de

Herausgeberin: Die Präsidentin der Goethe-Universität Redaktion: Dr. Anne Hardy, Referentin für Wissenschaftskommunikation, Abteilung PR & Kommunikation, Theodor-W.-Adorno-Platz 1, 60323 Frankfurt am Main, Tel: (069) 798-12498, Fax: (069) 798-763 12531, hardy@pvw.uni-frankfurt.de

Quelle: idw

(nach oben)


Medizinerin findet Weg, um Blutdrucksenkung durch Sport vorhersagen zu können

Friederike Meyer zu Tittingdorf Pressestelle der Universität des Saarlandes
Universität des Saarlandes

Bluthochdruck ist weit verbreitet in der Bevölkerung. Wird das Blut zu kraftvoll durch den Körper gepumpt, können zum Teil auch lebensbedrohliche Herz-Kreislauf-Erkrankungen die Folge sein. Melissa Wegmann, Doktorandin am Institut für Sport- und Präventivmedizin der Universität des Saarlandes von Professor Tim Meyer, hat in einer Teilstudie ihrer Doktorarbeit nun herausgefunden, dass ein akut niedrigerer Blutdruck nach einer kurzzeitigen Belastung auf dem Laufband ein praktikabler Indikator dafür ist, dass der Blutdruck auch dauerhaft sinken kann, wenn der Patient ein Ausdauer-Lauftraining absolviert.

Somit könnten auch niedergelassene Ärzte auf einfachem Weg herausfinden, ob eine solche Therapie bei einzelnen Patienten wirken könnte. Für ihre Erkenntnisse wird die Medizinerin mit dem Friedrich-Trendelenburg-Preis der Universität des Saarlandes ausgezeichnet.

Ein Stückchen Kuchen hier, ein kleiner Nachschlag Spaghetti am Abend da und schon am nächsten Tag schmiegt die Hose bei vielen Genießern ein wenig enger um die Hüfte. Es gibt aber auch glückliche Zeitgenossen, die ohne Reue schlemmen können und Jahre später immer noch dieselbe Kleidergröße haben. Ganz ähnlich ist es bei der Behandlung von Bluthochdruck: Ob ein Medikament anschlägt oder nicht, ist von Patient zu Patient unterschiedlich. Statt einer Behandlung mit Medikamenten kann aber auch mäßiger Ausdauersport blutdrucksenkend wirken. Aber hier ist es wie beim Kuchen oder bei den Tabletten: Ob ein Patient durch den Sport tatsächlich dauerhaft seinen Blutdruck senken kann oder ob er trotz fleißigen Lauftrainings keine Wirkung erzielt, konnten Ärzte bisher nicht verlässlich voraussagen.

Melissa Wegmann, Doktorandin am Institut für Sport- und Präventivmedizin von Professor Tim Meyer, hat in ihrer Doktorarbeit nun nach genau solch einer Möglichkeit gesucht, die Wirksamkeit von Sport als blutdrucksenkendes „Medikament Bewegung“ von Patient zu Patient individuell vorherzusagen. Aufbauend auf einer vorhergehenden Studie von Privatdozentin Anne Hecksteden, die ebenfalls am Institut für Sport- und Präventivmedizin arbeitet, hat die angehende Ärztin 127 Probanden (79 Frauen und 48 Männer, untrainiert, gesund, zwischen 30 und 60 Jahren) in vier Trainingsgruppen unterteilt, die ein halbes Jahr lang dreimal wöchentlich Sport machten: Eine Gruppe hat ein Ausdauer-Lauftraining absolviert, die zweite Gruppe ein Intervalltraining aus schnellem Laufen und Ruhepausen, die dritte Gruppe ein kombiniertes Kraft-Ausdauer-Training. Die vierte Gruppe hat sich über das halbe Jahr, in dem die Daten erhoben wurden, als Kontrollgruppe nicht sportlich betätigt. Außerdem hat Melissa Wegmann zu Beginn der Trainingsphase und nach Abschluss der Trainingsphase ein halbes Jahr später mit den Probanden einen Gesundheitscheck auf dem Laufband, ein sogenanntes Belastungs-EKG, durchgeführt und hierbei den Blutdruck vor der Belastung und exakt sieben Minuten nach der Belastung gemessen.

„Es gibt einen eindeutigen Zusammenhang: Diejenigen Probanden, die den Blutdruck nach einer der akuten Belastung auf dem Laufband senken konnten, konnten ihn mit hoher Wahrscheinlichkeit auch chronisch nach einem halben Jahr Ausdauer-Lauftraining senken“, erklärt Melissa Wegmann. Für die Probanden der anderen Trainingsgruppe und der Kontrollgruppe gilt dieser Zusammenhang nicht. Im Umkehrschluss bedeutet dies, dass diejenigen Teilnehmer, die nach der Kurzzeit-Belastung auf dem Laufband einen niedrigeren Blutdruck aufweisen konnten, mit hoher Wahrscheinlichkeit ihren Blutdruck auch dauerhaft durch mäßiges Ausdauer-Lauftraining senken können. „Der Laufband-Test ist damit ein Indikator dafür, ob ein Patient mit Ausdauer-Lauftraining seinen Blutdruck dauerhaft senken kann“, schlussfolgert Melissa Wegmann.

Für praktizierende Ärzte könnte dieses Belastungs-EKG eine einfache Methode sein, um für jeden Blutdruckpatienten individuell vorhersagen zu können, ob bereits ein leichtes Ausdauer-Training Wirkung zeigen könnte, bevor der Patient zu blutdrucksenkenden Medikamenten greifen muss. Ebenso könnten die Krankenkassen auf diese Weise Kosten für die Medikamente sparen.

Außerdem hätte diese Art der Therapie einen schmackhaften Nebeneffekt: Die durch das Lauftraining abtrainierten Kalorien könnten die Patienten – natürlich in Maßen – mit einem Stückchen Kuchen kompensieren, ob sie nun anfällig dafür sind oder nicht.

Melissa Wegmann erhält für ihre Doktorarbeit am 1. Februar den Friedrich-Trendelenburg-Preis der Universität des Saarlandes verliehen. Dieser Preis wird seit 2003 alle zwei Jahre aus den Erträgen der Friedrich-Trendelenburg-Stiftung vergeben. Er erinnert an die durch Professor Dr. Friedrich Trendelenburg initiierte Gründung des Instituts für Präventivmedizin an der Universität des Saarlandes. Er ist mit 2.500 Euro dotiert. Den Festvortrag bei der Preisverleihung am 1. Februar um 17 Uhr hält der Christoph Handschin, Professor für Pharmakologie am Biozentrum der Universität Basel, über das Thema „Die Anpassungsfähigkeit des Skelettmuskels auf Sport und Alter“ (Geb. B 8 1, Raum 0.21).

Weitere Informationen:
Die Studie „Postexercise Hypotension as a Predictor for Long-Term Training-Induced Blood Pressure Reduction: A Large-Scale Randomized Controlled Trial“ ist im November 2017 im „Clinical Journal of sport medicine“ erschienen: www.ncbi.nlm.nih.gov/pubmed/29189337

Fragen beantworten:
Melissa Wegmann
E-Mail: m.wegmann@mx.uni-saarland.de

Prof. Dr. med. Tim Meyer
Institut für Sport- und Präventivmedizin
Universität des Saarlandes
Tel. 0681 – 302 70400
E-Mail: tim.meyer@mx.uni-saarland.de

Weitere Informationen:
http://www.ncbi.nlm.nih.gov/pubmed/29189337
http://www.sportmedizin-saarbruecken.de

Quelle: idw

(nach oben)


Neun Kommunen bei Bundeswettbewerb „Klimaaktive Kommune 2017″ ausgezeichnet

Sybille Wenke-Thiem Stabsstelle Presse- und Öffentlichkeitsarbeit
Deutsches Institut für Urbanistik

Bundesumweltministerium und Difu prämieren vorbildliche Klimaaktivitäten von neun Kommunen mit insgesamt 225.000 Euro Preisgeld

Berlin. Neun Kommunen sind im bundesweiten Wettbewerb „Klimaaktive Kommune 2017″ für ihre vorbildlichen Projekte im Klimaschutz und in der Klimafolgenanpassung prämiert worden. Heute erhielten sie in Berlin den mit jeweils 25.000 Euro dotierten Preis. Die Preisverleihung fand im Rahmen der 10. Kommunalen Klimakonferenz „Akteure im kommunalen Umfeld – Partner, Vorbilder, Impulsgeber“ statt. Die Preise übergab Rita Schwarzelühr-Sutter, Parlamentarische Staatssekretärin im Bundesumweltministerium, zusammen mit Vertretern der kommunalen Spitzenverbände – Detlef Raphael, Beigeordneter für Umwelt und Wirtschaft des Deutschen Städtetages; Georg Huber, Vorsitzender des Umweltausschusses des Deutschen Landkreistages und Roland Schäfer; erster Vizepräsident des Deutschen Städte- und Gemeindebundes – sowie Cornelia Rösler, Leiterin des Bereichs Umwelt im Deutschen Institut für Urbanistik.

Schwarzelühr-Sutter betonte die Bedeutung des kommunalen Engagements: „Der Wettbewerb zeigt erneut, dass Kommunen und Regionen eine Schlüsselrolle beim Klimaschutz und der Klimaanpassung einnehmen. Die ausgezeichneten Städte und Gemeinden nehmen dabei eine Vorbildfunktion ein. Wir stellen aber nicht nur weithin sichtbare Leuchtturmprojekte ins Rampenlicht, sondern auch die, die mit beharrlicher und oft mühsamer Überzeugungsarbeit im Kleinen wichtige Erfolge erzielen. Es freut mich, dass sich Kommunen mit über 100 Beiträgen am Wettbewerb beteiligt haben.“

Die neun gleichrangigen Gewinner:
Kategorie 1: Kommunale Klimaprojekte durch Kooperation
45 Bewerbungen, Preisgeld: je 25.000 Euro
– Landkreis Oldenburg (Niedersachsen): Klimaallianz in der Landwirtschaft
– Stadt Neuötting (Bayern): Gut kombiniert – erneuerbarer Strom trifft Lärmschutz
– Region Bergisches Land (Nordrhein-Westfalen): Beratung und Vernetzung im Bergischen Energiekompetenzzentrum

Kategorie 2: Klimaanpassung in der Kommune
7 Bewerbungen, Preisgeld: je 25.000 Euro
– Stadt Neuss (Nordrhein-Westfalen): Stadtentwicklung im Wandel – Klimaanpassung planen und umsetzen
– Stadt Pirmasens (Rheinland-Pfalz): Klimaanpassung durch Überflutungsvorsorge – individuelle Maßnahmen realisieren
– Landschaftsverband Rheinland (Nordrhein-Westfalen): Konsequente Dachflächenbegrünung zur Anpassung an den Klimawandel

Kategorie 3: Kommunale Klimaaktivitäten zum Mitmachen
50 Bewerbungen, Preisgeld: je 25.000 Euro
– Ortsgemeinde Schnorbach (Rheinland-Pfalz): Förderprogramm bringt Energieeinsparung im ganzen Dorf
– Universitätsstadt Marburg (Hessen): Der Klimaschutzbecher to go
– Landkreis Fürstenfeldbruck (Bayern): Ankommen und verstehen – Geflüchtete für Ressourcenschutz sensibilisieren

Fotos von der Preisverleihung (ab ca. 20 Uhr) unter:
http://www.klimaschutz.de/wettbewerb2017
Kurzfilme über die Gewinnerprojekte unter:
http://www.youtube.com/user/KlimaKompetenz/videos

Der Wettbewerb wird seit 2009 jährlich vom Bundesumweltministerium und dem Deutschen Institut für Urbanistik ausgelobt (bis 2015 Wettbewerb „Kommunaler Klimaschutz“). Kooperationspartner sind die kommunalen Spitzenverbände. Der Wettbewerb richtet sich an Städte, Gemeinden, Landkreise und Regionen. Die Jury besteht aus Vertreterinnen und Vertretern des Bundesumweltministeriums, des Umweltbundesamtes, des Deutschen Städtetages, des Deutschen Landkreistages sowie des Deutschen Städte- und Gemeindebundes. Bewerbungen waren in drei Kategorien möglich.

Die Kategorien im Wettbewerb „Klimaaktive Kommune 2017″
Kategorie 1 „Kommunale Klimaprojekte durch Kooperation“
Vorbildlich realisierte Klimaprojekte, die Ergebnis einer erfolgreichen Kooperation mit verschiedenen Akteuren in der Kommune und/oder mit anderen Kommunen sind. Ausdrücklich gewünscht sind auch Kooperationen mit kommunalen Unternehmen, die sich positiv auf den Klimaschutz und/oder die Anpassung an die Folgen des Klimawandels auswirken. Grundsätzlich gefragt sind immer die Resultate der Zusammenarbeit, z.B. Mobilitätsvorhaben, Bauprojekte oder Beratungsangebote.

Kategorie 2 „Klimaanpassung in der Kommune“
Erfolgreiche kommunale Ansätze, die das Querschnittsthema der Anpassung an die Folgen des Klimawandels – wie stärkere und häufiger auftretende Starkregenereignisse, Stürme, Hitze- oder Trockenperioden – vor Ort voranbringen. Gefragt sind z.B. konkrete Maßnahmen, fachübergreifende Strategien oder Modellprojekte. Dabei sind auch Synergien von Klimaschutz und Klimaanpassung wünschenswert.

Kategorie 3 „Kommunale Klimaaktivitäten zum Mitmachen“
Erfolgreich umgesetzte Aktionen, um Menschen vor Ort zur Umsetzung von Klimaschutzmaßnahmen und/oder Maßnahmen zur Anpassung an die Folgen des Klimawandels zu motivieren, z.B. kommunale Kampagnen oder spezifische Angebote.

Die Projekte der Gewinnerkommunen
Kategorie 1: Kommunale Klimaprojekte durch Kooperation
Landkreis Oldenburg (Niedersachsen): Klimaallianz in der Landwirtschaft
Die „Klimaallianz in der Landwirtschaft“ ist ein Zusammenschluss des Landkreises Oldenburg mit der Landwirtschaftskammer Niedersachsen und dem Kreislandvolkverband Oldenburg, um gemeinsam die Treibhausgasemissionen in der Landwirtschaft signifikant zu reduzieren. Dazu werden landwirtschaftliche Betriebe in der Region kostenfrei beraten und erhalten individuelle Klimabilanzen sowie Maßnahmenvorschläge, um den eigenen Betrieb klimafreundlich und ressourceneffizient zu bewirtschaften.

Stadt Neuötting (Bayern): Gut kombiniert – erneuerbarer Strom trifft Lärmschutz
Mit dem Bau einer Lärmschutzwand mit integrierten Photovoltaikelementen hat die Stadt Neuötting gemeinsam mit der EnergieGenossenschaft Inn-Salzach einen innovativen Weg gefunden, Klima- und Lärmschutz sinnvoll zu kombinieren, ohne zusätzliche Flächen zu verbrauchen. Durch die enge Zusammenarbeit beider Partner konnte die 234 Meter lange PV-Lärmschutzwand realisiert werden, die ein Neubaugebiet vor Verkehrslärm schützt und eine nahe gelegene Montessori-Schule mit erneuerbarer Energie versorgt.

Region Bergisches Land (Nordrhein-Westfalen): Beratung und Vernetzung im Bergischen Energiekompetenzzentrum
Mit dem Bergischen Energiekompetenzzentrum hat die Region Bergisches Land zusammen mit zahlreichen Partnern einen zukunftsweisenden Kompetenz-, Lern- und Innovationsort für die Themen Stoffumwandlung, Ressourcenmanagement und Umwelttechnologie geschaffen, der ein ehemaliges Deponiegelände mit neuem Leben erfüllt. Durch die unterschiedlichen Beratungs- und Informationsangebote sowie eine umfassende Netzwerkarbeit gelingt es, Know-how zu bündeln und einer breiten Zielgruppe zu vermitteln. Zugleich werden Wissenschaft und Forschung zu erneuerbaren Energien vor Ort gefördert und vorangetrieben.

Kategorie 2: Klimaanpassung in der Kommune
Stadt Neuss (Nordrhein-Westfalen): Stadtentwicklung im Wandel – Klimaanpassung planen und umsetzen
Um die Anpassung an den Klimawandel nachhaltig in die Bauleit- und Grünplanung zu verankern, verfolgt die Stadt Neuss seit vielen Jahren eine Integration in institutionalisierte Planungsverfahren der Verwaltung. Durch die intensive Untersuchung des lokalen Klimas, die Schaffung einer umfangreichen Datenbasis und die Definition von Leitlinien zum Stadtklima hat sie die hierfür notwendigen Grundlagen geschaffen. Instrumente wie Planungshinweiskarten und eine breite Abstimmung mit allen an der Planung von Maßnahmen in Neubau und Bestand Beteiligten ermöglichen eine klimagerechte Planung und vermeiden bzw. vermindern Interessenkonflikte mit anderen Belangen.

Stadt Pirmasens (Rheinland-Pfalz): Klimaanpassung durch Überflutungsvorsorge – individuelle Maßnahmen realisieren
Die Stadt Pirmasens geht die Anpassung ihres Entwässerungssystems an die Folgen des Klimawandels aktiv und zielgerichtet an. Im Rahmen eines Klimaanpassungskonzepts führte sie Analysen zur Betroffenheit durch, auf deren Grundlage im Rahmen einer kommunalen Steuerungsgruppe konkrete und individuelle Maßnahmen geplant wurden. Um Schäden durch Starkregenereignisse zukünftig zu vermeiden, setzte Pirmasens zeitnah verschiedene Baumaßnahmen um. Vorbildlich ist vor allem die Anwendung von naturnahen Lösungen zur Versickerung und schadlosen Ableitung von Niederschlägen.

Landschaftsverband Rheinland (Nordrhein-Westfalen): Konsequente Dachflächenbegrünung zur Anpassung an den Klimawandel
Die Begrünung von Dachflächen birgt große Potenziale, um vor allem in bestehenden, verdichteten Siedlungsgebieten einen Beitrag zur Klimaanpassung zu leisten. Der Landschaftsverband Rheinland greift dieses Potenzial bei anstehenden Dachsanierungen bzw. einer entsprechenden Dachausführung im Neubau mit der konsequenten Begrünung seiner großflächigen Liegenschaften auf. Zugleich nutzt der Verband Synergien zwischen Klimaschutz und Klimaanpassung, indem er geeignete Gründächer zusätzlich mit Solaranlagen ausstattet.

Kategorie 3 „Kommunale Klimaaktivitäten zum Mitmachen“
Ortsgemeinde Schnorbach (Rheinland-Pfalz): Förderprogramm bringt Energieeinsparung im ganzen Dorf
Mit einem zielgerichteten Förderprogramm bietet die Ortsgemeinde Schnorbach ihren
Bürgerinnen und Bürgern finanzielle Unterstützung bei der Umsetzung von Energieeinsparmaßnahmen. Getragen wird es durch Einnahmen der Gemeinde aus der Verpachtung kommunaler Flächen für Windkraftanlagen. Das Fördermodell steigert die Akzeptanz von Klimaschutz und erneuerbaren Energien in der Bevölkerung und hat Vorbildcharakter für andere Gemeinden in der Region.

Universitätsstadt Marburg (Hessen): Der Klimaschutzbecher to go
Der „Klimaschutzbecher to go“, ein nachhaltig produzierter Mehrwegbecher, ist zentraler Bestandteil einer Kampagne der Stadt Marburg, um auf die Umweltbelastung und Ressourcenverschwendung durch Einweg-Getränkebecher aufmerksam zu machen. Die Aktion motiviert die Nutzerinnen und Nutzer, mit einer kleinen Verhaltensänderung im Alltag aktiv zum Klimaschutz beizutragen. Langfristig soll sich die Kampagne in den Gastronomie- und Bäckereibetrieben der Stadt etablieren und verselbstständigen.

Landkreis Fürstenfeldbruck (Bayern): Ankommen und Verstehen – Geflüchtete für Ressourcenschutz sensibilisieren
Der Landkreis Fürstenfeldbruck hat mit „Ankommen und Verstehen – Geflüchtete für Ressourcenschutz sensibilisieren“ ein Schulungsprogramm erarbeitet und durchgeführt, um nach Deutschland geflüchtete Menschen in interkulturellen Gruppen zu einem verantwortungsvollen und nachhaltigen Umgang mit Energie, Wasser oder Wertstoffen zu motivieren. Damit wird eine weitere Zielgruppe erreicht, um den Ressourcen- und Klimaschutz in der Kommune zu verankern. Gleichzeitig werden die Geflüchteten auf dem Weg in die für sie neue Gesellschaft unterstützt.

Der Wettbewerb „Klimaaktive Kommune“ wird im Rahmen des Projekts „KlimaPraxis“ vom Deutschen Institut für Urbanistik durchgeführt. Das Projekt wird aus Mitteln der Nationalen Klimaschutzinitiative des Bundesumweltministeriums gefördert und dient der Information, Motivation und Vernetzung von Kommunen im Bereich Klimaschutz.

Kontakt:
Anna Hogrewe-Fuchs und Ulrike Vorwerk (Presse- und Öffentlichkeitsarbeit)
Deutsches Institut für Urbanistik gGmbH (Difu)
Bereich Umwelt
Auf dem Hunnenrücken 3, 50668 Köln
Telefon: Tel: 0221-340 308 16/-17
Fax: 0221-340 308 28
E-Mail: hogrewe-fuchs@difu.de, vorwerk@difu.de, klimaschutz@difu.de
Internet: http://www.klimaschutz.de/wettbewerb2017, http://www.difu.de

Kurzinfo: Deutsches Institut für Urbanistik
Das Deutsche Institut für Urbanistik (Difu) ist als größtes Stadtforschungsinstitut im deutschsprachigen Raum die Forschungs-, Fortbildungs- und Informationseinrichtung für Städte, Kommunalverbände und Planungsgemeinschaften. Ob Stadt- und Regionalentwicklung, kommunale Wirtschaft, Städtebau, soziale Themen, Umwelt, Verkehr, Kultur, Recht, Verwaltungsthemen oder Kommunalfinanzen: Das 1973 gegründete unabhängige Berliner Institut – mit einem weiteren Standort in Köln (Bereich Umwelt) – bearbeitet ein umfangreiches Themenspektrum und beschäftigt sich auf wissenschaftlicher Ebene praxisnah mit allen Aufgaben, die Kommunen heute und in Zukunft zu bewältigen haben. Der Verein für Kommunalwissenschaften e.V. ist alleiniger Gesellschafter des in der Form einer gemeinnützigen GmbH geführten Forschungsinstituts.

Weitere Informationen:
http://www.klimaschutz.de/wettbewerb2017 Fotos von der Preisverleihung
http://www.youtube.com/user/KlimaKompetenz/videos Kurzfilme über die Gewinnerprojekte
http://www.klimaschutz.de/wettbewerb2017 Wettbewerbsseite
http://www.difu.de Difu Website

Anhang
Preisträger Kategorie 3
https://idw-online.de/de/attachment64384

Quelle: idw

(nach oben)


Entdeckte Brustkrebsvorstufen im Mammographie-Screening meist aggressiv

PD Dr. med. Stefanie Weigel, Prof. Dr. med. Walter Heindel Geschäftsbereich Unternehmenskommunikation
Universitätsklinikum Münster

Das im Zweijahresintervall durchgeführte Mammographie-Screening hat unter den Brustkrebsvorstufen als häufigste Diagnose die biologisch aggressivste Form ermittelt. Das duktale Carcinoma in situ vom hohen Kernmalignitätsgrad trägt das höchste Risiko zum Übergang in ein „invasives Karzinom“ – einen bösartigen Tumor, der in das umliegende Gewebe wächst und in die Lymphknoten und anderen Organe streuen kann.

Die aktuelle Untersuchung aus Nordrhein-Westfalen hat Screening-Ergebnisse von 714.000 Frauen ausgewertet, die im Abstand von jeweils zwei Jahren bis zu dreimal am Mammographie-Screening teilgenommen haben. Bei 1970 Frauen wurde eine Brustkrebsvorstufe entdeckt. In der Hälfte aller Fälle handelte um es sich um die aggressivste Form, wie die Folgeuntersuchungen ergaben.

Die Ergebnisse deuten auf erheblich weniger Überdiagnosen im Mammographie-Screening als oft behauptet. Bei Überdiagnosen handelt es sich um entdeckte Brustkrebserkrankungen, die im Laufe des Lebens einer Frau ohne Früherkennung nicht auffällig geworden wären. Die größte Wahrscheinlichkeit einer Überdiagnose wird den „harmlosen“ Brustkrebsvorstufen zugeschrieben, die erst in mehr als zehn Jahren in einen invasiven Brustkrebs übergehen können.

Das interdisziplinäre Forscherteam der Universität Münster hat anhand großer Datenmengen gezeigt, dass die im Folgerunden-Screening entdeckten aggressiveren Brustkrebsvorstufen schneller im Vergleich zu den harmloseren Formen nachwachsen. Daher steigt ihr Anteil mit der wiederholten Screening-Teilnahme. Das bedeutet im Umkehrschluss, dass gerade die regelmäßig teilnehmenden Frauen vom Mammographie-Screening besonders profitieren. Denn sind die Brustkrebsvorstufen aggressiv, werden sie durch diese Form der Brustkrebsfrüherkennung häufig entdeckt, bevor sie in einen aggressiven invasiven Brustkrebs übergehen können.

Originalarbeit:
Weigel S, Khil L, Hense HW, Decker T, Wellmann J, Heidrich J, Sommer A, Heidinger O, Heindel W.
Detection Rates of Ductal Carcinoma in Situ with Biennial Digital Mammography Screening: Radiologic Findings Support Pathologic Model of Tumor Progression.
Radiology. 2018 Feb; 286(2): 424-432 [Epub 2017 Nov 6]. Doi: 10.1148/radiol2017170673

Weitere Informationen:
http://Radiologie.ukmuenster.de

Quelle: idw

(nach oben)


BfS will Hautkrebsprävention rechtlich verankern

Nicole Meßmer PB2/ Pressearbeit
Bundesamt für Strahlenschutz

Treffen des UV-Schutz-Bündnisses in München

Gemeinsam mit den Partnern des UV-Schutz-Bündnisses setzt sich das Bundesamt für Strahlenschutz (BfS) für bessere Möglichkeiten zur Vorbeugung von Hautkrebs ein. Hierfür soll die Hautkrebsprävention im Präventionsgesetz des Bundes verankert werden. Anlässlich des Treffens des UV-Schutz-Bündnisses in Neuherberg bei München versicherte BfS-Präsidentin Inge Paulini: „Wir wollen die Zahl UV-bedingter Hautkrebserkrankungen reduzieren. Zuerst müssen wir aber deren Anstieg stoppen. Dafür bedarf es der Aufklärung und Information und des Ausbaus von gesundheitsfördernden Strukturen. Beides sieht das Präventionsgesetz zur Gesundheitsförderung und Prävention in Lebenswelten und Betrieben vor. Deshalb wollen wir darauf hinarbeiten, dass die Vorbeugung von Hautkrebs Teil dieses Gesetzes wird.“

Das BfS arbeitet seit Jahrzehnten daran, UV-bedingten Erkrankungen und vor allem Hautkrebs mittels Forschung, Information und Vorbeugemaßnahmen entgegen zu wirken. Hochrechnungen auf Basis der Daten des Krebsregisters Schleswig-Holstein von 2017 zeigen allerdings, dass die Zahl der Hautkrebsneuerkrankungen weiter zugenommen hat. Demnach erkrankten 2014 rund 291.000 Menschen neu an Hautkrebs, davon etwa 254.000 an Hautkrebs hellen Typs und etwa 36.000 am schwarzen Hautkrebs, dem Melanom. Dies sind etwa zehn Prozent mehr als noch im Vorjahr. „Diese Zahlen und die Tatsache, dass sich die Zahl der Hautkrebsneuerkrankungen alle 10 bis 15 Jahre verdoppelt, zeigen ganz deutlich, dass Hautkrebs ein beachtenswertes Gesundheitsrisiko ist und wir dringend etwas dagegen tun müssen“, betonte Paulini.

Gemeinsam mit den 19 weiteren Partnern im UV-Schutz-Bündnis fordert das BfS deshalb, Hautkrebsprävention als Teilziel der Gesundheitsziele „Gesund aufwachsen“ und „Gesund alt werden“ in das Präventionsgesetz aufzunehmen.

Das Präventionsgesetz, das im Sommer 2015 in Kraft getreten ist, zielt darauf ab, Prävention und Gesundheitsförderung im direkten Lebensumfeld der Menschen zu etablieren, also in Kindertagesstätten, Schulen, am Arbeitsplatz oder im Pflegeheim. Zuständig für das Präventionsgesetz ist das Bundesgesundheitsministerium.

Das UV-Schutz-Bündnis ist eine Kooperation namhafter Gesellschaften, Organisationen und Behörden aus Strahlenschutz, Medizin, Wissenschaft und Arbeitsschutz, die sich seit Jahren für gelebten UV-Schutz einsetzen. Gemeinsam tritt das Bündnis für einen verantwortlichen Umgang mit UV-Strahlung ein. Ziel des Bündnisses ist es, langfristig die Zahl der Neuerkrankungen an Hautkrebs und anderen Gesundheitsschäden durch UV-Strahlung zu reduzieren. Schwerpunkt des Treffens am BfS-Standort Neuherberg sollte nun sein, weitere Schritte zur Umsetzung der Ziele des im vergangenen Jahr beschlossenen Grundsatzpapiers zu besprechen. Gegründet wurde das Bündnis im Jahr 2011.

Weitere Informationen zum UV-Schutzbündnis finden Sie unter:
www.bfs.de/uv-schutz-buendnis

Quelle: idw

(nach oben)


Batterie oder Brennstoffzelle? Jülicher Forscher berechnen Kosten des Infrastrukturausbaus

Dipl.-Biologin Annette Stettien Unternehmenskommunikation
Forschungszentrum Jülich

Die Zukunft der Mobilität ist elektrisch. Doch noch ist unklar, welche Technologie unter der Motorhaube das Rennen machen wird: Batterien, die regelmäßig an eine Ladesäule gehängt werden müssen, oder Brennstoffzellen, die Wasserstoff von der Tankstelle benötigen. Die Kosten für die jeweilige Infrastruktur hängen stark davon ab, wie viele Fahrzeuge versorgt werden müssen. Ein Vergleich, den Experten vom Forschungszentrum Jülich angestellt haben, zeigt: Ab mehreren Millionen Fahrzeugen ist der Aufbau einer Wasserstoffinfrastruktur günstiger. Beide Technologien sind notwendig, um die Verkehrswende erfolgreich zu meistern.

„Deutschland hat sich ambitionierte, aber notwendige Ziele beim Klimaschutz gesetzt“, sagt Martin Robinius vom Jülicher Institut für Energie- und Klimaforschung (IEK-3) und einer der Autoren der Studie. „Doch gerade im Verkehrssektor liegen wir noch weit hinter den angestrebten Reduktionen zurück.“ Der Übergang zu emissionsarmen Fahrzeugflotten könne aber gelingen durch E-Fahrzeuge, die ihre Energie aus erneuerbaren Quellen beziehen, argumentiert der Wirtschaftsingenieur.

Wenn die Windräder in Deutschlands Norden auf Hochtouren laufen, erzeugen sie so viel Strom, dass das Netz ihn nicht aufnehmen kann. Mit diesem Strom könnte man Fahrzeuge antreiben. Von zentraler Bedeutung dürfte es dabei sein, in welcher Form die Energie gespeichert und transportiert wird: Sollen zukünftig batteriebetriebene Elektroautos über unsere Straßen rollen oder Brennstoffzellenfahrzeuge, die mit Wasserstoff betankt werden?

Beide Technologien stehen derzeit noch am Anfang ihrer Marktentwicklung. Gerade deshalb sei es von zentraler Bedeutung, die Kosten der zukünftigen Infrastruktur frühzeitig abzuschätzen, um nicht in eine technologische Sackgasse zu geraten: „Setzen wir von Anfang an alles auf nur eine Karte, dürfte es schwierig werden, das System umzustellen, wenn sich die Rahmenbedingungen verändern“, argumentiert Martin Robinius. Die Jülicher Studie, die vom Gemeinschaftsunternehmen H2 MOBILITY beauftragt wurde, soll hier für Orientierung sorgen.

Viele Experten favorisieren zurzeit die Batterie, denn das elektrische Netz existiert bereits. Es müsste bloß eine gewisse Menge an weiteren Ladesäulen aufgestellt werden. Außerdem überzeugt ein vollkommen elektrischer Prozess durch einen hohen Wirkungsgrad. Das sieht beim Wasserstoff anders aus: Ein Großteil der Infrastruktur muss noch aufgebaut werden: Das sind zum einen Elektrolyseure, die den Strom aus Rekordzeiten der Windenergie nutzen, um Wasser zu spalten. Der Wasserstoff, der dabei entsteht, kann zunächst in unterirdischen Salzkavernen gelagert werden, um dann beispielsweise über ein Pipelinesystem an die Tankstellen verteilt zu werden.

Die Experten aus Jülich haben beide Szenarien analysiert und kommen zu dem Ergebnis: Die Rentabilität hängt davon ab, wie viele Fahrzeuge mit Batterie- oder Brennstoffzellenantrieb auf den Straßen unterwegs sind. Die Investitionen in den Infrastrukturausbau sind für beide Technologien bei geringen Fahrzeugbeständen bis zu einigen Hunderttausend nahezu gleich. Der Wasserstoff würde in diesem Zeitraum noch von der Industrie aus konventionellen Quellen bereitgestellt werden.

Es dürfte dann eine Übergangsphase folgen, während der die Erzeugung und Speicherung von grünem Wasserstoff mit Hilfe von Überschussstrom ausgebaut wird. Die Kosten für die dafür notwendigen Elektrolyseure treiben den Preis für den Wasserstoff in die Höhe. Gleichzeitig ermöglichen diese es, saisonale Überschüsse der erneuerbaren Energien in Form von Wasserstoff über längere Zeiten zu speichern, was mit der Batterietechnik alleine so nicht möglich ist.

„Elektroautos mit Batterie stellen in dieser Phase den kostenoptimalen Pfad dar, langfristig sind sie aber nicht optimal“, erklärt Martin Robinius. „Ab mehreren Millionen Fahrzeugen beginnt sich das Verhältnis umzukehren.“ Die Studie aus Jülich betrachtet eine Marktdurchdringung von bis zu 20 Millionen Fahrzeugen, was knapp der Hälfte des heutigen Bestands entspricht. Dann sind die Investitionen in eine Ladesäulen-Infrastruktur mit rund 51 Mrd. € höher im Vergleich zur Wasserstoff-Infrastruktur (40 Mrd. €). Die Mobilitätskosten hingegen unterscheiden sich in diesem Stadium kaum. Sie liegen in beiden Fällen zwischen 4,5 und 4,6 Eurocent pro Kilometer.

Die Gesamtkosten seien in beiden Fällen deutlich geringer als Investitionen in anderen Infrastruktur-Bereichen. Die Studienautoren empfehlen daher, beide Pfade auszubauen. „Wir brauchen beide Infrastrukturen, und wir können sie uns auch leisten: Batterien und Wasserstoff schließen sich nicht gegenseitig aus. Und wir müssen so schnell wie möglich damit beginnen, sie beide aufzubauen. Darin liegt sicher auch eine große Chance für die Innovationsfreudigkeit in unserem Land der Ingenieure“, erklärt Institutsleiter Prof. Detlef Stolten.

Originalpublikation:
„Comparative Analysis of Infrastructures: Hydrogen Fueling and Electric Charging of Vehicles“ http://www.fz-juelich.de/iek/iek-3/DE/Forschung/_Process-and-System-Analysis/New…

Weitere Informationen:
Forschungszentrum Jülich, Institut für Energie- und Klimaforschung, Elekrochemische Verfahrenstechnik (IEK-3) http://www.fz-juelich.de/iek/iek-3/

Ansprechpartner:
Dr.-Ing. Martin Robinius
Forschungszentrum Jülich, Institut für Energie- und Klimaforschung, Elekrochemische Verfahrenstechnik (IEK-3)
Telefon: +49 2461 61-3077
E-Mail: m.robinius@fz-juelich.de

Prof. Dr.- Ing. Detlef Stolten
Forschungszentrum Jülich, Institut für Energie- und Klimaforschung, Elekrochemische Verfahrenstechnik (IEK-3)
Telefon: +49 2461 61- 3076
E-Mail: d.stolten@fz-juelich.de

Pressekontakt:
Tobias Schlößer
Forschungszentrum Jülich, Unternehmenskommunikation
Tel. +49 2461 61-4771
E-Mail: t.schloesser@fz-juelich.de

Weitere Informationen:
http://www.fz-juelich.de/SharedDocs/Pressemitteilungen/UK/DE/2018/2018-01-30-h2-… Pressemitteilung des Forschungszentrums Jülich
http://h2-mobility.de/news-und-infos/batterie-und-wasserstoff-h2-forschungszentr… Pressemitteilung der H2 MOBILITY Deutschland GmbH & Co. KG

Quelle: idw

(nach oben)


Nur selten zu hohe Pflanzenschutzmittelrückstände in Lebensmitteln

Nina Banspach Pressestelle
Bundesamt für Verbraucherschutz und Lebensmittelsicherheit (BVL)

Quote der Höchstgehaltsüberschreitungen 2016 aber leicht gestiegen
Lebensmittel, die in Deutschland und in der EU erzeugt werden, enthalten nur selten zu hohe Rückstände an Pflanzenschutzmitteln. Im Jahr 2016 wurden bei 1,7 % (Deutschland) bzw. bei 1,6 % (andere EU-Staaten) der untersuchten Erzeugnisse Überschreitungen der Rückstandshöchstgehalte festgestellt. Die Quote stieg damit zwar leicht gegenüber dem Vorjahr an, bestätigt aber das seit Jahren niedrige Niveau an Überschreitungen. Dies geht aus der „Nationalen Berichterstattung Pflanzenschutzmittelrückstände in Lebensmitteln 2016″ hervor, die das Bundesamt für Verbraucherschutz und Lebensmittelsicherheit (BVL) veröffentlicht hat.

Die Untersuchungsergebnisse der Bundesländer zeigen: Bei häufig verzehrten Lebensmitteln wie Äpfeln, Karotten, Kartoffeln und beliebten saisonalen Erzeugnissen wie Erdbeeren oder Spargel sind seit Jahren kaum oder gar keine Rückstandshöchstgehaltsüberschreitungen festzustellen. Dagegen tauchen Bohnen und frische Kräuter regelmäßig in der Liste der Kulturen mit den meisten Überschreitungen (mindestens 100 Proben) auf – so auch 2016. Während sich die Quote bei Bohnen (mit Hülsen) jedoch deutlich reduziert hat (2015: 7,6 %, 2016: 2,2 %), ist diese bei frischen Kräutern mit 5,6 % auf hohem Niveau geblieben (2015: 6,0 %). Negative Spitzenreiter bei den Überschreitungen im Jahr 2016 sind wilde Pilze (12,4 %) sowie Johannisbeeren (9,5 %).

Tiefkühl-Johannisbeeren wurden im Rahmen des Projektmonitorings im Jahr 2016 verstärkt kontrolliert, um Unterschiede in der Belastung von frischem Obst gegenüber Tiefkühlware feststellen zu können. Bei den beanstandeten Proben von Johannisbeeren handelte es sich vorwiegend um Tiefkühlware. Ebenfalls vermehrt untersucht wurden 2016 wilde Pilze (auf Pflanzenschutzmittel und Elemente). Auffällig waren hier vor allem erhöhte Gehalte an Quecksilber, das aus der Umwelt stammt.

Die auffälligsten Lebensmittel kamen 2016 aus der Gruppe Mukunuwenna (Alternanthera sessilis) und Wasserspinat (Ipomea aquatica) aus Sri Lanka bzw. Thailand mit einer Überschreitungsquote von 56,5 % (23 Proben; davon 13 Überschreitungen). Insgesamt stellen beide eher Nischenprodukte dar. Bei beiden handelt es sich um amphibische Pflanzen, die vorwiegend in der asiatischen und afrikanischen Küche sowohl als Blattgemüse oder Salat verzehrt als auch für medizinische Zwecke genutzt werden.

Bei 54 von 135 Lebensmittelgruppen (mit mindestens zehn Proben) konnten in keiner der untersuchten Proben Überschreitungen der Rückstandshöchstgehalte festgestellt werden.

Der Rückstandshöchstgehalt ist die Menge an Pflanzenschutzmittelrückständen, die bei ordnungsgemäßer Anwendung nicht überschritten werden sollte. Eine Überschreitung eines Rückstandshöchstgehalts ist nicht gleichbedeutend mit einer Gesundheitsgefahr für die Verbraucher.

Wirkstoffe
Zu den Wirkstoffen mit den häufigsten Überschreitungen gehörten wie im Vorjahr Kupfer (2,6 %), Fosetyl (1,3 %), Quecksilber (1,4 %) und Acetamiprid (0,9 %). Kupfer ist auch als Futtermittelzusatzstoff zugelassen und überschreitet daher häufig in Rinder- und Schafsleber den Rückstandshöchstgehalt, der für die zulässigen Pflanzenschutzmittelanwendungen bei pflanzlichen Erzeugnissen ausgelegt ist.
Bei Glyphosat kam es 2016 zu 11 Überschreitungen bei einer Probenzahl von 4.058 Proben (0,3 %). Hierbei handelte es sich in sechs Fällen um Honig (davon fünf Proben aus Deutschland), in vier Fällen um Buchweizen und in einem Fall um Hirsekörner.

Rückstände in Säuglings- und Kleinkindernahrung
Aufgrund der Befunde an Phosphonsäure in Babynahrung in den Jahren 2014 und 2015 wurde auch 2016 wieder Säuglings- und Kleinkindernahrung auf Fosetyl (Summe aus Fosetyl und Phosphonsäure) untersucht. 2016 wurden in 19 von 440 Proben (4,3 %, 2015: 10,3 %) Rückstände von Phosphonsäure über dem Höchstgehalt von Fosetyl (Summe) von 0,01 mg/kg gefunden. Dabei hat es sich bei 12 von 19 Proben um Erzeugnisse aus ökologischem Anbau gehandelt.
Die Rückstände können als Folge der Anwendung des fungiziden Wirkstoffs Fosetyl, aber auch aus anderen Eintragsquellen wie durch die legale Anwendung von phosphonathaltigen Düngern auftreten, welche auch im ökologischen Landbau zulässig sind.

Lebensmittel aus ökologischem Anbau
Bio-Lebensmittel wurden wie in den Vorjahren besonders intensiv kontrolliert. Etwa jede zehnte Untersuchung entfiel auf dieses Marktsegment, dessen Anteil am gesamten Lebensmittelmarkt unter 5 % liegt. 71% der kontrollierten Biowaren enthielten keine quantifizierbaren Rückstände. Bei konventionell hergestellter Ware waren dies nur 38,7%. Auch der Anteil der Rückstandshöchstgehaltsüberschreitungen war bei Bio-Lebensmitteln mit 1,0 % geringer als bei konventionell erzeugter Ware (2,6 %).

Unterschiede bei Betrachtung nach Herkunft
Im Rahmen der überwiegend risikoorientiert durchgeführten Kontrolle von Lebensmitteln auf das Vorhandensein von Rückständen von Pflanzenschutzmitteln wurden 2016 bei der Untersuchung von 19.899 Lebensmittelproben in den Laboren der Bundesländer mehr als 5,8 Millionen Analyseergebnisse erzeugt. Dabei wurden die Höchstgehalte für Pflanzenschutzmittelrückstände in deutschen Erzeugnissen bei 1,7 % der untersuchten Proben überschritten (2012: 1,6 %, 2013: 1,1 %, 2014: 1,9 % und 2015: 1,1 %). Bei Erzeugnissen aus anderen EU-Mitgliedstaaten wurden in 1,6 % der Proben Überschreitungen festgestellt (2015: 1,1 %), bei Erzeugnissen aus Drittländern in 6,3 % der Proben (2015: 5,5 %).

Lebensmittel, die in der Vergangenheit auffällig geworden sind, werden durch den risikoorientierten Ansatz der Kontrollen häufiger und mit höheren Probenzahlen untersucht. Der Anteil an Proben, bei denen Pflanzenschutzmittelrückstände festgestellt werden, ist dadurch überproportional groß. Es ist deshalb davon auszugehen, dass die durchschnittliche Belastung von Lebensmitteln mit Rückständen von Pflanzenschutzmitteln niedriger ist.

Weiterführende Informationen
Zusammenfassung des Berichts „Nationale Berichterstattung Pflanzenschutzmittelrückstände in Lebensmitteln 2016″: www.bvl.bund.de/psmr_2016_zus
Bericht zur „Nationalen Berichterstattung Pflanzenschutzmittelrückstände in Lebensmitteln 2016″: www.bvl.bund.de/psmr_2016
Tabellen zur „Nationalen Berichterstattung Pflanzenschutzmittelrückstände in Lebensmitteln 2016″: www.bvl.bund.de/psmr_tabellen2016
Archiv der Berichte zur „Nationalen Berichterstattung Pflanzenschutzmittelrückstände“ einschließlich der entsprechenden Tabellen: www.bvl.bund.de/nbpsm_archiv

Anhang
PI Pflanzenschutzmittelrückstände
https://idw-online.de/de/attachment64270

Quelle: idw

(nach oben)


Große Resonanz beim ACHEMA-Gründerpreis 2018

Dr. Christine Dillmann Öffentlichkeitsarbeit
DECHEMA Gesellschaft für Chemische Technik und Biotechnologie e.V.

21 potenzielle Unternehmer und Start-up-Gründer haben zum Stichtag ihre Businesspläne für den ACHEMA-Gründerpreis eingereicht. Das Spektrum reicht von analytischen Verfahren für Produktion und Medizin über Rohstoffrückgewinnung aus Klärschlamm oder Solarzellen bis zu digitalen Lösungen für die Prozessindustrie. Der ACHEMA-Gründerpreis 2018 wird am 11. Juni 2018 im Rahmen der Eröffnungssitzung der ACHEMA vergeben.

Gemeinsame Pressemitteilung von DECHEMA, Business Angels FrankfurtRheinMain und High-Tech Gründerfonds (HTGF)
Im von der DECHEMA, dem High-Tech Gründerfonds und den Business Angels FrankfurtRheinMain getragenen Wettbewerb konnten junge Entrepreneure Businesspläne aus allen Bereichen der chemischen Technik, Verfahrenstechnik und Biotechnologie einreichen. Eine hochrangig besetzte Expertenjury wird im Februar aus den Einreichungen die zehn Finalisten auswählen, die sich im Rahmen der ACHEMA am Gründerpreisstand präsentieren können.

Die drei Gesamtsieger werden erst im Rahmen der ACHEMA-Eröffnung bekanntgegeben. Sie erhalten jeweils ein Preisgeld von 10.000 Euro. „Das Bewusstsein, wie wichtig Innovationen für unsere Branchen sind, ist stark – das zeigt auch das Engagement von Partnern wie Merck, Accenture und Evonik für den ACHEMA-Gründerpreis“, sagt Dr. Andreas Förster, Leiter der DECHEMA-Forschungsförderung und Organisator des ACHEMA-Gründerpreises. Dr. Michael Brandkamp, Geschäftsführer des High-Tech Gründerfonds ergänzt: „Wir sind mit der Resonanz außerordentlich zufrieden. Der ACHEMA-Gründerpreis trägt dazu bei, Gründer zu motivieren und die Stakeholder besser zu vernetzen. So entsteht eine starke Innovationslandschaft.“ Dr. Manfred Spindler, Vorstand der Business Angels FrankfurtRheinMain, bewertet den Effekt des Wettbewerbs ebenfalls positiv: „Die Preisträger der Erstauflage sind sehr erfolgreich. Auch diesmal belegt die Bandbreite der eingereichten Businesspläne, wieviel Innovationspotenzial in Chemie und Biotechnologie schlummert. Start-Ups spielen eine wesentliche Rolle, um es zu heben.“

Der ACHEMA-Gründerpreis wird 2018 zum zweiten Mal vergeben. Träger des ACHEMA-Gründerpreises sind die DECHEMA Gesellschaft für Chemische Technik und Biotechnologie e.V., die DECHEMA Ausstellungs-GmbH, die Business Angels FrankfurtRheinMain e.V. und der High-Tech Gründerfonds. Als Premiumpartner engagieren sich Accenture, Merck und Evonik besonders für den ACHEMA-Gründerpreis. Clariant und HoganLovell’s fördern den Preis als Partner. Unterstützt wird der ACHEMA-Gründerpreis zudem von der Gesellschaft Deutscher Chemiker (GDCh), dem Verein Deutscher Ingenieure (VDI), dem Verband der Chemischen Industrie (VCI) und der Arbeitsgemeinschaft industrieller Forschungsvereinigungen (AiF) sowie dem Business Angels Netzwerk Deutschland, eXist und dem Wettbewerb GO-Bio.

Alle weiteren Informationen auf http://www.achema.de/gruenderpreis.

Über die DECHEMA
Die DECHEMA Gesellschaft für Chemische Technik und Biotechnologie e.V. führt Fachleute unterschiedlicher Disziplinen, Institutionen und Generationen zusammen, um den wissenschaftlichen Austausch in chemischer Technik, Verfahrenstechnik und Biotechnologie zu fördern. Die DECHEMA sucht nach neuen technologischen Trends, bewertet diese und begleitet die Umsetzung von Forschungsergebnissen in technische Anwendungen. Über 5.800 Ingenieure, Naturwissenschaftler, Studierende, Firmen und Institutionen gehören dem gemeinnützigen Verein an. Gemeinsam mit der DECHEMA Ausstellungs-GmbH ist er Veranstalter der ACHEMA.

Kontakt
DECHEMA
Theodor-Heuss-Allee 25
60486 Frankfurt
Tel.: +49 (69) 7564-277
E-Mail: presse@dechema.de
Internet: http://www.dechema.de

Über die Business Angels FrankfurtRheinMain
Der Business Angels FrankfurtRheinMain e.V., gegründet im Jahr 2000, ist mit rund 150 Mitgliedern das mitgliederstärkste Business Angels-Netzwerk in Deutschland. Mit der Matching-Veranstaltung bietet er ca. zehnmal pro Jahr ein Forum für das Zusammentreffen von innovativen Gründern und Unternehmen mit Business Angels. Business Angels bringen in der Gründungs- und frühen Wachstumsphase eigenes risikotragendes Kapital, unternehmerisches Wissen und wertvolle Kontakte gegen eine Beteiligung am Erfolg in Startups ein.

Kontakt
Business Angels FrankfurtRheinMain e.V.,
Börsenplatz 4
60313 Frankfurt am Main,
Tel.: +49 (69) 2197-1591
E-Mail: info@ba-frm.de
Internet: http://www.ba-frm.de

Über den High-Tech Gründerfonds
Der High-Tech Gründerfonds (HTGF) ist Deutschlands aktivster Frühphaseninvestor. Mit einem Volumen von rund 820 Mio. EUR in drei Fonds finanziert er junge innovative Technologie Startups und unterstützt sie aktiv bei der Umsetzung ihrer Geschäftsidee. Thematisch ist die Aufstellung breit. Die drei Investmentteams fokussieren sich auf hardwarenahe Ingenieurwissenschaften, Life Science, Chemie und Material Science sowie Software, Media und Internet. Die Investoren des Public-Private-Partnership sind das Bundesministerium für Wirtschaft und Energie, die KfW sowie namhafte Wirtschaftsunternehmen.

Kontakt
High-Tech Gründerfonds Management GmbH
Schlegelstr. 2
53113 Bonn
Tel.: +49 (228) 823 001-00
Fax: +49 (228) 823 000-50
E-Mail: info@htgf.de
Internet:http://www.high-tech-gruenderfonds.de

Weitere Informationen:
http://www.achema.de/gruenderpreis

Quelle: idw

(nach oben)


Studie zu Arbeitszeiten von Frauen und Männern: Mütter arbeiten länger und flexibler

Ulrike Bohnsack Ressort Presse – Stabsstelle des Rektorats
Universität Duisburg-Essen

Die Kluft zwischen den tatsächlichen Arbeitszeiten von Männern und Frauen ist in der letzten Dekade kleiner geworden, der Unterschied – der so genannte Gender Time Gap – bleibt mit 8,9 Stunden aber immer noch beträchtlich. Grund für die Diskrepanz ist der hohe Teilzeitanteil von Frauen; fast jede zweite Frau, aber nur knapp jeder zehnte Mann ist nicht voll beschäftigt. Das zeigt die aktuelle Arbeitszeitstudie des Instituts Arbeit und Qualifikation (IAQ) der Universität Duisburg-Essen (UDE). Im Auftrag der Hans-Böckler-Stiftung hat das IAQ die unterschiedlichen Entwicklungen nach Geschlecht und Statusgruppen untersucht.

Insbesondere Mütter von kleinen, noch nicht schulpflichtigen, Kindern arbeiten heute länger als früher, stellen die IAQ-Forscher Dr. Angelika Kümmerling, Dominik Postels und Christine Slomka fest. Das werten sie als Hinweis darauf, dass das breitere Angebot an Kinderbetreuung, der Rechtsanspruch für einen Betreuungsplatz für ein- und zweijährige Kinder und das Elterngeld Wirkung zeigen. Allerdings existieren für Männer und Frauen weiterhin unterschiedliche Standards. Den Grund hierfür sieht die Forschungsgruppe im steuerlichen Ehegattensplitting, das verheiratete Frauen dazu bringt, im Job kürzer zu treten.

Je mehr Kinder Frauen haben, desto geringer sind ihre Arbeitszeiten. Bei Männern wirkt sich die Elternschaft deutlich geringer aus. Bei Teilzeit werden die Unterschiede weniger: Die Wochenstunden für beide Geschlechter haben sich 2014 im Vergleich zu 2005 deutlich erhöht und liegen jetzt bei 20,2 Stunden für Männer und 20,5 Stunden für Frauen.

Dabei bleibt Teilzeitarbeit weiter eine frauen- und branchenspezifische Besonderheit: Während sie in der Metall- und Elektro- sowie der Chemischen Industrie quasi keine Rolle spielt, arbeitet im Einzelhandel und im Gastgewerbe schon nahezu jeder zweite abhängig Beschäftigte nicht voll. Für Frauen ist Teilzeit eng mit Familie und Betreuungsverpflichtungen verbunden. Männer arbeiten vor allem am Anfang und Ende ihres Erwerbslebens kürzer.

Das IAQ-Team fand auch heraus: Vollzeitbeschäftigte Frauen und Männer würden im Job gerne deutlich kürzer treten (Männer -0,9 Stunden, Frauen -4,0 Stunden). Teilzeitbeschäftigte wünschen sich dagegen eine Stundenaufstockung. Kurze Teilzeit ist bei Männern und Frauen gleichermaßen unerwünscht, Frauen präferieren kurze Vollzeitmodelle. Überstunden sind Männersache, Mütter nutzen häufiger als kinderlose Männer und Frauen flexible Arbeitszeiten. Diesen Befund wertet die Forschungsgruppe als Signal an die Arbeitgeber, ihren Beschäftigten mehr Selbstbestimmung und Mitsprache bei den Arbeitszeiten einzuräumen, damit insbesondere Mütter und Väter den Spagat zwischen Beruf und Familie schaffen.

Weitere Informationen:
https://www.boeckler.de/6299.htm?produkt=HBS-006774&chunk=1

Dr. Angelika Kümmerling, angelika.kuemmerling@uni-due.de, Dominik Postels, Tel.: 0203 379 1826, dominik.postels@uni-due.de; Christine Üyük (vormals Slomka), christine.slomka@uni-due.de

Redaktion:
Claudia Braczko, Tel. 0157/71283308, claudia.braczko@uni-due.de

Quelle: idw

(nach oben)


Globale Wassermodelle schätzen Wasserspeicheränderungen oft falsch ein

Dr. Anne Hardy Public Relations und Kommunikation
Goethe-Universität Frankfurt am Main

Die von globalen Wassermodellen simulierten Änderungen des Wasserspeichers von Flusseinzugsgebieten weichen deutlich von unabhängigen Abschätzungen der GRACE-Satelliten ab. Das hat eine Forschergruppe unter Leitung der Universität Texas (Austin, USA) herausgefunden, an der auch Wissenschaftler der Goethe-Universität beteiligt waren. Die GRACE-Satelliten messen Änderungen im Schwerefeld der Erde, die maßgeblich von schwankenden Mengen in Wasserspeichern beeinflusst werden.

FRANKFURT. Die in den „Proceedings of the National Academy of Science“ (PNAS) veröffentlichten Ergebnisse zeigen, dass die globalen Modelle, mit denen in den vergangenen Jahren die Wasserressourcen der Erde abgeschätzt wurden, überdacht werden müssen. Grundlage der aktuellen Studie sind Beobachtungen der Gesamtwasserspeicher von 186 Flusseinzugsgebieten weltweit im Zeitraum von 2002 bis 2014. Die Daten der GRACE-Satelliten wurden mit den Ergebnissen von sieben globalen Modellen verglichen.

Behörden und Universitäten verwenden globale Wassermodelle, um Wasserflüsse (z.B. Durchfluss und Verdunstung) und Wasserspeicheränderungen (z.B. Bodenwasser und Grundwasser) in ihrer historischen Entwicklung zu verstehen oder künftige Entwicklungen auf der Basis bestimmter Szenarien zu simulieren.

„Mehr und mehr wird globalen Modellen vertraut, um den Einfluss der anthropogenen Wassernutzung und des Klimas auf die Wasserressourcen zu beurteilen“, sagt Erstautorin Bridget Scanlon, senior research scientist am Bureau of Economic Geology der Universität Texas (USA). „Wenn wir aber die von den Modellen berechneten Wasserspeicheränderungen mit GRACE-Daten vergleichen, zeigt sich, dass die Modelle große Wasserspeicheränderungen unterschätzen, und zwar in beide Richtungen.“

Den von allen Einzugsgebieten stärksten Wasseranstieg im Untersuchungszeitraum gab es nach GRACE-Daten im Amazonas-Gebiet. Dort stieg der Gesamtwasserspeicher um 41 bis 43 Kubikkilometer pro Jahr. Im Gegensatz dazu simulierten die meisten Modelle eine große Absenkung des Gesamtwasserspeichers, und zwar um bis zu 70 Kubikkilometer im Jahr. Das Modell, das am besten mit den GRACE-Daten übereinstimmte, berechnete zwar einen Anstieg, aber nur um 11 Kubikkilometer im Jahr.

Im Ganges-Einzugsgebiet ermittelte GRACE eine Absenkung des Gesamtwasserspeichers um 12 bis 17 Kubikkilometer pro Jahr innerhalb des 12-Jahreszeitraumes – die größte Absenkung in der Studie. Die Vorhersagen der Modelle variieren hingegen zwischen einer Absenkung und einer Erhöhung um je sieben Kubikkilometer pro Jahr.

Im globalen Mittel berechnen die Modelle ein Absinken des Gesamtwasserspeichers im Untersuchungszeitraum, während GRACE-Daten ein Ansteigen nahelegen. Darüber hinaus wurde gezeigt, dass z.B. durch zunehmende Niederschläge der Gesamtwasserspeicher ansteigt, während die anthropogene Wassernutzung ein Absinken verursacht. In der Studie wurden 63 Prozent der Landflächen untersucht. Grönland und die Antarktis waren ausgenommen, da hier das meiste Wasser in Form von Gletschern oder Eisschilden vorliegt.

„Unsere Arbeit zeigt, dass es Gebiete gibt, in denen die globalen Modelle optimiert werden müssen. Dank des global-skaligen Ansatzes der Studie können wir besser verstehen, weshalb die Modelle in einigen Gebieten besser zu unseren Beobachtungen passen. Insbesondere sehen wir, wo die Modelle mit den Beobachtungswerten nicht übereinstimmen“, meint Koautor Hannes Müller Schmied, wissenschaftlicher Mitarbeiter am Institut für Physische Geographie der Goethe-Universität sowie am Senckenberg Biodiversität und Klima-Forschungszentrum.

„Basierend auf der umfassenden Analyse von Wasserspeicheränderungen können wir wichtige zusätzliche Informationen erhalten und uns nun auf die Modellierung der schwierigen Gebiete konzentrieren. So fehlen in den meisten Modellen die Dynamik von Überschwemmungsflächen in den großen Feuchtgebieten und Rückstauwasser-Effekte im Amazonas. Andere Prozesse wie anthropogene Wasserentnahmen im Ganges-Einzugsgebiet müssen ebenso verbessert – und bei manchen Modellen überhaupt erst berücksichtigt werden“, so Hannes Müller Schmied weiter.

Die Arbeit zeigt auch die große Bedeutung der regionalen Forschung. „Mit GRACE erhält man das großräumige Bild des Gesamtwasserspeichers“, sagt Bridget Scanlon. „Allerdings ist es in vielen Fällen eine regionale und lokale Fragestellung, wie man die Wasserressourcen quantifizieren und deren Verfügbarkeit für Mensch und Landwirtschaft sicherstellen kann. Wir sollten den Fokus auf diese kleinräumigen Skalen verstärken, da es oft einfacher ist, lokal verfügbare Daten zu integrieren. Auch die spezifische Situation lässt sich besser lokal beurteilen als wenn man ausschließlich globale Studien verwendet.“

Der Forschergruppe gehören Wissenschaftler des Bureau of Economic Geology der Jackson School of Geosciences an der University of Texas, Austin (USA), der Goethe-Universität, des Senckenberg Biodiversität und Klima-Forschungszentrum, der Utrecht University (Niederlande), des NASA’s Jet Propulsion Laboratory (USA), der Tsinghua University (China) und der Université de Rennes (Frankreich) an.

Publikation: Bridget R. Scanlon, Zizhan Zhangb, Himanshu Save, Alexander Y. Sun, Hannes Müller Schmied, Ludovicus P. H. van Beek, David N. Wiese, Yoshihide Wada, Di Long, Robert C. Reedy, Laurent Longuevergne, Petra Döll und Marc F. P. Bierkens: Global models underestimate large decadal declining and rising water storage trends relative to GRACE satellite data http://www.pnas.org/content/early/2018/01/16/1704665115

Ein Bild zum Download finden Sie unter: www.uni-frankfurt.de/70121344
Bildtext: Vergleich von Wasserspeicheränderungen von GRACE-Satelliten (grau) und Modellen (schwarz) im Untersuchungszeitraum 2002-2014. Die Diagramme zeigen Beispiele von Flusseinzugsgebieten mit Diskrepanzen zwischen Satellit und Modellen. Negative Zahlen bedeuten einen Wasserverlust, positive einen Wassergewinn. Die Karte zeigen Änderungen des Gesamtwasserspeichers auf Basis von GRACE-Daten
Bildrechte: Austin Jackson School of Geosciences der University of Texas.

Informationen: Hannes Müller Schmied, Institut für Physische Geographie, Fachbereich 11 sowie Senckenberg Biodiversität und Klima-Forschungszentrum, Tel.: (069) 798-40216, Hannes.Mueller.Schmied@em.uni-frankfurt.de

Aktuelle Nachrichten aus Wissenschaft, Lehre und Gesellschaft in GOETHE-UNI online (www.aktuelles.uni-frankfurt.de)

Die Goethe-Universität ist eine forschungsstarke Hochschule in der europäischen Finanzmetropole Frankfurt. 1914 mit privaten Mitteln überwiegend jüdischer Stifter gegründet, hat sie seitdem Pionierleistungen erbracht auf den Feldern der Sozial-, Gesellschafts- und Wirtschaftswissenschaften, Medizin, Quantenphysik, Hirnforschung und Arbeitsrecht. Am 1. Januar 2008 gewann sie mit der Rückkehr zu ihren historischen Wurzeln als Stiftungsuniversität ein hohes Maß an Selbstverantwortung. Heute ist sie eine der zehn drittmittelstärksten und drei größten Universitäten Deutschlands mit drei Exzellenzclustern in Medizin, Lebenswissenschaften sowie Geistes- und Sozialwissenschaften. Zusammen mit der Technischen Universität Darmstadt und der Universität Mainz ist sie Partner der länderübergreifenden strategischen Universitätsallianz Rhein-Main. Internet: www.uni-frankfurt.de

Herausgeberin: Die Präsidentin der Goethe-Universität Redaktion: Dr. Anne Hardy, Referentin für Wissenschaftskommunikation, Abteilung PR & Kommunikation, Theodor-W.-Adorno-Platz 1, 60323 Frankfurt am Main, Tel: (069) 798-12498, Fax: (069) 798-763 12531, hardy@pvw.uni-frankfurt.de

Quelle: idw

(nach oben)


Häufige Familienmahlzeiten fördern eine gute Ernährung von Kindern

Nicole Siller Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Bildungsforschung

Erfolgreiche Adipositasprävention fängt am Esstisch der Familie an. Das legt eine Metaanalyse von 57 Studien mit weltweit über 200.000 Probanden des Max-Planck-Instituts für Bildungsforschung und der Universität Mannheim nahe.

Gemeinsame Mahlzeiten mit der Familie bieten enormes Lernpotenzial, denn Ernährungsgewohnheiten werden früh geformt und ausgebildet. Kinder können wiederholt mit gesundem Essen in Kontakt kommen und allgemein etwas über Ernährung und die Zubereitung von Speisen lernen. Eine jüngst veröffentlichte Metaanalyse von Wissenschaftlern des Max-Planck-Instituts für Bildungsforschung in Berlin und der Universität Mannheim zeigt, dass häufige Familienmahlzeiten mit einem geringeren Body Mass Index (BMI) und gesünderer Ernährung bei Kindern zusammenhängen. Dabei spielte keine Rolle, in welchem Land die Studie durchgeführt wurde oder wie alt die Kinder waren. Auch machte es keinen Unterschied, ob Frühstück, Mittag- oder Abendessen gemeinsam gegessen wurde und ob nur ein Elternteil oder die ganze Familie mit am Tisch saß.

„Die Kindheit bietet ein einzigartiges Zeitfenster, um schädlichen Gesundheits- und Essgewohnheiten entgegenzuwirken. Eltern werden auch als sogenannte ‚Gatekeeper‘, also Türsteher der Ernährung, bezeichnet. Sie haben einen maßgeblichen Einfluss darauf, was, wie und wie viel Kinder essen. Familienmahlzeiten bieten eine vielfältige Lernumgebung, um eine gesunde Ernährungsweise bei Kindern zu fördern“, sagt Erstautorin Mattea Dallacker vom Max-Planck-Institut für Bildungsforschung. Familienmahlzeiten führen aber unter bestimmten Umständen nicht zwangsläufig zu einer gesünderen Ernährung. Die Ursachen und Mechanismen, die hinter der Beziehung zwischen häufigen Familienmahlzeiten und besseren Ernährungsweisen stehen, müssen noch verstanden werden. „Die derzeitige Forschung deutet darauf hin, dass bei gemeinsamen Mahlzeiten nicht nur die Qualität des Essens, sondern auch psychologische und Verhaltensaspekte wichtig sind. Zum Beispiel könnten Mahlzeitroutinen wie etwa eine gute Mahlzeitatmosphäre oder ein positives elterliches Rollenvorbild die Ernährungsweise von Kindern verbessern“, sagt Co-Autorin Jutta Mata von der Universität Mannheim.

Im Rahmen ihrer Metaanalyse werteten die Wissenschaftler 57 Studien mit weltweit über 200.000 Probanden aus. In die Analyse gingen Studien ein, die sich mit dem Zusammenhang von Familienmahlzeiten und dem Ernährungszustand von Kindern beschäftigen – gemessen am Body Mass Index (BMI), den Portionen an Obst und Gemüse pro Tag (als Indikator für gesunde Ernährung) sowie dem Konsum von gesüßten Getränken, Fast Food oder salzigen Snacks (als Indikator für ungesunde Ernährung). Auch der Einfluss von Faktoren wie Alter, sozioökonomischer Status sowie Art der Familienmahlzeit und Anzahl der bei einer Mahlzeit anwesenden Familienmitglieder wurde untersucht.

„Vor dem Hintergrund, dass zunehmend beide Elternteile berufstätig sind, werden regelmäßige Familienmahlzeiten für viele Familien zur täglichen Herausforderung. Im Hinblick auf eine moderne Gesellschaft sind daher auch erste wissenschaftliche Befunde wichtig, die zeigen, dass familienähnliche Mahlzeiten, zum Beispiel in der Schule, sich ebenfalls positiv auf die Ernährung von Kindern auswirken. So zeigt eine Studie, dass auch Lehrer ein positives Rollenmodell während gemeinsamer Mahlzeiten mit Schülern darstellen können“, sagt Ralph Hertwig, Direktor am Max-Planck-Institut für Bildungsforschung und Co-Autor der Studie.

Originalstudie
Dallacker, M., Hertwig, R., & Mata, J. (2018). The frequency of family meals and nutritional health in children: A meta-analysis. Obesity Reviews. Advance online publication. doi:10.1111/obr.12659

Max-Planck-Institut für Bildungsforschung
Das Max-Planck-Institut für Bildungsforschung wurde 1963 in Berlin gegründet und ist als interdisziplinäre Forschungseinrichtung dem Studium der menschlichen Entwicklung und Bildung gewidmet. Das Institut gehört zur Max-Planck-Gesellschaft zur Förderung der Wissenschaften e. V., einer der führenden Organisationen für Grundlagenforschung in Europa.

Weitere Informationen:
https://www.mpib-berlin.mpg.de/de/presse/2018/01/haeufige-familienmahlzeiten-foe…

Quelle: idw

(nach oben)


Neuerscheinung: Klimaschutz kommunal umsetzen

Richard Harnisch Öffentlichkeitsarbeit und Kommunikation
Institut für ökologische Wirtschaftsforschung GmbH, gemeinnützig

Welchen Beitrag zum Klimaschutz können Städte und Gemeinden leisten? Welche kommunalen Institutionen, Akteure und Verfahren spielen eine Rolle? Welche Handlungsfelder und Ansätze tun sich auf? Mit diesen Fragen befasst sich der Sammelband „Klimaschutz kommunal umsetzen“ des Ecological Research Network (Ecornet). 14 Beiträge beschreiben und analysieren darin, wie auf kommunaler Ebene die Umsetzung des Pariser UN-Klimaabkommens weiter vorangebracht werden kann.

Der Sammelband bietet einen Überblick zu Herausforderungen und Chancen des kommunalen Klimaschutzes und fächert dafür eine Vielzahl unterschiedlicher Institutionen, Verfahren, Akteure und Handlungsfelder auf. Er bietet Einblicke in folgende Ansätze:
• urbane Energiewende
• Bürgerwettbewerbe zum Klimaschutz
• Dienstleistungen für Energieeffizienz
• Transition-Management
• Suffizienz im kommunalen Klimaschutz
• klimafreundliche Alltagspraktiken

Projektbeispiele aus der kommunalen Praxis
Die Autorinnen und Autoren des Sammelbandes sind an einem Ecornet-Institut beschäftigt. Ecornet (http://www.ecornet.eu) ist ein Netzwerk von acht unabhängigen, gemeinnützigen Instituten der Umwelt- und Nachhaltigkeitsforschung in Deutschland. Die Institute des Ecornets binden kommunale Praxispartner systematisch in ihre Forschungsprojekte ein. In den Beiträgen des Sammelbandes werden Erfahrungen aus einer Vielzahl solcher Projektbeispiele aufgegriffen.

Kommunen übernehmen Vorreiterrolle im Klimaschutz
2015 war nach der 21. UN-Klimakonferenz in Paris von einem „historischen Durchbruch“ die Rede und zur Überraschung vieler trat das Pariser Klimaabkommen bereits im November 2016 in Kraft. Nun müssen die im Abkommen formulierten Ziele besonderer Ansporn und Motivation sein, den eingeschlagenen Weg zu mehr Klimaschutz und einem vorsorgenden Umgang mit den Folgen des Klimawandels fortzuführen. Die Aktivitäten einzelner Vorreiterinnen und Vorreiter auf kommunaler und regionaler Ebene können uns hier Orientierung bieten, wie die Vielfalt an guten Praxisbeispielen in diesem Sammelband zeigt.

Download Leseprobe
Vorwort und Einleitung stehen als Leseproben zur Verfügung:
https://www.oekom.de/fileadmin/buecher/PDF_Vorwort/9783962380052_Deckblatt_Vorwo…
https://www.oekom.de/fileadmin/buecher/PDF_Vorwort/9783962380052_Deckblatt_Einle…

Sammelband bestellen
Der Sammelband ist über den oekom Verlag zu beziehen:
https://www.oekom.de/nc/buecher/vorschau/buch/klimaschutz-kommunal-umsetzen.html

Inhaltsverzeichnis

Vorwort
Camilla Bausch, Ecologic Institut (https://www.ecologic.eu/de)
Thomas Korbun, Institut für ökologische Wirtschaftsforschung (http://www.ioew.de)

Einleitung
Doris Knoblauch, Ecologic Institut (https://www.ecologic.eu/de)
Johannes Rupp, Institut für ökologische Wirtschaftsforschung (http://www.ioew.de)

Kommunaler Klimaschutz nach dem Pariser Klimagipfel,
Lena Donat

Urbane Energiewende – Wege zur Klimaneutralität in Großstädten
Bernd Hirschl, Institut für ökologische Wirtschaftsforschung (http://www.ioew.de)

Dekarbonisierung regional steuern! – Erfassung des Standes und der Entwicklungsdynamik der Energiewende in der Metropolregion Ruhr
Ralf Schüle, Jan Kaselofsky, Michaela Roelfes, Johannes Venjakob unter Mitarbeit von Miriam Fekkak und Jonas Fischer, Wuppertal Institut für Klima, Umwelt, Energie (http://www.wupperinst.org)

Mit Wettbewerben Bürgerinnen und Bürger zum Klimaschutz motivieren
Frieder Rubik, Ria Müller, Institut für ökologische Wirtschaftsforschung (http://www.ioew.de)
Michael Kress, Universität Freiburg

Dienstleistungen für Energieeffizienz als Beitrag zum kommunalen Klimaschutz
Britta Oertel, Lydia Illge, IZT – Institut für Zukunftsstudien und Technologiebewertung (http://www.izt.de)

Partizipation im klimagerechten Stadtumbau: Multi-Level-Konstellationsanalysen des Beteiligungsprozesses der »Innovation City«
Benjamin Best, Wuppertal Institut für Klima, Umwelt, Energie (http://www.wupperinst.org)

Schritt für Schritt zum Ziel – Transition Management und Klimaschutz in Rostock
Susanne Langsdorf, Doris Knoblauch, Philipp Voß, Ecologic Institut (https://www.ecologic.eu/de)

Suffizienz im kommunalen Klimaschutz
Leon Leuser, Lars-Arvid Brischke, ifeu – Institut für Energie- und Umweltforschung Heidelberg (http://www.ifeu.de)

Die Wärmewende in Städten umsetzen – Herausforderungen und Lösungsansätze
Julika Weiß, Elisa Dunkelberg, Bernd Hirschl, Institut für ökologische Wirtschaftsforschung (http://www.ioew.de)

Klimafreundliche Alltagspraktiken unterstützen – Chancen und Herausforderungen für die kommunale Klimaschutzpolitik
Immanuel Stieß, ISOE – Institut für sozial-ökologische Forschung (http://www.isoe.de)

Change Agents in Kommunalverwaltungen
Helmut Bauer, Miriam Dingeldey, Hans Hertle, ifeu – Institut für Energie- und Umweltforschung Heidelberg (http://www.ifeu.de)

Klimaschutz lernen und erfahren – Wie Jugendliche befähigt werden, sich für Klimaschutz zu engagieren
Almuth Tharan, Unabhängiges Institut für Umweltfragen (http://www.ufu.de)

Boden – die natürliche Klimaanlage der Stadt
Fabian Stolpe, Patrick Konopatzki, Unabhängiges Institut für Umweltfragen (http://www.ufu.de)

Ausblick: Wie Klimahandeln in Städten und Gemeinden zukünftig verstärkt gelingen kann
Johannes Rupp, Institut für ökologische Wirtschaftsforschung (http://www.ioew.de)
Doris Knoblauch, Ecologic Institut (https://www.ecologic.eu/de)

Inhaltsverzeichnis als Download (https://www.oekom.de/fileadmin/buecher/PDF_Inhaltsverzeichnis/9783962380052_Deck…)

Knoblauch, Doris und Johannes Rupp (Hrsg., 2018): Klimaschutz kommunal umsetzen. Wie Klimahandeln in Städten und Gemeinden gelingen kann. München: oekom Verlag, ISBN-13: 978-3-96238-005-2, 268 Seiten

Ansprechpartner:
Doris Knoblauch (doris.knoblauch@ecologic.eu), Ecologic Institut
Johannes Rupp, (Johannes.Rupp@ioew.de), Institut für ökologische Wirtschaftsforschung

Weitere Informationen:
https://www.oekom.de/nc/buecher/vorschau/buch/klimaschutz-kommunal-umsetzen.html

Quelle: idw

(nach oben)


Keime & Co. – Küchenhygiene mit Köpfchen

Dr. Suzan Fiack Presse- und Öffentlichkeitsarbeit
Bundesinstitut für Risikobewertung (BfR)

Das BfR informiert auf der Internationalen Grünen Woche über Lebensmittelhygiene in der Küche

Ob im Kühlschrank oder auf dem Spüllappen, auf Eiern, Fleisch oder auf dem Salat – Lebensmittel können mit Bakterien, Viren oder Parasiten verunreinigt sein. Verbraucherinnen und Verbraucher unterschätzen häufig gesundheitliche Risiken, die durch Fehler beim Lagern und Zubereiten zu Hause entstehen können. Das Bundesinstitut für Risikobewertung (BfR) klärt über diese Risiken auf und informiert über Maßnahmen, um sich vor lebensmittelbedingten Erkrankungen zu schützen. „Viele Menschen haben Angst vor Chemie in der Nahrung, aber tatsächlich krank wird man von Bakterien, Pilzen oder Viren im Essen,“ sagt BfR-Präsident Professor Dr. Dr. Andreas Hensel. „Nur jeder Fünfte sorgt sich um die Lebensmittelhygiene zu Hause, dabei ist der richtige Umgang mit Lebensmitteln in der eigenen Küche das beste Mittel, um Infektionen vorzubeugen. Wir alle müssen unser Bewusstsein für gesundheitliche Risiken bei der Zubereitung von Essen schärfen.“ Auf der Internationalen Grünen Woche in Berlin macht das Institut das Thema Küchenhygiene vom 19. bis 28. Januar hautnah erlebbar.

Das BfR präsentiert sich auf der Internationalen Grünen Woche mit Live-Kochshows, in denen ein TV-Koch über den richtigen Umgang mit Lebensmitteln in der heimischen Küche informiert. Am BfR-Stand 148 auf dem Erlebnisbauernhof (Halle 3.2) ermöglicht ein überdimensionaler Küchenschwamm Einblicke in den Kosmos der Keime. Wissenschaftliche Fakten zu Eigenschaften und Wirkungsweisen von Küchenkeimen werden hier anschaulich erklärt. In der Kinder-Keim-Rallye werden Kinder zu Keimagentinnen und -agenten und finden heraus, wo überall Mikroben lauern. Darüber hinaus können Besucherinnen und Besucher ihr Wissen auch am Keim-Karussell und am Fehlerkühlschrank testen, indem sie diesen richtig einsortieren. Und wer immer schon mal wissen wollte, was der Unterschied zwischen Bakterien, Viren und Parasiten ist, kann sich das anhand zahlreicher lebensgroß nachgebauter XXL-Keime erklären lassen.

In Deutschland werden jedes Jahr mehr als 100.000 Erkrankungen gemeldet, die wahrscheinlich auf lebensmittelbedingte Infektionen mit Mikroorganismen wie Bakterien, Viren oder Parasiten zurückzuführen sind. Dazu gehören vor allem Infektionen mit Campylobacter-Bakterien, Salmonellen und Noroviren. Die Dunkelziffer liegt jedoch weitaus höher. In den meisten Fällen sind die Erkrankungen mit Symptomen wie Magenkrämpfen, Durchfall oder Erbrechen verbunden und nach ein paar Tagen überstanden. Bei Menschen, deren Immunsystem geschwächt oder nicht vollständig ausgebildet ist, kann eine Lebensmittelinfektion aber sehr schwer verlaufen. Daher ist es wichtig, beim Lagern und Zubereiten von Lebensmitteln Hygieneregeln einzuhalten. Ziel ist es, in der eigenen Küche das Verunreinigen von Lebensmitteln mit Krankheitserregern zu vermeiden und das Vermehren von Krankheitserregern in Lebensmitteln zu begrenzen oder deren Überleben zu verhindern.

Unter dem Motto „Fernsehkochshows – Fehler im Minutentakt: Küche, Keime, Köche“ findet am 24. Januar 2018 von 13:00 bis 14:30 Uhr das BfR-Forum Küchenhygiene im CityCube Berlin statt. Expertinnen und Experten diskutieren über gesundheitliche Risiken bei der Zubereitung von Lebensmitteln und erklären, mit welchen Hygienemaßnahmen man sich schützen kann. Präsentiert wird außerdem das aktuelle Forschungsprojekt „Küchenhygiene im Scheinwerferlicht: Beeinflussen TV-Köche unser Hygieneverhalten?“.

Über das BfR
Das Bundesinstitut für Risikobewertung (BfR) ist eine wissenschaftlich unabhängige Einrichtung im Geschäftsbereich des Bundesministeriums für Ernährung und Landwirtschaft (BMEL). Es berät die Bundesregierung und die Bundesländer zu Fragen der Lebensmittel-, Chemikalien- und Produktsicherheit. Das BfR betreibt eigene Forschung zu Themen, die in engem Zusammenhang mit seinen Bewertungsaufgaben stehen.

In diesem Jahr feiert das BfR sein 15-jähriges Bestehen. Aus diesem Anlass hat das BfR eine Jubiläumsbroschüre herausgegeben, die unter http://www.bfr.bund.de/de/publikation/broschueren-660.html kostenlos heruntergeladen oder bestellt werden kann.

Weitere Informationen:
http://www.bfr.bund.de/de/fernsehkochshows___fehler_im_minutentakt__kueche__keim… BfR-Forum Küchenhygiene: „Fernsehkochshows – Fehler im Minutentakt: Küche, Keime, Köche“
http://www.bfr.bund.de/cm/350/verbrauchertipps_schutz_vor_lebensmittelinfektione… Merkblatt
http://www.bfr.bund.de/de/fragen_und_antworten_zum_schutz_vor_lebensmittelinfekt… FAQ

Quelle: idw

(nach oben)


Energiewende: Neuer Regler verteilt Strom einfach und effizienter im Netz

Melanie Löw Presse- und Öffentlichkeitsarbeit
Technische Universität Kaiserslautern

Bis 2050 soll die Stromversorgung in Deutschland zu 80 Prozent aus erneuerbaren Energien stammen – das sieht der Plan der Bundesregierung vor. Ein großer Teil davon wird in Niederspannungsnetze eingespeist, um Haushalte mit Energie zu versorgen. Allerdings könnte es in naher Zukunft durch die Zunahme von Elektroautos zu einer Überlastung dieser Netze kommen. Zusammen mit Industriepartnern hat Ingenieur Stefan Lang an der Technischen Universität Kaiserslautern (TUK) einen Netzregler entwickelt, der den Stromfluss misst und gegensteuert, wenn sich der Bedarf in verschiedenen Leitungen ändert. Die Technik ist kostengünstig und kann einfach in vorhandene Niederspannungsnetze eingebaut werden.

Wenn am späten Nachmittag oder in den Abendstunden in den deutschen Haushalten Fernseher laufen, Jugendliche mit ihren Computerkonsolen spielen, Lichter leuchten, der Wäschetrockner läuft oder auf dem Herd das Essen kocht, ist der Energiebedarf besonders hoch. Der Strom aus unseren Steckdosen kommt dabei aus Niederspannungsnetzen. „Sie machen rund 65 Prozent des insgesamt 1,8 Millionen Kilometer langen Stromnetzes in Deutschland aus“, sagt Stefan Lang, der sich im Rahmen seiner Promotion am Lehrstuhl für Energiesysteme und Energiemanagement bei Professor Dr. Wolfram H. Wellßow mit diesem Thema beschäftigt hat. Für diese Netze gilt: Die Spannung darf einen bestimmten Wert nicht überschreiten, da ansonsten Geräte wie Computer oder Kaffeemaschinen Schaden nehmen können. „Hinzu kommt die thermische Belastung, zu der es kommen kann, wenn zu viel Strom fließt“, fährt er fort. In der Folge könnten Stromleitungen überlastet werden, schlimmsten Falls Schaden nehmen und somit der Stromfluss zum Erliegen kommen.

Ein Großteil des Stroms in Niederspannungsnetzen stammt bereits von Photovoltaikanlagen, die ihren Strom jedoch nur tagsüber einspeisen können, wenn er produziert wird. Durch Elektroautos könnte der Bedarf jedoch in den kommenden Jahren deutlich steigen, vor allem in der zweiten Tageshälfte, wenn Autobesitzer ihre Wagen zu Hause am Netz aufladen. „Für die Stromnetze stellt dies eine zusätzliche Belastung dar“, sagt Lang. „Bislang gab es für diese Szenarien noch keine Lösungen.“

An einer solchen hat der Ingenieur im Rahmen seiner Promotion gearbeitet. Im Fokus standen dabei sogenannte vermaschte Netze, bei denen der Strom ringförmig fließt und Netzwerkknoten miteinander verbunden sind. Sie versorgen unter anderem Wohngebiete mit Strom. Gemeinsam mit Partnern aus der Industrie hat Lang einen Netzregler entwickelt, der die Stromverteilung automatisch im Blick hat.

„An verschiedenen Punkten misst der Regler den Strom in den verschiedenen Leitungen“, erklärt der Ingenieur die Technik. „Er ermittelt, wie viel Strom in welchen Leitungen fließt, regelt den Stromfluss und steuert gegen, wenn zum Beispiel in einer Leitung mehr Strom fließt, als diese führen darf.“ Das Besondere dabei: Es kommt konventionelle Transformatortechnik zum Einsatz, die sich leicht in vorhandene Verteilerschränke einbauen lässt.

Gemeinsam mit dem Energietechnikunternehmen Walcher hat Lang einen Prototypen gebaut und ihn auf dem Kaiserslauterer Campus getestet. Auch einen ersten Einsatz in einem Stromnetz in der Nähe von Landau hat die Technik erfolgreich absolviert.

Für diese Arbeit mit dem Titel „Konzeption einer Spannungs- und Wirkleistungsreglung für vermaschte Niederspannungsnetze“ ist der Ingenieur kürzlich mit dem 2. Preis der Stiftung Energie & Klimaschutz ausgezeichnet worden. Die Preisverleihung fand im Rahmen des Abschluss-Symposiums des „EnergieCampus“ am Karlsruher Institut für Technologie im November statt.

Am Projekt „Flexibler Ortsnetz Spannungs- und Wirkleistungs-Regler (FLOW-R)“ waren neben der TUK und Walcher der Energieversorger Pfalzwerke AG und das Technikunternehmen Power Plus Communications AG beteiligt. Gefördert wurden die Arbeiten vom Bundesministerium für Wirtschaft und Energie.

Fragen beantwortet:
Dipl.-Ing. Stefan Lang
Pfalzwerke AG
Tel.: 0621 585-2344
E-Mail: stefan.lang@pfalzwerke.de

Quelle: idw

(nach oben)


Beitragsfreie Kita-Betreuung führt nicht dazu, dass Frauen mehr arbeiten

Mark Fallak Presse und Kommunikation
IZA – Institut zur Zukunft der Arbeit

Mütter weiten ihr Arbeitsangebot nicht aus, wenn ihnen eine kostenlose Kindertagesbetreuung zur Verfügung steht. Das geht aus einer aktuellen Studie hervor, die das Bonner Institut zur Zukunft der Arbeit (IZA) veröffentlicht hat. Zwar steigert die Beitragsfreiheit die Kita-Besuchsquote von Kleinkindern, doch das familienpolitische Ziel einer Stärkung der Frauenerwerbstätigkeit wird verfehlt. Die Autorinnen halten es für sinnvoller, die Kita-Gebühren nach Haushaltseinkommen zu staffeln und die eingesparten Mittel in die Betreuungsqualität zu investieren.

Die Studie von Anna Busse und Christina Gathmann, Ökonominnen an der Universität Heidelberg, untersucht anhand von Daten des Sozio-oekonomischen Panels (SOEP) aus den Jahren 2010 bis 2015, wie sich die Abschaffung der Gebühren für Kindergärten und Kindertagesstätten in verschiedenen Bundesländern auf die Betreuungssituation, Erwerbstätigkeit und kindliche Entwicklung ausgewirkt haben. Das letzte Kindergartenjahr ist inzwischen in neun der elf alten Bundesländer beitragsfrei. Drei dieser Länder haben die Beitragsfreiheit bereits auf jüngere Kinder ausgeweitet.

Die Einführung des kostenlosen letzten Kindergartenjahres hatte auf die Besuchsquote, die in dieser Altersgruppe bereits vor der Beitragsfreiheit bei 97 Prozent lag, praktisch keinen Einfluss. Bei den Zwei- bis Dreijährigen erhöhte die Reform hingegen die Besuchsquote um 8 Prozentpunkte. Besonders stark fiel der Anstieg bei Kindern aus einkommensschwachen Familien aus. „Diese Entwicklung ist positiv zu bewerten, da Kinder aus ärmeren Bevölkerungsschichten in einem qualitativ hochwertigen Betreuungsangebot besser ihre Fähigkeiten und Kompetenzen entwickeln können“, erklärt Wirtschaftsprofessorin Christina Gathmann. Insbesondere Mädchen profitieren der Studie zufolge von der außerhäuslichen Betreuung.

Insgesamt habe die Einführung der Beitragsfreiheit aber hauptsächlich zu „Mitnahmeeffekten“ geführt, die zwar das Familienbudget erhöhen, jedoch die gewählte Kinderbetreuung nur unwesentlich beeinflussen. Außerdem fanden die Forscherinnen kaum positive Wirkungen auf die Erwerbsbeteiligung oder die wöchentliche Arbeitsstundenzahl von Müttern. Eher scheinen die Familien das zusätzliche Einkommen zu nutzen, um das Arbeitsangebot der Mütter zu verringern.

Das Ziel, durch die Bereitstellung beitragsfreier Betreuungsplätze die Erwerbstätigkeit und damit die ökonomische Eigenständigkeit von Frauen, vor allem von Alleinerziehenden, zu erhöhen, werde jedenfalls durch diese Politik nicht erreicht, so das Fazit der Untersuchung. Die Förderung des Kita-Besuchs von Kindern aus ärmeren Familien sei kostengünstiger durch die vielerorts bereits übliche Staffelung der Gebühren nach Haushaltseinkommen zu erreichen. Die so eingesparten Mittel könnten dann in die Qualität der Kinderbetreuung investiert werden, von der alle Vorschulkinder profitieren würden.

Download der englischsprachigen Studie:
Anna Busse, Christina Gathmann: Free Daycare and its Effects on Children and their Families
IZA Discussion Paper No. 11269
http://ftp.iza.org/dp11269.pdf

Quelle: idw

(nach oben)


Neuer Multi-Parameter Biosensor zur Überwachung der Biogasproduktion

Team Pressestelle Presse-, Öffentlichkeitsarbeit und Marketing
FH Aachen

Ausgezeichnete Wissenschaft – das darf an der FH Aachen durchaus wörtlich genommen werden. So erhielt Johanna Pilas, seit drei Jahren Doktorandin in der Arbeitsgruppe Chemo- und Biosensorik am Institut für Nano- und Biotechnologien (INB) der FH Aachen, nun den „Best Poster Award“ beim „International Symposium on Sensor Science“, der I3S-Tagung.

Bei der Konferenz in Barcelona wählten die Teilnehmerinnen und Teilnehmer Johanna Pilas Beitrag „Portable multi-analyte sensor for on-site monitoring of fermentation processes“ zum Sieger des Poster-Wettbewerbs. Dabei hob sich Pilas sowohl durch ihren wissenschaftlichen Beitrag als auch durch die Möglichkeit, das Bauteil mittels Magneten auf dem Poster zusammenzusetzen, von ihren 101 Konkurrentinnen und Konkurrenten ab. Neben Johanna Pilas wirkten Prof. Dr. Michael J. Schöning und Prof. Dr. Thorsten Selmer von der FH Aachen sowie Prof. Dr. Michael Keusgen von der Philipps-Universität Marburg als Co-Autoren mit. Mit dem Gewinn des „Best Poster Awards“ sind eine Urkunde sowie ein Preisgeld verbunden.

Im Rahmen des Projektes „Entwicklung eines mobilen Monitors zur Beurteilung von Biogas-Prozessen“ beschäftigte sich der Beitrag zum „Best Poster Award“ mit der Entwicklung eines Multi-Parameter Biosensors für die amperometrische Erfassung verschiedener Schlüsselparameter bei der Biogasproduktion. „Der Biosensor ist mit fünf Elektroden versehen, die mit verschiedenen Enzymen modifiziert wurden. Dadurch können vier Parameter gleichzeitig gemessen werden“, erklärt Pilas. In den bisher üblichen Verfahren werden zur Erfassung dieser Parameter unter anderem Proben entnommen, die erst in ein externes Labor geschickt werden müssen, was sowohl zeit- als auch kostenintensiv sei. „Da ich zu Beginn meiner Arbeit mit dem Multi-Parameter Biosensor einen etwas unhandlichen Messaufbau verwendet habe, habe ich diesen optimiert. Jetzt kommt ein Messaufbau zum Einsatz, der mit 3D-Drucktechnik konstruiert wurde.“ Die Doktorandin konnte durch Proben aus einer Biogasanlage und einer Referenzanalyse bereits nachweisen, dass die Werte große Übereinstimmungen aufweisen. „Es besteht hohes Potenzial, dass der Sensor bald nutzbar sein wird“, folgert Johanna Pilas.

Quelle: idw

(nach oben)


Höchstmengen für Vitamine und Mineralstoffe in Nahrungsergänzungsmitteln

Dr. Suzan Fiack Presse- und Öffentlichkeitsarbeit
Bundesinstitut für Risikobewertung (BfR)

BfR-Höchstmengenempfehlungen für Vitamine und Mineralstoffe in Nahrungsergänzungsmitteln aktualisiert
In Deutschland greifen etwa 25 bis 30 Prozent der Erwachsenen regelmäßig zu Nahrungsergänzungsmitteln (NEM). Neben Vitaminen und Mineralstoffen enthalten die Produkte teilweise auch andere Stoffe mit physiologischer Wirkung wie Aminosäuren, Fettsäuren, Pflanzenextrakte oder Mikroorganismen. Die Werbung verspricht positive Effekte für Gesundheit, Wohlbefinden und verbesserte Leistungsfähigkeit. Doch im Allgemeinen versorgt eine ausgewogene und abwechslungsreiche Ernährung den gesunden Körper mit allen lebensnotwendigen Nährstoffen. Werden zusätzlich hoch dosierte Nahrungsergänzungsmittel eingenommen und ggf. angereicherte Lebensmittel verzehrt, steigt das Risiko für unerwünschte gesundheitliche Effekte durch hohe Nährstoffzufuhren. Vor diesem Hintergrund hat das BfR seine im Jahr 2004 vorgeschlagenen Höchstmengen für Vitamine und Mineralstoffe geprüft und anhand neuer wissenschaftlicher Erkenntnisse überarbeitet. „Die Besonderheit der Risikobewertung von lebensnotwendigen Nährstoffen wie Vitaminen und Mineralstoffen liegt darin, dass sowohl die Risiken einer Mangel- als auch einer Überversorgung berücksichtigt werden müssen“, so BfR-Präsident Professor Dr. Dr. Andreas Hensel. „Produkte, die unsere Empfehlungen einhalten und entsprechend den Herstelleranweisungen eingenommen werden, bergen nach derzeitigem Stand des Wissens für Menschen ab 15 Jahren kein gesundheitliches Risiko“, betont BfR-Präsident Andreas Hensel. Die Ergebnisse sind im Journal für Verbraucherschutz und Lebensmittelsicherheit veröffentlicht worden (DOI 10.1007/s00003-017-1140-y).

Zur Fachveröffentlichung: https://link.springer.com/article/10.1007/s00003-017-1140-y/fulltext.html
Das Bundesinstitut für Risikobewertung (BfR) hat in der Vergangenheit umfangreich zu gesundheitlichem Nutzen und Risiken durch Nahrungsergänzungsmittel (NEM) Stellung genommen und die Verbraucher über Probleme informiert, die mit dem Verzehr solcher Produkte verbunden sein können. Verbindliche Höchstmengen für Vitamine und Mineralstoffe in Nahrungsergänzungsmitteln existieren derzeit weder auf nationaler noch auf europäischer Ebene, wenngleich in Deutschland und anderen europäischen Ländern in den vergangenen Jahren verschiedene Modelle für die Höchstmengenableitung entwickelt und diskutiert wurden. Vor diesem Hintergrund hat das BfR seine im Jahr 2004 vorgeschlagenen Höchstmengen für Vitamine und Mineralstoffe geprüft und auf Basis neuer wissenschaftlicher Erkenntnisse überarbeitet.

Die Höchstmengen wurden unter Berücksichtigung von drei wesentlichen Parametern abgeleitet: den von der Europäischen Behörde für Lebensmittelsicherheit (EFSA) abgeleiteten tolerierbaren höchsten Tagesaufnahmemengen (Tolerable Upper Intake Level, kurz UL), den Zufuhrmengen von Vitaminen und Mineralstoffen durch die übliche Ernährung sowie den jeweiligen Zufuhrreferenzwerten (Recommended Daily Allowance; RDA). Die für Nahrungsergänzungsmittel (und angereicherte sonstige Lebensmittel) zur Verfügung stehende sichere Aufnahmemenge wurde vom BfR durch Bildung der Differenz aus dem UL und der Nährstoffzufuhr aus der üblichen Ernährung abgeleitet. Um sicherzustellen, dass Produkte, die Nährstoffe in diesen Mengen enthalten, nicht nur für Erwachsene gelten, sondern auch für Jugendliche nach derzeitigem Stand des Wissens keine gesundheitlichen Risiken bergen, wurde die Altersgruppe der 15- bis 17-Jährigen als Bezugsgruppe für die Höchstmengenableitung gewählt. Zusätzlich wurde bei nahezu jedem Nährstoff ein Unsicherheitsfaktor von 2 verwendet. Damit soll einer möglichen Mehrfachexposition durch die Einnahme unterschiedlicher Nahrungsergänzungsmittel Rechnung getragen werden.

Die vom BfR vorgeschlagenen Höchstmengen zielen darauf ab, ausreichende Ergänzungsmöglichkeiten für Personen mit geringer Nährstoffzufuhr zu bieten, ohne bei adäquater Nährstoffzufuhr das Risiko für Überschreitungen der ULs wesentlich zu erhöhen. Die Höchstmengenvorschläge beziehen sich zunächst nur auf Nahrungsergänzungsmittel und gelten, sofern nicht anders vermerkt, für Jugendliche ab 15 Jahre und Erwachsene. Bei einem Teil der Höchstmengen empfiehlt das BfR zusätzlich verpflichtende Angaben auf den Produkten. Außerdem macht das BfR darauf aufmerksam, dass neue wissenschaftliche Erkenntnisse und zukünftige Marktentwicklungen ggf. Anpassungen der Höchstmengen erforderlich machen.

In Deutschland werden durch die herkömmliche Ernährung bis auf wenige Ausnahmen ausreichende Mengen an Mikronährstoffen aufgenommen. Aus ernährungsphysiologischer Sicht sind Nahrungsergänzungsmittel daher im Allgemeinen nicht notwendig. Dies gilt umso mehr, als Nahrungsergänzungsmittel eher von Menschen mit gesünderem Lebensstil und ausgewogener Ernährung verwendet werden. Internationale wissenschaftliche Studien belegen zudem, dass von einer zusätzlichen, über den Bedarf hinausgehenden, Aufnahme von Mikronährstoffen keine positiven Wirkungen zu erwarten sind. Angesichts dessen dienen die vom BfR vorgeschlagenen Höchstmengen vor allem dazu, den großen Teil der gut versorgten Bevölkerung vor übermäßigen Nährstoffaufnahmen zu schützen.

Die Höchstmengenvorschläge des BfR sind Grundlage für die Schaffung von gesetzlichen Regelungen in Deutschland und somit eine Entscheidungshilfe für das Risikomanagement für risikomindernde Maßnahmen.

Über das BfR
Das Bundesinstitut für Risikobewertung (BfR) ist eine wissenschaftlich unabhängige Einrichtung im Geschäftsbereich des Bundesministeriums für Ernährung und Landwirtschaft (BMEL). Es berät die Bundesregierung und die Bundesländer zu Fragen der Lebensmittel-, Chemikalien- und Produktsicherheit. Das BfR betreibt eigene Forschung zu Themen, die in engem Zusammenhang mit seinen Bewertungsaufgaben stehen.

In diesem Jahr feiert das BfR sein 15-jähriges Bestehen. Aus diesem Anlass hat das BfR eine Jubiläumsbroschüre herausgegeben, die unter http://www.bfr.bund.de/de/publikation/broschueren-660.html kostenlos heruntergeladen oder bestellt werden kann.

Quelle: idw

(nach oben)


Kostformen im Vergleich: Für Menschen mit Diabetes ist die Mittelmeer-Diät besonders gut geeignet

Dr. Gisela Olias Presse- und Öffentlichkeitsarbeit
Deutsches Institut für Ernährungsforschung Potsdam-Rehbrücke

Die Mittelmeer-Diät ist im Vergleich zu acht anderen Kostformen am besten geeignet, bei Menschen mit Typ-2-Diabetes die Blutzuckerwerte zu verbessern. Zu diesem Ergebnis kommt ein europäisches Wissenschaftlerteam unter Leitung von Lukas Schwingshackl und Heiner Boeing vom Deutschen Institut für Ernährungsforschung (DIfE) im European Journal of Epidemiology (https://doi.org/10.1007/s10654-017-0352-x). Das Team wertete die Daten von 4.937 Studienteilnehmern aus 56 Ernährungsstudien mit Hilfe einer neuen Analysemethode aus. Diese Methode ermöglichte es erstmals, die Effekte von neun verschiedenen Kostformen auf die Nüchtern- und Langzeit-Blutzuckerwerte unmittelbar zu vergleichen.

Nach neuesten Daten der International Diabetes Federation und der World Health Organization zählt Typ-2-Diabetes zu den wichtigsten Volkskrankheiten. Schätzungsweise sind weltweit 350-400 Millionen Menschen an dieser Diabetesform erkrankt. Das Gute ist, dass sich die Krankheit über die Ernährung günstig beeinflussen lässt.

Welche Kostform hierfür am besten geeignet ist, ist allerdings nur schwer einzuschätzen. Denn in den meisten Ernährungsstudien vergleichen die Wissenschaftler nur die Effekte von wenigen Diäten direkt miteinander. Zum Beispiel erhält eine Gruppe der Studienteilnehmer für eine längere Zeit eine Low-Carb-Diät, während eine zweite Gruppe eine Low-Fat-Diät einhalten muss. Danach untersuchen die Forscher, welche Diät die stärksten Effekte auf den Stoffwechsel hat im Vergleich zur normalerweise üblichen Ernährungsweise der Teilnehmer. Mit Hilfe der neuen Analysemethode, der sogenannten Netzwerk-Meta-Analyse, ist es nun möglich, viele verschiedene Kostformen gleichzeitig auszuwerten und miteinander zu vergleichen. Voraussetzung ist, dass die in die Meta-Analyse einbezogenen Studien jeweils die Wirkung von mindestens zwei verschiedenen Kostformen auf Studienteilnehmer untersucht haben.

Zu den neun untersuchten Kostformen gehören die Low-Fat-, die Paläo-, die High-Protein-, die Low-Carb- und die Mittelmeer-Diät. Ebenso analysierten die Forscher die Wirkung einer vegetarisch/veganen Kost sowie die Effekte von Diäten mit einem moderaten Kohlenhydratanteil oder mit einem niedrigen glykämischen Index bzw. einer niedrigen glykämischen Last. Wenn die Teilnehmer im Rahmen der jeweiligen Ernährungsstudie keine vorgegebene Diät verzehrten, sondern sich wie gewohnt ernährten, werteten die Forscher dies als Kontroll-Diät. Die Forscher schlossen nur Studien in ihre Analyse ein, bei denen die Teilnehmer über 18 Jahre alt waren und mindestens für 12 Wochen eine bestimmte Kostform einhielten.

Die Mittelmeer-Diät war im Vergleich zur Kontrolldiät, gefolgt von der Paläo-Diät und der veganen Kost am besten geeignet, um den Nüchtern-Blutzuckerwert zu senken. Dieser Wert gibt die Blutzuckermenge nach einer mindestens achtstündigen Fastenperiode an, zum Beispiel am Morgen nach der Nachtruhe. Bei gesunden Menschen beträgt der Nüchtern-Blutzuckerwert 4,4 bis 5,6 mmol/l. Ein Wert von 5,6 bis 6,9 mmol/l weist auf eine beginnende Diabeteserkrankung hin.

Die Low-Carb-Diät war dagegen am besten geeignet, den Langzeit-Blutzuckerwert (HbA1c-Wert) günstig zu beeinflussen. Er verrät, wie hoch der Blutzucker in den vergangenen acht bis zwölf Wochen war. Kurzfristige Blutzuckerschwankungen beeinflussen ihn praktisch kaum. Daher nutzen Ärzte den Wert, um abzuschätzen, wie gut die Zuckerkrankheit bei ihren Patienten in der jüngeren Vergangenheit eingestellt war. Zudem kann der Wert auch zur Diabetes-Diagnose beitragen. Liegt der HbA1c-Wert über 6,5 Prozent, so liegt ein Diabetes vor. Neben der Low-Carb-Diät wirkten sich aber auch die Mittelmeer- sowie die Paläo-Diät sehr günstig auf den HbA1c-Wert aus.
Die Low-Fat-Diät zeigte hingegen die schwächsten Effekte auf den Zuckerstoffwechsel, das heißt, auf den Nüchtern- sowie den Langzeit-Blutzuckerwert. Sie war aber immer noch deutlich effektiver als die Kontroll-Diät. Im Vergleich zu letzterer trugen alle untersuchten Kostformen mit leicht unterschiedlicher Stärke dazu bei, den Nüchtern-Blutzucker-Wert um 1 bis 1,61 mmol/l zu senken. Ebenso verminderten sie die HbA1c-Werte um 0,47 bis 0,82 Prozent.

„Unsere Studie zeigt, dass eine pflanzenbasierte Kost wie die Mittelmeer-Diät eine gute Möglichkeit ist, den Zuckerstoffwechsel bei Menschen mit Diabetes günstig zu beeinflussen“, sagt Erstautor Schwingshackl. Die Wissenschaftler gehen derzeit davon aus, dass die in Früchten, Gemüse, Olivenöl, Nüssen, Vollkornprodukten und Hülsenfrüchten enthaltenen sekundären Pflanzenstoffe sowie Ballaststoffe die Insulinempfindlichkeit der Patienten verbessern und die Produktion von Advanced Glycation Endproducts (AGEs) verringern. Letztere sind Zucker-Eiweißverbindungen, die insbesondere bei oxidativem Stress, aber auch bei zu hohen Blutzuckerwerten entstehen.
„Seit langem ist bekannt, dass bei Diabetes eine gute Blutzuckerkontrolle ein entscheidender Schritt ist, um schwere Folgeerkrankungen wie einen Herzinfarkt oder Schlaganfall zu verhindern“, weiß Boeing, der am DIfE die Abteilung Epidemiologie leitet. „Menschen mit Diabetes sollten so viel wie möglich über ihre Ernährung dazu beizutragen, den Blutzucker in den Griff zu bekommen. Dies fördert auf einfache Weise das Wohlbefinden, spart Medikamente und entlastet hierdurch auch unser Gesundheitssystem.“

Quelle:
Schwingshackl L, Chaimani A, Hoffmann G, Schwedhelm C, Boeing H.: A network meta-analysis on the comparative efficacy of different dietary approaches on glycaemic control in patients with type 2 diabetes mellitus. Eur J Epidemiol. 2018; doi: 10.1007/s10654-017-0352-x.

https://link.springer.com/article/10.1007%2Fs10654-017-0352-x

Das Deutsche Institut für Ernährungsforschung Potsdam-Rehbrücke (DIfE) ist Mitglied der Leibniz-Gemeinschaft. Es erforscht die Ursachen ernährungsassoziierter Erkrankungen, um neue Strategien für Prävention, Therapie und Ernährungsempfehlungen zu entwickeln. Zu seinen Forschungsschwerpunkten gehören die Ursachen und Folgen des metabolischen Syndroms, einer Kombination aus Adipositas (Fettsucht), Hypertonie (Bluthochdruck), Insulinresistenz und Fettstoffwechselstörung, die Rolle der Ernährung für ein gesundes Altern sowie die biologischen Grundlagen von Nahrungsauswahl und Ernährungsverhalten. Mehr unter www.dife.de. Das DIfE ist zudem ein Partner des 2009 vom BMBF geförderten Deutschen Zentrums für Diabetesforschung (DZD). Weitere Informationen zum DZD finden Sie unter www.dzd-ev.de.

Die Leibniz-Gemeinschaft verbindet 93 selbständige Forschungseinrichtungen. Ihre Ausrichtung reicht von den Natur-, Ingenieur- und Umweltwissenschaften über die Wirtschafts-, Raum- und Sozialwissenschaften bis zu den Geisteswissenschaften. Leibniz-Institute widmen sich gesellschaftlich, ökonomisch und ökologisch relevanten Fragen. Sie betreiben erkenntnis- und anwendungsorientierte Forschung, auch in den übergreifenden Leibniz-Forschungsverbünden, sind oder unterhalten wissenschaftliche Infrastrukturen und bieten forschungsbasierte Dienstleistungen an. Die Leibniz-Gemeinschaft setzt Schwerpunkte im Wissenstransfer, vor allem mit den Leibniz-Forschungsmuseen. Sie berät und informiert Politik, Wissenschaft, Wirtschaft und Öffentlichkeit. Leibniz-Einrichtungen pflegen enge Kooperationen mit den Hochschulen – u.a. in Form der Leibniz-WissenschaftsCampi, mit der Industrie und anderen Partnern im In- und Ausland. Sie unterliegen einem transparenten und unabhängigen Begutachtungsverfahren. Aufgrund ihrer gesamtstaatlichen Bedeutung fördern Bund und Länder die Institute der Leibniz-Gemeinschaft gemeinsam. Die Leibniz-Institute beschäftigen rund 18.700 Personen, darunter 9.500 Wissenschaftlerinnen und Wissenschaftler. Der Gesamtetat der Institute liegt bei mehr als 1,8 Milliarden Euro. Mehr unter www.leibniz-gemeinschaft.de.

Kontakt:
Dr. Lukas Schwingshackl
Abteilung Epidemiologie
Deutsches Institut für Ernährungsforschung
Potsdam-Rehbrücke (DIfE)
Arthur-Scheunert-Allee 114-116
14558 Nuthetal/Deutschland
Tel.: +49 33200 88-2712
E-Mail: lukas.schwingshackl@dife.de

apl. Prof. Dr. Heiner Boeing
Abteilung Epidemiologie
Deutsches Institut für Ernährungsforschung
Potsdam-Rehbrücke (DIfE)
Arthur-Scheunert-Allee 114-116
14558 Nuthetal/Deutschland
Tel.: +49 33200 88-2711
E-Mail: boeing@dife.de

Weitere Informationen:
http://www.dife.de/forschung/abteilungen/kurzprofil.php?abt=EPI
Link zur Abteilung Epidemiologie am Deutschen Institut für Ernährungsforschung

Quelle: idw

(nach oben)


Umweltgeschichte aus dem Faulschlamm: Klimawandel lässt „tote Zonen“ im Schwarzen Meer wachsen

Dr. Barbara Hentzsch Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Ostseeforschung Warnemünde

Erstmalig ist es GeowissenschaftlerInnen des Leibniz-Instituts für Ostseeforschung Warnemünde (IOW), der Universitäten Oldenburg und Hannover sowie der Rutgers University (USA) gelungen, die Ablagerungsbedingungen im Schwarzen Meer während der letzten Warmzeit (Eem) vor rund 128.000 Jahren zeitlich hoch aufgelöst zu analysieren. Damit wurde ein Vergleich der heutigen sauerstofffreien Bedingungen im Tiefenwasser des Schwarzen Meeres mit denen zur Eem-Zeit möglich, als die Sommer-Temperaturen des Wassers rund 3°C höher waren. Demnach können sich die „toten Zonen“ des Schwarzen Meeres bei einer Klimaerwärmung weiter ausbreiten und die produktiven Lebensräume dabei deutlich schrumpfen.

Sauerstoffmangel und giftiger Schwefelwasserstoff (Hydrogensulfid) im Tiefenwasser gehören heute zu den hervorstechendsten Eigenschaften des Schwarzen Meeres. In dem größten Brackwassermeer der Erde existiert ab einer Tiefe von 100 bis 150 m kein Sauerstoff mehr und Schwefelwasserstoff ist allgegenwärtig. Insgesamt nimmt dieser Raum, in dem kein höheres Leben existieren kann, heute rund 90 % des Wasserkörpers des Schwarzen Meeres ein. Wie werden sich diese „toten Zonen“ im Schwarzen Meer im Laufe der Klimaerwärmung und eines steigenden Meeresspiegels entwickeln? Die detaillierte Analyse von Ablagerungen aus der letzten Warmzeit (Eem) im Schwarzen Meer, deren Ergebnisse kürzlich in der internationalen Fachzeitschrift „Palaeogeography, Palaeoclimatology, Palaeoecology“ veröffentlicht wurden, ermöglicht Einblicke in eine solche Zukunft.

Die sauerstofffreien Bedingungen am Boden des Schwarzen Meeres führen dazu, dass sich herabsinkende organische Substanz nur sehr langsam zersetzt. Das Ergebnis ist die Bildung eines Faulschlamms, des sogenannten Sapropels. Diese Sapropele sind sowohl in den holozänen Ablagerungen der jetzigen Warmphase, als auch in denen der Eem-Zeit weit verbreitet. Mithilfe detaillierter Analysen redox-sensitiver chemischer Elemente in Sapropelen aus beiden Warmzeiten gelang es dem Team ein differenziertes Bild der eemzeitlichen Bedingungen im Tiefenwasser des Schwarzen Meeres zu rekonstruieren. Als Umweltzeugen dienten den GeowissenschaftlerInnen unter anderem die seltenen Spurenelemente Molybdän und Rhenium, die unterschiedlich auf Sauerstoffabwesenheit bzw. Anwesenheit von Sulfid reagieren. Insgesamt wurden mehr als 10 solcher Umweltzeugen (sog. Proxies) analysiert, um die Rekonstruktion des komplexen Gesamtbildes zu ermöglichen.

Die Warnemünder Geologin Antje Wegwerth fasst die Ergebnisse zusammen: „Das Tiefenwasser war während der Eem-Warmzeit deutlich sulfidischer, also giftiger als heute. Der für höhere Organismen lebensfeindliche Raum breitete sich im Laufe der Jahrtausende immer weiter aus und reichte schließlich bis an die so genannte photische Zone – die Licht durchflutete, produktive Schicht des Oberflächenwassers – heran.“

In entsprechender Auflösung und Qualität konnten bislang noch keine Eem-Sedimente im Schwarzen Meer untersucht werden, da sie in der Regel nur durch sehr aufwendige Tiefseebohrungen gewonnen werden können. Auf einer Ausfahrt mit dem Forschungsschiff METEOR gelang es jedoch auf einem untermeerischen Rücken in Wassertiefen um 850 m, Sedimentkerne mit Ablagerungen sowohl aus dem Holozän als auch aus der Eem-Zeit mithilfe herkömmlicher Schwerelote zu gewinnen. Damit wurde erstmalig ein direkter Vergleich der beiden Warmzeiten möglich.

Die Klimaerwärmung während des Eems und des Holozäns führte im Schwarzen Meer zu wesentlichen Änderungen. Durch das Abschmelzen der polaren Inlandeismassen stieg der globale Meeresspiegel an und mit Überschreiten der Bosporus-Schwelle ergossen sich zu Beginn der jeweiligen Warmzeit salzreiche dichte Wassermassen aus dem Mittelmeer in das weitgehend ausgesüßte Schwarze Meer. Dies führte zu einer starken (Dichte)Schichtung von salzärmerem Oberflächenwasser über salzreicherem Tiefenwasser. Die ansteigenden Wasseroberflächentemperaturen führten gleichzeitig zu einer verstärkten Produktivität und einem hohen Aufkommen an organischer Substanz, die am Boden des Schwarzen Meeres unter Sauerstoffverbrauch zersetzt wurde. Das Zusammenspiel dieser Faktoren war schließlich verantwortlich für die Ausbildung der mächtigen „toten Zonen“ im Schwarzen Meer.

Der vollständige Artikel ist einsehbar unter:
Wegwerth, A., Eckert, S., Dellwig, O., Schnetger, B., Severmann, S., Weyer, S., Brüske, A., Kaiser, J., Köster, J., Arz, H.W., Brumsack, H.-J. Redox evolution during Eemian and Holocene sapropel formation in the Black Sea. Palaeogeography, Palaeoclimatology, Palaeoecology (2018) 489, 249-260
https://doi.org/10.1016/j.palaeo.2017.10.014

Wissenschaftliche Ansprechpartnerin:
Dr. Antje Wegwerth, 0381 5197 3481, Antje.Wegwerth@io-warnemuende.de

Kontakt Presse- & Öffentlichkeitsarbeit:
Dr. Barbara Hentzsch | Tel.: 0381 5197-102 | Barbara.Hentzsch@io-warnemuende.de

Das IOW ist Mitglied der Leibniz-Gemeinschaft, zu der zurzeit 91 Forschungsinstitute und wissenschaftliche Infrastruktureinrichtungen für die Forschung gehören. Die Ausrichtung der Leibniz-Institute reicht von den Natur-, Ingenieur- und Umweltwissenschaften über die Wirtschafts-, Sozial- und Raumwissenschaften bis hin zu den Geisteswissenschaften. Bund und Länder fördern die Institute gemeinsam. Insgesamt beschäftigen die Leibniz-Institute etwa 18.100 MitarbeiterInnen, davon sind ca. 9.200 WissenschaftlerInnen. Der Gesamtetat der Institute liegt bei mehr als 1,6 Mrd. Euro. (www.leibniz-gemeinschaft.de)

Quelle: idw

(nach oben)


Biogas: Forschungsprojekt erkundet ungenutzte Potenziale von Anlagen

Florian Klebs Hochschulkommunikation
Universität Hohenheim

Bundesweites Messprogramm der Universität Hohenheim ermittelt Effizienz und Zukunftspotenzial bestehender Anlagen / Vorschläge an Praxis und Politik
Der Mix macht’s: Je nachdem, mit welchen Materialien die Anlagen wie gefüttert, durchmischt und gefahren werden, fällt die Biogas-Ausbeute sehr unterschiedlich aus. Drei Jahre lang vergleicht die Universität Hohenheim in Stuttgart Betriebsweise, Ausbeute und Verluste von Biogasanlagen, identifiziert Best-Practice-Beispiele, entwickelt Standards zur Anlagenbeschreibung und formuliert Verbesserungsvorschläge für Praxis und Politik. Das Bundesministerium für Ernährung und Landwirtschaft (BMEL) fördert das Vorhaben mit 344.000 Euro über seinen Projektträger – die Fachagentur Nachwachsende Rohstoffe e.V. (FNR). Damit zählt das Projekt zu den Schwergewichten der Forschung der Universität Hohenheim.

29.000 Gigawattstunden (GWh) Strom erzeugten Deutschlands 8.000 Biogasanlagen 2014. Das waren 5-6 Prozent des bundesweiten Stromverbrauchs von 524.000 GWh. Aber es werden derzeit kaum noch neue Anlagen gebaut. Der Verkauf von Biogasstrom erfolgt zukünftig über Ausschreibungen.

„Das Potenzial der bestehenden Anlagen ist noch längst nicht ausgereizt“, erklärt Dr. Hans Oechsner von der Landesanstalt für Agrartechnik und Bioenergie der Universität Hohenheim. „Unser Projekt soll vorbildliche Betriebsweisen identifizieren, über die sich die Effizienz erhöhen lässt, damit sich ihr Betrieb weiterhin lohnt.“

Dazu legt die Universität Hohenheim eine große Messkampagne auf. Darin untersucht sie im Verbund mit drei Projektpartnern bundesweit anhand einer Stichprobe von insgesamt 60 Biogasanlagen, wie wirtschaftlich und ökologisch sie arbeiten.

Biogas-Standards sollen sich weiterentwickeln
Die bestehenden Biogasanlagen sind zum Teil sehr unterschiedlich aufgebaut. „Wir haben verschiedene Ausgangsstoffe der Biogassubstrate, außerdem variieren Mischungsverhältnis und Durchmischung der Stoffe sowie Druck und Temperatur in den Biogasreaktoren“, so Dr. Oechsner.

Die Forscher prüfen, welche Technik die Anlagen benutzen und wie effizient sie arbeiten. Mit einigen Stellschrauben ließe sich ihr Betrieb verändern und optimieren. „Wir finden heraus, welche Anlagen bei der Gasausbeute in Menge und Qualität vorne liegen.“

Messkampagne ermittelt Effizienzpotenziale
Die Biogasforscher der Universität Hohenheim ermitteln für jede Anlage, wie die Substrate zusammengesetzt sind, welche Gas- und Strommenge produziert wird und an welchen Aggregaten Gasverluste auftreten.

„Darüber hinaus berechnen wir mit Modellrechnungen, wie weit die produzierte Gas- und Strommenge und die aus dem Input-Substrat theoretisch zu produzierenden Mengen auseinander liegen“, erläutert Benedikt Hülsemann, ebenfalls von der Landesanstalt für Agrartechnik und Bioenergie der Universität Hohenheim.

„Daraus ermitteln wir, wie wirtschaftlich und ökologisch effizient die Anlagen arbeiten.“ Schließlich vergleichen die Forscher die Daten aller Biogasanlagen, um besonders wirtschaftliche Anlagen zu ermitteln.

Forschungsergebnisse fließen direkt in Praxis ein
Im Rahmen des Projektes entwickeln die Forscher einheitliche Standards, um den Zustand von Biogasanlagen besser beschreiben zu können. Zwischenergebnisse und Verbesserungsmöglichkeiten präsentieren sie bei mehreren Tagungen, damit die Betreiber sie unmittelbar in der Praxis umsetzen können. Es ist außerdem eine Broschüre und eine Internetplattform mit den Daten vorgesehen.

Auch für die Politik entwickeln die Biogasforscher konkrete Vorschläge. „Wir möchten neue Standards formulieren, damit die Branche sich insgesamt weiterentwickeln kann“, so Dr. Oechsner.

Hintergrund Biogas-Messprogramm III
Der genaue Titel des Verbundvorhabens lautet: Biogas-Messprogramm III – Teil 1: Faktoren für einen effizienten Betrieb von Biogasanlagen; Teilvorhaben 3: Effizienz der biologischen Prozesse (Förderkennzeichen 22403715). Die Fördersumme beträgt 344.155,72 Euro, die Laufzeit ist von 1.12.2015 bis 30.11.2018. Auch diesmal werden zusammen mit drei Partnerinstituten insgesamt 60 Praxisanlagen im gesamten Bundesgebiet untersucht, um deren Effizienz zu bewerten und den Anlagenzustand zu definieren.

Die drei Kooperationspartner von Teil 1 des Verbundvorhabens sind das Deutsche Biomasseforschungszentrum gemeinnützige GmbH (DBFZ), Leipzig; das Institut für Landtechnik und Tierhaltung, der Bayerischen Landesanstalt für Landwirtschaft (LfL), Freising; sowie das Kompetenzzentrum Erneuerbare Energien und Klimaschutz Schleswig-Holstein (EEK.SH), Kiel, angesiedelt bei dem Forschungs- und Entwicklungszentrum FH Kiel GmbH.

Hintergrund: Bioökonomie – Leitthema der Universität Hohenheim
Die Bioökonomie ist das Leitthema der Universität Hohenheim und einer ihrer drei Forschungsschwerpunkte. Sie verbindet die agrarwissenschaftliche, die naturwissenschaftliche sowie die wirtschafts- und sozialwissenschaftliche Fakultät.

Diese interdisziplinäre Thematik an der Universität Hohenheim zu koordinieren und umzusetzen ist Aufgabe des Forschungszentrums Bioökonomie. Ziel der Bioökonomie ist es, die weltweite Ernährung zu sichern, die Agrarproduktion nachhaltig zu gestalten, gesunde und sichere Lebensmittel zu produzieren, nachhaltige Rohstoffe industriell zu nutzen sowie Energieträger auf der Basis von Biomasse auszubauen. Dabei genießt die Ernährungssicherung stets Vorrang vor anderen Nutzungen von Biomasse (Nationale Forschungsstrategie BioÖkonomie 2030, BMBF).

Die Bioökonomie greift ein zentrales Anliegen von Politik und Gesellschaft auf und berücksichtigt gleichermaßen ökologische, wirtschaftliche und gesellschaftliche Belange. Homepage: bioeconomy.uni-hohenheim.de/forschungszentrum

Hintergrund Schwergewichte der Forschung
31,2 Millionen Euro an Drittmitteln akquirierten Wissenschaftler der Universität Hohenheim 2015 für Forschung und Lehre. In loser Folge präsentiert die Reihe „Schwergewichte der Forschung“ herausragende Forschungsprojekte mit einem finanziellen Volumen von mindestens 250.000 Euro bei den Experimental- bzw. 125.000 Euro bei den Sozial- und Gesellschaftswissenschaften.

Weitere Informationen:
Homepage des Verbundprojekts:
https://www.uni-hohenheim.de/organisation/projekt/biogas-messprogramm-iii-bmp-ii…

Fachagentur Nachwachsende Rohstoffe e. V.:
http://www.fnr.de/index.php?id=911&alles=1&status=Inhalt&fkz=2240371…

Zu den Pressemitteilungen der Universität Hohenheim
https://www.uni-hohenheim.de/presse

Quelle: idw

(nach oben)


Biogas-Fachgespräch in Nossen diskutiert zum Thema „Emissionen von Biogasanlagen“

Paul Trainer M.A. Presse- und Öffentlichkeitsarbeit
Deutsches Biomasseforschungszentrum

Die Anforderungen im Bereich Anlagensicherheit und Emissionen im Betrieb von Biogasanlagen steigen zunehmend. Vor dem Hintergrund einer zunehmenden Flexibilisierung des Anlagenbestandes richtet sich der Fokus insbesondere auf betriebsbedingte Biogasemissionen, die den ökologischen und ökonomischen Anlagenbetrieb negativ beeinflussen können. Das Biogas-Fachgespräch am 27. Februar 2018 beschäftigte sich mit dem Thema „Emissionen von Biogasanlagen“ und stellt verschiedene Emissionsquellen sowie deren Vermeidung vor.

Für Biogasanlagenbetreiber ergeben sich u.a. durch die Novellierung der TA-Luft sowie den Entwurf TRAS 120 (Technische Regel für Anlagensicherheit Biogasanlagen) neue An- und Herausforderungen in der Betriebsweise ihrer Anlage. Auch vor dem Hintergrund einer zukünftig schlechteren Erlössituation müssen sich Betreiber in zunehmendem Maße mit Fragen des Biogasspeichermanagements sowie der Effizienz des biologischen Prozesses und der Gasverwertung auseinandersetzen. Im Rahmen des Biogas-Fachgespräches zum Thema „Emissionen von Biogasanlagen“ am 27. Februar 2018 im Landwirtschafts- und Umweltzentrum Nossen werden verschiedene Emissionsquellen, deren Ursachen im Anlagenbetrieb sowie entsprechende Minderungsmöglichkeiten vorgestellt und mit den Teilnehmern diskutiert. Darüber hinaus werden Einblicke zum aktuellen Stand der sich ändernden gesetzlichen Rahmenbedingungen gegeben.

Zu Beginn der Veranstaltung wird Torsten Reinelt vom Deutschen Biomasseforschungszentrum über das Thema „Überwachung und Minderung betriebsbedingter und zeitlich variabler Methanemissionen aus Biogasanlagen“ referieren. Anschließend geht Dr. Ralf Winterberg (CORDES + WINTERBERG GbR) in seinem Vortrag auf Emissionen offener Vorstufen zweiphasiger landwirtschaftlicher Biogasanlagen ein. Volker Aschmann (Bayerische Landesanstalt für Landwirtschaft) erläutert anschließend das Emissionsverhalten biogasbetriebener BHKW in Zeiten der Flexibilisierung. Nach einer Kaffeepause berichtet Peter Gamer vom Landesamt für Umwelt, Landwirtschaft und Geologie (LfULG) von aktuellen und künftigen Anforderungen an die Emissionsbegrenzung bei Biogasanlagen. Fallbeispiele der Über-/Unterdrucksicherung erläutert Torsten Reinelt vom DBFZ in seinem abschließenden Vortrag zur Emissionsminderung an Biogasanlagen. Im Anschluss an die Vorträge bietet sich Raum für Fragen und Diskussionen. Die Veranstaltung wird moderiert von Dr. Claudia Brückner (LfULG)

Zielgruppe:
Die „Leipziger Fachgespräche“ zum Thema Biogas richten sich an ein Fachpublikum, das sich mit den verschiedensten Aspekten der Energieerzeugung aus Biogas beschäftigt. Dazu zählen insbesondere landwirtschaftliche Unternehmen und Genossenschaften, die Biogasanlagen betreiben oder dies planen. Aber auch Mitarbeiter von Kommunen sowie der lebensmittelbe- und -verarbeitenden Industrie, bei denen eine Biogaserzeugung zur Lösung des Abfallproblems beitragen kann, sind angesprochen. Neben Herstellern von Biogasanlagen bzw. Anlagenkomponenten sind auch Händler und Planer von Biogasanlagen, Mitarbeiter von Forschungseinrichtungen, Ministerien, Behörden und Verbänden zum Leipziger Biogas-Fachgespräch eingeladen.

Smart Bioenergy – Innovationen für eine nachhaltige Zukunft
Das Deutsche Biomasseforschungszentrum arbeitet als zentraler und unabhängiger Vordenker im Bereich der energetischen und stofflichen Biomassenutzung an der Frage, wie die begrenzt verfügbaren Biomasseressourcen nachhaltig und mit höchster Effizienz und Effektivität zum bestehenden und zukünftigen Energiesystem beitragen können. Im Rahmen der Forschungstätigkeit identifiziert, entwickelt, begleitet, evaluiert und demonstriert das DBFZ die vielversprechendsten Anwendungsfelder für Bioenergie und die besonders positiv herausragenden Beispiele gemeinsam mit Partnern aus Forschung, Wirtschaft und Öffentlichkeit. Mit der Arbeit des DBFZ soll das Wissen über die Möglichkeiten und Grenzen einer energetischen und integrierten stofflichen Nutzung nachwachsender Rohstoffe in einer biobasierten Wirtschaft insgesamt erweitert und die herausragende Stellung des Industriestandortes Deutschland in diesem Sektor dauerhaft abgesichert werden – www.dbfz.de.

Ansprechpartner:
Dr. Claudia Brückner/Eveline Zschoche
(organisatorische Rückfragen)
Tel.: +49 (0)351 2612-2424
Fax: +49 (0)351 451-2610 009
E-Mail: Eveline.Zschoche@smul.sachsen.de

Tino Barchmann
(inhaltliche Rückfragen)
Tel.: +49 (0)341 2434-375
Fax: +49 (0)341 2434-133
E-Mail: Tino.Barchmann@dbfz.de

Pressekontakt:
Paul Trainer
Tel.: +49 (0)341 2434-437
E-Mail: paul.trainer@dbfz.de

Weitere Informationen:
https://www.dbfz.de/aktuelles/fachgespraeche/anmeldung-fachgespraeche
https://www.dbfz.de/aktuelles/fachgespraeche.html
https://www.dbfz.de/presse/pressemitteilungen-2018/biogas-fachgespraech-in-nosse…

Quelle: idw

(nach oben)


Wie Omega-3-Fettsäuren das Immunsystem fit halten

Dr. Ute Schönfelder Stabsstelle Kommunikation/Pressestelle
Friedrich-Schiller-Universität Jena

Wissenschaftler der Uni Jena und der Harvard Medial School in Boston klären Stoffwechselwege auf, über die pathogene Bakterien Entzündungsprozesse regulieren

Omega-3-Fettsäuren sind essenzielle Nahrungsbestandteile und gelten als sehr gesund. Die vor allem in Pflanzenöl und Fisch vorkommenden Substanzen haben sich in zahlreichen Untersuchungen als gesundheitsfördernd für das Herz-Kreislauf-System erwiesen. Darüber hinaus spielen Omega-3-Fettsäuren auch eine wichtige Rolle bei der Immunabwehr: Sie liefern die Grundbausteine für entzündungsauflösende Substanzen – sogenannte Resolvine -, die das Abklingen von Entzündungsreaktionen zum Beispiel infolge von mikrobiellen Infektionen fördern. Ein internationales Forscherteam um Prof. Dr. Oliver Werz von der Friedrich-Schiller-Universität Jena und Prof. Dr. Charles N. Serhan von der Harvard Medical School in Boston hat jetzt in der renommierten Fachzeitschrift „Nature Communications“ Studienergebnisse vorgestellt, die den zugrundeliegenden zellulären Mechanismus der Auflösungsphase von Entzündungsreaktionen erklärt (DOI: 10.1038/s41467-017-02538-5). Demnach nehmen krankheitserregende Bakterien gezielt Einfluss auf die Funktion bestimmter Immunzellen – die Makrophagen – und steuern so den gesamten Prozess der Entzündung anhand unterschiedlicher Fettsäuren.

„Bei einer Entzündung handelt es sich um eine Abwehrreaktion des Körpers auf einen schädlichen Reiz, etwa eindringende Krankheitserreger oder eine Gewebeverletzung“, erläutert Prof. Dr. Oliver Werz von der Uni Jena die Grundlagen. Ziel sei es, damit den schädlichen Reiz zu eliminieren und zerstörtes oder geschädigtes Gewebe zu regenerieren. „Dazu ist es aber notwendig, dass sowohl die Auslösung des Entzündungsgeschehens als auch dessen Abklingen vom Immunsystem genau reguliert werden“, macht der Inhaber des Lehrstuhls für Pharmazeutische und Medizinische Chemie deutlich. Geraten diese Prozesse aus der Balance laufe der Organismus Gefahr, dass sich chronische Entzündungen einstellen, wie es beispielsweise bei Arteriosklerose oder Autoimmunerkrankungen der Fall ist.

Makrophagen produzieren entzündungsregulierende Substanzen
In ihren Experimenten konnten die Forscher zeigen, dass pathogene Erreger wie Staphylococcus aureus und Escherichia coli in unterschiedlichen Makrophagenpopulationen gegensätzliche Wirkungen hervorrufen. So stimulieren sie die sogenannten „M1-Makrophagen“, die vor allem in der Entzündungsphase aktiv sind, zur Produktion von entzündungsfördernden Signalstoffen (Prostaglandine und Leukotriene). „M2-Makrophagen“ dagegen, die während des Abklingprozesses der Entzündung im Vordergrund stehen, werden von den Bakterien dazu gebracht, vermehrt entzündungsauflösende Substanzen (Resolvine, Lipoxine, Maresine, Protektine) aus Omega-3-Fettsäuren zu bilden.

Die Interaktion von M1-Makrophagen mit pathogenen Keimen war bereits bekannt. Dass Bakterien M2-Makrophagen zur Freisetzung entzündungsauflösender Substanzen aus Omega-3-Fettsäuren anregen, ist jedoch eine völlig neue Erkenntnis für die Forscher. „Die Aktivierung beider Phasen der Entzündung macht durchaus Sinn, denn so sorgt das Immunsystem dafür, dass nach einer erfolgreich abgewehrten Infektion, die unschädlich gemachten Bakterien aus dem Gewebe beseitigt und die Entzündungsreaktion gestoppt werden“, sagt Oliver Werz. Für den Pharmazeuten und seine Kollegen in Jena und Boston ist nun vor allem die Frage interessant, wie sich die gewonnenen Erkenntnisse künftig für die Behandlung chronisch-entzündlicher Erkrankungen nutzen lassen.

Kooperation mit Harvard wird fortgesetzt
Die aktuell vorgelegten Befunde sind das Ergebnis einer bereits länger bestehenden engen Kooperation des Jenaer Lehrstuhls von Prof. Werz mit der Arbeitsgruppe von Prof. Serhan an der Harvard Medical School. Den Grundstein hat Werz bereits 2015 während eines Aufenthalts als Gastprofessor an der Harvard Medical School gelegt. Nach seiner Rückkehr aus Boston haben seine Mitarbeiter Dr. Jana Gerstmeier und Markus Werner die Untersuchungen in Jena fortgeführt. Aktuell fließen die neuen Erkenntnisse sowohl in die Studien von Dr. Gerstmeier im Rahmen eines Förderprogramms der Carl-Zeiss-Stiftung als auch in die Arbeiten des Teams von Werz im Sonderforschungsbereich „ChemBioSys“ ein, in dem er und seine Kollegen ein Teilprojekt zur Modulation der Makrophagen durch Naturstoffe bearbeiten.

Original-Publikation:
Werz O. et al. Human macrophages differentially produce specific resolvin or leukotriene signals that depend on bacterial pathogenicity. Nature Communications 9 (2018) doi:10.1038/s41467-017-02538-5

Kontakt:
Prof. Dr. Oliver Werz
Institut für Pharmazie der Friedrich-Schiller-Universität Jena
Philosophenweg 14, 07743 Jena
Tel.: 03641 / 949801
E-Mail: oliver.werz@uni-jena.de

Weitere Informationen:
http://www.uni-jena.de

Quelle: idw

(nach oben)


Neues Mutterschutzgesetz: Wichtige Änderungen für Arbeitgeber

Dr. Thomas Nesseler Presse- und Öffentlichkeitsarbeit
Deutsche Gesellschaft für Arbeitsmedizin und Umweltmedizin e.V.

Um den geänderten gesellschaftlichen und rechtlichen Rahmenbedingungen zu entsprechen, wurde das Mutterschutzrecht grundlegend reformiert. Mit Beginn des neuen Jahres traten die vom Deutschen Bundestag beschlossenen Änderungen in Kraft. Diese schließen zum einen mehr Mütter als zuvor ein, außerdem wird der Arbeitsschutz von Müttern im Betrieb verstärkt. Dadurch ergeben sich auch wichtige Auswirkungen auf die Arbeitgeberpflichten.

Ziele des Mutterschutzgesetzes (MuSchG)
Das MuSchG gewährleistet schwangeren und stillenden Frauen einen besonderen Gesundheitsschutz im Betrieb. Es soll verhindern, dass sie wegen der Schwangerschaft und Stillzeit Nachteile im Berufsleben erleiden oder die selbstbestimmte Entscheidung über ihre Erwerbstätigkeit verletzt wird. Damit werden die Chancen der Frauen verbessert und ihre Rechte gestärkt, um auch während der Schwangerschaft oder Stillzeit ohne Gesundheitsrisiko für Mutter und Kind weiterhin arbeiten zu können.

Neues Gesetz gilt für mehr Mütter
Die Änderungen im MuSchG bedeuten vor allem eine Ausweitung des geschützten Personenkreises. Bislang galt das Gesetz nur für Frauen, die in einem Arbeitsverhältnis stehen oder Heimarbeit ausführen. Ab 2018 sind alle (werdenden) Mütter eingeschlossen – also auch Praktikantinnen, weibliche Auszubildende und unter bestimmten Voraussetzungen auch Schülerinnen und Studentinnen. Danach können diese während des Mutterschutzes für Veranstaltungen, Prüfungen oder Praktika Ausnahmen beantragen, ohne deswegen Nachteile zu erleiden.

Schutzfristen werden verlängert
Auf Antrag der Mutter müssen Arbeitgeber ab 2018 eine verlängerte nachgeburtliche Schutzfrist von zwölf Wochen bei Geburten von behinderten Kindern gewähren. Bisher galt diese nur bei Früh- und Mehrlingsgeburten. Neu ist auch ist der viermonatige Kündigungsschutz, wenn sie nach der zwölften Schwangerschaftswoche eine Fehlgeburt erleiden.

Verbot und Zulässigkeit von Nachtarbeit
Mit dem neuen Gesetz dürfen schwangere oder stillende Frauen zwischen 20:00 Uhr und 6:00 Uhr nicht mehr beschäftigt werden. Eine Beschäftigung während dieser Zeit ist nur zulässig bei Einwilligung der werdenden Mutter, ärztlicher Bescheinigung der Unbedenklichkeit, Einhaltung des Arbeitsschutzes und behördlicher Genehmigung. Der Arbeitgeber muss daher prüfen, ob ein Einsatz nach 20:00 Uhr nötig ist und bei der Aufsichtsbehörde einen entsprechenden Antrag mit allen relevanten Unterlagen stellen.

Gefährdungsbeurteilung am Arbeitsplatz
Für jeden Arbeitsplatz muss bei der allgemeinen Gefährdungsbeurteilung im Vorfeld geprüft werden, ob sich eine Gefährdung für eine schwangere oder stillende Frau oder ihr Kind ergeben könnte, auch wenn aktuell dort keine schwangere oder stillende Frau tätig ist. Der Arbeitgeber muss das Ergebnis der Beurteilung dokumentieren und die Mitarbeiter darüber in geeigneter Form informieren. Meldet eine Frau ihre Schwangerschaft an, muss diese Gefährdungsbeurteilung entsprechend aktualisiert und individualisiert werden.

Arbeitgeber muss Arbeitsbedingungen für Mütter anpassen
Der Arbeitgeber muss die Arbeitsbedingungen so gestalten, dass eine „unverantwortbare Gefährdung“ ausgeschlossen ist. Liegen Gefährdungen vor, muss er die Arbeitsbedingungen durch Schutzmaßnahmen umgestalten. Ist dies nicht oder nur unter unverhältnismäßigem Aufwand möglich, muss die schwangere Frau an einem anderen geeigneten und zumutbaren Arbeitsplatz eingesetzt werden. Ein Beschäftigungsverbot aus betrieblichen Gründen soll dann nur noch möglich sein, wenn alle anderen Maßnahmen versagen. Um eine „Überprotektion“ zu vermeiden und die Arbeitgeber bei der Umsetzung zu unterstützen, sollen vom Gesetzgeber Empfehlungen erarbeitet werden – zumal der Rechtsbegriff „unverantwortbare Gefährdung“ unbestimmt ist.

Weiterführende Informationen zum neuen Mutterschutzgesetz:
Leitfaden des Bundesministeriums für Familie, Senioren, Frauen und Jugend: https://www.bmfsfj.de/blob/94398/3b87a5363865637dd3bf2dd6e8ec87e0/mutterschutzge…

Gesetzestext:
https://www.bgbl.de/xaver/bgbl/start.xav?startbk=Bundesanzeiger_BGBl&jumpTo=…

Stellungnahme Bundesrat:
https://www.bundesrat.de/SharedDocs/drucksachen/2017/0201-0300/289-17(B).pdf?__b…

Kontakt bei Rückfragen:
Deutsche Gesellschaft für Arbeitsmedizin und Umweltmedizin e.V.
Hauptgeschäftsführer: Dr. Thomas Nesseler
Presse: Berit Kramer
Schwanthaler Str. 73 b
80336 München
Tel. 089/330 396-0
Fax 089/330 396-13
E-Mail: gs@dgaum.de
http://www.dgaum.de

Über DGAUM:
Die DGAUM wurde 1962 gegründet und ist eine gemeinnützige, wissenschaftlich-medizinische Fachgesellschaft der Arbeitsmedizin und der klinisch orientierten Umweltmedizin. Ihr gehören heute über 1000 Mitglieder an, die auf dem Gebiet der Arbeitsmedizin und Umweltmedizin arbeiten, vor allem Ärztinnen und Ärzte, aber auch Angehörige anderer Berufsgruppen wie etwa Natur- und Sozialwissenschaftlerinnen und -wissenschaftler. Die Mitglieder der Fachgesellschaft engagieren sich nicht nur in Wissenschaft und Forschung, um so bereits bestehende Konzepte für die Prävention, die Diagnostik und Therapie kontinuierlich zu verbessern, sondern sie übernehmen die ärztliche und medizinische Beratung von Arbeitgebern und Arbeitnehmern an der Schnittstelle von Individuum und Unternehmen. Darüber hinaus beraten die Mitglieder der DGAUM alle Akteure, die ihren Beitrag zu der medizinischen Versorgung leisten und auf Fachwissen aus der betrieblichen Gesundheitsförderung und Prävention, der arbeits- und umweltbezogenen Diagnostik und Therapie, der Beschäftigungsfähigkeit fördernden Rehabilitation sowie aus dem versicherungsmedizinischen Kontext angewiesen sind.

Weitere Informationen unter:
http://www.dgaum.de

Quelle: idw

(nach oben)


Den Lebensmittelfälschern auf der Spur

Nina Banspach Pressestelle
Bundesamt für Verbraucherschutz und Lebensmittelsicherheit (BVL)

In seiner Fälscherwerkstatt zeigt das BVL, wie Betrüger Verbraucher austricksen
Ob mit Wasser aufgespritzte Garnelen, mit Olivenbaumblättern gestreckte Gewürze oder Bio-Eier vom konventionell gehaltenen Huhn – Lebensmittelbetrug kann jeden treffen. Im Fokus der Fälscher sind sowohl hochwertige, teure Lebensmittel mit hoher Gewinnmarge als auch preiswerte Lebensmittel, wo der Profit über die Menge gemacht wird. Wie die Betrüger Verbraucher hinters Licht führen, zeigt das Bundesamt für Verbraucherschutz und Lebensmittelsicherheit (BVL) an seinem Stand auf der Internationalen Grünen Woche vom 19. bis 28. Januar 2018. Außerdem informiert es über die Arbeit der Behörden im Kampf gegen Lebensmittelbetrüger.

Um den Besuchern Lebensmittelbetrug anschaulich darzustellen, schlüpfen die Expertinnen und Experten des BVL ausnahmsweise selbst in die Rolle der Lebensmittelfälscher. In einer kleinen Fälscherwerkstatt in der Halle 23a (Sonderschau des Bundesministeriums für Ernährung und Landwirtschaft) panschen sie Honig. Denn das Bienenprodukt zählt zu den Produkten, bei denen besonders häufig getrickst wird. Sei es durch die Zugabe von Zuckersirup oder bei der Angabe der Herkunft oder der Sorte. Besucher können am BVL-Stand in einer Blindverkostung probieren, ob sie die Fälschung vom Naturprodukt unterscheiden können.

Bei einer weiteren Aktion erfahren die Verbraucher, warum die edle Seezunge im Restaurant ein profaner (und preiswerterer) Pangasius sein kann, und wie man erst im Labor den Betrug nachweisen kann.

Dass eine Lebensmittelfälschung auch die Gesundheit der Verbraucher gefährden kann, zeigt das Beispiel Nüsse. Während der weltweiten Aktion OPSON gegen Lebensmittelbetrug wurden 2017 in Deutschland Nussprodukte untersucht. Dabei wurden Haselnusspasten aus dem Verkehr gezogen, die teilweise große Anteile von Mandeln, Cashew- oder sogar Erdnüssen enthielten. Für Allergiker ein Betrug mit lebensgefährlichem Risiko.

Das BVL arbeitet im Kampf gegen Lebensmittelbetrüger eng mit den zuständigen Lebensmittelüberwachungsbehörden der Länder und mit den Strafverfolgungsbehörden (Staatsanwaltschaften, Polizei und Zollverwaltung) zusammen. Als nationale Kontaktstelle steht das BVL außerdem in Kontakt mit den anderen europäischen Mitgliedstaaten und der Europäischen Kommission. Über ein elektronisches System werden europaweit Informationen über Betrugsfälle ausgetauscht. So können Entwicklungen im Bereich des Lebensmittelbetrugs frühzeitig erkannt und präventiv Maßnahmen ergriffen werden, um den oft global handelnden Betrügern das Handwerk zu legen.

Diese grenzüberschreitende und interdisziplinäre Zusammenarbeit stellt das BVL verständlich und unterhaltsam in einem Comicfilm dar. Außerdem hat das BVL die wichtigsten Informationen zum Thema Lebensmittelbetrug in einem Flyer „Den Lebensmittelfälschern auf der Spur“ zusammengestellt. Flyer und Film sind auf der Internetseite www.bvl.bund.de/lebensmittelbetrug frei verfügbar.

Hintergrundinformation
Das Bundesamt für Verbraucherschutz und Lebensmittelsicherheit (BVL) ist eine eigenständige Bundesoberbehörde im Geschäftsbereich des Bundesministeriums für Ernährung und Landwirtschaft. Das BVL ist für die Zulassung von Pflanzenschutzmitteln, Tierarzneimitteln und gentechnisch veränderten Organismen in Deutschland zuständig. Im Bereich der Lebensmittel- und Futtermittelsicherheit übernimmt es umfassende Managementaufgaben und koordiniert auf verschiedenen Ebenen die Zusammenarbeit zwischen dem Bund, den Bundesländern und der Europäischen Union.

Anhang

Presseinformation – Güne Woche – Den Lebensmittelfälschern auf der Spur
https://idw-online.de/de/attachment64246

Quelle: idw

(nach oben)


Fraunhofer IMWS testet umweltfreundliche Mikroplastik-Alternativen in Kosmetikartikeln

Michael Kraft Presse- und Öffentlichkeitsarbeit
Fraunhofer-Institut für Mikrostruktur von Werkstoffen und Systemen IMWS

Nach wie vor wird in kosmetischen Pflegeprodukten Mikroplastik eingesetzt, obwohl die umweltschädigenden Folgen hinlänglich bekannt sind. Winzige Plastikpartikel aus Peelings und anderen Hautpflegeprodukten gelangen über die Abwassersysteme ins Meer und schließlich in unsere Nahrungskette. In einem Forschungsprojekt hat das Fraunhofer-Institut für Mikrostruktur von Werkstoffen und Systemen IMWS gemeinsam mit Partnern Materialien getestet, die Mikroplastik in Kosmetikprodukten ersetzen können und biologisch abbaubar sind.

In vielen Kosmetikartikeln wie Körperpeelings oder Deodorants sind kleinste Kunststoffteilchen, sogenanntes Mikroplastik, beispielsweise aus Polyethylen (PE) und Polypropylen (PP) enthalten. Als »sanfte Abrasiva (Schleifmittel)« entfernen sie durch Reibung abgestorbene Hautschuppen und regen die Durchblutung der Haut an. Wegen ihrer chemischen Beständigkeit und ihrer Farb-, Geruchs- sowie Geschmacklosigkeit werden sie darüber hinaus auch häufig als Stabilisatoren und Füllmittel eingesetzt. Polyethylen und Polypropylen sind biologisch nicht abbaubar und wegen der geringen Partikelgröße von weniger als 5 Millimetern kann das mit Kosmetika ins Abwasser gelangte Mikroplastik in Kläranlagen nicht ausreichend entfernt werden. Damit gelangt es in die Umwelt und in unsere Gewässer. Im Meer werden die Mikroplastikpartikel von Lebewesen aufgenommen und gelangen so schlussendlich in unsere Nahrungskette. Viele Kosmetik-Hersteller haben daher angekündigt, auf den Einsatz von Mikroplastik zu verzichten und stattdessen in Zukunft geeignete Alternativen einzusetzen.

Mit dem jetzt abgeschlossenen Forschungsprojekt »KosLigCel« im Rahmen des Spitzenclusters BioEconomy leistet das Fraunhofer-Institut für Mikrostruktur von Werkstoffen und Systemen IMWS einen Beitrag dazu. In dem vom Bundesministerium für Bildung und Forschung geförderten Projekt wurden gemeinsam mit der CFF GmbH, einem Zellstoffverarbeiter aus Gehren in Thüringen, sowie der Skinomics GmbH aus Halle (Saale), die hauptsächlich für galenische und dermatologische Untersuchung der Produkte zuständig ist, erfolgreich Alternativen aus biologisch abbaubaren Materialien entwickelt und getestet.

Das Ziel war eine kostengünstige Herstellung biologisch abbaubarer Cellulosepartikel aus Buchenholz, Hafer, Weizen und Mais, die die Anforderungen an Abrasivität und Reinigungsleistung in Zahn- und Hautpflege-Produkten erfüllen. Konkret wurden Alternativen für Körperpeelings und Zahncremes getestet. Die besondere Herausforderung lag darin, die Cellulosepartikel so zu designen, dass ihre Größe, Form, Härte sowie Oberflächenstruktur zu den gewünschten Produkteigenschaften führt. Dazu wurde Cellulose aus Buchenholz speziell modifiziert und der Optimierungsprozess durch Mikrostrukturanalytik am Fraunhofer IMWS begleitet.

»Wir haben nach zweijähriger Forschungsarbeit mit den Projektpartnern sehr gute Ergebnisse erzielt: eine Testzahnpasta mit den optimierten Buchenholz-Cellulosepartikeln zeichnet sich durch eine geringe Abrasionswirkung, aber dennoch gute Reinigungsleistung aus«, sagt Dr. Sandra Sarembe, Projektkoordinatorin am Fraunhofer IMWS. Die biologisch abbaubaren Partikel in der Zahnpasta dienen der mechanischen Entfernung von bakterieller Plaque, Zahnverfärbungen und Essensrückständen, dabei dürfen sie den Zahnschmelz allerdings nicht beschädigen. »Bei der Materialcharakterisierung mehrerer Cellulose-Typen haben wir durchweg positive Daten erhoben. Dies gilt auch für den Einsatz dieser Stoffe in Waschpeelings und anderen Hautkosmetika«, sagt Sarembe weiter. Das Forscherteam konnte materialwissenschaftlich bestätigen, dass Cellulose-Partikel in Kosmetikprodukten als Ersatz für Polyethylen vergleichbare Wirkung zeigen. Zudem sind sie im Wasser biologisch abbaubar und können kostengünstig hergestellt werden. Auch als Füllstoff in Aluminium-freien Deodorants kommen die Cellulose-Partikel infrage.

»Die Nutzung von Cellulose als biobasierte Füllstoffe könnte auch in weiteren Einsatzfeldern wie in medizinischen Produkten möglich sein. Außerdem sind verschiedene Cellulose-Typen mischbar, die einen breiten Einsatz versprechen. Daher weisen die Partikel ein hohes Potenzial für neue Produktentwicklungen sowie attraktive Marketingmöglichkeiten für nachhaltige oder sogar vegane Produkte auf«, sagt Dr. Andreas Kiesow, Projektleiter am Fraunhofer IMWS.
Die gewonnen Ergebnisse können zukünftig auch für die Entwicklung in anderen Kosmetikbereichen wie etwa in der dekorativen Kosmetik für Mascara, Puder oder Lippenstift dienen.

Weitere Informationen:
https://www.imws.fraunhofer.de/de/presse/pressemitteilungen/imws-umweltfreundlic…

Quelle: idw

(nach oben)


Potenzial für eine grüne Wasserstoff-Wirtschaft

Christin Ernst M.A. Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Chemische Energiekonversion

Erstmalige Charakterisierung einer sensorischen [FeFe] Hydrogenase gelungen
Hydrogenasen sind Enzyme, die in der Lage sind, Wasserstoffgas (H2) aus Protonen im wässrigen Milieu zu erzeugen. Eine Reaktion, die eine große Relevanz für eine potentielle zukünftige grüne Wasserstoffwirtschaft birgt.

Bakterien, die diese Enzyme enthalten, produzieren H2 häufig als Abfallprodukt ihres Zucker-basierten Metabolismus in Abwesenheit von Sauerstoff. Andere Bakterien können den Wasserstoff als Energiequelle nutzen. Hydrogenasen, die Schlüsselenzyme in beiden Prozessen sind nur unter speziellen Bedingungen erforderlich, d.h. ihre Synthese in dem Bakterium muss der Anwesenheit und Konzentration von H2 angepasst werden. Diese Regulation wird durch sogenannte sensorische oder regulatorische Hydrogenasen erreicht, die in der Lage sind, selbst kleinste Mengen von H2 im Medium zu detektieren und diese Information an die Protein-Synthesemaschinerie (für katalytische Hydrogenasen) weiterzuleiten.

Bis heute hat sich eine Klasse von Sensor-Hydrogenasen der Charakterisierung komplett entzogen, nämlich die der wichtigen [FeFe]-Hydrogenasen (HydS). Jetzt ist es einem Team von Wissenschaftlern am Max-Planck-Institut für Chemische Ernergiekonversion in Mülheim an der Ruhr und dem Institute of Low Temperature Science an der University of Hokkaido (Japan) gelungen, HydS aus dem thermophilen Bakterium Thermotoga maritima herzustellen und zu charakterisieren.1 Dieser Erfolg basiert auf der kürzlich entwickelten Technik der künstlichen Maturierung des Enzyms (Esselborn et al. Nat. Chem. Biol. 2013), sowie dem Einsatz moderner spektroskopischer Methoden, die zeigten wie das Protein das katalytische Zentrum in eleganter Weise feinabstimmt und es dadurch für seine sensorische Funktion optimiert.

Die Wissenschaftler zeigen, dass das katalytische Zentrum sehr empfindlich auch kleinste Mengen H2 detektiert, was dem Bakterium eine sehr effektive Signalübertragung erlaubt. Diese Ergebnisse stellen einen wesentlichen Schritt im Verständnis der Funktion der sensorischen Hydrogenasen dar. Die Kenntnis der Änderungen der Aminosäureumgebung im Sensor im Vergleich zu den katalytischen [FeFe]-Hydrogenasen ist ein wichtiges Element für das tiefere Verständnis dieser

Wasserstoff-umsetzenden bzw. -erzeugenden Proteine. Die umfassende Entschlüsselung des Mechanismus der Hydrogenasen bietet die Grundlage, um bessere bioinspirierte Katalysatoren für den Einsatz in Brennstoffzellen und Wasserelektrolyseuren zu entwickeln. Ein wichtiger Schritt auf dem Weg zu einer Energiewirtschaft, die auf Wasserstoff als Energieträger basiert.

1. Chongdar N, Birrell JA, Pawlak K, Sommer C, Reijerse EJ, Rüdiger O, Lubitz W, Ogata H (in press) J. Am. Chem. Soc. DOI: 10.1021/jacs.7b11287

Förderung
Diese Arbeit wurde unterstützt durch die Max-Planck-Gesellschaft und durch JSPS KAKENHI grant number 16K21748.

Original-Publikation
Nipa Chongdar, James A. Birrell, Krzysztof Pawlak, Constanze Sommer, Edward J. Reijerse, Olaf Rüdiger, Wolfgang Lubitz, Hideaki Ogata: Unique spectroscopic properties of the H-cluster in a putative sensory [FeFe] hydrogenase, Journal of the American Chemical Society, 2017, DOI: 10.1021/jacs.7b11287
http://pubs.acs.org/doi/10.1021/jacs.7b11287

Weitere Informationen:
https://cec.mpg.de/aktuelles/pressemitteilungen/pressemitteilungen/

Quelle: idw

(nach oben)


Fastfood macht Immunsystem langfristig aggressiver

Johannes Seiler Dezernat 8 – Hochschulkommunikation
Rheinische Friedrich-Wilhelms-Universität Bonn

Auf eine fett- und kalorienreiche Kost reagiert das Immunsystem ähnlich wie auf eine bakterielle Infektion. Das zeigt eine aktuelle Studie unter Federführung der Universität Bonn. Besonders beunruhigend: Ungesundes Essen scheint die Körperabwehr langfristig aggressiver zu machen. Auch lange nach Umstellung auf gesunde Kost kommt es daher schneller zu Entzündungen. Diese fördern direkt die Entstehung von Arteriosklerose und Diabetes. Die Ergebnisse erscheinen in der renommierten Fachzeitschrift „Cell“. ACHTUNG SPERRFRIST: Nicht vor Donnerstag, 11. Januar, 18 Uhr MEZ veröffentlichen!

Die Wissenschaftler setzten Mäuse einen Monat lang auf eine so genannte „westliche Diät“: viel Fett, viel Zucker, wenig Ballaststoffe. Die Tiere entwickelten daraufhin eine massive körperweite Entzündung – fast wie nach einer Infektion durch gefährliche Bakterien. „Die ungesunde Diät hat zu einem unerwarteten Anstieg einiger Immunzellen im Blut geführt. Das war ein Hinweis auf eine Beteiligung von Vorläuferzellen im Knochenmark in dem Entzündungsgeschenen“, berichtet Anette Christ, Postdoktorantin am Institut für Angeborene Immunität der Universität Bonn. Um diese Veränderungen besser zu verstehen, haben die Wissenschaftler die Vorläuferzellen von Immunzellen aus dem Knochenmark von Mäusen, die mit „westlicher Diät“ oder normaler Diät gefüttert wurden, isoliert und eine systematische Analyse deren Funktion und Aktivierungsstatus durchgeführt.

„Genomische Untersuchungen zeigten tatsächlich, dass in den Vorläufer-Zellen durch die westliche Diät eine große Anzahl von Genen aktiviert wurde. Betroffen waren unter anderem Erbanlagen für ihre Vermehrung und Reifung. Fastfood führt also dazu, dass der Körper rasch eine riesige schlagkräftige Kampftruppe rekrutiert“, erklärt Prof. Dr. Joachim Schultze vom Life & Medical Sciences Institute (LIMES) der Universität Bonn und vom Deutschen Zentrum für Neurodegenerative Erkrankungen (DZNE).

Wenn die Forscher den Nagern nun vier weitere Wochen lang arttypische Getreide-Kost anboten, verschwand die akute Entzündung. Was nicht verschwand, war die genetische Reprogrammierung der Immunzellen: Auch nach diesen vier Wochen waren in ihnen noch viele der Erbanlagen aktiv, die in der Fastfood-Phase angeschaltet worden waren.

„Fastfood-Sensor“ in den Immunzellen
„Wir wissen erst seit kurzem, dass das angeborene Immunsystem über ein Gedächtnis verfügt“, erklärt Prof. Dr. Eicke Latz, Leiter des Instituts für angeborene Immunität der Universität Bonn und Wissenschaftler am DZNE. „Nach einer Infektion bleibt die Körperabwehr in einer Art Alarmzustand, um dann schneller auf einen neuen Angriff reagieren zu können.“ Experten nennen das „innate immune training“. Bei den Mäusen wurde dieser Prozess nicht durch ein Bakterium ausgelöst, sondern durch ungesunde Ernährung.

Die Wissenschaftler konnten sogar den „Fastfood-Sensor“ in den Immunzellen identifizieren, der dafür verantwortlich ist. Sie untersuchten dazu Blutzellen von 120 Testpersonen. Bei einigen dieser Probanden zeigte das angeborene Immunsystem einen besonders starken Trainings-Effekt. In ihnen fanden die Forscher genetische Hinweise darauf, dass daran ein so genanntes Inflammasom beteiligt ist. Inflammasome sind Sensoren des angeborenen Immunsystems. Sie erkennen schädliche Substanzen und setzen in der Folge hoch entzündliche Botenstoffe frei.

Das in der Studie identifizierte Inflammasom wird durch bestimmte Nahrungsmittel-Inhaltsstoffe aktiviert. Das hat neben der akuten Entzündungsreaktion interessanterweise auch langfristige Konsequenzen: Die Aktivierung verändert nämlich die Art und Weise, in der die Erbinformation verpackt ist. Die Erbanlagen sind in der DNA gespeichert. Jede Zelle enthält mehrere DNA-Fäden, die zusammen ungefähr zwei Meter lang sind. Sie sind jedoch um Proteine gewickelt und stark verknäuelt. Viele Gene auf der DNA lassen sich daher gar nicht ablesen – sie sind einfach zu schlecht zugänglich.

Ungesunde Ernährung führt nun dazu, dass sich manche dieser normalerweise versteckten DNA-Teile entrollen – ungefähr so, als wenn eine Schlaufe aus einem Wollknäuel heraushängt. Dieser Bereich der Erbsubstanz wird dadurch langfristig leichter ablesbar. Wissenschaftler sprechen von epigenetischen Änderungen. „Das Inflammasom stößt solche epigenetischen Änderungen an“, erläutert Prof. Latz. „Das Immunsystem reagiert in der Folge schon auf kleine Reize mit stärkeren Entzündungsantworten.“

Dramatische Folgen für die Gesundheit
Diese wiederum können die Entstehung von Gefäßkrankheiten oder auch Typ 2-Diabetes drastisch beschleunigen. Bei der Arteriosklerose etwa bestehen die typischen Gefäßablagerungen, die Plaques, zum großen Teil aus Lipiden und Immunzellen. Die Entzündungsreaktion trägt direkt zu ihrem Wachstum bei, denn dabei wandern stetig neue aktivierte Immunzellen in die veränderten Gefäßwände ein. Wenn die Plaques zu groß werden, platzen sie auf, werden vom Blutstrom fortgetragen und können andere Gefäße verstopfen. Mögliche Folgen: Schlaganfall oder Herzinfarkt.

Fehlernährung kann also dramatische Konsequenzen haben. In den letzten Jahrhunderten ist die durchschnittliche Lebenserwartung in den westlichen Ländern stetig gestiegen. Dieser Trend wird gerade erstmalig durchbrochen: Wer heute geboren wird, wird im Schnitt vermutlich kürzer leben als seine Eltern. Falsches Essen und zu wenig Bewegung dürften daran einen entscheidenden Anteil haben.

„Diese Erkenntnisse haben daher eine enorme gesellschaftliche Relevanz“, erklärt Latz. „Die Grundlagen einer gesunden Ernährung müssen noch viel stärker als heute zum Schulstoff werden. Nur so können wir Kinder frühzeitig gegen die Verlockungen der Lebensmittel-Industrie immunisieren – bevor diese langfristige Konsequenzen entfalten. Kinder haben jeden Tag die Wahl, was sie essen. Wir sollten ihnen ermöglichen, bei ihrer Ernährung eine bewusste Entscheidung zu treffen.“

An der Arbeit waren Gruppen aus den Niederlanden, den USA, Norwegen und Deutschland beteiligt. Latz und Schultze sind Mitglieder im Exzellenzcluster „ImmunoSensation“, in dem es um die Leistungen des angeborenen Immunsystems geht. Latz gilt als einer der international profiliertesten Forscher auf diesem Gebiet. Im Dezember wurde er für seine Arbeit mit dem Gottfried Wilhelm Leibniz-Preis ausgezeichnet. Dieser gilt als einer der renommiertesten Wissenschaftspreise in Deutschland.

Publikation: Anette Christ, Patrick Günther, Mario A.R. Lauterbach , Peter Duewell, Debjani Biswas, Karin Pelka, Claus J. Scholz, Marije Oosting, Kristian Haendler, Kevin Baßler, Kathrin Klee, Jonas Schulte-Schrepping, Thomas Ulas, Simone J.C.F.M. Moorlag, Vinod Kumar, Min Hi Park, Leo A.B. Joosten, Laszlo A. Groh, Niels P. Riksen, Terje Espevik, Andreas Schlitzer, Yang Li, Michael L. Fitzgerald, Mihai G. Netea, Joachim L. Schultze und Eicke Latz: Western diet triggers NLRP3-dependent innate immune reprograming; Cell, DOI: 10.1016/j.cell.2017.12.013

Kontakt:
Prof. Dr. Eicke Latz
Institut für angeborene Immunität der Universität Bonn
und Deutsches Zentrum für Neurodegenerative Erkrankungen (DZNE)
Tel.: 0228/287-51223
E-Mail: eicke.latz@uni-bonn.de

Quelle: idw

(nach oben)


Klimawandel lässt Flüsse über die Ufer treten: Anpassung nötig

Jonas Viering Presse- und Öffentlichkeitsarbeit
Potsdam-Institut für Klimafolgenforschung

Veränderte Regenfälle als Folge der globalen Erwärmung werden das Risiko von Überschwemmungen an Flüssen vielerorts stark erhöhen. Schon heute gehören derartige Fluten zu den häufigsten und verheerendsten Naturkatastrophen. Wissenschaftler haben jetzt die bis in die 2040er Jahre nötige Erhöhung des Hochwasserschutzes in allen Teilen der Welt berechnet, bis hinunter zu einzelnen Regionen und Städten. Sie stellen fest, dass der Anpassungsbedarf in den USA, in Teilen Indiens und Afrikas, in Indonesien und in Mitteleuropa einschließlich Deutschland am größten ist. Ohne Gegenmaßnahmen wären viele Millionen Menschen von schweren Überschwemmungen bedroht.

„Mehr als die Hälfte der USA müssen ihr Schutzniveau innerhalb der nächsten zwei Jahrzehnte mindestens verdoppeln, wenn sie einen dramatischen Anstieg der Hochwasserrisiken vermeiden wollen“, sagt Leit-Autor Sven Willner vom Potsdam-Institut für Klimafolgenforschung (PIK). Ohne zusätzliche Anpassungsmaßnahmen – wie Deichausbau, verbessertes Flussmanagement, Veränderung von Baustandards oder Verlagerung von Siedlungen – würde sich die Zahl der Menschen, die von den stärksten 10 Prozent der Hochwasserereignisse betroffen sind, vielerorts erhöhen: In Nordamerika von 0,1 auf 1 Million – eine Verzehnfachung. In Deutschland könnte die Zahl von 0,1 auf 0,7 Millionen steigen, also um das Siebenfache.

Die absoluten Werte sind anderswo noch erheblich größer: In Südamerika kann die Zahl der von Hochwasserrisiken betroffenen Menschen voraussichtlich von 6 auf 12 Millionen steigen, in Afrika von 25 auf 34 Millionen, und in Asien von 70 auf 156 Millionen. Die realen Zahlen betroffener Menschen könnten in Zukunft noch höher ausfallen, da in der Studie das Bevölkerungswachstum und die zunehmende Urbanisierung nicht berücksichtigt werden.

+++Auch in hoch entwickelten Ländern mit guter Infrastruktur muss viel getan werden+++
Die Untersuchung basiert auf umfassenden Computersimulationen, bei denen vorhandene Daten zu Flüssen aus einer Vielzahl von Quellen verwendet werden. „Diese Daten liegen zwar nicht für jeden Fluss in den entlegensten Winkeln unseres Planeten in höchster Präzision vor, aber sie sind hinreichend gut für all jene Orte, an denen viele Menschen leben, wo viele finanzielle Werte gebunden sind, und wo das Hochwasserrisiko erheblich ist – wir wissen also genug über die Orte, auf die es ankommt“, erklärt Willner. Daten über Veränderungen von Niederschlägen, Verdunstung und Wasserkreisläufen stammen aus dem weltweit größten Projekt zum Vergleich von Modellen zur Klimawirkung (ISIMIP), koordiniert von Katja Frieler am PIK. Die räumliche Auflösung der neuen Studie ist etwa zehnmal höher als bei gängigen Computersimulationen des Klimas.

„Wir waren überrascht, dass selbst in hoch entwickelten Ländern mit guter Infrastruktur der Anpassungsbedarf so groß ist“, sagt Co-Autor Anders Levermann, Leiter der globalen Anpassungsforschung am PIK und Forscher am Lamont-Doherty Earth Observatory der Columbia University in New York. „In der Studie nehmen wir an, dass die Menschen das Schutzniveau, das sie heute haben, behalten wollen – sie wollen nicht, dass es schlechter wird. Folglich muss in Ländern mit einem recht guten Schutzniveau viel getan werden, um den Standard aufrecht zu erhalten und zu verhindern, dass Menschen aufgrund von Überschwemmungen tatsächlich ihre Häuser verlassen müssen.“

+++Jenseits der Zwei-Grad-Grenze wird Anpassung schwierig+++
Die Zunahme der Hochwasserrisiken in den nächsten zwei bis drei Jahrzehnten wird durch die Menge an Treibhausgasen verursacht, die wir bereits in die Atmosphäre gebracht haben; die Entwicklung in diesem Zeitraum hängt also nicht davon ab, ob wir die globale Erwärmung begrenzen.

„Wenn wir allerdings die vom Menschen verursachte Erwärmung nicht auf deutlich unter 2 Grad Celsius begrenzen, dann werden bis zum Ende unseres Jahrhunderts die Hochwasserrisiken vielerorts in einem solchen Maße ansteigen, dass Anpassung schwierig wird“, erklärt Levermann. „Um die Sicherheit der Menschen zu gewährleisten, müssen klimabedingte Risiken ernst genommen und sehr schnell Geld für Anpassung bereitgestellt werden. Wenn wir jetzt handeln, können wir uns gegen die Risiken der nächsten zwei Jahrzehnte absichern. Weiter fortschreitender Klimawandel muss jedoch durch die Abkehr von fossilen Brennstoffen begrenzt werden, um Veränderungen zu vermeiden, die unsere Anpassungsfähigkeiten übersteigen. Solange wir Kohle, Gas und Öl verbrennen, steigt die Temperatur unseres Planeten und die Gefahr nimmt zu.“

„Die Ergebnisse sollten eine Warnung für die Entscheidungsträger sein“, so Levermann weiter. „Wenn wir das Thema zu ignorieren, werden die Folgen verheerend. Wir müssen jetzt beides tun: Anpassung an den bereits verursachten Klimawandel und Begrenzung zukünftiger Erwärmung. Nichtstun wäre gefährlich.“

Artikel: Sven N. Willner, Anders Levermann, Fang Zhao, Katja Frieler (2018): Adaptation required to preserve future high-end river flood risk at present levels. Science Advances [DOI:10.1126/sciadv.aao1914]

Weblink zum Artikel, sobald er veröffentlicht ist: https://doi.org/10.1126/sciadv.aao1914

Kontakt für weitere Informationen:
Potsdam-Institut für Klimafolgenforschung, Pressestelle
Telefon: +49 (0)331 288 2507
E-Mail: presse@pik-potsdam.de
Twitter: @PIK_Klima
www.pik-potsdam.de

Quelle: idw

(nach oben)


2017 steigen die Tariflöhne nominal um 2,4 Prozent – Real ein Plus von 0,6 Prozent

Rainer Jung Abt. Öffentlichkeitsarbeit
Hans-Böckler-Stiftung

Tarifbilanz des WSI-Tarifarchivs:

2017 steigen die Tariflöhne nominal um 2,4 Prozent – Real ein Plus von 0,6 Prozent
Die Tariflöhne und -gehälter haben im Jahr 2017 nominal im gesamtwirtschaftlichen Durchschnitt um 2,4 Prozent zugelegt. Nach Abzug des Verbraucherpreisanstiegs von 1,8 Prozent ergibt sich daraus ein realer Zuwachs der Tarifvergütungen um 0,6 Prozent. Zu diesem Ergebnis kommt die Bilanz der Tarifpolitik des Jahres 2017, die das Tarifarchiv des Wirtschafts- und Sozialwissenschaftlichen Instituts (WSI) der Hans-Böckler-Stiftung heute vorlegt.

„Da die Inflationsrate wieder spürbar höher ist, fällt der Reallohnzuwachs 2017 im Vergleich zu den Vorjahren deutlich geringer aus“, sagt der Leiter des WSI-Tarifarchivs, Prof. Dr. Thorsten Schulten. „In den Jahren 2014 bis 2016 stiegen die Tariflöhne wegen der sehr geringen Preissteigerung real zwischen 1,9 und 2,4 Prozent und haben damit einen wesentlichen Beitrag für den ökonomischen Aufschwung in Deutschland gelegt. Der von den Lohnerhöhungen ausgehende Impuls für die Binnennachfrage hat sich 2017 – wenn auch in abgeschwächter Form – weiter fortgesetzt. Und auch in diesem Jahr sind spürbare Reallohnzuwächse wichtige Faktoren für eine stabile, balancierte Wirtschaftsentwicklung“, so Schulten (siehe auch Abbildung 1 in der pdf-Version dieser Pressemeldung; Link unten).

Bei der Berechnung der kalenderjährlichen Tariferhöhungen für das Jahr 2017 werden sowohl die Neuabschlüsse aus dem Jahr als auch Abschlüsse aus den Vorjahren, die eine Laufzeit bis mindestens Ende 2017 haben, berücksichtigt. Insgesamt schlossen die DGB-Gewerkschaften in Deutschland im vergangenen Jahr Lohn- und Gehaltstarifverträge für rund 8,7 Millionen Beschäftigte ab, darunter etwa 7,2 Millionen in den alten und 1,5 Millionen in den neuen Bundesländern. Die Laufzeit der Verträge beträgt durchschnittlich 25,6 Monate und liegt damit höher als im Vorjahr mit 22,8 Monaten. Für weitere 10,5 Millionen Beschäftigte traten im Jahr 2017 Erhöhungen in Kraft, die bereits 2016 oder früher vereinbart worden waren.

Zwischen den verschiedenen Branchen zeigen sich deutliche Unterschiede. Am höchsten fällt 2017 die jahresbezogene Tarifsteigerung mit nominal 3,1 Prozent in der Textil- und Bekleidungsindustrie aus, gefolgt vom Metallhandwerk mit 3,0 Prozent. Etwas oberhalb des Durchschnitts liegen die Tariferhöhungen im Öffentlichen Dienst und dem Hotel- und Gaststättengewerbe mit jeweils 2,7 Prozent, der Chemischen Industrie mit 2,6 Prozent sowie der Metallindustrie und dem Privaten Verkehrsgewerbe mit jeweils 2,5 Prozent. Genau den gesamtwirtschaftlichen Durchschnitt von 2,4 Prozent erreichen das Bauhauptgewerbe, die Gebäudereinigung und die Deutsche Bahn AG. Auch die verschiedenen Tarifbranchen des Nahrungs-und Genussmittelgewerbes kommen im Durchschnitt auf einen Lohnzuwachs von 2,4 Prozent. Um 2,2 Prozent steigen die Tariflöhne bei der Deutschen Telekom AG.

Im Versicherungsgewerbe beträgt die kalenderjährliche Tariferhöhung 1,9 Prozent, im Einzelhandel 1,8 Prozent, in der Druckindustrie 1,7 Prozent und in der Eisen- und Stahlindustrie 1,6 Prozent. Die Holz- und Kunststoff verarbeitende Industrie, der Großhandel, die Deutsche Post AG sowie das Bankgewerbe verzeichnen für 2017 Tariferhöhungen zwischen 1,5 und 1,1 Prozent (siehe Abbildung 2 in der pdf-Version).

Insgesamt konnte nach der WSI-Analyse im Jahr 2017 der gesamtwirtschaftliche Verteilungsspielraum – gemessen als Summe aus Preis- und Produktivitätsentwicklung – durch die Tariflohnzuwächse annähernd ausgeschöpft werden, nachdem die Tariflöhne in den Jahren zuvor teilweise deutlich darüber lagen. Berücksichtigt man hingegen bei der Kalkulation des Verteilungsspielraums nicht nur die tatsächliche Preisentwicklung, sondern auch die Zielinflationsrate der Europäischen Zentralbank von annähernd 2 Prozent, so zeigt sich, dass die Lohnentwicklung nach wie vor eher moderat verlaufen ist und immer noch erheblichen Spielraum nach oben aufweist.

„Angesichts der guten Konjunkturentwicklung und der relativ niedrigen Arbeitslosigkeit deuten die Zeichen der bereits begonnenen Tarifrunde 2018 eindeutig auf eine expansivere Lohnpolitik“, sagt der WSI-Tarifexperte Schulten. „Dies wird auch durch die aufgestellten Tarifforderungen der Gewerkschaften unterstrichen, die mit zumeist 6 Prozent Lohnerhöhung sowie weiteren Komponenten zur Verbesserung der Arbeitsbedingungen deutlich oberhalb der Vorjahre liegen.“

Ansprechpartner in der Hans-Böckler-Stiftung
Prof. Dr. Thorsten Schulten
Leiter WSI-Tarifarchiv
Tel.: 0211 / 77 78-239
E-Mail: Thorsten-Schulten@boeckler.de

Rainer Jung
Leiter Pressestelle
Tel.: 0211 / 77 78-150
E-Mail: Rainer-Jung@boeckler.de

Weitere Informationen:
https://www.boeckler.de/pdf/pm_ta_2018_01_11.pdf – Die PM mit Grafiken (pdf)

Quelle: idw

(nach oben)


Neue US-Bluthochdruck-Leitlinien: Wie tief soll der Blutdruck in Deutschland gesenkt werden?

Michael Wichert Presse- und Öffentlichkeitsarbeit
Deutsche Herzstiftung e.V./Deutsche Stiftung für Herzforschung

Herzstiftungs-Experte: „Bei gut eingestelltem Blutdruck kein zusätzlicher Handlungsbedarf“ / Nur geringe Unterschiede zwischen aktuellen europäischen und neuen US-Leitlinien

Seit die amerikanische Fachgesellschaft für Kardiologie (AHA) und das American College of Cardiology (ACC) die Grenzwerte für Bluthochdruck neu definiert und von 140/90 mmHg auf 130/80 mmHg herabgesetzt haben*, stellt sich die Frage, ob wir die neuen Grenzwerte für Bluthochdruck übernehmen müssen. „Bei genauem Hinsehen werden die Unterschiede zwischen den neuen US-Grenzwerten und dem jetzigen Vorgehen in Deutschland geringer. Schon heute sollten Menschen mit einem Blutdruck über 140/90 mmHg medikamentös behandelt werden, wenn eine Lebensstiländerung den Blutdruck nicht ausreichend senkt. Für diese Gruppe ändert sich also nichts, weder in Deutschland noch in den USA“, betont Herzspezialist Prof. Dr. med. Heribert Schunkert vom Wissenschaftlichen Beirat der Deutschen Herzstiftung und Klinikdirektor und stv. Ärztlicher Direktor des Deutschen Herzzentrums München. Die optimale Einstellung des Blutdrucks ist wichtig, weil ein nicht oder nicht ausreichend behandelter Bluthochdruck das Risiko für Herzinfarkt, Schlaganfall und Herzschwäche deutlich erhöht.

Zum Tragen komme die neue US-Definition bei den Werten 130/80 bis 139/89 mmHg: „In Amerika hat man nun mit diesen Werten einen Bluthochdruck, wohingegen man in Deutschland von einem hoch-normalen Bluthochdruck spricht. In jedem Fall sollte man bei diesen Blutdruckwerten einen gesunden Lebenswandel führen: So sollte das Gewicht optimal und die Ernährung salzarm und reich an Gemüse und Obst sein, wie sie die Mittelmeerküche propagiert. Auch sollte für ausreichend viel Bewegung gesorgt und der Stress reduziert werden.“ All diese Empfehlungen gelten für beide Seiten des Atlantiks, also gleichermaßen mit der alten und der neuen Definition.

Bei welchen Blutdruckwerten sind Medikamente einzunehmen?
Nur wenn schon eine Herzerkrankung vorliegt oder ein Schlaganfall aufgetreten war, wird mit der neuen US-Definition eine medikamentöse Behandlung der Blutdruckwerte von 130/80 mmHg und darüber empfohlen. Schunkert zufolge ist diese Empfehlung nicht ganz neu, weil Studien bereits in der Vergangenheit gezeigt hätten, dass Menschen mit hohem Risiko für Herz-Kreislauf-Erkrankungen, z. B. nach einem Herzinfarkt, von der Einnahme eines ACE-Hemmers profitieren, wenn der Blutdruck in diesem Bereich liegt. „Auch diese Empfehlung gilt schon heute, wenn auch nur für relativ wenige Patienten. Insgesamt betrachtet unterscheiden sich unsere aktuellen nicht so sehr von den neuen US-Empfehlungen.“ So soll auch nach den Verlautbarungen der AHA längst nicht jeder Patient mit Blutdruckwerten von 130/80 bis 139/89 mmHg ein Medikament einnehmen. „Nur wenn das kardiovaskuläre Risiko bei diesen Werten sehr hoch ist und die Lebensstilmaßnahmen zur Blutdrucksenkung keinen Erfolg hatten, führt der Weg an der medikamentösen Blutdrucksenkung in Amerika nicht vorbei.“

SPRINT-Studie war Basis der neuen US-Bluthochdruck-Definition
Die US-Fachgesellschaften stützen ihre neuen Empfehlungen ganz wesentlich auf die in Fachkreisen viel diskutierte SPRINT-Studie (2015**), die gezeigt hat, dass bei Hochrisiko-Patienten bei niedrigeren Blutdruckwerten (um die 120 mmHg für den oberen Wert) langfristig bessere Ergebnisse erzielt werden. So konnte in dieser Studie bei einer erfolgreichen Blutdrucksenkung in diesen Bereich langfristig die Wahrscheinlichkeit für einen Schlaganfall oder gar ein Todesereignis gesenkt werden. Allerdings sind die besonderen Bedingungen der Blutdruckmessungen in der SPRINT-Studie zu beachten: die Patienten wurden in einem Raum für 10-15 Minuten alleine gelassen, bevor eine automatische Blutdruckmessung die Werte erhoben hat. So wurde verhindert, dass durch Stress oder körperliche Anstrengung höhere Werte gemessen werden. „Dadurch haben die Werte in der neuen amerikanischen Definition nur bei optimaler Blutdruckmessung Geltung, so wie sie bei der SPRINT-Studie praktiziert wurde“, betont Prof. Schunkert. „Umgekehrt müssen deshalb bei einer Messung vom Hausarzt in etwa 5-10 mmHg abgezogen werden, um auf das vergleichbare Niveau der amerikanischen Leitlinien zu kommen.“ (Siehe dazu die Tabelle zur Blutdruckmessung in der Arztpraxis).
Bezieht man die unterschiedlichen Messmethoden für den Blutdruck mit in die Betrachtung ein, werden die Unterschiede zwischen den amerikanischen und europäischen Empfehlungen noch geringer. „Augenblicklich besteht bei einem gut eingestellten Blutdruck kein zusätzlicher Handlungsbedarf. Die US-Leitlinien erinnern jedoch daran, wie wichtig es ist, den Bluthochdruck als Risikofaktor ernst zu nehmen und konsequent zu behandeln.“

*Whelton PK et al, 2017 High Blood Pressure Clinical Practice Guideline, Hypertension.2017
**Randomized Trial of Intensive versus Standard Blood-Pressure Control, NEJM, Nov. 2015

Kardiologen raten zum Blutdruck-Pass: Der kostenfreie Blutdruck-Pass der Herzstiftung kann unter www.herzstiftung.de/Blutdruckpass.html – per E-Mail unter bestellung@herzstiftung.de oder telefonisch unter 069 955128-400 angefordert werden.

Deutsche Herzstiftung e.V.
Pressestelle:
Michael Wichert /Pierre König
Tel. 069/955128114/-140
E-Mail: wichert@herzstiftung.de/
koenig@herzstiftung.de
www.herzstiftung.de

Weitere Informationen:
https://www.herzstiftung.de/Blutdruckpass.html
https://www.herzstiftung.de/presse/bildmaterial/foto-heribert-schunkert-heli.jpg
https://www.herzstiftung.de/presse/bildmaterial/blutdruck-pass-29-2016.jpg
https://www.herzstiftung.de/bildmaterial/tabelle/praxis-blutdruck-messung.jpg

Anhang
PM_DHS_Neue Bluthochdruck-Grenzwerte aus Amerika_2017-12

Quelle: idw

(nach oben)


Versauerung: Wie der Klimawandel die Süßgewässer belastet

Meike Drießen Dezernat Hochschulkommunikation
Ruhr-Universität Bochum

Nicht nur die Ozeane versauern durch den menschgemachten Klimawandel, auch Süßwassersysteme sind betroffen – und das könnte Folgen für die darin lebenden Organismen haben. Zu diesem Schluss kommen Biologinnen und Biologen der Ruhr-Universität Bochum nach einer Analyse von Langzeitdaten verschiedener deutscher Talsperren und kontrollierten Laborexperimenten mit Süßwasserorganismen. Die Ergebnisse veröffentlicht das Team um Dr. Linda Weiss, Leonie Pötter und Prof. Dr. Ralph Tollrian vom Bochumer Lehrstuhl für Evolutionsökologie und Biodiversität der Tiere in der Zeitschrift „Current Biology“ vom 22. Januar 2018, die online bereits verfügbar ist.

„Die Versauerung der Ozeane wird oft als böser Zwilling des Klimawandels bezeichnet“, sagt Weiss. „In der Tat belegen inzwischen viele Studien, dass die marinen Ökosysteme unter den steigenden Kohlendioxidmengen in den Weltmeeren leiden. Süßwassersysteme sind bislang kaum erforscht worden. Unsere Studie belegt jedoch, dass auch die Versauerung von Seen ein Problem ist.“

CO2-Werte in vier Talsperren über 35 Jahre analysiert
Das Bochumer Team wertete Daten von vier deutschen Talsperren aus, die als Trinkwasserquellen dienen und monatlich kontrolliert werden. Das Wasserwirtschaftsunternehmen Ruhrverband stellte die Messwerte von 1981 bis 2015 zur Verfügung. Daten bis 1999 lagen zunächst nur in Papierform vor und wurden im mehrtägiger Arbeit von Leonie Pötter und drei freiwilligen Studierenden digitalisiert.

Die Analyse ergab, dass die CO2-Menge in den Talsperren über die Zeit kontinuierlich anstieg und der pH-Wert um durchschnittlich 0,01 pro Jahr sank. Um die ökologischen Folgen dieses Wandels abschätzen zu können, untersuchten die Bochumer Biologinnen und Biologen, wie sich die veränderten Umweltbedingungen auf eine Schlüsselart in Süßwasser-Ökosystemen auswirkt. Sie arbeiteten mit Daphnien, auch Wasserflöhe genannt, die Nahrungsquelle für viele andere Organismen sind.

Reaktion auf Fressfeinde untersucht
Daphnien bilden in Anwesenheit von Fressfeinden verschiedene Verteidigungsmechanismen aus; sie ändern etwa ihre Körperform oder lassen kleine Dornen im Nacken wachsen. Wie genau die Reaktion der Daphnien ausfällt, hängt davon ab, welcher Räuber hauptsächlich in ihrer Umgebung lebt. Die Wasserflöhe erkennen ihre Fressfeinde anhand von chemischen Signalen, die sie sozusagen riechen können, und prägen entsprechende Verteidigungen aus. Das sichert das langfristige Überleben der Population.

Die Forscherinnen und Forscher untersuchten zwei Arten von Daphnien in drei verschiedenen Kulturmedien, die sich in der Menge an CO2 im Wasser unterschieden. Zu einigen Daphnien-Proben gaben sie die chemischen Signale hinzu, über die die Wasserflöhe normalerweise die Anwesenheit ihrer Fressfeinde aufspüren: die Räuberstoffe der Büschelmückenlarve Chaoborus und der Wasserwanze Notonecta. Sie erfassten dann, wie die Daphnien auf die chemischen Signale unter den verschiedenen CO2-Bedingungen reagierten.

Erhöhte CO2-Werte bremsen Abwehrmechanismen
Die Ergebnisse waren für beide untersuchten Arten, Daphnia pulex und Daphnia longicephala, gleich: Je höher die CO2-Konzentration im Kulturmedium war, desto weniger stark waren die Verteidigungen der Daphnien ausgeprägt. Der Grund: Die erhöhten CO2-Level störten vermutlich den Riechsinn der Wasserflöhe; sie konnten die chemischen Signalstoffe und somit die Anwesenheit ihrer Fressfeinde schlechter detektieren als bei niedrigeren CO2-Werten.

„Viele Süßwasserorganismen verlassen sich auf ihren Riechsinn“, erklärt Linda Weiss. „Wenn die steigenden CO2-Werte diesen Sinn auch bei anderen Spezies beeinträchtigen, könnte das weitreichende Folgen für das gesamte Ökosystem haben. Wir brauchen nun weitere Studien, um herauszufinden, ob es sich bei der Versauerung von Süßwassersystemen um ein globales Phänomen handelt und wie andere Spezies auf steigende CO2-Werte reagieren.“

Förderung
Linda Weiss wurde von der Deutschen Akademie der Naturforscher Leopoldina unterstützt, Co-Autorin Leonie Pötter von der Deutschen Bundesstiftung Umwelt.

Originalveröffentlichung
Linda Weiss, Leonie Pötter, Annika Steiger, Sebastian Kruppert, Uwe Frost, Ralph Tollrian: Rising pCO2 in freshwater ecosystems has the potential to negatively affect predator induced defenses in Daphnia, in: Current Biology, 2018, DOI: 10.1016/j.cub.2017.12.022, http://www.cell.com/current-biology/pdfExtended/S0960-9822(17)31655-X

Pressekontakt
Dr. Linda Weiss
Lehrstuhl für Evolutionsökologie und Biodiversität der Tiere
Fakultät für Biologie und Biotechnologie
Ruhr-Universität Bochum
Tel.: 0234 32 25072
E-Mail: linda.weiss@rub.de

Weitere Informationen:
Fotos zu dieser Presseinformation sind online verfügbar unter:
http://news.rub.de/presseinformationen/wissenschaft/2018-01-12-versauerung-wie-d…

Quelle: idw

(nach oben)


Ob Fußballtrainer, Ärzte ohne Grenzen oder Trachtengruppen: Freiwilliges Engagement ist bunt

Sylvia Nagel Presse- und Öffentlichkeitsarbeit
Deutsches Zentrum für Altersfragen

Jährlich am fünften Dezember werden mit dem Internationalen Tag des Ehrenamts die vielen Menschen, die freiwillig und unbezahlt in verschiedensten Bereichen tätig sind, anerkannt. An diesem Tag wird für das Engagement geworben.

Das Engagement ist bunt und erstreckt sich über eine Vielzahl gesellschaftlicher Bereiche. Sport ist mit Abstand der Bereich, in dem sich die meisten Menschen in Deutschland engagieren, sei es als Trainer im Fußball- oder Sportverein, Platzwart oder Kassenwart in einer Wandergruppe. Doch auch das Engagement im sozialen Bereich ist umfangreich und vielfältig. Menschen engagieren sich in der Obdachlosenbetreuung und Kältehilfe, sind da, wenn Katastrophenhelfer gebraucht werden oder arbeiten in ihrer freien Zeit bei den Ärzten ohne Grenzen. Vielfältig sind auch die freiwilligen Tätigkeiten im kulturellen Bereich, z.B. als Leiter einer Trachtentanzgruppe, als Regisseurin der freien Theatergruppe aber auch als Mitarbeiter in der museumspädagogischen Arbeit.

In Deutschland engagieren sich immer mehr Menschen, dies belegen die Daten des Deutschen Freiwilligensurveys. Waren es 1999 noch 34 Prozent sind es nach der aktuellen Erhebung 43 Prozent, also rund 31 Millionen Menschen ab 14 Jahren. Das freiwillige Engagement ist insgesamt in fast allen der 14 untersuchten Bereiche gestiegen, allem voran in den Bereichen Sport, Soziales und Kultur.

Das freiwillige Engagement ist für die Gesellschaft von großem Vorteil: Es stärkt den gesellschaftlichen Zusammenhalt, trägt zum Funktionieren des Gemeinwesens bei und ist nicht zuletzt eine zentrale Form der sozialen Teilhabe.

Datengrundlage
Der Deutsche Freiwilligensurvey (FWS) ist eine repräsentative Befragung zum freiwilligen Engagement in Deutschland, die sich an Personen ab 14 Jahren richtet. Im Jahr 2014 wurde die vierte Welle der Befragung durchgeführt. Die wissenschaftliche Leitung liegt seit dieser Welle beim Deutschen Zentrum für Altersfragen. Gefördert wird der Survey aus Mitteln des Bundesministeriums für Familie, Senioren, Frauen und Jugend (BMFSFJ).

Der Bericht „Freiwilliges Engagement in Deutschland – Der Deutsche Freiwilligensurvey 2014″ ist als Buch und als open access Publikation erhältlich: Julia Simonson, Claudia Vogel & Clemens Tesch-Römer (Hrsg.) (2017). Freiwilliges Engagement in Deutschland – Der Deutsche Freiwilligensurvey 2014. Wiesbaden: Springer VS.
http://link.springer.com/book/10.1007%2F978-3-658-12644-5

Eine ausführliche Darstellung der unterschiedlichen Engagementbereiche finden sie unter: https://link.springer.com/chapter/10.1007/978-3-658-12644-5_4

Quelle: idw

(nach oben)


Der Artnachweis aus der Wasserflasche

Dr. Ulrich Marsch Corporate Communications Center
Technische Universität München

Mit der Umwelt-DNA-Analyse werden Gewässerlebewesen nachweisbar, ohne dass sie gefangen werden müssen. Ein Team der Technischen Universität München (TUM) hat erstmals systematisch untersucht, wie verschiedene Umweltfaktoren auf Umwelt-DNA-Analysen wirken. Die Wissenschaftler schaffen damit eine wichtige Grundlage zur standardisierten Verwendung der Methode im Gewässermonitoring.

Beim Erstellen einer Umwelt-DNA-Analyse (eDNA) werden winzige Mengen an DNA, die Organismen ins Wasser abgeben mit modernsten molekulargenetischen Analyseverfahren nachgewiesen. Eine einzige Wasserprobe ist dafür ausreichend. Diese Methode funktioniert aber nicht in allen Gewässern gleich gut und wird daher mit großer Wahrscheinlichkeit von den jeweiligen Gegebenheiten im Gewässer beeinflusst. Dies können organische und anorganische Bestandteile im Wasser sein oder die Strömungsbedingungen. Wie stark sich die einzelnen Faktoren auf das Analyseverfahren auswirken, wurde bisher kaum erforscht.

Dr. Bernhard Stoeckle und Dr. Sebastian Beggel, Wissenschaftler des Lehrstuhls für Aquatische Systembiologie und der AG Molekulare Zoologie (Lehrstuhl für Zoologie) an der TUM haben in einem Experiment den Einfluss verschiedenster Umweltfaktoren auf die eDNA-Analyse untersucht. Die Idee für den Versuch basierte auf vorhergehenden eDNA-Untersuchungen bei einer heimischen Muschelart, für die die Methode erstmals etabliert wurde.

Systematischer Versuchsaufbau
In einem systematischen Laboraufbau wurden Fische der invasiven Schwarzmundgrundel (Neogobius melanostomus) in unterschiedlichen Dichten, unter verschiedenen Strömungsbedingungen, mit und ohne Sediment in Aquarien gehalten und nach einem definierten Zeitraum aus den Becken entfernt.

Im Anschluss nahmen die Forscher in regelmäßigen Abständen über einen Zeitraum von sechs Tagen Wasserproben, um auch die zeitliche Veränderung der Effektivität der eDNA-Analyse bewerten zu können. Zusätzlich gaben die Wissenschaftler mehrere, die molekulare Analyse potentiell hemmende Stoffe wie Algen, Huminstoffe und anorganische Schwebeteilchen ins Wasser, die ebenfalls in natürlichen Ökosystemen vorkommen.

„Das ist wichtig, da wir sonst die Ergebnisse nicht auf eDNA-Untersuchungen im Freiland übertragen können“, erklärt Bernhard Stoeckle. Um herauszufinden welche Faktoren den stärksten Einfluss haben, verglichen die Forscher schließlich die eDNA-Ergebnisse aller Wasserproben miteinander.

Stärke des Einflusses von Faktoren verändert sich mit der Zeit
Die Auswertung des Experiments zeigte zum einen, dass über den gesamten Versuchszeitraum die Strömungsbedingungen, das Vorhandensein und Fehlen von Sediment sowie die Fischdichte sich nur in Kombination miteinander auf die Analysen auswirkten. Zum anderen stellte sich heraus, dass sich die Einflussstärke der Faktoren über die Zeit stark veränderte.

Von den zugegebenen Hemmstoffen beeinträchtigten am meisten organische Substanzen (Huminstoffe) die Analysen. Sie verhinderten oftmals gänzlich eine erfolgreiche Anwendung der Methode. In nur 41 Prozent der untersuchten Proben konnte DNA nachgewiesen werden. Eine vergleichbare Wirkung zeigten Algen, wenn auch weniger ausgeprägt. „Unsere Ergebnisse zeigen deutlich, wie wichtig es ist, bei eDNA-Analysen die Umweltbedingungen zu erfassen, um die Ergebnisse richtig bewerten zu können“, sagt Bernhard Stoeckle.

Anhand der Ergebnisse des Experiments lässt sich schlussfolgern, dass spezifische Umweltbedingungen die Umwelt-DNA-Untersuchungen stark beeinträchtigen und Arten unter Umständen nicht oder nur schwer detektiert werden können.

Publikation:
Stoeckle, BC., Beggel, S., Cerwenka, AF., Motivans, E., Kuehn, R., Geist, J.: A systematic approach to evaluate the influence of environmental conditions on eDNA detection success in aquatic ecosystems, PLoS One 12/2017.
DOI: 10.1371/journal.pone.0189119.

Kontakt:
Prof. Dr. Jürgen Geist
Technische Universität München
Lehrstuhl für Aquatische Systembiologie
Tel:08161/71-3974
geist@wzw.tum.de
http://fisch.wzw.tum.de

Weitere Informationen:
https://www.tum.de/nc/die-tum/aktuelles/pressemitteilungen/detail/article/34398/ Zum Artikel
https://mediatum.ub.tum.de/1427106?id=1427106 Zum Bildmaterial

Quelle: idw

(nach oben)


Schön traurig

Dr. Anna Husemann Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für empirische Ästhetik

Negative Gefühle genießen – eine neue Studie zeigt, warum uns das in Film und Kunst gelingt.

Warum schauen wir uns traurige Filme an? Was reizt uns an einem Kunstwerk, Theaterstück oder Musikstück, das uns Angst macht, uns zum Weinen bringt oder andere negative Emotionen in uns hervorruft? Forscher des Max-Planck-Instituts für empirische Ästhetik haben ein umfassendes psychologisches Erklärungsmodell für dieses scheinbar paradoxe Phänomen entwickelt.

Frankfurt – Die neuere Emotionspsychologie hat gezeigt, dass negative Gefühle besonders stark unsere Aufmerksamheit binden, besonders intensiv erlebt werden und besonders stark in Erinnerung bleiben. Max-Planck-Forscher um Winfried Menninghaus, den Direktor der Abteilung Sprache und Literatur am Max-Planck-Institut für empirische Ästhetik, haben diese Erkenntnisse auf eine Idee gebracht: Da die Künste ebenfalls Aufmerksamkeit binden, intensives Erleben ermöglichen und erinnert werden wollen, sind beide – die Künste und negative Gefühle – dann nicht füreinander prädestiniert?

Das in der renommierten Fachzeitschrift „Behavioral and Brain Sciences“ veröffentlichte psychologische Modell bejaht diese Frage. Es erklärt, warum Kunstwerke, die negative Emotionen hervorrufen, oft als intensiver, interessanter, emotional bewegender und weniger langweilig, ja sogar als schöner wahrgenommen werden können als ein reines Bad in positiven Gefühlen.

Das Modell enthält zwei Faktoren. Der erste Faktor war bereits gut untersucht: Wir ordnen die Wahrnehmung von Kunstwerken in eine andere Kategorie von Erlebnissen ein als die der alltäglichen Realität. Diese kognitive Distanzierung schafft eine Art Sicherheitsraum, in dem wir negative Emotionen erleben können.

Der zweite Faktor, das eigentliche Herzstück des neuen Modells, enthält auf dieser Grundlage mehrere Mechanismen, kraft deren negative Emotionen sogar positiv zur Kraftquelle intensiven Kunsterlebens werden können. Der erste wird aus der großen Bedeutung von Variation und Dynamik für ästhetisches Erleben abgeleitet: Künstlerische Kompositionen, die uns in Wechselspiele positiver und negativer Gefühle verwickeln, werden als abwechslungsreicher, spannender und interessanter wahrgenommen. Zudem haben gemischte Gefühle, die positive und negative Anteile enthalten, eine große Bedeutung für die Integration negativer Gefühle in die positive Betrachtungslust. So empfinden wir etwa tiefes emotionales Bewegtsein auch dann als positiv und lustvoll, wenn es traurige Gefühle enthält. Ebenso sind positiv erregende Gefühle von narrativer Spannung nicht ohne Gefühle von „Unsicherheit“, Sorge und Angst um Protagonisten zu haben.

Dazu kommt, dass auch die ästhetische Kraft der Darstellung selbst (z.B. die Schönheit der Musik, der Worte, der Sprache, Farben etc.) negative Emotionen sowohl intensiver als auch positiver erlebbar macht. Und schließlich kann die Suche nach einer Bedeutung ebenfalls in negativen Gefühlen etwas Positives entdecken.

Das scheinbare Paradox, warum negative Emotionen zur Lust an Kunstwerken gehören, wird also erklärt, indem neue Erkenntnisse der Emotionspsychologie mit grundlegenden Prinzipien ästhetischer Wahrnehmung zusammen gedacht werden. Die Ergebnisse zeigen nicht nur, warum bestimmte Kunstgattungen wie Tragödien, Horrorfilme oder Melodramen gefallen. Sie identifizieren vielmehr grundlegende psychologische Mechanismen, die der Wahrnehmung von Kunstwerken oder Medienprodukten überhaupt zugrundeliegen.

Originalpublikation:
Menninghaus, W., Wagner, V., Hanich, J., Wassiliwizky, E., Jacobsen, T., & Koelsch, S. (2017). The Distancing-Embracing model of the enjoyment of negative emotions in art reception. Behavioral and Brain Sciences, 1-58. doi:10.1017/S0140525X17000309

Über das Institut:
Das Max-Planck-Institut für empirische Ästhetik wurde 2013 in Frankfurt am Main gegründet und beschäftigt derzeit über 130 Mitarbeiter. Das Institut erforscht interdisziplinär, was wem warum und unter welchen Bedingungen ästhetisch gefällt. Dabei widmen sich die Forschungen in den drei Abteilungen Sprache und Literatur, Musik sowie Neurowissenschaften insbesondere den Grundlagen ästhetisch wertenden Wahrnehmens und Erlebens.
Das Max-Planck-Institut für empirische Ästhetik ist eines von 83 Instituten der Max-Planck-Gesellschaft zur Förderung der Wissenschaften e.V., einer der führenden Organisationen für Grundlagenforschung in Europa.

Weitere Informationen:
http://www.ae.mpg.de

Quelle: idw

(nach oben)


Mit Müsli gegen Arthritis

Dr. Susanne Langer Kommunikation und Presse
Friedrich-Alexander-Universität Erlangen-Nürnberg

Dass eine gesunde Ernährung unser allgemeines Wohlbefinden steigert, ist altbekannt. Jetzt haben Forscher der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU) herausgefunden, dass eine ballaststoffreiche Kost den Krankheitsverlauf von chronisch-entzündlichen Gelenkerkrankungen positiv beeinflussen und zu einer Stärkung der Knochen führen kann. Ihre Ergebnisse haben die Wissenschaftler im renommierten Fachmagazin Nature Communications (DOI: 10.1038/s41467-017-02490-4) veröffentlicht.

Schlüssel für die Wirkung unserer Ernährung auf die Gesundheit sind die Darmbakterien: Eine gesunde Darmflora besteht aus einer Vielzahl von Bakterienarten. Jeder erwachsene Mensch trägt etwa zwei Kilogramm an gutartigen Bakterien in seinem Darm. Diese Verdauungshelfer zerlegen Ballaststoffe in einzelne Bestandteile, so dass der Körper sie aufnehmen kann. Dabei entstehen kurzkettige Fettsäuren, die für den Körper wichtig sind. Diese liefern Energie, regen die Darmbewegung an und wirken entzündungshemmend. Die Darmbakterien bekämpfen darüber hinaus Krankheitserreger, die in den Verdauungstrakt gelangen. Bekannt ist, dass die Zusammensetzung der Darmflora schützende, aber auch krankmachende Effekte haben kann. Ein intaktes Zusammenleben der verschiedenen Bakterien schützt die Darmwand und verhindert, dass sie für Krankheitserreger durchlässig wird.

In der aktuellen Veröffentlichung in Nature Communications zeigen die FAU-Forscher, dass es jedoch nicht die Darmbakterien selbst sind, sondern ihre Stoffwechselprodukte, die das Immunsystem beeinflussen und damit auch auf Autoimmunerkrankungen wie die rheumatoide Arthritis wirken. Unklar ist noch, wie die Verständigung zwischen Darmbakterien und Immunsystem abläuft und wie gegebenenfalls die Bakterien positiv beeinflusst werden könnten. Im Fokus der Forscher stehen dabei die kurzkettigen Fettsäuren Propionat und Butyrat, die innerhalb von Gärprozessen der Darmbakterien gebildet werden. Diese Fettsäuren sind unter anderem in der Gelenkflüssigkeit zu finden und man nimmt an, dass sie einen wichtigen Einfluss auf die Funktionstüchtigkeit der Gelenke haben.

Die FAU-Wissenschaftler um Dr. Mario Zaiss von der Medizinischen Klinik 3 – Rheumatologie und Immunologie am Universitätsklinikum Erlangen konnten zeigen, dass eine gesunde, ballaststoffreiche Ernährung die Darmflora so verändert, dass mehr kurzkettige Fettsäuren, vor allem Propionat, gebildet werden. Sie konnten eine erhöhte Konzentration der kurzkettigen Fettsäure unter anderem im Knochenmark nachweisen, wo das Propionat bewirkte, dass sich die Zahl der knochenabbauenden Zellen verringerte und damit auch den Knochenabbau deutlich verlangsamte. Propionat wird schon seit den 1950er Jahren als Konservierungsmittel in der Backindustrie verwendet und ist als prominenter Vertreter kurzkettiger Fettsäuren nach EU Richtlinien als Nahrungsmittelzusatzstoff überprüft und zugelassen.

„Wir konnten zeigen, dass eine bakterienfreundliche Ernährung entzündungshemmend ist und zugleich einen positiven Effekt auf die Knochenfestigkeit hat“, sagt Studienleiter Dr. Mario Zaiss. „Unsere Erkenntnisse bieten einen vielversprechenden Ansatz für die Entwicklung innovativer Therapien bei entzündlichen Gelenkerkrankungen sowie für die Behandlung von Osteoporose, die häufig bei Frauen nach der Menopause auftritt. Wir können heute noch keine konkrete Empfehlung für eine bakterienfreundliche Ernährung geben, aber ein morgendliches Müsli und ausreichend Obst und Gemüse täglich hilft, einen artenreichen Bakterienmix aufrechtzuerhalten.“

Quelle: idw

(nach oben)


Bienen-Parasit: Forscher entdecken Medikament gegen Varroa-Milbe

Florian Klebs Hochschulkommunikation
Universität Hohenheim

Lithiumchlorid verspricht Durchbruch im Kampf gegen gefährlichen Bienen-Parasiten / Veröffentlichung in international renommierter Fachzeitschrift „Scientific Report“

Hoffnung für Imker: Erstmals gelang es Forschern der Universität Hohenheim in Stuttgart ein potentielles Medikament zu entwickeln, das befallene Bienenstöcke mit geringem Arbeitsaufwand über die Fütterung von der gefürchteten Varroa-Milbe befreien kann. Die Varroa-Milbe zählt weltweit zu den gefährlichsten Feinden der Bienen: innerhalb von ein bis drei Jahren kann sie ein Bienenvolk komplett ausrotten. Bislang mussten Imker befallene Bienenstöcke mit aggressiven organischen Säuren oder chemisch hergestellten Milbenbekämpfungsmitteln behandeln, die Resistenzprobleme und Rückstände verursachen. Bei der vielversprechenden Substanz handelt es sich um leicht verfügbares Lithiumchlorid. Nach über 25 Jahren Forschung steht damit erstmals ein neuer Wirkstoff im weltweiten Kampf gegen die Varroa-Milbe zur Verfügung, der völlig anders wirkt als bisherige Mittel. Derzeit laufen bereits Gespräche mit Unternehmen mit dem Ziel einer Produktentwicklung und Zulassung. Ihre ersten Ergebnisse veröffentlichten die Wissenschaftler in der heutigen Online-Ausgabe der Zeitschrift „Scientific Report“, www.nature.com/articles/s41598-017-19137-5.

Ein günstiger, einfach anzuwendender Wirkstoff gegen die gefährliche Milbe, der nach dem aktuellen Kenntnisstand der Forscher keine gefährlichen Nebenwirkungen für Bienen, Imker oder Verbraucher hat und in der Natur reichlich vorkommt: Das versprechen die Ergebnisse des Forschungsprojektes. Mit Lithiumchlorid hat das Forscherteam einen Wirkstoff für ein solches Medikament gefunden, der leicht zu beschaffen und zu verabreichen ist. Auch für eine Ablagerung im Honig gibt es bislang keine Anzeichen.

Dr. Peter Rosenkranz, Leiter der Landesanstalt für Bienenkunde, erklärt die Vorteile des Wirkstoffs: „Lithiumchlorid kann man Bienen in Zuckerwasser aufgelöst füttern. Bei unseren Versuchen haben bereits geringe Mengen der Salzlösung ausgereicht, um innerhalb weniger Tage die auf den Bienen aufsitzenden Milben abzutöten – ohne Nebenwirkungen für die Bienen.“

Auch die Verfügbarkeit spricht für den Wirkstoff: Die weltweiten Vorräte des Leichtmetalls Lithium werden auf über 40 Millionen Tonnen geschätzt, als Lithiumchlorid-Salz findet es sich in Salzlaugen, Salzseen und Heilquellen, und das zum Teil in erstaunlich hoher Konzentration. Das leicht in Wasser lösbare Salz wird unter anderem als Trocknungsmittel und Enteiserlösung verwendet. In der Humanmedizin kommt es seit Mitte des 20. Jahrhunderts als Antidepressivum zum Einsatz.

Bevor der Wirkstoff nun als Medikament für Bienen auf den Markt kommen kann, sind dennoch weitere Tests nötig, um die beste Dosierung zu bestimmen und Nebenwirkungen für Bienen und Anwender sowie das Risiko von Rückständen auszuschließen. Dazu sei man aktuell mit Unternehmen im Gespräch, die diese Entwicklung weiterführen wollen.

Entdeckt durch Zufall
Eigentlich hatte das Team um Dr. Rosenkranz einen viel komplexeren Ansatz verfolgt: „Gemeinsam mit dem Biotechnologie-Startup SiTOOLs Biotech haben wir versucht nach dem RNA-Interferenz-Verfahren, kurz RNAi-Verfahren, gezielt bestimmte Gene auszuschalten. Dieses Verfahren erhielt 2006 den Nobelpreis für Medizin und ist seitdem weltweit zur Bekämpfung von Krankheiten in Anwendung.“

Die Idee: RNA-Bruchstücke werden an die Biene gefüttert und dann von der Varroa-Milbe beim Blutsaugen aufgenommen. In der Milbe schalten die Bruchstücke gezielt lebenswichtige Gene des Parasiten aus. „Für die Bienen sind diese RNA-Bruchstücke ungefährlich, da sie ausschließlich mit varroaspezifischen Genen interagieren. Bei der Varroa-Milbe jedoch werden zentrale Stoffwechselprozesse gestört und die Milbe schließlich abgetötet“, so Dr. Rosenkranz.

Der Ansatz zeigt Erfolg, doch dann bemerkten die Wissenschaftler etwas Seltsames: „Bei Kontrollexperimenten konnten wir auch mit unspezifischen RNA-Bruchstücken, die weder bei den Bienen noch bei den Milben ein genetisches Ziel finden sollten, die Milben abtöten“, berichtet Dr. Rosenkranz. „Etwas in unserer „Genmischung“ bekam den Milben nicht, während die Bienen keinen Schaden nahmen.“

Fast zwei Jahre dauerte es, bis das Lithiumchlorid als die geheime Wunderwaffe gegen den Parasiten gefunden war. Die Forscher hatten die Chemikalie als Hilfsmittel bei der Isolierung der RNA-Bruchstücke verwendet, mit deren Hilfe die Gene im Bienenkörper ausgeschaltet werden.

Eine folgenreiche Entdeckung, denn die RNAi-Methode würde zwar wohl funktionieren, wäre allerdings teuer und aufwendig. „Lithiumchlorid hingegen ist einfach herzustellen, relativ preiswert, und unkompliziert zu lagern.“

Weitere Informationen:
http://www.nature.com/articles/s41598-017-19137-5 „Artikel in „Scientific Report“ “

Quelle: idw

(nach oben)


Herzinfarkt: Ältere Frauen zu spät im Krankenhaus

Christine Vollgraf Presse- und Öffentlichkeitsarbeit
Deutsches Zentrum für Herz-Kreislauf-Forschung e.V.

Bei Frauen, die älter als 65 Jahre sind, dauert es am längsten bis sie nach Auftreten der ersten Symptome eines Herzinfarkts in die Notaufnahme gelangen. Dadurch geht wertvolle Zeit verloren, um die verschlossenen Blutgefäße wieder zu eröffnen und die Schädigung des Herzmuskels einzuschränken. Das ergab eine Studie des Deutschen Zentrums für Herz-Kreislauf-Forschung (DZHK) in Kooperation mit dem Helmholtz Zentrum München und der Technischen Universität München. Die Forscher fordern dringend gezielte Aufklärungsmaßnahmen für diese Risikogruppe.

„Der Unterschied zwischen älteren Frauen und allen anderen von uns untersuchten Gruppen, nämlich jüngeren Frauen unter 65 Jahren, sowie Männern über und unter 65 Jahren, ist eklatant“, sagt der DZHK-Wissenschaftler Professor Karl-Heinz Ladwig, Gruppenleiter am Institut für Epidemiologie des Helmholtz Zentrum München und Professor für psychosomatische Medizin an der Technischen Universität München. Bei älteren Frauen vergehen durchschnittlich über viereinhalb Stunden bis sie in der Notaufnahme sind, bei jungen Frauen sind es hingegen knapp zweieinhalb Stunden. Auch junge und alte Männer stehen besser da: Bei über 65-jährigen Männern dauert es über dreieinhalb Stunden gegenüber gut drei Stunden bei jungen Männern, bis sie im Krankenhaus untersucht werden. Anders als bisher angenommen, ist es also weder allein das Alter noch das Geschlecht sondern die Kombination aus Alter und weiblichem Geschlecht, die zu langen Entscheidungszeiten zwischen Auftreten der ersten Herzinfarkt-Symptome und der Versorgung in einer Notaufnahme führt. Dabei zählt bei einem Herzinfarkt jede Minute, um das Herz mit einem Katheter zu untersuchen und das verschlossene Blutgefäß wieder zu eröffnen. Denn je schneller der Blutfluss wieder hergestellt werden kann, desto weniger Herzmuskelzellen sterben ab.

Die Daten stammen aus der MEDEA-Studie (Munich Examination of Delay in Patients Experiencing Acute Myocardial Infarction), in der über einen Zeitraum von mehr als vier Jahren 619 Patienten mit einem Herzinfarkt, bei dem sich eine ST-Strecken-Hebung im Elektrokardiogramm zeigte, befragt wurden. Gefördert wurde dieses Projekt von der Deutschen Herzstiftung. Zertifizierte Interviewerinnen führten mit den Patienten innerhalb von 24 Stunden nach dem Verlassen der Intensivstation Gespräche durch. Außerdem füllten die Studienteilnehmer einen Fragebogen aus, und aus den Krankenakten und den Angaben des medizinischen Personals wurden ihre körperlichen Risikofaktoren ermittelt. Die klinischen Eigenschaften zwischen Männern und Frauen unterschieden sich nur geringfügig, männliche Studienteilnehmer waren lediglich etwas häufiger Raucher als weibliche. Bei der Betrachtung der soziodemographischen Faktoren zeigte sich, dass die weiblichen Studienteilnehmer häufiger alleine lebten sowie älter und öfters arbeitslos waren.

Fehlender Brustschmerz: nicht typisch weiblich
Die allgemeine Annahme, dass bei einem Herzinfarkt das typische Symptom Brustschmerz nur bei Frauen häufig fehlt, und der Herzinfarkt deshalb zu spät erkannt wird, konnten Ladwig und seine Kollegen nicht bestätigen. Denn die Abwesenheit von Brustschmerz hatte nur einen geringen Effekt auf die Entscheidungszeit der älteren Patientinnen und konnte nicht die beobachteten exzessiven zeitlichen Unterschiede erklären. Vielmehr zeigen die Daten der MEDEA-Studie, dass das Fehlen von Brustschmerz ein Alterseffekt und nicht typisch weiblich ist. Denn diese fehlende Symptomatik konnten die Forscher bei älteren Männern annähernd so oft beobachten wie bei älteren Frauen. Das Auftreten von Brustschmerz lässt sich laut Ladwig auf die einfache Formel bringen: „Je älter desto weniger Brustschmerz.“

„Auch bei Übelkeit und Erbrechen konnten wir keine Unterschiede zwischen den Geschlechtern feststellen“, sagt Ladwig. „Das hatten wir ganz anders erwartet. Denn diese atypischen Beschwerden wurden bislang immer eher Frauen zugeordnet.“ Fehlende oder untypische Beschwerden können daher nicht die Ursache dafür sein, dass ältere Frauen so spät in die Notaufnahme kommen.

Falsche Bescheidenheit
Ladwig und seine Kollegen sehen die Gründe für die langen Entscheidungszeiten im psychologischen Bereich, unter anderem in einer Bescheidenheit, die in diesem Fall völlig unangebracht ist: „Das wird schon wieder besser, da muss ich doch jetzt nicht den Notarzt rufen. Was sollen die Nachbarn denken, wenn der Krankenwagen vorfährt und dann doch nichts war?“ Solche Gedanken sind wohl gerade bei älteren Frauen häufig und führen zu den gefährlichen Verzögerungen. Die Wissenschaftler planen bereits eine Anschlussstudie, in der sie diesen Faktoren bei älteren Frauen genauer auf den Grund gehen wollen.

Gezielte Aufklärung
Außerdem fordern sie, dass diese Risikogruppe bei der Aufklärung zum Herzinfarkt noch mehr in den Fokus geraten muss. „Eines unserer zentralen Ziele ist, zukünftig gezielt auf ältere Frauen einzuwirken, etwa über bundesweite Kampagnen oder die Ärzte“, sagt Ladwig. Hausärzte sollten mit ihre alten Patientinnen sprechen, die Risikofaktoren für einen Herzinfarkt haben. Dabei sollten sie ihnen verdeutlichen, wie wichtig es ist, rechtzeitig den Notruf zu wählen und erklären, wie sie im Ernstfall richtig reagieren können. Dazu gehören auch so einfache Tipps, wie den Zettel mit der Notruf-Nummer direkt ans Telefon zu hängen und zwar so groß geschrieben, dass man sie auch ohne Brille lesen kann.

Originalarbeit:
Comparison of Delay Times Between Symptom Onset of an Acute ST-elevation Myocardial Infarction and Hospital Arrival in Men and Women <65 Years Versus ≥65 Years of Age.: Findings From the Multicenter Munich Examination of Delay in Patients Experiencing Acute Myocardial Infarction (MEDEA) Study. Ladwig KH, Fang X, Wolf K, Hoschar S, Albarqouni L, Ronel J, Meinertz T, Spieler D, Laugwitz KL, Schunkert H. Am J Cardiol. 2017 Dec 15;120(12):2128-2134.
doi: 10.1016/j.amjcard.2017.09.005.

Kontakt: Christine Vollgraf, Presse- und Öffentlichkeitsarbeit, Deutsches Zentrum für Herz-Kreislauf-Forschung (DZHK), Tel.: 030 3465 529 02, presse@dzhk.de

Prof. Dr. Karl-Heinz Ladwig, Helmholtz Zentrum München – Forschungszentrum für Gesundheit und Umwelt (GmbH), Institut für Epidemiologie II, E-Mail: ladwig@helmholtz-muenchen.de

Weitere Informationen:
https://dzhk.de/aktuelles/news/artikel/herzinfarkt-aeltere-frauen-zu-spaet-im-kr…

Quelle: idw

(nach oben)


Im Alter leisten Männer weniger Hausarbeit als Frauen – und fühlen sich dabei gesünder

Nils Ehrenberg Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Präventionsforschung und Epidemiologie – BIPS

Eine Forschungsgruppe des Leibniz-Instituts für Präventionsforschung und Epidemiologie – BIPS in Bremen hat den Zusammenhang von Hausarbeit, Schlafdauer und Gesundheit bei älteren Menschen in Europa und den USA untersucht. Das Ergebnis: Ältere Frauen verbringen im Schnitt fast fünf Stunden pro Tag mit Hausarbeit, während ältere Männer mit nur drei Stunden zurückhaltender sind. Das bleibt offenbar nicht ohne Folgen für die Gesundheit: Die Senioren fühlen sich deutlich gesünder als die Seniorinnen.

Fast 21.000 Frauen und mehr als 15.000 Männer älter als 65 Jahre gaben im Rahmen von internationalen Zeitverwendungsstudien Auskunft über ihre täglichen Aktivitäten. Die Studienteilnehmerinnen und -teilnehmer aus Deutschland, Italien, Spanien, Frankreich, Großbritannien, den Niederlanden und den USA sollten dabei einschätzen, wieviel Zeit sie am Tag mit unterschiedlichsten Tätigkeiten verbringen – darunter Hausarbeiten wie Putzen, Kochen, Gartenarbeiten und handwerklichen Tätigkeiten.

„Bei der Auswertung zeigte sich ein deutliches Bild. Während die Frauen im Schnitt etwa fünf Stunden mit Hausarbeit verbrachten, hielten sich die Männer zurück. Sie arbeiteten im Schnitt nur drei Stunden im Haushalt“, sagt Nicholas Adjei, Doktorand in der Abteilung Prävention und Evaluation am BIPS und Erstautor der Studie. „Bei der Art der Hausarbeit gibt es deutliche Unterschiede. Frauen beschäftigen sich im Schnitt fast 220 Minuten täglich mit Kochen, Einkaufen und Putzen – Männer dagegen nur knapp 90 Minuten. Bei Gartenarbeiten und handwerklichen Tätigkeiten zeigt sich ein umgekehrtes Bild. Hier sind Männer fast 70 Minuten täglich aktiv, Frauen dagegen nur knapp 40 Minuten.“ Darüber hinaus zeigen sich deutliche Länderunterschiede – vor allem bei den älteren Männern. Während etwa Senioren in Italien nur 2,7 Stunden pro Tag Hausarbeit leisten, sind es bei deutschen Männern 4,2 Stunden.

Doch wie wirkt sich Hausarbeit auf die Gesundheit aus? „Hier zeigte sich ein interessantes Bild. Insgesamt scheint Hausarbeit sowohl bei Männern als auch bei Frauen mit einer besseren subjektiven Gesundheit einherzugehen“, sagt Nicholas Adjei. „Betrachten wir dies allerdings in Kombination mit der Schlafdauer, so zeigt sich für Frauen ein Optimum von ein bis drei Stunden Hausarbeit bei sieben bis acht Stunden Schlaf. Bei den Männern berichteten diejenigen die beste Gesundheit, die mit sechs Stunden oder mehr besonders aktiv im Haushalt waren – unabhängig von der Schlafdauer.“

Gründe für die unterschiedlichen Effekte lassen sich aus der Studie nicht sicher ableiten. „Möglicherweise spielt die Art der Aktivitäten eine große Rolle. Männer arbeiten viel im Garten, sind dabei körperlich sehr aktiv und unter freiem Himmel. Frauen dagegen sind zum Teil mit sehr repetitiven Tätigkeiten im Haus beschäftigt“, sagt Nicholas Adjei. „Eine gleichmäßigere Verteilung aller Hausarbeiten auf Frau und Mann könnte also durchaus sinnvoll und fair sein.“

Die Originalpublikation finden Sie hier:
https://bmcpublichealth.biomedcentral.com/articles/10.1186/s12889-017-4979-z

Das BIPS – Gesundheitsforschung im Dienste des Menschen
Die Bevölkerung steht im Zentrum unserer Forschung. Als epidemiologisches Forschungsinstitut sehen wir unsere Aufgabe darin, Ursachen für Gesundheitsstörungen zu erkennen und neue Konzepte zur Vorbeugung von Krankheiten zu entwickeln. Unsere Forschung liefert Grundlagen für gesellschaftliche Entscheidungen. Sie klärt die Bevölkerung über Gesundheitsrisiken auf und trägt zu einer gesunden Lebensumwelt bei.

Das BIPS ist Mitglied der Leibniz-Gemeinschaft, zu der 93 selbstständige Forschungseinrichtungen gehören. Die Ausrichtung der Leibniz-Institute reicht von den Natur-, Ingenieur- und Umweltwissenschaften über die Wirtschafts-, Raum- und Sozialwissenschaften bis zu den Geisteswissenschaften. Leibniz-Institute widmen sich gesellschaftlich, ökonomisch und ökologisch relevanten Fragen. Aufgrund ihrer gesamtstaatlichen Bedeutung fördern Bund und Länder die Institute der Leibniz-Gemeinschaft gemeinsam. Die Leibniz-Institute beschäftigen rund 18.700 Personen, darunter 9.500 Wissenschaftlerinnen und Wissenschaftler. Der Gesamtetat der Institute liegt bei mehr als 1,8 Milliarden Euro.

Quelle: idw

(nach oben)


Forschungsergebnisse der Jade Hochschule dienen dem Schutz der Küstenregion vor Überschwemmung

Katrin Keller Presse & Kommunikation
Jade Hochschule – Wilhelmshaven/Oldenburg/Elsfleth

Die Kapazität des Entwässerungssystems an der ostfriesischen norddeutschen Küste ist bis Mitte des Jahrhunderts ausgeschöpft. Gründe hierfür sind höhere Niederschläge in den Wintermonaten, eine zunehmende Flächenversiegelung und der Anstieg des Meeresspiegels.

Oldenburg.Emden. Der Klimawandel führt dazu, dass die Entwässerungssysteme von Niederungsgebieten aufgrund von Meeresspiegelanstieg und zunehmenden Niederschlagsmengen an ihre Belastungsgrenze stoßen. Wissenschaftler_innen der Jade Hochschule und der Universität Oldenburg untersuchen derzeit, welche Auswirkungen der Klimawandel auf den Wasserhaushalt an der ostfriesischen norddeutschen Küste hat und welche alternativen Lösungen für die Entwässerung möglich wären.
Die Hochschulen führen das vom Bundesministerium für Umwelt, Naturschutz, Bau und Reaktorsicherheit (BMUB) geförderte Projekt „Klimaoptimiertes Entwässerungsmanagement im Verbandsgebiet Emden“ (KLEVER) in Zusammenarbeit mit dem Ersten Entwässerungsverband Emden (I.EVE) und weiteren Partnern aus der Region durch.

Kapazität des Entwässerungssystems ist Mitte des Jahrhunderts ausgeschöpft
Basierend auf Klimamodellen vom Potsdam-Institut für Klimafolgenforschung berechneten die wissenschaftliche Mitarbeiterin Jenny Kebschull und Projektleiter Dr. Helge Bormann von der Jade Hochschule mithilfe eines regional angepassten hydrologischen Modells mögliche Veränderungen des Wasserhaushalts. Einflüsse, die sich in Zukunft auf das Entwässerungssystem in der Region auswirken, sind die höheren Winterniederschläge, die Versiegelung von Grünflächen und der Anstieg des Meeresspiegels.

Höhere Niederschläge in den Wintermonaten
Die Simulationsergebnisse zeigen, dass der Klimawandel einen deutlichen Anstieg des Abflussaufkommens in den Wintermonaten bewirken wird. „Niederschläge, die heute noch als Extremereignisse eingestuft werden, werden zukünftig häufiger auftreten“, erklärt Bormann. In den Wintermonaten Dezember, Januar und Februar werde das zu entwässernde Wasservolumen bis Mitte des Jahrhunderts um etwa 15 Prozent ansteigen. Bis zum Ende des Jahrhunderts können es sogar 20 Prozent sein. Dies entspräche dem halben Volumen der Thülsfelder Talsperre, das im Winter zusätzlich gepumpt oder gesielt werden müsste. Im Gebiet des Ersten Entwässerungsverbandes Emden gibt es zwei Haupt Siel- und Schöpfwerke, die das Wasser ins Meer leiten. Die Kapazität dieser Werke sei jedoch schon jetzt ausgeschöpft.

Zunehmende Flächenversiegelung
Die Analyse zeigt auch, dass eine zunehmende Flächenversiegelung – Bebauung, die verhindert, dass der Niederschlag im Boden versickern kann – die Entwässerungsherausforderung noch verstärken wird. „Im Verbandsgebiet werden pro Jahr aktuell rund 63 Hektar versiegelt – das sind etwa 126 Fußballfelder Grünflächen, die durch Gebäude, Parkplätze, Verkehrswege und weitere Bauwerkezugebaut werden“, erklärt Kebschull. Wenn die Versiegelung mit der aktuellen Rate weiter voranschreitet, würde der Entwässerungsbedarf bis Mitte des Jahrhunderts in den Wintermonaten um weitere zwei Prozent und bis Ende des Jahrhunderts insgesamt um vier Prozent ansteigen.

Anstieg des Meeresspiegels
Neben der Flächenversiegelung sei auch der Anstieg des Meeresspiegels ein Problem. „Bisher werden die Siele bei Ebbe geöffnet, so dass das Wasser ohne den kostenintensiven Betrieb der Pumpen abfließen kann“, erklärt die Wissenschaftlerin. „Wenn der Meeresspiegel wie in den Klimaszenarien beschrieben ansteigt, wird der Wasserstand zur Ebbe seltener niedrig genug sein um die Siele zu benutzen.“ In dem Fall ist der Entwässerungsverband auf seine Pumpen angewiesen. „Der Energieaufwand hierfür ist enorm“, sagt Kebschull. Laut Modellergebnissen wäre der Abfluss des Wassers über die Siele Ende des Jahrhunderts nicht mehr möglich: „Die Anzahl der Stunden, in denen das Sielen möglich ist, wird sich bis 2045 halbieren. Im Jahr 2070 wird der Sielzeitraum nur noch ein Viertel des jetzigen betragen, bevor das Sielen Ende des Jahrhunderts nur im besten Fall noch als Entwässerungsmöglichkeit genutzt werden kann“, erklärt die Expertin.

Partner in der Region
Für den Entwässerungsverband sei es essentiell zu erfahren, wie lange er sich auf die Leistung der vorhandenen Entwässerungsinfrastruktur noch verlassen kann, so Projektleiter Bormann. „Für alle Akteure in der Region ist die Dimension der Veränderung, die auf sie oder die nächste Generation zukommen wird, ein wichtiger Anhaltspunkt, um die Folgen des Klimawandels greifbar zu machen und vorausschauend planen zu können.“
Die Ergebnisse des Forschungsprojektes wurden im November auf dem 3. KLEVER-Akteursforum vorgestellt. Welche Maßnahmen für die Region denkbar sind, diskutieren die Akteure beim kommenden Forum Ende Januar. „Gerade der Prozess der Kommunikation und Vernetzung unter den Akteuren ist von zentraler Bedeutung“, betont der Projektleiter, „da nur im Konsens Maßnahmen, die Auswirkungen auf die ganze Region haben, realistisch umgesetzt werden können.“

Quelle: idw

(nach oben)


Urlaubszeit ist Warzenzeit

Stefan Dreising Stabsstelle Unternehmenskommunikation
Universitätsklinikum Düsseldorf

Volkskrankheit Warze: Rund ein Drittel aller Kinder von vier bis zwölf Jahren ist betroffen / UKD-Experte: Urlaubsorte wie Schwimmbäder, Dampfbäder oder Hotelteppiche sind Infektionsherde

Düsseldorf (ukd/dre). Sie sind meist klein, störend, hoch ansteckend und man infiziert sich ausgerechnet da, wo man im Winterurlaub am liebsten sein möchte: Im Schwimmbad, in der Sauna, im Dampfbad oder in Hotelzimmern. Warzen sind eine Volkskrankheit: Etwa ein Drittel der Kinder zwischen vier und zwölf Jahren und rund zwei bis fünf Prozent der Erwachsenen sind betroffen.

Die kleinen, für gewöhnlich gutartigen Hautwucherungen werden durch das humane Papillomavirus (HPV) verursacht und verbreiten sich entweder durch direkten Hautkontakt, zum Beispiel beim Händeschütteln, oder durch einen Gegenstand oder eine Oberfläche, die mit dem Virus in Kontakt gekommen ist. Da Warzen recht therapieresistent sind, ist eine Behandlung häufig sehr langwierig. Die Warzensprechstunde der Klinik für Dermatologie am Universitätsklinikum Düsseldorf (UKD) berät insbesondere zur Infektion mit Warzen im Intimbereich, den sogenannten Feigwarzen.

Kinder sind von Warzen mehr betroffen als Erwachsene
Mit humanen Papillomaviren kann sich grundsätzlich jeder infizieren. Nicht bei jedem der mit dem Virus in Berührung kommt, brechen aber Warzen aus. Das HP-Virus ist hochansteckend, ein intaktes Immunsystem ist aber in der Regel in der Lage, das Virus selbst zu eliminieren oder zu kontrollieren – viele Warzen verschwinden daher nach einiger Zeit von alleine. Ist dies nicht der Fall, stören die Warzen oder ist das Immunsystem bereits geschwächt, sollte man einen Arzt aufsuchen.

Gerade Kinder sind von oberflächigen Warzen mehr betroffen, da ihr Immunsystem noch nicht ganz ausgereift ist, erklärt PD Dr. Peter Arne Gerber, leitender Oberarzt an der UKD-Hautklinik: „Der Körper von Kindern kann sich noch nicht so gut gegen die Viren wehren und die Warzen brechen eher aus. Zudem stecken sie sich schneller bei anderen Kindern an, weil sie engeren Hautkontakt haben und vergessen zum Beispiel in Schwimmbändern eher mal ihre Badelatschen als Erwachsene. Gegen eine Infektion im Schwimmbad oder auch im Hotelzimmer sind eigene Badelatschen die beste Vorsorge. Seit ich mich mit dem Thema beschäftige, laufe ich niemals barfuß durch Hotelzimmer oder öffentliche Dampfbäder.“

In diesem Zusammenhang kann der Hautexperte auch einen gängigen Mythos über Warzen bestätigen: „Unsere Eltern haben tatsächlich Recht, wenn sie sagen, dass man Warzen nicht aufknibbeln sollte, weil sie sich sonst am Körper verbreiten“, schmunzelt Gerber. „Beim Knibbeln und Aufkratzen verteilen wir infizierte Hautschuppen, die dann wieder durch rissige Hautstellen in die Haut eindringen und Zellen der oberen Hautschicht infizieren. Hier können dann neue Warzen entstehen.“

Viele Menschen gehen erst zum Arzt, wenn der Leidensdruck sehr hoch ist
„Viele Patienten kommen erst zu uns, wenn der Leidensdruck sehr groß ist“, sagt Gerber. „Es werden Hausmittel ausprobiert, dann Mittel aus der Apotheke. Leider sind Warzen sehr therapieresistent. Wenn die Plagegeister nicht weggehen, kommen sie dann in unsere Sprechstunde.“ Offene Warzen auf der Haut werden vom Hautarzt meist vereist, in manchen Fällen auch gelasert. „Unsere Hauptaufgabe liegt darin, das Gewebe zu veröden, das Immunsystem zu stärken und somit den Körper dabei zu unterstützen die Warze und die Viren zu bekämpfen“, so der Düsseldorfer Dermatologe: „Bei Genitalwarzen setzen wir neben dem Laser auch Medikamente ein, um das Immunsystem lokal zu aktivieren.“

Außerhalb der Klinik kommen bei vielen Menschen auch Hausmittel und alternative Therapiemöglichen zum Einsatz – von Eigenurintherapie über Schneckenschleim bis zum Besprechen von Warzen. Warum viele dieser Behandlungen bei einzelnen Warzen erfolgreich sind, kann Dr. Gerber erklären: „Studien legen nahe, dass Therapien, wie das Besprechen von Warzen, durch einen neuropsychologischen Effekt das Immunsystem stimulieren und dieses anregen die Viren selbst zu bekämpfen. Weiterhin gilt aber: Bei geschwächtem Immunsystem, starkem Befall oder Warzen an besonders störenden Stellen, sollte man unbedingt zum Arzt gehen – auch um die Ansteckung von anderen Menschen zu verhindern. Das gilt insbesondere für Feigwarzen im Intimbereich.“

Rund ein Prozent der sexuell aktiven Menschen leiden unter Genitalwarzen
Rund ein Prozent der sexuell aktiven Menschen in westeuropäischen Ländern leiden unter Genitalwarzen. „Sie gehören zu den häufigsten sexuell übertragbaren Erkrankungen – medizinisch auch STIs (sexually transmitted infections) genannt. Entsprechend der sexuellen Aktivität sind hier Menschen im Alter von 20 bis 35 Jahren überdurchschnittlich häufig betroffen. Wie bei allen STIs steigt das Infektionsrisiko mit der Zahl der Sexualpartner“, erklärt Dr. Gerber. Der Dermatologe ergänzt: „Ein gewisses Bewusstsein für alle sexuell übertragbaren Krankheiten sollte generell vorhanden sein. Anders aber als bei anderen Geschlechtskrankheiten, reduzieren Kondome zwar das Risiko sich mit Feigwarzen anzustecken, 100 Prozent verhindern können sie eine Infektion aber nicht. Die Warzen finden sich nämlich häufig auch in jenen Bereichen des Intimbereichs, die von Kondomen nicht abgedeckt werden. Bei einem Infektionsverdacht sollte man daher unverzüglich einen Arzt aufsuchen. Präventiv sind HPV-Schutzimpfungen, die für junge Frauen zugelassen und empfohlen sind.“

Kontakt: PD Dr. Peter Arne Gerber, Leitender Oberarzt, Klinik für Dermatologie, Universitätsklinikum Düsseldorf, Moorenstraße 5, 40225 Düsseldorf, E-Mail: peterarne.gerber@med.uni-duesseldorf.de

Quelle: idw

(nach oben)


Nährstoffüberschuss lässt Ozeane ersticken

Ulrike Prange Pressestelle
MARUM – Zentrum für Marine Umweltwissenschaften an der Universität Bremen

Kombination aus Erdumlaufbahn und Biomasse verursacht Aussterbeereignis im Devon
Was hat das Aussterbeereignis im Devon vor rund 300 Millionen Jahren begünstigt? Anhand von Gesteinsproben hat ein Team von Wissenschaftlerinnen und Wissenschaftlern aus Deutschland, Belgien, China und den USA die so genannten rhythmischen Klimazyklen identifiziert und herausgefunden, warum die Ozeane damals so schnell so lebensfeindlich werden konnten. Ihre Ergebnisse haben sie jetzt unter der Leitung von Dr. David De Vleeschouwer vom MARUM – Zentrum für Marine Umweltwissenschaften an der Universität Bremen in der Zeitschrift Nature Communications veröffentlicht.

In der gesamten Erdgeschichte unterscheiden Geologen fünf Massenaussterbeereignisse, die besonders schwerwiegend waren. Eines davon ist das Massenaussterbeereignis im Devon vor 374 Millionen Jahren – mehr als 300 Millionen Jahre vor dem Meteoriteneinschlag, der die Dinosaurier auslöschte.

Das Devon war eine eigentümliche Zeit: Große Fische regierten in den Ozeanen und Korallenriffe florierten, aber es gab noch keine großen Landtiere. „Das devonische Klima lässt sich am besten als extremes Gewächshausklima beschreiben, mit deutlich mehr Kohlenstoffdioxid (CO2) in der Atmosphäre als heute“, sagt Dr. David De Vleeschouwer vom MARUM. Dennoch konnten Wissenschaftlerinnen und Wissenschaftler bislang nicht genau sagen, wie schnell die Erde während des devonischen Massenaussterbeereignis unbewohnbar wurde.

Aus Gründen, die noch immer von Wissenschaftlerinnen und Wissenschaftlern diskutiert werden, wurde das Meerwasser während des Devon-Massensterbens sauerstoffarm. „Dieses Ereignis hat den Großteil der Lebewesen im Ozean erstickt, und die äußerst unterschiedlichen Korallenriffe aus der devonischen Periode gehörten zu den größten Opfern“, erklärt Co-Autorin Anne-Christine Da Silva von der Universität Lüttich (Belgien), wobei eine Hauptursache bislang nicht identifizierbar sei. Tatsächlich ist der Sauerstoffgehalt des Meerwassers im Laufe des Aussterbens zweimal gesunken. Nachweisen können Forscherinnen und Forscher das durch Schwarzschiefer, der sich in der Erdkruste wie in einem Archiv abgelagert hat. Schwarzschiefer ist reich an organischen Bestandteilen, denn weder zum Verrotten des organischen Materials noch zum Atmen der Unterwasserorganismen gab es Sauerstoff.

Um das nachzuweisen, haben David De Vleeschouwer und sein Team eine Technik namens Cyclostratigraphie genutzt. „Wir haben Informationen aus geologischen Abschnitten genutzt, die sich über das devonische Aussterben erstrecken, und zwar aus Belgien, Polen, China, Kanada und den USA. In allen Abschnitten haben wir die Auswirkungen gefunden, die aus den zyklischen Veränderungen der Exzentrizität der Erdumlaufbahn um die Sonne resultieren“, erklärt De Vleeschouwer. Als exzentrisch wird bezeichnet, wenn die Ellipse von der Kreisform abweicht. Wenn die Exzentrizität niedrig ist, dreht sich die Erde um die Sonne auf einer Umlaufbahn, die einem perfekten Kreis sehr nahe ist. Ist die Exzentrizität hoch, kreist die Erde elliptisch um die Sonne. Dadurch unterscheidet sich die Menge an Sonnenenergie, die im Sommer und Winter auf die Erde trifft.

Änderungen in der Exzentrizität sind sehr rhythmisch, mit festen Zeiträumen von 100.000 und 405.000 Jahren. Die Autorinnen und Autoren haben diese Zyklen genutzt, um die Dauer zwischen den beiden Schwarzschieferschichten einzugrenzen und dabei herausgefunden, dass die zweite Episode mit niedrigem Sauerstoffgehalt 600.000 Jahre nach der ersten begonnen hat. Dieses Ergebnis sei die erste präzise Zeitmessung dieser Episode in der Evolution des Lebens auf der Erde, betont De Vleeschouwer. Zudem sei sie viel kürzer als erwartet. Darüber hinaus hat das Team festgestellt, dass der Hauptimpuls des Aussterbens mit einer längeren Periode geringer Exzentrizität zusammenfiel. Das bedeutet, dass die Erdumlaufbahn mehrere zehntausend bis hunderttausend Jahre lang nahezu kreisförmig war, was zu einem recht stabilen Klima führte. Diese unveränderlichen Klimata wurden durch eine verlangsamte Ozeanzirkulation und eine Schichtung der Wassersäule ersetzt, die beide einen niedrigen Sauerstoffgehalt in den Weltmeeren begünstigten.

Für das Autorenteam sind die Landpflanzen eine der Ursachen des Aussterbeereignisses. Während der Devonzeit entwickelten sie tiefe Wurzelsysteme und holzige Gewebe. Dadurch hatten sie den evolutionären Vorteil, verschiedene Umgebungen besiedeln zu können. Dieser Erfolg der Bodenpflanzen hatte allerdings seinen Preis: Wenn eine Pflanze stirbt, wird ihre Biomasse in die Gewässer und in den Ozean gespült. „Die devonischen Meere wurden also mit Nährstoffen von verrottenden Pflanzen überschüttet, ein Prozess, bei dem Sauerstoff aufgenommen und anderes Leben ausgehungert wird“, erklärt David De Vleeschouwer. „Allerdings ist die Evolution der Landpflanzen ein langsamer und allmählicher Prozess. Nur wenn die Erdumlaufbahn eine verlangsamte Ozeanzirkulation begünstigte, reicht das aus, um das Erdsystem über einen Kipppunkt hinaus zu treiben, was wiederum das Aussterben der devonischen Biomasse zur Folge hatte.“

Kontakt:
David De Vleeschouwer
Telefon: 0160 3353 848
E-Mail: ddevleeschouwer@marum.de

Originalveröffentlichung:
David De Vleeschouwer, Anne-Christine Da Silva, Matthias Sinnesael, Daizhao Chen, James E. Day, Michael T. Whalen, Zenghui Guo und Philippe Claeys:
Timing and pacing of the Late Devonian mass extinction event regulated by eccentricity and obliquity. Nature Communications 8, 2017; DOI: 10.1038/s41467-017-02407-1

Beteiligte Institute:
MARUM – Zentrum für Marine Umweltwissenschaften der Universität Bremen
Analytical, Environmental and Geo-Chemistry (AMGC), Vrije Universiteit Brussel (Belgien)
Sedimentary Petrology Laboratory, Université de Liège (Belgien)
Paleomagnetic Laboratory, Universiteit Utrecht (Niederlande)
Institute of Geology and Geophysics, Chinese Academy of Science Beijing (China)
Department of Geography-Geology, Illinois State University (USA)
Department of Geosciences, University of Alaska, Fairbanks (USA)

Weitere Informationen:
Ulrike Prange
MARUM Presse- und Öffentlichkeitsarbeit
Telefon: 0421 218 65540
E-Mail: medien@marum.de

MARUM entschlüsselt mit modernsten Methoden und eingebunden in internationale Projekte die Rolle des Ozeans im System Erde – insbesondere im Hinblick auf den globalen Wandel. Es erfasst die Wechselwirkungen zwischen geologischen und biologischen Prozessen im Meer und liefert Beiträge für eine nachhaltige Nutzung der Ozeane. Das MARUM umfasst das DFG-Forschungszentrum und den Exzellenzcluster „Der Ozean im System Erde“.

Weitere Informationen:
http://www.marum.de/Entdecken/Nhrstoffberschuss-lsst-Ozeane-ersticken.html

Quelle: idw

(nach oben)


Gehirnjoggings: So lässt sich das Arbeitsgedächtnis trainieren

Dr. Anne Klostermann Presse- und Öffentlichkeitsarbeit
Deutsche Gesellschaft für Psychologie (DGPs)

Gezieltes Trainieren von Gedächtnisaufgaben wirkt sich positiv auf die Bearbeitung neuer Aufgaben aus, vor allem wenn diese den Trainingsaufgaben ähnlich sind. Das berichten Psychologen in einer aktuell in der Fachzeitschrift „Journal of Cognitive Enhancement“ veröffentlichten Studie. Die Forscher untersuchten Aufgaben eines kommerziellen Gehirnjogging-Programms zum Training des Arbeitsgedächtnisses. Im Unterschied zu einer aktiven Kontrollgruppe verbesserte die Trainingsgruppe nicht nur ihre Leistung in den Trainingsaufgaben, sondern sogar in untrainierten Transferaufgaben.

Ein Lied, ein Gesicht oder einen Namen zu vergessen ist für viele Menschen ein alltägliches, manchmal ärgerliches oder sogar peinliches Erlebnis. Viele wünschen sich, ihr Gedächtnis „fit“ halten zu können. In der Tat gibt es eine Reihe kommerzieller Anbieter sogenannter Gehirnjoggings. Das sind computergesteuerte Trainings, die zu Hause oder unterwegs verwendet werden können. Ansatzpunkt dieser Trainings ist das Arbeitsgedächtnis. Damit wird der Teil des menschlichen Gedächtnisses bezeichnet, in dem alle auf den Menschen eintreffenden Informationen kurzfristig gespeichert und mit dem Langzeitgedächtnis verknüpft werden. Es legt den Grundstein für viele weitere kognitive Fähigkeiten, wie zum Beispiel logisches Schlussfolgern, Entscheiden, aber auch für das Leseverständnis. Aus vielen Untersuchungen weiß man heute, dass die Aufnahmefähigkeit des Arbeitsgedächtnisses begrenzt ist. Gehirnjoggings versprechen durch die Wiederholung bestimmter Gedächtnisaufgaben nicht nur eine Verbesserung des Arbeitsgedächtnisses, sondern auch der Aufmerksamkeit und des Lernvermögens. Was aber bringen Gehirnjoggings mit Arbeitsgedächtnistraining wirklich?

Test von Gehirnjogging unter Alltagsbedingungen
„Bislang gibt es nur wenige Versuche, die Effektivität dieser Trainings unter Alltagbedingungen systematisch zu überprüfen“, sagt Tilo Strobach, Professor für Allgemeine Psychologie an der Medical School Hamburg. Mit seinem Kollegen Lynn Huestegge von der Julius-Maximilians-Universität Würzburg hat Strobach daher untersucht, inwieweit das Üben von Gehirnjogging-Aufgaben die Leistungen in Gedächtnistests verbessert. „Das Besondere an unserer Studie ist, dass wir das Gehirntraining in dem Kontext überprüft haben, in dem Menschen typischerweise kommerzielle Gehirntrainings auch verwenden – zuhause am eigenen Computer.“

Für ihre Studie ließen die Forscher ihre Versuchspersonen Aufgaben eines kommerziellen Gehirnjogging-Programms bearbeiten. Die komplette Versuchsreihe wurde von 152 Probandinnen und Probanden beendet. Eine Trainingsgruppe (76 Personen) erhielt über 21 Sitzungen hinweg Trainingsaufgaben für das Arbeitsgedächtnis. Die Kontrollgruppe (76 Personen) bearbeitete im gleichen Zeitraum Aufgaben für das Wortwissen und das Langzeitgedächtnis ‒ Aufgaben, von deren Bearbeitung das Arbeitsgedächtnis also nicht profitieren sollte. Um die Wirksamkeit des Trainings überprüfen zu können, bearbeiteten beide Gruppen vor und nach diesen Maßnahmen die gleichen Leistungstests. Diese bestanden zum einen aus Transferaufgaben, die dem Arbeitsgedächtnistraining ähnlich waren, und zum anderen aus Aufgaben, die untrainierte Fähigkeiten testeten, etwa zur mentalen Flexibilität ‒ der Fähigkeit, zwischen verschiedenen Aufgaben zu wechseln.

Trainingsgruppe zeigt stärkeren Leistungszuwachs
Die Leistungsvergleiche zeigen, dass die Trainingsgruppe ihre Leistung in den Trainingsaufgaben im Gegensatz zur Kontrollgruppe verbesserte. Auch bei der Bearbeitung ähnlicher Transferaufgaben schnitt die Trainingsgruppe nachher besser ab. Diese Leistungsvorteile zeigten sich – allerdings nur vereinzelt – auch in anderen kognitiven Bereichen, wie zum Beispiel bei Aufgaben zur kognitiven Flexibilität. Außerdem berichtete die Trainingsgruppe hinterher über weniger kognitive Missgeschicke (wie zum Beispiel Textstellen erneut lesen zu müssen, weil man beim ersten Durchlesen nicht über das Gelesene nachgedacht hat). „Da die Personen der Trainings- und der Kontrollgruppe zufällig zugewiesen wurden und wir darüber hinaus sichergestellt haben, dass die Leistungen der Trainings- und Kontrollgruppe im Test vor den Maßnahmen vergleichbar waren, können wir schlussfolgern, dass die Leistungsunterschiede zwischen den Gruppen tatsächlich auf das Training zurückzuführen sind“, erklärt Tilo Strobach.

Auf individueller Ebene konnten vor allem die Personen vom Training profitieren, die vor dem Training bereits relativ hohe Leistungen zeigten. Tilo Strobach fasst zusammen: „Für die untersuchten Bereiche des Arbeitsgedächtnisses und die gewählten Aufgaben konnten wir mit unserer Studie systematisch zeigen, dass sich das Trainieren von kognitiven Aufgaben positiv auf die Leistung in ähnlichen, aber auch einigen unähnlichen Aufgaben auswirkt.“

Die Originalstudie findet sich hier:
Strobach, T., & Huestegge, L. (2017). Evaluating the effectiveness of commercial brain game training with working-memory tasks. Journal of Cognitive Enhancement [Online Ressource; Open Access]. DOI: 10.1007/s41465-017-0053-0

Kontakt bei Rückfragen:
Prof. Dr. Tilo Strobach
MSH Medical School Hamburg
Am Kaiserkai 1
20457 Hamburg
Tel.: 040-361 226 49357
E-Mail: tilo.strobach@medicalschool-hamburg.de

DGPs-Pressestelle:
Dr. Anne Klostermann
Pressereferentin
Tel.: 030 28047718
E-Mail: pressestelle@dgps.de

Über die DGPs:
Die Deutsche Gesellschaft für Psychologie (DGPs e.V.) ist eine Vereinigung der in Forschung und Lehre tätigen Psychologinnen und Psychologen. Die über 4400 Mitglieder erforschen das Erleben und Verhalten des Menschen. Sie publizieren, lehren und beziehen Stellung in der Welt der Universitäten, in der Forschung, der Politik und im Alltag.
Die Pressestelle der DGPs informiert die Öffentlichkeit über Beiträge der Psychologie zu gesellschaftlich relevanten Themen. Darüber hinaus stellt die DGPs Journalisten eine Datenbank von Experten für unterschiedliche Fachgebiete zur Verfügung, die Auskunft zu spezifischen Fragestellungen geben können.
Wollen Sie mehr über uns erfahren? Besuchen Sie die DGPs im Internet: www.dgps.de

Quelle: idw

(nach oben)


Die Sauerstoffarmut im Ozean nimmt zu- Science-Studie zeigt Gefahren, aber auch Lösungsansätze auf

Dr. Andreas Villwock Kommunikation und Medien
GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel

Die Gebiete mit extremer Sauerstoffarmut wachsen sowohl im offenen Ozean als auch in Küstenregionen. Zu diesem Ergebnis kommt ein internationales Wissenschaftsteam unter Beteiligung des GEOMAR Helmholtz-Zentrums für Ozeanforschung Kiel und des Kieler Sonderforschungsbereich 754. In der bisher umfangreichsten Studie zu diesem Thema, die heute in der Fachzeitschrift Science erscheint, zeigen die Autorinnen und Autoren auch mögliche Folgen dieser Entwicklung sowie Lösungsansätze auf.

Vor rund einem Jahr veröffentlichten Kieler Ozeanographen eine Studie, die belegte, dass der Ozean in den vergangenen 50 Jahren global zwei Prozent Sauerstoff verloren hat. Jetzt hat sich ein internationales Team aus Wissenschaftlerinnen und Wissenschaftlern erneut die weltweite Sauerstoffentwicklung in den Weltmeeren angesehen. Die neue Übersichtsstudie, die heute in der internationalen Fachzeitschrift Science erscheint, beschäftigt sich erstmals mit Ursachen und Folgen, aber auch mit möglichen Lösungen für Sauerstoffmangel weltweit sowohl im offenen Meer als auch in Küstengewässern.

„Unsere Daten zeigen, dass im vergangenen halben Jahrhundert die Wassermenge im offenen Ozean, in der jeglicher Sauerstoff fehlt, um mehr als das Vierfache gewachsen ist“, sagt Prof. Dr. Andreas Oschlies vom GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel, einer der Autoren der neuen Studie. In Küstengewässern, einschließlich Flussmündungen und Randmeeren, haben sich Standorte mit niedrigem Sauerstoffgehalt seit 1950 sogar mehr als verzehnfacht. „Wir erwarten außerdem, dass die Sauerstoffkonzentrationen auch außerhalb dieser Gebiete weiter absinken werden, wenn sich die Erde weiter erwärmt“, erklärt Professor Oschlies.

„Sauerstoff ist grundlegend für das Leben in den Ozeanen“, betont Denise Breitburg, Erstautorin und Meeresökologin beim Smithsonian Environmental Research Center in Washington (USA). „Der Rückgang des Sauerstoffs im Ozean zählt daher zu den gravierendsten Auswirkungen menschlicher Aktivitäten auf die Umwelt der Erde.“

Die Studie ist ein Ergebnis der internationalen Zusammenarbeit im Global Ocean Oxygen Network (GO2NE). Dabei handelt es sich um eine Arbeitsgruppe, die 2016 von der Zwischenstaatlichen Ozeanographischen Kommission der Vereinten Nationen (IOC) ins Leben gerufen wurde. Für ihre Studie haben die beteiligten Autorinnen und Autoren etwa eine Viertelmillion Datensätze und auch am GEOMAR durchgeführte Klimamodellrechnungen zu Sauerstoffkonzentrationen in Meeren ausgewertet.

Für den subtropischen und tropischen Atlantik und die entsprechenden Breitengrade im Pazifik stammen viele Daten von Expeditionen und Beobachtungsmissionen des Kieler Sonderforschungsbereichs 754 „Klima und Biogeochemische Wechselwirkungen im tropischen Ozean“. Seit fast zehn Jahren untersucht dieses Kieler Netzwerk intensiv die natürlich vorkommenden Sauerstoffminimumzonen an den Osträndern der beiden großen Ozeane. „Wir konnten auch dort eine Ausdehnung und Intensivierung der Sauerstoffarmut und damit eine Einschränkung des Lebensraums für Fische, Krebse und Muscheln erkennen“, berichtet Oschlies, der Sprecher des SFB 754 ist. Und die am GEOMAR betriebenen Klimamodelle sagen eine sich beschleunigende Ausbreitung der sauerstoffarmen Zonen bei einer weiteren Klimaerwärmung voraus.

Als Ursachen für die zunehmende Sauerstoffarmut nennen die Wissenschaftlerinnen und Wissenschaftler die globale Erwärmung. Wärmeres Oberflächenwasser enthält weniger Sauerstoff. Es führt außerdem dazu, dass die Schichtung des Ozeans stabiler wird, wodurch sich Vermischung und Zirkulation abschwächen und es schwieriger wird, das Innere des Ozeans zu belüften. Ein weiterer Faktor ist vor allem in Küstennähe die Überdüngung der Meere. Sie führt zu Algenblüten, die nach dem Absterben der Algen viel Sauerstoff verbrauchen.

Die zunehmende Sauerstoffarmut des Ozeans hat natürlich auch Auswirkungen auf die Lebensgrundlage der Menschen, vor allem in Entwicklungsländern. Kleinere handwerkliche Fischereien können möglicherweise nicht umziehen, wenn wenig Sauerstoff ihre Fanggründe zerstört oder Fische zwingt, sich andere Lebensräume zu suchen. Auch Korallenriffe, eine wichtige Tourismusattraktion in vielen Ländern, könnten ohne genügend Sauerstoff absterben.

Um die weitere Ausweitung der Sauerstoffarmut zu begrenzen und ihre Folgen zu mindern, schlagen die beteiligten Forscherinnen und Forscher drei Maßnahmen vor. „Ganz wichtig ist natürlich, die Ursachen zu bekämpfen, also die Nährstoffbelastung und den Klimawandel“, hebt Professor Oschlies hervor. Gleichzeitig könnte ein Schutz gefährdeter Regionen oder Arten den Druck auf die Ökosysteme reduzieren. Um diese Maßnahmen erfolgreich durchführen zu können, sei auch eine verbesserte Überwachung des ozeanischen Sauerstoffgehalts notwendig, so das Autorenteam. „Leider haben wir noch zu wenig Beobachtungen aus den Ökosystemen im offenen Ozean. Für einen effektiven Schutz müsste man das ändern“, betont Andreas Oschlies.

Originalarbeit
Breitburg, D. L. A. Levin, A. Oschlies, M. Grégoire, F. P. Chavez, D. J. Conley, V. Garçon, D. Gilbert, D Gutiérrez, K. Isensee, G. S. Jacinto, K. E. Limburg, I. Montes, S.W.A. Naqvi, G. C. Pitcher, N. N. Rabalais, M. R. Roman, K. A. Rose, B. A. Seibel, M. Telszewski, M. Yasuhara, J. Zhang (2018): Declining oxygen in the global ocean and coastal waters. Science, doi: 10.1126/science.aam7240

Hinweis:
Der Sonderforschungsbereich 754 (SFB 754) „Klima und Biogeochemische Wechselwirkungen im tropischen Ozean“ wurde im Januar 2008 als Kooperation der Christian-Albrechts-Universität zu Kiel (CAU), des GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel und des Max-Planck-Instituts Bremen eingerichtet. Der SFB 754 erforscht die Änderungen des ozeanischen Sauerstoffgehalts, deren mögliche Auswirkung auf die Sauerstoffminimumzonen und die Folgen auf das globale Wechselspiel von Klima und Biogeochemie des tropischen Ozeans. Der SFB 754 wird von der Deutschen Forschungsgemeinschaft (DFG) gefördert und befindet sich in seiner dritten Phase (2016-2019).

Kontakt:
Jan Steffen (GEOMAR, Kommunikation & Medien), Tel.: 0431 600-2811, presse@geomar.de

Weitere Informationen:
http://www.ocean-oxygen.org Ocean Oxygen – eine Initiative des SFB 754 und des GO2NE-Netzwerkes

Quelle: idw

(nach oben)


BAuA-Bericht: Fachkräfte für Arbeitssicherheit benötigen viele Kompetenzen

Jörg Feldmann Pressestelle
Bundesanstalt für Arbeitsschutz und Arbeitsmedizin

In einem Forschungsprojekt hat die Bundesanstalt für Arbeitsschutz und Arbeitsmedizin (BAuA) untersucht, ob sowohl gegenwärtig als auch künftig ausreichend Fachkräfte für Arbeitssicherheit zur Verfügung stehen. Zudem ging das Projekt der Frage nach, inwieweit die Fachkräfte über die erforderlichen Kompetenzen verfügen, um ihre Aufgabe zu erfüllen. Der Bericht „Bedarf an Fachkräften für Arbeitssicherheit in Deutschland“ fasst die Ergebnisse zusammen. Dabei zeigt sich, dass die Fachkräfte den zeitlichen Betreuungsbedarf mit hoher Wahrscheinlichkeit decken. Zugleich wird deutlich, dass Fachkräfte für Arbeitssicherheit über ein zunehmendes Maß an Kompetenzen verfügen müssen.

Die Betreuung von Betrieben durch Fachkräfte für Arbeitssicherheit regeln das Arbeitssicherheitsgesetz und die DGUV Vorschrift 2. Auf Grundlage der nach der DGUV Vorschrift 2 möglichen Formen der sicherheitstechnischen und betriebsärztlichen Betreuung hat die BAuA verschiedene Bedarfsszenarien angenommen. Im Rahmen einer Soll-Ist-Bilanzierung wurde anhand dieser Modelle der minimale sowie der maximale Betreuungsbedarf ermittelt. Dabei zeigt sich, dass die Fachkräfte für Arbeitssicherheit gegenwärtig aber auch in Zukunft den zeitlichen Betreuungsbedarf in den Betrieben mit hoher Wahrscheinlichkeit decken werden.

Fachkräfte für Arbeitssicherheit haben ein umfangreiches und anspruchsvolles Aufgaben- und Tätigkeitspektrum. Um dieses umzusetzen, benötigen sie neben fachlichen Kompetenzen eine Vielzahl weiterer Fähigkeiten. Um zu ermitteln, über welche Kompetenzen die Fachkräfte für Arbeitssicherheit verfügen, untersuchte die BAuA, welcher Kompetenzerwerb aus der Ausgangsqualifikation, der Ausbildung zum Erwerb der sicherheitstechnischen Fachkunde sowie der Fortbildung und aber auch über informelles Lernen und Erfahrung möglich ist. Neben einer intensiven Literaturstudie führte sie dazu ergänzende Experteninterviews, Datenabfragen und eine Onlinebefragung durch.

Bisher legt die Ausbildung der Fachkräfte für Arbeitssicherheit einen Schwerpunkt vor allem auf die fachlichen Kompetenzen. Im Zuge des Wandels der Arbeit nehmen immer mehr Faktoren Einfluss auf die Arbeit der Beschäftigten und auch der Betreuungsbedarf wird vielfältiger werden und sich dynamisch weiterentwickeln. Anforderungen an Lernbereitschaft sowie Kooperations- und Beratungskompetenzen im Zusammenwirken mit verschiedenen Professionen und Akteuren im Betrieb werden für die Fachkräfte für Arbeitssicherheit weiter wachsen. Kontinuierliche, systematische Kompetenzentwicklung und Fortbildung werden zwingend erforderlich.

„Bedarf an Fachkräften für Arbeitssicherheit in Deutschland“; Dortmund; Bundesanstalt für Arbeitsschutz und Arbeitsmedizin 2017; doi:10.21934/baua:bericht20170921; 286 Seiten. Den baua: Bericht gibt es im Internet unter http://www.baua.de/publikationen.

Eine Kurzfassung ist als baua: Bericht kompakt erschienen und steht ebenfalls im Internet zur Verfügung.

Forschung für Arbeit und Gesundheit
Sichere und gesunde Arbeitsbedingungen stehen für sozialen Fortschritt und eine wettbewerbsfähige Wirtschaft. Die Bundesanstalt für Arbeitsschutz und Arbeitsmedizin (BAuA) forscht und entwickelt im Themenfeld Sicherheit und Gesundheit bei der Arbeit, fördert den Wissenstransfer in die Praxis, berät die Politik und erfüllt hoheitliche Aufgaben – im Gefahrstoffrecht, bei der Produktsicherheit und mit dem Gesundheitsdatenarchiv. Die BAuA ist eine Ressortforschungseinrichtung im Geschäftsbereich des Bundesministeriums für Arbeit und Soziales. Über 700 Beschäftigte arbeiten an den Standorten in Dortmund, Berlin und Dresden sowie in der Außenstelle Chemnitz.
http://www.baua.de

Weitere Informationen:
http://www.baua.de/dok/8730194
Direkter Link zum Bericht „Bedarf an Fachkräften für Arbeitssicherheit in Deutschland“ im Internetangebot der BAuA.

Quelle: idw

(nach oben)


Ursache für kohlartigen Atemgeruch aufgedeckt

Eva Tritschler Presse- und Öffentlichkeitsarbeit
Hochschule Bonn-Rhein-Sieg

Rund 20 Jahre dauerte der lange Weg bis zur Entdeckung einer neuen Krankheit und eines neuen menschlichen Proteins. Jörn Oliver Sass, heute Professor für Bioanalytik und Biochemie an der Hochschule Bonn-Rhein-Sieg, forscht seit 2003 mit 20 Kollegen aus 15 wissenschaftlichen Einrichtungen an dem Fall. Damals kam eine türkische Familie zu Prof. Dr. Karl Otfried Schwab, dem ärztlichen Leiter der Stoffwechselambulanz der Universitätsklinik für Kinder- und Jugendmedizin Freiburg (ZKJ) mit dem Problem, dass zwei ihrer Kinder einen unangenehmen kohlartigen Körpergeruch aufwiesen.

In dieser Familie wurden zunächst bekannte Stoffwechseldefekte ausgeschlossen, die für diesen Körpergeruch hätten verantwortlich sein können. Dr. Willy Lehnert als Leiter des ZKJ-Stoffwechsellabors entdeckte in der Analyse der organischen Säuren des Urins dieser Kinder Dimethylsulfon. Und Prof. Dr. Ron Wevers von der Universitätsklinik Nijmegen (NL) führte ergänzende Untersuchungen der Körperflüssigkeit mittels NMR-Spektroskopie durch.

Ab 2003 übersandten Jörn Oliver Sass als Nachfolger von Willy Lehnert und Karl Otfried Schwab Ausatemluft, Urin- und Blutproben zu Albert Tangerman und Ron Wevers in Nijmegen. Diese machten Methanthiol und Dimethylsulfid für den fauligen Kohlgeruch verantwortlich. Offensichtlich können diese Stoffwechselprodukte bei betroffenen Patienten nicht normal abgebaut werden und stauen sich im Körper an. Gelangen diese Schwefel-Komponenten in die Lunge oder Niere, werden sie über die Atemluft oder den Harn ausgeschieden. Die Ursache dieses Abbaudefekts war damals unbekannt, so dass die Aufklärung dieses Krankheitsbildes nicht voranschritt.

Daher wurden über den ZKJ-Neuropädiater Prof. Dr. Heymut Omran (heute am Universitätsklinikum Münster) in dieser großen türkischen Familie sogenannte Linkage-Untersuchungen veranlasst. Dadurch konnten die Wissenschaftler den chromosomalen Abschnitt eingrenzen, auf dem die vermutlich homozygoten Mutationen zu erwarten waren. Allerdings ließen sich dort keine bekannten menschlichen Proteine identifizieren, die eine Hemmung des Abbaus von Methanthiol hätten erklären können. Im Zusammenhang mit weiteren Laboruntersuchungen durchforstete Jörn Oliver Sass damals auch die Literatur zu bakteriellen Stoffwechselwegen, allerdings war zu jener Zeit die molekulare Grundlage dieses Kohlgeruches noch nicht einmal in Bakterien identifiziert worden. Wieder stockte die Aufklärung der Krankheit für Jahre.

Einige Zeit später setzte sich Ron Wevers mit Prof. Dr. Huub Op den Camp aus Nijmegen, einem Mikrobiologen und Spezialisten für die Schwefelkonversion in Bakterien, in Verbindung. Dieser hatte kurz zuvor ein Protein in dem Bakterium Hyphomicrobium beschrieben, das Methanthiol metabolisieren kann, eine Methanthiol-Oxidase. Die Forscher schauten dann nach, ob die Genabschnitte, die für das Protein in Bakterien kodieren, auch beim Menschen vorhanden waren. Das bakterielle Gen korrespondierte am engsten mit SELENBP1, einem menschlichen Selen-bindenden Protein. Aber die Funktion dieses Proteins beim Menschen war immer noch unbekannt, in der Literatur war beschrieben, dass dieses Protein eine Rolle bei der Tumorsuppression hat. Die Hypothese war aber naheliegend, dass ein Fehlen dieses Proteins den fauligen Körpergeruch bei betroffenen Patienten erklären könnte.

In zwei Familien aus den Niederlanden und Portugal wurde nicht nur ein vergleichbarer Geruch identifiziert, sondern konnten ebenfalls homozygote oder compound-heterozygote Mutationen in den Genabschnitten festgestellt werden, die für das menschliche Protein SELENBP1 kodieren und zu verminderter Methanthiol-Oxidase-Aktivität führen. Darüber hinaus ließen sich signifikant verminderte Mengen dieses Proteins in Hautzellen betroffener Patienten sowie in Mäusen nachgeweisen, bei denen man das Selenbp1-Gen ausgeschaltet hatte. Alle diese Ergebnisse führten zu der Erkenntnis, dass SELENBP1 in der Tat eine Methanthiol-Oxidase ist und das Krankheitsbild der extraoralen Halitosis (Atemgeruch, der nicht im Mund entsteht) verursachen kann. Diese Mutation ist wahrscheinlich häufiger anzutreffen, die Heterozygotenfrequenz beträgt 1:90.000. Allerdings ist die Symptomatik der Krankheit offensichtlich sehr variabel, viele der betroffenen Patienten werden ihren Geruch möglicherweise gar nicht bemerken. Prinzipiell ist die Krankheit nicht heilbar, aber unter Umständen durch diätetische Maßnahmen beeinflussbar.

Somit ist es nach 20 Jahren mit einigen Umwegen doch gelungen, den kausalen Hintergrund des Krankheitsbilds der türkischen Familie aufzudecken. Die Ergebnisse wurden online am 18. Dezember 2017 in der Zeitschrift Nature Genetics veröffentlicht (doi:10.1038/s41588-017-0006-7).

Volltext des Papers: http://rdcu.be/CoxF

Kontakt.
Prof. Dr. Jörn Oliver Sass
Fachbereich Angewandte Naturwissenschaften
Tel. 02241/865-9668
E-Mail: joern.oliver.sass@h-brs.de

Quelle: idw

(nach oben)


Würmer machen beliebt

Johannes Seiler Dezernat 8 – Hochschulkommunikation
Rheinische Friedrich-Wilhelms-Universität Bonn

Stichlinge mit Würmern sind bei ihren Artgenossen beliebter. Das zeigt eine Studie an der Universität Bonn. Fische, die mit den Larven eines parasitären Wurms infiziert waren, wurden demnach häufiger als Schwarm-Partner gewählt als gesunde Tiere. Die Biologen haben auch eine Hypothese, die ihren unerwarteten Befund erklären könnte. Die Arbeit ist nun im Biological Journal of the Linnean Society erschienen.

Bei Tieren ist es wie bei Menschen – Gesunde gehen Kranken eher aus dem Weg. In der Stichlings-Studie war aber das genaue Gegenteil der Fall. „Dieser Befund hat uns selbst überrascht“, erklärt Anna Rahn, die die Experimente am Institut für Evolutionsbiologie und Zooökologie der Universität Bonn geleitet hat.

Rahn hatte Stichlinge mit dem Parasiten Diplostomum infiziert, einem Wurm, der die Augenlinse von Fischen befällt. Dann hatte sie gesunde Tiere zwischen zwei Schwärmen wählen lassen – einem aus gesunden Fischen und einem, in dem die Hälfte der Tiere befallen war. Die Testfische entschieden sich signifikant häufiger für den kranken Schwarm.

Allerdings bestand für die Fische keine Ansteckungsgefahr: Diplostomum kann nicht direkt von einem kranken auf ein gesundes Tier übergehen. Dennoch ist dieses Ergebnis bemerkenswert.

Kranke Fische bedeutet schwächere Konkurrenz
Wenn sich Fische zu einem Schwarm zusammen finden, profitiert jeder von ihnen davon in mehrfacher Hinsicht: Da er nun nur einer unter vielen ist, sinkt sein individuelles Risiko, gefressen zu werden. Nach dem Motto „viele Augen sehen mehr als zwei“ wird er zudem früher vor drohenden Gefahren gewarnt. Aus demselben Grund bieten Schwärme Vorteile bei der Nahrungssuche – eine lohnende Mahlzeit entgeht ihnen nicht so leicht.

Zu diesen Vorteilen gesellen sich jedoch auch Nachteile: Um jede knappe Ressource, ob um Nahrung oder um Geschlechtspartner, buhlen zahlreiche Konkurrenten. Das ist möglicherweise auch der Grund, warum wurmbefallene Stichlinge bei ihren Artgenossen so beliebt sind: „Parasitenbefall geht meist zu Lasten der körperlichen Leistungsfähigkeit“, betont Rahn. „Infizierte Fische können sich daher eventuell im Kampf um Ressourcen seltener durchsetzen. Entsprechend mehr bliebe dann für die gesunden Schwarm-Partner.“

Ob diese Hypothese zutrifft, lässt sich anhand der Experimente allerdings nicht belegen. Testtiere mit Würmern zeigten darin zum Beispiel keine Gewichtseinbußen, obwohl sie etwa bei der Nahrungssuche aufgrund des getrübten Augenlichts eigentlich schlechtere Karten hatten.

Dass sich die Sehschwäche nicht spürbar auswirkte, kann aber auch an dem Nahrungsangebot gelegen haben: Die Biologen fütterten ihre Tiere mit roten Mückenlarven. Und die sind selbst für Fische mit schlechten Augen gut zu erkennen.

Publikation:
Anna Rahn, Simon Vitt, Lisa Drolshagen, Jörn Scharsack, Ingolf Rick und Theo Bakker: Parasitic infection of the eye lens affects shoaling preferences in three-spined stickleback; Biological Journal of the Linnean Society; DOI: 10.1093/biolinnean/blx155

E-Mail: arahn@evolution.uni-bonn.de

Quelle: idw

(nach oben)


BfR bewertet Tageshöchstmenge für Magnesium in Nahrungsergänzungsmitteln

Dr. Suzan Fiack Presse- und Öffentlichkeitsarbeit
Bundesinstitut für Risikobewertung (BfR)

Eine erhöhte Aufnahme von Magnesium über Nahrungsergänzungsmittel kann leichte Durchfälle verursachen
Die Tageshöchstmenge für Magnesium in Nahrungsergänzungsmitteln sollte 250 Milligramm (mg) nicht überschreiten. Dies empfiehlt das Bundesinstitut für Risikobewertung (BfR) unter Berücksichtigung neuer Daten. „Nahrungsergänzungsmittel liegen im Trend, viele Menschen glauben, dass sie damit gesundheitliche Vorteile erzielen“, sagt BfR-Präsident Prof. Dr. Dr. Andreas Hensel. „Aber auch die Einnahme von Nahrungsergänzungsmitteln kann zu gesundheitlichen Risiken führen. Die beste Ernährungsstrategie ist grundsätzlich eine ausgewogene und abwechslungsreiche Ernährung mit viel Obst und Gemüse. Sie versorgt den gesunden Körper mit allen lebensnotwendigen Stoffen. In den meisten Fällen sind Nahrungsergänzungsmittel deshalb überflüssig.“ Die erhöhte Zufuhr von Magnesium, z. B. über Nahrungsergänzungsmittel, zusätzlich zur Magnesiumaufnahme über die normale Ernährung kann zu Durchfällen führen.

Die genannten Beschwerden durch zu hohe Magnesium-Zufuhren sind innerhalb von ein bis zwei Tagen vollkommen reversibel und stellen für gesunde Personen mit normaler Nierenfunktion kein signifikantes Gesundheitsrisiko dar. Dennoch sind sie als unerwünschte gesundheitliche Wirkungen zu werten. Bei Zufuhren von bis zu 250 mg Magnesium pro Tag, zusätzlich zur Magnesiumaufnahme über die normale Ernährung, wurden solche Durchfälle nicht beobachtet.

Die Tageshöchstmenge gilt für Personen ab vier Jahren. Für Kleinkinder unter vier Jahren kann aufgrund fehlender Daten keine Tageshöchstmenge abgeleitet werden. Das BfR empfiehlt, die Tageshöchstmenge auf mindestens zwei Einnahmen pro Tag zu verteilen, weil in den meisten Studien, die der Höchstmengenableitung dienten, die Magnesiumzufuhr über zwei oder mehr Portionen pro Tag erfolgte und dies vermutlich die Verträglichkeit erhöht. Im Zusammenhang mit der Aufnahme von Magnesium über die normale Ernährung sind bei gesunden Verbraucherinnen und Verbrauchern bisher keine nachteiligen Effekte beobachtet worden.

Mit seiner Neubewertung lehnt sich das BfR weiterhin an der bisher von dem Wissenschaftlichen Lebensmittelausschuss der Europäischen Union (Scientific Committee on Food, SCF), einem Vorläufergremium der Europäischen Lebensmittelbehörde (European Food Safety Authority, EFSA), abgeleiteten Tageshöchstmenge für zusätzliche Magnesiumzufuhren an. Das SCF leitete im Jahr 2001 einen Höchstwert von 250 mg Magnesium pro Tag für zusätzliche Magnesiumzufuhren über Nahrungsergänzungsmittel oder angereicherte Lebensmittel ab. Die aktuelle Bewertung des BfR bezieht auch die Ergebnisse neuerer Humanstudien ein.

Magnesium ist ein lebensnotwendiger Mineralstoff und ein häufiges Element der Erdkruste sowie des menschlichen Körpers. Es spielt in vielen Stoffwechselprozessen wie auch der Bildung von Nukleinsäuren, der Bildung von Knochen, der Membranphysiologie, der neuromuskulären Reizübertragung und der Muskelkontraktion eine wichtige Rolle.

Über das BfR
Das Bundesinstitut für Risikobewertung (BfR) ist eine wissenschaftlich unabhängige Einrichtung im Geschäftsbereich des Bundesministeriums für Ernährung und Landwirtschaft (BMEL). Es berät die Bundesregierung und die Bundesländer zu Fragen der Lebensmittel-, Chemikalien- und Produktsicherheit. Das BfR betreibt eigene Forschung zu Themen, die in engem Zusammenhang mit seinen Bewertungsaufgaben stehen.

In diesem Jahr feiert das BfR sein 15-jähriges Bestehen. Aus diesem Anlass hat das BfR eine Jubiläumsbroschüre herausgegeben, die unter http://www.bfr.bund.de/de/publikation/broschueren-660.html kostenlos heruntergeladen oder bestellt werden kann.

Weitere Informationen:
http://www.bfr.bund.de/cm/343/bfr-bewertet-empfohlene-tageshoechstmenge-fuer-die… BfR-Stellungnahme
http://www.bfr.bund.de/de/mediathek.html Video zum Thema Nahrungsergänzung durch Magnesium in der Mediathek des BfR

Quelle: idw

(nach oben)


„Plastikpiraten“ finden viel Müll an deutschen Flüssen

Christine Rutke Redaktionsbüro Wissenschaftsjahr 2016*17 – Meere und Ozeane
Wissenschaftsjahr 2016*17 – Meere und Ozeane

Im Wissenschaftsjahr 2016*17 – Meere und Ozeane untersuchten Jugendliche die Kunststoffbelastung deutscher Flüsse und Bäche. Das traurige Ergebnis der Citizen-Science-Aktion „Plastikpiraten“: Es wurde mehr Müll gefunden als erwartet, darunter vor allem Plastikverpackungen und Zigarettenstummel.

Die Plastikmüllverschmutzung der Weltmeere stand 2017 immer wieder im öffentlichen Fokus – und war auch Schwerpunkt im Wissenschaftsjahr Meere und Ozeane. Mit der bundesweiten Citizen-Science-Aktion „Plastikpiraten – Das Meer beginnt hier!“ des Bundesministeriums für Bildung und Forschung haben Jugendliche die Müllbelastung ihrer heimischen Bäche und Flüsse erforscht. In Deutschland gibt es dazu erst wenige Untersuchungen, obwohl der Großteil des Plastikmülls im Meer auf dem Wasserweg dorthin gelangt. Die Kieler Forschungswerkstatt hat die Daten der Jungforscherinnen und -forscher in Zusammenarbeit mit der chilenischen Universität Católica del Norte nun ausgewertet. Die traurige Bilanz ist, dass an fast allen untersuchten Gewässern Müll gefunden wurde: im Durchschnitt 0,66 Müllteile pro Quadratmeter Flussufer, umgerechnet entspräche dies 33 Müllteilen pro 50 Quadratmeter Klassenzimmer. Am häufigsten gefunden wurde „Partymüll“: Plastik und Zigarettenstummel.

Insgesamt 349 Schulklassen und Jugendgruppen gingen im Herbst 2016 und Frühjahr 2017 mit der Aktion „Plastikpiraten“ auf Forschungsexpedition. Die Jugendlichen zwischen 10 und 16 Jahren haben sich dabei aktiv mit der Müllproblematik auseinandergesetzt und gleichzeitig wichtige Daten für die Wissenschaft gesammelt.

Große Flüsse stärker verschmutzt
Die „Plastikpiraten“ haben Daten im gesamten Bundesgebiet erhoben. Die meisten beteiligten Gruppen kamen aus den bevölkerungsreichen Bundesländern Nordrhein-Westfalen (88 Gruppen), Bayern (50 Gruppen) und Baden-Württemberg (43 Gruppen). Aber auch in Mecklenburg-Vorpommern und dem Saarland gingen jeweils fünf Gruppen dem Plastikmüll auf die Spur.

Die Ergebnisse zeigen, dass die großen Flusssysteme am stärksten verschmutzt sind. Elbe und Rhein sowie ihre Zuflüsse liegen mit rund 0,80 und 0,75 Müllteilen pro Quadratmeter über dem bundesweiten Durchschnitt. In einem Ausnahmefall wurden an einem Nebenfluss des Rheins sogar bis zu 24,6 Müllteile pro Quadratmeter gefunden. Die Donau lag mit 0,63 Müllteilen pro Quadratmeter Uferfläche etwa im Bundesdurchschnitt. Das Flusssystem Weser und die Zuflüsse der Ostsee waren dagegen mit 0,34 Müllteilen pro Quadratmeter und 0,28 Müllteilen pro Quadratmeter deutlich sauberer.

Plastikverpackungen, Glasscherben und Fahrräder
Zu den häufigsten Fundstücken gehörten Plastikgegenstände wie Verpackungen und -Flaschen, sowie Zigarettenstummel. Auch gefährlicher Müll wie Glasscherben, verrottete Speisereste, benutzte Hygieneartikel und scharfes Metall wurden von fast allen Gruppen gefunden. Unter den teilweise skurrilen Funden waren aber auch alte Fahrräder, Fernseher und ein bemooster Gartenzwerg. Eine alte „Capri-Sonne“ konnte eine Jugendgruppe mithilfe des Haltbarkeitsdatums ungefähr datieren: Seit fast 20 Jahren war die Verpackung demzufolge schon unterwegs und damit älter als deren Finder.

Achtloses Liegenlassen ist Hauptursache des Mülls
Einzelne Müllteile und Müllansammlungen (mehr als drei Teile in unmittelbarer Nähe) führten die Jugendlichen in den meisten Fällen auf Flussbesucherinnen und -besucher zurück. Statt den Müll beispielsweise nach Partys oder Picknicks ordnungsgemäß zu entsorgen, wurde er wohl einfach liegengelassen. Aber auch Müllsäcke und anderer Haushaltsmüll wurden in einigen Fällen illegal am Flussufer entsorgt. Die Funde zeigen anschaulich, dass auch die Menschen im umweltbewussten Deutschland zur Plastikmüllverschmutzung der Meere beitragen, auch wenn sie weit im Binnenland wohnen.

Bei den teilnehmenden Jugendlichen hat der persönliche Einsatz bereits in vielen Fällen zum Umdenken im Alltag geführt. „Beim Einkaufen mit den Eltern achten viele nun sehr darauf, Plastik soweit es geht zu vermeiden,“ berichtet Ellen Flemisch, Lehrerin an der Integrativen Montessori Schule an der Balanstraße München. Einen nachhaltigen Effekt konnte auch Lehrerin Karin Loritz von der Erich-Kästner-Realschule Offenburg bei ihren Schülerinnen und Schülern beobachten: „Aus eigenem Antrieb haben sie ein ‚Green Team‘ gegründet. Sie verabreden sich privat und sammeln Plastikmüll ein.“

Weitere Informationen zu den „Plastikpiraten“, den Gesamtergebnissen und den Funden der einzelnen Gruppen gibt es unter: http://www.wissenschaftsjahr.de/2016-17/jugendaktion.

Die Meeresforschung ist Thema des Wissenschaftsjahres 2016*17. Zu 71 Prozent bedecken Ozeane und Meere unseren Planeten. Sie sind Klimamaschine, Nahrungsquelle, Wirtschaftsraum – und sie bieten für viele Pflanzen und Tiere Platz zum Leben. Wissenschaftlerinnen und Wissenschaftler untersuchen die Ozeane seit Jahrhunderten; und doch sind sie noch immer geheimnisvoll und in weiten Teilen unerforscht. Im Wissenschaftsjahr 2016*17 – Meere und Ozeane geht es um die Ergründung der Gewässer, ihren Schutz und eine nachhaltige Nutzung. Die Wissenschaftsjahre sind eine Initiative des Bundesministeriums für Bildung und Forschung (BMBF) gemeinsam mit Wissenschaft im Dialog (WiD). Sie tragen als zentrales Instrument der Wissenschaftskommunikation Forschung in die Öffentlichkeit. Das Wissenschaftsjahr 2016*17 wird vom Konsortium Deutsche Meeresforschung (KDM) als fachlichem Partner begleitet.

Pressekontakt
Redaktionsbüro Wissenschaftsjahr 2016*17 – Meere und Ozeane
Nina Petersen | Christine Rutke
Gustav-Meyer-Allee 25 | Gebäude 13/5 | 13355 Berlin
Tel.: +49 30 818777-164 | Fax: +49 30 818777-125
presse@wissenschaftsjahr.de
http://www.wissenschaftsjahr.de/2016-17

Quelle: idw

(nach oben)


Klimawandel: Selbstverstärkender Effekt nicht durch Bodentiere erklärbar

Tabea Turrini Presse- und Öffentlichkeitsarbeit
Deutsches Zentrum für integrative Biodiversitätsforschung (iDiv) Halle-Jena-Leipzig

Leipzig. Wenn sich Erdboden erwärmt, setzt er vermehrt Kohlendioxid (CO2) frei – ein Effekt, der den Klimawandel zusätzlich anheizt. Bisher hatte man angenommen, der Grund hierfür sei vor allem in kleinen Bodentieren und Mikroorganismen zu suchen, die bei wärmeren Temperaturen mehr fressen und atmen würden. Eine neue Studie in Nature Climate Change zeigt jedoch, dass dies nicht zutrifft. Im Gegenteil: Kommt zur Wärme auch noch Trockenheit hinzu, fressen die Bodentiere sogar weniger. Um die Vorhersagekraft von Klimamodellen zu verbessern, sei es nun dringend notwendig, die biologischen Vorgänge im Boden besser zu erforschen, so die Wissenschaftler.

Dass sich das Klima weltweit ändert, liegt vor allem daran, dass der Mensch fossile Brennstoffe nutzt. Dadurch gelangen große Mengen an Kohlendioxid (CO2) in die Erdatmosphäre. Zusätzlich verstärkt sich der Klimawandel aber auch selbst, denn durch die Erderwärmung ändert sich auch der natürliche Kohlenstoffkreislauf. Zwar wird auf der Erde ständig Kohlenstoff von festen Verbindungen in gasförmiges CO2 umgewandelt und umgekehrt – doch wärmere Temperaturen können dazu führen, dass dem Boden noch mehr Kohlenstoff in Form von CO2 entweicht und in die Erdatmosphäre gelangt: ein Rückkopplungs-Effekt.

Bisher waren Wissenschaftler davon ausgegangen, dieser Effekt liege vor allem an jenen kleinen Tieren und Mikroorganismen im Boden, die sich von abgestorbenem organischen Material ernähren, etwa von heruntergefallenen Blättern. Denn wenn sie ihre Nahrung „verbrennen“, wird CO2 frei („Atmung“). Bei wärmeren Temperaturen, so hatte man angenommen, würden zersetzende Insekten und Würmer mehr fressen. Schließlich handelt sich um wechselwarme Tiere, deren Körpertemperatur und Aktivität von der Umgebung abhängt. Auch Bakterien und einzellige Pilze seien bei wärmeren Temperaturen aktiver, so die bisherige Erklärung. Doch nun stellt eine neue Studie diese Annahme in Frage. Ein Forscherteam unter Federführung des Deutschen Zentrums für integrative Biodiversitätsforschung (iDiv) und der Universität Leipzig hat in einem Experiment die Erwärmung des Bodens im Wald simuliert und überraschend festgestellt: Auf die Fressaktivität der Bodentiere haben die wärmeren Temperaturen keinen Einfluss. Als die Forscher zusätzlich zur Erwärmung noch einen zweiten Effekt des Klimawandels simulierten, nämlich Trockenheit, waren die Ergebnisse sogar umgekehrt als erwartet: Die Bodentiere fraßen weniger, und auch bei den Mikroorganismen im Boden ging die Atmung (CO2-Produktion) zurück – ein Hinweis, dass sie ebenfalls weniger Nahrung aufnahmen.

Warum diese Resultate von großer Relevanz sind, erklärt Dr. Madhav P. Thakur, Erstautor der Studie: „Der Rückkopplungs-Effekt, dass Erwärmung die Freisetzung von weiterem CO2 aus dem Boden verstärkt, spielt eine wichtige Rolle in Vorhersage-Modellen zum Klima. Daher ist es wichtig zu verstehen, wie er zustande kommt. Unsere Ergebnisse weisen darauf hin, dass die Rückkopplung nicht an den Bodentieren liegt, im Gegenteil: Deren Rolle scheint genau umgekehrt zu sein wie erwartet, zumindest wenn Erwärmung und Trockenheit zusammenkommen.“ Der Seniorautor der Studie, Professor Nico Eisenhauer, sagt: „Am wahrscheinlichsten ist es, dass anstatt der Bodentiere und Mikroorganismen die Pflanzen für den Rückkopplungs-Effekt verantwortlich sind, denn auch sie atmen mit ihren Wurzeln. Um die Aussagekraft von Klimamodellen zu verbessern müssen wir die Abläufe im Boden nun dringend besser verstehen“. Immerhin würde ein Großteil des auf der Erde vorhandenen Kohlenstoffs im Boden stecken.

Die Studie wurde innerhalb eines Langzeit-Experiments zum Klimawandel in Minnesota in den USA durchgeführt. Im Projekt „B4WarmED“ (Boreal Forest Warming at an Ecotone in Danger) erwärmen Wissenschaftler in Wäldern verschiedene Parzellen künstlich um 3,4 °C. Zusätzlich reduzieren sie stellenweise Regen um 40 % indem sie bei Regenwetter Zelte aufstellen. Wie viel die zersetzenden Bodentiere bei den verschiedenen Versuchsanordnungen fraßen, haben die Wissenschaftler mit so genannten „Köder-Streifen“ (Englisch: bait lamina strips) gemessen: Kleine Stäbchen, die mit Löchern versehen waren, in welche die Forscher ein Substrat füllten, das der normalen Nahrung der Zersetzer ähnelt. Diese Stäbchen steckten sie tief in den Boden. Alle zwei Wochen kontrollierten sie, wie viel Substrat aufgefressen war. Insgesamt haben die Forscher über vier Jahre mehr als 40 Messungen durchgeführt. Es ist die erste Studie dieses Umfangs, die die Auswirkungen von Erwärmung und Trockenheit auf zersetzende Bodentiere untersucht. Zusätzlich überprüften die Forscher die Atmung der Boden-Mikroorganismen indem sie in kleinen Boden-Bereichen Pflanzenwurzeln mit einem Metallring ausschlossen und dann mit einem Gas-Analysegerät maßen, wie viel CO2 aus dem Boden entwich. Tabea Turrini

Originalpublikation:
Madhav P. Thakur, Peter B. Reich, Sarah E. Hobbie, Artur Stefanski, Roy Rich, Karen E. Rice, William C. Eddy, Nico Eisenhauer (2017): Reduced feeding activity of soil detritivores under warmer and drier conditions. Nature Climate Change. doi:10.1038/s41558-017-0032-6

Finanzierung:
Deutsche Forschungsgemeinschaft im Rahmen einer Emmy-Noether-Forschungsgruppe (Ei 862/2), Europäischer Forschungsrat im Rahmen des Forschungs- und Innovationsprogramms Horizon der Europäischen Union (grant agreement number 677232), Deutsches Zentrum für integrative Biodiversitätsforschung Halle-Jena-Leipzig gefördert durch die Deutsche Forschungsgemeinschaft DFG (FZT 118), das B4WarmED Projekt wird gefördert durch das US Department of Energy (Grant number DE-FG02-07ER64456) und das College of Food, Agricultural and Natural Resource Sciences an der University of Minnesota.

Ansprechpartner:
Dr. Madhav P. Thakur (spricht nur Englisch)
Postdoktorand in der Abteilung Experimentelle Interaktionsökologie, Deutsches Zentrum für integrative Biodiversitätsforschung (iDiv),
Universität Leipzig
Tel.: Mobilnummer bitte bei iDiv Medien und Kommunikation erfragen.
E-Mail: madhav.thakur@idiv.de
Web: https://www.idiv.de/de/gruppen_und_personen/mitarbeiterinnen/mitarbeiterdetails/…

Prof. Nico Eisenhauer
Leiter der Abteilung Experimentelle Interaktionsökologie, Deutsches Zentrum für integrative Biodiversitätsforschung (iDiv),
Universität Leipzig
Tel.: +49 341 9733167
E-Mail: nico.eisenhauer@idiv.de
Web: https://www.idiv.de/de/gruppen_und_personen/mitarbeiterinnen/mitarbeiterdetails/…

Dr. Volker Hahn
Medien und Kommunikation
Deutsches Zentrum für integrative Biodiversitätsforschung (iDiv)
Tel.: +49 341 9733154
E-Mail: volker.hahn@idiv.de
Web: https://www.idiv.de/groups_and_people/employees/details/eshow/hahn-volker.html

Anhang
Mit Heizelementen haben die Wissenschaftler den Waldboden erwärmt.
https://idw-online.de/de/attachment64149

Quelle: idw

(nach oben)


WSI zieht erste Tarifbilanz 2017: Tarifabschlüsse zwischen 2 und 3 Prozent

Rainer Jung Abt. Öffentlichkeitsarbeit
Hans-Böckler-Stiftung

Die Tarifabschlüsse 2017 sahen in den meisten Branchen für dieses Jahr tabellenwirksame Tarifsteigerungen zwischen 2,0 und 3,0 Prozent vor, mit einem Schwerpunkt um 2,5 Prozent. Die Mehrzahl der Tarifabschlüsse hat eine mehrjährige Laufzeit und sieht weitere Tariferhöhungen für das kommende Jahr 2018 vor, die sich überwiegend zwischen 1,7 und 2,5 Prozent bewegen. Das zeigt eine erste Tarifbilanz des WSI-Tarifarchivs der Hans-Böckler-Stiftung für die Tarifrunde 2017. Dazu einige Beispiele (siehe auch die Übersicht in der pdf-Version dieser PM; Link unten):

– Im öffentlichen Dienst (Länder) vereinbarte ver.di eine Erhöhung der Tarifverdienste um 2,0 Prozent ab Januar 2017. Zusätzlich wurde eine soziale Komponente vereinbart, wonach die Tarifgruppen mindestens um 75 Euro pro Monat angehoben werden. Für das Jahr 2018 ist eine weitere Tariferhöhung von 2,35 Prozent vorgesehen. Die Laufzeit beträgt insgesamt 2 Jahre.

– In der westdeutschen Textil- und Bekleidungsindustrie erreichte die IG Metall neben einer Pauschalzahlung von 320 Euro eine Tariferhöhung von 2,7 Prozent ab August 2017 und einer weiteren Anhebung um 1,7 Prozent ab September 2018 bei einer Laufzeit von insgesamt 24 Monaten.

– In der Eisen- und Stahlindustrie vereinbarte die IG Metall nach einem Nullmonat eine Tariferhöhung von 2,3 Prozent in diesem Jahr und weiteren
1,7 Prozent im kommenden Jahr bei einer Laufzeit von insgesamt 22 Monaten.

– Im Groß- und Außenhandel (NRW) erhalten die Beschäftigten nach 3 Nullmonaten eine Tariferhöhung von 2,5 Prozent ab August dieses Jahres und weitere 2,0 Prozent ab Mai nächsten Jahres bei einer Laufzeit von 24 Monaten.

– In der Papier erzeugenden Industrie vereinbarte die IG BCE eine Tariferhöhung von 2,4 Prozent in diesem Jahr und weiteren 1,2 Prozent im kommenden Jahr bei einer Laufzeit von insgesamt 20 Monaten.

– Im Einzelhandel (NRW) erreichte ver.di nach 2 Nullmonaten eine Tariferhöhung von 2,3 Prozent ab Juli 2017 und 2,0 Prozent ab Mai 2018. Zusätzlich erhalten die Beschäftigten im März 2018 eine Einmalzahlung von 50 Euro. Die Laufzeit beträgt insgesamt 24 Monate.

– In der Systemgastronomie vereinbarte die NGG nach 7 Nullmonaten Tariferhöhungen von durchschnittlich 2,6 Prozent, wobei die unterste Entgeltgruppe um 4,7 Prozent auf 9 Euro pro Stunde angehoben wurde. Für die Jahre 2018 und 2019 sind weitere Tariferhöhungen von durchschnittlich 2,3 und 2,5 Prozent vorgesehen. Die Laufzeit beträgt insgesamt 36 Monate.

– Im Versicherungsgewerbe erhalten die Beschäftigten nach 7 Nullmonaten eine Tariferhöhung von 2,0 Prozent ab November 2017 und weitere 1,7 Prozent ab Dezember nächsten Jahres bei einer Laufzeit von 29 Monaten.

– Im Gebäudereinigerhandwerk vereinbarte die IG BAU eine endgültige Ost/West-Angleichung der Löhne bis Ende 2020. Bis dahin steigen die Löhne durchschnittlich im Westen jährlich zwischen 1,7 und 2,0 Prozent und im Osten jährlich zwischen 4,7 und 5,1 Prozent. Der Abschluss hat eine Laufzeit von 38 Monaten.

Der Anstieg der Verbraucherpreise wird in diesem Jahr mit rund 1,7 Prozent wieder deutlich stärker als in den Vorjahren ausfallen. „Die höhere Preissteigerungsrate führt zu einem geringeren Reallohnzuwachs. Auf das ganze Jahr 2017 gerechnet ist mit einer realen Steigerung der Tarifverdienste von bis zu 0,8 Prozent zu rechnen“ sagt der Leiter des WSI-Tarifarchivs Prof. Dr. Thorsten Schulten.

In der Tarifrunde 2018 verhandeln die DGB-Gewerkschaften im nächsten Jahr für insgesamt mehr als 9,7 Millionen Beschäftigte neue Vergütungstarifverträge.

Ansprechpartner in der Hans-Böckler-Stiftung
Prof. Dr. Thorsten Schulten
Leiter WSI-Tarifarchiv
Tel.: 0211 / 77 78-239
E-Mail: Thorsten-Schulten@boeckler.de

Rainer Jung
Leiter Pressestelle
Tel.: 0211 / 77 78-150
E-Mail: Rainer-Jung@boeckler.de

Weitere Informationen:
http://www.boeckler.de/pdf/pm_ta_2017_12_18.pdf – Die PM mit Tabelle (pdf)

Quelle: idw

(nach oben)


Welche Auswirkungen haben Kopfbälle im Fußball – Studie läuft an der Uni Paderborn zusammen

Nina Reckendorf Stabsstelle Presse und Kommunikation
Universität Paderborn

Eine groß angelegte Studie soll Erkenntnisse zu den Auswirkungen von Kopfbällen auf die Gehirne von Fußballspielern liefern. Unter Leitung des Neurologen Prof Dr. Dr. Claus Reinsberger, Sportmedizinisches Institut der Universität Paderborn, werden bis 2020 klinisch-neurologische, neurophysiologische, neuropsychologische und kernspintomografische Daten ausgewertet. Die Forscher aus Deutschland und der Schweiz erwarten einen wesentlichen Schritt in der Kopfball-Forschung. Gefördert wird das Projekt zunächst mit rund 800.000 Euro für drei Jahre vom Bundesinstitut für Sportwissenschaft (BISp).Kooperationspartner sind die Profivereine Hamburger SV, FC Basel und SC Regensburg (Damen).

„Leichte Gehirnerschütterungen im Sport, auch Concussions genannt, werden schon seit den späten 90er Jahren erforscht. Eine konkrete wissenschaftliche Antwort auf die Frage, ob Kopfbälle im Fußball tatsächlich gefährlich sind, gibt es allerdings noch nicht“, erklärt Reinsberger. „Stattdessen machen immer wieder Halbwahrheiten die Runde, die Sportler, Trainer und Eltern eher verunsichern“, so der Neurologe.

„Wir wissen aus den vorliegenden Studien zu wenig, um eine fundierte Diskussion zu den Auswirkungen von Kopfbällen zu führen und klare Ergebnisse und Empfehlungen zu liefern. Unklar ist insbesondere, ob es sich bei den Kopfbällen um wiederholte schädliche Minierschütterungen des Gehirns handelt“, sagt Reinsberger. Als einen der Gründe für die große Forschungslücke sieht der Leiter des Sportmedizinischen Instituts an der Universität Paderborn, dass viele Studien bislang als Querschnitt angelegt worden seien. Der objektivierbare direkte Zusammenhang zum Kopfballspiel fehle. Außerdem unterscheiden sich die untersuchten Biomarker, also die gemessenen biologischen Prozesse, von Studie zu Studie. „Zum Teil werden Äpfel mit Birnen verglichen. Eine generalisierbare Aussage ist noch nicht möglich. Daher gibt es zum Thema Kopfbälle noch keinen begründeten Handlungsbedarf, der auf harten wissenschaftlichen Daten beruht“, erklärt Reinsberger, der deshalb nun mit verschiedenen Experten aus Deutschland und der Schweiz ein Studiendesign entwickelt hat, das anhand verschiedener Hypothesen überprüfen soll, ob und welche Hirnveränderungen durch das Kopfballspielen entstehen.

Mit dabei sind die Universitätsklinken Hamburg-Eppendorf, die Klinik für Neurologie in Zürich sowie die Klinik und Poliklinik für Unfallchirurgie, Regensburg. Dazu kommen die Forschungszentren Swiss Concussion Center in Zürich, die Medical School Hamburg, die Technische Universität München und das Martinos Center for Neuroimaging an der Harvard Medical School.

Mit den Vortests hat das Forscherteam bereits vor der laufenden Saison begonnen und hochauflösende MRT-Untersuchungen (Magnetresonanztomographie), neurophysiologische (Augen und Gleichgewichtsorgan) und kognitive/neuropsychologische Tests (Aufmerksamkeit, Konzentration, Befinden etc.) durchgeführt. Zur Erfassung von Art, Häufigkeit und den Mechanismen der Kopfbälle gibt es in allen Trainingseinheiten und Spielen der Saison Videobeobachtung und zum Teil auch eine Datenerfassung mit Beschleunigungssensoren. Darüber hinaus werden diagnostizierte Gehirnerschütterungen getrennt von den Erschütterungen durch das Kopfballspiel bewertet. Nach Abschluss der Beobachtungszeiträume erfolgen erneut neuroanatomische, -physiologische und -psychologische Untersuchungen. „Wir sind zuversichtlich, dass wir in dieser Aufstellung und mit diesem Studiendesign Daten erfassen, die mehr Aufschluss darüber geben können, welche Veränderungen im Gehirn durch Kopfbälle entstehen. Nur so können wir die Diskussionen wirklich fundiert führen und zielführende Handlungsempfehlungen entwickeln“, so Reinsberger.

Weitere Informationen:
http://www.upb.de

Quelle: idw

(nach oben)


Kleinste Blockheizkraftwerke für Einfamilienhäuser

Astrid Gerner Hochschulkommunikation
Technische Hochschule Nürnberg Georg Simon Ohm

Prof. Dr.-Ing. Thomas Metz von der TH Nürnberg untersucht die Vorteile von Nano-BHKWs auf Basis thermoelektrischer Generatoren (TEG)

Kraft-Wärme-Kopplung im Kleinstmaßstab: Prof. Dr.-Ing. Thomas Metz von der Fakultät Verfahrenstechnik der TH Nürnberg untersucht zusammen mit einem wissenschaftlichen Mitarbeiter, welche Vorzüge Nano-Blockheizkraftwerke auf Basis thermoelektrischer Generatoren (TEG) für Einfamilienhäuser bieten. Die Wissenschaftler realisieren damit ein wichtiges Ziel des Wissenstransfers: Sie zeigen die Optionen für Unternehmen mit dem Einsatz dieser Technologie auf. Das Projekt wird von der Staedtler-Stiftung mit 40.000 Euro gefördert.

Nürnberg, 21. Dezember 2017. Eine wesentliche Säule der Energiewende ist die dezentrale Energie-Erzeugung: Eine Vielzahl kleiner Erzeugereinheiten lösen die konventionelle Stromerzeugung in wenigen großen Kraftwerken ab. Im Forschungsprojekt „Energy Harvesting im Wohngebäude – Vorentwicklung eines Nano-BHKWs“ untersucht Prof. Dr.-Ing. Thomas Metz von der TH Nürnberg zusammen mit einem wissenschaftlichen Mitarbeiter gezielt die Realisierbarkeit eines Blockheizkraftwerks mit ca. 300 Watt elektrischer Leistung (Nano-BHKW) für Einfamilienhäuser. Nach der Machbarkeitsstudie ist ein Entwicklungsprojekt mit einem Industriepartner vorgesehen. Gefördert wird das Forschungsprojekt mit 40.000 Euro von der Staedtler-Stiftung.

Prof. Dr.-Ing. Thomas Metz: „Während in Ballungsgebieten Abwärme bereits sehr gut zur Versorgung von Wohngebieten genutzt wird, sind Fernwärmenetze in ländlichen Regionen wegen der geringen Anschlussdichte unwirtschaftlich. Mit Nano-BHKWs können Besitzer von Einfamilienhäusern trotzdem vom Effizienzvorteil der Kraft-Wärme-Koppelung profitieren – doch noch sind diese nicht optimal auf die Anforderungen von Einfamilienhäusern zugeschnitten. Mit unserem Forschungsprojekt untersuchen wir deshalb die Vorteile von Nano-BHKW auf Basis thermoelektrischer Generatoren (TEG) im Vergleich zu den bisher am Markt verfügbaren BHKW-Systemen mit Gasmotor, Dampfmotor, Stirlingmotor oder Brennstoffzelle.“

Thermoelektrische Generatoren nutzen den physikalischen Effekt eines Stromkreises, der durch zwei unterschiedliche Metalle aufgebaut wird. Weisen die Kontaktstellen unterschiedliche Temperaturen auf, entsteht ein Stromfluss. Der Umkehreffekt entsteht, wenn durch einen ausgeprägten Stromfluss unterschiedliche Temperaturen an den Kontaktstellen entstehen. Thermoelektrische Generatoren können somit auch für Kühlzwecke eingesetzt werden. Ein weiterer Vorteil der thermoelektrischen Generatoren ist, dass sie keine beweglichen Teile enthalten. Damit sind sie wartungsfrei, geräuschlos und besitzen eine lange Lebensdauer.

Das Ziel der Wissenschaftler ist es, nicht nur kommerziell verfügbare thermoelektrische Generatoren zu untersuchen, sondern auch das Potential derzeit in Entwicklung befindlicher Materialien und Herstellungsmethoden. Dabei soll das Nano-BHKW neben Erdgas auch für weitere Brennstoffe wie Heizöl, Flüssigass oder Holzbrennstoffe einsetzbar sein. Bei einem positiven Projektergebnis zielt Prof. Dr.-Ing. Thomas Metz darauf ab, das Thema mit entsprechenden Industriepartnern bis zur Marktreife weiterzuentwickeln.

Energy Harvesting (wörtlich: Energie ernten) definiert die Aufnahme elektrischer Energie aus der direkten Umgebung eines Geräts. Dabei werden zum Beispiel Temperaturunterschiede genutzt. Thermoelektrische Generatoren (TEG) funktionieren nach diesem Prinzip, sie gewinnen Strom aus Abwärme.

Quelle: idw

(nach oben)


Zukunftsvision für Wärme aus Biomasse

Bianca Stur Presse- und Öffentlichkeitsarbeit
Deutsches Biomasseforschungszentrum

Neues Statement-Papier skizziert eine nachhaltige und wirkungsvolle Nutzung von Wärme aus Biomasse

Die Herausforderungen der Energiewende in Deutschland liegen neben dem Strom- und Verkehrsbereich vor allem auf dem Gebiet der Wärme. Rund 87 % der erneuerbaren Wärme, eine Energiemenge von circa 500 PJ, stammen aktuell aus der Nutzung von Biomasse zur Energiegewinnung. Die Arbeitsgruppe Wärmemarkt des BMWi-Forschungsnetzwerks Bioenergie (Förderprogramm „Energetische Biomassenutzung“) schlägt jetzt in einem Statement-Papier bioenergiespezifische Maßnahmen zum Gelingen der Wärmewende vor.

Das Ziel ist gesetzt: Der Anstieg der globalen Durchschnittstemperatur soll auf deutlich unter 2 Grad begrenzt werden. Deutschland will bis zum Jahr 2050 weitestgehend auf den Einsatz fossiler Energieträger verzichten (Energiekonzept 2010 der Bundesregierung). Im Wärmesektor ist der Anteil erneuerbarer Wärme auf 13,2 % in 2015 im Vergleich zu 1990 gestiegen. In den letzten zehn Jahren haben in der Fläche nicht nur Wärmepumpen einen starken Ausbau erlebt. Auch feste Biomasse, wie Holzpellets, wurde zur Wärmebereitstellung verstärkt genutzt.

Eine Expertengruppe bestehend aus Wissenschaftlern des DBFZ Deutsches Biomasseforschungszentrum gemeinnützige GmbH, der IZES gGmbH, dem Wuppertal Institut für Klima, Umwelt, Energie gGmbH, der Hoval GmbH und des C.A.R.M.E.N. e.V. präsentiert in dem Statement-Papier „Wärme aus Biomasse“ eine aktuelle Bestandsaufnahme und einen Ausblick auf die Wärmezukunft. Unterzeichnet wurde das Papier ferner von Mitgliedern der AG-Wärmemarkt des Forschungsnetzwerkes Bioenergie vom Bundesministerium für Wirtschaft und Energie (BMWi).
„Biomasse als speicherbarer und flexibel einsetzbarer Energieträger bietet gerade auch für stark integrierte, zukünftige Konzepte eine vergleichsweise kostengünstigere Lösungsoption“, resümiert Dr.-Ing. Volker Lenz vom DBFZ Deutsches Biomasseforschungszentrum gGmbH und Moderator der AG Wärmemarkt die Empfehlungen.

Die Maßnahmen:

Sechs wesentliche Maßnahmen führen die Wissenschaftler für einen erfolgreichen Wandel der Bereitstellung von Wärme aus Biomasse an:

1. Konsistente, wissensbasierte Vorschläge für weitergehende Emissionsregelungen auf kommunaler Ebene: Verbindlichkeit und regionale Differenzierung von Immissionsanforderungen je nach Emissionsvorbelastung

2. Entwicklung von emissionsarmen und kompakten Biomassekesseln als Ölheizungsersatzanlagen

3. Beförderung des Einsatzes reststoffbasierter Festbrennstoffe

4. Ausbau der Förderung von Kombinationen erneuerbarer Wärmequellen unter Berücksichtigung der Rückwirkungen auf die Stromnachfrage

5. Vereinfachung der stromnetzstabilisierenden Strom-Einspeisung durch Klein- und Kleinst-Biomasse-Wärme-Kraft-Kopplung

6. Verstärkte Forschungsförderung für die Flexibilisierung der stromnetzdienlichen Wärmebereitstellung auf Biomassebasis (Smart Bioenergy).

Für die Autoren des Statement-Papiers ist eines klar: Die Wärmewende muss beschleunigt werden. Soll die Wärmemenge, die beispielsweise von all unseren Heizanlagen abgegeben wird, vollständig aus erneuerbaren Quellen bereitgestellt werden, müssen die Erneuerbaren fünfmal mehr eingesetzt werden als bisher. Möglich ist das nur im Zusammenspiel aller Wärmequellen, wie solarthermische Anlagen, Abwärme, Geothermie, Power-to-Heat (elektrische Energie zu Wärme). Ebenso müssen alle Optionen der Vernetzung der drei Energiebereiche Strom, Wärme und Verkehr (Sektorenkopplung) ausgeschöpft werden. Die Wärmebereitstellung aus Biomasse wandelt sich von einer Grundlasttechnologie, die gleichmäßig und unabhängig von der genauen Nachfrage Energie erzeugt, hin zu einer smarten stromnetzstabilisierenden, daher flexiblen Wärmebereitstellung.

Nachzulesen ist das Statement-Papier, und die dazugehörigen Hintergrundinformationen auf der Webseite https://www.energetische-biomassenutzung.de/de/arbeitsgruppen-methoden/arbeitsgr…

WEITERE INFORMATIONEN
Auf Basis des Statement-Papiers wurden von der AG-Wärmemarkt Expertenempfehlungen zum Forschungsbedarf im Rahmen des Konsultationsprozesses für das künftige 7. Energieforschungsprogramm erarbeitet. Diese wurden offiziell am 28. November 2017 dem BMWi auf der Plattform für Forschung und Innovation (FuI) übergeben.

KONTAKT
AG Wärmemarkt des Forschungsnetzwerkes Bioenergie
(Förderprogramm „Energetische Biomassenutzung“)
Dr.-Ing. Volker Lenz – Moderator der AG-Wärmemarkt
Telefon: +49 (0)341 2434-450
E-Mail: volker.lenz@dbfz.de

Weitere Informationen:
https://www.energetische-biomassenutzung.de/fileadmin/media/4_AGs_Methoden/State…
https://www.energieforschung.de/

Anhang
Statementpapier des Forschungsnetzwerks Bioenergie
https://idw-online.de/de/attachment62152

Quelle: idw

(nach oben)


Fernsehen schadet dem Kinderschlaf: Forscher untersuchen erstmals Schlafqualität Dreijähriger

Annika Bingmann Pressestelle
Universität Ulm

Kinder, die elektronische Medien nutzen, haben eine schlechtere Schlafqualität. Gleichzeitig scheint das Vorlesen oder Anschauen von Büchern den Schlaf der Kinder zu verbessern. Diese Zusammenhänge haben Forscher um die Ulmer Epidemiologen PD Dr. Jon Genuneit und Prof. Dietrich Rothenbacher in der Fachzeitschrift „Sleep Medicine“ veröffentlicht. Im Zuge einer Geburtskohortenstudie haben sie erstmals die Auswirkungen von Medien auf die Schlafqualität einer homogenen Altersgruppe erforscht.

Dreijährige, die bereits elektronische Medien konsumieren, schlafen oft schlechter. Dabei gilt: Je mehr die Kinder fernsehen oder etwa den Computer nutzen, desto geringer ist ihre Schlafqualität. Auf der anderen Seite scheint das Vorlesen oder Anschauen von Büchern die Nachtruhe der Kinder zu verbessern. Diese Zusammenhänge beschreiben Forscher um die Ulmer Epidemiologen PD Dr. Jon Genuneit und Professor Dietrich Rothenbacher in der Fachzeitschrift „Sleep Medicine“. Die Untersuchung ist Teil der Ulmer SPATZ-Gesundheitsstudie, einer Geburtskohortenstudie mit mehr als 1000 Kindern.

Bereits im Alter von drei Jahren steigt die elektronische Mediennutzung von Kleinkindern an. Gleichzeitig beschreiben wissenschaftliche Untersuchungen negative Effekte dieses Konsums auf die Schlafdauer von Kindern. Nun haben Epidemiologen aus Ulm, Bielefeld und Santiago de Chile erstmals die Auswirkungen von elektronischen Medien und Büchern auf die Schlafqualität in einer homogenen Altersgruppe erforscht. Grundlage ihrer Untersuchung ist die Ulmer SPATZ-Gesundheitsstudie: Regelmäßig werden Gesundheit und Lebensumstände von über 1000 Kindern, die 2012 und 2013 in der Ulmer Universitäts-Frauenklinik zur Welt gekommen sind, erhoben. Für die nun veröffentlichte Studie füllten die teilnehmenden Eltern zusätzlich Fragebögen zum Medienkonsum und zum Schlafverhalten (Children’s Sleep Habits Questionnaire“) ihres Nachwuchses aus.

Auf den ersten Blick fällt die Mediennutzung der 530 Dreijährigen, von denen alle benötigten Daten vorlagen, moderat aus. Rund 58 Prozent konsumieren täglich bis zu einer Stunde beispielsweise Filme und Videos auf unterschiedlichen Endgeräten. Allerdings verbringt jedes siebte Kind mehr als eine Stunde täglich vor einem Bildschirm, was den empfohlenen Grenzwert von 30 Minuten in diesem Alter erheblich überschreitet. „Wir dokumentieren alarmierende Zusammenhänge zwischen der Nutzung elektronischer Medien und der Schlafqualität von Kindern im Alter von drei Jahren. So geht erhöhter Fernsehkonsum mit einer statistisch signifikanten Verschlechterung von beispielsweise schlafbezogenen Ängsten und Tagesschläfrigkeit einher, berichten Jon Genuneit und Dietrich Rothenbacher vom Ulmer Institut für Epidemiologie und Medizinische Biometrie.
Die Beschäftigung mit Büchern – ob vorgelesen oder selbst angeschaut – hatte hingegen keine negativen Auswirkung auf den Schlaf der Kinder. Vielmehr scheint die Buchnutzung die Kinder vor nächtlichem Erwachen zu schützen. Allerdings gaben die befragten Eltern an, dass sich 39 Prozent der Dreijährigen überhaupt nicht mit Büchern beschäftigen.

Insgesamt konnten die Wissenschaftler zeigen, dass der Konsum elektronischer Medien und eine geringe Schlafqualität bei Kleinkindern zusammenhängen. Ob dies zumindest teilweise auf die Nutzung dieser Medien als Einschlafhilfe bei bereits schlecht schlafenden Kindern zurückgeführt werden kann, wollen die Forscher im weiteren Verlauf der Geburtskohortenstudie klären. „Um einer Chronifizierung von Schlafproblemen vorzugreifen, sind präventive Maßnahmen in Bezug auf Mediennutzung offenbar bereits in der frühen Kindheit dringend notwendig“, folgern die Ulmer Mediziner.

In der Ulmer SPATZ-Gesundheitsstudie werden unter anderem chronische Erkrankungen im Kindesalter wie Allergien, Asthma und Übergewicht erforscht. Weiterhin geht es um psychosoziale Faktoren sowie um den Schlaf der Kinder und Eltern. Die Langzeiterhebung wird aus Mitteln der Medizinischen Fakultät der Universität Ulm finanziert.

Weitere Informationen: PD Dr. Jon Genuneit: 0731/50-31067, Jon.Genuneit@uni-ulm.de

Jon Genuneit, Pablo E. Brockmann, Angelika A. Schlarb, Dietrich Rothenbacher. Media consumption and sleep quality in early childhood – results from the Ulm SPATZ Health Study. Journal of the World Association of Sleep Medicine and the International Pediatric Sleep Association. DOI: http://dx.doi.org/10.1016/j.sleep.2017.10.013

Weitere Informationen:
http://www.sleep-journal.com/article/S1389-9457(17)31580-0/fulltext

Anhang
Prof. Dietrich Rothenbacher leitet das Ulmer Institut für Epidemiologie und Medizinische Biometrie
https://idw-online.de/de/attachment62160

Quelle: idw

(nach oben)


Aus Abwässern der Joghurtproduktion sollen Viehfutter und Flugzeug-Kraftstoffe entstehen

Antje Karbe Hochschulkommunikation
Eberhard Karls Universität Tübingen

Biotechnologe der Universität Tübingen arbeitet an der Wiederverwertung von Abfallstoffen ‒ Ziel: ein nachhaltiger Stoffkreislauf

Wissenschaftler haben einen Prozess entwickelt, mit dem sich Sauermolke, ein Abfallprodukt der Herstellung von bestimmten Milchprodukten, weiterverwenden lässt, ohne dass zusätzliche Chemikalien eingesetzt werden müssen. Professor Lars Angenent vom Zentrum für Angewandte Geowissenschaften der Universität Tübingen und internationale Kolleginnen und Kollegen setzten lediglich Kulturen verschiedener Mikroorganismen ein, ähnlich denen im menschlichen Darm, dem sogenannten Mikrobiom. Das daraus entstandene Bio-Öl könne als Tierfutter oder nach Weiterbearbeitung als Kraftstoff für Flugzeuge verwendet werden, so das Ergebnis. Die Studie wurde im Fachjournal Joule veröffentlicht.

Für jeden Liter Milch, der in die Herstellung von Produkten wie Quark und griechischem Joghurt oder Frischkäse geht, entstehen in der Fabrik zwei Liter sogenannte Sauermolke als Abfallprodukt. Diese kann wegen des hohen Säuregehalts nicht in großen Mengen an Tiere verfüttert werden. Sie ist noch reich an organischen Stoffen wie Milchzucker und muss entsorgt oder auf landwirtschaftlichen Flächen ausgebracht werden.

In der Studie untersucht Lars Angenent, Humboldtprofessor für Umweltbiotechnologie an der Universität Tübingen, wie sich Sauermolke in wiederverwertbare Produkte umwandeln lässt. Er nutzte dafür einen Bioreaktor mit verschiedenen Bakterienkulturen, ein sogenanntes Reaktor-Mikrobiom. „Dieses Mikrobiom ist eine offene Kultur, in der sich auch Bakterien von außerhalb ansiedeln können, ähnlich dem Mikrobiom in unserem Darm. Eine Sterilisation des Bioreaktors oder des Abwassers ist deshalb nicht nötig“, erklärt er. „Bestimmte Bakterien werden dann selektiert und der Prozess so gelenkt, dass wertvollere organische Stoffe mit längeren Kohlenstoffketten entstehen.“

Angenent erläutert den Prozess im Detail: „Wir haben nacheinander zwei Tanks mit unterschiedlichen Temperaturen eingesetzt. Im ersten, auf 50 Grad Celsius erhitzten Tank wandelte das Mikrobiom Zucker in Säure als Zwischenprodukt um ‒ die gleiche Säure, die entsteht, wenn Milch sauer wird. Im zweiten Tank setzte das Mikrobiom bei 30 Grad Celsius die vorhandenen Stoffe in Produkte mit sechs bis neun Kohlenstoffen in einer Reihe um.“ Angenents Tübinger Forschungsgruppe zur Umweltbiotechnologie untersuchte danach auch, welche Bakterien sich in den offenen Kulturen angesiedelt hatten.

Das neue entstandene Produkt könnte zur Fütterung von Tieren eingesetzt werden und durch seine antimikrobiellen Eigenschaften sogar der Vorbeugung von Tierkrankheiten dienen. Nach Bearbeitung in einer Raffinerie ließe sich damit auch Kraftstoff für Flugzeuge produzieren, sagte der Wissenschaftler. Weil das Produkt aus dem Bioreaktor-Mikrobiom viel Kohlenstoff enthalte, entwickle es ölige Eigenschaften und könne leichter vom Wasser getrennt werden, in dem es hergestellt wurde. Danach müsse das Öl gereinigt und in einer Raffinerie weiterverarbeitet werden. „Wir stellen somit Bio-Öl aus bakterieller Produktion her.“ Das Innovative daran sei, dass für den Prozess keine anderen kohlestoffreichen Chemikalien verwendet werden müssten, das Abwasser allein reiche aus. Bislang habe man die Herstellung von Stoffen mit langen Kohlenstoffketten nur durch Zugabe teurer Chemikalien erreicht.

Die Produktion von Bio-Öl gehört zur Entwicklung einer Kreislaufwirtschaft, die alle Abfallprodukte in wertvollere Stoffen recycelt. „Eine Kreislaufwirtschaft kann nur dann wirklich nachhaltig sein, wenn die Energie aus erneuerbaren Quellen kommt und der Kohlenstoff für Chemikalien aus Kohlendioxid und anderen kohlenstoffhaltigen Abfällen wie Sauermolke“, sagt Angenent. Nun müsse untersucht werden, wie andere Abwässer ebenso in nützliche Chemikalien verwandelt werden könnten.

Publikation:
Jiajie Xu, Jiuxiao Hao, Juan JL Guzman, Catherine M Spirito, Lauren A Harroff, Largus T Angenent: „Temperature-phased conversion of acid whey waste into medium-chain carboxylic acids via lactic acid: no external e-donor“, Joule 10.1016/j.joule.2017.11.008: http://www.cell.com/joule/fulltext/S2542-4351(17)30179-4

Kontakt:
Prof. Dr. ir. Lars Angenent
Universität Tübingen
Zentrum für Angewandte Geowissenschaften
Umweltbiotechnologie
Telefon +49 7071 601-322
l.angenent@uni-tuebingen.de

Quelle: idw

(nach oben)


Belauscht: Akustische Überwachungsgeräte spüren Wilderei und illegalen Holzeinschlag auf

Juliane Röder Presse- und Öffentlichkeitsarbeit
Gesellschaft für Ökologie e.V.

Populationen großer Katzen wie Jaguare und Pumas werden auf der ganzen Welt immer kleiner. Das liegt zum einen am Verlust ihres Habitats, und zum anderen daran, dass Menschen die Katzen selbst, und auch deren Beute jagen. Neu entwickelte akustische Aufzeichnungsgeräte zeichnen die Geräusche von Schrotflinten und Kettensägen auf und zeigen so die Häufigkeit und Muster illegaler Ausbeutung natürlicher Ressourcen.
Die Ergebnisse werden heute auf der Konferenz ‚Ecology Across Borders‘ in Gent, Belgien, präsentiert. Sie werden dabei helfen Biodiversität besser zu erfassen, und Konflikte zwischen Menschen und Wildtieren in tropischen Wäldern zu reduzieren.

Ökologen der Universität Southampton (Großbritannien) und der Autonomen Universität Metropolitana (Mexiko) untersuchten das Vorkommen und die Häufigkeit der schwer zu findenden Jaguare und Pumas in drei angrenzenden Regionen mit geschützten und ungeschützten Wäldern auf der mexikanischen Halbinsel Yucatán.

Kamerafallen und Kotanalysen zeigten dass Jaguare und Pumas mit Vorliebe Halsbandpekaris, Hirsche und Nasenbären jagen – Arten, die regelmäßig von lokalen Gemeinschaften zur Deckung ihres Fleischbedarfs gejagt werden.

„Dorfgemeinden in der Nähe dieser Naturschutzgebiete bewirtschaften die natürlichen Ressourcen auf als ejidos bekannten Gemeinschaftsflächen. Jagd für den Eigenbedarf und Holzgewinnung durch die Anwohner ist in den ejidos erlaubt, aber es existieren keine wirksamen Maßnahmen um den Jagddruck zu regulieren“, sagt Evelyn Piña Covarrubias von der Universität Southampton.

„Habitatfragmentierung durch wachsende Viehbestände und die geringer werdende Verfügbarkeit ihrer bevorzugten Beute sind eine große Gefahr für diese Großkatzen. Zusätzlich werden sie nach Angriffen auf Vieh oft aus Rache getötet, oder von Wilderern, denn es gibt immer noch einen Markt für die einzigartig getupften Felle der Jaguare“, fügt sie hinzu.

Heute leben schätzungsweise noch 6000 Jaguare auf weniger als 40% der Fläche ihres ursprünglichen Verbreitungsgebiets in Mexiko. Gleichzeitig ist nur wenig über die Populationen der Pumas bekannt, da es schwierig ist Individuen zu identifizieren. Anders als Jaguare haben Pumas kein einzigartiges Fleckenmuster.

Obwohl zwei der untersuchten Flächen private Schutzgebiete sind, werden Schutzmaßnahmen oft durch das Fehlen von Daten ausgebremst. Es fehlt an Geld und Personal um illegale Aktivitäten zu entdecken und zu melden.

Daher testeten die Forscher Prototypen von ‘AudioMoth‘, einem akustischen Erfassungsgerät mit niedrigem Stromverbrauch und open-source Plänen. Die Datenlogger sind so klein wie eine Streichholzschachtel und mit 43 USD pro Einheit relativ günstig. Die Geräte können so eingestellt werden dass sie sowohl Geräusche menschlichen Ursprungs (Schrotflinten und Kettensägen) als auch Geräusche von bestimmten Arten aufzeichnen, um mit letzteren Biodiversität zu erfassen. Die Erkenntnisse des Teams wurden am 14.12.2017 in der Fachzeitschrift Methods in Ecology and Evolution veröffentlicht.
Das Endprodukt ist darauf ausgelegt einen Alarm mit Informationen zu Art und Ort der Geräusche in Echtzeit an Parkranger weiterzuleiten.

Evelyn sagt: „Schutzgebiete überall auf der Halbinsel Yucatán sind viel zu schlecht finanziert um sich effektive und sichere Patrouillen in weiten Teilen der natürlichen Waldgebieten leisten zu können. Die meisten akustischen Datenlogger auf dem Markt sind viel zu teuer um als Netzwerk installiert werden zu können, oder sie haben nur eine geringe Akkulaufzeit.“

„Mit AudioMoth werden Ranger und Verwalter vor Ort Zugang zu einen Erfassungssytem haben das potentiell große Flächen abdecken kann, wodurch sie sofort auf Warnsignale reagieren können.“

Das Gerät wurde von Andrew Hill und Peter Prince, zwei Doktoranden der Computerwissenschaften an der Universität Southampton, in Zusammenarbeit mit Professor Alex Rogers von der Universität Oxford entwickelt.

Links zu Ressourcen:
AudioMoth:
https://www.openacousticdevices.info/

Ecology Across Borders – Gemeinsame Jahrestagung von GfÖ, BES, NecoV und EEF:
http://www.britishecologicalsociety.org/events/annual-meeting-2017/

Die Gesellschaft für Ökologie (GfÖ)
Die Gesellschaft für Ökologie repräsentiert ÖkologInnen aus der Grundlagenforschung, aus angewandten Berufsfeldern, sowie aus Bildung und Lehre. Unsere Mitglieder stammen vorwiegend aus Deutschland, Österreich und der Schweiz. Die GfÖ wurde 1970 gegründet um den Austausch zwischen ÖkologInnen aus verschiedensten Berufen und Themenbereichen zu fördern. Die Vielfalt der über 1150 Mitglieder der Gesellschaft spiegelt sich in der Vielfalt der Expertengruppen, Publikationen und Jahrestreffen der GfÖ. www.gfoe.org @GfOe_org

Die British Ecological Society (BES)
Mit ihrer Gründung im Jahr 1913 ist die British Ecological Society (BES) die älteste ökologische Gesellschaft der Welt. Die BES fördert die ökologische Forschung durch eine Reihe von wissenschaftlichen Publikationen, die Organisation und Förderung vielfältiger Veranstaltungen, Bildungsinitiativen und politischen Aktivitäten. Die Gesellschaft hat über 6000 Mitglieder aus nahezu 130 verschiedenen Ländern. www.britishecologicalsociety.org @BritishEcolSoc

Die Nederlands-Vlaamse vereniging voor ecologie (NecoV)
Nederlands-Vlaamse vereniging voor ecologie (NecoV) ging aus dem Zusammenschluss zweier ökologischer Verbände in der Niederländisch-Flämischen Sprachregion hervor. Ihre Aufgabe ist die Förderung von Grundlagenforschung und angewandter Ökologie in den Niederlanden und Flandern, die Förderung nationaler und internationaler Zusammenarbeit zwischen ÖkologInnen und die Förderung der nachhaltigen Bewirtschaftung der Biosphäre. NecoV organisiert Konferenzen, Symposien, Seminare, Kurse, fachliche Arbeitsgruppen und andere ökologische Aktivitäten. www.necov.org

Die European Ecological Foundation (EEF)
Die European Ecological Foundation (EEF) ist der Dachverband ökologischer Gesellschaften in Europa und assoziierten Länder. Mitglieder der von der EEF vertretenen nationalen Gesellschaften sind automatisch auch Mitglieder der EEF. Die European Ecological Foundation ermöglicht die Zusammenarbeit von ökologischen Gesellschaften zur Förderung der ökologischen Wissenschaft in Europa. www.europeanecology.org @EuropeanEcology

Weitere Informationen:
https://www.openacousticdevices.info
http://www.britishecologicalsociety.org/events/annual-meeting-2017/
https://eventmobi.com/eab2017/

Quelle: idw

(nach oben)


Vulkanologie – Was die Gewalt eines Ausbruchs bestimmt

Luise Dirscherl Stabsstelle Kommunikation und Presse
Ludwig-Maximilians-Universität München

Rhyolith-Vulkane brechen mal explosiv, mal gemächlich aus. LMU-Professor Donald Dingwell zeigt erstmals, woran das liegt – entscheidend ist die Chemie.

Manchmal geht es bei Vulkanausbrüchen vergleichsweise undramatisch zu: Bei sogenannten effusiven Eruptionen fließt dünnflüssige Lava, die wenig Gas und wenig Kristalle enthält, relativ ruhig aus dem Schlot des Vulkans. Doch das ist eben nur die eine Art, in der Vulkane ausbrechen können. Es gibt auch explosive Vulkanausbrüche – mit einer ungleich größeren, zerstörerischen Kraft. Die Lava ist dann zähflüssig sowie normalerweise reich an Kristallen und Gasen, die in der Magmakammer einen hohen Druck erzeugen. Dieser entlädt sich meist schlagartig in einer Explosion. Riesige Gesteinsbrocken, Glut- und Aschewolken werden oft kilometerhoch in die Atmosphäre geschleudert und können sogar das Klima beeinflussen.

Besonders zähflüssiges sogenanntes Rhyolith-Magma gilt als Ursache der weltweit gewaltigsten explosiven Eruptionen. Rhyolithgestein ist die vulkanische Variante von Granit und gleicht diesem in seiner chemischen Zusammensetzung. Rhyolith-Schmelzen haben allerdings eine rätselhafte Eigenschaft: Sie können sowohl als zähflüssiges Magma in einer heftigen Explosion ausbrechen, als auch dünnflüssig und eher gemächlich an der Erdoberfläche austreten. Ein Team um Professor Donald Dingwell, Direktor des Departments für Geo- und Umweltwissenschaften der LMU, konnte nun die Mechanismen zeigen, die für die Viskosität des Rhyolith-Magmas und somit die Art des Ausbruchs verantwortlich sind. Ihre Arbeit erscheint in der aktuellen Ausgabe der Fachzeitschrift Nature.

Grundsätzlich sehen Vulkanologen die Ursache für die unterschiedlichen Fließeigenschaften von Gesteinsschmelzen in deren Temperatur sowie ihrem Gehalt an Kristallen, Gasen und Wasser. Diese Erklärung alleine reicht für Rhyolit-Magmen jedoch nicht aus, denn diese wechseln ihre Fließeigenschaften immer wieder – unabhängig von den genannten Parametern.

Donald Dingwell und sein Team haben nun in Experimenten gezeigt, dass die Viskosität des Rhyoliths direkt von seiner chemischen Zusammensetzung abhängt. Die Wissenschaftler analysierten dazu verschiedene Rhyolithschmelzen, die der gesamten Bandbreite an rhyolithischen Gesteinen aus dem Yellowstone Vulkansystem entsprechen. Der Yellowstone ist ein Paradebeispiel für sowohl effusiven, als auch explosiven Rhylolith-Vulkanismus. Ergebnis der Studie war, dass kleinste Veränderungen im Verhältnis bestimmter chemischer Bestandteile über das Fließverhalten einer Schmelze entscheiden – und somit darüber, wie katastrophal oder ruhig ein Vulkanausbruch abläuft.

Kontakt
Prof. Dr. Dingwell, Donald B.
Department für Geo- und Umweltwissenschaften / Mineralogie
Tel.: +49 (0) 89/2180-4136
E-Mail: dingwell@lmu.de

Quelle: idw

(nach oben)


Was hilft gegen Angst auf dem Zahnarztstuhl?

Dr. Uta von der Gönna Presse- und Öffentlichkeitsarbeit
Universitätsklinikum Jena

In einer jetzt veröffentlichten Metastudie untersuchten Wissenschaftler des Uniklinikums Jena die Wirksamkeit verschiedener nicht-medikamentöser Interventionen gegen psychische Belastung und Angst bei Zahnbehandlungen. In der Auswertung von insgesamt 29 Studien kamen sie zu dem Ergebnis, dass ausführliche Information, Musik, Entspannung und Ablenkung gegen leichte bis mittlere Zahnarztangst wirken. Hypnose erwies sich als am wirksamsten.

Der Empfang am Tresen ist überaus freundlich, das Wartezimmer hell und nicht voll, doch schon, wenn das Arbeitsgerät zu hören ist, und spätestens, nachdem sich der Patient auf den Zahnarztstuhl gesetzt hat, ist die Angst da. Für etwa jeden vierten Erwachsenen ist der Gang zum Zahnarzt mit psychischem Stress und Angst verbunden, bei etwa vier Prozent steigert sich das bis hin zu einer ausgeprägten Zahnbehandlungsphobie. Mit verschiedenen nicht-medikamentösen Maßnahmen wird versucht, den Patienten diese Angst zu nehmen, um ihnen eine entspanntere und möglichst stressfreie Zahnbehandlung zu ermöglichen.

Entspannungsübungen vorm Zahnziehen
Wie wirksam diese Interventionen sind, haben Psychologen und Zahnmediziner des Universitätsklinikums Jena jetzt in einer Metastudie untersucht. Für ihre Übersichtsarbeit sichteten sie zunächst über 3000 Studien, die zu diesem Thema in den vergangenen Jahrzehnten durchgeführt und veröffentlicht wurden. „Wir berücksichtigten aber nur Studien, deren Teilnehmer zufällig in die Interventions- und eine Kontrollgruppe aufgeteilt wurden“, beschreibt Sophia Burghardt eines der strengen Qualitätskriterien. Die Zahnärztin wertete in ihrer Doktorarbeit die Ergebnisse der schließlich verbleibenden 29 Einzelarbeiten mit insgesamt knapp 3000 Probanden aus. Sophia Burghardt: „In den Studien wurde die Wirkung von Maßnahmen wie Musikhören, Entspannungsübungen, Ablenkung, Hypnose oder ausführlicher Information vor und während der Behandlung bei zum Beispiel größeren Zahnfüllungen, Wurzelbehandlungen, dem Ziehen von Weisheitszähnen und der Implantatchirurgie untersucht.“

Hypnose am wirksamsten gegen Zahnarztangst
Das Ergebnis bestätigt die Wirksamkeit dieser Ansätze, den Patienten die Angst zu nehmen: „Wir waren überrascht, dass nahezu alle Interventionen wirksam waren, um die psychische Belastung zu verringern, ein Großteil der Patienten berichtete von einem Nachlassen der Angst. Die mit Abstand besten Ergebnisse zeigten sich beim Einsatz von Hypnose“, so die Psychologin PD Dr. Jenny Rosendahl, die die Metastudie leitete. Damit sieht sie das Ergebnis einer früheren Arbeit zur Wirksamkeit von Hypnose bei chirurgischen Eingriffen bestätigt. Sie ergänzt: „Eine schmerzlindernde Wirkung der untersuchten Maßnahmen ließ sich aber nicht nachweisen. Das liegt sicher auch daran, dass die meisten Zahnbehandlungen ohnehin unter Lokalanästhesie durchgeführt wurden.“

Mit ihrem Ergebnis wollen die Studienautoren Zahnmediziner bestärken, zusätzlich zur Standardbehandlung auch nicht-medikamentöse Maßnahmen für angespannte und ängstliche Patienten einzusetzen. Jenny Rosendahl: „Schon ablenkende Bilder oder Musik kann die Angst der Patienten verringern. Und der Aufwand für Hypnose muss auch nicht groß sein; in den untersuchten Studien kamen die Anweisungen hierfür vom Band.“

Originalliteratur:
Sophia Burghardt, Susan Koranyi, Gabriel Magnucki, Bernhard Strauss, Jenny Rosendahl. Non-pharmacological interventions for reducing mental distress in patients undergoing dental procedures: Systematic review and meta-analysis. Journal of Dentistry, 2017, doi: 10.1016/j.jdent.2017.11.005.

Kontakt:
PD Dr. Jenny Rosendahl
Institut für Psychosoziale Medizin und Psychotherapie, Universitätsklinikum Jena
Tel. 03641/ 935482
E-Mail: Jenny.Rosendahl@med.uni-jena.de

Quelle: idw

(nach oben)


Umweltzone senkt Gesundheitsbelastung deutlich

Tilo Arnhold Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Troposphärenforschung e. V.

Leipzig. Seit Einrichtung der Umweltzone am 1. März 2011 ist die Belastung mit den besonders gesundheitsgefährlichen Bestandteilen im Feinstaub deutlich gesunken. Die Konzentrationen der krebserzeugenden Verbrennungspartikel der Dieselfahrzeuge wurden um mehr als die Hälfte reduziert. Dagegen ist die Belastung mit Stickoxiden trotz der modernen Dieselkraftfahrzeuge nahezu konstant geblieben. Das ist das Ergebnis einer gemeinsamen wissenschaftlichen Studie des Sächsischen Landesamtes für Umwelt, Landwirtschaft und Geologie (LfULG) und des Leibniz-Instituts für Troposphärenforschung (TROPOS).

Auch wenn die Gesamtmasse des Feinstaubes durch die Modernisierung der Fahrzeuge nur wenig vermindert wurde, konnten die Wissenschaftler belegen, dass die anfangs heftig diskutierte Umweltzone deutlich zum Gesundheitsschutz der Bevölkerung beiträgt.

Leipzig hatte die Umweltzone von Beginn an mit der höchsten Regulierungsstufe eingeführt. Seitdem dürfen nur noch Fahrzeuge mit grüner Plakette in das Gebiet einfahren. Es umfasst rund zwei Drittel der Stadtfläche bis an den Autobahnring und ist damit größer als Umweltzonen in anderen Städten. Für diese Maßnahme wurde die Stadt Leipzig damals heftig kritisiert. Das Landesumweltamt Sachsen (LfULG) und das Leibniz-Institut für Troposphärenforschung (TROPOS) stellten der Messestadt heute in Leipzig bei der Vorstellung ihres Abschlussberichts zur „Wirkung der Umweltzone auf die Luftqualität“ eine positive Bilanz aus. Wissenschaftler beider Einrichtungen hatten die Einführung der Umweltzone von Anfang mit einem Sondermessprogramm begleitet und über sieben Jahre wissenschaftlich untersucht. Insgesamt wurden 13 Messstationen in Sachsen einbezogen. An sieben von ihnen hat das Team zusätzlich Ruß und Ultrafeinstaub gemessen. Diese Messungen wurden im Rahmen der wissenschaftlichen Untersuchungen zusätzlich erfasst, weil sie gesetzlich nicht vorgeschrieben sind.
Um die Wirkung der Umweltzone besser beurteilen zu können, wurde die Minderung der Motoremissionen durch einen Vergleich der Konzentrationen an der Straße mit denen im städtischen Hintergrund ermittelt. Der größte Minderungseffekt für Ruß und Ultrafeinstaub konnte an der Messstation Leipzig-Mitte aufgezeigt werden. Diese Messstation liegt im verkehrsreichen Zentrum des Innenrings der Stadt. Die Masse der krebserregenden Ruß-Partikel sank dort um etwa 60 Prozent; die Anzahl der ultrafeinen-Partikel reduzierte sich um etwa 70 Prozent. „Damit hat sich besonders der im Feinstaubmix enthaltene gesundheitsgefährdende Anteil der Partikel deutlich reduziert“, betonte Prof. Alfred Wiedensohler vom TROPOS. „Gemessen an der Feinstaubmasse entspricht das zwar nur fünf Prozent. Da diese aber zum hoch toxischen Anteil im Feinstaub gehören, wird das Gesundheitsrisiko der Bevölkerung deutlich reduziert. Die Umweltzone war damit eine sinnvolle und erfolgreiche Maßnahme der Stadtverwaltung Leipzig für den Schutz der Gesundheit ihrer Bürger“, fasste der Luftexperte Dr. Gunter Löschau vom LfULG zusammen.
Auch die Stadt zog ein positives Fazit: „Die Einführung der Umweltzone in Leipzig war im Rahmen unserer gesetzlichen Verantwortung ein konsequenter Schritt, um eine deutliche Verbesserung des Gesundheitsschutzes der Leipziger Bevölkerung und Besucher der Stadt zu erreichen“, konstatiert Heiko Rosenthal, Bürgermeister für Umwelt, Ordnung, Sport der Stadt Leipzig. Von Beginn an hatte Leipzig nur Kraftfahrzeuge mit grüner Plakette zugelassen, was die Modernisierung deutlich beschleunigt und so den Partikelausstoß der Fahrzeuge sehr schnell reduziert hat. „Dabei ist es gelungen, die notwendige Balance zwischen der Betroffenheit vom Fahrverbot einerseits über Ausnahmeregelungen abzufedern und andererseits das eigentliche Ziel der Umweltzone nicht aus dem Blick zu verlieren“, so Rosenthal weiter.
Mit der durch die Umweltzone beschleunigten Modernisierung der Fahrzeugflotte stieg auch der Anteil der in Leipzig zugelassenen Dieselkraftfahrzeuge zwischen 2010 und 2016 von 19 auf 26 Prozent an – mit negativen Folgen: Während bei den Partikeln die Zahlen nach unten gehen, stagnieren sie bei den gasförmigen Stickoxiden (NOx) nach wie vor auf einem Niveau, das zu hoch ist.
Die Anstrengungen dürfen deshalb nicht nachlassen, die Luftqualität zum Schutz der Bevölkerung weiter zu verbessern, betonten die Wissenschaftler. Das gelte nicht nur für die Grenzwertüberschreitung für Stickstoffdioxid (NO2), sondern auch für Feinstaub. Es wäre falsch, sich darauf auszuruhen, dass der gesetzliche Grenzwert für Feinstaub (PM10) seit 2015 eingehalten wird. Nicht nur die Maßnahmen zur Luftreinhaltung, sondern auch die meteorologischen Bedingungen mit milden Wintern hätten daran einen Anteil.

Der Abschlussbericht zur „Wirkung der Umweltzone Leipzig auf die Luftqualität“ steht ab sofort für jedermann zum Download bereit.

Studie:
Gunter Löschau, Alfred Wiedensohler, Wolfram Birmili, Fabian Rasch,
Gerald Spindler, Konrad Müller, Andrea Hausmann, Uwe Wolf, Werner Sommer, Mario Anhalt, Volker Dietz, Hartmut Herrmann, Uwe Böhme, Horst-Günter Kath und Holm Kühne (2017): Umweltzone Leipzig – Abschlussbericht.
https://lsnq.de/UZLeipzigAbschluss

Ansprechpartner:
TROPOS
Leibniz-Institut für Troposphärenforschung (TROPOS)
Prof. Alfred Wiedensohler, Leiter Abteilung Experimentelle Aerosol- und Wolkenmikrophysik
Tel. +49-341-2717-7062
http://www.tropos.de/institut/ueber-uns/mitarbeitende/alfred-wiedensohler/
und
Tilo Arnhold, Öffentlichkeitsarbeit
Tel. +49-341-2717-7189
http://www.tropos.de/aktuelles/pressemitteilungen/

LfULG
Landesamt für Umwelt, Landwirtschaft und Geologie (LfULG)
Pressesprecherin
Karin Bernhardt
Tel. +49-351-2612-900, Mobil: +49-1703813256
karin.bernhardt@smul.sachsen.de

Stadt Leipzig
Referat Kommunikation
Tel.: 0341 123-2040 Fax: 0341 123-2045
kommunikation@leipzig.de

Weitere Links:
Saubere Luft – (k)eine Selbstverständlichkeit! – Themenportal des LfULG zur Luftqualität in Sachsen:
https://www.umwelt.sachsen.de/umwelt/luft/index.asp
Luftqualität in Sachsen – Jahresbericht 2016
https://publikationen.sachsen.de/bdb/artikel/11388
Statuskolloquium Luft 2017 des LfULG:
https://www.umwelt.sachsen.de/umwelt/luft/45647.htm
Die Luft, die wir atmen
https://www.tropos.de/entdecken/gut-zu-wissen/jahr-der-luft-2013/
Umweltzone in Leipzig
https://www.tropos.de/entdecken/gut-zu-wissen/umweltzone-in-leipzig/

Weitere wissenschaftliche Publikationen zur Umweltzone Leipzig:
Birmili, W.; Weinhold, K.; Merkel, M.; Rasch, F.; Sonntag, A.; Wiedensohler, A.; Bastian, S.; Schladitz, A.; Löschau, G.; Cyrys, J.; Pitz, M.; Gu, J.; Kusch, T.; Flentje, H.; Quass, U.; Kaminski, H.; Kuhlbusch, T. A. J.; Meinhardt, F.; Schwerin, A.; Bath, O.; Ries, L.; Wirtz, K. & Fiebig, M. (2015): Long-term observations of tropospheric particle number size distributions and equivalent black carbon mass concentrations in the German Ultrafine Aerosol Network (GUAN), Earth Syst. Sci. Data, 8, 355-382, doi:10.5194/essd-8-355-2016, 2016. http://www.earth-syst-sci-data.net/8/355/2016/

Ma, N.; Birmili, W.; Rasch, F.; Weinhold, K.; Merkel, M.; Sun, J.; Löschau, G.; Spindler, G.; Anhalt, M.; Wiedensohler, A. (2017): Effects of the Low Emission Zone on the Black Carbon Mass Concentration and Particle Number Size Distribution: A Case Study for the City Leipzig, Germany. To be submitted to Atmospheric Environment

Rasch, F.; Birmili, W.; Weinhold, K.; Nordmann, S.; Sonntag, A.; Spindler, G.; Herrmann, H.; Wiedensohler, A.; Löschau, G.: Signifikante Minderung von Ruß und Anzahl ultrafeiner Partikel in der Außenluft als Folge der Umweltzone in Leipzig. Gefahrstoffe – Reinhaltung der Luft 73 (2013) Nr. 11/12, S. 483-489

Das Leibniz-Institut für Troposphärenforschung (TROPOS) ist Mitglied der Leibniz-Gemeinschaft, die 91 selbständige Forschungseinrichtungen verbindet. Ihre Ausrichtung reicht von den Natur-, Ingenieur- und Umweltwissenschaften über die Wirtschafts-, Raum- und Sozialwissenschaften bis zu den Geisteswissenschaften. Leibniz-Institute widmen sich gesellschaftlich, ökonomisch und ökologisch relevanten Fragen.
Sie betreiben erkenntnis- und anwendungsorientierte Forschung, auch in den übergreifenden Leibniz-Forschungsverbünden, sind oder unterhalten wissenschaftliche Infrastrukturen und bieten forschungsbasierte Dienstleistungen an. Die Leibniz-Gemeinschaft setzt Schwerpunkte im Wissenstransfer, vor allem mit den Leibniz-Forschungsmuseen. Sie berät und informiert Politik, Wissenschaft, Wirtschaft und Öffentlichkeit.
Leibniz-Einrichtungen pflegen enge Kooperationen mit den Hochschulen – u.a. in Form der Leibniz-WissenschaftsCampi, mit der Industrie und anderen Partnern im In- und Ausland. Sie unterliegen einem transparenten und unabhängigen Begutachtungsverfahren. Aufgrund ihrer gesamtstaatlichen Bedeutung fördern Bund und Länder die Institute der Leibniz-Gemeinschaft gemeinsam. Die Leibniz-Institute beschäftigen rund 18.700 Personen, darunter 9.500 Wissenschaftlerinnen und Wissenschaftler. Der Gesamtetat der Institute liegt bei mehr als 1,8 Milliarden Euro. http://www.tropos.de

Weitere Informationen:
http://www.tropos.de/aktuelles/pressemitteilungen/details/umweltzone-senkt-gesun…

Anhang
Umweltzone Leipzig – Abschlussbericht
https://idw-online.de/de/attachment62168

Quelle: idw

(nach oben)


Aquakultur: Neues Verfahren spürt Umweltbelastungen durch Lachsfarmen schneller auf

Melanie Löw Presse- und Öffentlichkeitsarbeit
Technische Universität Kaiserslautern

Um den Bedarf an Lachs zu decken, gibt es unter anderem an den Küsten Skandinaviens und Schottlands viele Lachsfarmen. Für sie gelten strenge Umweltauflagen. Die Farmer müssen überprüfen, wie die Fischzucht das Ökosystem beeinflusst. Dazu analysieren sie, welche Tiere wie Krebse und Würmer auf dem Meeresboden vorkommen. Doch dies ist zeitaufwendig und teuer. An einem schnellen und effizienteren Verfahren arbeiten Forscher der Technischen Universität Kaiserslautern (TUK). Sie nutzen die DNA von Kleinstlebewesen. Damit lassen sich Veränderungen genauer charakterisieren, als dies bislang der Fall war. Die Studie wurde in der renommierten Fachzeitschrift „Ecological Indicators“ veröffentlicht.

Rund 14 Kilogramm Fisch isst jeder Deutsche im Schnitt pro Jahr – besonders häufig kommt dabei Lachs auf den Tisch. Mit mehr als 1,2 Millionen Tonnen jährlich zählt Norwegen zu den größten Lachs-Produzenten weltweit. In großen Käfigen vor der Küste werden die Fische circa zwei Jahre lang aufgezogen. Dabei beeinflussen Futterreste und Ausscheidungen der Fische das Ökosystem im Wasser und auf dem Meeresboden: Bakterien bauen diese Stoffe ab und verbrauchen dabei Sauerstoff. In der Folge kann der Sauerstoffgehalt derart sinken, dass viele Tiere wie Würmer, Krebse oder Seeigel absterben.

Deshalb haben die Umweltbehörden den Lachsfarmen strenge Auflagen auferlegt. „Der Wasseraustausch durch Meeresströmung muss groß genug sein, um die Fische mit Sauerstoff zu versorgen und möglichst viele Abfallstoffe abzutransportieren“, sagt Professor Dr. Thorsten Stoeck, der an der TUK zur Ökologie forscht. „Auch darf es nur unmittelbar unterhalb der Farmen zu einer massiven Veränderung des Ökosystems kommen.“

Um zu überprüfen, wie sich Flora und Fauna auf dem Meeresboden verändern, müssen die Farmer Proben vom Meeresboden entnehmen. „Anhand der vorhandenen Lebewesen kann man sehen, wie es zum Beispiel um die Gesundheit des Meeresbodens bestellt ist. Die Tiere dienen als Indikatoren“, fährt der Professor fort. Allerdings ist dieser Prozess teuer und sehr aufwendig; es dauert nicht selten bis zu einem halbes Jahr, bis Ergebnisse vorliegen. Zu lange, um Maßnahmen zu ergreifen, wenn das Ökosystem zu stark belastet ist.

Ein einfaches, schnelleres und kostengünstigeres Verfahren entwickelt derzeit das Team um Stoeck in seinem Labor auf dem Kaiserslauterer Campus. Die Forscher erhalten die Proben von den Farmen und isolieren Kleinstlebewesen, zum Beispiel Wimperntierchen, auch Ciliaten genannt. Für ihre Methode nutzen die Wissenschaftler deren DNA. „Ihr genetisches Material ist wie ein Fingerabdruck, der nur einer Person zugeordnet werden kann“, sagt der Ökologe. „Ergebnisse liegen hierbei bereits nach rund einer Woche vor.“ Mithilfe der Tierchen ist es zudem möglich, eine genauere Aussage zum Grad der Verschmutzung zu treffen, als dies ist mit der herkömmlichen Methode der Fall ist. „Viele Krebse und Würmer sterben ab, wenn die Sauerstoffkonzentration im Wasser sinkt“, sagt Stoeck. „Mikroben sind hier wesentlich resistenter. Sie kommen besser mit Verschmutzungen und Schadstoff-Belastungen zurecht und passen sich schneller an sich verändernde Bedingungen an.“

Ziel des Projekts ist es, eine Datenbank aufzubauen, bei der DNA-Fingerabdrücke der verschiedenen Kleinstlebewesen hinterlegt sind. „Damit werden wir sogenannte DNA-Barcodes erstellen ähnlich wie bei den Barcodes für Lebensmittel im Supermarkt“, sagt Stoeck weiter, der mit seinem Team weltweit Sedimentproben von verschiedenen Fischfarmen entnehmen wird. „Anhand derer können die Farmer schnell erkennen, wie es um die Gesundheit des Ökosystems bestellt ist.“

Langfristig könnten Farmer zum Beispiel einen DNA-Chip nutzen, mit dessen Hilfe sich die Sedimentproben direkt vor Ort analysieren ließen. Der angezeigte Barcode gibt ihnen dann zeitnah Aufschluss über den Zustand des Meeres. So könnten die Farmer auch schneller auf Probleme reagieren. Derzeit untersuchen sie die vorherrschenden Umweltbedingungen nur, bevor die Fische in die Käfige gesetzt werden und nachdem sie „abgeerntet“ worden sind.

Das Projekt wird von der Deutschen Forschungsgemeinschaft finanziell gefördert. Die Kaiserslauterer Forscher arbeiten hierbei eng mit Kollegen der Universität Genf sowie norwegischen und schottischen Lachsfarmen zusammen. Die Ergebnisse ihrer Arbeit sind jetzt in der Studie „Metabarcording of benthic ciliate communities shows high potential for environmental monitoring in salmon aquaculture“ in der renommierten Fachzeitschrift „Ecological Indicators“ erschienen.
DOI: http://dx.doi.org/10.1016/j.ecolind.2017.10.041

Fragen beantwortet:
Prof. Dr. Thorsten Stoeck
Fachgebiet Ökologie
Tel.: 0631 205-2502
E-Mail: stoeck@rhrk.uni-kl.de

Quelle: idw

(nach oben)


Konzept der Universität Rostock zur Ölhavarie-Bekämpfung erfolgreich auf der Warnow erprobt

Ingrid Rieck Presse- und Kommunikationsstelle
Universität Rostock

Die Wissenschaftler um Professor Fokke Saathoff von der Professur Geotechnik und Küstenwasserbau forschen unter anderem zum Küsten-und Hochwasserschutz. Dazu gehört seit 2011 auch die Ölhavarie-Bekämpfung auf See.

Aktuell arbeiten die Wissenschaftler im Forschungsprojekt SBOIL (South Baltic Oil Spill Response) an der Verbesserung der Ölhavarie-Vorsorge im südlichen Ostseeraum. Das Projektkonsortium besteht aus drei Partnern (Universität Rostock, Maritime Universität Stettin und World Maritime University Malmö) sowie weiteren neun assoziierten Partnern. Das Projekt verfügt über ein Budget von etwa 1,2 Millionen Euro.

Erst kürzlich wurde eine Ölwehrübung auf der Warnow durchgeführt. Das Rostocker Amt für Umweltschutz und das Brandschutz- und Rettungsamt waren als zuständige Behörden für die Ölhavarie-Bekämpfung auf der Warnow dabei. Im Übungsszenario ging man davon aus, dass es im Stadthafen zum Austritt einer unbestimmten Menge von Rohöl beziehungsweise Schiffsdiesel gekommen ist.

Das Rostocker Amt für Umweltschutz entscheidet, dass biogene Bindemittel eingesetzt werden, um die Verschmutzung zu bekämpfen. Dafür ist der Lehrstuhl von Professor Fokke Saathoff mit seinem Team genau der richtige Partner. Denn: Im Vorgänger-Projekt „BIOBIND“ wurde ein luftgestütztes Ölhavarie-Bekämpfungssystem auf Basis biogener Ölbinder entwickelt.

Die Binder wurden per Schiff zeitnah am Ursprungsort der angenommenen Verschmutzung sowie auf zugänglichen Flecken des Gewässers ausgebracht. Auf Höhe der ehemaligen Neptunwerft knickt die Warnow nach Norden ab. An der Westseite des Flusses wurde die speziell dafür entwickelte Netzsperre ausgelegt und mit einer Seite an der Kaikante befestigt. Durch die Strömung wurden die mittlerweile ölgesättigten Binder in das offene Netz getrieben.

Nach Einschätzung von Uwe Badrow vom Amt für Umweltschutz der Hansestadt- und Universitätsstadt Rostock wurde das Ziel dieser Erprobung erreicht. „Die Technik der Uni-Forscher ist geeignet, ölgetränkte Bindemittel von Fließgewässern aufzunehmen und schwimmende Ölbinder von relativ ruhigen Gewässern im Schleppzug abzufischen, sagt Badrow.

Zum Schluss der Übung, also als der Strom der Binder beendet und das Netz gefüllt war, wurde der Netzsack am Ende der Netzsperre mit einem Kran an Land gehoben und in einen flüssigkeitsdichten Container geladen. Das geborgene Bindemittel wurde thermisch entsorgt. Die Netzsperre wurde nach der Entnahme gereinigt und für den nächsten Einsatz vorbereitet.
„Während der Übung ging es ausschließlich um die Handhabung der Netzsperre“, sagt Doktorand Marcus Siewert. „Wir konnten zeigen, dass die vorgeschlagene Technologie zur Bekämpfung von Ölhavarien auf der Unterwarnow mit überschaubarem Material- und Personalbedarf einsetzbar ist“, kommentiert Professor Saathoff.

Das Amt für Umweltschutz ist assoziierter Projektpartner und will die weiteren Entwicklungen des Projektes genau verfolgen. Inzwischen ist die Sperre nach Stettin transportiert worden. Dort wird sie in einen umgebauten 20-Fuß-Seecontainer verladen, um den zukünftigen Einsatz weiter zu vereinfachen. Für das Jahr 2018 sind weitere Übungen mit der polnischen Seenotrettung und der schwedischen Küstenwache geplant. Text: WOLFGANG THIEL

Kontakt:
Universität Rostock
Agrar- und Umweltwissenschaftliche Fakultät
Prof. Dr.-Ing. Fokke Saathoff
Tel.: +49(0)381 498 3700
Fax: +49(0)381 498 3702
Mail: fokke.saathoff@uni-rostock.de

Quelle: idw

(nach oben)


Jobticket nach Europa

Andreas Pieper Presse- und Öffentlichkeitsarbeit
Bundesinstitut für Berufsbildung (BIBB)

Europass Zeugniserläuterungen jetzt auch für Fortbildungen

Auch Fortbildungsabschlüsse werden jetzt europaweit transparent. Von A wie Abwassermeister/-in bis Z wie Zweirad-Servicetechniker/-in liegen nun Europass-Zeugniserläuterungen auch für Fortbildungsberufe vor. Dies ergänzt und erweitert das bisherige Spektrum des Europasses. Die Zeugniserläuterungen liefern eine Kurzbeschreibung der in der Fortbildung erworbenen Kenntnisse, Fertigkeiten und Kompetenzen und ergänzen das Fortbildungszertifikat.

Das Bundesinstitut für Berufsbildung (BIBB) und das Bundesministerium für Bildung und Forschung (BMBF) haben die Zeugniserläuterungen für duale Ausbildungsberufe nach Beratung mit den Ländern und Sozialpartnern gemeinsam entwickelt.

Europa steht für Vielfalt – auch hinsichtlich Bildungssystemen, Ausbildungs- und Studiengängen. Mit dem Europass haben die EU-Mitgliedstaaten 2005 ein Instrument geschaffen, das Abschlüsse vergleichbar macht und mit dem Bürgerinnen und Bürger ihre Qualifikationen europaweit verständlich darstellen können. Mit der Erweiterung auf die Fortbildungsberufe werden jetzt insgesamt mehr und auch spezialisierte Berufsbilder erfasst: Neben den klassischen Abschlüssen sind so auch jene Qualifikationen vergleichbar, die als fachbezogener Zusatz zur Ausbildung erworben wurden und das individuelle Know-how weiter vertiefen.

Wer sich also zum Beispiel als Aus- und Weiterbildungspädagoge, IT-Berater/-in oder Tourismusfachwirt/-in im europäischen Ausland bewerben möchte, sollte einen Blick in die passenden Zeugniserläuterungen werfen. Gleiches gilt für jene, die sich einen Überblick über mögliche Fortbildungsberufe verschaffen wollen. Aktuell sind bereits mehr als 70 Zeugniserläuterungen für Fortbildungsberufe online abrufbar, längerfristig sollen es rund 120 sein.

Der Europass unterstützt das grenzüberschreitende Lernen und Arbeiten in Europa und besteht aus fünf Dokumenten: dem Europass Lebenslauf, dem Europass Sprachenpass, dem Europass Mobilität, den Europass Zeugniserläuterungen und dem Europass Diploma Supplement. Die Europass Zeugniserläuterungen erleichtern es Dritten – insbesondere im internationalen Bereich – zu verstehen, was ein im Zeugnis ausgewiesener Abschluss hinsichtlich der beruflichen Qualifikationen und Kompetenzen bedeutet. Sie beschreiben kompakt den Ausbildungsweg, das Kompetenzprofil einer Qualifikation sowie mögliche Berufsfelder und Zugangsberechtigungen zur nächsten Ausbildungsstufe. Mit diesen wichtigen Informationen und Orientierungshilfen fördern sie die Anerkennung des berufsbildenden Abschlusses im Ausland und unterstützen beim Einstieg in den europäischen Arbeitsmarkt. Sie werden somit zu einem „Jobticket nach Europa“.

Weitere Informationen zum Europass und seinen Dokumenten unter http://www.europass-info.de.

Die Europass Zeugniserläuterungen für duale Aus- und Fortbildungsberufe stellt das BIBB auf Deutsch, Englisch und Französisch zum Download zur Verfügung unter http://www.bibb.de/zeugniserlaeuterungen

Für die Erstellung der Europass Zeugniserläuterungen für landesrechtlich geregelte Berufsausbildungs- und Weiterbildungsabschlüsse sind die Kultusminister der Länder und das Sekretariat der Kultusministerkonferenz zuständig. Die dort verfügbaren Zeugniserläuterungen sind auf Deutsch, Englisch und Französisch unter http://www.kmk.org/themen/berufliche-schulen/schulische-berufsausbildung/europass-zeugniserlaeuterungen.html einzusehen.

Ansprechpartner für Fragen zum Europass ist das Nationale Europass Center (NEC), das in der Nationalen Agentur Bildung für Europa (NA) beim BIBB angesiedelt ist.

Ansprechpartnerin in der NA beim BIBB:
Isabel Götte; E-Mail: goette@bibb.de

Quelle: idw

(nach oben)


Studie: Thermische Verwertung unverzichtbar in der Circular Economy

Dipl.-Chem. Iris Kumpmann Abteilung Public Relations
Fraunhofer-Institut für Umwelt-, Sicherheits- und Energietechnik UMSICHT

Langfristig wird die thermische Abfallbehandlung relevante Beiträge zur Ressourcenschonung und zum Klimaschutz leisten und stoffliche Recyclingverfahren auch in einer zirkularen Wirt-schaft sinnvoll ergänzen. Das zeigt eine Studie zur Rolle der thermischen Verwertung in einer zirkularen Wirtschaft, die Fraunhofer UMSICHT im Auftrag der AGR Abfallentsorgungs-Gesellschaft Ruhrgebiet mbH erstellt hat. Die Studie wurde am 5. Dezember im Rahmen eines Expertenforums vorgestellt und steht zum kostenfreien Download bereit.

Geht es nach der Vision des zirkulären Wirtschaftens, gibt es in Zukunft kaum Abfälle. Bei der im Fachjargon Circular Economy genannten Wirtschaftsweise sollen Waren/Stoffe künftig abfall- und emissionsfrei so lange wie möglich im Kreislauf geführt werden. Wiederverwendung, Weiternutzung und konsequentes Recycling sollen dazu führen, dass idealerweise zukünftig keine Abfälle mehr anfallen. Reststoffe sind dann durchweg Sekundärrohstoffe für weitere Prozesse. Doch noch gehen Vision und Realität nicht zusammen, so das Resümee der Experten aus der Abfallwirtschaft, die am 5. Dezember bei Fraunhofer UMSICHT in Oberhausen zusammen kamen.

Circular Economy noch nicht in Sichtweite
Das Konzept der Circular Economy funktioniert nur, wenn alle Waren stofflich hochwertig zu recyceln und damit kreislauffähig sind. Auf den wesentlichen Anteil der heute produzierten Waren trifft das aber noch nicht zu. Sortenreine Abfälle werden eher stofflich verwertet, während Gemische und Verbundstoffe meist in Verbrennungsanlagen behandelt werden. Stofflich inhomogene Abfallfraktionen ziehen prinzipiell einen hohen Sortieraufwand nach sich, dessen ökologische und ökonomische Notwendigkeit auch vor dem Hintergrund der Vision einer Circular Economy zu rechtfertigen sein muss. »Entscheidend sollten letztlich nicht theoretische Potenziale beim Recycling sein, sondern das, was tatsächlich qualitativ stofflich aufbereitet werden kann«, kommentiert AGR-Geschäftsführer Stephan Kaiser. Hier ist ein cleveres Produktdesign gefordert, das bei der Produktentwicklung bereits die Weichen für ein hochwertiges Recycling stellt.

Potenzial der thermischen Verwertung
»Das Primärziel ist die Emissionsminderung, Inertisierung und Reduktion der Abfallmenge. Dazu dienen die Müllverbrennungsanlagen nach wie vor auch nach 120 Jahren Müllverbrennungsgeschichte«, macht Dr. Ling He vom Umweltbundesamt das Potenzial der thermischen Verwertung deutlich.

»Stoffe, die bedingt durch ihren Verwendungszweck und eine spezifische Produkteigenschaft eine Schadstoffquelle am Ende des Produktlebenszyklus darstellen können, müssen auch in einer zirkulären Wirtschaft einer Behandlung unterzogen werden. Um eine ungewollte Akkumulation von Schadstoffen in späteren Produkten zu vermeiden, sind thermische Abfallbehandlungsanlagen in ihrer Funktion als Schadstoffsenken heute und künftig unverzichtbar«, ergänzt Dr. Markus Hiebel von Fraunhofer UMSICHT, Mitautor der Studie, den Blick auf die Zukunft.

Ein möglichst geringer Energiebedarf bestimmt zudem die Qualität der Circular Economy wesentlich. Auch hier kann die thermische Verwertung punkten, indem sie die je nach Inputmaterial schwankende Energiegehalte in Form von Wärme und Strom nutzt.

Mit Blick auf den aktuellen Stand der Produktentwicklung und des menschlichen Konsums im heutigen Wirtschaftssystem sowie auf das bestehende anthropogene Lager (das Materiallager, das in Gebäuden, Gütern und Infrastruktur steckt), kommt die Studie von Fraunhofer UMSICHT zu dem Schluss, dass die thermische Behandlung von Abfällen langfristig ein unverzichtbarer Baustein der Circular Economy ist.

Weitere Informationen:
https://www.umsicht.fraunhofer.de/content/dam/umsicht/de/dokumente/studien/2017/… Studie MVA Circular Economy
https://www.umsicht.fraunhofer.de/de/presse-medien/2017/thermische-verwertung-ci… Pressemitteilung

Quelle: idw

(nach oben)


Marketing für Hülsenfrüchte

Thomas Richter Öffentlichkeitsarbeit
Georg-August-Universität Göttingen

Kaum ein Land konsumiert so wenig Hülsenfrüchte pro Person wie Deutschland. Dabei sind Erbsen und Bohnen grundsätzlich reich an Proteinen und gesunden Ballaststoffen, und ihr Anbau ist vergleichsweise umweltfreundlich. Forscher der Universität Göttingen wollten nun herausfinden, ob sich die Wertschätzung von Hülsenfrüchten über Werbung mit Gesundheits- und Umweltaspekten erhöhen lässt.

Göttinger Wissenschaftler untersuchen Werbung mit Gesundheits- und Umweltaspekten
(pug) Kaum ein Land konsumiert so wenig Hülsenfrüchte pro Person wie Deutschland. Dabei sind Erbsen und Bohnen grundsätzlich reich an Proteinen und gesunden Ballaststoffen, und ihr Anbau ist vergleichsweise umweltfreundlich. Die Symbiose von Hülsenfrüchten mit Bodenbakterien ermöglicht die Nutzung von Luftstickstoff, einem zentralen Baustein im Pflanzenwachstum. Hülsenfrüchte benötigen daher keinen zusätzlichen Stickstoffdünger. Die Produktion von mineralischem Stickstoffdünger ist sehr energieaufwändig und seine Anwendung kann die Nitratbelastung des Grundwassers erhöhen. Agrarwissenschaftler der Universität Göttingen wollten herausfinden, ob sich die Wertschätzung von Hülsenfrüchten erhöhen lässt, da Nachhaltigkeit mittlerweile für einige Konsumentinnen und Konsumenten eine Rolle spielt. In einer Online-Studie untersuchten sie die Auswirkungen von Werbung mit Gesundheits- und Umweltaspekten für Hülsenfrüchte. Die Ergebnisse sind in der Fachzeitschrift Sustainability erschienen.

Die Forscherinnen und Forscher organisierten eine experimentelle Auktion, bei der rund 1.000 Teilnehmerinnen und Teilnehmer auf Hülsenfruchtprodukte bieten konnten. Je nach Untersuchungsgruppe enthielten die Produkte unterschiedliche Werbebotschaften. Dabei boten die Teilnehmenden, die eine Werbebotschaft erhielten, im Durchschnitt mehr als jene, die keinen positiven Aspekt der Produkte aufgezeigt bekamen. „Die Gruppe, die sowohl Umwelt- als auch Gesundheitsaspekte aufgezeigt bekam, zeigte eine deutlich höhere Zahlungsbereitschaft“, erläutert der Erstautor der Studie, Dominic Lemken. Gleichzeitig weisen die Ergebnisse aber auch darauf hin, dass eine große Anzahl von Werbebotschaften zunehmend weniger zusätzliche Überzeugungskraft für den Verbraucher haben kann.

Weitere Analysen zeigen auch Konsumbarrieren und Vermarktungschancen für Hülsenfrüchte auf. „Neue und verbesserte Pflanzensorten könnten die Verdaulichkeit optimieren und damit die Vorbehalte einiger Verbraucher zerstreuen“, so Lemken. Auch eine innovativere Produktgestaltung, beispielsweise für Erbsen, die in der Regel in Dosen verkauft werden, könnte neue Verbrauchersegmente erschließen. In diesem Zusammenhang bringt die Erbse gute Verarbeitungsqualitäten mit, beispielsweise in Form von Nudeln. „Wenn Umweltaspekte stärker in die Produktkommunikation einbezogen und Konsumbarrieren abgebaut werden, könnten Hülsenfrüchte schon bald wieder einen höheren Stellenwert in unserer Ernährung einnehmen“, so das Fazit der Wissenschaftler.

Originalveröffentlichung: Dominic Lemken et al. The Value of Environmental and Health Claims on New Legume Products: A Non-hypothetical Online Auction. Sustainability 2017. Doi: 10.3390/su9081340.

Kontakt:
Dominic Lemken
Georg-August-Universität Göttingen
Fakultät für Agrarwissenschaften
Marketing für Lebensmittel und Agrarprodukte
Platz der Göttinger Sieben 5, 37073 Göttingen
Telefon (0551) 39-10713
E-Mail: dlemken@gwdg.de

Weitere Informationen:
http://www.uni-goettingen.de/de/490194.html

Quelle: idw

(nach oben)


Bionischer Filter zur Trennung von Mikroplastik

Dipl.-Chem. Iris Kumpmann Abteilung Public Relations
Fraunhofer-Institut für Umwelt-, Sicherheits- und Energietechnik UMSICHT

Der steigende Kunststoffverbrauch und Verluste von Abfall gehen zunehmend mit einer Umweltbelastung durch Mikroplastik einher. In ihrer Masterarbeit hat Leandra Hamann deshalb Lösungen entwickelt, um die Abwasserbelastung durch Kunststoffpartikel kleiner als 5 mm mit bionischen Filtern zu reduzieren. Für diese praxisorientierte Lösung wurde die UMSICHT-Mitarbeiterin am 5. Dezember mit dem Alfred-Kärcher-Förderpreis ausgezeichnet.

Mikroplastik entsteht durch den Zerfall von Kunststoffprodukten und gelangt meist über das Abwasser in die Umwelt. Um diese Einträge zu reduzieren, sind neben regulatorischen und strategischen Maßnahmen vor allem technische Innovationen unabdingbar. Im Rahmen ihrer Masterarbeit hat Leandra Hamann, die bei Fraunhofer UMSICHT in der Abteilung Nachhaltigkeits- und Ressourcenmanagement arbeitet, eine Lösungsidee für dieses Problem entwickelt.

Orientiert hat sich Hamann dafür an Vorbildern in der Natur (Bionik). Sogenannte Suspensionsfresser besitzen Filtersysteme für die Nahrungsaufnahme von im Wasser schwebenden Partikeln nutzen, wie beispielsweise Schwämme, Wasserflöhe oder Krill. Insgesamt wurden 24 Organismen analysiert und bewertet, um ihr Potential für eine bionische Anwendung zu identifizieren. Entdeckt wurden dabei Mechanismen, Strukturen, Formen und Materialien, die erste innovative Lösungen für einen technischen Filter bieten. Darauf aufbauend Hamann schließlich in einer Fallstudie zur Waschmaschine eine Übertragung erstmal theoretisch getestet, um die Emission von Mikroplastikfasern synthetischer Textilien in den Waschmaschinenabfluss zu verhindern. Für ihre Masterarbeit »A Biomimetic Approach for Separating Microplastics from Water« ist die junge Forscherin nun mit dem Alfred-Kärcher-Förderpreis ausgezeichnet worden.

Innovationspotential in der Natur
Leandra Hamann studierte Biologie mit dem Schwerpunkt Bionik und hat in ihrer Abschlussarbeit nicht nur biologische Erkenntnisse und technische Anwendungen mit einer höchst aktuellen Umweltproblematik verknüpft. Auch der von ihr gewählte Anwendungsfall Waschmaschine stellt ein relevantes Einsatzgebiet von Filtertechnologien zur Vermeidung von Mikroplastik dar. Denn Textilfasern bilden mit einem geschätzten Anteil von 250 Tonnen pro Jahr in Deutschland einen großen Anteil der gesamten Mikroplastik-Emissionen. »Es ist schön, dass meine Masterarbeit durch die Auszeichnung noch einmal Anerkennung findet«, sagt Hamann, die den Alfred-Kärcher-Preis und das damit verbundene Preisgeld in Höhe von 1500 € am 5. Dezember 2017 im Kärcher Hauptquartier in Winnenden entgegengenommen hat. »Vor allem freue ich mich aber, dass die Förderer erkannt haben, welches Innovationspotential zur Entwicklung von Reinigungstechno-logien in biologischen Vorbildern steckt, die dazu beitragen, die Umwelt zu schützen.«

Dem Thema Mikroplastik widmet sich Leandra Hamann auch nach ihrem Studium weiterhin, nun als wissenschaftliche Mitarbeiterin bei Fraunhofer UMSICHT. Ihre Masterarbeit und vor allem die Ideen zur Entwicklung eines bionischen Waschmaschinenfilters waren dabei schon Grundlage eines weiterführenden Forschungsprojekts. Über die Projektarbeit hinaus engagiert sich die Wissenschaftlerin in diversen Gesprächsrunden zum Thema. Außerdem hat sie an der Konzeption des Positionspapiers »Mikroplastik« mitgewirkt. Ihre Abschlussarbeit wurde bereits auf dem Bionik-Kongress 2016 in Bremen präsentiert und im Rahmen der Wissensnacht Ruhr ausgezeichnet und ausgestellt.

Über den Preis
Der Alfred Kärcher-Förderpreis honoriert wissenschaftliche Arbeiten, die einen herausragenden Fortschritt auf dem Gebiet der Reinigungstechnik darstellen. Gefördert werden praxisorientierte Lösungen zur Mechanisierung und Automation von manuellen Reinigungstätigkeiten, zur Hygiene sowie zur Pflege und Reinhaltung der Umwelt.

Weitere Informationen:

https://www.umsicht.fraunhofer.de/de/nachhaltigkeit/ag-nachhaltigkeit/positionsp…
https://www.umsicht.fraunhofer.de/content/dam/umsicht/de/dokumente/positionspapi…

Quelle: idw

(nach oben)


Rosige Zeiten für die Meeresforschung: SFB „Roseobacter“ wird weitere vier Jahre gefördert

Christian Engel Stabstelle Presse und Kommunikation
Leibniz-Institut DSMZ-Deutsche Sammlung von Mikroorganismen und Zellkulturen GmbH

Der Senat der Deutschen Forschungsgemeinschaft (DFG) hat grünes Licht für die dritte Projektphase des transregionalen Sonderforschungsbereichs „Roseobacter“ gegeben. Damit stehen von 2018 bis 2022 weitere 9,7 Millionen Euro für Spitzenforschung im Bereich der marinen Mikrobiologie bereit. Das Leibniz-Institut DSMZ, die Deutsche Sammlung von Mikroorganismen und Zellkulturen GmbH, ist für drei der insgesamt 22 Teilprojekte verantwortlich und erhält dafür in der nächsten Förderperiode 1,21 Millionen Euro. Im Mittelpunkt des Sonderforschungsbereichs stehen die Meeresbakterien der Roseobacter-Gruppe, die durch Photosynthese-Pigmente auffallend rosa-rot gefärbt sein können.

Braunschweig – Der Senat der Deutschen Forschungsgemeinschaft (DFG) hat in seiner Sitzung am 24. November grünes Licht für die dritte Projektphase des transregionalen Sonderforschungsbereichs „Roseobacter“ gegeben. Damit stehen von 2018 bis 2022 weitere 9,7 Millionen Euro für Spitzenforschung im Bereich der marinen Mikrobiologie bereit. Im Sonderforschungsbereich haben sich mehrere Universitäten und außeruniversitäre Forschungseinrichtungen Norddeutschlands zusammengeschlossen. Das Leibniz-Institut DSMZ, die Deutsche Sammlung von Mikroorganismen und Zellkulturen GmbH, ist für drei der insgesamt 22 Teilprojekte verantwortlich und erhält dafür in der nächsten Förderperiode 1,21 Millionen Euro, wie die DFG jetzt mitteilte.

Der Entscheidung war eine intensive Evaluierung der bisherigen Leistungen dieses und weiterer Sonderforschungsbereiche vorausgegangen. Nur exzellent bewertete Forschung hatte die Chance, fortgeführt zu werden. Insgesamt werden nun etwa 80 Prozent der bisherigen Großprojekte weiter gefördert. „Wir freuen uns, dass wir uns gegen starke Konkurrenz durchsetzen konnten“, sagt DSMZ-Geschäftsführer Professor Jörg Overmann. „Das ist ein gemeinsamer Erfolg aller Partner im Sonderforschungsbereich und verdeutlicht einmal mehr die wissenschaftliche Leistungsfähigkeit unseres Instituts.“

Im Mittelpunkt des Sonderforschungsbereichs stehen die Meeresbakterien der Roseobacter-Gruppe, die durch Photosynthese-Pigmente auffallend rosa-rot gefärbt sein können. Roseobacter-Bakterien sind in den Ozeanen dieser Erde weit verbreitet und werden – von den Tropen bis hin zu den Polargebieten – in allen Klimazonen angetroffen.

Ziel ist es, die evolutiven, genetischen und physiologischen Prinzipien zu verstehen, die die Roseobacter-Gruppe so erfolgreich machen. Während in den ersten beiden Phasen des Projekts die Modellorganismen Dinoroseobacter shibae und Phaeobacter inhibens im Mittelpunkt der Analysen standen, liegt der Schwerpunkt in der dritten Phase darauf, deren Wechselwirkungen mit Meeresalgen im Detail zu verstehen. Neben Untersuchungen mit der Kieselalge Thalassiosira rotula, deren jährliche Algenblüte in der Nordsee einen entscheidenden Einfluss auf die Produktivität des Ökosystems hat, stellt die komplette Entschlüsselung des Genoms des toxischen Dinoflagellaten Prorocentrum minimum aufgrund der enormen Größe eine besondere Herausforderung dar.

Die drei an der DSMZ bearbeiteten Projekte befassen sich mit der Ökologie und Evolution der Roseobacter-Gruppe.
– Prof. Dr. Jörg Overmann und Dr. Heike Freese erforschen die Evolutionsmechanismen und Anpassungen, die zur Vielfalt und dem Erfolg der Bakteriengruppe im Ozean geführt haben.
– PD Dr. Jörn Petersen und Dr. Silke Pradella erforschen die Funktion von Plasmiden. Diese in der Roseobacter-Gruppe weitverbreiteten extrachromosomalen Träger der Erbinformation vermitteln den Austausch von Genen über die Artgrenze hinaus.
– PD Dr. Markus Göker und sein Team untersuchen die Merkmalsevolution der gesamten Roseobacter-Gruppe und erarbeiten dazu auch einen zuverlässigen, auf Genomdaten basierenden Stammbaum.

Im Sonderforschungsbereich Transregio 51 „Ökologie, Physiologie und Molekularbiologie der Roseobacter-Gruppe: Aufbruch zu einem systembiologischen Verständnis einer global wichtigen Gruppe mariner Bakterien“ arbeiten Wissenschaftlerinnen und Wissenschaftler des Leibniz-Instituts DSMZ, der TU Braunschweig, dem Helmholtz-Zentrum für Infektionsforschung, dem Genomlabor der Universität Göttingen, dem Kekulé-Institut für Organische Chemie und Biochemie der Universität Bonn und der Universität Oldenburg zusammen. Sprecherhochschule ist die Universität Oldenburg und Sprecher Professor Meinhard Simon aus deren Institut für Chemie und Biologie des Meeres. Der Sonderforschungsbereich startete im Jahr 2010. Mit der nun beginnenden dritten Projektphase wird das Vorhaben für insgesamt 12 Jahre gefördert.

Über das Leibniz-Institut DSMZ
Das Leibniz-Institut DSMZ – Deutsche Sammlung von Mikroorganismen und Zellkulturen GmbH ist eine Einrichtung der Leibniz-Gemeinschaft und mit seinen umfangreichen wissenschaftlichen Services und einem breiten Spektrum an biologischen Materialien seit Jahrzehnten weltweiter Partner für Forschung und Industrie. Als einem der größten biologischen Ressourcenzentren seiner Art wurde der DSMZ die Übereinstimmung mit dem weltweit gültigen Qualitätsstandard ISO 9001:2008 bestätigt. Als Patenthinterlegungsstelle bietet die DSMZ die bundesweit einzigartige Möglichkeit, biologisches Material nach den Anforderungen des Budapester Vertrags aufzunehmen. Neben dem wissenschaftlichen Service bildet die sammlungsbezogene Forschung das zweite Standbein der DSMZ. Die Sammlung mit Sitz in Braunschweig existiert seit 48 Jahren und beherbergt mehr als 56.000 Kulturen und Biomaterialien. Die DSMZ ist die vielfältigste Sammlung weltweit: Neben Pilzen, Hefen, Bakterien und Archaea werden dort auch menschliche und tierische Zellkulturen sowie Pflanzenviren und pflanzliche Zellkulturen erforscht und archiviert. www.dsmz.de

Über die Leibniz Gemeinschaft
Die Leibniz-Gemeinschaft verbindet 91 selbständige Forschungseinrichtungen. Ihre Ausrichtung reicht von den Natur-, Ingenieur- und Umweltwissenschaften über die Wirtschafts-, Raum- und Sozialwissenschaften bis zu den Geisteswissenschaften. Leibniz-Institute widmen sich gesellschaftlich, ökonomisch und ökologisch relevanten Fragen. Sie betreiben erkenntnis- und anwendungsorientierte Forschung, auch in den übergreifenden Leibniz-Forschungsverbünden, sind oder unterhalten wissenschaftliche Infrastrukturen und bieten forschungsbasierte Dienstleistungen an. Die Leibniz-Gemeinschaft setzt Schwerpunkte im Wissenstransfer, vor allem mit den Leibniz-Forschungsmuseen. Sie berät und informiert Politik, Wissenschaft, Wirtschaft und Öffentlichkeit. Leibniz-Einrichtungen pflegen enge Kooperationen mit den Hochschulen – u.a. in Form der Leibniz-WissenschaftsCampi, mit der Industrie und anderen Partnern im In- und Ausland. Sie unterliegen einem transparenten und unabhängigen Begutachtungsverfahren. Aufgrund ihrer gesamtstaatlichen Bedeutung fördern Bund und Länder die Institute der Leibniz-Gemeinschaft gemeinsam. Die Leibniz-Institute beschäftigen rund 18.600 Personen, darunter 9.500 Wissenschaftlerinnen und Wissenschaftler. Der Gesamtetat der Institute liegt bei mehr als 1,7 Milliarden Euro.

Weitere Informationen:
http://www.roseobacter.de Homepage des Sonderforschungsbereichs

Quelle: idw

(nach oben)


Spektakuläre Filmaufnahmen vom Oberrhein online

Sabine Johnson Presse- und Öffentlichkeitsarbeit
Bundesanstalt für Wasserbau (BAW)

BAW-Film vom Karlsruher Wissenschaftsfestival EFFEKTE 2017 auf YouTube.
Die Bundesanstalt für Wasserbau (BAW) macht heute ihren Film über den Oberrhein, der als Beitrag für das diesjährige Karlsruher Wissenschaftsfestivals EFFEKTE entstanden ist, über die Videoplattform YouTube einem größeren Publikum zugänglich.

Unter dem Titel „Der Oberrhein – Lebensader vor den Toren Karlsruhes“ ist der Film ab sofort für die Bevölkerung in der Region und andere Interessierte auf dem BAW-eigenen YouTube-Kanal zu finden. Mit dem Hochladen des Films reagiert die BAW auf die vielen Nachfragen hinsichtlich der Verfügbarkeit des Films und die überwältigende Resonanz der Filmaufführungen während des Wissenschaftsfestivals und der Karlsruher Museumsnacht (KAMUNA). „Eine Plattform wie YouTube macht es möglich, dass wir mit unserem Film über die Veranstaltungen hinaus eine breitere Öffentlichkeit in den Blick nehmen. Wir möchten auf diesem Weg diejenigen erreichen, die beim Wissenschaftsfestival oder bei der KAMUNA keine Gelegenheit hatten, den Film zu sehen. Gleichzeitig hoffen wir natürlich auf ein neues interessiertes Publikum, das wir für die Faszination Oberrhein aus Sicht des Wasserbaus gewinnen können“, sagt der Leiter der Bundesanstalt für Wasserbau, Prof. Dr.-Ing. Christoph Heinzelmann, beim heutigen Filmstart.

„Atemberaubende Luft- und Landschaftsaufnahmen des Oberrheins zwischen der Staustufe Iffezheim und dem Rheinhafen Karlsruhe“, so lautet der Untertitel des ca. 40-minütigen Films. In drei Etappen begibt sich der Zuschauer auf Entdeckungsreise entlang des Rheins, vorbei an wasserbaulich geprägten Flusslandschaften und unberührter Natur. Der Film bietet aber mehr als außergewöhnliche und überraschende Bilder der regionalen Lebensader vor den Toren von Karlsruhe. Die spektakuläre Reise durch die oberrheinische Wasserwelt wird immer wieder unterbrochen für spannende Einblicke in die Arbeit der BAW als Wissenschaftseinrichtung für den Verkehrswasserbau. Impressionen aus den wasserbaulichen Versuchshallen und Laboren zeigen etwa, wie die Experten Naturuntersuchungen, Experimente und Computersimulationen einsetzen, um den Rhein nachhaltig befahrbar zu machen, Schleusentore vor Korrosionsschäden zu schützen oder wandernden Fischen trotz baulicher Hindernisse das Weiterschwimmen im Rhein zu ermöglichen. „In unserer Funktion als wissenschaftlicher Gutachter und Berater beschäftigen wir uns in diesem Rheinabschnitt intensiv mit Fragestellungen zur Erhaltung und Instandsetzung der Staustufe Iffezheim, zur Optimierung der künstlichen Geschiebezugabe im Unterwasser der Staustufe und zu flussbaulichen Regelungs-maßnahmen. Aber auch fahrdynamische und ökologische Fragen zählen zu unseren Untersuchungsschwerpunkten am Oberrhein“, erklärt Heinzelmann.

Weitere Informationen:
https://youtu.be/AH6smtN07TE

Quelle: idw

(nach oben)


Neu aus dem ÄZQ: Patientenleitlinie „Kreuzschmerz“

Corinna Schaefer M.A. Presse- und Öffentlichkeitsarbeit
Ärztliches Zentrum für Qualität in der Medizin

Bettruhe, Bewegung oder Medikamente – welche Behandlung ist bei Beschwerden im Kreuz die richtige? Was Fachleute derzeit empfehlen, lesen Patientinnen und Patienten in der neuen ÄZQ-Patientenleitlinie „Kreuzschmerz“.

Jeder kennt Kreuzschmerzen. Oft sind sie harmlos und gehen von alleine weg. Die Schmerzen können aber auch länger andauern oder wiederkehren. Das kann belasten und im Alltag einschränken. Gegen die Schmerzen werden viele Behandlungen angeboten: einige helfen, andere nicht.

Die Patientenleitlinie: Aktuelles Wissen verständlich gemacht
Die neue Patientenleitlinie fasst den aktuellen Wissenstand zu Kreuzschmerzen zusammen. Sie hilft beispielsweise zu verstehen, was persönliche und berufliche Probleme mit dauerhaften Kreuzschmerzen zu tun haben. Und Betroffene erfahren auch, warum Bewegung gegen Kreuzschmerzen hilft und Ärztinnen und Ärzte selten röntgen oder eine MRT machen. Außerdem bietet die Patientenleitlinie Informationen zum Umgang mit der Krankheit.

Zusätzlich hat das Ärztliche Zentrum für Qualität in der Medizin (ÄZQ) zwei sogenannte Kurzinformationen für Patienten überarbeitet. Die zweiseitigen Informationsblätter geben einen Überblick zu plötzlichen und dauerhaften Kreuzschmerzen.

Die Patientenleitlinie und die Kurzinformationen stehen kostenfrei zur Verfügung.

Hintergrund: Das Programm für Nationale VersorgungsLeitlinien (NVL)
Grundlage für die Patientenleitlinie ist die aktuelle Fachleitlinie „Nicht-spezifischer Kreuzschmerz“. Diese hat das ÄZQ zusammen mit einer Expertengruppe im Programm für Nationale VersorgungsLeitlinien erarbeitet. Träger des Programms sind Bundesärztekammer, Kassenärztliche Bundesvereinigung und Arbeitsgemeinschaft der Wissenschaftlichen Medizinischen Fachgesellschaften.

Weitere Informationen:
http://www.patienten-information.de/patientenleitlinien/patientenleitlinien-nvl/… – Patientenleitlinie „Kreuzschmerz“
http://www.patienten-information.de/kurzinformationen/ruecken/akuter-kreuzschmer… – Kurzinformation für Patienten: „Akute Kreuzschmerzen“
http://www.patienten-information.de/kurzinformationen/ruecken/chronischer-kreuzs… – Kurzinformation für Patienten: „Chronische Kreuzschmerzen“
http://www.leitlinien.de/nvl/kreuzschmerz – NVL Nicht-spezifischer Kreuzschmerz

Quelle: idw

(nach oben)


Damit die Energiewende gelingt: Solar-Institut Jülich der FH Aachen baut neuartigen Stromspeicher

Team Pressestelle Presse-, Öffentlichkeitsarbeit und Marketing
FH Aachen

Wenn die Energiewende gelingen soll, muss vor allem ein Problem gelöst werden: die Speicherung von Strom. Das Solar-Institut Jülich (SIJ) der FH Aachen entwickelt gemeinsam mit Partnern aus der Industrie den multifunktionalen thermischen Stromspeicher multiTESS. Kern des neuen Konzeptes ist die Umwandlung von Strom in Wärme – auch Power-to-Heat genannt -, kombiniert mit einem Hochtemperatur-Wärmespeicher, wodurch deutlich niedrigere Speicherkosten als bisher möglich werden. Das Projekt hat ein Gesamtvolumen von rund 3,6 Mio. Euro, wovon das SIJ aus Mitteln des Bundesministeriums für Wirtschaft und Energie knapp 1,8 Mio. Euro erhält.

Das SIJ forscht bereits seit Jahren an Strom- und Wärmespeichern, sie werden unter anderem im Solarturm Jülich erprobt. Im Gegensatz zu den bereits verfügbaren Power-to-Heat-Lösungen, bei denen aus Strom Wärme bei etwa 100 Grad Celsius erzeugt und gespeichert wird, werden bei multiTESS zehnmal höhere Temperaturen erreicht. Der neue Stromspeicher funktioniert dabei ähnlich wie eine Kombination aus Induktionsherd und Fön, wobei ein Luftstrom mit bis zu 1000 Grad erzeugt wird. Der heiße Luftstrom strömt im Anschluss durch einen keramischen Wärmespeicher, wo die Wärme zwischengespeichert wird und bei Bedarf wieder abgerufen werden kann. Durch die hohe Temperatur kann aus Wärme erneut Strom erzeugt werden, was beim herkömmlichen Power-to-Heat-Konzept wegen der niedrigen Temperaturen nicht wirtschaftlich ist. Der multiTESS kann darüber hinaus auch Prozesswärme auf verschiedenen Temperaturniveaus bereitstellen und ist dadurch flexibel einsetzbar, etwa für verschiedene Industrieanwendungen sowie zum Heizen und Kühlen. Dadurch werden Energienutzungsgrade von über 80 Prozent erreicht. Zudem lässt er sich kostengünstig mit einer zusätzlichen Feuerung kombinieren, sodass selbst bei längeren Phasen, in denen kein Solar- oder Windstrom produziert werden kann, die Strom- und Wärmeversorgung gewährleistet ist. Wird die Feuerung dabei mit einem regenerativen Brennstoff (etwa durch Power-to-Gas) betrieben, entsteht mit dem multiTESS quasi der erste Speicher, der niemals versiegt.
Der multifunktionale Stromspeicher multiTESS wird in einem auf drei Jahre angelegten Projekt mit dem Titel „Thermischer Stromspeicher für den Strommarkt 2.0″ auf dem Campus Jülich der FH Aachen Realität. Vom Industriepartner Otto Junker GmbH wird dazu mit Unterstützung der B&S GmbH eine Elektroheizung nach dem Prinzip des Induktionsherds speziell für diese Anwendung entwickelt. Weitere Projektpartner sind die Firma Dürr Systems AG, die den Wärmespeicher entwickelt, und die Kraftanlagen München GmbH, die für die Gesamtanlagenplanung verantwortlich ist. „Nach drei Jahren Vorbereitung freuen wir uns nun, dass wir mit diesem starken Industriekonsortium den Zuschlag erhalten haben und nun endlich loslegen können“, so Prof. Dr. Ulf Herrmann, geschäftsführender Direktor des SIJ und Initiator des Projektes.

Quelle: idw

(nach oben)


Heilung nach Herzinfarkt – Woher die Immunantwort kommt

Luise Dirscherl Stabsstelle Kommunikation und Presse
Ludwig-Maximilians-Universität München

Nach einem Herzinfarkt ist die Heilung nah: Die Immunantwort wird im nahe gelegenen perikardialen Fettgewebe gesteuert, wie eine Studie von LMU-Medizinern zeigt.

Nach einem Herzinfarkt muss das Immunsystem schnell reagieren, um den Heilungsprozess anzuregen. Die entscheidende Stelle, an der es zu einer Aktivierung der Immunreaktion bei einem Herzinfarkt kommt, haben nun Forscher um Sabine Steffens, Professorin für Klinische Pathobiochemie am Institut für Prophylaxe und Epidemiologie der Kreislaufkrankheiten (IPEK) am Klinikum der LMU, identifiziert. Es sind Cluster (Anhäufungen) von Lymphozyten, die sich im sogenannten perikardialen Fettgewebe des Herzbeutels befinden. Darüber berichten die Forscher aktuell im Fachmagazin Circulation.

„Cluster von Lymphozyten sind wichtige Orte für die adaptive Immunantwort und die Entzündungsüberwachung“, erklärt Sabine Steffens. Diese Cluster wurden im Jahr 2015 erstmals an mehreren Stellen im Fettgewebe des Körpers entdeckt. „Sie dienen vermutlich als lokale Überwachungsstellen, damit die Immunantwort möglichst schnell anspringt.“ Das perikardiale Fettgewebe, nahe am Herzmuskel gelegen, hat eine sehr hohe Dichte an Lymphozyten-Clustern. „Nach einem Herzinfarkt wird hier die Immunantwort aktiviert und gesteuert“, fasst Steffens ihr Studienergebnis zusammen. Es werden Lymphozyten aktiviert und Zytokine freigesetzt, die wiederum dafür sorgen, dass weitere Immunzellen, die Neutrophile, zu dem geschädigten Herzmuskel wandern. Sie lösen dort eine Entzündungsredaktion aus, durch die das geschädigte Gewebe von Immunzellen abgebaut wird.

Das Team um Steffens konnte nun erstmals im Mausmodell den Mechanismus aufzeigen, wie die Cluster von Lymphozyten im perikardialen Fettgewebe nach einem Herzinfarkt die Immunantwort steuern und welch entscheidende Rolle sie damit für den Heilungsprozess haben. Zudem haben die Forscher im Rahmen der Studie Daten von Patienten mit und ohne koronare Herzerkrankungen ausgewertet. Bei jenen mit koronaren Herzerkrankungen wurde eine höhere Konzentration von Lymphozyten im perikardialen Fettgewebe nachgewiesen. Die neuen Erkenntnisse sind auch relevant für die therapeutische Behandlung von Herzinfarkten. So könnten Veränderungen im perikardialen Fettgewebe einen Einfluss auf den Heilungsprozess haben.

Publikation:
Michael Horckmans, Mariaelvy Bianchini, Donato Santovito, Remco T. A. Megens, Jean-Yves Springael, Irene Negri, Michele Vacca, Marco Di Eusanio, Antonio Moschetta, Christian Weber, Johan Duchene, Sabine Steffens:
„Pericardial Adipose Tissue Regulates Granulopoiesis, Fibrosis and Cardiac Function After Myocardial Infarction“
In: Circulation 2017
http://circ.ahajournals.org/content/early/2017/11/21/CIRCULATIONAHA.117.028833.a…

Kontakt
Prof. Sabine Steffens
Institut für Prophylaxe und Epidemiologie der Kreislauferkrankungen
Klinikum der LMU
Tel.: +49 (0) 89/4400-54674
E-Mail: sabine.steffens@med.uni-muenchen.de

Quelle: idw

(nach oben)


Intelligentes Wassermanagement für Indiens Städte

Dr. Claudia Vorbeck Presse und Öffentlichkeitsarbeit
Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik IGB

Anfang Oktober fiel der Startschuss für das vom Bundesumweltministerium aus der »Exportinitiative Umwelttechnologien« geförderte Projekt »Smart Water Future India«. Ziel des vom Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik IGB koordinierten Projekts ist es, ein Konzept für das intelligente Wassermanagement der südindischen Millionenstadt Coimbatore zu erarbeiten. Dabei sollen auch Wege aufgezeigt werden, wie die boomenden Metropolen Indiens mithilfe deutscher Wasser- und Abwassertechnologien unterstützt werden können.

Die Wirtschaft Indiens boomt. Damit zieht es die Menschen des großteils noch ländlich geprägten Schwellenlands vermehrt in die wirtschaftlich bedeutsamen Ballungsgebiete. Während 2016 noch rund ein Drittel der 1,31 Milliarden Menschen Indiens in Städten lebte, wird die Stadtbevölkerung bis 2050 um weitere 400 Millionen Menschen wachsen, wie die Vereinten Nationen prognostizieren. Doch der Ausbau der städtischen Infrastruktur im Land mit der zweitgrößten Bevölkerung der Erde hält schon jetzt kaum Schritt mit der rasanten Urbanisierung. Es mangelt an Wohnraum, der öffentliche Nahverkehr ist zu Stoßzeiten hoffnungslos überlastet, das städtische Stromnetz bricht unter der hohen Nachfrage immer häufiger zusammen.

Darüber hinaus sind es vor allem die Wasserversorgung und Abfall- und Abwasserentsorgung, die Indiens Metropolen zu schaffen machen: Vielerorts ist die Versorgung mit Trinkwasser auf ein paar Stunden pro Tag beschränkt, viele Stadtviertel sind noch gar nicht an die Wasserversorgung angeschlossen. Ebenso fehlen in vielen städtischen Gebieten Abwasserkanalisation und Kläranlagen. Abwässer werden daher unbehandelt in Flüsse und Seen eingeleitet, die gleichzeitig Trinkwasser für die kommunale Wasserversorgung liefern.
Mit intelligenten Konzepten zum Water Innovation Hub

Intelligente Lösungen, um die sich rasant entwickelnden Städte lebenswerter, effizienter und umweltfreundlicher zu gestalten, will das vom Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik IGB koordinierte Projekt »Smart Water Future India« erarbeiten, das seit Anfang Oktober vom deutschen Bundesministerium für Umwelt, Naturschutz, Bau und Reaktorsicherheit (BUMB) gefördert wird. Am Beispiel der südindischen Millionenstadt Coimbatore, Verkehrsknotenpunkt im Bundesstaat Tamil Nadu, soll ein Konzept für das nachhaltige Wassermanagement einer intelligent vernetzten Stadt entwickelt werden.

Der Kern des neuen Ansatzes liegt darin, die Herausforderungen bei der Stadtentwicklung nicht getrennt nach den herkömmlichen Sektoren zu betrachten. »Vielmehr sollen im Sinne des Nexus Wasser-Energie-Ernährungssicherheit Lösungen für Wasserversor-gung, Energieversorgung und Ernährungssicherheit übergreifend entwickelt und intelligent vernetzt werden, um die Konkurrenz um Ressourcen zu vermindern«, erklärt Dr. Marius Mohr, Wasserexperte am Fraunhofer IGB und Koordinator des Projekts. Für die Bedarfsanalyse lehnt sich das Projekt an die im Rahmen der Fraunhofer-Initiative Morgenstadt entwickelte Methodik des »Morgenstadt City Lab« an, die Mohr bereits in der georgischen Hauptstadt Tiflis erfolgreich angewandt hat.

Konkrete Handlungsempfehlungen sollen den städtischen Entscheidern aufzeigen, wie sie die Situation in Wasserversorgung und Abwasserentsorgung nachhaltig verbessern können. Von den Maßnahmen profitiert schließlich auch die Umwelt – durch reduzierten Verbrauch von Ressourcen und die Entlastung von Grundwasser und Oberflächengewässern.

Gleichzeitig kann das Projekt deutschen Unternehmen der Wasserbranche den Zugang zum gewaltigen indischen Markt der Wasser- und Abwasserwirtschaft erleichtern. Obschon die Studie ergebnisoffen erfolgt und sich allein am Bedarf in Indien orientiert, ist es das Ziel, mit dem Projekt die Weichen für langfristige Partnerschaften deutscher Firmen mit der indischen Wasserbranche zu stellen – auch über das Ende des Vorhabens hinaus. Vor allem kleine und mittelständische Unternehmen der deutschen Wasserbranche können so von dem Netzwerk profitieren, das in Coimbatore einen »Water Innovation Hub« etablieren soll.
Coimbatore – Smart City in Südindien

Mit 1,7 Mio Einwohnern auf 257 Quadratkilometern ist Coimbatore eine der über 50 typischen von der Industrie geprägten Millionenstädte Indiens. In Coimbatore gibt es aktuell etwa 50 000 Haushalte, die nicht an die Wasserinfrastruktur und Stromversorgung angeschlossen sind. Schätzungen zufolge wird die Bevölkerung der südindischen Stadt in den kommenden 30 Jahren um eine weitere Million Menschen wachsen. Die Sicherung der Wasserversorgung und Abwasserentsorgung ist eines der dringendsten Probleme: Auch hier kann die Wasserversorgung nur für ein paar Stunden am Tag aufrecht erhalten werden. Nicht einmal 40 Prozent des Abwassers werden über ein zentrales Kanalisationssystem abgeleitet. Coimbatore ist eine der drei von Deutschland unterstützten »Smart Cities« in Indien (siehe Infokasten).

Projektpartner und Förderung
Das Projekt »Smart Water Future India« wird von Oktober 2017 bis März 2019 im Rahmen der »Exportinitiative Umwelttechnologien« des Bundesministeriums für Umwelt, Naturschutz, Bau und Reaktorsicherheit (BMUB) gefördert. Projektpartner neben dem Fraunhofer IGB sind das Stuttgarter Beratungs- und Planungsunternehmen Drees & Sommer Advanced Building Technologies GmbH, das ISOE – Institut für sozial-ökologische Forschung in Frankfurt am Main und die Kölner trAIDe GmbH – Partner für die internationale Geschäftsanbahnung.

100 Smart Cities« und deutsch-indische Zusammenarbeit
Mit dem 2015 ins Leben gerufenen Smart-City-Programm fördert die indische Regierung 100 Städte. Durch neue Technologien und Investitionen in eine durchgehende Wasser- und Stromversorgung, einen funktionierenden öffentlichen Nahverkehr und bessere Bildungsangebote sollen effiziente, nachhaltige und lebenswerte urbane Räume entstehen.

Im Rahmen der deutsch-indischen Zusammenarbeit unterstützt Deutschland drei dieser indischen Städte, darunter Coimbatore, bei der Umsetzung ihrer Smart-City-Pläne. Ziel der Stadt Coimbatore ist es, bis 2045 alles Abwasser zu sammeln und zu reinigen. Dabei soll 70 Prozent des Wassers wiederverwendet werden und auch Regenwasser genutzt werden.

Anhang
Projekt »Smart Water Future India«
https://idw-online.de/de/attachment59267

Quelle: idw

(nach oben)


Der Reiz von Verschwörungstheorien und Fake News

Patricia Achter Dezernat Kommunikation
Otto-Friedrich-Universität Bamberg

Bamberger Psychologen forschen zu Wahrnehmungsprozessen
Nahezu 40 Prozent der Amerikaner halten den Klimawandel für eine Lüge. In Deutschland negieren Reichsbürger das Bestehen der Bundesrepublik. Alternative Fakten und Fake News haben Hochkonjunktur. Aber das Phänomen ist nicht neu, der Glaube an Verschwörungstheorien ist alt und vielfältig – das Attentat auf John F. Kennedy, die Mondlandung 1969 und der Terrorakt 9/11 sind nur die bekanntesten in einer schier unüberschaubaren Menge an Verschwörungs-Themen. Gerade aber wegen ihrer Aktualität werden Verschwörungstheorien in der Wissenschaft wieder untersucht. Auch an der Otto-Friedrich-Universität Bamberg wird an diesem Thema geforscht.

Dr. Marius Raab, wissenschaftlicher Mitarbeiter, und Prof. Dr. Claus-Christian Carbon, Inhaber des Lehrstuhls für Allgemeine Psychologie und Methodenlehre, untersuchen Prozesse der Wahrnehmung und Informationsverarbeitung, die beim Umgang mit Verschwörungstheorien und Fake News ablaufen. „Unsere Fragestellung lautet: Wie gehen Menschen mit Informationen um und welche Informationen fließen in ihre weiteren Überlegungen ein?“, erklärt Carbon. „Dazu bedienen wir uns der Methode der Narrativen Konstruktion.“ Die Testpersonen erhalten Informationskärtchen zu einem bestimmten Ereignis, mit denen sie dann eine Geschichte konstruieren, die ihnen am plausibelsten erscheint.

„Bei einer Studie mit 30 Teilnehmern boten wir unseren Versuchspersonen Informationskärtchen mit Aussagen zum Terroranschlag 9/11 an. Die Aussagen auf den Karten reichten von offiziellen Meldungen seriöser Nachrichtensender bis hin zu abstrusen Behauptungen aus dem Netz, also von einem Anschlag der Terrororganisation al-Qaida bis hin zu der Annahme, dass die amerikanische Regierung den Anschlag selbst konstruiert hat“, schildert Raab. Wenn die Wissenschaftler im nächsten Versuch die Angaben auf den Kärtchen ändern, können sie beobachten, ob und warum sich die Geschichten der Versuchspersonen verändern. Ein Befund war: Verschwörungstheorien sind kein Nischenphänomen. In dieser Studie war die Konstruktion einer Erklärung, die die offizielle 9/11-Sichtweise der amerikanischen Regierung in Frage stellt oder sogar ablehnt, deutlich in der Mehrheit.

Aus den wahrnehmungspsychologischen Forschungen ergibt sich für die Wissenschaftler auch die Frage nach der gesellschaftspolitischen Bedeutung von Verschwörungstheorien. „Sie können harmlos sein, eine Speerspitze für gesellschaftliche Veränderungen oder brandgefährlich – der Inhalt entscheidet“, so Raab. Als Instrument, mit dem Politik und Institutionen hinterfragt und Diskussionen angeregt werden, könne eine Verschwörungstheorie die Gesellschaft jedoch auch bereichern, betont er.

Ein ausführliches Interview mit Claus-Christian Carbon und Marius Raab zum Thema Verschwörungstheorien und Fake News finden Sie unter:
www.uni-bamberg.de/news/artikel/verschwoerungstheorien-raab-carbon
Näheres zum Forschungsprojekt finden Sie unter „Aktuelle Themen“ auf den Seiten des Lehrstuhls: www.uni-bamberg.de/allgpsych

Kontakt für inhaltliche Rückfragen:
Dr. Marius Raab
Lehrstuhl für Allgemeine Psychologie
Tel. 0951/863-1859
marius.raab@uni-bamberg.de

Weitere Informationen:
http://www.uni-bamberg.de/news/artikel/verschwoerungstheorien-raab-carbon
http://www.uni-bamberg.de/allgpsych

Quelle: idw

(nach oben)


Saisonale unterirdische Wärmespeicher können Kohlekraftwerke bei der Wärmeversorgung ersetzen

Dr. Boris Pawlowski Presse, Kommunikation und Marketing
Christian-Albrechts-Universität zu Kiel

Nationales Symposium zur „Energiespeicherung im geologischen Untergrund“ an der Uni Kiel

Am 28.11.2017 trafen sich rund 100 Expertinnen und Experten in Kiel, um sich über den Status quo und über zukünftige Bedarfe an unterirdischen Energie- und Wärmespeichern auszutauschen.

Der aus Klimaschutzgründen dringend notwendige Umbau des Energieversorgungssystems hin zu erneuerbaren Energiequellen bringt nicht nur die Herausforderung eines stark fluktuierenden Energieangebotes mit sich. Sehr bedeutend ist auch die Frage, wie die erforderlichen Energiemengen für den Wärme- und Mobilitätssektor, die derzeit ungefähr die dreifache Energiemenge des Stromsektors benötigen, ohne massive Umweltauswirkungen nachhaltig dargestellt werden können. Aktuell zeigt sich die Relevanz dieser Frage bei den Diskussionen über den Kohleausstieg. Was die Stromerzeugung betrifft, wäre er möglich, seine Konsequenzen für die Wärmeversorgung werden jedoch kaum wahrgenommen.

Die Energiewende sieht vor, dass die Energieversorgung in Deutschland bis 2050 zu 60 Prozent aus erneuerbaren Energiequellen gedeckt wird. Insbesondere für die Wärmeversorgung müssten daher zusätzliche erneuerbare Quellen sowie industrielle Ab- oder Prozesswärme oder Wärme aus der Gebäudeklimatisierung erschlossen werden, um fossile Energien und somit Kohlekraftwerke ersetzen zu können. Heute (Dienstag, 28. November) trafen sich rund 100 Expertinnen und Experten in Kiel, um sich über den Status quo und über zukünftige Bedarfe an unterirdischen Energie- und Wärmespeichern auszutauschen. Anlass ist die Fortführung des Projekts ANGUS (Auswirkungen der Nutzung des geologischen Untergrundes als thermischer, elektrischer oder stofflicher Speicher), das vom Bundesministerium für Wirtschaft und Energie (BMWi) bis Ende 2020 mit 6,6 Millionen Euro gefördert wird. Das Projekt wird durch das Institut für Geowissenschaften der Christian-Albrechts-Universität zu Kiel (CAU) koordiniert. Die Verbundpartner kommen von der Hochschule Flensburg, von der Europa-Universität Flensburg, von der Johannes Gutenberg-Universität Mainz und vom Helmholtz-Zentrum für Umweltforschung Leipzig.

Dr. Robert Habeck: „Wir haben als Gesellschaft die Aufgabe, den Klimaschutz umzusetzen. Die Zeit galoppiert uns davon. Deshalb müssen wir vorangehen: Wir müssen nicht nur die Erneuerbaren Energien und Stromnetze ausbauen, sondern die nächsten Phasen beginnen. Die Energiewende ist nämlich keine reine Stromwende, sondern wir müssen sie mit Wärme, Verkehr und Industrie verzahnen. Dazu müssen wir auch den Blick auf unterirdische Speichermöglichkeiten richten, denn die Nutzung an der Oberfläche stößt auch an Grenzen. Landwirtschaft, Infrastruktur, Gewerbegebiete, Energiewende und vieles mehr – die Konflikte strapazieren die Kompromissfähigkeit des Landes. Deshalb gilt es, die Potenziale, die der Untergrund für Energiewende und Klimaschutz bietet, umweltverträglich zu nutzen.“

Kiels Universitätspräsident Professor Lutz Kipp betonte bei der Eröffnung des Symposiums, dass die Hochschulen und Forschungsinstitutionen gerade bei der globalen Schicksalsfrage des Klimawandels gefordert seien, noch stärker als bisher ihre Aufgabe in einer aufgeklärten Gesellschaft auszufüllen: „An der Kieler Universität stellen sich die Wissenschaftlerinnen und Wissenschaftler verschiedener Disziplinen dieser Herausforderung in der Grundlagen- und anwendungsorientierten Forschung ebenso wie in der Ausbildung von Fachkräften. Wenn Entschädigungszahlungen für abgeschaltete Windmühlen von zum Teil 300 Millionen Euro jährlich weit höher sind als der Etat aller schleswig-holsteinischen Hochschulen zusammen, dann besteht dringender systemischer Optimierungsbedarf, den wir als Universität gerne mitgestalten.“

Ein inhaltlicher Schwerpunkt des Symposiums waren Wärmeversorgungskonzepte für Städte. Professor Andreas Dahmke von der CAU stellte fest: „Die regenerative Wärme- und Kälteversorgung von Städten ist auch international einer der bedeutendsten Hebel für die Energiewende und einer der Schlüssel für den Kohleausstieg. Die Nutzung saisonaler unterirdischer Wärmespeicher eröffnet dabei die Möglichkeit, Wärmekraftwerke basierend auf fossilen Brennstoffen sogar schon mittelfristig teilweise ersetzen zu können“. Professor Sebastian Bauer, ebenfalls CAU, ergänzte: „Es existieren in Städten gerade in den Sommermonaten eine Reihe potenzieller Wärmequellen, deren Einbindung in die städtische Wärmeversorgung möglich wird, wenn saisonale Wärmespeicher verfügbar sind. Heute sind wir soweit, dass wir bei relativ geringer Raumbeanspruchung von weniger als 10 Prozent der oberen 200 Meter des geologischen Untergrunds Wärme- und Kältespeicher mit den entsprechend großen Kapazitäten errichten und deren Umweltauswirkungen, wenn auch mit gewissen Unsicherheiten behaftet, prognostizieren können.“

Grundvoraussetzung dafür sei jedoch ein großräumiges und nachhaltiges Wärmemanagement des Untergrundes, ist sich Bauer sicher. Wie die Projektarbeiten zeigten, könnten unterirdische Energiespeicher sehr große Speicherkapazitäten und ein breites Spektrum an Be- und Entladeraten bieten. Damit könnten diese Speicher auf unterschiedliche Arten in die Energiesysteme integriert werden und dort sowohl lang- als auch kurzfristige Speicherdienste erbringen. Professor Olav Hohmeyer (Universität Flensburg) erklärte dazu: „Unterirdische Energie- und Wärmespeicher stellen bei der Energiesystemtransformation wesentliche Bausteine für eine 100-prozentige regenerative Energieversorgung dar. Sie können auch bei der Kopplung des Wärme- und Stromsektors einen Beitrag zur Integration erneuerbarer Energiequellen leisten.“

Entsprechende erste Beispiele und Konzepte für die Einbindung saisonaler Wärmespeicher wurden während des Symposiums von Kai Radmann (CONSULAQUA Hamburg) für Hamburg, von Gregor Bussmann (Bochum) für Nordrhein-Westfalen und von Bas Godschalk (Arnheim) für die Niederlande präsentiert, wo diese bereits im größeren Maßstab eingesetzt werden. Dr. Joachim Wege (HFK) unterstrich in der anschließenden Diskussionsrunde, dass nach seiner Meinung saisonale Wärmespeicher wie Dämmmaßnahmen betrachtet werden müssten, die Wohnungswirtschaft jedoch verbindliche gesetzliche Rahmenbedingungen bräuchte, um hier aktiv werden zu können.

„Der Einsatz unterirdischer Energiespeicher setzt einen nachhaltigen, geplanten und ressourcenschonenden Umgang mit dem geologischen Untergrund und damit die entsprechenden Planungsinstrumente voraus, um ungewollte Auswirkungen und Nutzungskonkurrenzen auszuschließen“, so Professor Sebastian Bauer. Christiane Lohse und Bernd Kirschbaumer (beide Umweltbundesamt) betonten hierzu, dass bei einer verstärkten geothermischen Nutzung des urbanen Untergrundes zum Klimaschutz in der Stadt der Nachhaltigkeitsgedanke sowohl gegenüber dem Klima als auch den untertägigen Grundwasserressourcen gewahrt werden müsse.

„Da die Errichtung von urbanen Wärmespeichern kurzfristig möglich und aufgrund des Klimawandels auch gefordert ist, müssen die vorhandenen Kenntnisse und entwickelten Konzepte auch in die Anwendung gebracht werden“, fasste Professor Andreas Dahmke die Diskussion zusammen. „Hierzu wird an der Universität Kiel derzeit das Geo-Energie Kompetenzzentrum gegründet, das als Ansprechpartner dafür dienen soll.“

Fotos stehen zum Download bereit:
http://www.uni-kiel.de/download/pm/2017/2017-380-1.jpg
Präsentierten am Dienstag, 28. November das Forschungsprojekt ANGUS (v.l.): Sebastian Bauer, Olav Hohmeyer, Lutz Kipp, Andreas Dahmke.
Foto/Copyright: Raissa Maas, CAU

http://www.uni-kiel.de/download/pm/2017/2017-380-2.jpg
Robert Habeck betonte zum Forschungsprojekt ANGUS: „Wir müssen nicht nur die Erneuerbaren Energien und Stromnetze ausbauen, sondern die nächsten Phasen beginnen.“ Foto/Copyright: Raissa Maas, CAU

http://www.uni-kiel.de/download/pm/2017/2017-380-3.png
Die Grafik zeigt unterirdische Varianten von Energiespeichern in natürlichen geologischen Formationen. Copyright: ANGUS-Projekt (AG Bauer)

Kontakt:
Prof. Dr. Sebastian Bauer / Prof. Dr. Andreas Dahmke
Tel: 0431 880-2853 / -2858
E-Mail: sebastian.bauer@ifg.uni-kiel.de / andreas.dahmke@ifg.uni-kiel.de

Dr. Alina Kabuth
Projektmanagement ANGUS
Tel: 0431 880-2909
E-Mail: alina.kabuth@ifg.uni-kiel.de
web: www.angus-projekt.de

Christian-Albrechts-Universität zu Kiel
Presse, Kommunikation und Marketing, Dr. Boris Pawlowski, Text: Claudia Eulitz
Postanschrift: D-24098 Kiel, Telefon: (0431) 880-2104, Telefax: (0431) 880-1355
E-Mail: presse@uv.uni-kiel.de, Internet: www.uni-kiel.de, Twitter: www.twitter.com/kieluni
Facebook: www.facebook.com/kieluni, Instagram: instagram.com/kieluni

Weitere Informationen:
http://www.uni-kiel.de/pressemeldungen/index.php?pmid=2017-380-angus

Quelle: idw

(nach oben)


Masthähnchen sind häufig mit dem Zoonoseerreger Campylobacter belastet

Nina Banspach Pressestelle
Bundesamt für Verbraucherschutz und Lebensmittelsicherheit (BVL)

BVL stellt Ergebnisse der Lebensmittelüberwachung 2016 vor
Campylobacter haben mittlerweile Salmonellen als häufigsten bakteriellen Erreger für Durchfallerkrankungen in Deutschland abgelöst. Kontaminiertes Geflügelfleisch gilt als eine der Hauptquellen für eine Infektion mit Campylobacter. Bei den im vergangenen Jahr von den Überwachungsbehörden untersuchten Masthähnchen-Schlachtkörpern konnte der Krankheitserreger in mehr als drei Viertel aller genommenen Halshautproben nachgewiesen werden, wie das Bundesamt für Verbraucherschutz und Lebensmittelsicherheit (BVL) im Rahmen seiner Pressekonferenz am 28.11.2017 in Berlin mitteilte.

130 Halshautproben bei Masthähnchen wurden 2016 im Rahmen des Zoonosen-Monitorings auf das Vorkommen von Campylobacter untersucht. In 100 Fällen (76,9 %) wurde der Erreger nachgewiesen. Bei 274 Proben wurden Keimgehaltsbestimmungen durchgeführt. Bei etwa einem Viertel der Proben lagen die Campylobacter-Keimzahlen über dem ab nächstem Jahr EU-weit geltenden Prozesshygienekriterium von 1.000 koloniebildenden Einheiten pro Gramm (KbE/g).

Das Prozesshygienekriterium für Campylobacter wird eingeführt, um die hohe Kontaminationsrate in der Geflügelfleischkette zu senken. Künftig müssen Betriebe, deren Schlachtkörper eine Campylobacter-Keimzahl oberhalb von 1.000 KbE/g aufweisen, geeignete Maßnahmen zur Sicherstellung der Prozesshygiene einleiten. BVL-Präsident Dr. Helmut Tschiersky äußerte sich dazu: „Geflügelfleisch ist zu häufig mit Campylobacter belastet. Ich bin jedoch zuversichtlich, dass die Einführung des europaweiten Prozesshygienekriteriums zu einer verbesserten Geflügelschlachthygiene führen wird. Bei Salmonellen in der Geflügelfleischkette konnten mit den EU-weiten Bekämpfungsmaßnahmen in den Haltungsbetrieben bereits deutliche Erfolge erzielt werden.“

Waren im Jahr 2011 noch 17,8 % der getesteten Halshautproben von Masthähnchen Salmonella-positiv, betrug deren Anteil fünf Jahre später nur noch 6,7 %. Auch bei frischem Hähnchenfleisch ist die Kontaminationsrate mit Salmonellen von 7,6 % im Zoonosen-Monitoring 2009 auf 4,7 % im Jahr 2016 gesunken. Dieser Rückgang wirkte sich auch positiv auf die Salmonellose-Erkrankungen beim Menschen aus, die im selben Zeitraum ebenfalls rückläufig waren.

Campylobacter und Salmonellen lösen beim Menschen Durchfallerkrankungen aus. Bei geschwächten Personen können sie zu schweren Komplikationen führen. Beide Erreger sind nicht hitzeresistent. Verbraucher sollten Hähnchenfleisch deshalb nur gut durchgegart verzehren.

Hohe Keimbelastung bei Rohmilch aus Zapfautomaten
Rohmilch direkt vom Bauern erfreut sich zunehmender Beliebtheit. Über so genannte Milch-ab-Hof-Zapfautomaten können sich Verbraucher ihre Milch direkt beim Erzeugungsbetrieb abfüllen. Rohmilch weist jedoch eine hohe Keimbelastung auf. Von den 304 im Rahmen des Bundesweiten Überwachungsplans (BÜp) 2016 untersuchten Rohmilch-Proben hatten 58 Proben (19 %) eine Gesamtkeimzahl von über 105 KbE/ml. Zusätzlich wurden in den Rohmilch-Proben diverse Krankheitserreger nachgewiesen – wie Listerien (in 4 % der Proben), Campylobacter (in 3 %) und E. Coli (in 2 %).

Das potentielle gesundheitliche Risiko von Rohmilch kann minimiert werden, indem die Milch vor dem Verzehr abgekocht wird. Die Betriebe sind daher gesetzlich dazu verpflichtet, den Hinweis „Rohmilch, vor dem Verzehr abkochen“ gut lesbar an der Abgabestelle anzubringen.

Dr. Stephan Koch, Abteilungsleiter im Sächsischen Staatsministerium für Soziales und Verbraucherschutz und derzeit Vorsitzender der Länderarbeitsgemeinschaft Verbraucherschutz, betonte deshalb: „Rohmilch ist ein empfindliches Lebensmittel, das aufgrund seiner Gewinnung unmittelbar vom Tier im Stall mit bestimmten Krankheitserregern kontaminiert sein kann, die vom Tier auf den Menschen übertragbar sind. Der Konsum von Rohmilch kann somit ernste gesundheitliche Folgen haben. Verbraucher sollten daher unbedingt den Hinweis an den Abgabestellen beachten und die Milch zunächst abkochen.“

Vorsicht beim Verzehr von Leber und leberhaltigen Produkten
Bei Untersuchungen von Rinder-, Schweine- und Lamm-, beziehungsweise Schafleber im Rahmen des Monitoring-Berichts 2016 wurde für alle Tierarten ein Mittelwert von 23,0 mg Vitamin A/100g Leber ermittelt. Schweineleber wies mit 29,9 mg Vitamin A/100g Leber im Mittel den höchsten Gehalt auf.

Beruhend auf den bekannten Verzehrmengen (durchschnittlich 3 Gramm pro Tag) bedeutet dies: Allein durch den Verzehr von Leber nimmt ein Mensch im Mittel täglich zwischen 0,5 und 0,8 mg Vitamin A auf. Damit würde der von der Deutschen Gesellschaft für Ernährung (DGE) empfohlene Tagesbedarf alters- und geschlechtsabhängig zu 60 bis 80 % ausgeschöpft. Leber wird zwar nur selten gegessen, dennoch können bei unüblichen längerfristigen und hohen Verzehrmengen gesundheitsschädliche Folgen auftreten wie etwa Leberschäden und bei Schwangeren Fehlbildungen des Embryos.

Das Bundesinstitut für Risikobewertung (BfR) rät daher vorsorglich, während der Schwangerschaft auf den Verzehr von Leber aller Tierarten zu verzichten. Während der Schwangerschaft und auch bei der Ernährung von Kleinkindern sollten zudem leberhaltige Produkte, wie Leberwurst, nur zurückhaltend konsumiert werden.

Bestimmte Umweltkontaminanten wie Dioxine oder dioxinähnliche polychlorierte Biphenyle (dl-PCB) können sich in der Leber anreichern. Lamm- bzw. Schafleber waren bereits bei vergangenen Monitoring-Untersuchungen durch erhöhte Belastungen aufgefallen. Eine längerfristige erhöhte Aufnahme dieser beiden Stoffe kann beim Menschen das Nerven-, Immun- und Hormonsystem schädigen und die Fortpflanzungsfähigkeit beeinträchtigen.

Bei den aktuellen Untersuchungen wurden erneut erhöhte Gehalte gemessen. Die geltenden Höchstgehalte wurden bei 5 % (Summenparameter für Dioxine) bzw. 6 % (Summenparameter für Dioxine und dl-PCB) der Proben überschritten. Das BfR hatte bereits 2014 daher generell vom Verzehr von Schafsleber abgeraten.

Keine Verbesserung bei Nickel in Metallspielzeug
Die Lebensmittelüberwachungsbehörden in den Bundesländern kontrollieren ebenfalls Verbraucherprodukte auf unerwünschte Stoffe. Bereits 2012 wurde Metallspielzeug im Rahmen des Bundesweiten Überwachungsplans (BÜp) auf das Kontaktallergen Nickel untersucht. Von den 168 untersuchten Spielzeug-Proben lagen 41 (24 %) oberhalb des gesetzlichen Grenzwerts von 0,5 µg/cm²/Woche. Besonders auffällig waren Metall- und Modellbaukästen mit einer Überschreitungsrate von 87 %.

2016 standen Metallspielzeuge erneut im Fokus der Überwachungsbehörden. Von den 353 untersuchten Proben überschritten 75 (21 %) den geltenden Grenzwert. Bei einem Metallbaukasten lag der gemessen Nickelanteil sogar mehr als das 200-fache über dem Grenzwert.

Da davon auszugehen ist, dass beim Spielen mit Metall- und Modellbaukästen ein längerer Hautkontakt besteht, sind diese Befunde besonders kritisch zu sehen. Dr. Gerd Fricke, Abteilungsleiter im BVL, forderte deshalb: „Die Hersteller von Metallspielzeug müssen endlich wirksame Maßnahmen zur Reduzierung des Nickelgehalts in ihren Produkten ergreifen.“

Nickel ist das Kontaktallergen mit der höchsten Sensibilisierungsrate. Etwa 10 % aller Kinder reagieren auf Nickel sensibel. Häufiger Hautkontakt mit nickelhaltigem Spielzeug kann zu einer Nickel-Sensibilisierung von Kindern beitragen.

Weiterführende Informationen
– Hintergrundinformation „Daten zur Lebensmittelüberwachung 2016″ (http://bvl.bund.de/lebensmittelueberwachung2016)
– Hintergrundinformation „Weniger Antibiotikaresistenzen in ökologischen Geflügelhaltungen“
(http://bvl.bund.de/zoonosenmonitoring2016)
– Präsentation „Lebensmittelsicherheit 2016 in Deutschland“ (http://bvl.bund.de/lebensmittelueberwachung2016_praesentation)

Anhang
2017 11 28 PI Jahrespressekonferenz
https://idw-online.de/de/attachment59291

Quelle: idw

(nach oben)


Forschung für die Energiewende in Kommunen und Regionen

Uwe Krengel Pressestelle
Fraunhofer Institut für Windenergie und Energiesystemtechnik IWES

Kommunen und Regionen nehmen eine Schlüsselrolle bei der Gestaltung der Energiewende ein. Das Fraunhofer-Institut für Windenergie und Energiesystemtechnik IWES in Kassel unterstützt sie mit Ergebnissen aus der angewandten Forschung der bei der Strategieentwicklung, dem dezentralem Energiemanagement, der Anlagensteuerung für die Direktvermarktung sowie der Planung von Strom-, Wärme- und Gasnetzen. Einen Überblick über die Angebote für Experten aus Kommunalpolitik und Behörden sowie von lokalen Energieversorgern gibt das Institut jetzt auf der Fachausstellung des Zukunftsforums Energiewende am 28. und 29. November 2017 in Kassel.

»Der Erfolg der Energiewende hängt in hohem Maße davon ab, wie sie von den Akteuren vor Ort umgesetzt wird. Mit unserem Wissen aus vielen Jahren praxisbezogener Forschung und Entwicklung helfen wir Kommunen und Regionen dabei, dieser Verantwortung gerecht zu werden«, erklärt Dr. Patrick Hochloff, Geschäftsfeldleiter Energiewirtschaftliche Analysen und Beratung beim Fraunhofer IWES.

Energiewirtschaftliche Analysen und Beratung
Ob Strategieentwicklung, Investitionsentscheidungen oder die Gestaltung neuer Geschäftsmodelle – die Energiewende stellt nicht nur Konzerne, sondern auch lokale Akteure vor große Herausforderungen. Die Kasseler Forscher der Fraunhofer-Gesellschaft stehen ihnen dabei mit kompetenter energiewirtschaftlicher Beratung, aussagekräftigen Studien, zielorientierten Analysen sowie der Bereitstellung relevanter Daten zur Seite. Dabei profitieren die Kunden von der Vielfalt der Expertise und Kompetenzen unter dem Dach des Forschungsinstituts. Die thematischen Schwerpunkte der Beratungs- und Dienstleistungen liegen auf der Integration der erneuerbaren Energien sowie auf der Flexibilisierung von Erzeugung und Verbrauch in den Sektoren Strom, Wärme und Verkehr.

So beraten die Experten unter anderem zum Lastmanagement in Gewerbe und Industrie, zur Teilnahme am Regelenergiemarkt oder zur Flexibilisierung von Bioenergie- und KWK-Anlagen. Sie unterstützen bei der Eigenversorgung mit Strom und Wärme, der umweltschonenden Energieversorgung von Städten und Quartieren und der Sektorenkoppelung. Zudem erstellen die Fraunhofer-Forscher individuelle Analysen und Studien – etwa zu regulatorischen Rahmenbedingungen und Handlungsoptionen, zu Marktpotenzialen neuer Technologien oder zu den Teilnahmemöglichkeiten an der Strombörse und am Regelleistungsmarkt. Ebenso entwickeln sie Szenarien für die Reduzierung und die Flexibilisierung von Energieverbräuchen, liefern energiemeteorologische Analysen und Kraftwerkseinsatzpläne oder ermitteln Potenzialflächen für erneuerbare Energien.

Dezentrales Energiemanagement
Zu den Grundprinzipien der Energiewende gehört die Dezentralisierung der Energiebereitstellung. Das Fraunhofer IWES in Kassel bietet lokalen Akteuren eine Reihe von Instrumenten, diesen Prozess erfolgreich zu gestalten. So haben die Experten zum Beispiel IKT-Lösungen entwickelt, die Energieflüsse in Kommunen, Quartieren und einzelnen Gebäuden erfassen und visualisieren. Analysewerkzeuge machen es möglich, aus diesen Daten entscheidungsrelevante Informationen abzuleiten. Zudem unterstützen sie Kommunen und Unternehmen beim Social Energy Management – etwa mit Plattformen für die Kundeninteraktion, mit Tarif- und Anreizsystemen für einen systemdienlichen Energieverbrauch oder der Konzeption von Energiemanagementsystemen. Darüber hinaus beraten die Fraunhofer-Forscher zu allen Fragen rund um die Digitalisierung im Kontext der Sektorenkoppelung.

Anlagensteuerung für die Direktvermarktung
Mit einem umfassenden Angebot für den Aufbau und Betrieb Virtueller Kombikraftwerke (VK) sorgt das Fraunhofer IWES dafür, dass Versorger und Anlagenbetreiber die Möglichkeiten der Direktvermarktung optimal ausschöpfen können. So stellt das Institut seinen Kunden das modulare Echtzeitsystem IWES.vpp zur Verfügung, mit dem sie dezentrale Erzeugungsanlagen überwachen, steuern und aggregieren können. Die Software ermöglicht unter anderem die Fernsteuerung und -auslesung nach §20 des Erneuerbare-Energien-Gesetz, die Optimierung der Fahrpläne sowie die Teilnahme am Regelenergiemarkt. Das Fraunhofer IWES unterstützt seine Kunden auch bei der Integration des VK-Systems in ihre IT-Landschaft und der individuellen Konfiguration der Software.

Planung von Strom-, Wärme- und Gasnetzen
Netzbetreiber und Versorger können von Synergien profitieren, wenn sie Strom-, Gas- und Wärmenetze spartenübergreifend planen und unterhalten. Das Fraunhofer IWES hilft ihnen dabei mit vielerlei Planungs- und Beratungsleistungen. Dazu zählen zum Beispiel die Entwicklung konkreter Investitionsstrategien unter Berücksichtigung von Unsicherheiten oder das Erstellen von gekoppelten Bedarfsanalysen in den Sektoren

Strom, Wärme und Verkehr. Darüber hinaus erarbeiten die Experten Konzepte zur sektorenübergreifenden Einbindung von Erzeugungsanlagen (Wind, Solar, Biogas, KWK, Abwärme etc.) sowie für den Einsatz von Speichern, Power-to-Heat- und Power-to-Gas-Anlagen.

Das Zukunftsforum Energiewende findet am 28. und 29. November in der documenta-Halle Kassel statt. Die Veranstaltung dient Vertretern aus Kommunen, Unternehmen und Gesellschaft als zentrale Plattform für Erfahrungsaustausch, Information und Vernetzung. Damit steht sie in der Tradition der Kongressreihe „100% Erneuerbare-Energie-Regionen“ – in den vergangenen Jahren das bundesweit größte Treffen der Energiewende-Praktiker.

Fachansprechpartner:
Energiewirtschaftliche Analysen und Beratung
Dr.-Ing. Patrick Hochloff
E-Mail: patrick.hochloff@iwes.fraunhofer.de
Tel. +49 561 7294-214

Dezentrales Energiemanagement
Jan von Appen
E-Mail: Jan.vonAppen@iwes.fraunhofer.de
Telefon: +49 561 7294-276

Anlagensteuerung für die Direktvermarktung
Manuel Wickert
E-Mail: manuel.wickert@iwes.fraunhofer.de
Telefon: +49 0561 7294-369

Planung von Strom-, Wärme- und Gasnetzen
Dr. rer. nat. Tanja Kneiske
E-Mail: tanja.kneiske@iwes.fraunhofer.de
Telefon: +49 561 7294-136

Weitere Informationen:
http://www.energiesystemtechnik.iwes.fraunhofer.de

Quelle: idw

(nach oben)


Schutz gegen die Wintersonne: Augenärzte geben Tipps für den Kauf der Skibrille

Lisa-Marie Ströhlein Pressestelle
Deutsche Ophthalmologische Gesellschaft

München – Wer ohne die richtige Skibrille in den Winterurlaub fährt, riskiert Verbrennungen an der Hornhaut des Auges. Denn der weiße Schnee in den Wintersportgebieten reflektiert das einfallende, energiereiche ultraviolette (UV-)Licht viel stärker als andere Hintergründe. Die Deutsche Ophthalmologische Gesellschaft (DOG) rät allen Winterurlaubern zu einer gut sitzenden, rundum geschlossenen Skibrille mit UV-Filter.

Weiße Skipisten und Schneelandschaften locken Wanderer und Wintersportler nach draußen in die Berge. Doch das grelle Sonnenlicht in den Wintersportgebieten birgt Gefahren für die Augen: Alle 1000 Höhenmeter nimmt die UV-Strahlung um rund 20 Prozent zu und der Schnee reflektiert diese Strahlung nochmals um bis zu 85 Prozent stärker. „Genau wie die Haut am Körper, kann die Hornhaut des Auges einen Sonnenbrand bekommen, wenn sie intensivem UV-Licht ausgesetzt ist“, sagt Professor Dr. med. Thomas Reinhard, Generalsekretär der DOG.
Das Licht lässt die Zellen auf der Hornhaut des Auges absterben. Sechs bis acht Stunden später kommt es zu stechenden Schmerzen und starkem Fremdkörpergefühl; die Augen schwellen an und tränen. „Betroffene reagieren dann sehr empfindlich auf Licht und können die Augen kaum offen halten“, beschreibt Reinhard die Symptome der sogenannten Schneeblindheit. „Wintersportler mit schmerzenden Augen sollten nicht nur sofort aus der Sonne gehen, sondern sich am besten in dunklen Räumen aufhalten“, betont der DOG-Experte. Der Augenarzt kann Salben oder Gels verschreiben, die die verbrannte Hornhaut wieder beruhigen. Da die Hornhaut sich ständig regeneriert, sind die Symptome nach zwei bis drei Tagen meist verschwunden.

Wer seine Augen regelmäßig intensivem Sonnenlicht aussetzt, riskiert Langzeitschäden: „UV-Strahlung erhöht das Risiko für chronische Augenleiden wie Grauen Star oder Makuladegeneration – eine Erkrankung, die blind machen kann“, sagt Reinhard. Um sich vor diesen Erkrankungen zu schützen, rät der Direktor der Universitätsaugenklinik Freiburg zur Skibrille. „Normale Sonnenbrillen fangen nicht das seitlich einfallende Licht auf und schützen die Augen nicht vor Stürzen“, so der Ophthalmologe. Für Menschen mit Sehschwäche gibt es, neben Kontaktlinsen, auch entsprechende Skibrillen und oder sogenannte „Clip-in-Brillen“, die an die Innenseite der Skibrille angebracht werden. „Grundsätzlich sollten sich Winterurlauber beim Kauf einer Skibrille im Fachhandel beraten lassen“, so Reinhard.

Checkliste für eine gute Skibrille
• Die Gläser sollten alle UV-Strahlen bis zu einer Wellenlänge von 400 Nanometern absorbieren. Wie bei Sonnenbrillen tragen auch Skibrillen mit entsprechendem Breitband-UV-Schutz das CE-Zeichen.
• Die Brille sollte die Augenpartie vollständig abdecken, sodass auch seitlich kein UV-Licht in die Augen fällt.
• Skibrillengläser sollten aus splitterfestem Kunststoff bestehen und mindestens doppelt verglast sein, sodass die Augen durch die innere Scheibe geschützt sind, falls die äußere Scheibe bei einem Sturz bricht.
• Eine Anti-Fog-Beschichtung sorgt dafür, dass die Brille nicht zu schnell beschlägt.
• Eine Tönung der Gläser kann die Sicht bei schwierigen Lichtverhältnissen verbessern: Graue Gläser bieten Blendschutz an sonnigen Tagen, rötliche Tönungen verstärken Kontraste bei schlechten Lichtverhältnissen. Gelbe Scheiben eignen sich am besten für trübes Wetter oder in der Dämmerung.

DOG: Forschung – Lehre – Krankenversorgung
Die DOG ist die medizinisch-wissenschaftliche Fachgesellschaft für Augenheilkunde in Deutschland. Sie vereint unter ihrem Dach mehr als 6500 Ärzte und Wissenschaftler, die augenheilkundlich forschen, lehren und behandeln. Wesentliches Anliegen der DOG ist es, die Forschung in der Augenheilkunde zu fördern: Sie unterstützt wissenschaftliche Projekte und Studien, veranstaltet Kongresse und gibt wissenschaftliche Fachzeitschriften heraus. Darüber hinaus setzt sich die DOG für den wissenschaftlichen Nachwuchs in der Augenheilkunde ein, indem sie zum Beispiel Stipendien vor allem für junge Forscher vergibt. Gegründet im Jahr 1857 in Heidelberg ist die DOG die älteste augenärztliche Gesellschaft der Welt.

Quelle: idw

(nach oben)


Risiken und Nebenwirkungen des Mindestlohns

Sylke Schumann Presse- und Öffentlichkeitsarbeit
Hochschule für Wirtschaft und Recht Berlin

Die Einführung des gesetzlichen Mindestlohns in Deutschland im Januar 2015 war die bedeutendste Arbeitsmarktreform der vergangenen Dekade und gleichzeitig ein absolutes Novum im bundesdeutschen Lohnverhandlungssystem. Nicht nur Ökonom/innen sahen in dem sozialpolitischen Experiment erhebliches Potential für Beschäftigungsverluste. Marcel Stechert von der Hochschule für Wirtschaft und Recht Berlin hat nun eine erste statistisch untermauerte Bestandsaufnahme vorgelegt. Dafür erhielt er im November 2017 einen Förderpreis des Statistischen Bundesamtes.

Ergebnisse einer umfassenden Evaluation durch die Mindestlohnkommission sind nicht vor 2020 zu erwarten. Marcel Stechert von der Hochschule für Wirtschaft und Recht (HWR) Berlin hat das Arbeitsmarktmodell, das seit drei Jahren in Deutschland angewendet wird, jetzt schon einmal genauer unter die Lupe genommen. In einer kritischen Analyse untersucht der Autor erstmals anhand amtlicher Beschäftigungsstatistiken der Bundesagentur für Arbeit Effekte des Mindestlohns und greift damit die schon im Vorfeld zum Teil sehr kontrovers und öffentlich geführte wirtschaftspolitische Diskussion um dessen Einführung auf.

Stechert belegt in seiner Bachelorarbeit, dass Arbeitnehmer/innen ab 25 Jahren vom Mindestlohnmodell durchaus profitieren. Die Kehrseite der Medaille ist, dass jüngere Beschäftigte klar zur Risikogruppe dieser Entwicklung zählen. Für sie lasse sich in der Gegenüberstellung von Beschäftigungswachstum und Mindestlohn ausschließlich ein negativer Zusammenhang nachweisen. Diese Ergebnisse findet Stechert bestätigt in internationalen wissenschaftlichen Untersuchungen zu vergleichbaren Ansätzen der Lohn- und Gehaltsstruktur. In der deutschen Forschungsliteratur kommen Jugendliche und andere Risikogruppen im Zusammenhang mit dem Thema Mindestlohns bis dato kaum vor.

Als Ursache für die negativen Beschäftigungseffekte unter den 15- bis 24-Jährigen identifiziert der Autor deren vergleichsweise niedrige Produktivität. Die Auswirkungen zeigen sich besonders deutlich, wenn viele Menschen auf niedrigem Niveau entlohnt werden. Der Abstand zwischen Mindestlohn und Durchschnittslohn greift intensiv in die allgemeine Lohnverteilung ein.

Der Absolvent des Bachelorstudiengangs Economics an der HWR Berlin stellt auch heraus, dass die Wachstumsraten der sozialversicherungspflichtigen Beschäftigung auch nach Einführung des Mindestlohns außerordentlich positiv sind, wobei diese Entwicklung in Ostdeutschland verhaltener ausfällt. Für geringfügig Beschäftigte und Minijobber/innen hatte sich dieser Aufwärtstrend zwar schon vorher verlangsamt, brach mit der Tarifreform jedoch nochmals erheblich ein. Dieser gravierende Rückgang war in Ostdeutschland, aufgrund des geringeren Lohnniveaus ohnehin überdurchschnittlich vom Mindestlohn betroffen, besonders ausgeprägt.

„Die Forschung zu den Auswirkungen des Mindestlohns auf die Beschäftigung in Deutschland steht noch ganz am Anfang. Marcel Stechert hat mit seiner Abschlussarbeit einen fundierten, empirisch äußerst anspruchsvollen Beitrag zur wissenschaftlichen Diskussion geleistet“, lobt Prof. Dr. Beate Jochimsen, die gemeinsam mit Prof. Dr. Tim Lohse die Bachelorarbeit an der HWR Berlin betreute. „Das ist ein gelungenes Beispiel für die Verknüpfung von gelerntem volkswirtschaftlichem Wissen und der wirtschaftspolitischen Praxis“, so die Professorin für Volkswirtschaftslehre mit Schwerpunkt Finanzwissenschaft.

Der Preisträger in der Kategorie „Bachelor-/Masterarbeiten“ im Rahmen des Gerhard-Fürst-Preises 2017 studiert inzwischen an der Freien Universität Berlin im Masterstudiengang Economics. In den vergangenen Monaten absolvierte Marcel Stechert ein Praktikum beim Sachverständigenrat zur Begutachtung der gesamtwirtschaftlichen Entwicklung im Bereich Konjunktur und Wachstum und derzeit eines bei der Deutschen Bundesbank im Research Centre in Frankfurt am Main. Im Januar 2018 schließt sich ein Auslandssemester an der Universität Carlos III in Madrid an.

Ein Artikel über Stecherts Evaluation zum Mindestlohn wird im kommenden Jahr in der Fachzeitschrift „Wirtschaft und Statistik“ des Statistischen Bundesamtes veröffentlicht. Auch in einem aktuellen Diskussionspapier vom Bundesministerium für Wirtschaft und Energie wurde die Abschlussarbeit zitiert und diskutiert.

Zusammenfassung der Arbeit
https://www.destatis.de/DE/UeberUns/UnsereAufgaben/GerhardFuerstPreis/Preistraeg…

Bachelorstudiengang Economics an der HWR Berlin
http://www.hwr-berlin.de/fachbereich-wirtschaftswissenschaften/studiengaenge/eco…

Gerhard-Fürst-Preis 2017 des Statistischen Bundesamtes
https://www.destatis.de/DE/UeberUns/UnsereAufgaben/GerhardFuerstPreis/Preistraeg…

Hochschule für Wirtschaft und Recht Berlin
Die Hochschule für Wirtschaft und Recht (HWR) Berlin ist mit 11 000 Studierenden eine der großen Hochschulen für angewandte Wissenschaften – mit ausgeprägtem Praxisbezug, intensiver und vielfältiger Forschung, hohen Qualitätsstandards sowie einer starken internationalen Ausrichtung. Das Studiengangsportfolio umfasst Wirtschafts-, Verwaltungs-, Rechts- und Sicherheitsmanagement sowie Ingenieurwissenschaften in 60 Studiengängen auf Bachelor-, Master- und MBA-Ebene. Die HWR Berlin unterhält aktuell 170 aktive Partnerschaften mit Universitäten auf allen Kontinenten und ist Mitglied im Hochschulverbund „UAS7 – Alliance for Excellence“. Als eine von Deutschlands führenden Hochschulen bezüglich der internationalen Ausrichtung von BWL-Bachelorstudiengängen belegt die HWR Berlin Spitzenplätze im deutschlandweiten Ranking des CHE Centrum für Hochschulentwicklung und nimmt auch im Masterbereich vordere Plätze ein. Aus einer bundesweiten Umfrage von DEUTSCHLAND TEST ist die Hochschule 2017 wiederholt als „TOP Business School“ im Weiterbildungsbereich hervorgegangen. Die HWR Berlin unterstützt die Initiative der Hochschulrektorenkonferenz „Weltoffene Hochschulen – Gegen Fremdenfeindlichkeit“.

www.hwr-berlin.de

Quelle: idw

(nach oben)


Plastik in Binnengewässern: Verbundprojekt „PLASTRAT“ gestartet

Michael Brauns Pressestelle
Universität der Bundeswehr München

Forschungskonsortium wirft ganzheitlichen Blick auf Mikroplastik-Problem in Flüssen und Seen. Mikroplastik in Binnengewässern steht im Mittelpunkt eines neuen Forschungsprojektes unter Koordination der Universität der Bundeswehr München.

Die weniger als fünf Millimeter kleinen Plastikteilchen belasten Flüsse und Seen in zunehmenden Maße und wurden selbst schon in Trinkwasser und Lebensmitteln nachgewiesen. Während Plastikmüll und Mikroplastik in den Meeren schon seit längerer Zeit erforscht werden, ist über die Funde in Binnengewässern noch wenig bekannt. Wie erfolgt der Eintrag von Mikroplastik in die Gewässer und welche Bedeutung hat dabei die Siedlungswasserwirtschaft? Welchen Einfluss können Mikroplastikpartikel auf Mensch und Umwelt haben? Welchen Einfluss haben Hersteller und Verbraucher und wie kann freigesetztes Mikroplastik wieder sicher, effektiv und effizient entfernt werden? Auf diese Fragen wollen die Beteiligten des Verbundprojektes „PLASTRAT“ Antworten finden. Das dreijährige Vorhaben läuft seit September 2017 und wird vom Bundesministerium für Bildung und Forschung (BMBF) mit rund drei Millionen Euro im Forschungsschwerpunkt „Plastik in der Umwelt – Quellen, Senken, Lösungsansätze“ gefördert.

Interdisziplinäre Zusammenarbeit zur Risikoermittlung
Am Projekt PLASTRAT (Lösungsstrategien zur Verminderung von Einträgen von urbanem Plastik in limnische Systeme; www.plastrat.de) sind zehn verschiedene Partner aus Universitäten, Forschungseinrichtungen und Unternehmen beteiligt. Zusätzlich unterstützt wird es von zwölf assoziierten Partnern und Unterauftragnehmern, vor allem Betreibern von Abwasserbehandlungsanlagen, Herstellern und Vertreibern von Kunststoffen sowie Fachverbänden. Mehrere Arbeitsgruppen mit unterschiedlichen Schwerpunkten arbeiten bei der Forschung interdisziplinär zusammen. Sie untersuchen Eintragspfade, Eliminationsstrategien sowie Auswirkungen von Plastik auf Mensch und Umwelt.

Es sollen ganzheitliche Lösungen entwickelt werden, um die Ausbreitung von Plastikrückständen in Binnengewässern zu begrenzen. Ziel ist es, ein gemeinsames Bewertungssystem zur Umweltverträglichkeit von unterschiedlichen Kunststofftypen zu erarbeiten. Darauf aufbauend wollen die Forscher ein Gütesiegel für die Praxis schaffen, dass es ermöglicht, Kunststoffe bzw. Produkte anhand des individuellen Risikos – etwa Toxizität, Verbreitung oder Eliminationsmöglichkeiten – zu bewerten. „Für eine zukunftsorientierte Bewertung von Mikroplastikeinträgen sowie die Ermittlung und Auswahl geeigneter Strategien zur Minimierung des Mikroplastikgehalts in der aquatischen Umwelt braucht es die Zusammenarbeit aller Gruppen – von der Produktion bis zur Elimination“, sagt Projektleiter Prof. Christian Schaum von der Universität der Bundeswehr München.

Transfer in die Praxis
So analysiert ein Team der Universität der Bundeswehr München, der Leibniz-Institute für Polymerforschung Dresden e. V. und für Ostseeforschung e. V. sowie inge GmbH und aquadrat ingenieure GmbH verschiedene Eintragspfade von Mikroplastik in Binnengewässer und untersucht, ob spezielle Membran- oder andere Filterverfahren Mikroplastik aus Kläranlagenabläufen wirksam entfernen können. Zudem arbeiten die Forscher an Standardverfahren zur Analyse des Mikroplastikgehalts in Wasser- und Schlammproben. Um umweltbedingte Veränderungen von Mikroplastikpartikeln und um mögliche Wirkungen auf Mensch und Umwelt geht es in den Untersuchungen der Bundesanstalt für Gewässerkunde, der Goethe-Universität Frankfurt, der Technischen Universität Darmstadt und des IWW Rheinisch-Westfälischen Instituts für Wasser. Die Forscher erkunden z.B. ob in Kunststoffen eingesetzte Zusatzstoffe durch Verwitterungsvorgänge freigesetzt werden und eine Gefahr darstellen können.

Ferner beschäftigen sie sich mit der An- und Abreicherung von Schadstoffen an Mikroplastik innerhalb von Kläranlagen. Welche Rolle die Verbraucher selbst beim nachhaltigeren Umgang mit Kunststoffen spielen, steht im Mittelpunkt der Untersuchungen des ISOE – Institut für sozial-ökologische Forschung. Hierbei geht es um die Wahrnehmung von Umweltrisiken durch Plastikprodukte, deren Nutzung und Entsorgung. Projektübergreifend erarbeiten IWW, ISOE und weitere Partner ein System, das die Umweltverträglichkeit von Kunststoffen für Binnengewässer nach verschiedenen Kriterien bewertet und dabei die technischen, umweltwissenschaftlichen und sozial-ökologischen Untersuchungs-schwerpunkte berücksichtigt. Auskunft über diese Umweltverträglichkeit soll dann ein Gütesiegel geben, das die Projektpartner im Dialog mit verschiedenen Stakeholdern entwickeln wollen.

Der Forschungsschwerpunkt „Plastik in der Umwelt – Quellen, Senken, Lösungsansätze“ ist Teil der Leitinitiative Green Economy des BMBF-Rahmenprogramms „Forschung für Nachhaltige Entwicklung“ (FONA3).

Universität der Bundeswehr München
Michael Brauns
Pressesprecher
Werner Heisenberg Weg 39
85577 Neubiberg
Tel.: 089/6004-2004
Fax: 089/6004-2009

Weitere Informationen:
http://www.plastrat.de

Quelle: idw

(nach oben)


Wenn Kontinente zerbrechen, wird es warm auf der Erde

Ralf Nestler Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum Potsdam – Deutsches GeoForschungsZentrum GFZ

Der CO2-Gehalt der Atmosphäre entscheidet darüber, ob sich die Erde in einem Treibhaus- oder einem Eishaus-Zustand befindet. Bevor der Mensch begann, die CO2-Konzentration der Lufthülle zu beeinflussen, wurde diese allein durch ein Wechselspiel von geologischen und biologischen Prozessen bestimmt, dem globalen Kohlenstoffkreislauf. Eine aktuelle Studie unter Führung des Deutschen GeoForschungsZentrums GFZ in Potsdam zeigt, dass das Auseinanderbrechen von Kontinenten – von Fachleuten als Rifting bezeichnet – maßgeblich zu einem erhöhten Kohlendioxidgehalt in der Atmosphäre beitrug.

Die Kohlenstoffverteilung der Erde ist sehr ungleichmäßig: Nur ein Hunderttausendstel des Kohlenstoffs unseres Planeten befindet sich in Atmosphäre, Biosphäre und den Ozeanen, die übrigen 99,999 Prozent sind in der tiefen Erde gebunden. Dieser enorme Kohlenstoffspeicher ist aber nicht von der Atmosphäre isoliert, sondern es gibt einen anhaltendem Austausch über Jahrmillionen hinweg: Erdplatten, die in den tiefen Erdmantel absinken, nehmen große Mengen an Kohlenstoff mit sich. Gleichzeitig, so glaubte man, gelangt Kohlenstoff hauptsächlich durch Vulkanismus an mittelozeanischen Rücken wieder an die Oberfläche, in Form von CO2.

In der aktuellen Studie, die im Fachjournal „Nature Geoscience“ erscheint, kommt das Forscherteam zu einem anderen Schluss. Zwar führt auch der Vulkanismus am Boden der Ozeane zur Entgasung von Kohlendioxid, der maßgebliche CO2-Eintrag in die Atmosphäre geschieht jedoch an Grabensystemen auf Kontinenten wie etwa dem Ostafrikanischen Rift (Fig. 1) oder dem Eger-Rift in Tschechien. „Grabensysteme entstehen wenn Kontinente gedehnt werden was schließlich zum Auseinanderbrechen von ganzen Erdplatten führen kann“, erläutert Hauptautor Sascha Brune vom GFZ. „Das Rift in Ostafrika ist mit einer Länge von etwa 6000 Kilometern zwar das größte Grabensystem weltweit, allerdings erscheint es klein im Vergleich mit den Riftsystemen, die vor 130 Millionen Jahren zum Zerbrechen des Superkontinents Pangea geführt haben und ein Netzwerk von über 40.000 Kilometern Länge bildeten.“

Mithilfe von plattentektonischen Modellen der vergangenen 200 Millionen Jahren und anderen geologischen Indizien haben die Wissenschaftler die Entwicklung des globalen Riftnetzwerks rekonstruiert. Dabei konnten sie die Existenz zweier großer Rift-Perioden nachweisen: vor rund 130 und 50 Millionen Jahren. Mittels numerischer Modelle des globalen Kohlenstoffkreislaufs haben die Forscher den Einfluss erhöhter CO2 Entgasungen in Rifts simuliert und konnten zeigen, dass beide Rift-Perioden mit einer erhöhten CO2 Konzentration der damaligen Atmosphäre korrelieren.

„Die weltweiten CO2-Entgasungsraten von Rifts entsprechen allerdings nur einem Bruchteil der derzeitigen anthropogenen CO2-Freisetzung“, ergänzt Brune. „Dennoch stellen sie eine bisher fehlende Schlüsselkomponente des tiefen Kohlenstoffkreislaufs dar, der den langfristigen Klimawandel über Jahrmillionen hinweg steuert.“

Studie: Sascha Brune, Simon E. Williams, R. Dietmar Müller: „Potential links between continental rifting, CO2 degassing and climate change through time“, Nature Geoscience, DOI 10.1038/s41561-017-0003-6

Quelle: idw

(nach oben)


Neue Zeckenart in Deutschland entdeckt: Überträgt sie Viren?

Karola Neubert Presse- und Öffentlichkeitsarbeit
Deutsches Zentrum für Infektionsforschung

DZIF-Wissenschaftler in München untersuchen die Ausbreitung der Frühsommer-Meningoenzephalitis – FSME – in Deutschland und stoßen dabei auf einen neuen möglichen Überträger der gefürchteten Hirnhautentzündung: die Zeckenart namens Ixodes inopinatus.

Spricht man über „Neu auftretende Infektionskrankheiten „, denkt man zunächst an Ebola, MERS, Chikungunya- oder Zika-Fieber. Doch auch in Deutschland gibt es gefährliche Zoonosen, von Tieren auf den Menschen übertragene Virus-Infektionen, die sich schnell ausbreiten können. Ein Beispiel ist die Frühsommer-Meningoenzephalitis (FSME), eine virale Hirnhautentzündung, die tödlich enden kann. Diese Infektion tritt in immer neuen Regionen in Deutschland auf und konnte im Jahr 2016 auch erstmalig in den Niederlanden nachgewiesen werden.

Seit mehreren Jahren erforscht eine kleine Gruppe um den Münchner Privatdozenten Dr. Gerhard Dobler am Institut für Mikrobiologie der Bundeswehr die Ausbreitung des FSME-Virus in Deutschland und Mitteleuropa. Erklärtes Ziel des Projekts, das auch vom DZIF unterstützt wird, ist es, die Ausbreitungs-Mechanismen besser zu verstehen und damit auch die Überwachungs- und Kontroll-Maßnahmen gemeinsam mit dem Öffentlichen Gesundheitsdienst zu optimieren.

Zecken als Überträger von Viren?
Seit Jahren haben die Münchner Forscher Vögel im Fokus. Ihre molekularbiologischen Ergebnisse von FSME-Viren aus den unterschiedlichen Regionen Europas zeigen, dass die Viren auf den bekannten Vogelzug-Linien verbreitet werden. Allerdings ist bisher unklar, wie diese Verschleppung der Viren erfolgt: durch infizierte Zecken oder durch eine länger andauernde virale Infektion in den Vögeln selbst. In einem Teilprojekt werden daher an Vögeln und an Vogelrastplätzen Zecken gesammelt, um die dort auftretenden Arten zu bestimmen und damit möglicherweise eingeschleppte neue Zeckenarten und gegebenenfalls FSME-Virusstämme zu entdecken.

Eine neue Zeckenart steht unter Verdacht
Die Untersuchungen in bekannten FSME-Herden in Süddeutschland zeigten, dass eine bisher nur im Mittelmeer-Gebiet beschriebene Art, Ixodes inopinatus, stabile Populationen in Süddeutschland bildet. Die bisher in Deutschland unbekannte Zeckenart wirft eine Reihe von Fragen auf: Kann Ixodes inopinatus in Deutschland vorkommende Krankheitserreger (u.a. das FSME-Virus) übertragen und ist die Einschleppung und Verbreitung dieser Art für die Ausbreitung des FSME-Virus in Mitteleuropa mit verantwortlich? Können dadurch ggf. auch neue, bisher nicht in Deutschland bekannte Erreger übertragen werden? Diese und weitere Fragen beschäftigen die Münchner Forscher und sie arbeiten hier nun eng mit dem Öffentlichen Gesundheitsdienst in Bayern und Baden-Württemberg und anderen universitären Partnern zusammen, um mehr über die (veterinär)medizinische Bedeutung dieser Zeckenart zu erfahren.

Neben dieser neuen Art werden jedoch auch weitere Zeckenarten entdeckt, die bisher nur vereinzelt und teilweise vor vielen Jahren in Deutschland nachgewiesen wurden, seither aber nicht mehr beschrieben wurden. „Die Zeckenfauna ist weitaus vielfältiger als bisher angenommen“, erklärt Dobler. Insbesondere Vogelzeckenarten würden identifiziert, wenn gezielt danach gesucht wird. „Die Bedeutung dieser Verschleppungen über Kontinente hinweg ist bisher nur wenig erforscht und könnte für das Auftreten von neu eingeschleppten, durch Zecken übertragene Erkrankungen von größerer Bedeutung sein als bisher angenommen“, betont der Wissenschaftler.

Älteste Zecke der Welt entdeckt
Und die mittlerweile weltweit anerkannte Expertise der Münchner auf dem Gebiet der Zeckenidentifizierung erbrachte noch ein weiteres aufsehenerregendes wissenschaftliches „Nebenprodukt“: Die Beschreibung der ältesten Zecke der Welt in mehr als 100 Millionen altem Bernstein. Die Identifizierung dieser Zeckenart führte zu einem völlig neuen Verständnis zur Evolution der Zecken.

Kontakt
PD Dr. Gerhard Dobler
Institut für Mikrobiologie der Bundeswehr
Deutsches Zentrum für Infektionsforschung, Partner-Standort München
Email: gerharddobler@bundeswehr.org

DZIF-Pressestelle
Karola Neubert
T +49 531 6181 1170
E-Mail: presse@dzif.de

Publikation
Chitimia-Dobler L, Rieß R, Kahl O, Wölfel S, Dobler G, Nava S, Estrada-Peña A. (2017) Ixodes inopinatus – occurring also outside the Mediterranean region. Ticks Tick Borne Dis (in press), online 9. September 2017. https://doi.org/10.1016/j.ttbdis.2017.09.004

Weitere aktuelle Publikationen aus der Zeckenforschung
Chitimia-Dobler L, Nava S, Bestehorn M, Dobler G, Wölfel S (2016). First detection of Hyalomma rufipes in Germany. Ticks Tick borne Dis 7(6), 1135-1136.
Chitimia-Dobler L, Cancian de Araujo B, Ruthensteiner B, Pfeffer T, Dunlop JA. (2017) Amblyomma birmitum, a new species of hard tick in Burmese amber. Parasitology 144(11), 1441-1448.
Oehme R, Bestehorn M, Wölfel S, Chitimia-Dobler L (2017). Hyalomma marginatum in Tübingen, Germany. Syst Appl Acarol 22(1), 1-6.

Weitere Informationen:
https://doi.org/10.1016/j.ttbdis.2017.09.004 Publikation

Quelle: idw

(nach oben)


Digitale Balance in der Arbeitswelt

Dr. Thomas Nesseler Presse- und Öffentlichkeitsarbeit
Deutsche Gesellschaft für Arbeitsmedizin und Umweltmedizin e.V.

Die Digitalisierung ist eine Herausforderung für Privatleben und Beruf. Schnelligkeit, Multitasking und ständige Erreichbarkeit sorgen für mehr Effizienz, bergen aber auch gesundheitliche Gefahren. Kritische Stimmen u. a. auch aus der Arbeitsmedizin fordern die Arbeitgeber auf, die Arbeitsorganisation und Arbeitsinhalte so zu gestalten, dass die Gesundheit der Beschäftigten geschützt wird. Neben den Maßnahmen der Gesundheitsvorsorge, die in Betrieben angeboten werden, empfehlen Experten weitere Techniken zur Wahrung „digitaler Balance“ im Alltag.

Sogwirkung digitaler Medien
Internet, Soziale Netzwerke und Smartphones sind aus dem Alltag nicht mehr wegzudenken. Sie richtig zu nutzen, erfordert Augenmaß: „Es kommt ganz entscheidend darauf an, welche Gewohnheiten jeder einzelne im Umgang mit digitalen Medien entwickelt“, erklärt die Stressmanagementtrainerin Dr. Sabine Schonert-Hirz in der aktuellen Ausgabe der Zeitschrift ASU. Digitale Werkzeuge können die Arbeit erleichtern, Zeit sparen und eine bessere Balance zwischen Familie und Beruf schaffen. Bei falschem Umgang können sie aber auch den Stresslevel erhöhen, das Denken behindern, den Schlaf stören und sogar krank machen. Ein Problem ist vor allem das Suchtpotential. Dr. Schonert-Hirz ist überzeugt: „Wenn Neugier und Bindungssehnsucht durch digitale Medien angesprochen werden, entwickeln sie eine unwiderstehliche Sogwirkung, die umso stärker wird, je häufiger man sich ihnen aussetzt.“

Nutzung digitaler Medien bei der Arbeit
Digitale Medien aktivieren bei ihren Nutzern das „Belohnungserwartungssystem“ im Gehirn. Schnell kann sich ein Bedürfnis entwickeln, stets auf die Hinweise seines Smartphones reagieren zu müssen. Gleichzeitig auf Nachrichten, Mails und Telefonate zu reagieren und dabei seine Aufgaben im Job zu erledigen, steigert den Stresslevel und kann zu Konzentrationsstörungen führen. Das Abschalten fällt immer schwerer. Obwohl die Nutzung der digitalen Medien am Arbeitsplatz weitgehend akzeptiert ist, werden die negativen Auswirkungen oftmals erst erkannt, wenn es zu einer massiven Überlastung, Schlafstörungen und Abhängigkeit kommt – so lautet das Fazit aus der 2016 durchgeführten Studie unter der Leitung von Dr. Schonert-Hirz. Die Expertin stellt fest, dass die Sogwirkung digitaler Medien sowohl bei Nutzern als auch Personalverantwortlichen in den Betrieben nicht ausreichend bekannt ist und nicht genug berücksichtig wird.

Maßnahmen gegen digitalen Stress
Wer eine Balance im Umgang mit digitalen Medien erlernen möchte, sollte mit der digitalen Detox-Strategie beginnen, also eine Zeit lang auf Computer und Smartphone verzichten. Durch Entzug wird man für die negativen Auswirkungen sensibilisiert. Weitere wichtige Maßnahmen, die Dr. Schonert-Hirz empfiehlt, sind:
1) Selbstdisziplin und Achtsamkeit
2) Allgemeines Stressmanagement mit Entspannungsübungen, Bewegung, genügend Schlaf und gesunder Ernährung
3) Private Probleme lösen und Arbeitstechniken optimieren, in dem man Aufgaben priorisiert und den Zeitbedarf realistisch einschätzt
4) Abbau von Selbstüberforderung
5) Aufbau von Konzentrationsroutine zum Schutz vor Ablenkung

Mehr zum Thema „Digitale Balance statt Digital Detox“ erfahren Sie im Beitrag von Dr. Med. Sabine Schonert-Hirz in der aktuellen Ausgabe der Zeitschrift „Arbeitsmedizin, Sozialmedizin und Umweltmedizin“ (ASU): https://www.asu-arbeitsmedizin.com/article-790269-30010/digitale-balance-statt-d…

Fachlicher Kontakt bei Rückfragen:
Alfons W. Gentner Verlag GmbH & Co. KG
Patrick Hagemann, Verlagsleiter Medizin
Forststr. 131 • 70193 Stuttgart
Tel. 0711/ 63 672-851
Fax 0711/ 63 672-751
Email: hagemann@gentner.de
http://www.gentner.de

Über ASU – Zeitschrift für medizinische Prävention:
Die Zeitschrift „Arbeitsmedizin, Sozialmedizin, Umweltmedizin“ ist das Leitmedium der deutschsprachigen Arbeitsmedizin. Das Publikationsorgan der Fachinstitutionen DGAUM, ÖGA, SGARM, VDBW, Vereinigung Deutscher Staatlicher Gewerbeärzte e.V. sowie der arbeitsmedizinischen Akademien und richtet sich an Betriebsärzte, Arbeitsmediziner und Akteure in wichtigen Schnittstellenbereichen zur Arbeitsmedizin. Die Zeitschrift ist peer reviewed. 1965 gegründet, erscheint ASU monatlich und erreicht nahezu alle arbeits- und präventionsmedizinisch orientierten Akteure im deutschsprachigen Raum. Weitere Informationen unter http://www.asu-arbeitsmedizin.com

Ansprechpartner Presse DGAUM:
Mariya Ahner, M.A.
Tel.: 089/330 396-0
Fax: 089/330 396-13
E-Mail: mahner@dgaum.de
http://www.dgaum.de

Hauptgeschäftsführer:
Dr. Thomas Nesseler

Quelle: idw

(nach oben)


Sonne ernten auf zwei Etagen – Agrophotovoltaik steigert die Landnutzungseffizienz um über 60 %

Karin Schneider Presse und Public Relations
Fraunhofer-Institut für Solare Energiesysteme ISE

Bislang galt für Ackerflächen: entweder Photovoltaik oder Photosynthese, also Stromerzeugung oder Nahrungsmittelproduktion. Eine Pilotanlage am Bodensee hat nun bewiesen, dass beides sehr gut miteinander vereinbar ist. Die »Agrophotovoltaik« (APV) kann durch die ressourceneffiziente Doppelnutzung von landwirtschaftlichen Flächen die Flächenkonkurrenz abmildern und Landwirten neue Einkommensquellen erschließen. Seit einem Jahr wird unter Leitung des Fraunhofer-Instituts für Solare Energiesysteme ISE auf einer Versuchsfläche der Demeter-Hofgemeinschaft Heggelbach die deutschlandweit größte Agrophotovoltaikanlage getestet.

Für das Projekt »Agrophotovoltaik – Ressourceneffiziente Landnutzung« (APV-Resola) wurden über einer Ackerfläche von einem Drittel Hektar Solarmodule installiert. Nun wurden auf beiden Etagen die ersten Sonnen-Ernten eingefahren.

»Die Ergebnisse des ersten Projektjahrs sind ein voller Erfolg, da sich die Agrophotovoltaik-Anlage als praxistauglich erwiesen hat, die Kosten bereits heute mit kleinen Solar-Dachanlagen wettbewerbsfähig sind, die Ernteprodukte ausreichend hoch und wirtschaftlich rentabel vermarktet werden können«, erklärt Stephan Schindele, Projektleiter Agrophotovoltaik am Fraunhofer ISE.

»Die Agrophotovoltaik (APV) hat das Potenzial, neue Flächen für den dringend benötigten Photovoltaik-Ausbau in Deutschland zu erschließen und gleichzeitig den Flächenkonflikt zwischen Landwirtschaft und Freiflächenanlagen zu mildern. Bis zur Marktreife der Technologie müssen jedoch noch weitere Sparten und Anlagengrößen getestet und die technische Integration vorangetrieben werden, zum Beispiel bei der Speicherung«, so Dr. Andreas Bett, Institutsleiter des Fraunhofer ISE.

Als Testkulturen wurden Winterweizen, Kartoffeln, Sellerie und Kleegras angebaut. Durch einen größeren Reihenabstand zwischen den bifazialen Glas-Glas-Solarmodulen in fünf Meter Höhe und die Ausrichtung nach Südwesten wurde sichergestellt, dass die Nutzpflanzen gleichmäßig Sonnenstrahlung erhalten.

Ernteverluste durch Solarmodule – positive Gesamtbilanz
Die Ergebnisse der ersten Ernten auf den Versuchsflächen sind weitestgehend vielversprechend: »Beim Kleegras ist der Ertrag im Vergleich zur Referenzfläche nur leicht um 5,3 % reduziert«, berichtet Prof. Dr. Petra Högy, Agrarexpertin an der Universität Hohenheim. »Bei Kartoffeln, Weizen und Sellerie sind die Ernteverluste durch die Beschattung mit rund 18 bis 19 % etwas stärker ausgeprägt.«

»Aus agrarwissenschaftlicher Sicht sieht Agrophotovoltaik nach einem vielversprechenden Lösungsansatz aus, um die Landnutzungseffizienz zu erhöhen und den Mix erneuerbarer Energien zu erweitern, die zukünftig aus der Landwirtschaft bereitgestellt werden«, betont Prof. Dr. Iris Lewandowski, Leiterin des Fachgebiets Nachwachsende Rohstoffe und Bioenergiepflanzen an der Universität Hohenheim. Allerdings, schränken die Expertinnen ein, seien noch mehrere Praxisjahre und Untersuchungen mit anderen Kulturen sinnvoll, um eindeutige Aussagen treffen zu können.

Solaranlage produziert überdurchschnittlich
Die 720 bi-fazialen Solarmodule gewinnen Sonnenstrom nicht nur auf der Vorderseite, sondern nutzen auch die von der Umgebung reflektierte Strahlung auf der Rückseite. Bei günstigen Bedingungen (z.B. Schneefläche), können sie so bis zu 25 Prozent Mehrertrag erzielen und den Energieertrag der Fläche zusätzlich erhöhen. Aus energetischer Sicht ist diese Doppelnutzung einer Ackerfläche ohnehin deutlich effizienter als der reine Anbau von Energiepflanzen, der in Deutschland immerhin 18 Prozent der landwirtschaftlichen Flächen ausmacht.

Mit der installierten Leistung von 194 Kilowatt können 62 Vier-Personen- Haushalte versorgt werden. In den ersten zwölf Monaten hat die Photovoltaik-Anlage 1.266 Kilowattstunden Strom pro installiertem Kilowatt Leistung geerntet. Dieses Ergebnis liegt ein Drittel über dem deutschlandweiten Durchschnitt von 950 Kilowattstunden pro Kilowatt.

Die Stromernte vom Acker passt in ihrem täglichen Verlauf gut zu den Lastverläufen auf dem Hof. So wurde etwa 40 Prozent des erzeugten Solarstroms in der Hofgemeinschaft direkt für das Betanken des Elektrofahrzeugs sowie die Verarbeitung der Produkte genutzt. Im Sommer wurde die Last tagsüber fast komplett durch die Photovoltaik-Anlage beliefert. Die Demeter-Bauern um Thomas Schmid planen, durch eine Optimierung ihres Verbrauchsverhaltens und den Einsatz eines Stromspeichers den Grad der Eigennutzung auf 70 Prozent zu steigern. Den überschüssigen Strom nimmt der Projektpartner Elektrizitätswerke Schönau ab.

Das Projekt »Agrophotovoltaik- Ressourceneffiziente Landnutzung«
Seit die Idee der Agrophotovoltaik 1981 vom Gründer des Fraunhofer ISE, Prof. Dr. Adolf Goetzberger, formuliert wurde, wurden weltweit mehrere große APV-Anlagen umgesetzt. Allerdings existieren nur wenige APV-Forschungsanlagen. Im Projekt »APV-Resola« werden erstmalig unter Realbedingungen die wirtschaftlichen, technischen, gesellschaftlichen und ökologischen Aspekte der Technologie an einer Pilotanlage wissenschaftlich untersucht. Das Bundesministerium für Bildung und Forschung (BMBF) und die FONA- Forschung für nachhaltige Entwicklung fördern das Projekt.

Projektziel ist die Entwicklung der APV-Freiflächenanlagentechnologie zu einem marktfähigen Produkt. »Um den für eine Markteinführung notwendigen Nachweis der Funktionstüchtigkeit im Einsatz erbringen zu können, müssen wir weitere techno-ökonomische APV-Anwendungen vergleichen, die Übertragbarkeit in andere Regionen demonstrieren und größere Anlagen realisieren«, so Stephan Schindele. So sollen die unterschiedlichen Anwendungsmöglichkeiten u.a. in Kombination mit Obst-, Beeren-, Wein- und Hopfenbau sowie mit Energiespeicher, organischer PV-Folie und solarer Wasseraufbereitung und -verteilung untersucht werden. »Neben Investitionen seitens der Industrie und der Forschungspolitik ist für die erfolgreiche Markteinführung der Agrophotovoltaik auch eine für erneuerbare Energien typische politische Steuerung notwendig«, ergänzt Stephan Schindele. Das Fraunhofer ISE und das Wuppertal Institut haben daher bereits 2014 in einer gemeinsamen Stellungnahme mit Unterstützung der Universität Hohenheim vorgeschlagen, Agrophotovoltaik in Ausschreibungen in einer Testphase gesondert zu berücksichtigen.

Weitere Informationen:
Forschungsprojekt Agrophotovoltaik – Hofgemeinschaft Heggelbach am Bodensee
http://blog.innovation4e.de/2017/11/21/ein-jahr-agrophotovoltaik-sonnenernte-auf…
Blogbeitrag auf „Innovation4E“ dem Forschungsblog des Fraunhofer ISE
https://www.ise.fraunhofer.de/ Webseite des Fraunhofer ISE

Anhang
Presseinformation [PDF]
https://idw-online.de/de/attachment59201

Quelle: idw

(nach oben)