Samstag, April 20, 2024
StartAblageTägliche Meldungen 2017

Tägliche Meldungen 2017

Dezember 2017
Umwelt
Gesundheit
Gesellschaft
Umwelt
Klimawandel begünstigt Methanfreisetzung aus Gewässern 
Feldtests bestätigen Potenzial von Wärmepumpen als wichtigster Heiztechnik der Zukunft 
Kraftstoff aus Wasser und Wind 
Folgen des Klimawandels: Oder warum wird das Wasser unter Borkum überwacht? 
Dieses Geld stinkt nicht! THGA-Geotechniker will Gas aus alten Mülldeponien energetisch nutzen 
Hochwasservorsorge in der Raumordnung stärken
Geschäftsidee für ein Kanalnetz der Zukunft 
Gibt es nachhaltige Lösungen im Umgang mit schwindenden Phosphorressourcen? 
Den Trends der Umweltbranche auf der Spur 
Flüsse tragen Plastikmüll ins Meer / Große Flusssysteme sind hauptverantwortlich 
Phosphatrückgewinnung – ein Weg zur strategischen Rohstoffsicherung 
TU Berlin: Der Autoreifen in der Umwelt 
Biomasse ohne Abfall: Hochwertige Erzeugnisse und Anwendungen aus Bioraffinerie-Nebenprodukten 
Fataler Insektenstaubsauger: Uferbeleuchtung
Klimaschutz durch Ablasshandel?
Gesundheit
Frauen mit Diabetes: Schlaganfallrisiko um 50 Prozent erhöht 
Warum unser Gehirn Schlaf braucht und was passiert, wenn wir nicht genug davon bekommen 
Biomarker-Tests bei frühem Brustkrebs: Warum unklar ist, ob man sich auf sie verlassen kann 
Gerinnungskontrolle: Warnung vor überholtem Quick-Wert – Patienten sollten auf INR-Wert bestehen 
„Wissensreihe Männergesundheit“ informiert zu Kopfschmerzen, Rückenschmerzen und Work-Life-Balance 
Darmkrebsvorsorge: Neun Tests – trotzdem vergleichbare Ergebnisse 
Vegane Ernährung als Lebensstil: Es besteht Risikokommunikationsbedarf 
Wissenswertes rund um die Gesundheit – der Online-Adventskalender der WLH 
Wie Fettleibigkeit Brustkrebs aggressiver macht 
Wildpilze in Teilen Bayerns nach wie vor belastet 
Influenza – vor allem ältere Menschen stark betroffen 
Gesellschaft
Wer noch zu später Stunde vor dem Bildschirm sitzt, schläft weniger und schlechter als andere 
Flexible Arbeitszeiten: Möglichkeiten, Defizite, Reformbedarf 
Sicheres Bezahlen ohne Datenspur 
Studie: Nachahmung des Gegenübers führt zu höherer Beliebtheit beim Kennenlernen 
November 2017
Umwelt
Gesundheit
Gesellschaft
Umwelt
Wasserforschung: Treibhausgase aus der Kläranlage 
Erhöhung der Biogasproduktion 
Optimiertes Umweltmonitoring für Gewässer und Talsperren durch Satellitendaten 
Kraftstoff aus Abfällen und Elektrizität?
Der Salzwasser-Wächter auf der Darßer Schwelle: Rund um die Uhr im Einsatz – und das seit 25 Jahren 
Von der Weser bis zur Nordsee: PLAWES erforscht Mikroplastik-Kontaminationen in Ökosystemen
In Zeiten des Klimawandels: Was die Farbe eines Sees über seinen Zustand verrät 
Beschleunigt Wasserknappheit die Energiewende? 
Schärfere Bestimmungen zum Schutz vor schädlichen Umwelthormonen nötig: EU-Kriterien unzureichend 
Pilotprojekt zur CO2-Speicherung erfolgreich beendet 
Pilze sind das zweitgrößte Organismenreich der Erde / Studie schätzt 2,2 bis 3,8 Millionen Arten
Wohin geht der Stickstoff nach der Düngung – Frühindikatoren zur Erkennung von Nitratfrachten
Künstliche Intelligenz für Bewässerungssysteme – Feldtests in Pakistan belegen Einsparung von 40% 
Gesundheit
Tätowierungen: Farbpigmente wandern auch als Nanopartikel im Körper 
Bier macht glücklich
DOG 2017: Bei ersten AMD-Anzeichen sofort den Augenarzt aufsuchen 
MHH-Studie: Wie gesund werden wir alt? 
Die wichtigsten Tipps zur Grippe-Impfung: Ältere Menschen sind besonders gefährdet 
„Das Schöne ist doch, dass jeder selbst Vorsorge treffen kann“ 
Lebensmittel im Blickpunkt: Gängige Speiseöle sind nur selten belastet 
Stärker individualisierte Blutdruckzielwerte. Die neuen Empfehlungen der Deutschen Hochdruckliga
Schnitzel aus der Petrischale stößt auf Akzeptanz 
Schaufensterkrankheit – jeder vierte Patient über 65 Jahren ist betroffen: Gehtraining hilft 
Mixing Artificial Sweeteners Inhibits Bitter Taste Receptors 
Candida auris: Ein Pilz verlangt Aufmerksamkeit 
DKOU 2017: Wie Patienten mit Knie-Arthrose sinnvoll Sport treiben 
Gesellschaft
Was macht Menschen in unterschiedlichen Lebensphasen glücklich und zufrieden? 
Neue Studie: Warum Tests gut sind für das nachhaltige Lernen 
BAuA-Bericht: Orts- und zeitflexibles Arbeiten gesund gestalten 
Management-Studie – Gemeinsam unehrlich 
Urlaub vorbei – Erholung ade? 
Deutsche blicken optimistischer in die Zukunft als europäische Nachbarn 
Oktober 2017
Umwelt
Gesundheit
Gesellschaft
Umwelt
Klimaerwärmung ist schuld am Rückgang der Braunbären in Europa 
Riesenbakterium enthält Erbgut für eine ganze Bevölkerung 
Umweltfreundliches Segway toppt Rad und Auto bei kurzen Strecken
Öl- und Gasbohrungen als starke Quelle von Treibhausgasen 
Elektrizitätsbedarf in Europa verlagert sich durch den Klimawandel 
Forscher berechnen zentrale Eigenschaft von Wasser 
aCar – Der elektrische „Alleskönner“ 
Ein neuer Indikator für marine Ökosystem-Veränderungen – der Dia/Dino-Index 
Globale Klimaextreme nach Vulkanausbrüchen 
Neuer Tagungsband mit Forschungsbeiträgen für die Energiewende erschienen 
DBFZ diskutiert „Hydrothermale Prozesse“ als Schlüsseltechnologie für eine biobasierte Wirtschaft
Wimperntierchen und ihre bakteriellen Lebenspartner – Eine weltweite Partnerschaft 
Wasser – wertvoll und schützenswert! Beschleunigte Elektronen helfen bei der Aufbereitung 
Innovative Niederschlagsmodelle für den Überflutungsschutz 
PKW-Verglasung aus Plastik? 
Gesundheit
Thrombosen-Vorbeugung: Zusätzlicher entzündungshemmender Effekt von Aspirin entdeckt 
Langzeitstudie identifiziert niedrige Temperaturen als Herzinfarkt-Trigger 
Weihwasser nicht so rein wie erhofft 
Expertengruppe schlägt umfassende Reform des Heilpraktikerberufs vor 
Impfempfehlungen der STIKO für 2017/2018 veröffentlicht 
BfR-Forschung: Nachweis des Übergangs von Aluminium aus Menüschalen in Lebensmittel 
Hilfe gegen Heißhungeranfälle 
Hoher Zuckerkonsum verursacht Zahnbehandlungskosten in Milliardenhöhe 
Kaugummi-Schnelltest bei Entzündungen 
Gesellschaft
Besser Schneider oder Schmidt heißen 
Menschenaffen wissen, wenn sie etwas nicht wissen 
Wie sehr lenkt das Smartphone ab? Handy-Nutzung beeinflusst Produktivität am Arbeitsplatz 
Absenkung des Rentenniveaus: Neue WSI-Berechnungen illustrieren Konsequenzen 
Studenten des Hasso-Plattner-Instituts schreiben Buch für Informatikanfänger 
Im Homeoffice oder mit völlig selbstbestimmten Arbeitszeiten fällt Abschalten besonders schwer
September 2017
Umwelt
Gesundheit
Gesellschaft
Umwelt
Value from wastewater 
Klimawandel: Bäume binden im Alter große Mengen Kohlenstoff 
Müll im Meer: Wo kommt nur das ganze Plastik her? 
Kostbares aus Abwasser 
Sauberes Wasser für alle – aber wie? 
Forschung am Baikalsee – wie wirken sich Klimawandel und Umweltgifte auf die Fauna aus? 
Ostsee-Flohkrebse haarklein erklärt – IOW-Forscher schreiben traditionsreiche Enzyklopädie fort 
EU schafft die „Plussklassen“ beim Energielabel ab 
Ölverschmutzungen aufsaugen 
Nisthilfen machen Äcker für Wildbienen attraktiv 
Biologen aus Rostock und St. Petersburg forschen für klares Wasser an der Ostseeküste 
Forscher nehmen Ostsee fächerübergreifend unter die Lupe 
Gesundheit
Neuer Malaria-Wirkstoff erfolgreich getestet 
Bei Stress im Job greifen Berufstätige verstärkt zu ungesunden Snacks 
Arbeitslosigkeit – Gefahr für die psychische Gesundheit 
DKOU 2017: Bewegung statt Bettruhe: Was bei akutem Kreuzschmerz wirklich hilft 
Wenn Schimmelpilze das Auge zerstören 
Schlank und dennoch ein hohes Risiko für Diabetes und Herz-Kreislauferkrankungen 
Seltener Weizenfund in bronzezeitlicher Lunch-Box aus dem Schweizer Hochgebirge 
Besser essen, länger leben: US-Studie belegt Wirkung der DASH-Diät 
Keimschleuder Küchenschwamm 
Wie sauber putzen die „Zahn-Profis“? 
Lebensmittel aus Blättern und Gräsern können Krankheitserreger enthalten 
Gesellschaft
Pepper, der neue Kollege im Altenheim 
Bessere Wahlprognosen mit Hilfe von Künstlicher Intelligenz 
Zweitstimme.org: Wissenschaftliche Prognosen zur Bundestagswahl, laufend aktualisiert 
Populistische Einstellungen sind bei deutschen Wählern nicht mehrheitsfähig 
Mit kürzeren und flexibleren Arbeitszeiten können Betriebe rentenberechtigte Mitarbeiter halten 
Berufliche Entscheidungen von Müttern: Einstellungen des Partners spielen eine wichtige Rolle
August 2017
Umwelt
Gesundheit
Gesellschaft
Umwelt
Die Wasserqualität von Stauseen im Blick
Bienenvölker auf dem Dach der BfG
Von trocken zu nass: In Afrikas Sahelzone könnte es plötzlich viel mehr regnen 
Süßwasserquellen im Meer: Die unsichtbare Wasserressource 
Zeolith-Katalysatoren ebnen den Weg für dezentrale chemische Prozesse: Biosprit aus Abfällen
Extrem sauerstoffarme Wirbel im Atlantik produzieren Treibhausgase 
Überschwemmungen genau in den Blick nehmen 
Bürger forschen in einem wissenschaftlichen Projekt der Universität Greifswald 
Weltrekord bei der Auswertung von Satellitendaten: Städten beim Wachsen zusehen 
Inseln und Küstenregionen am meisten gefährdet 
Zukunftsfähige Wasserinfrastrukturen: Empfehlungen zur Transformation 
Gesundheit
Ungesunde Nachbarschaften: In wohlhabenden Landkreisen Süddeutschlands leben viele Impfverweigerer 
HPV-Impfung – die oft versäumte Chance gegen Krebs 
Sport ist Mord? 
Lebensmittel im Blickpunkt: Die ursprüngliche Reinheit des Mineralwassers 
Bauchaortenaneurysmen: Das Ultraschall-Screening für Männer ab 65 kommt 
Neue Studien belegen: Übergewicht und Adipositas noch gefährlicher als angenommen 
Sonnencremes: Darauf kommt es bei der Darstellung der Wirksamkeit an 
DKOU 2017: Orthopäden und Unfallchirurgen setzen sich für aktiven Lebensstil ein 
Urlaubsplanung 2017: Impfung gegen Hepatitis-Viren bietet wirksamen Schutz für die Leber 
Gesellschaft
Motiviert durch Bestrafung 
Angst, sich zu blamieren – Was hilft am besten? 
Konflikte in der Arbeitswelt: Streit um Entlohnung, Mitbestimmung und Aufstiegschancen
Woher wissen wir wie alt die Erde ist? 
Mitbestimmung wichtiger als Stabilitätsanker in Zeiten von Kapitalmarktdominanz und Digitalisierung 
Schimpansen belohnen Gefälligkeiten 
Juli 2017
Umwelt
Gesundheit
Gesellschaft
Umwelt
Mit dem Laser gegen Unkraut 
Neue Methanabbauer in Seen entdeckt 
Neue Erkenntnisse zum Meeresspiegel-Anstieg 
TU Berlin: Eine Fundgrube für Wertstoffe 
Meereswärme zur Versorgung eines Kälte- und Wärmenetzes in Marseille 
Ressourceneinsatz bei Umwälzpumpen optimieren 
Wasserqualität von Flüssen: Zusätzliche Reinigungsstufen in Kläranlagen lohnen sich 
Abwasser effektiv reinigen
Wie innere Uhren miteinander kommunizieren 
Leitfaden zur Energiewende für Kommunen und Stadtwerke 
Neues Helmholtz-Institut für marine Biodiversität erforscht menschlichen Einfluss auf Meere 
Den Faktor Mensch im biologischen Flickflack der Küstengewässer erkennen 
Besseres Wassermanagement in trockenen Gebieten 
Neue DNA-Datenbank der Wasserinsekten verbessert Umweltüberwachung
Biofilme: Bakterien schützen sich durch Lotuseffekt 
Energiewende: intelligent, vernetzt, nachhaltig 
Welche Auswirkungen hat die Digitalisierung der Industrieproduktion auf Jobs und Umweltschutz? 
Ostfalia forscht: „KlärLam – Kläranlagen als Lastmanager“ 
Biokohle in Brenngas umwandeln 
Energie und Mobilität: Biogas wichtiges Standbein 
Gesundheit
Wie schmecken wir Wasser? Signalweg entschlüsselt 
Nanopartikel: Wo bleiben sie, und wie verändern sie sich? 
Extrakorporale Stoßwellentherapie bei Fersenschmerz: besser als Placebo, Ultraschall, Iontophorese 
Sonne, Outdoor-Working: Krebsgefahr? 
Erythrit – Forscher finden Früherkennungszeichen für Fettleibigkeit 
Deutsche Hochdruckliga e.V. (DHL): Bluthochdruck bei Frauen häufig unterschätzt 
Keramiken und Kunststoffe können Metalle schon bei vielen Zahn-Therapien ersetzen 
Gesunde Mitarbeiter – erfolgreiches Unternehmen 
Phthalate erhöhen das Allergierisiko bei Kindern 
Gesellschaft
Der Kampf um Boni vergiftet das Arbeitsklima 
Je gerechter, desto grüner 
WSI Tarifarchiv: Wer bekommt Urlaubsgeld und was sehen die Tarifverträge vor? 
Einkommensteuer: Beseitigung des Mittelstandsbauchs entlastet vor allem Besserverdienende 
Juni 2017
Umwelt
Gesundheit
Gesellschaft
Umwelt
Wer schwimmt wo? 
„40 Jahre – wir wünschen uns was!“ Das Öko-Institut startet ins Jubiläumsjahr 
Umwelt, Verkehr, Energie. Erste Wasserstofftankstelle aus erneuerbaren Energien in Frankreich 
Eine Werbesäule zur Minderung der Luftverschmutzung in Paris 
Von Batterien bis zu Vanillin: Elektrochemie verwandelt Holzabfälle 
Frischluft im Sand: Was Bakterien in der Nordsee antreibt 
575 Elbkilometer aktiv für die Meeresforschung: Mitschwimmerinnen und Mitschwimmer gesucht
IGB Policy Brief: Fünf drängende Gewässerthemen für die kommende Bundesregierung identifiziert 
Elektroimpulse säubern Industriewässer und Lacke 
Mit Urzeitalgen zu gesundem Wasser: Wirtschaftliches Verfahren zur Beseitigung von EDC im Abwasser 
Die Kieler Förde – ein Trainingsbecken für Miesmuscheln 
BfG registriert an Fischaufstiegsanlage Koblenz über 230.000 aufsteigende Fische 
Gesundheit
Vitamin D: Für Diabetiker wichtiger als gedacht 
Unstatistik des Monats: Eine Stunde joggen, sieben Stunden länger leben 
Wiesn-Studie: Alkoholkonsum beeinflusst das Auftreten von Herzrhythmusstörungen 
Raucherland Deutschland – weltweit unter den Top Ten 
Durch die Luft übertragene Viren überleben im Wasser 
Neue Studie: Zu niedriger Blutdruck ist schädlich, Untergrenzen könnten sinnvoll sein 
Zinkversorgung beeinflusst Herzgesundheit 
Mücken: Eine kommt, die andere geht 
Testosteron ist nicht Schuld am männlichen Haarausfall 
Verbreitung und Genauigkeit von Fitnessarmbändern – Ergebnisse aus Studie liegen vor 
Zecken & Rohmilch: Forscher berichten von neuen Übertragungswegen für FSME 
Gesellschaft
Eigene Kinder beflügeln Top-Führungskräfte in ihrer Arbeit 
Neues Tool: Betrugssoftware in Autos automatisch entdecken 
Wer mit Automaten unhöflich umgeht, den bedienen sie nicht 
Erwerbstätige Frauen arbeiten täglich 1,6-mal so lang unbezahlt wie Männer 
Sehen Fußballfans rivalisierender Mannschaften dasselbe Fußballspiel mit anderen Augen? 
Wohlstandsmessung aus dem Weltall 
Feierabend-Studie: Teilnehmer gesucht 
Mai 2017
Umwelt
Gesundheit
Gesellschaft
Umwelt
Wie ein Sensor-Kabel den Zug im Tunnel und den Einbrecher am Zaun erfasst 
Tiefseekrake hat Quallen zum Fressen gern 
FH Potsdam startet neues Forschungsprojekt für integrierte Stadtentwicklung 
Drohneneinsatz in der Meeresforschung 
240.000 Euro für Forschung zu Digitalisierung und Vernetzung in der Wasserwirtschaft 
Strom aus erneuerbaren Energien mit Drucklufttechnologien speichern 
Besser als die Natur: Künstlicher Biofilm steigert Stromproduktion mikrobieller Brennstoffzellen 
Zuckerrübenschnitzel: der neue Rohstoff für Werkstoffe? 
Schluss mit Ölwechsel auf Verdacht: Sensor warnt, wenn Öl im Blockheizkraftwerk schlecht wird
Durstige Landwirtschaft: Übermässige Grundwassernutzung bedroht Lebensmittelversorgung weltweit 
Energie aus der Toilette 
Internationales Team um Oldenburger Meeresforscher untersucht Meeresoberfläche 
Ein Fisch macht Schule: Mit dem Stör werden Kinder und Jugendliche zu Gewässerexperten 
Lachs mit Nebenwirkungen / Aquakulturen belasten die Flüsse 
Neues Forschungsvorhaben analysiert Optionen für Biogas-Bestandsanlagen bis 2030 
Gesundheit
Blutdruckwerte in Deutschland sinken – trotzdem keine Entwarnung 
Rostocker Forscher wollen Glyphosat „entzaubern“ 
Fettleibigkeit: Mit Spritzen oder Skalpell der Adipositas auf den Leib rücken 
Stoßlüften ist besser als gekippte Fenster 
Darmkrebsvorsorge mit verbessertem Test: Antikörper suchen verstecktes Blut im Stuhl 
Mediziner warnen vor rasantem Anstieg bei Speiseröhrenkrebs als Folge von Sodbrennen 
Neue Müslis für die Gesundheit 
Besser lernen dank Zink? 
Antibiotika wirken gegen Rückenschmerzen – Dänische Wissenschaftlerin erhält Deutschen Schmerzpreis 
Lupinensamen: Gesundheitliche Beeinträchtigungen bei bitterem Geschmack möglich 
Gesellschaft
Ameisen retten ihre Verletzten 
Deutsche brauchen weniger Vorgesetzte als US-Firmen – Mitbestimmung wichtig für flache Hierarchie 
Frauen, die mehr verdienen, bevorzugen finanzielle Unabhängigkeit durch getrennte Kassen 
Faire Ungleichheit? 
Prof. Roger Nitsch: „In der Generation unserer Kinder wird es kein Alzheimer mehr geben“ 
Univesität in Landau sucht Teilnehmer für Online-Befragung zum Thema Berufsalltag 
Mädchen können besser lesen, Jungen besser rechnen? So einfach ist es nicht! 
April 2017
Umwelt
Gesundheit
Gesellschaft
Umwelt
Klimakiller Kuh: Methan-Ausstoß von Vieh könnte bis 2050 um über 70 Prozent steigen 
Wetter-Extreme: Menschheit verändert wahrscheinlich gigantische Luftströme 
Gefährdete Giganten: Große Süßwasser-Tierarten sind weltweit am stärksten vom Aussterben bedroht 
Methan: Insektenlarven in Seen sind unvermutete „Klimasünder“ 
Es muss nicht immer Trinkwasser sein – Abwasser als Ressource nutzen 
»ZeroTrace«: Nachhaltige Aktivkohleverfahren zur Entfernung von Mikroschadstoffen aus Abwasser 
Umweltforscher entwickeln neue Biosensoren für Gewässerkontrolle 
Warum ein Rückgang des Düngemitteleinsatzes in der Zukunft denkbar ist 
Neubildung von Grundwasser exakter berechnen 
UDE koordiniert EU-Netzwerk: Gewässer besser analysieren 
Meeresforschung in Echtzeit verfolgen 
Leipziger Forscher erklären wichtigen Prozess bei biologischer Methanbildung
Gesundheit
Männer mit gestörtem Zuckerstoffwechsel sollten kohlenhydratreiches Essen am Abend meiden 
Schwangerschaft begünstigt neue, hochpathogene Grippevirus-Varianten 
Malaria-Therapien: bald schon viel einfacher, flexibler und effizienter? 
Dem Geheimnis der Achilles-Ferse auf der Spur 
Lebensmittel im Blickpunkt: Die vitaminreiche Mango 
Versorgungsatlas: In Deutschland wächst die Zahl der Patienten mit Diabetes mellitus 
Hoher Fleisch- und Wurstwarenkonsum verschlechtert die Symptome von Asthma 
Lebensstil kann Grauen Star beeinflussen: Diabetes, Rauchen und Übergewicht trüben die Augenlinse 
Bin ich nicht zu alt dafür? Musiktherapie gegen Tinnitus für die Generation 65plus 
1,5 Millionen Diabetespatienten müssen bald ohne bewährte Medikamente auskommen
Gesellschaft
Wie bei Hempels unter dem Sofa 
„Seit Anbeginn der Zeit“ – DNA bestätigt einzigartige Bindung australischer Ureinwohner an ihr Land 
Rück- statt Fortschritt: Automatisches Vertretungsrecht für Eheleute gefährdet Patientenautonomie 
Frauen im Job – Psychologe untersucht Vorurteile 
Risikoentscheidungen: Alter schützt vor Kühnheit nicht 
„Seit Anbeginn der Zeit“ – DNA bestätigt einzigartige Bindung australischer Ureinwohner an ihr Land 
Und sie lächelt doch: Mona Lisas Mimik eindeutiger als gedacht 
Neue App: Welches Elektroauto zu welchem Fahrer passt 
Psychologen untersuchten Persönlichkeitsveränderungen junger Menschen 
Bitte nichts verraten! Wenn es um die eigene Zukunft geht, wollen die meisten nichts wissen 
März 2017
Umwelt
Gesundheit
Gesellschaft
Umwelt
Neue Maßstäbe für eine bessere Wasserqualität in Europa 
Ivan Tolpe Award 2017 für BioEcoSIM-Projekt für beste Neuentwicklung in der Gülleverarbeitung 
Wie viel Klimaschutz steckt im EEG? 
Rezeptur aus der Nanowelt für saubereres Trinkwasser 
Weniger Sauerstoff in allen Meeren 
Pizza, Burger und Co.: Eine fettreiche Mahlzeit kann den Stoffwechsel schädigen und den Weg 
Manche Arten mögen’s nass – Schutz von Mooren und Feuchtgebieten fördern 
4,3 Millionen Euro für Verbundprojekt zur Biodiversität von Auwäldern in der „Flusslandschaft Elbe“
Abgas als Rohstoff 
Weniger Umweltbelastung durch Weinbau: Förderpreis mit 750.000 Euro für Landauer Forschungsprojekt 
Wenn dem Meeresboden der Atem stockt: Zeitweiliger Sauerstoffmangel hat jahrzehntelang Auswirkungen 
 Verstädterung wird 300.000 km2 fruchtbarsten Ackerlands verschlingen
 Moderner Wasserbau ist komplex
„Entengrütze“: Kleine Pflanzen, große Chancen 
Wärmewende für Berlin – Forschungsprojekt gestartet 
Wasser- der heimliche Treiber des Kohlenstoffkreislaufs? 
Vom Phosphorrezyklat zum intelligenten langzeitverfügbaren Düngemittel – Projektstart 
Gesundheit
Klug entscheiden in der Pneumologie: Lungenärzte empfehlen Lungenfunktionstests für Raucher
Hoch wirksamer Malaria-Impfstoff erfolgreich getestet 
Darmspiegelung schon ab 50 – vor allem für Männer 
Giftalarm in der Küche 
 Magensäureblocker: Ohne eindeutige Diagnose nicht langfristig einnehmen
LED-Lampen könnten für die Augen toxisch sein 
Solarien bergen Gesundheitsgefahren 
Gesellschaft
demowanda.de: Fakten zum demografischen Wandel in der Arbeitswelt 
Bewerbungen: Diese Strategien wenden Jobsuchende an
Elektrischer Antrieb zum Mitnehmen 
Frauen liegen bei Renten zurück – Angleichung künftig vor allem durch sinkende Renten bei Männern 
Erste Hilfe für Internetsüchtige – Neues Portal hilft bei Internetsucht weiter 
Volksverschlüsselung muss kommen 
www.tarifrunde-2017.de: Aktuelles zu Kündigungsterminen, Forderungen, Verhandlungen und Ergebnissen 
Februar 2017
Umwelt
Gesundheit
Gesellschaft
Umwelt
BMWi fördert innovative Verwertungsansätze: Biogene Rest- und Abfallstoffe für mehr Strom und Wärme 
Geothermie: Den Sommer im Winter ernten 
Löschwasser mobil und kosteneffizient reinigen 
Grüne Dächer binden Feinstaub, produzieren Frischluft und sind schön anzusehen 
UDE: MULTI-ReUse – Neues Forschungsprojekt zur Abwassernutzung 
Änderungen des Meeresspiegels unterschätzt 
Mehr Strom aus Abwärme von dezentralen Blockheizkraftwerken 
Wälzlager: kleines Bauteil, riesiges Sparpotenzial 
Weltraum-Bärtierchen: Zäh über Generationen 
Manganknollen als Brutstätte für Tiefseekraken 
Abwehrmechanismus von Algen kopiert: Cerdioxid schützt zuverlässig vor marinem Fouling 
Biokunststoffe aus der Kläranlage 
Große Windparks bremsen den Wind und senken die Energieeffizienz 
Nachhaltige Biomasse aus dem All erkennen 
Ozeanworkshop für Jugendliche: Jetzt bewerben! 
Frühwarnsignale für Seen halten nicht, was sie versprechen 
Nährstoffhaushalt einer neuentdeckten „Todeszone“ im Indischen Ozean auf der Kippe 
Im Winter trägt der Hirsch Schal und Wildschweine erhalten eine Haarverlängerung 
Forscher entwickeln Unterwasser-Observatorium 
Auf Video: Bärtierchen-Sex 
Wo bleibt das Treibhausgas Kohlendioxid? 
Gesundheit
Auch wenig Sport beugt Krankheiten vor 
Hilfe vor und nach der letzten Zigarette 
Gesellschaft
Wo die Nesthocker wohnen 
Über 100.000 Klicks: Forscher der TU Kaiserslautern erklären Computerchips auf YouTube 
Januar 2017
Umwelt
Gesundheit
Gesellschaft
Umwelt
Buch über die Pflanzenwelt der Bibel und des Koran 
Bäume pflanzen beim Radeln 
Der Rückgang von Emissionen hat auch negative Begleiterscheinungen 
Förderprogramm „Energetische Biomassenutzung“ sucht: intelligent, flexibel und effizient 
Grüne Trafos fürs grüne Ländle 
Mit Zucker gegen Rost: Bis zu 80 Prozent weniger Biokorrosion 
Schnelltests für Antibiotika in Gewässern und Impfstoffe auf Basis von Antigenen 
TU Berlin: Kunststoff aus Strom und Selters 
Maßgeschneiderte Membranen für die Umwelt 
Hausmüll mit weniger Energie aufbereiten 
Kommunen können mit „Monitor Nachhaltige Kommune“ den Grad ihrer Nachhaltigkeit messen 
Lernen von Legionellen 
Remweed-Forschungsprojekt: Unkrautbekämpfung mittels Agrar-Drohnen 
Upgrade für Biogas
Frachtschiffe reinigen, aber richtig: Forschungsprojekt der OTH Regensburg 
Energiespeicher von morgen wird erstmals im Bodensee getestet 
Power-to-Liquid: Erste Kompaktanlage im Pilotbetrieb 
Fraunhofer IWS präsentiert neue Ergebnisse für nächste Batteriegeneration zum 5.Workshop in Dresden 
„Problemen die Stirn zu bieten, ist entscheidende Triebfeder für den Erfolg beim Umweltschutz“ 
Mit Bakterien Wertstoffe aus Kohlendioxid gewinnen
Klimawandel beeinflusst Deutschland von der Nordsee bis zu den Alpen 
 Neues Projekt: Abwasser aus dem Bergbau sinnvoll wiederverwenden
Chemikalien aus Biomasse
Gesundheit
Struwwelpeter-Gene entdeckt 
Schweinefleisch ist nach wie vor eine bedeutende Infektionsquelle des Menschen mit Salmonellen 
Volksleiden Rückenschmerzen: Patienten überschätzen Bildaufnahmen 
Nach über 100 Jahren: Neue Wege in der Krampfaderbehandlung – Pressekonferenz der DEGUM
Haustiere: Garant für subjektives Wohlbefinden? 
Wie gefährliche Keime als blinde Passagiere von einem Kontinent zum anderen reisen / Neue Studie 
 Übergewicht verstehen und behandeln – Ein Ratgeber für Betroffene und Angehörige
Wer körperlich fit ist, arbeitet effektiver
Gesellschaft
Auszeichnung „Rede des Jahres 2016″ geht an Bundestagspräsident Norbert Lammert 

Klimawandel begünstigt Methanfreisetzung aus Gewässern

Katharina Bunk Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)

Es ist ein Teufelskreis: Infolge des Klimawandels und steigender Temperaturen tritt immer mehr Methan aus Binnengewässern auf der ganzen Welt aus. Die Freisetzung des Treibhausgases Methan wiederum führt zu einem weiteren Temperaturanstieg und einer Beschleunigung des Klimawandels. WissenschaftlerInnen vom Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB) waren an einer niederländischen Studie beteiligt, die einen deutlichen Zusammenhang zwischen Temperaturanstieg und Methanemissionen aus Gewässern zeigt. Ein Temperaturanstieg von nur einem Grad Celsius steigert die Methanfreisetzung um sechs bis 20 Prozent.

Flache Seen, Teiche, Flüsse und Feuchtgebiete sind für ein Gros der globalen natürlichen Treibhausgasemissionen verantwortlich und damit besonders relevant für die Klimafolgenforschung. Das meiste Methan wird durch Gasbläschen freigesetzt, die sich im Sediment von Gewässern bilden. Sobald die Bläschen die Wasseroberfläche erreichen, gelangt das Treibhausgas in die Atmosphäre.

Für die Untersuchung wurden Daten zur Methanfreisetzung aus Gewässern rund um den Globus ausgewertet – von hiesigen Fischteichen über nacheiszeitliche Seen in Skandinavien bis hin zu subtropischen Stadtteichen in China. Zusätzlich wurde der Einfluss des Temperaturanstiegs auf die Methanfreisetzung in einer Laborstudie am Niederländischen Institut für Ökologie (NIOO-KNAW) gemessen.

Höhere Temperaturen, mehr Methan – mehr Methan, höhere Temperaturen
In acht mit Sediment und Wasser gefüllten großen Tanks haben die ForscherInnen ein Jahr lang die Gewässer und Umweltbedingungen unserer Breiten nachgeahmt. Ein simulierter Temperaturanstieg von 4°C führte im gesamten Jahresverlauf zu 51 Prozent mehr Methanemissionen durch freigesetzte Gasbläschen. „Der Temperatureffekt auf die Methanfreisetzung war vor allem auf eine erhöhte mikrobielle Aktivität im Sediment zurückzuführen“, erklärt Dr. Sabine Hilt, Co-Autorin der Studie und Arbeitsgruppenleiterin am IGB. Die WissenschaftlerInnen haben errechnet, dass ein Temperaturanstieg von 1°C zu einem sechs bis 20 Prozent höherem Ausstoß von Methanbläschen führen würde, was wiederum einen zusätzlichen Temperaturanstieg zur Folge hätte.

„Jede Tonne Treibhausgas, die wir freisetzen, befördert also zusätzliche Emissionen aus natürlichen Quellen“, mahnt Prof. Dr. Sarian Kosten, Leiterin der Studie und ehemalige IGB-Gastwissenschaftlerin. „Erfreulicherweise gilt aber auch das Gegenteil: Wenn wir weniger Treibhausgase ausstoßen und die Temperatur sinkt, sinkt auch die Methanfreisetzung aus natürlichen Quellen.“ Durch Messungen in verschiedenen Gewässertypen und Klimazonen weltweit könnten genauere Vorhersagen zu zukünftigen Methanfreisetzungen getroffen werden – eine wichtige Voraussetzung für Prognosen zur globalen Klimaerwärmung und um Gegenmaßnahmen zu ergreifen.

Studie:
Ralf C. H. Aben, Nathan Barros, Ellen van Donk, Thijs Frenken, Sabine Hilt, Garabet Kazanjian, Leon P. M. Lamers, Edwin T. H. M. Peeters, Jan G. M. Roelofs, Lisette N. de Senerpont Domis, Susanne Stephan, Mandy Velthuis, Dedmer B. Van de Waal, Martin Wik, Brett F. Thornton, Jeremy Wilkinson, Tonya DelSontro & Sarian Kosten (2017) Cross continental increase in methane ebullition under climate change. Nature Communications 8: art. 1682. doi:10.1038/s41467-017-01535-y

Ansprechpartner:
PD Dr. Sabine Hilt, Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB), Abt. Ökosystemforschung, hilt@igb-berlin.de, +49 (0)30 64181 677

Prof. Dr. Sarian Kosten, Institute for Water and Wetland Research, Radboud University & Netherlands Institute of Ecology (NIOO-KNAW), s.kosten@science.ru.nl

Über das Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB):
Das IGB ist das bundesweit größte Forschungszentrum für Binnengewässer. Es verbindet Grundlagen- und Vorsorgeforschung, bildet den wissenschaftlichen Nachwuchs aus und berät Politik und Gesellschaft in Fragen des nachhaltigen Gewässermanagements. Forschungsschwerpunkte sind u.a. die Langzeitentwicklung von Seen, Flüssen und Feuchtgebieten angesichts sich rasch ändernder Umweltbedingungen, die Renaturierung von Ökosystemen, die Biodiversität aquatischer Lebensräume sowie Technologien für eine ressourcenschonende Aquakultur. Die Arbeiten erfolgen in enger Kooperation mit den Universitäten und Forschungsinstitutionen der Region Berlin/Brandenburg und weltweit. Das IGB gehört zum Forschungsverbund Berlin e. V., einem Zusammenschluss von acht natur-, lebens- und umweltwissenschaftlichen Instituten in Berlin. Die vielfach ausgezeichneten Einrichtungen sind Mitglieder der Leibniz-Gemeinschaft. http://www.igb-berlin.de/

Weitere Informationen:
https://www.nature.com/articles/s41467-017-01535-y
> Lesen Sie die Studie im Open Access Journal Nature Communications
http://www.igb-berlin.de/news/klimawandel-beguenstigt-methanfreisetzung-aus-gewa…
> Lesen Sie die Pressemitteilung auf der IGB-Webseite

Quelle: idw

(nach oben)


Frauen mit Diabetes: Schlaganfallrisiko um 50 Prozent erhöht

Christina Becker Presse- und Öffentlichkeitsarbeit
Deutsches Diabetes-Zentrum

Frauen mit Diabetes haben ein erhöhtes Risiko Herz-Kreislauf-Erkrankungen zu entwickeln. Studien aus dem Deutschen Diabetes-Zentrum zeigen, dass das Risiko einen Schlaganfall zu erleiden, bei Frauen mit Diabetes um 50 Prozent höher ist als bei Frauen ohne Diabetes. Langfristig kann der Diabetes vor allem bei nicht adäquater Stoffwechseleinstellung viele Organe schädigen. Erste Ergebnisse der Deutschen Diabetes-Studie liefern Hinweise darauf, dass es auch geschlechterspezifische Unterschiede bei der Entwicklung der Insulinresistenz und Nervenschäden im frühen Verlauf des Diabetes zu geben scheint.

Düsseldorf (DDZ) – In Deutschland leben knapp 7 Millionen Menschen mit Diabetes, die Hälfte davon sind Frauen. Häufig ist die Diagnose zu Beginn der Erkrankung unklar, da nicht eindeutig ist, welcher Diabetes-Typ vorliegt. Bis zu 95 Prozent der Betroffenen haben einen Typ-2-Diabetes. Eine im Deutschen Ärzteblatt veröffentlichte Studie des Deutschen Diabetes-Zentrums (DDZ) zeigt, dass zwischen dem 40. und 80. Lebensjahr die Prävalenz des Typ-2-Diabetes bei Frauen wesentlich geringer steigt als bei Männern. Nach dem 80. Lebensjahr bewegt sich die Prävalenz bei beiden Geschlechtern wieder auf vergleichbarem Niveau.

In Kooperation mit Partnern der Friedrich-Alexander-Universität Erlangen-Nürnberg hat das Deutsche Diabetes-Zentrum das Schlaganfallrisiko von Frauen mit Diabetes untersucht und dafür das populationsbasierte Register der Universität Erlangen-Nürnberg verwendet. Von 100.000 Frauen mit Diabetes erleiden circa 300 einen Schlaganfall, bei Frauen ohne Diabetes sind es rund 200. Damit haben Frauen mit Diabetes ein 50-prozentig höheres Risiko einen Schlaganfall zu erleiden als Frauen ohne Diabetes. „Ein Schlaganfall bedeutet ein großes Risiko für chronische Einschränkung der Lebensqualität für die Patientinnen und hohe Kosten für das Gesundheitssystem“, erklärt Prof. Dr. Michael Roden, Vorstand am Deutschen Diabetes-Zentrum anlässlich des Weltdiabetestags am 14. November 2017. Es müsse weiterhin daran gearbeitet werden, den Diabetes frühzeitig zu erkennen, um Diabetesfolgeerkrankungen wie einen Schlaganfall vermeiden zu können.

Das Institut für Versorgungsforschung und Gesundheitsökonomie am Deutschen Diabetes-Zentrum untersucht im Bereich der Versorgungsforschung die Schätzung von Risiken von relevanten Versorgungsoutcomes, vor allem der diabetischen Begleit- und Folgeerkrankungen (St. Vincent Ziele) und der Depressivität als psychischer Komorbidität. Im Bereich der Gesundheitsökonomie liegt der Schwerpunkt auf der gesundheitsökonomischen Evaluation von Kosten- und Kosten-Effektivitäts-Analysen im Bereich der Diabetesprävention und Behandlung zur Reduktion von diabetischer Komorbidität.

In der bundesweit an acht Standorten des Deutschen Zentrums für Diabetesforschung (DZD) organisierten Deutschen Diabetes-Studie konnte gezeigt werden, dass bereits bei sieben Prozent der Betroffenen mit neu-diagnostiziertem Diabetes erste Hinweise auf Nervenfunktionsstörungen vorliegen. Bei Frauen wiesen die Wissenschaftlerinnen und Wissenschaftler nach, dass eine Abnahme der Nervenleitgeschwindigkeit durch andere Faktoren hervorgerufen wird als bei Männern. Diese sollen im Rahmen der Studie weiter erforscht und in der Folge neue Therapiekonzepte entwickelt werden.

Originalpublikationen:
1.Tamayo, T., Brinks, R. et al. The Prevalence and Incidence of Diabetes in Germany: An Analysis of Statutory Health Insurance Data on 65 Million Individuals From the Years 2009 and 2010. Dtsch Arztebl International 113, 177-82 (2016).

2.Icks, A., Claessen H. et al. Incidence and relative risk of stroke in the diabetic and the non-diabetic population between 1998 and 2014: A community-based stroke register. PLOS ONE accepted, (2017).

3.Strom, A., Brüggemann, J. et al. Pronounced reduction of cutaneous Langerhans cell density in recently diagnosed type 2 diabetes. Diabetes 63, 1148-1153 (2014).

Weitere Informationen:

http://www.ddz.uni-duesseldorf.de/

Quelle: idw

(nach oben)


Warum unser Gehirn Schlaf braucht und was passiert, wenn wir nicht genug davon bekommen

Sabine Ranke-Heinemann Pressestelle
Australisch-Neuseeländischer Hochschulverbund / Institut Ranke-Heinemann

Neue Forschungsergebnisse der University of Queensland in Australien bestätigen, dass Schlafmangel sich auf unsere Gehirnaktivität auswirkt. Neben Leistungsschwächen und mangelnder Konzentrationsschwierigkeit konnte eine Verbindung zwischen Alzheimer und Schlafmangel nachgewiesen werden.

Obwohl es sich beim Schlafen so anfühlt, als hätte man „abgeschaltet“, ist das Gehirn keinesfalls inaktiv. Durch die Untersuchung der Muster von Gehirnaktivitäten konnte herausgefunden werden, dass das Gehirn während des Schlafs zwei Hauptmuster aufzeigt: Den REM-Schlaf („rapid eye movement“) und die Tiefschlafphase. Die Tiefschlafphase, die hauptsächlich zu Beginn der Nacht eintritt, ist durch geringe elektrische Hirnaktivität charakterisiert. Im Laufe der Nacht, erhöht sich dann die Anzahl der REM-Phasen: Während des REM-Schlafs haben wir häufig lebhafte Träume und unsere Hirnaktivität gleicht den Mustern im wachen Zustand.

Der Schlaf hat viele verschiedene Funktionen. Eine davon ist, die Erfahrungen des Tages zu verarbeiten. REM-Schlaf soll wichtig für emotionale Erinnerungen (bspw. Angst) und prozessuale Erinnerungen (bspw. wie fahre ich Fahrrad) sein, wohingegen der Tiefschlaf die sogenannten erklärenden Erinnerungen verarbeitet, die als Aufzeichnung all unserer Erfahrungen und unseres Wissens gelten. Wir wissen, dass unsere täglichen Erfahrungen im Schlaf nochmal durchlebt werden. Diese Wiederholungen finden in den Neuronen des Hippocampus – der relevanten Gehirnregion für das Gedächtnis – statt. Um wichtig von unwichtig zu unterscheiden, kann das Gehirn die Erinnerungen nur selektierend speichern. Der Schlaf ermöglicht es dem Gehirn, die Erinnerungen zu überprüfen und unwichtige Erlebnisse zu vergessen. An die wichtigen Ereignisse können wir uns dann besser erinnern. Um zu vergessen werden die Verbindungen einzelner Hirnzellen geschwächt oder gänzlich getrennt.

Eine gängige Theorie zur Funktion des Schlafs liefert die Hypothese zur synaptischen Homöostase. Sie besagt, dass es während des Schlafes zu einer weiterverbreiteten Schwächung der Synapsen (also der Verbindungen im Gehirn) kommt. Man geht davon aus, dass es diesen Vorgang braucht, um das Gleichgewicht von Erinnern und Vergessen zu halten. Durch das gezielte Vergessen während des Schlafs, können wir am folgenden Tag wieder Neues lernen. Durchkreuzt oder verhindert man diesen Vorgang, so kann es zu intensiveren und unter Umständen auch ungewollten Erinnerungen kommen.
Schlaf wird ausserdem benötigt um das Gehirn „instand zu halten“. Eine aktuelle Studie mit Mäusen hat bestätigt, dass Schlaf das Gehirn auch von Giftstoffen reinigt, die sich während des wachen Zustandes ansammeln. Während des Schlafs vergrößert sich der Zellabstand, sodass Giftstoffproteine abtransportiert werden können. Es ist möglich, dass durch diesen Abtransport Krankheiten wie Alzheimer abgewehrt werden können.

Genug Schlaf zu bekommen ist wichtig für unsere Konzentrations- und Lernfähigkeit während des Wachzustands. Es kommt zu verlangsamten Reaktionszeiten, und wir sind unkreativer und weniger leistungsstark, wenn wir zu wenig schlafen. Es kann außerdem zum sogenannten Sekundenschlaf kommen, bei dem wir wenige Sekunden lang das Bewusstsein verlieren, ohne es überhaupt zu bemerken. Kinder können bei Schlafmangel hyperaktiv werden und den Unterricht stören.

Die Langzeitwirkungen von Schlafentzug können bei Menschen aufgrund ethischer Gründe kaum erforscht werden. Chronische Schlafstörungen konnten allerdings mit Gehirnerkrankungen wie Schizophrenie, Autismus und Alzheimer in Verbindung gebracht werden. Wir wissen jedoch nicht, ob die Schlafstörungen der Grund oder lediglich ein Symptom für diese Erkrankungen sind.

Weitere Informationen:
Institut Ranke-Heinemann / Australisch-Neuseeländischer Hochschulverbund
Pressestelle Friedrichstr. 95
10117 Berlin
Email: berlin@ranke-heinemann.de
Tel.: 030-20 96 29 593

oder

Dr Leonie Kirszenblat
Tel.: +61 7 334 66325
Email: l.kirszenblat@uq.edu.au

Weitere Informationen:
http://www.ranke-heinemann.de

Quelle: idw

(nach oben)


Feldtests bestätigen Potenzial von Wärmepumpen als wichtigster Heiztechnik der Zukunft

Karin Schneider Presse und Public Relations
Fraunhofer-Institut für Solare Energiesysteme ISE

Wärmepumpen können auch im Gebäudebestand effizient arbeiten. Zu diesem Ergebnis kommt das Fraunhofer-Institut für Solare Energiesysteme ISE anhand von Feldtests der vergangenen zwölf Jahre. Auf einer wissenschaftlichen Tagung stellt das Forschungsinstitut erstmals die Daten der neuesten Langzeitbeobachtung vor. Im Vergleich zu einem früheren Projekt im Bereich der Bestandsgebäude hat sich die Effizienz der Luft/Wasser-Wärmepumpen um etwa 20 Prozent gesteigert. Auch aus diesem Grund baut das Fraunhofer ISE seine Wärmepumpen-Aktivitäten massiv aus, unter anderem mit einem Testlabor und verstärkter Forschung an Konzepten für den Einsatz in Mehrfamilienhäusern.

Feldtest und Studie
»Wärmepumpen werden sich zur zukünftig wichtigsten Heiztechnik in Deutschland entwickeln«, sagt Dr. Marek Miara, Koordinator Wärmepumpen am Fraunhofer-Institut für Solare Energiesysteme ISE in Freiburg, und präzisiert: »Wärmepumpen sollen 2050 65 bis 90 Prozent der Niedertemperaturwärme in Gebäuden bereitstellen.« Er stützt sich bei diesen Zahlen auf die Studie »Was kostet die Energiewende«, die das Institut 2015 erstellte und deren zugrunde liegendes Rechenmodell für die Optimierung von Transformationspfaden nationaler Energiesysteme REMod seither in vielfältigen Projekten zum Einsatz kam.

Die neuesten Feldtest-Ergebnisse des Fraunhofer ISE bestätigen das große Potenzial von Wärmepumpen. Auf der DKV Tagung (Deutscher Kälte- und Klimatechnischer Verein) im November in Bremen stellt das Fraunhofer ISE den rund 500 Wissenschaftlern, neben anderen Forschungsarbeiten rund um Wärmepumpen, erstmals Zwischenergebnisse aus einer Feldstudie von Wärmepumpen in Gebäuden vor, die überwiegend zwischen 1950 und 1995 installiert wurden. Die Auswertungen zeigen, dass die neue Generation von Anlagen im Mittel knapp 20 Prozent an Effizienz gewonnen hat. Vergleichsbasis ist dabei ein Projekt mit ähnlichem Fokus von vor 10 Jahren. Die Effizienzgewinne liegen einerseits an den Geräten selbst, andererseits an verbesserten Installationen sowie Wärmeübergabesystemen, die geringere Heizkreistemperaturen ermöglichen. Die mittleren Jahresarbeitszahlen JAZ der Luft/Wasser-Wärmepumpen liegen bei 15 gemessenen Anlagen zwischen 2,5 und 3,4. Ein umfassend saniertes Gebäude erreichte eine JAZ von 4,1. Die Jahresarbeitszahl beschreibt das Verhältnis von erzeugter Heizungswärme zur eingesetzten Antriebsenergie.

Fraunhofer ISE baut Wärmepumpenbereich massiv aus
In seinem ServiceLab Heat Pumps and Chillers entwickelt und verbessert das Institut in Zusammenarbeit mit der Industrie seit Jahren Wärmepumpen und deren Systemeinbindung. So arbeitet es auch an der VDI-Richtlinie 4645 zu Planung und Installation von Wärmepumpen mit und engagiert sich bei der Weiterbildung von Technikern und Handwerkern. Miara ist außerdem Leiter des Forschungsprojekts Annex 50 »Heat Pumps in Multi-Family Buildings for Space Heating and DHW« – Heat Pumping Technologies der Internationalen Energieagentur IEA.

Angesichts der wachsenden Bedeutung von Wärmepumpen hat das Institut Laborflächen und Mitarbeiterzahl in diesem Bereich deutlich erhöht. Im Rahmen mehrerer Projekte untersuchen die Forscher unter anderem Anwendungen von Wärmepumpen in Mehrfamilienhäusern. Ein Fokus dabei ist die anspruchsvolle Warmwasserbereitung in diesem Bereich. Anfang 2018 plant das Testlabor zur Vermessung von Wärmepumpen seine Akkreditierung durch die Deutsche Akkreditierungsstelle (DAkkS) und kann dann damit offizielle Zertifikate für die Leistungsdaten von Wärmepumpen ausstellen.

Hintergrund Wärmepumpen
Heizung und Warmwasser benötigen in Deutschland rund 40 Prozent der Endenergie. Dieser heute weitgehend fossil gedeckte Bereich ist ideal für Solarthermie und Umweltwärme geeignet. Wärmepumpen haben dabei die Aufgabe, Umweltenergie, zum Beispiel aus Erdreich, Wasser oder Luft, für Heizzwecke nutzbar machen. Dazu benötigen Wärmepumpen Energie wie Strom oder Gas. Die Effizienz einer Wärmepumpe wird mit der Jahresarbeitszahl JAZ beschrieben. Bei einer JAZ von drei macht die Wärmepumpe aus einem Teil Antriebsenergie drei Teile Nutzenergie. Für die Gesamtbilanz ist noch die Antriebsenergie wichtig. Für eine Kilowattstunde Strom werden heute im Mittel etwa das 1,8-fache an fossiler Primärenergie eingesetzt. Ist die JAZ einer elektrischen Wärmepumpe höher als dieser Wert, ist sie primärenergiemäßig positiv zu bewerten.
Weitere Informationen:
https://www.ise.fraunhofer.de/de/veroeffentlichungen/studien/was-kostet-die-ener… Studie
»Was kostet die Energiewende«

Anhang
Presseinformation [PDF]
https://idw-online.de/de/attachment59219

Quelle: idw

(nach oben)


Wer noch zu später Stunde vor dem Bildschirm sitzt, schläft weniger und schlechter als andere

Monika Wimmer Pressestelle
Sozio-oekonomisches Panel (SOEP)

Egal ob Computer, Smartphone, Playstation oder Fernseher – Menschen, die dank eines schnellen DSL-Zugangs noch bis zur Schlafenszeit vor einem Bildschirm sitzen, schlafen signifikant weniger und sind insgesamt weniger zufrieden mit ihrem Schlaf. Das belegt nun erstmals eine Studie auf Basis der Daten der für Deutschland repräsentativen Langzeitstudie Sozio-oekonomisches Panel (SOEP) am DIW Berlin. Demnach leiden vor allem junge DSL-NutzerInnen im Alter zwischen 18 und 30 Jahren unter einem die Gesundheit beeinträchtigenden Schlafmangel. Die Studie wurde kürzlich als SOEPpaper Nr. 934 veröffentlicht.

Die SOEP-Daten zeigen, dass Erwachsene im Alter von 18 bis 59 Jahren unter der Woche im Durchschnitt etwa 6,8 Stunden schlafen und am Wochenende 7,9 Stunden. Als gesund gilt aus der Sicht von ExpertInnen eine Schlafdauer von 7 bis 9 Stunden.

Um herauszufinden, wie sich ein DSL-Zugang und die damit verbundene längere Nutzung von digitalen Medien auf den Schlaf auswirkt, analysierten die italienischen Ökonomen Francesco C. Billari, Osea Giuntella und Luca Stella die Angaben von mehr als 24.000 Menschen, die zwischen 2008 und 2012 im Rahmen der Langzeitstudie SOEP immer wieder befragt wurden. Diese beantworteten unter anderem Fragen zu ihrer durchschnittlichen Schlafdauer und ihrer Schlafzufriedenheit. Darüber hinaus machten Sie Angaben, ob sie einen DSL-Anschluss hatten oder nicht. Außerdem werteten die Forscher Daten des German Time Use Survey aus, einer Zeitverwendungserhebung des Statististischen Bundesamts, für die 5587 Menschen in 10-minütigen Intervallen genau ihre Aktivitäten im Verlauf eines Tages protokolliert hatten.

Das Ergebnis der Studie zeigt: DSL-NutzerInnen schlafen im Durchschnitt 25 Minuten pro Nacht weniger als Menschen ohne DSL-Anschluss. Und sie empfinden ihren Schlaf signifikant häufiger als unzureichend und weniger zufriedenstellend als andere.

„Besonders der Schlaf jüngerer Menschen unter 30 Jahren, die einen DSL-Anschluss nutzen, ist gefährdet“, sagt der Ökonom Luca Stella von der Bocconi-Universität in Mailand, einer der Autoren. Im Durchschnitt würden sie 70 Minuten weniger als Gleichaltrige ohne DSL-Zugang schlafen. „Außerdem steigt die durchschnittliche Wahrscheinlichkeit, dass sie in der SOEP-Befragung angeben, an Schlafmangel zu leiden, um etwa 40 Prozent“, sagt Luca Stella.

DSL-NutzerInnen zwischen 30 und 59 Jahren rauben vor allem PC und Smartphone den Schlaf. Wenn sie diese Geräte vor dem Schlafengehen eine halbe Stunde lang nutzen, steigt die Wahrscheinlichkeit, dass sie höchstens 6 Stunden Schlaf abbekommen – und damit weniger schlafen als ExpertInnen empfehlen – um 30 Prozent.

Für eine Bevölkerungsgruppe liefert die Studie gute Nachrichten: Der Schlaf von Menschen, die morgens nicht früh aufstehen müssen, wird durch die Mediennutzung zu später Stunde nicht beeinträchtigt. Sie können den fehlenden Schlaf vom Vorabend durch Ausschlafen am nächsten Morgen ausreichend kompensieren.

DAS SOZIO-OEKONOMISCHE PANEL (SOEP):
Das Sozio-oekonomische Panel (SOEP) ist die größte und am längsten laufende multidisziplinäre Langzeitstudie in Deutschland. Das SOEP im DIW Berlin wird als Teil der Forschungsinfrastruktur in Deutschland unter dem Dach der Leibniz-Gemeinschaft vom Bundesministerium für Bildung und Forschung (BMBF) und den Ländern gefördert. Für das SOEP werden seit 1984 jedes Jahr vom Umfrageinstitut Kantar Public (zuvor TNS Infratest Sozialforschung) in mehreren tausend Haushalten statistische Daten erhoben. Zurzeit sind es etwa 30.000 Personen in etwa 15.000 Haushalten. Die Daten des SOEP geben unter anderem Auskunft über Einkommen, Erwerbstätigkeit, Bildung, Gesundheit und Lebenszufriedenheit. Weil jedes Jahr dieselben Personen befragt werden, können nicht nur langfristige gesellschaftliche Trends, sondern auch die gruppenspezifische Entwicklung von Lebensläufen besonders gut analysiert werden.

DIE STUDIE:
Francesco C. Billari, Osea Giuntella, Luca Stella: Broadband Internet, Digital Temptations, and Sleep, SOEPpaper Nr. 934, 2017.

https://www.diw.de/documents/publikationen/73/diw_01.c.566906.de/diw_sp0934.pdf

KONTAKT ZUM AUTOR DER STUDIE:
E-mail: luca.stella@unibocconi.it

Quelle: idw

(nach oben)


Kraftstoff aus Wasser und Wind

Dr. Karin J. Schmitz Abteilung Öffentlichkeitsarbeit
Gesellschaft Deutscher Chemiker e.V.

Ein Kraftstoff, fast abgasfrei: Das ermöglicht eine neu entwickelte Synthesetechnik. Spezielle Reaktoren erzeugen Kohlenwasserstoffe, die so rein sind, dass sie ruß- und schadstoffarm verbrennen. Als Rohstoffe werden nur Wasserstoff und Kohlendioxid benötigt – gewonnen aus Wasser und der Umgebungsluft. Betrieben mit Windkraft oder Photovoltaik lassen sich so große Mengen natürlicher Energien effektiv in Kohlenwasserstoffe umwandeln und speichern. Wie die Kraftstoffsynthese im Detail abläuft und in welchen Projekten und Anlagenverbünden sie derzeit getestet wird, steht in den „Nachrichten aus der Chemie“.

Wind- und Sonnenenergie fallen zeitlich fluktuierend an, werden aber gerade dann oft nicht benötigt. Umgewandelt in synthetische Kohlenwasserstoffe lassen sich große Mengen dieser Energieformen speichern. Die Synthese erfolgt in speziellen Reaktoren mit einer modifizierten Fischer-Tropsch-Technik, entwickelt von Ineratec, einer Ausgründung des Karlsruher Instituts für Technologie. In der Reaktion werden Wasserstoff und Kohlenstoff zu langen Kohlenwasserstoffketten umgesetzt. Der benötigte Wasserstoff wird durch Elektrolyse hergestellt, betrieben etwa mit Energie aus einer Windkraft- oder Photovoltaikanlage. Als Kohlenstoffquelle eignet sich idealerweise das Treibhausgas Kohlendioxid aus der Umgebungsluft. Die entstehenden Kohlenwasserstoffe können rohölbasierte Kraftstoffe wie Benzin, Diesel und Kerosin ersetzen. Da der Wasserstoff aus der Elektrolyse schadstofffrei ist und gereinigtes Kohlendioxid eingesetzt wird, sind die Produkte ebenfalls rein und verbrennen ruß- sowie schadstoffarm.

Die Kraftstoffsynthese ist so effektiv, dass Technik und Reaktoren in einen transportablen Seecontainer passen. Integriert in einem Anlagenverbund lässt sich die komplette Wertschöpfungskette von Sonnenenergie, Wasser und Luft bis zum Produkt an einem Standort einsetzen. Mehrere Projekte untersuchen derzeit mögliche Anlagenverbünde und die notwendige Infrastruktur. Ziel der Forschung ist es, Transport, Speicherung und Nutzung von Strom zu verbessern und damit die Energiewende zu unterstützen.

Die Chemieingenieure Peter Pfeifer, Manuel Selinsek und Tim Böltken erklären Ablauf, Effizienz und Potenzial der neuen Kraftstoffsynthese in den „Nachrichten aus der Chemie“ und stellen aktuelle Testprojekte vor. Die PDF-Datei des Beitrags gibt es bei der Redaktion der „Nachrichten aus der Chemie“ unter nachrichten@gdch.de.

Nahezu 60.000 anspruchsvolle Chemiker und Chemikerinnen aus Wissenschaft, Wirtschaft und Lehre informieren sich mit den „Nachrichten“ über Entwicklungen in der Chemie, in angrenzenden Wissenschaften sowie über gesellschaftliche und wirtschaftliche Aspekte. Kennzeichen der Zeitschrift der Gesellschaft Deutscher Chemiker sind das breite Spektrum der Berichte und das einmalige Informationsangebot an Personalien, Veranstaltungs- und Fortbildungsterminen.

Weitere Informationen:
http://www.nachrichtenausderchemie.de

Quelle: idw

(nach oben)


Biomarker-Tests bei frühem Brustkrebs: Warum unklar ist, ob man sich auf sie verlassen kann

Dr. Anna-Sabine Ernst Presse- und Öffentlichkeitsarbeit
Institut für Qualität und Wirtschaftlichkeit im Gesundheitswesen (IQWiG)

Broschüre soll Frauen beim Abschätzen ihres persönlichen Rückfallrisikos unterstützen / Begleitendes Arzt-Gespräch ist unverzichtbar

Im Dezember 2016 hatte das Institut für Qualität und Wirtschaftlichkeit im Gesundheitswesen (IQWiG) Nutzen und Schaden von Biomarker-Tests für Frauen mit frühem Brustkrebs bewertet und seine Ergebnisse veröffentlicht. Die Wissenschaftlerinnen und Wissenschaftler sahen für keinen der damals verfügbaren Biomarker-Tests einen Anhaltspunkt, dass er besser als die Standarduntersuchungen diejenigen Frauen identifizieren kann, die keine Chemotherapie benötigen. Da für einige Tests noch Studien ausstehen, die Tests aber von Gynäkologen und Onkologen schon breit eingesetzt und von Herstellern beworben werden, hat der Gemeinsame Bundesausschuss (G-BA) das IQWiG beauftragt, eine Entscheidungshilfe zu erstellen. Er will damit erreichen, dass Frauen gut über den Stand des Wissens aufgeklärt werden.

Der Entwurf für diese Entscheidungshilfe liegt nun vor und wird vom G-BA beraten. Er umfasst eine Broschüre sowie einen wissenschaftlichen Bericht, der beschreibt, wie das IQWiG die Aussagen der Broschüre erarbeitet hat.

Schwierige Entscheidung
Die Broschüre richtet sich an Frauen mit frühem Brustkrebs, bei denen sich zur Frage, ob sie sich nach der Operation zusätzlich einer unterstützenden Chemotherapie unterziehen sollten, keine klare Empfehlung geben lässt. Denn für jährlich rund 20.000 Patientinnen in Deutschland ergeben die herkömmlichen klinisch-pathologischen Kriterien, wie etwa die Größe des Tumors oder der Lymphstatus, ein widersprüchliches Bild.

Biomarker sollen zeigen, wer von Chemotherapie profitiert
Die Hersteller der Biomarker-Tests versprechen, jene Patientinnen besser erkennen zu können, die auf eine Chemotherapie verzichten können. Die Tests sollen so die Entscheidung über die Therapie erleichtern. Doch durch aussagekräftige Studien belegt ist das keineswegs. Die Art und Weise, wie die Ergebnisse der Biomarker-Tests kommuniziert werden, spiegelt leicht eine Sicherheit vor, die in Wahrheit nicht existiert.

Was wollen betroffene Frauen wissen?
Die in der Broschüre enthaltenen Informationen sollen die Betroffenen dabei unterstützen, Möglichkeiten und Grenzen dieser Tests realistisch einzuschätzen. In einem ersten Schritt hat das Institut ermittelt, welche Erfahrungen und welche Fragen betroffene Frauen in Hinblick auf die Tests und die Chemotherapie haben. In einem zweiten Schritt wurde ein Textentwurf erstellt und dieser in zwei Fokusgruppen einem Nutzertest unterzogen. Eine Gruppe bestand aus Patientinnen, denen noch kein Biomarker-Test angeboten worden war, bei den Teilnehmerinnen der zweiten Gruppe war das bereits der Fall gewesen.

Rezidivrisiko ist ausschlaggebend für weitere Behandlung
Eine zentrale Rolle spielt das Rezidivrisiko, also die Wahrscheinlichkeit, dass der Krebs nach der Operation erneut auftritt. Dieses Risiko hängt von individuellen Faktoren ab und wird mit klinisch-pathologischen Kriterien standardmäßig bestimmt. Es ist ausschlaggebend für die Beratung einer Frau über die weitere Behandlung. Denn je höher das Rückfallrisiko ist, desto größer ist der mögliche Nutzen einer Chemotherapie.

Die Broschüre erklärt im ersten Teil deshalb ausführlich, wie das Rezidivrisiko bisher routinemäßig ermittelt wird und welche Vor- und Nachteile eine Chemotherapie hat. Der zweite Teil erläutert, dass die relativ neuen Biomarker-Tests bislang nicht belegt haben, das Rückfallrisiko zuverlässiger bestimmen zu können. Offen ist auch, ob die Tests aus Sicht der Frauen zu besseren Entscheidungen führen.

Die Broschüre soll die Frauen so dabei unterstützen, die Vor- und Nachteile einer Chemotherapie abzuwägen und eine informierte Entscheidung zu treffen.

Broschüre kann medizinische Grundlagen vermitteln
Wie die Nutzertests zeigten, ist die Broschüre in der Lage, die medizinischen Grundlagen verständlich zu vermitteln. „Dazu gehört auch, auf die Unsicherheiten einzugehen“, sagt Klaus Koch, der Leiter des im IQWiG für das Projekt verantwortlichen Ressorts Gesundheitsinformation. „Die Frauen wünschen sich verständlicherweise eine klare Aussage, ob ein Test sinnvoll ist oder nicht“, sagt Klaus Koch. „Stattdessen müssen sie erfahren, dass es keine gesicherten wissenschaftlichen Erkenntnisse gibt, ob die neuen Tests ihr individuelles Rückfall-Risiko tatsächlich präziser vorhersagen können. Diese für manche Frauen frustrierende Situation kann eine schriftliche Entscheidungshilfe allenfalls ansatzweise lösen.“

Frauen mit der Unsicherheit nicht allein lassen
Deshalb sollte die Broschüre eingebettet sein in ein umfassendes Gespräch mit der Ärztin oder dem Arzt. „Unsere Nutzertests haben gezeigt, dass die Broschüre das Arzt-Gespräch ergänzen und unterstützen kann“, so Klaus Koch. „Die Behandelnden dürfen die Frauen mit der unbefriedigenden Studienlage aber nicht allein lassen. Die Frauen brauchen Antworten auf ihre individuellen Fragen.“ Nur dann sei eine partizipative Entscheidungsfindung möglich.

Zum Ablauf der Berichtserstellung
Der G-BA hatte das IQWiG beauftragt, den Bericht in Form eines Addendums zu erarbeiten. Denn er bezieht sich unmittelbar auf die im Dezember 2016 veröffentlichte Nutzenbewertung der Biomarker-Tests. Ein Stellungnahmeverfahren beim IQWiG ist bei einem Addendum nicht vorgesehen.

Der G-BA beabsichtigt die Entscheidungshilfe zu veröffentlichen und sie betroffenen Frauen zugänglich zu machen. Dazu muss der Entwurf im G-BA beraten und ein entsprechender Beschluss gefasst werden. Dabei kann es zu Änderungen kommen, d. h. die vom G-BA beschlossene Fassung kann von dem jetzt vom IQWiG vorgelegten Entwurf abweichen.

In die Bearbeitung des Projekts waren sowohl externe Sachverständige in beratender Funktion eingebunden als auch externe Dienstleister, die den Nutzertest durchführten.

Weitere Informationen:
https://www.iqwig.de/de/projekte-ergebnisse/projekte/gesundheitsinformation/p17-… Addendum und Broschüre

Quelle: idw

(nach oben)


Folgen des Klimawandels: Oder warum wird das Wasser unter Borkum überwacht?

Jeannette Schütze Öffentlichkeitsarbeit
Leibniz-Institut für Angewandte Geophysik

Auf der Nordseeinsel Borkum überwachen Forscherinnen und Forscher des Leibniz-Instituts für Angewandte Geophysik, Hannover (LIAG), die Veränderungen der Salz-Süßwassergrenze im Untergrund. Seit 2009 werden hier in einem weltweit einmaligen Pilotprojekt kontinuierlich geoelektrische Messungen durchgeführt. Die Qualität und Ausdehnung der Süßwasserlinse im Untergrund Borkums wird permanent beobachtet, um Grenzverschiebungen zwischen lebenswichtigem Trinkwasser und ungenießbarem Salzwasser rechtzeitig zu erkennen und nachhaltig mit dem Grundwasser zu wirtschaften. Das Messprinzip wird nun auf weitere Standorte im Norden Deutschlands sowie langfristig auf Standorte weltweit ausgeweitet.

In küstennahen Metropolen haben die Menschen schon heute mit den vielfältigen Folgen des Klimawandels zu kämpfen. Dieser beeinflusst auch den Grundwasserspiegel. Eine wichtige Zukunftsaufgabe ist es, das weitere Vordringen von Salzwasser zu vermeiden, damit Menschen in küstennahen Regionen angemessen und nachhaltig mit Trinkwasser versorgt werden können. Aus diesem Grund erforschen Wissenschaftlerinnen und Wissenschaftler des LIAG seit Jahren die Dynamik der Salz-Süßwassergrenze vor unseren Küsten. Sie suchen nach Antworten auf die Frage, welche Auswirkungen der steigende Meeresspiegel und veränderte Niederschlagsverhältnisse sowie ein erhöhter Bedarf an Trinkwasser in stetig wachsenden, küstennahen Metropolen auf den Verlauf der Salz-Süßwassergrenze haben.

„Wir alle kennen die Bilder aus Bangladesch, wo durch den Anstieg des Meeresspiegels unterirdisch Salzwasser ins Land gedrückt wird. Die Problematik der veränderten Salz-Süßwassergrenze und damit versalzter Brunnen ist dort mancherorts heute schon akut. Neben den Schwierigkeiten für die Trinkwasserversorgung der Menschen vor Ort, werden uns auch die Folgen für die Landwirtschaft deutlich vor Augen geführt. Doch auch an unseren Küsten sind – wenn auch in geringerem Maße – Veränderungen der Salz-Süßwassergrenze zu erwarten. Darum erforschen wir im TOPSOIL-Projekt die Anpassungsfähigkeit der Nordseeregion an den Klimawandel.“ sagt Helga Wiederhold vom LIAG.

Die promovierte Geophysikerin ist Projektleiterin des EU finanzierten TOPSOIL-Projektes am LIAG. Sie sucht gemeinsam mit 24 Partnern aus fünf europäischen Ländern nach Wegen, diesem Zukunftsthema zu begegnen. Den Ausgangspunkt bildete CLIWAT. In dem Projekt erforschten Wissenschaftlerinnen und Wissenschaftler aus vier europäischen Ländern zwischen 2008 und 2012 den Einfluss des Klimawandels auf die Trinkwasserversorgung in der Nordseeregion. Die Insel Borkum steht seither im Fokus des Interesses, da die geologischen Merkmale dort typisch sind für die Barriere-Inseln der Nordsee. Die auf Borkum gesammelten Erkenntnisse lassen sich jedoch nicht nur gut auf andere ostfriesische Inseln übertragen, sie sind gleichzeitig die Basis dafür, das Verfahren nun auch international einzusetzen. „Im dem vom Bund finanzierten Forschungsprojekt go-CAM haben wir die Chance diese Technologie jetzt auch in die Welt zu tragen und Strategien für nachhaltige Wasserversorgung im Nordosten Brasiliens, an der Südküste der Türkei und am Ostkap in Südafrika zu entwickeln. Unsere Fragen sind zwar gleich, doch die geologischen, hydrologischen und klimatischen Bedingungen an diesen drei Standorten sind sehr verschieden. Es bleibt spannend und es ist ein gutes Gefühl, so ein kleines bisschen zu den nachhaltigen Entwicklungszielen der Vereinten Nationen beizutragen.“ so Dr. Wiederhold.

Bei der Erkundung Borkums wurde ein integrativer Ansatz verfolgt. Werkzeuge aus der Geophysik, der Geologie und der Hydrogeologie wurden eingesetzt, um ein Dichteströmungsmodell des Untergrundes zu erstellen. Dieses dient als Basis für weitere Untersuchungen der Grundwassersysteme an der norddeutschen Küste. Ziel ist es, räumliche und zeitliche Veränderungen an der Süßwasserlinse und hydrologische Prozesse, die diese beeinflussen, besser zu verstehen. Die Untersuchungen haben gezeigt, dass kontinuierliche, geoelektrische Messungen vor Ort weitere wichtige Erkenntnisse bringen können.

Aus diesem Grund wird die Salz-Süßwassergrenze seit 2009 in einem weltweit einmaligen Pilotprojekt an zwei Standorten auf der Insel überwacht. Der Messaufbau reicht bis in 65 Meter Tiefe. Die Sonden und Elektroden sind in vertikaler Richtung in Wenner-Anordnung so verteilt, dass Daten für unterschiedliche Auflösungen und Reichweiten nacheinander aufgezeichnet werden. Die Messwerte werden kontinuierlich abgerufen und zeitnah am LIAG ausgewertet.

Institut:
Das Leibniz-Institut für Angewandte Geophysik mit Sitz in Hannover ist ein eigenständiges Forschungsinstitut und Mitglied der Leibniz-Gemeinschaft. Das Institut betreibt und koordiniert zukunftsgerichtete Forschung auf dem Gebiet der physikalischen Geowissenschaften. Als Einrichtung von überregionaler Bedeutung wird es von Bund und Ländern gemeinsam finanziert. Das Institut blickt auf über 50 Jahre Erfahrung in der Geophysik-Forschung zurück und bündelt seine thematische Forschung unter anderem im Forschungsschwerpunkt „Grundwassersysteme – Hydrogeophysik“.

Kontakt:
Frau Dr. Helga Wiederhold
Tel: 0511 643-3520
E-Mail: helga.wiederhold@liag-hannover.de

Weitere Informationen:
http://www.liag-hannover.de Leibniz-Institut für Angewandte Geophysik
http://www.liag-hannover.de/fsp/gws-hydro.html LIAG-Forschungsschwerpunkt Grundwasser
http://www.liag-hannover.de/s/s2/forschungsfelder/geoelektrik/vertikalelektroden… LIAG-Spezialsonde zur Beobachtung der Salz- Süßwassergrenze

Quelle: idw

(nach oben)


Gerinnungskontrolle: Warnung vor überholtem Quick-Wert – Patienten sollten auf INR-Wert bestehen

Michael Wichert Presse- und Öffentlichkeitsarbeit
Deutsche Herzstiftung e.V./Deutsche Stiftung für Herzforschung

Nur INR-Wert bietet sichere Gerinnungskontrolle. Manche Ärzte verwenden noch immer veralteten Quick-Wert

Um schwere Nebenwirkungen wie Blutungen zu verhindern, muss bei Herzpatienten, die das gerinnungshemmende Medikament Marcumar einnehmen, die Intensität der Gerinnungshemmung („Blutverdünnung“) regelmäßig kontrolliert werden. Eine exakte Einstellung des Medikaments erfolgt seit über 30 Jahren mit dem weltweit standardisierten INR-Wert (engl. „International Normalized Ratio“), der die Stärke der Gerinnungshemmung und damit die Wirkung des Medikaments angibt. „Leider setzen immer noch manche Ärzte bei der Gerinnungskontrolle den überholten Quick-Wert ein und nicht den standardisierten INR-Wert“, stellt Dr. med. Christa Gohlke-Bärwolf vom Wissenschaftlichen Beirat der Deutschen Herzstiftung in einem Beitrag unter www.herzstiftung.de/quick-wert.html fest. „Dabei ermöglicht nur der INR-Wert – nicht der Quick-Wert – eine zuverlässige, allgemein gültige und vergleichbare Kontrolle der Intensität der Gerinnungshemmung.“ Der Quick-Wert kann von Labor zu Labor schwanken und derselbe Wert kann in Abhängigkeit vom verwandten Thromboplastin unterschiedliche Intensitäten der Gerinnungshemmung anzeigen. Wichtig für Marcumar-Patienten, die ins Ausland reisen: Bei ihnen muss unbedingt der INR-Wert im Ausweis angegeben werden, denn nur dieser ist aufgrund des weltweiten INR-Standards zur Gerinnungskontrolle akzeptiert.
Mehrere hunderttausend Patienten in Deutschland werden aufgrund einer Herzerkrankung wie Vorhofflimmern oder als Träger von künstlichen Herzklappen mit einem Gerinnungshemmer behandelt, um sie vor Embolien, Schlaganfällen und Klappenthrombosen zu schützen. Dafür werden gerinnungshemmende Medikamente vom Typ der Vitamin K-Antagonisten wie Phenprocoumon (Marcumar, Falithrom) oder Coumadin eingesetzt. Für die Therapie des sog. nichtvalvulären Vorhofflimmerns, d. h. das nicht mit einer Herzklappenerkrankung oder einer künstlichen Herzklappe einhergeht, können mittlerweile die neuen Gerinnungshemmer Pradaxa, Xarelto, Eliquis und Edoxaban eingesetzt werden. Allerdings wird ein Großteil der Patienten noch mit Phenprocoumon (z.B. Marcumar) behandelt. Für Patienten mit künstlichen Herzklappen gibt es keine Alternative, Vitamin K- Antagonisten wie Marcumar sind für diese Patienten immer noch die sichersten und wirksamsten gerinnungshemmenden Medikamente.

Schwankungen und Unzuverlässigkeit des Quick-Werts
Grund für die Unzuverlässigkeit und Nichtvergleichbarkeit des Quick-Werts sind unterschiedlich empfindliche Thromboplastine, die zur Quick-Wert-Bestimmung verwendet werden. So kann z. B. ein Quick-Wert von 10% mit einem empfindlichen Thromboplastin gemessen eine noch im therapeutischen Zielbereich liegende Gerinnungshemmung anzeigen, z. B. einen INR-Wert von 2,5. Wurde dieser Wert aber mit einem weniger empfindlichen Thromboplastin gemessen, zeigt der Quick-Wert von 10% eine zu starke Gerinnungshemmung an, z. B. einen INR-Wert von 4,5. Somit kann ein bestimmter Quick-Wert eine ganz unterschiedliche Intensität der Gerinnungshemmung wiederspiegeln, je nachdem welches Thromboplastin zur Bestimmung verwendet wurde. „Die Folgen können sehr gefährliche Blutungen für den Patienten sein“, warnt die Kardiologin. Nur ein INR-Wert im therapeutischen Zielbereich bietet einen optimalen Schutz vor Gerinnselbildung mit einer möglichst geringen Blutungsgefahr. „Patienten sollten deshalb beim Arzt darauf bestehen, dass immer ihr INR-Wert angegeben wird. Es ist wichtig, dass sich der INR-Wert in Deutschland flächendeckend durchsetzt – dem einzigen Land der Welt, in dem immer noch mit Quick-Werten trotz ihrer Nachteile gearbeitet wird.“

Seit langem bewährt: INR-Wert-Selbstbestimmung
Sehr bewährt hat sich die Selbstbestimmung der Gerinnungshemmung durch den Patienten. So kann er jederzeit den INR-Wert feststellen und auf Veränderungen rasch reagieren (z. B. bei einer Neueinstellung mit Marcumar, bei einem Wiederbeginn mit Marcumar nach einer Operation, bei Durchfall oder fieberhaften Erkrankungen mit eingeschränkter Nahrungsaufnahme). In Studien wurde nachgewiesen, dass die INR-Werte bei selbstbestimmenden Patienten wesentlich häufiger im therapeutischen Bereich liegen und damit seltener Komplikationen auftreten. Der INR-Wert, der von der WHO bereits 1983 eingeführt wurde, wird von den medizinischen Fachgesellschaften weltweit ausschließlich zur Intensitätsmessung der Gerinnungshemmung empfohlen, und nicht der Quick-Wert. Auch die Selbstbestimmung des INR-Wertes durch geeignete Patienten wird von den Fachgesellschaften empfohlen.

Tipp: Zwei kostenfreie Experten-Ratgeber zu diesem Thema bietet die Herzstiftung mit „Gerinnungshemmung bei Vorhofflimmern“ (48 S.) unter www.herzstiftung.de/gerinnungshemmer und „Gerinnungshemmung mit Marcumar“ (8 S.) an. Beide können auch angefordert werden unter Tel. 069 955128400 oder per E-Mail unter bestellung@herzstiftung.de

Bildmaterial unter:
www.herzstiftung.de/presse/bildmaterial/gerinnungshemmung-ratgeber.jpg

Informationen:
Deutsche Herzstiftung e.V.
Pressestelle:
Michael Wichert/Pierre König
Tel. 069/955128-114/-140
E-Mail: wichert@herzstiftung.de/
koenig@herzstiftung.de
www.herzstiftung.de

Weitere Informationen:
http://www.herzstiftung.de/quick-wert.html
http://www.herzstiftung.de/gerinnungshemmer
http://www.herzstiftung.de/presse/bildmaterial/gerinnungshemmung-ratgeber.jpg

Anhang
PM_Deutsche Herzstiftung_Gerinnungskontrolle
https://idw-online.de/de/attachment58719

Quelle: idw

(nach oben)


Dieses Geld stinkt nicht! THGA-Geotechniker will Gas aus alten Mülldeponien energetisch nutzen

Carmen Tomlik Pressestelle
Technische Hochschule Georg Agricola

Es ist eine ziemlich beindruckende Zahl, die Prof. Dr. Frank Otto unter seine Kalkulation setzt: 250.000 Euro. „Diese Einnahmen könnte etwa jede zweite Altablagerung in Deutschland jährlich erwirtschaften – über einen Zeitraum von 10 bis 25 Jahren“, sagt der erfahrene Geotechniker. Und zwar allein mit Strom aus Deponiegas, dessen Potenzial noch ungenutzt unter unzähligen Brachlandschaften schlummert. Änderungen im Erneuerbare-Energien-Gesetz (EEG 2017) machen es jetzt möglich, dieses Potenzial zu fördern. Passend dazu entwickelte Prof. Otto mit Diplomchemiker Jürgen Kanitz an der THGA in Bochum ein Verfahren, mit dem Altdeponien nachhaltig saniert und energetisch genutzt werden könnten.

Pünktlich zur Weltklimakonferenz liefern die Forscher von der Technischen Hochschule Georg Agricola (THGA) damit eine innovative Idee, die Wirtschaftlichkeit und Umweltschutz vereint.

Wie das funktioniert? Auch nach Jahrzehnten gärt es in vielen ehemaligen Hausmülldeponien. Oft sind sie nur unzureichend gegen den unerwünschten Austritt von Methangas oder kontaminiertem Sickerwasser gesichert. Das austretende Methan ist rund 25 Mal schädlicher für das Klima als CO2. „Allein in Deutschland gibt es rund 106.000 Altablagerungen. Bei einem Großteil kann man davon ausgehen, dass sie noch immer biologisch aktiv sind“, erklärt Prof. Otto.

Mit gezielten Bohrungen saugen die THGA-Wissenschaftler methanhaltiges Deponiegas ab, damit frischer Sauerstoff einströmen kann. „Das organische Material wird dadurch kontrolliert zersetzt – zum Teil durch Sauerstoff-liebende Bakterien, teils durch Bakterien, die ohne Sauerstoff auskommen“, so Otto. „Erstere produzieren CO2 und Wärme, letztere in der warmen Umgebung das Methan.“ So lange bis alles verwertet ist, könnte dieses Deponiegas bei größeren Altablagerungen und Altdeponien Kleinkraftwerke antreiben.

Ein oftmals langwieriger Prozess, weiß der Geotechnik-Ingenieur: „Bis zu 25 Jahre dauert es, bis kein reaktionsfähiges, organisches Material mehr vorhanden ist – in jedem dieser maximal 25 Jahre könnten bis zu 250.000 Euro Einnahmen durch den Verkauf von Strom erzielt werden, den man in das Netz einspeist“, rechnet der Professor vor. „Die Wärmeleistung, die erzeugt wird, ist hier nicht einmal inbegriffen und käme noch on-top.“ Auch trotz der bis zu 1,5 Millionen Euro, die im Vorfeld pro Deponie investiert werden müssten, käme so über die Jahre ein ordentliches Sümmchen zusammen.

Diese lukrativen Zahlen müssten die Kommunen eigentlich aufhorchen lassen, rumort doch unter vielen Gemeinde ein Müllproblem. Bisher durften die Kommunen die Ausgasungen aus alten Deponien allerdings nur zur Gefahrenabwehr fördern – nicht, um daraus einen finanziellen Nutzen zu ziehen. Ein Umstand, der sich mit der Novellierung des Erneuerbare-Energien-Gesetzes (EEG) 2017 teilweise geändert hat. Ab sofort könnten die Städte, gegebenenfalls über ihre Töchter, ihren miefenden Müll zu Geld machen. Daher arbeiten die THGA-Experten im Verbund UniverCity Bochum auch eng mit dem Umweltamt der Stadt Bochum zusammen.

Doch die wirtschaftlichen und ökologischen Aspekte des neuen Verfahrens sind noch um einiges nachhaltiger – und haben eine deutlich längere Halbwertszeit: Ist nämlich nach einigen Jahrzehnten die Gasproduktion vollständig zum Erliegen gekommen, kann die Deponie geöffnet werden und endlich das ‚Urban Mining‘ beginnen: „Beim so genannten städtischen Bergbau werden alte Müllhalden noch mal zu ergiebigen Rohstoffminen, aus denen sich wertvolle Ressourcen wie Eisen oder Kupfer und Energierohstoffe gewinnen lassen.“

Durch diese abschließende Komplettsanierung ergeben sich gleichzeitig völlig neue Nutzungsmöglichkeiten auf den ehemals belasteten Gebieten, erklärt Otto. „Wo heute abgestorbene Bäume ins Auge fallen, könnten wieder begrünte und bebaute Flächen entstehen.“ Eine Win-win-Situation – für den Gemeinde-Geldbeutel und ein gutes Stadtklima.

Redaktion: Carmen Tomlik

Quelle: idw

(nach oben)


„Wissensreihe Männergesundheit“ informiert zu Kopfschmerzen, Rückenschmerzen und Work-Life-Balance

Dr. Bettina Albers Pressestelle
Stiftung Männergesundheit

Studien zur Männergesundheit zeigen, dass sich Männer vielfach nicht ausreichend um ihre Gesundheit kümmern und Schwierigkeiten haben, passende Gesundheitsinformationen zu finden, zu beurteilen und zu nutzen. Die Bundeszentrale für gesundheitliche Aufklärung (BZgA) und die Stiftung Männergesundheit haben daher ihre gemeinsame „Wissensreihe Männergesundheit“ erweitert: Drei neue Broschüren informieren zielgruppenspezifisch zu den Themen Kopfschmerzen, Rückenschmerzen und Work-Life-Balance.

Hierzu erklärt Dr. Heidrun Thaiss, Leiterin der BZgA: „Männer gehen seltener zum Arzt als Frauen. Sie führen ein teilweise risikoreicheres Leben, trinken mehr Alkohol, ernähren sich ungesünder und nehmen seltener an gesundheitsfördernden Angeboten teil. Es ist deshalb wichtig, relevante Informationen auch ‚an den Mann‘ zu bringen. Die ‚Wissensreihe Männergesundheit‘ ist im Hinblick auf Sprache und Optik auf das Rezeptionsverhalten von Männern zugeschnitten und somit eine beliebte Informationsquelle, die unser umfassendes, qualitätsgesichertes Onlineangebot www.maennergesundheitsportal.de ergänzt.“
Um die Sensibilität von Männern für ihre Gesundheit zu erhöhen und ihr Präventionsbewusstsein zu stärken, hat die BZgA gemeinsam mit der Stiftung Männergesundheit die Hefte der „Wissensreihe Männergesundheit“ aufgelegt. Sie wurden unter der wissenschaftlichen Leitung ausgewiesener Fachexpertinnen und -experten, basierend auf den aktuellen Leitlinien, entwickelt. Neben den drei neuen Heften gibt es bereits Broschüren zu den Themen Bluthochdruck, Burnout, Diabetes mellitus, Herzinfarkt und Übergewicht.

Kostenlose Bestellung der Hefte „Wissensreihe Männergesundheit“ über:
Bundeszentrale für gesundheitliche Aufklärung, 50819 Köln
Online-Bestellsystem: www.bzga.de/infomaterialien
Fax: 0221/8992257
E-Mail: order@bzga.de

Die Broschüren stehen außerdem zum Download bereit unter:
www.maennergesundheitsportal.de und www.stiftung-maennergesundheit.de

Ein Faktenblatt mit aktuellen Daten zur Männergesundheit in Deutschland finden Sie unter:http://www.bzga.de/presse/daten-und-fakten/maennergesundheit/

Die Bundeszentrale für gesundheitliche Aufklärung (BZgA) spricht mit der Internetseite www.maennergesundheitsportal.de gezielt Männer an, um sie über die Möglichkeiten einer geschlechtsspezifischen Gesundheitsvorsorge zu informieren. Die Inhalte dienen der allgemeinen Information und können die persönliche Beratung durch eine Ärztin oder einen Arzt sowie durch qualifiziertes medizinisches Fachpersonal nicht ersetzen.

Weitere Informationen:

http://www.stiftung-maennergesundheit.de

Anhang
Pressemeldung als pdf
https://idw-online.de/de/attachment58712

Quelle: idw

(nach oben)


Hochwasservorsorge in der Raumordnung stärken

Christian Schlag Presse- und Öffentlichkeitsarbeit
Bundesinstitut für Bau-, Stadt- und Raumforschung (BBSR)

Wie kann die Raumordnung die Hochwasservorsorge an Flüssen noch wirksamer machen? Diese Frage beantwortet ein neues Handbuch des Bundesministeriums für Verkehr und Digitale Infrastruktur (BMVI) und des Bundesinstituts für Bau-, Stadt- und Raumforschung (BBSR).

Wie kann die Raumordnung die Hochwasservorsorge an Flüssen noch wirksamer machen? Diese Frage beantwortet ein neues Handbuch des Bundesministeriums für Verkehr und Digitale Infrastruktur (BMVI) und des Bundesinstituts für Bau-, Stadt- und Raumforschung (BBSR). Es stellt neue Ansätze und gute Beispiele vor. Die Broschüre richtet sich an Akteure der Landes- und Regionalplanung sowie Fachleute in der Stadtplanung und der Wasserwirtschaft.

Das Handbuch ist Ergebnis des Modellvorhabens der Raumordnung (MORO) „Regionalentwicklung und Hochwasserschutz in Flussgebieten“. Die Forscher arbeiteten im Bereich des vorbeugenden Hochwasserschutzes innovative Steuerungsansätze von Landes- und Regionalplanung und Hochwasserrisikomanagement heraus. Neben der aktuellen Planungspraxis wurden Regelungsmöglichkeiten nach dem neuen Raumordnungsgesetz analysiert.

Die im Leitfaden vorgestellten Maßnahmen und beispielhaften planungsrechtlichen Ansätze orientieren sich an fünf Handlungsfeldern zum vorbeugenden Hochwasserschutz an Flüssen. Diese Handlungsfelder hat die Ministerkonferenz für Raumordnung (MKRO), das Gremium der für Raumordnung zuständigen Minister von Bund und Ländern, im Jahr 2013 verabschiedet. Dazu zählen auch der Erhalt bestehender und die Schaffung neuer Retentionsräume. „Unser Handbuch hilft, Instrumente und Strategien des raumordnerischen Hochwasserschutzes weiterzuentwickeln“, sagt BBSR-Experte Matthias Furkert. „Besonders wichtig ist dabei die stärkere Verzahnung von raumordnerischen mit wasserwirtschaftlichen Ansätzen.“

Das Handbuch kann kostenfrei beim BBSR bestellt werden (ref-1-1@bbr.bund.de), eine elektronische Version ist unter www.bbsr.bund.de in der Rubrik Veröffentlichungen abrufbar.

Mit dem Programm „Modellvorhaben der Raumordnung“ unterstützt das BMVI die Erprobung und Umsetzung innovativer, raumordnerischer Handlungsansätze und Instrumente in Zusammenarbeit zwischen Wissenschaft und den Akteuren in den Regionen. Exemplarisch werden Projekte und Studien gefördert, die neue Strategien, Prozesse und Methoden verfolgen. Dem BBSR obliegt die inhaltliche und administrative Betreuung des MORO-Programms.

Download
http://www.bbsr.bund.de/BBSR/DE/Veroeffentlichungen/BMVI/MOROPraxis/2017/moro-praxis-10-17.html

Kontakt
Christian Schlag
Presse- und Öffentlichkeitsarbeit
Tel.: +49 228 99401-1484
christian.schlag@bbr.bund.de

Dr. Matthias Furkert
Referat I 1 – Raumentwicklung
Tel.: +49 228 99401-2134
matthias.furkert@bbr.bund.de

Folgen Sie dem BBSR auf Twitter: twitter.com/bbsr_bund

Das Bundesinstitut für Bau-, Stadt- und Raumforschung (BBSR) im Bundesamt für Bauwesen und Raumordnung (BBR) ist eine Ressortforschungseinrichtung im Geschäftsbereich des Bundesministeriums für Umwelt, Naturschutz, Bau und Reaktorsicherheit (BMUB). Es berät die Bundesregierung bei Aufgaben der Stadt- und Raumentwicklung sowie des Wohnungs-, Immobilien- und Bauwesens.

Quelle: idw

(nach oben)


Geschäftsidee für ein Kanalnetz der Zukunft

Erhard Jakobs Pressestelle
Technische Hochschule Mittelhessen

Dem akademischen Nachwuchs fehle es an Rückhalt bei Start-ups. Dieser Mangel wird hierzulande vor allem im internationalen Vergleich moniert. Das „EXIST-Gründerstipendium“ des Bundeswirtschaftsministeriums soll Studierende und Absolventen auf dem Weg zur eigenen Firma unterstützen. Es fördert „innovative technologieorientierte oder wissensbasierte Projekte“, die gute wirtschaftliche Erfolgsaussichten haben. Ein Duo aus Mittelhessen kann sich jetzt über den positiven Bescheid aus Berlin freuen.

Vom ersten Oktober an erhalten Pierre Büttner und Ivana Hrisova ein Jahr lang ein monatliches Stipendium von jeweils 2500 Euro und zusätzlich maximal 35.000 Euro an Sachmitteln. Beide sind nicht nur privat Partner, sondern auch eine technisch-betriebswirtschaftliche Interessengemeinschaft. Ihr Stipendium haben sie sich mit einer Geschäftsidee verdient, über die der Hessische Rundfunk im August unter der Überschrift „Das Kanalnetz der Zukunft“ berichtete.

Gemeinsam arbeiten sie an der Vermarktung von „Variokan“, einer neuartigen technischen Lösung, die künftig in Abwassersystemen zum Einsatz kommen soll. Pierre Büttner hat 2012 an der TH Mittelhessen den Bachelor in Bauingenieurwesen gemacht und sich anschließend mit dem Masterstudium Infrastrukturmanagement weiterqualifiziert, das die THM gemeinsam mit der Frankfurt University of Applied Sciences anbietet. Einen Studienschwerpunkt legte er auf Siedlungswasserwirtschaft und erfuhr, was er als aktuelle Bedarfssituation zusammenfasst: „Knapp 20 Prozent des deutschen Abwasser-Kanalsystems sind sanierungsbedürftig.“

Im Masterstudium kam ihm die Idee, die er bis zum heutigen Prototypen entwickelte: Ein Gummischlauch kann in bestehende Rohrfassungen eingezogen werden, so dass keine aufwändige Neuverlegung erforderlich ist. Das allein ist noch keine Innovation. Einzigartig macht Variokan das innere Gerüst der flexiblen Innenhaut, ein V-Profil, das sich situativ anpasst und imstande ist, die Fließgeschwindigkeit des Abwassers zu regulieren. Die schmale Rinne, die durch die V-Basis läuft, sorgt auch bei geringem Zustrom für einen Abfluss mit ausreichender Geschwindigkeit. Nimmt die Flüssigkeitsmenge zu, bewirkt der steigende Druck, dass sich der Durchflussraum erweitert und große Abwassermengen abgeführt werden können. Eine technische Lösung, die sowohl beim zuletzt gehäuft auftretenden „Starkregen“ als auch bei undichten Rohren gute Dienste leisten wird. Interessant ist Variokan zudem für ländliche Gemeinden mit schrumpfenden Einwohnerzahlen, deren Infrastruktur für die Abwasserentsorgung inzwischen zu groß bemessen ist. Denn Ebbe im Kanalsystem führt zu Rückständen, die einen hohen Reinigungsaufwand und Mehrkosten verursachen.

Das Konzept überzeugte beim landesweiten Hochschul-Gründungswettbewerb „Hessen-Ideen“ und brachte dem Duo dort im Herbst 2016 den ersten Platz ein. Der Ingenieur Pierre Büttner und die Betriebswirtin Ivana Hrisova, die kurz vor dem Masterabschluss an der Gießener Universität steht, werden sich mit ihrem Produkt an Städte, Kreise und Abwasserverbände wenden.

Das Geld aus dem Exist-Gründerstipendium wollen sie unter anderem zur Finanzierung einer Testanlage nutzen, wo sie Variokan in einer 25 Meter langen Rohrleitung systematisch dem Betrieb mit unterschiedlichen Wassermengen aussetzen. „Davon erwarten wir uns weitere Erkenntnisse, zum Beispiel zu den Materialstärken. Die brauchen wir, um mit möglichen Herstellern konkret über die Produkteigenschaften sprechen zu können“, erläutert Pierre Büttner. Das Gießener Team will die Gummischläuche extern in Serie fertigen lassen. Die junge Firma wird sich zunächst auf die Geschäftsfelder Vertrieb und Beratung konzentrieren.

Weitere Informationen:
http://www.variokan.de

Quelle: idw

(nach oben)


Darmkrebsvorsorge: Neun Tests – trotzdem vergleichbare Ergebnisse

Dr. Sibylle Kohlstädt Presse- und Öffentlichkeitsarbeit
Deutsches Krebsforschungszentrum

Je eher man Darmkrebs und seine Vorstufen entdeckt, desto besser. Seit diesem Jahr werden dafür neue immunologische Tests auf Blut im Stuhl eingesetzt. Erst wenn ein bestimmter Schwellenwert des Blutfarbstoffs Hämoglobin überschritten wird, signalisieren die Tests ein positives Ergebnis. Wissenschaftler vom Deutschen Krebsforschungszentrum haben neun dieser Tests miteinander verglichen.

Ihr Ergebnis: Alle neun entdecken die große Mehrheit aller Darmkrebserkrankungen und auch viele Darmkrebsvorstufen. Folgt man den Angaben der Hersteller, ab welchem Hämoglobin-Wert ein Verdacht auf Darmkrebs vorliegt, finden sich große Unterschiede in der Häufigkeit positiver Ergebnisse. Passt man jedoch die Schwellenwerte an, so liefern alle Tests sehr ähnliche Ergebnisse. Selbst ein Smartphone-Test, der ohne spezielle Laboranalytik auskommt, kann mit Analysen aus dem Labor mithalten.

Die Darmkrebs-Vorsorge ist dieses Jahr einfacher und zuverlässiger geworden. Immunologische Tests erkennen, ob sich im Stuhl der Blutfarbstoff Hämoglobin befindet. Dies dient als Hinweis darauf, ob ein Patient an Darmkrebs oder einer Darmkrebsvorstufe erkrankt ist. Dass die immunologischen Tests den weniger spezifischen HämOccult-Test abgelöst haben, geht wesentlich auf die Arbeiten von Hermann Brenner vom Deutschen Krebsforschungszentrum zurück.

Zurzeit sind zahlreiche verschiedene immunologische Tests auf dem Markt. „Bisher war unklar, ob und in welchem Umfang es Unterschiede zwischen den angebotenen Tests gibt“, sagt der Epidemiologe Brenner. Deshalb hat er gemeinsam mit seinen Mitarbeitern neun Tests einem direkten Vergleich unterzogen.

Sein Ergebnis: Alle neun Tests entdecken die große Mehrheit aller Darmkrebserkrankungen und auch viele Darmkrebsvorstufen. Folgt man den Angaben der Hersteller, ab welchem Wert ein Test als positiv zu werten ist, dann unterscheiden sich die Häufigkeiten positiver Resultate stark.

Als die Wissenschaftler jedoch bei der Auswertung die Schwellenwerte anpassten, so lieferten alle Tests sehr ähnliche Ergebnisse. „In dieser Arbeit legen wir erstmals und weltweit bislang einmalig einen direkten Vergleich der diagnostischen Wertigkeit einer großen Zahl  von quantitativen Tests in derselben, großen Gruppe von Untersuchungsteilnehmern vor“, sagt Hermann Brenner. Aus diesen Zahlen ließen sich bundesweite Empfehlungen für Schwellenwerte einzelner Tests ableiten.

„Mit dieser Arbeit geben Brenner und Kollegen ganz konkrete Empfehlungen, wie die Früherkennung von Darmkrebs noch weiter verbessert werden kann“, betont Michael Baumann, Vorstandsvorsitzender des DKFZ. „Es ist wichtig, den Menschen neben der eher aufwändigen Darmspiegelung, die nach wie vor der Goldstandard bei der Darmkrebsvorsorge ist, auch eine niederschwelligere Screening-Untersuchung anzubieten.“

Bei fünf der neun Tests ist eine Laboranalyse notwendig. Die restlichen vier Tests können direkt in der hausärztlichen und urologischen Praxis durchgeführt und ausgewertet werden. Sogar der Test, der mit Hilfe einer Smartphone-App ausgewertet wird, lieferte zuverlässige Resultate – zumindest dann, wenn er von geschultem Personal durchgeführt wurde.

Darmkrebs ist die dritthäufigste Krebsart weltweit. Pro Jahr erkranken etwa 1,4 Millionen Menschen daran, 700.000 versterben. Auch bei Darmkrebs gilt: Je eher man ihn entdeckt, desto besser. Deshalb haben alle in Deutschland gesetzlich Krankenversicherten ab dem 55. Lebensjahr Anspruch auf eine Darmspiegelung. Sie gilt als sicherste Methode zur Entdeckung von Darmkrebs und seinen Vorstufen. Doch das Testverfahren ist aufwändig und viele Patienten scheuen sich davor. Nur 20 bis 30 Prozent der Berechtigten nehmen daran teil.

Neue immunologische Testverfahren, die seit April dieses Jahres von den Krankenkassen bezahlt werden, sollen dabei helfen, mehr Menschen zu einer Vorsorgeuntersuchung zu motivieren.

„Bei unseren Nachbarn in den Niederlanden funktioniert das schon sehr gut“, berichtet Brenner. Dort werden die Menschen mit einem persönlichen Brief zur Teilnahme eingeladen – der Test wird direkt mitgeschickt. Dadurch lassen sich Teilnahmeraten von über 60 Prozent erreichen. Deutschland ist davon bisher noch weit entfernt.

Anton Gies, Katarina Cuk, Petra Schrotz-King, Hermann Brenner: Direct Comparison of Diagnostic Performance of 9 Quantitative Fecal Immunochemical Tests for Colorectal Cancer Screening. Gastroenteroloy 2017. DOI: 10.1053/j.gastro.2017.09.018

Ein Bild zur Pressemitteilung steht zur Verfügung unter:
www.dkfz.de/de/presse/pressemitteilungen/2017/bilder/Darmkrebs.jpg
BU: Darmkrebs unter dem Mikroskop

Das Deutsche Krebsforschungszentrum (DKFZ) ist mit mehr als 3.000 Mitarbeiterinnen und Mitarbeitern die größte biomedizinische Forschungseinrichtung in Deutschland. Über 1000 Wissenschaftlerinnen und Wissenschaftler erforschen im DKFZ, wie Krebs entsteht, erfassen Krebsrisikofaktoren und suchen nach neuen Strategien, die verhindern, dass Menschen an Krebs erkranken. Sie entwickeln neue Methoden, mit denen Tumoren präziser diagnostiziert und Krebspatienten erfolgreicher behandelt werden können. Die Mitarbeiterinnen und Mitarbeiter des Krebsinformationsdienstes (KID) klären Betroffene, Angehörige und interessierte Bürger über die Volkskrankheit Krebs auf. Gemeinsam mit dem Universitätsklinikum Heidelberg hat das DKFZ das Nationale Centrum für Tumorerkrankungen (NCT) Heidelberg eingerichtet, in dem vielversprechende Ansätze aus der Krebsforschung in die Klinik übertragen werden. Im Deutschen Konsortium für Translationale Krebsforschung (DKTK), einem der sechs Deutschen Zentren für Gesundheitsforschung, unterhält das DKFZ Translationszentren an sieben universitären Partnerstandorten. Die Verbindung von exzellenter Hochschulmedizin mit der hochkarätigen Forschung eines Helmholtz-Zentrums ist ein wichtiger Beitrag, um die Chancen von Krebspatienten zu verbessern. Das DKFZ wird zu 90 Prozent vom Bundesministerium für Bildung und Forschung und zu 10 Prozent vom Land Baden-Württemberg finanziert und ist Mitglied in der Helmholtz-Gemeinschaft deutscher Forschungszentren.

www.dkfz.de

Quelle: idw

(nach oben)


Gibt es nachhaltige Lösungen im Umgang mit schwindenden Phosphorressourcen?

Norbert K. Borowy Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Nutzierbiologie (FBN)

Dummerstorfer Wissenschaftler machen sich im Europäischen Forschungsprojekt ERANet PEGaSus auf die Suche

In landwirtschaftlichen Kreisläufen von Futterpflanzen, Nutztieren und Ackerbau ist Phosphor nach Stickstoff das zweitwichtigste Mineral und ein essenzieller Baustein für alle Lebewesen. Die natürlichen Ressourcen schrumpfen und werden in absehbarer Zeit versiegen.

Deshalb wird unter Hochdruck seit Jahren an einer effizienteren Nutzung des wertvollen Rohstoffes geforscht, seit einigen Jahren auch am Leibniz-Institut für Nutztierbiologie (FBN) in Dummerstorf im Rahmen des Leibniz-WissenschaftsCampus Rostock. Ein weiteres großes Forschungsprojekt in Höhe von 2,0 Millionen Euro und einer Laufzeit von drei Jahren ist dem FBN auf diesem Gebiet bewilligt worden: „ERANet PEGaSus“.
„Seit ungefähr drei Jahren befassen wir uns verstärkt mit einer effizienteren Nutzung der begrenzten Ressource Phosphor in der modernen Tierhaltung“, sagte FBN-Vorstand und Projektleiter Prof. Klaus Wimmers. „Die Koordination des internationalen Projektes ‚ERANet PEGaSus‘ ist für unser Institut eine hervorragende Gelegenheit, unsere wissenschaftliche Arbeit in einem interdisziplinären Konsortium voranzutreiben und es ergänzt unsere Forschung als Partner in der ebenfalls kürzlich eingerichteten DFG-Forschergruppe „P-Fowl“. Wir suchen nach nachhaltigen Lösungen für die zukünftige Phosphornutzung.“

Die Nachfrage nach Phosphor als Düngemittel und Futterzusatz steigt mit der wachsenden Weltbevölkerung ständig um 2 bis 3 Prozent pro Jahr, während die Reserven der heute nutzbaren Lagerstätten begrenzt sind. Das große öffentliche Interesse an Phosphor liegt auch an dessen Umweltproblematik, wenn etwa Ökosysteme wie die Ostsee durch die Phosphor-Versickerung über den Gülleaustrag stark belastet werden. Es gilt somit auch Wege zu finden, um Phosphor effektiv zurückzugewinnen und wiederholt einzusetzen. „Wir müssen grundlegende Strategien entwickeln, mit dem wertvollen Rohstoff sparsamer und effizienter umzugehen“, betonte Prof. Klaus Wimmers. „Das betrifft die Fütterung, die Düngung und die Wiedergewinnung von Phosphor aus der Umwelt.“

Was soll ERANet PEGaSus leisten?
PEGaSus steht für „Phosphorus Efficiency in Gallus and Sus Scrofa“, also für die Überbrückung der Lücken in der Phosphorverwertungskette bei Huhn und Schwein. Das Projekt ist Teil des Europäischen Forschungsnetzwerks für nachhaltige Tierhaltung ERA-Net SusAn (European Research Area NETwork on Sustainable Animal Production). Kooperationspartner im PEGaSus-Projekt sind das Agri-Food and Biosciences Institute in Nordirland/Großbritannien, die Aarhus Universität in Dänemark, die Universität Piacenza in Italien und das Stockholmer Umwelt Institut in Schweden.
„Im Rahmen des Projektes wollen wir einen effizienten und konsistenten Phosphoreinsatz in der landwirtschaftlichen Kreislaufwirtschaft beschreiben“, erläuterte Wimmers. Nutztiere wie Legehennen oder Schweine sollen den lebenswichtigen Nährstoff Phosphor bestmöglich verwerten. Bei den Tierstudien im FBN am Schwein und Huhn sollen dementsprechend Wege zur Optimierung der Phosphorverwertungskette gefunden werden, so dass der Mineraleinsatz im Futter reduziert werden kann.

Im ersten Schritt fokussieren sich die Forschungspartner auf die alte Futterpflanze Comfrey (Beinwell), der nachgesagt wird, im Boden enthaltenden Phosphor in hohem Maße bioverfügbar zu machen.
Darüber hinaus wird nach Möglichkeiten gesucht, das genetische Potenzial für Aufnahme und Speicherung von Phosphor besser auszuschöpfen. Dafür müssen vertiefte Kenntnisse erarbeitet werden, wie Phosphor im Verdauungstrakt der Tiere verarbeitet wird. Darüber gehen die Wissenschaftler Hinweisen nach, inwieweit eine Wechselwirkung zwischen der Phosphorversorgung und dem Immunsystem, also dem gesundheitlichen Wohlbefinden der Tiere, besteht.

Da die experimentellen tierbasierten Daten am FBN die Grundlage sowohl für eine bio-ökonomische Modellierung als auch für mögliche Recycling-Ansätze für Phosphor darstellen, wird mit belastbaren Ergebnissen in drei Jahren gerechnet. „Wir sind zuversichtlich, einen Beitrag zur Erhöhung der Phosphor-Effizienz in der Tierhaltung im Rahmen dieser interdisziplinären und europäischen Zusammenarbeit leisten zu können“, so Wimmers.

#HINTERGRUND
Lebensnotwendiger Phosphor

Die stetige Verfügbarkeit von Phosphor ist für alle Organismen lebenswichtig. Wenn ein erwachsener Mensch über längere Zeit weniger als 0,7 Gramm Phosphat pro Tag in der Nahrung zu sich nimmt, entwickelt er Mangelerscheinungen, insbesondere Wachstumsstörungen wie etwa Probleme bei der Knochen- und Zahnbildung. Darüber hinaus spielt Phosphor aufgrund des Zusammenhangs von Zellen des Knochenauf- und -abbaus und Immunzellen, die im Knochenmark reifen, eine wichtige Rolle für eine effiziente Ausprägung des Immunsystems. Aktuell werden mehr als 17 Megatonnen Phosphor pro Jahr gefördert, vor allem in Marokko, China, den USA, Südafrika und Jordanien. Deutschland ist fast vollständig vom Import aus anderen Ländern abhängig.

Leibniz-WissenschaftsCampus Phosphorforschung Rostock
In Mecklenburg-Vorpommern beschäftigt sich seit 2014 der Leibniz-ForschungsCampus „Phosphor“ fachübergreifend mit der Phosphorproblematik. An diesem interdisziplinären Forschungsnetzwerk beteiligen sich das Land Mecklenburg-Vorpommern, die Universität Rostock, das Leibniz-Institut für Katalyse e.V. in Rostock (LIKAT), das Leibniz-Institut für Nutztierbiologie in Dummerstorf (FBN), das Leibniz-Institut für Ostseeforschung Warnemünde (IOW), das Leibniz-Institut für Pflanzengenetik und Kulturpflanzenforschung in Groß Lüsewitz (IPK) sowie das Leibniz-Institut für Plasmaforschung und Technologie e.V. (INP).

Die Leibniz-Gemeinschaft verbindet 91 selbständige Forschungseinrichtungen. Ihre Ausrichtung reicht von den Natur-, Ingenieur- und Umweltwissenschaften über die Wirtschafts-, Raum- und Sozialwissenschaften bis zu den Geisteswissenschaften. Leibniz-Institute widmen sich gesellschaftlich, ökonomisch und ökologisch relevanten Fragen. Sie betreiben erkenntnis- und anwendungsorientierte Forschung, auch in den übergreifenden Leibniz-Forschungsverbünden, sind oder unterhalten wissenschaftliche Infrastrukturen und bieten forschungsbasierte Dienstleistungen an. Die Leibniz-Gemeinschaft setzt Schwerpunkte im Wissenstransfer, vor allem mit den Leibniz-Forschungsmuseen. Sie berät und informiert Politik, Wissenschaft, Wirtschaft und Öffentlichkeit. Leibniz-Einrichtungen pflegen enge Kooperationen mit den Hochschulen, u.a. in Form der Leibniz-WissenschaftsCampi, mit der Industrie und anderen Partnern im In- und Ausland. Sie unterliegen einem transparenten und unabhängigen Begutachtungsverfahren. Aufgrund ihrer gesamtstaatlichen Bedeutung fördern Bund und Länder die Institute der Leibniz-Gemeinschaft gemeinsam. Die Leibniz-Institute beschäftigen rund 18.700 Personen, darunter 9.500 Wissenschaftler. Der Gesamtetat der Institute liegt bei mehr als 1,8 Milliarden Euro.
http://www.leibniz-gemeinschaft.de

Weitere Informationen
http://pegasus.fbn-dummerstorf.de
http://www.wissenschaftscampus-rostock.de
http://www.era-susan.eu

Leibniz-Institut für Nutztierbiologie (FBN)
Wilhelm-Stahl-Allee 2, 18196 Dummerstorf
Vorstand Prof. Dr. Klaus Wimmers
T +49 38208-68 600
E wimmers@fbn-dummerstorf.de

Wissenschaftsorganisation Dr. Norbert K. Borowy
Wilhelm-Stahl-Allee 2, 18196 Dummerstorf
T +49 38208-68 605
E borowy@fbn-dummerstorf.de
http://www.fbn-dummerstorf.de

Quelle: idw

(nach oben)


Vegane Ernährung als Lebensstil: Es besteht Risikokommunikationsbedarf

Dr. Suzan Fiack Presse- und Öffentlichkeitsarbeit
Bundesinstitut für Risikobewertung (BfR)

Ergebnisse eines BfR-Forschungsprojektes zu Einstellungen von Veganerinnen und Veganern veröffentlicht

Tofu-Würstchen auf dem Grill, danach Kuchen mit Banane statt Ei: Die vegane Ernährung liegt im Trend. Doch neben nachgewiesenen positiven Einflüssen auf die Gesundheit werden auch Risiken beschrieben. „Insbesondere bei Schwangeren und Kindern, die vollständig auf tierische Lebensmittel verzichten, ist eine Unterversorgung mit Nährstoffen wie Vitamin B12 oder Eisen möglich“, sagt BfR-Präsident Professor Dr. Dr. Andreas Hensel. „Damit Informationen über mögliche Risiken bei der Zielgruppe ankommen, ist es essentiell, die Einstellungen zu kennen.“ Das BfR veröffentlicht nun Ergebnisse eines Forschungsprojektes, das sich den individuellen und sozialen Einflussfaktoren, die zur Motivation und Aufrechterhaltung einer veganen Ernährung führen, widmet. Unter anderem wurde klar: Eine effektive Risikokommunikation sollte an bestehende Überzeugungen der Veganerinnen und Veganer anknüpfen. Das Ziel sind konkrete Tipps, die sich mit einer veganen Ernährung verbinden lassen.

Ein wachsender Anteil der Bevölkerung entscheidet sich für die vegane Ernährung. Welche gesundheitlichen Vor- und Nachteile dieser Schritt mit sich bringt, ist wissenschaftlich jedoch noch nicht eindeutig geklärt. Einige Studien zeigen, dass eine vegane Ernährung positive Einflüsse auf die Gesundheit haben kann, wie zum Beispiel ein niedriger Cholesterinspiegel und ein geringeres Risiko für Typ-2-Diabetes. Gleichzeitig können bei einer rein veganen Ernährung mögliche Gesundheitsrisiken bestehen. Denn: Eine rein pflanzliche Ernährung erschwert eine ausreichende Versorgung mit einigen Nährstoffen. Neben Vitamin B12 werden beispielsweise auch einige Mineralstoffe, bestimmte Aminosäuren sowie langkettige Omega-3-Fettsäuren als potenziell kritische Nährstoffe beschrieben. Dies betrifft insbesondere sensible Gruppen wie Schwangere und Kinder. Die Deutsche Gesellschaft für Ernährung (DGE) hat 2016 auf Grundlage der aktuellen wissenschaftlichen Literatur eine Position zur veganen Ernährung erarbeitet. Dabei kam sie unter anderem zu dem Schluss: „Für Schwangere, Stillende, Säuglinge, Kinder und Jugendliche wird eine vegane Ernährung von der DGE nicht empfohlen.“

Das BfR hat sich dieser Thematik gewidmet, um geeignete Risikokommunikationsstrategien zu entwickeln. Mit Hilfe von Fokusgruppen-Interviews wurden im Rahmen eines Forschungsprojektes insgesamt 42 Veganerinnen und Veganer zu ihren Einstellungen befragt. Aufgrund der zum Teil sehr ausgeprägten Abweichungen zur Durchschnittsbevölkerung lassen sich verallgemeinernde Aussagen treffen.

Laut Befragung sind Veganerinnen und Veganer überdurchschnittlich gebildet und haben ein fundiertes Ernährungswissen. 40 der 42 Befragten sind sich zum Beispiel bewusst, dass die vegane Ernährung zu einer Mangelversorgung mit Vitamin B12 führen kann. Die meisten gaben daher an, das Vitamin regelmäßig zu supplementieren. Es gibt aber auch Informationsbedarf. Zum Beispiel ist das Wissen zu Eisenquellen in Nahrungsmitteln bruchstückhaft. Das Risikobewusstsein für die besondere Ernährungsweise ist jedoch bei der Mehrheit der Befragten vorhanden. Bei der Informationssuche rund um vegane Ernährung ist das Internet die wichtigste Informationsquelle.

Es ließen sich einheitliche Einstellungsmuster erkennen. So ist die Entscheidung für eine vegane Ernährung in der Regel ethisch begründet. Meist impliziert sie auch den Verzicht auf tierische Produkte in anderen Bereichen, wie beispielsweise der Bekleidung. Für die überwiegende Mehrheit der Befragten ist die Rückkehr zur omnivoren Ernährung, die tierische Produkte zulässt, nicht vorstellbar. Auch eine Schwangerschaft wird meist nicht als Grund dafür angesehen.

Im Rahmen der Befragung wurde deutlich: Wer die vegane Ernährung als gefährlich oder abnormal darstellt, findet wenig Gehör bei der Zielgruppe. Eine effektive Risikokommunikation sollte vielmehr an bestehende Überzeugungen anknüpfen. Dazu gehören konkrete Anleitungen für Veganerinnen und Veganer, die sie mit ihrer Ernährung verbinden können.

Über das BfR
Das Bundesinstitut für Risikobewertung (BfR) ist eine wissenschaftlich unabhängige Einrichtung im Geschäftsbereich des Bundesministeriums für Ernährung und Landwirtschaft (BMEL). Es berät die Bundesregierung und die Bundesländer zu Fragen der Lebensmittel-, Chemikalien- und Produktsicherheit. Das BfR betreibt eigene Forschung zu Themen, die in engem Zusammenhang mit seinen Bewertungsaufgaben stehen.

In diesem Jahr feiert das BfR sein 15-jähriges Bestehen. Aus diesem Anlass hat das BfR eine Jubiläumsbroschüre herausgegeben, die unter http://www.bfr.bund.de/de/publikation/broschueren-660.html kostenlos heruntergeladen oder bestellt werden kann.

Anhang
Vegane Ernährung als Lebensstil: Motive und Praktizierung – Abschlussbericht

Quelle: idw

(nach oben)


Flexible Arbeitszeiten: Möglichkeiten, Defizite, Reformbedarf

Rainer Jung Abt. Öffentlichkeitsarbeit
Hans-Böckler-Stiftung

Wissenschaftlicher Rechercheservice der Hans-Böckler-Stiftung

Flexible Arbeitszeiten: Möglichkeiten, Defizite, Reformbedarf
Die Arbeitszeiten in Deutschland sind hoch flexibel. Das zeigt sich nicht nur in einschlägigen Statistiken zu Abend-, Nacht-, Schicht und Wochenendarbeit, sondern auch beim Blick ins Arbeitszeitgesetz, das etwa die Ausweitung der täglichen Arbeitszeit auf zehn Stunden erlaubt.

Zahlreiche Tarifverträge sehen Arbeitszeit-Korridore vor und insbesondere mitbestimmte Großunternehmen verfügen ganz überwiegend über Arbeitszeitkonten. Hinzu kommt, dass nach Berechnungen des Instituts für Arbeitsmarkt- und Berufsforschung (IAB) im Jahr 2016 insgesamt 820 Millionen bezahlte und noch einmal 941 Millionen unbezahlte Überstunden geleistet wurden. Gleichzeitig ist für viele Beschäftigte die psychische Belastung durch ihre Arbeit gestiegen, daraus resultierende Krankheitsbilder verursachen zunehmend mehr Fehltage.

„Das zeigt: Wir brauchen nicht noch mehr Entgrenzung von Arbeitszeiten, sondern Reformen, die auch den Beschäftigten einen größeren Anteil an der `Flexibilitätsrendite´ bringen“, sagt Dr. Yvonne Lott, Arbeitszeitexpertin der Hans-Böckler-Stiftung. Anforderungen der Arbeit und private Verpflichtungen und Bedürfnisse verlässlich unter einen Hut bringen zu können, sei unerlässlich für Gesundheit und Leistungsfähigkeit. „Arbeitgeber wollen gute Mitarbeiter gewinnen und im Unternehmen halten. Das gelingt nur, wenn sie auch auf deren Bedürfnisse eingehen – und zum Beispiel Möglichkeiten für zeitweilige Anpassungen der Arbeitszeit bieten und für ausreichend Personal sorgen, damit Vertretungen wirklich klappen. Es liegt also auch im Interesse der Unternehmen, die Arbeit so zu organisieren, dass Mitarbeiter nicht überfordert werden“, so Lott. Dabei weist die Forscherin auf ein bislang ungelöstes Problem hin: Flexible Arbeitszeiten und Teilzeitarbeit helfen dabei, Berufstätigkeit und Familie besser zu vereinbaren. Doch sie können zum Problem für die Gerechtigkeit auf dem Arbeitsmarkt werden, wenn sie nur von bestimmten Beschäftigtengruppen genutzt werden und gleichzeitig negative Konsequenzen für das berufliche Fortkommen haben. Erst wenn flexible Arbeitszeiten unabhängig von Geschlecht, Qualifikation oder Hierarchiestufe zur Normalität würden, ließen sich Nebenwirkungen wie die Verstärkung sozialer Ungleichheiten abstellen. Deshalb sei es ein kluger Ansatz, Möglichkeiten zur Arbeitszeitanpassung tariflich zu regeln.

Über die folgenden Links finden Sie Zusammenfassungen von aktuellen Studien zum Thema sowie zu Interviews und Beiträgen unserer Expertin:

Extrem flexible Arbeitszeiten gehen häufig zulasten der Beschäftigten. Dabei sind die Folgen für Frauen andere als für Männer – https://www.boeckler.de/110647_110658.htm

Die Arbeitszeit soll flexibler und die Arbeitsgesetze deshalb gelockert werden. Das würde aber nur zu Überstunden und noch mehr Druck auf die Arbeitnehmer führen. Gastbeitrag von Yvonne Lott – https://causa.tagesspiegel.de/wirtschaft/ist-der-8-stunden-tag-noch-zeitgemaess/…

Wenn Beschäftigte nachts oder im Schichtdienst arbeiten, leidet die Gesundheit. Ein wichtiger Grund sind Vereinbarkeitsprobleme – https://www.boeckler.de/108863_108893.htm Ein zweiter die oft schlechte Organisation von Wechselschichten: https://www.boeckler.de/110980_110991.htm

Beschäftigte sollten ihre Arbeitszeit je nach Lebensphase anpassen dürfen. Doch oftmals ist das unerwünscht. Vor allem Männer und hochqualifizierte Beschäftigte bekommen Probleme, wenn sie zeitweise kürzer treten wollen. Die Gründe: mangelndes Verständnis, rigide Arbeitsorganisation und knappe Personalausstattung – https://www.boeckler.de/105628_105641.htm. Eckpunkte einer Personalpolitik, die Beschäftigten Spielräume eröffnet, skizziert diese Analyse: https://www.boeckler.de/pdf/p_wsi_pb_14_2017.pdf

Bei der Arbeitszeit ermöglichen Tarifverträge viel Flexibilität. Die Interessen der Beschäftigten könnten zum Teil noch stärker verankert werden. Das zeigt eine Untersuchung des Wirtschafts- und Sozialwissenschaftlichen Instituts (WSI) der Hans-Böckler-Stiftung – https://www.boeckler.de/63056_105928.htm

Forscherin über Arbeitszeitregelungen: Wir haben schon genug Flexibilität – https://www.taz.de/Archiv-Suche/!5464167&s=Yvonne+Lott/

80,8 Prozent der Teilzeitbeschäftigten waren 2015 Frauen. Auf Leitungspositionen wird Teilzeitarbeit von deutschen Unternehmen oft nicht möglich gemacht. Damit können flexible Arbeitszeiten zum Problem für die Gerechtigkeit auf dem Arbeitsmarkt werden – https://www.boeckler.de/106575_106834.htm

Termindruck, Arbeitsverdichtung, Stress: Nur in jedem vierten Betrieb werden systematische Maßnahmen gegen psychische Belastungen ergriffen, zeigt eine WSI-Studie – https://www.boeckler.de/106575_106924.htm

Frauen wenden erheblich mehr Zeit für Kindererziehung und Hausarbeit auf als Männer. Solange das so bleibt, ist eine Gleichstellung in Beruf und Gesellschaft nicht erreichbar – https://www.boeckler.de/108549_108559.htm

Eine zukunftsorientierte Gestaltung von Arbeitszeiten und mobiler Arbeit ist auch ein Schwerpunktthema im Abschlussbericht der Expertenkommission „Arbeit der Zukunft“ (Kapitel Arbeitszeit und Arbeitsorganisation): https://www.boeckler.de/109164.htm

Wenn Sie Fragen haben oder O-Töne zum Thema suchen, melden Sie sich gerne bei uns.

Freundliche Grüße aus der Hans-Böckler-Stiftung

Rainer Jung

Rainer Jung
Abteilungsleiter Öffentlichkeitsarbeit und Transfer
Pressesprecher

Hans-Böckler-Stiftung
Hans-Böckler-Str. 39
40476 Düsseldorf
Tel.: 0211 / 7778-150
Fax: 0211 / 7778-4150
rainer-jung@boeckler.de
www.boeckler.de

Kennen Sie unsere Medien? Kostenloses Online-Abo unter: http://www.boeckler.de/104.htm
www.boecklerimpuls.de www.magazin-mitbestimmung.de

Quelle: idw

(nach oben)


Den Trends der Umweltbranche auf der Spur

Juliane Segedi Presse- und Öffentlichkeitsarbeit
Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO

Fraunhofer IAO erfasst mit Roadmap Zukunftstrends der Umwelttechnik
Wasser, Luft und Kreislaufwirtschaft: Um die aussichtreichsten Zukunftstrends für die baden-württembergischen Leitmärkte in der Umwelttechnikbranche zu erfassen, hat das Fraunhofer IAO gemeinsam mit der Landesagentur Umwelttechnik BW und dem Institute for Industrial Ecology (INEC) der Hochschule Pforzheim die »Roadmap Umwelttechnik« erarbeitet.

Die Bereiche Umwelttechnologien und Ressourceneffizienz sind wesentliche Wachstumsfelder in Baden-Württemberg. Um den Standort mit geeigneten Maßnahmen zu stärken und die Position des Landes in der Umwelttechnikbranche weiter zu stützen, hat die Landesagentur Umwelttechnik BW eine Roadmap in Auftrag gegeben, die zusammen mit dem Fraunhofer IAO und dem Institute for Industrial Ecology (INEC) der Hochschule Pforzheim erarbeitet wurde. Die Vorausschau in Form einer Roadmap bietet relevanten Stakeholdern in Baden-Württemberg, insbesondere kleinen und mittelständischen Unternehmen (KMU), FuE-Institutionen sowie Politikern, einen Überblick über die zu erwartenden Technologietrends in den Leitmärkten Wasser, Luft und Kreislaufwirtschaft.

Welche Technologietrends werden künftig die Marktchancen bestimmen?
Die »Roadmap Umwelttechnik« liefert eine Einschätzung, welche Technologien den Markt in den nächsten Jahren beherrschen werden. Die betrachteten Marktsegmente sind unter anderem Abwasserreinigung, Wassergewinnung Abfallverwertung und Abluftreinigung. Insgesamt wurden 31 Markt- und Technologietrends über einen Zeitraum von fünfzehn Jahren abgeleitet und dokumentiert. Aufbauend auf diesen Trends, die von Experten bestätigt wurden, kann die Entwicklung neuer Produkte oder neuer Geschäftsbereiche geleistet werden.

»Mit dem Fraunhofer IAO und dem Institut für Industrial Ecology (INEC) der Hochschule Pforzheim hatten wir die besten Partner bei der Entwicklung einer Roadmap für Umwelttechnologien an unserer Seite. Die methodische Kompetenz des Fraunhofer IAO im Bereich Roadmapping kombiniert mit der wissenschaftlichen Kompetenz des INEC im Bereich der Umwelttechnik ergänzte die Branchenkenntnis von Umwelttechnik BW hervorragend. Mit der entstandenen Roadmap können wir nun Unternehmen insbesondere des baden-württembergischen Mittelstands einen Überblick über die zu erwartenden Technologietrends im Bereich der Umwelttechnologien zur Verfügung zu stellen und die Position des Landes als Vorreiter im Hinblick auf Umwelttechnik und Ressourceneffizienz unterstützen«, sagt Dr. Anette Zimmermann, Projektleiterin bei der Landesagentur Umwelttechnik BW.

Die Roadmap Umwelttechnik zählt zu den Maßnahmen der Standortsicherung für Baden-Württemberg. Die Ergebnisse der Roadmap werden im Rahmen des 6. Ressourceneffizienz- und Kreislaufwirtschaftskongress (KONGRESS BW) am 18. und 19. Oktober 2018 in Stuttgart vorgestellt. Die Ergebnisse liegen nicht nur im Printformat vor, sondern werden auf dem Kongress als digitale Applikation gezeigt. So können Trendaussagen für Interessenten individualisiert ausgegeben werden. Die Roadmap ist auf Anfrage direkt bei der Landesagentur Umwelttechnik BW erhältlich.

Kontakt
Dr. Sven Schimpf
FuE-Management
Fraunhofer IAO
Nobelstraße 12
70569 Stuttgart
Telefon +49 711 970-2457
sven.schimpf@iao.fraunhofer.de

Weitere Informationen:
http://publica.fraunhofer.de/dokumente/N-469983.html
http://www.iao.fraunhofer.de/lang-de/veranstaltungen/eventdetail/445/-/roadmappi…

Quelle: idw

(nach oben)


Flüsse tragen Plastikmüll ins Meer / Große Flusssysteme sind hauptverantwortlich

Susanne Hufe Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum für Umweltforschung – UFZ

Jedes Jahr gelangen Millionen Tonnen Plastikmüll ins Meer – ein globales Umweltproblem mit nicht abzusehenden ökologischen Folgen. Um den Plastikeintrag reduzieren zu können, muss klar sein, über welchen Weg das Plastik ins Meer kommt. Bisher war darüber nur wenig bekannt. Dem ist nun ein interdisziplinäres Forscherteam unter Leitung des UFZ nachgegangen. Es konnte zeigen, dass Plastikmüll vor allem über große Flüsse ins Meer eingetragen wird. Publiziert sind die Ergebnisse in der aktuellen Ausgabe des Fachmagazins Environmental Science & Technology.

Im Wasser fast aller Meere und Flüsse finden sich mittlerweile kleine Plastikpartikel. Das stellt ein ernstes und wachsendes globales Umweltproblem dar. Die jährlichen Einträge sind enorm, und Plastik verwittert nur sehr langsam. Durch die im Wasser schwimmenden kleinen Plastikpartikel können Meeresbewohner Schaden nehmen, beispielsweise wenn Fische, Seevögel oder Meeressäuger diese mit Futter verwechseln und fressen. „Die ökologischen Folgen sind bislang noch nicht abzusehen. Klar ist aber, dass es so nicht weitergehen kann“, sagt Dr. Christian Schmidt, Hydrogeologe am UFZ. „Da es aber unmöglich ist, die Ozeane vom bereits vorhandenen Plastikmüll zu befreien, müssen wir vorsorgen und den Eintrag von Plastik schnell und effizient reduzieren.“

Um sinnvolle Maßnahmen zur Reduktion des Plastikeintrags zu treffen, muss aber zunächst geklärt werden: Wo kommt das Plastik überhaupt her? Und über welchen Weg gelangt es ins Meer? Diesen Fragen sind Schmidt und sein Team in einer Studie nachgegangen, die kürzlich in der aktuellen Ausgabe des Fachmagazins „Environmental Science & Technology“ erschienen ist. Dafür haben die Forscher verschiedene wissenschaftliche Studien analysiert, in denen die Plastikfracht – das ist die Menge des im Wasser transportierten Plastiks – in Flüssen untersucht wurde. Die Ergebnisse der Studien haben sie in miteinander vergleichbare Datensätze umgerechnet und mit der Menge des nicht fachgerecht entsorgten Abfalls des jeweiligen Einzugsgebietes ins Verhältnis gesetzt. „Wir konnten zeigen, dass hier ein eindeutiger Zusammenhang besteht“, sagt Schmidt. „Je mehr Müll im Einzugsgebiet nicht fachgerecht entsorgt wird, desto mehr Plastik landet letztlich im Fluss und gelangt über diesen Transportweg ins Meer.“ Dabei spielen große Flüsse offenbar eine besonders große Rolle – und das nicht nur, weil sie aufgrund ihres größeren Abflusses im Vergleich auch mehr Müll transportieren. Schmidt: „Die Plastikkonzentrationen, also die Plastikmenge pro Kubikmeter Wasser, sind in großen Flüssen deutlich höher als in kleinen. Die Plastikfrachten steigen daher mit der Größe des Flusses überproportional an.“

Die Forscher haben zudem berechnet, dass die zehn Flusssysteme mit der höchsten Plastikfracht (acht davon in Asien, zwei in Afrika) – in denen zum Teil hunderte Millionen Menschen leben – für rund 90 Prozent des globalen Plastikeintrags ins Meer verantwortlich sind. „Wenn es in Zukunft gelingt, den Plastikeintrag aus den Einzugsgebieten dieser Flüsse zu halbieren, wäre schon sehr viel erreicht“, sagt Schmidt. „Dafür muss das Abfallmanagement verbessert und das Bewusstsein der Bevölkerung sensibilisiert werden. Wir hoffen, dass wir mit unserer Studie zu einer positiven Entwicklung beitragen können, damit das Plastikproblem der Ozeane langfristig eingedämmt werden kann.“

In zukünftigen Untersuchungen will das UFZ-Team herausfinden, wie lange in einen Fluss gelangter Plastikmüll benötigt, bis er im Meer ankommt. Dauert es nur wenige Monate oder Jahrzehnte? „Das ist wichtig zu wissen, denn die Wirkung einer Maßnahme macht sich dann erst mit entsprechender Verzögerung bemerkbar, da zuerst noch viele Altlasten ins Meer gespült werden“, erklärt Schmidt. „Nur wenn wir den ungefähren Zeitrahmen der Verweilzeiten des Plastikmülls im jeweiligen Flusssystem kennen, kann eine Maßnahme zur Verbesserung des Abfallmanagements im Einzugsgebiet auch bewertet werden.“

Publikation:
Schmidt, C., Krauth, T., Wagner, S. (2017): Export of Plastic Debris by Rivers into the Sea. Environ. Sci. Technol. DOI: 10.1021/acs.est.7b02368 http://dx.doi.org/10.1021/acs.est.7b02368

Ansprechpartner:
Dr. Christian Schmidt
UFZ-Department Hydrogeologie
+49 341 235 1986
christian.schmidt@ufz.de

Weitere Informationen:
http://www.ufz.de/index.php?de=36336&webc_pm=34/2017

Quelle: idw

(nach oben)


Wissenswertes rund um die Gesundheit – der Online-Adventskalender der WLH

Dr. Sabine König Presse- und Öffentlichkeitsarbeit
Wilhelm Löhe Hochschule für angewandte Wissenschaften

Zum ersten Mal haben die Mitarbeiterinnen und Mitarbeiter der Wilhelm Löhe Hochschule einen Online Adventskalender befüllt: mit allerlei interessanten Informationen rund um das Gesundheitswesen. Vom 1. bis zum 24.12.17 kann man jeden Tag ein Türchen öffnen und etwas Interessantes zum Thema Gesundheit erfahren.
Lassen Sie sich überraschen!

Wissen Sie was ein PARO ist? Oder was sich hinter der Abkürzung QALY verbirgt? Oder wie man geistigem Abbau im Alter begegnen kann?
Die Antwort auf diese und 21 weitere Fragen finden Sie im Online-Adventskalender der WLH.

Weitere Informationen:
https://www.wlh-fuerth.de
https://www.app-helper.com/advent/?appid=26013

Quelle: idw

(nach oben)


Phosphatrückgewinnung – ein Weg zur strategischen Rohstoffsicherung

Dr. Christine Dillmann Öffentlichkeitsarbeit
DECHEMA Gesellschaft für Chemische Technik und Biotechnologie e.V.

Um einerseits die strategische Abhängigkeit zu reduzieren, andererseits der zunehmenden Schwermetallbelastung von Rohphosphaten zu begegnen, setzen Deutschland und die Schweiz vermehrt auf die Rückgewinnung von Phosphaten aus Klärschlamm, aber auch tierischen Nebenprodukten. Welche Technologien dafür zur Verfügung stehen, beschreibt das Statuspapier „Phosphatrückgewinnung“, das die ProcessNet-Fachgruppe „Rohstoffe“ erarbeitet hat. Voraussetzung für die Umsetzung ist das Zusammenwirken aller Akteure vom Gesetzgeber über die Landwirtschaft bis zum Technologieentwickler.

Phosphat ist ein essentieller Rohstoff für die Landwirtschaft. Deutschland verfügt jedoch nicht über eigene Ressourcen. Der Ausstieg Deutschlands aus der bodenbezogenen Klärschlammverwertung und die Rückgewinnung von Phosphor zur Nutzung heimischer Phosphatquellen ist nicht nur ein Beitrag zur Kreislaufwirtschaft und Ressourcenschonung. Auch, wenn der für 2030 angekündigte „Peak Phosphorous“, nach dem die Förderung abnehmen soll, den Experten zufolge einer sachlichen, lagerstättenkundlichen Grundlage entbehrt, ist die Rückgewinnung von Phosphor sowohl aus strategischen Gründen als auch hinsichtlich der Qualität der Phosphate sehr sinnvoll.

Das Papier, an dessen Erarbeitung Experten aus Forschung und Industrie beteiligt waren, umreißt die Anforderungen, die ein zukunftssicherer ganzheitlicher Ansatz dafür erfüllen muss. Er setzt die Zusammenarbeit aller beteiligten Akteure vom Gesetzgeber über die Landwirte und die Abwasserwirtschaft bis zu den Forschern und Technologieentwicklern voraus. Dabei geht es sowohl um technologische Methoden, von denen derzeit nur wenige im industriellen Maßstab verfügbar sind, wie auch um Fragen der Wirtschaftlichkeit und der gesetzlichen Voraussetzungen.

Zwar steht gerade in der Klärschlammaufarbeitung eine breite Palette an Technologien zur Verfügung; doch um qualitativ hochwertige Dünger zu produzieren, müssen einerseits alle Verunreinigungen – neben Schwermetallen auch organische Spurenverbindungen etc. – entfernt werden, andererseits muss die Bioverfügbarkeit der Produkte gegeben sein. Das heißt, Pflanzen müssen in der Lage sein, die Verbindungen aufzunehmen und zu verwerten. Zu den technischen Herausforderungen kommen gesetzliche Rahmenbedingungen. Während die gerade in Kraft getretene neue Klärschlammverordnung die technischen Aufbereitungswege weitgehend offenlässt, müssen die Produkte die Zulassung gemäß der Düngemittelverordnung durchlaufen.

ProcessNet ist die deutsche Plattform für Verfahrenstechnik Chemieingenieurwesen und Technische Chemie. Hier treffen sich über 5.000 Mitglieder aus Wissenschaft, Wirtschaft und Verwaltung, um Erfahrungen auszutauschen, aktuelle Fragestellungen zu diskutieren und neue wissenschaftliche Trends zu identifizieren. ProcessNet ist eine gemeinsame Initiative von DECHEMA und VDI-GVC. Mehr unter www.processnet.org
Weitere Informationen:

http://www.dechema.de/studien – kostenfreier Download des Statuspapiers

Quelle: idw

(nach oben)


TU Berlin: Der Autoreifen in der Umwelt

Stefanie Terp Stabsstelle Presse, Öffentlichkeitsarbeit und Alumni
Technische Universität Berlin

Forschungsprojekt entwickelt Maßnahmen, die Wege des Reifenabriebs in die Gewässer zu verfolgen und zu reduzieren – 1,6 Millionen Euro Fördersumme

Plastik in der Umwelt ist ein weltweites Problem. Zum Teil stammt es von Autoreifen, von deren Abrieb auf den Straßen. Doch wie kommt es ins Gewässer, wie verbreitet es sich weltweit, welche Auswirkungen sind zu erwarten? Das neue Verbundprojekt „Reifenabrieb in der Umwelt – RAU“, koordiniert vom Fachgebiet Siedlungswasserwirtschaft der TU Berlin unter Leitung von Prof. Dr.-Ing. Matthias Barjenbruch, will nun umfassend die Wege und die Mengen des Eintrags untersuchen sowie Vermeidungsstrategien entwickeln. Das Projekt wird vom Bundesministerium für Bildung und Forschung im Rahmen des Förderschwerpunktes „Plastik in der Umwelt – Quellen, Senken, Lösungsansätze“ des Rahmenprogramms FONA³ für drei Jahre mit rund 1,6 Millionen Euro gefördert.

Viele Fragen rund um den Reifenabrieb in Gewässern sind noch ungeklärt. Der größte Teil davon wird bei Regen mit dem Straßenoberflächenwasser in die Oberflächengewässer eingetragen, meist unbehandelt. „Wir werden den Weg der Reifenpartikel, die während der Nutzung des Reifens in die Umwelt gelangen, umfassend beschreiben und darüber hinaus den gesamten Lebenszyklus zu verfolgen“, erklärt Daniel Venghaus, wissenschaftlicher Mitarbeiter im Fachgebiet. „Es gilt die Eintragspfade von Reifenmaterial in die Flüsse und Seen zu identifizieren, zu bilanzieren und Maßnahmen der Reduzierung aufzuzeigen.“

Untersuchungen auf kontrollierten Teststrecken
Die Untersuchungen werden im Labor, auf kontrollierten Teststrecken und auf verschiedenen Straßentypen durchgeführt. Um den Zusammenhang von Verschleiß und Fahrdynamik zu erfassen, werten die Forscher vorhandene Daten aus, führen Fahrversuche auf der Teststrecke von Continental (Contidrom) durch und simulieren am Fachgebiet Systemdynamik und Reibungsphysik der TU Berlin, geleitet von Prof. Dr. Valentin Popov, unterschiedliche Belastungsszenarien. Zentral ist auch die Entwicklung von Körben zur Probennahme, mit denen die Reifenpartikel aus dem Straßenwasserabfluss aufgefangen und anschließend analysiert werden können. Außerdem werden ausgewählte Maßnahmen verifiziert, die den Eintrag von Reifenmaterial in die Oberflächengewässer reduzieren könnten. „Aus den verschiedenen Einflussfaktoren entwickeln wir schließlich eine Bewertungsmatrix, die es Planern, Kommunen und Straßenreinigungsbetrieben ermöglicht, für unterschiedliche Standorte geeignete Maßnahmen abzuleiten“, so Venghaus. Es ist außerdem vorgesehen, die Ergebnisse in nationale und europäische Normen und Regelwerke einfließen zu lassen.

Beteiligt sind neben der TU Berlin, Fachgebiete Siedlungswasserwirtschaft sowie Systemdynamik und Reibungsphysik, die WESSLING GmbH, die Gebr. Kufferath AG (GKD), die Continental Reifen Deutschland GmbH, die Ingenieurgesellschaft Prof. Dr. Sieker mbH (IPS), die Berliner Stadtreinigung (BSR), der ADAC e.V., die Berliner Wasserbetriebe (BWB), die Volkswagen AG und die Ori GmbH.

Weitere Informationen erteilen Ihnen gern:
Prof. Dr.-Ing. Matthias Barjenbruch
TU Berlin, Fakultät VI Planen Bauen Umwelt
Fachgebiet Siedlungswasserwirtschaft
Tel.: 030/314-72247
E-Mail: matthias.barjenbruch@tu-berlin.de

Daniel Venghaus M.Sc.
TU Berlin, Fakultät VI Planen Bauen Umwelt
Fachgebiet Siedlungswasserwirtschaft
Tel.: 030/314-72249
E-Mail: daniel.venghaus@tu-berlin.de

Quelle: idw

(nach oben)


Wie Fettleibigkeit Brustkrebs aggressiver macht

Sonja Opitz, Abteilung Kommunikation
Helmholtz Zentrum München – Deutsches Forschungszentrum für Gesundheit und Umwelt

Botenstoffe, die bei Fettleibigkeit ins Blut abgegeben werden, beeinflussen den Stoffwechsel von Brustkrebszellen, die dadurch aggressiver werden. So berichten es Wissenschaftlerinnen und Wissenschaftler des Helmholtz Zentrums München, der Technischen Universität München (TUM) und des Universitätsklinikums Heidelberg in ‚Cell Metabolism‘. Das Team konnte den Mechanismus bereits durch einen Antikörper unterbrechen.

Die Zahl der Menschen mit hohem Übergewicht steigt weltweit rasant. Erst kürzlich berichtete das Deutsche Krebsforschungszentrum, dass sich nach WHO Schätzungen die Zahl von Kindern und Jugendlichen mit Adipositas zwischen 1975 und 2016 verzehnfacht habe https://www.dkfz.de/de/presse/pressemitteilungen/2017/dkfz-pm-17-50c2-Adipositas…. Starkes Übergewicht kann zu verschiedenen gesundheitlichen Beeinträchtigungen führen. Neben Herz-Kreislauf-Erkrankungen begünstigt Adipositas beispielsweise auch die Entstehung von Krebs und die Bildung von Metastasen.

In der aktuellen Studie beschreiben die Forscherinnen und Forscher einen bislang unbekannten Mechanismus, der dafür sorgt, dass sich Brustkrebs stärker ausbreitet. „Dabei spielt das Enzym ACC1* eine entscheidende Rolle“, erklärt Dr. Mauricio Berriel Diaz, stellvertretender Direktor des Instituts für Diabetes und Krebs (IDC) am Helmholtz Zentrum München. Er leitete die Studie gemeinsam mit Prof. Dr. Stephan Herzig, Direktor des IDC und Professor für Molekulare Stoffwechselkontrolle an der TUM sowie am Universitätsklinikum Heidelberg. „ACC1 ist eine zentrale Komponente der Fettsäuresynthese“, führt Berriel Diaz aus. „Allerdings kann es durch die Botenstoffe Leptin und TGF-β an seiner Arbeit gehindert werden.“ Diese Botenstoffe treten im Blut von schwer übergewichtigen Menschen besonders häufig auf.

Fettsäurevorstufen begünstigen Metastasen
Die Wissenschaftler konnten zeigen, dass diese Hemmung von ACC1 dazu führt, dass sich Acetyl-CoA, eine Fettsäurevorstufe, in den Zellen ansammelt und bestimmte Genschalter (Transkriptionsfaktoren) aktiviert. Dadurch werden vor allem Gene abgelesen, die bei Krebszellen zu einer verstärkten Metastasierungsfähigkeit führen.

„Anhand von menschlichem Gewebe aus Brustkrebsmetastasen konnten wir zeigen, dass ACC1 dort signifikant weniger aktiv war“ erklärt Marcos Rios Garcia, Erstautor der Studie. Blockierten die Wissenschaftler den bisher unbekannten Signalweg mit einem Antikörper (gegen den Leptin-Rezeptor), so führte das im Versuchsmodell zu einer deutlich reduzierten Ausbreitung und Metastasierung von Brustkrebstumoren. Ob es sich dabei um eine mögliche Therapieoption handelt, müsse sich zeigen, so die Forscher.

Künftig wollen sie die Datenlage zum neu gefundenen Mechanismus in weiteren Studien erhärten. Darüber hinaus denken sie über mögliche Stellschrauben nach, durch die man therapeutisch eingreifen könnte. „Die Blockade der genannten Signalwege beziehungsweise das Abschalten der Metastasierungsgene könnten einen therapeutischen Angriffspunkt darstellen“, blickt Studienleiter Herzig voraus. „Im Rahmen einer sogenannten neo-adjuvanten** Therapie könnte man schon vor der operativen Entfernung des Tumors das Risiko von Metastasen beziehungsweise des Wiederauftretens von Tumoren reduzieren.“

Weitere Informationen
* ACC1 steht für Acetyl-CoA-Carboxylase 1, eine zentrale Komponente der Fettsäuresynthese. ACC1 vermittelt die chemische Addition von Kohlenstoffdioxid an Acetyl-CoA, wobei Malonyl-CoA entsteht. Diese Reaktion ist der erste und geschwindigkeitsbestimmende Schritt bei der Fettsäuresynthese aller Lebewesen.

** Der Begriff neo-adjuvante Therapie bezeichnet eine Therapie, die vor der geplanten operativen Behandlung einer Tumorerkrankung verabreicht wird. Sie kann aus einer Chemotherapie, Bestrahlung oder Hormontherapie bestehen. Ziel ist es, eine verbesserte Ausgangssituation für die Operation zu erreichen, eine Erkrankung überhaupt erst operabel zu machen oder auf verstümmelnde Eingriffe verzichten zu können. (Quelle: http://flexikon.doccheck.com/de/Neoadjuvante_Therapie)

Hintergrund:
Die Metastasierung von Brustkrebs bzw. das Wiederauftreten (Rezidiv) nach operativer Entfernung des Primärtumors stellt die Hauptursache für krebsbedingte Todesfälle bei Frauen dar. Darüber hinaus zeigen epidemiologische Studien, dass Adipositas (Fettleibigkeit) mit aggressiven Formen von Brustkrebs assoziiert ist, und insbesondere bei postmenopausalen Frauen mit einem höheren Risiko einhergeht, an metastasierendem Brustkrebs zu erkranken.

Die Rolle der Fettsäuresynthese für den veränderten Energiestoffwechsel von Krebszellen ist nur unvollständig verstanden. Verschiedene Studien legen nahe, dass eine Aktivierung der Fettsäuresynthese die Krebszellen unabhängig macht von der Versorgung mit extrazellulären Fetten. Die vorliegende Studie deckt einen neuen, Fettsäuresynthese-unabhängigen Mechanismus auf, bei dem die Inaktivierung von ACC1 zur Akkumulation von Acetyl-CoA führt, da es nicht weiter zur Fettsäuresynthese sondern zur Modifikation (Acetylierung) von regulatorischen Proteinen (Transkriptionsfaktoren, u.a. SMAD2) verwendet wird. Die so modifizierten regulatorischen Proteine wiederum schalten Gene an, die zu erhöhter Aggressivität der Krebszellen beitragen.

Stephan Herzig ist federführend beim Joint Heidelberg-IDC Translational Diabetes Program, was er gemeinsam mit Kollegen am Universitätsklinikum in Heidelberg betreibt, von wo aus er 2015 nach München gewechselt und seither Direktor des Instituts für Diabetes und Krebs (IDC) ist. Mauricio Berriel Diaz ist stellvertretender Direktor des IDC und Leiter der Abteilung Stoffwechselstörungen und Krebs. Darüber hinaus sind beide Wissenschaftler Mitglied im Deutschen Zentrum für Diabetesforschung (DZD).

Original-Publikation:
Rios Garcia, M. et al. (2017): Acetyl-CoA Carboxylase 1-Dependent Protein Acetylation Controls Breast Cancer Metastasis and Recurrence. Cell Metabolism, DOI: 10.1016/j.cmet.2017.09.018

Verwandte Artikel:
Folgeschäden bei Diabetes: entzündete Leber hebt Cholesterinspiegel
https://www.helmholtz-muenchen.de/presse-medien/pressemitteilungen/alle-pressemi…
Neue Stellschraube im Zuckerstoffwechsel entdeckt
https://www.helmholtz-muenchen.de/presse-medien/pressemitteilungen/alle-pressemi…
Wie Fasten gegen Fettleber hilft
https://www.helmholtz-muenchen.de/presse-medien/pressemitteilungen/alle-pressemi…
Umfangreiche Fördermaßnahmen für Forschung zu Chromatin, Nebenniere und Krebstherapie
https://www.helmholtz-muenchen.de/presse-medien/pressemitteilungen/alle-pressemi…

Das Helmholtz Zentrum München verfolgt als Deutsches Forschungszentrum für Gesundheit und Umwelt das Ziel, personalisierte Medizin für die Diagnose, Therapie und Prävention weit verbreiteter Volkskrankheiten wie Diabetes mellitus und Lungenerkrankungen zu entwickeln. Dafür untersucht es das Zusammenwirken von Genetik, Umweltfaktoren und Lebensstil. Der Hauptsitz des Zentrums liegt in Neuherberg im Norden Münchens. Das Helmholtz Zentrum München beschäftigt rund 2.300 Mitarbeiter und ist Mitglied der Helmholtz-Gemeinschaft, der 18 naturwissenschaftlich-technische und medizinisch-biologische Forschungszentren mit rund 37.000 Beschäftigten angehören. http://www.helmholtz-muenchen.de

Das Institut für Diabetes und Krebs (IDC) ist Mitglied des Helmholtz Diabetes Zentrums (HDC) am Helmholtz Zentrum München und Partner im gemeinsamen Heidelberg-IDC Translationalen Diabetes-Programm. Das Institut für Diabetes und Krebs ist eng in das Deutsche Zentrum für Diabetesforschung (DZD) und in den Sonderforschungsbereich (SFB) „Reaktive Metaboliten und Diabetische Komplikationen“ an der Medizinischen Universität Heidelberg integriert. Das IDC erforscht die molekularen Grundlagen schwerer metabolischer Erkrankungen, wie dem Metabolischen Syndrom und Typ 2 Diabetes, und deren Bedeutung für die Tumorentstehung und -progression. http://www.helmholtz-muenchen.de/idc

Die Technische Universität München (TUM) ist mit mehr als 500 Professorinnen und Professoren, rund 10.000 Mitarbeiterinnen und Mitarbeitern und 40.000 Studierenden eine der forschungsstärksten Technischen Universitäten Europas. Ihre Schwerpunkte sind die Ingenieurwissenschaften, Naturwissenschaften, Lebenswissenschaften und Medizin, verknüpft mit Wirtschafts- und Sozialwissenschaften. Die TUM handelt als unternehmerische Universität, die Talente fördert und Mehrwert für die Gesellschaft schafft. Dabei profitiert sie von starken Partnern in Wissenschaft und Wirtschaft. Weltweit ist sie mit einem Campus in Singapur sowie Verbindungsbüros in Brüssel, Kairo, Mumbai, Peking, San Francisco und São Paulo vertreten. An der TUM haben Nobelpreisträger und Erfinder wie Rudolf Diesel, Carl von Linde und Rudolf Mößbauer geforscht. 2006 und 2012 wurde sie als Exzellenzuniversität ausgezeichnet. In internationalen Rankings gehört sie regelmäßig zu den besten Universitäten Deutschlands. http://www.tum.de

Das Universitätsklinikum Heidelberg ist eines der bedeutendsten medizinischen Zentren in Deutschland; die Medizinische Fakultät der Universität Heidelberg zählt zu den international renommierten biomedizinischen Forschungseinrichtungen in Europa. Gemeinsames Ziel ist die Entwicklung innovativer Diagnostik und Therapien sowie ihre rasche Umsetzung für den Patienten. Klinikum und Fakultät beschäftigen rund 13.000 Mitarbeiterinnen und Mitarbeiter und engagieren sich in Ausbildung und Qualifizierung. In mehr als 50 klinischen Fachabteilungen mit fast 2.000 Betten werden jährlich rund 65.000 Patienten vollstationär, 56.000 mal Patienten teilstationär und mehr als 1.000.000 mal Patienten ambulant behandelt. Gemeinsam mit dem Deutschen Krebsforschungszentrum und der Deutschen Krebshilfe hat das Universitätsklinikum Heidelberg das Nationale Centrum für Tumorerkrankungen (NCT) Heidelberg etabliert, das führende onkologische Spitzenzentrum in Deutschland. Das Heidelberger Curriculum Medicinale (HeiCuMed) steht an der Spitze der medizinischen Ausbildungsgänge in Deutschland. Derzeit studieren ca. 3.700 angehende Ärztinnen und Ärzte in Heidelberg. http://www.klinikum-heidelberg.de

Ansprechpartner für die Medien:
Abteilung Kommunikation, Helmholtz Zentrum München – Deutsches Forschungszentrum für Gesundheit und Umwelt (GmbH), Ingolstädter Landstr. 1, 85764 Neuherberg – Tel. +49 89 3187 2238 – Fax: +49 89 3187 3324 – E-Mail: presse@helmholtz-muenchen.de

Fachlicher Ansprechpartner:
Prof. Dr. Stephan Herzig, Helmholtz Zentrum München – Deutsches Forschungszentrum für Gesundheit und Umwelt (GmbH), Institut für Diabetes und Krebs, Ingolstädter Landstr. 1, 85764 Neuherberg – Tel. +49 89 3187 1045, E-Mail: stephan.herzig@helmholtz-muenchen.de

Quelle: idw

(nach oben)


Biomasse ohne Abfall: Hochwertige Erzeugnisse und Anwendungen aus Bioraffinerie-Nebenprodukten

Fraunhofer IFAM, Dipl.-Biol. Martina Ohle Kommunikation
Fraunhofer-Gesellschaft

Weltweit ist ein anhaltender Trend zur Nutzung nachwachsender Rohstoffe festzustellen. In einer Bioraffinerie wird dazu die Biomasse in einzelne Wertstoffe getrennt und zu verschiedenen Produkten wie Zucker, Chemikalien, Werkstoffen oder auch als Energielieferant in Form von Kraftstoffen und Biogas verarbeitet. Bei der Verwertung der Bio-Rohstoffquellen fallen aber in erheblichen Mengen auch unterschiedlichste Abfallprodukte an. Um diesen Prozess effizienter zu gestalten, untersuchten zwölf Partner aus Wissenschaft und Industrie Verfahren zur möglichst vollständigen Verwendung aller Rohstoffkomponenten.

Die Ergebnisse des durch die Europäische Union geförderten Projekts »Valorizing Biorefinergy By-Products – kurz ValorPlus« und weitere neue Technologien wurden jetzt auf einem Workshop am Bremer Fraunhofer-Institut für Fertigungstechnik und Angewandte Materialforschung vorgestellt.

Die Kette für die Verwertung von Biorohstoffen ist noch nicht geschlossen. Für eine nachhaltige und wirtschaftliche Nutzung des gesamten Spektrums sind neue chemische und biologische Verarbeitungsprozesse zu erforschen und weitere Anwenderindustrien zu identifizieren. Damit die Nebenprodukte für andere hochwertige Erzeugnisse nutzbar werden, müssen fortschrittliche Bioraffinerien ganzheitlich konzipiert sein, sodass neue Technologien zur Freisetzung, Verfeinerung und Transformation von Biomasse integriert werden können, um mehrfache Massen- und Produktströme zu produzieren.

Aktuelle Fragestellungen zur ganzheitlichen Verwertung der Biomasse
Während der vierjährigen Laufzeit des ValorPlus-Projekts konzentrierten sich die Entwicklungspartner auf fünf Schlüsselbereiche zur weiteren Verarbeitung von Bioraffinerieprodukten: Entwicklung einer neuartigen Methode für den kontrollierten Abbau, einer Freisetzung und Fraktionierung der Lignocellulose; Erforschung neuer Enzyme und Mikroorganismen zur kontrollierten Hydrolyse und Umwandlung von Hemicellulose zu hochwertigen Oligomeren und Bulk-Fermentationsproduktströmen; Einsatz kombinierter chemo-enzymatischer und chemo-mikrobieller Verfahren zur kontrollierten Depolymerisation und Umwandlung von standardisierten Lignin-Rohstoffen in Wertproduktströme; Entwicklung neuer Mikroorganismen, geeignet für die Fermentation von Roh-Glycerin zu höherwertigen Produktströmen und schließlich der Demonstration des technologischen und wirtschaftlichen Potenzials.

Bei allen Fragestellungen wurde ein ganzheitliches Konzept verfolgt und überprüft, inwieweit die einzelnen Technologien bestehende Bioraffinerien ergänzen oder in diese integriert werden können. Ein weiterer Schwerpunkt innerhalb des Projekts war es aufzuzeigen, wie die bisher recht losen Enden zwischen Biorohstoffherstellung und der industriellen Verwendung systematischer genutzt werden können.

Vorstellung der Ergebnisse und weiterer Technologien auf dem Workshop »Valorization of bio based raw materials«
Auf dem Workshop wurden die Fortschritte im Bereich der Biotechnologie, von Bioprodukten und verschiedener Anwenderszenarien vorgestellt. Wichtige Inhalte waren die Kombination der Entwicklung neuer biotechnologischer Verfahren mit dem Focus auf potenzielle Anwendungen der Rohstoffe und entsprechende Absatzmärkte.

Vielversprechende Ergebnisse zeigten die Referenten aus den Bereichen der Anwendungen biobasierter Rohstoffe als Bindemittel in Beschichtungen und Farben sowie Lack- und Klebstoffformulierungen auf. Daneben gab es Einblicke in neue chemo-mikrobielle Umwandlungen von Ligninextrakten, neuartiger Enzymkombinationen zur Fermentierung, der Herstellung von Fasern aus Biopolymeren oder die Entwicklung von formaldehydfreiem Melaminharz und Anwendung mit biobasierten Materialien.

Die tiefere Vernetzung von der Rohstoffherstellung, der dazu notwendigen optimierten Technologien bis hin zum fertigen industriellen Produkt konnte durch die vielfachen themenübergreifenden Diskussionen der Teilnehmer während des Workshops vorangetrieben werden. Trotz der vielfältigen positiven Entwicklungen und den umfangreich dargestellten Beispielen der bereits kommerziellen Nutzung von Biorohstoffen, ist aber abzusehen, dass noch fundierte Forschungs- und Entwicklungsarbeit zu leisten ist, bis biobasierte Rohstoffe fossile Quellen umfassend ersetzten können.

Projektpartner »Valorization of bio based raw materials«:
ASA Spezialenzyme GmbH
Asociacion Espanola de Bioempresas (ASEBIO)
Biobasic Environnement
Brunel University
CARTIF
Fraunhofer-Institut für Fertigungstechnik und Angewandte Materialforschung IFAM
Technische Universität München (TUM)
Politecnico di Milano (POLIMI)
Wissenschaftliche Gerätebau Dr. Ing. Herbert Knauer GmbH
Beta Renowable Group, S.A.
ITENE
Vogelbusch Biocommodities GmbH

Projektkoordinator:
Fraunhofer-Institut für Fertigungstechnik und Angewandte Materialforschung IFAM
Dr. Oliver Schorsch
oliver.schorsch@ifam.fraunhofer.de
Telefon +49 421 2246-626

Dr. Klaus Rischka
klaus.rischka@ifam.fraunhofer.de
Telefon +49 421 2246-482

Weitere Informationen:
http://www.ifam.fraunhofer.de
http://www.valorplus.eu

Quelle: idw

(nach oben)


Sicheres Bezahlen ohne Datenspur

Monika Landgraf Strategische Entwicklung und Kommunikation – Gesamtkommunikation
Karlsruher Institut für Technologie

Ob als Smartphone-App für die Fahrkarte im Nahverkehr, als Geldwertkarten für das Schwimmbad oder in Form einer Bonuskarte für den Supermarkt: Für viele gehören „elektronische Geldbörsen“ längst zum Alltag. Doch vielen Kunden ist nicht klar, dass sie mit der Nutzung dieser Angebote weitestgehend auf ihre Privatsphäre verzichten. Am Karlsruher Institut für Technologie (KIT) entsteht ein sicheres und anonymes System, das gleichzeitig Alltagstauglichkeit verspricht. Es wird nun auf der Konferenz ACM CCS 2017 in den USA vorgestellt.

Es ist vor allem das fehlende Problembewusstsein, das den Informatiker Andy Rupp von der Arbeitsgruppe „Kryptographie und Sicherheit“ am KIT immer wieder erstaunt: „Den wenigsten Nutzern ist nach meiner Beobachtung klar, dass sie mit der Teilnahme an solchen Bonus- oder Zahlungssystemen detailgetreu offenlegen wie und was sie konsumieren oder welche Wege sie zurücklegen.“ Denn um eine Manipulation der Konten durch unehrliche Nutzer vorzubeugen, werden die Kundendaten und Kontostände bei Zahlungs- und Bonussystemen heute standardmäßig mit Hilfe einer zentralen Datenbank verwaltet. Der Kunde wird bei jedem Zahlungsvorgang identifiziert und die Details seiner Transaktion der zentralen Datenbank mitgeteilt. Dieser wiederholte Identifikationsvorgang führt zu einer Datenspur, die durch den Anbieter oder durch Dritte missbraucht werden könnte.

Mit dem scheinbaren Widerspruch von Privatsphäre und Sicherheit wollte sich der Kryptographie-Experte nicht abfinden und hat nun gemeinsam mit Gunnar Hartung und Matthias Nagel vom KIT sowie Max Hoffmann von der Ruhr-Universität Bochum die Grundlagen einer „elektronischen Geldbörse“ vorgestellt, die anonym funktioniert, gleichzeitig aber Missbrauch verhindert. Das von ihnen entwickelte Protokoll „black-box accumulation plus“ (BBA+) verlagert dabei alle notwendigen Kontoinformationen auf die verwendete Karte oder das Smartphone und garantiert mithilfe kryptographischer Methoden deren Vertraulichkeit. Gleichzeitig bietet BBA+ aber auch Sicherheitsgarantien für den Betreiber des Bonus- oder Zahlungssystems: Das Protokoll garantiert den korrekten Kontostand und ist mathematisch zudem so konstruiert, dass die Identität eines Nutzers aufgedeckt wird, sobald versucht wird, mit einem manipulierten Konto zu bezahlen.

Das neue Protokoll ist die Weiterentwicklung eines anonymen Bonuskartensystems, das ebenfalls von der KIT-Forschungsgruppe entwickelt wurde. Allerdings war es dabei notwendig beim Sammeln und Einlösen von Punkten eine Internetverbindung zu gewährleisten, um einen Missbrauch zu verhindern. „Unser neues Protokoll garantiert nun die Privatsphäre und Sicherheit der Kunden auch im Offline-Betrieb“, sagt Andy Rupp. „Das ist wichtig für die Alltagstauglichkeit eines Zahlungssystems. Denken Sie etwa an ein U-Bahn Drehkreuz oder an Mautbrücken, dort besteht vielleicht gar keine oder nur eine zu langsame Internetverbindung.“ Alltagstauglich wird das neue Protokoll auch durch dessen eindrucksvolle Effizienz: Bei ersten Testläufen konnten die Forscher Zahlungen in etwa einer Sekunde abwickeln.

Mehr zur Forschung
http://crypto.iti.kit.edu/index.php?id=cyphycrypt
https://homepage.ruhr-uni-bochum.de/andy.rupp/papers/bbap_ccs17.pdf

Mehr zur Konferenz
https://www.sigsac.org/ccs/CCS2017/agenda.html

Details zum KIT-Zentrum Information · Systeme · Technologien (in englischer Sprache): http://www.kcist.kit.edu

Weiterer Kontakt: Martin Heidelberger, Redakteur, Tel.: +49 721 608 21169, E-Mail: martin.heidelberger@kit.edu

Als „Die Forschungsuniversität in der Helmholtz-Gemeinschaft“ schafft und vermittelt das KIT Wissen für Gesellschaft und Umwelt. Ziel ist es, zu den globalen Herausforderungen maßgebliche Beiträge in den Feldern Energie, Mobilität und Information zu leisten. Dazu arbeiten rund 9.300 Mitarbeiterinnen und Mitarbeiter auf einer breiten disziplinären Basis in Natur-, Ingenieurs-, Wirtschafts- sowie Geistes- und Sozialwissenschaften zusammen. Seine 26.000 Studierenden bereitet das KIT durch ein forschungsorientiertes universitäres Studium auf verantwortungsvolle Aufgaben in Gesellschaft, Wirtschaft und Wissenschaft vor. Die Innovationstätigkeit am KIT schlägt die Brücke zwischen Erkenntnis und Anwendung zum gesellschaftlichen Nutzen, wirtschaftlichen Wohlstand und Erhalt unserer natürlichen Lebensgrundlagen.

Das KIT ist seit 2010 als familiengerechte Hochschule zertifiziert.

Diese Presseinformation ist im Internet abrufbar unter: http://www.sek.kit.edu/presse.php

Weitere Informationen:
http://crypto.iti.kit.edu/index.php?id=cyphycrypt
https://homepage.ruhr-uni-bochum.de/andy.rupp/papers/bbap_ccs17.pdf
https://www.sigsac.org/ccs/CCS2017/agenda.html
http://www.kcist.kit.edu
http://www.sek.kit.edu/presse.php

Anhang
Sicheres Bezahlen ohne Datenspur
https://idw-online.de/de/news682939

Quelle: idw

(nach oben)


Fataler Insektenstaubsauger: Uferbeleuchtung

Katharina Bunk Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)

Künstliche Beleuchtung entlang von Flüssen und Seen verändert Uferökologie

Wie die Motten zum Licht – ein ökologischer Effekt, nicht nur eine Redensart. WissenschaftlerInnen vom Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB) haben nachgewiesen, dass künstliche Beleuchtung in der Nähe von Gewässern die Zahl und Gemeinschaften von Insekten und Spinnen stark beeinflusst. Wie ein Staubsauger entziehen sie den benachbarten Ökosystemen fliegende Insekten. Profiteure sind räuberische Insekten und Spinnen, für die die vielen desorientierten Wasserinsekten ein Festmahl sind.

Weltweit nimmt die Erhellung der Nacht durch künstliches Licht um jährlich etwa sechs Prozent zu. „Wir Menschen machen die Nacht zum Tag und sind uns gar nicht bewusst, dass dies eine der größten globalen Umweltveränderungen darstellt. Die meisten Lebewesen haben sich an einen Hell-Dunkel-Rhythmus angepasst. Es liegt also nahe, dass eine künstlich erhellte Nacht einen maßgeblichen Einfluss auf das Vorkommen und Verhalten von Tieren hat. Insbesondere entlang von Gewässern, die die Heimat von vielen lichtempfindlichen Insekten sind“, erklärt Alessandro Manfrin, Wissenschaftler am IGB, die Ausgangslage.

Die Zahl der Fluginsekten ist in Teilen Deutschlands um mehr als 75 Prozent zurückgegangen („Insektensterben in Deutschland bestätigt“ in PLoSOne). Ein Grund hierfür könnte die Lichtverschmutzung sein. In jeder Sommernacht werden schätzungsweise eine Milliarde Insekten von Deutschlands Lampen irritiert – für viele endet das tödlich.

Dieses Phänomen haben Alessandro Manfrin und sein Team im Naturpark Westhavelland fernab von stark beleuchteten Städten genauer untersucht. Auf gewässernahen Versuchsfeldern haben sie die Auswirkungen von Straßenleuchten auf das Vorkommen, die Häufigkeit und das Verhalten von Insekten und Spinnen gemessen. Ein Versuchsfeld blieb als Referenzfeld dunkel, während auf dem anderen Versuchsfeld jeden Abend die Straßenlaternen leuchteten.

Auf dem erleuchteten Versuchsfeld verließen deutlich mehr Insekten das Wasser, als auf dem unbeleuchteten Versuchsfeld. Und auch das Verhalten der Spinnen und Insekten an Land veränderte sich. An den hellen Lampen sammelten sich die fliegenden Insekten, insbesondere Wasserinsekten, sodass hier mehr Spinnen und Raubinsekten auf Jagd gingen. Die sonst nachtaktiven Tiere verlängerten ihre Insektenjagd bis in den Tag hinein – vermutlich um von der Vielzahl erschöpfter oder toter Insekten im Bereich der Lampen zu profitieren. Die Anzahl räuberischer nachtaktiver Laufkäfer war auf dem beleuchteten Versuchsfeld hingegen stark reduziert.

„Die Studie zeigt, wie künstliches Licht Lebensräume für Insekten und deren Räuber über Ökosystemgrenzen hinweg – Wasser und Land – verändern kann. Wenn wir neue Beleuchtungskonzepte entwickeln, müssen wir den möglichen Einfluss auf benachbarte Ökosysteme immer im Hinterkopf behalten. Das gilt für Stadt- und Landschaftsplaner, Beleuchtungsingenieure und in die Planungen einbezogene Ökologen gleichermaßen“, bilanziert Franz Hölker, Leiter der Arbeitsgruppe Lichtverschmutzung und Ökophysiologie am IGB, die Ergebnisse der Studie.

Studie:
Manfrin, A., Singer, G., Larsen, S., Weiss, N., van Grunsven, R. H., Weiss, N. S., Wohlfahrt, S., Monaghan, M.T. & Hölker, F. (2017). Artificial light at night affects organism flux across ecosystem boundaries and drives community structure in the recipient ecosystem. Frontiers in Environmental Science, 5, 61. doi: 10.3389/fenvs.2017.00061

Lesen Sie die Studie im Open Access Journal Frontiers in Environmental Science > https://www.frontiersin.org/articles/10.3389/fenvs.2017.00061/full

Die Publikation entstand im Rahmen des Erasmus-Mundus-Stipendienprogramms SMART, das von der Exekutivagentur Bildung, Audiovisuelles und Kultur der Europäischen Kommission gefördert wurde. Finanzielle Förderung erfolgte außerdem durch das Bundesministerium für Bildung und Forschung (BMBF-033L038A) und dem Bundesamt für Naturschutz (FKZ 3514821700).

Ansprechpartner:
Dr. Alessandro Manfrin, Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB), Abt. Biologie und Ökologie der Fische, alessandro.manfrin@hotmail.com, +49 (0)201 183 3113

PD Dr. Franz Hölker, Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB), Abt. Ökohydrologie, hoelker@igb-berlin.de

Über das Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB):
Das IGB ist das bundesweit größte Forschungszentrum für Binnengewässer. Es verbindet Grundlagen- und Vorsorgeforschung, bildet den wissenschaftlichen Nachwuchs aus und berät Politik und Gesellschaft in Fragen des nachhaltigen Gewässermanagements. Forschungsschwerpunkte sind u.a. die Langzeitentwicklung von Seen, Flüssen und Feuchtgebieten angesichts sich rasch ändernder Umweltbedingungen, die Renaturierung von Ökosystemen, die Biodiversität aquatischer Lebensräume sowie Technologien für eine ressourcenschonende Aquakultur. Die Arbeiten erfolgen in enger Kooperation mit den Universitäten und Forschungsinstitutionen der Region Berlin/Brandenburg und weltweit. Das IGB gehört zum Forschungsverbund Berlin e. V., einem Zusammenschluss von acht natur-, lebens- und umweltwissenschaftlichen Instituten in Berlin. Die vielfach ausgezeichneten Einrichtungen sind Mitglieder der Leibniz-Gemeinschaft. http://www.igb-berlin.de/

Weitere Informationen:
https://freshwaterblog.net/2017/10/25/artificial-lighting-along-banks-of-rivers-… > Vorstellung der Studie auf dem Freshwater Blog – der Blog für Süßwasserbiodiversität
http://www.igb-berlin.de/news/fataler-insektenstaubsauger-uferbeleuchtung > Hier finden Sie weitere Bilder

Quelle: idw

(nach oben)


Wildpilze in Teilen Bayerns nach wie vor belastet

Jan Lauer PB2/ Pressearbeit
Bundesamt für Strahlenschutz

Mehr als drei Jahrzehnte nach dem Reaktorunfall von Tschernobyl sind einige Wildpilzarten in Teilen Bayerns nach wie vor stark mit radioaktivem Cäsium-137 belastet. Das belegen Messergebnisse, die das Bundesamt für Strahlenschutz (BfS) veröffentlicht hat. Mit Hilfe des jährlich aktualisierten Berichts können sich Pilzsammler über die Belastung mit Cäsium-137 informieren. Die zusätzliche Strahlenbelastung durch Wildpilze ist vergleichsweise gering, sofern sie in üblichen Mengen verzehrt werden. Für Wildpilze, die im Lebensmittelhandel angeboten werden, gilt ein Grenzwert.

Betroffen sind unter anderem die Pilzarten Braunscheibige und Orangefalbe Schnecklinge, Gemeine Erdritterlinge, Semmelstoppelpilze, Rotbraune Semmelstoppelpilze, Maronenröhrlinge und Braune Scheidenstreiflinge, die noch bis zu einige 1.000 Becquerel (Bq) Cäsium-137 pro Kilogramm aufweisen können. Deutschlandweit sind die höchsten Radiocäsiumgehalte in Wildpilzen in den außergewöhnlich hoch kontaminierten kleineren Gebieten im Bayerischen Wald, im Donaumoos südwestlich von Ingolstadt und in der Region Mittenwald zu erwarten. In anderen Regionen, wie etwa dem Norden Deutschlands, hatte sich nach dem Reaktorunfall von Tschernobyl im April 1986 deutlich weniger Cäsium-137 abgelagert. Dort sind die Werte entsprechend niedriger.

Keine Gesundheitsgefahr bei Verzehr üblicher Mengen
Eine einzige Mahlzeit mit höher belasteten Wildpilzen kann mehr Cäsium-137 enthalten als Verbraucher mit Lebensmitteln aus landwirtschaftlicher Produktion in einem ganzen Jahr zu sich nehmen. Sofern man selbst gesammelte Pilze in üblichen Mengen verzehrt, muss man aber nicht mit negativen gesundheitlichen Folgen wegen des Radioaktivitätsgehalts rechnen. Die Deutsche Gesellschaft für Ernährung rät jedoch auch aus anderen Gründen, den Verzehr von Wildpilzen auf 250 Gramm pro Woche zu beschränken, denn sie können giftige Schwermetalle wie Blei, Quecksilber und Cadmium anreichern.

Grenzwert im deutschen Lebensmittelhandel schützt vor Gesundheitsgefahren
Wildpilze, die den Grenzwert für Radiocäsium in Höhe von 600 Becquerel pro Kilogramm überschreiten, dürfen in Deutschland nicht in den Handel gebracht werden. Dieser Grenzwert wurde nach dem Reaktorunfall von Tschernobyl eingeführt. Seine Einhaltung wird von der amtlichen Lebensmittelüberwachung stichprobenartig kontrolliert. Das Bundesamt für Strahlenschutz geht davon aus, dass die Belastung in allen Speisepilzarten langsam weiter zurückgehen wird. Allerdings schwankt der Radiocäsiumgehalt einer Pilzart von Standort zu Standort sehr stark: Selbst innerhalb kleiner Waldgebiete sind die Unterschiede in der Regel wesentlich größer als der mittlere Rückgang von Jahr zu Jahr.

Den Bericht „Radioaktive Kontamination von Speisepilzen“ finden Sie hier: http://www.bfs.de/pilzbericht

Weitere Informationen zur Strahlenbelastung bei Pilzen und Wildbret hier: http://www.bfs.de/DE/themen/ion/umwelt/lebensmittel/pilze-wildbret/pilze-wildbre…

Quelle: idw

(nach oben)


Studie: Nachahmung des Gegenübers führt zu höherer Beliebtheit beim Kennenlernen

Susann Huster Stabsstelle Universitätskommunikation/Medienredaktion
Universität Leipzig

Die spontane Nachahmung des verbalen und nonverbalen Verhaltens des Gegenübers – soziales Mimikry – ist eine unbewusste Strategie, um Beziehungen zu anderen Menschen aufzubauen. Wir ahmen beispielsweise den Akzent, die Mimik, die Gestik oder die Haltung der anderen Person nach. Inwieweit unterscheiden sich Menschen in ihrem Nachahmungsverhalten und welchen Einfluss hat das auf die Sympathie beim Kennenlernen? Das haben Forscher der Universität Leipzig und der Freien Universität Berlin in einer gemeinsamen Studie untersucht und ihre Ergebnisse jetzt in der renommierten Fachzeitschrift „Psychological Science“ veröffentlicht.

Maike Salazar Kämpf, Dr. Sascha Krause, Prof. Dr. Steffen Nestler und Prof. Dr. Stefan Schmukle von der Universität Leipzig sowie Helén Liebermann und Prof. Dr. Rudolf Kerschreiter von der Freien Universität Berlin analysierten das Nachahmungsverhalten beim Kennenlernen. Hierzu wurden 139 Personen, die sich zuvor nicht kannten, in gleichgeschlechtlichen Gruppen von vier bis sechs Teilnehmern ins Labor eingeladen. Jeder führte dann nacheinander mit jeweils allen anderen Gruppenmitgliedern fünfminütige Kennenlerngespräche. Davor und danach gab jede Person an, wie sympathisch er oder sie die andere Person fand. Auf Basis der Videoaufzeichnungen dieser Gespräche wurden dann Unterschiede im Nachahmungsverhalten und dessen Effekte auf die gegenseitigen Sympathie-Einschätzungen analysiert.

Die Ergebnisse zeigen, dass sich Personen in ihrer Tendenz, ihre Interaktionspartner nachzuahmen, unterscheiden. So gibt es Menschen, die kaum Nachahmverhalten zeigen, während andere Menschen besonders häufig das Gegenüber nachahmen. Sie werden in der Forschungsliteratur als soziale Chamäleons bezeichnet. „In unserer Studie können wir zeigen, dass dieses Nachahmungsverhalten zu einer höheren Beliebtheit dieser sozialen Chamäleons führte“, erläutert Liebermann. Hingegen fanden sich kaum Hinweise dafür, dass Personen sich darin unterscheiden, generell Mimikry bei anderen auszulösen. Vielmehr zeigte die Studie, dass Mimikry vor allem von der einzigartigen Beziehung zwischen zwei Personen abhängt. Ist einem der erste Eindruck des Gegenübers sympathisch, so steigt die Wahrscheinlichkeit, dass wir diese spezifische Person nachahmen. Diese Nachahmung oder Mimikry gibt der imitierten Person das Gefühl, gemocht zu werden, und führt dazu, dass die nachahmende Person als sympathischer wahrgenommen wird. „Die Ergebnisse weisen demnach auf einen Bindungsmechanismus durch Mimikry hin. Durch Mimikry teilen wir unbewusst mit, dass wir jemanden mögen und können damit unsere eigene Beliebtheit steigern“, erklärt Salazar Kämpf. Sie beleuchtet nun in der Abteilung Klinische Psychologie der Universität Leipzig die Effekte von Mimikry auf die Wirksamkeit von Psychotherapien.

Originaltitel der Veröffentlichung:
„Disentangling the sources of mimicry: Social relations analyses of the mimicry-liking link. Psychological Science“. doi: 10.1177/0956797617727121

Weitere Informationen:
Maike Salazar Kämpf
Universität Leipzig
Telefon: +49 341 97 39567
E-Mail: maike.salazarkaempf@uni-leipzig.de

Helén Liebermann
Freie Universität Berlin
Telefon: +49 30 83854983
E-Mail: h.liebermann@fu-berlin.de

Weitere Informationen:
http://journals.sagepub.com/doi/abs/10.1177/0956797617727121

Quelle: idw

(nach oben)


Klimaschutz durch Ablasshandel?

Dr. Harald Wilkoszewski Informations- und Kommunikationsreferat
Wissenschaftszentrum Berlin für Sozialforschung gGmbH

Moralvorstellungen der Verursacher widersprechen Umweltpolitik

Der Emissionshandel ist umstritten, obwohl er aus ökonomischer Sicht ein geeignetes Instrument ist, um das Klima zu schützen. Die Skepsis am Handel mit CO2-Zertifikaten lässt sich damit erklären, dass er dem Verantwortungsgefühl von Verbrauchern widerspricht. Das zeigt eine neue Studie von Forschern des Wissenschaftszentrums Berlin für Sozialforschung (WZB) und des Mercator Research Institute on Global Commons and Climate Change (MCC), die jetzt im Fachmagazin Journal of Public Economics erschienen ist. In einem Experiment entschieden sich die meisten Teilnehmer dafür, eine von ihnen verursachte Verschmutzung selbst zu beseitigen, statt dies einem Teampartner zu überlassen – selbst wenn das für beide deutlich gewinnbringender gewesen wäre.

Für ihr Experiment teilten die Wissenschaftler eine Gruppe von 60 Studierenden der Technischen Universität Berlin in Zweier-Teams auf. Bei einem Geschicklichkeitsspiel musste die erste Person versuchen, Kichererbsen in eine Schale zu werfen. Danach hatte der Proband die Wahl: Er konnte den von ihm verursachten Müll – die zu Boden gefallenen Erbsen – selbst auflesen oder diese Aufgabe dem Versuchspartner überlassen. Letzteres versprach dem Team eine doppelt so hohe Entlohnung. Tatsächlich entschieden sich aber 60 Prozent der Kichererbsen-Werfer dafür, selbst aufzuräumen und verzichteten damit auf den höheren Gewinn. Diese Teilnehmer stimmten in einer anschließenden Befragung auch dem Satz zu: „Individuelle Verantwortung spielt beim Kampf gegen den Klimawandel eine besonders wichtige Rolle.“

Um den tatsächlichen Einfluss individueller Verantwortung zu prüfen, untersuchten die Forscher eine Kontrollgruppe. Während alle anderen Faktoren identisch waren, lagen in dieser Anordnung die Kichererbsen bereits zu Beginn des Experiments auf dem Boden, es gab also keinen Verursacher. Hier entschieden sich nur 30 Prozent der Teilnehmer dafür, selbst aufzuräumen.

Die Autoren empfehlen, bei der Wahl von Politikinstrumenten moralische Vorstellungen stärker zu berücksichtigen. So kann die Studie wichtige Hinweise für das Design klimapolitischer Instrumente liefern, etwa für eine Reform des Europäischen Emissionshandels (EU ETS). Derzeit können sich Unternehmen mit dem Erwerb von Zertifikaten aus der Verpflichtung zur CO2-Minderung freikaufen, statt ihr Verhalten nachhaltig auf Emissionsminderung auszurichten. Dies wird oft als moralisch verwerflich kritisiert. „Unter Umständen könnte eine CO2-Steuer leichter vermittelbar sein als der Emissionshandel“, schlussfolgert Jan Steckel vom MCC.

„Offenbar übertragen Menschen ihre individuell erlernten Moralvorstellungen auch auf größere politische Zusammenhänge wie den Klimawandel“, erklärt WZB-Forscherin Dorothea Kübler. Allerdings warnen die Forscher davor, Moral und Ökonomie gegeneinander auszuspielen. „Die Lehre aus diesem Experiment kann sicher nicht sein, dass wir unsere Moralvorstellungen über Bord werfen, weil sie wirtschaftlich nicht effizient sind“, sagt Jan Steckel.

Die Verhaltensökonomie, die psychologische Ansätze zur Erklärung menschlichen Verhaltens nutzt, gewinnt zunehmend an Bedeutung: Erst kürzlich wurde Richard H. Thaler mit dem Wirtschaftsnobelpreis für seine Arbeiten auf dem Gebiet der Verhaltensökonomie gewürdigt.

Jakob, Michael; Kübler, Dorothea; Steckel, Jan Christoph; van Veldhuizen, Roel: Clean up your own mess: An experimental study of moral responsibility and efficiency. Journal of Public Economics, Volume 155, November 2017, Pages 138-146.

Pressekontakt
Claudia Roth
WZB-Pressestelle
Tel.: 030 254 91 510
claudia.roth@wzb.eu

Prof. Dr. Dorothea Kübler
Direktorin Abteilung „Verhalten auf Märkten“
Tel.: 030 25491 441
dorothea.kuebler@wzb.eu

more information:
http://www.sciencedirect.com/science/article/pii/S0047272717301536?via=ihub
Experimental Study

Quelle: idw

(nach oben)


Influenza – vor allem ältere Menschen stark betroffen

Susanne Glasmacher Presse- und Öffentlichkeitsarbeit
Robert Koch-Institut

Gemeinsame Pressemitteilung des Robert Koch-Instituts, der Bundeszentrale für gesundheitliche Aufklärung und des Paul-Ehrlich-Instituts

Die Grippesaison 2016/2017 war eine schwere Grippewelle und hat vor allem ältere Menschen stark getroffen. Das zeigt der neue Influenza-Saisonbericht, den die Arbeitsgemeinschaft Influenza am Robert Koch-Institut (RKI) jetzt veröffentlicht hat. „Leider sind gerade bei den Senioren die Impfquoten mit rund 35 Prozent besonders niedrig“, sagt Prof. Dr. Lothar H. Wieler, Präsident des RKI. Auch wenn die Wirksamkeit der Grippeimpfung nicht optimal ist, können aufgrund der Häufigkeit der Influenza viele Erkrankungsfälle und schwere Verläufe verhindert werden. „Trotz der schwankenden Impfeffektivität ist die Impfung die wichtigste Maßnahme zum Schutz vor einer Erkrankung“, unterstreicht Wieler. Um das Risiko einer Influenza-Infektion zu verringern werden zusätzlich zur Impfung regelmäßiges und gründliches Händewaschen mit Seife sowie Abstandhalten zu erkrankten Personen empfohlen.

Prof. Dr. Klaus Cichutek, Präsident des Paul-Ehrlich-Instituts (PEI), erläutert das Angebot unterschiedlicher Impfstoffe. „Neben den Impfstoffen zur intramuskulären Injektion in den Oberarm gibt es in dieser Saison auch einen Impfstoff, der auch unter die Haut, also subkutan, injiziert werden kann. Zusätzlich gibt es einen Nasenspray-Impfstoff für Kinder und Jugendliche ab einem Lebensalter von zwei bis einschließlich 17 Jahren und einen Impfstoff für Personen über 65 Jahren mit Wirkverstärker.“ Drei tetravalente Influenza-Impfstoffe stehen in dieser Saison zur Verfügung, die gegen alle kursierenden Hauptstämme des Influenzavirus schützen können.

Die Ständige Impfkommission empfiehlt die Grippeimpfung insbesondere Menschen mit einem erhöhten Risiko für schwere Krankheitsverläufe. Dies sind vor allem Personen über 60 Jahre, chronisch Erkrankte und Schwangere. Die Impfung kann mit einem tri- oder tetravalenten Influenza-Impfstoff erfolgen (drei bzw. vier Komponenten). Auch medizinisches und pflegerisches Personal sollte sich aufgrund seiner beruflichen Exposition impfen lassen. Neben dem Eigenschutz steht hier insbesondere auch der Schutz der behandelten Patienten oder betreuten Personen im Vordergrund. Die Impfquoten sind jedoch auch beim Medizinpersonal nach wie vor zu niedrig. Eine in zwei Universitätskliniken durchgeführte Pilotstudie des Robert Koch-Instituts ergab, dass nur knapp 40 Prozent der Klinikmitarbeiter geimpft waren, 56 Prozent bei den Ärzten, 34 Prozent des Pflegepersonals und 27 Prozent bei therapeutischen Berufen.

Dr. Heidrun Thaiss, Leiterin der Bundeszentrale für gesundheitliche Aufklärung (BZgA), betont: „Die wichtigsten Ansprechpersonen bei der Impfaufklärung sind nach unseren Studiendaten die behandelnden Ärztinnen und Ärzte sowie das medizinische Personal. Diese Berufsgruppen sollten mit gutem Beispiel vorangehen, sich selbst auch gegen Grippe impfen lassen und diese Information weitergeben.“ Auch in diesem Jahr hat die BZgA Medienpakete mit Aufklärungsmaterialien zur Grippeimpfung an wichtige Multiplikatoren wie niedergelassene Ärztinnen und Ärzte, an Fachpersonal von Kliniken, Alten- und Pflegeheimen, Apotheken sowie den Öffentlichen Gesundheitsdienst verschickt. Die darin enthaltenen Broschüren sowie weitere Informationen zur Grippeimpfung stehen auf www.impfen-info.de/grippe zum Download oder zur kostenlosen Bestellung zur Verfügung. Seit 2006 führen die BZgA und das RKI die gemeinsame Aufklärungskampagne „Wir kommen der Grippe zuvor“ zur Information über die Influenza-Impfung durch.

Das Paul-Ehrlich-Institut, das als Bundesinstitut für Impfstoffe und biomedizinische Arzneimittel die Qualität aller Impfstoff-Chargen prüft, bevor diese auf den Markt gebracht werden, hat bereits rund 17 Millionen Impfstoffdosen freigegeben. Einen hühnereiweißfreien Impfstoff gibt es in dieser Saison nicht. „Dies braucht Menschen mit einer Hühnereiweißallergie jedoch nicht zu beunruhigen“, erläutert Cichutek. Eine Untersuchung des PEI ergab, dass eine Vielzahl von publizierten klinischen Studienergebnissen inzwischen darauf hinweist, dass auch bei Personen mit einer Allergie gegen Hühnereiweiß schwerwiegende allergische Reaktionen auf eine Influenzaimpfung selten sind bzw. nicht häufiger auftreten als bei Personen ohne Hühnereiweißallergie. Bei bekannter Hühnereiweißallergie sollte jedoch in jedem Fall der impfende Arzt informiert werden.

Der optimale Impfzeitraum ist Oktober und November. Eine Übersicht der Influenza-Impfstoffe mit den Angaben zu der zugelassenen Altersgruppe findet sich unter http://www.pei.de/influenza-impfstoffe. Für die Fachöffentlichkeit bietet das RKI auf der Seite http://www.rki.de/influenza-impfung unter anderem ausführliche Antworten auf häufig gestellte Fragen zur Influenza-Impfung an.

In einer Grippesaison, in der der Influenza A(H3N2)-Subtyp dominiert, sind besonders ältere und hochbetagte Menschen von schweren Krankheitsverläufen betroffen. Die Daten des Nationalen Referenzzentrums für Influenza im Saisonbericht zeigen, dass in der Saison 2016/2017 mehr als 90 Prozent der untersuchten Influenzaviren zu diesem H3N2-Subtyp gehörten. Unter den Krankenhaus-Patienten mit schwerer akuter respiratorischer Erkrankung war die Betroffenheit der Altersgruppe ab 60 Jahren in der Saison 2016/17 höher als in der schweren Grippewelle 2014/15 und deutlich höher als in der moderateren Saison 2015/16. Die Zahl der influenzaassoziierten Arztbesuche war mit geschätzten sechs Millionen niedriger als in 2014/2015. Die im Saisonbericht für Berlin gezeigten Daten für die geschätzte, der Influenza zugeschriebene Übersterblichkeit lag mit 920 deutlich über der Saison 2014/2015 (600), bundesweite Daten liegen noch nicht vor.

Weitere Informationen
http://www.impfen-info.de/grippe
http://www.pei.de/influenza-impfstoffe
http://www.rki.de/influenza

Herausgeber
Robert Koch-Institut (RKI)
Nordufer 20
13353 Berlin
www.rki.de

Paul-Ehrlich-Institut (PEI)
Paul-Ehrlich-Str. 51-59
63225 Langen
www.pei.de

Bundeszentrale für gesundheitliche Aufklärung (BZgA)
Maarweg 149-161
50825 Köln
www.bzga.de

Pressestellen
Susanne Glasmacher (RKI)
Tel.: 030-18754-2286
E-Mail: presse@rki.de

Dr. Susanne Stöcker (PEI)
Tel.: 06103-77-1030
E-Mail: presse@pei.de

Dr. Marita Völker-Albert (BZgA)
Tel.: 0221-8992-280
E-Mail: marita.voelker-albert@bzga.de

Quelle: idw

(nach oben)


Tätowierungen: Farbpigmente wandern auch als Nanopartikel im Körper

Dr. Suzan Fiack Presse- und Öffentlichkeitsarbeit
Bundesinstitut für Risikobewertung (BfR)

BfR-Untersuchungen zeigen Migration und langfristige Ablagerung in Lymphknoten

Dass Tätowierungen durch mangelnde Hygiene oder Verwendung bestimmter Pigmente mitunter auch unerwünschte gesundheitliche Effekte hervorrufen können, ist bereits bekannt. Erstmals haben nun Wissenschaftlerinnen und Wissenschaftler des Bundesinstituts für Risikobewertung (BfR) in einem internationalen Kooperationsprojekt nachgewiesen, dass sich Farbpigmente in Nanopartikelgröße in Lymphknoten dauerhaft anreichern können. „Die Erkenntnis, dass Partikel in Nanogröße aus der Tattoofarbe abwandern können, zieht weiteren Forschungsbedarf nach sich“, erläutert Professor Dr. Dr. Andreas Hensel, Präsident des BfR. „Nanopartikel können sich im Körper des Menschen ganz anders verhalten, als wir es bisher bei Mikropartikeln beobachtet haben. Angesichts der großen Verbreitung und hohen Beliebtheit von Tattoos halten wir es für erforderlich, im Sinne des Verbraucherschutzes weiter zu untersuchen, wie sich die Partikel im Körper der Tätowierten verhalten.“

Die Studie wurde in der Zeitschrift Scientific Reports der Nature Publishing Group veröffentlicht (https://www.nature.com/articles/s41598-017-11721-z).

Im Rahmen gemeinsamer Untersuchungen von Tätowierfarben, die Kontaminanten wie Nickel, Chrom, Mangan oder Kobalt enthalten können, wurde auch der in den Farben am zweithäufigsten eingesetzte Inhaltsstoff Titandioxid (TiO2) untersucht. Titandioxid dient als weißes Pigment dazu, verschiedene Farbtöne der Tätowierung zu erzeugen. Es kommt auch in Lebensmittelzusatzstoffen, Sonnenschutzmitteln oder Malerfarbe zum Einsatz. Bei den Untersuchungen wurde mit Hilfe der sogenannten Röntgenfluoreszenzanalyse am Europäischen Synchrotron in Grenoble (ESRF) analysiert, an welchen Stellen sich die Pigmente im Gewebe anreichern.

Bisher war nur durch die optische Färbung der Lymphknoten bei Tätowierten bekannt, dass sich die Pigmente dort ansammeln können, da diese häufig die gleiche Farbe aufwiesen wie die Tätowierung. Neu hingegen ist die Untersuchung der Pigmente in Bezug auf ihre chemische Zusammensetzung und Größe. Die Wissenschaftlerinnen und Wissenschaftler gehen davon aus, dass sich Pigmente in Nanogröße im Körper anders verhalten und verteilen als in Mikrogröße.

Insgesamt berichten die Wissenschaftlerinnen und Wissenschaftler von Hinweisen sowohl für die Wanderung von Partikeln in Nanogröße als auch für die Ablagerung von toxischen Stoffen im Körper. Im weiteren Verlauf der Untersuchungen wird das Forschungsteam weitere Proben von Patienten mit Abwehrreaktionen aufgrund von Tätowierungen untersuchen, um die Zusammenhänge zwischen den chemisch-strukturellen Eigenschaften der Pigmente und den beobachteten adversen Effekten zu erforschen.

Über das BfR
Das Bundesinstitut für Risikobewertung (BfR) ist eine wissenschaftlich unabhängige Einrichtung im Geschäftsbereich des Bundesministeriums für Ernährung und Landwirtschaft (BMEL). Es berät die Bundesregierung und die Bundesländer zu Fragen der Lebensmittel-, Chemikalien- und Produktsicherheit. Das BfR betreibt eigene Forschung zu Themen, die in engem Zusammenhang mit seinen Bewertungsaufgaben stehen.

In diesem Jahr feiert das BfR sein 15-jähriges Bestehen. Aus diesem Anlass hat das BfR eine Jubiläumsbroschüre herausgegeben, die unter http://www.bfr.bund.de/de/publikation/broschueren-660.html kostenlos heruntergeladen oder bestellt werden kann.

Quelle: idw

(nach oben)


Wasserforschung: Treibhausgase aus der Kläranlage

Meike Drießen Dezernat Hochschulkommunikation
Ruhr-Universität Bochum

Bei der Abwasserreinigung in Kläranlagen entsteht Lachgas, das fast 300-mal klimaschädlicher ist als CO2. Um Kläranlagen optimal steuern zu können, muss man die entstehende Gasmenge zunächst messen. Dazu hat Pascal Kosse, Doktorand im NRW-Fortschrittskolleg Future Water am Lehrstuhl für Siedlungswasserwirtschaft und Umwelttechnik der Ruhr-Universität Bochum (RUB), eine Methode entwickelt. Rubin, das Wissenschaftsmagazin der RUB, berichtet.

Lachgas, wissenschaftlich N2O, wird von Bakterien als Nebenprodukt produziert, die für ihren Stoffwechsel Sauerstoff brauchen. Sauerstoff muss man dem Klärbecken daher ausreichend zuführen. Da dies allerdings Energie in Form von Strom verbraucht, bei dessen Erzeugung ebenfalls Treibhausgase als indirekte CO2 Emissionen entstehen, ist die optimale Steuerung einer Kläranlage eine Rechenaufgabe. Diese Aufgabe lässt sich mit einer Simulation des Klärprozesses lösen, in der man sämtliche Stellschrauben drehen und die jeweils entstehenden Mengen Klimagase vergleichen kann.

Salz treibt Gas aus dem Wasser
Um eine solche Simulation kalibrieren zu können, muss man zunächst genau wissen, wie viel Lachgas in einem Klärbecken unter den jeweiligen Betriebsbedingungen entsteht. Die bisher genutzten Messmethoden sind nicht nur sehr teuer, sie liefern auch nur Ergebnisse für das in der Umgebungsluft befindliche Treibhausgas. Ein Teil der Gase ist jedoch im Wasser gelöst. Pascal Kosse entwickelte in seiner Dissertation, die Prof. Dr. Marc Wichern vom Lehrstuhl Siedlungswasserwirtschaft und Umwelttechnik zusammen mit Prof. Dr. Torsten Schmidt vom Lehrstuhl Instrumentelle Analytische Chemie der Universität Duisburg-Essen betreut, eine neue Methode. Sie basiert darauf, dass Salze die chemische Löslichkeit von Treibhausgasen im Wasser senken. Das im Wasser gelöste Gas muss nach der Zugabe von Salz das Wasser verlassen. Dabei kann man es auffangen und seine Menge bestimmen.

Pascal Kosse experimentierte mit neun Salz-Kandidaten, die verschiedene Bedingungen erfüllen mussten: Sie mussten zum Beispiel ungiftig sein, durften keine chemischen Nebenreaktionen auslösen, die zur Bildung von N2O führen, mussten ausreichend gut löslich sein und durften die Temperatur des Wassers oder das Volumen des Gases nicht beeinflussen. Zum Sieger der Versuche konnte er schließlich Natriumbromid küren, das nahezu 100 Prozent des gelösten Lachgases aus dem Wasser treibt.

Beitrag in Rubin
Weitere Informationen finden Sie in einem ausführlichen Beitrag (http://news.rub.de/wissenschaft/2017-10-24-wasserforschung-treibhausgase-aus-der…) im Wissenschaftsmagazin Rubin der Ruhr-Universität Bochum. Texte auf der Webseite und Bilder aus dem Downloadbereich dürfen unter Angabe des Copyrights für redaktionelle Zwecke frei verwendet werden.

Universitätsallianz Ruhr
Seit 2007 arbeiten die drei Ruhrgebietsuniversitäten unter dem Dach der UA Ruhr strategisch eng zusammen. Durch Bündelung der Kräfte werden die Leistungen der Partneruniversitäten systematisch ausgebaut. Unter dem Motto „gemeinsam besser“ gibt es inzwischen über 100 Kooperationen in Forschung, Lehre und Verwaltung. Mit mehr als 120.000 Studierenden und nahezu 1.300 Professorinnen und Professoren gehört die UA Ruhr zu den größten und leistungsstärksten Wissenschaftsstandorten Deutschlands.

Weitere Informationen:
http://news.rub.de/wissenschaft/2017-10-24-wasserforschung-treibhausgase-aus-der…
– ausführlicher Beitrag mit Bilderdownload

Quelle: idw

(nach oben)


Bier macht glücklich

Dr. Susanne Langer Kommunikation und Presse
Friedrich-Alexander-Universität Erlangen-Nürnberg

Wiesn-Besucher wussten es schon immer, nun ist es wissenschaftlich belegt: Bier kann glücklich machen. Wissenschaftler der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU) haben 13.000 Lebensmittelinhaltsstoffe daraufhin untersucht, ob sie das Belohnungszentrum im Gehirn aktivieren und somit für ein zufriedenes Gefühl beim Konsumenten sorgen. Der Gewinner? Hordenin, ein Inhaltsstoff von Gerstenmalz und Bier.

Es gibt Lebensmittel, die machen glücklich. Nun, vielleicht nicht glücklich, aber zufrieden. Und deswegen hört man gar nicht mehr auf sie zu essen – auch wenn man eigentlich schon satt ist. Dieses Phänomen wird in der Fachsprache hedonische Nahrungsaufnahme genannt. Das gute Gefühl wird durch den Neurotransmitter Dopamin ausgelöst: Verlockende Lebensmittel aktivieren Gehirnareale des Belohnungszentrums, in denen der Dopamin-D2-Rezeptor zu finden ist. Wissenschaftler vom Henriette Schmidt-Burkhardt Lehrstuhl für Lebensmittelchemie der FAU haben sich nun gefragt: Gibt es spezielle Inhaltsstoffe in Lebensmitteln, die – ähnlich wie das körpereigene Dopamin – den Dopamin-D2-Rezeptor aktivieren?

Um das herauszufinden, bedienten sich die Forscher zusammen mit Kollegen des Computer-Chemie-Centrums der FAU der Methode des virtuellen Screenings, ein aus der Pharmaforschung bekannter Ansatz. Dabei werden die Lebensmittelinhaltsstoffe zunächst nicht im Labor, sondern am Computer untersucht. Der Vorteil: Im Gegensatz zu klassischen Screening-Verfahren, bei denen nur eine kleine Auswahl an Lebensmittelextrakten im Labor getestet werden kann, können die Forscher alle möglichen existierenden Inhaltsstoffe untersuchen.

13.000 Moleküle, 17 Treffer
Die Wissenschaftler legten dafür zunächst eine virtuelle Datenbank aus 13.000 in Lebensmitteln vorkommenden Molekülen an. Aus dieser Datenbank galt es, diejenigen Moleküle zu finden, die auf den Dopamin-D2-Rezeptor passen – quasi die passenden Schlüssel für das Schlüsselloch. Der Computer berechnete, welche Moleküle wahrscheinlich mit dem Dopamin-D2-Rezeptor interagieren können: entweder über synthetische Substanzen, von denen bereits bekannt ist, dass sie mit dem Rezeptor interagieren – wie Arzneimittel zur Behandlung von Parkinson oder Schizophrenie – oder über die dreidimensionale Struktur des Rezeptors. Am Ende blieben von den 13.000 Optionen noch 17 übrig, die dann im Labor in Kooperation mit dem Lehrstuhl für Pharmazeutische Chemie der FAU getestet wurden.

Überraschungsfund Bier
Die vielversprechendsten Testergebnisse zeigte dabei die Substanz Hordenin, ein Inhaltsstoff von Gerstenmalz und Bier. „Es ist schon überraschend, dass – ohne dass wir speziell in der Gruppe der Genussmittel gesucht haben – ein Inhaltsstoff von Bier zur Aktivierung des Dopamin-D2-Rezeptors führt“, sagt Prof. Dr. Monika Pischetsrieder.

Genau wie Dopamin aktiviert Hordenin den Dopamin-D2-Rezeptor – mit einem wichtigen Unterschied: Er funktioniert über einen anderen Signalweg. Hordenin aktiviert den Rezeptor im Gegensatz zu Dopamin ausschließlich über sogenannte G-Proteine, was zu einem nachhaltigeren Effekt auf das Belohnungszentrum führen könnte. Ob die im Bier enthaltenen Mengen für eine spürbare Beeinflussung des Belohnungszentrums ausreichend sind, untersuchen die Forscher zurzeit. Insgesamt deuten die Ergebnisse aber darauf hin, dass Hordenin zum stimmungssteigernden Effekt von Bier beitragen könnte.

Ihre Ergebnisse haben die Wissenschaftler bei Scientific Reports publiziert: Sommer, Thomas; Hübner, Harald; El Kerdawy, Ahmed; Gmeiner, Peter; Pischetsrieder, Monika; Clark, Tim. Identification of the Beer Component Hordenine as Food-Derived Dopamine D2 Receptor Agonist by Virtual Screening a 3D Compound Database. Scientific Reports (2017), 7: 44201, DOI: 10.1038/srep44201

Weitere Informationen für die Medien:
Prof. Dr. Monika Pischetsrieder
Tel.: 09131/85-24102
monika.pischetsrieder@fau.de

Quelle: idw

(nach oben)


Erhöhung der Biogasproduktion

Sebastian Kaufhold Presse- und Öffentlichkeitsarbeit
Institut für Bioprozess- und Analysenmesstechnik e.V.

Erhöhung der Biogasproduktion durch gleichzeitige Behandlung des Substrates mit Hochspannungspulsen und Schockwellen

Für die wirtschaftliche Nutzung erneuerbarer Energien, speziell durch Biomethanerzeugung, ist eine optimale Prozessführung notwendig. Der Biogasprozess läuft in mehreren Stufen ab. Dabei ist die erste Stufe, die Hydrolyse, der geschwindigkeitsbestimmende Schritt. Entscheidend ist hier die Erhöhung der Bioverfügbarkeit von Nährstoffen. Neben dem Aufbrechen von Zellwänden der zu vergärenden Pflanzenteile geht es dabei auch um die Zerkleinerung von Konglomeraten und damit eine Vergrößerung der für die Rektion verfügbaren aktiven Oberfläche.
Weitere Schritte, speziell die für die Methanbildung entscheidende Methanogenese können durch die Optimierung der mikrobiellen Gemeinschaft beschleunigt bzw. stabilisiert werden.

Dem Projekt liegt die Hypothese zugrunde, dass eine kombinierte Behandlung mit Schockwellen und elektrischen Feldern einerseits in der Lage ist, Klumpen aufzubrechen und andererseits Zellwände zerstören kann was zu einer besseren Verfügbarkeit des Zytoplasmas der zu vergärenden Pflanzenteile oder Exkremente führt. Dabei werden die Parameter so eingestellt, dass eine negative Wirkung auf die mikrobielle Gemeinschaft, beispielsweise durch Abtötung von Bakterien oder Archaen, vermieden wird. Speziell bei der Behandlung des Rezirkulates wird angenommen, dass ultrakurze Hochspannungspulse eine positive Wirkung auf die mikrobielle Zusammensetzung haben, da Bakterien empfindlicher gegenüber elektrischen Feldern sind als die methanbildenden Archaen.
Für eine wirtschaftliche Prozessführung ist durch die zusätzliche Behandlung und den damit verbundenen Energieeintrag ein Gas-Mehrertrag bzw. eine Verringerung der Verweildauer um mindestens 20 % anzustreben.

Nach Auswertung der Versuchsergebnisse zeigte sich, dass innerhalb der normalen Verweildauer ein Gas-Mehrertrag von etwa 10 % erreicht wurde. Trotz Führung aller kritischen Parameter wie Substratzusammensetzung (Maisschrot + Rindergülle), Temperatur und Rühren ergab sich dabei eine erhebliche Streubreite.
Damit konnte entgegen der Hypothese eine stabile Verringerung der Verweildauer oder Erhöhung des Biogasertrages in einem gegebenen Zeitraum um wenigstens 20 % nicht erreicht bzw. mit den durchgeführten Versuchen nicht nachgewiesen werden konnte, was einer wirtschaftlichen Verwertung entgegensteht. Diese Aussage gilt jedoch nur für die Art der Behandlung (elektrische Felder + Schockwelle) und nur für das behandelte Substrat.
Ein wichtiges Ergebnis war die hier festgestellte Beeinflussung der mikrobiellen Gemeinschaft sowie die Verringerung der Viskosität des Ausgangsmaterials. Weiterhin ist zu vermerken, dass bei der elektrischen Behandlung fast nur die eingesetzte Energie, nicht aber Pulsformen und Pulsprotokolle eine Rolle spielt. Ein Optimum bei 10 kWh/m³ wurde gefunden, was in etwa den Literaturwerten unter ähnlichen Bedingungen entspricht.

Quelle: idw

(nach oben)


Was macht Menschen in unterschiedlichen Lebensphasen glücklich und zufrieden?

Jan Vestweber Pressestelle
Universität Witten/Herdecke

Und sind Glück und Zufriedenheit eigentlich dasselbe? Ein Leben lang? Online-Befragung zum Thema gestartet

Die Glücksforschung versteht Glück zumeist als statisches Konstrukt, um dann im Rahmen von Studien den Einfluss verschiedenster Lebensumstände auf dieses Konstrukt empirisch – d.h. durch Messung und Beobachtung – zu ermitteln. Prof. Dr. med. Tobias Esch, Professor für Integrative Gesundheitsversorgung und Gesundheitsförderung an der Universität Witten/Herdecke, untersucht diese Annahme in einem neuen Forschungsprojekt. Er untersucht gemeinsam mit seinem Team, inwieweit das, was wir als ein glückliches und zufriedenes Leben erachten, im Lebensverlauf Veränderungen unterworfen ist. „Wir wollen uns genauer ansehen, welche ganz persönlichen Motive und generischen Muster zu unterschiedlichen Zeitpunkten im Leben Glück zugrunde liegen“, so Tobias Esch. Eine deutschlandweite Online-Befragung soll Aufschluss geben.

Ein Schwerpunkt des Forschungsprojekts liegt auch auf der Frage, welche Auswirkungen Schicksalsschläge (z. B. Krankheiten oder unfallbedingte Behinderungen) im Lebensverlauf auf das empfundene Glück haben können. „Wir werden Interviews mit betroffenen Menschen führen und wollen von Ihnen über Glück und Zufriedenheit lernen“, erklärt Esch.

Ziel des Projekts ist es, neben Erkenntnissen für die Glücksforschung auch relevante Aspekte für die Gesundheits- und Sozialpolitik sowie die Gesundheitsforschung abzuleiten.

Die Arbeitsgruppe von Tobias Esch lädt alle Bürgerinnen und Bürgern über 18 Jahren herzlich zur Teilnahme an der anonymen Online-Befragung ein. Weitere Informationen zur Studie und den Link zur Befragung finden Sie auf www.glückundzufriedenheit.de. Auch auf Facebook finden Sie weitergehende Informationen: „Studie: Glück & Zufriedenheit im Lebensverlauf“. Das Ausfüllen benötigt nur wenige Minuten.

Projektleiter: Professor Dr. med. Tobias Esch
Kontakt: igvf@uni-wh.de oder 02302 926-843

Über uns:
Die Universität Witten/Herdecke (UW/H) nimmt seit ihrer Gründung 1982 eine Vorreiterrolle in der deutschen Bildungslandschaft ein: Als Modelluniversität mit rund 2.400 Studierenden in den Bereichen Gesundheit, Wirtschaft und Kultur steht die UW/H für eine Reform der klassischen Alma Mater. Wissensvermittlung geht an der UW/H immer Hand in Hand mit Werteorientierung und Persönlichkeitsentwicklung.

Witten wirkt. In Forschung, Lehre und Gesellschaft.
www.uni-wh.de / #UniWH / @UniWH

Quelle: idw

(nach oben)


DOG 2017: Bei ersten AMD-Anzeichen sofort den Augenarzt aufsuchen

Kerstin Ullrich Pressestelle
Deutsche Ophthalmologische Gesellschaft

Wenn sich im Bad die Fugen krümmen: Viele Menschen nehmen es hin, wenn im Alter die Sehkraft nachlässt und das Lesen schwerer fällt. Häufigste Ursache für eine schwere Sehbehinderung bei älteren Menschen in Industrienationen ist die altersabhängige Makuladegeneration (AMD). Hier haben sich die Behandlungsmöglichkeiten für die feuchte AMD-Form in den zurückliegenden Jahren deutlich verbessert. Die DOG Deutsche Ophthalmologische Gesellschaft rät älteren Menschen dringend, bei den ersten Zeichen der Erkrankung einen Augenarzt zu konsultieren. Auf der Vorab-Pressekonferenz anlässlich des DOG-Kongresses stellen Experten die neuen Behandlungsansätze vor.

Die altersabhängige Makuladegeneration (AMD), an der in Deutschland 5,8 Millionen Menschen leiden, entwickelt sich langsam über viele Jahre. „Ein erster Hinweis sind Schwierigkeiten beim Lesen oder beim Erkennen von Gesichtern und Details“, berichtet DOG-Präsident Professor Dr. med. Thomas Kohnen. „Die Patienten sehen beispielsweise ihre Armbanduhr, es fällt ihnen aber immer schwerer, die Uhrzeit zu erkennen.“ Typisch ist auch ein „Verzerrtsehen“. Beim Blick auf die Fliesen sind die Fugen sind nicht mehr parallel, sondern zur Mitte hin gebogen.

Diese Phänomene sind die Folge einer Funktionsstörung im sogenannten Gelben Fleck (lateinisch: Macula lutea) der Netzhaut. Das nur wenige Quadratmillimeter große Areal ist für das Detailsehen zuständig. Der Augenarzt kann die Erkrankung nach Erweiterung der Pupille mit einem Augenspiegel leicht erkennen.

„Im Frühstadium kommt es zu charakteristischen Ablagerungen, den sogenannten Drusen“, erläutert Privatdozentin Dr. med. Monika Fleckenstein von der Universitäts-Augenklinik Bonn. Die Sehkraft sei dann noch nicht stark eingeschränkt. Später können jedoch die Sinneszellen absterben. Dabei unterscheiden die Augenärzte zwei Verlaufsformen. Bei der „feuchten“ AMD tritt Flüssigkeit in die Netzhaut aus, und es bilden sich krankhafte Blutgefäße. Bei der häufigeren „trockenen“ AMD kommt es stellenweise zu einem Pigmentverlust, was der Netzhaut das Aussehen einer Landkarte verleiht. Die Augenärzte sprechen in diesem Fall von einer geographischen Atrophie.

Die feuchte AMD kann heute mit Medikamenten behandelt werden, die die Bildung der Blutgefäße unterdrücken. Die Behandlung erfolgt durch Injektion von Antikörpern, die einen Wachstumsfaktor für Blutgefäße (vascular endothelial growth factor, VEGF) blockieren „Die anti-VEGF-Therapie war ein Meilenstein in der Behandlung von Patienten mit feuchter AMD“, sagt DOG-Expertin Fleckenstein. Das Fortschreiten der Erkrankung kann in vielen Fällen gestoppt, ein weiterer Verlust der Sehstärke deutlich verzögert werden.

Die Injektionen müssen jedoch regelmäßig wiederholt werden, was die Patienten und die Angehörigen, die sie zum Termin begleiten müssen, häufig stark belastet. Anfangs erfolgten die Behandlungen in der Regel monatlich, in jedem Fall mussten die Patienten monatlich kontrolliert werden. Inzwischen wird die Behandlung flexibler an die Bedürfnisse der einzelnen Patienten angepasst. Die Augenärzte nennen dies „Treat-and-Extend“ oder „T&E“. „Ergebnisse großer Datenauswertungen vor allem aus Großbritannien und Australien legen nahe, dass mit T&E ebenso gute Ergebnisse erzielt werden wie mit den bisherigen Behandlungsschemata“, sagt Fleckenstein. „Für die Patienten fallen deutlich weniger Arzttermine an.“

Auch werden derzeit Medikamente getestet, die eine bessere Wirkung haben könnten. „Die neueren Wirkstoffe besitzen eine geringere Molekülgröße und dringen nach den Injektionen wahrscheinlich besser in die Netzhaut ein“, berichtet Fleckenstein. Die Expertin hält es für möglich, dass die Neuentwicklungen Brolucizumab und Abicipar pegol, die derzeit in großen klinischen Studien getestet werden, die Zahl der notwendigen Arzttermine weiter senken werden. „Einer Pressemitteilung der Firma Novartis zufolge sind unter der Therapie mit Brolucizumab bei der Hälfte der Patienten nur noch alle zwölf Wochen Injektionen notwendig“, so Fleckenstein.

Auch für die trockene AMD-Variante besteht Hoffnung auf zukünftige Behandlungsmöglichkeiten. „Ob bestimmte Wirkstoffe, die beispielsweise Entzündungsreaktionen hemmen oder das Absterben von Sinneszellen verhindern, das Fortschreiten der geographischen Atrophie bremsen können, wird derzeit in klinischen Studien untersucht“, berichtet Fleckenstein. Leider sei bei der Behandlung der trockenen AMD aber noch kein Durchbruch wie bei der feuchten Form erzielt worden. „Grundsätzlich gilt für die feuchte AMD, dass bei einer frühzeitigen Therapie die besten Ergebnisse erzielt werden“, betont Fleckenstein.

DOG: Forschung – Lehre – Krankenversorgung
Die DOG ist die medizinisch-wissenschaftliche Fachgesellschaft für Augenheilkunde in Deutschland. Sie vereint unter ihrem Dach mehr als 7200 Ärzte und Wissenschaftler, die augenheilkundlich forschen, lehren und behandeln. Wesentliches Anliegen der DOG ist es, die Forschung in der Augenheilkunde zu fördern: Sie unterstützt wissenschaftliche Projekte und Studien, veranstaltet Kongresse und gibt wissenschaftliche Fachzeitschriften heraus. Darüber hinaus setzt sich die DOG für den wissenschaftlichen Nachwuchs in der Augenheilkunde ein, indem sie zum Beispiel Stipendien vor allem für junge Forscher vergibt. Gegründet im Jahr 1857 in Heidelberg, ist die DOG die älteste medizinisch-wissenschaftliche Fachgesellschaft der Welt.

Weitere Informationen:
http://www.dog.org

Quelle: idw

(nach oben)


Optimiertes Umweltmonitoring für Gewässer und Talsperren durch Satellitendaten

Detlef Bremkens Dez. 3 KIT Kommunikation, Innovation, Transfer
Hochschule Bochum

Gewässermonitoring von Stoffeinträgen über Copernicus-Dienste

Klimawandel und Intensivierung der Landwirtschaft führen zunehmend zu erhöhten Nährstoffeinträgen in Fließgewässer und Talsperren. Hier setzt das mit insgesamt 1,25 Mio. Euro vom Bundesministerium für Verkehr und digitale Infrastruktur (BMVI) geförderte Forschungsprojekt „Wasserwirtschaftliche Copernicus-Dienste zur Bestimmung von Stoffeinträgen in Gewässer und Talsperren im Rahmen des Umweltmonitorings“ (WaCoDIS) an. Die Förderung erfolgt im Zuge des mFund-Förderprogramms, Projektkoordinator ist die Hochschule Bochum.

Im Rahmen des Forschungsvorhabens werden Satellitenfernerkundungssensoren des europäischen Copernicus-Programms sowie Daten des Deutschen Wetterdienstes (DWD) mit einem In situ-Sensornetzwerk zur Gewässerüberwachung kombiniert. Ziel ist die Effizienzsteigerung des Umweltmonitorings mittels innovativer, automatisierter Verfahren zur Sensordatenfusion und -analyse. Besonders im Fokus stehen hierbei die Wasserreinhaltung, der Gewässerschutz und die Sicherung des Zugangs zu sauberem Trinkwasser.

Durch eine interoperable Systemvernetzung von Satellitendaten, In situ-Messdaten des Wupperverbandes, bestehender webbasierter Informationssysteme und neuer Modellkomponenten wird eine aktuelle und präzise räumliche Verortung der Herkunft von Stoffausträgen, deren Quantifizierung sowie eine qualitativ optimierte Modellierung von Stoffeinträgen in Fließgewässer und Talsperren erreicht. Dies ermöglicht die Lokalisierung von Verursachern stofflicher Einträge und damit die zeitnahe Entwicklung, Umsetzung und Überwachung fallspezifischer Maßnahmen zum Gewässerschutz. Das Projekt unterstützt damit unmittelbar auch die Umsetzung der europäischen Wasserrahmenrichtlinie und der Hochwasserrisikomanagement-Richtlinie.

Erstmalig wird ferner das Potenzial einer kombinierten, automatisierten Analyse der Sentinel-1 und Sentinel-2 Datensätze genutzt, um neben Informationen zur Landbedeckung auch Aussagen über die intraannuelle Variabilität der Bodenfeuchte und des Nährstoffhaushalts (Nitrat- und Phosphorgehalt) flächenbezogen ableiten zu können. Zudem werden Datensätze des DWDs einbezogen, um Auswirkungen von Starkregenereignissen auf die Höhe der Stoffeinträge analysieren zu können.

Nach Projektabschluss steht ein innovatives, webbasiertes Monitoringwerkzeug zur Verfügung, welches an unterschiedlichen wasserwirtschaftlichen Handlungsfeldern zur Vorbereitung des operationellen Einsatzes im Testbetrieb umfassend validiert wurde. Damit stellt das Projektkonsortium Wasserbehörden, Wasserwirtschafts- und Abwasserverbände sowie Kommunen einen optimierten Werkzeugkasten aus Methoden, Anwendungen und Diensten für ein optimiertes Umweltmonitoring zur Verfügung.

Unter der Federführung der Hochschule Bochum bearbeitet ein interdisziplinäres Team von Wissenschaftlern und Fachexperten des Wupperverbandes, der EFTAS GmbH und der 52°North GmbH die Forschungsfragen und setzt die Entwicklungen um.

Kürzlich traf sich das Projektteam gemeinsam mit Vertretern des Projektträgers TÜV Rheinland Consulting GmbH zum Projektauftakt in Bochum.

Weitere Informationen:
https://www.bmvi.de/SharedDocs/DE/Artikel/DG/mfund-projekte/bestimmung-von-stoff… – BMVI-Präsentation des Projektes

Quelle: idw

(nach oben)


Neue Studie: Warum Tests gut sind für das nachhaltige Lernen

Carmen Voigt Pressestelle
Universität Erfurt

Von Eltern- und erst recht von Schülerseite wird häufig darüber geklagt, dass in der Schule zu viele Tests geschrieben werden. „Wann soll das alles eigentlich gelernt werden?“, fragen die besorgten Eltern (und auch viele Pädagogen) und sprechen von „Testeritis“. Sie gehen davon aus, dass Tests der Leistungsfeststellung und dem Feedback dienen, jedoch keinen Nutzen für das Lernen selbst haben. Kognitionspsychologen sehen das anders.

Seit einigen Jahren erforschen sie den sogenannten „Testungseffekt“. Eine Vielzahl von Experimenten zeigt deutlich, dass der Abruf von textbezogenem Wissen – etwa im Rahmen eines schriftlichen Tests – langfristig mit deutlich besseren Lernresultaten einhergeht als das wiederholte Lesen des Textes. Ein Problem vieler dieser Experimente ist jedoch, dass das wiederholte Lesen möglicherweise eine nur wenig effektive Lernstrategie ist, der zudem im Alltag keine allzu große Bedeutung zukommt. Für Kritiker der Testeffektforschung gilt es keinesfalls als erwiesen, dass Testen eine effektivere Lernstrategie ist als beispielsweise das Herausschreiben wichtiger Textinformationen.

Kognitionspsychologen der Universität Erfurt haben vor diesem Hintergrund Experimente durchgeführt, die das testbasierte Lernen mit dem „Notizenmachen“ vergleichen. Die Ergebnisse haben sie jetzt in der von der American Psychological Association herausgegebenen Fachzeitschrift Journal of Experimental Psychology: Applied veröffentlicht. In einem Experiment, an dem 273 Studierende teilnahmen, lasen zunächst alle Versuchspersonen einen kurzen Text über das Erscheinungsbild und die Lebensgewohnheiten des Honigdachses. Danach wurden ein Drittel der Probanden gebeten, den Text zwei weitere Male zu lesen (einfache Wiederholung). Eine zweite Gruppe sollte wichtige Informationen aus dem vorliegenden Text in eigenen Worten notieren, sich also Notizen machen. Die Teilnehmer der dritten Gruppe sollen die Inhalte, an die sie sich erinnern konnten, auf einem Blatt Papier niederschrieben, ohne dabei im Text nachschlagen zu können. Abschließend fand ein finaler Lerntest statt, in dem die Versuchspersonen den Textinhalt so vollständig wiedergeben sollten wie möglich. Diese Lernkontrolle fand entweder nach fünf Minuten, nach einer Woche oder nach zwei Wochen statt.

Die Ergebnisse zeigen, dass das kurzfristige Behalten der Textinhalte am meisten vom Notizenmachen profitierte, während sich nach zwei Wochen ein deutlicher Lernvorteil beim aktiven Abruf, also dem Testen, ergab. Erklärt werden kann dies zum einen durch die Annahme, dass Testen den Abruf der Information „trainiert“, zum anderen dadurch, dass in der Testbedingung zwar nur wenig Information – dafür jedoch tiefer (und folglich längerfristiger) – behalten wird als beim Notizenmachen. In diesem Sinne bleibt beim Lernen weniger Inhalte langfristig unter Umständen mehr übrig, als wenn viele Inhalte (oberflächlich) gelernt werden.

Aus Sicht der Autoren sind vor allem zwei Punkte hervorzuheben: Erstens, zu testen ist langfristig effektiver als Notizen zu machen (die Strategie, die die Studierenden im Allgemeinen für die effektivste halten). Zweitens hängt die Frage, welche Lernstrategie ausgewählt werden sollte, auch davon ab, wie lange das Wissen verfügbar bleiben soll bzw. wann der kritische Test – etwa eine Klausur – stattfindet.

Prof. Dr. Ralf Rummer, der Erstautor der Studie und Kognitionspsychologe an der Erziehungswissenschaftlichen Fakultät der Uni Erfurt, erläutert: „Testen erweist sich, zumindest wenn es um nachhaltiges Lernen geht, als effektiver als andere – ebenfalls effektive – Lernstrategien. Aus unserer Sicht sollte man sich diesen Effekt sowohl in der universitären und schulischen Lehre – etwa durch den Einbau von Tests in Lehrveranstaltungen – als auch beim heimischen Lernen zunutze machen. Letzteres könnte etwa durch die Beantwortung selbstgestellter Fragen oder das eigenständige Zusammenfassen zentraler Lerninhalte – und zwar ohne die Verwendung der Lernmaterialien – erfolgen. Bislang testen sich die meisten Lernenden leider nur dann, wenn sie Vokabeln lernen. Und dann auch nur, um Feedback über ihren Wissensstand zu erlangen, und nicht im Bewusstsein, ihr Wissen durch Testung zu konsolidieren.“

Referenz:
Rummer, R., Schweppe, J., Gerst, K., & Wagner, S. (2017). Is testing a more effective learning strategy than note-taking? Journal of Experimental Psychology: Applied, 23(3), 293-300.

Quelle: idw

(nach oben)


MHH-Studie: Wie gesund werden wir alt?

Stefan Zorn Presse- und Öffentlichkeitsarbeit
Medizinische Hochschule Hannover

Herzinfarkt, Schlaganfall und Lungenkrebs treten seltener und später im Laufe des Lebens auf, Diabetes mellitus Typ 2 und Multimorbidität häufiger
Wir werden immer älter. Aber gewinnen wir gesunde Lebensjahre oder verbringen wir die zusätzliche Lebenszeit in krankem Zustand? Dieser Frage gehen Forscher der Medizinischen Hochschule Hannover (MHH) in ihrem seit 2013 laufenden Projekt „Morbiditätskompression“ nach, für das sie Daten von drei Millionen Menschen aller Altersgruppen über zehn Jahre vergleichen. Nun gibt es erste Ergebnisse: Herzinfarkt, Schlaganfall und Lungenkrebs treten seltener und später im Laufe des Lebens auf als früher. Diabetes mellitus Typ 2 („Altersdiabetes“) kommt hingegen immer häufiger vor, insbesondere bei den unter 40-Jährigen. Auch die Multimorbidität ist angestiegen – der Umstand, dass eine Person viele Erkrankungen hat, die mit Medikamenten gut in den Griff zu bekommen sind. „Wir werden gesünder alt“, fasst Professor Dr. Siegfried Geyer zusammen, Leiter des Projektes und der Medizinischen Soziologie der MHH. Die Ergebnisse seiner Arbeiten trug er mit seinem Team in verschiedenen Artikeln zusammen, die in wissenschaftlichen Zeitschriften erschienen sind.

Einen Herzinfarkt, Schlaganfall oder Lungenkrebs bekommen heutzutage 22 Prozent weniger Männer als noch vor zehn Jahren – und diese sind dann rund ein Jahr älter als früher, durchschnittlich 66 Jahre. Das Risiko, an einer dieser Krankheiten zu sterben, ist ebenfalls um 22 Prozent gesunken. Bei Frauen verringerte sich das ohnehin geringere Risiko, an einer der drei Leiden zu erkranken, sogar um mehr als 30 Prozent. Doch sie waren beim Auftreten der Erkrankung durchschnittlich 76 Jahre und damit ebenso alt wie früher. Sie starben auch ebenso häufig daran.

„Altersdiabetes“ nimmt zu
Bei Diabetes mellitus Typ 2 („Altersdiabetes“) verhält es sich anders: Die Erkrankung hat in der Bevölkerung zugenommen – vor allem bei den unter 40-Jährigen. „Allerdings kann man diese Erkrankung besser behandeln als früher, so dass man mit ihr länger leben kann“, erläutert Professor Geyer. Er fand auch heraus, dass das Erkrankungsrisiko mit steigendem Bildungsstand sinkt. „Diabetes ist ein Problem der Lebensweise, vor allem Übergewicht und Bewegung sind vorrangige Probleme“, sagt Professor Geyer.

Mehrere Krankheiten gleichzeitig
Auch die sogenannte Multimorbidität nimmt in der Bevölkerung zu: Immer mehr Menschen haben sechs oder mehr Erkrankungen gleichzeitig, die zum Teil mit Medikamenten behandelt werden müssen, mit denen sie aber gut leben können – beispielsweise Bluthochdruck. In diesem Zusammenhang interessiert nun, ob Multimorbiditäten zwangsläufig zunehmen, wenn andere Krankheiten wie Herzinfarkt, Schlaganfall und Lungenkrebs abnehmen: „Wir möchten die Frage klären, ob es eine Verschiebung von wenigen großen zu vielen kleinen Krankheiten gibt, die später auftreten.“

„Unsere Ergebnisse legen eine Flexibilisierung des Renteneintrittsalters nahe“, sagt Professor Geyer. Bei einer stark körperlich belastenden Arbeit wäre ein früheres Renteneintrittsalter angemessen, bei überwiegend geistiger Arbeit kann es sinnvoll sein, die Grenze nach oben zu verschieben.

„Es geht aber auch darum, wie eine Gesellschaft mit alten Menschen umgehen soll, um ihre Aktivität und geistige Beweglichkeit maximal lange zu erhalten“, erläutert Professor Geyer. „Um im Alter körperlich und seelisch gesund zu bleiben, ist sportliche sowie geistige Regsamkeit besonders wichtig.“ Ressourcen gelte es zu erhalten – beispielsweise durch regelmäßiges Lesen sowie soziale Aktivitäten mit Kommunikation, zum Beispiel über ein Hobby.

Die MHH-Forscher arbeiten in ihrem Projekt „Morbiditätskompression“ mit Daten von drei Millionen Versicherten aller Altersgruppen von der AOK Niedersachsen. Sie decken die Jahre 2006 bis 2015 ab. Das Projekt wird von der AOK Niedersachsen und vom Niedersächsischen Ministerium für Wissenschaft und Kultur finanziell gefördert.

Weitere Informationen erhalten Sie bei Professor Dr. Siegfried Geyer, geyer.siegfried@mh-hannover.de, Telefon (0511) 532-5579.

Originalpublikationen finden Sie im Internet unter folgendem Link: http://www.mh-hannover.de/27760.html

Quelle: idw

(nach oben)


Die wichtigsten Tipps zur Grippe-Impfung: Ältere Menschen sind besonders gefährdet

Torben Brinkema Presse- und Öffentlichkeitsarbeit
Deutsche Gesellschaft für Geriatrie (DGG)

Jetzt beginnt wieder die Grippezeit. Gerade ältere Patienten sind durch Influenza-Viren besonders gefährdet. Bei ihnen sind 80 Prozent der Erkrankungen auf Viren oder Bakterien zurückzuführen. Deswegen raten Experten jetzt im September zur gezielten Grippeschutzimpfung. „Für ältere Menschen eignen sich insbesondere die sogenannten tetravalenten Impfstoffen, die jeweils zwei Antigene gegen beiden Influenza-Typen A und B haben“, sagt Dr. Andreas Leischker, Impfexperte der Deutschen Gesellschaft für Geriatrie (DGG) sowie Chefarzt der Klinik für Geriatrie des Alexianer-Krankenhauses Krefeld.

Im Interview beantwortet Leischker die wichtigsten Fragen zu Influenza-Viren, aktuelle Übertragungsrisiken und den optimalen Grippe-Schutz.

Herr Dr. Leischker, wie wird eine Grippe, also eine Influenza, eigentlich übertragen?

Für die Übertragung spielen zwei Wege eine entscheidende Rolle. Zum einen die Tröpfcheninfektion: Über Niesen, Husten aber auch schon beim Sprechen werden Tröpfchen gebildet und über die Luft übertragen. Besonders hoch ist das Übertragungsrisiko in geschlossenen, überfüllten Räumen, zum Beispiel in öffentlichen Verkehrsmitteln, wo Menschen eng gedrängt stehen. Ein zweiter Weg ist die Übertragung über die Schmierinfektion. Hier spielen die Hände eine entscheidende Rolle. Nach dem Händeschütteln oder dem Anfassen einer Türklinke bleiben die Viren auf der Haut und werden dann beispielsweise beim Griff ans eigene Gesicht übertragen.

Wie können wir dieses Übertragungsrisiko verringern?

Das regelmäßige Waschen der Hände kann das Übertragungsrisiko deutlich verringern. Noch wirksamer ist es, wenn die Hände mit einem alkoholischen Präparat desinfiziert werden. Händedesinfektionsmittel in Gelform gibt es mittlerweile in jeder Drogerie – auch als kleine Pocketversion für die Handtasche.

Wie unterscheidet sich die echte Influenza-Grippe von einem grippalen Infekt?

Die „echte“ Grippe wird durch Influenzaviren verursacht, grippale Infekte durch eine Vielzahl von Viren. Typisch für die echte Grippe ist ein plötzlicher Beginn mit hohem Fieber über 38,5 Grad, trockenem Husten ohne Auswurf, Halsschmerzen, Appetitlosigkeit sowie starken Kopf- und Gliederschmerzen. Gerade ältere Menschen brauchen oft sehr lange, bis sie sich von der Infektion erholt haben. Der entscheidende Punkt ist: Gerade bei alten Menschen kann eine Influenza auch zu Todesfällen führen. Deshalb ist die Impfung für ältere Menschen so wichtig.

Der Volksmund sagt, eine Grippe sei unangenehm, aber harmlos. Warum können Menschen daran sterben?

Hierfür gibt es mehrere Gründe: Oft kommt es gerade bei unterernährten Patienten oder bei Patienten mit chronischen Krankheiten wie Diabetes mellitus zu einer bakteriellen Superinfektion, die dann zu einer Lungenentzündung führt. Davon können übrigens auch junge Patienten betroffen sein. 1918 wurden Verstorbene obduziert, die an der „Spanischen Grippe“ verstorben sind. Bei fast allen Verstorbenen fanden sich in den Lungen und im Blut Pneumokokken – das sind Bakterien, die unter anderem Lungenentzündungen, Blutvergiftungen und Mittelohrentzündungen verursachen können. Weniger bekannt ist, dass eine Influenzainfektion das Risiko massiv erhöht, während der Erkrankung einen Herzinfarkt zu bekommen.

Schützt die Grippeimpfung also auch vor einem Herzinfarkt?

Ja, das belegt auch eine Studie. Patienten mit einem akuten Herzinfarkt wurden noch im Labor direkt nach der Herzkatheter-Untersuchung gegen Grippe geimpft. Eine andere Gruppe bekam eine Kochsalzlösung in den Arm gespritzt. Diejenigen mit dem Impfstoff bekamen deutlich seltener einen erneuten Herzinfarkt.

Also ist die Grippeimpfung auch eine „Impfung gegen Herzinfarkt“?

Wenn Sie es so nennen wollen ist das richtig.

Manche Menschen beklagen Nebenwirkung nach Impfung, kann das sein?

Das kann gut sein. Als Nebenwirkung können bei einigen Menschen unter anderem Muskelschmerzen, Schmerzen an der Einstichstelle und leichte Kopfschmerzen auftreten – jeder reagiert da unterschiedlich. Diese Symptome zeigen, dass der Körper auf die Impfung mit der Bildung von Antikörpern reagiert.

Andere beklagen nach dem Impfen hohes Fieber, Husten oder eine verstopfte Nase. Das Anzeichen für das Auftreten einer echten Grippe?

Das glauben viele, ist aber unmöglich. Bei der Injektion zur Influenza-Impfung handelt es sich um einen Totimpfstoff. In der Injektionslösung kann sich also kein einziges lebendes Viruspartikel befinden.

Warum haben dann so viele Menschen diese Erfahrung gemacht?

Die Erklärung ist einfach. Wir impfen meist im Oktober, teilweise auch bis in den November hinein. Zu diesem Zeitpunkt zirkulieren schon viele Erkältungsviren. Vermutlich haben sich einige schon vor der Grippeimpfung mit einem Erkältungsvirus infiziert. Zudem schützt die Influenza-Impfung nur vor der echten Grippe, nicht aber vor grippalen Infekten.

Sie hatten bereits die Senioren als Hochrisikogruppe genannt. Wer sollte sich noch gegen Influenza impfen lassen?

Ganz wichtig – und leider oft vergessen – sind alle Personen, die mit alten Menschen zusammen sind und sie betreuen. Das sind auch Angehörige wie die Enkelkinder, das Personal in Pflegeheimen und ambulanten Pflegediensten, aber natürlich auch Ärzte.

Da sprechen Sie einen wunden Punkt an: Die Durchimpfungsrate von medizinischem Personal in Deutschland ist im internationalen Vergleich sehr niedrig.

Ja, leider!

Wie schaffen es andere Länder, in diesem Punkt besser zu sein?

Die USA sind da ganz pragmatisch: Wer sich dort als Krankenschwester oder Arzt nicht jährlich gegen Influenza impfen lässt, muss in der Grippesaison während der gesamten Schicht eine Atemmaske tragen. Das ist so anstrengend und unangenehm, dass die Impfrate des Personals dort bei fast 100 Prozent liegt.

Wer sollte zusätzlich noch geimpft werden?

Unbedingt auch alle Menschen mit chronischen Erkrankungen. Zum Beispiel Diabetiker, Patienten mit Niereninsuffizienz, mit Herzkrankheiten oder Lungenerkrankungen. Auch Reisende sollten vorsorgen. Wenig bekannt ist, dass es auch in den Tropen Influenza gibt -sogar das ganze Jahr über. Zu beachten ist, dass die Länder der Südhalbkugel ihre Grippesaison zu unserer Sommerzeit haben.

Wie häufig muss gegen Grippe geimpft werden?

Gegen Grippe muss leider jedes Jahr neu geimpft werden. Die Grippeviren verändern sich immer wieder.

Gibt es dafür verschiedene Impfstoffe?

Ja. Die konventionellen Impfstoffe haben drei Antigene – zwei gegen Influenza A und eines gegen Influenza B. Wir nennen sie deshalb trivalent. Seit einigen Jahren gibt es tetravalente Grippeimpfstoffe mit einem zusätzlichen Antigen gegen Influenza B. Diese wirken insbesondere dann besser, wenn in der jeweiligen Saison neue Influenza-Viren vom Typ B zirkulieren.

Werden die tetravalenten Impfstoffe auch von der Krankenkasse bezahlt?

Das ist innerhalb von Deutschland unterschiedlich und wird von der jeweiligen kassenärztlichen Vereinigung geregelt. Dazu sollte jeder seinen Hausarzt oder Geriater vor Ort fragen.

Gibt es spezielle Grippeimpfstoffe für ältere Menschen?

Ja, die gibt es. Bei älteren Menschen wirken die normalen Grippeimpfstoffe nicht so gut, weil das Immunsystem weniger Antikörper bildet. In Deutschland sind deshalb speziell für Menschen ab dem 65. Lebensjahr Impfstoffe mit einem Wirkungsverstärker zugelassen.

Warum wird dann nicht jeder mit diesen Impfstoffen geimpft?

Weil dieser Wirkungsverstärker oft zu verstärkten Lokalreaktionen führt. So kann der Arm anschwellen und schmerzen.

Gibt es dann Alternativen dafür?

Auch die gibt es mittlerweile. In den USA ist ein Impfstoff mit vierfachem Antigengehalt zugelassen, der auch bei älteren Menschen sehr gut wirkt. Leider ist dieser Impfstoff in Deutschland noch nicht verfügbar.

Schützt die Grippeimpfung auch gegen die sogenannte Schweinegrippe?

Das funktioniert. In den Grippeimpfstoffen ist seit der letzten H1N1-Pandemie auch eine Komponente gegen Schweinegrippe enthalten.

Herr Dr. Leischker, wie schützen Sie sich als Arzt gegen Influenza?

Als Geriater habe ich täglich Kontakt mit alten Patienten – die möchte ich natürlich nicht anstecken. Ich lasse mich deshalb jedes Jahr gegen Influenza impfen. Übrigens auch mit einem tetravalenten Impfstoff.

Pressekontakt der DGG
Torben Brinkema
medXmedia Consulting KG
Nymphenburger Str. 19
80335 München
Tel: +49 (0)89 / 230 69 60 21
Fax: +49 (0)89 / 230 69 60 24
E-Mail: presse@dggeriatrie.de

Deutsche Gesellschaft für Geriatrie (DGG)
Die Deutsche Gesellschaft für Geriatrie (DGG) ist die wissenschaftliche Fachgesellschaft der Ärzte, die sich auf die Medizin der späten Lebensphase spezialisiert haben. Wichtige Schwerpunkte ihrer Arbeit sind neben vielen anderen Bewegungseinschränkungen und Stürze, Demenz, Inkontinenz, Depressionen und Ernährungsfragen im Alter. Häufig befassen Geriater sich auch mit Fragen der Arzneimitteltherapie von alten Menschen und den Wechselwirkungen, die verschiedene Medikamente haben. Bei der Versorgung geht es darum, den alten Menschen ganzheitlich zu betreuen und ihm dabei zu helfen, so lange wie möglich selbstständig und selbstbestimmt zu leben. Die DGG wurde 1985 gegründet und hat heute rund 1700 Mitglieder.

Weitere Informationen:
http://www.dggeriatrie.de/presse/

Anhang
Die wichtigsten Tipps zur Grippe-Impfung: Ältere Menschen sind besonders gefährdet
https://idw-online.de/de/attachment58562

Quelle: idw

(nach oben)


Kraftstoff aus Abfällen und Elektrizität?

Susanne Hufe Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum für Umweltforschung – UFZ

Wissenschaftler des Helmholtz-Zentrums für Umweltforschung (UFZ), der Universität Tübingen, der amerikanischen Cornell University und des Deutschen Biomasseforschungszentrums (DBFZ) zeigen, dass durch die Kombination von mikrobieller und elektrochemischer Stoffumwandlung aus Biomasse hochwertige Produkte entstehen können. In ihrem Experiment nutzten die Forscher ein Abfallprodukt der Bioethanolherstellung und Maissilage, um Alkane mit hoher Energiedichte und dieselähnlichen Eigenschaften herzustellen. Die Arbeit wurde in Energy & Environmental Science, dem am höchsten klassifizierten Journal der Umweltwissenschaften veröffentlicht.

Ob Klimawandel, wachsende Nachfrage nach Ressourcen oder umweltbelastende Stoffströme – wir brauchen nicht nur eine Energiewende, sondern eine Kehrtwende hin zu einem produktorientierten und integrativen Umweltschutz. Kreisläufe müssen geschlossen werden, umweltschädliche Einsatzstoffe müssen durch ökologisch verträgliche ersetzt werden, der Verbrauch fossiler und anorganischer Rohstoffe muss reduziert werden. Eine Schlüsselrolle bei der Suche nach Lösungen spielen neue Verfahren der Biotechnologie.

Dazu zählt auch die bioelektrochemische Synthese, die von Chemiker Dr. Falk Harnisch und seiner Arbeitsgruppe am UFZ in Leipzig erforscht wird. Deren Ziel ist es, durch die Kombination von Mikrobiologie und Elektrochemie aus nachwachsenden Ressourcen und Abfallprodukten Energieträger und Chemikalien zu gewinnen. Harnisch ist überzeugt: „Durch die Kombination von mikrobieller und elektrochemischer Stoffumwandlung könnten zukünftig Bioelektroraffinerien entstehen, die Kraftstoffe, Energie und Chemikalien durch integrierte Biomassenutzung produzieren“.

In einer aktuellen Studie, die unter seiner Leitung und in Zusammenarbeit mit Forschern der Universität Tübingen, der Cornell University und des Deutschen Biomasseforschungszentrums entstanden ist, zeigen die Forscher, dass Biomasse in Alkane mit hoher Energiedichte und dieselähnlichen Eigenschaften überführt werden kann. So wurde auf der Basis von Corn beer, einem Abprodukt der Bioethanolherstellung aus Mais, im Laufe des kombinierten mikrobiologisch-elektrochemischen Prozesses bereits eine Biomasse/Kraftstoff-Ausbeute von 50 Prozent erreicht. Prof. Lars Angenent von der Universität Tübingen, ein Mitautor der Studie, hebt hervor: „Mit dem corn beer haben wir in diesem Experiment einen relativ hochwertigen Ausgangsstoff genutzt. Weiterführende Versuche zeigen uns jedoch deutlich, welch großes Potenzial in dem Verfahren steckt – sowohl im Hinblick auf die mögliche Vielfalt der Ausgangsstoffe und der erhaltenen Produkte als auch den gekoppelten Ablauf von Mikrobiologie und Elektrochemie.“ Denn während die mikrobielle Synthese kontinuierlich abläuft, kann die schnellere elektrochemische Stoffumwandlung Überschussstrom verarbeiten. Damit kann Kraftstoff als effektiver Speicher von elektrischer Energie dienen.

Falk Harnisch betrachtet diese Studie als ersten Schritt in der Verfahrensentwicklung. „Wir haben im Labormaßstab gezeigt, dass ein solcher Prozess durchführbar ist. Die Herausforderung ist nun, jeden Teilschritt zu optimieren und eine Skalierung entlang des gesamten Prozesses bis in den Pilotmaßstab durchzuführen.“ Dabei wird sich auch zeigen, inwiefern das Verfahren ökonomisch wettbewerbsfähig ist. Dies sei, so Harnisch, allerdings auch eine Frage der politischen Rahmenbedingungen zur Förderung von Mobilität.

Publikation:
Urban, C., Jiajie, X., Sträuber, H., dos Santos Dantas, T. R., Mühlenberg, J. Härtig, C., Angenent, L. T., Harnisch, F. (2017): Production of drop-in fuel from biomass at high selectivity by by combined microbial and electrochemical conversion. Energy & Environmental Science doi: 10.1039/C7EE01303E
http://dx.doi.org/10.1039/C7EE01303E

Die Studie wurde gefördert durch das Bundesministerium für Bildung und Forschung (BMBF) (BMBF-Initiative „Nächste Generation biotechnologischer Verfahren – Biotechnologie 2020+“), die Helmholtz Gemeinschaft (Young Investigators Group & Research Program Renewable Energie) und das NSF SusChemProgram.

Arbeitsgruppe „Mikrobielle Bioelektrokatalyse und Bioelektrotechnologie“
http://www.ufz.de/index.php?de=31005

Mehr Informationen:
PD Dr. Falk Harnisch
UFZ-Department Umweltmikrobiologie, Leiter der AG „Mikrobielle Bioelektrokatalyse und Bioelektrotechnologie“
E-Mail: falk.harnisch@ufz.de
Phone: +49-(0)341-235-1337
http://www.ufz.de/index.php?en=31006

Prof. Dr. Lars Angenent
Universität Tübingen, Zentrum für Angewandte Geowissenschaften
Phone: +49-(0)7071-29-73153
E-Mail: l.angenent@uni-tuebingen.de

Weitere Informationen:
http://www.ufz.de/index.php?de=36336&webc_pm=32/2017

Quelle: idw

(nach oben)


„Das Schöne ist doch, dass jeder selbst Vorsorge treffen kann“

Dr. Ulrich Marsch Corporate Communications Center
Technische Universität München

Bis zu 50 Prozent der Krebsfälle wären einfach zu verhindern, belegen Studien. Trotzdem ist die Zahl der Krebsneuerkrankungen im Zehnjahreszeitraum bis 2015 weltweit um über 30 Prozent gestiegen. Die Vorsorge nimmt eine Schlüsselrolle ein bei der Eindämmung von Krebs, erklärt Prof. Stefanie Klug, Inhaberin des Lehrstuhls für Epidemiologie an der Technischen Universität München (TUM). Klug befasst sich unter anderem mit der Krebsfrüherkennung. Im Interview spricht die Professorin über Krebsscreenings, Vorsorgemuffel und was jeder Einzelne gegen Krebs tun kann

Prof. Klug ist seit 2011 Mitglied der Ständigen Impfkommission (STIKO) und hat an den Empfehlungen zur Impfung gegen Humane Papillomviren (HPV) maßgeblich mitgewirkt.

TUM: Wie hoch ist denn die Teilnahme an der Krebsvorsorge – können Sie dazu generelle Aussagen treffen?
Prof. Stefanie Klug: Nehmen wir zum Beispiel den Pap-Abstrich (Anm.: Abstrich vom Muttermund der Frau, um mögliche Krebszellvorstufen von Gebärmutterhalskrebs frühzeitig zu erkennen): Dieser ist harmlos und viele spüren ihn nicht einmal, dennoch liegt die jährliche Teilnahmerate nur bei 50 bis 60 Prozent.

Woran liegt es denn, dass so viele nicht zur Vorsorge gehen?
SK: Einige Menschen kennen diese Angebote nicht. Andere haben Angst vor einer Krebsdiagnose oder kein Vertrauen in den Arzt. Doch das ist gefährlich: Wenn eine Erkrankte mit dem Arztbesuch zu lange wartet, kann die Krankheit unter Umständen so fortgeschritten sein, dass nicht mehr viel zu retten ist. Es ist die Aufgabe der Wissenschaft, Wege aufzuzeigen, wie solche Personen motiviert werden können, trotz ihrer Ängste zur Untersuchung zu gehen.

Wie können Menschen dazu motiviert werden, zu Vorsorgeuntersuchungen zu gehen?
SK: Wir haben vor einiger Zeit eine Studie namens MARZY durchgeführt, dabei ging es um die Teilnahme an der Krebsfrüherkennung. Es war eine Studie mit insgesamt über 5000 Teilnehmerinnen. Heraus kam, dass gerade bei älteren und sozial schwächeren Frauen eine persönliche Einladung zu der Untersuchung viel bewirkt. Das ist aufs Darmkrebsscreening vermutlich genauso übertragbar. Teilweise wissen viele nicht, dass Vorsorgeuntersuchungen kostenlos sind, da könnte eine Erinnerung vom Hausarzt viel helfen.

Wie oft sollte jemand zu einem Krebsscreening gehen?
SK: Das hängt vom Alter und von der Screeninguntersuchung ab. Im Jahr 2013 wurde auf der Basis des Nationalen Krebsplanes das Krebsfrüherkennungs- und registergesetz vom Bundesministerium für Gesundheit erlassen, das im Bundestag verabschiedet wurde. Bis 2018 soll nun ein organisiertes Krebs-Screeningprogramm für Gebärmutterhals- und Darmkrebs mit einem Einladungsschreiben eingeführt werden. Die Eckpunkte für das Gebärmutterhalsscreening: Für Frauen zwischen 20 und 34 Jahren bleibt es beim jährlichen Pap-Abstrich, Frauen ab 35 sollen nur noch alle drei Jahre den Pap-Abstrich machen lassen. Aber – und dafür haben wir lange gekämpft – es wird zusätzlich für diese älteren Frauen ebenfalls alle drei Jahre einen HPV-Test geben. Denn wir wissen, dass HPV die Ursache für diese Krebsart ist und die allermeisten Frauen sind negativ. In dem Fall liegt bei Frauen kein Risiko für die Erkrankung vor. Die wenigen HPV-positiven Frauen in diesem Alter – es sind weniger als zehn Prozent – müssen dagegen engmaschig beobachtet werden. Auch bei Darmkrebs soll es wiederum künftig eine persönliche Einladung zur Darmspiegelung (Koloskopie) im 55. Lebensjahr geben. Ist alles in Ordnung, dann erfolgt eine Wiederholung zehn Jahre später. Wer familiär vorbelastet ist, der hat natürlich die Möglichkeit, früher zum Screening zu kommen.

„Ein Screening ist immer nur eine Sekundärprävention“
Für eines Ihrer Forschungsprojekte zum Thema Hautkrebsscreening wurden Daten von rund 60.000 Patienten überprüft von 2002 bis 2011. Zwar wurden Tumore im frühen Stadium öfter erkannt, aber die späten Tumorstadien waren nicht rückläufig. Was lässt dieses Ergebnis für Rückschlüsse zu?
SK: Genau, das Ziel des Hautkrebsscreenings ist es, dass die Sterberate (Mortalität) zurückgeht. Heraus kam aber, dass es (bisher) nicht dazu beiträgt. Tatsächlich ist das Hautkrebsscreening sehr umstritten, wir hier sind das einzige Land in Europa, das ein Hautkrebsscreening anbietet, während andere Länder das gar nicht im Programm haben. Australien etwa hat sich gegen ein Hautkrebsscreening ausgesprochen, obwohl sie viele hellhäutige Einwohner, eine starke Strahlung und Häufigkeit (hohe Inzidenz) von Melanomen haben. Möglicherweise ist es noch zu früh, um einen Rückgang der Mortalität zu erkennen, hier muss weiter evaluiert werden.

Was machen denn dann andere Länder?
SK: Primäre Prävention. Es wird davon abgeraten, sich zu stark der Sonne auszusetzen. Wer in die Sonne geht, sollte Hautcreme auftragen, lange Kleidung und Hüte tragen sowie die Mittagssonne meiden – das wäre auch für uns vermutlich der bessere Weg. Denn ein Screening ist immer nur eine Sekundärprävention, bei der eine möglicherweise bereits vorhandene Veränderung festgestellt werden soll. Das Schöne ist aber doch die Vorsorge, die jeder selbst treffen kann, wie etwa eine Impfung oder Sport als auch das Verhindern von Sonnenbrand, wodurch ein Tumor gar nicht erst entsteht.

Wie kommen Sie bei Ihren Studien an die Daten?
SK: Wir gehen über die Einwohnermeldeämter, denn wir wollen eine bevölkerungsbezogene Stichprobe etwa von allen Frauen zwischen dem Altern von 30 und 40 haben. Wir möchten alle Gruppen in der Bevölkerung darin abbilden. Die Personen aus dieser Stichprobe laden wir dann per Brief ein, an unseren Studien teilzunehmen. Bei der Studie MARZY etwa haben wir Daten von fast 10.000 Frauen aus Rheinland-Pfalz ausgewertet, um einen guten Querschnitt durch die weibliche Bevölkerung zu erhalten.

Welche Verbindung hat Ihr Fachgebiet, das sich mit der Häufigkeit bestimmter Krankheiten in der Bevölkerung befasst, mit dem Sport?
SK: Gerade im Bereich der Prävention liegt die Verknüpfung mit der Epidemiologie. Das betrifft nicht nur mich und meinen Fachbereich, sondern die gesamte Fakultät. Alle hier widmen sich auch dem großen übergreifenden Thema Prävention. Inwieweit kann Sport als vorbeugende Maßnahme gegen die Volkskrankheiten von Diabetes über Herz-Kreislauf bis zu Krebs eingesetzt werden? Das muss noch näher erforscht werden.

Welche Pläne haben Sie für neue Studienprojekte?
SK: Wir planen größere Studien mit sportlichen Interventionen, bei denen versucht wird, die Leute zu Bewegung zu motivieren. Dazu gibt es schon viel mit Kindern, aber es wäre genauso wichtig, das mit Erwachsenen zu erforschen. Es reicht nicht, die Kinder zum Sport zu bewegen, sondern auch im höheren Alter müssen Menschen Sport treiben. Denn Bewegungsmangel wird bereits jetzt als „die Zigarette von morgen“ bezeichnet, weil er ein dramatischer Risikofaktor ist für die heutigen Zivilisationskrankheiten ist, genau wie Rauchen und Lungenkrebs.

„Alles, was einen vom Sofa runter bringt, ist gut“
Zum Schluss eine allgemeine Frage: Was für Empfehlungen können Sie geben?

SK: Eigeninitiative durch primäre Prävention. Jeden Tag Bewegung – vom Treppen steigen über das Spazierengehen bis zum Putzen und Sport treiben – alles ist gut, was einen mehrmals pro Woche vom Sofa runter treibt und zum Schwitzen bringt!

Quelle: idw

(nach oben)


BAuA-Bericht: Orts- und zeitflexibles Arbeiten gesund gestalten

Jörg Feldmann Pressestelle
Bundesanstalt für Arbeitsschutz und Arbeitsmedizin

Ob in der Bahn, im Büro oder zu Hause nach der Tagesschau: Die Digitalisierung entkoppelt Arbeit von Zeit und Raum. Im jetzt erschienenen Bericht „Orts- und zeitflexibles Arbeiten: Gesundheitliche Chancen und Risiken“ fasst die BAuA den wissenschaftlichen Erkenntnisstand zu diesen Arbeitsformen zusammen. Dabei zeigt sich einerseits, dass sich flexibles Arbeiten als Belastungsfaktor auswirken und die Gesundheit der Beschäftigten schädigen kann. Andererseits bieten diese Arbeitsformen mehr Möglichkeiten, Familie und Beruf miteinander zu vereinbaren. Eigene Gestaltungsspielräume und Vorhersehbarkeit können sich dabei positiv auf die gesundheitliche Situation der Beschäftigten auswirken.

In vielen Bereichen werden Arbeitsgegenstand, Arbeitsmittel und Arbeitsprozess zunehmend digitalisiert. Mit dieser Entwicklung geht eine Flexibilisierung von Arbeitszeit und Arbeitsort einher. Der Bericht der Bundesanstalt für Arbeitsschutz und Arbeitsmedizin (BAuA) gibt einen dichten und zugleich fundierten Überblick über die aktuelle Forschungslage zu den verschiedenen Formen des orts- und zeitflexiblen Arbeitens. Dazu geht er beispielsweise auf berufsassoziierte und bedingte Mobilität, Telearbeit beziehungsweise Homeoffice sowie auf arbeitsbezogene erweiterte Erreichbarkeit, lange Arbeitszeiten sowie Nacht- und Schichtarbeit ein. Zudem fasst der Bericht zusammen, wie sich diese Arbeitsformen auf die Gesundheit der Beschäftigten auswirken können. Er schließt mit einigen Gestaltungsansätzen für die Praxis ab.

Bei der ortsflexiblen Arbeit gibt es zwei Formen – die berufsbedingte und die berufsassoziierte Mobilität. Im ersten Fall findet die Arbeit selbst an wechselnden Orten statt, wohingegen berufsassoziierte Mobilität der eigentlichen Arbeitszeit vor- beziehungsweise nachgelagert ist. Etwa jeder zweite Erwerbstätige in Deutschland gehört zu den Pendlern. Dabei wirkt sich besonders die Pendeldauer auf die Gesundheit der Beschäftigten aus. Im Vergleich zu Nichtmobilen verdoppelt sich für Pendler, die mindestens eine Stunde pro Strecke unterwegs sind, das Risiko für einen schlechteren allgemeinen Gesundheitszustand, generelle Stressbelastungen sowie für depressive Verstimmungen. Gesundheitliche Risiken ergeben sich sowohl für jüngere als auch für ältere Beschäftigte sowie insbesondere für Frauen und für Beschäftigte mit Kindern. Ein großer Handlungsspielraum und ein hohes Maß an Selbstbestimmtheit können jedoch diese Belastungen verringern.

Zeitflexible Arbeit wirkt sich sowohl auf die Dauer als auch auf die Lage und Verteilung der Arbeit aus. Damit beeinflusst sie direkt das familiäre und gesellschaftliche Leben sowie die Gesundheit der Beschäftigten. Fallen Ruhezeiten regelmäßig aus oder müssen sich Beschäftigte auch außerhalb ihrer Arbeitszeit häufig um berufliche Belange kümmern, kann es zu negativen Beanspruchungsfolgen kommen. Dazu gehören neben mangelnder Erholung geringe Schlafqualität sowie verstärkte körperliche und psychische Beschwerden. Auch mit zunehmender Dauer der Arbeitszeit steigen die gesundheitlichen Beschwerden an. Unter anderem treten vermehrt körperliche Beschwerden wie Schmerzen in Nacken, Kreuz und Rücken, aber auch psychische Beschwerden wie Nervosität und Niedergeschlagenheit auf. Daher sollte die Praxis auf ausreichende Ruhezeiten achten, in denen die Beschäftigten von der Arbeit abschalten können.

Die Ergebnisse zeigen, dass orts- und zeitflexible Arbeit als Belastungsfaktor wirken kann. Gleichzeitig stellt der Bericht Ressourcen heraus, die diesen Belastungen positiv entgegenwirken können. Dazu gehören beispielsweise Einflussmöglichkeiten auf die Arbeit und soziale Unterstützung. Um Mobilität gesundheitsförderlich zu gestalten, sind zeitliche Puffer ein wichtiges Element. Variable Arbeitszeiten wie Rufbereitschaft oder Bereitschaftsdienst sollten gut planbar und vorhersehbar sein und den Beschäftigten den größtmöglichen Einfluss auf die Gestaltung erlauben.

„Orts- und zeitflexibles Arbeiten: Gesundheitliche Chancen und Risiken“; Dr. Beate Beermann, Dr. Monischa Amlinger-Chatterjee, Frank Brenscheidt, Dr. Susanne Gerstenberg, Michael Niehaus, Dr. Anne M. Wöhrmann; 1. Auflage; Dortmund/Berlin/Dresden; Bundesanstalt für Arbeitsschutz und Arbeitsmedizin 2017;
doi: 10.21934/baua:bericht20170905; 46 Seiten. Den Bericht im PDF-Format gibt es im Internetangebot der BAuA unter http://www.baua.de/publikationen.

Forschung für Arbeit und Gesundheit
Sichere und gesunde Arbeitsbedingungen stehen für sozialen Fortschritt und eine wettbewerbsfähige Wirtschaft. Die Bundesanstalt für Arbeitsschutz und Arbeitsmedizin (BAuA) forscht und entwickelt im Themenfeld Sicherheit und Gesundheit bei der Arbeit, fördert den Wissenstransfer in die Praxis, berät die Politik und erfüllt hoheitliche Aufgaben – im Gefahrstoffrecht, bei der Produktsicherheit und mit dem Gesundheitsdatenarchiv. Die BAuA ist eine Ressortforschungseinrichtung im Geschäftsbereich des Bundesministeriums für Arbeit und Soziales. Über 700 Beschäftigte arbeiten an den Standorten in Dortmund, Berlin und Dresden sowie in der Außenstelle Chemnitz.
www.baua.de

Weitere Informationen:
http://www.baua.de/dok/8729000
Direkter Link zum Bericht „Orts- und zeitflexibles Arbeiten: Gesundheitliche Chancen und Risiken“ im Internetangebot der BAuA.

Quelle: idw

(nach oben)


Der Salzwasser-Wächter auf der Darßer Schwelle: Rund um die Uhr im Einsatz – und das seit 25 Jahren

Dr. Kristin Beck Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Ostseeforschung Warnemünde

Im September 1992 nahm die automatische Messstation „Darßer Schwelle“ ihren Betrieb auf. Seitdem erhebt dieser „Vorposten“ im Meer zuverlässig ozeanographische und meteorologische Daten, die für die Zustandsbewertung der Ostsee von hohem Wert sind. So lieferte er auch die entscheidenden Hinweise auf den sogenannten „Jahrhundert-Salzwassereinbruch“ im Dezember 2014, bei dem sehr große Mengen sauerstoffhaltigen Nordseewassers in die Ostsee einströmten und das Tiefenwasser der Ostsee mit Sauerstoff versorgten. Die Station ist eine Entwicklung des Leibniz-Instituts für Ostseeforschung Warnemünde (IOW) und wird im Auftrag des Bundesamtes für Seeschifffahrt und Hydrographie (BSH) betrieben.

Gemeinsame Pressemitteilung:
Leibniz-Institut für Ostseeforschung Warnemünde (IOW)
Bundesamt für Seeschifffahrt und Hydrographie (BSH)

Bereits in den 1980er Jahren hatten die Warnemünder Ozeanographen am Vorgängerinstitut des IOW an Geräteträgern für den Flachwasserbereich gearbeitet und verfügten über einen Prototyp, der sehr rasch einsetzbar war. Auch eine geeignete Position hatten die Warnemünder bereits erkundet: die Darßer Schwelle. Als letzte große „Untiefe“ vor den Tiefenbecken der Ostsee wurde sie als Schlüsselposition für Informationen zur Salzwasser- und Sauerstoff-Versorgung des Tiefenwassers der zentralen Ostsee identifiziert. Das BSH, das damals bereits seit 30 Jahren ein „Marines Umweltmessnetz in Nord- und Ostsee“ (MARNET) in den Hoheitsgewässern der Bundesrepublik Deutschland betrieb, war daran interessiert, mit dieser neuen Station MARNET zu erweitern. Mit der Inbetriebnahme der „Darßer Schwelle“ wurde so der Grundstein für die bis heute andauernde erfolgreiche Kooperation von IOW und BSH gelegt.

Die Station Darßer Schwelle ist eine Geräteträger-Konstruktion, die für die besonderen Gegebenheiten im flachen, gezeitenfreien Wasser entwickelt wurde. Über einem Bodengewicht erhebt sich ein Röhrensystem, das durch den Auftrieb getragen wird, über die Wasseroberfläche hinausragt und auch bei starkem Seegang ruhig im Wasser steht. Eine Gelenkverbindung hält den Mast beweglich am Bodengewicht. Rund 5 Meter über der Wasserlinie ist eine Arbeitsplattform aufgesetzt. Bei Gefahr von Eisgang lassen sich die Röhren fluten, so dass sich der Geräteträger auf den Meeresboden absenkt, wo er die Eisperiode unbeschadet überstehen kann. In den 25 Jahren seiner „Amtszeit“ war dies einmal erforderlich. Die Energie zum Betreiben der Messgeräte sowie zur Datenverarbeitung und -übertragung kommt aus Batterien und Akkumulatoren, die wiederum über Solar- und Windenergieanlagen auf dem Geräteträger versorgt werden.

In Stufen zwischen 2 und 21 Metern Wassertiefe misst die Station alle zehn Minuten Wassertemperatur, Leitfähigkeit als Maß für den Salzgehalt, Sauerstoffsättigung, Chlorophyll a-Gehalt als Maß für Mikroalgen-Ansammlungen, Trübung und Radioaktivität. In Höhe von 9 Meter erfasst sie Daten über Windgeschwindigkeit, Windrichtung, Luftdruck, Lufttemperatur, relative Feuchte und Globalstrahlung. Ein einige hundert Meter entfernt am Boden abgesetztes System mit akustischem Strömungsprofilmesser misst Seegang und die Strömungen in verschiedenen Wassertiefen. Alle Messdaten werden vor Ort gespeichert und einmal pro Stunde an IOW und BSH übertragen, dort bearbeitet und über das globale Telekommunikationssystem GTS international in Nahe-Echtzeit zur Verfügung gestellt. Insgesamt 8.760 Datensätze mit allen Parametern stellt die Station an dieser für die Ostsee so wichtigen Position jährlich bereit.

Die Messdaten der MARNET-Station Darßer Schwelle sind frei im Internet verfügbar:
http://www.bsh.de/de/Meeresdaten/Beobachtungen/MARNET-Messnetz/Stationen/dars.jsp
http://www.io-warnemuende.de/marnet-darsser-schwelle.html
http://www.io-warnemuende.de/marnet-ozeaneum-darsser-schwelle.html

MARNET gehört zu den ältesten automatisierten Messnetzen der Welt und ist das einzige Messnetz weltweit, das außerhalb der Küstengewässer mit speziell für die rauen Bedingungen von Nord- und Ostsee konstruierten Geräteträgern misst. Die drei Stationen vor der Küste Mecklenburg-Vorpommerns, Darßer Schwelle, Oder Bank und Arkona Becken, errichtete und unterhält das IOW im Auftrag des BSH.

Eine Detailzeichnung mit den technischen Daten der automatischen Messstation Darßer Schwelle finden Sie unter: http://bit.ly/2xfv9as
(Weitere Grafiken sind auf Anfrage beim IOW erhältlich)

Für Rückfragen:
Leibniz-Institut für Ostseeforschung Warnemünde (IOW)
Siegfried Krüger, Arbeitsgruppe Messtechnik:
Tel. 0381 – 5197 160 | siegfried.krueger@io-warnemuende.de

Robert Mars, Arbeitsgruppe Messtechnik:
Tel. 0381 – 5197 261 | robert.mars@io-warnemuende.de

Dr. Barbara Hentzsch, Presse- und Öffentlichkeitsarbeit:
Tel. 0381 – 5197 102 | barbara.hentzsch@io-warnemuende.de

Bundesamt für Seeschifffahrt und Hydrographie (BSH)
Kai Herklotz, MARNET Technik:
Tel. 040 – 3190 3230 | E-mail: kai.herklotz@bsh.de

Dr. Susanne Tamm, MARNET Daten:
Tel. 040 – 3190 3411 | E-mail: susanne.tamm@bsh.de

Susanne Kehrhahn-Eyrich, Presse- und Öffentlichkeitsarbeit:
Tel. 040 – 3190 1010 | presse@bsh.de

Quelle: idw

(nach oben)


Lebensmittel im Blickpunkt: Gängige Speiseöle sind nur selten belastet

Nina Banspach Pressestelle
Bundesamt für Verbraucherschutz und Lebensmittelsicherheit (BVL)

Beim Tricksen mit Olivenöl winken Betrügern hohe Gewinne
Von Argan bis Zedernuss – das Ölregal bietet heute eine große Auswahl. In der Küche finden jedoch vor allem Raps-, Sonnenblumen- und Olivenöl Verwendung. Die drei Ölsorten waren deshalb 2015 auch Teil des Warenkorbs, der im Rahmen eines Monitorings repräsentativ für Deutschland von den Behörden der Bundesländer auf gesundheitlich nicht erwünschte Stoffe oder Mikroorganismen untersucht wurde. Die Belastung der Öle mit Pflanzenschutzmitteln und Schimmelpilzgiften ist gering. Olivenöl bleibt aber ein lukrativer Markt für Fälscher, wie das Bundesamt für Verbraucherschutz und Lebensmittelsicherheit (BVL) mitteilt.

Bei Olivenöl wurden in etwa einem Viertel der 192 auf Pflanzenschutzmittelrückstände untersuchten Proben bestimmbare Rückstände gefunden. Kein Rückstand lag jedoch über dem gesetzlich vorgeschriebenen Höchstgehalt. Auch bei den 113 Proben Rapsöl, die die Bundesländer für die Nationale Berichterstattung Pflanzenschutzmittelrückstände 2015 untersucht haben, wurden keine Höchstgehaltsüberschreitungen festgestellt (bestimmbare Rückstände in ca. 10 % der Proben). Bei den Olivenölproben fanden die Lebensmittelüberwachungsbehörden verhältnismäßig häufig Mehrfachrückstände (12 %). 0,5 % der Proben wiesen dabei mehr als fünf Rückstände in einer Probe auf. Sonnenblumenöl wurde im Rahmen des Monitorings nicht auf Pflanzenschutzmittelrückstände untersucht.

Erfreulicherweise wurden in den untersuchten Proben von Oliven-, Raps- und Sonnenblumenöl weder Aflatoxin noch Ochratoxin A gefunden. Diese beiden Gifte werden von Schimmelpilzen gebildet, die pflanzliche Produkte wie etwa Sonnenblumenkerne befallen. Schimmelpilzgifte können beim Menschen zu unterschiedlichen Krankheiten führen. Sie können Durchfall und Erbrechen verursachen, das Immunsystem beeinträchtigen, Nieren und Leber schädigen sowie die Entstehung von Krebs begünstigen. Für Verbraucher sind sie deshalb so gefährlich, weil sie auch durch hohe Temperaturen beim Kochen, Braten und Backen nicht zerstört werden.

Gehalte von gesundheitsschädlichen 3-MCPD-Fettsäureestern reduziert
Vor einigen Jahren wurden in bestimmten raffinierten Speiseölen und -fetten auch
3-Monochlorpropandiol (3-MCPD)-Fettsäureester in höheren Konzentrationen nachgewiesen. Hierbei handelt es sich um herstellungsbedingte Belastungen, die vor allem bei höheren Temperaturen entstehen. 3-MCPD hat im Tierversuch Nierenkrebs ausgelöst. Im Bundesweiten Überwachungsplan (BÜp) 2011 hatten die Bundesländer daher diverse Speiseöle auf das Vorkommen von 3-MCPD-Ester untersucht. Die höchsten mittleren 3 MCPD-Ester-Gehalte wurden mit 5,2 mg/kg in Walnussöl gemessen, gefolgt von Traubenkernöl mit 2,8 mg/kg und Olivenöl mit 1,6 mg/kg. Für Rapsöl wurde ein mittlerer Gehalt von 0,6 mg/kg ermittelt. Aktuellere Daten, die 2016 im Rahmen eines im Auftrag des Bundesministeriums für Ernährung und Landwirtschaft durchgeführten Forschungsprojektes erhoben wurden, zeigen erfreulicherweise für Oliven-, Raps- und weitere Speiseöle eine abnehmende Tendenz der 3-MCPD-Gehalte: Für Olivenöl wurde ein mittlerer Gehalt von 0,4 mg/kg und für Rapsöl ein mittlerer 3-MCPD-Gehalt von nur noch 0,17 mg/kg festgestellt. Dies ist vermutlich auf verbesserte Verarbeitungsbedingungen zurückzuführen. Aus Gründen des gesundheitlichen Verbraucherschutzes beabsichtigt die EU-Kommission, Höchstgehalte für 3-MCPD-Ester in pflanzlichen Fetten und Ölen festzusetzen.

Illegale Tricks sorgen für hohe Gewinnspannen
Olivenöl ist wegen der großen Preisspanne, der hohen Nachfrage und der witterungsbedingt teils stark schwankenden Erntemengen für Lebensmittelbetrüger ein lohnendes Produkt. Laut einem Bericht des Europäischen Parlaments von 2013 gehört Olivenöl zu den Lebensmitteln, die häufig Gegenstand betrügerischer Aktivitäten sind. 90 % der weltweiten Olivenölernte stammen aus dem Mittelmeerraum. Italienisches Olivenöl ist weltweit besonders gefragt und entsprechend teurer als Olivenöle aus anderen Mittelmeerländern. Deshalb wird beispielsweise günstigeres Öl aus Spanien, Griechenland oder der Türkei aufgekauft, vermischt und als Olivenöl italienischer Herkunft auf den Markt gebracht. Auch bei den Qualitätsklassen für Olivenöl wird illegal getrickst. Olivenöle der Klassen „nativ“ und „nativ extra“ müssen einer Reihe von Qualitätsparametern genügen, wie der Gewinnung durch Kaltpressung oder festgelegten Fettsäureparametern. Um Olivenöle dieser Qualitäten zu produzieren, können nur schonend geerntete und qualitativ hochwertige Olivenfrüchte verwendet werden, was die Produktion verhältnismäßig teuer macht. So werden günstig produzierte, qualitativ minderwertigere Öle als teures Olivenöl der Klassen „nativ“ oder „nativ extra“ auf den Markt gebracht. Mitunter handelt es sich bei manch einem Olivenöl nicht mal mehr um ein Öl aus der Frucht des Olivenbaums. Billigere Pflanzenöle wie Raps- oder Sojaöl werden mit Chlorophyll vermischt und als Olivenöl verkauft. Bei diesen Praktiken sind die Gewinnspannen für den Betrüger besonders hoch. Um Betrügern und Fälschern das Handwerk zu legen, entwickelt das Bundesamt für Verbraucherschutz und Lebensmittelsicherheit (BVL) eine Nationale Strategie zur Bekämpfung von Lebensmittelbetrug, die alle den Lebensmittelbetrug bekämpfenden Akteure miteinbezieht. So ist das BVL nationale Kontaktstelle für Deutschland im elektronischen System für Amtshilfe und Zusammenarbeit (AAC-System). Die Experten der Mitgliedstaaten übermitteln damit Informationen zu Betrugsfällen und werten diese systematisch aus. Das BVL arbeitet dabei eng mit den Lebensmittelüberwachungsbehörden der Länder und mit den Strafverfolgungsbehörden (Staatsanwaltschaften, Polizei und Zollverwaltung) zusammen.

Weiterführende Informationen
Flyer und Erklärfilm des BVL zu Lebensmittelbetrug: www.bvl.bund.de/lebensmittelbetrug
Informationen zum Bundesweiten Überwachungsplan: www.bvl.bund.de/buep
Informationen zum Monitoring: www.bvl.bund.de/monitoring2015
Informationen des BVL zu Schimmelpilzgiften: www.bvl.bund.de/schimmelpilzgifte

Hintergrundinformation
Das Bundesamt für Verbraucherschutz und Lebensmittelsicherheit (BVL) ist eine eigenständige Bundesoberbehörde im Geschäftsbereich des Bundesministeriums für Ernährung und Landwirtschaft. Das BVL ist für die Zulassung von Pflanzenschutzmitteln, Tierarzneimitteln und gentechnisch veränderten Organismen in Deutschland zuständig. Im Bereich der Lebensmittel- und Futtermittelsicherheit übernimmt es umfassende Managementaufgaben und koordiniert auf verschiedenen Ebenen die Zusammenarbeit zwischen dem Bund, den Bundesländern und der Europäischen Union. In der Rubrik „Lebensmittel im Blickpunkt“ stellt das BVL regelmäßig Informationen zu bestimmten Lebensmitteln zusammen.
Die Lebensmittelüberwachung ist in Deutschland föderal organisiert. Im Rahmen des Bundesweiten Überwachungsplanes (BÜp) werden jährlich Proben in etwa 15 bis 20 Programmen bundesweit einheitlich untersucht. Ziel dabei ist es, bundesweite Aussagen über die Einhaltung lebensmittelrechtlicher, weinrechtlicher und tabakrechtlicher Vorschriften einschließlich Täuschungsschutz zu erhalten. Das Monitoring ist ein gemeinsam von Bund und Ländern durchgeführtes systematisches Mess- und Beobachtungsprogramm. Dabei werden derzeit pro Jahr ca. 9.000 Proben von Lebensmitteln, kosmetischen Mitteln und Bedarfsgegenständen repräsentativ auf Gehalte an gesundheitlich nicht erwünschten Stoffen untersucht.

Anhang
Lebensmittel im Blickpunkt: Gängige Speiseöle sind nur selten belastet
https://idw-online.de/de/attachment58455

Quelle: idw

(nach oben)


Von der Weser bis zur Nordsee: PLAWES erforscht Mikroplastik-Kontaminationen in Ökosystemen

Christian Wißler Mediendienst Forschung
Universität Bayreuth

Gemeinsame Pressemitteilung der Universität Bayreuth und des Alfred-Wegener-Instituts
Weltweit steigt die Verschmutzung von Meeren, Flüssen und Seen durch Plastikmüll. Ein neues Projekt, das die Universität Bayreuth und das Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI) gemeinsam koordinieren, geht das Problem jetzt erstmals aus einer ganzheitlichen Forschungsperspektive an.

In der Modellregion Weser – Nationalpark Wattenmeer wollen die Wissenschaftler unter anderem durch empirische und modellgestützte Analysen herausfinden, wie kleinste Plastikteilchen (Mikroplastik) vom Festland bis ins Meer gelangen, welche Eintrags- und Transportwege in welchem Umfang daran beteiligt sind und welche Risiken die dadurch verursachte Kontamination unterschiedlicher Ökosysteme mit sich bringt. Es werden dabei verschiedenste Herkünfte von Mikroplastik untersucht, unter anderem auch Kläranlagen und Einträge durch die Luft. Die Ergebnisse von PLAWES sollen in strategische Handlungsempfehlungen für Politik, Industrie und Zivilgesellschaft, in effektive Maßnahmen des Natur- und Gesundheitsschutzes, aber auch in neue Konzepte der Umweltbildung einfließen. Das Bundesministerium für Bildung und Forschung (BMBF) fördert das Vorhaben in den nächsten drei Jahren mit insgesamt rund 2,9 Millionen Euro aus dem Programm FONA (Forschung für Nachhaltige Entwicklung).

„Mikroplastikkontamination im Modellsystem Weser – Nationalpark Wattenmeer: ein ökosystemübergreifender Ansatz“ – kurz: „PLAWES“ – ist der Name des neuen Forschungsverbunds. Neben der Universität Bayreuth und dem AWI Helgoland sind auch die Goethe Universität Frankfurt und die Universität Oldenburg, das Forschungszentrum Jülich, das Thünen-Institut in Braunschweig sowie der Niedersächsische Landesbetrieb für Wasserwirtschaft, Küsten- und Naturschutz auf Norderney mit speziellen Fachkompetenzen in das Projekt eingebunden.

„PLAWES ist bundesweit und auch international das erste Forschungsprojekt, das die Mikroplastik-Kontamination ökosystemübergreifend von den Oberläufen eines Flusses bis zur Mündung an der Küste und die damit einhergehende Verbreitung im Meer interdisziplinär und über längere Zeiträume hinweg erforscht und bewertet. Es ist zugleich das erste umfassende Mikroplastik-Projekt, das die gewonnenen Ergebnisse in neue Informations- und Lehrkonzepte integriert“, erklärt Prof. Dr. Christian Laforsch, der an der Universität Bayreuth einen Lehrstuhl für Tierökologie innehat und das Vorhaben koordiniert „Die bisherigen Mikroplastik-Studien liefern meistens nur Momentaufnahmen, und sowohl die angewandten Methoden als auch die Ergebnisse sind kaum miteinander vergleichbar. Mit unserer ganzheitlichen Herangehensweise wollen wir dazu beitragen, einige empfindliche Wissenslücken zu schließen“, fügt der Bayreuther Wissenschaftler hinzu, der sich schon lange mit Gewässerkontaminationen durch Mikroplastik befasst.

„Wir wissen beispielsweise im Einzelnen noch viel zu wenig darüber, welche Rolle Wind und Wetter, Bodenerosion, Abwassersysteme und Kläranlagen bei der Entstehung und Verbreitung von Mikroplastik spielen. Ebenso benötigen wir belastbare Daten, die ein klares Bild von der Akkumulation der Plastikteilchen in verschiedenartigen Ökosystemen vermitteln, und auch die Wechselwirkungen zwischen Plastikeinträgen in der Umwelt und tierischen Organismen wollen wir genauer und umfassender nachverfolgen, als dies bisher geschehen ist“, erläutert Dr. Gunnar Gerdts vom Alfred-Wegener-Institut am Standort Helgoland.

Für alle diese Untersuchungen bietet die Region Weser / Wattenmeer nach Auffassung der Wissenschaftler optimale Voraussetzungen: Sie umfasst sowohl städtisch geprägte als auch stark landwirtschaftlich genutzte Regionen, so dass die jeweiligen Plastikeinträge in die Umwelt unabhängig voneinander bilanziert und verglichen werden können. Zudem befindet sich das Mündungsgebiet der Weser im sensiblen Nationalpark Niedersächsisches Wattenmeer, den die UNESCO als Weltnaturerbe anerkannt hat.

PLAWES ist von vornherein darauf angelegt, dass sich die am Beispiel der Pilotregion Weser / Wattenmeer gewonnenen Ergebnisse und entwickelten Konzepte auf ähnliche Fluss- und Küstenregionen in anderen Weltregionen übertragen lassen. Sie sollen eine Grundlage für nationale und internationale Strategien bilden, welche die von Plastikmüll ausgehenden Gefahren gezielt in den nachhaltigen Schutz aquatischer Ökosysteme integrieren. Dabei geht es letztlich auch um die Abwendung gesundheitlicher Risiken für den Menschen. So ist beispielsweise ein eigener Teilbereich des Projekts der Frage gewidmet, ob die Ausbreitung pathogener Mikroorganismen und die Entstehung von Antibiotikaresistenzen durch Mikroplastik in der Umwelt gefördert wird. Im Hinblick auf das Problem, dass Mikroplastik auch in die Nahrungsketten gelangen kann, werden Kleintiere in Süßgewässern und in der Nordsee auf mögliche schädliche Effekte untersucht.

Ein weiterer Schwerpunkt des neuen Vorhabens liegt auf dem Gebiet der Umweltbildung. Biologiedidaktiker aus Bayreuth und Oldenburg werden Urteilsfähigkeit, Einstellungen und Wissen zu Plastikmüll von Schülern und Lehrern erheben. Gemeinsam mit dem AWI Schülerlabor auf Helgoland werden Lernmaterialien zur Thematik Mikroplastik erarbeitet und erprobt. Ein mehrsprachiges Internet-Portal der Biologiedidaktik Bayreuth bereitet die im Rahmen von PLAWES erzielten Forschungsergebnisse und aktuelles Expertenwissen auf um die internationale Sichtbarkeit und Wirksamkeit des Projekts zu erhöhen.

Neben den genannten Universitäten und Forschungseinrichtungen, die sich im FONA-Projekt PLAWES zusammengeschlossen haben, werden auch folgende Stakeholder in die Forschungsarbeiten einbezogen: Bundesministerium für Umwelt, Naturschutz, Bau und Reaktorsicherheit; Umweltbundesamt; Senator für Umwelt, Bau und Verkehr Bremen; Hessisches Landesamt für Naturschutz, Umwelt und Geologie; Landesamt für Natur, Umwelt und Verbraucherschutz NRW; Thüringer Landesanstalt für Umwelt und Geologie; Niedersächsischer Landesbetrieb für Wasserwirtschaft, Küsten- und Naturschutz; Flussgebietsgemeinschaft Weser; Helmholtz-Zentrum Geesthacht – Zentrum für Material- und Küstenforschung; Landwirtschaftskammer NRW; Nationalparkverwaltung Niedersächsisches Wattenmeer; One Earth – One Ocean e.V.; und PlasticsEurope.

Kontakt:
Projektkoordinatoren:
Prof. Dr. Christian Laforsch
Lehrstuhl für Tierökologie I
Universität Bayreuth
Universitätsstr. 30
95447 Bayreuth
Tel.: +49 (0)921 / 55-2651
E-Mail: christian.laforsch@uni-bayreuth.de

Dr. Gunnar Gerdts
Alfred-Wegener-Institut
Helmholtz-Zentrum für Polar- und Meeresforschung
Kurpromenade
27498 Helgoland
Tel.: +49 (0)4725 / 819-3245
E-Mail: gunnar.gerdts@awi.de

Quelle: idw

(nach oben)


Management-Studie – Gemeinsam unehrlich

Luise Dirscherl Stabsstelle Kommunikation und Presse
Ludwig-Maximilians-Universität München

Lügen wie die anderen: LMU-Verhaltensökonomen zeigen, warum es Menschen in Gruppen mit der Wahrheit weniger genau nehmen, als wenn sie alleine entscheiden.

Ehrlichkeit gilt als hoher Wert. Doch sobald Menschen in Gruppen Entscheidungen gemeinsam fällen, weicht diese Norm auf: Sie werden unehrlicher. Das zeigt eine Studie um Martin G. Kocher, Simeon Schudy und Lisa Spantig von der LMU, die aktuell im Magazin Management Science veröffentlicht ist.

Ob Dieselskandal, Korruption oder Bilanzbetrug – mit welchen Tricks Mitarbeitende in Unternehmen ihren eigenen Vorteil oder den des Arbeitgebers suchen, sorgt immer wieder für Schlagzeilen. Die LMU-Ökonomen haben nun untersucht, wie es dazu kommen kann: Liegt es an individuellem Fehlverhalten oder gibt es dafür strukturelle Gründe im betroffenen Unternehmen?

Sie baten insgesamt 273 Studienteilnehmer zu einem Laborexperiment. Die Probanden wurden aufgefordert, ein Video eines Würfelwurfs zu beobachten und anschließend die Würfelzahl zu nennen. Je höher die genannte Augenzahl, desto höher war eine dafür versprochene Gratifikation. Es bestand also ein Anreiz, die Unwahrheit zu sagen, nämlich eine möglichst hohe Zahl, zu nennen. Die Aufgabe wurde sowohl einzelnen Probanden, die alleine entschieden, als auch Probanden, die sich über ihr Ergebnis in einem anonymen Gruppenchat abstimmten, gestellt.

„Unser Ergebnis ist eindeutig: Menschen lügen seltener, wenn sie alleine entscheiden“, sagt Martin Kocher, Inhaber des Lehrstuhls für Verhaltensökonomik an der LMU sowie Leiter des Instituts für Höhere Studien in Wien. Das gilt auch für jene Teilnehmer, die sich zuvor in einer Einzelentscheidung ehrlich verhalten haben. Der Grund für diesen „dishonesty shift“, wie die Forscher das Phänomen nennen, ist, dass sich die Mitglieder einer Gruppe über ihre Normvorstellungen und die Argumente dafür und dagegen austauschen: „Es liegt am Feedback. In Gruppen stimmen die Mitglieder ihre Vorstellungen, was richtig ist und was nicht, aufeinander ab. Dadurch gelingt es den einzelnen Beteiligten eher, die Norm umzuinterpretieren, als wenn sie allein entscheiden müssten“, erläutert Lisa Spantig, Laborleiterin und Doktorandin am Lehrstuhl, den Prozess. Wie die Studie auch zeigt, gehen die Teilnehmer nach solchen Gruppenprozessen eher davon aus, dass andere auch lügen und verhalten sich dann entsprechend.

In dem Experiment wurde dieser Mechanismus unter abstrakten Bedingungen ermittelt. So gab es beispielsweise keine Bestrafung für unehrliches Verhalten. Für Unternehmen könnte eine Lehre aus den Studienergebnissen sein, auf solche möglichen unerwünschten Teamprozesse besonders zu achten. „Es ist auffallend, dass in den großen Wirtschaftsskandalen meist Gruppen unrecht gehandelt haben“, sagt Spantig. So ist etwa von einem Analysten des US-Energieriesen Enron, der durch Bilanzbetrug seiner Manager sogar pleite ging, das Zitat überliefert: „It was no great secret what we were doing“. Um dem vorbeugen, empfehlen die Forscher etwa, einen Ethik-Kodex einzuführen: „Um die Erosion wesentlicher Normvorstellungen und ehrlichen Verhaltens in Gruppen zu verhindern, sollte Firmen starke Verhaltensregeln aufstellen und überprüfen“, sagt Assistenzprofessor Simeon Schudy.

Publikation:
Martin G. Kocher, Simeon Schudy, Lisa Spantig:
I lie? We lie! Why? Experimental Evidence on a Dishonesty Shift in Groups
In: Management Science 2017
http://pubsonline.informs.org/doi/abs/10.1287/mnsc.2017.2800

Kontakt
Simeon Schudy
Lehrstuhl für Verhaltensökonomik an der LMU
Tel.: +49 (0) 89/2180- 9786
E-Mail: simeon.schudy@econ.lmu.de

Quelle: idw

(nach oben)


Stärker individualisierte Blutdruckzielwerte. Die neuen Empfehlungen der Deutschen Hochdruckliga

Dr. Bettina Albers Pressearbeit
Deutsche Gesellschaft für Nephrologie e.V. (DGfN)

Bisher galt ein Zielblutdruck von unter 140/90 mmHg – gemäß dem Motto „one fits all“. Nun hat die Deutsche Hochdruckliga e.V. DHL® diese Empfehlung in Folge der SPRINT-Studie [1] überarbeitet: Bei Herz-Kreislauf-Risikopatienten soll ab sofort ein Blutdruckziel von unter 135/85 mmHg angestrebt werden. Bei den anderen bleibt der bisherige Zielbereich bestehen. Fazit von Professor Bernhard K. Krämer, Mannheim, Kongresspräsident der 9. Jahrestagung der Deutschen Gesellschaft für Nephrologie (DGfN): „Bluthochdruck ist eine komplexe Erkrankung. Die moderne Therapie muss daher risikoadaptiert und stärker individualisiert erfolgen.“

Die Deutsche Hochdruckliga e.V. DHL® senkt den Zielblutdruck für kardiovaskuläre Risikopatienten auf unter 135/85 mmHg. Zu ihnen zählen:

– Patienten mit einer bestehenden kardiovaskulären Erkrankung (ausgenommen
Schlaganfallpatienten),
– Patienten mit einer chronischen Nierenerkrankung ab dem Stadium 3 (=GFR <60
ml/min/1,73 m2),
– Patienten über 75 Jahre.

Für die anderen bleibt der bisherige Zielwert von unter 140/90 mmHg bestehen.

Warum erfolgte die Absenkung für Herz-Kreislauf-Risikopatienten?
Im Spätsommer 2015 wurde die vorzeitige Beendigung der SPRINT-Studie [1] („Systolic Blood Pressure Intervention Trial“) mitgeteilt, bei der es in der intensiver behandelten Blutdruckgruppe zu deutlich weniger kardiovaskulären Ereignissen und Todesfällen kam. Die SPRINT-Studie war eine multizentrische, randomisierte, kontrollierte Studie an Hypertonikern, die als Standardziel einen systolischen Blutdruck von <140 mmHg anstrebte und als Intensivziel einen systolischen Blutdruck von <120 mmHg. Insgesamt nahmen 9.361 Hypertoniepatienten mit einem erhöhten kardiovaskulären Risiko teil. Diabetiker waren in dieser vom NIH („National Institute of Health“) pharmaunabhängig finanzierten Studie allerdings ausgeschlossen. Verschiedene Studien an Diabetikern wie die ADVANCE- [2] oder ACCORD-Studie [3] hatten zuvor keinen Nutzen einer strengeren Blutdrucksenkung gezeigt.

„Die Deutsche Hochdruckliga e.V. DHL® hat daher die Zielwerte ausschließlich für die Patientengruppen abgesenkt, die im Rahmen der SPRINT-Studie untersucht worden waren. Nur hier liegt eine harte Evidenz vor, dass die Patienten von der strengeren Blutdrucksenkung profitieren. Das Ergebnis lässt sich aber nicht einfach auf alle anderen Patientengruppe übertragen“, so DGfN-Kongresspräsident Professor Bernhard K. Krämer, Mannheim. „Deshalb können wir auch nicht mehr einen einzigen Richtzielwert für alle herausgeben.“

Komplexes Erkrankungsbild erfordert komplexere Empfehlungen
Der Experte führt aus, dass Bluthochdruck ein komplexes Erkrankungsbild ist, insbesondere wenn die Erkrankung eine von mehreren bei multimorbiden Patienten ist. Auch müsse immer die individuelle Konstitution, des Patenten berücksichtigt werden, denn selbst in der SPRINT-Studie war die Nebenwirkungsrate der tieferen Blutdrucksenkung nicht unerheblich: So traten hypotensive Phasen, Synkopen, Elektrolytveränderungen und akutes Nierenversagen häufiger unter intensiver Blutdrucksenkung auf. Um Synkopen möglichst zu vermeiden, kann der Patient leicht auf das Vorliegen einer orthostatische Hypotonie getestet werden; so sollte nach einer Minute Stehen der systolische Blutdruck nicht unter 110 mmHg liegen.

Professor Krämer plädiert daher für eine individualisierte Therapie. „Nutzen und Risiko einer intensiveren Blutdrucksenkung sollten bei jedem einzelnen Patienten gegeneinander abgewogen werden.“ Auch räumt er ein, dass die Zielblutdruckverschiebung angesichts der hohen Rate an Patienten, die auch die „großzügigeren“ Werte von 140/90 mmHg nicht erreichen, zunächst als eine akademische Diskussion erscheinen mag. „Dennoch wollten wir handeln und ein deutliches Signal mit der Zielwertanpassung geben. In Sprint brachte die systolische Blutdrucksenkung auf etwa 130 mmHG – was in der Studie realiter erreicht worden war – eine Risikoreduzierung von 25%. Das heißt, jedes vierte Ereignis konnte bei den untersuchten Herz-Kreislauf-Risikopatienten verhindert werden. Wenn diese Patienten eine höhere Absenkung bei vertretbarem Risiko tolerieren, müssen wir sie auch in diesen Zielwertbereich bringen.“

Ende August 2017 erschienen im New England Journal zwei neue Subanalysen der SPRINT-Studie [4, 5] einer intensivierten Hypertonietherapie:

Die erste untersuchte, ob die Patienten niedrigere Wert tolerieren. Wie sich zeigte, erreichten die Patienten unter intensivierter Bluthochdruckbehandlung (unter 120 mmHg) bezüglich Depressionen (PHQ-9), physischer (PCS) und mentaler (MCS) Leistungsfähigkeit (erhoben mit Fragebögen) vergleichbare Werte wie die Patienten unter der Standardbehandlung. Dies galt auch für ältere sowie multimorbide Patienten. Auch Adhärenz und Patientenzufriedenheit unterschieden sich nicht zwischen den Gruppen und blieben im Verlauf der Studie konstant [4].

Die zweite Analyse [5] bewertete die Kosteneffektivität einer intensivierten Bluthochdruck-Behandlung (in einer Computersimulation). Im Ergebnis zeigte sich, dass zwar höhere Kosten durch einen höheren Medikamentenverbrauch, durch monatliche Arztbesuche und Blutkontrollen entstanden, die intensivierte Therapie aber dennoch kosteneffektiv war. Den höheren Kosten wurden mehr QALYS (mehr Lebensjahre bei guter Gesundheit) und Ersparnisse durch nicht eingetretene kardiovaskuläre Ereignisse gegenübergestellt.

„Natürlich erfordert die sprintkonforme Behandlung der Hypertonie zunächst einmal die Bereitstellung zusätzlicher finanzieller Mittel“, erklärt Professor Krämer. „Die Mehrkosten werden aber längerfristig durch das Auftreten von weniger kardiovaskulären Ereignissen bzw. den daraus entstehenden teuren Akuttherapien nivelliert. Das Wesentliche ist aber: Wir retten damit Leben!“

Literatur
[1] Wright JT, Jr., Williamson JD, Whelton PK et al. A Randomized Trial of Inten-sive versus Standard Blood-Pressure Control. N Engl J Med 2015; 373: 2103-2116.
[2] Cooper-Dehoff RM, Gong Y, Handberg EM et al. Tight blood pressure con-trol and cardiovascular outcomes among hypertensive patients with diabetes and coronary artery disease. JAMA 2010; 304: 61-68
[3] Cushman WC, Evans GW, Byington RP et al. Effects of intensive blood-pressure control in type 2 diabetes mellitus. N Engl J Med 2010; 362: 1575-1585

[4] Berlowitz DR, Foy CG, Kazis LE et al. SPRINT Research Group. Effect of Intensive Blood-Pressure Treatment on Patient-Reported Outcomes. N Engl J Med 2017 Aug 24; 377 (8): 733-44

[5] Bress AP, Bellows BK, King JB et al. SPRINT Research Group. Cost-Effectiveness of Intensive versus Standard Blood-Pressure Control. N Engl J Med 2017 Aug 24; 377 (8): 745-55

Weitere Informationen:
http://www.dgfn.eu

Quelle: idw

(nach oben)


In Zeiten des Klimawandels: Was die Farbe eines Sees über seinen Zustand verrät

Katharina Bunk Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)

Erwärmt sich ein großer See, intensiviert sich seine Farbe. Forschende des Leibniz-Instituts für Gewässerökologie und Binnenfischerei (IGB) haben Satellitendaten von 188 großen Seen weltweit ausgewertet. Seen, die viel Phytoplankton produzieren und deswegen grün sind, werden in warmen Jahren grüner, weil ihr Gehalt an Phytoplankton ansteigt. Klare, blaue Seen mit wenig Phytoplankton hingegen neigen dazu, in warmen Jahren noch blauer zu werden – der Gehalt an Phytoplankton in diesen Seen sinkt weiter ab. Entgegen bisheriger Annahmen verstärkt die Erwärmung eines Sees also dessen Reichtum oder Armut an Phytoplankton.

Seenforscher Dr. Benjamin Kraemer und sein Team nutzten frei zugängliche Satellitenbilder der NASA aus den Jahren 2002 bis 2016, um zu untersuchen, welche Zusammenhänge zwischen der Temperatur und dem Gehalt an Phytoplankton in 188 der größten Seen der Erde bestehen.

Ausgehend von bestehenden wissenschaftlichen Erkenntnissen erwarteten die WissenschaftlerInnen, dass die Erwärmung zu einer Abnahme von Phytoplankton in den Seen dieser Welt führen würde. Die Analysen zeigten jedoch, dass in warmen Jahren größere Phytoplanktonmengen in den meisten (68 Prozent) der analysierten Seen auftraten. Kraemer erklärt diesen Prozess so: „Die Erwärmung kann zu einer Zunahme von Phytoplankton führen, weil etwa die Wachstumsphasen länger werden oder weil sich die Zahl jener Tiere reduziert, die sich von Phytoplankton ernähren.“

Weniger ist nicht immer mehr…
In Seen mit geringem Phytoplanktongehalt gingen Phasen der Erwärmung mit einer weiteren Reduktion des Phytoplanktons einher. Dies hängt insbesondere mit der thermischen Schichtung eines Sees zusammen, die durch Erwärmung stabiler werden kann: „In phytoplanktonarmen Seen führt die Erwärmung des Oberflächenwassers mitunter dazu, dass Nährstoffe unterhalb dieser Schicht ‚gefangen‘ sind und nicht aufsteigen können. Das macht diese Stoffe für Phytoplankton unerreichbar und führt zu dessen Reduzierung und in der Folge zu einem blaueren See“, erklärt Kraemer. Was sich im ersten Moment nach einer Verbesserung anhört, kann allerdings Herausforderungen für das Management solcher Seen nach sich ziehen, beispielsweise im Hinblick auf deren Fischproduktivität.

…und die Reichen werden immer reicher
In Seen mit ohnehin viel Phytoplankton wiederum – und noch mehr in wärmeren Jahren – müsste die Nährstoffzufuhr reduziert werden, um auch bei steigenden Temperaturen die (bisherige) Wasserqualität zu bewahren. Die Intensivierung der Farbe eines Sees kann also als Indikator dienen, um Maßnahmen gegen mögliche Verschlechterungen zu ergreifen, wenn sich ein See erwärmt.

Im nächsten Schritt wollen die Forschenden ihre Analyse ausweiten und mehr und vor allem kleinere Seen über längere Zeitabschnitte untersuchen. Da die meisten Seen auf der Erde eher klein sind, ist ein besseres Verständnis darüber, wie sie auf Erwärmung reagieren, wichtig für das Management von Seen. Kleinere Seen neigen zu einer stärkeren Produktivität und könnten deswegen stärker vom Klimawandel betroffen sein als große Seen.

Studie:
Benjamin M. Kraemer, Thomas Mehner, Rita Adrian (2017): Reconciling the opposing effects of warming on phytoplankton biomass in 188 large lakes, Scientific Reports 7, Article number: 10762 (2017), doi:10.1038/s41598-017-11167-3. Zur Studie > https://www.nature.com/articles/s41598-017-11167-3

Ansprechpartner:
Dr. Benjamin Kraemer, Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB), Abt. Ökosystemforschung, bkraemer@igb-berlin.de

Katharina Bunk, Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB), Presse- und Öffentlichkeitsarbeit, bunk@igb-berlin.de, T +49 (0)30 641 81 631, M +49 (0)170 45 49 034

Über das Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB):
Das IGB ist das bundesweit größte Forschungszentrum für Binnengewässer. Es verbindet Grundlagen- und Vorsorgeforschung, bildet den wissenschaftlichen Nachwuchs aus und berät Politik und Gesellschaft in Fragen des nachhaltigen Gewässermanagements. Forschungsschwerpunkte sind u.a. die Langzeitentwicklung von Seen, Flüssen und Feuchtgebieten angesichts sich rasch ändernder Umweltbedingungen, die Renaturierung von Ökosystemen, die Biodiversität aquatischer Lebensräume sowie Technologien für eine ressourcenschonende Aquakultur. Die Arbeiten erfolgen in enger Kooperation mit den Universitäten und Forschungsinstitutionen der Region Berlin/Brandenburg und weltweit. Das IGB gehört zum Forschungsverbund Berlin e. V., einem Zusammenschluss von acht natur-, lebens- und umweltwissenschaftlichen Instituten in Berlin. Die vielfach ausgezeichneten Einrichtungen sind Mitglieder der Leibniz-Gemeinschaft. http://www.igb-berlin.de/

Weitere Informationen:
https://oceancolor.gsfc.nasa.gov/cgi/l3/A20021852017090.L3m_CU_CHL_chlor_a_4km.n…
Globale Chlorophyll_a-Karte, die das Team für seine Analysen verwendet hat. Blau und Grün zeigen einen niedrigen Phytoplanktongehalt an, während Rot für einen hohen Phytoplanktongehalt steht. Karte zur freien Verwendung von NASA’s OceanColor Web.

Quelle: idw

(nach oben)


Schnitzel aus der Petrischale stößt auf Akzeptanz

Monika Landgraf Strategische Entwicklung und Kommunikation – Gesamtkommunikation
Karlsruher Institut für Technologie

Die Vision klingt verheißungsvoll: Fleisch kommt auf den Teller, ohne dass dafür Tiere sterben müssen. Massentierhaltung und Fleischskandale lassen die Fleisch-Lust der Deutschen allmäh-lich schwinden. Immer mehr Verbraucher greifen daher ersatz-weise zu Veggie-Wurst und Soja-Steak. Im Labor gezüchtetes tierisches Muskelgewebe verspricht ziemlich echten Fleischkon-sum ohne schlechtes Gewissen. Ob das sogenannte In-vitro-Fleisch tatsächlich als Alternative taugt, haben jetzt Forscher des Karlsruher Instituts für Technologie (KIT) untersucht.

Noch ist die Herstellung des Labor-Fleischs aufwendig und nur in winzigen Mengen möglich. „In Zukunft könnte In-vitro-Fleisch jedoch vielleicht helfen, Probleme zu lösen, die unser Fleischkonsum im Hinblick auf eine wachsende Weltbevölkerung, den Klimawandel und Tierschutz bedeutet“, sagt Inge Böhm vom Institut für Technikfol-genabschätzung und Systemanalyse (ITAS). „Mit der Kultivierung von tierischen Muskelstammzellen in einer Zellkultur wäre es eventu-ell nicht länger nötig, unter enormem Ressourcenaufwand Tiere erst heranzuzüchten und dann zu töten“, so die Geisteswissenschaftlerin weiter.

Derweil sind schon Fleischersatzprodukte wie detailgetreue Nachbil-dungen von Putenbrust, Schweineschnitzel oder Frikadellen aus Soja oder Seitan nicht unumstritten. Während immer mehr Teilzeit-vegetarier, die aus ethischen Gründen weniger Fleisch essen wollen, zu Pseudo-Fleisch aus zusammengepresstem Soja, Erbsen und Karotten greifen, sehen Kritiker in den Imitaten hochverarbeitete künstliche Lebensmittel, die zu einer noch stärkeren Entfremdung von Mensch und Tier führten. Auch bestehen bei der Fleischproduk-tion aus tierischen Muskelstammzellen in einer Zellkultur trotz jüngst erzielter technischer Fortschritte noch einige Schwierigkeiten, wie das Fehlen einer tierfreien Nährlösung.

Wie es um die gesellschaftliche Akzeptanz von tierischen Muskelzel-len aus der Petrischale als Fleischersatz steht, untersuchten die Wissenschaftlerinnen am ITAS anhand von Interviews und partizipa-tiven Verfahren (Fokusgruppen, Bürgerjury). Sie befragten Experten aus Wissenschaft und Systemgastronomie genauso wie Vertreter von Umwelt- und Tierrechtsorganisationen sowie ökologischen und konventionellen Anbauverbänden. Auch Bürger hatten die Möglichkeit, sich einzubringen.

Laut der Studie sieht die Mehrheit der Befragten im In-vitro-Fleisch eine von vielen möglichen Alternativen zur konventionellen Fleisch-produktion. Gleichzeitig stößt In-vitro-Fleisch bei denjenigen auf Widerstand, die die Zukunft der Ernährung in einer Reduktion des Fleischkonsums und dem ökologischen Umbau der Landwirtschaft sehen. Gegen das Fleisch aus dem Labor sprechen auch die bereits genannte mögliche weitere Entfremdung des Menschen vom Tier und die Gefahr einer Monopolisierung der In-vitro-Fleisch-Produktion.

„Der überwiegende Teil der Gesellschaft, wünscht sich, dass die Politik Strategien entwickelt, um den Fleischkonsum zu reduzieren, die nachhaltige Umgestaltung der Landwirtschaft voranzutreiben sowie Forschung und Entwicklung pflanzenbasierter Alternativen zu fördern“, sagt Böhm.

Als „Die Forschungsuniversität in der Helmholtz-Gemeinschaft“ schafft und vermittelt das KIT Wissen für Gesellschaft und Umwelt. Ziel ist es, zu den globalen Herausforderungen maßgebliche Beiträge in den Feldern Energie, Mobilität und Information zu leisten. Dazu arbeiten rund 9.300 Mitarbeiterinnen und Mitarbeiter auf einer breiten disziplinären Basis in Natur-, Ingenieurs-, Wirtschafts- sowie Geistes- und Sozialwissenschaften zusammen. Seine 26.000 Studierenden bereitet das KIT durch ein forschungsorientiertes universitäres Studium auf verantwortungsvolle Aufgaben in Gesellschaft, Wirtschaft und Wissenschaft vor. Die Innovationstätigkeit am KIT schlägt die Brücke zwischen Erkenntnis und Anwendung zum gesellschaftlichen Nutzen, wirtschaftlichen Wohlstand und Erhalt unserer natürlichen Lebensgrundlagen.

Weiterer Kontakt:
Dr. Felix Mescoli
Pressereferent
Tel.: +49 721 608 48120
Fax: +49 721 608 43658
felix mescoli@kit edu

Anhang
Schnitzel aus der Petrischale stößt auf Akzeptanz
https://idw-online.de/de/attachment58516

Quelle: idw

(nach oben)


Beschleunigt Wasserknappheit die Energiewende?

Sebastian Mense Kommunikation, Presse- und Öffentlichkeitsarbeit
Universität Kassel

Wasser ist für die Nutzung fossiler und erneuerbarer Energieträger ein bedeutsamer Faktor. Ob und wie das global zur Verfügung stehende Wasser die Nutzung erneuerbarer Energien begünstigt und fossile Energieträger ausbremst, untersucht nun ein Verbund aus neun deutschen Forschungseinrichtungen und kleinen und mittleren Unternehmen (KMU). Das Projekt WANDEL wird hierzu unter Koordination des Center for Environmental Systems Research (CESR) der Universität Kassel in den nächsten drei Jahren eine fundierte Wissensgrundlage und praxisorientierte Lösungsansätze erarbeiten. Es wird vom Bundesforschungsministerium (BMBF) mit rund 2,5 Mio. Euro gefördert.

Die Verfügbarkeit von Wasser und Energie sind für eine nachhaltige Entwicklung global von zentraler Bedeutung. Energie braucht Wasser (zur Energiebereitstellung) und Wasser braucht Energie (zur Wassergewinnung und -aufbereitung). Oft benötigt die Bereitstellung von Energie aus erneuerbaren Quellen weniger Wasser als die Bereitstellung von Energie aus fossilen Rohstoffen. Wasserknappheit könnte somit den Wechsel zu erneuerbaren Energien und die Energiewende beschleunigen. Jedoch können bei bestimmten erneuerbaren Energiesystemen, wie z.B. bei solarthermischen Kraftwerken in wasserarmen Regionen, Konflikte mit anderen Wassernutzungssektoren auftreten und den weiteren Ausbau hemmen.

Im Mittelpunkt des Verbundprojektes WANDEL steht daher die wissenschaftliche Fragestellung, ob eine Einschränkung der Wasserverfügbarkeit den Einsatz konventioneller Energiesysteme begrenzt oder sogar begünstigt.

Es wird untersucht, inwiefern die verfügbaren erneuerbaren Wasserressourcen die Energiewende beschleunigen oder die Umsetzung einer weltweiten Energiewende negativ beeinflussen.
Maßgebend für diese Untersuchungen wird der Wasserfußabdruck sein. Dieser gibt an, wieviel Wasser aus welcher Region der Welt ein Konsument oder Produzent direkt und indirekt über die Herstellung eines Produktes konsumiert. Dies gilt auch für den Wasserbedarf zur Energiebereitstellung und -nutzung. Daher werden mit dem Forschungsvorhaben erstmalig die Auswirkungen der Energieerzeugung nicht nur lokal und regional im jeweiligen Wassereinzugsgebiet, sondern auch die Fernauswirkungen auf andere Regionen weltweit unter Berücksichtigung der Wasserverfügbarkeit betrachtet. Die Analyse umfasst die Ermittlung von Brennpunkten hoher Wassernutzung unter aktuellen und zukünftigen Bedingungen (2030 und Ausblick 2050) sowohl entlang der globalen Produktions- und Versorgungsketten verschiedener Energiesysteme als auch zwischen Wasserbedarf zur Energieerzeugung und Wasserverfügbarkeit in räumlicher Auflösung.

WANDEL wird Lösungsansätze entwickeln. Mit diesem Ziel vor Augen wird die Verbundforschung regulatorische und technische Lösungen zur Reduzierung der Auswirkungen von Energiesystemen auf Wasserressourcen aufzeigen. Lösungen werden Fallstudien-spezifisch ausgearbeitet und vermittelt. Neben einem Konsortium aus Wissenschaft und Praxis sind regionale und internationale Praxispartner (Entscheidungsträger) aktiv in das Vorhaben eingebunden. Damit wird eine solide Grundlage geschaffen, um theoretisch fundiert und zugleich praxisnah Konflikte zu analysieren und vor allem Lösungsmöglichkeiten zu bieten.

WANDEL zeigt Praxisnähe. Die detaillierten Analysen werden in vier Fallstudien unter Einbeziehung regionaler Akteure durchgeführt. Zwei Fallstudiengebiete liegen innerhalb Deutschlands und zwei außerhalb Europas: Die Ober- und Mittelweser sowie die Obere Donau (Deutschland), das Einzugsgebiet des Rio dos Patos (Brasilien) sowie das Drâa-Valley (Marokko). Die Auswahl der Einzugsgebiete erfolgte unter dem Aspekt, dass sowohl die wasserrelevanten Energiesysteme (Kohle, Wasserkraft, Biomasse, Solarthermie) als auch eine Bandbreite an klimatischen und ökonomischen Bedingungen abgedeckt werden. Diese Strategie ermöglicht auch eine adäquate Übertragung der Resultate auf andere Einzugsgebiete mit ähnlichem Charakter.

Das Verbundprojekt WANDEL wird im Rahmen der Fördermaßnahme „GRoW – Globale Ressource Wasser“ im Programm „Forschung für Nachhaltige Entwicklung (FONA)“ vom Bundesministerium für Bildung und Forschung (BMBF) mit rund 2,5 Mio. Euro gefördert. Davon gehen rund 780.000 Euro an die Uni Kassel.

Kontakt:
Dr.-Ing. Martina Flörke
Universität Kassel
Center for Environmental Systems Research (CESR)
Tel. +49 561 804-6120
E-Mail: floerke@usf.uni-kassel.de

Verbundpartner:
Universität Kassel, Center for Environmental Systems Research
Universität Kassel, Fachgebiet Wasserbau und Wasserwirtschaft
Leibniz-Institut für Gewässerökologie und Binnenfischerei
Universität Osnabrück, Institut für Umweltsystemforschung
United Nations University, Institute for Environment and Human Security
Wuppertal Institut für Klima, Umwelt, Energie gGmbH
KIMA Automatisierung GmbH
Gesellschaft für Wasserwirtschaft, Gewässerökologie und Umweltplanung mbh
mundialis GmbH & Co. KG

Weitere Informationen:
http://www.uni-kassel.de

Quelle: idw

(nach oben)


Schaufensterkrankheit – jeder vierte Patient über 65 Jahren ist betroffen: Gehtraining hilft

Stefan Dreising Stabsstelle Unternehmenskommunikation
Universitätsklinikum Düsseldorf

Für 1,3 Millionen Patienten (rund acht Prozent aller Menschen über 65 Jahre) in Deutschland gehören sie zum Alltag: Heftige, krampfartige Schmerzen in der Wade, aber auch im Fuß, Oberschenkel und Gesäß beim Laufen oder Treppensteigen, die beim Stehenbleiben rasch besser werden. Die Folge sind schmerzbedingte verkürzte Gehstrecken und häufige Zwangspausen. Im Volksmund spricht man daher häufig von der Schaufensterkrankheit (fachlich: periphere arterielle Verschlusskrankheit/pAVK).

Schuld an einer pAVK-Erkrankung sind Durchblutungsstörungen der Schlagadern in den Beinen. Helfen können spezielle Sportübungen: Am Universitätsklinikum Düsseldorf (UKD) wurde in diesem Jahr bereits die sechste auf pAVK spezialisierte Therapiegruppe ins Leben gerufen. Beim diesjährigen Symposium zu „Sport in der Gefäßmedizin“ am Mittwoch, 27. September 2017, im Haus der Universität in der Düsseldorfer Innenstadt stellt die Klinik für Gefäß- und Endovaskularchirurgie am UKD verschiedene Trainingsstrukturen und Übungen vor. Die Veranstaltung ist offen für Interessierte und Fachpublikum.

Bei einer pAVK führen Ablagerungen (unter anderem von Kalk) dazu, dass sich die Beinarterien verengen oder komplett verschließen. Ähnlich wie bei einem verstopften Rohr, fließt nun weniger Blut durch die Arterie und es kommt zu einer Blutunterversorgung der Beine. Während sich frühe Stadien einer Erkrankung durch die bereits genannten Schmerzen zeigen, drohen in späteren Stadien Gewebeveränderungen bis hin zur möglicherweise notwendigen Amputation oder Blutvergiftung durch Infektionen der Wunden. Aktuelle Studien gehen davon aus, dass in Deutschland etwa jeder vierte Patient über 65 Jahren von pAVK betroffen ist und etwa jeder zehnte Symptome zeigt. Dabei erkranken Männer viermal häufiger als Frauen. Als besonders gefährdet gelten Diabetiker und Raucher: Sie haben ein bis zu sechsfach höheres Risiko an pAVK zu erkranken.

„Die Hauptstraße ist geschlossen, deshalb müssen wir die Nebenstraßen ausbauen“
Für Patienten mit pAVK und einer Gehstreckenverkürzung empfiehlt die Deutsche Gesellschaft für Gefäßchirurgie und -medizin (DGG) ein regelmäßiges strukturiertes Gehtraining. Damit lässt sich die Gehstrecke wieder verlängern und eine Operation oder gar Amputation verhindern. „Wenn die Hauptarterien im Bein verschlossen sind, muss das Blut über einen anderen Weg dahin kommen. Wir sagen unseren Patienten immer: Die Hauptstraße ist geschlossen, deshalb müssen wir die Nebenstraßen ausbauen“, erklärt Prof. Dr. Hubert Schelzig, Direktor der Klinik für Gefäß- und Endovaskularmedizin. „Gezielte Sportübungen helfen dabei sogenannte Kollateralgefäße durch Impulse zu stärken. Das sind Nebengefäße der Hauptschlagadern. Durch das strukturierte Gefäßtraining kann das Blut quasi um die Verstopfung umgeleitet und das Bein wieder besser versorgt werden.“

„Bei jeder Untersuchung kann ich schon 100 Meter weiter laufen.“
Bereits seit 2014 bietet die Klinik gemeinsam mit dem Verein für Gesundheitssport und Sporttherapie Düsseldorf-Ratingen e.V. ein strukturiertes Gefäßtraining an. Es findet einmal in der Woche auf dem Gelände des Universitätsklinikums unter der Anleitung eines lizensierten Gefäßsporttrainers statt. „Ich merke jede Woche, wie mir der Kurs etwas bringt. Bei jeder Untersuchung kann ich auf dem Laufband 100 Meter weiter gehen“, berichtet Teilnehmer Wolfram Voßhage, der für die Sportgruppe jede Woche über 90 Kilometer Anfahrt aus Moers in Kauf nimmt. Sein Teammitglied Andreas Gob kommt aus Haan und erklärt: „In der Gemeinschaft macht Sport einfach mehr Spaß. Alleine zuhause macht man es ja doch nicht regelmäßig. In der Gefäßsportgruppe haben alle ähnliche Beschwerden wie ich und verstehen meine Probleme. Das motiviert mich!“

Im Rahmen des diesjährigen Symposiums werden die Gefäßexperten der Düsseldorfer Klinik neben den Sportkonzepten auch die allgemeinen Vorteile von Sport für das Herz-Kreislaufsystem und eine Aufklärungskampagne gegen Tabakkonsum als Hauptgrund für Arterienverkalkung vorstellen.

Weitere Informationen:
http://www.uniklinik-duesseldorf.de/gefaesssport

Quelle: idw

(nach oben)


Schärfere Bestimmungen zum Schutz vor schädlichen Umwelthormonen nötig: EU-Kriterien unzureichend

Medizin – Kommunikation Medizinkommunikation
Arbeitsgemeinschaft der Wissenschaftlichen Medizinischen Fachgesellschaften e.V.

Endokrine Disruptoren (EDCs), auch Umwelthormone genannt, sind wegen ihrer möglichen Gesundheitsschädigung hochumstritten. Im Juli wurden die EU-Kriterien für Pflanzenschutzmittel angenommen, mit denen EDCs identifiziert und Zulassungen ggf. abgelehnt werden können. Diese Kriterien sind nach Meinung der Deutschen Gesellschaft für Endokrinologie (DGE) unzureichend. Sie bieten unter anderem Schlupflöcher für Chemikalien zur Schädlingsbekämpfung, die hergestellt werden, um in das Hormonsystem von Insekten einzugreifen.

Endokrine Disruptoren (EDCs) finden sich in Kunststoffverpackungen, Fertignahrung, Kosmetika und Pflanzenschutzmitteln. Es sind weitverbreitete synthetische oder natürlich vorkommende Stoffe, die in den Hormonhaushalt des Körpers eingreifen können. Experten wissen schon lange, dass EDCs die Gesundheit beeinträchtigen können. „Manche der chemischen Substanzen wirken wie Hormone und binden im Körper an einen Hormonrezeptor. Andere wiederum blockieren Hormonrezeptoren und verhindern so, dass körpereigene Hormone andocken und wirksam werden können“, erklärt Professor Dr. rer. nat. Josef Köhrle vom Institut für Experimentelle Endokrinologie, Charité – Universitätsmedizin Berlin, und Präsident der DGE. Wieder andere Substanzen stören die Produktion oder die Umwandlung körpereigener Hormone und bringen so das fein austarierte Hormonsystem aus der Balance. „Seit Jahrzehnten beobachten wir eine zunehmende Beeinträchtigung der männlichen und weiblichen Fruchtbarkeit“, sagt Köhrle. Fünf bis zehn Prozent der Frauen im gebärfähigen Alter litten beispielsweise an dem Syndrom der polyzystischen Ovarien (PCOS), das für Zyklusstörungen, Zysten in den Eierstöcken und ungewollte Kinderlosigkeit verantwortlich ist. „Es gibt mehr hormonabhängige Tumoren, also mehr Prostata-, Hoden- und Brustkrebs, Jugendliche kommen früher in die Pubertät, Übergewicht und Diabetes nehmen ebenso zu wie Entwicklungsstörungen bei Kindern“, so Köhrle weiter. Wenngleich es immer Ursachenbündel sind, die Krankheiten verursachen, bestehe kein Zweifel daran, dass bestimmte EDCs wie Bisphenole oder Phthalate daran beteiligt sind, die beide in der Herstellung von Kunststoffen, vielen Haushaltsgegenständen und Körperpflegemitteln verwendet werden, so der Experte.

Vertreter der EU-Mitgliedstaaten haben Anfang Juli 2017 einem Vorschlag der Europäischen Kommission zu „wissenschaftlichen Kriterien für die Bestimmung endokriner Disruptoren im Bereich Pflanzenschutzmittel“ zugestimmt. „Was zunächst einmal gut klingt, ist bei genauer Betrachtung eine halbherzige Angelegenheit. Die Kriterien der EU-Kommission lassen Schlupflöcher offen“, so Köhrle. Es gibt Ausnahmen für einige in der Landwirtschaft eingesetzte Pestizide, die über einen bestimmten Wirkmechanismus verfügen, um in das endokrine System des Schädlings einzugreifen und damit seine Vermehrung unterbinden. Fipronil ist dafür ein gutes Beispiel. Es wirkt als EDC für Gehirn und Nervensystem sowie auf die Nachkommen. „Bei Menschen und Säugetieren ist es zwar nicht der gleiche Rezeptor für Sexualsteroid-Hormone wie bei den Insekten, aber erstere verfügen über eine Gruppe von verwandten Rezeptoren. Das könnte also zu den bereits genannten Erkrankungen führen“, erklärt Köhrle. Das EU-Kriterien-Bündel wird dazu führen, dass Chemikalien, die als EDCs entwickelt werden, nicht als EDCs klassifiziert werden können. Damit stünde ihrer Zulassung nichts im Weg.

Fachleute wünschen sich schon lange, dass die Politik stärker ins Handeln kommt, ähnlich wie bei Krebs auslösenden Stoffen: So sind beispielsweise Dioxine, deren krebsauslösenden Eigenschaften durch Studien belegt werden konnten, in der Umwelt stark reduziert worden, da es technische und rechtliche Maßnahmen auf politischer Ebene gab. Auch Verbote konnten durchgesetzt werden, wie für chlorierten Kohlenwasserstoff PCP (Pentachlorphenol) oder die polychlorierten Biphenyle (PCB). Diese wurden als Weichmacher in Kunststoffen und als Zusatzstoff für Farben und Dichtungsmassen verwendet. „Wie bei karzinogenen Stoffen sollte sich in der Politik das Vorsorgeprinzip durchsetzen: Bereits der Verdacht einer Gesundheitsgefährdung sollte ausreichen, um eine Substanz vom Markt zu nehmen“, fordert Köhrle.

Die DGE unterstürzt die Position der großen internationalen endokrinologischen Fachgesellschaften, die deutlich vor einer Annahme dieser EU-Kriterien gewarnt hatten – ohne Erfolg. An die deutschen Behörden gerichtet fordert der DGE-Präsident: „Aufklärungsmaßnahmen für besondere Bevölkerungsgruppen wie etwa schwangere Frauen und ein nationaler Aktionsplan zum Schutz vor solchen Umwelthormonen sind unverzichtbar.“
Anlässlich des 2. Deutschen Hormontages am 16. September 2017 findet am 13. September 2017 in Berlin eine Pressekonferenz der DGE statt. Weitere Themen sind: „Trendwende: Hormontherapie bei Wechseljahresbeschwerden“, „Transidentität – Voraussetzungen für eine optimale Therapie“ und „10-Punkte-Programm für eine sinnvolle Diagnostik und Therapie in der Endokrinologie.“

Endokrinologie ist die Lehre von den Hormonen, Stoffwechsel und den Erkrankungen auf diesem Gebiet. Hormone werden von endokrinen Drüsen, zum Beispiel Schilddrüse oder Hirnanhangdrüse, aber auch bestimmten Zellen in Hoden und Eierstöcken, „endokrin“ ausgeschüttet, das heißt nach „innen“ in das Blut abgegeben. Im Unterschied dazu geben „exokrine“ Drüsen, wie Speichel- oder Schweißdrüsen, ihre Sekrete nach „außen“ ab.

DGE Medienpreis 2017/2018:
Die Deutsche Gesellschaft für Endokrinologie (DGE) schreibt zum zweiten Mal den DGE-Medienpreis für journalistische Beiträge zu Erkrankungen des Hormonsystems und Störungen des Stoffwechsels aus. Bewerbungsschluss ist der 15. Februar 2018. Das Preisgeld beträgt 2.000 Euro. Der Medienpreis würdigt herausragende journalistische Arbeiten zu endokrinologischen Themen, die sorgfältig recherchiert, allgemeinverständlich formuliert sind und den Kriterien medizin-journalistischer Qualität entsprechen. Teilnehmen können Journalistinnen und Journalisten aus den Bereichen Text (Zeitungen, Zeitschriften, Internettexte), Fernsehen und Hörfunk. Die Beiträge werden bei der DGE-Pressestelle eingereicht. Nähere Informationen unter http://www.endokrinologie.net/medienpreis.php oder telefonisch unter 0711 8931-380.

Weitere Informationen:
http://www.hormongesteuert.net
http://www.facebook.com/dge.hormongesteuert
http://www.endokrinologie.net

Quelle: idw

(nach oben)


Pilotprojekt zur CO2-Speicherung erfolgreich beendet

Ralf Nestler Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum Potsdam – Deutsches GeoForschungsZentrum GFZ

Nach 13 Jahren erfolgreicher Forschungsarbeit geht das Projekt Ketzin jetzt zu Ende. In der Stadt an der Havel hat das Deutsche GeoForschungsZentrum GFZ erforscht, ob sich Kohlenstoffdioxid (CO2) sicher und dauerhaft im Untergrund speichern lässt und wie es sich in der Tiefe verhält. Dazu wurden mehr als 67.000 Tonnen CO2 zwischen 2008 und 2013 über eine Bohrung in einen so genannten Speicherhorizont gepumpt. Dort, in rund 630 Metern Tiefe, befindet sich poröser Sandstein, der von salzhaltigem Grundwasser durchzogen ist – ein „saliner Aquifer“.

Bei einer Abschlusskonferenz zogen die beteiligten Forscherinnen und Forscher Bilanz und diskutierten mit europäischen Fachleuten die Perspektiven der CO2-Abscheidung und -Speicherung (CCS für Englisch: Carbon Capture and Storage). Projektleiter Axel Liebscher sagte: „Wir haben gezeigt, dass sich Kohlenstoffdioxid sicher in die Tiefe bringen und speichern lässt. Die mächtigen Schichten aus Tongestein über dem Speicherhorizont bilden eine zuverlässige Abdichtung.“

Die Forschungsarbeiten in Ketzin/Havel begannen mit Vorerkundungen im Jahr 2004. Von Anfang an wurden die Kommune und die lokale Bevölkerung in das Forschungsvorhaben mit einbezogen. Bis heute genießt das Projekt hohe Akzeptanz. Die eigentliche Verpressung des CO2 fand ab Juli 2008 statt. Verwendet wurde dazu überwiegend lebensmitteltaugliches Kohlenstoffdioxid, wie man es beispielsweise aus Wassersprudlern kennt. Innerhalb von fünf Jahren brachten Tanklastzüge das CO2 nach Ketzin, wo es über eine Injektionsbohrung in den Untergrund gepumpt wurde. Vier weitere Bohrungen wurden abgeteuft, um die Ausbreitung des CO2 im Untergrund sowie die Dichtheit des Speichers mit modernsten geochemischen und geophysikalischen Methoden zu überwachen.

Nach dem Ende der CO2-Injektion wurde die Speicherüberwachung weitere viereinhalb Jahre fortgesetzt, um die Stabilität des Speichers zu beobachten. Die Überwachung zeigte keine Unregelmäßigkeiten des Speichers und wird Ende dieses Jahres abgeschlossen. Dann werden auch die letzten Bohrlöcher verfüllt sein. Die Bodenoberfläche wird dann in den vorherigen Zustand versetzt.

Der Wissenschaftliche Vorstand des GFZ, Reinhard Hüttl, sagt: „Mit unserer Arbeit haben wir der Gesellschaft eine Option aufgezeigt, wie der CO2-Eintrag in die Atmosphäre zu reduzieren ist. Es ist allerdings Sache der Politik, zu entscheiden, ob dieser Weg beschritten werden soll.“ In Deutschland, so Hüttl weiter, gebe es erhebliche Widerstände; in anderen europäischen Ländern wie Norwegen dagegen würden weitere CCS-Projekte auch in großem Maßstab geplant.

Weitere Informationen:
http://www.co2ketzin.de/dialog-amp-kontakt/fragen-und-antworten/

Pressebilder zu dieser Mitteilung finden Sie hier http://www.gfz-potsdam.de/medien-kommunikation/mediathek/bildarchiv/co2manco2sin…

Weitere Informationen:
http://www.gfz-potsdam.de/medien-und-kommunikation/meldungen/detailansicht/artic…

Quelle: idw

(nach oben)


Mixing Artificial Sweeteners Inhibits Bitter Taste Receptors

Dr. Gisela Olias Presse- und Öffentlichkeitsarbeit
Deutsches Institut für Ernährungsforschung Potsdam-Rehbrücke

Blends of artificial sweeteners such as saccharin and cyclamate produce less of a bitter off-taste than each of the individual components, but the explanation for this puzzling phenomenon has been elusive ever since its discovery more than 60 years ago. A study published September 14th in the journal Cell Chemical Biology solves this long-standing mystery, revealing that saccharin inhibits the activity of bitter taste receptors stimulated by cyclamate and, conversely, that cyclamate reduces the off-taste elicited by saccharin.

„Numerous sweeteners exhibit undesirable off-tastes, limiting their use in food products and beverages,“ says lead author Maik Behrens of the German Institute of Human Nutrition Potsdam-Rehbruecke. „Our findings in this study provide us with the tools and knowledge to find ways leading to superior sweetener blends.“

High-potency sweeteners are widely used to replace energy-rich, tooth-decay-inducing sugars in food items to meet the requirements of health-conscious consumers. But in addition to stimulating sweet taste receptors, sugar substitutes also activate bitter taste receptors (known as TAS2Rs) at high concentrations, resulting in an undesired off-taste. To overcome this problem, the food industry is constantly searching for novel sugar substitutes and frequently resorts to using blends combining non-caloric sweeteners in a single formulation.

The earliest blend allowing higher sweetness levels with reduced bitter off-taste combined saccharin with cyclamate. But since this discovery 62 years ago, the mechanism by which sweetener blends become superior to single compounds has remained obscure. A clue to this mystery came when Behrens and his team discovered that some bitter compounds not only activate a subset of the 25 human bitter taste receptors, but also can inhibit different bitter taste receptors. „Knowing that mixtures of saccharin and cyclamate exert reduced bitterness compared to the single compounds raised the question [of] whether this might be due to mutual inhibition of bitter taste receptor responses,“ Behrens says.

To explore this possibility, Behrens and senior author Wolfgang Meyerhof of the German Institute of Human Nutrition Potsdam-Rehbruecke expressed various human taste receptors in human cells and tested their responses to different concentrations of saccharin and cyclamate. Using this cell-based system, they discovered that cyclamate strongly inhibits the saccharin-induced activation of two bitter taste receptors called TAS2R31 and TAS2R43. This effect occurred at concentrations where cyclamate itself does not elicit a side taste. Similarly, saccharin blocked the cyclamate-induced responses of a bitter taste receptor called TAS2R1.

„Saccharin and cyclamate belong to the oldest-known high-potency synthetic sweeteners, and we were able to discover with our cell assay completely novel features of these molecules, namely their bitter-blocking ability,“ Behrens says.

For the time being, it remains unclear whether the components of other sweetener blends also show mutual inhibition of bitter taste receptors. „Once the activation and inhibition profiles of the 25 human bitter taste receptors have been investigated in great detail, it will be possible to tailor the composition of mixtures to develop novel sweetener formulations and to improve the taste of medicine,“ Meyerhof says.

Funding was provided by the European Union’s Seventh Framework Programme.
Cell Chemical Biology, Behrens et al.: „Blends of Non-caloric Sweeteners Saccharin and Cyclamate Show Reduced Off-Taste due to TAS2R Bitter Receptor Inhibition“

Cell Chemical Biology (@CellChemBiol), published by Cell Press, is a monthly journal publishing research and review content of exceptional interest for the chemical biology community. The journal’s mission is to support and promote chemical biology and drive conversation and collaboration between chemical and life sciences. Visit: http://www.cell.com/chemistry-biology. To receive Cell Press media alerts, contact press@cell.com.

Author Contact:
Dr. Maik Behrens
German Institute of Human Nutrition Potsdam-Rehbruecke
Dept. Molecular Genetics
Arthur-Scheunert-Allee 114-116
14558 Nuthetal, Germany
phone: +49 (0)33200 88 2545
e-mail: behrens@dife.de

Prof. Dr. Wolfgang Meyerhof
German Institute of Human Nutrition Potsdam-Rehbruecke
Dept. Molecular Genetics
Arthur-Scheunert-Allee 114-116
14558 Nuthetal, Germany
phone: +49 (0)33200 88 2282
e-mail: meyerhof@dife.de

Media Contact:
Dr. Gisela Olias
Press and Public Relations Coordinator
German Institute of Human Nutrition
Potsdam-Rehbruecke (DIfE)
phone: +49 (0)33200 88-2278/-2335
e-mail: olias@dife.de
or presse@dife.de

more information:
http://www.dife.de/forschung/abteilungen/kurzprofil.php?abt=MOGE&lang=en
Department of Molecular Genetics at the German Intistute of Human Nutrition

Quelle: idw

(nach oben)


Urlaub vorbei – Erholung ade?

Katja Bär Pressestelle: Kommunikation und Fundraising
Universität Mannheim

Psychologinnen der Universität Mannheim untersuchen, wie Berufstätige sich im oft stressigen Arbeitsalltag erholen können / Studienteilnehmer/innen gesucht

Wer kennt das nicht: Zurück aus dem lang ersehnten Jahresurlaub türmen sich die Aktenberge auf dem Schreibtisch, quillt das Postfach über oder nimmt einen ein neues Projekt direkt voll in Anspruch. Da verpufft die im Urlaub gewonnene Erholung nur allzu schnell.

Tatsächlich zeigt auch die Forschung, dass der Erholungseffekt von Urlaub in der Regel nur von kurzer Dauer ist. Daher scheint es besonders wichtig, auch im stressigen Arbeitsalltag auf die eigene Erholung zu achten – und das Wochenende, den Feierabend, die Arbeitspause etc. als Erholungsmöglichkeiten zu nutzen.

Aber was macht gute Erholung eigentlich aus und wie erholt man sich richtig? In einem aktuellen Übersichtsartikel, der im Journal of Occupational Health Psychology erschienen ist, gibt ein Team um die Mannheimer Psychologin Prof. Dr. Sabine Sonnentag wissenschaftlich fundierte Antworten auf diese und weitere zentrale Fragen zum Thema Arbeit und Erholung.

Wie erholt man sich richtig? Gute Erholung ist nicht für alle gleich: Es gibt nicht DIE Aktivität, die für jede/n erholsam ist. Vielmehr sind die psychologischen Erfahrungen, die mit einzelnen Aktivitäten verknüpft sind, wichtig. So erholen sich Personen besonders gut bei Aktivitäten, die es ihnen erlauben, von der Arbeit abzuschalten. Auch Aktivitäten, die Entspannung mit sich bringen, sind erholsam – das mag für den einen der Fernsehabend sein, für die andere hingegen der Yoga-Kurs. Aber es darf ruhig auch etwas action-geladener zugehen: eine sportliche Herausforderung zu meistern oder einem fordernden Hobby nachzugehen kann ebenso die Erholung fördern wie Treffen mit Freunden und Familienabende.

Wo erholt man sich am besten? Obwohl man sich prinzipiell überall erholen kann, zeigt die Forschung, dass vor allem natürliche Umgebungen mit möglichst wenig städtischer Bebauung erholsam wirken. So erholen sich Berufstätige besser im Stadtpark als in der quirligen Fußgängerzone. Dabei kann man sich ein Stück Erholung meist einfach ins Büro holen: eine Topfpflanze, ja sogar der Bildschirmschoner mit Naturmotiv können zur Erholung beitragen.

Wie lässt sich Erholung fördern? Die gute Nachricht ist: Erholung lässt sich lernen. Mithilfe von Stressmanagement-Kursen, Achtsamkeitstrainings oder bewusster Freizeitplanung kann jede/r die eigene Erholung in die Hand nehmen.
Darüber hinaus fehlen jedoch bislang Forschungsergebnisse dazu, wie Unternehmen und Führungskräfte die Erholung der einzelnen Mitarbeiterinnen und Mitarbeiter unterstützen können. Um dieser Frage auf den Grund zu gehen, führt das Team um Prof. Dr. Sabine Sonnentag derzeit eine Studie durch.

Studien-Interessierte können sich online über diese Studie informieren und zur Teilnahme anmelden: https://www.soscisurvey.de/Studie_Arbeit_und_Erholung/?info

Kontakt:
Dr. Laura Venz
Projektkoordination
Lehrstuhl für Arbeits- und Organisationspsychologie
Universität Mannheim
Tel. +49 (0) 621 / 181 – 2127
E-Mail: laura.venz@uni-mannheim.de

Prof. Dr. Sabine Sonnentag
Projektleitung
Lehrstuhl für Arbeits- und Organisationspsychologie
Universität Mannheim
E-Mail: sonnentag@uni-mannheim.de

Quelle: idw

(nach oben)


Pilze sind das zweitgrößte Organismenreich der Erde / Studie schätzt 2,2 bis 3,8 Millionen Arten

Gesche Hohlstein Pressestelle Botanischer Garten und Botanisches Museum Berlin-Dahlem
Freie Universität Berlin

Schätzungsweise 2,2 bis 3,8 Millionen Pilzarten gibt es weltweit. Zu diesem Ergebnis kommt ein Forschungsteam aus Berlin und London. Pilze bilden damit das zweitgrößte Organismenreich nach den Tieren, denn die Pilze übertreffen die Vielfalt der Pflanzen um etwa das 6-10-fache. Mindestens 18-mal mehr Pilzarten existieren als derzeit bekannt.
Die Studie erstellten zwei Wissenschaftler vom Botanischen Garten und Botanischen Museum der Freien Universität Berlin sowie dem Londoner Royal Botanic Gardens, Kew und dem Natural History Museum. Die Forschungsergebnisse wurden in der aktuellen Ausgabe des Fachjournals „Microbiology Spectrum“ veröffentlicht.

Eine der großen Fragen der Biologie ist damit neu bearbeitet. In der Vergangenheit reichten die Spekulationen von etwas mehr als einer halben Million bis zu über 5 Millionen Pilzarten weltweit. Derzeit sind erst 120.000 Pilzarten bekannt und wissenschaftlich beschrieben. Das entspricht nur etwa 3 bis 8 Prozent der geschätzten globalen Pilzvielfalt. Über 2 bis 3 Millionen Pilzarten sind also noch zu entdecken und zu beschreiben. Die Pilze sind damit das am wenigsten studierte der drei großen Organismenreiche: während bei den Pflanzen etwa 80% von geschätzten 390.000 Arten katalogisiert sind, sind es bei den Tieren rund 20% von geschätzten 7 Millionen.

Das Erfassen der noch unbekannten Pilze ist eine monumentale Aufgabe für die Forscher, da momentan pro Jahr nur etwa 1500 neue Pilzarten beschrieben werden. Man bräuchte also weitere 1.500 bis 2.500 Jahre, um alle noch unbekannten Pilzarten zu beschreiben. Oder ein Zehnfaches an Spezialisten, um diese Aufgabe innerhalb der nächsten zwei Jahrhunderte abzuschließen. Durch Lebensraumzerstörung und nicht nachhaltiges Wirtschaften nimmt jedoch auch die Pilzvielfalt global fortwährend ab: viele Arten sterben aus, bevor sie entdeckt werden.

Für die aktuelle Schätzung kombinierten die Forscher drei Schätzmethoden. Erstens werteten sie neueste Forschungsdaten aus, die im Wesentlichen auf DNA-Sequenziermethoden beruhen. Allein durch die Analyse des sogenannten DNA-Barcodings wurden bei vermeintlich bekannten Pilzarten (wie dem Fliegenpilz oder dem Pfifferling) im Schnitt etwa 10 zuvor unbekannte Arten entdeckt. Die bereits bekannten 120.000 Pilzarten könnten demzufolge bis zu 1,2 Millionen Arten entsprechen. Zweitens zogen die Forscher Analysen von Umweltproben heran, zum Beispiel des Bodens oder Wassers. Mittels neuartiger DNA-Sequenziermethoden werden darin alle vorhandenen Organismen erfasst. Die Forscher vermuten hier weltweit mindestens 1 Million zusätzlicher, unbekannter Pilzarten, zusammen also etwa 2,2 Millionen. Drittens zeigten Studien an ausgewählten Lokalitäten, wo alle Pflanzen- und Pilzarten systematisch erfasst wurden, dass im Mittel 9,8 Pilzarten pro Pflanzenart vorkommen. Bei einer hochgerechneten Zahl von weltweit 390.000 Pflanzenarten ergibt sich aus dieser alternativen Schätzmethode eine Gesamtzahl von 3,8 Millionen Pilzarten. Die Forscher vermuten viele unbeschriebene Pilzarten in sogenannten Hotspots wie den Tropen, wenig untersuchten Lebensräumen (unter anderem in den symbiontischen Flechten und in Insekten) sowie in unbearbeitetem Material naturkundlicher Sammlungen.

Pilze sind in allen Ökosystemen vorhanden, sogar im Meer. Zum Reich der Pilze zählen Einzeller wie die Backhefe ebenso wie der makroskopische Fliegenpilz oder auch die Flechtenpilze. Nach heutigem Kenntnisstand sind Pilze näher mit den Tieren verwandt als mit den Pflanzen, aber traditionell werden Pilze oft weiter in der Botanik behandelt; bis in das späte 20. Jahrhundert wurden sie sogar noch zu den Pflanzen gezählt. Pilze vereinen typische Merkmale von Tieren als auch von Pflanzen. Wie Pflanzen sind sie festsitzend, betreiben aber im Gegensatz zu Pflanzen keine Photosynthese; anstelle dessen ernähren sie sich von organischen Substanzen aus ihrer Umgebung. Als Speichersubstanz bilden sie das bei Tieren typische Polysaccharid Glykogen (und keine pflanzentypische Stärke). Pilzzellen weisen zwar meist eine für Pflanzenzellen typische Zellwand auf, diese ist jedoch aus dem im Tierreich bekannten Chitin aufgebaut. Viele Pilze zersetzen totes organisches Material und sind damit ökologisch von zentraler Bedeutung im Nährstoffkreislauf. In Symbiose lebende Pilze finden sich bei den meisten Pflanzen (z. B. Bäumen und Orchideen) sowie in den Flechten (einer Symbiose von Pilzen mit Algen oder Cyanobakterien). Parasitische Pilze sind wichtige Krankheitserreger bei Pflanzen, Tieren und auch dem Menschen. Abgesehen von Delikatessen wie den Trüffeln bilden Pilze die Grundlage für tägliche Lebensmittel wie Brot und Käse, alkoholhaltige Getränke, und Medikamente wie Antibiotika (Penicillin).

Publikation:
Hawksworth D., Lücking R. 2017. Fungal Diversity Revisited: 2.2 to 3.8 Million Species.
Microbiol Spectrum 5(4): FUNK-0052-2016.
www.asmscience.org/content/journal/microbiolspec/10.1128/microbiolspec.FUNK-0052-2016
doi: http://dx.doi.org/10.1128/microbiolspec.FUNK-0052-2016.

Pressebilder:
www.bgbm.org/de/presse/pressefotos#Pilze

Kontakt:
Dr. Robert Lücking, Kustos der Kryptogamen
Botanischer Garten und Botanisches Museum Berlin
Freie Universität Berlin
E-Mail: r.luecking@bgbm.org

Gesche Hohlstein, Botanischer Garten und Botanisches Museum Berlin,
Freie Universität Berlin, Königin-Luise-Str. 6-8, 14195 Berlin
Tel. 030 / 838-50134, E-Mail: g.hohlstein@bgbm.org

Der Botanische Garten und das Botanische Museum Berlin ist einer der drei bedeutendsten Botanischen Gärten weltweit und der größte in Deutschland. Das Gartendenkmal mit einer Vielfalt von 20.000 Pflanzenarten auf dem 43 Hektar großen Gelände zeigt die „Welt in einem Garten“. Als Knotenpunkt der internationalen Biodiversitätsforschung und Wissenschaftseinrichtung mit über 300-jähriger Tradition beschäftigt er über 200 Mitarbeiterinnen und Mitarbeiter in Forschung und Lehre. Mehr als 400.000 Besucher pro Jahr belegen die Bedeutung des Botanischen Gartens als wichtigen Erholungs- und Bildungsort der Hauptstadt. Mit dem Botanischen Museum verfügt er über Deutschlands einzige museale Einrichtung, die sich der Vielfalt der Pflanzenwelt, ihrer Bedeutung und der Darstellung ihrer Kultur- und Naturgeschichte widmet. Seit 1995 gehört die Einrichtung zur Freien Universität Berlin.

Weitere Informationen:
http://www.asmscience.org/content/journal/microbiolspec/10.1128/microbiolspec.FU… – Publikation
http://dx.doi.org/10.1128/microbiolspec.FUNK-0052-2016.- doi der Publikation
http://www.bgbm.org/de/presse/pressefotos#Pilze – Pressebilder

Quelle: idw

(nach oben)


Candida auris: Ein Pilz verlangt Aufmerksamkeit

Gunnar Bartsch Presse- und Öffentlichkeitsarbeit
Julius-Maximilians-Universität Würzburg

Ein neuer Verursacher von Pilzinfektionen sorgt für Schlagzeilen in den Medien weltweit. Experten aus Deutschland und Österreich raten jetzt zu erhöhter Aufmerksamkeit. Gleichzeitig warnen sie vor Panikmache.

„Gefährlicher Candida auris – Patienten sterben an Hefepilz-Infektion“: Mit dieser Schlagzeile hat vor kurzem eine deutsche Tageszeitung ihre Leser aufgeschreckt. Vor einer „tödlichen und Medikamenten-resistenten Infektion, die um den Erdball schwappt“, warnt eine englische Zeitung. Auslöser dieser Nachrichten war eine Meldung der US-amerikanischen Gesundheitsbehörde Centers for Disease Control and Prevention (CDC), die über das erste Auftreten der Pilzinfektion in den USA berichtet hatte. Insgesamt seien 13 Fälle registriert worden, vier infizierte US-Patienten seien bereits gestorben, wobei die genaue Todesursache noch unklar sei.

Aus diesem Grund haben jetzt Experten aus Deutschland und Österreich eine Stellungnahme erarbeitet, die sie heute der Öffentlichkeit präsentieren. Darin empfehlen sie eine erhöhte Aufmerksamkeit und die entsprechende Information medizinischen Personals über den neuen Hefepilz. Gleichzeitig warnen sie vor unnötiger Panikmache.

Übertragung von Patient zu Patient
„Candida auris ist eine neue Pilzart, die vor wenigen Jahren zum ersten Mal in Japan beschrieben wurde“, sagt Professor Oliver Kurzai. Der Mediziner leitet das Nationale Referenzzentrum für invasive Pilzinfektionen in Jena und hat seit Anfang 2017 an der Universität Würzburg den Lehrstuhl für Medizinische Mikrobiologie und Mykologie inne. Was den Hefepilz so besonders macht: „Candida auris wird im Gegensatz zu allen bisher bekannten Arten häufig von Patient zu Patient übertragen und kann somit Ausbrüche in Krankenhäusern verursachen“, sagt Kurzai. Gleichzeitig seien viele Pilzstämme gegen mindestens eines der Medikamente resistent, die zur Behandlung von Pilzinfektionen zum Einsatz kommen.

In Deutschland ist Candida auris bisher nur in Einzelfällen nachgewiesen. Dem Nationalen Referenzzentrum sind vier Fälle einer Infektion bekannt. Für Österreich gibt es keine bestätigten Fälle. Trotz dieser geringen Fallzahlen spricht aus Sicht der Experten einiges dafür, dem Thema frühzeitig Aufmerksamkeit zu schenken – auch für Deutschland wird zukünftig mit mehr Fällen gerechnet und nach Einschätzung des Nationalen Referenzzentrums sind viele diagnostische Labors noch unzureichend vorbereitet.

Keine Bedrohung für Gesunde
„Candida auris kann bei den Infizierten in den Blutstrom gelangen und dort eine Sepsis, eine sogenannte Blutvergiftung, verursachen“, erklärt Oliver Kurzai. Gleichzeitig sei der Pilz bei den gängigen Routineuntersuchungen nicht immer zuverlässig zu identifizieren und aufgrund der weit verbreiteten Resistenzen schwer zu behandeln. Vom medizinischen Personal sei deshalb eine erhöhte Aufmerksamkeit gefordert. Dazu will das Expertengremium mit seiner Veröffentlichung jetzt beitragen.

Für die Bevölkerung besteht allerdings kein Grund zur Beunruhigung. „Für einen gesunden Menschen stellt Candida auris keine Bedrohung dar“, sagt Oliver Kurzai.

Die Beteiligten
An der Stellungnahme waren beteiligt: das Nationale Referenzzentrum für invasive Pilzinfektionen (Jena), das Robert Koch-Institut (Berlin), das ECMM Excellence Center der Uniklinik Köln, das Nationale Referenzzentrum für Aspergillus und Aspergillusinfektionen (Innsbruck) und das Nationale Referenzzentrum für Hefen- und Schimmelpilzinfektionen (Wien).

Candida auris
Im Jahr 2009 wurde Candida auris erstmals in Japan beschrieben. Dort hatte er den Gehörgang eines Patienten befallen, was den Namenszusatz „auris“ erklärt – vom Lateinischen für „das Ohr betreffend“. Neben dem Ohr kann der Pilz aber auch andere Körperregionen befallen, beispielsweise den Blutkreislauf, Harn- und Atemwege oder Wunden. Der bislang größte Ausbruch ereignete sich 2015/16 an einem Krankenhaus in London; dort wurden innerhalb von 16 Monaten 50 Patienten infiziert. In den USA zählen die CDC aktuell 112 Fälle, den Großteil davon im Bundestaat New York.

Nationales Referenzzentrum für Invasive Pilzinfektionen
Das Nationale Referenzzentrum für Invasive Pilzinfektionen ist Ansprechstelle für Ärzte und Mikrobiologen aus ganz Deutschland, die Fragen zur Diagnostik und Behandlung invasiver Pilzinfektionen haben. Neben Beratungen bietet das Zentrum diagnostische Verfahren zum Nachweis von invasiven Pilzerkrankungen an. Es kooperiert dabei mit anderen Referenzlabors weltweit. Das Nationale Referenzzentrum für Invasive Pilzinfektionen ist am Leibniz-Institut für Naturstoff-Forschung und Infektionsbiologie – Hans-Knöll-Institut in Jena angesiedelt. Zum Nationalen Referenzzentrum berufen wurde es vom Robert Koch-Institut und dem Bundesministerium für Gesundheit.

Kontakt
Prof. Dr. Oliver Kurzai, Institut für Hygiene und Mikrobiologie, Universität Würzburg
T +49 931 31-88007, okurzai@hygiene.uni-wuerzburg.de

Weitere Informationen:
http://www.nrz-myk.de
Zur Homepage des Referenzzentrums

Quelle: idw

(nach oben)


Wohin geht der Stickstoff nach der Düngung – Frühindikatoren zur Erkennung von Nitratfrachten

Dipl.-Biol. Stefanie Hahn Pressestelle
Julius Kühn-Institut, Bundesforschungsinstitut für Kulturpflanzen

Julius Kühn-Institut koordiniert Vorhaben, bei dem in Demonstrationsbetrieben der Weg der Nitratfrachten nachverfolgt wird

(Braunschweig) Laut des aktuellen nationalen Nitratberichts 2016 werden an rund 28 % der deutschen Grundwassermessstellen im EU-Messnetz die zulässigen Nitratkonzentrationen überschritten. Obwohl die Stickstoffsalden bundesweit tendenziell rückläufig sind, bilden die Messwerte an den Grundwassermessstellen bisher diese positive Tendenz nicht ab. Der Grund dafür liegt unter anderem in den langen Fließzeiten des Sickerwassers. Diese betragen bis zu 15 Jahre und führen dazu, dass sich Änderungen der Bewirtschaftung nicht umgehend in sinkenden Nitratgehalten im Grundwasser niederschlagen. Ein vom Julius Kühn-Institut (JKI) koordiniertes Demonstrationsvorhaben soll Klarheit bringen. Um die Auswirkungen der neuen Düngeverordnung, kurz DüV, in der Praxis und Ergebnisse von Bewirtschaftungsänderungen zeitnah sichtbar zu machen, wird auf Praxisbetrieben in fünf Bundesländern ein Frühindikatorsystem erprobt. Das Bundeslandwirtschaftsministerium finanziert dieses Demonstrationsvorhaben über seinen Projektträger BLE bis Ende 2019 mit 3,4 Mio. Euro. Bei erfolgreicher Umsetzung ist eine Verlängerung um weitere drei Jahre möglich.

Das Vorhaben startete vor einem Jahr (am 1.7.2016) und erforderte umfangreiche Vorarbeiten. Nach der Auswahl der Praxisbetriebe und Festlegung der Messparzellen auf 576 Ackerschlägen hat nun im August 2017 mit der Gerstenernte das eigentliche Messprogramm begonnen. „Unser Ziel ist es, herauszufinden, ob die Indikatoren, die wir aus dem Trinkwasserschutz bereits kennen auch bundesweit dazu geeignet sind, frühzeitig Nitratfrachten im Ackerbau sichtbar zu machen“, sagt Dr. Oliver Stock vom JKI. Die Wissenschaftler wollen die Zusammenhänge zwischen N-Düngung, N-Dynamik und N-Salden im Boden erfassen und eine umfangreiche N-Bilanzierung auf Schlag- und Betriebsebene durchführen, um unerwünschte Verlagerungen ins Grundwasser zu erfassen und zu bilanzieren. Die Untersuchungen erfolgen in den Bundesländern Bayern, Mecklenburg-Vorpommern, Niedersachsen, Sachsen-Anhalt und Schleswig-Holstein unter unterschiedlichen Standort-, Klima- und Produktionsbedingungen.

Die Wissenschaftler des JKI verfolgen dabei einen zweiteiligen Ansatz. So sollen die bis zu einer Tiefe von 3 m zu ermittelnden Nmin-Werte auf den 576 Ackerschlägen die Änderungen in den Nitratfrachten aufzeigen. Parallel dazu wird auf der Grundlage verschiedener Stickstoffbilanzen die Entwicklung des Nitrat-Auswaschungspotenzials auf Betriebs- und Schlagebene über den Projektzeitraum ermittelt.

„Es geht uns darum, ein Frühindikatorsystem zu entwickeln, das für ein einheitliches Monitoring in den Bundesländern eingesetzt und für die Nitratberichterstattung gegenüber der EU genutzt werden kann“, sagt JKI-Kollege Burkhard Schoo, der ebenfalls im Projekt arbeitet. Daher wird besonderer Wert auf die Praxistauglichkeit des Indikatorsystems gelegt. Die beteiligten Demonstrationsbetriebe sind landwirtschaftliche Betriebe mit Schwerpunkt Ackerbau, z.T. mit Nutztierhaltung, Anteilen an Grünland und in einem Fall sogar einer angeschlossenen Biogasanlage.

„Wir gehen davon aus, dass die Umsetzung der Vorgaben aus der novellierten Düngeverordnung zu einer deutlichen Effizienzsteigerung bei der Düngung führt“, fasst Dr. Martin Kücke, der am JKI das Projekt mitentwickelt hat, zusammen. „Die langfristig zu erwartenden Auswirkungen eines geänderten Düngeverhaltens auf die Belastung des Grundwassers sind daher auch der Kern des Demonstrationsvorhabens“, so der JKI-Wissenschaftler. Sie sollen durch das Zusammenwirken der verwendeten Indikatoren möglichst frühzeitig und genau abgeschätzt werden.

Kurzinfo zum Projekt:
Laufzeit 01.07.2016 bis 31.12.2019 (mit Option auf Verlängerung)
Partner und betreuende Einrichtungen in den Ländern:
Bayern: Staatsministerium für Ernährung, Landwirtschaft und Forsten mit der Landesanstalt für Landwirtschaft
Mecklenburg-Vorpommern: Ministerium für Landwirtschaft und Umwelt mit LMS Agrarberatung GmbH
Niedersachsen: Ministerium für Ernährung, Landwirtschaft und Verbraucherschutz
Sachsen-Anhalt: Ministerium für Umwelt, Landwirtschaft und Energie mit Landesanstalt für Landwirtschaft und Gartenbau
Schleswig-Holstein: Ministerium für Energiewende, Landwirtschaft, Umwelt und ländliche Räume mit Landesamt für Landwirtschaft, Umwelt und ländliche Räume und Landwirtschaftskammer

Beteiligte Unternehmen:
(Je Testgebiet gibt es einen regionalen Einrichter, der die Betriebe betreut und das Messprogramm durchführt.)
Bayern: Ingenieurbüro Hutterer und Ingenieurbüro Dr. Eiblmeier
Mecklenburg-Vorpommern: LMS Agrarberatung GmbH
Niedersachsen und Schleswig-Holstein: Ingenieurdienst Umweltsteuerung – INGUS GmbH
Sachsen-Anhalt: INL – Institut für Nachhaltige Landbewirtschaftung GmbH

Ihre Ansprechpartner am JKI:
Institut für Pflanzenbau und Bodenkunde
Julius Kühn-Institut, Bundesforschungsinstitut für Kulturpflanzen
Bundesallee 50, 38116 Braunschweig

Dr. Oliver Stock
Tel.: 0 531/596 2362
E-Mail: oliver.stock@julius-kuehn.de

Dr. Martin Kücke
Tel.: 0 531/596 2417
E-Mail: martin.kuecke@julius-kuehn.de

Quelle: idw

(nach oben)


Deutsche blicken optimistischer in die Zukunft als europäische Nachbarn

Benjamin Stappenbeck Pressestelle
Bertelsmann Stiftung

Flüchtlingskrise, Brexit, erstarkender Populismus – seit der Bundestagswahl 2013 haben zahlreiche Ereignisse und Trends die politischen Landkarten in Europa komplett verändert. Doch in Deutschland nähren diese Umwälzungen anscheinend vor allem das Bedürfnis nach Stabilität. Die neue „eupinions“-Studie der Bertelsmann Stiftung zeigt, dass die Deutschen deutlich optimistischer und zufriedener sind als andere Europäer.

Einigkeit und Zufriedenheit in Zeiten des Umbruchs – so lässt sich die Stimmungslage der Deutschen laut der aktuellen „eupinions“-Umfrage der Bertelsmann Stiftung zusammenfassen. Auffallend ist: Die Deutschen sind wesentlich positiver gestimmt als ihre europäischen Nachbarn und geben ihrem eigenen Land deutlich bessere Noten als der EU. Außerdem gilt: Die politische Mitte ist in Deutschland so stark wie in keinem anderen der großen EU-Staaten. Die Umfrageergebnisse sind repräsentativ für die EU insgesamt sowie die sechs größten Mitgliedstaaten Deutschland, Frankreich, Großbritannien, Italien, Polen, Spanien.

Am deutlichsten wird die positive Grundstimmung der Bundesbürger bei der Frage nach dem Zustand des eigenen Landes und der Demokratie. In beiden Kategorien sind die Deutschen im EU-Vergleich Spitzenreiter in puncto Optimismus: 59 Prozent der Deutschen sind zufrieden mit der Entwicklung des eigenen Landes und 63 Prozent sind mit der deutschen Demokratie zufrieden. Die Zustimmung zur Entwicklung des eigenen Landes ist in Deutschland seit März 2017 sprunghaft angestiegen. Im Frühjahr waren nur 32 Prozent der Deutschen der Ansicht, dass sich das Land in die richtige Richtung entwickele, im Sommer waren es 59 Prozent. Die Italiener sind mit 13 Prozent am unzufriedensten mit ihrem Land. In Frankreich, wo mit Emmanuel Macron ein neuer Staatspräsident angetreten ist, sind die Pessimisten weiterhin in der Mehrheit, aber auch ihr Anteil ging deutlich zurück: Während im Frühjahr nur 12 Prozent der Franzosen angaben, ihr Land entwickele sich in die richtige Richtung, waren es im Sommer 2017 schon 36 Prozent.

Auch wirtschaftlich haben die Bundesbürger offenbar wenig zu beklagen: Für drei Viertel (77 Prozent) hat sich die wirtschaftliche Situation entweder verbessert (34 Prozent) oder ist gleich geblieben (43 Prozent). In Italien, in dieser Kategorie Schlusslicht, gibt mehr als die Hälfte der Befragten (54 Prozent) an, dass sich ihre wirtschaftliche Situation verschlechtert hat.

Stark in der Mitte, schwach an den Rändern: politische Einstellungen in Deutschland
Im Vergleich zu den großen EU-Staaten fällt auf, dass die politischen Einstellungen in Deutschland sehr gemäßigt und mehrheitlich in der Mitte angesiedelt sind. 80 Prozent der Deutschen verorten sich in der politischen Mitte, so viele wie in keinem anderen der sechs größten EU-Länder. Die Mehrheit davon (44 Prozent) stuft sich in Deutschland als Mitte-links ein. In Frankreich sind die politischen Ränder im EU-Vergleich am stärksten: Jeweils ein Viertel der Franzosen steht laut Eigenauskunft links (24 Prozent) oder rechts (25 Prozent) von der Mitte.

Gleichzeitig gilt in Deutschland wie in Frankreich und der EU allgemein: Wer unzufrieden ist, orientiert sich politisch nach rechts. Diejenigen, die sich in Deutschland selbst als rechts bezeichnen (7 Prozent), sind zu 63 Prozent unzufrieden mit dem Zustand der Demokratie in Deutschland und zu 65 Prozent unzufrieden mit der Demokratie in der EU. 77 Prozent von ihnen meinen, die EU entwickele sich in die falsche Richtung und nur jeder Zweite von denjenigen, die sich in Deutschland als rechts bezeichnen, würden in einem Referendum für den Verbleib ihres Landes in der EU stimmen.

In all diesen Kategorien unterscheiden sich damit diejenigen Deutschen, die sich selbst als politisch rechts bezeichnen, wesentlich von denjenigen, die sich selbst als Mitte-rechts, Mitte-links oder links bezeichnen. Damit ist in Deutschland derselbe Trend zu beobachten wie in anderen europäischen Ländern. Allerdings ist die Gruppe derjenigen, die sich in Deutschland als rechts bezeichnen, mit 7 Prozent immer noch sehr klein – im Vergleich etwa zu 25 Prozent in Frankreich.

Deutschland profitiert von guten Wirtschaftszahlen
Wer wissen wolle, warum im aktuellen Bundestagswahlkampf keine richtige politische Kontroverse aufkomme, der könne in den aktuellen „eupinions“-Zahlen Antworten finden, stellt „eupinions“-Projektleiterin Isabell Hoffmann fest: „Brexit, Trump und die dramatischen Wahlkämpfe in Frankreich, Österreich und den Niederlanden haben offenbar viele Deutsche tief beeindruckt und davon überzeugt, dass es Deutschland verhältnismäßig gut geht.“ Noch profitiere das Land von seiner breiten politischen Mitte und seinen guten Wirtschaftszahlen. Entscheidend werde sein, ob es der Alternative für Deutschland (AfD) nach dem wahrscheinlichen Einzug in den Bundestag gelinge, die politische Debatte nach dem Vorbild europäischer Schwesterparteien entlang von Reizthemen wie Asyl und Migration tiefgreifend zu polarisieren.

Zusatzinformationen
Die „eupinions“ sind das europäische Meinungsforschungsinstrument, das die Bertelsmann Stiftung zusammen mit Dalia Research entwickelt hat und regelmäßig die Bürger aller 28 EU-Mitgliedstaaten zu europäischen Themen befragt. Die letzte Befragung fand im Juli 2017 statt und ist mit einem Sample von 10.755 Befragten repräsentativ für die gesamte Europäische Union und die sechs größten Mitgliedstaaten Deutschland, Frankreich, Großbritannien, Italien, Spanien und Polen.

Unsere Expertin:
Isabell Hoffmann, Projektleiterin eupinions
Telefon: 05241 81-81602
E-Mail: isabell.hoffmann@bertelsmann-stiftung.de

Weitere Informationen:
http://www.bertelsmann-stiftung.de

Quelle: idw

(nach oben)


DKOU 2017: Wie Patienten mit Knie-Arthrose sinnvoll Sport treiben

Anne-Katrin Döbler, Lisa Ströhlein – Pressestelle DKOU 2017 (Thieme-PR) Presse- und Öffentlichkeitsarbeit
Deutsche Gesellschaft für Orthopädie und Unfallchirurgie e. V.

Fast jeder dritte 45- bis 67-Jährige in Deutschland ist an Arthrose erkrankt. Bei den über 65-Jährigen trifft der Gelenkverschleiß bereits jeden Zweiten. Viele Betroffene schonen sich, weil sie Schmerzen haben oder verunsichert sind, welche Belastung sie ihren Gelenken zumuten können. Der richtige Sport im richtigen Maß kann helfen, das Fortschreiten einer Arthrose zu bremsen. Nach einer Operation verbessert Bewegung das Zusammenspiel zwischen Kunstgelenk, Muskeln und Knochen. Welche Sportarten bei orthopädischen Erkrankungen sinnvoll sind, erklären Experten auf einer Pressekonferenz im Vorfeld des Deutschen Kongresses für Orthopädie und Unfallchirurgie (DKOU) 2017.

„Bei Gelenkproblemen gilt der sportliche Grundsatz: viel bewegen, wenig belasten“, erklärt Professor Dr. med. Andrea Meurer, Kongresspräsidentin des DKOU 2017. „Ideal sind zyklische Bewegungen, die das Gelenk ohne Krafteinsatz gleichmäßig durchbewegen.“ Eine Kombination aus Ausdauereinheiten, Dehn- und Kräftigungsübungen ist am wirkungsvollsten, um den ganzen Körper zu stärken und Verletzungen vorzubeugen. Die Expertin empfiehlt, täglich 30 bis 40 Minuten, mindestens jedoch zweimal pro Woche zu trainieren. Sportarten wie Squash, Hand-, Fuß- oder Volleyball, Joggen, Reiten, Ski alpin und Tennis sind aufgrund der abrupten Richtungswechsel und der hohen Stoßbelastung eher schädlich fürs Gelenk. Nur wer sie gut verträgt, darf sie in Maßen ausüben.

Übersicht: Diese Sportarten sind gut fürs Kniegelenk

• Radfahren
• Nordic Walking
• Skilanglauf
• Schwimmen
• Aqua-Jogging und Wassergymnastik
• Rudern
• Aerobic
• Ausdauertraining auf dem Cross-Trainer
• Krafttraining im Fitnessstudio

„Wichtig ist, dass Patienten auf ihr Körpergefühl achten und bei Schmerzen ihren Arzt zu Rate ziehen“, betont Meurer. „Generell gilt es, die Gelenke langsam an die Bewegung zu gewöhnen und Überbelastung zu vermeiden“, so die Ärztliche Direktorin der Orthopädischen Universitätsklinik Friedrichsheim. Bandagen oder spezielle Einlagen können die Knie zusätzlich schützen. Patienten mit Übergewicht sollten zunächst versuchen, ihr Gewicht zu reduzieren, denn überflüssige Pfunde erhöhen die Belastung für die Knie: Beim Gehen wirkt nämlich doppelt so viel Gewicht auf die Gelenke wie beim Stehen.

Auf keinen Fall sollten Patienten in eine Schonhaltung verfallen, so die Orthopädin. „Wer sich – etwa aus Angst vor Schmerzen – kaum noch bewegt, produziert weniger Gelenkflüssigkeit. Der Knorpel im Kniegelenk wird dann spröde, was zu noch mehr Verschleiß und Schmerzen führt.“ Mangelnde Aktivität erhöht zudem das Risiko für Übergewicht, Stürze oder eine Osteoporose. Wie Menschen mit orthopädischen Erkrankungen optimal in Bewegung bleiben, erklären Experten bei einer Pressekonferenz im Vorfeld des DKOU 2017 in Berlin.

Weitere Informationen:
http://www.dkou.de

Quelle: idw

(nach oben)


Künstliche Intelligenz für Bewässerungssysteme – Feldtests in Pakistan belegen Einsparung von 40%

Udo Urban DFKI Kaiserslautern
Deutsches Forschungszentrum für Künstliche Intelligenz GmbH, DFKI

Nach Angaben der World Wildlife Foundation verschwendet die globale Landwirtschaft fast 60% des jährlich genutzten Wassers. Schuld daran sind vor allem ineffiziente Bewässerungssysteme. Der auf Künstlicher Intelligenz (KI) basierende mobile Begleiter AQUAGRO kann Landwirten in Zukunft dabei helfen, ihren Wasserverbrauch zu optimieren. AQUAGRO errechnet den optimalen Bedarf abhängig von den Bedürfnissen der Pflanzen, der Bodensituation und den aktuellen Wetterbedingungen vor Ort.

Internet der Dinge auf dem Acker: Deutsch-Pakistanisches Projekt WARM
Das Projekt wird seit 18 Monaten vom Deutschen Akademischen Austauschdienst (DAAD) im Rahmen der Deutsch-Pakistanischen Forschungskooperation gefördert. Projektpartner sind, neben dem Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI GmbH) in Kaiserslautern, die NED University of Engineering & Technology und das Research Center for Artificial Intelligence (RCAI), beide in Karachi.

„Wir haben auf den Feldern Sonden installiert, um die Bodenfeuchte aufzuzeichnen und den Wasserstand zu überwachen. Die Daten der Sonden werden per Funk an einen Server oder Cloud-Service des Systems geschickt. Mit der neuen KI-Technologie von AQUAGRO soll der Landwirt elektronische Bewässerungsventile über seinen Computer, Smartphone oder Tablet kontrollieren und steuern können“, so Professor Andreas Dengel, Leiter des DFKI-Forschungsbereichs Smarte Daten und Wissensdienste in Kaiserslautern, der das Projekt gemeinsam mit Dr. Muhammad Khurram, dem Leiter des RCAI an der NED University verantwortet.

Kabelloses Sensornetzwerk und Expertensystem
Das Team vom RCAI hat das kabellose Sensornetzwerk von AQUAGRO entwickelt, das die Daten der Sensoren auf dem Feld über die notwendigen Protokolle an einen Server oder die Cloud schickt. Am DFKI wurde unter Leitung von Dr. Saqib Bukhari die dazugehörige Datenanalyse entwickelt, die AQUAGRO zu einem Entscheidungsunterstützungsystem macht, das dem Farmer optimale Angaben zu Bewässerungsdauer und -menge liefert. Die KI-Software nutzt dazu Sensoren für Bodenfeuchte, Bodentemperatur, Niederschlag und Sonneneinstrahlung. Die Batterien werden durch einen Sonnenkollektor geladen. Nach der Analyse der verschiedenen Parameter der Sensordaten unterbreitet AQUAGRO dem Landwirt einen Vorschlag, um die Wassermenge intelligent zu dosieren und somit Kosten zu sparen. Durch die besseren Prognosen des KI-Systems wird eine Überwässerung vermieden.

Der Einsatz des neuen Systems benötigt keine neue Infrastruktur: Die vorhandenen Bewässerungssysteme können herstellerunabhängig genutzt werden.

Feldtests belegen Einsparung von 40% Wasser
AQUAGRO wird seit August 2016 in der pakistanischen Provinz Sindh auf einem Feld zum Anbau von Bittermelonen getestet. Dazu wurde das Feld geteilt: Auf der einen Hälfte wurde das herkömmliche Bewässerungssystem eingesetzt, die andere Hälfte wurde mit der neuen Technologie bewässert. Im letzten Erntezyklus wurde mit der neuen Technologie 40% Wasser gegenüber der herkömmlichen Methode bei gleichem Ernteresultat eingespart.

In den nächsten Monaten soll die Wirksamkeit des Systems weiter verbessert und auf ein breiteres Spektrum von Kulturen übertragen werden. Auch an eine KI-gesteuerte vollautomatische Bewässerung ist in Zukunft gedacht.

Pressekontakt DFKI:
Team Unternehmenskommunikation
Deutsches Forschungszentrum für Künstliche Intelligenz (DFKI)
Trippstadter Straße 122
67663 Kaiserslautern
Tel.: 0631 20575 -1700/1710
uk-kl@dfki.de

Kontakt:
Prof. Dr. Prof. h.c. Andreas Dengel
Forschungsbereich Smarte Daten und Wissensdienste
Trippstadter Straße 122
67663 Kaiserslautern
Tel.: 0631 20575 -1010
andreas.dengel@dfki.de

Quelle: idw

(nach oben)


Klimaerwärmung ist schuld am Rückgang der Braunbären in Europa

Sabine Wendler Senckenberg Biodiversität und Klima Forschungszentrum Pressestelle
Senckenberg Forschungsinstitut und Naturmuseen

Die Klimaerwärmung ist verantwortlich dafür, dass der Bestand der Braunbären in Europa seit dem Ende der letzten Eiszeit dramatisch geschrumpft ist. Steigende Wintertemperaturen während der letzten 12.000 Jahre haben die Fortpflanzungsrate der Braunbären verringert und zu deren Verschwinden beigetragen, berichtet eine internationale Forschergruppe, darunter ein Senckenberg-Wissenschaftler, im Fachblatt „Scientific Reports“. Die Klimaerwärmung hat dem Braunbären zudem indirekt geschadet: größere Flächen wurden für den Ackerbau nutzbar, was den Lebensraum der Tiere zusätzlich verkleinerte.

Am Ende der letzten Eiszeit vor rund 12.000 Jahren war der Braunbär (Ursus arctos) noch überall in Europa anzutreffen. Im Gegensatz zu vielen anderen seiner damaligen Zeitgenossen hat der Braunbär bis heute überlebt. Jedoch gibt es nur noch vereinzelte Populationen, die in den Pyrenäen, Nordskandinavien und Osteuropa leben. Dass das Verschwinden der Braunbären mit dem Menschen und seiner Landnutzung zusammenhängt, ist schon länger bekannt.

Ein Team um Dr. Jörg Albrecht, Senckenberg Biodiversität und Klima Forschungszentrum, hat erstmals detailliert untersucht, welche Rolle das Klima spielte. „In den letzten 12.000 Jahren ist die Wintertemperatur in weiten Teilen Europas um zwei bis vier Grad angestiegen. Dadurch haben die vorhandenen Braunbären weniger Nachkommen bekommen und sind letztendlich immer weniger geworden“, erklärt Albrecht.

Die Ursache ist, dass Braunbären bei steigenden Wintertemperaturen mehr Energie für ihre Winterruhe verbrauchen. Braunbärenweibchen aber wenden ihre Energiereserven im Winter entweder für die Winterruhe oder die Fortpflanzung auf, denn sie gebären im Winter. Wird mehr Energie für die Winterruhe verbraucht, bleibt weniger für die Fortpflanzung übrig, was die Anzahl der Nachkommen verringert.

Die Studie basiert auf Modellen, die die Wissenschaftler mit Daten zum Klima, der Landnutzung und dem Vorkommen von Braunbären gespeist haben. Rund 4.200 Knochenfunde lassen Rückschlüsse darauf zu, wie es dem Braunbär ergangen ist. „Ein erstes großes Aussterben fand in Südwest-Europa vor 7.000 bis 5.000 Jahren statt. Richtig bergab ging es mit dem Braunbären aber seit dem Römischen Reich vor 2.000 Jahren. Danach ist der Verbreitungsraum der Tiere rasant geschrumpft und zerstückelt worden“, so Albrecht.

Steigende Wintertemperaturen könnten dabei auch indirekt das Schicksal des Braunbären besiegelt haben, denn neben einer geringeren Nachkommenschaft machten Lebensraumverluste durch Abholzung und Umwandlung von Naturlandschaft in Ackerland dem großen Wildtier zu schaffen. Wärmere Winter begünstigten diese menschlichen Eingriffe, weil bisher klimatisch ungeeignete Flächen nutzbar wurden.

Geht es nach den Forschern lassen sich aus der Studie auch Rückschlüsse für andere Aussterbeereignisse ziehen. Oft ist dabei umstritten, ob nun das Klima oder der Mensch verantwortlich ist. „Wie man an den Braunbären sieht, kann man die einzelnen Faktoren nicht isoliert betrachten, sondern Mensch und Klima wirken zusammen. Wintertemperaturen haben einen genauso so großen Anteil am Verschwinden der Bären gehabt, wie der Mensch“, resümmiert Albrecht.

Die Studie wurde in Kooperation mit dem Institut für Naturschutz der Polnischen Akademie der Wissenschaften in Krakau, der Norwegischen Universität für Umwelt- und Biowissenschaften in Ås und der Universität Rostock durchgeführt und mit Mitteln des Polnisch-Norwegischen Forschungsprogramms durch das Nationale Zentrum für Forschung und Entwicklung in Polen finanziert.

Kontakt
Dr. Jörg Albrecht
Senckenberg Biodiversität und Klima Forschungszentrum
Tel. 069- 7542 1808
Joerg.albrecht@senckenberg.de

Sabine Wendler
Senckenberg Biodiversität und Klima Forschungszentrum
Tel. 069- 7542 1818
pressestelle@senckenberg.de

Publikation
Albrecht, J., Barton, K.A., Selva, N., Sommer, R.S., Swenson, J.E. and Bischof, R. (2017): Humans and climate change drow the Holocence decline of the brown bear. Scientific Reports, doi: 10.1038/s41598-017-10772-6

Die Pressebilder können kostenfrei für redaktionelle Berichterstattung zu dieser Pressemeldung verwendet werden unter der Voraussetzung, dass der genannte Urheber mit veröffentlicht wird. Eine Weitergabe an Dritte ist nur im Rahmen der aktuellen Berichterstattung zulässig.

Die Pressemitteilung und Bildmaterial finden Sie auch unter http://www.senckenberg.de/presse

Die Natur mit ihrer unendlichen Vielfalt an Lebensformen zu erforschen und zu verstehen, um sie als Lebensgrundlage für zukünftige Generationen erhalten und nachhaltig nutzen zu können – dafür arbeitet die Senckenberg Gesellschaft für Naturforschung seit nunmehr 200 Jahren. Ausstellungen und Museen sind die Schaufenster der Naturforschung, durch die Senckenberg aktuelle wissenschaftliche Ergebnisse mit den Menschen teilt und Einblicke in vergangene und gegenwärtige Veränderungen der Natur vermittelt. Die Senckenberg Gesellschaft für Naturforschung ist ein Mitglied der Leibniz-Gemeinschaft. Das Senckenberg Naturmuseum in Frankfurt am Main wird von der Stadt Frankfurt am Main sowie weiteren Sponsoren und Partnern gefördert. Mehr Informationen unter http://www.senckenberg.de

200 Jahre Senckenberg! 2017 ist Jubiläumsjahr bei Senckenberg – die 1817 gegründete Gesellschaft forscht seit 200 Jahren mit Neugier, Leidenschaft und Engagement für die Natur. Seine 200-jährige Erfolgsgeschichte feiert Senckenberg mit einem bunten Programm, das aus vielen Veranstaltungen, eigens erstellten Ausstellungen und einem großen Museumsfest im Herbst besteht. Natürlich werden auch die aktuelle Forschung und zukünftige Projekte präsentiert. Mehr Infos unter: http://www.200jahresenckenberg.de

Quelle: idw

(nach oben)


Thrombosen-Vorbeugung: Zusätzlicher entzündungshemmender Effekt von Aspirin entdeckt

Prof. Dr. Eckart Fleck Pressesprecher
Deutsche Gesellschaft für Kardiologie – Herz- und Kreislaufforschung e.V.

Pressemitteilung der Deutschen Gesellschaft für Kardiologie zum Europäischen Kardiolo-giekongress (ESC) 2017

Die Plättchen-hemmende Wirkung von niedrig dosierter Acetylsalicylsäure (ASS, Aspirin) trägt offenbar auch zu einer zusätzlichen Entzündungshemmung bei, berichten Kardiologen aus Düsseldorf. Diese positive Wirkung könnte bei der Entscheidung über die jeweils optimale Vorbeugung von Thrombosen bedeutsam sein.

Die Blutplättchen-hemmende Wirkung von niedrig dosierter Acetylsalicylsäure (ASS, Aspirin) trägt offenbar auch zu einer zusätzlichen Entzündungshemmung bei, berichten Kardiologen aus Düsseldorf auf dem Europäischen Kardiologenkongress (ESC). Diese positive Wirkung könnte bei der Entscheidung über die jeweils optimale Vorbeugung von Thrombosen bedeutsam sein.
Die regelmäßige Einnahme von niedrig-dosiertem Aspirin (Acetylsalicylsäure; ASS) spielt eine wichtige Rolle in der Sekundärprävention einer Koronaren Herzerkrankung (KHK) und ist Bestandteil der Plättchenhemmung nach Stent-Implantation. Allerdings bestehen deutliche individuelle Unterschiede in der Wirkung der ASS auf die Hemmung der Verklumpung von Blutplättchen (Thrombozyten-Funktionshemmung). Eine eingeschränkte Wirkung („High on-treatment platelet reactivity“, HTPR; „Aspirin-Resistenz“), steht mit einer höheren Häufigkeit von Stent-Thrombosen und höherer Sterblichkeit in Zusammenhang.

Ob die Wirkung der ASS gegen systemische Entzündungen mit der verklumpungshemmenden Wirkung verbunden ist, war unklar und wurde von der Düsseldorfer Forschergruppe an 402 KHK-Patienten unter Dauertherapie mit 100 Milligramm ASS pro Tag untersucht. Zur Erfassung der antientzündlichen Wirkung wurden die C-Reaktive Protein (CRP)-Level von Patienten mit ausreichender ASS-Wirkung mit jenen von Patienten mit HTPR verglichen. Die untersuchte Patientengruppe hatte ein Alter von durchschnittlich 73 Jahren, 27 Prozent waren übergewichtig, 27 Prozent waren aktive Raucher, 6 Prozent hatten Bluthochdruck und 17 Prozent Diabetes mellitus Typ II. Patienten mit unzureichender Verklumpungshemmung durch ASS (HTPR) zeigten signifikant höhere Werte des Entzündungsmarkers CRP im Vergleich zu Patienten mit ausreichender ASS-Wirkung.

Studien-Koautorin Dr. Annemarie Mohring (Universitätsklinikum Düsseldorf): „Verschiedene Studien lieferten bereits Hinweise darauf, dass ASS eine antientzündliche Wirkung hat. Wir konnten nun zeigen, dass eine suffiziente Thrombozytenfunktions-Hemmung durch ASS maßgeblich für die Entzündungshemmung ist. Das unterstreicht, dass niedrig-dosiertes ASS Effekte vermittelt, welche über eine reine Hemmung der Thrombozyten-Aggregation hinausgehen. Dies sollte bei der Entscheidung über das optimale antithrom-botische Regime bedacht werden.“

Quelle: ESC 2017 Abstract P1781, Poehl et al. Inhibition of chronic inflammation by low-dose aspirin medication. European Heart Journal (2017) 38 (Supplement) 710

Informationen:
Deutsche Gesellschaft für Kardiologie
Pressesprecher: Prof. Dr. Eckart Fleck (Berlin)
Hauptstadtbüro der DGK: Leonie Nawrocki, Tel.: 030 206 444 82
Pressestelle: Kerstin Kacmaz, Düsseldorf, Tel.: 0211 600692 43
presse@dgk.org
B&K – Bettschart&Kofler Kommunikationsberatung, Dr. Birgit Kofler, Berlin/Wien, Tel.: +43-676-6368930; Tel.: 030 700159 676; kofler@bkkommunikation.com

Die Deutsche Gesellschaft für Kardiologie – Herz und Kreislaufforschung e.V. (DGK) mit Sitz in Düsseldorf ist eine wissenschaftlich medizinische Fachgesellschaft mit über 10.000 Mitgliedern. Ihr Ziel ist die Förderung der Wissenschaft auf dem Gebiet der kardiovaskulären Erkrankungen, die Ausrichtung von Tagungen und die Aus-, Weiter- und Fortbildung ihrer Mitglieder. 1927 in Bad Nauheim gegründet, ist die DGK die älteste und größte kardiologische Gesellschaft in Europa. Weitere Informationen unter www.dgk.org.

Weitere Informationen:
http://www.dgk.org
http://www.dgk.org/presse
http://www.kardiologie.org

Quelle: idw

(nach oben)


Riesenbakterium enthält Erbgut für eine ganze Bevölkerung

Katharina Bunk Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)

Achromatium oxaliferum ist das größte (bekannte) Süßwasserbakterium der Welt und unter anderem im brandenburgischen Stechlinsee zu finden. Es ist 30.000 Mal größer als „normale“ im Wasser lebende Bakterien und dank seiner Kalkeinlagerungen mit dem bloßen Auge erkennbar. Es ist bekannt – zumindest unter Bakterienfans -, dass Schwefelbakterien wie Achromatium außerordentlich groß sein und mehrere Genomkopien beherbergen können. Dass eine einzige Bakterienzelle aber hunderte von unterschiedlichen(!) Genomen mit sich herumträgt, ist neu – auch für Bakterienkenner.

Obwohl Achromatium oxaliferum der Wissenschaft seit über einem Jahrhundert bekannt ist, sind sein Aufbau und seine genetischen Merkmale weitgehend unbekannt. ForscherInnen des Leibniz-Instituts für Gewässerökologie und Binnenfischerei (IGB) in Berlin, der Carl von Ossietzky Universität in Oldenburg und der University of Oxford haben nun herausgefunden, dass einzelne Zellen von Achromatium bis zu 300 DNA-Abschnitte enthalten, jeweils mit einer unbestimmten Anzahl von Chromosomen. Die Metagenomanalysen und Genomsequenzierungen einzelner Zellen zeigen, dass es sich dabei nicht um Kopien handelt – die vielen Chromosomen einer Zelle unterscheiden sich voneinander.

Neue Zeiten für BakterienforscherInnen
Bisher werden Umweltproben – also beispielsweise Wasser- oder Bodenproben – mittels der DNA/RNA-Sequenzen analysiert, die in einer Probe vorkommen. Bei diesem Verfahren geben die verschiedenen Sequenzen Aufschluss über die vorhandenen Bakterienarten. Geht man davon aus, dass ein polyploides Bakterium mehrere identische Genome besitzt, findet man in einer Wasserprobe genau so viele verschiedene Bakterienarten wie man verschiedene Genome gefunden hat. Enthält die Probe aber auch Achromatium oder ähnliche Bakterien, kann die bisherige Verfahrensweise zu einer Überschätzung der Diversität führen. Wo man einst 1000 verschiedene Bakterienarten vermutete, sind in Wirklichkeit vielleicht nur noch 100 verschiedene Arten anzutreffen.

Noch bis vor wenigen Jahren wurde angenommen, dass einzellige Organismen mit mehreren Genomkopien die Ausnahme sind. Mittlerweile werden solche Organismen immer öfter „entdeckt“. Die neuen Erkenntnisse über Achromatium oxaliferum könnten also auch Anstoß geben, Zellen mit mehreren (hunderten) Genomkopien zukünftig genauer anzuschauen, um herauszufinden, ob es sich tatsächlich um identische Kopien handelt.

Same same but different
Wenn sich eine Achromatium-Zelle teilt, werden die Genome wahrscheinlich „zufällig“ auf die Tochterzellen verteilt. Diese zufällige Teilung müsste eigentlich dazu führen, dass sich die neuen Zellen immer unähnlicher werden. Wie aber schafft es Achromatium trotzdem es selbst zu bleiben? Ein starker Umweltdruck führt zum Erhalt der Funktionalität und sichert damit das „Überleben“ von Achromatium: Mutter- und Tochterzellen bleiben die gleichen Organismen. Mehr zu diesem Thema finden Sie im Blogbeitrag der WissenschaftlerInnen bei Nature Microbiology > https://naturemicrobiologycommunity.nature.com/channels/346-behind-the-paper/pos…

Studie:
Danny Ionescu, Mina Bizic-Ionescu, Nicola De Maio, Heribert Cypionka & Hans-Peter Grossart (2017): Community-like genome in single cells of the sulfur bacterium Achromatium oxaliferum, Nature Communications 8, Article number: 455 (2017), doi:10.1038/s41467-017-00342-9. Link zur Studie: http://rdcu.be/vCoK

Ansprechpartner:
Dr. Danny Ionescu, Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB), Abt. Experimentelle Limnologie, ionescu@igb-berlin.de, +49 (0) 162 9702 888

Prof. Hans-Peter Grossart, Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB), Abt. Experimentelle Limnologie, hgrossart@igb-berlin.de, +49 (0) 33082 699 91/10

Über das Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB):
Das IGB ist das bundesweit größte Forschungszentrum für Binnengewässer. Es verbindet Grundlagen- und Vorsorgeforschung, bildet den wissenschaftlichen Nachwuchs aus und berät Politik und Gesellschaft in Fragen des nachhaltigen Gewässermanagements. Forschungsschwerpunkte sind u.a. die Langzeitentwicklung von Seen, Flüssen und Feuchtgebieten angesichts sich rasch ändernder Umweltbedingungen, die Renaturierung von Ökosystemen, die Biodiversität aquatischer Lebensräume sowie Technologien für eine ressourcenschonende Aquakultur. Die Arbeiten erfolgen in enger Kooperation mit den Universitäten und Forschungsinstitutionen der Region Berlin/Brandenburg und weltweit. Das IGB gehört zum Forschungsverbund Berlin e. V., einem Zusammenschluss von acht natur-, lebens- und umweltwissenschaftlichen Instituten in Berlin. Die vielfach ausgezeichneten Einrichtungen sind Mitglieder der Leibniz-Gemeinschaft. http://www.igb-berlin.de/

Quelle: idw

(nach oben)


Langzeitstudie identifiziert niedrige Temperaturen als Herzinfarkt-Trigger

Prof. Dr. Eckart Fleck Pressesprecher
Deutsche Gesellschaft für Kardiologie – Herz- und Kreislaufforschung e.V.

Pressemitteilung der Deutschen Gesellschaft für Kardiologie zum Europäischen Kardiologiekongress (ESC) 2017
Niedrige Außentemperaturen, hohe Windgeschwindigkeit, wenig Sonnenlicht und hohe Luftfeuchtigkeit: Das sind Wetterfaktoren, bei denen es zu mehr Herzinfarkten kommt, zeigt eine große schwedische Studie, die auf dem Europäischen Kardiologiekongress in Barcelona präsentiert wurde.

Düsseldorf, Barcelona, Lund, 30. August 2017 – Eine über 16 Jahre laufende Studie aus Schweden mit mehr als 280.000 Patienten legt nahe, dass niedrige Außentemperaturen ein Trigger für ein vermehrtes Auftreten von Herzinfarkten sein könnten. Das berichtet die Deutsche Gesellschaft für Kardiologie über neue Daten vom Europäischen Kardiologiekongress (ESC) in Barcelona. „Es gibt saisonale Unterschiede bei der Herzinfarkt-Häufigkeit, mit niedrigeren Raten im Sommer und höheren im Winter“, berichtet Studien-Erstautor Dr. Moman A. Mohammad, vom Skane Universitätskrankenhaus im schwedischen Lund. „Unklar ist allerdings, ob das mit den kälteren Temperaturen oder mit saisonalen Verhaltensänderungen zu tun hat.“

Die von Prof. David Erlinge geleitete Studie ist die größte Untersuchung zu den Zusammenhängen zwischen Herzinfarkthäufigkeit und Wetterbedingungen wie Lufttemperatur, Sonnenstunden, Niederschlagsmenge oder Luftdruck. Verwendet wurden Daten aus dem schwedischen Herzinfarktregister SWEDEHEART und die meteorologischen Daten von hunderten schwedischen Wetterstationen.

Während der Studiendauer kam es zu insgesamt 280.873 Herzinfarkten, für 99 Prozent waren die entsprechenden Wetterdaten verfügbar. Die durchschnittliche Zahl von Herzinfarkten pro Tag war bei kalten Temperaturen deutlich höher als bei warmen – und dies in allen Regionen. Konkret bedeutete das um vier Herzinfarkte mehr, wenn die Durchschnittstemperatur unter 0 °C fiel, als bei Temperaturen über 10°C. Darüber hinaus gab es mehr Herzinfarkte bei höherer Windgeschwindigkeit, bei einer geringen Anzahl von Sonnenstunden und bei höherer Luftfeuchtigkeit.

Die Forscher analysierten die Ergebnisse auch nach Subgruppen, darunter ältere Menschen, Patienten mit Bluthochdruck oder Diabetes oder Patienten mit früherem Herzinfarkt. In allen Gruppen wa-ren die Ergebnisse konsistent. Niedrige Temperaturen seien also als Trigger für Herzinfarkte zu sehen, so die Studienautoren.

Der Körper reagiert auf Kälte mit einem Zusammenziehen der oberflächlichen Blutgefäße, das wiederum führt zu einer verminderten Wärmeleitfähigkeit der Haut und in der Folge zu erhöhtem arteriellem Blutdruck. Andere Reaktionen auf Kälte sind Zittern und erhöhter Puls, mit einem erhöhten metabolischen Grundumsatz und erhöhten Körpertemperaturen. „Die meisten gesunden Menschen haben kein Problem mit diesen Mechanismen. Aber bei Menschen mit atherosklerotischen Veränderungen in den Koronararterien kann das einen Herzinfarkt auslösen,“ so Dr. Mohammad.

Nachdem es sich um eine Beobachtungsstudie handelte, könnten auch andere Faktoren das Ergebnis mit beeinflusst haben, so Dr. Mohammad. Infektionen des Respirationstrakts und Grippe sind bekannte Risikofaktoren für einen Herzinfarkt und kommen in der kalten Periode häufiger vor. Auch saisonal bedingte Unterschiede im Verhalten wie weniger Bewegung in der kalten Jahreszeit oder ein verändertes Essverhalten könnten zu der erhöhten Herzinfarktrate beitragen.

Quelle:
ESC 2017 Abstract 2949 Mohammad et al. Air temperature as an external trigger of ST-segment elevation myocardial infarction – a SWEDEHEART nationwide observational study. Euro-pean Heart Journal (2017) 38 (Supplement) 710

Informationen:
Deutsche Gesellschaft für Kardiologie
Pressesprecher: Prof. Dr. Eckart Fleck (Berlin)
Hauptstadtbüro der DGK: Leonie Nawrocki, Tel.: 030 206 444 82
Pressestelle: Kerstin Kacmaz, Düsseldorf, Tel.: 0211 600692 43
presse@dgk.org
B&K – Bettschart&Kofler Kommunikationsberatung, Dr. Birgit Kofler, Berlin/Wien, Tel.: +43-676-6368930; Tel.: 030 700159 676; kofler@bkkommunikation.com

Die Deutsche Gesellschaft für Kardiologie – Herz und Kreislaufforschung e.V. (DGK) mit Sitz in Düsseldorf ist eine wissenschaftlich medizinische Fachgesellschaft mit über 10.000 Mitgliedern. Ihr Ziel ist die Förderung der Wissenschaft auf dem Gebiet der kardiovaskulären Erkrankungen, die Ausrichtung von Tagungen und die Aus-, Weiter- und Fortbildung ihrer Mitglieder. 1927 in Bad Nauheim gegründet, ist die DGK die älteste und größte kardiologische Gesellschaft in Europa. Weitere Informationen unter www.dgk.org.

Weitere Informationen:
http://www.dgk.org
http://www.kardiologie.org

Quelle: idw

(nach oben)


Umweltfreundliches Segway toppt Rad und Auto bei kurzen Strecken

Johanna Besold Abteilung Hochschulkommunikation
Hochschule Heilbronn

Können umweltfreundliche Elektromobile konventionelle Fahrzeuge im Werksverkehr ersetzen? Wissenschaftler der Hochschule Heilbronn untersuchten, wann sich der Einsatz von Segways im innerbetrieblichen Verkehr auf dem Campus und beim Projektpartner ZEAG Energie AG lohnt. Nach zwei Jahren liegen jetzt die Ergebnisse des Projekts „Se@CampHHN“ vor.

Das junge Forscherteam um Professor Dr. Andreas Daberkow untersuchte die Wirtschaftlichkeit des Segways, Transportmöglichkeiten und die Umsetzung im Betriebsverkehr bei der ZEAG. Um zu entscheiden, ob ein Segway wirtschaftlicher eingesetzt werden kann als ein konventionelles Fahrzeug, spielen Kriterien wie Distanz, Transportmöglichkeit und Zeit eine Rolle.
Lasten- und Cargo-Räder sind besser geeignet, um sperrige und schwere Gegenstände zu transportieren. Beide Räder lassen sich allerdings nur schwer manövrieren und erfordern geübte Fahrer. Vor allem eine Kurvenfahrt im Lastendreirad ist schwierig. Der Segway ist wendiger und kann unproblematisch in Gebäuden oder Fußgängerzonen eingesetzt werden.

Innovatives Gepäckträgersystem
Es ist bisher schon möglich, den Segway mit Transport-Zubehör zu bestellen. Das kann z. B. ein Cargo-Set oder ein Kasten-Set sein, das auf den Rädern montiert wird. Es ist auch möglich, einen Koffer am Lenker zu befestigen. Allerdings ist der Segway mit Transportsystem mit über 70cm so breit, das er nicht in einen herkömmlichen Aufzug oder durch bestimmte Türen passt. Deswegen hat Michael Schneichel im Rahmen seiner Bachelorarbeit ein neuartiges Gepäckträgersystem entwickelt, konstruiert und Prototypen aufgebaut. Es gibt eine S- und eine XL-Variante mit Erweiterung, die flexibel auf den Montageplatten verschoben werden können. Mit dem neuen Gepäckträgersystem kann nun auch leichte und nicht allzu sperrige Ladung transportiert werden. Dies macht den Segway besonders für Überwachungsfahrten durch das Gebäudemanagement der Hochschule und den Projektpartner ZEAG AG interessant, da die Ladekapazitäten für die jeweiligen Einsatzgebiete ausreichend sind. Außerdem ist denkbar, dass der „Business-Usecase“ an Bedeutung zunimmt, da eine Aktentasche problemlos für die Verwendung mit dem Segway angepasst werden kann.

Segways sind auf kurzen Strecken wirtschaftlicher einsetzbar
Firmen können Lohnkosten sparen, wenn sie Segways wirtschaftlich einsetzen. Auf kurze Strecken (0,5 bis 2,5 Kilometer), z. B. durch die Innenstadt, liegt das Segway klar vorn. Die Rüstzeit, also die Zeit, bis man mit einem Auto tatsächlich losfahren kann, ist beim Segway deutlicher kürzer. Auch die Abstellzeit ist viel geringer, als eine gewöhnliche Parkplatzsuche. Damit verringert sich auch die Gesamtreisezeit. Ein Vorteil ist auch die erhöhte Sichtposition, besonders bei Fahrten in Menschenmengen oder bei Überwachungs- und Kontrollfahrten. Davon profitieren in Heilbronn schon Mitarbeitende des Ordnungsamts. Wenn der Transport einer Person und kleiner Gepäckstücke im Vordergrund stehen, ist der Segway klar im Vorteil. Ein Nachteil ist der Kaufpreis eines Segways. Er liegt mit etwa 8.000 Euro für einen Segway (im Vergleich zu einem Ninebot, das ab ca. 1.000 – 2.500 Euro zu haben ist) noch immer sehr hoch. Ein Blick in die Innenstädte zeigt, dass immer mehr günstige kleine Elektrofahrzeuge verkehren, die auf ähnlichen Prinzipien beruhen. Das deutet darauf hin, dass die Preise künftig weiter fallen werden.

Barriere-Landkarte hilft Personen mit Mobilitätshilfen
Erhebungen im Pflaster, Zäune, unüberwindbare Treppen – die Barrierefreiheit am Campus Heilbronn – Sontheim ist noch ausbaufähig. Wo nachjustiert werden muss, ist für Personen, die nicht bewegungseingeschränkt sind, nicht immer schnell ersichtlich. Deswegen nutzte das Forscherteam den Segway, um eine „Barrierelandkarte“ zu erarbeiten, die dem Gebäudemanagement Aktionsfelder aufzeigt. Inzwischen sind an mehreren Stellen neue Türöffner eingebaut worden, um Rollstuhlfahrern den Zugang zu erleichtern.

Das Projekt wurde vom Förderkreis der Hochschule Heilbronn und vom Baden-Württemberg gefördert. Wirtschaftsministerin Dr. Nicole Hoffmeister-Kraut hofft, dass die Studienergebnisse dazu beitragen, den Einsatz von umweltfreundlichen Transportmitteln weiter zu erhöhen: „Elektrische Leichtkleinnutzfahrzeuge eröffnen dem innerbetrieblichen Werksverkehr viele neue Möglichkeiten und bieten das Potenzial diesen erheblich effizienter, kostengünstiger und mitarbeiterfreundlicher gestalten zu können.“ Bisher eingesetzte Konzepte enden oftmals an der Grenze zu den Gebäuden, in denen der Transport von Last, Material oder Werkzeug dann durch die Mitarbeiter manuell bzw. konventionell durchgeführt werden muss. Dies ist nicht nur mit Blick auf die Effizienz und Kosten unbefriedigend, sondern stellt oft auch eine hohe körperliche Belastung für die Mitarbeiter dar. „Die Ergebnisse des von uns geförderten Projekts Se@CampHHN an der Hochschule Heilbronn und dem Projektpartner ZEAG zeigen, welch großes heute noch ungenutztes Potenzial in Transportfahrten, beispielsweise im innerbetrieblichen technischen Betrieb, durch gebäudegängige, zweirädrige und selbstbalancierende Elektroleichtkleinnutzfahrzeuge steckt“, erläutert die Ministerin weiter.
Unter diesen Umständen ist der Segway das bevorzugte Transportmittel um kurze Distanzen zurückzulegen, da es die Reisezeit deutlich verkürzt. Die Möglichkeit leichtes Gepäck zu transportieren erhöht den Nutzen dabei nochmals und macht Segways für Firmen sehr attraktiv.

Hochschule Heilbronn – Kompetenz in Technik, Wirtschaft und Informatik
Mit über 8.500 Studierenden ist die staatliche Hochschule Heilbronn eine der größten Hochschulen für Angewandte Wissenschaften in Baden-Württemberg. 1961 als Ingenieurschule gegründet, liegt heute der Kompetenz-Schwerpunkt auf den Bereichen Technik, Wirtschaft und Informatik. Angeboten werden an den drei Standorten Heilbronn, Künzelsau und Schwäbisch Hall und in sieben Fakultäten insgesamt 50 Bachelor- und Masterstudiengänge. Die enge Kooperation mit Unternehmen aus der Region und die entsprechende Vernetzung von Lehre, Forschung und Praxis werden in Heilbronn großgeschrieben.

Ansprechpartner:
Prof. Dr.-Ing. Andreas Daberkow, Hochschule Heilbronn,
Max-Planck-Str. 39, 74081 Heilbronn, Telefon: 07131-504-417,
E-Mail: andreas.daberkow@hs-heilbronn.de, Internet: http://www.hs-heilbronn.de/ase

Pressekontakt
Hochschule Heilbronn: Dr. Simone Scheps, Max-Planck-Str. 39, 74081 Heilbronn, Telefon: 0 71 31-504-499, E-Mail: simone.scheps@hs-heilbronn.de Internet: http://www.hs-heilbronn.de

Quelle: idw

(nach oben)


Besser Schneider oder Schmidt heißen

Dr. Harald Wilkoszewski Informations- und Kommunikationsreferat
Wissenschaftszentrum Berlin für Sozialforschung gGmbH

Jobcenter benachteiligen bei Anfragen Menschen mit ausländischen Namen
Mitarbeiter von Behörden neigen zur Diskriminierung, wenn sie Anfragen von Menschen mit ausländischen Namen erhalten. Das haben Anselm Rink vom Wissenschaftszentrum Berlin für Sozialforschung (WZB) und Johannes Hemker (zum Zeitpunkt der Studie an der Columbia University) in einem Experiment herausgefunden. Sie verschickten E-Mails an alle deutschen Jobcenter und stellten Fragen zum Thema Hartz IV. Dabei erhielten Menschen mit türkischen oder rumänischen Namen qualitativ schlechtere Auskünfte als Menschen mit deutschen Namen.

In dem Experiment haben die Forscher in den Jahren 2014 und 2015 fiktive E-Mails an 408 Jobcenter geschickt. Die Forscher verwendeten sechs deutsch, türkisch und rumänisch klingende Namen. Die Mails variierten unter anderem in Berufsbezeichnung, Geschlecht und Sprachstil.

In den Mails fragten die potenziellen Antragsteller, welche Unterlagen für eine Antragstellung beim Arbeitslosengeld II benötigt würden und ob auch Unterlagen von Familienangehörigen für den Antrag wichtig seien. Im Nachgang analysierten die Wissenschaftler die Antworten der Jobcenter. Das Ergebnis zeigt: Die Jobcenter beantworteten unabhängig vom Namen alle Mails, aber die Fragesteller mit ausländischen Namen erhielten häufiger unzureichende und weniger detaillierte Informationen. Das Informationsdefizit hätte sie davon abhalten können, einen Antrag auf eine Grundsicherung nach Hartz IV zu stellen.

Jobcenter unter kommunaler Verwaltung schnitten dabei deutlich schlechter ab als Jobcenter, die direkt der Bundesagentur für Arbeit unterstellt sind. Gleichermaßen schnitten westdeutsche Behörden schlechter ab als ostdeutsche Behörden.

Welche Arbeitsagentur welche E-Mail erhielt, wurde in dem Forschungsprojekt zufällig festgelegt. Somit konnten die Autoren sicherstellen, dass nur die Namen (und nicht andere Faktoren) erklären, warum Menschen mit Migrationshintergrund anders behandelt werden.

Die Studie von Anselm Rink und Johannes Hemker wurde gerade unter dem Titel „Multiple dimensions of bureaucratic discrimination: Evidence from German welfare offices“ im American Journal of Political Science veröffentlicht.

Pressekontakt
Anselm Rink
Wissenschaftlicher Mitarbeiter
Abteilung Migration, Integration, Transnationalisierung
Telefon: 030/25491-287
E-Mail: anselm.rink@wzb.eu

Claudia Roth/
Kerstin Schneider
WZB-Pressestelle
Telefon: 030/25491-510
E-Mail: claudia.roth@wzb.eu

Weitere Informationen:
http://www.wzb.eu

Quelle: idw

(nach oben)


Öl- und Gasbohrungen als starke Quelle von Treibhausgasen

Dr. Andreas Villwock Kommunikation und Medien
GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel

Neue Studie belegt Methan-Leckagen rund um Bohrlöcher in der Nordsee
Bohrlöcher in der Nordsee könnten eine deutlich größere Quelle von Methan, einem starken Treibhausgas, sein als bisher angenommen. Das zeigt eine Studie, die Forschende des GEOMAR Helmholtz-Zentrums für Ozeanforschung Kiel jetzt in der internationalen Fachzeitschrift Environmental Science & Technology veröffentlicht haben. Demnach treten aus den die Bohrungen umgebenden Sedimenten große Mengen Methan aus, vermutlich über lange Zeiträume.

Die Bilder gingen um die Welt. Im April 2010 entwichen aus einem Bohrloch unterhalb der Plattform Deepwater Horizon im Golf von Mexiko plötzlich große Mengen an Methangas. Dieser „Blow-Out“ führte zu einer Explosion, bei der elf Menschen starben. Wochenlang strömte danach Öl aus dem beschädigten Bohrloch ins Meer. Glücklicherweise sind solche katastrophalen „Blow-Outs“ eher selten. Kontinuierliche Austritte geringerer Gasmengen aus aktiven oder alten, verlassenen Bohrlöchern sind dagegen häufiger.

Ein Forscherteam des GEOMAR Helmholtz-Zentrums für Ozeanforschung Kiel und der Universität Basel veröffentlicht jetzt in der internationalen Fachzeitschrift Environmental Science & Technology neue Daten, wonach Gasaustritte, die entlang der Außenseite von Bohrlöchern entweichen, ein deutlich größeres Problem darstellen könnten als bisher angenommen. Diese Art der Leckage wird derzeit weder von Betreibern noch Regulatoren betrachtet, könnte aber ebenso bedeutsam sein, wie die Austritte aus beschädigten Bohrlöchern selbst, welche meist schnell erkannt und repariert werden. „Wir haben hochgerechnet, dass Leckagen rund um Bohrlöcher eine der Hauptquellen für das Methan in der Nordsee sein könnten“, sagt Dr. Lisa Vielstädte vom GEOMAR, die Hauptautorin der Studie.

Bei mehreren Expeditionen zu Öl- und Gaslagerstätten in der zentralen Nordsee in den Jahren 2012 und 2013 haben die Forschenden rund um verlassene Bohrlöcher Methanaustritte entdeckt. Das Gas stammt aus flachen Gastaschen, die weniger als 1000 Meter unter dem Meeresboden liegen. Bei Bohrungen zu tiefer liegenden, wirtschaftlich interessanten Lagerstätten werden sie einfach durchstoßen. „Diese Gastaschen sind meistens auch keine Gefahr für die Bohrungen an sich. Aber offenbar sorgt die Störung des Untergrundes dafür, dass rund um das Bohrloch Gas zum Meeresboden aufsteigen kann“, erklärt Dr. Matthias Haeckel vom GEOMAR, Initiator der Studie.

Seismische Daten vom Untergrund der Nordsee verrieten den an der Studie Beteiligten, dass rund ein Drittel der Bohrlöcher durch flache Gastaschen gebohrt wurden und somit die Bedingungen erfüllen, um Methanquellen in der Umgebung zu erzeugen. „Bei mehr als 11.000 Bohrungen in der Nordsee ergibt das eine entsprechend große Menge an potenziellen Methanquellen“ sagt Dr. Vielstädte, die derzeit an der Universität Stanford in Kalifornien forscht.

Hochrechnungen des Teams ergaben, dass entlang der existierenden Bohrlöcher zwischen 3000 und 17.000 Tonnen Methan pro Jahr aus dem Meeresboden austreten. „Das wäre ein signifikanter Anteil am gesamten Methanbudget der Nordsee“, betont Dr. Haeckel.

Im Meerwasser wird Methan normalerweise mikrobiell abgebaut, was in der näheren Umgebung zu einer lokalen Versauerung führen kann. In der Nordsee liegt etwa die Hälfte der Bohrlöcher in so geringen Wassertiefen, dass das am Meeresboden austretende Methan die Atmosphäre erreichen kann. Dort entfaltet es als Treibhausgas eine deutlich größere Wirkung als Kohlendioxid.

„Erdgas, also Methan, wird oft als der fossile Brennstoff gepriesen, der für den Übergang von Kohlenutzung zu regenerativen Energien am besten geeignet ist. Wenn Bohrungen nach Gas aber global zu so großen Methanemissionen in die Atmosphäre führen, müssen wir das Treibhausbudget von Erdgas neu überdenken“, resümiert Dr. Haeckel.

Um den menschlichen Einfluss auf das Methanbudget der Nordsee noch genauer beziffern zu können, wird das Kieler Forschungsschiff POSEIDON im Oktober weitere Gasquellen im Umfeld von Bohrlöchern in der Nordsee untersuchen.

Originalarbeit:
Vielstädte, L., M. Haeckel, J. Karstens, P. Linke, M. Schmidt, L. Steinle, K. Wallmann, 2017: Shallow Gas Migration along Hydrocarbon Wells – An Unconsidered, Anthropogenic Source of Biogenic Methane in the North Sea. Environ. Sci. Technol., http://dx.doi.org/10.1021/acs.est.7b02732

Hinweis:
Die Studie wurde gefördert vom EUROFLEETS-Programm der Europäischen Union, vom Projekt ECO2 und vom Exzellenzcluster „Ozean der Zukunft“.

Kontakt:
Dr. Andreas Villwock (GEOMAR, Kommunikation & Medien), Tel.: 0431 600-2802, presse@geomar.de

Quelle: idw

(nach oben)


Weihwasser: nicht so rein wie erhofft

Jutta Neumann Pressestelle
Hochschule Furtwangen

Ist Weihwasser eher gefährlich als nützlich? Welche Auswirkungen hat es, wenn viele Menschen ihre Finger in Weihwasserbecken tauchen? Diese Fragen waren der Ausgangspunkt für eine wissenschaftliche Untersuchung.

Obwohl Weihwasserbecken in katholischen Kirchen zur üblichen Ausstattung gehören, wurden sie von der Wissenschaft bislang wenig beachtet. Ein Team aus Studierenden und Forschern des Studiengangs „Molekulare und Technische Medizin“ der Hochschule Furtwangen hat sich nun dieses Themas angenommen und 54 Weihwasserproben aus fünf Kirchen in Villingen-Schwenningen und umliegenden Ortschaften verglichen.

Die erste in Deutschland durchgeführte Studie zum Thema mikrobielle Verunreinigung von Weihwasser ist nun in der Zeitschrift „Journal of Water and Health“ (https://doi.org/10.2166/wh.2017.026) erschienen. Sie trägt den Titel „Quantification and identification of aerobic bacteria in holy water samples from a German environment“ und wurde von Christoph König, Stephanie Tauchnitz, Heike Kunzelmann, Christian Horn, Frithjof Blessing, Matthias Kohl und Markus Egert verfasst.

Drei Stadtkirchen und zwei Dorfkirchen sind mehrmals beprobt worden. Durchschnittlich wurden rund 6.000 Keime pro Milliliter gemessen. Das Weihwasser aus Stadtkirchen war mit zwischen 1.500 und 21.000 Keimen pro Milliliter signifikant stärker belastet als das aus Dorfkirchen mit nur rund 100 Keimen pro Milliliter. „Wir vermuten, dass dieser große Unterschied auf die höheren Besucherzahlen in den Stadtkirchen zurückzuführen ist“, so Studienleiter Prof. Dr. Markus Egert. „Die Keimzahl zeigte eine Korrelation mit den Gemeindegrößen.“

In Deutschland gibt es knapp 24 Millionen Katholiken, von denen gut 10%, also immerhin 2,5 Millionen regelmäßig Gottesdienste besuchen. Das Thema Weihwasser ist etwas tabuisiert. „Gerade in Anbetracht einer immer älter werdenden Gottesdienstbesucherschaft wollten wir dieses Thema trotzdem untersuchen“, so Egert. „Die örtlichen Kirchenvertreter standen unserer Untersuchung sehr aufgeschlossen gegenüber.“

Neben Wasserbakterien wurden vor allem Bakterien der humanen Hautflora gefunden, insbesondere Staphylokokken. 50% der identifizierten Isolate waren potentiell pathogen. Staphylokokken sind bekannte Erreger von Haut- und Weichteilinfektionen, etwa von Abszessen. Insgesamt 20 verschiedene Arten von Bakterien konnten sicher nachgewiesen werden.

Die Forscher empfehlen, Hygienemaßnahmen zu ergreifen, um eine mikrobielle Verunreinigung des Weihwassers zu verhindern. Dies sollte durch regelmäßigen Wasser-Austausch, insbesondere in Kirchen mit hohen Besucherzahlen, gewährleistet werden. „Der rituelle Salzzusatz zu Weihwasser hat auch konservierenden Charakter“, erläutert Professor Egert. „Allerdings sind gerade Staphylokokken für ihre Salztoleranz bekannt.“ Die Forscher wollen weitere Arbeiten im Bereich Verhinderung des Keimwachstums in Weihwasserbecken folgen lassen. Einer der Ansatzpunkte wird das Material der Weihwasserbehälter sein. Möglicherweise lassen sich durch Metalle wie Kupfer bessere Bedingungen erzielen.

Eine gute Nachricht: Die Keimzahlen in den Proben aus dem Raum Villingen-Schwenningen (Baden-Württemberg) waren um bis zu 1000-fach geringer als die Werte aus einer österreichischen Studie (Kirschner et al., 2012) welche Kirchen in Wien verglichen hatte. Auch wenn das Wasser in Weihwasserbecken keine Trinkwasserqualität mehr hat, so besteht jedoch keine Gefahr bei äußerlicher Anwendung auf unverletzter Haut.

Weitere Informationen:
https://doi.org/10.2166/wh.2017.026

Quelle: idw

(nach oben)


Elektrizitätsbedarf in Europa verlagert sich durch den Klimawandel

Jonas Viering Presse- und Öffentlichkeitsarbeit
Potsdam-Institut für Klimafolgenforschung

Steigende Temperaturen durch den Klimawandel werden den Elektrizitätsverbrauch in Europa grundlegend verändern. Wie sich der ungebremste Klimawandel auf den europäischen Elektrizitätsbedarf auswirkt, hat ein Wissenschaftlerteam aus Deutschland und den USA nun untersucht: Die Tagesspitzenlast wird demnach in Südeuropa ansteigen und der Gesamtbedarf sich wohl von Norden nach Süden verlagern. Zudem wird in einem Großteil der Länder die jährliche Spitzenlast im Sommer statt im Winter auftreten. Das bedeutet zusätzlichen Druck auf Europas Energieversorgungsnetze, wie die jetzt im renommierten US-Fachjournal Proceedings of the National Academy of Science (PNAS) veröffentlichte Studie nahelegt.

„Es ist faszinierend, dass die Reaktion auf Temperaturveränderungen beim Elektrizitätsverbrauch quer durch Europa ähnlich ausfällt – Tagessspitzenlast und Gesamtverbrauch sind offensichtlich immer dann am kleinsten, wenn die maximale Tagestemperatur bei etwa 22°C liegt, und beide nehmen zu, wenn diese entweder steigt oder fällt“, erklärt die Leitautorin Leonie Wenz vom Potsdam-Institut für Klimafolgenforschung (PIK). „Diese Gemeinsamkeit der europäischen Staaten haben wir als Basis genutzt, um den künftigen Elektrizitätsbedarf im Klimawandel abzuschätzen. So konnten europäische Länder, die bereits heute sehr hohe Temperaturen haben, als Muster für die Zukunft kühlerer Länder wirken. Unsere Studie zeigt, dass sich der Elektrizitätsbedarf in Europa verlagern wird von Ländern wie Schweden oder Norwegen zu Ländern wie Portugal oder Spanien. Gleichzeitig wird sich die jährliche Spitzenlast in den meisten Ländern wohl vom Winter auf den Sommer verschieben“.

+++Stündliche Beobachtungsdaten aus 35 Ländern+++
„Wie Hitze und menschliches Verhalten zusammenhängen, das ist Pionierforschung. Vieles weist mittlerweile darauf hin, dass die Luftqualität leidet, wenn es draußen heiß ist, Menschen gestresster, aggressiver und weniger produktiv sind, und Sterblichkeits- und Kriminalitätsraten ansteigen“, fügt Max Auffhammer von der Universität von Kalifornien, Berkeley, hinzu. „Von diesem thermalen Stress sind alle Bereiche betroffen, vom Wohnen bis zu Landwirtschaft und Industrie. Der wichtigste verfügbare Mechanismus zur Anpassung an hohe Außentemperaturen sind gekühlte Innenräume, was in den meisten Fällen viel Elektrizität erfordert. Dieser gestiegene Bedarf für Klimaanlagen wird zusätzlichen Druck auf die Elektrizitätsnetze ausüben, wenn es draußen heiß ist und Stromerzeugungs- und Übertragungsinfrastrukturen ohnehin belastet sind.“

Es ist die erste Studie, die stündliche Beobachtungsdaten zur Elektrizität aus 35 europäischen Ländern – die zum weltgrößten synchronen Elektrizitätsnetz verbunden sind – untersucht, um abzuschätzen, wie sich der Klimawandel auf die Intensität von Spitzenlasten und Elektrizitätsverbrauch insgesamt auswirkt. Während frühere Forschung zur Verbindung von Temperatur und Elektrizitätsnutzung sich noch vorrangig auf die USA oder einzelne Länder in Europa konzentrierten, legen neuere Forschungsergebnisse nahe, dass vor allem die Folgen durch Veränderungen in der Spitzenlast gravierend und kostspielig sein könnten – und legen damit den Fokus auf Zeiten, wenn die Elektrizitätsnetze ohnehin schon sehr beansprucht sind.

+++Fundamentale Herausforderung für Stromnetze und Spitzenkapazitäten+++
„Noch vor wenigen Jahrzehnten hatte kein Auto in Europa eine Klimaanlage, heute hat es fast jedes – die gleiche Entwicklung wird es wohl auch für Gebäude in Europa geben, aber nicht aus Gründen der Bequemlichkeit, sondern aus Notwendigkeit. Die Menschen werden ihre Umgebung kühlen müssen, um ihre Produktivität aufrechterhalten zu können, sei es im Alltag oder bei der Arbeit“, sagt Ko-Autor Anders Levermann vom PIK und der Universität Columbia in New York.

Zwar zeigt die Studie auch, dass der Klimawandel unterm Strich nicht deutlich mehr und nicht weniger Elektritzitätsbedarf in Europa verursacht, die räumliche und zeitliche Verlagerung des Konsums sei aber eine fundamentale Herausforderung für Europa: „Das wird sich spürbar auf die Übertragungsinfrastruktur, den Ausbau von Spitzenkapazitäten und die Anforderungen an Speicher auswirken. Schon der durch vergangene Treibhausgasemissionen bereits unvermeidbare Klimawandel wird uns vor große Herausforderungen stellen,“ sagt Levermann, der am Potsdam-Institut den Bereich Globale Anpassungsstrategien leitet „Um die vermeidbaren Folgen des Klimawandels einzugrenzen, bleibt der einfachste Weg die Einhaltung der Ziele des Pariser Klimaabkommens, also die Begrenzung des Temperaturanstiegs auf deutlich unter 2°C.“

Artikel: Wenz, L., Levermann, A., Auffhammer, M. (2017): North-South polarization of European electricity consumption under future warming. Proceedings of the National Academy of Sciences (PNAS) [DOI:10.1073/pnas.1704339114]

Weblink zum Artikel, sobald er veröffentlicht ist: www.pnas.org/cgi/doi/10.1073/pnas.1704339114

Kontakt für weitere Informationen:
Potsdam-Institut für Klimafolgenforschung, Pressestelle
Telefon: +49 (0)331 288 2507
E-Mail: presse@pik-potsdam.de
Twitter: @PIK_Klima
www.pik-potsdam.de

Quelle: idw

(nach oben)


Menschenaffen wissen, wenn sie etwas nicht wissen

Dr. Harald Rösch Wissenschafts- und Unternehmenskommunikation
Max-Planck-Gesellschaft zur Förderung der Wissenschaften e.V.

Schimpansen und Orang-Utans suchen nach Informationen, um Wissenslücken zu schließen
Sie verlassen das Haus und fragen sich beim Schließen der Tür, ob Sie den Herd ausgeschaltet haben. Die einfache Lösung ist, noch einmal umzukehren und nachzuschauen. Dieses Beispiel veranschaulicht eine wichtige Art des Denkens: Metakognition oder die Fähigkeit, eigene geistige Zustände zu überwachen. Vor dem Umkehren beurteilt der Mensch zunächst, ob er sich an das Ausschalten des Herds erinnert. Falls nicht, sucht er weitere Informationen, indem er nochmal nachschaut. Beim Menschen ist dieser Prozess flexibel gestaltet und auf alle möglichen Gedanken anwendbar. Forscher des Max-Planck-Instituts für evolutionäre Anthropologie in Leipzig und der Universität St. Andrews in Großbritannien haben sich nun die Frage gestellt, wie sich Menschenaffen in einer ähnlichen Situation verhalten würden.

In ihrer Studie sollten Schimpansen und Orang-Utans die genaue Lage eines für sie nützlichen Objekts bestimmen, das hinter einer kleinen Barriere auf einem Tisch verborgen war. In einigen Fällen zeigten die Forscher den Menschenaffen vorab kurz, wo sich das Objekt befand, in anderen Fällen nicht. Im Moment der Entscheidung war das Objekt jedoch immer versteckt. Die entscheidende Frage war nun, ob die Tiere erst einmal einschätzen würden, was sie über den Aufenthaltsort des Objekts wissen, bevor sie eine Wahl treffen. Würden sie zusätzliche Informationen einholen, wenn sie sich nicht sicher sein konnten, wo sich das Objekt befand? Die Ergebnisse zeigten, dass genau das der Fall war: Hatten die Menschenaffen vorab keine Informationen erhalten, kletterten sie oder reckten sich und spähten über die Barriere, bevor sie ihre Wahl trafen.

Einigen Wissenschaftlern zufolge deutet diese Suche nach weiteren Informationen darauf hin, dass Menschenaffen – ähnlich wie Menschen – ihr bereits vorhandenes Wissen einer metakognitiven Prüfung unterziehen, ähnlich wie die Menschen im Beispiel mit dem Herd. Andere Wissenschaftler sehen das eher skeptisch. Die Tatsache, dass die Menschenaffen sich ähnlich wie die Menschen verhalten, wenn sie sich in einer ähnlichen Situation befinden, bedeutet ihrer Meinung nach nicht, dass sie ihre eigenen mentalen Zustände überwachen. „Frühere Studien zeigten, dass Menschenaffen nach Informationen suchen, wenn Futter im Spiel ist. Ein Verhalten, dass der Nahrungssuche dienen könnte und nicht zwingend Teil eines metakognitiven Prozesses wäre“, sagt Erstautor Manuel Bohn.

Um diese Alternative zu prüfen, variierten die Forscher, ob das Objekt auf dem Tisch ein Stück Futter oder ein Werkzeug war. Damit untersuchten sie, ob die Suche der Affen nach Informationen auf bestimmte Objekte, wie zum Beispiel auf Futter, beschränkt ist. Doch in beiden Fällen suchten die Tiere nach zusätzlichen Hinweisen. Das verdeutlicht ihre Flexibilität bei der Informationssuche und legt nahe, dass ihre metakognitiven Fähigkeiten denen des Menschen ähnlicher sind, als bisher angenommen. „Affen suchen nach fehlenden Informationen ähnlich wie Menschen, was eine Reihe von Gründen haben könnte. Doch unsere Studie verdeutlicht, dass Menschenaffen nicht einfach ziellos nach Informationen suchen, in der Hoffnung, auf Futter zu stoßen“, sagt Matthias Allritz.

Co-Autor Christoph Völter sagt: „Unsere Studie legt nahe, dass Menschenaffen mehr wissen wollen, vor allem dann, wenn ihnen eine wichtige Information fehlt, wie zum Beispiel der Aufenthaltsort eines benötigten Werkzeugs. Unsere Ergebnisse zeigen, dass Menschenaffen ihr eigenes Wissen überwachen und dass sie diese Fähigkeit flexibel nutzen, um vorhandene Wissenslücken zu schließen.“

Die Studie zeigt, dass die engsten lebenden Verwandten des Menschen kognitive Fähigkeiten besitzen, die es ihnen ermöglichen, verfügbare Informationen auf verschiedenen Ebenen zu bewerten. Das deutet darauf hin, dass sie über metakognitive Fähigkeiten verfügen, die ähnlich flexibel wie beim Menschen sind. Diese Fähigkeit hilft ihnen dabei, ihre Entscheidungsfindung zu optimieren. „Unsere Studie leistet einen wichtigen Beitrag zur Erforschung der Komplexität und Flexibilität von Gedächtnisprozessen und der Überwachung eigener geistiger Zustände bei Menschenaffen“, sagt Josep Call.

Originalveröffentlichung:
Manuel Bohn, Matthias Allritz, Josep Call, Christoph J. Völter
Information seeking about tool properties in great apes
Scientific Reports, 07. September 2017

Kontakt:
Dr. Manuel Bohn
Max-Planck-Institut für evolutionäre Anthropologie, Leipzig
Tel.: +49 (0)341 3550-438
E-Mail: manuel_bohn@eva.mpg.de

Sandra Jacob
Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für evolutionäre Anthropologie, Leipzig
Tel.: +49 (0)341 3550-122
E-Mail: jacob@eva.mpg.de

Quelle: idw

(nach oben)


Forscher berechnen zentrale Eigenschaft von Wasser

Johannes Seiler Dezernat 8 – Hochschulkommunikation
Rheinische Friedrich-Wilhelms-Universität Bonn

Wasser-Moleküle können spontan in negativ und positiv geladene Teilchen zerfallen. Chemiker der Universitäten Bonn, Rostock und Wisconsin-Madison (USA) haben diese Eigenschaft erstmals am Computer nachvollzogen. Ihre Studie wirft Licht auf eine Reaktion, ohne die es vermutlich kein Leben gäbe. Die Arbeit ist heute in der Zeitschrift „Scientific Reports“ der Nature Publishing Group erschienen.

Flüssiges Wasser besteht zum überwiegenden Teil aus neutralen H2O-Molekülen. Diese können jedoch spontan zerfallen. Dabei entstehen ein negativ geladenes Hydroxid-Ion sowie ein positiv geladenes Hydronium-Ion. Diese Reaktion ist ausgesprochen selten: Auf zehn Milliarden Wassermoleküle kommen nur 36 Ionen.

So verschwindend klein diese Zahl ist: Theoretisch müsste sie noch viel niedriger sein. Die Bindungskräfte innerhalb des Wassermoleküls sind so stark, dass ein spontaner Zerfall extrem unwahrscheinlich ist. Auch tendieren die Ionen dazu, sich direkt wieder zu verbinden. In flüssigem Wasser laufen jedoch Prozesse ab, die seine „Eigendissoziation“ (so das Fachwort für dieses Phänomen) fördern.

„Bei der Quantifizierung dieser Prozesse tappten die Chemiker aber bislang im Dunkeln“, erklärt Dr. Eva Perlt vom Institut für Physikalische und Theoretische Chemie der Universität Bonn. „Dabei bildet die Eigendissoziation die Grundlage für viele Säure-Base-Reaktionen – also für alles, was mit dem pH-Wert zusammen hängt.“ Ohne diese zentrale Eigenschaft wäre Leben, wie wir es kennen, wohl nicht denkbar.

Klassische Simulation am Rechner zu aufwändig
Theoretische Chemiker nutzen heute Computermodelle, um bestimmte Reaktionen besser zu verstehen. Der Zerfall der Wassermoleküle entzieht sich jedoch klassischen Simulationen. „Da die Eigendissoziation so selten ist, müssten wir dazu im Rechner viele Milliarden Teilchen simulieren“, erklärt Perlt. „Das übersteigt schlicht die Leistung der heute verfügbaren Hardware.“

Das internationale Forscherteam hat daher einen anderen Weg beschritten. Wassermoleküle sind polar; sie haben wie kleine Magneten gewissermaßen einen Nord- und einen Südpol. In Lösung ordnen sie sich daher zu lockeren räumlichen Strukturen an, so genannten Clustern. Manche dieser Cluster bieten ein Milieu, in dem sich Ionen besonders wohl fühlen. Sie schaffen also eine Art Mikroumgebung, die die Eigendissoziation fördert.

„Wir haben nun in unserem Modell berechnet, welche Arten von Clustern in flüssigem Wasser vorliegen“, erklärt Prof. Dr. Barbara Kirchner, Leiterin des „Mulliken Center for Theoretical Chemistry“ an der Universität Bonn. „Dadurch konnten wir die Komplexität des Modells erheblich reduzieren. Aus der Zusammensetzung der Cluster konnten wir dann auf die Wahrscheinlichkeit schließen, mit der die Wassermoleküle dissoziieren.“

Das Ergebnis der Berechnung deckt sich hervorragend mit den Werten, die sich in der Natur beobachten lassen. Dem transatlantischen Forscherteam gelang es auch, die Temperaturabhängigkeit des Zerfalls nachzuvollziehen. „Zwischen dem Schmelz- und dem Siedepunkt des Wassers nimmt die Selbstdissoziation um etwa den Faktor 1000 zu“, erläutert Prof. Dr. Ralf Ludwig von der Universität Rostock. „Diese Zunahme wird auch von unserer Computersimulation vorhergesagt.“

Publikation: Eva Perlt, Michael von Domaros, Barbara Kirchner, Ralf Ludwig & Frank Weinhold: Predicting the Ionic Product of Water; Scientific Reports; DOI:10.1038/s41598-017-10156-w

Kontakt:
Prof. Dr. Barbara Kirchner
Institut für Physikalische und Theoretische Chemie
Universität Bonn
Tel. 0228/7360442
E-Mail: kirchner@thch.uni-bonn.de

Dr. Eva Perlt
Institut für Physikalische und Theoretische Chemie
Universität Bonn
Tel. 0228/7360148
E-Mail: eva.perlt@uni-bonn.de

Quelle: idw

(nach oben)


Expertengruppe schlägt umfassende Reform des Heilpraktikerberufs vor

Norbert Robers Presse- und Informationsstelle
Westfälische Wilhelms-Universität Münster

Eine 17-köpfige Expertengruppe mit Prof. Dr. Bettina Schöne-Seifert (Universität Münster) an der Spitze hat Vorschläge erarbeitet, wie das Heilpraktikerwesen zum Nutzen der Patienten reformiert werden sollte. Der Appell der Experten richtet sich gegen die ihrer Einschätzung nach „unangemessene Ausbildung und die meist unhaltbaren Krankheitskonzepte“ der Heilpraktiker. Demnach sollte der Beruf entweder abgeschafft oder durch die Einführung spezialisierter „Fach-Heilpraktiker“ als Zusatzqualifikation für bestehende Gesundheitsfachberufe abgelöst werden.

Auf Initiative von Bettina Schöne-Seifert, Professorin für Medizinethik der Westfälischen Wilhelms-Universität Münster (WWU), hat eine 17-köpfige Expertengruppe („Münsteraner Kreis“) Vorschläge erarbeitet, wie das Heilpraktikerwesen zum Nutzen der Patienten reformiert werden sollte. Der Appell der Experten richtet sich gegen die ihrer Einschätzung nach „unangemessene Ausbildung und die meist unhaltbaren Krankheitskonzepte“ der Heilpraktiker.

Der Münsteraner Kreis hat jetzt das „Münsteraner Memorandum Heilpraktiker“ verabschiedet, über das im Deutschen Ärzteblatt berichtet worden ist. Darin werden zwei Lösungsvorschläge skizziert: 1. Der Heilpraktikerberuf wird abgeschafft 2. Der Heilpraktikerberuf wird abgelöst durch die Einführung spezialisierter „Fach-Heilpraktiker“ als Zusatzqualifikation für bestehende Gesundheitsfachberufe.

Zum Hintergrund: Im deutschen Gesundheitswesen existieren nach Meinung der Expertengruppe zwei Parallelwelten – die Welt der akademischen Medizin und die Welt der Heilpraktiker. Während die akademische Medizin auf wissenschaftlichen Fakten beruhe und nach begründetem Fortschritt strebe, seien Heilpraktiker in der sogenannten „Komplementären und Alternativen Medizin (KAM)“ verankert. Auch der Ausbildungsgang ist verschieden: Während Mediziner ein langes Studium absolvieren, ist die Ausbildung zum Heilpraktiker kurz und weitgehend unreguliert. Da Heilpraktiker gleichwohl das Etikett „staatlich anerkannt“ bekämen, könnten Patienten leicht den Eindruck gewinnen, dass es sich bei Medizinern und Heilpraktikern um gleichwertige Alternativen handele.

Seit vielen Jahren gibt es immer wieder teilweise intensiv geführte Diskussionen um das Thema Komplementäre und Alternative Medizin. Zu den hunderten von Verfahren wurden zahlreiche klinische Studien durchgeführt, deren Qualität allerdings häufig sehr gering ist. Überzeugende Belege für eine Wirksamkeit fehlen meist. Zudem widersprechen die tradierten Krankheitskonzepte und Interventionen oft fundamentalen naturwissenschaftlichen Erkenntnissen.

Die Autoren sind überzeugt, dass ihre Lösungsvorschläge das Vertrauen in das deutsche Gesundheitswesen stärken und die Versorgung verbessern würden. Das Label „staatlich anerkannt“ wäre in Folge einer Reform wieder ein echtes Qualitätsmerkmal, an dem sich Patienten orientieren könnten. Der Münsteraner Kreis ruft Institutionen und Einzelpersonen auf, sich dem Statement anzuschließen. Dadurch sollten Politiker motiviert werden, das Heilpraktikerwesen nicht nur kosmetisch, sondern grundlegend zu reformieren.

„Im Lauf der Jahre ist bei meinen Mitarbeitern und mir das dringende Bedürfnis entstanden, der Problematik von Alternativmedizin auf den Grund zu gehen“, betont Bettina Schöne-Seifert. Aus diesem Grund hatte sie im Juni 2016 ausgewiesene KAM-Experten verschiedener Fachrichtungen nach Münster eingeladen, um über KAM und das Heilpraktikerwesen zu diskutieren. Einige Experten des daraufhin gegründeten „Münsteraner Kreises“ brachten dazu ihre eigenen Forschungsergebnisse zu den von Heilpraktikern angebotenen Verfahren sowie der Motivation der Patienten ein. „Wir wollten ausloten, wie ein solidarisches Gesundheitswesen verantwortlich und fair mit dem Clash zwischen gefährlicher Pseudowissenschaft und Selbstbestimmung umgehen sollte“, unterstreicht die Medizin-Ethikerin. „Um es deutlich zu sagen: Wir wollten den gegenwärtigen Irrsinn nicht länger hinnehmen.“

Um nicht nur medizinische, sondern auch ethische, wissenschaftstheoretische, psychologische und juristische Aspekte einzubeziehen, wurde der Münsteraner Kreis bewusst interdisziplinär aufgestellt. Die Arbeit der Gruppe wurde nicht von Dritten finanziell unterstützt, und die Mitglieder sind frei von Interessenkonflikten.

Die Autoren des „Münsteraner Memorandums Heilpraktiker“ im Einzelnen (*federführende Hauptautoren):

Prof. Dr. Manfred Anlauf, Mitglied der Arzneimittelkommission der Bundesärztekammer, Bremerhaven; Dr.-Ing. Norbert Aust, Informationsnetzwerk Homöopathie, Hamburg; Dr. Hans‐Werner Bertelsen, Praxis für Zahnmedizin, Bremen; Juliane Boscheinen, Medizinrecht (Rechtsanwältin), Saarbrücken; Prof. Dr. Dr. Edzard Ernst, University of Exeter; Dr. Daniel R. Friedrich*, Institut für Ethik, Geschichte und Theorie der Medizin, WWU Münster; Dr. Natalie Grams, Informationsnetzwerk Homöopathie, Roßdorf; Prof. Dr. Paul Hoyningen‐Huene, Zentrale Einrichtung für Wissenschaftstheorie und Wissenschaftsethik, Universität Hannover; Prof. Dr. Jutta Hübner, Stiftungsprofessorin für Integrative Onkologie der Deutschen Krebshilfe am Universitätsklinikum Jena; Prof. Dr. Dr. Peter Hucklenbroich, Institut für Ethik, Geschichte und Theorie der Medizin, WWU Münster; Prof. Dr. Dr. Heiner Raspe, ehem. Institut für Sozialmedizin, Universität Lübeck, jetzt Institut für Ethik, Geschichte und Theorie der Medizin, WWU Münster; Dr. Jan‐Ole Reichardt*, Institut für Ethik, Geschichte und Theorie der Medizin, WWU Münster; Prof. Dr. Norbert Schmacke, Versorgungsforschung, Institut für Public Health und Pflegeforschung, Universität Bremen; Prof. Dr. Bettina Schöne‐Seifert*, Lehrstuhl für Ethik der Medizin, WWU Münster; Prof. Dr. Oliver R. Scholz, Philosophisches Seminar der WWU Münster; Prof. Dr. Jochen Taupitz, Medizinrecht, Universität Mannheim; Dr. Christian Weymayr*, freier Wissenschafts‐ und Medizinjournalist, Herne.

Weitere Informationen:
http://daebl.de/BB3
Münsteraner Memorandum Heilpraktiker

Quelle: idw

(nach oben)


aCar – Der elektrische „Alleskönner“

Dr. Ulrich Marsch Corporate Communications Center
Technische Universität München

Ein Elektroauto für Afrika, das auf die Bedürfnisse der Bevölkerung zugeschnitten ist, die ländliche Struktur stärkt und die Wirtschaft ankurbelt: An diesem Ziel haben Wissenschaftlerinnen und Wissenschaftler der Technischen Universität München (TUM) gemeinsam mit Kooperationspartnern vier Jahre lang intensiv gearbeitet. Sie stellten ihren neuen Prototyp vom 12. bis 15. September 2017 auf der internationalen Automobil-Ausstellung (IAA) in Frankfurt der Öffentlichkeit vor. Das aCar ist für den Personen- und Gütertransport konzipiert und auch für den europäischen Automobilmarkt interessant.

Mobilität gehört zu unserem täglichen Leben. Wir transportieren große Lasten, pendeln zur Arbeit und fliegen im Urlaub in ein fernes Land. Für viele Menschen in Afrika ist der Zugang zu Fahrzeugen dagegen nicht selbstverständlich. Für Bauern, die weit von den urbanen Zentren entfernt leben, bedeutet das, dass sie keinen direkten Zugang zu medizinischer Versorgung, Bildung und zum politischen Geschehen haben. Um ihren Lebensunterhalt bestreiten zu können, sind sie auf Transportunternehmen angewiesen, die ihre Erzeugnisse zum Verkauf in die nächste Stadt fahren. Viele Menschen verlassen daher die ländliche Umgebung, weil sie in der Stadt auf bessere Lebensbedingungen hoffen.

„Wir haben mit dem aCar ein Mobilitätskonzept entwickelt, das diese Probleme lösen kann“, erklärt Prof. Markus Lienkamp, Leiter des Lehrstuhls für Fahrzeugtechnik an der TUM. „Es handelt sich um ein Fahrzeug, das sich die Menschen dort finanziell leisten können, es ist geländegängig und kann große Lasten transportieren. Der modulare Aufbau erlaubt außerdem noch weitere Nutzungen wie zum Beispiel Wasseraufbereitung.“ Gemeinsam mit Bayern Innovativ initiierte die TUM 2013 das Projekt „aCar mobility – Ländliche Mobilität in Entwicklungsländern“, um ein Fahrzeug zu konzipieren, das genau auf die Bedürfnisse der ländlichen Bevölkerung in den afrikanischen Ländern südlich der Sahara zugeschnitten ist. Die Förderung erfolgte seit 2015 über die Bayerische Forschungsstiftung.

Das Konzept: Ein Fahrzeug, viele Anforderungen

Für die Straßen in Afrika, die größtenteils nicht asphaltiert sind, ist Allradantrieb Pflicht. Das Team entschied sich außerdem für einen elektrischen Antriebsstrang. „Ein Elektroantrieb ist nicht nur umweltfreundlicher, sondern auch technisch die bessere Lösung, da er wartungsarm ist und sein volles Drehmoment direkt beim Anfahren entfalten kann“, erklärt Martin Šoltés, der gemeinsam mit Sascha Koberstaedt das Projekt am Lehrstuhl für Fahrzeugtechnik leitet.

Der Hauptzweck des Fahrzeuges ist der Transport von Personen und Gütern, wobei es eine Gesamtlast von einer Tonne transportieren kann. Die Batterie bietet zusätzliche Anwendungsmöglichkeiten wie zum Beispiel als Energiequelle oder zur Nutzung leistungsstarker Verbraucher, wie etwa einer Seilwinde. Hierfür wurden bereits unterschiedliche Aufbauten für die Ladefläche konzipiert, die modular verwendet werden können. Mithilfe weiterer Module kann sich das Auto unter anderem in eine mobile Arztpraxis oder eine Wasseraufbereitungsstation verwandeln.

Die Batteriekapazität von 20 kWh ermöglicht eine elektrische Reichweite von 80 Kilometern. Sie kann an einer normalen Haushaltssteckdose mit 220 Volt innerhalb von 7 Stunden vollständig geladen werden. Solarmodule, die auf dem Dach des Fahrzeugs angebracht sind, liefern ebenfalls Energie für die Batterie und erhöhen die Reichweite. Solarplanen, die optional erhältlich sind, können noch deutlich mehr Solarenergie zum Laden der Batterie erzeugen.

„Hightech-Komponenten wie die Batterie und die Elektromotoren werden wir am Anfang natürlich importieren müssen“, sagt Martin Šoltés. Jedoch sollen möglichst viele Komponenten des aCar vor Ort gefertigt werden, um die lokale Wirtschaft zu stärken. „Gussknoten und eine einfache geschraubte Bauweise ermöglichen eine einfache Produktion mit sehr niedrigen Investitionskosten“, erklärt Prof. Wolfram Volk, Leiter des Lehrstuhls für Umformtechnik und Gießereiwesen. Der Preis für das Basis-Fahrzeug in Afrika soll langfristig unter 10.000 Euro liegen.

Erster Prototyp: Erprobung der Technik und Nutzerstudien
Die Wissenschaftlerinnen und Wissenschaftler stellten den ersten Prototyp im Mai 2016 fertig und erprobten ihn zunächst in Deutschland. Um herauszufinden, ob das Auto auch vor Ort allen Ansprüchen genügt, verschifften sie das Fahrzeug nach Ghana, wo sie im Juli 2017 die Technik und das Konzept unter lokalen Bedingungen prüften.

Das aCar bestand die Tests mit Bravour. „Es war sechs Wochen im Container unterwegs, wir haben es ausgeladen, eingeschaltet und es hat bis zum letzten Erprobungstag einwandfrei funktioniert“, berichtet Sascha Koberstaedt. Das Team ließ auch die Menschen vor Ort mit dem Auto fahren, die vom „Solarauto“ begeistert waren. Ein weiterer wichtiger Punkt war, den Einfluss der höheren Temperaturen und der Luftfeuchtigkeit auf die Elektrik zu prüfen. „Wir haben sehr viele Daten gesammelt, die noch ausgewertet werden müssen“, sagt Koberstaedt. „Aber was man bereits sagen kann, ist, dass alle Anforderungen erfüllt und unsere Erwartungen sogar übertroffen wurden.“

Modernes Design, optimierte Technik
Im September wird der neue Prototyp des aCars auf der IAA gezeigt (Halle 4.1, Stand A11). Das Fahrzeug zeichnet sich durch ein schnörkelloses, klares und modernes Design aus. „Die Herausforderung bestand darin, trotz einfacher Produktionsmethoden und geringer Herstellungskosten, ein begehrenswertes, funktionales und hochwertiges Fahrzeug zu entwickeln“, erklärt Prof. Fritz Frenkler, Leiter des Lehrstuhls für Industrial Design der TUM. „Durch die Reduktion auf das Wesentliche entstand ein modernes und somit langlebiges Design.“

Das Fahrzeug wurde auch technisch erheblich weiterentwickelt. Das Team arbeitete dabei unter anderem an der Gewichtsoptimierung, Elektrik und Software, Akustik, und der Sitz- und Sichtergonomie.

Modellfabrik in Deutschland für die ersten Fahrzeuge

Damit die Idee vom aCar keine Idee bleibt, sondern das aCar wirklich in Serie geht, haben Sascha Koberstaedt und Martin Šoltés die Firma „Evum Motors GmbH“ gegründet. In einer Modellfabrik sollen die ersten Fahrzeuge in Europa gefertigt werden. „Bevor das Auto in Afrika produziert werden kann, müssen wir zunächst die technischen Abläufe in den Griff bekommen. Dann können wir Menschen aus Afrika hier schulen, die wiederum ihr Wissen vor Ort weitergeben“, sagt Koberstaedt.

Das aCar ist ein Elektronutzfahrzeug mit Allradantrieb. Mit diesen Spezifikationen ist es nicht nur für den Einsatzort Afrika bestens gerüstet. So könnte das emissionsfreie Fahrzeug etwa in städtischen Betrieben zu Transportzwecken, bei der Pflege von Grünanlagen oder auch für die Bewirtschaftung von Almen und Weingütern eingesetzt werden. Im Vergleich zur Konkurrenz ist das rein elektrische aCar wesentlich günstiger und verfügt außerdem über modernste Batterie- und Antriebsstrangtechnologie.

Technische Daten:
Leistung: 2 x 8 Kilowatt; elektrische Reichweite: 80 Kilometer; Zulassungsklasse L7e; Spannungslevel: 48 Volt; Batteriekapazität: 20 kWh; Höchstgeschwindigkeit: 60 km/h; Leergewicht 800 kg; Zuladung 1000 kg; Länge 3.7 m; Breite 1.5 m; Höhe 2.1 m; Sitzplätze 2

Zum Projekt:
An dem Projekt „aCar mobility – Ländliche Mobilität in Entwicklungsländern“, das von der Bayerischen Forschungsstiftung gefördert wird, sind von Seite der TUM die Lehrstühle für Fahrzeugtechnik, Umformtechnik und Gießereiwesen, Industrial Design sowie Strategie und Organisation beteiligt. Wissenschaftliche Kooperationspartner sind die Hochschule Rosenheim und die Universität Bayreuth. Außerdem beteiligten sich sieben Industriepartner an dem Projekt: African Health & Agricultural Foundation, Dräxlmaier Group, Teleclinic GmbH, Hirschvogel Automotive Group, McKinsey & Company Inc., Otto SPANNER GmbH und Schnupp GmbH & Co. Hydraulik KG. Das Konzept des Fahrzeuges wurde gemeinsam mit wissenschaftlichen Partnern in Nigeria, Ghana, Kenia und Tansania entwickelt, der Federal University of Technology, Owerri (FUTO) Nigeria, der Kwame Nkrumah University of Science and Technology (KNUST) Ghana, der Dedan Kimathi University of Technology (DeKUT) Kenia und der St. Augustine University of Tanzania (SAUT) Tansania.

Weitere Unterstützer:
http://www.acar.tum.de/index.php?id=93

Kontakt
Dipl.-Ing. Sascha Koberstaedt
Technische Universität München
Lehrstuhl für Fahrzeugtechnik
info@acar.tum.de
+49 (89) 289 – 15875

Weitere Informationen:
https://mediatum.ub.tum.de/1378014

Quelle: idw

(nach oben)


Wie sehr lenkt das Smartphone ab? Handy-Nutzung beeinflusst Produktivität am Arbeitsplatz

Daniela Stang Pressestelle
Universität Ulm

Bei der Arbeit nebenbei einen Facebook-Kommentar absetzen, abends auf der Couch noch schnell E-Mails checken und sich morgens vom Smartphone mit der aktuellen Wetterübersicht wecken lassen. Das Mobiltelefon ist inzwischen immer und überall dabei und hat unser Leben grundlegend verändert. Welche Auswirkungen die Smartphone-Nutzung auf die gesamte Produktivität während eines Arbeitstages hat, hat nun der Psychologe Professor Christian Montag von der Universität Ulm untersucht.

Prof. Christian Montag, der Leiter der Abteilung Molekulare Psychologie des Instituts für Psychologie und Pädagogik, hat zusammen mit Éilish Duke von der University of London herausgefunden, dass es einen Zusammenhang zwischen häufiger Ablenkung durch das Smartphone und einer verminderten Produktivität und Effizienz bei der Arbeit besteht. Für die Untersuchung, die in der Fachzeitschrift „Addictive Behaviors Reports“ erschienen ist, haben die Autoren die Smartphone-Nutzung von 262 Studienteilnehmern, darunter 168 Frauen und 94 Männer, mittels eines Fragebogens erhoben, den die Teilnehmer selbst ausfüllen mussten. Die Auswahl-Kriterien für die Befragten waren: erwerbstätig und Besitzer eines Smartphones.

Für ihre Studie kombinierten Montag und Duke Fragen zweier unterschiedlicher Fragebögen zur Smartphone-Abhängigkeit und zur Beeinträchtigung der Arbeitsproduktivität und -aktivität („Smartphone Addiction Scale“ und „Work Productivity and Activity Impairment Questionaire“). Anhand der neuen Fragenkombination konnten die Wissenschaftler feststellten, dass bei „abhängigkeitsgefährdeten“ Studienteilnehmern auch negative Auswirkungen auf die gesamte Tagesleistung nachzuweisen waren. „Wie erwartet haben wir festgestellt, dass Personen, die eine höhere Affinität zur Smartphone-Übernutzung berichten, weniger produktiv sind“, beschreibt Montag den Zusammenhang der verschiedenen Variablen. Um diesen Zusammenhang zu verstehen, waren die täglichen Unterbrechungen beziehungsweise die verlorenen Arbeitsstunden durch das Gerät entscheidend. Die längste Periode ohne Arbeitsunterbrechung durch das Handy lag laut der aktuellen Studie im Durchschnitt bei fast zweieinhalb Stunden.

Dass das Smartphone auch in der Freizeit intensiv genutzt wird, konnte die Studie ebenfalls nachweisen. Rund 13 Stunden in der Woche, so die Angaben der Befragten, würden sie das Smartphone für Freizeitaktivitäten, wie zum Beispiel für Spiele, nutzen. Die Wissenschaftler gehen aber, wie von Professor Christian Montag bereits in einer früheren Studie festgestellt worden ist, von einer weitaus höheren Nutzungsdauer aus. Rund 160 Minuten Handy-Nutzung am Tag summieren sich nach dieser Untersuchung auf rund 19 Stunden wöchentlich. Der Grund: viele User würden aufgrund der Routine und des Automatismus die Zeit, die sie tatsächlich am Smartphone verbringen, einfach unterschätzen.

Warum aber nun wenden sich Menschen auch während der Arbeit so oft ihrem Smartphone zu und nehmen mangelnde Konzentration und damit eine niedrige Produktivität in Kauf? Die jetzt veröffentlichte Untersuchung von Montag und Duke legt den Schluss nahe, dass Nutzer nicht nur zum Smartphone greifen, wenn sie sich unwohl fühlen oder sich nicht in der Lage sehen, effizient zu arbeiten. Sondern sie versuchen so auch möglicherweise Stress und Überforderung zu kompensieren. „In diese Richtung sind weitere Untersuchungen nötig. Erst dann können wir sagen, warum der Mensch in manchen beruflichen Situationen überhaupt zum Smartphone greift – sei es, ob er via WhatsApp Unterstützung von Freunden sucht oder mit Videos und Spielen komplett der Realität entfliehen möchte“, schlussfolgert Christian Montag.

Weitere Informationen:
Prof. Dr. Christian Montag, E-Mail: christian.montag@uni-ulm.de

Duke É, Montag C: Smartphone addiction, daily interruptions and self-reported productivity; Addictive Behaviors Reports, 19 July 2017, https://doi.org/10.1016/j.abrep.2017.07.002

Quelle: idw

(nach oben)


Ein neuer Indikator für marine Ökosystem-Veränderungen – der Dia/Dino-Index

Dr. Barbara Hentzsch Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Ostseeforschung Warnemünde

Warnemünder Meeresbiologe entwickelt mit Hilfe von Langzeitdaten zur Zusammensetzung der Frühjahrsblüte einen Indikator für den Zustand von Nahrungsnetzen in der Ostsee.

Die europäische Union hat sich zum Ziel gesetzt, bis zum Jahr 2020 die europäischen Meere in einen guten ökologischen Zustand zu versetzen. Ein hehres Ziel. Aber was ist eigentlich ein guter ökologischer Zustand? Wie bei uns Menschen lässt sich der „Gesundheitszustand“ eines Ökosystems nicht nur über einen einzigen Faktor definieren. Es müssen alle Grundfunktionen betrachtet werden. Deshalb wurden für die Ostsee insgesamt 11 so genannte „Deskriptoren“ definiert. „Eutrophierung“ ist zum Beispiel ein solcher Deskriptor, mit dem sich der Zustand des Ökosystems beschreiben lässt. Ein anderer Deskriptor ist das „Nahrungsnetz“. Um die Qualität des Nahrungsnetzes in der Ostsee und wie man sie bestimmen kann, geht es in zwei Artikeln, die der Meeresbiologe Norbert Wasmund, Phytoplanktologe am Leibniz-Institut für Ostseeforschung Warnemünde, kürzlich in dem internationalen Fachjournal Frontiers of Marine Science veröffentlicht hat. Er beschreibt einen neuen Indikator, der auf relativ einfachen Messungen beruht und gleichzeitig auch als Indikator für die Eutrophierung genutzt werden kann: den Diatomeen/Dinoflagellaten-Index – kurz Dia/Dino-Index.

Wenn im Frühjahr die Tage länger werden, beginnt die Zeit der Frühjahrsblüte im Meer: Mikroalgen nutzen die Lichtenergie, um aus Grundelementen wie Kohlenstoff, Stickstoff und Phosphor organische Substanz aufzubauen und sich massenhaft zu vermehren. In der Ostsee sind dies vor allem die Gruppen der Diatomeen (Kieselalgen) und Dinoflagellaten (Panzergeißler). Sie sind ganz wesentlich für das Fundament einer Nahrungspyramide verantwortlich, auf der fast alles weitere Leben im Meer aufbaut und an deren Spitze letztlich Meeressäugetiere wie Kegelrobben, bzw. der Mensch und die Fischereiwirtschaft stehen.

Mit dem Dia/Dino-Index wird beschrieben, welche der beiden Gruppen in der jährlichen Frühjahrsblüte dominant war. Das wiederum ist entscheidend für die Organismen, die sich von ihnen ernähren. Bei den Diatomeen, die über relative schwere Quarz-Schalen verfügen und deshalb nach dem Absterben sehr rasch auf den Meeresboden absinken, sind die Nutznießer – neben dem Zooplankton im Oberflächenwasser- auch noch die am Boden lebenden Vertreter des Zoobenthos. Die leichteren Dinoflagellaten sinken nach dem Absterben nicht so schnell ab. Dadurch stehen sie dem Zooplankton zwar länger zur Verfügung, aber beim Zoobenthos kommt so gut wie nichts an. Norbert Wasmund erläutert: „Dominieren die Kieselalgen vor den Panzergeißlern, so ist das für viele Bereiche des Nahrungsnetzes besser. Wir haben also durch dieses einfache Verhältnis ein gutes Maß für seinen Zustand.“

Als Vergleichsstandard für einen guten ökologischen Zustand der Ostsee wurden die Umweltbedingungen in der ersten Hälfte des 20. Jahrhunderts herangezogen. Einerseits existieren für diesen Zeitraum bereits Beobachtungsdaten, andererseits war die Umweltbelastung in der Ostsee damals noch sehr gering. Da es bereits zu Beginn des 20. Jahrhunderts systematische Untersuchungen zum Phytoplankton in der Ostsee gab, kann auch für den historischen Zustand ein Dia/Dino-Index berechnet werden. Es zeigte sich, dass damals immer die Diatomeen in der Frühjahrsblüte dominierten. Zu einer deutlichen Veränderung kam es in den 1980er Jahren, als die Dinoflagellaten die dominante Gruppe in der Frühjahrsblüte wurden – eine schlechte Phase für das Nahrungsnetz begann. Seit der Jahrtausendwende sind die Werte des Dia/Dino-Index wieder besser. Ob das ein Dauerzustand ist, lässt sich dank des neuen Index relativ leicht verfolgen, da die benötigten Daten im Rahmen des HELCOM Monitoring systematisch erhoben werden und daher für die Berechnung des Index kontinuierlich zur Verfügung stehen.

Der Zustand der Nahrungsnetze ist nur EIN Aspekt bei der Betrachtung des ökologischen Zustandes. Zurzeit erarbeitet die Helsinki-Kommission (HELCOM) eine holistische Bewertung, die alle Deskriptoren einbezieht. Eine erste Fassung, die die Jahre 2011 – 2015 umfasst, ist unter https://stateofthebalticsea.helcom.fi erhältlich.

Die Original-Veröffentlichungen zum Dia/Dino-Index sind unter den folgenden links verfügbar:
Wasmund, N., Kownacka, J., Göbel, J., Jaanus, A., Johansen, M., Jurgensone, I., et al. (2017). The Diatom/Dinoflagellate index as an indicator of ecosystem changes in the Baltic Sea. 1. Principle and handling instruction. Front. Marine Sci. 4:22. https://doi.org/10.3389/fmars.2017.00022

Wasmund, N. (2017). The Diatom/Dinoflagellate Index as an Indicator of Ecosystem Changes in the Baltic Sea. 2. Historical Data for Use in Determination of Good Environmental Status. Front. Mar. Sci. 4:153. https://doi.org/10.3389/fmars.2017.00153

Kontakt:
Dr. Norbert Wasmund, IOW, Tel.: 0381 5197 212, E-mail: norbert.wasmund@io-warnemuende.de

Dr. Barbara Hentzsch (Presse- und Öffentlichkeitsarbeit), IOW, Tel.: 0381 5197 102, E-mail: barbara.hentzsch@io-warnemuende.de

Das IOW ist Mitglied der Leibniz-Gemeinschaft, zu der zurzeit 91 Forschungsinstitute und wissenschaftliche Infrastruktureinrichtungen für die Forschung gehören. Die Ausrichtung der Leibniz-Institute reicht von den Natur-, Ingenieur- und Umweltwissenschaften über die Wirtschafts-, Sozial- und Raumwissenschaften bis hin zu den Geisteswissenschaften. Bund und Länder fördern die Institute gemeinsam. Insgesamt beschäftigen die Leibniz-Institute etwa 18.100 MitarbeiterInnen, davon sind ca. 9.200 WissenschaftlerInnen. Der Gesamtetat der Institute liegt bei mehr als 1,6 Mrd. Euro. www.leibniz-gemeinschaft.de.

Weitere Informationen:
https://doi.org/10.3389/fmars.2017.00153
https://doi.org/10.3389/fmars.2017.00022

Quelle: idw

(nach oben)


Impfempfehlungen der STIKO für 2017/2018 veröffentlicht

Susanne Glasmacher Presse- und Öffentlichkeitsarbeit
Robert Koch-Institut

Die Ständige Impfkommission am Robert Koch-Institut hat ihre neuen Impfempfehlungen veröffentlicht, wie üblich im Epidemiologischen Bulletin 34. Änderungen gibt es bei den Impfungen gegen Hepatitis A und B, Influenza sowie Tetanus. Im Rahmen der redaktionellen Überarbeitung wurde unter anderem ein Abschnitt zur Impfung von Patienten mit geschwächtem Immunsystem ergänzt und ein Schlagwortverzeichnis erstellt. Zudem erklärt die STIKO, warum sie die Impfung gegen Herpes zoster (mit einem Lebendimpfstoff) derzeit nicht als Standardimpfung empfiehlt.

Die Impfung gegen Hepatitis A und B empfiehlt die STIKO nun auch ehrenamtlich Tätigen, für die ein Expositionsrisiko besteht, das mit dem von beruflich tätigen Personen vergleichbar ist. Auch Auszubildende, Studierende und Praktikanten werden nun ausdrücklich genannt. Die STIKO stellt damit klar, dass die Indikation zur Impfung anhand des mit der jeweiligen Tätigkeit tatsächlich verbundenen Expositionsrisikos zu beurteilen ist und nicht beschränkt ist auf bestimmte Berufsgruppen.

Bei der Influenzaimpfung hatte die STIKO bereits zur Saison 2016/17 ihre Empfehlung vorläufig ausgesetzt, Kinder im Alter von zwei bis sechs Jahren bevorzugt mit dem über die Nase zu verabreichenden Lebendimpfstoff zu impfen. Die Empfehlung wurde nun endgültig zurückgezogen. Hintergrund ist, dass in den letzten Jahren im Vergleich zu den inaktivierten Impfstoffen keine überlegene Wirksamkeit mehr nachweisbar war.

Eine Auffrischimpfung gegen Tetanus bei geringfügigen, sauberen Wunden empfiehlt die STIKO nur noch dann, wenn seit der letzten Impfung mehr als zehn Jahre vergangen sind. Damit wurde die 2016 erfolgte Absenkung der Frist von zehn auf fünf Jahre rückgängig gemacht. Dies steht auch im Einklang mit der Empfehlung einer routinemäßigen Auffrischung des Tetanus-Impfschutzes alle zehn Jahre.

Neu eingefügt hat die STIKO einen Abschnitt zu Impfungen von Patienten mit Immundefizienz bzw. Immunsuppression. Derzeit werden unter der Federführung der STIKO detaillierte Anwendungshinweise für Impfungen bei Patienten mit Immundefizienz bzw. Immunsuppression erarbeitet, die in vier gesonderten Publikationen im Bundesgesundheitsblatt bis Anfang 2018 erscheinen sollen.

Seit 2013 ist in Deutschland ein attenuierter Lebendimpfstoff zur Verhinderung eines Herpes zoster (HZ) bzw. der durch HZ verursachten Nervenschmerzen (postherpetische Neuralgie) bei Personen ab 50 Jahren verfügbar. Die STIKO sieht zum gegenwärtigen Zeitpunkt davon ab, die Impfung mit diesem Impfstoff als Standardimpfung zu empfehlen. Die Entscheidung basiert auf der systematischen Bewertung der Daten zu Wirksamkeit, Schutzdauer und Sicherheit des Impfstoffs. So nimmt die Wahrscheinlichkeit an HZ zu erkranken und die Schwere der Erkrankung mit dem Alter deutlich zu, hingegen nimmt die Wirksamkeit der Impfung mit dem Alter ab. Zudem ist die Schutzdauer der Impfung nur für wenige Jahre belegt. Eine mathematische Modellierung der zu erwartenden epidemiologischen Effekte bekräftigt die Entscheidung.

Eine ausführliche Darstellung aller Neuerungen und deren wissenschaftlichen Begründungen sowie die Erläuterung zur Herpes-Zoster-Entscheidung werden in den Ausgaben 35 und 36 des Epidemiologischen Bulletins veröffentlicht. Auch die Impf-App STIKO@rki enthält die aktualisierten Impfempfehlungen. Darüber hinaus gibt es die Impfempfehlungen auch im Pocket-Format. Dies ist über den Buchhandel erhältlich.

Weitere Informationen:
http://www.stiko.de & http://www.rki.de/epidbull

Herausgeber
Robert Koch-Institut
Nordufer 20
D-13353 Berlin
http://www.rki.de
Twitter: @rki_de

Pressestelle
Susanne Glasmacher (Pressesprecherin)
Günther Dettweiler
Marieke Degen (stellv. Pressesprecher)
Heidi Golisch
Claudia Paape
Judith Petschelt

Kontakt
Tel.: 030-18754-2239, -2562 und -2286
E-Mail: presse@rki.de

Das Robert Koch-Institut ist ein Bundesinstitut im Geschäftsbereich des Bundesministeriums für Gesundheit

Quelle: idw

(nach oben)


Globale Klimaextreme nach Vulkanausbrüchen

Caroline Link Referat für Presse- und Öffentlichkeitsarbeit
Justus-Liebig-Universität Gießen

Baumringe helfen bei der Datierung von Klimaanomalien
istorische Quellen und natürliche Umweltarchive lassen vermuten, dass im vergangenen Jahrtausend mehrere Vulkanausbrüche großflächige Wetterextreme hervorriefen, denen vielerorts Missernten und verheerende Hungersnöte folgten. Hochreichende Aschewolken breiteten sich über weite Teile der Atmosphäre aus, absorbierten Sonnenlicht und sorgten so in weiten Teilen der nördlichen Hemisphäre für außergewöhnliche Klimaanomalien mit kalten und verregneten Sommern. Eines der am besten dokumentierten Beispiele ist der Tambora-Ausbruch in Indonesien im Jahr 1815. Ihm folgte in Europa das „Jahr ohne Sommer“, in dem Ernteausfälle Wirtschaftskrisen und Notstände auslösten. Ein solches Ereignis könnte auch die moderne Gesellschaft vor große Herausforderungen stellen.

Um ein besseres Verständnis über die Bandbreite und Häufigkeit von klimawirksamem Vulkanismus zu generieren, hilft der Blick in die Vergangenheit. Bislang geben nur historische Aufzeichnungen und Ascheablagerungen in Eisbohrkernen Aufschluss über die vulkanische Geschichte. Beide Archive haben jedoch Schwächen: Dokumentierte Beobachtungen von Vulkanausbrüchen lassen sich oft schwer hinsichtlich der Größe und Klimarelevanz quantifizieren. Eisbohrkerne hingegen sind oft schwer zu datieren, was die Zuordnung nachfolgender Klimaschwankungen erschwert.

Einer internationalen Forschergruppe um Dr. Lea Schneider (Institut für Geographie an der JLU) ist es gelungen, in Baumringen die „Signaturen“ von Vulkanausbrüchen zu identifizieren und die Geschichte des Vulkanismus unabhängig von historischen Archiven nachzuzeichnen. Das Team hat die Dichte der Jahrringe gemessen und daraus die Temperaturen in der Nordhemisphäre rekonstruiert.

Bemerkenswert an der in der Fachzeitschrift „Environmental Research Letters“ erschienenen Studie ist, dass sie eine Methode aus der Ökonometrie auf erdwissenschaftliche Daten anwendet und damit zu ganz neuen Erkenntnissen kommt. Es konnten 14 Ausbrüche identifiziert werden, in deren Folge die Jahrestemperatur deutlich kühler war, als es durch die normale Variabilität des Klimas zu erklären wäre. Die festgestellte Vulkanaktivität hilft auch, Daten aus anderen Quellen zu validieren. Auffällige Unstimmigkeiten gegenüber Daten aus polaren Ascheablagerungen zeigten sich vor allem in den 1450er und 1690er Jahren.

Obwohl diese Eruptionen wohl zu den größten im vergangenen Jahrtausend zählen, ist ihr Ursprung bisher ungeklärt. Eine präzisere Datierung und räumliche Einordnung aufgrund der Informationen aus den Jahrringen ist hier von großer Bedeutung, um Ursache und Wirkung besser in Einklang zu bringen.

Anhand der neu entwickelten Methode lässt sich auch besser abschätzen, ob Klimamodelle in der Lage sind, vulkanische Abkühlung realistisch wiederzugeben. Im Vergleich zum rekonstruierten Temperaturrückgang scheinen einige Klimamodelle derzeit den Effekt von Vulkanen zu überschätzen. Eine genauere Kenntnis der atmosphärischen Prozesse im Zusammenhang mit Vulkanismus könnte jedoch in einer Anpassung der Klimamodelle resultieren. Somit ließe sich auch die Qualität von zukünftigen Szenarien und Vorhersagen steigern, denn statistisch gesehen könnte der nächste klimarelevante Vulkanausbruch schon in naher Zukunft liegen.

Zwar rechnen die Wissenschaftlerinnen und Wissenschaftler nicht unbedingt mit lokalen Kälterekorden, gravierende Folgen könnte der Temperaturrückgang eher aufgrund seiner außergewöhnlichen räumlichen Ausdehnung haben: „Wenn die gesamte Nordhalbkugel betroffen wäre, ließen sich zum Beispiel Ernteausfälle, die im Normalfall regional begrenzt bleiben, nur sehr schwer ausgleichen“, betont Dr. Schneider.

Publikation:
Schneider L, Smerdon JE, Pretis F, Hartl-Meier C, Esper J: A new archive of large volcanic events over the past millennium derived from reconstructed summer temperatures. Environmental Research Letters 9, DOI: 10.1088/1748-9326/aa7a1b.

Kontakt:
Dr. rer. nat. Lea Schneider, Bereich Klimatologie, Klimadynamik und Klimawandel
Institut für Geographie
Senckenbergstraße 1, 35390 Gießen
Telefon: 0641 99-36223

Weitere Informationen:
http://iopscience.iop.org/article/10.1088/1748-9326/aa7a1b

Quelle: idw

(nach oben)


BfR-Forschung: Nachweis des Übergangs von Aluminium aus Menüschalen in Lebensmittel

Dr. Suzan Fiack Presse- und Öffentlichkeitsarbeit
Bundesinstitut für Risikobewertung (BfR)

Speisen aus unbeschichteten Aluminium-Menüschalen enthalten hohe Aluminiumgehalte
Speisen aus unbeschichteten Aluminiummenüschalen können hohe Gehalte an Aluminium enthalten. Dies ist das Ergebnis eines BfR-Forschungsprojekts, in dem einige Lebensmittel orientierend untersucht wurden, die nach den Regeln des Cook&Chill-Verfahrens zubereitet und anschließend warmgehalten wurden. Die Messergebnisse zeigen trotz der begrenzten Zahl der untersuchten Proben, dass insbesondere beim Warmhalten im Anschluss an das Cook&Chill-Verfahren Aluminiumionen auf saure Lebensmittel übergehen. Das Cook&Chill-Verfahren ist ein gängiges Verfahren für die Essensversorgung in Gemeinschaftsverpflegungen wie Kindertagesstätten, Schulen, Kantinen oder Außer-Haus-Verpflegung. „Angesichts der ohnehin vorhandenen Belastung mit Aluminium in der Bevölkerung sollte eine Minimierung jedes vermeidbaren, zusätzlichen Eintrags angestrebt werden. Dies gilt vor allem für empfindliche Verbrauchergruppen wie Kleinkinder oder Senioren, die unter Umständen täglich Speisen verzehren, die in Aluminiumschalen warmgehalten werden“, sagt BfR-Präsident Professor Dr. Dr. Andreas Hensel. Grundsätzlich sind Aluminiumverbindungen ein natürlicher Bestandteil des Trinkwassers und vieler unbehandelter Lebensmittel, wie beispielsweise Früchte und Gemüse. Zudem können Verbraucherinnen und Verbraucher Aluminium bei unsachgemäßem Gebrauch von aluminiumhaltigen Kochgeschirr oder Aluminiumfolie sowie auch aus kosmetischen Mitteln aufnehmen.

In dem BfR-Forschungsprojekt „Ausmaß der Freisetzung von Metallen aus Lebensmittelkontaktmaterialien“ wurde der Übergang von Aluminiumverbindungen aus vier unbeschichteten Aluminiummenüschalen in die Prüflebensmittel Sauerkrautsaft, Apfelmus und passierte Tomaten untersucht. Diese wurden unter den Bedingungen des Cook&Chill-Verfahrens zubereitet und anschließend für zwei Stunden warm gehalten. Das Cook&Chill-Verfahren ist ein Verfahren, das im Bereich der Gemeinschaftsverpflegung eingesetzt wird. Das Verfahren besteht aus den Prozessschritten Heißabfüllung, Schnellabkühlen, Kühllagern und Regenerieren (Wiedererhitzen). Bis zum Verzehr der Speisen werden die Aluschalen üblicherweise warm gehalten.

Bei allen Proben wurde nach der Warmhaltephase der Freisetzungsgrenzwert des Europarates für Aluminium von 5 Milligramm (mg) Aluminium je Kilogramm Lebensmittel erheblich überschritten. Das Expertenkomitee des Europarates für Lebensmittelkontaktmaterialien hat den Freisetzungsgrenzwert für Aluminium nach dem ALARA-Prinzip abgeleitet. Das ALARA-Prinzip bedeutet, dass von einem Stoff so wenig wie vernünftigerweise durch technische oder andere Maßnahmen erreichbar in einem Lebensmittel enthalten sein soll. Trotz der begrenzten Zahl der untersuchten Proben geht das BfR davon aus, dass die Freisetzung von Aluminiumionen aus den unbeschichteten Menüschalen materialspezifisch ist und die Ergebnisse deshalb verallgemeinert werden können. Das BfR plant weitere Untersuchungen mit salzhaltigen Prüflebensmitteln.

Insbesondere pflanzliche Nahrung und Trinkwasser sind wesentliche orale Aufnahmequellen von Aluminium für den Menschen. Einige Lebensmittel können geogen bedingt hohe Aluminiumgehalte aufweisen. Nach einer Abschätzung der EFSA aus dem Jahr 2008 wird die von der Europäischen Behörde für Lebensmittelsicherheit (EFSA) abgeleitete wöchentlich duldbare orale Aufnahmemenge (tolerable weekly intake, TWI) von 1 Milligramm (mg) Aluminium je Kilogramm Körpergewicht bei einem wesentlichen Teil der Bevölkerung wahrscheinlich bereits überschritten. Die Aluminiumaufnahme aus Lebensmittelbedarfsgegenständen trägt nur zu einem geringen Anteil zur Aluminiumbelastung der Bevölkerung bei – eine Ausnahme stellen aber saure und salzhaltige Lebensmittel dar, die in Kontakt mit Aluminium kommen. Die EFSA weist auch darauf hin, dass die Verwendung von unbeschichteten Aluminiummenüschalen zu erhöhten Aluminiumkonzentrationen in Fertiggerichten führen kann.

Laut den BfR-Messergebnissen würde ein Erwachsener bei täglichem Verzehr von 200 g sauren Lebensmitteln aus unbeschichteten Aluminiumschalen in einer Woche etwa 0,5 mg Aluminium je Kilogramm Körpergewicht zusätzlich aufnehmen. Aus Sicht des BfR wäre dadurch die Wahrscheinlichkeit, den TWI zu überschreiten, deutlich erhöht. Eine Überschreitung des TWI bedeutet zwar nicht notwendigerweise, dass eine gesundheitliche Beeinträchtigung eintritt. Allerdings verringert sich der Sicherheitsabstand, der bei der Ableitung des TWI-Wertes aus gesundheitsrelevanten Effekten in Tierversuchen angewandt wurde. Das BfR empfiehlt daher, jede zusätzliche Aluminiumaufnahme zu minimieren. Dies gilt vor allem für empfindliche Verbrauchergruppen wie Kinder oder Senioren, die unter Umständen täglich im Rahmen der Gemeinschafts- oder Außer-Haus-Verpflegung warmgehaltene Speisen aus unbeschichteten Aluminiummenüschalen verzehren.

Ein Großteil des aufgenommenen Aluminiums wird bei gesunden Menschen über die Niere ausgeschieden. Nicht ausgeschiedenes Aluminium kann sich im Laufe des Lebens vor allem in der Lunge und dem Skelettsystem anreichern. Bei der Betrachtung des Gefährdungspotenzials stehen Wirkungen auf das Nervensystem und Wirkungen auf die Fruchtbarkeit und das ungeborene Leben sowie Effekte auf die Knochenentwicklung im Vordergrund.

Über das BfR
Das Bundesinstitut für Risikobewertung (BfR) ist eine wissenschaftlich unabhängige Einrichtung im Geschäftsbereich des Bundesministeriums für Ernährung und Landwirtschaft (BMEL). Es berät die Bundesregierung und die Bundesländer zu Fragen der Lebensmittel-, Chemikalien- und Produktsicherheit. Das BfR betreibt eigene Forschung zu Themen, die in engem Zusammenhang mit seinen Bewertungsaufgaben stehen.

In diesem Jahr feiert das BfR sein 15-jähriges Bestehen. Aus diesem Anlass hat das BfR eine Jubiläumsbroschüre herausgegeben, die unter http://www.bfr.bund.de/de/publikation/broschueren-660.html kostenlos heruntergeladen oder bestellt werden kann.

Weitere Informationen:
http://www.bfr.bund.de/cm/343/unbeschichtete-aluminium-menueschalen-erste-forsch…
Stellungnahme des BfR

Quelle: idw

(nach oben)


Neuer Tagungsband mit Forschungsbeiträgen für die Energiewende erschienen

Petra Szczepanski Öffentlichkeitsarbeit
ForschungsVerbund Erneuerbare Energien (FVEE)

Der ForschungsVerbund Erneuerbare Energien (FVEE) veröffentlicht heute seinen neuesten Tagungsband mit dem Titel „Forschung für die Energiewende – Die Gestaltung des Energiesystems“. Die hier gesammelten Vorträge der letzten Jahrestagung stellen aktuelle Forschungsergebnisse und Instrumente für eine gelingende Energiewende vor.

Die Bandbreite der Beiträge reicht von Szenarien für die Transformation des Energiesystems über die Bedeutung von Sektorkopplung, Netzen und Speichern bis hin zu den spezifischen Rollen der verschiedenen erneuerbaren Technologien wie Photovoltaik, Windenergie und Bioenergie in einem nachhaltigen Energiesystem.

Der Tagungsband „Forschung für die Energiewende – Die Gestaltung des Energiesystems“ steht für alle Interessierten im Internet zur Verfügung und kann dort auch als gedrucktes Heft kostenfrei bestellt werden.

Download und Online-Bestellung: http://www.fvee.de/publikationen/themenhefte

Über den FVEE
Der ForschungsVerbund Erneuerbare Energien ist eine bundesweite Kooperation von Forschungseinrichtungen. Die Mitglieder erforschen und entwickeln Technologien für erneuerbare Energien, Energieeffizienz, Energiespeicherung und das optimierte technische und sozio-ökonomische Zusammenwirken aller Systemkomponenten. Gemeinsames Ziel ist die Transformation der Energieversorgung zu einem nachhaltigen Energiesystem.

Bitte um Beleg
Bei Verwendung der Presseinformation würden wir uns über einen Hinweis an die FVEE-Geschäftsstelle freuen (fvee@helmholtz-berlin.de).

KONTAKT
Leiterin Öffentlichkeitsarbeit: Petra Szczepanski
Heftversand: Franziska Wunschick
Anna-Louisa-Karsch-Str. 2, 10178 Berlin
Telefon 030 288 7565 70, www.fvee.de, fvee@helmholtz-berlin.de

Die Mitgliedseinrichtungen des FVEE
• DBFZ Deutsches Biomasseforschungszentrum
• DLR Deutsches Zentrum für Luft- und Raumfahrt
• Fraunhofer ISE Fraunhofer-Institut für Solare Energiesysteme
• Fraunhofer IWES Fraunhofer-Institut für Windenergie und Energiesystemtechnik
• GFZ Helmholtz-Zentrum Potsdam Deutsches GeoForschungsZentrum
• HZB Helmholtz-Zentrum Berlin für Materialien und Energie
• ISFH Institut für Solarenergieforschung Hameln Emmerthal
• IZES Institut für ZukunftsEnergieSysteme
• Forschungszentrum Jülich
• KIT Karlsruher Institut für Technologie
• UFZ Helmholtz-Zentrum für Umweltforschung
• Wuppertal Institut Wuppertal Institut für Klima, Energie, Umwelt
• ZAE Bayern Bayerisches Zentrum für Angewandte Energieforschung
• ZSW Zentrum für Sonnenenergie- und Wasserstoff-Forschung

Weitere Informationen:
http://www.fvee.de/publikationen/themenhefte
Download des Tagungsbandes und Link zur kostenfreien Onlinebestellung

Quelle: idw

(nach oben)


Absenkung des Rentenniveaus: Neue WSI-Berechnungen illustrieren Konsequenzen

Rainer Jung Abt. Öffentlichkeitsarbeit
Hans-Böckler-Stiftung

Abkehr von der Lebensstandardsicherung

Absenkung des Rentenniveaus: Neue WSI-Berechnungen illustrieren Konsequenzen
Wenn das Rentenniveau wie bislang vorgesehen gesenkt wird, wird es auch für qualifizierte Beschäftigte mit mittlerem Einkommen schwieriger, sich eine gesetzliche Rente deutlich oberhalb der Grundsicherungs- oder der Armutsgefährdungsschwelle zu erarbeiten. Das gilt insbesondere, wenn man statt des traditionellen Konzepts des „Eckrentners“ mit 45 Beitragsjahren mit Durchschnittsverdienst kürzere Versicherungsverläufe zugrunde legt, die heute und wahrscheinlich auch in Zukunft realistischer sind – insbesondere bei Frauen. Dass die Veränderungen erheblich sein werden, illustrieren neue Modellrechnungen des Wirtschafts- und Sozialwissenschaftlichen Instituts (WSI) der Hans-Böckler-Stiftung. Drei von mehreren in einer Kurzstudie dargestellten Beispielen*:

– Beim aktuellen Rentenniveau (rund 48 Prozent, gemessen am Durchschnittsentgelt) erhält eine Person, die als Alten- oder Krankenpfleger/in nach dem Tarifvertrag des Öffentlichen Dienstes bezahlt wird, nach gut 25 Beitragsjahren eine Rente, die höher ist als die Grundsicherung im Alter. Würde heute dagegen bereits das für das Jahr 2045 prognostizierte Rentenniveau von knapp unter 42 Prozent gelten, hätte die Pflegerin / der Pfleger erst nach rund 29 Beitragsjahren einen Rentenanspruch oberhalb der Grundsicherung, die 2015 bei durchschnittlich 747 Euro im Monat lag.

– Ein Rentner mit 45 Beitragsjahren in Vollzeit muss beim aktuellen Rentenniveau im Durchschnitt 11,42 Euro pro Stunde brutto verdienen, um die Grundsicherungsschwelle zu überschreiten. Gälte schon das für 2045 prognostizierte Rentenniveau, wären dafür mindestens 13,06 Euro nötig. Bei 35 Beitragsjahren in Vollzeit stiege der notwendige Stundenlohn von aktuell 14,68 Euro auf 16,79 Euro.

– Soll die gesetzliche Rente über der Armutsgefährdungsschwelle liegen, die nach den neuesten vorliegenden Daten von 2015 bei 942 Euro Monatseinkommen für einen Alleinstehenden liegt, fallen die notwendigen Stundenlöhne noch deutlich höher aus: Nach heutigem Stand und bei 45 Beitragsjahren in Vollzeit müssen im Durchschnitt 14,40 Euro verdient werden. Beim Rentenniveau des Jahres 2045 wären es 16,47 Euro. Rechnet man mit 40 Beitragsjahren in Vollzeit, betragen die nötigen Stundenlöhne sogar 16,20 bzw. 18,53 Euro.

„Eine Stabilisierung oder Anhebung des Rentenniveaus ist dringend geboten, um für alle Einkommensgruppen die Lohnersatzfunktion der Renten und damit die Legitimität der Rentenversicherung sicherzustellen“, schreibt WSI-Alterssicherungsexperte Dr. Florian Blank im Resümee seiner Studie. Beides sei akut gefährdet, wenn langjähriger Beitragszahlung keine gesetzliche Rente deutlich über Grundsicherungsniveau oder Armutsgrenze gegenübersteht. Damit würde die nach wie vor tragende Säule des deutschen Alterssicherungssystems weiter beschädigt.

Blanks Untersuchung zeigt auch, dass qualifizierte Beschäftigung zu Tariflöhnen beim aktuellen Rentenniveau einen verlässlichen Schutz vor Altersarmut bieten kann – eine lange Erwerbsbiografie vorausgesetzt. Das gilt vor allem in Bereichen wie der Industrie oder dem Öffentlichen Dienst. Viele Mindestlöhne wie auch der gesetzliche Mindestlohn sind hingegen zu niedrig, um damit auf eine gesetzliche Rente über dem Grundsicherungsniveau zu kommen – selbst bei ununterbrochener, 45jähriger Vollzeittätigkeit. So müsste eine Person, die zum gesetzlichen Mindestlohn beschäftigt wird, dafür beim heutigen Rentenniveau gut 60 Jahre arbeiten. Mit dem abgesenkten Rentenniveau des Jahres 2045 wären sogar mehr als 69 Beitragsjahre nötig. Wer den Branchenmindestlohn für Pflegerinnen und Pfleger erhält, braucht beim aktuellen Rentenniveau 55 Jahre. Mit dem Niveau des Jahres 2045 wären mehr als 62 Beitragsjahre erforderlich.

„Das Rentenniveau zu stabilisieren oder anzuheben ist kein Instrument zur Bekämpfung von Altersarmut bei Niedrigverdiensten oder stark fragmentierten Erwerbsverläufen“, betont WSI-Forscher Blank. „Entsprechende Reformen würden aber verhindern, dass sich immer mehr Menschen, für die das bislang kein Thema ist, um ihren Lebensstandard im Alter Sorgen machen müssen.“ Den Kreis der von Altersarmut Bedrohten nicht größer werden zu lassen, würde in einem zweiten Schritt auch eine zielgenaue Unterstützung von Risikogruppen erleichtern, argumentiert Blank.

Kontakt in der Hans-Böckler-Stiftung:
Dr. Florian Blank
WSI, Leiter Referat Sozialpolitik
Tel.: 0211-7778-581
E-Mail: Florian-Blank@boeckler.de

Rainer Jung
Leiter Pressestelle
Tel.: 0211-7778-150
E-Mail: Rainer-Jung@boeckler.de

Weitere Informationen:
https://www.boeckler.de/pdf/p_wsi_pb_13_2017.pdf – *Florian Blank: Das Rentenniveau in der Diskussion. WSI-Policy Brief Nr. 13, August 2017.

Quelle: idw

(nach oben)


DBFZ diskutiert „Hydrothermale Prozesse“ als Schlüsseltechnologie für eine biobasierte Wirtschaft

Paul Trainer M.A. Presse- und Öffentlichkeitsarbeit
Deutsches Biomasseforschungszentrum

Mit hydrothermalen Prozessen (HTP) können wasserreiche, biogene Reststoffe in flüssige, feste oder gasförmige Kohlenstoffträger umgewandelt werden. Die weiterveredelten Produkte weisen ein weites Anwendungspotenzial auf. Für eine biobasierte Wirtschaft stellen hydrothermale Prozesse somit eine bedeutende Schlüsseltechnologie dar.

Im Mittelpunkt des 3. HTP-Fachforums „Hydrothermale Prozesse zur stofflichen und energetischen Wertschöpfung“ steht auch dieses Jahr wieder die gesamte Bandbreite der hydrothermalen Konversion von biogenen Ausgangsstoffen in feste, flüssige und gasförmige Energie- und Kohlenstoffträger. Anforderungen an unterschiedliche Ausgangsstoffe und hydrothermal erzeugte oder erzeugbare Produkte sowie die Behandlung kommunaler und industrieller Abwässer und Abfälle mittels Hydrothermaler Prozesse stehen dabei ebenso im Fokus der Veranstaltung wie ein intensiver Blick auf die Rahmenbedingungen (Politik, Genehmigungsrecht, Marktsituation, etc.) sowie die ökonomische, ökologische und sozioökonomische Bewertung von HTP.

In einem Plenum und drei Themenblöcken („Wissenschaft“, „Wirtschaft“ und „Internationales“) kommen insgesamt zwanzig Experten aus dem In- und Ausland mit aktuellen Forschungsthemen zum Vortrag. Zusätzlich besteht die Möglichkeit, konkrete Forschungsergebnisse im Rahmen einer Poster-Ausstellung zu präsentieren. Auf einer Abendveranstaltung können die tagsüber geführten Diskussionen anschließend weiter vertieft und neue Forschungskontakte geknüpft werden. Vor Beginn der Veranstaltung ist es darüber hinaus möglich, die Prüfstände, Labore und technischen Anlagen des Deutschen Biomasseforschungszentrums zu besichtigen. Um eine verbindliche Anmeldung wird gebeten.

Hintergrund:
Das HTP-Fachforum ist eine Veranstaltungsreihe des Deutschen Biomasseforschungszentrums und richtet sich gleichermaßen an Institutionen und Entscheidungsträger aus Wissenschaft und Forschung, wie an Beteiligte aus der Agrar-, Energie- und Umweltpolitik, Fachleute aus regional und überregional ansässigen Unternehmen, Verbände und Vereine der Energiebranche, Vertreter aus Industrie und Wirtschaft, kommunale und staatliche Einrichtungen sowie Wissenschaftler von universitären und außeruniversitären Einrichtungen.

Smart Bioenergy – Innovationen für eine nachhaltige Zukunft
Das Deutsche Biomasseforschungszentrum arbeitet als zentraler und unabhängiger Vordenker im Bereich der energetischen und stofflichen Biomassenutzung an der Frage, wie die begrenzt verfügbaren Biomasseressourcen nachhaltig und mit höchster Effizienz und Effektivität zum bestehenden und zukünftigen Energiesystem beitragen können. Im Rahmen der Forschungstätigkeit identifiziert, entwickelt, begleitet, evaluiert und demonstriert das DBFZ die vielversprechendsten Anwendungsfelder für Bioenergie und die besonders positiv herausragenden Beispiele gemeinsam mit Partnern aus Forschung, Wirtschaft und Öffentlichkeit. Mit der Arbeit des DBFZ soll das Wissen über die Möglichkeiten und Grenzen einer energetischen und integrierten stofflichen Nutzung nachwachsender Rohstoffe in einer biobasierten Wirtschaft insgesamt erweitert und die herausragende Stellung des Industriestandortes Deutschland in diesem Sektor dauerhaft abgesichert werden – www.dbfz.de.

Wissenschaftlicher Kontakt
Dr. Marco Klemm
Tel. +49 (0)341 2434-537
E-Mail: marco.klemm@dbfz.de

Pressekontakt
Paul Trainer
Tel.: +49 (0)341 2434-437
E-Mail: paul.trainer@dbfz.de

Weitere Informationen:
https://www.dbfz.de/presse/pressemitteilungen-2017/3-leipziger-htp-fachforum-dis…
https://www.dbfz.de/index.php?id=htp-anmeldung&L=0
https://www.dbfz.de/htp

Anhang
Programmflyer
https://idw-online.de/de/attachment57985

Quelle: idw

(nach oben)


Hilfe gegen Heißhungeranfälle

Stefan Zorn Presse- und Öffentlichkeitsarbeit
Medizinische Hochschule Hannover

Binge-Eating-Störung: Angeleitete Internet-basierte Selbsthilfe kann bisher übliche verhaltenstherapeutische Einzelsitzungen gut ergänzen oder sogar ersetzen.

Die Binge-Eating-Störung kann mit kognitiver Verhaltentherapie behandelt werden. Aber auch ein verhaltenstherapeutisches Selbsthilfeprogramm, das das Internet nutzt und nicht anonym ist, hilft gut gegen diese Essstörung. Das hat Professorin Dr. Martina de Zwaan, Direktorin der Klinik für Psychosomatik und Psychotherapie der Medizinischen Hochschule Hannover (MHH), gemeinsam mit Professorin Dr. Anja Hilbert von der Universität Leipzig herausgefunden und in der Fachzeitschrift JAMA Psychiatry veröffentlicht.

Menschen mit einer Binge-Eating-Störung essen bei wiederkehrenden Essanfällen unkontrolliert große Mengen an Lebensmitteln, was zu starkem Übergewicht führen kann. „Die Essanfälle werden meist durch negative Gefühle ausgelöst, die während des Essens unterbrochen werden. Mit Hilfe einer kognitiven Verhaltenstherapie lernen die Betroffenen, ihr Essverhalten zu normalisieren, weitere Gewichtszunahmen zu verhindern und mit ihren psychischen Problemen anders als durch Essen umzugehen“, erklärt Professorin de Zwaan. Doch Therapieplätze sind rar. Deshalb wollten die Forscherinnen herausfinden, ob auch ein bestimmtes Selbsthilfeprogramm hilft, das ebenfalls auf der kognitiven Verhaltenstherapie beruht. Es nutzt das Internet und beinhaltet ein persönliches erstes Gespräch sowie regelmäßige E-Mail-Kontakte mit dem Behandler. „Es kann schnell begonnen und unabhängig von Ort und Zeit durchgeführt werden. Darüber hinaus haben viele Patienten weniger Hemmungen, ein solches Programm durchzuarbeiten, als zu therapeutischen Sitzungen zu gehen“, erklärt Professorin de Zwaan.

An der vom Bundesministerium für Bildung und Forschung unterstützten Studie nahmen sieben deutsche Zentren mit insgesamt rund 180 Patientinnen und Patienten teil. Die Behandlung umfasste 20 wöchentliche Kontakte zu Therapeuten über vier Monate. Die Hälfte der Teilnehmenden hatte verhaltenstherapeutische Einzelsitzungen mit Therapeuten, die andere Hälfte im Selbsthilfeprogramm Kontakt per E-Mail. Das Ergebnis: Bei allen Teilnehmern verringerten sich die Essanfälle deutlich. Auch weitere Schwierigkeiten wie beispielsweise depressive Verstimmungen, Ängstlichkeit und die Sorge um das Gewicht nahmen ab.

Die persönliche Therapie wirkte schneller. Direkt nach der Behandlung und sechs Monate später hatten diese Patienten deutlich weniger Essanfälle als die anderen. Doch nach 18 Monaten hatten sich die Effekte angeglichen. Insgesamt hatten sich bei allen die Essanfälle verringert. „Diese nicht-anonyme Internet-basierte Therapie stellt somit eine gute Alternative dar. Sie kann auch genutzt werden, um die Zeit bis zum Beginn einer persönlichen Therapie zu überbrücken. Deshalb sollte sie ins Gesundheitssystem integriert werden“, sagt Professorin de Zwaan. Allerdings müsse beachtet werden, dass Suizidalität und andere schwere psychische Leiden, die auch bei Personen mit dieser Essstörung vorkommen, in persönlichen Gesprächen besser behandelt werden können.

Weitere Informationen erhalten Sie bei Professorin Dr. Martina de Zwaan, deZwaan.Martina@mh-hannover.de, Telefon (0511) 532-6570.

Die Originalpublikation finden Sie im Internet unter folgendem Link: http://jamanetwork.com/journals/jamapsychiatry/fullarticle/2646394.

Quelle: idw

(nach oben)


Wimperntierchen und ihre bakteriellen Lebenspartner – Eine weltweite Partnerschaft

Dr. Manfred Schloesser Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für marine Mikrobiologie

Wimperntierchen sind wie Menschen von einer Vielfalt an Bakterien besiedelt. Bei ihren symbiontischen Lebenspartnern haben manche der Wimperntierchen (Ciliaten) schon vor sehr langer Zeit ihre Wahl getroffen. Und die scheint sich bewährt zu haben. Das zeigen Untersuchungen von Bremer Max-Planck-Forschern und ihren Kollegen, die eine Gruppe dieser Einzeller und deren bakterielle Partner im Mittelmeer und in der Karibik erforscht haben und jetzt darüber in den Proceedings of the Royal Society B berichten. Die Bakterien liefern dabei die Energie für den Wirt, das Wimperntierchen, in dem sie Schwefel oxidieren.

Überraschend dabei ist es, dass es, obwohl ein ganzer Ozean das Mittelmeer von der Karibik trennt, es immer fast dasselbe Gespann von Bakterien und Wimperntierchen ist, denn beide Partner stammen jeweils von einem Urahn ab.

Elegante Schwimmer
Wimperntierchen sind eigentlich keine Tiere. Es sind Einzeller mit mehreren Zellkernen und kommen im Süßwasser, Meer und im Boden vor. Der Name rührt von den Wimpern auf der Zelloberfläche her, mit der diese Einzeller sich fortbewegen und Nahrung zu einer mundähnlichen Öffnung heranführen können. Bekanntestes Beispiel ist das Pantoffeltierchen. Erst unter dem Mikroskop sieht man die Eleganz, mit der diese sich bewegen. Manche dieser Lebewesen werden so groß, dass sie mit dem bloßen Auge als Pünktchen im Wassertropfen sichtbar werden. In der jetzt vorgestellten Studie von Brandon Seah aus der Abteilung Symbiose am Bremer Max-Planck-Institut geht es um die Gattung Kentrophoros, die keinen Mund zur Aufnahme von Nahrung besitzt, dafür aber auf symbiontische Bakterien, so genannte Schwefeloxidierer, angewiesen ist.
Man spricht hier von Mutualismus, d.h. beide Partner sind aufeinander angewiesen.

Chemosynthese und Symbiose als Strategie
Inzwischen kennt man eine Reihe von Lebewesen, die diese schwefeloxidierenden Bakterien als Energielieferanten nutzt. Die ersten entdeckte man zufällig in den 1970er Jahren an den Hydrothermalquellen der Tiefsee. Die Tiefseemuscheln Bathymodiolus und der Röhrenwurm Riftia sind zwei Beispiele. Doch bislang war nicht bekannt, wie die Symbiose bei den Wimperntierchen der Gattung Kentrophoros strukturiert ist. Sind die Bakterien mit anderen verwandt oder ist es eine bislang unbekannte Art?

In der jetzigen Studie verglichen die Forscher Kentrophoros aus dem Mittelmeer und der Karibik. Obwohl das äußere Erscheinungsbild, und die Morphologie sehr verschieden war, zeigten die Ergebnisse der Erbsubstanzanalyse, dass alle Zellen einen gemeinsamen stammesgeschichtlichen Ursprung haben. Und das trifft jeweils auf die Bakterien und die Wimperntierchen zu. Die Bakterien gehören stammesgeschichtlich alle zu einer einzigen neu entdeckten Klade, das heißt, alle in dieser Studie gefundenen Symbionten haben einen gemeinsamen Vorfahren. Das bedeutet, dass vor ein paar Millionen Jahren der erste Kentrophoros und der Urahne dieser Bakterien eine gemeinsame Partnerschaft wählten, die die Zeiten überdauerte. Ihre Nachkommen haben sich über den Planeten Erde ausgebreitet.

„Die bakteriellen Symbionten wachsen nur auf einer Körperseite. Manche Wimperntierchen haben große Ausbuchtungen ausgebildet, um die Siedlungsfläche zu vergrößern. Diese Wimperntierchen tragen sozusagen ihr eigenes Gemüsebeet mit sich herum, denn die Bakterien werden vom Wirt per Phagozytose aufgenommen,“ beschreibt Brandon Seah, Doktorand am Bremer Max-Planck-Institut die Symbiose.

Prof. Dr. Nicole Dubilier, Direktorin des Max-Planck-Instituts sagt:„Unsere Ergebnisse zeigen, dass diese Symbiose zwischen Wimperntierchen und schwefeloxidierenden Bakteriensich über sehr lange evolutionäre Zeiträume, vielleicht zehn bis hunderte Millionen Jahre, erhalten hat. Ursprünglich dachten wir, dass diese Symbiose niemals so spezifisch sein kann wie bei Endosymbionten, die in ihrem Wirt leben. Bei Kentrophoros vermuteten wir, dass sie die Symbionten leicht verlieren, wenn sie sich durch Sand oder Wasser bewegen. Aber es stellte sich heraus, dass dies kein Hinderungsgrund für die intensive stabile Beziehung zwischen Wirt und Symbiont darstellt.“

Geht man nur vom äußeren Erscheinungsbild aus, haben die Forscher dieser Studie 17 verschiedene Typen Kentrophoros gefunden, die genetisch sehr ähnlich sind. Es scheint einen generellen Masterplan zu geben, dessen Ausführungen unterscheiden.

Ausblick
Als nächstes steht unter anderem die Sequenzierung der Genome an. Ein weiteres Ziel ist es, diese Lebewesen im Labor zu züchten, denn dann sind weitere interessante Untersuchungen zur Beziehung zwischen Genotyp und Phänotyp möglich. Was bringt jeder Partner in die Beziehung ein?

Originalveröffentlichung
Seah BKB, Schwaha T, Volland J-M, Huettel B, Dubilier N, Gruber-Vodicka HR. 2017 Specificity in diversity: single origin of a widespread ciliate-bacteria symbiosis. Proc. R. Soc. B 20170764.
http://dx.doi.org/10.1098/rspb.2017.0764

Beteiligte Institute
– Max-Planck-Institut für Marine Mikrobiologie, Bremen
– Department of Integrative Zoology, and Department of Limnology and Bio-Oceanography, Vienna, Austria
– Max Planck Genome Centre Cologne, Max Planck Institute for Plant Breeding Research, Cologne, Germany
– MARUM, Center for Marine Environmental Sciences, Bremen, Germany

Rückfragen an
Brandon Kwee Boon Seah, (Link zur Webseite)
Abt. Symbiose, Max-Planck-Institut für Marine Mikrobiologie
0421 2028904, kbseah@mpi-bremen.de

Prof. Dr. Nicole Dubilier
Abt. Symbiose, Max-Planck-Institut für Marine Mikrobiologie
0421 2028932, ndubilie@mpi-bremen.de

Oder an die Pressestelle (Link zur Webseite)
Dr. Manfred Schlösser mschloes@mpi-bremen.de 0421 2028704
Dr. Fanni Aspetsberger faspetsb@mpi-bremen.de 0421 2028 947

Kasten Wimperntierchen
Wimperntierchen sind keine Tiere, sondern einzellige Lebewesen. Sie werden bis zu paar Millimeter groß. Der Name Kentrophoros steht für Stachelträger, denn die kleinen symbiotischen Bakterien deuteten die Forscher vor hundert Jahren fälschlich als Stachel. Kentrophoros wurden im Mittelmeer und der Karibik, aber auch im Pazifik gefunden. Sie können sich asexuell vermehren.
Als Besonderheit der Wimperntierchen gibt es mehrere Zellkerne von zwei verschiedenen Sorten. Einer davon ist zwar klein, aber er ist für die sexuelle Generation der Tochterzellen maßgeblich und trägt die gesamten genetischen Informationen. Die anderen regeln die Körperfunktion über spezifische Genexpression. Damit wird das Erscheinungsbild festgelegt.

Weitere Informationen:
Film von Brandon Seah
https://vimeo.com/89605962

Quelle: idw

(nach oben)


Studenten des Hasso-Plattner-Instituts schreiben Buch für Informatikanfänger

Felicia Flemming Presse- und Öffentlichkeitsarbeit
Hasso-Plattner-Institut für Softwaresystemtechnik (HPI)

Zwischen Uni-Seminar und Masterarbeit auch eine Karriere als Autor starten – drei Studenten des Hasso-Plattner-Instituts (HPI) ist dies gelungen. Ihr Buch „Fit fürs Studium – Informatik“ erleichtert Anfängern den Einstieg in die Welt der digitalen Technologien und ist ab heute erhältlich. Die Informatiker Arne Boockmeyer (23), Philipp Fischbeck (23) und Stefan Neubert (24) absolvieren am HPI derzeit das Masterstudium und bringen vor allem ihre eigenen praktischen Erfahrungen ein. Der Titel ist im Rheinwerk Verlag erschienen und richtet sich in erster Linie an Schülerinnen und Schüler, die sich für ein Informatikstudium interessieren, aber auch an Eltern, Informatiklehrer und Quereinsteiger.

„Da der Informatikunterricht an deutschen Schulen weder flächendeckend noch einheitlich ist, sind die ersten Monate für die Studierenden und Professoren häufig besonders schwierig“, erklärt Boockmeyer. So seien die Vorkenntnisse der einzelnen Bewerberinnen und Bewerber sowie die Erwartungen an das bevorstehende Studium sehr unterschiedlich. „Während der eine Abiturient bereits erste Apps entwickelt hat, können andere noch gar nicht programmieren“, erzählt der 23-Jährige. Der Ausgleich finde erst im Hörsaal statt – wenn überhaupt. „Einige Schüler sind von den Vorkenntnissen der fortgeschrittenen Hobby-Programmierer auch abgeschreckt und trauen sich ein Studium im schlimmsten Fall gar nicht erst zu“, so Kommilitone und Mitautor Neubert.

Das neue Buch soll hier Abhilfe schaffen. „Wir möchten einen breiten Gesamtüberblick darüber verschaffen, was die Informatik eigentlich ist und was alles dazugehört“, beschreibt Neubert. Die 21 Kapitel führen die Leserinnen und Leser auf über 400 Seiten von Datenstrukturen über Netzwerke und Verschlüsselung bis hin zur Teamarbeit in der Softwareentwicklung. Auch der ethische Umgang mit den eigenen Programmierfähigkeiten spielt für die jungen Autoren eine wichtige Rolle und wird im Buch diskutiert. „Die Abschnitte stehen für sich. Man muss nicht alles von vorne bis hinten durchlesen, sondern kann sich selbst seine Schwerpunkte suchen“, so HPI-Student Fischbeck.

Jedes der Kapitel beginnt mit einer Knobelei, die zum Nachdenken anregen und die Ideen hinter den Konzepten verständlich machen soll. Für die meisten Kapitel wird nicht einmal ein Computer benötigt: „Sobald die Leser vor die Frage gestellt werden, wie sie ein Bücherregal ordnen würden, ist es nur noch ein kurzer Schritt zum Verständnis von Sortieralgorithmen in Programmen“, weiß Fischbeck. Bei der Formulierung ihrer Beispiele und Erklärungen profitieren die drei jungen Informatiker nicht nur von ihrem Studium, sondern auch von ihrem Engagement im HPI-Schülerklub. Zusammen mit anderen Studierenden betreuen sie Informatik-Camps für interessierte Schülerinnen und Schüler in Potsdam und denken sich immer wieder neue praktische Aufgaben und Beispiele aus.

Informationen zum Buch
411 Seiten, broschiert
ISBN: 978-3-8362-4406-0
Preis: 24,90 Euro

Kurzprofil Hasso-Plattner-Institut
Das Hasso-Plattner-Institut (HPI) in Potsdam ist Deutschlands universitäres Exzellenz-Zentrum für Digital Engineering (https://hpi.de). Mit dem Bachelor- und Master-Studiengang „IT-Systems Engineering“ bietet die Digital-Engineering-Fakultät der Universität Potsdam ein deutschlandweit einmaliges und besonders praxisnahes ingenieurwissenschaftliches Informatik-Studium an, das von derzeit rund 500 Studierenden genutzt wird. Bei den CHE-Hochschulrankings belegt das HPI stets Spitzenplätze. Die HPI School of Design Thinking, Europas erste Innovationsschule für Studenten nach dem Vorbild der Stanforder d.school, bietet jährlich 240 Plätze für ein Zusatzstudium an. Derzeit sind am HPI zwölf Professoren und über 50 weitere Gastprofessoren, Lehrbeauftragte und Dozenten tätig. Es betreibt exzellente universitäre Forschung – in seinen IT-Fachgebieten, aber auch in der HPI Research School für Doktoranden mit ihren Forschungsaußenstellen in Kapstadt, Haifa und Nanjing. Schwerpunkt der HPI-Lehre und -Forschung sind die Grundlagen und Anwendungen großer, hoch komplexer und vernetzter IT-Systeme. Hinzu kommt das Entwickeln und Erforschen nutzerorientierter Innovationen für alle Lebensbereiche.

Weitere Informationen:
https://hpi.de – Website des Hasso-Plattner-Instituts (HPI)

Quelle: idw

(nach oben)


Wasser – wertvoll und schützenswert! Beschleunigte Elektronen helfen bei der Aufbereitung

Frau Silvena Ilieva Unternehmenskommunikation
Fraunhofer-Institut für Organische Elektronik, Elektronenstrahl- und Plasmatechnik FEP

Am Fraunhofer-Institut für Organische Elektronik, Elektronenstrahl- und
Plasmatechnik FEP, einem der führenden Forschungs- und Entwicklungspartner für Elektronenstrahlanwendungen, werden darauf basierende Verfahren und Anlagen zum Einsatz in Medizin, Pharma und zum Schutz von Ressourcen und Umwelt entwickelt. Das Nuclear and Energy Research Institute (IPEN) in São Paulo ist die führende brasilianische Einrichtung für Umwelttechnologien und erneuerbare Energie. Beide Einrichtungen wollen nun kooperieren und stellen u. a. ihre Kompetenzen zur effektiven Abwasserbehandlung in einem Workshop am 6. und 7. November 2017, am IPEN, in São Paulo, Brasilien vor: AcEL – ACCELERATED ELECTRONS FOR LIFE.

Unser Abwasser durchläuft einen komplizierten Klärungsprozess an dessen Ende sauberes Trinkwasser stehen sollte. Der Verband kommunaler Unternehmen (VKU) stellte in einer aktuellen Pressemeldung (siehe Link unten) klar heraus, dass nach mechanischer, biologischer und chemischer Klärung und dem Durchlaufen einer vierten Reinigungsstufe in modernen Kläranlagen Spurenstoffe nur verringert, jedoch nie ganz vermieden oder gar entfernt werden können. Er hat daher ein Policy Paper an die Politik übergeben, das einen verantwortungsvollen Umgang mit Spurenstoffen fordert. Um die Trinkwasserressourcen bestmöglich zu schützen, müssten Spurenstoffe frühzeitig vermieden oder zumindest reduziert werden.

Weltweit forschen Wissenschaftler mit Hochdruck an Methoden zur Abwasserbehandlung. Auch das Fraunhofer FEP und das IPEN haben sich dieser Aufgabe gestellt. Sie setzen auf beschleunigte Elektronen.

„Niederenergetische Elektronen sind ein vielseitiges Werkzeug, das wir zur erfolgreichen Keimabtötung nutzen oder damit Hormon- und Pharmakarückstände im Abwasser unschädlich machen.“, erläutert Frank-Holm Rögner, Leiter der Abteilung Elektronenstrahlprozesse, den Ansatz des Fraunhofer FEP. „Dabei sind die Verfahren nicht nur wirtschaftlich, sondern in Bezug auf ihren Energie- und Ressourceneinsatz anderen Verfahren meist deutlich überlegen.“

Die Forscher vom Fraunhofer FEP haben bereits Erfahrungen auf dem Gebiet der effektiven Behandlung von kleinen Flüssigkeitsmengen im Labormaßstab und wollen nun das Verfahren für größere Abwassermengen optimieren. Sie konzentrieren sich zunächst auf kompakte Lösungen für die Behandlung kleiner Flüssigkeitsmengen nah am Verursacher der Kontamination. Die Behandlung hoch konzentrierter Kontaminationen ist wesentlich effektiver, als im Klärwerk riesige Wassermengen mit sehr geringen Schadstoffkonzentrationen zu behandeln. Zum Entwicklungskonzept gehört auch die Erarbeitung neuer, kompakter Elektronenbeschleuniger im Mittelenergie-Bereich bis 600 Kiloelektronenvolt (keV).

Das brasilianische Partnerinstitut IPEN hat bereits gute Erfahrungen in der Abwasserbehandlung mit Hochenergie sammeln können (10 MeV).

Dr. Wilson Aparecido Parejo, Generaldirektor des IPEN, ist sich sicher: „Unsere Kompetenzen ergänzen sich in idealer Weise. Wir können sie zum Schutz der Umwelt bündeln und so wirksam zum Schutz der lebensnotwendigen Ressource Wasser beitragen.“ Beide Institute stellen gemeinsam mit weiteren Partnern diese Kompetenzen, aber auch andere Umwelttechnologien, auf einem Workshop am 6. und 7. November 2017, am IPEN, in São Paulo, Brasilien vor: AcEL – ACCELERATED ELECTRONS FOR LIFE.

Industriepartner und Wissenschaftler können auf der Veranstaltung den effektiven Einsatz der Technologien diskutieren. Für Entscheider aus Politik und Wirtschaft wird außerdem eine wichtige Informationsplattform geboten. Ziel ist es, das Innovationspotenzial beschleunigter Elektronen für die Umwelt zu nutzen und weiter in die Praxis zu überführen.
Der Workshop wird ebenfalls unterstützt durch das Deutsche Wissenschafts- und Innovationshaus São Paulo sowie die National Nucelar Energy Commission (CNEN) und das CNPq – Conselho Nacional de Desenvolvimento Científico e Tecnológico.

Über AcEL
Fraunhofer FEP und IPEN präsentieren neue Technologien für die Abwasseraufbereitung: Vom 6. – 7. November veranstalten beide Institute gemeinsam den Workshop: „AcEL – ACCELERATED ELECTRONS FOR LIFE“ mit freundlicher Unterstützung des Deutschen Wissenschafts- und Innovationshauses in São Paulo. Die Veranstaltung wird in den Räumlichkeiten des IPEN an der Universität von São Paulo stattfinden und hat das Ziel, Spezialisten und Unternehmer sowie Partner und Entscheider aus Politik und Wirtschaft zusammenzubringen, um über neue Technologien wie die Nutzung beschleunigter Elektronen z. B. zur Abwasserbehandlung, zur Impfstoffinaktivierung oder zur Saatgutbehandlung zu diskutieren.

Über das IPEN
Das Nuklear- und Energieforschungsinstitut IPEN ist eine brasilianische Institution, die durch die nationale Nuklearenergiekommission CNEN technisch und finanziell verwaltet und unterstützt wird. Das IPEN ist das national führende Forschungsinstitut in den Bereichen Radiopharmazie, Anwendung von ionisierender Strahlung, Nuklearforschung und -technologie, Kernreaktoren und Brennstoffkreislauf, Umweltwissenschaften und -technologie, erneuerbare Energien, Materialien und Nanotechnologie, Biotechnologie, Lasertechnologie und Ausbildung.
Das Institut feiert sein 61-jähriges Bestehen im August 2017 und das IPEN-CNEN/SP Graduiertenprogramm für Nukleartechnologie in Zusammenarbeit mit der Universität São Paulo beging bereits im März 2016 sein 40-jähriges Jubiläum. Das Radiation Technology Centre (CTR) am IPEN-CNEN wurde vor 45 Jahren gegründet und steht für die Umsetzung und den Transfer der Bestrahlungstechnik und Radioisotopanwendungen in die Industrie, den Gesundheitssektor, die Landwirtschaft und den Umweltschutz in Brasilien. Ziel des Institutes ist die Schaffung wissenschaftlichen Know-Hows, die Entwicklung gut ausgebildeten Personals, der Technologietransfer und die Erarbeitung von Produkten und Dienstleistungen, die in vielen Bereichen der Brasilianischen Gesellschaft nutzbar sind.

Über das Deutsche Wissenschafts- und Innovationshaus – São Paulo
Das Deutsche Wissenschafts- und Innovationshaus São Paulo (DWIH-SP) wurde 2009 vom Auswärtigen Amt in Zusammenarbeit mit dem Bundesministerium für Bildung und Forschung gegründet. Durch das DWIH-SP soll einerseits die Sichtbarkeit des Technologiestandortes Deutschland in Brasilien gesteigert und andererseits sollen Synergien und der Austausch zwischen wissenschaftlichen Institutionen in Deutschland und Brasilien gefördert werden – insbesondere in São Paulo, dem größten Zentrum der brasilianischen Forschung und deutscher Unternehmen im Ausland. Sowohl in Deutschland als auch in Brasilien werden Wissenschaft und Innovation als grundlegende Bereiche angesehen, um die wirtschaftliche, soziale und nachhaltige Entwicklung zu gewährleisten. Seit über 40 Jahren fördern beide Länder eine umfassende und fruchtbare Wissenschaftskooperation. Das DWIH-SP vereint die Vertretungen verschiedener deutscher Forschungs- und Förderorganisationen unter einem Dach und präsentiert Deutschland als einen Partner für Exzellenz und hohe Wettbewerbsfähigkeit in Wissenschaft und Innovation.
Als wichtige Anlauf- und Vermittlerstelle für Personen und Institutionen, aus Brasilien und Deutschland, zu Themen in den Bereichen Hochschulbildung, Wissenschaft, Forschung und wissenschaftsbasierte Innovation, trägt das DWIH-SP durch seine Programmarbeit zur nachhaltigen, sozialen und wirtschaftlichen Entwicklung beider Länder bei.

Über Fraunhofer FEP
Das Fraunhofer-Institut für Organische Elektronik, Elektronenstrahl- und Plasmatechnik FEP arbeitet an innovativen Lösungen auf den Arbeitsgebieten der Vakuumbeschichtung, der Oberflächenbehandlung und der organischen Halbleiter. Grundlage dieser Arbeiten sind die Kernkompetenzen Elektronenstrahltechnologie, Sputtern, plasmaaktivierte Hochratebedampfung und Hochrate-PECVD sowie Technologien für organische Elektronik und IC-/Systemdesign.

Fraunhofer FEP bietet damit ein breites Spektrum an Forschungs-, Entwicklungs- und Pilotfertigungsmöglichkeiten, insbesondere für Behandlung, Sterilisation, Strukturierung und Veredelung von Oberflächen sowie für OLED-Mikrodisplays, organische und anorganische Sensoren, optische Filter und flexible OLED-Beleuchtung.

Ziel ist, das Innovationspotenzial der Elektronenstrahl-, Plasmatechnik und organischen Elektronik für neuartige Produktionsprozesse und Bauelemente zu erschließen und es für unsere Kunden nutzbar zu machen.

Weitere Informationen:
http://vku.de/presse/pressemitteilungen-liste/liste-pressemitteilungen/archiv-20…
http://s.fhg.de/FAT

Quelle: idw

(nach oben)


Hoher Zuckerkonsum verursacht Zahnbehandlungskosten in Milliardenhöhe

Friederike Stecklum Pressestelle
Martin-Luther-Universität Halle-Wittenberg

Die Menschen essen weltweit deutlich zu viel Zucker. Das hat negative Folgen für ihre Zähne und für ihren Geldbeutel: Global belaufen sich die Zahnbehandlungskosten auf jährlich rund 128 Milliarden Euro. Allein in Deutschland sind es 17,2 Milliarden Euro pro Jahr. Das sind die Ergebnisse einer gemeinsamen Studie der Martin-Luther-Universität Halle-Wittenberg (MLU) und der Biotechnology Research and Information Network AG (BRAIN AG), die im renommierten „International Journal of Dental Research“ veröffentlicht wurde. Die Arbeit wurde im Rahmen der strategischen Allianz NatLifE 2020 durchgeführt und vom Bundesministerium für Bildung und Forschung (BMBF) kofinanziert.

Für ihre Arbeit werteten die Forscher repräsentative Daten zum Vorkommen von Karies, Zahnfleischentzündungen (Parodontitis) und Zahnverlust, entsprechende Behandlungskosten und Krankheitslasten sowie Daten zum Zuckerverbrauch in 168 Ländern für das Jahr 2010 aus. Auf Basis dieser Daten errechneten sie den Anteil an den Gesamtkosten durch übermäßigen Zuckerkonsum. Neben weißem Haushaltszucker schlossen die Forscher in die Analyse zudem versteckte Zucker ein, die in vielen verarbeiteten Produkten, wie Getränken, Ketchup, Speiseeis, Tiefkühlkost oder Backwaren enthalten sind.

„Die Daten zeigen einen eindeutigen Zusammenhang zwischen dem Konsum von Zucker und dem Vorkommen von Karies, Parodontitis und als Folge Zahnverlust“, so Studienerstautor Dr. Toni Meier vom Institut für Agrar- und Ernährungswissenschaften der MLU. „Pro Mehrverzehr von 25 Gramm Zucker pro Person und Tag – was ungefähr acht Zuckerwürfeln oder einem Glas gesüßter Limonade entspricht – steigen die Zahnbehandlungskosten in Ländern mit hohen Einkommen im Durchschnitt um 75 Euro pro Person und Jahr an.“ In Deutschland werden täglich im Durchschnitt zwischen 90 und 110 Gramm Zucker pro Kopf verbraucht. Die Behandlungskosten belaufen sich auf jährlich 210 Euro pro Person. Damit liegt Deutschland in der Gruppe der Länder mit den höchsten Behandlungskosten pro Kopf und Jahr. Dazu gehören ebenfalls die Schweiz (300 Euro), Dänemark (178 Euro) und die USA (138 Euro bzw. 185 US-Dollar). „Würde die Zielvorgabe der Weltgesundheitsorganisation von 50 Gramm Zucker pro Person und Tag erreicht, ließen sich in Deutschland 150 Euro Behandlungskosten pro Person einsparen. Hochgerechnet auf Bundesebene entspricht dies einem jährlichen Einsparungspotential von circa zwölf Milliarden Euro“, so Meier weiter. Sich zuckerarm zu ernähren werde aber immer schwieriger, da nahezu alle verarbeiteten Produkte im Supermarkt große Mengen an zugesetztem Zucker enthalten.

Die höchsten Anteile zuckerbedingter Zahnerkrankungen beobachteten die Forscher in Guatemala, Mauretanien und Mexiko. „Schwellenländer wie Indien, Brasilien und Mexiko, aber auch Pakistan und Ägypten könnten übermäßige Krankheitslasten und Kostenbelastungen im Gesundheitssystem vermeiden, wenn sie das Thema frühzeitig in der Gesundheits- und Ernährungspolitik verankern“, so Studienkoautorin und Ernährungswissenschaftlerin Prof. Dr. Gabriele Stangl von der MLU. Das könnten Aufklärungskampagnen sein oder Sondersteuern auf hoch-kalorische Lebensmittel: In Mexiko gibt es bereits seit 2014 eine solche Zuckersteuer. Schon nach einem Jahr zeigte die Steuer Wirkung: Die konsumierte Menge an mit Zucker gesüßten Getränken ging um fünf Prozent zurück. Im zweiten Jahr verdoppelte sich der Wert sogar noch einmal auf zehn Prozent.

„Um ernährungsbedingte Krankheitslasten reduzieren zu können, bedarf es neben einer ausgewogenen Mischung an Aufklärungsarbeit und ernährungspolitischen Ansätzen auch innovative technologische Lösungsangebote“, sagt Studienkoautorin Dr. Katja Riedel, Mitkoordinatorin der Innovationsallianz NatLifE 2020 und Programme Manager System Products Nutrition bei der BRAIN AG. Die vom BMBF kofinanzierte Allianz zielt darauf ab, mit Hilfe der Biotechnologie und dem Verständnis biologischer Systeme eine neue Generation nachhaltig produzierter und biologisch aktiver Wirkstoffe für Lebensmittel und Kosmetika zu entwickeln und damit einen Beitrag zur Verbesserung von Ernährung, Gesundheit und menschlichem Wohlbefinden zu leisten.

Link zur Studie:
http://Meier, T., Deumelandt, P., Christen, O., Stangl, G. I., Riedel, K., & Langer, M. (2017): Global Burden of Sugar-Related Dental Diseases in 168 Countries and Corresponding Health Care Costs. Journal of Dental Research (in press) DOI: 10.1177/0022034517708315

Quelle: idw

(nach oben)


Innovative Niederschlagsmodelle für den Überflutungsschutz

Mechtild Freiin v. Münchhausen Referat für Kommunikation und Marketing
Leibniz Universität Hannover

Wie muss ein Kanalisationsnetz ausgelegt sein? In welchen Regionen ist mit welchen Niederschlagsszenarien zu rechnen? Ein BMBF-gefördertes Verbundvorhaben am Institut für Hydrologie und Wasserwirtschaft entwickelt Modelle zur optimalen Planung und zum Betrieb von Stadtentwässerungssystemen.

BMBF-gefördertes Anschlussprojekt am Institut für Hydrologie und Wasserwirtschaft entwickelt Niederschlagsmodelle für die optimale Planung und den Betrieb von Stadtentwässerungssystemen

Großer Erfolg für Prof. Dr.-Ing. Uwe Haberlandt und sein Team vom Institut für Hydrologie und Wasserwirtschaft: Das Bundesministerium für Bildung und Forschung (BMBF) fördert das Verbundvorhaben SYNOPSE II zur Niederschlagsgenerierung innerhalb der nächsten zwei Jahre mit insgesamt rund 850.000 Euro.

Wie muss ein Kanalisationsnetz ausgelegt sein, damit es die Wassermengen auch bei Starkregen oder besonders lang anhaltenden Niederschlägen ableiten kann? In welchen Regionen ist mit welchen Niederschlagsszenarien zu rechnen? Die Bestimmung dieser Niederschlagsmengen ist die Voraussetzung dafür, dass Stadtentwässerungssysteme optimal geplant werden können, so dass Überstauereignisse und Überschwemmungen möglichst selten auftreten. Das Verbundprojekt der Leibniz Universität Hannover und mehreren Partnern befasst sich mit innovativen Berechnungsmodellen zur Niederschlagsgenerierung. Ziel ist es, aussagekräftige Niederschlagsmodelle für ganz Deutschland zu entwickeln – als Basis für die Planung und den Betrieb von Kanalisationssystemen.

Das am 1. Juli 2017 gestartete Verbundvorhaben „Synthetische Niederschlagsreihen für die optimale Planung und den Betrieb von Stadtentwässerungssystemen (SYNOPSE II)“ folgt auf das Projekt SYNOPSE I (2013 bis 2016). Im Vorgängerprojekt wurden als erster Schritt in Richtung einer bundesweit übertragbaren Datengenerierungsmethode die Bundesländer Niedersachsen und Baden-Württemberg sowie die Städte Hamburg, Braunschweig und Freiburg i. Br. als Modellgebiete betrachtet. Für diese Regionen wurden erste Modelle entwickelt. Nun sollen diese so weiterentwickelt werden, dass mit einer Software Niederschläge für jeden beliebigen Standort in Deutschland mit beliebiger Zeitreihenlänge berechnet werden können.

„Wir freuen uns sehr, dass die vielversprechenden Ergebnisse aus SYNOPSE I zu diesem Folgeprojekt geführt haben. Damit wird den Anwendern in Deutschland ein nützliches Werkzeug zur Verfügung gestellt, das in dieser Form derzeit nicht existiert“, sagt Koordinator Prof. Dr.-Ing. Uwe Haberlandt. Basis der Modelle sind die gemessenen, langjährigen Daten von Niederschlagsstationen. Niederschlagszeitreihen mit fünfminütiger Auflösung, wie sie die Wissenschaftlerinnen und Wissenschaftler anstreben, liegen in dieser hohen Auflösung bislang nur für wenige Standorte vor. Daher werden auf Basis der vorhandenen Messzeitreihen Modelle entwickelt, die in der Lage sind, Niederschlagszeitreihen für jeden beliebigen Ort in Deutschland mit beliebiger Zeitreihenlänge zu simulieren
.
In SYNOPSE II werden zwei Niederschlagsmodelle, die im Vorgängerprojekt entwickelt wurden, hinsichtlich ihrer Eignung untersucht. Als Endergebnis wird eine Software bereitgestellt, mit der die Niederschlagsgenerierung für die Anwender möglich sein wird.
Neben dem Institut für Hydrologie und Wasserwirtschaft der Leibniz Universität Hannover sind an SYNOPSE II die Universität Stuttgart (Institut für Wasser- und Umweltsystemmodellierung), das Institut für technisch-wissenschaftliche Hydrologie Hannover GmbH, Dr.-Ing. Pecher und Partner Ingenieurgesellschaft mbH sowie Hamburg Wasser beteiligt.

Das Projekt SYNOPSE II wird innerhalb der BMBF-Fördermaßnahme „Intelligente und multifunktionelle Infrastruktursysteme für eine zukunftsfähige Wasserversorgung und Abwasserentsorgung (INIS)“ im Rahmenprogramm „Forschung für nachhaltige Entwicklung – FONA³“ gefördert.

Quelle: idw

(nach oben)


Im Homeoffice oder mit völlig selbstbestimmten Arbeitszeiten fällt Abschalten besonders schwer

Rainer Jung Abt. Öffentlichkeitsarbeit
Hans-Böckler-Stiftung

Studie untersucht Folgen für Frauen und Männer
Im Homeoffice oder mit völlig selbstbestimmten Arbeitszeiten fällt Abschalten besonders schwer – klare Regeln für Flexibilität nötig

Extrem flexible Arbeitszeiten gehen häufig zulasten der Beschäftigten. Dabei sind die Folgen für Frauen andere als für Männer, zeigt eine neue Untersuchung der Hans-Böckler-Stiftung*.

Was ist für Arbeitnehmer am besten: feste Bürozeiten, Gleitzeit oder völlige Selbstbestimmung ohne konkrete Zeitvorgaben? Selbstbestimmung klingt gut, ist aber auch eine Einladung zur Selbstausbeutung, wie eine Analyse von Dr. Yvonne Lott zeigt. Die Böckler-Expertin für Arbeitszeiten hat untersucht, welche Zusammenhänge zwischen Arbeitszeitmodellen, Verhalten und Arbeitsbelastungen von Frauen und Männern bestehen. Die Auswertung basiert auf Angaben von gut 10.000 Personen aus der Haushaltsbefragung Sozio-oekonomisches Panel (SOEP) der Jahre 2011 und 2012. Es zeigt sich:

– Wer im Homeoffice tätig ist, kann abends oft nicht abschalten. Die Wahrscheinlichkeit liegt bei 45 Prozent und damit mehr als doppelt so hoch wie bei Beschäftigten, die nie zu Hause arbeiten. Offenbar verschwimmen die Grenzen zwischen den Lebensbereichen bei dieser Arbeitsweise besonders leicht.

– Bei völlig selbstbestimmten Arbeitszeiten fällt das Abschalten Arbeitnehmern schwerer als bei festen Zeiten. Interessanterweise ist dieser Effekt nur bei Männern zu beobachten. Die Wahrscheinlichkeit liegt bei 40 Prozent, dass sie abends nicht zur Ruhe kommen, elf Prozentpunkte mehr als bei Männern mit festen Arbeitszeiten. Dies führt die Forscherin darauf zurück, dass gerade Männer dazu neigen, ohne vorgegebene Grenzen übermäßig lange zu arbeiten. Frauen seien hingegen „typischerweise geübtere Grenzgängerinnen“ als Männer, so Lott. Sie nutzten die zeitliche Flexibilität statt für unzählige Überstunden eher, um Haus- und Sorgearbeit mit dem Job unter einen Hut zu bringen.

– Mit selbstbestimmten, aber immer noch geregelten Arbeitszeiten, etwa Gleitzeit, fühlen sich Beschäftigte nicht übermäßig mehr belastet. Sie können zudem besser mit hohem Arbeitsdruck umgehen, was sich positiv auf die Work-Life-Balance auswirkt. Dies gilt aber wiederum nur für Männer.

– Ein unveränderlicher Arbeitsbeginn und eine feste Feierabendzeit können mit anderen Verpflichtungen kollidieren, die sich etwa aus den Abholzeiten von Kindergärten ergeben. Andererseits bieten klare Regeln Planungssicherheit, was Stress reduziert.

– Hoch ist die psychische Belastung bei unvorhersehbaren Arbeitszeiten, die der Arbeitgeber kurzfristig ändert – vor allem für Frauen. Unvorhersehbare Dienstzeiten erschweren die Planung des Alltags enorm, worunter vor allem diejenigen leiden, die traditionell den größeren Teil der Haus-, Pflege- und Erziehungsarbeit übernehmen. Besonders ausgeprägt ist der Stress in Kombination mit hohem Arbeitsdruck.

Im Lichte dieser Erkenntnisse sei eine von Unternehmen häufig geforderte weitere Deregulierung der Arbeitszeitbestimmungen äußerst kritisch zu sehen, sagt Lott. Neben den negativen Konsequenzen für die Work-Life-Balance verschärfen Modelle wie die völlige Arbeitszeitautonomie auch die Ungleichheit zwischen den Geschlechtern. Die Forscherin spricht vom „Risiko der Traditionalisierung von Partnerschaften“, weil eine Seite – wahrscheinlich meist die Frau – der anderen den „Rücken frei halten“ muss.

Dennoch hält Lott noch mehr Flexibilität bei der Arbeitszeit grundsätzlich für vertretbar. Es müsse aber klare Regeln geben: zeitliche Obergrenzen, Zeiterfassung, realistische Vorgaben für das Arbeitspensum, genug Personal und Vertretungsregeln. Fortbildungen in „Grenzmanagement“ für Beschäftigte und Vorgesetzte seien ebenso notwendig wie verlässliche Schichtpläne und eine Sensibilisierung aller Beteiligten für die geschlechtsspezifischen Folgen flexibler Arbeitsarrangements. Wenn diese Voraussetzungen nicht nur im Betrieb, sondern auch beim mobilen Arbeiten oder im Homeoffice gegeben sind, könnten durchaus neue Spielräume für selbstorganisiertes Arbeiten geschaffen werden – zum Beispiel durch ein Recht auf Homeoffice, das bislang ein Privileg einzelner Beschäftigtengruppen und vielen Arbeitnehmerinnen nicht gestattet ist.

Kontakt in der Hans-Böckler-Stiftung
Dr. Yvonne Lott
Expertin für Arbeitszeit, Abteilung Forschungsförderung
Tel.: 0211-7778-600
E-Mail: Yvonne-Lott@boeckler.de

Rainer Jung
Leiter Pressestelle
Tel.: 0211-7778-150
E-Mail: Rainer-Jung@boeckler.de

Weitere Informationen:
https://www.boeckler.de/pdf/p_fofoe_WP_046_2017.pdf – *Yvonne Lott: Stressed despite or because of flexible work arrangements?, Working Paper Forschungsförderung Nr. 046, Juli 2017. Download (pdf)
https://www.boeckler.de/pdf/p_fofoe_pb_003_2017.pdf – Selbst organisiertes Arbeiten als Ressource für Beschäftigte nutzen!, Policy Brief der Forschungsförderung in der Hans-Böckler-Stiftung Nr. 3, Juli

Quelle: idw

(nach oben)


PKW-Verglasung aus Plastik?

Erhard Jakobs Pressestelle
Technische Hochschule Mittelhessen

Mit dem „Crashverhalten von Automobilverglasungen aus Plexiglas“ befasst sich ein Forschungsprojekt an der TH Mittelhessen. Projektleiter ist Prof. Dr. Stefan Kolling vom Kompetenzzentrum Automotive – Mobilität – Materialforschung. Kooperationspartner sind das Institut für Statik und Konstruktion der TU Darmstadt und die Tecosim GmbH, ein international tätiger Spezialist für Computer Aided Engineering mit Sitz in Rüsselsheim. Das Land Hessen fördert das Vorhaben mit 460.000 Euro.

In der Automobilindustrie wird der Leichtbau immer wichtiger. Er verringert das Fahrzeuggewicht und reduziert so den Kraftstoffverbrauch. In Serienfahrzeugen besteht die Verglasung heute aus Mineralglas. Scheiben aus Kunststoff wie etwa Acrylglas brächten eine Gewichtsersparnis von 40 bis 50 Prozent. Weitere Vorteile liegen zum Beispiel im besseren Schutz gegen Steinschlag und in einer sehr guten Akustik.

Was bisher fehlt, ist der Nachweis der Crashsicherheit des alternativen Materials, die den Insassen- und Fußgängerschutz gewährleistet. „Bislang wurde der Einsatz von Acrylglas im Fahrzeug noch nicht systematisch wissenschaftlich in Theorie und Experiment untersucht. Dies soll in unserem Projekt erfolgen. Die Ergebnisse sollen in ein praxistaugliches numerisches Werkzeug (Simulationstool) zur Vorhersage des Crashverhaltens und zur Auslegung der Fahrzeugscheiben überführt werden“, so Kolling.

Grundlage für die Computersimulation sind experimentelle Untersuchungen der Materialeigenschaften. Die Firma Evonik, Hersteller eines Acrylglases, das unter dem Namen Plexiglas vermarktet wird, stellt dafür Proben zur Verfügung.

Aus den so gewonnenen Daten zum Materialverhalten entwickeln die Forscher ein Werkstoffmodell für die Crashsimulation. „Der Nachweis der Crashsicherheit soll mithilfe eines virtuellen Prototyps, mit dem Crashszenarien prognosesicher in der Simulation abgebildet werden können, erbracht werden. Realversuche, also Crashtests mit Dummys, werden im Fahrzeugentwicklungsprozess aus Kostengründen immer weniger durchgeführt und dienen im Idealfall nur noch zur Bestätigung der Simulation“, erläutert Kolling.

Das Simulationswerkzeug wird von Tecosim vermarktet und steht Automobilherstellern und Zulieferern für die Auslegung zukünftiger Fahrzeuge mit Acrylglasscheiben zur Verfügung. Die Kooperationspartner rechnen damit, dass es vier bis fünf Jahre nach Projektabschluss erste Serienfahrzeuge mit Kunststoffverglasungen geben wird.

Das Forschungsvorhaben am Gießener Institut für Mechanik und Materialforschung läuft zweieinhalb Jahre und hat ein Gesamtvolumen von 620.000 Euro. Es wird im Rahmen der hessischen „Landes-Offensive zur Entwicklung Wissenschaftlich-ökonomischer Exzellenz“ (LOEWE) unterstützt.

Quelle: idw

(nach oben)


Kaugummi-Schnelltest bei Entzündungen

Robert Emmerich Presse- und Öffentlichkeitsarbeit
Julius-Maximilians-Universität Würzburg

Mit einem Kaugummi frühzeitig eine Entzündung im Mund erkennen: Ein Forschungsteam der Universität Würzburg präsentiert diese Neuerung in der Zeitschrift „Nature Communications“.

Zahnimplantate ziehen bisweilen Komplikationen nach sich: Bei sechs bis fünfzehn Prozent der Patienten entsteht in den Jahren nach dem Setzen des Implantats eine Entzündung. Verursacht wird sie von Bakterien; schlimmstenfalls zerstört sie das weiche Gewebe und den Knochen rund um das Implantat.

Künftig können Patienten mit Zahnimplantaten schnell und kostengünstig feststellen, ob sich in ihrem Mund eine solche Entzündung anbahnt: mit einem Kaugummi-Schnelltest, den ein Pharmazie-Forschungsteam der Universität Würzburg entwickelt hat.

Praktisch funktioniert das so: Liegt im Mundraum eine Entzündung vor, wird beim Kauen des Kaugummis ein bitterer Geschmackstoff freigesetzt. Der Patient geht dann zu seinem Zahnarzt, der die Diagnose bestätigt und die Entzündung behandelt. Diese Art von Früherkennung sollte helfen, schwerwiegende Komplikationen wie Knochenschwund zu verhindern.

„Jeder kann dieses neue diagnostische System überall und jederzeit und ohne technisches Equipment einsetzen“, sagt Professor Lorenz Meinel, Inhaber des Lehrstuhls für Pharmazeutische Technologie und Biopharmazie an der Universität Würzburg. Er hat das neue Diagnosemittel mit Dr. Jennifer Ritzer und ihrem Team entwickelt; das Journal „Nature Communications“ stellt das Kaugummi in einem Artikel aktuell vor.

Enzyme setzen Bitterstoff frei
Die wissenschaftliche Grundlage: Bei Entzündungen werden im Mund spezifische protein-abbauende Enzyme aktiviert. Innerhalb von nur fünf Minuten zerschneiden sie auch einen speziellen Inhaltsstoff des Kaugummis. Dadurch wird ein Bitterstoff frei, der vorher nicht zu schmecken war.

Den Nachweis, dass das Konzept funktioniert, hat Meinels Team erbracht. Erste Studien mit dem Speichel von Patienten wurden an der Zahnklinik Merli in Rimini durchgeführt.

Gründung einer Firma geplant
Um das Kaugummi auf den Markt bringen zu können, plant Meinels Team die Gründung einer Firma. Der Professor geht davon aus, dass bis zur Marktreife noch zwei bis drei Jahre nach Gründung der Firma vergehen werden.

Kaugummi-Schnelltests für weitere medizinische Anwendungen befinden sich in der Entwicklung. „Wir hoffen, dass sich damit auch andere Krankheiten adressieren und frühestmöglich behandeln lassen“, erklärt Meinel.

„Diagnosing peri-implant disease targeting the tongue as 24/7 detector“, Nature Communications, 15. August 2017, DOI 10.1038/s41467-017-00340-x

Kontakt
Prof. Dr. Dr. Lorenz Meinel, Lehrstuhl für Pharmazeutische Technologie und Biopharmazie, Universität Würzburg, T +49 931 31-83765, lorenz.meinel@uni-wuerzburg.de

Quelle: idw

(nach oben)


Pepper, der neue Kollege im Altenheim

Nora Frei M.A. Stabsstelle für Presse, Kommunikation und Marketing
Universität Siegen

Der Roboter Pepper arbeitet seit kurzem an der Universität Siegen. Ein Uni-Team macht ihn fit für seinen Einsatz im Altenheim.

Er kann Pantomime spielen, High Five geben, tanzen und Witze reißen. Dabei ist Pepper ein Roboter. 1,20 Meter ist er groß und bewegt sich auf Rollen. Seine großen Augen sehen freundlich aus und leuchten in verschiedenen Farben. Er ist extra kindlich konstruiert, damit Menschen keine Angst vor ihm haben. Wenn man ihm über den Kopf streichelt, fängt er an zu kichern und spricht: „Ich bin heute so kitzelig.“ Pepper ist seit zwei Monaten im Forschungswohnzimmer (XLAB) an der Universität Siegen zu Hause. Die WissenschaftlerInnen vom Lehrstuhl für Wirtschaftsinformatik und Neue Medien (Prof. Dr. Volker Wulf) und Studierende aus dem Masterstudiengang Human Computer Interaction (HCI) haben Großes mit dem Kleinen vor: Pepper soll schon bald im Altersheim zum Einsatz kommen, soll die älteren Menschen unterhalten, mit ihnen Rätsel raten, Musik spielen und ihnen die Zeit vertreiben, wenn die Pfleger mit anderen Aufgaben beschäftigt sind.

Pepper hat Sensoren am Kopf und an den Fingern, kann hören, sehen, sprechen und sogar Stimmlagen und Emotionen erkennen. Entwickelt wurde der Roboter in Frankreich, dann nach Japan verkauft und auf den Massenmarkt gebracht. In der japanischen Sprache fühlt er sich deshalb am wohlsten. In Siegen lernt Pepper, wie er auch im Deutschen auf Alltagssituationen reagieren kann.

Einen ersten Besuch hat Pepper dem Marienheim in Siegen-Weidenau schon abgestattet. Die Heimleitung und das Pflegepersonal waren sofort begeistert, die Bewohner am Anfang eher skeptisch. Spätestens nachdem Pepper das Alter der Senioren erraten sollte und manchmal um ein paar Jahrzehnte daneben lag, war das Eis gebrochen. „Die Erfahrung zeigt, dass die Senioren sehr schnell neugierig werden und merken, dass sie Spaß mit Pepper haben können und dadurch steigt sofort die Akzeptanz“, erzählt Projektleiter Dr. Rainer Wieching. Wenn Pepper zum Beispiel anfängt zu tanzen, schauen sich die Senioren die Bewegungen ab und machen dann lachend die Armbewegungen oder Tai-Chi Übungen nach.

Der Roboter soll mit den Senioren Sturz-Prävention üben
Pantomime kann Pepper schon jetzt spielen. Die Senioren können raten und ihre Antwort auf Peppers Tablet eintippen, das am Bauch befestigt ist. In Anlehnung an das Galgenmännchen-Spiel können sie es so lange versuchen, bis das Galgenmännchen komplett ist. „In Gesprächen mit den Senioren und den Pflegekräften haben wir erfahren, dass die älteren Menschen vor allem Gedächtnis-Spiele ausprobieren möchten, um sich die Zeit zu vertreiben. Also haben wir extra für diese Bedürfnisse etwas programmiert“, erklärt Dr. Wieching. Eine studentische Gruppe aus dem HCI-Masterstudiengang hat in seinem Seminar die Funktionen dafür entwickelt. „Uns ist besonders wichtig, dass wir immer vorab mit den Nutzern sprechen, um deren Bedürfnisse und Alltagspraktiken zu erfahren. Wir können uns nur bedingt in ihre Welt hineinversetzen, also sagen die Senioren und Pflegekräfte uns, was sie sich wünschen und was ihr Leben einfacher machen kann.“

Pepper soll nicht nur gute Laune verbreiten. Er soll den Senioren in Zukunft auch dabei helfen, körperliche Übungen zur Prävention von Stürzen durchzuführen. Der Roboter soll die Senioren aktiv ansprechen und zum Mitmachen motivieren, die Übungen erklären und mit positiven Kommentaren oder Tipps helfen.

Roboter sollen Pflegekräfte niemals ersetzen
In Japan ist der demographische Wandel bereits deutlich weiter fortgeschritten als im Rest der Welt. Dort arbeitet Pepper auch schon in Shops und Supermärkten, zeigt den Kunden den Weg zum Produkt oder informiert über Preise und Inhaltsstoffe. Manche Familien haben ihn sogar schon privat gekauft und leben mit ihm zu Hause. Generell seien Japaner Robotern gegenüber anders eingestellt als Deutsche, sagt Dr. Wieching und erklärt die kulturellen Unterschiede: „Viele Japaner glauben, dass auch Dinge eine Seele haben können, Roboter also auch. Deutsche fühlen sich eher durch die Technik bedroht und haben Angst, dass der Roboter wie im Science-Fiction Film dem Menschen gefährlich werden kann.“ Viele Pflegekräfte hätten auch Bedenken, dass die Roboter ihnen Arbeitsplätze wegnehmen würden. „Wir wollen Pflegekräfte niemals ersetzen“, sagt Wieching. Roboter und Menschen sollten vielmehr hybride Teams bilden und sich gegenseitig ergänzen.

Damit das klappt, müssten die Pflegekräfte den Roboter einfach und schnell über eine App auf die Bedürfnisse der Patienten einstellen können. Der Roboter muss sich gegenüber einer dementen Person zum Beispiel anders verhalten als bei jemanden, der nicht mehr gut gehen kann. „Das Ziel muss sein, dass Laien ohne Programmier- oder IT-Kenntnisse Pepper bedienen und konfigurieren können“, meint der Projektleiter. Daran arbeiten er und sein Team.

Was passiert, wenn Roboter immer stärker in unser Privatleben eintreten?
Das Rad neu erfinden, wollen sie bei alldem nicht. Die Siegener setzen vor allem auf Kooperationen mit der Fachhochschule Kiel und der Waseda Universität in Tokio, Japan. Die Japanischen Partner forschen gerade daran, wie die Akzeptanz der Menschen gegenüber Robotern im Alltagsleben noch erhöht werden kann, wenn diese zum Beispiel spirituelle Musik oder religiöse Symbole aus dem japanischen Kulturkreis benutzen, um die Menschen besser zu erreichen. „Wir müssen noch viel gemeinsam forschen, bis die Roboter uns semi-autonom oder sogar in Teilbereichen voll-autonom in der Pflege unterstützen können“, sagt Dr. Wieching. Es gehe in der Zukunft dann viel mehr auch um ethische, rechtliche und soziale Fragestellungen, nicht nur um Robotik-Programmierung.

An den Namen Pepper sollte sich der Siegener Roboter übrigens nicht allzu sehr gewöhnen. Denn beim Sommerfest des Marienheims am 27. August dürfen die Bewohner und Gäste ihm einen neuen Namen geben.

Kontakt
Dr. Rainer Wieching
Wirtschaftsinformatik und Neue Medien
rainer.wieching@uni-siegen.de
0271 740-3019

Quelle: idw

(nach oben)


Neuer Malaria-Wirkstoff erfolgreich getestet

Dr.rer.nat. Arne Claussen Stabsstelle Kommunikation
Heinrich-Heine-Universität Düsseldorf

Forscher vom Institut für Pharmazeutische und Medizinische Chemie der Heinrich-Heine-Universität Düsseldorf (HHU) um Prof. Dr. Thomas Kurz haben eine optimierte Leitstruktur mit Wirkung gegen Plasmodien, die Erreger der Malaria, erfolgreich im Tierversuch getestet. Leitstrukturen sind Moleküle, die als Ausgangspunkt für die Entwicklung eines Arzneistoffes dienen. Die Ergebnisse wurden bereits in der Zeitschrift Journal of Medicinal Chemistry veröffentlicht.

Die Krankheit Malaria wird durch Blutparasiten aus der Familie der Plasmodien verursacht, die durch den Stich der weiblichen Anopheles-Mücke auf den Menschen übertragen werden. Die Malariaerreger durchlaufen verschiedene Entwicklungsstadien – sowohl innerhalb des Menschen als auch in der Mücke: Nach dem Stich wandern die Erreger über die Blutbahn in die Leber und vermehren sich dort zunächst symptomfrei. Im zweiten Stadium befallen die Erreger rote Blutkörperchen. Dieses Stadium geht unter anderem mit schweren Fieberschüben einher. Im dritten Stadium entstehen geschlechtliche Formen, die bei einer erneuten Blutmahlzeit wieder auf die Mücke übertragen werden können und für die Verbreitung der Malaria verantwortlich sind.

Der Kampf gegen die Malaria ist unter anderem deshalb komplex, weil die verschiedenen Entwicklungsstadien gegenüber speziellen Arzneistoffen empfindlich sind und die Parasiten sehr schnell Resistenzen entwickeln. Ein effektiver Impfstoff existiert bisher nicht; und auch die Einführung des letzten bedeutenden Arzneistoffes Atovaquon liegt 25 Jahre zurück.

Die gefährlichste humanpathogene Plasmodienart ist Plasmodium falciparum, dagegen infiziert Plasmodium berghei nur Nagetiere, wie etwa die Maus.

Prof. Dr. Thomas Kurz vom HHU-Institut für Pharmazeutische und Medizinische Chemie hat mit seinen Mitarbeitern Michael Leven und Tanja Knaab sowie verschiedenen deutschen und internationalen Kollegen eine neue Verbindungsklasse, die Hydrazonamide entwickelt und deren Wirksamkeit im Tiermodell erfolgreich gezeigt. Die Studien erfolgten in der Arbeitsgruppe von Dr. Sergio Wittlin in Basel mit Mäusen, die mit Plasmodium berghei infiziert waren.

„Der Prototyp dieser neuen Verbindungsklasse wurde zusammen mit Prof. Dr. Detlef Geffken im Institut für Pharmazie in Hamburg während meiner Habilitation im Jahr 2007 entdeckt“, erinnert sich Prof. Kurz. Die Leitstruktur aus der Klasse der Hydrazonamide ähnelt strukturell dem Chinin, dem ältesten bekannten Malaria-Wirkstoff. Wie der Wirkstoff wirkt, wo im Parasiten er genau ansetzt, ist noch Gegenstand weiterer Forschung. Die neue Leitstruktur brachte Prof. Kurz mit nach Düsseldorf und arbeitet in seiner Arbeitsgruppe seitdem an seiner Weiterentwicklung. Die lange Dauer zwischen Entdeckung und dem jetzt publizierten Erfolg beim Wirksamkeitstest zeigt, wie zeitaufwendig die moderne, interdisziplinäre Wirkstoffforschung ist. Bis der Wirkstoff schließlich am Menschen erprobt werden kann sind weitere präklinische Untersuchungen notwendig. „Einer der nächste Schritte wäre es, die Testsubstanz Mäusen zu applizieren, die mit dem humanpathogenen Erreger Plasmodium falciparum infiziert sind“, so Tanja Knaab. Dazu ist jedoch ein spezielles Mausmodell notwendig, welches recht kostenintensiv ist.

Grundsätzlich ist der vielstufige, gesetzlich vorgeschriebene Prozess von einem Wirkstoffkandidaten bis hin zum Arzneistoff, der für die Anwendung am Menschen bestimmt ist, extrem teuer und aufwendig. Ein Universitätsinstitut alleine kann sich diesen Aufwand nicht leisten. Es muss mit Entwicklungszeiten von über zehn Jahren und Kosten von über einer Milliarde Euro gerechnet werden.

Die Entwicklung eines neuen Malariamittels ist für Pharmaunternehmen allerdings wirtschaftlich nicht sehr interessant, da Malaria vornehmlich in wirtschaftlich schwachen Regionen auftritt. Wichtige Arbeit für die Malariawirkstoffforschung und -entwicklung leistet die Non-Profit-Organisation „Medicines for Malaria Venture“. Auf ihr Wirken ging in den vergangenen Jahren unter anderem die Entwicklung verschiedener Artemisinin-basierter Kombinationstherapien zurück, die aktuell die beste Wirkung auch gegen resistente Stämme zeigen.

Originalpublikation
M. Leven, T. Knaab, J. Held, S. Duffy, S. Meister, C. Fischli, D. Meitzner, U. Lehmann, B. Lungerich, K. Kuna, P. Stahlke, M. Delves, M.Buchholz, E. Winzeler, V. Avery, B. Mordmüller, S. Wittlin, & T. Kurz, 3-Hydroxy-N‘-arylidenepropanehydrazonamides with halo-substituted phenanthrene scaffolds cure P. berghei-infected mice when administered perorally, J. Med. Chem., 2017, 60 (14), 6036-6044.
DOI: 10.1021/acs.jmedchem.7b00140

Weitere Informationen:
http://pubs.acs.org/doi/abs/10.1021/acs.jmedchem.7b00140

Quelle: idw

(nach oben)


Value from wastewater

Ulrike Schnyder Presse- und Öffentlichkeitsarbeit
Hochschule Landshut

Sewage sludge contains lots of valuable elements which are prized as fertiliser for use in agriculture. Phosphorus in particular is an important nutrient for plants. Researchers at Landshut University of Applied Sciences are therefore looking at ways in which wastewater treatment facilities can use sewage sludge effectively, particularly in rural areas. They are doing this in conjunction with partners based in the Czech Republic.

The sludge that settles in sedimentation tanks is full of valuable substances like phosphorus, nitrogen or potassium. For this reason, it is often used in agriculture as fertiliser on fields. However, the sewage sludge also often contains contaminants which are harmful to the environment and health such as microplastics, heavy metals like copper or zinc, hormone disrupters such as plasticisers, or pharmaceutical residues. According to the coalition agreement between the parties of the German federal government, spreading sewage sludge as fertiliser is to be discontinued and instead the compounds containing phosphorus are to be recovered for subsequent use in fertilisers.

Recovering phosphates from sewage sludge
„Phosphorus is a finite resource and easily accessible reserves are expected to be depleted in the next 80 to 120 years. German wastewater potentially contains around 70,000 tonnes of phosphorus which could be recovered each year, whereas Germany alone consumes some 120,000 tonnes per year,“ explains Prof. Diana Hehenberger-Risse from the Technology Centre for Energy at Landshut University of Applied Sciences. It is now mandatory for large wastewater treatment plants to recycle phosphorus. This could also make ecological sense for smaller facilities. However, according to Hehenberger-Risse, „The modifications required to recover phosphates are technically complex and require massive investment on the part of smaller sewage plants. To make it worthwhile and ensure that sewage charges don’t skyrocket, municipal authorities need to cooperate and find a joint solution.“ To find out what that could be, the environmental scientist is working on a research project known as greenIKK. Partners on the project include her colleague at Landshut, the chemist Prof. Josef Hofmann, IKOM Stiftland (a special purpose association) and the Czech Forestry and Game Management Research Institute. The Landshut faculties for Mechanical Engineering and Interdisciplinary Studies also participate substantially in the project. Together their objective is to use sewage sludge effectively. „This reduces the emission of greenhouse gases and increases resource efficiency,“ says Hehenberger-Risse. The project is scheduled to run until the end of 2019 and is being financed by the European Regional Development Fund.

The objective: to use sewage sludge effectively
The researchers are focusing on the district of Tirschenreuth in Bavaria and the neighbouring region of Tachov/Cheb in Czechia. „Among other things, we are looking at how to recover phosphorus, nitrogen and trace elements from wastewater and sewage sludge in a commercially and ecologically viable way,“ explains Hofmann. „Our Czech partners are assisting us with chemical analysis. As well as measuring the phosphorus content, they will be determining its quality as a fertiliser, i.e. how easily plants can utilise it.“

Often some of the sewage sludge from facilities is dried and incinerated. Phosphorus can also be extracted from the ash. A complex process of drying is necessary to ensure that the sludge burns readily. „That requires a lot of energy,“ says Hehenberger-Risse. With the project partners she therefore wishes to test whether wastewater treatment plants can use solar power for drying purposes and if so which ones. They are also exploring whether it makes sense for plant operators to join forces and dry sludge from various local authorities at central facilities.

Small wastewater treatment plants need to be both ecologically and economically sound
„To date, there have only been studies about disposing of sewage sludge and which deal with some aspects of specific wastewater treatment sites, towns, cities or administrative districts. This project is designed to consider methods of disposal and related options by taking an integrated, holistic approach,“ says Hehenberger-Risse in summary. At the end of the project, she and her colleagues will draw up recommendations for action enabling participating authorities in Germany and the Czech Republic to make good, common use of sewage sludge across borders from both an ecological and economic perspective. According to Hehenberger-Risse, „This can then likewise benefit other communities in neighbouring regions.“

Quelle: idw

(nach oben)


Bei Stress im Job greifen Berufstätige verstärkt zu ungesunden Snacks

Katja Bär Pressestelle: Kommunikation und Fundraising
Universität Mannheim

Wer Stress im Beruf hat, nascht zwischendurch häufiger Süßigkeiten. Das ist das Ergebnis einer kürzlich veröffentlichten Studie von Psychologinnen und Psychologen der Universität Mannheim. Nun untersuchen die Forscherinnen und Forscher, wie Smartphones und Bewegungstracker helfen können, sich im Arbeitsalltag trotzdem gesunder zu ernähren. Für die Studie werden noch Teilnehmer gesucht.

Sei es wegen der Hitze oder der Strandfigur – gerade im Sommer entscheiden sich viele Menschen bewusst für eine gesunde, leichte Ernährung. Doch schaffen es Berufstätige auch im stressigen Arbeitsalltag, auf das Eis am Nachmittag zu verzichten und stattdessen zum Apfel zu greifen? Mit dieser Frage beschäftigte sich ein Team von Mannheimer Arbeits- und Organisationspsychologen um Prof. Dr. Sabine Sonnentag in einer Studie, die kürzlich im Journal of Applied Psychology erschienen ist.

Für die Studie wurden 247 berufstätige Personen aus verschiedenen Organisationen zu ihren Arbeitsbedingungen und ihrem Snacking-Verhalten befragt. Das Ergebnis: Die Berufstätigen greifen vor allem dann zu ungesunden Snacks wie Eis oder Schokoriegeln, wenn sie ihre schlechte Laune kompensieren möchten. Die wiederum wird oft ausgelöst durch hohe Arbeitsanforderungen und Stress im Beruf „Müssen sie sich bei der Arbeit stark zusammenreißen, um ihre Aufgaben zu bewältigen, fällt es vielen Menschen schwerer, auch noch auf ungesunde Snacks zu verzichten“, erklärt Professorin Sonnentag diesen Fund. Und so greifen Menschen an solchen Tagen am Arbeitsplatz verstärkt zu Süßigkeiten.

Zu Obst und anderen gesunden Snacks griffen die Teilnehmer hingegen eher an Tagen, an denen sie besonders auf ihre Gesundheit achten wollten.
„Interessanterweise nimmt der Wunsch nach gesunder Ernährung nicht ab, nur weil man hohen Anforderungen ausgesetzt ist“, so Professorin Sonnentag weiter. So scheint es Berufstätigen leichter zu fallen, auch an stressigen Tagen zu gesunden Snacks zu greifen, wenn eine gesunde Ernährungsweise im Unternehmen vorgelebt und vom Arbeitgeber gefördert wird.

Aktuell führt das Team um Prof. Dr. Sabine Sonnentag eine weitere Studie zu Snacking und körperlicher Aktivität im Arbeitsalltag durch. „Dabei wollen wir überprüfen, wo genau die Hürden für ein gesünderes Verhalten im Arbeitsalltag liegen und wie sich smarte Technologien nutzen lassen, um dennoch gesundheitsbewusster zu leben“, so Sonnentag.

Kontakt:
Dr. Alexander Pundt
Projektkoordination
Lehrstuhl für Arbeits- und Organisationspsychologie Universität Mannheim Tel. +49 (0) 621 / 181 – 2116
E-Mail: alexander.pundt@uni-mannheim.de

Prof. Dr. Sabine Sonnentag
Projektleitung
Lehrstuhl für Arbeits- und Organisationspsychologie Universität Mannheim
E-Mail: sonnentag@uni-mannheim.de

Katja Bär
Leitung Kommunikation und Fundraising
Pressesprecherin
Universität Mannheim
Tel. +49 (0) 621 / 181-1013
E-Mail: baer@uni-mannheim.de

Quelle: idw

(nach oben)


Bessere Wahlprognosen mit Hilfe von Künstlicher Intelligenz

Nico Damm Hochschulkommunikation
Hochschule Darmstadt

Künstliche Intelligenz (KI) könnte künftig besser und genauer die Parteipräferenzen von befragten Bürgerinnen und Bürgern vorhersagen, sagt Prof. Dr. Ingo Hamm von der Hochschule Darmstadt (h_da). Der Professor am Fachbereich Gesellschaftswissenschaften hat die repräsentativen Daten von 4.000 nach ihrer Werthaltung befragten Bundesbürgern nicht mit Hilfe von statistischen Verfahren, sondern mit einer lernenden KI ausgewertet. Die KI schloss aus Werthaltungen, welche Partei die Befragten wählen könnten. Das Ergebnis: Mit nur 15 „Kernfragen“ kann die Nähe zu einer bestimmten Partei sehr gut vorhergesagt werden. Dies könnte in Zukunft die Wahlforschung erleichtern.

Viele Wahlforscher fragen Bürgerinnen und Bürger direkt nach deren Parteipräferenz, wobei diese womöglich nicht ehrlich antworten und somit das Ergebnis verfälschen. Vielleicht liegen sie deshalb erstaunlich oft daneben – siehe Brexit oder die jüngste US-Wahl. Einen neuen Ansatz nutzt Prof. Dr. Ingo Hamm: Er fütterte ein lernendes Computersystem mit einem repräsentativen Datensatz aus aktuellen Befragungen von rund 4.000 Bundesbürgern zu Werthaltungen und Lebensumständen. Die Daten stammen von Befragungen, die Hamm im Laufe des Jahres aus verschiedenen Studien zusammengeführt hat. Die trainierte Künstliche Intelligenz besteht aus einem Neuronalen Netz, also extrem vielen miteinander vernetzten mathematischen Funktionen. Dieses „künstliche Gehirn“ lernt durch viele Durchläufe mit Daten, die Realität abzubilden und vorherzusagen.

Datengrundlage waren Fragen zu Werthaltungen und Einstellungen sowie weitere Antworten zu Beruf und Alter. Erst zum Schluss der Befragungen wurde auch nach einer Parteipräferenz für CDU, SPD, FDP, Grüne, Linke oder AfD gefragt. Zentrales Ergebnis: „Soziale Gerechtigkeit kann insgesamt alle Parteipräferenzen erklären“, sagt Hamm. Somit sei es eines der wenigen grundlegenden Themen, bei der jede der untersuchten Parteien punkten könnte. „Auch die Bereiche Entfremdung und Verdrossenheit haben große Erklärungskraft“, sagt Hamm. Meinungen wie „Es ist egal, wen man wählt, es ändert sich ja sowieso nichts“ finden am wenigsten bei CDU- und SPD-Wählern Zustimmung, am meisten bei AfD-Wählern, aber auch erstaunlich viel unter Anhängerinnen und Anhängern der Linken, Grünen und teilweise auch FDP.

Insgesamt stellte Hamm einen großen Pragmatismus in der Wählerschaft fest. Damit erklärt sich der Wissenschaftler auch die beachtliche Zahl an CDU-Sympathisanten selbst bei Minderjährigen. Dies könne an „Merkels Strahlkraft des Pragmatismus“ liegen. Jedenfalls ließen sich junge Wähler wohl nicht von grundlegenden Wertediskussionen oder dem aus der Vergangenheit geprägten Image einer Partei beeinflussen.

„Die künstliche Intelligenz ist in der Lage, die entscheidenden Werthaltungen der Bürger in den Daten zu erkennen, die zu einer Zu- oder Abneigung gegenüber einer Partei führen“, erläutert Hamm. Er hat die Ergebnisse des neuronalen Netzes auf Wertemuster hin interpretiert und fasst in Stichpunkten zusammen, was die Anhängerinnen und Anhänger der Parteien beschäftigt:
• CDU: Pragmatismus ohne zugespitzte Werthaltung mitten im Leben stehen, eigen- und selbständig sein, aktiv sein, das eigene Leben verbessern
• SPD: soziale Gerechtigkeit und – fast noch stärker ausgeprägt – kulturelle Offenheit, involviert, aktiv und interessiert sein
• FDP: Wirtschaft, Finanzen, Konsum, Ich-Optimierung, Erlebnis, Modernität (Internet…)
• B90/Grüne: kulturelle Offenheit, Natur/Natürlichkeit und Fairness, Reduktion und
eine gewisse Konsumverweigerung – soziale Gerechtigkeit nur durchschnittlich relevant
• Die Linke: soziale Gerechtigkeit, kulturelle Offenheit, der fürsorgende Staat, ein leichtes Gefühl der Entfremdung und Gängelung, teilweise Ausstiegsphantasien
• AfD: Gefühl der Entfremdung, Verdrossenheit, tief empfundene Ungerechtigkeit/soziale Benachteiligung, Abgehängtsein bei gleichzeitigem Gefühl der Leistungsfähigkeit, Konsumfreude (sich was leisten), Individualismus

Künftige Wahlforschung könnte ausschließlich aus Fragen bestehen, die sich um wenige Kernwerte drehen, sagt Hamm: Aus 70 abgefragten Werthaltungen destillierte die Künstliche Intelligenz 15 Meinungen heraus, die einen Großteil der Parteipräferenzen erklären. Sprich: Statt sich künftig durch lange Fragebögen oder einen „Wahl-o-mat“ zu quälen, könnte eine Prognose oder Wahlempfehlung viel schneller abgegeben werden. „Vor allem umgeht man so die direkte Befragung von Bürgern nach ihrem Wahlverhalten und kann somit die soziale Erwünschtheit bei Umfragen vermeiden“, erklärt Hamm. Hier sieht er großes Potenzial für die Meinungsforschung, die noch so gut wie gar nicht auf Künstliche Intelligenz setze.

Für eine Prognose zur Bundestagswahl eigne sich die aktuelle Studie allerdings nicht: „Hier wurden nur Sympathien für oder gegen Parteien abgefragt, aber etwa keine Einschätzung von Politikern oder tagesaktuelle Themen.“ Allerdings könne man die KI mit neuen Daten füttern und nach der Wahl mit realen Wahlergebnissen abgleichen, um sie noch besser zu machen. Hamms Ziel: Mit neuen Forschungsprojekten die KI noch weiter zu trainieren.

Quelle: idw

(nach oben)


Klimawandel: Bäume binden im Alter große Mengen Kohlenstoff

Birgit Kruse Referat Medien- und Öffentlichkeitsarbeit
Universität Hamburg

Auch alte Bäume nehmen viel Kohlenstoff auf und entziehen der Atmosphäre damit CO2 (Kohlendioxid). Dies wurde jetzt erstmals anhand von Bäumen aus dem Regenwald in Surinam nachgewiesen, wie Professor Michael Köhl vom Centrum für Erdsystemforschung und Nachhaltigkeit (CEN) der Universität Hamburg im Fachjournal PLOS ONE berichtet. Damit leisten diese einen wichtigen Beitrag zum Klimaschutz.

Michael Köhl und sein Team konnten zeigen, dass alte Bäume im letzten Viertel ihres Lebens zwischen 39 und 50 Prozent ihres gesamten Kohlenstoff-Anteils aufnehmen. Bisher galten ältere Bäume in dieser Hinsicht als wenig effektiv. Zwar lagern sie über die Jahre den gespeicherten Kohlenstoff (C) dauerhaft in Stamm und Ästen ein. Unklar war aber, ob sie noch maßgeblich neues C aufnehmen können.

Das Team untersuchte 61 Bäume dreier Arten im Alter zwischen 83 und 255 Jahren. Sie stammen aus einem Gebiet mit bisher unberührtem Regenwald in Surinam, das durch die dortige Regierung zur Abholzung bestimmt wurde. Die mächtigen Baumscheiben wurden zur Altersbestimmung nach Hamburg gebracht. Über die Dicke der Wachstumsringe bestimmte Köhls Kollegin Dr. Neda Lotfiomran den jährlichen Zuwachs. Aus Höhe und Durchmesser berechnete Köhl dann das Reingewicht, also die Biomasse, eines jeden Baumes. Davon besteht wiederum die Hälfte aus Kohlenstoff. In Kombination mit den Jahresringen lässt sich ermitteln, in welchem Alter der Baum wieviel C aufgenommen hat.

Fazit: Tropenbäume sind bis ins hohe Alter äußerst produktiv. „Die Ergebnisse lassen sich auf europäische Bäume übertragen“, sagt Köhl. „Auch wenn die Wälder ganz unterschiedlich sind.“ Die neue Studie zeigt deutlich, dass in den Tropen jeder Baum ganz individuell wächst. Wachstum und Größe sind nicht so sehr vom Alter abhängig, vielmehr von Zufällen und günstigen Bedingungen. Manch ein Baum wartet als Pflänzchen in der dunklen Zone am Boden jahrelang. Dann knickt ein Nachbarbaum um, der Weg zum Licht ist frei. Der Baum kann in kurzer Zeit nach oben schießen und sich in etwa 40 Metern Höhe einen dauerhaften Platz an der Sonne sichern.

In Europa gibt es dagegen fast ausschließlich bewirtschaftete Wälder, häufig Monokulturen. In diesen haben alle Pflanzen etwa die gleiche Größe – und werden aufgrund von Konkurrenz um Nahrung und Licht tatsächlich alle etwa gleichzeitig unproduktiv. Sie werden gefällt und das aufgenommene C kann zum Beispiel in Holzmöbeln langfristig weiter gespeichert bleiben. Es entsteht Platz für junge Bäume, die wiederum CO2 abbauen und Kohlenstoff einlagern – eigentlich ein klimafreundlicher Kreislauf.

Für die Artenvielfalt kann es dennoch sinnvoll sein, Flächen mit bewirtschafteten Wäldern wieder in Naturwälder umzuwidmen. Manchmal formiert sich dagegen Widerstand. „Wer dagegen ist, argumentiert oft mit dem Klimaschutz. Wenn wir die Ergebnisse auf Europa übertragen, lässt sich dieses Argument jetzt entkräften“, sagt Köhl. Denn in naturbelassenen Mischwäldern mit alten und jungen Bäumen können auch bei uns die Pflanzen bis ins hohe Alter CO2 aus der Atmosphäre abbauen.

Fachartikel:
Köhl M, Neupane PR, Lotfiomran N (2017) The impact of tree age on biomass growth and carbon accumulation capacity: A retrospective analysis using tree ring data of three tropical tree species grown in natural forests of Suriname. PLoS ONE 12(8): e0181187. https://doi.org/10.1371/journal.pone.0181187

Weitere Informationen:
http://www.uni-hamburg.de/newsroom/presse/2017/pm63.html

Quelle: idw

(nach oben)


Arbeitslosigkeit – Gefahr für die psychische Gesundheit

Dr. Thomas Nesseler Presse- und Öffentlichkeitsarbeit
Deutsche Gesellschaft für Arbeitsmedizin und Umweltmedizin e.V.

Arbeitslosigkeit kann krank machen. Daten des aktuellen BKK-Gesundheitsreports belegen, dass stressbezogene Symptome, Depressionen, Angst und psychosomatische Beschwerden bei Arbeitslosen häufiger diagnostiziert werden als bei Berufstätigen. Trotz erfolgreicher Maßnahmen bestehen weiterhin Umsetzungsdefizite bei der Prävention und beruflichen Wiedereingliederung für Menschen mit psychischen Erkrankungen. Die Zusammenarbeit von Psychotherapeuten und Arbeitsvermittlung sollte daher verbessert werden.

Gesundheitliches Risiko Arbeitslosigkeit
Studien belegen: Psychische Erkrankungen können das Risiko eines Arbeitsplatzverlustes erhöhen. Doch der umgekehrte Fall ist keine Seltenheit, wie Dr. Dietrich Munz, Präsident der Bundesärztekammer betont: „Durch die Arbeitslosigkeit können sich die psychischen Beschwerden dann verstärken oder die Arbeitslosigkeit kann psychische Beschwerden verursachen.“ Die Betroffenen befinden sich dann in einem Teufelskreis, aus dem sie ohne professionelle Unterstützung nicht mehr herausfinden.

Psychische Belastung bei Verlust des Arbeitsplatzes
Für viele Betroffene ist der Verlust des Arbeitsplatzes eine schwere Belastung. Arbeit ist zeitstrukturierend, sinnstiftend, statusvermittelnd, sozialisierend sowie zielführend. Bei Verlust des Arbeitsplatzes kommen zu den finanziellen Sorgen Motivationsprobleme und Antriebsschwäche hinzu. Das Zusammenspiel dieser Komponenten erschwert oft die Arbeitssuche.

Gute Chancen bei Prävention
Die wichtigste Präventionsmaßnahme ist die Vermittlung einer neuen Beschäftigung. Das Präventionsgesetzt hat daher die Rahmenbedingungen zur Förderung der psychischen Gesundheit von Arbeitslosen verbessert. In Modellprojekten wie „JobFit“ oder „AktivA“ werden Arbeitslose in Stressmanagement, Bewegung, Ernährung und sozialer Kompetenz geschult. Die Ergebnisse zeigen positive Effekte auf Gesundheit und Lebensqualität der Teilnehmer.

Beratung kann verbessert werden
Defizite gibt es laut Dr. Dietrich Munz noch bei der Kooperation zwischen Arbeitsvermittlern, Psychotherapeuten und Betriebsärzten. Mitarbeiter in Jobcentern sollten daher geschult werden, um besser auf die Bedürfnisse von Menschen mit psychischen Beschwerden eingehen zu können. Eine motivierende Ansprache ist unter Umständen hilfreicher als die Betonung der Mitwirkungspflicht. Der berufliche Wiedereinstieg ist für die Betroffenen meist anstrengend. Betriebsärzte und Psychotherapeuten können diesen erleichtern, indem sie beratend zur Seite stehen. Sie sollten daher stärker von Unternehmen einbezogen werden, um geeignete Maßnahmen für psychisch Erkrankte zu erarbeiten.

Psychische Erkrankungen und gesellschaftliche Akzeptanz
Aus Angst vor Stigmatisierung verheimlichen viele Menschen ihre psychischen Probleme und suchen sich keine professionelle Hilfe. Unerlässlich ist daher eine bessere Aufklärung der Bevölkerung und Bekämpfung von Vorurteilen. Nur so können psychisch kranke Menschen eine bessere Chance auf Wiederbeschäftigung entsprechend ihrer Möglichkeiten erhalten.

Mehr zum Thema „Arbeitslosigkeit und psychische Gesundheit“ lesen Sie im Beitrag von Dr. Dietrich Munz in der aktuellen Ausgabe der Zeitschrift „Arbeitsmedizin, Sozialmedizin und Umweltmedizin“ (ASU): https://www.asu-arbeitsmedizin.com

Fachlicher Kontakt bei Rückfragen:
Alfons W. Gentner Verlag GmbH & Co. KG
Patrick Hagemann, Verlagsleiter Medizin
Forststr. 131
70193 Stuttgart
Tel. 0711/ 63 672-851
Fax 0711/ 63 672-751
Email: hagemann@gentner.de
http://www.gentner.de

Über ASU – Zeitschrift für medizinische Prävention:
Die Zeitschrift „Arbeitsmedizin, Sozialmedizin, Umweltmedizin“ ist das Leitmedium der deutschsprachigen Arbeitsmedizin. Das Publikationsorgan der Fachinstitutionen DGAUM, ÖGA, SGARM, VDBW, Vereinigung Deutscher Staatlicher Gewerbeärzte e.V. sowie der arbeitsmedizinischen Akademien und richtet sich an Betriebsärzte, Arbeitsmediziner und Akteure in wichtigen Schnittstellenbereichen zur Arbeitsmedizin. Die Zeitschrift ist peer reviewed. 1965 gegründet, erscheint ASU monatlich und erreicht nahezu alle arbeits- und präventionsmedizinisch orientierten Akteure im deutschsprachigen Raum. Weitere Informationen unter www.asu-arbeitsmedizin.com

Über DGAUM:
Die DGAUM wurde 1962 gegründet und ist eine gemeinnützige, wissenschaftlich-medizinische Fachgesellschaft der Arbeitsmedizin und der klinisch orientierten Umweltmedizin. Ihr gehören heute über 1000 Mitglieder an, die auf dem Gebiet der Arbeitsmedizin und Umweltmedizin arbeiten, vor allem Ärztinnen und Ärzte, aber auch Angehörige anderer Berufsgruppen wie etwa Natur- und Sozialwissenschaftlerinnen und -wissenschaftler. Die Mitglieder der Fachgesellschaft engagieren sich nicht nur in Wissenschaft und Forschung, um so bereits bestehende Konzepte für die Prävention, die Diagnostik und Therapie kontinuierlich zu verbessern, sondern sie übernehmen die ärztliche und medizinische Beratung von Arbeitgebern und Arbeitnehmern an der Schnittstelle von Individuum und Unternehmen. Darüber hinaus beraten die Mitglieder der DGAUM alle Akteure, die ihren Beitrag zu der medizinischen Versorgung leisten und auf Fachwissen aus der betrieblichen Gesundheitsförderung und Prävention, der arbeits- und umweltbezogenen Diagnostik und Therapie, der Beschäftigungsfähigkeit fördernden Rehabilitation sowie aus dem versicherungsmedizinischen Kontext angewiesen sind.

Weitere Informationen unter:
http://www.dgaum.de

Quelle: idw

(nach oben)


Müll im Meer: Wo kommt nur das ganze Plastik her?

Dr. Barbara Hentzsch Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Ostseeforschung Warnemünde

Das neue BMBF-Projekt „MicroCatch_Balt“ untersucht am Beispiel der Warnow, aus welchen Quellen in den Einzugsgebieten der Ostseezuflüsse Plastikpartikel in Richtung Meer transportiert werden.

Überall dort, wo unsere Strände nicht jeden Tag gesäubert werden, ist es offensichtlich: das Meer wirft neben Algen und Muschelschalen auch Müll auf den Strand. Untersuchungen im Spülsaum bringen neben Zigarettenkippen auch jede Menge großer, kleiner und kleinster Plastikpartikel zum Vorschein. Woher kommt der Unrat? Man weiß bereits, dass im Mündungsbereich von Flüssen die Belastung der Küstengewässer durch Plastikpartikel ansteigt. Irgendwo auf der Strecke zwischen Quelle und Mündung müssen also Verursacher angesiedelt sein. Das Spektrum an möglichen Quellen ist groß und damit verbunden auch die Bandbreite der verschiedenen Plastikarten, die in die Umwelt gelangen kann.

Am 1. August startete offiziell ein neues Projekt unter Förderung des Bundesministeriums für Bildung und Forschung (BMBF), das sich zum Ziel gesetzt hat, am Beispiel der Warnow die unterschiedlichen Quellen von Plastikpartikeln in den Zuflüssen der Ostsee herauszufinden. Das Konsortium, das sich zu diesem Zweck um Projektleiter Dr. Matthias Labrenz (IOW) zusammengefunden hat, besteht aus Umweltwissenschaftlern, Modellierern, Informatikern, Geowissenschaftlern, Agrarwissenschaftlern und Kommunikationsexperten. Gemeinsam wollen sie die relevanten Verbreitungsprozesse auf dem Weg zum Meer exemplarisch erfassen und Hotspots identifizieren. Am Ende werden die Erkenntnisse im Rahmen einer Wanderausstellung in Städten und Gemeinden entlang der deutschen Ostseeküste vorgestellt. Am 7. und 8. August 2017 trafen sich die Projektpartner zum ersten Mal in Warnemünde, um ihre Arbeitspläne aufeinander abzustimmen und gemeinsame Aktivitäten zu planen.

Zum Konsortium gehören:
• Leibniz-Institut für Ostseeforschung Warnemünde (verantwortlich für die Koordination, die Probenahme entlang der Warnow und an der Küste nach Extremereignissen, die Ausstellungskonzepte)

• Leibniz-Institut für Polymerforschung Dresden (verantwortlich für die Bestimmung von Menge und Art der Mikroplastik Partikel in den Proben)

• Forschungszentrum Jülich (verantwortlich für die Modellierung des Mikroplastikeintrags aus diffusen Eintragspfaden und Punktquellen unter Einbeziehung der hydrologischen Gegebenheiten im Einzugsgebiet der Warnow)

• Thünen-Institut für Ländliche Räume, Braunschweig (verantwortlich für die Identifizierung von potentiellem Mikroplastik Eintrag aus landwirtschaftlich genutzten Flächen)

• Fraunhofer-Institut für Graphische Datenverarbeitung (verantwortlich für die Entwicklung einer MultiTouch-Anwendung für die Wanderausstellung)

Das Projekt wird in den kommenden 3 Jahren mit insgesamt 1,7 Mio Euro durch das BMBF im Rahmen des FONA Programmes „Plastik in der Umwelt“ gefördert.

Kontakt:
PD Dr. Matthias Labrenz (Projektleitung), Leibniz-Institut für Ostseeforschung Warnemünde, Tel.: 0381 5197 378, E-mail: matthias.labrenz@io-warnemuende.de

Franziska Klaeger (Projektkoordination), Leibniz-Institut für Ostseeforschung Warnemünde, Tel.: 0381 5197 249, E-mail: franziska.klaeger@io-warnemuende.de

Dr. Barbara Hentzsch (Presse- und Öffentlichkeitsarbeit), Leibniz-Institut für Ostseeforschung Warnemünde, Tel.: 0381 5197 102,
E-mail: barbara.hentzsch@io-warnemuende.de

Das IOW ist Mitglied der Leibniz-Gemeinschaft, zu der zurzeit 91 Forschungsinstitute und wissenschaftliche Infrastruktureinrichtungen für die Forschung gehören. Die Ausrichtung der Leibniz-Institute reicht von den Natur-, Ingenieur- und Umweltwissenschaften über die Wirtschafts-, Sozial- und Raumwissenschaften bis hin zu den Geisteswissenschaften. Bund und Länder fördern die Institute gemeinsam. Insgesamt beschäftigen die Leibniz-Institute etwa 18.100 MitarbeiterInnen, davon sind ca. 9.200 WissenschaftlerInnen. Der Gesamtetat der Institute liegt bei mehr als 1,6 Mrd. Euro. www.leibniz-gemeinschaft.de

Quelle: idw

(nach oben)


DKOU 2017: Bewegung statt Bettruhe: Was bei akutem Kreuzschmerz wirklich hilft

Anne-Katrin Döbler und Lisa Ströhlein, Thieme-PR Presse- und Öffentlichkeitsarbeit
Deutsche Gesellschaft für Orthopädie und Unfallchirurgie e. V.

Bis zu 85 Prozent der Menschen in Deutschland leiden mindestens einmal im Leben an Kreuzschmerzen. Sie sind auch der häufigste Grund für einen Besuch beim Orthopäden. Lässt sich für den Schmerz keine organische Ursache finden, ist Bewegung die beste Therapie. Medikamente können gut dabei helfen, die körperliche Aktivität wiederaufzunehmen. Zu diesem Schluss kommen Experten in einer aktuellen Leitlinie zum nicht-spezifischen Kreuzschmerz (1). Außerdem sollen mögliche psychische Ursachen und Probleme im sozialen Umfeld stärker in Betracht gezogen werden. Passive Verfahren wie Massagen beurteilen die Mediziner dagegen kritisch.

Welche Behandlungen bei akuten Rückenschmerzen wirklich helfen, erklären Experten in einer Pressekonferenz im Rahmen des Deutschen Kongresses für Orthopädie und Unfallchirurgie (DKOU) 2017.

Die Mehrzahl der Patienten mit Rückenschmerzen leidet unter dem sogenannten nicht-spezifischen Kreuzschmerz: Das heißt, dass die Schmerzen keine organische Ursache wie etwa eine Entzündung an der Wirbelsäule oder einen Wirbelkörperbruch haben. Solche Schäden kann der Arzt nach einem Patientengespräch bei einer gründlichen körperlichen Untersuchung mit hoher Wahrscheinlichkeit ausschließen.

Um akute Rückenschmerzen zu lindern, hilft vor allem Bewegung: „Wir raten Patienten deshalb, trotz der vermeintlichen Einschränkung körperlich aktiv zu sein. Wer sein Bewegungsprogramm Schritt für Schritt wieder aufnimmt und sich täglich bewegt, trägt immens zu seiner Genesung bei“, sagt Professor Dr. med. Bernd Kladny, Generalsekretär der Deutschen Gesellschaft für Orthopädie und Orthopädische Chirurgie (DGOOC). Bei 85 Prozent der Patienten gehen die Schmerzen so nach einigen Wochen von selbst deutlich zurück. „Schmerzmittel und Entzündungshemmer können Patienten gut dabei unterstützen, wieder in Bewegung zu kommen“, so der Chefarzt der Abteilung Orthopädie und Unfallchirurgie an der Fachklinik Herzogenaurach. Laut Leitlinie sollen diese aber so kurz wie möglich in geringstmöglicher Dosierung eingesetzt werden. Bettruhe dagegen könne die Schmerzen verstärken und sogar dazu führen, dass diese chronisch werden. Deswegen raten die Autoren der Leitlinie auch von passiven Therapien wie Massage oder Taping ab. Wenn Medikamente und die Behandlung der Symptome keine deutliche Linderung bringen, kann der Patient sich zusätzlich für eine Akupunktur entscheiden.

Die neue Versorgungsleitlinie empfiehlt auch, eventuelle psychische Belastungen und Probleme im sozialen Umfeld stärker in den Fokus zu nehmen: Stress, Ängste oder Probleme in Beruf oder Familie können Rückenschmerzen genauso begünstigen wie Fehlhaltung, Bewegungsmangel oder harte Arbeit. „Seelische Belastungen und Rückenprobleme können sich sogar gegenseitig verstärken“, sagt Professor Dr. med. Andrea Meurer, Kongresspräsidentin des DKOU 2017. Ärzte sollen ihre Patienten deswegen danach fragen. „Unser seelisches Befinden beeinflusst zudem, wie stark wir Schmerzen wahrnehmen“, sagt die Expertin aus Friedrichsheim. „Die Psyche spielt auch eine entscheidende Rolle dabei, ob eine Behandlung erfolgreich ist oder nicht.“

Röntgenbilder und Magnetresonanztomographie halten die Leitlinienautoren bei akuten nicht-spezifischen Kreuzschmerzen in den meisten Fällen für überflüssig: „Frühzeitige Bildgebung kann Abweichungen am Rücken anzeigen, die aber gar nicht Ursache der Schmerzen sein müssen“, erklärt Kladny. „Das kann den Patienten verunsichern und zu unnötigen Behandlungen führen.“ Halten die Kreuzschmerzen länger als vier bis sechs Wochen an, dann muss der Einsatz der Bildgebung sorgfältig geprüft werden. Weiterhin rät die Leitlinie zu einem multimodalen Behandlungsprogramm bestehend aus Schmerztherapie, Bewegung, Gymnastik, Entspannungstraining und psychotherapeutischer Therapie. „In den allermeisten Fällen sind Rückenschmerzen ungefährlich“, betont Kladny. „Wenn keine ernsten Erkrankungen vorliegen, gilt es, den Patienten darüber aufzuklären, wie er seinen Rücken langfristig stärken kann“, empfiehlt Kladny. Deswegen enthält die neue Leitlinie auch eine Version für Patienten.

Quelle:
(1) Nationale VersorgungsLeitlinie (NVL) Nicht-spezifischer Kreuzschmerz, 2. Auflage
http://www.leitlinien.de/nvl/kreuzschmerz/

Terminhinweis:
Kongress-Pressekonferenz zum DKOU 2017
Termin: Dienstag, 24. Oktober 2017, 11.00 bis 12.00 Uhr
Ort: Messe Berlin, Eingang Süd, Halle 6.3, Raum 411
Motto: Was O & U bewegt
Eines der Themen: Kreuzschmerz: Heilen ohne Messer – was hilft und was hilft nicht?
Professor Dr. med. Bernd Kladny

Weitere Informationen:
http://www.dkou.de

Quelle: idw

(nach oben)


Wenn Schimmelpilze das Auge zerstören

Robert Emmerich Presse- und Öffentlichkeitsarbeit
Julius-Maximilians-Universität Würzburg

Wer weiche Kontaktlinsen benutzt, sollte sich strikt an die Hygieneregeln halten – sonst kann es zu gefährlichen Pilzinfektionen am Auge kommen. Darauf weisen Mediziner zur „Woche der Pilzerkrankungen“ hin.

Weiche Kontaktlinsen im Behälter mit der Aufbewahrungsflüssigkeit an einen sonnigen, warmen Fensterplatz stellen? Schwierig.

Die Aufbewahrungslösung oder die Spülflüssigkeit aus Sparsamkeit mehrfach verwenden oder länger als vorgeschrieben? Bedenklich.

Kontaktlinsen, die man nur für einen Tag oder eine Woche tragen soll, einfach mal länger verwenden als vorgesehen? Riskant.

Starke Augenrötung und Schmerzen stehen am Anfang
Wer die Hygieneregeln im Umgang mit weichen Kontaktlinsen nicht beachtet, nimmt eine große Gefahr in Kauf: Schimmelpilze können die Linsen kontaminieren und die Hornhaut des Auges infizieren. Die Betroffenen bemerken das meist durch eine starke Rötung des Auges, teils erhebliche Schmerzen und eine Sehverschlechterung.

„Anders als bei vielen anderen Pilzinfektionen sind hier oft junge, gesunde Patienten betroffen“, sagt Professor Oliver Kurzai, der an der Universität Würzburg den deutschlandweit einzigen Lehrstuhl für Medizinische Mikrobiologie und Mykologie (Lehre von den Pilzerkrankungen) innehat. Kurzai leitet außerdem das Nationale Referenzzentrum für Invasive Pilzinfektionen mit Sitz in Jena.

Die Therapie einer solchen Infektion am Auge gestalte sich schwierig, denn oft seien die Pilze resistent gegen die verfügbaren Medikamente. Die Folgen können dramatisch sein: Sehr häufig sind Hornhaut-Transplantationen nötig, in schlimmen Fällen besteht der letzte Ausweg darin, das infizierte Auge operativ zu entfernen und durch ein Glasauge zu ersetzen.

Daten im Journal of Clinical Microbiology veröffentlicht
Erstmals liegen jetzt für Deutschland Daten über Hornhaut-Infektionen durch Pilze vor. Kurzais Team hat sie Ende Juli 2017 mit Partnern aus ganz Deutschland im Journal of Clinical Microbiology veröffentlicht. Ein klares Ergebnis daraus: „Der wichtigste Risikofaktor ist das Tragen weicher Kontaktlinsen“, so der Würzburger Professor.

Für die Studie wurden insgesamt 22 Fälle analysiert, die von Augenärzten ans Nationale Register für Pilzkeratitiden (Hornhaut-Infektionen durch Pilze) gemeldet wurden. Das Register gibt es erst seit Anfang 2016, eingerichtet wurde es vom Nationalen Referenzzentrum für Invasive Pilzinfektionen und der Augenklinik des Universitätsklinikums Düsseldorf.

Bei ihren Analysen haben die Fachleute verschiedene Schimmelpilze der Gattung Fusarium als Verursacher der Infektionen identifiziert. „15 der 22 Fälle waren ganz klar Infektionen mit diesen Schimmelpilzen“, sagt Kurzai. Bei neun Patienten waren Hornhauttransplantationen nötig, bei dreien musste das Auge operativ entfernt werden. Bei den übrigen sieben der 22 Patienten hatten die Beschwerden entweder bakterielle oder andere, harmlosere Ursachen.

Augenärzte sollen Infektionsfälle ans Register melden
Aus statistischer Sicht sind 22 Fälle eine ungenügende Datenbasis. „Wir appellieren darum an alle Augenärzte, möglichst viele Proben von Verdachtsfällen ans Register für Pilzkeratitiden zu schicken, damit die Datenbasis immer besser wird“, so Kurzai. „Mit Hilfe des Registers wollen wir unter anderem analysieren, welche Therapien besonders erfolgreich sind und mit welchen Erregern wir es überhaupt zu tun haben.“

Weltweite „Woche der Pilzerkrankungen“ ausgerufen
Den Appell an die Augenärzte lancieren die Mediziner anlässlich der erstmals ausgerufenen „Woche der Pilzerkrankungen“ (Fungal Disease Awareness Week) vom 14. bis 18. August 2017. Mit dieser Woche möchten die Centers for Disease Control (CDC) mit Sitz in Atlanta (USA) die internationale Aufmerksamkeit für schwere Pilzinfektionen erhöhen.

Die CDC weisen darauf hin, dass weltweit viele Pilzinfektionen zu spät oder gar nicht erkannt werden. Gleichzeitig verändern sich die Erreger der Infektionen, und die Entwicklung von Resistenzen erschwert in immer mehr Fällen eine effiziente Behandlung.

Fusarium Keratitis in Germany. Walther G, Stasch S, Kaerger K, Hamprecht A, Roth M, Cornely OA, Geerling G, Mackenzie CR, Kurzai O, von Lilienfeld-Toal M. J Clin Microbiol. 2017 Jul 26. pii: JCM.00649-17. doi: 10.1128/JCM.00649-17. Epub ahead of print, PMID: 28747368

Kontakt
Prof. Dr. Oliver Kurzai, Institut für Hygiene und Mikrobiologie, Universität Würzburg, T +49 931 31-88007, okurzai@hygiene.uni-wuerzburg.de

Nationales Referenzzentrum für Invasive Pilzinfektionen
Das Nationale Referenzzentrum für Invasive Pilzinfektionen (NRZMyk) ist Ansprechstelle für Ärzte und Mikrobiologen aus ganz Deutschland, die Fragen zur Diagnostik und Behandlung invasiver Pilzinfektionen haben. Neben Beratungen bietet das Zentrum diagnostische Verfahren zum Nachweis von invasiven Pilzerkrankungen an. Es kooperiert dabei mit anderen Referenzlabors weltweit. Das NRZMyk ist am Leibniz-Institut für Naturstoff-Forschung und Infektionsbiologie – Hans-Knöll-Institut in Jena angesiedelt. Zum Nationalen Referenzzentrum berufen wurde es vom Robert-Koch-Institut und dem Bundesministerium für Gesundheit.

Weitere Informationen:
http://www.pilzkeratitis.de Nationales Register für Pilzkeratitiden in Düsseldorf
http://www.nrzmyk.de Nationales Referenzentrum für Invasive Pilzinfektionen
https://www.cdc.gov/fungal/awareness-week.html Fungal Disease Awareness Week
http://www.hygiene.uni-wuerzburg.de Institut für Hygiene und Mikrobiologie der Uni Würzburg

Quelle: idw

(nach oben)


Kostbares aus Abwasser

Ulrike Schnyder Presse- und Öffentlichkeitsarbeit
Hochschule Landshut

Klärschlamm enthält viele wertvolle Elemente, die Landwirte als Düngemittel schätzen. Vor allem Phosphat ist ein wichtiger Nährstoff für Pflanzen. Wissenschaftler des Forschungsschwerpunkts Energie der Hochschule Landshut untersuchen daher gemeinsam mit tschechischen Partnern, wie vor allem kleine Kläranlagen in ländlichen Regionen Klärschlamm optimal verwerten können.

Der Schlamm im Klärbecken steckt voller wertvoller Inhaltsstoffe wie Phosphor, Stickstoff oder Kalium. Landwirte setzen ihn deswegen oft auf Feldern als Dünger ein. Doch oft enthält der Klärschlamm auch umwelt- und gesundheitsgefährdende Schadstoffe wie Mikroplastik, Schwermetalle wie Kupfer und Zink, hormonell wirksame Stoffe wie Weichmacher aus Kunststoffen, oder Rückstände von Arzneimitteln. Laut Koalitionsvertrag der bundesdeutschen Regierungsparteien soll daher die Klärschlammdüngung eingestellt werden – und stattdessen Phosphorverbindungen zurückgewonnen werden, um sie in Düngern einzusetzen.

Phosphate aus Klärschlamm rückgewinnen
„Phosphor ist eine endliche Ressource, deren leicht gewinnbare, mineralische Vorräte in 80 bis 120 Jahren aufgebraucht sein dürften. In deutschen Abwässern steckt ein jährliches Potenzial von rund 70.000 Tonnen Phosphor zur Rückgewinnung, während etwa 120.000 Tonnen pro Jahr allein in Deutschland verbraucht werden“, erklärt Prof. Dr. Diana Hehenberger-Risse vom Technologiezentrum Energie der Hochschule Landshut. Phosphorrecycling wird nun für große Abwasserbehandlungsanlagen ab 50.000 Einwohnerwerten zur Pflicht. Der Umstieg könnte auch für kleinere Anlagen ökologisch sinnvoll sein, aber: „Die Umrüstung für die Rückgewinnung von Phosphaten ist technisch aufwendig. Kleinere Kläranlagen müssen dafür massiv investieren“, so Hehenberger-Risse. „Damit sich das lohnt und die Abwassergebühren nicht in die Höhe schießen, müssen Gemeinden kooperieren und eine gemeinsame Lösung finden.“ Wie das aussehen kann, will die Umweltingenieurin im Forschungsprojekt „greenIKK“ herausfinden. Projektpartner sind ihr Landshuter Kollege, der Chemiker Prof. Dr. Josef Hofmann, der Zweckverband Ikom Stiftland und die tschechischen Partner Chevak und dem Forestry and Game Management Research Institut. Auch die Fakultäten Maschinenbau und Interdisziplinäre Studien der Hochschule Landshut beteiligen sich maßgeblich am Projekt. Das gemeinsame Ziel: den Klärschlamm optimal verwerten. „Das reduziert die Emission von Treibhausgasen und steigert die Ressourceneffizienz“, so Hehenberger-Risse. Das Projekt läuft bis Ende 2019 und wird vom Europäischen Fonds für regionale Entwicklung finanziert.

Das Ziel: den Klärschlamm optimal verwerten
Die Wissenschaftler fokussieren sich auf den Landkreis Tirschenreuth im Osten Bayerns und die benachbarte Region Tachau/Cheb in Tschechien. „Wir prüfen unter anderem, wie sich Phosphor, Stickstoff und Spurenelemente wirtschaftlich und ökologisch sinnvoll aus Abwasser und Klärschlamm zurückgewinnen lassen“, erklärt Hofmann. „Die tschechischen Partner unterstützen uns bei den chemischen Analysen. Sie messen nicht nur den Phosphorgehalt, sondern auch seine Qualität als Dünger, also wie gut Pflanzen ihn verwerten können.“

Ein Teil des Klärschlamms aus Anlagen wird oft getrocknet und verbrannt. Auch aus der Asche lässt sich Phosphor extrahieren. Damit der Schlamm gut brennt, muss er vorher aufwendig getrocknet werden. „Das kostet viel Energie“, weiß Hehenberger-Risse. Sie und ihre Partner wollen daher testen, ob und welche Kläranlagen Solarenergie zur Trocknung einsetzen könnten und ob es für die Anlagenbetreiber Sinn macht, Schlamm aus verschiedenen Kommunen in zentralen Anlagen gemeinsam zu trocknen.

Kleine Kläranlagen sollen ökologisch und ökonomisch arbeiten
„Bislang gibt es nur Studien zur Klärschlammentsorgung, die sich mit Teilaspekten einzelner Kläranlagenstandorte, Städten oder Landkreisen beschäftigen. In diesem Projekt sollen Entsorgungswege und -varianten betrachtet werden, die einen integrierten, ganzheitlichen Ansatz verfolgen“, fasst Hehenberger-Risse zusammen. Sie und ihre Kollegen erarbeiten zum Ende des Projekts Handlungsempfehlungen, wie die teilnehmenden Gemeinden in Deutschland und Tschechien grenzübergreifend gemeinsam Klärschlamm ökologisch und ökonomisch sinnvoll nutzen. Hehenberger-Risse: „Das kann dann auch anderen Gemeinden in Grenzregionen dienen.“

Quelle: idw

(nach oben)


Schlank und dennoch ein hohes Risiko für Diabetes und Herz-Kreislauferkrankungen

Birgit Niesing Presse- und Öffentlichkeitsarbeit
Deutsches Zentrum für Diabetesforschung

Fast jeder fünfte schlanke Mensch hat ein erhöhtes Risiko an Diabetes sowie Herzkreislauferkrankungen zu erkranken. Die Betroffenen haben eine Fehlfunktion bei der Fettspeicherung, sodass sie kaum Fett am Oberschenkel anlagern. Das zeigen Untersuchungen von Tübinger Forscherinnen und Forschern des Deutschen Zentrum für Diabetesforschung und des Helmholtz Zentrums München, die nun in der Fachzeitschrift „Cell Metabolism“ veröffentlicht werden.

Schlank ist gesund – diese Faustformel gilt nicht immer. Meta-Analysen von Studien ergaben, dass es eine Subgruppe (knapp 20 Prozent) von schlanken Menschen mit einem geschädigten Stoffwechsel gibt. Ihr kardiovaskuläres und Mortalitätsrisiko ist im Vergleich zu metabolisch Gesunden um mehr als das Dreifache erhöht. Es ist sogar höher als das von Stoffwechsel gesunden übergewichtigen Menschen.

Doch was sind die Ursachen hierfür? Was unterscheidet diese Untergruppe von den schlanken, stoffwechselgesunden Menschen? Welche phänotypischen Besonderheiten haben die Betroffenen? Diesen Fragen stellten sich Wissenschaftler der Medizinischen Klinik IV des Universitätsklinikums der Universität Tübingen und des Instituts für Diabetesforschung und Metabolische Erkrankungen (IDM) des Helmholtz Zentrum München an der Eberhard-Karls-Universität Tübingen, ein Mitglied im Deutschen Zentrum für Diabetesforschung (DZD). Sie untersuchten die Daten von 981 Probanden und kamen auch hier zu ähnlichen Ergebnissen wie in den Meta-Analysen – etwa 18 Prozent der schlanken Probanden hatten einen geschädigten Stoffwechsel. Die Betroffenen zeigten zwei und oder mehr Risiko-Parameter für ein Metabolisches Syndrom (Abdominelle Fettleibigkeit, Bluthochdruck, Fettstoffwechselstörung mit Hypertriglyzeridämie und erniedrigtem HDL-Cholesterin, Insulinresistenz bzw. gestörte Glukosetoleranz).

Risiko: Wenig Fett am Bein
Das Team um Norbert Stefan, Fritz Schick und Hans-Ulrich Häring untersuchte bei diesen Probanden das Körperfett, die Fettverteilung und den Fettanteil in der Leber mithilfe der Magnetresonanz-Spektroskopie. Dabei zeigte sich, dass die Betroffenen nur wenig Fett an den Beinen speichern. Die Betroffenen haben einen ähnlichen Phänotyp wie Menschen mit Lipodystrophie, einer Veränderung des Unterhautfettgewebes. Die Wissenschaftler untersuchten zudem die Insulin-Empfindlichkeit, die Insulin-Sekretion, die Blutgefäße und die körperliche Fitness. Auch hier zeigten sich Auffälligkeiten. »Allerdings ist bei Schlanken das fehlende Fett an den Beinen am stärksten mit einem Risiko für einen ungesunden Stoffwechsel assoziiert. Man kann daher auch sagen, `Hüftgold´ hält Schlanke gesund“, fasst Prof. Norbert Stefan die Ergebnisse zusammen. Zum Vergleich: Bei Menschen mit Übergewicht sind eine nichtalkoholische Fettleber und ein erhöhter Bauchfettanteil die größten Risikofaktoren für eine Entgleisung des Stoffwechsels.

Die Wissenschaftler schlagen vor, dass schlanke Menschen, die zwei oder mehr Merkmale des Metabolischen Syndroms aufweisen und kaum Fett an den Beinen speichern, sorgfältig auf eine mögliche Schädigung des Stoffwechsels untersucht werden. Wichtig wäre es, für die unterschiedlichen Untergruppen von schlanken und übergewichtigen Menschen mit Stoffwechsel-Störungen maßgeschneiderte Lebensstil-Interventionen oder spezifische medikamentöse Behandlungen für eine personalisierte Prävention zu entwickeln.

Originalpublikation:
Stefan et al., Causes, Characteristics, and Consequences of Metabolically Unhealthy Normal Weight in Humans, Cell Metabolism (2017), http://dx.doi.org/10.1016/j.cmet.2017.07.008

Fachliche Ansprechpartner:
Prof. Dr. med. Norbert Stefan
Prof. Dr. Dr. h.c. Hans-Ulrich Häring
Universitätsklinikum Tübingen, Medizinische Klinik, Abteilung IV
Institut für Diabetesforschung und Metabolische Erkrankungen (IDM) des Helmholtz Zentrums München an der Eberhard-Karls-Universität Tübingen
Otfried-Müller-Straße 10, 72076 Tübingen
Phone 1: +49 (0)7071 29-80390
Phone 2: +49 (0)7071 29-85669
Phone 3: +49 (0)7071 29-83670
norbert.stefan@med.uni-tuebingen.de

Das Deutsche Zentrum für Diabetesforschung (DZD) e.V. ist eines der sechs Deutschen Zentren der Gesundheitsforschung. Es bündelt Experten auf dem Gebiet der Diabetesforschung und verzahnt Grundlagenforschung, Epidemiologie und klinische Anwendung. Ziel des DZD ist es, über einen neuartigen, integrativen Forschungsansatz einen wesentlichen Beitrag zur erfolgreichen, maßgeschneiderten Prävention, Diagnose und Therapie des Diabetes mellitus zu leisten. Mitglieder des Verbunds sind das Helmholtz Zentrum München – Deutsches Forschungszentrum für Gesundheit und Umwelt, das Deutsche Diabetes-Zentrum DDZ in Düsseldorf, das Deutsche Institut für Ernährungsforschung DIfE in Potsdam-Rehbrücke, das Institut für Diabetesforschung und Metabolische Erkrankungen des Helmholtz Zentrum München an der Eberhard-Karls-Universität Tübingen und das Paul-Langerhans-Institut Dresden des Helmholtz Zentrum München am Universitätsklinikum Carl Gustav Carus der TU Dresden, assoziierte Partner an den Universitäten in Heidelberg, Köln, Leipzig, Lübeck und München sowie weitere Projektpartner.

Weitere Informationen:
www.dzd-ev.de

Das Helmholtz Zentrum München verfolgt als Deutsches Forschungszentrum für Gesundheit und Umwelt das Ziel, personalisierte Medizin für die Diagnose, Therapie und Prävention weit verbreiteter Volkskrankheiten wie Diabetes mellitus und Lungenerkrankungen zu entwickeln. Dafür untersucht es das Zusammenwirken von Genetik, Umweltfaktoren und Lebensstil. Der Hauptsitz des Zentrums liegt in Neuherberg im Norden Münchens. Das Helmholtz Zentrum München beschäftigt rund 2.300 Mitarbeiter und ist Mitglied der Helmholtz-Gemeinschaft, der 18 naturwissenschaftlich-technische und medizinisch-biologische Forschungszentren mit rund 37.000 Beschäftigten angehören. www.helmholtz-muenchen.de

Das 1805 gegründete Universitätsklinikum Tübingen gehört zu den führenden Zentren der deutschen Hochschulmedizin. Als eines der 33 Universitätsklinika in Deutschland trägt es zum erfolgreichen Verbund von Hochleistungsmedizin, Forschung und Lehre bei. Weit über 400 000 stationäre und ambulante Patienten aus aller Welt profitieren jährlich von dieser Verbindung aus Wissenschaft und Praxis. Die Kliniken, Institute und Zentren vereinen alle Spezialisten unter einem Dach. Die Experten arbeiten fachübergreifend zusammen und bieten jedem Patienten die optimale Behandlung ausgerichtet an den neuesten Forschungsergebnissen. Das Universitätsklinikum Tübingen forscht für bessere Diagnosen, Therapien und Heilungschancen, viele neue Behandlungsmethoden werden hier klinisch erprobt und angewandt. Neurowissenschaften, Onkologie und Immunologie, Infektionsforschung und Vaskuläre Medizin mit Diabetes-Forschung sind Forschungsschwerpunkte in Tübingen. Das Universitätsklinikum ist in vier der sechs von der Bundesregierung initiierten Deutschen Zentren für Gesundheitsforschung verlässlicher Partner.

Quelle: idw

(nach oben)


Sauberes Wasser für alle – aber wie?

Andrea Mayer-Grenu Abteilung Hochschulkommunikation
Universität Stuttgart

Der Klimawandel verschärft den Wassermangel vor allem in Regionen, die bereits heute mit Wasserknappheit kämpfen. Gleichzeitig steigt weltweit der Bedarf an sauberem Trinkwasser, Bewässerungswasser für die Landwirtschaft und Brauchwasser für die Industrie. Im Verbundprojekt TRUST arbeiten deshalb Experten verschiedener Disziplinen zusammen und entwickeln ganzheitliche Planungswerkzeuge und neuartige integrierte Wasserver- und Abwasserentsorgungskonzepte für eine nachhaltige Wasserversorgung mit dem Vorrang für die Trinkwasserversorgung. Die Koordination übernimmt das Zentrum für Interdisziplinäre Risiko- und Innovationsforschung (ZIRIUS) der Universität Stuttgart.

Zukunftsfähiges Wasserressourcenmanagement erreichen
Wissenschaftler der Ingenieurs-, Natur- und Sozialwissenschaften aus Stuttgart und Karlsruhe wollen gemeinsam mit vier Praxispartnern diese Ziele erreichen:

• Verbesserte Methoden, um Wassermenge und -qualität von Oberflächengewässern
genauer zu erfassen.
• Beteiligungsverfahren, um Interessen verschiedener Akteure auszuhandeln.
• Neue Konzepte für effizientere Wasserver- und Abwasserentsorgungssysteme.

TRUST verknüpft boden- und satellitengestützte Hyperspektral-Fernerkundung, Wasserhaushaltsmodellierungen und strategische Entscheidungsinstrumente miteinander, um neue Ver- und Entsorgungskonzepte im Wassersektor zu entwickeln und zu planen. Am Beispiel Lima/Peru, das regelmäßig unter dem Wetterextrem El Niño leidet, werden an die Gegebenheiten vor Ort angepasste technische Lösungen für ein nachhaltiges Wasserressourcenmanagement erarbeitet.

Verbesserte Messmethoden führen zu besseren Entscheidungen
In Lima ist die Datenbasis über die Menge und Qualität von Gewässern wie in vielen Wassermangelgebieten der Welt unzureichend. Versorger und Planungsbehörden können nur dann ein gutes Wasserressourcenmanagement erreichen, wenn sie über den Zustand ihrer Gewässer genau Bescheid wissen. Daher wird zunächst durch das TZW: DVGW-Technologiezentrum Wasser, Karlsruhe, sowie dem Karlsruher Institut für Technologie (KIT) mit dem Institut für Wasser und Gewässerentwicklung (IWG) und dem Institut für Photogrammetrie und Fernerkundung (IPF) in Zusammenarbeit mit den lokalen Akteuren eine Datengrundlage durch den Aufbau eines Messnetzes, Fernerkundung und Messkampagnen vor Ort geschaffen. Die Firma OTT Hydromet stellt moderne Messinstrumente zur Registrierung von Wassermenge und -qualität sowie meteorologischer Größen wie Niederschlag zur Verfügung. Der Praxispartner Disy Informationssysteme erstellt eine Anwendung, mit der die Bevölkerung, aber auch Versorger, Planer oder Landwirte online die verfügbaren Messdaten abrufen können.

Mit neuen Beteiligungsverfahren Interessen aushandeln
Entscheidungen, die Akteure im peruanischen Wassersektor treffen, können zu Nutzungskonflikten etwa zwischen der Industrie und der Bevölkerung führen. Um das zu vermeiden, werden in TRUST Konflikte analysiert und mit speziellen Gruppenmethoden unterschiedliche Interessen ausgehandelt. Das Zentrum für Interdisziplinäre Risiko- und Innovationsforschung der Universität Stuttgart (ZIRIUS) entwickelt dafür mit dem Beratungsunternehmen decon international partizipative Methoden. Durch sie wird besser verständlich, wo die verschiedenen Akteure Probleme im Wassersystem sehen. Neu ist die Kombination von individuellen Interviewtechniken mit systemischen Analyseverfahren, mit deren Hilfe die Forscher den Werten und Präferenzen von Akteuren auf die Spur kommen.

Dezentrale Konzepte und genaue Risikoanalyse
Aufbauend auf den vorigen Erkenntnissen erarbeiten das Institut für Siedlungswasserbau, Wassergüte und Abfallwirtschaft der Universität Stuttgart (ISWA), das TZW, Disy und das Ingenieurbüro Pabsch & Partner (ipp) gemeinsam neue Konzepte zur Wasserversorgung, zur Wasserwiederverwendung, zum Wasserrecycling und zur Abwasserentsorgung mit dem Ziel, die verfügbaren begrenzten Wasserressourcen möglichst effizient zu nutzen. Unter der Prämisse, die effiziente Nutzung bei vorrangiger Sicherstellung der Trinkwasserversorgung und Erfüllung auch der Wasserbedarfe konkurrierender Sektoren zu befriedigen, werden optimierte Gesamtkonzepte entwickelt, die aus einem System aus dezentralen und zentralen Systemen bzw. Modulen bestehen können. Sowohl Gesamtkonzepte als auch Module werden gemeinsam mit lokalen Partnern abgestimmt. Das TZW entwickelt außerdem in Zusammenarbeit mit Disy ein softwaregestütztes Entscheidungsunterstützungssystem (EUS). Dieses hilft lokalen Versorgungsunternehmen, herauszufinden, wo Gebiete mit hohem Risiko für Verunreinigungen liegen und welche Maßnahmen sie ergreifen müssen, um trotzdem eine sichere Trinkwasserversorgung zu gewährleisten.

Erarbeiten individueller Lösungen soll Selbstläufer werden
Um die erarbeiteten Methoden und Ergebnisse nachhaltig zu verankern, unterstützt decon international die deutschen Projektpartner bei der Erarbeitung und Umsetzung von Schulungskonzepten. Ziel ist es vor allem, peruanische Bildungseinrichtungen in die Lage zu versetzen, selbst Schulungen durchzuführen. Ein spezieller Leitfaden macht es möglich, dass Versorgungsunternehmen oder Planungsbehörden künftig etwa modulare Konzepte selbstständig erarbeiten. Andere Regionen mit Wassermangel können die Management- und Schulungskonzepte auf ihre Gegebenheiten übertragen und individuell weiterentwickeln.

Das Verbundprojekt „Trinkwasserversorgung in prosperierenden Wassermangelregionen nachhaltig, gerecht und ökologisch verträglich (TRUST)“ wird im Rahmen der Fördermaßnahme „GROW – Globale Ressource Wasser“ im Programm „Forschung für Nachhaltige Entwicklung (FONA)“ vom Bundesministerium für Bildung und Forschung (BMBF) gefördert.

Ansprechpartner:
Christian D. León (TRUST-Projektkoordinator)
Zentrum für interdisziplinäre Risiko- und Innovationsforschung der Universität Stuttgart (ZIRIUS)
Telefon: 0711 685-83974
E-Mail: christian.leon@zirius.uni-stuttgart.de

Anhang
https://idw-online.de/de/attachment58156

Quelle: idw

(nach oben)


Zweitstimme.org: Wissenschaftliche Prognosen zur Bundestagswahl, laufend aktualisiert

Katja Bär Pressestelle: Kommunikation und Fundraising
Universität Mannheim

Neues Vorhersagemodell von Wissenschaftlern aus Mannheim, Berlin und Zürich kombiniert Erfahrungswerte aus allen bisherigen Bundestagswahlen mit aktuellen Umfragen – daraus wird rechnerisch das wahrscheinliche Ergebnis simuliert.

Dass Umfragen allein nicht ausreichen, um ein Wahlergebnis verlässlich vorherzusagen, zeigte sich zuletzt immer wieder: Die Wahlen in den USA, aber auch verschiedene Landtagswahlen in Deutschland sowie die Brexit-Abstimmung in Großbritannien hielten teils faustdicke Überraschungen bereit. „Nicht nur die Umfragen waren teilweise irreführend, sondern auch die Art und Weise, wie in der Öffentlichkeit mit diesen Informationen umgegangen wurde“, erklärt Thomas Gschwend, Professor für Politikwissenschaft an der Universität Mannheim und Projektleiter am Mannheimer Zentrum für Europäische Sozialforschung (MZES). „Umfragen können und wollen einen Wahlausgang meist gar nicht exakt vorhersagen. Sie geben in der Regel nur an, wie die politische Stimmung zu einem bestimmten Zeitpunkt ist. Das kann zu vehementen Fehleinschätzungen führen, was wiederum Auswirkungen auf das tatsächliche Wahlverhalten haben kann“, betont Gschwend.

Kombination aus Umfragen, Erfahrungswerten und Mathematik – laufend aktualisiert
Gemeinsam mit seinen beiden Mitarbeitern Sebastian Sternberg und Marcel Neunhoeffer sowie Dr. Simon Munzert von der HU Berlin und Dr. Lukas Stoetzer von der Universität Zürich hat er daher ein Rechenmodell entwickelt, das den wahrscheinlichen Wahlausgang simuliert – hunderttausendfach. „Vereinfacht gesagt kombinieren wir verschiedene Umfragen mit den Erfahrungswerten aus allen Bundestagswahlen seit 1949. Über einen sogenannten MCMC-Algorithmus wird dann der mögliche Wahlausgang hunderttausendmal simuliert. Und daraus leiten wir das wahrscheinliche Ergebnis ab“, erläutert Sebastian Sternberg die Herangehensweise.

Was meint ein Wissenschaftler, wenn er ein Ereignis als „wahrscheinlich“ bezeichnet?
Die Website der Forscher hält aber noch viele weitere Informationen bereit. So wird beispielsweise auch angegeben, wie wahrscheinlich es ist, dass eine Partei bei der Bundestagswahl die Fünf-Prozent-Hürde schafft. Ebenfalls wichtig: Es wird anhand einfacher Beispiele veranschaulicht, was es eigentlich heißt, wenn Wissenschaftler etwas als „wahrscheinlich“ bezeichnen. Die Wahrscheinlichkeit, dass ein Elfmeterschütze in der Bundesliga trifft, beträgt nach Angaben des Teams von Zweitstimme.org rund 70 Prozent. Die Wissenschaftler bezeichnen das als „eher wahrscheinlich“, aber keineswegs als sehr wahrscheinlich oder gar sicher.

Ein Online-Service für den Wähler
„Wir interessieren uns für all diese Dinge vor allem aus fachlichen Gründen. Darüber hinaus möchten wir aber dazu beitragen, dass Menschen Umfragen, Prognosen und Wahrscheinlichkeiten leichter beurteilen und somit besser für sich nutzen können. Daher kamen wir auf die Idee, unsere Prognosen allgemein im Internet zugänglich zu machen“, erklärt Marcel Neunhoeffer das Anliegen des Forscherteams. „Wahlen sind wichtig, und nur wer ausreichend informiert ist, kann die für sich richtige Entscheidung treffen. Wir denken, dass wir als Wissenschaftler dazu einen Beitrag leisten können“, fasst Thomas Gschwend zusammen.

Und wie geht die Wahl nun aus?
Stand Anfang August prognostiziert das Modell folgendes Abschneiden der Parteien: CDU/CSU 37,4 Prozent, SPD 25,5 Prozent, Die Linke 8,7 Prozent, Bündnis 90/Die Grünen 7,9 Prozent, FDP 7,9 Prozent und AfD 8,4 Prozent. Das Team von Zweitstimme.org weist ausdrücklich darauf hin, dass diese Werte nicht sicher sind. Entscheidend sei vielmehr, welche Regierung damit rechnerisch eine Mehrheit hätte. „Reichen würde es für eine Mehrheit der Sitze für eine Große Koalition bestehend aus CDU und SPD. Die Wahrscheinlichkeit, dass die sogenannte ‚Jamaika-Koalition‘ aus CDU, Grünen und FDP eine Mehrheit bekommt liegt derzeit bei 84 Prozent“, schreiben die Wissenschaftler auf ihrer Website.

Der Unterschied zum „Kanzlermodell“ von Thomas Gschwend und Helmut Norpoth
Mit der kürzlich veröffentlichten Prognose des sogenannten „Kanzlermodells“, das eine Mehrheit für eine schwarz-gelbe oder auch schwarz-grüne Koalition vorhersagt, ist Thomas Gschwend noch an einem weiteren Prognosemodell maßgeblich beteiligt. Das gemeinsam mit Professor Helmut Norpoth (Stony Brook University) entwickelte Kanzlermodell ist vor allem auf die frühzeitige Vorhersage des Stimmenanteils von Regierungskoalitionen spezialisiert und hat seit 2002 stets korrekt prognostiziert, wer Kanzler oder Kanzlerin wird. „Die nun mit den Kollegen von Zweitstimme.org entwickelte Prognose ist anders als das mehrfach erprobte Kanzlermodell ein brandneues Verfahren, das stärker auf momentanen Umfragedaten beruht. Es unterscheidet sich vom Kanzlermodell auch darin, dass es nicht nur die wahrscheinliche Regierungskoalition, sondern alle größeren Parteien abbildet. Es lässt damit auch genauere Prognosen zu, wer die Fünf-Prozent-Hürde schafft. Dafür wird aber der Beliebtheitsgrad der Kanzlerkandidaten und der Abnutzungseffekt der amtierenden Regierung im Gegensatz zum Kanzlermodell nicht gesondert miteinberechnet“, erklärt Thomas Gschwend. Darum und aufgrund des kurzfristigeren Charakters werde Zweitstimme.org auf Basis der aktuellen Umfragen laufend aktualisiert, während das Kanzlermodell lediglich zweimal – nämlich rund acht und vier Wochen vor der Wahl – berechnet werde. „Wir denken, dass beide Modelle ihre Stärken haben und sind gespannt, ob sich die Prognose von Zweitstimme.org auf Basis der sich ändernden Umfragedaten noch der Prognose des Kanzlermodells annähern wird. Derzeit scheint mir das der Fall zu sein“, sagt Gschwend.

Weitere Informationen und Kontakt:
Das Team von Zweitstimme.org besteht aus Professor Thomas Gschwend, Ph.D. (Universität Mannheim und MZES), Dr. Simon Munzert (Humboldt-Universität zu Berlin, davor Universität Mannheim und MZES), Dr. Lukas Stoetzer (Universität Zürich und MZES External Fellow), Sebastian Sternberg, M.A., Marcel Neunhoeffer, M.A. (beide Universität Mannheim).

Eine wissenschaftliche Erläuterung des zugrundeliegenden Modells wird in Kürze in der Politischen Vierteljahresschrift (PVS), Heft 3/2017, erscheinen.

Prof. Thomas Gschwend, PhD
Universität Mannheim
Mannheimer Zentrum für Europäische Sozialforschung (MZES)
Telefon: +49-621-181-2087
Telefax: +49-621-181-2845
E-Mail: gschwend@uni-mannheim.de

Marcel Neunhoeffer, M.A.
Universität Mannheim
Tel: +49 621 181 2542
E-Mail: mneunhoe@mail.uni-mannheim.de

Sebastian Sternberg, M.A.
Universität Mannheim
Telefon: +49 621 181 2542
E-Mail: sebastian.sternberg@gess.uni-mannheim.de

Nikolaus Hollermeier
Direktorat / Presse- und Öffentlichkeitsarbeit
Mannheimer Zentrum für Europäische Sozialforschung (MZES)
Universität Mannheim
Telefon: +49-621-181-2839
Telefax: +49-621-181-2866
E-Mail: nikolaus.hollermeier@mzes.uni-mannheim.de

Katja Bär
Leiterin Kommunikation und Fundraising
Pressesprecherin
Tel. +49 (0) 621 181-1013
E-Mail: baer@uni-mannheim.de

Weitere Informationen:
http://www.zweitstimme.org
http://www.facebook.com/zweitstimme.org
http://www.twitter.com/zweitstimme_org
http://methods.sowi.uni-mannheim.de/thomas_gschwend
http://www.mzes.uni-mannheim.de

Quelle: idw

(nach oben)


Seltener Weizenfund in bronzezeitlicher Lunch-Box aus dem Schweizer Hochgebirge

Petra Mader Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Menschheitsgeschichte / Max Planck Institute for the Science of Human History

Ergänzung vom 24.07.2017
In einem rund 2000 Jahre alten Holzbehälter, der 2012 in den Berner Alpen gefunden wurde, hat eine Forscherin vom Max-Planck-Institut für Menschheitsgeschichte gemeinsam mit einem internationalen Forschungsteam Überreste früher Weizensorten aus der Bronzezeit entdeckt. Der Fund ist aus zwei Gründen bedeutend: Zum einen gab es bisher kaum Anhaltspunkte, wie Getreide in dieser Zeit genutzt und verbreitet wurde. Zum anderen haben die Wissenschaftler bei der Untersuchung einen neuen Weg gefunden, Getreide mithilfe eines Biomarkers nachzuweisen. Damit eröffnen sich neue Möglichkeiten für die Forschung.

Schmelzende Gletscher geben immer öfter Funde aus vergangenen Zeiten preis. Nicht immer sind sie so aufsehenerregend wie „Ötzi“, die Gletschermumie aus der späten Jungsteinzeit, die Wanderer 1991 in den Ötztaler Alpen fanden. Aber auch weniger spektakuläre Entdeckungen aus leicht vergängliche Materialien wie Stoffen, Leder, Holz und anderen pflanzlichen Überresten, die im Eis Jahrhunderte oder gar Jahrtausende überdauern, eröffnen Archäologen neue Perspektiven auf die Vergangenheit.

Eine Dose aus der Bronzezeit
2012 gab das Eis nahe dem Lötschenpass, auf 2690 Metern Höhe in den Berner Alpen gelegen, ein außergewöhnliches Holzgefäß frei. Die runde Dose misst etwa 20 Zentimeter im Durchmesser. Der Boden besteht aus Zirbenholz, der gebogene Rand ist aus Weidenholz gefertigt, beides wurde mit einer Naht aus gespleißten Lärchenzweigen verbunden. Eine Radiokarbondatierung ergab, dass das Gefäß rund 2000 Jahre alt ist, also aus der frühen Bronzezeit stammt.

Besonders interessant waren für das Forschungsteam unter Beteiligung von Jessica Hendy vom Max-Planck-Institut für Menschheitsgeschichte Spuren, die sich auf der Oberseite der Dose fanden: Schon mit dem Mikroskop ließen sich dort Reste von Gerste sowie der frühen Weizenarten Dinkel und Emmer entdecken, einschließlich Samenschalen und Spreu. Aus Höhlen kennt man vielfach Getreidefunde aus der Bronzezeit. Gefäße, die Körner oder deren Überreste enthalten, waren jedoch bisher nicht bekannt. Für die Forschung sind sie von speziellem Interesse, denn sie geben Hinweise darauf, wie das Getreide damals verwendet wurde.

Händler, Hirten oder Jäger?
Die Wissenschaftler können nur mutmaßen, welche Geschichte sich hinter der Box vom Lötschenpass verbirgt. Man weiß, dass einige Alpentäler in der Gegend während der Bronzezeit besiedelt waren. In Gräbern im benachbarten Wallis hat man sogar Hinweise gefunden, dass die Menschen dort Waren von nördlich und südlich der Alpen importierten. Das Gefäß könnte ein Indiz dafür sein, dass der Lötschenpass damals als Übergang vom Berner Oberland ins Wallis diente. Möglicherweise war der Pass Teil einer Handelsroute zwischen den Regionen. Andere Erklärungen für den Fund wären, dass die Menschen schon damals Weidevieh in höhere Lagen trieben oder dass sie zum Jagen ins Hochgebirge wanderten.

„Auf jeden Fall wirft die Entdeckung neues Licht auf das Leben in den prähistorischen Gemeinschaften innerhalb der Alpenregion und auf den Umgang der Menschen mit den extremen Höhenverhältnissen“, sagt Francesco Carrer von der Universität Newcastle. „Die Leute haben auf ihrem Weg über die Berge Proviant mitgenommen, wie heutige Wanderer auch. Unsere Forschung trägt dazu bei, zu verstehen, welche Lebensmittel sie dafür nutzten.“

Substanzen wie in heutigen Vollkornprodukten
Eigentlich vermuteten die Wissenschaftler in dem Gefäß Überreste von Milch, zum Beispiel von Milchbrei. Daher unterzogen sie den Fund zusätzlich einer molekularen Analyse. Milchbestandteile fanden sie nicht, stattdessen aber sogenannte Alkylresorcine, wie sie in heutigen Vollkornprodukten vorkommen. „Von keinem archäologischen Fundstück wurde bisher über diese Stoffe berichtet“, erklärt André Colonese von der University of York, Hauptautor der Studie. „Aber es ist bekannt, dass sie in Weizen- und Roggenkleie reichlich vorhanden sind. Biomarker für Pflanzen gibt es sehr wenige, und sie bleiben auf historischen Fundstücken meist nur schlecht erhalten. Deswegen ist die Studie für uns so spannend.“

Die neue Methode eröffnet die Chance herauszufinden, wie die Menschen der Bronzezeit Getreide tatsächlich verwendeten. Als nächsten Schritt planen die Wissenschaftler, auf Überresten alter Keramikgefäße nach Alkylresorcinen zu suchen. „Der molekulare Marker für Getreide hilft uns auch, die Anfänge des Ackerbaus zu erforschen“, sagt Jessica Hendy vom Max-Planck-Institut für Menschheitsgeschichte. „Damit können wir Hinweise sammeln, wann und auf welchen Wegen sich Weizen, eine unserer wichtigsten Nutzpflanzen, in Europa verbreitet hat.“

Die Untersuchung der bronzezeitlichen Box war ein Kooperationsprojekt der Universität von York, des Max-Planck-Institut für Menschheitsgeschichte, des Archäologischen Dienstes des Kanton Bern, sowie der Universitäten Basel, Kopenhagen, Newcastle und Oxford. (MEZ)

Publikation
Andre Carlo Colonese, Jessica Hendy, Alexandre Lucquin, Camilla F. Speller, Matthew J. Collins, Francesco Carrer, Regula Gubler, Marlu Kühn, Roman Fischer, Oliver E. Craig: New criteria for the molecular identification of cereal grains associated with archaeological artefacts. Scientific Reports, DOI: 10.1038/s41598-017-06390-x

Informationen
Max-Planck-Institut für Menschheitsgeschichte
Dr. Jessica Hendy
Kahlaische Str. 10
07745 Jena
Email: hendy@shh.mpg.de

Korrektur!!
Das analysierte Holzgefäß ist rund 4000 und nicht rund 2000 Jahre alt. Leider wurde beim Verfassen der Pressemitteilung die Zeitangabe BC (Before Christ) aus der Orginalpublikation übersehen.

Quelle: idw

(nach oben)


Forschung am Baikalsee – wie wirken sich Klimawandel und Umweltgifte auf die Fauna aus?

Susanne Hufe Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum für Umweltforschung – UFZ

Aufgrund seines Artenreichtums und seiner einzigartigen Tierwelt gehört der Baikalsee zum UNESCO Weltnaturerbe. UFZ-Wissenschaftler erforschen im Rahmen der Helmholtz-Russland Forschungsgruppe LaBeglo, welchen Einfluss Klimawandel und Umweltgifte auf die Fauna des Baikalsees haben können. In ihrer aktuellen Studie gingen sie gemeinsam mit Forschern des Helmholtz-Zentrums für Polar- und Meeresforschung (AWI) und der Universität Irkutsk der Frage nach, wie Baikal-Flohkrebse, die in dem See wichtige ökologische Funktionen erfüllen, auf Schadstoffe im Wasser reagieren.

Der Baikalsee ist vor 25 bis 30 Millionen Jahren entstanden. Er speichert etwa 20 Prozent des gesamten ungefrorenen Süßwassers der Erde. Mit rund 23.000 Kubikkilometern ist sein Wasservolumen sogar größer als das der Ostsee. Der Baikal ist nicht nur der älteste und größte, sondern mit über 1.500 Metern Tiefe auch der tiefste See der Erde – und womöglich auch einer der kältesten: Denn seine durchschnittliche Wassertemperatur liegt im Uferbereich bei nur etwa sechs Grad. „Das Wasser ist kristallklar, hat nur einen geringen Salz- und Nährstoffgehalt und ist extrem sauerstoffreich – sogar bis auf den Grund des Sees“, sagt Dr. Till Luckenbach, Ökotoxikologe am Helmholtz-Zentrum für Umweltforschung (UFZ). Diese besonderen Bedingungen des Baikalsees haben im Laufe der Evolution eine ganz besondere Fauna hervorgebracht. So sind etwa 80 Prozent der rund 2.600 im Baikalsee lebenden Tierarten endemisch, das heißt: Sie kommen ausschließlich im Baikalsee vor und haben sich somit sehr gut an die extremen Bedingungen angepasst.

Ob die Fauna des Baikalsees auch in Zukunft so artenreich und besonders bleiben wird, ist nicht sicher. Denn der See liegt in einer Region, in der die globale Erwärmung besonders stark voranschreitet. In den vergangenen 50 Jahren ist die durchschnittliche Temperatur der Wasseroberfläche des Baikals um fast 1,5 Grad Celsius gestiegen. „Und sie steigt weiter“, warnt Luckenbach. „Auch die Zeit, in der der See im Winter mit Eis bedeckt ist, ist deutlich kürzer geworden. Eine Belastung mit Chemikalien ist ebenfalls nachweisbar. Vor dem Hintergrund, dass die Umweltbedingungen im Baikalsee über sehr lange Zeiträume stabil waren, sind diese Veränderungen bedenklich.“
Im Rahmen der Helmholtz-Russland Forschungsgruppe LaBeglo erforschen Projektleiter Luckenbach und sein Team vom UFZ gemeinsam mit Wissenschaftlern der Universität Irkutsk, des AWI in Bremerhaven und der Universität Leipzig bereits seit sechs Jahren, welche Folgen sich ändernde Umweltbedingungen wie steigende Wassertemperaturen und Chemikalienbelastung für die einzigartige Lebenswelt des Baikalsees haben. Zwei im Uferbereich heimische Flohkrebsarten der Gattung Eulimnogammarus dienen dabei als Modellorganismen. Flohkrebse haben in Gewässern eine wichtige ökologische Funktion: Sie vertilgen organisches Material, sorgen so für die Reinhaltung des Wassers und dienen Fischen als Nahrung. Aufgrund dieser zentralen Rolle im Nahrungsnetz sind sie für die Ökotoxikologen wichtige Modellorganismen.

Untersuchungen zur Temperaturempfindlichkeit von Baikal-Flohkrebsen, die an der Universität Irkutsk durchgeführt wurden, zeigten, dass die eine Art (E. cyaneus) in der Lage ist, Wassertemperaturen bis zu etwa 20 Grad Celsius auszuhalten, wie sie im Sommer nahe des Ufers durchaus vorkommen können. Die Forscher konnten nachweisen, dass E. cyaneus einen konstant hohen Pegel sogenannter Hitzeschock-Proteine ausbildet, die für den Organismus wichtige Eiweiß-Moleküle schützen, die bei hohen Temperaturen sonst Schaden nehmen würden. Die andere Flohkrebsart E. verrucosus bildet weit weniger Hitzeschock-Proteine aus und wandert in tiefere, kühlere Regionen des Sees ab, um hohen Wassertemperaturen zu entgehen. „Steigen mit dem Klimawandel die Wassertemperaturen, kann dies mit weitreichenden Folgen für die jeweilige Art, aber auch für das Gleichgewicht des über lange Zeit eingespielten Ökosystems verbunden sein“, so Luckenbach. „Für E. cyaneus kann im Sommer bereits jetzt das Temperaturmaximum erreicht werden, das die Art über längere Zeit aushalten kann – ein weiterer Temperaturanstieg wäre äußerst kritisch. Und wenn E. verrucosus mehr als bislang in tieferes Wasser abwandern muss, tritt die Art mit den dort lebenden Flohkrebsarten verstärkt in Konkurrenz um Nahrungsquellen.“

In ihrer aktuellen im Fachmagazin Environmental Science and Technology veröffentlichten Studie untersuchten die UFZ-Forscher in Kooperation mit dem AWI und der Universität Irkutsk, wie die beiden Flohkrebsarten auf chemische Belastung des Wassers reagieren. Dabei wurden sie dem toxischen Schwermetall Cadmium ausgesetzt, das als Modell-Giftstoff diente. Denn bislang ist das Wasser des Baikals zwar noch weitgehend unbelastet, doch Cadmium ist ein Umweltschadstoff, der vergleichsweise häufig vorkommt und aufgrund seiner Toxizität für Ökosysteme äußerst problematisch ist. Eine zunehmende Belastung des Baikals mit Schwermetallen ist durchaus abzusehen. Der wasserreichste Baikal-Zufluss, die Selenga, ist zunehmend mit Minenabwässern aus der Mongolei belastet, und über die Luft gelangen Schadstoffe aus der Industrie-Region um Irkutsk in den See.
Im Labor zeigten die Flohkrebse folgende Reaktion: „Die kleinere Art E. cyaneus nahm den Schadstoff schneller auf und starb schon bei geringeren Schadstoffkonzentrationen im Wasser“, erklärt Dr. Lena Jakob, Ökophysiologin am AWI, die die Untersuchungen am Baikalsee durchführte. „Darüber hinaus konnten wir feststellen, dass E. verrucosus bereits bei niedrigen Cadmium-Konzentrationen seinen Stoffwechsel herunterfährt. Das ist ein Alarmzeichen, denn die Tiere fressen dann womöglich nicht, pflanzen sich nicht fort und könnten durch eingeschränkte Aktivität eher Opfer von Fraßfeinden werden. Eine auch nur geringe, aber konstante chemische Belastung des Lebensraums Baikalsee könnte also massive Auswirkungen auf einzelne Arten und das gesamte Ökosystem haben.“

In einer weiteren Studie haben die UFZ-Forscher gemeinsam mit Bioinformatikern der Universität Leipzig erste Einblicke in das Genom von E. verrucosus erhalten. Es ist überraschend groß, etwa dreimal so groß wie das menschliche Genom. Die Daten zum Genom sollen als Grundlage zur weiteren Erforschung der physiologischen Anpassungsstrategien an unterschiedliche Umweltbedingungen dienen. Luckenbach: „Wir möchten noch ein wenig mehr Licht ins Dunkel bringen, die physiologische Ebene noch besser verstehen und herausfinden, ob es noch weitere Mechanismen gibt, mit denen die Tiere in der Lage sind, den Auswirkungen des Klimawandels und dem Eintrag von Schadstoffen standzuhalten, denn letztlich geht es uns darum Vorhersagen treffen zu können, wie sich das Ökosystem zukünftig möglicherweise verändern wird“.

Publikationen:
Jakob L, Bedulina DS, Axenov-Gribanov DV, Ginzburg M, Shatilina ZM, Lubyaga YA, Madyarova EV, Gurkov AN, Timofeyev MA, Portner HO, Sartoris FJ, Altenburger R, Luckenbach T. Uptake kinetics and subcellular compartmentalization explain lethal but not sublethal effects of cadmium in two closely related amphipod species. Environ Sci Technol. 2017 May 11 http://dx.doi.org/10.1021/acs.est.6b06613

Jakob, L., D. V. Axenov-Gribanov,A. N. Gurkov,M. Ginzburg,D. S. Bedulina,M. A. Timofeyev,T. Luckenbach,M. Lucassen ,F. J. Sartoris, and H.-O. Pörtner. 2016. Lake Baikal amphipods under climate change: thermal constraints and ecological consequences. Ecosphere 7(3):e01308 http://dx.doi.org/10.1002/ecs2.1308

Weitere Informationen:
Dr. Till Luckenbach
UFZ-Department Bioanalytische Ökotoxikologie
Telefon: +49 341 235 1514
E-Mail: till.luckenbach@ufz.de
http://www.ufz.de/index.php?de=38464

Dr. Lena Jakob
AWI-Department Integrative Ökophysiologie
Telefon: +49 471 4831 1331
E-Mail: lena.jakob@awi.de
http://www.awi.de/ueber-uns/organisation/mitarbeiter/lena-jakob.html

Weitere Informationen:
http://www.ufz.de/index.php?de=36336&webc_pm=24/2017

Quelle: idw

(nach oben)


Populistische Einstellungen sind bei deutschen Wählern nicht mehrheitsfähig

Benjamin Stappenbeck Pressestelle
Bertelsmann Stiftung

Spätestens seit der Wahl von Donald Trump ist für viele Beobachter ein „Zeitalter des Populismus“ angebrochen. Aber was ist Populismus und wie populistisch sind die Deutschen? Eine Studie der Bertelsmann Stiftung hat untersucht, wie populistisch die Wahlberechtigten in Deutschland eingestellt sind und welche Auswirkungen das auf ihr Wahlverhalten und den Parteienwettbewerb vor der Bundestagswahl 2017 hat.

Grundlegend systemablehnende und anti-pluralistische Einstellungen sind in Deutschland nicht mehrheitsfähig. Zwar sind knapp 30 Prozent populistisch eingestellt. Doch die Mehrheit der deutschen Wähler lehnt populistische Positionen ab (36,9 Prozent) oder stimmt ihnen nur teilweise zu (33,9 Prozent). Auffallend ist zudem, dass die Populisten in Deutschland eher moderate und keine radikalen Ansichten vertreten. Sie lehnen die Institutionen der Demokratie oder der EU nicht grundsätzlich ab, sondern kritisieren ihr Funktionieren. Darüber hinaus sind populistische Positionen für die große Mehrheit aller Wahlberechtigten nicht wahlentscheidend. „Von einer ‚Stunde der Populisten‘ ist das politische Klima vor der Bundestagswahl weit entfernt“, fasst Robert Vehrkamp, Demokratieexperte der Bertelsmann Stiftung die Ergebnisse der Studie zusammen, die er gemeinsam mit Christopher Wratil (Universität zu Köln) verfasst hat.

Für die Studie wurden in drei repräsentativen Umfragen zwischen 2015 und 2017 jeweils mehr als 1.600 Wahlberechtigte interviewt. Ihre Ergebnisse sind repräsentativ für die wahlberechtigte Bevölkerung in Deutschland.

Populistisch eingestellte Wähler gibt es zwar über alle Parteigrenzen hinweg. Es zeigt sich jedoch eine soziale Spaltung: Je geringer der formale Bildungsstand und je niedriger das Einkommen, desto weiter verbreitet sind populistische Einstellungen. Bei Personen, die maximal über einen Hauptschulabschluss und ein durchschnittliches Monatseinkommen unterhalb von 1.500 Euro verfügen, sind populistische Einstellungen am stärksten ausgeprägt. Aufgrund ihres sozialen Profils sind deshalb auch Nichtwähler (36,4 Prozent der Nichtwähler) häufiger populistisch eingestellt als Wähler (26,3 Prozent der Wähler).

Je radikaler die Positionierung, desto geringer die Zustimmung der Wähler
In ihrer Ausprägung bleiben die populistischen Einstellungen in Deutschland jedoch eher moderat. So befürworten mehr als zwei Drittel (69 Prozent) der populistisch eingestellten Wähler die Mitgliedschaft in der EU und 85 Prozent unterstützen die Demokratie als politisches System. Jedoch kritisieren über drei Viertel (79 Prozent) von ihnen, dass die EU-Integration zu weit gegangen sei und eine knappe Mehrheit (52 Prozent) ist mit dem Funktionieren der Demokratie in Deutschland „eher nicht“ oder „überhaupt nicht“ zufrieden. „Populisten in Deutschland sind häufig enttäuschte Demokraten, aber keine radikalen Feinde der Demokratie. Im Vergleich zu den USA und Frankreich zeigt sich vor allem, dass in Deutschland die Kritik am politischen Establishment deutlich schwächer ausgeprägt ist“, so Vehrkamp.

Auch im Hinblick auf die Wählermobilisierung zeigt sich: Je zugespitzter und systemkritischer die Positionen zu Sachthemen sind, desto stärker sinkt die Zustimmung bei der Wählerschaft. Bei Wahlkampfthemen wie ‚Europa‘ oder ‚Globalisierung und Freihandel‘ zahlt sich eine Annäherung an radikal-populistische Positionen für die Parteien laut Studienautoren nicht aus. Systembejahende Positionen hingegen können die Zustimmungswerte steigen lassen. Die radikale Forderung nach einer „Entmachtung der Eliten“ wirkt sich sogar negativ auf die Wahlchancen aus (minus 12 Prozentpunkte). Im Gegenzug können Kandidaten durch pro-europäische Positionen bei allen Wahlberechtigten punkten (plus 19 Prozentpunkte).

Flüchtlingspolitik ist wichtigster Treiber für Rechtspopulismus in Deutschland
Das Thema, mit dem sich die Populisten in Deutschland derzeit am stärksten mobilisieren lassen, ist die Flüchtlingspolitik: „Das Mobilisierungsprofil der stark populistisch eingestellten AfD-Wähler ist so einseitig fokussiert wie bei keiner anderen Partei“, so Robert Vehrkamp. Mit Positionen, die sich klar zur Abschiebung von „sehr vielen Flüchtlingen“ bekennen, lässt sich die Zustimmung bei AfD-Wählern deutlich steigern (plus 51 Prozentpunkte). Die Anhänger der anderen Parteien lassen sich durch flüchtlingsfeindliche Positionen jedoch nicht mobilisieren. Bei ihnen findet der Kurs einer moderaten und kontrollierten Einwanderung von Flüchtlingen die meiste Zustimmung.
Auch der Zusammenhang zwischen populistischen Einstellungen und Parteipräferenzen wurde in der Studie untersucht. Die Partei mit den unpopulistischsten Wählern ist die CDU. Sie erreicht bei den nicht-populistischen Wählern eine Zustimmung von bis zu 60 Prozent, aber nur weniger als 20 Prozent unter den Populisten. Die SPD ist laut Studie in beiden Lagern etwa gleich stark vertreten. Die Wählerschaft der AfD hingegen ist nach den Ergebnissen der Studie eindeutig rechtspopulistisch. Bei Wählern mit ausgeprägt rechtspopulistischer Verortung erzielt sie mit rund 60 Prozent ihre höchsten Zustimmungswerte.

Zusatzinformationen
Die Studie „Die Stunde der Populisten? Populistische Einstellungen bei Wählern und Nichtwählern vor der Bundestagswahl 2017″ basiert auf einer Online-Panel-Umfrage unter wahlberechtigten Deutschen. Für die Studie interviewte infratest dimap in drei Befragungswellen zwischen Juli 2015 und März 2017 jeweils mehr als 1.600 Wahlberechtigte zu ihren politischen Einstellungen. Die Umfrage ist repräsentativ für die deutsche wahlberechtigte Bevölkerung, die zum Zeitpunkt der Bundestagswahl 2013 wahlberechtigt war. Als populistisch eingestellt gelten laut Studie Personen, die sich auf Grundlage eines Fragebogens vollständig zu insgesamt acht verschiedenen anti-pluralistischen, anti-Establishment- und pro-Volkssouveränität-Aussagen bekennen, mit denen Populismus empirisch gemessen wird.

Unsere Experten: Prof. Robert Vehrkamp
Telefon: +49 5241 8181 526
E-Mail: robert.vehrkamp@bertelsmann-stiftung.de
Christina Tillmann
Telefon: +49 5241 8181 335
E-Mail: christina.tillmann@bertelsmann-stiftung.de

Weitere Informationen:
http://www.bertelsmann-stiftung.de

Quelle: idw

(nach oben)


Ostsee-Flohkrebse haarklein erklärt – IOW-Forscher schreiben traditionsreiche Enzyklopädie fort

Dr. Kristin Beck Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Ostseeforschung Warnemünde

Anja und Michael Zettler vom Leibniz-Institut für Ostseeforschung Warnemünde (IOW) sind die Autoren des kürzlich erschienenen 83. Bandes der renommierten Buchreihe „Die Tierwelt Deutschlands“. Die beiden Experten für Meeresboden-bewohnende Tiere haben den jüngsten Band dieses bereits 1925 vom Zoologen Friedrich Dahl begründeten Grundlagenwerks den Flohkrebsen der Ostsee gewidmet. Die englischsprachige Monographie umfasst 243 bis ins kleinste Detail morphologisch charakterisierte Arten sowie Hinweise zu deren Ökologie und Lebensweise. Sie ist damit ein wertvolles Werkzeug für das Monitoring von Zeigerarten dieser Tiergruppe, die Rückschlüsse auf bestimmte Lebensraumbedingungen erlauben.

Flohkrebse (wissenschaftlich: Amphipoda) besiedeln sowohl im Meer als auch im Süßwasser Lebensräume unterschiedlichster Prägung, meist jedoch solche am Grund oder Ufer der jeweiligen Gewässer. Die Ostsee beherbergt als Brackwassermeer mit ausgeprägtem Salzgehalt-Gradienten mit höheren Konzentrationen im Westen und sehr niedrigen Konzentrationen im Nordosten sowohl Salzwasser- als auch Süßwasser-Flohkrebsarten. Oft treten sie in großen Individuenzahlen auf und sind damit wichtige Nahrungsquelle für Fische, Vögel, Säugetiere und viele weitere Tiergruppen. Außerdem sind Flohkrebse häufig Aasfresser, was sie zusätzlich zu einem wichtigen Glied in den Nahrungsnetzen ihrer jeweiligen Lebensräume macht. Flohkrebse sind daher für eine Vielzahl ökologischer und andere wissenschaftliche Fragestellungen ausgesprochen interessante Untersuchungsobjekte, die es zuverlässig zu bestimmen gilt.

Das nun von Anja und Michael Zettler vorgelegte Buch „Marine and freshwater Amphipoda from the Baltic Sea and adjacent territories“ kombiniert erstmals alle 190 marinen und 53 Süßwasserarten in einem Bestimmungshandbuch, die jemals in der Ostsee selbst sowie in ihrem Wassereinzugsgebiet – also allen Zuflüssen in den neun Ostsee-Anrainerstaaten – beobachtet wurden. Rund 4000 hochdetaillierte Einzelgrafiken illustrieren dieses umfangreiche Arteninventar und berücksichtigen dabei auch solche Arten, die bislang als gebietsfremd gelten, von denen aber anzunehmen ist, dass sie sich aufgrund umweltbedingter Artenverschiebungen dauerhaft als „Neubürger“ im Untersuchungsgebiet etablieren. Zudem enthält der 83. Band von „Die Tierwelt Deutschlands“ etliche Flohkrebsarten, die hier das erste Mal ausführlich bebildert und beschrieben werden. Das Buch ist damit – insbesondere auch durch die Verwendung von Englisch – ein wertvolles Schlüsselwerk für ein internationales Fachpublikum, in dem Experten erstmals alle für die Ostsee relevanten Flohkrebsarten nachschlagen können, anstatt immer mehrere Handbücher für diese Tiergruppe konsultieren zu müssen.

Das Buch führt damit bestens die traditionsreiche, von Friedrich Dahl (1856 – 1929) begründete Serie fort, deren Ziel heute nicht nur die umfassende Darstellung der „Tierwelt Deutschlands und der angrenzenden Meeresteile nach ihren Merkmalen und nach ihrer Lebensweise“ (Originaltitel) ist, sondern die wissenschaftlich sinnvoll einzelne Tiergruppen Ländergrenzen-überschreitend charakterisiert. Die Monographien dienen in erster Linie als hochgenaue Bestimmungsbücher. Da sie in aller Regel auch Angaben zur Lebensweise der einzelnen Arten machen, schätzen Fachleute die Bücher als besonders wertvolle Arbeitsgrundlage für die taxonomische Einordnung von im Freiland aufgefunden Exemplaren ebenso, wie für eine Einschätzung, welche ökologische Nische sie besetzen bzw. auf welche Umweltveränderungen sie reagieren. Der erste Band erschien 1925 im Gus-tav Fischer Verlag; nach dessen Auflösung 2008 wird die Reihe jetzt von den Verlagen Goecke & Evers sowie ConchBooks weitergeführt.

*Verlagsinformationen zum 83. Band von „Tierwelt Deutschlands“:
Originaltitel: Marine and freshwater Amphipoda from the Baltic Sea and adjacent territories
Verlag: ConchBooks, Harxheim | ISBN: 978-3-939767-74-9

*Fragen zu dem Buch beantworten:
Anja Zettler | Tel.: 0381 – 5197 253 | anja.zettler@io-warnemuende.de
Dr. Michael Zettler | Leiter der IOW-Arbeitsgruppe Ökologie benthischer Organismen
Tel.: 0381 – 5197 236 | michael.zettler@io-warnemuende.de

*Kontakt IOW-Presse- und Öffentlichkeitsarbeit:
Dr. Kristin Beck | Tel.: 0381 – 5197 135 | kristin.beck@io-warnemuende.de
Dr. Barbara Hentzsch | Tel.: 0381 – 5197 102 | barbara.hentzsch@io-warnemuende.de

Das IOW ist Mitglied der Leibniz-Gemeinschaft, zu der zurzeit 91 Forschungsinstitute und wissenschaftliche Infrastruktureinrichtungen für die Forschung gehören. Die Ausrichtung der Leibniz-Institute reicht von den Natur-, Ingenieur- und Umweltwissenschaften über die Wirtschafts-, Sozial- und Raumwissenschaften bis hin zu den Geisteswissenschaften. Bund und Länder fördern die Institute gemeinsam. Insgesamt beschäftigen die Leibniz-Institute etwa 18.100 MitarbeiterInnen, davon sind ca. 9.200 WissenschaftlerInnen. Der Gesamtetat der Institute liegt bei mehr als 1,6 Mrd. Euro. http://www.leibniz-gemeinschaft.de

Quelle: idw

(nach oben)


EU schafft die „Plussklassen“ beim Energielabel ab

M.A., LL.M./LL.B. Venio Quinque Unternehmenskommunikation
Bundesanstalt für Materialforschung und -prüfung (BAM)

Berlin, 28.07.2017. Brüssel gibt den Weg frei zur Neuordnung des Energielabels für energieverbrauchsrelevante Produkte. Mit Inkrafttreten der neuen Rahmenverordnung zur Energieverbrauchskennzeichnung im August 2017 verschwinden die „Plusklassen“ zukünftig und die Buchstaben A bis G decken wieder alle zulässigen Energieeffizienzklassen ab. Kundinnen und Kunden sollen dadurch in die Lage versetzt werden, Produkte besser vergleichen zu können, um sich so für das effizientere Produkt zu entscheiden. Und für die Hersteller schafft es Anreize, ihre Produkte in Puncto Energieeffizienz noch weiter zu verbessern.

Heute befinden sich die besten Geräte in den Effizienzklassen A bis A+++. Doch durch diese „Plusklassen“ geht die Klarheit und Wirksamkeit der Kennzeichnung teilweise verloren. Die EU-Kommission hat dies erkannt und nun die rechtliche Basis geschaffen, um die Effizienzklassen neu zu ordnen.

Geräte mit hohem Energieeinsparpotential zuerst
Haushaltskühlgeräte, Waschmaschinen, Waschtrockner, Geschirrspüler, Fernseher sowie Lampen und Leuchten sind die ersten Produktgruppen, die umgestellt werden. Da diese Geräte sich heute zu einem hohen Anteil nur in den höchsten Effizienzklassen befinden und technische Weiterentwicklungen zeitnah zu erwarten sind, werden durch deren Umstellung entsprechende Energieeinsparpotentiale möglich. Die EU-Kommission wird nun die detaillierten technischen Anforderungen an diese Geräte, die in sogenannten delegierten Rechtsakten beschrieben werden, bis zum Januar 2019 überarbeiten. Erst danach werden die ersten Geräte mit dem neuen Energielabel auf den Markt kommen. Dies wird Anfang 2020 zu erwarten sein.

„Die BAM unterstützt die Umsetzung dieser jetzt veröffentlichten Rahmenverordnung. Wir beraten und informieren all diejenigen, die die neuen Regeln einhalten oder anwenden müssen, also die Wirtschaft und die Marktüberwachungsbehörden“, sagt Dr. Floris Akkerman, Leiter des BAM-Referats Ökodesign und Energieverbrauchskennzeichnung.

Die Farbskala des Energielabels bleibt, die Produkte werden aber den Effizienzklassen neu zugeordnet
Die bekannte Farbskala des Energielabels von Dunkelgrün bis Rot bleibt. Verbietet allerdings die eng mit der Verbrauchskennzeichnung zusammenwirkende Ökodesign-Richtlinie (2009/125/EG) bereits Produkte in den Klassen „E“, „F“ oder „G“, dann sollen diese Klassen künftig nur in Grau auf dem Energielabel zu sehen sein.

Die Effizienzklasse A bleibt zum Zeitpunkt der Einführung der neuen Skala oder eines Energielabels für eine vorher nicht erfasste Produktgruppe frei. Im Geschäft wird anfänglich demnach kein Gerät in dieser Spitzenklasse erhältlich sein. Auch muss die Kommission sicherstellen, dass die meisten Modelle infolge ihrer Weiterentwicklung Klasse A voraussichtlich erst frühestens 10 Jahre später erreichen werden. Sollte sich die Technik einer Produktgruppe aber schneller entwickeln, müssen bei Einführung des neuen Energielabels sogar die beiden obersten Klassen frei bleiben, also A und B. Ziel ist hier Planungssicherheit, denn die Regeln sollen nicht nach kurzer Zeit angepasst werden müssen.

Für Lieferanten, Hersteller und Importeure, Händler und die Marktüberwachungsbehörden, aber auch für die EU-Kommission ändert sich so einiges mit dieser Rahmenverordnung. Mit der neuen Energieverbrauchskennzeichnung soll die Energienachfrage in der europäischen Union weiter gedämpft werden – eine der Schlüsselmaßnahmen der europäischen Strategie für Energieversorgungssicherheit sowie für den Umwelt- und Klimaschutz. Ziel der Europäischen Union ist es, bei der weltweiten Umstellung auf saubere Energie eine Führungsrolle zu übernehmen. Daher steht Energieeffizienz – auch mit Blick auf künftige Generationen – an erster Stelle in der EU.

Kontakt:
Bundesanstalt für Materialforschung und -prüfung (BAM)
Venio Quinque, M.A., LL.M./LL.B.
Leiter Referat Unternehmenskommunikation
T: + 49 30 8104-1002
presse@bam.de
www.bam.de

Über die BAM
Die BAM gewährleistet Sicherheit in Technik und Chemie.
Die Bundesanstalt für Materialforschung und -prüfung (BAM) ist eine Bundesoberbehörde im Geschäftsbereich des Bundesministeriums für Wirtschaft und Energie.

Die BAM forscht, prüft und berät zum Schutz von Mensch, Umwelt und Sachgütern. Im Fokus aller Tätigkeiten in der Materialwissenschaft, der Werkstofftechnik und der Chemie steht dabei die technische Sicherheit von Produkten und Prozessen. Dazu werden Substanzen, Werkstoffe, Bauteile, Komponenten und Anlagen sowie natürliche und technische Systeme von volkswirtschaftlicher Dimension und gesellschaftlicher Relevanz erforscht und auf sicheren Umgang oder Betrieb geprüft und bewertet. Die BAM entwickelt und validiert Analyseverfahren und Bewertungsmethoden, Modelle und erforderliche Standards und erbringt wissenschaftsbasierte Dienstleistungen für die deutsche Wirtschaft im europäischen und internationalen Rahmen.

Sicherheit macht Märkte.
Die BAM setzt und vertritt für Deutschland und seine globalen Märkte hohe Standards für Sicherheit in Technik und Chemie zur Weiterentwicklung der erfolgreichen deutschen Qualitätskultur „Made in Germany“.

Weitere Informationen finden Sie auf www.bam.de.

Quelle: idw

(nach oben)


Besser essen, länger leben: US-Studie belegt Wirkung der DASH-Diät

Stephanie Priester Geschäftsstelle
Deutsche Hochdruckliga

Heidelberg – Wer sich gesund ernährt, darf auf ein längeres Leben hoffen. Schon geringe Verbesserungen im Ernährungsplan machen sich nach den Ergebnissen einer US-Studie nach wenigen Jahren positiv bemerkbar. Für Menschen mit erhöhtem Blutdruck empfiehlt die Deutsche Hochdruckliga e.V. Deutsche Gesellschaft für Hypertonie und Prävention die sogenannte DASH-Diät. Diese hat bereits in früheren Studien eine Blutdrucksenkende Wirkung erzielt und kann den Einsatz von Medikamenten sinnvoll unterstützen.

„Der Einfluss der Ernährung auf die Gesundheit wird häufig unterschätzt“, sagt Professor Dr. Bernhard Krämer, Vorstandsvorsitzender der Deutschen Hochdruckliga. „Viele Patienten, die im mittleren Lebensalter einen erhöhten Blutdruck entwickeln, lassen sich nur schwer von einer Ernährungsumstellung überzeugen.“ Dabei haben frühere Studien bereits gezeigt, dass die sogenannte DASH-Diät – entwickelt und benannt nach Dietary Approaches to Stop Hypertension – in der Lage ist, den Blutdruck zu senken. Der Ernährungsplan fördert den Verzehr von Obst und Gemüse, Vollkornprodukten und fettarmen Milchprodukten, erlaubt sind Geflügel und Fisch, Nüsse und Hülsenfrüchte. Einschränkungen gibt es bei zuckerhaltigen Lebensmitteln und Süßgetränken sowie bei rotem Fleisch und Fettsäuren. Professor Krämer erläutert: „Die DASH-Diät war ursprünglich eine fettmodifizierte Diät mit reichlich Gemüse und Obst. In weiteren Studien hat man sie dann mit der Reduktion des Salzkonsums kombiniert – Bluthochdruck kann so wirksam gesenkt werden.“

US-Forscher haben die Auswirkungen der DASH-Diät und zwei anderer Diäten an den Teilnehmern der Nurses‘ Health Study mit 48.000 Krankenschwestern und der Health Professionals Follow-Up Study mit 26.000 Männern aus Gesundheitsberufen untersucht und die Ergebnisse jetzt publiziert. Die beiden anderen untersuchten Diäten waren eine mediterrane Ernährungsweise („Alternate Mediterranean Diet“) und die Empfehlungen der US-Regierung zur Ernährung („Alternate Healthy Eating“). „Die drei Diäten sind sich ähnlich mit dem Unterschied, dass die DASH-Diät als einzige einen Schwerpunkt auf die Vermeidung von Salz legt“, erläutert Professor Dr. med. Joachim Hoyer, Klinikdirektor der Klinik für Innere Medizin, Nephrologie und Internistische Intensivmedizin, Marburg, der sich seit langem klinisch-wissenschaftlich mit dem Thema Salz und Diät beschäftigt.

Die Studien-Auswertung ergab, dass jede Verbesserung der Ernährungsweise mit einer Senkung des Sterberisikos verbunden war. Dabei profitierten nicht nur Menschen, die die Empfehlungen vollständig angenommen hatten. „Jede Annäherung um 20 Prozent an das Ideal der DASH-Diät wurde nach 12 Jahren mit einer Senkung des Sterberisikos um 10 Prozent belohnt“, berichtet Professor Hoyer. Umgerechnet auf den Salzkonsum bedeutet dies, dass jedes Gramm Salz weniger am Tag einen Effekt erzielt. Der verminderte Salzkonsum allein ist jedoch vermutlich nicht für den günstigen Effekt verantwortlich. Professor Hoyer betont: „Alle Komponenten der DASH-Diät sind vermutlich gleich wichtig.“

Ein häufiger Fehler bei Diäten ist, dass sie nur vorübergehend eingehalten werden. „Jede Diät erfordert eine dauerhafte lebenslange Umstellung der Ernährungsgewohnheiten“, betont Professor Krämer, Direktor der V. Medizinischen Klinik der Universitätsmedizin Mannheim. Dies gelte auch für die DASH-Diät: Je länger sich die Studienteilnehmer daran hielten, desto günstiger war die Wirkung. Nach 8 Jahren war die Sterblichkeit um 7 Prozent gesunken, nach 16 Jahren betrug der Unterscheid bereits 15 Prozent. Umgekehrt gilt aber auch: Wenn die Anstrengungen nachlassen, kommt es zu einem Anstieg der Sterblichkeit. Eine Verschlechterung des DASH-Index um 20 Prozent wurde mit einem Anstieg des Sterberisikos quittiert.

Quelle:
Sotos‑Prieto, Mercedes et al.: Association of Changes in Diet Quality with Total and Cause-Specific Mortality. n engl j med 377;2 nejm.org July 13, 2017

Die Deutsche Hochdruckliga e.V. DHL® bündelt die Expertise zur arteriellen Hypertonie in Deutschland. Gegründet 1974, engagiert sie sich seitdem für eine bessere Versorgung von Menschen mit Bluthochdruck. Weltweit bleibt Bluthochdruck die größte Gefahr für die Gesundheit. Deshalb verfolgt die DHL® das Ziel „30-50-80″: Jeder Mensch ab 30 Jahren sollte seinen Blutdruck kennen. Ab 50 sollte der Blutdruck bei jedem kontrolliert und gut eingestellt sein. Menschen mit 80 sollten nicht an Folgeschäden des Bluthochdrucks wie Schlaganfall oder Herzinfarkt leiden.

Weitere Informationen:
http://www.hochdruckliga.de

Quelle: idw

(nach oben)


Ölverschmutzungen aufsaugen

Dr. Karin J. Schmitz Abteilung Öffentlichkeitsarbeit
Gesellschaft Deutscher Chemiker e.V.

Geliermittel-imprägnierte Cellulose als umweltfreundliches Abtrennungsmittel für Ölfilme

Ausgetretenes Rohöl verschmutzt und zerstört immer wieder marine Ökosysteme. Eine wirksame Maßnahme zur Entfernung eines solchen Ölteppichs könnte die Absorption in eine feste, leichter abzutrennende Phase sein. Indische Wissenschaftler berichten jetzt in der Zeitschrift Angewandte Chemie, dass Öl in Teilchen aus imprägnierter Cellulose erstarrt und sich dann einfach abschöpfen lässt.

Solange im Meer nach Öl gebohrt oder es darüber transportiert wird, werden sich Ölaustritte und -verschmutzungen nie vollständig vermeiden lassen. Da eine Ölpest zu enormen ökologischen und ökonomischen Belastungen führen kann, versucht man das auf der Oberfläche treibende Rohöl zurückzugewinnen, bevor es die Küste erreicht oder durch den Seegang zu stark emulgiert wird. Das ist allerdings schwierig. Durch einfache Sperren und Aufsaugvorrichtungen kann es zum Beispiel nur dann zurückgewonnen werden, wenn sich der Ölfilm noch nicht weit verbreitet und verdünnt hat. Kana M. Suresan und Annamalai Prathap vom Indian Institute of Science, Education and Research (IISER) Thiruvananthapuram in Kerala,(Indien) haben jetzt eine erstaunlich einfache Strategie entwickelt und getestet. Durch eine Kombination von Absorption und Gelbildung konnten sie das Öl an eine poröse Matrix binden und dann die festen Teilchen einfach aus dem Wasser herausschöpfen. Selbst voll mit Öl sanken die Körner nicht und blieben an der Oberfläche.

Als umweltfreundliche, preiswerte und poröse Trägermatrix wählten sie Cellulose, die sie mit einem Öl-Geliermittel, einer preiswerten organischen Mannitolverbindung, imprägnierten. Die Imprägnierung erwies sich als entscheidend, um aus einfacher Cellulose ein wirksames System für die Absorption und Wiedergewinnung von Rohöl zu machen.

Das lag vor allem am Geliermittel, dem „Organogelator“. „Phasenselektive Organogelatoren sind Amphiphile, die Öle selektiv aus einer zweiphasigen Mischung von Öl und Wasser gerinnen lassen können“, erklären die Wissenschaftler. Zur Gelbildung kommt es, weil sich die Gelatormoleküle in der Ölphase lösen und dann durch Wasserstoffbrücken ein dreidimensionales Fasernetzwerk aufbauen. In diesem feinfaserigen Netzwerk wird das Öl eingefangen und bildet ein starres Gel. Durch die Gelierung wird also die flüssige Ölphase fest und kann einfach abgeschöpft werden.

Der andere Vorteil durch die Imprägnierung ist die Herstellung einer wasserabweisenden Cellulosematrix, die ganz im Gegensatz zur unbehandelten Cellulose fast kein Wasser aufsaugt. Dagegen „absorbierte sie das gesamte verteilte Öl, und die Körner mit dem geronnenen Öl konnten nach zwei Stunden herausgeschöpft werden, während sauberes Wasser zurückblieb“, berichteten die Autoren. Und auch ein Recycling war möglich: Wie die Wissenschaftler zeigten, kann man durch Ausquetschen oder Destillation das Öl aus den geronnenen Körnern zurückgewinnen. Dieses einfache, preiswerte und umweltfreundliche System sollte interessante Aspekte für die Feldforschung bieten.

Angewandte Chemie: Presseinfo 31/2017
Autor: Kana M. Sureshan, Indian Institute of Science Education and Research (India), http://www.iisertvm.ac.in/faculties/kms.phpx

Link zum Originalbeitrag: https://doi.org/10.1002/ange.201704699

Angewandte Chemie, Postfach 101161, 69451 Weinheim, Germany.

Quelle: idw

(nach oben)


Nisthilfen machen Äcker für Wildbienen attraktiv

Robert Emmerich Presse- und Öffentlichkeitsarbeit
Julius-Maximilians-Universität Würzburg

Wildbienen sind wichtige Bestäuber vieler Nutzpflanzen – mitunter effektivere als Honigbienen. Ihre Zahl lässt sich mit einfachen Mitteln nachhaltig erhöhen. Das zeigt eine aktuelle Studie aus dem Biozentrum der Universität Würzburg.

Die Landwirte haben ein Problem: Vielerorts macht sich die Honigbiene immer rarer. Pflanzen bilden oft aber nur dann Früchte und Samen, wenn ihre Blüten zuvor mit Pollen von Artgenossen befruchtet wurden. Ohne Bestäuber sinken daher die Erträge.

Honigbienen sind jedoch nicht die einzigen Insekten, die diese wichtige Aufgabe übernehmen. Auch die verschiedenen Wildbienen-Arten sind emsige Pollensammler und bestäuben bei dieser Tätigkeit eine Reihe von Nutzpflanzen. Ihre Bedeutung wurde dennoch lange unterschätzt. Inzwischen weiß man aber, dass die Erträge vieler Feldfrüchte spürbar steigen, wenn zwischen ihnen nicht nur Honigbienen, sondern auch ihre „wilden“ Verwandten umherschwirren.

Landschaften mit Rapsfeldern untersucht
„Wir haben daher untersucht, wie sich die Anzahl der Wildbienen auf landwirtschaftlichen Nutzflächen nachhaltig steigern lässt“, erklärt Ingolf Steffan-Dewenter. Der gelernte Imker und Professor für Tierökologie und Tropenbiologie an der Universität Würzburg hat dafür mit seinem Team und mit Kollegen der Universität Wageningen zahlreiche Landschaften mit Rapsfeldern unter die Lupe genommen. Die Studie wurde im EU-Projekt STEP (Status and Trends of European Pollinators) durchgeführt.

Die untersuchten Flächen lagen zum einen in der Umgebung von Würzburg und zum anderen in den Niederlanden. Die Biologen brachten an den Rändern der Felder zunächst so genannte Nisthilfen an – das sind im Prinzip kurze gebündelte Schilfhalme, in denen die Insekten ihre Eier ablegen können. Dann beobachteten sie über einen Zeitraum von zwei Jahren, wie viele Brutzellen in diesen Nestern angelegt wurden und von welchen Arten diese stammten.

Blütenpflanzen als Nahrungsressourcen wichtig
Während der Rapsblüte im Mai locken die Felder jede Menge Bestäuber an. Kein Wunder, dass zu dieser Zeit die Zahl der durch Wildbienen besiedelten Nistplätze geradezu explodierte. Danach nahm die Brutaktivität in beiden Jahren wieder deutlich ab. „Blütenpflanzen sind die einzige Nahrungsressource von Wildbienen – und zwar sowohl der erwachsenen Tiere als auch ihrer Larven“, erläutert Ingolf Steffan-Dewenter. „Die Insekten gedeihen also nur dort, wo auch ausreichend Blütenpflanzen zur Verfügung stehen.“

Raps blüht nur wenige Wochen; danach geht das Nahrungsangebot rapide zurück. Mit diesen Gegebenheiten kommen nur Wildbienenarten klar, deren Aktivitätsmaximum ins Frühjahr fällt.

„Um eine größere Vielfalt von Bienen anzusiedeln, ist es nötig, genügend blütenreiche Gebiete in der Nähe der Nistplätze zu schaffen – dazu reichen oft schon schmale Streifen mit Wildblumen“, betont Steffan-Dewenter. „Wir konnten zeigen, dass derartige Maßnahmen, aber auch naturnahe Habitate in der Umgebung, die Häufigkeit von Wildbienen auf den Feldern positiv beeinflussen.“

Einfache Maßnahmen mit positiver Wirkung
Ein ausreichendes Nahrungsangebot ist eine Sache – fast ebenso wichtig ist aber die Bereitstellung von Nisthilfen, wie sie in der Studie erfolgte. Wenn aber genügend Brutplätze und Blütenpflanzen vorhanden sind, können sich die Wildbienen rasant vermehren. „Unsere Arbeit zeigt, wie positiv sich vergleichsweise einfache Maßnahmen auf die Zahl und Vielfalt der Bestäuber auswirken“, erklärt der Würzburger Biologe.

Landwirte können sich auf diese Weise unabhängiger von der Honigbiene machen, zumal sich mit Hilfe von Wildbienen der Ertrag vieler Nutzpflanzen sogar noch steigern lässt. Auch aus anderen Gründen sei es sinnvoll, auf verschiedene Bestäuberarten zu setzen, meint Dr. Andrea Holzschuh, Koautorin und wissenschaftliche Mitarbeiterin am Lehrstuhl: Eine einzige Bienenart sei deutlich gefährdeter, durch Parasiten oder Krankheiten gravierend dezimiert zu werden; bei verschiedenen Arten sei das Risiko geringer.

Parasiten kein großes Problem
Allerdings sind auch Wildbienen nicht vor natürlichen Feinden und Krankheitserregern gefeit: Wie die Wissenschaftler in ihrer Studie gezeigt haben, wurde jede sechste Brutzelle von Parasiten attackiert, und etwa genauso viele Larven starben durch Infektionen. Je größer die Zahl der Bienen war, desto größer auch der Anteil von ihnen, der diesen Problemen zum Opfer fiel. Nachhaltig beeinträchtigen konnte dieser Effekt die Vermehrung der nützlichen Insekten jedoch nicht.

Publikation
Matteo Dainese, Verena Riedinger, Andrea Holzschuh, David Kleijn, Jeroen Scheper und Ingolf Steffan-Dewenter: Managing trap-nesting bees as crop pollinators: Spatiotemporal effects of floral resources and antagonists. Journal of Applied Ecology; DOI: 10.1111/1365-2664.12930

Kontakt
Prof. Dr. Ingolf Steffan-Dewenter, Professur für Tierökologie und Tropenbiologie, Biozentrum der Universität Würzburg, T +49 931 31-86947, ingolf.steffan@uni-wuerzburg.de

Weitere Informationen:
http://www.zoo3.biozentrum.uni-wuerzburg.de/en/team/steffan_dewenter/
Website von Prof. Dr. Ingolf Steffan-Dewenter

Quelle: idw

(nach oben)


Keimschleuder Küchenschwamm

Jutta Neumann Pressestelle
Hochschule Furtwangen

Die weltweit erste umfassende Studie zur Keimbelastung gebrauchter Küchenschwämme ist nun erschienen. In den Reinigungsutensilien wurde eine teils besorgniserregend hohe Konzentration von Bakterien nachgewiesen. Den Schwamm heiß auszuwaschen oder in der Mikrowelle zu behandeln, ist keine langfristige Lösung, sagen die Forscher.

In Deutschland gibt es rund 40 Millionen Privat-Haushalte. „Wenn in jedem davon nur ein bis zwei Küchenschwämme vorhanden sind, beläuft sich ihre Zahl in Deutschland auf 40 bis 80 Millionen“, so Professor Dr. Markus Egert von der Hochschule Furtwangen, der die Studie leitete. „Mit institutionellen Einrichtungen kommt man vermutlich auf mehr als 100 Millionen in Deutschland.“ – 100 Millionen potentielle Keimschleudern.

In einem Kooperationsprojekt der Hochschule Furtwangen (HFU) mit der Justus Liebig-Universität Gießen und dem Helmholtz Zentrum München ist die Studie enstanden; Fördermittelgeber war die HFU. Die renommierte wissenschaftliche Zeitschrift „Scientifc Reports“, die zur Nature Publishing Group gehört, hat die Studie nun veröffentlicht (DOI:10.1038/s41598-017-06055-9 1, www.nature.com/scientificreports, Titel: Microbiome analysis and confocal microscopy of used kitchen sponges reveal massive colonization by Acinetobacter, Moraxella and Chryseobacterium species).

Die Mikrobiologen nahmen 14 gebrauchte Schwämme aus dem Großraum Villingen-Schenningen unter die Lupe. Entdeckt wurden darin 362 verschiedene Arten von Bakterien. „Was uns überrascht hat: Fünf der zehn häufigsten von uns gefundenen Arten gehören in die sogenannte Risikogruppe 2, das bedeutet sie sind potentiell pathogen“, erläuert Egert. Dabei handelte es sich um Umwelt- und Wasserbakterien, aber auch um Bakterien, die typisch für die menschliche Haut sind. Insbesondere bei immungeschwächten Menschen, wie Kranken und Alten, können Bakterien wie Acinetobacter johnsonii, Moraxella osoloensis und Chryseobacterium hominis zu Infektionen führen. Das sehr häufige nachgewiesene Bakterium Moraxella osloensis steht zudem im Verdacht, schlechten Geruch zu erzeugen, kann also für stinkende Küchenschwämme verantwortlich sein. Fäkalbakterien und Lebensmittelvergifter oder Durchfallerreger hingegen wurden kaum nachgewiesen.

Besonders bedenklich: In Schwämmen, die laut ihrer Nutzer regelmäßig gereinigt wurden, etwa in der der Mikrowelle oder durch Auswaschen, zeigten sich deutlich höhere Anteile der potentiell pathogenen Bakterien. Die Wissenschaftler gehen davon aus, dass die Reinigung von Schwämmen zwar zu einer kurzfristigen Verminderung der Keimzahl führen kann; in den schnell wieder hoch wachsenden Gemeinschaften dominieren dann aber offensichtlich immer stärker die potentiell pathogenen Bakterien, vermutlich aufgrund einer höheren Stresstoleranz.

Küchenschwämme bestehen überwiegend aus Schaumstoff, wie Polyurethan. Ihre durch zahlreiche Poren riesige innere Oberfläche bietet Mikroorganismen viel Platz zum Wachsen. „Teils erreichten die Bakterien Dichten von mehr als 5 mal 1010 Zellen pro Kubikzentimeter“, erläutert Egert. „Das sind Konzentrationen, wie man sie sonst nur noch in Fäkalproben findet.“ Ein Wert, der in einer Küche nicht erreicht werden sollte. Diese hohen Dichten erklären sich mit den optimalen Lebensbedingungen, die Bakterien im Schwamm finden: neben der großen Oberfläche zum Aufwachsen viel Feuchtigkeit und viele Nährstoffe, etwas aus Lebensmittelresten und Schmutz. Das Bild- und Filmmaterial der Studie visualisiert die bakterielle Belastung der Küchenschwämme in eindrucksvoller Weise und bietet sich als Lehrmaterial an, um ein Bewusstsein für Küchenschwämme als mikrobielle Inkubatoren im Haushalt zu schaffen.

Probleme können sich vor allem in sensiblen Umgebungen ergeben. Etwa in Krankenhäusern, Altenheimen oder bei der privaten Pflege zu Hause, wenn dort Menschen mit geschwächtem Immunsystem leben. Anstelle sie zu häufig zu reinigen, sollten Küchenschwämme aus hygienischen Gründen gerade hier besser regelmäßig entsorgt werden, etwa in einem wöchentlichen Rhythmus. In neu gekauften Schwämmen konnten die Forscher übrigens keinerlei mikrobielle Belastung nachweisen.

Weitere Informationen:
http://www.nature.com/articles/s41598-017-06055-9

Quelle: idw

(nach oben)


Biologen aus Rostock und St. Petersburg forschen für klares Wasser an der Ostseeküste

Ingrid Rieck Presse- und Kommunikationsstelle
Universität Rostock

In 20 Jahren können Urlauber und Einheimische in den Boddengewässern an der Ostseeküste selbst im Sommer auf klares Wasser statt der heute noch häufig anzutreffenden „Erbsensuppe“ hoffen. Davon ist Professor Hendrik Schubert überzeugt. Er leitet den Lehrstuhl Ökologie am Institut für Biologie der Universität Rostock. „Keiner ist glücklich, wenn Algenblüten die gerade für Kinder so geeigneten Badestellen mit flachem, warmem Wasser in eine trübe Brühe verwandeln“.

Dieses Ziel – bessere Wasserqualität in den Bodden und Haffen – hat der Rostocker Forscher fest im Visier und setzt dabei auch auf die seit 20 Jahren vertrauensvolle und wie er es nennt, „spannende Zusammenarbeit mit russischen Kollegen des Zoologischen Institutes und des Institutes für Zytologie – beides Institute der Russischen Akademie der Wissenschaften in St. Petersburg“. Dr. habil. Irena V. Telesh aus St. Petersburg, international eine der führenden Wissenschaftlerinnen auf dem Gebiet der Brackwasserökologie, war gerade wieder Gast am Institut für Biologie der Uni Rostock. Gemeinsam erkunden die Wissenschaftler bei gegenseitigen Forschungsaufenthalten die Biodiversität der Ostsee; Ziel der Untersuchungen ist es zu verstehen, wie sich Salzgehaltsschwankungen auf die Wasserqualität auswirken.

Während es anfangs in der Zusammenarbeit lediglich um die spezielle Gruppe der Protisten, also Urwesen wie Algen, Pilze und Protozoen ging, hat sich das gemeinsame Forschen mittlerweile bis hin zur Entwicklung von Konzepten für die Brackwasser-Ökologie entwickelt. „Wir beginnen jetzt zu verstehen, wie Ökosysteme unter den Bedingungen ständig wechselnder Salzgehalte, wie sie im Durchmischungsbereich von Meer- und Flusswasser auftreten, funktionieren.“, sagt Prof. Schubert. Solche Brackwasser-Ökosysteme, zu denen die Ostsee gezählt werden kann, weisen eine ganze Reihe von Besonderheiten auf. Gut angepasst an Schwankungen der Salinität, sind sie gegenüber Veränderungen anderer Umweltfaktoren wie z. B. Neueinwanderern durchaus besonders empfindlich.

„Wir konnten nachweisen, dass das Brackwasser mit seinem variablem Salzgehalt nicht für alle Organismen eine bloße Herausforderung darstellt; für sich schnell entwickelnde Kleinstlebewesen kann es eine Chance sein, zumindest temporär Habitate zu erobern, die ihnen sonst verschlossen bleiben“, hebt Prof. Schubert hervor. Für große, sich langsam entwickelnde Organismen dagegen ist Brackwasser offenbar nicht leicht zu meistern. Diese Diskrepanz beeinflusst die Wechselwirkungen zwischen den einzelnen Ebenen der Nahrungskette stark. Vor allem dem Zooplankton – Verbindungsglied zwischen den Algen als Produzenten und den höheren Konsumentenebenen wie Fischen und Muscheln, – gilt momentan das Augenmerk der USELab-Forscher. Zooplankton, in der Ostsee zumeist Kleinkrebse und Flagellaten, ist in der Lage, Algenblüten zu kontrollieren. Damit kann Zooplankton das Ökosystem der Ostsee und vor allem deren Küstengewässer stabilisieren. Auf der anderen Seite stellen sie die Nahrung für viele Fischarten dar.

Die Herausforderung für die Forscher: „Wenn wir genau verstehen, wie die Wechselwirkungen im Ökosystem der Ostsee stattfinden, dann haben wir die Möglichkeit, mit Biomanipulation den Zustand des Wassers gezielt positiv zu beeinflussen“. Die Erkenntnisse der deutsch-russischen Ostsee-Forschung genießen in der Wissenschaftsgemeinschaft weltweit Anerkennung und werden nicht nur als Grundlage weiterer Forschung verwendet, sondern haben bereits den Weg in die Lehrbücher gefunden.

Vor sieben Jahren wurde das deutsch-russische „Ulrich-Schiewer Laboratory for Experimental Aquatic Ecology“ (USELab) gegründet. Diese Langzeitkooperation, die durch das Internationale Büro des BMBF Starthilfe bekam, erlaubte zum Beispiel das Entdecken einer unerwartet hohen Anzahl von Planktonarten (etwa 4000) in der Ostsee. „Zunächst hatte man angenommen, dass es sich bei der Ostsee auch im Plankton um ein artenarmes Meer handele“, sagt Irena Telesh – „Unsere substanziell neuen Erkenntnisse haben das Verständnis zur Rolle von Mikroorganismen in küstennahen Ökosystemen deutlich verbessert.“ Mittlerweile sind der Zusammenarbeit mehr als 20 wissenschaftliche Publikationen sowie zahlreiche Buchbeiträge und sonstige Veröffentlichungen entsprungen. Sowohl deutsche als auch russische Fördereinrichtungen unterstützen die Vorhaben der Forschergruppe, so dass USELab trotz der komplizierten bilateralen Struktur auf einer stabilen Basis steht.

Die russischen Kollegen reisten gerade mit der frohen Botschaft an, dass die Russian Science Foundation – eine der DFG vergleichbare Institution – die Vorhaben in den kommenden Jahren finanziell unterstützen wird, so dass unabhängig von der jeweiligen politischen Großwetterlage die wissenschaftliche Zusammenarbeit von beiden Ländern finanziert wird. Das neue Projekt, das von Dr. habil Sergei Skarlato vom Institut für Zytologie in St. Petersburg geleitet werden wird, erlaubt unter anderem auch die Fortführung des Doktorandenaustausches zwischen den deutschen und russischen Partnereinrichtungen.

Kontakt:
Prof. Dr. Hendrik Schubert
Universität Rostock
Mathematisch-Naturwissenschaftliche Fakultät
Institut für Biowissenschaften
Lehrstuhl Ökologie
Tel. Ökologie 0381 498 6070
http://www.biologie.uni-rostock.de/oekologie/home.html

Quelle: idw

(nach oben)


Wie sauber putzen die „Zahn-Profis“?

Charlotte Brückner-Ihl Referat für Presse- und Öffentlichkeitsarbeit
Justus-Liebig-Universität Gießen

100-prozentig saubere Zähne – Ist das überhaupt möglich? Institut für Medizinische Psychologie der Universität Gießen legt in Zusammenarbeit mit Zahnmedizinern Studie zur Mundhygiene vor

Man muss sich gründlich die Zähne putzen, um schädlichen Zahnbelag zu entfernen und somit Krankheiten wie Karies oder Parodontitis vorzubeugen. Dies ist den meisten Menschen schon seit frühester Kindheit bekannt, und sie versuchen, sich daran zu halten. Doch selbst wenn sie sich zweimal täglich die Zähne putzen, schaffen es nur wenige, ihre Zähne gut zu reinigen. Immer wieder bemängeln Zahnärztinnen und Zahnärzte die unzureichende Mundhygiene vieler Patientinnen und Patienten. Es stellt sich die Frage: Wie sauber kann man die Zähne durch das Putzen mit einer Handzahnbürste und die Nutzung von Hilfsmitteln zur Zahnzwischenraumhygiene bekommen? Ist es überhaupt möglich, die Zähne 100-prozentig und damit „komplett“, zu reinigen? Grund genug für Prof. Dr. Renate Deinzer vom Institut für Medizinische Psychologie der Justus-Liebig-Universität Gießen (JLU) und ihre Mitarbeiterin Dr. Daniela Harnacke, dieser Frage im Rahmen einer Studie nachzugehen: Unter dem Titel „Finding an upper limit of what might be achievable by patients: oral cleanliness in dental professionals after self-performed manual oral hygiene“ hat die Psychologin jetzt die Ergebnisse vorgelegt. Und diese lassen aufhorchen: Auch Profis reinigen offenbar ihre Zähne und ihr Zahnfleisch nicht durchweg perfekt.

Beteiligt an der Studie waren vonseiten der JLU folgende Wissenschaftlerinnen und Wissenschaftler: Prof. Dr. Renate Deinzer, Dr. Daniela Harnacke und René Schmidt (alle vom Institut für Medizinische Psychologie), Prof. Dr. Jörg Meyle, Poliklinik für Parodontologie, und Prof. Dr. Bernd Wöstmann, Poliklinik für zahnärztliche Prothetik, und außerdem von der Universität Dresden der Parodontologe Prof. Dr. Thomas Hoffmann und von der Universität Leipzig Privatdozent Dr. Dirk Ziebolz.

In der jetzt online publizierten Studie (DOI: 10.1007/s00784-017-2160-9;
https://www.ncbi.nlm.nih.gov/pubmed/28676902) wurde an acht Universitätszahnkliniken das Zahnputzverhalten jener Personen untersucht, die nicht nur von ihren Patientinnen und Patienten eine gute Mundhygiene verlangen, sondern auch bei der Vermittlung von Mundhygiene eine Rolle spielen: 64 Zahnärztinnen und Zahnärzte, 33 Studierende der Zahnmedizin sowie 30 zahnmedizinische Fachangestellte. Sie alle wurden gebeten, sich die Zähne mit einer Handzahnbürste zu reinigen; zudem stellte man ihnen Hilfsmittel für die Reinigung der Zahnzwischenräume zur Verfügung. Vor und nach der Reinigung der Zähne wurden die Zahnbeläge erfasst.

Das Ergebnis der Untersuchung stellt Studienleiterin Prof. Deinzer jetzt vor: Nach dem Putzen habe man nur wenige Beläge auf den Zähnen der Teilnehmerinnen und Teilnehmer gefunden, wobei sich die unterschiedlichen Berufsgruppen nicht voneinander unterschieden hätten. Die meisten (96 Prozent) zeigten mehr als 70 Prozent saubere Flächen am Zahnfleischrand; drei Viertel der untersuchten Personen wiesen an 89 Prozent der Flächen am Zahnfleischrand keine Beläge auf. Zahnmedizinische Laien erreichen bei demselben Test selten mehr als 50 Prozent sauberer Flächen, oft weniger als 30 Prozent.

Prof. Deinzer kommentiert die Ergebnisse wie folgt: „Es ist also grundsätzlich möglich, mit einer Handzahnbürste und Hilfsmittel zur Reinigung der Zahnzwischenräume eine fast 100-prozentige Sauberkeit zu erreichen.“ Aber sie schränkt zugleich ein: „Die ,Zahn-Profis‘ haben gegenüber den Patientinnen und Patienten allerdings auch einige Vorteile.“ Die untersuchten Personen wiesen insgesamt eine gute Mundhygiene auf und hatten nur in wenigen Fällen Zahnfleischentzündungen. Es waren nur selten Kronen oder andere „Hindernisse“ vorhanden, die eine Reinigung erschweren können. Und: „Die Profis wissen, worauf es ankommt“, betont Deinzer. „Es ist besonders wichtig, die Beläge am Zahnfleischrand zu entfernen. Auch sollte man Zähne und Zahnfleisch nicht ,irgendwie‘, sondern systematisch putzen, um keine Fläche zu vergessen.“ Weniger wichtig schienen die Profis die Zahnputztechnik zu finden. Knapp die Hälfte der an der Studie Beteiligten konnte gar nicht sagen, mit welcher Technik sie geputzt hatte; die Putzergebnisse waren aber dennoch genauso gut wie bei denjenigen, die eine spezielle Technik verwendet hatten.

Studienleiterin Deinzer zieht folgendes Fazit: „Eine Möglichkeit, die Mundhygiene der Patientinnen und Patienten weiter zu verbessern, könnte darin bestehen, noch genauer zu erklären, worauf es wirklich ankommt: auf den Zahnfleischrand und darauf, dass wirklich alle Zähne von innen und außen gereinigt werden. Außerdem dürfen auch die Zahnzwischenräume nicht vergessen werden. Unbedingt sollte man eine Systematik beim Putzen etablieren, damit kein Zahn und keine Fläche vergessen werden.“

Weitere Informationen
Deinzer R, Schmidt R, Harnacke D, Meyle J, Ziebolz D, Hoffmann T, Wöstmann B.„Finding an upper limit of what might be achievable by patients: oral cleanliness in dental professionals after self-performed manual oral hygiene“, 2017;
DOI: 10.1007/s00784-017-2160-9

Kontakt:
Prof. Dr. Renate Deinzer
Institut für Medizinische Psychologie der Justus-Liebig-Universität Gießen
Friedrichstraße 36; 35392 Gießen
Telefon: 0641 99 45680; Fax: 0641 99 45689
E-Mail: Renate.Deinzer@psycho.med.uni-giessen.de

———————————————————————————————————————–
Die 1607 gegründete Justus-Liebig-Universität Gießen (JLU) ist eine traditionsreiche Forschungsuniversität, die über 28.000 Studierende anzieht. Neben einem breiten Lehrangebot – von den klassischen Naturwissenschaften über Rechts- und Wirtschaftswissenschaften, Gesellschafts- und Erziehungswissenschaften bis hin zu Sprach- und Kulturwissenschaften – bietet sie ein lebenswissenschaftliches Fächerspektrum, das nicht nur in Hessen einmalig ist: Human- und Veterinärmedizin, Agrar-, Umwelt- und Ernährungswissenschaften sowie Lebensmittelchemie. Unter den großen Persönlichkeiten, die an der JLU geforscht und gelehrt haben, befindet sich eine Reihe von Nobelpreisträgern, unter anderem Wilhelm Conrad Röntgen (Nobelpreis für Physik 1901) und Wangari Maathai (Friedensnobelpreis 2004). Seit 2006 wird die JLU sowohl in der ersten als auch in der zweiten Förderlinie der Exzellenzinitiative gefördert (Excellence Cluster Cardio-Pulmonary System – ECCPS; International Graduate Centre for the Study of Culture – GCSC).

Weitere Informationen:
http://www.uni-giessen.de
http://www.ncbi.nlm.nih.gov/pubmed/28676902

Quelle: idw

(nach oben)


Mit kürzeren und flexibleren Arbeitszeiten können Betriebe rentenberechtigte Mitarbeiter halten

Wolfgang Braun Presse- und Öffentlichkeitsarbeit
Institut für Arbeitsmarkt- und Berufsforschung der Bundesagentur für Arbeit (IAB)

Jeder dritte Betrieb versucht, rentenberechtigte Mitarbeiter weiter zu beschäftigen. Kürzere und flexiblere Arbeitszeiten anzubieten waren dabei die wichtigsten Maßnahmen, um die Mitarbeiter zu halten. Das geht aus einer am Montag veröffentlichten Studie des Instituts für Arbeitsmarkt- und Berufsforschung (IAB) hervor.

Im Jahr 2015 erreichten rund 650.000 Mitarbeiter die Rentenberechtigung oder waren bereits rentenberechtigt. In gut 170.000 Fällen wollten die Betriebe rentenberechtigte Mitarbeiter halten. Gelungen ist das bei knapp 145.000 Mitarbeitern. Dies entspricht einer Erfolgsquote von 83 Prozent. Allerdings haben die Betriebe möglicherweise in Fällen, bei denen sie sich keine Chancen ausrechneten, erst gar nicht versucht, die Mitarbeiter zu halten, merken die Arbeitsmarktforscher zur hohen Erfolgsquote an.

„Danach gefragt, welche Maßnahmen in den erfolgreichen Fällen eingesetzt wurden, gab die überwiegende Mehrheit der Betriebe (60 Prozent) kürzere Arbeitszeiten an, gefolgt von 49 Prozent der Betriebe, die rentenberechtigte Mitarbeiter mit einer Flexibilisierung der Arbeitszeit halten konnten“, schreiben die Arbeitsmarktforscher. Eine Veränderung des Tätigkeitsprofils stellte für insgesamt 17 Prozent der Betriebe ein erfolgreiches Instrument dar, während 13 Prozent der Betriebe mit einer höheren Entlohnung, Prämien oder einer Beförderung rentenberechtigte Mitarbeiter weiter beschäftigen konnten.

Bei einer Betrachtung nach Wirtschaftszweigen zeigt sich, dass im Bereich der Öffentlichen Verwaltung mit 18 Prozent vergleichsweise wenige Betriebe Versuche unternahmen, rentenberechtigte Mitarbeiter zu halten. Die Erfolgsquote fiel hier mit 67 Prozent zudem unterdurchschnittlich aus. Im Wirtschaftszweig „Maschinen, Elektrotechnik, Fahrzeuge“ waren es dagegen 43 Prozent der Betriebe, die rentenberechtigten Mitarbeitern entsprechende Angebote unterbreiteten. Die Erfolgsquote betrug dabei 86 Prozent. „Der Wunsch, Mitarbeiter zu halten, wird maßgeblich durch Fachkräfteengpässe bestimmt, welche insbesondere im verarbeitenden Gewerbe eine Rolle spielen: Liegen Fachkräfteengpässe vor, so steigt die Wahrscheinlichkeit, rentenberechtigte Mitarbeiter halten zu wollen, statistisch hochsignifikant um 21 Prozentpunkte“, erklären die Forscher.

Kleinbetriebe versuchten mit 32 Prozent einen erheblich höheren Anteil an rentenberechtigten Mitarbeitern zu halten als größere Betriebe mit elf Prozent. Auch hier spielen Rekrutierungsprobleme eine Rolle: „Kleinbetriebe haben tendenziell schlechtere Chancen, ausscheidende Mitarbeiter durch Neueinstellungen adäquat zu ersetzen“, so die Arbeitsmarktforscher.

Die aufgrund des Flexirenten-Gesetzes seit diesem Jahr geltenden Regelungen zur Verlängerung der Lebensarbeitszeit werden von den Betrieben überwiegend positiv eingeschätzt. Besonders hoch ist die Zustimmung zum Wegfall der Arbeitslosenversicherungsbeiträge für altersrentenberechtigte Mitarbeiter und zu den großzügigeren Hinzuverdienstmöglichkeiten im Rahmen einer Teilrente.

Die IAB-Studie beruht auf einer repräsentativen Befragung von rund 13.000 Betrieben.

Weitere Informationen:
http://doku.iab.de/kurzber/2017/kb1617.pdf
https://twitter.com/iab_news

Quelle: idw

(nach oben)


Forscher nehmen Ostsee fächerübergreifend unter die Lupe

Ingrid Rieck Presse- und Kommunikationsstelle
Universität Rostock

Wissenschaftler erarbeiten Entscheidungshilfe für die Politik
„Der Zustand der Küstensysteme der deutschen Ostseeküste hat sich in den vergangenen 25 Jahren deutlich verändert – und zwar zum Besseren“, urteilt Prof. Hendrik Schubert vom Lehrstuhl Ökologie der Universität Rostock. Noch vor 25 Jahren seien vor allem die inneren Küstengewässer in einem denkbar schlechten Zustand gewesen. „Jetzt beobachten wir bereits wieder ausgedehnte Unterwasserwiesen. Damit hat sich das gesamte Ökosystem verändert und wir fangen gerade an zu verstehen, wie es unter diesen neuen Bedingungen funktioniert und wie wir es behandeln müssen, um den positiven Trend zu unterstützen.“

Der Biologe und sein Projektteam haben die inneren Küstengewässer, wie beispielsweise den Bodden, in den vergangenen vier Jahren unter die Lupe genommen. Zufrieden sind sie mit dem gegenwärtigen Zustand noch nicht; verglichen mit der Zeit vor 1870 sind nach wie vor Schädigungen erkennbar. Warum gerade diese Jahreszahl? Weil es für den Ostseeraum keine durch den Menschen unbeeinflussten Gebiete gibt, musste als Referenz der historische Zustand der Ostsee vor Einsetzen der Industrialisierung rekonstruiert werden. „Das wäre ohne die vielen Sammlungen und aktive Hilfe aus den Museen nicht möglich gewesen“, sagt Prof. Schubert

Sowohl die Wasserrahmenrichtlinie als auch die aktuelle Meeresstrategie-Richtlinie der Europäischen Union (EU) verlangen, dass der ökologische Zustand der Küsten-und Meeresgebiete bewertet wird. Für die Küstenforscher Deutschlands bedeutet das, dass geeignete Indikatororganismen identifiziert werden müssen, die eine Bewertung des ökologischen Zustandes ermöglichen.

Ein Verbund von Rostocker, Greifswalder und Kieler Forschern arbeiten gegenwärtig in mehreren Projekten an dieser Aufgabe. Neu ist dabei, dass in den zwei Projekten, die in Rostock koordiniert werden, in Zusammenarbeit mit den Kieler Forschern erstmals auch die Wechselwirkungen zwischen ökonomischen und ökologischen Aspekten erfasst und analysiert werden.

„Damit soll die Politik ein Hilfsmittel in die Hand bekommen, um bei Nutzungskonflikten, wie sie zwischen Tourismus, Schifffahrt und Fischerei zwangsläufig auftreten, eine belastbare Abwägung der Folgen und Risiken raumplanerischer Entscheidungen vornehmen zu können“, betont Prof. Schubert die Zielsetzung dieser vom BMBF geförderten Arbeiten. Bis dahin ist allerdings noch viel zu tun. Vor allem die Frage, wie gesellschaftliche Akzeptanz entsteht und welche Rückkopplungsmechanismen hier zu Paradigmenwechseln führen können, sind bislang noch wenig verstanden. Solche Wechselwirkungen zwischen Ökonomie, Ökologie und gesellschaftlicher Wahrnehmung des Wertes von Küstengebieten sind genauso Gegenstand der Untersuchungen wie die Effekte unterschiedlicher Reaktionszeiten der einzelnen Organismengruppen.
Um solch ein breitgefächertes Aufgabenspektrum bearbeiten zu können, hat Prof. Schubert ein Team zusammengestellt, das neben ausgewiesenen Ökologen wie PD Dr. Rhena Schumann aus Rostock, PD Dr. Irmgard Blindow aus Greifswald und Prof. Felix Müller aus Kiel mit Dr. Buzcko und Dr. Jurasinski auch Agrarökologen sowie die Wirtschaftswissenschaftler um Prof. Martin Benkenstein von der Uni Rostock und Gesellschaftswissenschaftler aus Kiel um Prof. Konrad Ott umfasst.

Solch eine fachübergreifende Zusammenarbeit ist nicht immer einfach, die Disziplinen haben ihre eigene Sprache und die Methodik ist häufig grundverschieden. Hier allerdings kann sich das Team auf eine langjährige Vorgeschichte stützen; die Zusammenarbeit zwischen den Standorten bietet sie. „In Rostock wurden, noch zu Zeiten des kalten Krieges, eine Nicht-Regierungsorganisation die „Baltic Marine Biologists“ (BMB) gegründet, mit der es Wissenschaftlern aus der ganzen Ostsee möglich wurde, durch den eisernen Vorhang hindurch direkt zusammenzuarbeiten. Die BMB legten damit den Grundstein für die Entwicklung, die letztlich zur HELCOM führte und eine deutliche Verbesserung des Zustandes der Ostsee zur Folge hatte“, sagt Prof. Schubert.

Die BMB spielen nach wie vor eine wichtige Rolle im Ostseeraum. In den vergangenen Jahren wurde z.B. intensiv – mit einem Team von 92 Autoren – an der Erarbeitung eines Lehrbuches, das alle Aspekte der Biologie der Ostsee umfasst, gearbeitet – seit kurzem liegt nun das Produkt vor. Dabei waren Rostocker Wissenschaftler federführend für mehrere der 16 Kapitel – Zeugnis der guten Referenzen, die der Standort international hat. Text: WOLFGANG THIEL

Kontakt:
Prof. Dr. Hendrik Schubert
Universität Rostock
Mathematisch-Naturwissenschaftliche Fakultät
Institut für Biowissenschaften
Lehrstuhl Ökologie
Tel. Ökologie 0381 498 6070
http://www.biologie.uni-rostock.de/oekologie/home.html

Quelle: idw

(nach oben)


Lebensmittel aus Blättern und Gräsern können Krankheitserreger enthalten

Dr. Suzan Fiack Presse- und Öffentlichkeitsarbeit
Bundesinstitut für Risikobewertung (BfR)

BfR gibt Hygienetipps zum Umgang mit Salaten, Kräutern, Tees, Smoothies und anderen pflanzlichen Lebensmitteln
In Deutschland werden zunehmend Blatt- und Grasprodukte verzehrt. Diese können mit verschiedenen Krankheitserregern belastet sein. Deshalb veröffentlicht das Bundesinstitut für Risikobewertung (BfR) jetzt eine ausführliche Stellungnahme zur Belastung von Blatt- und Grasprodukten mit Bakterien, die beim Menschen Erkrankungen verursachen können. „Salate, Blattgemüse, Kräuter, Tees und grüne Smoothies werden von den meisten Menschen als rundum gesunde Nahrungsmittel wahrgenommen“, sagt BfR-Präsident Professor Dr. Dr. Andreas Hensel. „Umso wichtiger ist es darauf hinzuweisen, dass auch bei diesen Lebensmitteln Hygienemaßnahmen notwendig sind. Unabhängig davon ist eine ausgewogene Ernährung mit viel Obst und Gemüse tatsächlich die beste Ernährungsstrategie.“ Zu den vom BfR bewerteten Produkten gehören frische Blattgemüse einschließlich Blattsalate und Kräuter, getrocknete Blatt- und Grasprodukte wie Nahrungsergänzungsmittel, getrocknete Kräuter und Teeblätter sowie grüne Smoothies.

Blattsalate und frische Kräuter werden in Deutschland fast von der gesamten Bevölkerung sehr häufig verzehrt. Tee wird häufiger von Frauen als von Männern getrunken, der Teekonsum steigt mit zunehmendem Alter an. Bakterielle Krankheitserreger, die in Gras- und Blattprodukten vorkommen können, sind u. a. Salmonellen, Campylobacter, Yersinien, Listerien und EHEC.

Bisher gibt es in Deutschland nur wenige belegte Fälle bakterieller Lebensmittelinfektionen durch den Verzehr von Gras- oder Blattprodukten. Dennoch spricht das BfR zum Schutz der Verbraucherinnen und Verbraucher die nachfolgenden allgemeinen Empfehlungen zur Risikominimierung aus:

• Frische Blattprodukte sollten vor dem Rohverzehr gründlich gewaschen und möglichst schnell verbraucht werden. Zerkleinerte frische Blattprodukte sollten bis zum Verzehr möglichst bei maximal 7 °C gelagert und schnell verbraucht werden.
• Frisch hergestellte grüne Smoothies sollten bis zum Verzehr möglichst bei maximal 7 °C gelagert und am Tag der Herstellung verbraucht werden. Durch eine starke Säuerung der Smoothies, beispielsweise durch Verarbeitung von Zitrusfrüchten oder Zugabe von Zitronensaft, lässt sich die Vermehrung der Bakterien verlangsamen bzw. ganz verhindern.
• Kräutertees sollten mit sprudelnd kochendem Wasser aufgegossen werden. Schwangere und Personen, deren Abwehrkräfte durch hohes Alter, Vorerkrankungen oder Medikamenteneinnahme geschwächt sind, sollten auf den Verzehr von vorgeschnittenen und verpackten Salaten besser vorsichtshalber verzichten und stattdessen Salate aus frischen und gründlich gewaschenen Zutaten kurz vor dem Verzehr selbst zubereiten. Nahrungsergänzungsmittel aus getrockneten Blatt- und Grasprodukten sollten diese Personen nur nach ärztlicher Rücksprache verzehren.

Über das BfR
Das Bundesinstitut für Risikobewertung (BfR) ist eine wissenschaftlich unabhängige Einrichtung im Geschäftsbereich des Bundesministeriums für Ernährung und Landwirtschaft (BMEL). Es berät die Bundesregierung und die Bundesländer zu Fragen der Lebensmittel-, Chemikalien- und Produktsicherheit. Das BfR betreibt eigene Forschung zu Themen, die in engem Zusammenhang mit seinen Bewertungsaufgaben stehen.

Weitere Informationen:
http://www.bfr.bund.de/cm/343/gras-und-blattprodukte-zum-verzehr-koennen-mit-kra…

Quelle: idw

(nach oben)


Berufliche Entscheidungen von Müttern: Einstellungen des Partners spielen eine wichtige Rolle

Dr. Anne Klostermann Presse- und Öffentlichkeitsarbeit
Deutsche Gesellschaft für Psychologie (DGPs)

Die Geschlechterrollenvorstellungen des Partners spielen für Frauen nach der Geburt des Kindes eine maßgebliche Rolle für ihre beruflichen Entscheidungen. Väter hingegen treffen ihre Entscheidungen unabhängiger. Das berichten Psychologinnen der RWTH Aachen in einer Studie, die gerade in der Fachzeitschrift „Journal of Vocational Behavior“ publiziert wurde. Die Forscherinnen befragten 306 Paare zu ihren Rollenvorstellungen und beruflichen Veränderungen im Zuge der Elternschaft.

Nach der Geburt eines Kindes stehen die frisch gebackenen Eltern vor weitreichenden Entscheidungen: Wer soll wie lange Elternzeit nehmen? Sollen beide Partner nach der Elternzeit wieder arbeiten? Wer sollte die Arbeitszeit reduzieren? „Unsere Analysen zeigen, wie sehr diese Entscheidungen von Paardynamiken beeinflusst werden“ sagt Anna M. Stertz, Psychologin an der RWTH Aachen und Hauptautorin der Studie. „Dabei spielen die Einstellungen zu Geschlechterrollen eine entscheidende Rolle.“

Befragung zu traditionellen und gleichberechtigten Geschlechterrollenvorstellungen
Gemeinsam mit Bettina S. Wiese, Professorin für Psychologie an der RWTH Aachen, und Thorana Grether analysierte Stertz Daten aus zwei größeren längsschnittlichen Forschungsprojekten. Im Fokus des ersten Projektes standen die berufliche und familiäre Situation werdender Eltern. Über einen Zeitraum von drei Jahren wurden 138 Paare viermal befragt. Die erste Befragung fand während der Schwangerschaft statt. Zu diesem Zeitpunkt wurden die Geschlechterrollenvorstellungen erfasst. Die werdenden Eltern gaben den Grad ihrer Zustimmung zu Aussagen wie „Frauen, die sich stark im Job engagieren, können nicht gleichzeitig gute Mütter sein“ an. Ein hoher Wert sprach für eine traditionelle Einstellung zu Geschlechterrollen, ein niedriger Wert für egalitäre, also gleichberechtigte Vorstellungen. Zusätzlich beantworteten die Eltern Fragen zur Dauer der Elternzeit sowie zu Veränderungen in ihrer wöchentlichen Arbeitszeit. Die weiteren Befragungen zu den Arbeitszeiten fanden sechs, zwölf, und 24 Monate nach der Geburt statt.
Das zweite Projekt betrachtete die erfolgreiche Berufsrückkehr von Müttern nach einer Familienpause. Dafür wurden 168 Mütter befragt, die sich zum ersten Zeitpunkt noch in der Elternzeit, aber kurz vor ihrem beruflichen Wiedereinstieg befanden. Etwa fünf Wochen nach dem Wiedereinstieg in den Beruf wurden auch die Väter mitbefragt. Beide Elternteile beantworteten auch hier Fragen zu ihren Geschlechterrollenvorstellungen und aktuellen Arbeitszeiten. Weitere Befragungen zu den Arbeitszeiten fanden elf Wochen sowie sechs Monate nach der Rückkehr in den Beruf statt.

Einstellungen der Männer beeinflussen die Entscheidungen der Frauen – nicht umgekehrt
Die Forscherinnen analysierten, wie die eigenen Geschlechterrollenvorstellungen und die des Partners mit beruflichen Entscheidungen zusammenhängen. Dabei zeigte sich, dass die Einstellungen der Väter einen Einfluss auf die beruflichen Entscheidungen der Mütter haben: Frauen mit traditionelleren Partnern nahmen längere berufliche Auszeiten, Frauen mit gleichberechtigt eingestellten Partnern vergleichsweise kürzere. Frauen mit traditionelleren Partnern reduzierten ihre Arbeitsstunden deutlicher als Frauen mit gleichberechtigt eingestellten Partnern. „Man kann allerdings nicht sagen, dass die Einstellungen der Frauen völlig unbedeutend sind“, erklärt Anna M. Stertz, „aber die Einstellungen des Partners haben einen darüber noch hinausreichenden Einfluss auf die Frauen.“
Im Gegensatz dazu ließen sich Väter in ihren Entscheidungen nicht von den Geschlechterrollenvorstellungen der Mütter beeinflussen. Hier zeigte sich, dass die eigenen Einstellungen vorhersagten, inwieweit Männer ihre Arbeitszeiten reduzierten. Gleichberechtigt eingestellte Väter verringerten ihre Arbeitszeiten stärker als traditionell eingestellte Väter.
Erklärungen für die Ergebnisse sehen die Autorinnen darin, dass Frauen generell stärker zur Berücksichtigung der Bedürfnisse ihres sozialen Umfelds neigen und sich überdies die Lebenssituation mit der Schwangerschaft und der Geburt des Kindes für die Mütter stärker verändert als für die Väter. „Mütter berichten über stärkere Unsicherheiten nach der Geburt eines Kindes als Väter“ erklärt Anna M. Stertz. „In dieser Phase könnte eine Orientierung an den Präferenzen des Partners hilfreich und entlastend sein.“ Dementsprechend ließe sich auch erklären, warum die Einstellungen des Partners wichtiger waren, als die eigenen.

Die Originalstudie finden Sie hier:
Stertz, A. M., Grether, T. & Wiese, B. S. (2017). Gender-role attitudes and parental work-decisions after childbirth: A longitudinal perspective with dual earner couples. Journal of Vocational Behavior, 101, 104-118. doi: 10.1016/j.jvb.2017.05.005. Abrufbar unter http://www.sciencedirect.com/science/article/pii/S0001879117300453

Über die DGPs:
Die Deutsche Gesellschaft für Psychologie (DGPs e.V.) ist eine Vereinigung der in Forschung und Lehre tätigen Psychologinnen und Psychologen. Die über 4200 Mitglieder erforschen das Erleben und Verhalten des Menschen. Sie publizieren, lehren und beziehen Stellung in der Welt der Universitäten, in der Forschung, der Politik und im Alltag.
Die Pressestelle der DGPs informiert die Öffentlichkeit über Beiträge der Psychologie zu gesellschaftlich relevanten Themen. Darüber hinaus stellt die DGPs Journalisten eine Datenbank von Experten für unterschiedliche Fachgebiete zur Verfügung, die Auskunft zu spezifischen Fragestellungen geben können.
Wollen Sie mehr über uns erfahren? Besuchen Sie die DGPs im Internet: www.dgps.de

Quelle: idw

(nach oben)


Die Wasserqualität von Stauseen im Blick

Monika Landgraf Strategische Entwicklung und Kommunikation – Gesamtkommunikation
Karlsruher Institut für Technologie

Stauseen versorgen in vielen Teilen der Erde die Menschen mit Trinkwasser. Doch die Wasserreservoire sind auch Sammelbecken für Sedimente, Dünger und Schadstoffe, die die Wasserqualität beeinträchtigen. Ziel des deutsch-brasilianischen Forschungsprojekts MuDak-WRM ist es, ein einfaches Modell zu entwickeln, das die Wasserqualität von Stauseen vorausschauend über Jahre darstellt und sich ohne hohen Aufwand weltweit anwenden lässt.

Die Qualität des Wassers in Stauseen hängt wesentlich von ihrem Einzugsgebiet ab. Um die Prozesse in Stauseen besser in einem Modell abbilden zu können, ist die Einbeziehung des Flusseinzugsgebiets unerlässlich. Wenn durch intensive Land- und Forstwirtschaft oder starke Besiedelung große Mengen an Nährstoffen in das Stau-
becken gelangen, kann dies zur Überdüngung – Eutrophierung – des Sees führen, die das Wachstum von Algen und häufig auch sogenannten „Cyanobakterien“ verstärkt. Wird das Gewässer langfristig überdüngt, eignet es sich nicht mehr zur Gewinnung von Trinkwasser.

Ein deutsch-brasilianisches Forschungskonsortium unter Federführung des KIT arbeitet an der Entwicklung eines möglichst einfachen Modells, mit dem sich die mittel- bis langfristig zu erwartende Veränderung der Wasserqualität in Stauseen vorhersagen lässt. Zentraler Aspekt des nun gestarteten Forschungsvorhabens ist es, die Komplexität der zugrunde gelegten wissenschaftlichen Ansätze und benötigten Daten für das künftige Modell zu verringern, damit es ohne hohen Aufwand unter anderem auch in Entwicklungsländern anwendbar ist.

„Die reduzierte Komplexität im Vergleich zu den existierenden Modellen ist ein entscheidender Schritt zu einem übertragbaren, global funktionalen Modell“, betont Dr. Stephan Fuchs, Leiter des Projekts MuDak-WRM (Multidisziplinäre Datenakquisition als Schlüssel für ein global anwendbares Wasserressourcenmanagement). Fuchs leitet am Institut für Wasser und Gewässerentwicklung des KIT den Bereich Siedlungswasserwirtschaft und Wassergütewirtschaft.

„Das Hauptproblem, das zur Überdüngung führt, sind feine Partikel, an denen Phosphor anhaftet und die mit dem Fluss in den Stausee transportiert werden“, erläutert der Geoökologe Dr. Stephan Hilgert, der am IWG das deutsch-brasilianische Verbundprojekt koordiniert. Das künftige Modell soll es Betreibern von Talsperren ermöglichen, die Wasserqualität über Jahre vorausschauend zu managen. Es könnte politischen Akteuren und Behörden Entscheidungsgrundlagen bieten und für die Information von Farmern und Industriebetrieben genutzt werden. „Denn nachhaltige Veränderungen im Einzugsgebiet hätten einen Vorlauf von einigen Jahren“, so Hilgert. Als Beispiel nennt der Wissenschaftler Aufforstungen, die verhindern, dass aus brachliegendem Boden bei Starkregen große Mengen Feinpartikel in den Fluss geschwemmt werden und in den Stausee gelangen.

Exemplarisch werden im Zuge des Forschungsprojekts die Große Dhünntalsperre in Nordrhein-Westfalen und der Passauna-Stausee im brasilianischen Bundesstaat Paraná mit ihrem jeweiligen Einzugsgebiet untersucht. Der Vergleich der Ergebnisse gewährleistet, dass die gewonnenen Erkenntnisse auf weitere Stauseen übertragbar sind.

„Das dynamische Zusammenspiel zwischen Einzugsgebiet und Wasserkörper ist noch nicht vollständig geklärt, das Projekt kann hier eine Lücke schließen“, so Hilgert. Dafür werden unter anderem innovative fernerkundliche Techniken genutzt: Mit Drohnen fliegende Hyperspektral-Kameras zeichnen detaillierte Spektren des vom Gewässer zurückgestreuten Lichts auf und ergänzen so multispektrale Satellitenaufnahmen der europäischen Weltraumagentur ESA. Über ein Echtzeit-Datennetzwerk (Sensor Web) haben die Partner des Forschungsverbunds jederzeit Einblick in den Projektverlauf und können die erhobenen Messungen und Ergebnisse unmittelbar nutzen. Das Bundesministerium für Bildung und Forschung (BMBF) fördert das bis März 2020 laufende Vorhaben für drei Jahre mit 2,6 Millionen Euro als Teil der BMBF-Fördermaßnahme GROW – Globale Ressource Wasser – im Zuge des Rahmenprogramms FONA – Forschung für nachhaltige Entwicklung.

An dem Projekt beteiligt sind unter Federführung des KIT – das mit den beiden IWG-Bereichen Wasserwirtschaft und Kulturtechnik sowie Siedlungswasserwirtschaft und Wassergütewirtschaft und dem Institut für Photogrammetrie und Fernerkundung (IPF) eingebunden ist – auf deutscher Seite die Universität Koblenz-Landau und als Industrie- beziehungsweise öffentliche Partner der Wupperverband sowie die Unternehmen 52°North – Initiative for Geospatial Open Source Software GmbH, EFTAS Fernerkundungs-Technologietransfer GmbH, HYDRON GmbH und TRIOS Mess- und Datentechnik GmbH. Auf brasilianischer Seite wird das Projektteam durch die Staatliche Universität von Paraná (UFPR) und die Universität Positivo sowie den Wasserversorger SANEPAR komplettiert. Assoziierte Partner in Brasilien sind das Instituto Paranaense de assistência técnica e extensão rural (Paranaensisches Institut für ländliche Entwicklung, EMATER) und das Instituto das Aguas do Paraná (Wasserinstitut des Bundesstaates Paraná). Das Projekt nutzt Satellitendaten des europäischen Programms zur Erdbeobachtung Copernicus des ESA, vor allem die Radardaten der Sentinel 1 Satellitenmission zur Detektion der Bodenfeuchteschwankungen sowie die optischen multispektralen Daten von Sentinel 2 zur Erkennung von Landnutzungsänderungen.

Weiterer Kontakt:
Kosta Schinarakis, Themenscout, Tel.: +49 721 608 41956, Fax: +49 721 608 43658, E-Mail: schinarakis@kit.edu

Das Karlsruher Institut für Technologie (KIT) verbindet seine drei Kernaufgaben Forschung, Lehre und Innovation zu einer Mission. Mit rund 9 300 Mitarbeiterinnen und Mitarbeitern sowie 25 000 Studierenden ist das KIT eine der großen natur- und ingenieurwissenschaftlichen Forschungs- und Lehreinrichtungen Europas.

KIT – Die Forschungsuniversität in der Helmholtz-Gemeinschaft

Das KIT ist seit 2010 als familiengerechte Hochschule zertifiziert.

Diese Presseinformation ist im Internet abrufbar unter: http://www.kit.edu

Weitere Informationen:

http://www.kit.edu
http://schinarakis@kit.edu

Anhang
Die Wasserqualität von Stauseen im Blick
https://idw-online.de/de/attachment57905

Quelle: idw

(nach oben)


Ungesunde Nachbarschaften: In wohlhabenden Landkreisen Süddeutschlands leben viele Impfverweigerer

Barbara Ritzert Pressestelle Versorgungsatlas – ProScience Communications
Versorgungsatlas

Durch den Süden von Bayern und Baden Württemberg zieht sich eine zusammenhängende Region, geprägt von Impfskepsis. In dieser sind die Quoten bei mehreren Impfungen besonders niedrig. Die Kinder in diesen Landkreisen sind sowohl gegen Masern als auch gegen die Erreger von Hirnhautentzündungen (Meningokokken-C) schlechter geschützt als im Rest von Deutschland. Diesen Zusammenhang zeigt eine neue Studie des Wissenschaftlerteams vom Versorgungsatlas. Auffallend ist auch, dass diese Gebiete wirtschaftlich wohlhabender sind als andere Regionen.

In Süddeutschland sind die Quoten bei verschiedenen Impfungen häufig niedriger als in anderen Gebieten der Republik. In den bayerischen Landkreisen Garmisch-Partenkirchen, Bad Tölz und Rosenheim erhalten nur 36 bis 42 Prozent der Kinder die erforderlichen zwei Impfungen gegen Masern im empfohlenen Zeitraum. Auch in zwei Landkreisen von Baden-Württemberg, in Ravensburg und Freiburg, liegen die Quoten deutlich unter dem Bundesdurchschnitt. Ähnlich verhält es sich bei den Impfungen gegen Meningokokken.

Deutliche Beziehung zwischen Impfquoten auf der Kreisebene.
Neue Analysen der Wissenschaftler vom Versorgungsatlas zeigen einen deutlichen Zusammenhang zwischen beiden Impfquoten auf der Kreisebene. Je höher bzw. niedriger die Impfquote einer Impfung war, desto höher/niedriger war auch die Impfquote der anderen Impfung.

Im Süden ist die Beziehung zwischen niedrigen Quoten überregional.
Vor allem im Süden Bayerns und Baden-Württembergs gibt es eine größere zusammenhängende Region, in der die Impfquoten beider Impfungen sowohl im jeweils betrachteten Landkreis als auch in den angrenzenden Kreisen signifikant niedriger waren als im übrigen Deutschland. Ausgenommen von diesem Effekt ist lediglich der Großraum München.

Vergleichbare Beziehungen bei hohen und mittleren Impfquoten konnten die Forscher demgegenüber in keiner anderen Großregion feststellen. Nur in kleinräumigeren Gebieten, etwa in der Region zwischen Hannover und Wolfsburg und in der Region um Dessau gab es Hinweise darauf, dass die hohen Quoten bei der einen Impfung auch mit hohen Quoten bei der anderen Impfung einhergingen.

Landkreise mit hohen Impfquoten im Norden und in der Mitte.
Bei einer weiteren Untersuchung, einer Clusteranalyse, konnten die Forscher Cluster mit eher niedrigen, mittleren und höheren Impfquoten erkennen. Allerdings zeigten die Cluster bei den hohen und mittleren Impfquoten kein eindeutiges regionales Muster. Die Cluster mit hohen Impfquoten (145 Kreise) befinden sich jedoch vermehrt im Norden und in der Mitte Deutschlands. Das dritte Cluster (31 Kreise) mit niedrigen Quoten liegt überwiegend im Süden von Bayern und Baden-Württemberg.

Wohlhabende Eltern sind impfskeptischer.
Die Wissenschaftler überprüften, ob sich die Cluster noch in anderen Punkten unterscheiden. Hier zeigte sich ein Muster: In Regionen mit hohem Haushaltseinkommen, geringer Arbeitslosenquote und geringer gesundheitlicher Belastung (sozioökonomischer Gesundheitsindex) liegt die Impfquote niedriger. Dies korrespondiert mit einer in anderen Untersuchungen nachgewiesenen negativen Einstellung von Eltern und Ärzten gegenüber Impfungen etwa in Südbayern und könnte darauf hinweisen, dass gerade in besser gestellten sozialen Milieus die individuelle Auseinandersetzung mit der Impfung des Kindes eine hohe Bedeutung hat. „Warum dies aber eher zu einer impfkritischen Haltung als zur Befolgung der Impfempfehlungen führt, sollte zur Verbesserung des Impfschutzes in diesen Regionen genauer analysiert werden“, fordern die Wissenschaftler.

Die Studie.
Goffrier B, Schulz M, Bätzing-Feigenbaum J. Analyse des räumlichen Zusammenhangs zwischen den Impfquoten der Masern- und Meningokokken-C-Impfungen. Zentralinstitut für die kassenärztliche Versorgung in Deutschland (Zi). Versorgungsatlas-Bericht Nr. 17/07. Berlin 2017. DOI: 10.20364/VA-17.07.
URL: http://www.versorgungsatlas.de/themen/alle-analysen-nach-datum-sortiert/?tab=6&a…

DER VERSORGUNGSATLAS. www.versorgungsatlas.de ist eine Einrichtung des Zentralinstituts für die kassenärztliche Versorgung (Zi). Er wurde institutionalisiert als öffentlich zugängliche Informationsquelle mit Studien zur medizinischen Versorgung in Deutschland. Schwerpunkt der Studien sind regionale Unterschiede in der Versorgung sowie deren unterschiedliche Strukturen und Abläufe. Die Analysen sollen Anhaltspunkte liefern, wie die Versorgung verbessert werden kann. Die Studien der Wissenschaftler des Versorgungsatlas basieren auf den bundesweiten Abrechnungsdaten der vertragsärztlichen Versorgung in Deutschland. Zuschriften von Nutzern zu den Beiträgen sind ausdrücklich erwünscht. Die Internet-Plattform steht auch anderen Forschergruppen zur Verfügung, die vorzugsweise regionalisierte Untersuchungsergebnisse nach einem Peer-Review veröffentlichen wollen.

Weitere Informationen:
http://www.versorgungsatlas.de/themen/alle-analysen-nach-datum-sortiert/?tab=6&a…

Quelle: idw

(nach oben)


Bienenvölker auf dem Dach der BfG

Dipl.-Met. Alfred Hommes Referat Öffentlichkeitsarbeit
Bundesanstalt für Gewässerkunde

Die Bundesanstalt für Gewässerkunde betritt Neuland, sie reiht sich in die Riege der Stadtimker ein. In den vergangenen Tagen siedelte die BfG zwei Bienenvölker in Koblenz an, deren künftige Heimat das Dach eines BfG-Gebäudes in der Mainzer Straße sein wird. Die Bundesanstalt schafft hiermit nicht nur einen neuen Standort für Bienen, sondern leistet gleichzeitig einen aktiven Beitrag zum Erhalt der Biodiversität in der Region.

Neben weiteren bestäubenden Insekten wie Hummeln und Wildbienen, leistet die westliche Honigbiene (Apis mellifera) in unserer Kulturlandschaft einen großen Beitrag zur Erhaltung der biologischen Vielfalt, ferner bestäubt sie Nutzpflanzen, die für uns wichtig sind. Neben ihrer Bestäuberfunktion produzieren Bienen aber nicht nur schmackhaften Honig, sondern auch weitere wertvolle Produkte wie Wachs oder Propolis. Letzteres hat beispielsweise im Hinblick auf die menschliche Gesundheit zahlreiche Anwendungsmöglichkeiten gefunden.
Bienen können sich nur in einem intakten Ökosystem gut entwickeln. Leider sind diese faszinierenden Insekten jedoch seit einigen Jahren vielen neuen Bedrohungen ausgesetzt. Monokulturen in der Landwirtschaft verbunden mit dem dramatischen Verlust an blühenden Pflanzen und der verstärkte Einsatz von Pestiziden machen ihnen zu schaffen. Eine andere bedeutende Ursache des um sich greifenden Bienensterbens ist ein Parasit: der Stecknadelkopf großen Varroamilbe fallen insbesondere in den Wintermonaten viele Völker zum Opfer.

Parallel zum fortschreitenden Strukturverlust im ländlichen Bereich, erfreut sich die Stadtimkerei hingegen immer größerer Popularität. Bienenkörbe in den unterschiedlichsten Ausprägungen werden auf innerstädtischen Balkonen, Terrassen und Dächern aufgestellt und sorgen für regen Flugverkehr der Bienen in öffentlichen Parkanlagen und privaten Vorgärten. Dieser Entwicklung haben sich vielfach auch Träger öffentlicher Gebäude angeschlossen. Sie fördern damit den Organismus „Biene“ und tragen gleichzeitig zum Erhalt von Biodiversität im urbanen Raum bei. Im Park von Schloss Bellevue in Berlin, auf dem Dach des Bayerischen Umweltministeriums in München, auf dem Rathausforum in Hamburg-Harburg und an vielen weiteren Orten summt es bereits seit Jahren.

Auch die Bundesanstalt für Gewässerkunde in Koblenz hat in diesen Tagen zwei Bienenvölker auf dem Dach ihres Gebäudes in der Mainzer Straße angesiedelt. „Wir möchten damit einen aktiven Beitrag zum Erhalt der Biodiversität in der Region und nicht zuletzt auch an Wasserstraßen leisten. Mit der Nähe zu Rhein und Mosel sowie den nahegelegenen Rheinanlagen als Futterhabitate für Bienen wird uns dies auch gelingen“, so Dr. Birgit Esser, Leiterin der Bundesanstalt für Gewässerkunde.

Die weitere Planung in der BfG sieht vor, die Bienen zum einen interessierten Besuchergruppen zugänglich zu machen und somit einen Einblick in die spannenden Verhaltensweisen der Bienenvölker zu ermöglichen. Zum anderen soll künftig ein Teil des von den Bienen produzierten Honigs der BfG als Gastgeschenk dienen. Den Rest des reichhaltigen Produktes lagern die Bienen als Nahrungsreserve ein, um die kalten Wintermonate zu überstehen.
In diesem Jahr wird es für BfG-Gäste noch keinen Honig geben, da die beiden jungen Völker nun erst nach der Frühjahrstracht an die BfG gebracht wurden und eine Honigentnahme sie zu sehr schwächen würde. Im kommenden Jahr darf man sich jedoch auf erstes „flüssiges Gold“ freuen, ganz nach dem spaßhaft erweiterten Slogan der BfG: „Wissen, was war. Messen, was ist. Sehen, was sein wird … Essen, was schmeckt“.

Weitere Informationen: Kathrin Schmitt, Fon: 0261/1306 5962, Mail: kathrin.schmitt@bafg.de
und Mathias Adler, Fon: 0261/1306 5247, Mail: adler@bafg.de
beide: Bundesanstalt für Gewässerkunde

Quelle: idw

(nach oben)


HPV-Impfung – die oft versäumte Chance gegen Krebs

Giulia Roggenkamp Pressestelle
Stiftung Kindergesundheit

Gegen Bakterien gibt es Antibiotika, nur gegen einzelne Viren gibt es antivirale Medikamente, die jedoch oft nicht ausreichend wirksam sind und auch Nebenwirkungen verursachen können. Daher hat die Impfprävention gegen virusbedingte Krankheiten, wie z.B. Masern, Mumps, Röteln oder Hepatitis B schon immer eine ganz besondere Bedeutung.

Eines der erfreulichsten Ergebnisse dieser Bemühungen war die Entwicklung und Zulassung einer Impfung gegen humane Papillomviren, die Gebärmutterhalskrebs und Genitalwarzen verursachen können. Studien bestätigen die schützende Wirkung der HPV-Impfung, unerwünschte Reaktionen sind ausgesprochen selten. Dennoch liegen die Durchimpfungsraten trotz der seit zehn Jahren durch die STIKO ausgesprochenen Empfehlung noch unter 50 Prozent, stellt die Stiftung Kindergesundheit in einer aktuellen Übersicht fest.

Eine Untersuchung der Ständigen Impfkommission STIKO beim Robert-Koch-Institut Berlin kam nämlich zu eher ernüchternden Ergebnissen, berichtet die Stiftung Kindergesundheit: Seit der Einführung der Impfung in Deutschland sind die Impfquoten zwar leicht angestiegen, liegen jedoch immer noch auf niedrigem Niveau. Ende 2016 wiesen nur 30,5 Prozent der 15-jährigen Mädchen eine vollständige Impfung auf. Auch unter den 17-jährigen waren Ende 2016 lediglich 42,5 Prozent vollständig geimpft. Dabei lagen die Impfquoten in den neuen Bundesländern stets weit über den noch niedrigeren Werten der alten Bundesländer.

„Beim Gebärmutterhalskrebs – in der Fachsprache Zervixkarzinom genannt – konnte durch den deutschen Forscher Harald zur Hausen belegt werden, dass an seiner Entstehung bestimmte Viren beteiligt sind“, berichtet Professor Dr. Johannes Liese, Mitglied des Kuratoriums der Stiftung Kindergesundheit. „Es sind die Humanen Papillomviren, abgekürzt HPV. Die bis heute bekannten rund 210 Untertypen des humanen Papillomvirus sind weltweit verbreitet. Einige von ihnen können bei Menschen Gebärmutterhalskrebs, aber auch Scheiden-, Penis- und Analkarzinome und Genitalwarzen hervorrufen“.

Es gibt mittlerweile drei zugelassene Impfstoffe gegen HPV-Viren: Alle drei Impfstoffe schützen vor der Infektion mit den beiden häufigsten an der Krebsentstehung beteiligten HPV-Typen, HPV 16 und 18. Diese zwei Typen führen zu Schleimhautveränderungen, die in der Scheide und auch an den äußeren Genitalien beider Geschlechter, also bei Frau und Mann, Krebs auslösen können. HPV 16 und 18 verursachen in Europa rund 75 Prozent der Gebärmutterhalskrebse.

Ein weiterer Impfstoff bietet ebenfalls Schutz vor HPV 16 und 18, richtet sich darüber hinaus auch gegen die beiden HPV-Typen HPV 6 und 11, die zwar nicht zu Krebs, aber zu Genitalwarzen, so genannten Kondylomen oder Feigwarzen führen können.

Ein weiterer, im letzten Jahr zugelassener Impfstoff vermittelt Schutz vor den HPV-Typen 6, 11, 16, 18, 31, 33, 45, 52 und 58 und kann damit die Infektion mit weiteren, Zervixkarzinom auslösenden HPV Typen verhindern. Dieser so genannte „9-valente“ Impfstoff wird vermutlich nach einer Übergangszeit den früheren („4-valenten“) Impfstoff ersetzen. Zusammen sind die HPV-Impfstoffe weltweit bereits über 260 Millionen Mal verwendet worden.

Lovestories mit Risiken
„HPV-Infektionen sind häufig“, erläutert Professor Dr. Johannes Liese. „Fast jeder sexuelle aktive Erwachsene kommt irgendwann in seinem Leben in Kontakt mit Papillomviren. Die meisten von ihnen müssen keine negativen Folgen befürchten: Das Immunsystem schafft es in aller Regel, den unerwünschten Eindringling wieder loszuwerden. Eine chronische Infektion mit den so genannten Hochrisikotypen von HP-Viren kann aber auch gefährlich werden: Als vermutliche Folge davon erkranken in Deutschland jedes Jahr etwa 4.700 Frauen neu am Gebärmutterhalskrebs, 1.500 bis 1.600 sterben daran“.

Die Impfung ist nur dann wirksam, wenn es noch nicht zur Ansteckung gekommen ist. Da humane Papillomviren durch Geschlechtsverkehr übertragen werden, sollte früh genug geimpft werden, lautet die übereinstimmende Empfehlung von Infektiologen und Impfexperten. Sie lässt sich mit Zahlen untermauern: Die Mehrheit der Mädchen erlebt heute ihre erste Regel mit zwölf oder 13 Jahren. 36 Prozent der Mädchen und 20 Prozent der Jungen geben an, bereits mit 14 bis 15 Jahren den ersten Geschlechtsverkehr erlebt zu haben (Statista 2016).

Wirksam und gut verträglich
Der Schutz der HPV-Impfstoffe wird durch die Erzeugung von hohen Antikörperspiegeln im Blut der Geimpften vermittelt. Die Dauer des Schutzes ist jedoch noch nicht vollständig geklärt, es wird jedoch von mindestens 10 Jahre ausgegangen. Empfehlungen für Auffrischungen gibt es deshalb noch nicht.

In Australien wurden bereits 2007 durch ein staatliches Impfprogramm an Schulen fast neun von zehn Mädchen geimpft, berichtet die Stiftung Kindergesundheit. Bereits einige Jahre später wurde eine 60-prozentige Abnahme der auffälligen Gebärmutterhals-Abstriche beim Frauenarzt dokumentiert. Bei Jugendlichen unter 21 Jahren konnte zudem ein Rückgang der Genitalwarzen um 80 Prozent festgestellt werden. Da in Australien sehr viele Mädchen geimpft sind, ist die Infektionsrate auch bei den Jungen zurückgegangen, obwohl nur die Mädchen geimpft wurden (Herdenschutz).

In den USA wurden bisher mehr als 56 Millionen Impfdosen verabreicht. Lebensbedrohliche Nebenwirkungen sind dabei nicht aufgetreten. Als unerwünschte Wirkungen der Impfung wurde häufiger über Fieber, Schmerzen, Rötung und Schwellung an der Injektionsstelle berichtet. Auch Juckreiz und Blutungen an der Injektionsstelle sind möglich. Im Schnitt wurden bei 100.000 Impfungen lediglich 54 Nebenwirkungen gemeldet.

Schutz auch vor Krebs in Mund und Hals
In Untersuchungen konnte gezeigt werden, dass die HPV-Impfung auch Genitalwarzen und Krebsvorstufen an der Scheide und den Schamlippen vorbeugen kann, die mit Papillomviren in Zusammenhang stehen, hebt die Stiftung Kindergesundheit hervor. Studien mit insgesamt über 18.000 jungen Frauen ergaben: Geimpfte Frauen hatten zu 49 Prozent weniger Hautveränderungen an Scham und Scheide als nicht geimpfte Patientinnen. In Australien, wo Impfprogramme zu einer Durchimpfungsrate von 73 Prozent geführt haben, ging die Häufigkeit von Genitalwarzen bei Frauen unter 21 Jahren von 11,5 Prozent im Jahre 2007 auf 0,85 Prozent im Jahre 2011 zurück. Bei Frauen im Alter zwischen 21 und 30 Jahren wurde ein Rückgang von 11,3 auf 3,1 Prozent registriert.

Möglicherweise kann die HPV-Impfung auch das Risiko für Krebserkrankungen im Mund-Rachen-Raum, wie z.B. von Kehlkopf-Krebs verringern. Offenbar spielen nämlich neben Alkohol und Rauchen auch HP-Viren vom Typ 16 bei der Entstehung derartiger Tumore eine ursächliche Rolle.

Impfalter auf neun Jahre gesenkt
Die STIKO empfahl die Impfung ursprünglich für Mädchen zwischen zwölf und 17 Jahren. Im August 2014 senkte das Expertengremium am Robert-Koch Institut das empfohlene Impfalter auf neun bis 14 Jahre und empfahl nur noch zwei anstatt drei Impfstoffdosen für eine vollständige Immunisierung. Versäumte Impfungen sollten spätestens bis zum 18. Lebensjahr nachgeholt werden. Alle Krankenkassen übernehmen die kompletten Kosten für die Impfung für den Altersbereich der 9- bis 17jähriger Mädchen, ohne dass eine Zuzahlung nötig ist.

Zur besseren Information der Zielgruppe bieten sich die von Kinder- und Jugendärzten angebotene und vielen Krankenkassen freiwillig übernommene Vorsorgeuntersuchung U11 im Alter von 9 bis 10 Jahren und die Jugendgesundheitsuntersuchung J1 im Alter von 12 bis 14 Jahren an. „Leider wird gerade die J1 immer noch von viel zu wenigen Berechtigten wahrgenommen“, so Professor Liese. „Es bedarf deshalb einer Intensivierung der Impf-Aufklärung auch in den gynäkologischen Praxen. Auch Eltern sollten den Kinder- und Jugendarzt, Haus- oder Frauenarzt ihrer Töchter früh auf die HPV-Impfung ansprechen“.

Impfung bald auch für die Jungen?
Laut Professor Liese wäre es auch sinnvoll, nicht nur junge Mädchen, sondern auch Jungen gegen die Papillomviren zu impfen. Schließlich können auch Männer an den Folgen einer HPV-Infektion erkranken, am häufigsten an den schwer zu behandelnden und sehr infektiösen Genitalwarzen. Darüberhinaus sind jugendliche Männer auch Überträger der Viren. Dadurch bestünde die Möglichkeit, die Anzahl der Gebärmutterhalskrebserkrankungen und anderer HP-Virus assoziierter Erkrankungen noch weiter zu senken. Die sächsische Impfkommission SIKO empfiehlt die HPV-Impfung bereits seit 2013 auch für Jungen und Männer. Seit Anfang 2017 empfiehlt sie die HPV-Impfung für alle Mädchen und Frauen ab 10. bis zum vollendeten 26. Lebensjahr und für alle Jungen und Männer ab 10. bis zum vollendeten 26. Lebensjahr, bevorzugt mit dem 9-valenten Impfstoff.

Mädchen und Frauen, die sich gegen die humanen Papillomviren impfen lassen, sollten jedoch wissen: Die Impfung schützt nur vor den darin deklarierten HPV-Viren, nicht jedoch vor Infektionen mit anderen Typen des Virus, betont die Stiftung Kindergesundheit. Die Früherkennungsmaßnahmen zum Gebärmutterhalskrebs beim Frauenarzt sollten deshalb auch von geimpften Frauen unverändert in Anspruch genommen werden. In Deutschland haben alle Frauen ab dem 20. Lebensjahr einmal jährlich Anspruch auf die kostenlose Früherkennung.

Wichtige Informationen über die HPV-Impfung und über die Sexualaufklärung von Kindern und Jugendlichen vermittelt die Bundeszentrale für gesundheitliche Aufklärung (BZgA), Maarweg 149-161 / 50825 Köln / Tel +49 221 8992-0 / Fax +49 221 8992-300. Online-Angebote unter www.bzga.de, www.impfen-info.de und www.kindergesundheit-info.de

Unabhängige und wissenschaftlich basierte Berichterstattung braucht Förderer:
Fördern auch Sie die Gesundheit unserer Kinder durch Ihre Spende, die in voller
Höhe den Projekten der Stiftung Kindergesundheit zugute kommt.

Mit einem Beitritt zum Freundeskreis der Stiftung Kindergesundheit können Sie die Arbeit der
Stiftung regelmäßig fördern.
Mehr Informationen hierzu finden Sie unter: www.kindergesundheit.de
Spendenkonto: HypoVereinsbank München
IBAN: DE41 7002 0270 0052 0555 20
SWIFT (BIC): HYVEDEMMXXX

Quelle: idw

(nach oben)


Von trocken zu nass: In Afrikas Sahelzone könnte es plötzlich viel mehr regnen

Jonas Viering Presse- und Öffentlichkeitsarbeit
Potsdam-Institut für Klimafolgenforschung

Der Klimawandel könnte einen von Afrikas trockensten Landstrichen zu einem sehr nassen machen, indem dort recht abrupt ein Monsunsystem entsteht. Erstmals haben Wissenschaftler in Computersimulationen Belege für eine mögliche plötzliche Veränderung hin zu heftigen regionalen Regenfällen in der bislang extrem trockenen Sahelzone gefunden. Sie sehen hier einen sich selbst verstärkenden Mechanismus, der jenseits von 1,5 bis 2 Grad Celsius einsetzen kann – direkt an der im Pariser UN-Abkommen geforderten Obergrenze für den weltweiten Temperaturanstieg.

Wenngleich die Regenfälle grundsätzlich vorteilhaft sein könnten, wäre die Veränderung bei Überschreiten des Kipp-Punktes so groß, dass sie von der vielfach leidgeprüften Region eine erhebliche Anpassungsleistung fordern würde.

„Mehr Regen in einer trockenen Region, das ist erstmal eine gute Nachricht“, sagt Leitautor Jacob Schewe vom Potsdam-Institut für Klimafolgenforschung (PIK). „Wenn wir mit den Treibhausgasen aus dem Verfeuern fossiler Brennstoffe das Klima verändern, kann das viele Dinge durcheinander wirbeln. Risiken für Ernten nehmen vielerorts zu, gefährliche Wetterextreme sind weltweit auf dem Vormarsch – aber für die trockene Sahelzone scheint die Chance zu bestehen, dass eine weitere Erwärmung tatsächlich die für Bauern und Viehhalter verfügbare Wassermengen zunehmen lässt.“

Ko-Autor Anders Levermann vom PIK und dem LDEO der New Yorks Columbia Universität ergänzt: „Wir wissen nicht, was die Auswirkungen in der Praxis sein werden, hierzu kann unsere Studie keine Informationen bieten; aber man stelle sich mal einen grünen Sahel vor! Dennoch, das schiere Ausmaß der möglichen Veränderung ist atemberaubend – dies ist eines der wenigen Elemente im Erdsystem, die wir schon bald Kippen sehen könnten. Nähert sich die Temperatur einmal dem Schwellenwert, so können sich die Regenfälle innerhalb nur weniger Jahre komplett verändern.“

+++ Ein neues Kipp-Element im Erdsystem +++
Regionen wie die zentralen Teile Malis, des Niger und des Tschad – die im Grunde Teil der Sahara sind – könnten so viel Regen abbekommen wie heute das zentrale Nigeria oder der Norden Kameruns, wo ein tropisches Klima mit üppigem Pflanzenwuchs herrscht.

Dutzende von Computersimulationssystemen, so genannte Modelle, zeigen für den Fall eines ungebremsten Klimawandels einen im Durchschnitt eher schwachen Trend hin zu mehr Niederschlag im Sahel. Es ist also bereits bekannt, dass in dieser Region in einer wärmeren Welt etwas mehr Regen fällt. Die Wissenschaftler haben nun aber jene Simulationen genauer untersucht, die den größten Zuwachs an Regen zeigen, nämlich zwischen 40 und 300 Prozent, während andere Simulationen nur eine geringe Zunahme oder sogar Abnahme nahelegen. Die Forscher entdeckten, dass in den „nassen“ Simulationen mit der Erwärmung der Afrika umgebenden Ozeane der Regen im Sahel plötzlich und stark zunimmt. Zugleich werden die Monsunwinde stärker, die vom Atlantik ins Innere des Kontinents wehen, und sie reichen weiter nordwärts. Das erinnert an Zeiten in der Erdgeschichte, in denen Monsunsysteme in Afrika und Asien zwischen nass und trocken hin-und-her wechselten, manchmal recht rasch.

Die Wissenschaftler hatten hinter diesen plötzlichen Veränderungen der Regenfälle einen sich selbst verstärkenden Mechanismus aufgespürt. Wenn die Oberflächentemperatur des Ozeans zunimmt, verdunstet mehr Wasser. Die feuchte Luft driftet auf das Land zu, wo das Wasser abregnet. Wenn aber Wasserdampf zu Regen wird, entsteht Wärme. Diese Wärme verstärkt den Temperaturunterschied zwischen denn generell kühleren Meeren und den wärmeren Landmassen, wodurch wiederum mehr feuchte Winde ins Innere des Kontinents gesogen werden. Dies führt zu mehr Regen, und so weiter. „Die Temperaturen müssen über einen bestimmten Punkt steigen, um diesen Prozess zu starten“, erklärt Schewe. „Der Schwellenwert für diesen ‚Sahel-Monsun‘ erweist sich in den verschiedenen Computersimulationen als bemerkenswert ähnlich. Es scheint ein robustes Ergebnis zu sein.“

+++ Anpassung wäre eine große Herausforderung für eine leidgeprüfte Region +++
„Die ungeheure Veränderung, die wir hier erleben könnten, würde ganz klar eine große Herausforderung für den Sahel darstellen“, betont Levermann. „Von Mauretanien und Mali im Westen bis zu Eritrea und Sudan im Osten sind möglicherweise mehr als 100 Millionen Menschen hiervon betroffen. Die Region ist schon heute instabil mit heftigen Auseinandersetzungen und Kriegen. Besonders in der Übergangszeit von der heute herrschenden Trockenheit zu den wahrscheinlich viel nasseren Bedingungen Ende unseres Jahrhunderts könnte der Sahel Jahre der Schwankungen zwischen Dürre und Flut durchleben, mit denen sehr schwer zurecht zu kommen ist. Landwirtschaft und Infrastruktur werden mit dieser Herausforderung fertig werden müssen. So großartig es hoffentlich für den Sahel ist, dass es in der Region möglicherweise mehr regnet – das Ausmaß der Veränderung verlangt dringend nach Aufmerksamkeit.“

Artikel: Jacob Schewe, Anders Levermann (2017): Non-linear intensification of Sahel rainfall as a possible dynamic response to future warming. Earth System Dynamics

Weblink zum Artikel, sobald er veröffentlicht wird: http://www.earth-system-dynamics.net/index.html

Verwandte Artikel:
– J. Schewe, A. Levermann, H. Cheng: A critical humidity threshold for monsoon transitions. Climate of the Past 8 (2012), 535-544 [doi:10.5194/cp-8-535-2012]
– A. Levermann, J. Schewe, V. Petoukhov, H. Held: Basic mechanism for abrupt monsoon transitions. Proceedings of the National Academy of Sciences 106 (2009), 20572-20577

Kontakt für weitere Informationen:
Potsdam-Institut für Klimafolgenforschung, Pressestelle
Telefon: +49 (0)331 288 2507
E-Mail: presse@pik-potsdam.de
Twitter: @PIK_Klima
www.pik-potsdam.de

Quelle: idw

(nach oben)


Süßwasserquellen im Meer: Die unsichtbare Wasserressource

Dr. Susanne Eickhoff Presse- und Öffentlichkeitsarbeit
Leibniz-Zentrum für Marine Tropenforschung (ZMT)

In der Fachzeitschrift Earth-Science Reviews berichten die Geologen Nils Moosdorf und Till Oehler vom Leibniz-Zentrum für Marine Tropenforschung (ZMT) über ein besonderes Naturphänomen, das in der Wissenschaft bisher kaum Beachtung fand: submarine Grundwasserquellen. Ihr Nutzen und kultureller Wert sind für viele Küstenbewohner beträchtlich.

Olhos de Agua – Wasseraugen – heißt ein beliebter Urlaubsort an der portugiesischen Algarve. Der Name leitet sich von einem besonderen Naturphänomen ab: am Strand zeigen sich bei Ebbe rundliche Quellen, aus denen unablässig Süßwasser hervorsprudelt.

Auch an der Nordsee sprudelt es, so zum Beispiel im Watt vor Sahlenburg am südlichen Ende des Strandes. Es handelt sich in beiden Fällen um küstennahes Grundwasser, das sich durch Gesteins- oder Sandschichten einen Weg gebahnt hat und entlang des Gefälles zum Meer fließt. Dort sickert es häufig nahe der Wasserlinie heraus, kann aber auch in bis zu 50 Metern Meerestiefe austreten, wie vor der kroatischen Insel Braç. Insbesondere in karstigen Küstengebieten mit porösem Kalkgestein kommen solche Quellen vor.

Submarine Süßwasserquellen sind weltweit verbreitet, jedoch leicht zu übersehen. Die Wissenschaft hat ihnen bisher kaum Beachtung geschenkt. „Zu Unrecht“, meint Nils Moosdorf, Geologe am Leibniz-Zentrum für Marine Tropenforschung (ZMT). „Laut bisherigen Schätzungen machen diese besonderen Quellen bis zu 10% der Wassermenge aus, die auf unserem Planeten von den Flüssen ins Meer eingetragen wird.“ Er forscht über ihre Bedeutung für den Menschen und die Küstenökosysteme.

Zusammen mit seinem Team ging er auf Spurensuche nach den unterseeischen Süßwasserquellen und wurde fündig – in historischen Schriften, Reiseführern, Tauchermagazinen, Zeitungsartikeln und mündlichen Überlieferungen aus aller Welt.

Vielfach wurden die Quellen als Trinkwasser genutzt, wie in Bahrain im Persischen Golf. „Ein Mensch kann dort mit einem Fell ins Meer tauchen und es mit frischem Trinkwasser füllen“, ist dort bereits in Berichten aus dem 15. Jahrhundert zu lesen.

In Inselstaaten mit Wasserknappheit, wie Tahiti oder Fidschi, greift die Bevölkerung auch heute noch auf solche Quellen zurück, wenn die Wasserversorgung zusammenbricht. Oft wird das kostbare Regenwasser in Zisternen gesammelt und steht nur zum Trinken zur Verfügung – zum Waschen steigt man in die Süßwasserquellen am Strand.

„Die Quellen sind meist besonders nährstoffreich und ziehen sehr viele Fische an, wie die „Wonky holes“ vor Australien. Das sind deshalb Hotspots für Fischer und Taucher“, berichtet Nils Moosdorf. „In Japan gedeihen Austern aus Aquakultur in der Nähe solcher Quellen besonders gut.“

In Peru wird Wasser auch heute noch aus submarinen Quellen in Lastwagen gepumpt und an Land verteilt, in Griechenland für die Bewässerung von Feldern genutzt. Florida plante in den 1990er Jahren die Erschließung von submarinem Süßwasser in großem Stil, da in der Millionenmetropole Miami das Leitungswasser knapp wird. Eine Quelle dort fördert um die 40 m³ Süßwasser pro Sekunde.

So manchem Schiffbrüchigen haben die unterseeischen Quellen sogar das Leben gerettet, wie der Besatzung des Walfängers Essex, dessen Geschichte Hermann Melville zu seinem Roman „Moby Dick“ inspirierte.

„Frischwasser, das einfach so im Meer sprudelt, hat etwas Magisches und beflügelt die Fantasie der Menschen“, sagt Moosdorf. „Submarine Grundwasserquellen besitzen vielerorts einen großen sinn- und kulturstiftenden Wert für die Menschen. Im alten Griechenland zum Beispiel wurden dem Meeresgott Poseidon Pferde an einer solchen Quelle bei Argos geopfert.“ Moosdorf berichtet auch von Bali, wo der hinduistische Meerestempel Tanah Lot auf einer Süßwasserquelle errichtet wurde. Jährlich pilgern zwei Millionen Menschen dorthin, um mit dem Wasser gesegnet zu werden.

Doch trotz ihrer wichtigen Rolle sind auch submarine Quellen inzwischen bedroht – häufig führt Brunnenbau an Land zu ihrem Versiegen. Andernorts verschmutzen ungeklärte Abwässer und Rückstände aus der Landwirtschaft das Quellwasser. Darunter leiden nicht nur die Menschen, die die Quellen zum Trinken nutzen, sondern auch Küstenökosysteme wie Korallenriffe, die in ihrer Nähe wachsen. Und auch der Meeresspiegelanstieg wird Einfluss nehmen auf die hydraulischen Bedingungen für ein Fortbestehen von submarinen Grundwasserquellen.

„Erst beim näheren Hinsehen offenbart sich der besondere Wert dieser unsichtbaren Wasserressource. Wissenschaftler und Küstenmanager sollten sie daher im Blick haben“, kommentiert Nils Moosdorf seine Forschung.

Publikation
Moosdorf, N., and T. Oehler: „Societal use of fresh submarine groundwater discharge: An overlooked water resource.“ Earth-Science Reviews (2017).
http://www.sciencedirect.com/science/article/pii/S0012825216302641

Kontakt
Dr. Till Oehler
Leibniz-Zentrum für Marine Tropenforschung
Tel: 0421 / 23800-135
Handy: 01575 1229773
Email: till.oehler@leibniz-zmt.de

Über das Leibniz-Zentrum für Marine Tropenforschung:
Das Leibniz-Zentrum für Marine Tropenforschung – ZMT in Bremen widmet sich in Forschung und Lehre dem besseren Verständnis tropischer Küstenökosysteme. Im Mittelpunkt stehen Fragen zu ihrer Struktur und Funktion, ihren Ressourcen und ihrer Widerstandsfähigkeit gegenüber menschlichen Eingriffen und natürlichen Veränderungen. Das ZMT führt seine Forschungsprojekte in enger Kooperation mit Partnern in den Tropen durch, wo es den Aufbau von Expertise und Infrastruktur auf dem Gebiet des nachhaltigen Küstenzonenmanagements unterstützt. Das ZMT ist ein Mitglied der Leibniz-Gemeinschaft. www.leibniz-zmt.de

Anhang
PM_ZMT_Grundwasserabfluss
https://idw-online.de/de/attachment57942

Quelle: idw

(nach oben)


Motiviert durch Bestrafung

Gunnar Bartsch Presse- und Öffentlichkeitsarbeit
Julius-Maximilians-Universität Würzburg

Strafe soll in der Regel unerwünschtes Verhalten unterbinden. Tatsächlich kann Bestrafung aber auch erleichternd bis motivierend sein. Das haben Forscher am Institut für Psychologie der Uni Würzburg herausgefunden.

Wenn Eltern ihren Kindern ein bestimmtes Verhalten abgewöhnen wollen, dann schimpfen sie. Von dieser Maßnahme erhoffen sie sich, dass ihr Sprössling die unerwünschten Angewohnheiten unterlässt. Das Paradoxe an dieser Art der Bestrafung: Sie kann die gegenteilige Wirkung haben.

Herausgefunden hat das Professor Andreas Eder am Institut für Allgemeine Psychologie der Universität Würzburg im Rahmen einer Forschungsarbeit. Die Ergebnisse hat er jetzt im „Journal of Experimental Psychology: General“ veröffentlicht.

Stromstöße als Bestrafung
Worum ging es genau? Das Team um den Projektleiter Eder stellte Probanden vor eine simple Aufgabe. Auf einem Bildschirm blinkte eine Zahl auf. „Die Teilnehmer sollten entscheiden, ob diese größer oder kleiner als fünf ist“, sagt der Wissenschaftler. Ihre Entscheidung mussten sie per Tastendruck mitteilen: Die linke Taste hatte den Wert eins bis vier, die rechte Taste stand für sechs bis neun.

Zuvor hatten die Versuchsteilnehmer aber etwas gelernt: Beim Druck auf eine der beiden Tasten erlitten sie einen leicht schmerzhaften elektrischen Schlag. „Sie lernten einzuschätzen, dass es unangenehm wird, wenn sie diese Taste bedienen“, so Eder. Die Wissenschaftler gingen mit der Annahme an das Experiment, dass die Probenden die Taste mit dem Schock langsamer drücken werden.

Erstaunlicherweise war genau das Gegenteil der Fall. Die Teilnehmer drückten sogar noch schneller als vorher auf den schmerzverursachenden Knopf. Ein Befund, der die Forscher stutzig machte. Bestrafung alleine reicht also nicht aus, um ein Verhalten zu unterbinden.

Vermutungen haben sich nicht bestätigt
Bei der Suche nach einer Erklärung lautete eine Vermutung der Wissenschaftler, dass das zügige Drücken durch gesteigerte Erregung verursacht wird. „Es hätte sein können, dass die Probanden den Schmerz schnell hinter sich bringen wollen. Dass sie aus Angst rascher drücken würden“, so Eder.

Ein weiterer Versuch habe aber gezeigt, dass eine körperliche Erregung nicht für den Effekt verantwortlich ist. „Wieder wurden die Probanden darum gebeten, die Aufgabe zu lösen. Wieder gab es zwei Tasten. Davon verursachte die eine einen schwachen, die andere einen recht starken Schock.“

Das Ergebnis dieser Untersuchung war, dass die Taste nur dann schneller gedrückt wurde, wenn darauf ein schwacher Schock folgte. Bei einem starken Schock zeigte sich keine Erleichterung, obwohl dieser die Person mehr aufregte. Mehr Erregung ist also keine plausible Erklärung für den Effekt. Was hat die Leute als dann dazu gebracht, sich schneller dem Schmerz auszusetzen?

„Wir konnten zeigen, dass eine Bestrafung nicht automatisch zu einer Unterdrückung des bestraften Verhaltens führt“, erklärt Eder die Ergebnisse zusammenfassend. Stattdessen könne sie bei regelmäßiger Anwendung die Ausführung des bestraften Verhaltens sogar erleichtern. „Das ist der Fall, wenn der Bestrafungsreiz als Feedback für die Verhaltenssteuerung genutzt wird.“

Wenn es also um die Verhaltensfolge geht, die vor dem Tastendruck vorweggenommen wird, dann sollte die Reaktionserleichterung auch mit einem neutralen Reiz herbeigeführt werden können. „Dann müsste eine Vibration ausreichend sein“, sagt Eder. Diese Vermutung habe sich bei weiteren Versuchen bestätigt.

Um es einfach auszudrücken: Verhaltensfolgen werden vom Gehirn dazu benutzt, eine Handlung leichter einzuleiten, selbst wenn die Folgen unangenehm für uns sind.

Die Art der Bestrafung ist ausschlaggebend
Was dem Psychologen dabei besonders wichtig ist: „Es ist nicht so, dass Bestrafung generell nicht funktioniert. Sie hat nur nicht immer eine verhaltensunterdrückende Wirkung.“ Selbst dann nicht, wenn den Probanden bewusst wäre, dass etwas Unangenehmes folgen wird.

Eine paradoxe erleichternde Wirkung von Bestrafung ist wahrscheinlich, wenn es zu dem bestraften Verhalten keine Alternative gibt, eine Handlung sehr schnell erfolgen muss und wenn die Bestrafung eher milde ausfällt.

Wichtig ist es deshalb, für das erwünschte Verhalten ebenfalls ein klares Feedback zu geben, an dem sich das bestrafte Kind orientieren kann. Denn nur, wenn das Kind eine klare Alternative zu dem bestraften Verhalten hat, kann es lernen, sich das problematische Verhalten abzugewöhnen. Diese Alternativen dem Kind aufzuzeigen, sollte ein wesentlicher Teil der täglichen Erziehungsarbeit sein.

Eder, A. B., Dignath, D., Erle, T. M., & Wiemer, J. (2017). Shocking Action: Facilitative Effects of Punishing Electric Shocks on Action Control. Journal of Experimental Psychology: General. doi.org/10.1037/xge0000332

Kontakt
Prof. Dr. Andreas Eder, Institut für Psychologie, Universität Würzburg
T: 0931 31-83336, E-Mail: andreas.eder@psychologie.uni-wuerzburg.de

Quelle: idw

(nach oben)


Angst, sich zu blamieren – Was hilft am besten?

Lisa Dittrich Referat für Presse- und Öffentlichkeitsarbeit
Justus-Liebig-Universität Gießen

Mediziner der Universität Gießen stellen den aktuellen Forschungsstand zu sozialer Angststörung im New England Journal of Medicine dar

In Europa sind mehr als zehn Millionen Menschen von einer sozialen Angststörung betroffen. Es handelt sich somit um eine der häufigsten Angststörungen. Häufig werden Betroffene mit Psychopharmaka behandelt. Doch was hilft den verunsicherten Patientinnen und Patienten am besten? Prof. Dr. Falk Leichsenring und Prof. Dr. Frank Leweke, beide Klinik für Psychosomatik und Psychotherapie, Fachbereich 11 – Medizin der Justus-Liebig Universität Gießen (JLU), haben in der renommierten Fachzeitschrift New England Journal of Medicine den aktuellen Forschungsstand dargestellt. Unterstützt wurden sie bei der Publikation von Dr. Christiane Steinert, Wissenschaftliche Mitarbeiterin in der Abteilung Psychosomatik und Psychotherapie der JLU. Die Ergebnisse der Mediziner basieren teilweise auf einer großen Verbundstudie, die vom Bundesministerium für Bildung und Forschung (BMBF) mit mehr als sechs Millionen Euro gefördert worden ist (Social Phobia Psychotherapy Research Network, Universitäten Gießen, Göttingen, Dresden, Jena, Bochum, Mainz).

Menschen mit sozialer Angststörung befürchten, in Situationen, in denen sie mit anderen Menschen in Kontakt sind, von diesen negativ bewertet zu werden. Dies betrifft Leistungssituationen – etwa wenn es gilt, eine Prüfung abzulegen oder einen Vortrag zu halten -, aber auch andere Situationen. So könnte beispielsweise das Essen in der Mensa oder im Restaurant zu einer großen Herausforderung für die Betroffenen werden. Sie haben Angst, angeschaut und möglicherweise negativ beurteilt zu werden. Und sie fürchten negative Bewertungen ihrer Mitmenschen („Was ist das denn für einer? „Wie sieht der denn aus?“). Diese Angst führt dazu, dass die Patientinnen und Patienten sich zunehmend isolieren, indem sie versuchen, solche Situationen komplett zu vermeiden.

„Die soziale Angststörung geht daher mit erheblichen psychosozialen Einschränkungen einher, die oftmals schwerwiegender sind als diejenigen bei einer Depression“, erläutert Prof. Leichsenring. Die Ursachen seien vielfältig. Gegenwärtig werde ein Wechselspiel zwischen Umweltfaktoren (beispielsweise erlebte Beschämung) und neurobiologischen Faktoren für am wahrscheinlichsten gehalten. Das Fazit des jetzt im New England Journal of Medicine erschienenen Artikels lautet daher: „Nach den geltenden Leitlinien ist Psychotherapie das Mittel der Wahl, was die Behandlung angeht.“ Zwar hätten sich auch Psychopharmaka, insbesondere SSRIs, als wirksam erwiesen, doch seien die Ergebnisse der Psychotherapie dauerhafter.

Für die psychotherapeutische Behandlung haben sich – so die Forschungsergebnisse der Gießener Mediziner – insbesondere die kognitive Verhaltenstherapie und die psychodynamische Therapie als wirksam erwiesen: In der kognitiven Verhaltenstherapie lernen Betroffene unter anderem, die Aufmerksamkeit – beispielsweise während eines Vortrags – nicht auf sich selbst zu richten, sondern auf die Zuhörerinnen und Zuhörer. Ein Videofeedback soll dazu dienen, dass die Betroffenen die verzerrten Vorstellungen, die sie von sich selbst haben, korrigieren können.

In der psychodynamischen Therapie wird der Hintergrund der Symptomatik herausgearbeitet, der den Patientinnen und Patienten zum Teil nicht bewusst ist. Dabei werden verschiedenen Situationen beleuchtet, in denen die Symptome aufgetreten sind. Eine wichtige Rolle spielen in diesem Zusammenhang verschiedene Personen aus der Gegenwart und der Vergangenheit. Es geht darum, den Patientinnen und Patienten neue Blickwinkel zu eröffnen und den Kontext zu verdeutlichen, damit sie ihr eigenes Verhalten besser verstehen lernen. So haben viele Betroffen nicht nur Angst, sich zu zeigen, sondern unbewusst auch den starken Wunsch, sich zu präsentieren und bewundert zu werden. Gleichzeitig befürchten diese aber, von anderen dafür „niedergemacht“ zu werden.

Welche der beiden Therapien – die kognitive Verhaltenstherapie oder die psychodynamische Therapie – für welchen Menschen am besten passt, ist wissenschaftlich noch nicht geklärt, so Leichsenring und Leweke: „Es kommt sehr stark auf den Einzelnen an: Dem einen kommt der Zugang der kognitiven Verhaltenstherapie mehr entgegen; dem anderen liegt die psychodynamische Therapie eher.“

Publikation
Leichsenring, F & Leweke, F (2017). Social anxiety disorder. New England Journal of Medicine, 376, 63, 2255-2264.

Kontakt
Prof. Dr. Falk Leichsenring
Professur für Psychotherapieforschung
Abt. Psychosomatik und Psychotherapie, Fachbereich 11 – Medizin der JLU
Ludwigstraße 76; 35392 Gießen
Telefon: 0641 99 56660; E-Mail: Falk.Leichsenring@psycho.med.uni-giessen.de

Prof. Dr. Frank Leweke
Professur für Psychosomatik und Psychotherapie
Abt. Psychosomatik und Psychotherapie, Fachbereich 11 – Medizin der JLU
Friedrichstraße 28; 35392 Gießen
Telefon: 0641 99 45620; E-Mail: Frank.Leweke@psycho.med.uni-giessen.de

Weitere Informationen:
https://www.uni-giessen.de/fbz/fb11/institute/klinik/psychosomatik

Quelle: idw

(nach oben)


Zeolith-Katalysatoren ebnen den Weg für dezentrale chemische Prozesse: Biosprit aus Abfällen

Dr. Ulrich Marsch Corporate Communications Center
Technische Universität München

Sprit aus Abfall? Ist machbar. Doch Biomüll in Treibstoffe umzuwandeln, ist bisher kaum konkurrenzfähig. Zu hohe Temperaturen und zu viel Energie sind nötig. Mit einem neuen Katalysatorkonzept ist es Forscherinnen und Forschern der Technischen Universität München (TUM) jetzt gelungen, Temperatur und Energiebedarf eines wichtigen Schrittes im chemischen Prozess entscheidend zu senken. Der Trick: Die Reaktion findet auf engstem Raum, im Inneren von Zeolith-Kristallen statt.

Immer mehr Strom wird dezentral erzeugt – durch Windräder, Wasserkraft und Solaranlagen. „Da liegt es nahe, auch die Chemieproduktion zu dezentralisieren“, meint Prof. Johannes Lercher, der an der TU München den Lehrstuhl für Technische Chemie II leitet. „Theoretisch könnte jede Gemeinde ihren eigenen Sprit oder ihren eigenen Dünger herstellen.“

Bisher ist dies nicht möglich, weil chemische Prozesse viel Energie benötigen – mehr als die regenerativen Energiequellen vor Ort liefern. „Wir haben uns daher das Ziel gesetzt, durch neue Prozesse die Voraussetzungen für eine dezentrale chemische Produktion zu schaffen, die durch alternative Energiequellen gespeist werden kann“, erklärt der Chemiker, der in Personalunion Direktor des amerikanischen Institute for Integrated Catalysis an Pacific Northwest National Laboratory ist.

Eine Grundlage für die Wende in der chemischen Produktion hat sein Team jetzt geschaffen: Im Labor konnten die Wissenschaftlerinnen und Wissenschaftler zeigen, dass sich mit Hilfe von Zeolith-Kristallen in wässriger Lösung die zur Spaltung von Kohlenstoff-Sauerstoff Bindungen notwendige Temperatur drastisch senken lässt. Zeolith-Katalysatoren beschleunigen den Prozess darüber hinaus erheblich.

Die Natur als Vorbild
Bei der Entwicklung des neuen Verfahrens stand die Natur Pate: In biologischen Systemen sorgen Enzyme, an deren Oberflächen sich kleine Taschen befinden, dafür, dass chemische Prozesse schneller ablaufen.

„Wir haben uns überlegt, wie wir diese biologischen Funktionen auf die organische Chemie übertragen können“, erläutert Lercher. „Auf der Suche nach geeigneten Katalysatoren, die die Reaktion beschleunigen, sind wir auf die Zeolithe gestoßen: Kristalle mit kleinen Hohlräumen, in denen Reaktionen unter ähnlich beengten Verhältnissen ablaufen wie in den Taschen der Enzyme.“

Säure in die Enge getrieben
Doch steigert die Enge tatsächlich die Reaktivität? Um diese Frage zu beantworten, verglich Lerchers Team im Labor die Reaktion von Kohlenstoffverbindungen mit Säuren im Becherglas mit der in Zeolithen. Ergebnis: In den engen Hohlräumen der Kristalle, wo reagierende Moleküle, beispielsweise Alkohole, auf Hydronium-Ionen der Säuren treffen, laufen Reaktionen bis zu hundert Mal schneller und bereits knapp über 100°C mit hohen Raten ab.

„Unsere Experimente zeigen, dass die Zeolithe als Katalysatoren eine Wirkung entfalten, die vergleichbar ist mit der von Enzymen: Beide senken das Energieniveau, das für die Reaktionen notwendig ist ganz erheblich“, berichtet Lercher. „Die katalytische Wirkung wird dabei stärker, je kleiner die Hohlräume sind, in denen die Reaktionen stattfinden. Die besten Ergebnisse haben wir bei Durchmessern von weit unter einem Nanometer erzielt.“

Gecko, Wachs und Zeolithe
Doch warum macht Enge die Moleküle reaktionsfreudiger? „Die Kraft, die den Reaktionspfad verbessert, ist dieselbe, die dafür sorgt, dass Wachs an der Tischplatte klebt und Geckos an der Decke laufen können“, antwortet Lercher. „Je mehr Kontaktpunkte es zwischen zwei Oberflächen gibt, desto größer die Adhäsion. In unserm Experiment werden die organischen Moleküle, die sich in wässriger Lösung befinden, von den Poren der Zeolithe regelrecht angezogen.“

Im Inneren der Hohlräume haben die Hydronium-Ionen daher eine erheblich höhere Wahrscheinlichkeit auf einen Reaktionspartner zu treffen als außerhalb. Das Ergebnis ist eine sauer katalysierte chemische Reaktion, die schneller und mit weniger Energiezufuhr abläuft.

Aus Müll wird Sprit
Durch den Kontakt mit den Hydronium-Ionen verlieren die organischen Moleküle Sauerstoff. Das Verfahren eignet sich daher gut, um Bio-Öl, das aus organischen Abfällen gewonnen wird, in Treibstoff umzuwandeln.

Bis das neue Verfahren in der Praxis eingesetzt werden kann, wird freilich noch einige Zeit vergehen. „Noch arbeiten wir an den Grundlagen“, betont Lercher. „Mit denen wollen wir die Voraussetzung schaffen für eine neue, dezentrale Chemie, die keine großtechnischen Anlagen mehr benötigt.“

Die Arbeiten entstanden in einer Kooperation des Lehrstuhls für Technische II mit dem Zentralinstitut für Katalyseforschung der TU München und dem Pacific Northwest National Laboratory (PNNL). Sie wurden gefördert mit Mitteln des U.S. Department of Energy (DOE). Ein Teil der NMR-Experimente wurde am Environmental Molecular Science Laboratory (EMSL) des PNNL durchgeführt, dessen National Energy Research Scientific Computing Center (NERSC) auch Rechenzeit für Simulationen zur Verfügung stellte.

Publikationen:
Enhancing the catalytic activity of hydronium ions through constrained environments
Y. Liu, A. Vjunov, H. Shi, S. Eckstein, D. M. Camaioni, D. Mei, E. Barath, J. A. Lercher
Nat. Comm., 8, 14113 (2017) – DOI: 10.1038/ncomms14113
https://www.nature.com/articles/ncomms14113

Tailoring nanoscopic confines to maximize catalytic activity of hydronium ions
H. Shi, S. Eckstein, A. Vjunov, D.M. Camaioni, J.A. Lercher
Nat. Comm., 8, 14113 (2017) – DOI: 10.1038/ncomms15442
https://www.nature.com/articles/ncomms15442

Kontakt:
Prof. Dr. Johannes Lercher
Technische Universität München
Lehrstuhl für Technische Chemie II
Lichtenbergstr. 4, 85746 Garching, Germany
Tel.: +49 89 289 13540 – E-Mail: Johannes.Lercher@ch.tum.de
Web: http://www.tc2.ch.tum.de

Weitere Informationen:
https://www.tum.de/die-tum/aktuelles/pressemitteilungen/detail/article/34027/
Link zur Pressemitteilung

Quelle: idw

(nach oben)


Sport ist Mord?

Rudolf-Werner Dreier Presse- und Öffentlichkeitsarbeit
Albert-Ludwigs-Universität Freiburg im Breisgau

Studie zeigt, dass Menschen Sport als weniger anstrengend empfinden, wenn sie daran glauben, dass er ihnen gut tut

„Sport ist mir zu anstrengend.“ Für viele Menschen ist das Grund genug, auf Bewegung zu verzichten. Doch muss Sport wirklich schweißtreibend sein? Der Psychologe Hendrik Mothes vom Institut für Sport und Sportwissenschaft der Albert-Ludwigs-Universität Freiburg hat mit seinem Team herausgefunden, dass die eigenen Erwartungen einen starken Einfluss darauf haben, wie anstrengend eine Sporteinheit erlebt wird. Außerdem wiesen die Forscher nach, dass es für das Anstrengungserleben eine wesentliche Rolle spielt, was die Sporttreibenden über sich selbst denken. Manchmal könne es zudem klug sein, sich von vermeintlich hilfreichen Sportprodukten unterstützen zu lassen, sofern man daran glaubt. Die Studie ist in der Fachzeitschrift „PLOS ONE“ erschienen.

Das Team hat 78 Frauen und Männer im Alter zwischen 18 und 32 Jahren in sein Forschungslabor eingeladen, wo die Probandinnen und Probanden 30 Minuten lang in die Pedale eines Fahrradergometers treten mussten. Davor sollten die Teilnehmerinnen und Teilnehmer einschätzen, wie sportlich sie sich empfinden. Zudem wurden sie gebeten, ein Kompressionsshirt eines bekannten Sportartikelherstellers anzuziehen. Alle fünf Minuten wurden sie während der Sporteinheit nach ihrem aktuellen Anstrengungserleben befragt. Direkt davor hatten die Wissenschaftler den Teilnehmenden jeweils bestimmte Kurzfilme gezeigt, die die positiven gesundheitlichen Auswirkungen der anstehenden Radfahraktivität hervorhoben oder die Erwartungen eher dämpften. Dabei fanden auch die getragenen Kompressionsshirts Erwähnung: Während die Trikots in einigen der Kurzfilme als zusätzlich hilfreich beim Ausführen der Radfahraktivität gelobt wurden, wurden sie in den anderen Kurzfilmen mit dem Hinweis erwähnt, dass dadurch das Schwitzen der Probanden während des Sports vergleichbar wird. „Was die Teilnehmenden dabei nicht ahnten, war, dass auf diese Weise ihre Erwartungen an das nachfolgende Radfahren beeinflusst werden sollten“, sagt Mothes.

Die Ergebnisse zeigten ganz im Sinne einer sich selbst erfüllenden Prophezeiung, dass die Trainingseinheit für die Probanden dann weniger anstrengend war, wenn sie mit positiven Erwartungen an das Training herangingen. Dieser Effekt war umso stärker, je sportlicher sich die Probanden selbst empfanden. Teilnehmern, die sich als unsportlich einschätzten, nutzten die positiven Erwartungen jedoch nichts. Sie erlebten die Trainingseinheit trotzdem als anstrengend. Außerdem stellten die Forscher einen Effekt des Glaubens an das Kompressionsshirt fest. Für die sich als sportlich empfindenden Probanden machte es keinen Unterschied, doch für die Probanden, die sich als unsportlich empfanden, einen beachtlichen: „Allein der Glaube daran, dass das Kompressionsshirt ihnen hilft, verhalf den ‚Unsportlichen‘ zu geringerem Anstrengungserleben während der Sportaktivität“, bilanziert Mothes.

Diese Befunde seien ein weiterer Beleg für die Wirkung eines Placebo-Effektes beim Sporttreiben. Und sie zeigten, dass es nicht egal ist, was man über Sport und seine Wirkung denkt. „Nicht zuletzt zeigen die Befunde eindrucksvoll für alle, die sich nicht für eine Sportskanone halten: Entsprechende Produkte können Sport tatsächlich angenehmer machen, wenn man ‚nur‘ daran glaubt.“

Originalveröffentlichung:
Hendrik Mothes, Christian Leukel, Harald Seelig, Reinhard Fuchs (2017): Do placebo expectations influence perceived exertion during physical exercise? In: PLOS ONE.
http://journals.plos.org/plosone/article?id=10.1371/journal.pone.0180434

Kontakt:
Hendrik Mothes
Institut für Sport und Sportwissenschaft
Albert-Ludwigs-Universität Freiburg
Tel.: 0761/203-4563
E-Mail: hendrik.mothes@sport.uni-freiburg.de

Weitere Informationen:
https://www.pr.uni-freiburg.de/pm/2017/sport-ist-mord?set_language=de

Quelle: idw

(nach oben)


Konflikte in der Arbeitswelt: Streit um Entlohnung, Mitbestimmung und Aufstiegschancen

Dr. Jennifer Villarama Presse- und Öffentlichkeitsarbeit
Soziologisches Forschungsinstitut Göttingen (SOFI)

Erwerbsarbeit ist Konflikt. Auseinandersetzungen um Entlohnung, Arbeitszeit, Mitbestimmung und Aufstiegschancen begleiten und prägen die moderne Arbeitswelt. Das Arbeitsrecht und die betriebliche Sozialpolitik haben hierfür Antworten gefunden, die wiederum selbst zu Streitgegenständen werden können. Dies gilt mit Blick auf die europäischen Gesellschaften, aber erst recht im internationalen Vergleich. Arbeitskonflikte und Formen, mit ihnen umzugehen, bilden einen Schwerpunkt der aktuellen Ausgabe der „Mitteilungen aus dem SOFI“.

Erwerbsarbeit ist Konflikt. Der Streit um Entlohnung, Arbeitszeit, Mitbestimmung und Aufstiegschancen begleiten und prägen die moderne Arbeitswelt. Die aktuellen „Mitteilungen aus dem SOFI“ nehmen diese Arbeitskonflikte in den Blick und berichten u. a. über Beteiligungsansprüche der sogenannten „Generation Y“ in der Arbeitswelt, das Management transnationaler kollektiver Arbeitsbeziehungen und gewerkschaftliche Entwicklungen in Ostdeutschland. Darüber hinaus informiert die neue Ausgabe über die aktuellen SOFI-Projekte zur betrieblichen Integration von Flüchtlingen und zur Lebens- und Arbeitswirklichkeit prekärer Haushalte.

Weitere Beiträge diskutieren die Frage „Was bitte schön, ist Industrie 4.0 (und was nicht?)“, berichten von der Veranstaltung „Streikrepublik Deutschland? Kämpfe um eine demokratische Arbeitswelt“ oder schildern den Einfluss von Finanzialisierung auf Arbeit, Wachstum und Innovation – das Thema einer neu erschienenen SOFI-Publikation.

Dabei hat die Aktualität der SOFI-Forschung ihre Geschichte. Sie greift auf wissenschaftliche Expertise zurück, die eng mit der Person Michael Schumanns verknüpft ist. Der Mitbegründer und jetzige „Senior Präsident“ des Instituts feierte Anfang des Jahres seinen 80. Geburtstag. Ihm zu Ehren fand Mitte Mai ein SOFI-Kolloquium statt, das sich einem zentralen Konfliktpunkt der gegenwärtigen gesellschaftlichen Entwicklung widmete: Wohin treiben wohlfahrtsstaatlich geprägte demokratische Arbeitsgesellschaften in Zeiten neuer Ressentiments und Populismen? Welche Rolle spielt hierbei die Arbeiterschaft? Wie kann ausgehend von den Betrieben Demokratie gestärkt werden?

Für den Anspruch, wissenschaftlich fundierte Antworten auf diese aktuellen Fragen zu bieten und Grundlagenforschung in gesellschaftsgestaltender Absicht zu betreiben, steht die Person Michael Schumann. Die Impulse seiner Forschungen wirken im Institut weiter, wie auch die neue Ausgabe der „Mitteilungen aus dem SOFI“ zeigt.

Als Printausgabe können die „Mitteilungen aus dem SOFI“ über das SOFI bezogen werden. Die elektronische Fassung steht auf der SOFI-Homepage zum Download zur Verfügung und kann über das Institut abonniert werden.

Kontakt:
Dr. Jennifer Villarama (Kommunikation und Koordination)
Soziologisches Forschungsinstitut Göttingen (SOFI) e.V.
an der Georg-August-Universität
Friedländer Weg 31
37085 Göttingen
Tel. +49 (0) 551-52205-19
E-Mail: kommunikation@sofi.uni-goettingen.de

Weitere Informationen:
http://www.sofi-goettingen.de/

Anhang
Mitteilungen aus dem SOFI H. 26
https://idw-online.de/de/attachment57907

Quelle: idw

(nach oben)


Lebensmittel im Blickpunkt: Die ursprüngliche Reinheit des Mineralwassers

Nina Banspach Pressestelle
Bundesamt für Verbraucherschutz und Lebensmittelsicherheit (BVL)

Warum Wasser nicht gleich Wasser ist
Natürliches Mineralwasser erfreut sich gerade in den heißen Sommermonaten großer Beliebtheit. Als kalorienfreies Getränk ist es für die Flüssigkeitsversorgung des Menschen bestens geeignet. Aufgrund seiner Bedeutung ist natürliches Mineralwasser strengen gesetzlichen Regelungen unterworfen. Als einziges Lebensmittel muss es vor seiner Vermarktung zunächst von den zuständigen Überwachungsbehörden vor Ort amtlich anerkannt werden. Nur mithilfe dieser amtlichen Anerkennung können die vom Gesetzgeber geforderten strengen und umfassenden Kriterien an das Wasser gewährleistet werden. Eine Liste mit den über 800 in Deutschland anerkannten natürlichen Mineralwässern wird vom Bundesamt für Verbraucherschutz und Lebensmittelsicherheit (BVL) regelmäßig veröffentlicht.

Die Mineral- und Tafelwasser-Verordnung (Min/TafelWV) regelt die rechtlichen Belange für natürliches Mineralwasser. Danach muss natürliches Mineralwasser aus unterirdischen, vor Verunreinigung geschützten Wasservorkommen stammen und von ursprünglicher Reinheit sein. Es zeichnet sich aus durch seinen Gehalt an Mineralien, Spurenelementen und anderen Bestandteilen, die bestimmte physiologische Wirkungen aufweisen sollen. Es muss frei sein von Krankheitserregern. In der Verordnung wurden ebenfalls Vorschriften für die mikrobiologische Beschaffenheit festgelegt sowie Höchstgehalte für einige natürlich vorkommende Bestandteile, zu denen auch Arsen, Blei oder Cyanid zählen können. Die Kontrolle der Einhaltung dieser Bestimmungen ebenso wie die amtliche Anerkennung des Mineralwassers wird von den Überwachungsbehörden in den Bundesländern vorgenommen.

Aktuelle Untersuchungsergebnisse
Im Rahmen des vom BVL veröffentlichten Monitoring-Berichts 2015 wurde natürliches Mineralwasser auf Süßstoffe und nicht relevante Metabolite von Wirkstoffen aus Pflanzenschutzmitteln untersucht. Diese Metabolite sind Abbauprodukte von Pflanzenschutzmitteln, die in die Pflanze, den Boden und das Grundwasser gelangen können. Im Gegensatz zu relevanten Metaboliten besitzen nicht relevante Metabolite kein wahrnehmbares Wirkpotenzial. Im Mineralwasser sind sie dennoch unerwünscht, da sie dem Grundsatz der „ursprünglichen Reinheit“ widersprechen.

Für zahlreiche nicht relevante Metabolite existieren derzeit nur gesundheitliche Orientierungswerte (GOW) für Trinkwasser, die gemeinsam vom Umweltbundesamt und dem Bundesinstitut für Risikobewertung entwickelt wurden. Verbindlichere Richtwerte werden derzeit auf EU-Ebene abgestimmt. In über 10 % der insgesamt 772 untersuchten Mineralwasserproben wurden Verunreinigungen durch bestimmte nicht relevante Metabolite nachgewiesen.

Süßstoffe werden in Lebensmitteln eingesetzt, da sie im Gegensatz zu Zucker keine oder nur sehr wenige Kalorien aufweisen. Anders als Zucker werden manche Süßstoffe vom menschlichen Körper jedoch nicht weiterverarbeitet. Stattdessen werden sie ungefiltert über den Urin wieder ausgeschieden und können so in Oberflächengewässer, Grundwasser und über den Boden auch in Mineralwasser gelangen.

Bei den 3.780 im Jahr 2015 auf Süßstoffe durchgeführten Untersuchungen in Mineralwasserproben konnten in etwa 96 % der Fälle keine Rückstände von Süßstoffen in Mineralwasser bestimmt werden. Bei 4 % der Untersuchungen wurde ein Gehalt oberhalb der Bestimmungsgrenze von 0,05 µg/l analysiert.

Ein Süßstoffgehalt oberhalb der Bestimmungsgrenze ist nicht gleichbedeutend mit einem Risiko für die menschliche Gesundheit. Da Süßstoffe jedoch eine Abweichung von der „ursprünglichen Reinheit“ des Mineralwassers bedeuten, sind sie generell unerwünscht.

Sprudel oder still
Auf dem Etikett der Mineralwasserflasche sind alle für den Verbraucher relevanten Informationen aufgeführt. So lässt sich von der Verkehrsbezeichnung auf die Art des Mineralwassers schließen. Sie kann „Natürliches Mineralwasser“ oder „Natürliches kohlensäurehaltiges Mineralwasser“ lauten. Wurde dem Wasser Kohlensäure zugesetzt, wird noch unterschieden in „Natürliches Mineralwasser mit eigener Quellkohlensäure versetzt“ oder „Natürliches Mineralwasser mit Kohlensäure versetzt“.

Enthält das natürliche Mineralwasser mehr als 1,5 Milligramm Fluorid pro Liter, muss das mit dem Hinweis „Enthält mehr als 1,5 Milligramm pro Liter Fluorid: Für Säuglinge und Kinder unter 7 Jahren nicht zum regelmäßigen Verzehr geeignet“ angegeben werden. Natürliche Mineralwässer mit einem natürlichen Kohlendioxidgehalt von mehr als 250 Milligramm pro Liter dürfen die Zusatzbezeichnung „Säuerling“ oder „Sauerbrunnen“ tragen. Die Bezeichnung „Sprudel“ darf verwendet werden, wenn das Mineralwasser im Wesentlichen unter natürlichem Kohlensäuredruck aus der Quelle hervorsprudelt. „Stilles Mineralwasser“ ist natürliches Mineralwasser, das einen geringen Kohlensäuregehalt aufweist.

Angaben/ Anforderungen
Mit geringem Gehalt an Mineralien/ < 500 mg/l Mineralstoffe
Mit sehr geringem Gehalt an Mineralien/ < 50 mg/l Mineralstoffe
Mit hohem Gehalt an Mineralien/ > 1500 mg/l Mineralstoffe
Natriumhaltig/ > 200 mg/l Natrium
Geeignet für natriumarme Ernährung/ < 20 mg/l Natrium
Calciumhaltig/ > 150 mg/l Calcium
Magnesiumhaltig/ > 50 mg/l Magnesium
Chloridhaltig/ > 200 mg/l Chlorid
Sulfathaltig/ > 200 mg/l Sulfat
Bicarbonathaltig/ > 600 mg/l Hydrogencarbonat
Fluoridhaltig/ > 1 mg/l Fluorid
Eisenhaltig/ 1 mg/l Eisen (zweiwertiges)
Geeignet für die Zubereitung von Säuglingsnahrung/ Besondere Anforderungen

Wasser ist nicht gleich Wasser
Neben natürlichem Mineralwasser, das als einziges Wasser vor seiner Vermarktung amtlich anerkannt werden muss, gibt es auch noch Quell-, Tafel- und Heilwasser sowie selbstverständlich Trinkwasser. Die Regelungen zu Quellwasser und Tafelwasser sind ebenfalls in der Mineral- und Tafelwasser-Verordnung (Min/TafelWV) zu finden.

Für Quellwasser gelten teilweise die gleichen Regelungen wie für natürliches Mineralwasser. Es muss auch aus einem unterirdischen Wasservorkommen stammen, direkt am Quellort abgefüllt werden und die gleichen mikrobiologischen Anforderungen erfüllen, jedoch ist der Nachweis der ursprünglichen Reinheit nicht erforderlich und es gelten die chemischen Anforderungen gemäß Trinkwasserverordnung.

Tafelwasser kann abgefülltes Trinkwasser sein, aber auch eine Mischung verschiedener Wässer. Es wird aus Trinkwasser, Quellwasser oder natürlichem Mineralwasser hergestellt und kann zudem weitere Zutaten enthalten, wie etwa Meerwasser, natürliches salzreiches Wasser und Mineralsalze. Tafelwasser darf nur so hergestellt werden, dass die Grenzwerte für chemische Stoffe, die für Trinkwasser festgelegt sind, eingehalten werden.

Heilwasser zählt nicht zu den Lebensmitteln, sondern zu den Arzneimitteln. Für Heilwasser besteht damit eine Zulassungspflicht gemäß Arzneimittelrecht. Es kann zur Vorbeugung, Behebung oder Linderung von Krankheiten verwendet werden. Im Rahmen des Zulassungsverfahrens muss unter anderem die Wirksamkeit nachgewiesen werden.

Trinkwasser oder Leitungswasser unterliegt den strengen Regelungen der Trinkwasserverordnung, unter anderem bezüglich mikrobiologischer Grenzwerte sowie der Grenzwerte für chemische Stoffe. Es muss den Menschen in großen Mengen sicher und relativ kostengünstig zur Verfügung gestellt werden und wird regelmäßig durch die dafür zuständigen Gesundheitsämter kontrolliert.

Trinkwasser ist alles Wasser, das zum Trinken, zum Kochen, zur Zubereitung von Speisen und Getränken, zur Körperpflege und -reinigung, zum Abwaschen von Geschirr oder Wäschewaschen verwendet wird, aber auch alles Wasser, das in einem Lebensmittelbetrieb verwendet wird.

Weiterführende Informationen
– Informationen des BVL zu Mineralwasser:
www.bvl.bund.de/mineralwasser

– Informationen der EU-Kommission zu Mineralwasser:
http://ec.europa.eu/food/safety/labelling_nutrition/mineral_waters_en

– Informationen des Umweltbundesamtes zu Trinkwasser:
www.umweltbundesamt.de/themen/wasser/trinkwasser

– Berichte zur Lebensmittelsicherheit – Monitoring 2015:
www.bvl.bund.de/monitoring2015

– Mineral- und Tafelwasser-Verordnung (Min/TafelWV):
www.gesetze-im-internet.de/min_tafelwv

– Trinkwasserverordnung:
www.gesetze-im-internet.de/trinkwv_2001

Bundesamt für Verbraucherschutz und Lebensmittelsicherheit (BVL)
Pressestelle
Mauerstraße 39-42
10117 Berlin
Telefon: +49 (0)30-18444-00211
Telefax: +49 (0)30-18444-00209
E-Mail: pressestelle@bvl.bund.de

Anhang
Presseinformation Mineralwasser
https://idw-online.de/de/attachment57785

Quelle: idw

(nach oben)


Extrem sauerstoffarme Wirbel im Atlantik produzieren Treibhausgase

Dr. Andreas Villwock Kommunikation und Medien
GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel

Im Jahr 2014 hat ein internationales Forschungsteam unter Leitung des Kieler Exzellenzclusters „Ozean der Zukunft“ und des GEOMAR Helmholtz-Zentrums für Ozeanforschung Kiel erstmals nahezu sauerstofffreie Wirbel im Atlantik detailliert untersuchen können. Bei der Auswertung der Daten konnten die Beteiligten Prozesse nachweisen, die aus dem Atlantik bisher nicht bekannt waren. Dazu gehört auch die natürliche Produktion erheblicher Mengen von Treibhausgasen, wie ein Autorenteam jetzt in der internationalen Fachzeitschrift Scientific Reports veröffentlicht.

Sauerstoff ist im Meer nicht nur lebenswichtig für die meisten Organismen. Sein Vorhandensein oder seine Abwesenheit beeinflusst ebenso die Chemie des Ozeans und die der Atmosphäre darüber. Beispielsweise entweichen in Regionen mit sehr wenig Sauerstoff aus dem Meer aufgrund biochemischer Prozesse große Mengen des potenten Treibhausgases Distickstoffmonoxid, auch Lachgas genannt.

Der tropische und subtropische Atlantik war dafür bisher nicht bekannt. Es gibt an seinem Ostrand zwar eine natürliche Sauerstoffminimumzone, sie ist jedoch bei weitem nicht so ausgeprägt wie ähnliche Zonen im Indik oder Pazifik. Dieses Bild muss jetzt allerdings korrigiert werden, wie ein internationales Forschungsteam unter Leitung des Kieler Exzellenzclusters „Ozean der Zukunft“ und des GEOMAR Helmholtz-Zentrums für Ozeanforschung Kiel gestern in der Fachzeitschrift Scientific Reports veröffentlichte.

„Der Grund, warum die extrem sauerstoffarmen Regionen im Atlantik der Forschung bisher entgangen waren, ist einfach: Sie sind im Gegensatz zu den großen, stationären Sauerstoffminimumzonen nur sehr kleinräumig und zusätzlich räumlich sehr variabel“, erklärt Dr. Damian Grundle vom Bermuda Institute of Ocean Sciences, Erstautor der aktuellen Studie und bis vor Kurzem noch Wissenschaftler am GEOMAR. Extreme Sauerstoffarmut entsteht im Atlantik in großen Ozeanwirbeln von bis zu 100 Kilometern Durchmesser, die von der Westafrikanischen Küste westwärts durch den Ozean wandern. Solche Wirbel sind mit konventionellen Beobachtungsmethoden nur schwer zu erkennen, geschweige denn detailliert zu untersuchen.

Doch im Jahr 2010 streifte ein Wirbel das Cape Verde Ocean Observatory, eine vor der kapverdischen Insel São Vicente fest im Meer verankerte Beobachtungsstation. „Damit hatten wir einen ersten Hinweis auf die Existenz dieser speziellen Wirbel, aber noch keine genauen Informationen aus ihrem Inneren“, berichtet der Meereschemiker Dr. Björn Fiedler vom GEOMAR, der das Projekt geleitet hat.

Mit finanzieller Unterstützung des Kieler Exzellenzclusters „Ozean der Zukunft“ legten sich die Meeresforscherinnen und Meeresforscher auf die Lauer. 2014 war es so weit: Mit Hilfe eines Satelliten entdeckten sie einen potentiellen Ozeanwirbel, der sich vor der Küste Mauretaniens bildete und Richtung Kapverden wanderte. Von dort schickte das Team ihm autonome Messdrohnen, sogenannte Gleiter, entgegen. Als sich der Wirbel den Inseln näherte, konnten sie mit dem kapverdischen Forschungsschiff ISLANDIA erstmalig auch Wasserproben direkt aus seinem Zentrum nehmen.

„Auch der Zufall half uns, denn zu dieser Zeit befand sich das deutsche Forschungsschiff METEOR für eine lange geplante Expedition des Kieler Sonderforschungsbereichs 754 vor den Kapverden. So konnten wir die Kollegen rasch überzeugen, auch den Wirbel zu beproben“, sagt Dr. Fiedler und ergänzt: „Ohne die gute Infrastruktur auf den Kapverden und die langjährige Zusammenarbeit mit den dortigen Kolleginnen und Kollegen wäre diese Messkampagne nicht möglich gewesen.“

Die gewonnenen Daten und Wasserproben wurden anschließend physikalisch, biogeochemisch und biologisch ausgewertet. „In einer ganzen Reihe von Publikationen konnten wir spannende neue Erkenntnisse über dieses bisher unbekannte Phänomen im Atlantik gewinnen“ so Dr. Fiedler.

Die jetzt in den Scientific Reports erschienene Studie schließt die Forschungen zu dem 2014er Wirbel in gewisser Weise ab. „Im Kern des Wirbels gab es in nur 100 Meter Wassertiefe die höchsten Lachgaswerte, die jemals im offenen Atlantik gemessen worden waren. Dies ist auf Prozesse zurückzuführen, die dem Ozean den Pflanzennährstoff Stickstoff entziehen können und dabei unter anderem Lachgas in großen Mengen produzieren“, fasst Dr. Grundle die Erkenntnisse zusammen. „Wir müssen unser Verständnis der Stoffkreisläufe im Atlantik jetzt diesbezüglich anpassen“.

Originalarbeiten:
Grundle, D.S., C.R. Löscher, G. Krahmann, M.A. Altabet, H.W. Bange, J. Karstensen, A. Körtzinger, B. Fiedler (2017): Low oxygen eddies in the eastern tropical North Atlantic: 2 Implications for N2O cycling. Scientific Reports, www.nature.com/articles/s41598-017-04745-y

„Special Issue“ der Fachzeitschrift Biogeosciences mit den bisher zu diesem Thema erschienen Studien: http://www.biogeosciences.net/special_issue213.html

Weitere Informationen:
http://www.geomar.de Das GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel
http://www.ozean-der-zukunft.de Der Exzellenzcluster „Ozean der Zukunft“
http://www.cvoo.de Das Cape Verde Ocean Observatory
http://www.sfb754.de Der Sonderforschungsbereich 754
http://sopran.pangaea.de/ Das Projekt SOPRAN

Quelle: idw

(nach oben)


Überschwemmungen genau in den Blick nehmen

Dipl.-Ing. Mario Steinebach Pressestelle
Technische Universität Chemnitz

Mobiles und flexibles Messsystem soll dauerhaft ein zuverlässiges Gewässer-Monitoring in Katastrophenfällen ermöglichen – und das völlig autark

Starke Regenfälle und Überschwemmungen nehmen im Zuge des Klimawandels immer mehr zu. In Katastrophenfällen wird die vorhandene Messtechnik zur Gewässerüberwachung oft stark beansprucht oder fällt ganz aus. Gerade dann ist jedoch eine kontinuierliche Überwachung von Pegelständen besonders wichtig, um ein angemessenes Risikomanagement betreiben zu können. Vor diesem Hintergrund entwickelt die Professur Mess- und Sensortechnik der Technischen Universität Chemnitz im neuen Verbundprojekt „HydroMon“ gemeinsam mit der SEBA Hydrometrie GmbH & Co. KG und der JuB – Creative Product GmbH ein mobil einsetzbares autonomes Messsystem, welches schnell einsatzbereit und ausfallsicher sein soll.

Ziel der Entwicklung ist eine verlässliche Überwachung von Pegelstand und Wellenausbreitung im Verlauf einer Überschwemmung. Dies ermöglicht Gefahrenabschätzungen und Risikobewertungen, um Gegenmaßnahmen einleiten und koordinieren zu können. Das künftige System selbst soll über eine energiesparende Messtechnik sowie hocheffiziente Elektronik zur Datenverarbeitung und Funkübertragung verfügen. Dabei soll durch eine hybride Energieversorgung auf Basis von Energy Harvesting eine besonders schnelle Einsatzbereitschaft erreicht werden. Hierzu wird ein neuartiger Pendelwandler entwickelt, welcher die Bewegungen des Wassers in elektrisch nutzbare Leistung umwandelt. Zusätzlich soll der Temperaturunterschied zur Umgebung genutzt werden, um die Zuverlässigkeit und Ausfallsicherheit der Sensorik weiter zu steigern. Das System kann somit wartungsfrei auch nach längeren Pausenzeiten eingesetzt und genutzt werden, so die Vorstellung der Forscherinnen und Forscher. Gleichzeitig soll eine modulare Funkübertragung unter Verwendung verschiedener Mobilfunkfrequenzen einen universellen Einsatz in möglichst vielen Ländern der Erde ermöglichen, unabhängig von deren Mobilfunkausbaustufe.

Potentielle Absatzmärkte beschränken sich deshalb nicht nur auf die Bundesrepublik Deutschland, sondern zielen vor allem auch auf das Ausland ab. Speziell in ariden Klimazonen, wo während der Regenzeit typischerweise mit Überschwemmungen zu rechnen ist, stehen oft nicht ausreichend finanzielle Mittel für dauerhafte stationäre Lösungen bereit. Hier sind flexible und vor allem kostengünstige Systeme gefragt, welche situationsbedingt eingesetzt werden können. HydroMon leistet somit einen wertvollen Beitrag zum Katastrophenschutz unter den klimatischen Herausforderungen des 21. Jahrhunderts und schärft das Profil der Professur Mess- und Sensortechnik der TU Chemnitz im Bereich Umweltmesstechnik.

Das Verbundprojekt „Hydrologisches Messsystem für dauerhaftes und zuverlässiges Gewässer-Monitoring (HydroMon)“ wird im Rahmen der Fördermaßnahme „KMU-innovativ“ im Programm „Forschung für Nachhaltige Entwicklung“ vom Bundesministerium für Bildung und Forschung gefördert.

Weitere Informationen erteilt Dr. Christian Viehweger, Telefon 0371 531-39686, E-Mail christian.viehweger@etit.tu-chemnitz.de

Quelle: idw

(nach oben)


Bauchaortenaneurysmen: Das Ultraschall-Screening für Männer ab 65 kommt

Friederike Gehlenborg Pressestelle
Deutsche Gesellschaft für Ultraschall in der Medizin (DEGUM)

Berlin – Gute Neuigkeiten aus der Gesundheitspolitik: Gesetzlich krankenversicherte Männer ab 65 Jahren haben künftig Anspruch auf ein einmal durchgeführtes Ultraschallscreening zur Früherkennung von Bauchaortenaneurysmen. Die entsprechende Richtlinie des Gemeinsamen Bundesausschusses (G-BA) ist nun zusammen mit einer Versicherteninformation in Kraft getreten. Die Deutsche Gesellschaft für Ultraschall in der Medizin e.V. (DEGUM) sieht das als wichtigen Schritt an – empfiehlt jedoch, auch Patienten mit einem besonderen Risikoprofil wie etwa Diabetes oder Rauchen sowie Frauen einzubeziehen.

Die Ruptur eines Bauchaortenaneurysmas zählt zu den zehn häufigsten Todesursachen. „Das Tückische an der Erkrankung liegt darin, dass die Aussackung des größten Gefäßes im Bauchraum – dem sogenannten Aneurysma – meist keine Beschwerden verursacht“, sagt Professor Dr. med. Thomas Fischer, stellvertretender Leiter der Sektion Radiologie bei der DEGUM und Leiter des Interdisziplinären Ultraschall-Zentrums am Institut für Radiologie am Campus Charité Berlin-Mitte. „Die Betroffenen ahnen nichts von der Gefahr, in der sie sich befinden.“ Reiße die Bauchaorta jedoch, könne der Patient innerhalb kurzer Zeit innerlich verbluten.

„Mittels Ultraschall ist ein Bauchaortenaneurysma von einem erfahrenen Untersucher jedoch leicht bei einer Früherkennungsuntersuchung zu diagnostizieren“, sagt Professor Fischer. Dabei misst der Arzt mit einem Ultraschallgerät den Durchmesser des Blutgefäßes: „Bei einem Durchmesser ab 5,5 Zentimetern ist das Risiko für ein Reißen des Gefäßes recht hoch, sodass wir den Patienten dann zu einem operativen Eingriff raten“, berichtet der DEGUM-Experte. Bei kleineren Aneurysmen sei es empfehlenswert, regelmäßige Kontrolluntersuchungen durchzuführen. So könne überprüft werden, ob sich diese weiter ausdehnen. Wenn das der Fall sei, würde gegebenenfalls ein minimalinvasiver oder offener operativer Eingriff durchgeführt – und so möglicherweise das Leben eines Betroffenen gerettet. Für das Screening sollten Untersucher eine nachweisbare Qualifikation haben, beispielsweise ein DEGUM-Zertifikat der Stufe 1, empfiehlt der Experte. Denn es gehe nicht nur darum, den Durchmesser der Bauchaorta zu bestimmen, sondern auch einen Einriss oder ein Aneurysma des Gefäßes frühzeitig zu erkennen.

Auch wenn Männer häufiger von einem Bauchaortenaneurysma betroffen seien als Frauen, sollten nach Ansicht der Ultraschall-Experten auch sie von der Vorsorgeuntersuchung profitieren können. „Darüber hinaus wäre es ratsam, auch Patienten mit einem besonderen Risikoprofil – beispielsweise Personen mit einer Fettstoffwechselerkrankung, Diabetes, Bluthochdruck und starke Raucher ab dem 55. Lebensjahr – in das Vorsorgescreening einzuschließen“, sagt Professor Fischer.

Bis das Screeningangebot zur Früherkennung eines Bauchaortenaneurysmas auf Krankenschein von Männern ab 65 Jahren wahrgenommen werden kann, dauert es jetzt noch bis zu sechs Monaten: Der zuständige Bewertungsausschuss muss zunächst noch die Frage der ärztlichen Vergütung regeln und hat dafür bis zu einem halben Jahr Zeit.

Weiterführende Informationen:
Richtlinie „Ultraschallscreening auf Bauchaortenaneurysmen“
https://www.g-ba.de/downloads/62-492-1411/US-BAA-RL_2016-10-20_2017-03-16_iK-201…
Versicherteninformation
https://www.g-ba.de/downloads/17-98-4330/2017_03_16_G-BA_Merkblatt_Versicherteni…

Über die DEGUM
Die Deutsche Gesellschaft für Ultraschall in der Medizin (DEGUM) bietet ein Forum für den wissenschaftlichen und praktischen Erfahrungsaustausch auf dem Gebiet des medizinischen Ultraschalls. Sie vereint rund 10 000 Ärzte verschiedener Fachgebiete, medizinische Assistenten, Naturwissenschaftler und Techniker. Ultraschalldiagnostik ist heute das am häufigsten eingesetzte bildgebende Verfahren in der Medizin. Ultraschallanwendern bescheinigt die DEGUM eine entsprechende Qualifikation mit einem Zertifikat der Stufen I bis III. DEGUM zertifizierte Ärzte finden Patienten im Internet unter: http://www.degum.de

Quelle: idw

(nach oben)


Woher wissen wir wie alt die Erde ist?

Dr. Anne Hardy Public Relations und Kommunikation
Goethe-Universität Frankfurt am Main

Die Schöpfungsmythen waren die erste Quelle, nach der Theologen das Alter der Erde bestimmten. Erst im 17. Jahrhundert begannen Naturforscher, auf und in der Erde nach Spuren ihres Alters zu suchen. In der aktuellen Ausgabe des Forschungsmagazins „Forschung Frankfurt“ zum Thema „Zeit“ lässt der Geologe Sascha Staubach die Geschichte von der Bestimmung des Erdalters Revue passieren.

FRANKFURT. Die Heiligen Bücher dienten im Barock als die erste Datenbasis zur Berechnung des Erdalters. So legten der Erzbischof von Armagh, James Ussher, und John Lightfoot die Alter der biblischen Patriarchen und die Regierungszeiten der Könige zugrunde, um die Zeit von der Erschaffung der Welt bis heute zu bestimmen. Der 1650 erschienene Ussher-Lightfoot-Kalender legt den Beginn der Welt auf das Jahr 4004 v. Chr.

Den ersten naturwissenschaftlichen Versuch, das Alter der Erde zu bestimmen, unternahm im 17. Jahrhundert der britische Astronom und Geologe Edmond Halley. Er untersuchte den Salzgehalt der Flüsse und Weltmeere und kam zu dem Schluss, dass die Erde deutlich älter sein müsse, als von Ussher behauptet. Knapp 200 Jahre später, in den 1890er Jahren, berechnete der irische Geologe John Joly das Alter der Erde aufgrund von Halleys Überlegungen und kam auf 80 bis 90 Millionen Jahre.

Aus Gesteinen lesen – die Entwicklung der Stratigraphie
Im 19. Jahrhundert führte Charles Lyell die Methode der Stratigraphie ein. Diese beruht auf der Erkenntnis, dass in einem Stapel von Gesteinsschichten das älteste Material zuunterst liegt und dass Fossilien aus derselben Schicht auch dasselbe Alter haben müssen. Hieraus entwickelte sich die Datierungsmethode mithilfe sogenannter Leitfossilien. Ein typisches Beispiel dafür sind Ammoniten. Sie kamen fast überall auf der Erde vor und veränderten ihr Äußeres im Laufe der Evolution relativ schnell, so dass sich in kurzer Zeit möglichst viele gut unterscheidbare Arten entwickelten. Findet man nun in unterschiedlichen Regionen der Welt Fossilien derselben Art, so sind die Schichten, aus denen sie stammen, vermutlich gleich alt. Auf diese Weise lässt sich allerdings nur das relative Alter der einzelnen Schichten zueinander bestimmen.

Einen großen Schritt in die Richtung absoluter Zeitangaben machten der Physiker Ernest Rutherford und der Chemiker Frederic Soddy. Sie erkannten als Erste, dass man die Zerfälle natürlich vorkommender radioaktiver Elemente zur Altersbestimmung nutzen kann. Einen großen Schritt zur Anwendung dieses Prinzips machten der englische Geologe Arthur Holmes und der amerikanische Physiker Alfred O.C. Nier, als sie im Mineral Zirkon einen Schlüssel zur absoluten Altersbestimmung von Gesteinen fanden.

Während ihres Wachstums lagert diese Verbindung aus Zirkonium, Silizium und Sauerstoff auch geringe Mengen an Uran ein. Dieses sitzt fest im Kristallgitter und zerfällt mit der ihm eigenen Halbwertszeit und über verschiedene Zwischenstufen zu Blei. Die moderne Massenspektrometrie erlaubt es, auch geringste Konzentrationen von Elementen zu messen, so dass man das exakte Verhältnis von Uran zu Blei ermitteln kann. Mithilfe der Halbwertszeit lässt sich der Zeitpunkt berechnen, zu dem das Uran in den Kristall eingebaut wurde.

Wie alt ist die Erde nun?
Das aktuell anerkannte Alter unseres Planeten beträgt 4,55 ± 0,05 Milliarden Jahre. Dieses Alter wurde allerdings an Meteoriten gemessen. Deren Material bildete sich etwa zeitgleich mit der Erde aus der Staubscheibe des noch jungen Sonnensystems, kühlte jedoch schneller ab. Auf der deutlich größeren Erde dauerte es einige Zeit, bis sich auf der glutflüssigen Oberfläche erste Teile einer festen Gesteinskruste bildeten, deren Reste man heute in Form von Zirkonen finden kann. Sie sind die einzigen bis heute erhaltenen Relikte dieser ältesten Kruste. Man findet diese Zirkone, eingebettet in jüngeres Gestein, in den Jack Hills im Westen Australiens. Sie weisen ein Alter von 4,4 Milliarden Jahren auf. Das älteste komplett erhaltene Gestein, auf das man seinen Fuß setzen kann, ist der sogenannte Acasta Gneis im Norden Kanadas mit einem Alter von 4,03 Milliarden Jahren.

Information: Dipl. Geologe Sascha Staubach, Institut für Geowissenschaften, Fachbereich 11, Campus Riedberg, Tel.: (069) 798-40207, staubach@em.uni-frankfurt.de

Die aktuelle Ausgabe von „Forschung Frankfurt“ (1/2017) können Journalisten kostenlos bestellen: ott@pvw.uni-frankfurt.de. Im Internet steht sie unter: www.forschung-frankfurt.de.

Aktuelle Nachrichten aus Wissenschaft, Lehre und Gesellschaft in GOETHE-UNI online (www.aktuelles.uni-frankfurt.de)

Die Goethe-Universität ist eine forschungsstarke Hochschule in der europäischen Finanzmetropole Frankfurt. 1914 mit privaten Mitteln überwiegend jüdischer Stifter gegründet, hat sie seitdem Pionierleistungen erbracht auf den Feldern der Sozial-, Gesellschafts- und Wirtschaftswissenschaften, Medizin, Quantenphysik, Hirnforschung und Arbeitsrecht. Am 1. Januar 2008 gewann sie mit der Rückkehr zu ihren historischen Wurzeln als Stiftungsuniversität ein hohes Maß an Selbstverantwortung. Heute ist sie eine der zehn drittmittelstärksten und drei größten Universitäten Deutschlands mit drei Exzellenzclustern in Medizin, Lebenswissenschaften sowie Geistes- und Sozialwissenschaften. Zusammen mit der Technischen Universität Darmstadt und der Universität Mainz ist sie Partner der länderübergreifenden strategischen Universitätsallianz Rhein-Main. Internet: www.uni-frankfurt.de

Herausgeberin: Die Präsidentin der Goethe-Universität Redaktion: Dr. Anne Hardy, Referentin für Wissenschaftskommunikation, Abteilung PR & Kommunikation, Theodor-W.-Adorno-Platz 1, 60323 Frankfurt am Main, Tel: (069) 798-13035, Fax: (069) 798-763 12531, kaltenborn@pvw.uni-frankfurt.de

Quelle: idw

(nach oben)


Neue Studien belegen: Übergewicht und Adipositas noch gefährlicher als angenommen

Kerstin Ullrich Presse- und Öffentlichkeitsarbeit
Deutsche Allianz Nichtübertragbare Krankheiten

Ein hoher Body-Mass-Index (BMI) ist noch gefährlicher als bisher angenommen: Das Risiko, an Herzkreislauf-Leiden zu erkranken, steigt mit zunehmendem Gewicht. Bei übergewichtigen Menschen ist es im Vergleich zu Menschen mit einem normalen BMI doppelt so hoch, bei schwer übergewichtigen Menschen sogar mehr als zehnfach höher als bei Normalgewichtigen. Zu diesem Ergebnis kommt eine groß angelegte Studie aus Europa und den USA, die jetzt aktuell im Fachmagazin Lancet Public Health veröffentlicht worden ist.

„Die Untersuchung zeigt, wie wichtig weltweit die Bekämpfung von Übergewicht ist und unterstreicht umso mehr die Forderungen nach einer wirkungsvollen bevölkerungsweiten Prävention“, betont Dr. Dietrich Garlichs, Sprecher der Deutschen Allianz Nichtübertragbare Krankheiten (DANK). „Unser Gesundheitswesen allein konnte der Herausforderung Adipositas bisher nicht erfolgreich begegnen“, ergänzt Professor Dr. med. Manfred James Müller, Vorstandssprecher des Kompetenznetzes Adipositas und Vertreter der Deutschen Adipositas-Gesellschaft.

In der Studie des Departments of Epidemiology and Public Health am University College London haben Wissenschaftler über einen Zeitraum von mehr als zehn Jahren die Daten von 120 813 Männern und Frauen ausgewertet. Im Verlauf der Untersuchung wurde deutlich, dass schon bei einer Adipositas Grad eins das Risiko für das Auftreten eines Typ-2-Diabetes, einer koronaren Herzerkrankung sowie eines Schlaganfalls deutlich steigt. Bei übergewichtigen Personen war es doppelt so hoch, bei Patienten mit einer Adipositas Grad eins bereits fünfmal höher und bei Auftreten einer schweren Adipositas des zweiten und dritten Grades sogar um das 15-fache gestiegen. Von „Übergewicht“ sprechen die Ärzte bei einem BMI zwischen 25 und unter 30 kg/m2. Ist der Wert über 30 sprechen sie von einer „Adipositas“. Diese wird noch einmal in verschiedene Schweregrade eingeteilt: Bei einem BMI zwischen 30 und 35 liegt eine Adipositas Grad eins vor, zwischen BMI 35 und 40 handelt es sich um eine schwere Adipositas zweiten Grades. Ist der BMI über 40, liegt eine besonders schwere Adipositas dritten Grades vor.

„Die Ergebnisse der Studie betonen die medizinische Notwendigkeit, Patienten mit Übergewicht und Gefäßerkrankungen frühzeitig auf Diabetes zu untersuchen und die Aufmerksamkeit ebenso auf die Prävention von Gefäßerkrankungen bei übergewichtigen Personen mit Diabetes zu lenken“, sagt Müller.

Weltweit hat sich seit 1980 die Rate der Adipositas in mehr als 70 Ländern verdoppelt. So waren laut einer Studie, die aktuell im New England Journal of Medicine vorgestellt wurde, im Jahr 2015 insgesamt 107,7 Millionen Kinder und 603,7 Millionen Erwachsene adipös. Global sind etwa vier Millionen Todesfälle auf die Ursache Übergewicht zurückzuführen – rund 70 Prozent der Todesfälle, die mit einem hohen Body-Mass-Index zusammenhingen, gingen auf das Konto von Herzkreislauf-Erkrankungen. „Diese dramatische Entwicklung zeigt die Dringlichkeit, mit Hilfe einer bevölkerungsweiten, präventiven Gesundheitsförderung und Regulierung, Lebensstile positiv zu beeinflussen und die Zunahme dieser Erkrankungen zu stoppen“, so Müller.

Die Deutsche Allianz Nichtübertragbare Krankheiten (DANK) empfiehlt vor diesem Hintergrund in Anlehnung an Empfehlungen der Vereinten Nationen und der WHO vier wesentliche Maßnahmen für eine wirkungsvolle Prävention von Übergewicht und Adipositas in Deutschland:

• Steuersenkung für gesunde Lebensmittel mit geringer Energiedichte und geringem Gehalt an Zucker, Fetten oder Salz;

• Steuererhöhung für energiedichte Lebensmittel mit hohem, über den Empfehlungen liegendem Gehalt an Zucker, Fetten oder Salz;

• ein Verbot für die Werbung ungesunder Lebensmittel und Getränke an Kinder (zumindest insoweit als diese die Nährwertprofile der WHO nicht erfüllen);

• eine verpflichtende Kennzeichnung aller Lebensmittel durch ein für alle Bevölkerungsgruppen leicht verständliches, den Gehalt an Zucker, Fett, Salz und Energie klar kennzeichnendes
(Ampel-)System.

Quellen:
Lancet Public Health 2017; 2: e277-85:Overweight, obesity, and risk of cardiometabolic multimorbidity: pooled analysis of individual-level data for 120 813 adults from 16 cohort studies from the USA and Europe: http://www.thelancet.com/journals/lanpub/article/PIIS2468-2667(17)30074-9/fullte…

The new england journal of medicine: June 12, 2017-DOI: 10.1056/NEJMoa1614362 Health Effects of Overweight and Obesity in 195 Countries over 25 Years: http://www.nejm.org/doi/full/10.1056/NEJMoa1614362#t=article

DANK-Strategiepapier: http://www.dank-allianz.de/files/content/dokumente/150612_DANK-Strategiepapier.p…

DANK-Grundsatzpapier: http://www.dank-allianz.de/files/content/dokumente/DANK-Grundsatzpapier_ES.pdf

Quelle: idw

(nach oben)


Sonnencremes: Darauf kommt es bei der Darstellung der Wirksamkeit an

Nicole Siller Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Bildungsforschung

Selbst Hautärzte unterschätzen die Schutzwirkung von Sonnencremes, wenn diese ungünstig dargestellt wird, wie eine Studie unter Leitung des Max-Planck-Instituts für Bildungsforschung zeigt. Verbrauchern kann eine einfache Faustregel helfen.

Richtiger Sonnenschutz ist angesichts der weltweit wachsenden Zahl der durch UV-Strahlung verursachten Hautkrebs-Fälle wichtig. Sonnencremes schützen vor schädlicher UV-Strahlung und der Lichtschutzfaktor (LSF) einer Creme ist eine zentrale Kennzahl für Verbraucher. Doch über die Wirksamkeit von Sonnencremes kursieren viele Mythen und Falschinformationen – deren Schutzwirkung wird tendenziell eher unterschätzt. Mitunter wird fälschlicherweise behauptet, dass Sonnencremes mit einem Lichtschutzfaktor höher als 30 kaum Verbesserungen im Schutz gegenüber Cremes mit geringerem Lichtschutzfaktor bieten. Selbst Dermatologen haben Schwierigkeiten bei der Einschätzung der Wirksamkeit von Sonnencremes, wenn diese nicht mit dem gängigen Lichtschutzfaktor, sondern als Prozentzahl der durch die Sonnencreme absorbierten hautrötenden Strahlung angegeben wird. Das hat eine gemeinsame Studie des Max-Planck-Instituts für Bildungsforschung unter anderem mit der Abteilung für Dermatologie am Henry Ford Hospital in Detroit und der Abteilung für Dermatologie am Universitätsspital Zürich herausgefunden, die in der Fachzeitschrift JAMA Dermatology veröffentlicht wurde.

Insgesamt nahmen 261 Hautärzte aus Deutschland, den USA, der Schweiz und Australien an einem webbasierten Experiment teil, bei dem zehn Paare von Sonnencremes mit den fünf gängigen Lichtschutzfaktoren 10, 15, 20, 30 und 50 miteinander verglichen werden sollten. Informationen zu deren Wirksamkeit wurden den Ärzten auf drei unterschiedliche Arten präsentiert: dem Lichtschutzfaktor selbst, dem Anteil der durch die Sonnencreme absorbierten oder dem Anteil der durch die Sonnencreme durchgelassenen hautrötenden Strahlung in Prozent. Die Hautärzte sollten paarweise beurteilen, um wie viel länger die Schutzdauer der stärkeren im Vergleich zur weniger starken Creme ist.

Das Ergebnis zeigt, dass die längere Schutzdauer, die Sonnencremes mit höherem Lichtschutzfaktor haben, von der überwiegenden Mehrheit der Dermatologen systematisch unterschätzt wurde, wenn die Wirksamkeit mit der Prozentzahl der durch die Sonnencreme absorbierten hautrötenden Strahlung angegeben wurde. Beispielsweise absorbiert eine Sonnencreme mit einem Lichtschutzfaktor von 30 bereits 96,7 Prozent der hautrötenden Sonnenstrahlung, während eine Creme mit einem Lichtschutzfaktor von 60 dann 98,3 Prozent absorbiert. Zunahmen im Lichtschutzfaktor wirken somit klein, der Schutz wird eher unterschätzt. „Diese Kennzahl ist irreführend. Wenn es zum Sonnenbrand kommt, dann spielt es keine Rolle, wie viel der Strahlen durch die Sonnencreme absorbiert werden, sondern wie viel die Haut davon aufnimmt“, sagt Erstautor Stefan Herzog vom Max-Planck-Institut für Bildungsforschung. Er untersucht am Forschungsbereich „Adaptive Rationalität“, wie man menschliche Urteile und Entscheidungen – insbesondere auch ärztliche Entscheidungen – verbessern kann.

Tatsächlich bedeutet eine Erhöhung des Lichtschutzfaktors von 30 auf 60, eine Halbierung der durch die Sonnencreme durchgelassenen Strahlung von 3,3 Prozent auf 1,7 Prozent und somit doppelten Schutz (siehe Abbildung). Am verständlichsten scheinen Angaben zu sein, die mit dem Lichtschutzfaktor arbeiten. Hier unterschätzten die Hautärzte die Schutzdauer nur ganz leicht.

Das Ergebnis der Studie hat auch Implikationen für die Gesundheitskommunikation: „Aus unserer Sicht sollten sich Dermatologen bei der Beurteilung und Kommunikation der Wirksamkeit einer Sonnencreme ausschließlich auf den Lichtschutzfaktor konzentrieren. Andere Kennzahlen, wie durch die Sonnencreme absorbierte oder durchgelassene hautrötenden Strahlung, sind ungeeignet. Vereinzelt findet man solche Angaben beispielsweise in etablierten Medien oder sogar in Fachzeitschriften und in staatlichen Gesundheitsinformationen“, sagt Koautor Christian Surber von der Abteilung für Dermatologie am Universitätsspital Zürich. Als Faustregel für Patienten und Verbraucher könne gelten, Sonnencremes mit mindestens Lichtschutzfaktor 30 und einem „broad spectrum“ Schutz zu verwenden. Solche Cremes schützen sowohl gegen UVA- und UVB-Strahlen, die Hautalterung und Sonnenbrand verursachen. Neben dem Auftragen von Sonnencremes sind auch weitere Maßnahmen, wie beispielsweise ausreichend Schatten zu suchen oder schützende Kleidung zu tragen, ein wichtiger Bestandteil des richtigen Sonnenschutzes.

Originalstudie
Herzog, S. M., Lim, H. W., Williams, M. S., De Maddalena, I. D., Osterwalder, U., & Surber, C. (2017). Sun protection factor communication of sunscreen effectiveness: A web-based study of perception of effectiveness by dermatologists. JAMA Dermatology, 153, 348-350.
doi:10.1001/jamadermatol. 2016.4924

Weitere Informationen:
http://www.mpib-berlin.mpg.de/de/presse/2017/06/sonnencremes-darauf-kommt-es-bei…

Quelle: idw

(nach oben)


Bürger forschen in einem wissenschaftlichen Projekt der Universität Greifswald

Jan Meßerschmidt Presse- und Informationsstelle
Ernst-Moritz-Arndt-Universität Greifswald

„Spaß am Erkenntnisgewinn“ ist das zentrale Anliegen des Citizen Science-Projekts „Forschung. Umweltbildung. Naturschutz – Mit F.U.N. in die Wildnis“. Start für das Bürgerforschungsprojekt war am 29. Juni 2017 in Wooster Teerofen im Naturpark Nossentiner/Schwinzer Heide in Mecklenburg-Vorpommern. Über die Onlineplattform www.fledermausfun.de können sich Interessierte an Fledermaus- und Naturschutzforschung beteiligen. Das Projekt wird mit 390.000 Euro von der Deutschen Bundesstiftung Umwelt gefördert.

Anders als in vielen ähnlichen Citizen Science-Projekten beschränkt sich die Bürgerbeteiligung bei F.U.N. nicht nur auf das Sammeln von Daten. Die interessierten Hobbywissenschaftlerinnen und -wissenschaftler können am gesamten Wissensprozess – von der Fragestellung über die Datenanalyse bis hin zur deren Interpretation – teilhaben und das unabhängig von Alter und Vorkenntnissen. Ziel ist es, der breiten Öffentlichkeit die Möglichkeit zur Teilhabe an aktueller Wissenschaft zu bieten, die in konkreten Handlungsempfehlungen für den Naturschutz mündet. Spezielle Angebote wurden vor allem für Schülerinnen und Schüler entwickelt. Für Interessierte, die keine Daten auswerten wollen, bietet die Onlineplattform viele Tipps und Informationen über Fledermäuse und Naturschutz im Allgemeinen.

Das Onlineportal
Um dieses Angebot überregional anbieten zu können, wurde das Onlineportal http://www.fledermausfun.de eingerichtet. Um bei der Auswertung eine hohe Datenqualität abzusichern, werden Interessierte nach dem ersten LogIn zunächst zu einer Onlineschulung geleitet. Wenn diese absolviert wurde, wird das gerade erworbene Wissen anhand beispielhafter Testdaten überprüft. Verläuft der Test erfolgreich, dürfen die Teilnehmer die Daten analysieren, die automatisiert in der Nossentiner/Schwinzer Heide gewonnen werden. Ein Datensatz gilt als ausgewertet, sobald er von mindestens zwei unterschiedlichen Teilnehmern auf die gleiche Weise analysiert wurde. Diese Datensätze werden anschließend nochmals stichprobenartig vom F.U.N.-Projektteam überprüft und zusammengeführt. An den daraus resultierenden Publikationen werden die Bürgerwissenschaftlerinnen und -wissenschaftler beteiligt.

Angebote für Schulen
Für Schulen aller Klassenstufen und Schularten sowie für Kindergärten bietet die Online-Plattform außerdem didaktisch aufbereitete Unterrichtskonzepte, die sich am Lehrplan orientieren. Es werden kostenlose Materialien mit Stundenkonzepten, Arbeitsmaterialien, Lernzielen und Hintergrundinformationen für die Lehrkräfte bereitgestellt. Darüber hinaus werden Lehrerinnen und Lehrer eingeladen, die Datensätze im Unterricht auszuwerten und so die Unterrichtsstunden oder den Projektunterricht praxisnah zu gestalten. Getestet werden die Unterrichtskonzepte zunächst mit Partnerschulen aus Mecklenburg-Vorpommern und Bayern und unter Beteiligung der Fachdidaktik Biologie der Universität Rostock.

Die Projektregion
Der Naturpark Nossentiner/Schwinzer Heide eignet sich für das Projekt in besonderer Weise. Das Großschutzgebiet befindet sich in weiten Teilen im Wandel zu einem naturnahen Lebensraum vieler seltener Tier- und Pflanzenarten. Hier findet seit über 30 Jahren „bürgerliche“ Forschung an den zehn im Naturpark vorkommenden Fledermausarten statt. Deren Populationen bilden den Forschungs- und Bildungsschwerpunkt des Projektes.

Dank zahlreicher Initiativen und Aufklärungskampagnen sind Fledermäuse mit ihrem für Säugetiere einzigartigem Flug und ihrer Orientierung mittels Echoortung in völliger Dunkelheit in den vergangenen Jahren zu Sympathieträgern in weiten Teilen der Bevölkerung geworden. Zudem sind alle in Deutschland vorkommenden Arten geschützt und daher für den Naturschutz relevant. Da Fledermäuse mit Hilfe moderner Techniken vergleichsweise leicht beobachtet und automatisiert überwacht werden können, eignen sie sich gut für ein Citizen Science-Projekt. Dies geschieht beispielsweise über kleine Tiertransponder, ähnlich wie sie auch bei Haustieren verwendet werden.
Aus den durch F.U.N. gewonnenen Erkenntnissen zum Schutz der Fledermäuse sollen Prinzipien erarbeitet werden, die sich nach einer erfolgreichen Testphase in der Nossentiner/Schwinzer Heide für bundesweite Schutzempfehlungen eignen.

Weitere Informationen
http://www.uni-greifswald.de/fledermausfun
http://www.fledermausfun.de

Ansprechpartner „Mit FUN in die Wildnis“ an der Universität Greifswald

Prof. Dr. Gerald Kerth
Projektleiter
Telefon 03834 420 4100
gerald.kerth@uni-greifswald.de

Michael Gerhard Schöner
Projektkoordinator und Wissenschaftlicher Mitarbeiter
Telefon 03834 420 4273
schoenerm@uni-greifswald.de

Ernst-Moritz-Arndt-Universität Greifswald
Zoologisches Institut und Museum
Lehrstuhl für Angewandte Zoologie und Naturschutz
Johann-Sebastian-Bach-Straße 11/12
17489 Greifswald
Telefon 03834 420 4251
Telefax 03834 420 4252
zimg.sekretariat@uni-greifswald.de

Quelle: idw

(nach oben)


Mitbestimmung wichtiger als Stabilitätsanker in Zeiten von Kapitalmarktdominanz und Digitalisierung

Rainer Jung Abt. Öffentlichkeitsarbeit
Hans-Böckler-Stiftung

Böckler-Konferenz für Aufsichtsräte

Mitbestimmung immer wichtiger als Stabilitätsanker in Zeiten von Kapitalmarktdominanz und Digitalisierung

Ausschließlich am Kapitalmarkt orientierte Investoren wie US-Vermögensverwaltungen bauen im Zuge des Booms von passiven ETF-Fonds ihre Beteiligungen an deutschen Unternehmen aus. Allein dem Vermögensverwalter Black Rock gehörten Ende 2015 gut 5 Prozent aller Aktien der DAX-Unternehmen. Damit war das US-Unternehmen einer der größten Anteilseigner quer durch alle Branchen.

Gleichzeitig verändert die Digitalisierung die Arbeitswelt in Deutschland tiefgreifend. Die Mitbestimmung der Beschäftigten ist in dieser Situation ein besonders wichtiger Stabilitätsanker für Gesellschaft und Wirtschaft, weil sie dazu beiträgt, dass sich Menschen am Arbeitsplatz weniger „ausgeliefert“ fühlen. Dass die Beschäftigten in den Aufsichtsräten bei wichtigen Unternehmensentscheidungen mitbestimmen und von Betriebsräten unterstützt werden, kann Frustrations- und Entfremdungsgefühlen entgegenwirken, die zugespitzte Konflikte um Arbeitsplätze und politische Radikalisierung auslösen (siehe auch die Zitate). Das kommt allen zugute: Studien zeigen, dass mitbestimmte Betriebe innovativer sind.

Allerdings erfassen die rechtlichen Regelungen zur Mitbestimmung, 40 Jahre oder älter, nicht mehr alle gängigen Unternehmensformen. Die Folge: Unternehmen nutzen, teilweise durch Europarecht entstandene, juristische Schlupflöcher, um ihren Beschäftigten Mitbestimmungsrechte im Aufsichtsrat vorzuenthalten. Davon sind derzeit mehr als 800.000 Arbeitnehmerinnen und Arbeitnehmer betroffen, mit steigender Tendenz (mehr Informationen in unserer digitalen Infomappe; Link unten). Unternehmen nutzen vor allem Lücken in der Gesetzgebung zur Europäischen Aktiengesellschaft SE, im Drittelbeteiligungsgesetz und bei exotischen Rechtsformkonstruktionen wie der plc & Co. KG, um Arbeitnehmervertreter im Aufsichtsrat zu verhindern. Wie Mitbestimmung gesichert und gestärkt werden kann und welche politischen Kräfte sich im Wahljahr dafür einsetzen, steht im Mittelpunkt der heute begonnenen Böckler-Konferenz für Aufsichtsräte.

Bei der Konferenz sprechen unter anderem Andrea Nahles, Bundesministerin für Arbeit und Soziales, Reiner Hoffmann, Vorsitzender des DGB und des Vorstands der Hans-Böckler-Stiftung und der Politikwissenschaftler Prof. Dr. Karl-Rudolf Korte, Direktor der NRW School of Governance. Statements:

Andrea Nahles: „Die Mitbestimmung ist eine tragende Säule unserer starken Wirtschaft und unserer Wettbewerbsfähigkeit. Aber es gibt gesellschaftliche, unternehmerische und rechtliche Entwicklungen, die mir ernstlich Sorgen machen. Sie drohen, die Mitbestimmung in den Unternehmen auszuhöhlen. Doch Tarifautonomie und Mitbestimmung müssen auch in der digitalen Wirtschaft das Fundament unserer sozialen Marktwirtschaft bilden. Denn nur die Sozialpartnerschaft ermöglicht es, passgenaue Lösungen und gute Kompromisse auszuhandeln, die allen dienen. Der Staat kann und soll Raum für Aushandlungen lassen. Damit sind wir bisher in Deutschland sehr gut gefahren. Aber es gilt auch: Wo die Sozialpartner nicht mehr in der Lage sind, Probleme zu lösen, wo die Sozialpartnerschaft erodiert, ist der Staat gefordert. Dabei steht fest: Jede Lösung, die wir zum Erhalt der Mitbestimmung erfolgreich angehen wollen, wird auch eine europäische Dimension haben müssen.“

Reiner Hoffmann: „Wenn wir jetzt nicht einschreiten, dann wird sich der Geltungsbereich der Mitbestimmung sukzessive auf die bereits heute mitbestimmten Unternehmen beschränken. Junge und wachsende Unternehmen werden sich vor der Mitbestimmung drücken. Das deutsche System verliert damit langfristig seine Relevanz als Gegenmodell zum angelsächsischen Modell, bei dem die Kapitalmärkte den Takt vorgeben. Wenn Finanzinvestoren Unternehmen und Arbeitsplätze als eine Art Handelsware sehen, liefert die Mitbestimmung das Gegenkonzept: Mitbestimmung im Aufsichtsrat bewirkt buchstäblich, dass der menschliche Maßstab für Unternehmen zum Führungsziel wird. Die deutsche Politik muss schnell aktiv werden, ehe der Standortvorteil Mitbestimmung verspielt ist.

Diese Einschätzung teilt auch der Deutsche Bundesrat.
Er hat in seiner Entschließung ‚Mitbestimmung zukunftsfest gestalten‘ im Februar festgestellt, er betrachte mit großer Sorge, dass, ich zitiere, ‚sich junge, wachsende Kapitalgesellschaften zunehmend dem Geltungsbereich der Gesetze zur Unternehmensmitbestimmung entziehen‘ und damit ‚den gesellschaftlichen Konsens und die Zukunft der Sozialpartnerschaft in Deutschland in Frage‘ stellen. Weiter heißt es: ‚Der Bundesrat fordert die Bundesregierung daher dazu auf, Lücken im deutschen Mitbestimmungsrecht zu schließen und gleichzeitig auf europäischer Ebene dafür einzutreten, dass entsprechende Schlupflöcher geschlossen und keine neuen Umgehungstatbestände geschaffen werden‘. Damit ist die nächste Bundesregierung am Zug – wer immer sie auch stellt.“

Prof. Dr. Karl-Rudolf Korte: „Die Mitbestimmung gehört zur institutionellen Ausstattung der deutschen Gesellschaft, die durch ihre sozial ausgleichende Wirkung verhindert, dass die politischen Ränder ähnlich stark wachsen wie in unseren europäischen Nachbarländern.“

Kontakt in der Hans-Böckler-Stiftung
Dr. Norbert Kluge
Leiter der Abteilung Mitbestimmungsförderung
Tel.: 0211-7778-199
E-Mail: Norbert-Kluge@boeckler.de

Rainer Jung
Leiter der Pressestelle
Tel.: 0211-7778-150
E-Mail: Rainer-Jung@boeckler.de

Weitere Informationen:
https://www.boeckler.de/veranstaltung_107066.htm – die Veranstaltung im Livestream verfolgen
https://www.boeckler.de/Hans-Boeckler-Stiftung_Mitbestimmung_Gestaltungsprinzip-… – Aktuelle Hintergrundinformationen in unserer digitalen Infomappe
http://www.bundesrat.de/SharedDocs/drucksachen/2016/0701-0800/740-16(B).pdf?__bl… – Entschließung des Bundesrates „Mitbestimmung zukunftsfest gestalten“

Quelle: idw

(nach oben)


Weltrekord bei der Auswertung von Satellitendaten: Städten beim Wachsen zusehen

Dr. Ulrich Marsch Corporate Communications Center
Technische Universität München

Drei Millionen Messpunkte pro Quadratkilometer: Prof. Xiaoxiang Zhu hat mit ihrem Team einen Weltrekord bei der Auswertung von Satellitendaten aufgestellt. Dank neuer Algorithmen konnten die Forscherinnen und Forscher der Technischen Universität München (TUM) aus den Messwerten des Radarsatelliten TerraSAR-X vierdimensionale Punktwolken von Berlin, Las Vegas, Paris und Washington, D.C. erstellen. Im nächsten Schritt wollen die Wissenschaftlerinnen und Wissenschaftler alle Städte der Welt abbilden.

Weltweit wachsen die Metropolen. Nach Schätzungen der Vereinten Nationen lebt bereits heute gut die Hälfte der Erdbevölkerung in Städten, 2050 sollen es zwei Drittel sein. „Dieses Wachstum stellt hohe Anforderungen an die Sicherheit von Gebäuden und Infrastruktur, weil Schäden Menschenleben bedrohen können“, sagt Xiaoxiang Zhu, Professorin für Signalverarbeitung in der Erdbeobachtung an der TUM.

Gemeinsam mit ihrem Team hat sie ein Verfahren entwickelt, mit dem sich potentielle Gefahren frühzeitig erkennen lassen: Beispielsweise könnten Senkungen des Untergrunds zum Einsturz von Gebäuden, Brücken, Tunneln und Staudämmen führen. Mit der neuen Methode lassen sich bereits Veränderungen von einem Millimeter pro Jahr aufspüren und sichtbar machen.

Dreidimensionaler Radarblick auf die Metropolen der Welt
Die Daten für das detaillierte Bild der Städte liefert der TerraSAR-X, der genaueste zivile Radarsatellit der Welt. Seit 2007 umkreist er unseren Planeten in einer Höhe von etwa 500 Kilometern, sendet Mikrowellenimpulse zur Erde und fängt deren Echo wieder auf. „Diese Messungen ergeben zunächst einmal nur ein zweidimensionales Bild mit einer Auflösung von einem Meter“, erklärt Zhu.

Die TUM-Professorin kooperiert mit dem Deutschen Zentrum für Luft- und Raumfahrt (DLR), an dem sie auch eine eigene Arbeitsgruppe leitet. Das DLR ist für Betrieb und Nutzung des Satelliten für wissenschaftliche Zwecke zuständig. „Dass die Aussagekraft der Bilder begrenzt ist, liegt daran, dass sich die Reflexionen verschiedener Objekte, die gleich weit vom Satelliten entfernt sind, überlagern. Dieser Effekt reduziert die dreidimensionale Welt auf ein zweidimensionales Bild.“

Mit Hilfe eines von ihr entwickelten Algorithmus konnte Zhu nicht nur die dritte und sogar die vierte Dimension (Zeit) rekonstruieren, sondern auch gleich einen Weltrekord aufstellen: Drei Millionen Messpunkte errechnet der Computer pro Quadratkilometer. Daraus lassen sich hochpräzise, vierdimensionale Punktwolken erstellen.

Verschiedene Blickwinkel ergeben ein genaues Bild
Der Trick dabei: Die Wissenschaftlerinnen und Wissenschaftler nutzen leicht verschiedene Blickwinkel des Satelliten. Dieser überfliegt jede Region der Erde im Rhythmus von elf Tagen. Allerdings ist seine Position nicht immer exakt dieselbe. Diese Orbitvariationen von etwa 250 Metern nutzen die Forscherinnen und Forscher bei der Radartomographie aus, um die Lage jedes Punkts im dreidimensionalen Raum zu messen. Das Prinzip dieser Methodik ist dasselbe wie bei der Computertomografie, die einen Blick in den menschlichen Körper erlaubt: Verschiedene Messungen aus unterschiedlichen Richtungen werden zu einem dreidimensionalen Bild zusammengeführt.

„Da dieses Verfahren in der dritten Dimension nur eine schlechte Auflösung liefert, setzen wir zusätzlich Compressive Sensing-Methoden ein, mit denen sich die Auflösung um das 15fache verbessern lässt“, sagt Zhu.

Mit den Radarwellen des TerraSAR-X können die Wissenschaftlerinnen und Wissenschaftler Strukturen auf der Oberfläche sehr genau erfassen: beispielsweise die Form und Höhe von Gebäuden. Für Berlin, Las Vegas, Paris und Washington, D.C. wurden auf diese Weise hochpräzise 3D-Modelle errechnet.

Die vierte Dimension
Nachdem die verwendeten Radarbilder im Abstand von je 11 Tagen, also zu unterschiedlichen Zeiten, aufgenommen werden, lässt sich auch die zeitliche Veränderung – und damit die vierte Dimension – sichtbar machen. Das 4D-Modell, das so entsteht, zeigt kleinste Veränderungen mit einer Genauigkeit eines Bruchteils der Radarwellenlänge. So lassen sich beispielsweise die thermische Ausdehnung von Gebäuden im Sommer oder Deformationen, die durch eine Senkung des Untergrunds verursacht werden, mit einer Präzision von zirka einem Millimeter pro Jahr erfassen. Zhu: „Die Methode eignet sich, um Gefahrenpunkte aufzuspüren. Satellitentechnik kann damit einen wichtigen Beitrag dazu leisten, Gebäude und Infrastruktur in Städten sicherer zu machen.“

Künftig wollen die Forscherinnen und Forscher den Metropolen sogar beim Wachsen zusehen. Im ERC Projekt „So2Sat“, das gerade gestartet ist, werden alle Ballungsgebiete der Welt kartiert und langfristig beobachtet. Schwerpunkt der Untersuchungen sind die Schwellenländer, wo innerhalb kürzester Zeit ganze Stadtteile aus dem Boden wachsen. Erstmals wollen Zhu und ihr Team mehrere verschiedene Big Data-Quellen nutzen: Messungen von Satelliten werden kombiniert mit Kartenmaterial aus Open Street Map und dem schier unbegrenzten Strom von Bildern, Texten und Aktivitätsmustern aus sozialen Netzwerken.

Bei der Auswertung der gewaltigen Datenmenge werden die Forscher vom Leibniz Rechenzentrum unterstützt.

Publikationen:
– Kang J., Wang Y., Körner M., Zhu X.: „Robust Object-based Multipass InSAR Deformation Reconstruction“, IEEE Transactions on Geoscience and Remote Sensing, in press. DOI: 10.1109/TGRS.2017.2684424
http://ieeexplore.ieee.org/document/7926387/

– Wang, Y., Zhu, X.X., Zeisl, B., Pollefeys, M., 2017: „Fusing Meter-Resolution 4-D InSAR Point Clouds and Optical Images for Semantic Urban Infrastructure Monitoring“, IEEE Transactions on Geoscience and Remote Sensing, Volume: 55, Issue: 1, Jan. 2017; DOI: 10.1109/TGRS.2016.2554563
http://ieeexplore.ieee.org/document/7587405/

– Montazeri S., Zhu X., Eineder M., Bamler R., 2016: „3-D Deformation Monitoring of Urban Infrastructure by Tomographic SAR Using Multi-Track TerraSAR-X Data Stacks“, IEEE Transactions on Geoscience and Remote Sensing, Volume: 54, Issue: 12, Dec. 2016; DOI: 10.1109/TGRS.2016.2585741
http://ieeexplore.ieee.org/document/7548332/

Kontakt:
Prof. Xiaoxiang Zhu
Technische Universität München
Professur für Signalverarbeitung in der Erdbeobachtung
Tel: +49 8153283531
xiaoxiang.zhu@tum.de

Weitere Informationen:
https://mediatum.ub.tum.de/1362308

Quelle: idw

(nach oben)


DKOU 2017: Orthopäden und Unfallchirurgen setzen sich für aktiven Lebensstil ein

Anne-Katrin Döbler, Lisa Ströhlein – Pressestelle DKOU 2017 (Thieme-PR) Presse- und Öffentlichkeitsarbeit
Deutsche Gesellschaft für Orthopädie und Unfallchirurgie e. V.

Jedes Jahr verletzen sich 1,25 Millionen Bundesbürger beim Sport so schwer, dass sie ärztlich versorgt werden müssen. Überbelastung, hohe Risikobereitschaft und eine mangelnde Vorbereitung auf das Training führen immer wieder zu Unfällen. Gleichzeitig leben in Deutschland viele Millionen Menschen, die sich aufgrund einer Erkrankung nicht mehr schmerzfrei bewegen können. Auf dem Deutschen Kongress für Orthopädie und Unfallchirurgie (DKOU) stellen Experten vom 24. bis 27. Oktober 2017 Therapien vor, mit denen sie Beweglichkeit bis ins hohe Alter erhalten und verlorene Beweglichkeit wiederherstellen können.

Mit mehr als 10.000 Teilnehmern aus dem In- und Ausland ist der DKOU der größte europäische Kongress dieser Fachrichtung.

„Orthopädie und Unfallchirurgie haben in den vergangenen Jahren neue Methoden entwickelt, die Unfallopfer und Verletzte immer schneller wieder mobil machen“, sagt Professor Dr. med. Ingo Marzi, Präsident der Deutschen Gesellschaft für Unfallchirurgie (DGU), mit Blick auf den DKOU 2017. Während Patienten früher wochenlang im Gips lagen, kennen Unfallchirurgen und Orthopäden heute modernere Verfahren, die den Patienten schneller wieder auf die Beine bringen.

Sportverletzungen vermeiden und behandeln
„Als Orthopäden und Unfallchirurgen begrüßen wir den hohen Stellenwert, den Sport mittlerweile in unserer Gesellschaft eingenommen hat“, betont Marzi, Direktor der Klinik für Unfall-, Hand- und Wiederherstellungschirurgie am Universitätsklinikum Frankfurt. „Immer wieder behandeln wir auch ältere Patienten, die ihr Leben noch aktiv gestalten können und sich bei Unfällen schmerzhafte Verletzungen zuziehen.“ Rekonstruktive Eingriffe werden daher bei immer älteren Patienten erfolgreich durchgeführt.

Mit Bewegung gegen die Schmerzen
„Sich schmerzfrei bewegen zu können, ist eine wichtige Voraussetzung für ein gesundes, selbstbestimmtes Leben“, erklärt auch Professor Dr. med. Andrea Meurer, Präsidentin der Deutschen Gesellschaft für Orthopädie und Orthopädische Chirurgie (DGOOC). Erkrankungen der Gelenke können in jedem Lebensalter – bei Kindern ebenso wie bei älteren Menschen – die Beweglichkeit und damit die Lebensqualität einschränken. Die Betroffenen leiden an Schmerzen und fallen deswegen oft in eine Schonhaltung. Dadurch gerieten sie aber in einen Teufelskreis, so Meurer, die die Orthopädische Universitätsklinik Friedrichsheim leitet: „Schont sich der Patient, wird weniger Gelenkflüssigkeit produziert und die Knorpel werden rau und spröde, was wiederum zu mehr Verschleiß und Schmerzen führt. Regelmäßiges, moderates Training hilft dagegen, die Gelenkfunktion länger zu erhalten.“ Dies gelte auch für Patienten, die bereits eine Endoprothese tragen: Bewegung stabilisiert das Zusammenspiel zwischen Kunstgelenk, Knochen und Muskeln.

Bewegung beugt Erkrankungen vor
In einer Forsa-Umfrage mit 1.210 Teilnehmern gaben nur zwei Drittel der Befragten an, sich mindestens 30 Minuten am Tag per Fahrrad oder zu Fuß zu bewegen. Die meiste Zeit des Tages verbringen die Deutschen im Sitzen, davon fast drei Stunden täglich im Fernsehsessel. „Bewegungsmangel ist, neben kalorienreicher Ernährung, der häufigste Grund für Übergewicht und Fettleibigkeit. Übergewicht verdoppelt das Risiko für eine Knie-Arthrose, Fettleibigkeit verdreifacht es“, sagt Professor Dr. med. Alexander Beck, Vorstandsmitglied im Berufsverband für Orthopädie und Unfallchirurgie (BVOU). „Es ist daher unsere Aufgabe, den Patienten zu einer Gewichtsreduktion zu raten und sie darüber aufzuklären, wie sie mehr Bewegung in ihren Alltag integrieren können und wie sie gesund Sport treiben können“, betont der Chefarzt der Abteilung für Orthopädie, Unfall- und Wiederherstellungschirurgie am Juliusspital in Würzburg.

Im Rahmen des DKOU 2017 wird auch wieder ein Patiententag stattfinden.

Der gemeinsame Kongress der DGOOC, DGU und des BVOU findet vom 24. bis 27. Oktober 2017 auf dem Messegelände Süd in Berlin statt. Die Anmeldung zum DKOU 2017 ist im Internet möglich. Unter http://dkou.org/ können Interessenten ausgewählte Vorträge außerdem live verfolgen. Nähere Informationen sind bei Intercongress GmbH, Wilhelmstraße 7, 65185 Wiesbaden, Tel. 0611 977-160, dkou@intercongress.de erhältlich. Journalisten akkreditieren sich über die DKOU-Pressestelle.

Quellen:
(1) Sportunfälle – Häufigkeit, Kosten, Prävention; Studie der ARAG Allgemeine Versicherungs-AG in Kooperation mit der Ruhr-Universität Bochum, Lehrstuhl für Sportmedizin
(2) „Beweg dich, Deutschland!“ – TK Bewegungsstudie 2016

Weitere Informationen:
http://www.dkou.de

Quelle: idw

(nach oben)


Inseln und Küstenregionen am meisten gefährdet

Julia Wandt Stabsstelle Kommunikation und Marketing
Universität Konstanz

Mit Konstanzer Beteiligung wurden erstmals weltweite Hotspots für nicht heimische Tier- und Pflanzenarten identifiziert
Die Verteilung von Neobiota, nicht-heimischer Arten, auf verschiedene Regionen der Erde ist höchst unterschiedlich. Wo sich die globalen Hotspots für eingebürgerte, nicht heimische Arten befinden, war allerdings bislang unklar. Ein internationales Forschungsteam unter Mitwirkung des Ökologen Prof. Dr. Mark van Kleunen von der Universität Konstanz legt nun erstmals eine Analyse dieser Hotspots vor: Demnach finden sich die meisten Neobiota auf Inseln und in Küstenregionen.

Die Studie wurde in der renommierten Zeitschrift Nature Ecology and Evolution vom 12. Juni 2017 veröffentlicht.
Verursacht durch den Menschen dringen zunehmend Arten in neue Gebiete vor, in denen sie ursprünglich nicht heimisch waren. Die Anzahl eingebürgerter Neobiota ist in verschiedenen Regio-nen der Erde unterschiedlich groß. Unklar war jedoch, wo die meisten etablierten Neobiota anzutreffen sind und welche Faktoren deren Verteilung prägen.

Ein internationales Team aus 25 Forscherinnen und Forschern unter der Leitung von Dr. Wayne Dawson von der Universität Durham (Großbritannien), der seine Forschung auf diesem Gebiet in der Konstanzer Arbeitsgruppe von Mark van Kleunen begann, erstellte eine Datenbank mit den Vorkommen von acht Tier- und Pflanzengruppen (Säugetiere, Vögel, Amphibien, Reptilien, Fische, Spinnen, Ameisen, Gefäßpflanzen) in einer Region außerhalb ihres Heimatgebiets. Insgesamt wurde die Verbreitung auf 186 Inseln und 423 Regionen auf Kontinenten erfasst. So konnten die Wissenschafterinnen und Wissenschaftler zum ersten Mal überhaupt die globale Verteilung von Neobiota in einer großen Anzahl wichtiger Organismengruppen erfassen.

Wichtigstes Ergebnis: Inseln und Küstenregionen auf Kontinenten weisen die höchsten Zahlen eingebürgerter Neobiota auf. An erster Stelle befindet sich Hawaii, gefolgt von der Nord-Insel von Neuseeland und den kleinen Sunda-Inseln Indonesiens. „Hawaii und Neuseeland liegen im Spitzenfeld bei allen untersuchten Artengruppen“, erklärt der ebenfalls beteiligte Ökologe Dr. Franz Essl von der Universität Wien (Österreich): „Beide Regionen sind abgelegene und ursprünglich sehr isolierte Inseln, in denen manche Organismengruppen von Natur aus fehlten – wie etwa Säugetiere. Heute liegen beide Regionen in ökonomisch hochentwickelten Ländern mit intensiven Handelsbeziehungen und dementsprechend massiven Folgen für die Einschleppung und Einbürgerung von Neobiota“.

Die Wissenschaftlerinnen und Wissenschaftler untersuchten auch, welche Faktoren dafür entscheidend sind, ob eine Region viele oder wenige eingebürgerte Neobiota aufweist. „Wir fanden einen deutlichen Anstieg der Anzahl eingebürgerter Neobiota in dicht besiedelten Regionen sowie in Gebieten mit hoher ökonomischer Entwicklung“, erklärt Dr. Dietmar Moser, ebenfalls von der Universität Wien und Zweitautor der Studie. „Der Grund dafür ist, dass diese Faktoren die Wahrscheinlichkeit erhöhen, dass der Mensch viele neue Arten in ein Gebiet ‚einschleppt‘. Die dadurch mitverursachte Zerstörung von Lebensräumen begünstigt die Ausbreitung von Neobiota. Inseln und Küstenregionen scheinen daher besonders anfällig zu sein, da sie im globalen Fernhandel eine dominierende Rolle einnehmen.“ Prof. Mark van Kleunen, der Konstanzer Drittautor der Studie, ergänzt: „Neben der Einschleppung neuer fremder Arten besteht ein weiteres bedeutendes Risiko. Viele der fremden Pflanzen und Tiere, die in unseren Häusern und Gärten gehalten werden und sich bisher noch nicht wild lebend etabliert haben, könnten dies in Zukunft tun. Dies gilt insbesondere in Anbetracht des zunehmenden Klimawandels.“

Die große Anzahl von Neobiota in vielen Regionen der Erde hat massive Konsequenzen, da einheimische Arten verdrängt und natürliche Lebensräume verändert werden. Dies ist auf Inseln besonders problematisch, da viele der dort heimischen Arten nur auf der Insel selbst vorkommen und daher besonders rasch durch Neobiota verdrängt werden.

Weltweit gibt es viele Gesetze und Abkommen mit dem Ziel, die Ausbreitung von Neobiota zu reduzieren. „Unsere Studie zeigt, dass die Anstrengungen bislang nicht effektiv genug waren, um mit der Globalisierung Schritt zu halten. Es ist daher dringend erforderlich, effektivere gesetzliche Maßnahmen zu implementieren, besonders für Inseln“, meint Essl. So hat etwa Neuseeland in den letzten Jahrzehnten umfassende Regelungen erlassen, um die Einschleppung weiterer Neobiota zu verhindern. Auch wurden auf kleinen Inseln in den vergangenen Jahren mehrfach eingeschleppte Räuber wie Ratten und Mäuse erfolgreich ausgerottet. Diese Beispiele zeigen, dass erfolgreiches Handeln möglich ist.

Originalveröffentlichung:
W. Dawson, D. Moser, M. van Kleunen, H. Kreft, J. Pergl, P. Pyšek, M. Winter, B. Lenzner, T. Blackburn, E. Dyer, P. Cassey, S. Scrivens, E. Economo, B. Guénard, C. Capinha, H. Seebens, P. Garcia-Diaz, W. Nentwig, E. Garcia-Berthou, C. Casal, N. Mandrák, P. Fuller, C. Meyer, und F. Essl (2017) „Global hotspots and correlates of alien species richness across taxonomic groups“, Nature Ecology and Evolution

DOI: 10.1038/s41559-017-0186

http://nature.com/articles/doi:10.1038/s41559-017-0186

Faktenübersicht:
• Konstanzer Beitrag zur Publikation entstand im Rahmen des Projektes Global Naturalized Alien Flora (GloNAF)
• GLoNAF wird von der Deutschen Forschungsgemeinschaft (DFG) mit rund 228.000 Euro gefördert
• Team aus 25 Forscherinnen und Forschern unter der Leitung von Dr. Wayne Dawson von der Universität Durham (Großbritannien)
• Verbreitung wurde auf 186 Inseln und 423 Regionen auf Kontinenten erfasst.

Fotos können im Folgenden heruntergeladen werden:

http://bit.ly/2r1QG10
Halsbandsittich (Psittacula krameri manillensis), ursprünglich aus Asien, nun auch in London zu finden. Bild: Tim Blackburn

http://bit.ly/2r1Ioq1
Grauhörnchen (Sciurus carolinensis), aus Nordamerika, mittlerweile weit im Vereinigten Königreich verbreitet. Bild: Tim Blackburn

http://bit.ly/2r2fZQi
Besenginster (Cytisus scoparius), eine Pflanze, die ursprünglich aus Europa stammt, in Neusee-land eingedrungen. Copyright: Wayne Dawson;

http://bit.ly/2r1Ioq1
Brachyponera chinensis, eine Ameisenart aus Ostasien, jetzt auch im Südosten der USA zu finden. Bild: Benoit Guénard.

Kontakt:
Universität Konstanz
Kommunikation und Marketing
Telefon: + 49 7531 88-3603
E-Mail: kum@uni-konstanz.de

Quelle: idw

(nach oben)


Schimpansen belohnen Gefälligkeiten

Jana Gregor Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Mathematik in den Naturwissenschaften (MPIMIS)

Für uns Menschen ist es eine Selbstverständlichkeit: Wir belohnen andere als Zeichen unserer Dankbarkeit. Wissenschaftler der Max-Planck-Institute für evolutionäre Anthropologie und für Mathematik in den Naturwissenschaften in Leipzig haben nun ähnliche soziale Verhaltensweisen auch bei Schimpansen nachgewiesen. In einem Verhaltensexperiment belohnt ein Tier ein anderes mit Futter, wenn dieses ihm zuvor geholfen hat. Offenbar hat nicht erst der Mensch aus diesem Grund kooperiert, schon der Vorfahr von Mensch und Schimpanse hat offenbar aus einer ähnlichen Motivation heraus untereinander geteilt. Die Studie zeigt, warum Schimpansen dies tun und bestätigt Ergebnisse aus der Spieltheorie.

Dass Schimpansen auf unterschiedliche Weise miteinander kooperieren ist bekannt – nicht jedoch, aus welcher Motivation heraus sie das tun. Die Max-Planck-Wissenschaftler haben deshalb ihren Fokus auf die psychologischen Faktoren gelegt, die bei der Kooperation von Schimpansen eine Rolle spielen. In Verhaltensstudien haben sie untersucht, ob und wann Schimpansen motiviert sind, einander Futter zukommen zu lassen. Sie haben dafür die Reaktion der Tiere auf das Verhalten von Artgenossen beobachtet. Die Schimpansen konnten während des Experiments zwischen zwei Optionen wählen, von denen eine ihnen selbst und dem Partner Futter bescherte. Bei der zweiten erhielten ausschließlich sie selbst Futter.

Die Forscher stellten fest, dass alle Schimpansen ihren Versuchspartner begünstigten – allerdings nur, wenn dieser sie bei der Beschaffung des Futters im Vorfeld unterstützt hatte. Besonders großzügig waren die Tiere, wenn der Partner durch uneigennützige Hilfe sogar riskiert hatte, selbst gar kein Futter zu bekommen. Dieses Verhalten bestätigt spieltheoretische Modelle zu sozialer Kooperation, die zuvor am Max-Planck-Institut für Mathematik in den Naturwissenschaften erforscht wurden und die den Anstoß für die Verhaltensstudie lieferten.

Verzichten, um zu belohnen
Materielle Belohnungen gelten als zentraler Bestandteil menschlicher Zusammenarbeit. Die Ergebnisse der aktuellen Studie belegen, dass Schimpansen unter bestimmten Umständen ebenso bereit sind, sich ihren Artgenossen gegenüber erkenntlich zu zeigen. „Am meisten hat uns überrascht, dass die Schimpansen sogar Kosten auf sich nehmen und auf zusätzliches Futter verzichten, um einen Artgenossen für dessen Unterstützung zu belohnen. Bisher galt es als sicher, dass Schimpansen in Situationen wie diesen nur ihren eigenen Vorteil im Blick haben“, sagte Martin Schmelz, einer der Autoren der Studie. Die Tiere können offenbar sogar einschätzen, wie viel Belohnung ihr Partner verdient: Je mehr dieser zuvor riskiert hat, desto größer ist die Bereitschaft, das eingegangene Risiko entsprechend zu honorieren.

„Die Ergebnisse legen nahe, dass die Schimpansen nicht nur die Handlungen sondern auch die kooperativen Absichten ihres Versuchspartners in Betracht ziehen und uneigennütziges von potentiell eigennützigem Verhalten unterscheiden“, sagte Sebastian Grüneisen, ein weiterer Autor der Studie. „Sie zeigen zudem, dass die Tiere einzelne Ereignisse in ihren Entscheidungen berücksichtigen, selbst wenn ihnen hierdurch zunächst ein materieller Nachteil entsteht.“

Schimpansen könnten also eine Art „emotionale Buchhaltung“ führen und soziale Entscheidungen auf emotionaler Ebene treffen. Möglicherweise wollen Schimpansen die Kooperationsbereitschaft des Partners erwidern und den Wunsch nach einer sozialen Bindung signalisieren. Diese Vermutung deckt sich mit dem Befund, dass Schimpansen höhere Oxytocin-Werte – ein Hormon, das an der Ausbildung sozialer Bindungen beteiligt ist – im Blut aufweisen, wenn sie mit Artgenossen interagieren. Weitere Studien mit Schimpansen sowie mit den noch sozialeren Bonobos könnten die Ergebnisse der Forscher untermauern.

Verhaltensexperiment (siehe Foto):
(A) Ausgangssituation: Aus der Perspektive des Teilnehmers („Subject“) kann sich der Partner für Option A entscheiden, bei der nur der Partner selbst Futter erhält, oder für die Option B/C, in der der Partner dem Teilnehmer die Wahl der Futterverteilung überlässt und dabei riskiert, selbst leer auszugehen.

(B) Endposition: Der Partner hat sich für die Option B/C entschieden. Sein Gegenüber belohnt diese Gefälligkeit, indem er sich für Option C entscheidet, bei der beide Tiere Futter erhalten.

Originalpublikation:
Martin Schmelz, Sebastian Grüneisen, Alihan Kabalak, Jürgen Jost, Michael Tomasello
Chimpanzees return favors at a personal cost
PNAS; 20 June, 2017

Kontakt:
Dr. Martin Schmelz
Max-Planck-Institut für evolutionäre Anthropologie, Leipzig
Tel.: 0043 670 608 2099
E-mail: martin.schmelz@gmx.de 



Dr. Sebastian Grüneisen
Max-Planck-Institut für evolutionäre Anthropologie, Leipzig
Tel.: 0341 3550 462
E-mail: sebastian_grueneisen@eva.mpg.de

Prof. Dr. Jürgen Jost
Max-Planck-Institut für Mathematik in den Naturwissenschaften
Tel. 0341 9959 552
E-mail: juergen.jost@mis.mpg.de

Jana Gregor
Pressereferentin
Max-Planck-Institut für Mathematik in den Naturwissenschaften
Tel. 0341 9959 650
E-mail: jgregor@mis.mpg.de

Weitere Informationen:
http://www.eva.mpg.de
http://www.mis.mpg.de

Quelle: idw

(nach oben)


Urlaubsplanung 2017: Impfung gegen Hepatitis-Viren bietet wirksamen Schutz für die Leber

Rita Wilp externe Pressestelle
Deutsche Leberstiftung

Bald ist es soweit: endlich Urlaub. Bei einer Urlaubsreise soll alles anders und besser als zuhause sein: das Wetter, das Essen, die Getränke und vielleicht gibt es auch einen Flirt mit einer Reisebekanntschaft. Doch bei einem zu unbeschwerten Genuss besteht das Risiko einer Infektion mit Hepatitis-Viren. Nicht nur Fernreisende, die beispielsweise in die Tropen fliegen, sind gefährdet. Auch in der beliebten Mittelmeer-Region sind Hepatitis-Viren weit verbreitet. Die Deutsche Leberstiftung weist im Vorfeld der Urlaubssaison 2017 auf die Gefahren einer Infektion mit Hepatitis-Viren hin und rät rechtzeitig vor Reiseantritt zu einer kombinierten Impfung gegen Hepatitis A und B.

„Mehr als die Hälfte aller neu diagnostizierten Hepatitis A-Virusinfektionen in Deutschland sind ein ungewolltes Reisesouvenir. Wer sich nach dem Urlaub in der Mittelmeer-Region oder den Tropen müde und abgespannt fühlt, sollte unbedingt seine Leber überprüfen lassen“, rät Professor Dr. Michael P. Manns, Vorstandsvorsitzender der Deutschen Leberstiftung. „Einen wirksamen Schutz vor einer Infektion mit Hepatitis A-Viren bietet eine Impfung. Ich empfehle die Verwendung von Kombinationsimpfstoffen, die gleichzeitig gegen Hepatitis A und B schützen.“

Hepatitis ist eine Virusinfektion der Leber, die besonders häufig in beliebten Reisezielen wie den Tropen, im Mittelmeerraum und Südeuropa auftritt. Hepatitis-Viren werden in die Typen A bis E eingeteilt. Abhängig vom Virustyp erfolgt eine Ansteckung über Lebensmittel, infiziertes Wasser, Blut und andere Körperflüssigkeiten. Wenn nicht die in Deutschland vorgeschriebenen hohen Hygienevorschriften eingehalten werden, bergen auch Spritzen, Bluttransfusionen, Tätowierungen und das Stechen von Piercings ein Hepatitis-Risiko. Ein Impfschutz ist nur gegen die Virustypen Hepatitis A und Hepatitis B möglich. Die Impfung gegen Hepatitis B schützt auch vor Hepatitis delta, da diese Erkrankung nur mit einer Hepatitis B gemeinsam vorkommen kann.

Hepatitis A, umgangssprachlich auch „Reisegelbsucht“ genannt, ist überwiegend dort verbreitet, wo die sanitären Bedingungen schlecht sind und das Trinkwasser – auch in gefrorener Form beispielsweise als Eiswürfel – kontaminiert ist. Darüber hinaus können Lebensmittel wie Muscheln und Meerestiere mit Hepatitis A-Viren belastet sein. Auch Schmierinfektionen durch direkten Kontakt zwischen Menschen sind möglich. Ein besonders hohes Hepatitis A-Risiko haben Touristen, die eher unkonventionell reisen und unter ungünstigen hygienischen Bedingungen den Urlaub verbringen: Von den sogenannten „Backpackern“ kehrt schätzungsweise einer von 50 mit einer Hepatitis A-Virusinfektion zurück nach Deutschland. Doch auch Touristen, die im komfortablen 5-Sterne-Hotel absteigen, sind nicht vor den resistenten Viren sicher: Hepatitis A-Viren überleben selbst ungünstige Umweltbedingungen wie hohe Temperaturen oder viele Desinfektionsmittel.

Obwohl eine Hepatitis A niemals chronisch wird und nur sehr selten einen schweren Verlauf nimmt, kann sie bei älteren Menschen zu einem akuten Leberversagen führen. Einen wirksamen Schutz gegen Hepatitis A-Virusinfektionen bietet nur die Impfung.

Auch gegen die gefährlichere Variante Hepatitis B schützt nur eine Impfung. Übertragen wird das Hepatitis B-Virus durch Blut oder Körpersekrete. Ungeschützte Sexualkontakte und Kontakte mit der Gefahr kleinster Hautverletzungen sind daher die häufigsten Ansteckungsquellen. Tätowierungen, Rasuren, Ohrlochstechen oder Piercings, die nicht steril durchgeführt werden, können zu einer Ansteckung führen. Die Hepatitis B kann chronisch werden. Betroffene können in der Folge an Leberzirrhose und Leberzellkrebs erkranken.

„Jeder, der einen Urlaub plant, sollte ein Beratungsgespräch mit einem Arzt führen, zu dem eine reisemedizinische Beratung und eine Überprüfung des Impfschutzes gegen Hepatitis A und Hepatitis B gehören“, sagt Professor Manns. „Impfen ist die beste Vorbeugung gegen die Hepatitis A, B und delta – das sollten wir nutzen“, betont er.

Deutsche Leberstiftung
Die Deutsche Leberstiftung befasst sich mit der Leber, Lebererkrankungen und ihren Behandlungen. Sie hat das Ziel, die Patientenversorgung durch Forschungsförderung und eigene wissenschaftliche Projekte zu verbessern. Durch intensive Öffentlichkeitsarbeit steigert die Stiftung die öffentliche Wahrnehmung für Lebererkrankungen, damit diese früher erkannt und geheilt werden können. Die Deutsche Leberstiftung bietet außerdem Information und Beratung für Betroffene und Angehörige sowie für Ärzte und Apotheker in medizinischen Fragen. Diese Aufgaben erfüllt die Stiftung sehr erfolgreich. Weitere Informationen: http://www.deutsche-leberstiftung.de.
BUCHTIPP: „Das Leber-Buch“ der Deutschen Leberstiftung informiert umfassend und allgemeinverständlich über die Leber, Lebererkrankungen, ihre Diagnosen und Therapien – jetzt in dritter, aktualisierter und erweiterter Auflage! „Das Leber-Buch“ ist im Buchhandel erhältlich: ISBN 978-3-89993-899-9, € 16,99. Weitere Informationen: http://www.deutsche-leberstiftung.de/Leber-Buch.

Kontakt:
Deutsche Leberstiftung
Bianka Wiebner
Carl-Neuberg-Straße 1
30625 Hannover
Tel 0511 – 532 6815
Fax 0511 – 532 6820
presse@deutsche-leberstiftung.de
http://www.deutsche-leberstiftung.de

Weitere Informationen:
http://www.deutsche-leberstiftung.de
http://www.deutsche-leberstiftung.de/aktuelles/presseportal

Quelle: idw

(nach oben)


Zukunftsfähige Wasserinfrastrukturen: Empfehlungen zur Transformation

Melanie Neugart Wissenskommunikation und Öffentlichkeitsarbeit
ISOE – Institut für sozial-ökologische Forschung

Die Zukunftsfähigkeit der Wasserinfrastruktursysteme in Deutschland steht auf dem Prüfstand: In wachsenden Ballungsräumen stoßen sie bereits an Kapazitätsgrenzen, in schrumpfenden ländlichen Regionen sind sie vielfach nicht ausgelastet. Die vorhandenen Systeme sind nicht flexibel genug, um sich an veränderte Bedingungen anzupassen. Zu ihnen zählen nicht nur demografische Entwicklungen – auch der Klimawandel oder die notwendige Steigerung der Ressourceneffizienz stellen Herausforderungen dar. Im Forschungsprojekt netWORKS 3 wurde untersucht, wie notwendige Transformationen der Wasserinfrastrukturen gestaltet werden können. Die Ergebnisse sind jetzt in einer Publikation erschienen.

Die Siedlungswasserwirtschaft steht vor komplexen Aufgaben. Einerseits muss sie weiterhin eine qualitativ hochwertige Versorgung mit Trinkwasser sicherstellen. Andererseits muss sie sich flexibel an regionale demografische Veränderungen anpassen, eine angemessene Abwasserbehandlung garantieren und den derzeit hohen Energiebedarf senken. Ursachen für den Veränderungsdruck sind nicht zuletzt auch die Folgen des Klimawandels: Starkregen, Überschwemmungen und Trockenperioden erfordern eine Transformation der bereits im 19. Jahrhundert entwickelten Systeme. Mit Blick auf diese komplexen Anforderungen bieten sich heute neue technische Systemlösungen an. Sie zeichnen sich durch eine hohe Flexibilität aus und zielen auf die Schließung von Energie- und Stoffkreisläufen ab.

„Die neuartigen Wasserinfrastrukturen eignen sich für ganz unterschiedliche Einsatzgebiete in städtischen Teilräumen“, sagt netWORKS 3-Projektleiterin Martina Winker vom ISOE – Institut für sozial-ökologische Forschung. „Sie können die vorhandenen Systeme unter anderem deshalb sinnvoll ergänzen, weil sie die Wiederverwendung von Abwasser vorsehen oder Nährstoffe aus dem Wasser verwerten können.“ Das Forschungsprojekt mit Modellquartieren in Frankfurt am Main und Hamburg habe zeigen können, dass geeignete Transformationen für unterschiedliche Bedarfe möglich sind. Voraussetzung: eine gute Kooperation zwischen Unternehmen der Siedlungswasserwirtschaft und der Stadtentwicklung bzw. Regionalplanung. „Entscheidend für die erfolgreiche Umsetzung neuer, noch wenig bekannter Wasserinfrastrukturlösungen ist, dass alle betroffenen Akteure in den Prozess involviert sind, vom Stadtplaner bis zum Installateur“, betont Martina Winker.

Den Wandel gestalten: Spielräume für eine nachhaltige Transformation
Alle Ergebnisse des dreijährigen Forschungsprojekts sind in der Publikation „Wasserinfrastruktur: den Wandel gestalten“ nachzulesen. Die Studie stellt Varianten, Potenziale und Spielräume für eine nachhaltige Transformation vor. „Unsere Studie zeigt, wie die hohe Qualität der kommunalen Daseinsvorsorge im Bereich Wasserinfrastruktur auch künftig gewährleistet werden kann“, sagt Jens Libbe vom Deutschen Institut für Urbanistik (Difu), das die Forschungsarbeiten maßgeblich mitgetragen hat. „Die heutigen Rahmenbedingungen zeigen nicht nur vorhandene Schwächen in den bestehenden Systemen auf, sondern bieten eine strategische Chance, um neu über Wasserinfrastrukturen und über unseren Umgang mit Wasser nachzudenken“, sagt Libbe.

Die Studie verdeutlicht anhand von Beispielen, was für eine erfolgreiche Transformation wichtig ist: Dazu zählen technische Systemalternativen, die Erfahrungen aus Pilot-Kommu-nen wie Frankfurt am Main und Hamburg, aber auch rechtliche Regelungen und neue Unternehmensstrategien. In der Publikation geht es zudem um Fragen der Systemwahl, des Managements für die Einführung neuartiger Systeme und der Akzeptanz der NutzerInnen. Die AutorInnen benennen darüber hinaus den noch bestehenden Forschungs- und Handlungsbedarf, der unter anderem in der Finanzierbarkeit oder der nötigen Kompetenzvermittlung der wissenschaftlichen und technischen Grundlagen in Aus- und Fortbildung liegt.

Wasserinfrastruktur: Den Wandel gestalten. Technische Varianten, räumliche Potenziale, institutionelle Spielräume. Winker, Martina; Trapp, Jan Hendrik gemeinsam mit Libbe, Jens; Schramm, Engelbert (Hrsg.) Printpublikation in der Reihe Edition Difu – Stadt Forschung Praxis, Band Nr. 16. ISBN: 978-3-88118-584-4; ISSN: 1863-7949

Weitere Informationen: www.difu.de/11299 oder per E-Mail: vertrieb@difu.de

Der Forschungsverbund netWORKS 3 hat zudem Handreichungen für Entscheidungsträger erstellt, die auf der Homepage des Forschungsverbunds zum Download bereitstehen.

www.networks-group.de

netWORKS 3 wurde vom Bundesministerium für Bildung und Forschung (BMBF) innerhalb der Fördermaßnahme „Intelligente und multifunktionelle Infrastruktursysteme für eine zukunftsfähige Wasserversorgung und Abwasserentsorgung (INIS)“ im BMBF-Programm „Forschung für nachhaltige Entwicklungen (FONA)“ gefördert. Forschungs- und Projektpartner waren das ISOE – Institut für sozial-ökologische Forschung, das Deutsche Institut für Urbanistik (Difu), die Tech¬nische Universität Berlin mit dem Fachgebiet Wirtschafts- und Infrastrukturpolitik (WIP) sowie COOPERATIVE – Infrastruktur und Umwelt. Praxispartner waren die ABG FRANKFURT HOLDING und die Hamburger Stadtentwässerung AöR.

Weitere Informationen:
http://www.isoe.de
http://www.difu.de
http://www.networks-group.de

Anhang
Zukunftsfähige Wasserinfrastrukturen: Empfehlungen zur Transformation
https://idw-online.de/de/attachment57719

Quelle: idw

(nach oben)


Wie schmecken wir Wasser? Signalweg entschlüsselt

Beate Kostka M.A. Ressort Presse – Stabsstelle des Rektorats
Universität Duisburg-Essen

Wasser schmeckt selten sauer. Aber gerade die Rezeptoren für diese Geschmacksrichtung, signalisieren dem Trinkenden: „Was jetzt über die Zunge strömt, ist Wasser.“ Das haben erstmals Wissenschaftler des Instituts für Anatomie der Medizinischen Fakultät der Universität Duisburg-Essen (UDE) zusammen mit Kollegen des California Institute of Technology nachgewiesen. Hierüber berichtet das Fachmagazin Nature Neuroscience* in seiner aktuellen Ausgabe.

„Das Richtige zu trinken ist lebenswichtig. Reines, mineralienfreies Wasser schmeckt zwar nach nichts, trotzdem wird es zweifelsfrei beim Trinken erkannt. Uns interessierte, wie so etwas möglich ist“, erläutert Prof. Dr. Gunther Wennemuth, Direktor des Instituts für Anatomie der Medizinischen Fakultät am Universitätsklinikum Essen.

Die Forscher sahen sich die unterschiedlichen Geschmacksrezeptoren genauer an und stellten überraschenderweise fest, dass möglicherweise sogar einer der bereits bekannten Rezeptoren für süß, bitter, sauer, salzig oder herzhaft („umami“) für das Schmecken von Wasser verantwortlich sein könnte. Im nächsten Schritt blockierten sie deshalb die Rezeptoren nacheinander und stimulierten die restlichen. So fanden sie heraus, dass die Rezeptoren für „sauer“ auch auf Wasser reagieren.

Um zu belegen, dass diese auch in der Lage sind, Wasser zu erkennen, nutzten die Forscher optogenetische Techniken: Die Erbinformation von Mäusen wurde so verändert, dass deren saure Geschmacksrezeptoren von blauen Lichtimpulsen angeregt wurden. Waren sie durstig, zog es sie zum angebotenen Licht, weil sie es für Trinkwasser hielten.

Prof. Gunther Wennemuth: „Aber diese Rezeptoren sind es nicht allein. Wir konnten auch zeigen, dass ein bestimmtes Enzym (Carboanhydrase IV), das wir bisher nur mit der Spermienbewegung in Verbindung brachten, wichtig ist für die Wasserdetektion.“ Wird der Speichel durch das Trinken von Wasser von den sauren Geschmacksrezeptoren weggespült, aktiviert dies das Enzym und vermittelt den Sinneseindruck von Wasser.

Gefördert wurde das Forschungsprojekt durch die Deutsche Forschungsgemeinschaft, der Caltech and Caltech’s Division of Biology and Biological Engineering, das Searle Scholars Program, das Edward Mallinckrodt, Jr. Foundation, die Okawa Foundation, die McKnight Foundation und den Klingenstein-Simons Fellowship Award.

Weitere Informationen: *doi:10.1038/nn.4575
Christine Harrell, Medizinische Fakultät, Tel. 0201/723-1615, christine.harrell@uni-due.de

Ressort Presse
Universität Duisburg-Essen
Stabsstelle des Rektorats
http://www.uni-due.de/presse

Quelle: idw

(nach oben)


Mit dem Laser gegen Unkraut

Johannes Seiler Dezernat 8 – Hochschulkommunikation
Rheinische Friedrich-Wilhelms-Universität Bonn

Ein Roboter erkennt automatisch Unkräuter auf dem Feld und bekämpft sie mit einem kurzen Laserpuls. Nachhaltige Landwirtschaft, die weitgehend auf Herbizide verzichtet, könnte von dieser pfiffigen Idee profitieren. Davon sind Dr. Julio Pastrana und Tim Wigbels vom Institut für Geodäsie und Geoinformation der Universität Bonn überzeugt. Mit einem EXIST-Gründerstipendium des Bundeswirtschaftsministeriums treiben die Wissenschaftler nun die Entwicklung dieses praktischen Helfers für die Feldarbeit voran.

Wer eine reiche Ernte will, muss Unkräuter zurückdrängen, damit die Feldfrüchte besser wachsen können. In der biologischen Landwirtschaft scheiden Herbizide als chemische Waffen aus, unerwünschte Kräuter müssen aufwendig gejätet werden. Geht es nach den Vorstellungen von Dr. Julio Pastrana und Tim Wigbels können diese zeitraubenden Arbeiten bald von Robotern erledigt werden.

Laserbasierte Unkrautbekämpfung kann Herbizide reduzieren
Die Informatiker am Labor für Photogrammetrie des Instituts für Geodäsie und Geoinformation der Universität Bonn entwickeln derzeit ein neuartiges System: Auf einem geländegängigen Roboterfahrzeug oder auch Traktoren sollen mittels Kameras automatisch unerwünschte Wildkräuter in den verschiedenen Kulturen erkannt und gezielt bekämpft werden. „Mit einem kurzen und relativ schwachen Laserpuls beschießt der Roboter die Blätter der unerwünschten Pflanzen, die dadurch in ihrer Vitalität geschwächt werden“, berichtet Dr. Pastrana. „Damit könnte absehbar die Menge an auf den Feldern ausgebrachten Herbiziden drastisch verringert und die Umwelt geschont werden“, ergänzt Wigbels.

Vor der Ausgründung arbeitete Dr. Pastrana in der Robotik und forschte mit Prof. Dr. Cyrill Stachniss vom Institut für Geodäsie und Geoinformation der Universität Bonn zu automatisierten Verfahren der Bildinterpretation. Dr. Pastrana hat an der Universität Hannover über die Detektion und Klassifikation von Unkraut mit Hilfe statistischer Modelle promoviert und dort mit einem Kollegen eine Vorläuferversion des Roboters gebaut. Wigbels studierte technische Informatik an der RWTH Aachen und arbeitete anschließend in der Software-Entwicklung in einem Unternehmen.

Nun treiben die Forscher mit einem EXIST-Stipendium des Bundeswirtschaftsministeriums ein Jahr lang an der Universität Bonn ihre Ausgründung „Escarda Technologies“ voran. „Es geht nun darum, Investoren zu finden und den Businessplan für das Startup weiterzuentwickeln“, sagt Wigbels. Mit der Förderung des Ministeriums wollen die Forscher auch die notwendigen Teile für den Bau eines Prototypen anschaffen.

Vielfältige Unterstützung durch die Universität Bonn
Prof. Stachniss unterstützt die Ausgründer in vielfältiger Hinsicht: So können Pastrana und Wigbels am Institut Labore nutzen und sich dort mit Kollegen austauschen. Außerdem half Rüdiger Wolf vom Technologietransfer der Universität Bonn den Ausgründern bei der Antragstellung für die EXIST-Förderung. „Die Beratung war sehr hilfreich“, freut sich Dr. Pastrana. Auch an den regelmäßig vom Technologietransfer organisierten Gründerstammtischen möchten die beiden Wissenschaftler teilnehmen, um von den Erfahrungen anderer Existenzgründer zu profitieren. Das EXIST-Stipendium ermöglicht ihnen darüber hinaus, Trainingsprogramme zu besuchen, die sie auf die Herausforderungen der Selbstständigkeit vorbereiten.

„Die Idee verbindet innovative Robotik mit einem aktuellen Nachhaltigkeitsthema“, sagt Transferberater Rüdiger Wolf. Die Analysen zum Markt und zum Wettbewerb für eine solche Anwendung seien fundiert. Pastrana ist vom Nutzen des laserbasierten Verfahrens für neuartige Landmaschinen überzeugt: „Unser Ziel ist, einen Beitrag zu einer nachhaltigeren Landwirtschaft zu leisten.“ Bei der Bonner Ideenbörse der Industrie- und Handelskammer Bonn/Rhein-Sieg gewannen die beiden Gründer einen Preis für die beste Startup-Idee.

Weitere Informationen:
http://www.escarda.net
Internet

Quelle: idw

(nach oben)


Neue Methanabbauer in Seen entdeckt

Dr. Fanni Aspetsberger Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für marine Mikrobiologie

Bakterien bauen in Süsswasserseen einen grossen Teil des klimaschädlichen Methans ab, bevor es in die Atmosphäre gelangen kann. Jetzt zeigt eine Studie im Rotsee und im Zugersee, dass dabei nicht die bekannten Methanfresser die Hauptarbeit leisten, sondern eine bisher nur von Trinkwasseruntersuchungen bekannte, fädige Bakterienart.

Sinkt totes organisches Material in einem See oder im Meer auf den Grund, entsteht beim Abbau der Biomasse Methan. Ein Teil davon gelangt über die Wasseroberfläche in die Atmosphäre, wo es als Klimagas wirkt. Ein anderer Teil wird im freien Wasser von Bakterien abgebaut. Nun hat eine internationale Forschergruppe um Kirsten Oswald von der Eawag (Schweiz) und Jana Milucka vom MPI Bremen herausgefunden, dass nicht nur die „klassischen Methanfresser“ an diesem Prozess beteiligt sind, sondern auch bisher in der Umwelt kaum untersuchte, fadenförmige Bakterien der Gattung Crenothrix. Soeben haben sie ihre Studie im Fachjournal The ISME Journal veröffentlicht.

Zufällig entdeckt
Auf die Crenothrix-Bakterien sind die Wissenschaftler durch Zufall gestossen: Im Luzerner Rotsee und im Zugersee haben sie mit dem Labeling-Verfahren versucht, den Methanabbau noch besser quantifizieren zu können. Dabei werden Methanmoleküle mit „schweren“ 13C-Atomen markiert. Wird das gekennzeichnete Methan dann von Bakterien aufgenommen, können diese dank eines Massenspektrometers unter dem Mikroskop gezielt sichtbar gemacht werden. „Typischerweise sind das kleine runde Zellen“, sagt Jana Milucka. Doch diesmal, so Milucka, waren nicht nur diese Bakterien voll mit dem 13C, sondern auch lange, fadenförmige Vertreter daneben (siehe Abbildung). „Das war sehr überraschend für uns, denn bis dahin hatten wir nicht einmal gewusst, dass diese fadenförmige Bakterien in der Natur so häufig vorkommen. Erst da begannen wir ihre Bedeutung für die natürliche Beseitigung von Methan zu untersuchen.“

Bisher nur als Brunnenfäden bekannt
Geologe Carsten Schubert von der Eawag gilt als Spezialist für den bakteriellen Methanabbau im Wasser. Auch für ihn kam der Befund aus den beiden Innerschweizer Seen überraschend. Die sehr grossen, fädigen Crenothrix-Bakterien seien zwar schon lange bekannt, doch eigentlich nur aus Trinkwassersystemen. Dort sind sie lästig, weil sie sich so stark vermehren können, dass Rohre, Sandfilter und Siebe verstopfen. Crenothrix-Bakterien wurden darum auch als „Brunnenfäden“ bezeichnet. Im Seewasser wurden sie bisher nicht nachgewiesen, weil nicht spezifisch danach gesucht wurde und weil sie mit molekulargenetischen Methoden schwierig zu entdecken seien. „Wir haben wohl ihre Rolle im biogeochemischen Kreislauf völlig unterschätzt“, räumt Schubert jetzt ein. Denn inzwischen haben die Forschenden nicht nur nachgewiesen dass die Brunnenfäden fester Bestandteil im Plankton von Süsswasserseen sind, sondern dass sie dort sogar die Hauptmethanoxidierer sein können.

Originalveröffentlichung
Crenothrix are major methane consumers in stratified lakes
Kirsten Oswald, Jon S Graf, Sten Littmann, Daniela Tienken, Andreas Brand, Bernhard Wehrli, Mads Albertsen, Holger Daims, Michael Wagner, Marcel MM Kuypers, Carsten J Schubert und Jana Milucka (2017): Crenothrix are major methane consumers in stratified lakes; ISME Journal (2017) 00, 1-17. http://dx.doi.org/10.1038/ismej.2017.77

Rückfragen bitte an
Dr. Jana Milucka
Max-Planck-Institut für Marine Mikrobiologie
Telefon: +49 421 2028-634
E-Mail: jmilucka@mpi-bremen.de

oder an die Pressestelle
E-Mail: presse@mpi-bremen.de
Dr. Fanni Aspetsberger
Telefon: +49 421 2028 947

Dr. Manfred Schlösser
Telefon: +49 421 2028 704

Text: Andri Bryner (Eawag)

Quelle: idw

(nach oben)


Neue Erkenntnisse zum Meeresspiegel-Anstieg

Tanja Hoffmann M.A. Stabsstelle für Presse, Kommunikation und Marketing
Universität Siegen

Der Anstieg des globalen Meeresspiegels hat sich in den vergangenen zwanzig Jahren deutlich beschleunigt. Das zeigt eine Studie des Forschungsinstituts „Wasser und Umwelt“ (fwu) der Universität Siegen.

Durch den vom Menschen verursachten Klimawandel wird es auf der Erde immer wärmer. In der Folge steigt der Meeresspiegel, was vor allem Küstenregionen bedroht. Ein internationales Team von Wissenschaftlern um Dr. Sönke Dangendorf vom Forschungsinstitut „Wasser und Umwelt“ (fwu) der Universität Siegen hat vorliegende Daten zum Meeresspiegel-Anstieg neu berechnet. Die Studie zeigt, dass der weltweite mittlere Meeresspiegel zwischen 1902 und 1990 langsamer angestiegen ist, als bisher angenommen. Gleichzeitig identifizieren die Forscher unverändert hohe Raten für die letzten rund 30 Jahre. Zusammengenommen lassen die Erkenntnisse darauf schließen, dass sich der Meeresspiegel-Anstieg zuletzt deutlich beschleunigt hat. Die Ergebnisse der Studie sind jetzt in der amerikanischen Fachzeitschrift „Proceedings of the National Academy of Science“ (PNAS) veröffentlicht worden.

„Die Kurve sieht tatsächlich anders aus, als auf der Basis vorheriger Studien berechnet“, sagt Sönke Dangendorf. „Sie verläuft zunächst flacher – dafür geht sie seit den 1990er Jahren deutlich steiler nach oben. Der Meeresspiegel steigt heute etwa dreimal so schnell, wie über das gesamte 20ste Jahrhundert.“ Eine Erkenntnis, die den Ingenieur beunruhigt: „Der Einfluss des Menschen auf die globale Erwärmung zeigt sich vor allem in den letzten Jahrzehnten. Unsere Ergebnisse belegen, dass der Meeresspiegel sehr empfindlich darauf reagiert.“ Im 20sten Jahrhundert sei er hauptsächlich durch das Abschmelzen von Gletschern und die thermale Ausdehnung des Wassers gestiegen, erklärt Dangendorf. „Im 21sten Jahrhundert kommt das Abschmelzen der großen Eisschilde in Grönland und der Antarktis hinzu. Wir beobachten, dass dieser Prozess zu einem immer dominanteren Faktor für den globalen Meeresspiegel-Anstieg wird.“

Seit 1992 wird der globale Meeresspiegel durch Satelliten gemessen, die permanent die gesamte Meeresoberfläche abtasten. Die Berechnungen früherer Jahre beruhen dagegen auf lokalen Tidepegeln, die ursprünglich für die Belange der Schifffahrt entlang der Küsten installiert wurden. „Die Tidepegel messen den lokalen Wasserspiegel relativ zum Land, auf dem sie stationiert sind. Die Ergebnisse können jedoch durch regionale Faktoren verfälscht werden – zum Beispiel durch vertikale Landbewegungen, Winde oder Gravitationseffekte“, sagt Dangendorf. Ein weiteres Problem: Die Verteilung der Tidepegel entlang der Küsten variiert sehr stark. Besonders vor 1950 seien einige Regionen nicht flächendeckend mit den Mess-Stationen ausgestattet gewesen, erklärt der Siegener Forscher. Anhand der zur Verfügung stehenden, lokalen Daten den globalen Meeresspiegel zu berechnen – für WissenschaftlerInnen ein Problem. Bereits existierende Studien zum Meeresspiegel-Anstieg kommen daher auch zu sehr unterschiedlichen Ergebnissen: Der berechnete jährliche Anstieg vor 1990 variierte bisher je nach Studie zwischen 1.2 und 2 Millimetern.

„Wir wollten den Ungenauigkeiten auf den Grund gehen und Lösungen für eine exaktere Berechnung der Daten entwickeln“, sagt Sönke Dangendorf. WissenschaftlerInnen aus Spanien, Frankreich, Norwegen und den Niederlanden waren an der aktuellen Studie beteiligt. Sie haben die Messungen der Tidepegel zunächst um lokale Einzeleffekte bereinigt. „Mithilfe von GPS-Messungen können wir Faktoren wie zum Beispiel vertikale Landbewegungen heute gut bestimmen und entsprechend heraus rechnen“, erklärt Dangendorf. Das Team hat darüber hinaus eine neue Methode zur Berechnung des globalen Meeresspiegels entwickelt. Der Ozean wird dazu in verschiedene Regionen eingeteilt. Diese werden in der Analyse in Relation zu ihrer jeweiligen Fläche unterschiedlich stark gewichtet.

„Wir haben eine relativ simple Methodik verwendet, die nicht viel Rechenzeit benötigt und für jeden verständlich ist“, sagt Sönke Dangendorf. Die Ergebnisse passen für ihn zu Messungen einzelner Prozesse, die zum Meeresspiegel-Anstieg beitragen. „Die Eisschilde in Grönland und der Antarktis speichern rund hundert Mal mehr Wasser, als Gletscher. Daher birgt ein weiteres Abschmelzen der Eisschilde ein besonderes Risiko für tiefliegende Küstengebiete.“

Anhang
Bis zum Beginn der 90er Jahre wurden Tidepegel entlang der Küsten genutzt, um Informationen über den Anstieg des Meeresspiegels zu gewinnen.
https://idw-online.de/de/attachment57555

Quelle: idw

(nach oben)


Der Kampf um Boni vergiftet das Arbeitsklima

Kristina Brümmer Presse- und Öffentlichkeitsarbeit
Kühne Logistics University – Wissenschaftliche Hochschule für Logistik und Unternehmensführung

Unternehmen setzen zur Mitarbeitermotivation gern auf leistungsbasierte Bonussysteme. Diese Systeme beeinflussen allerdings das Verhalten am Arbeitsplatz nicht nur in der gewünschten, leistungssteigernden Weise: Bonussysteme fördern soziale Vergleiche und Wettbewerb und können zu aggressivem Verhalten der Mitarbeiter führen. Das kann so weit gehen, dass sich Kollegen untereinander aktiv schaden. Zu diesem Ergebnis kommen Prof. Dr. Niels Van Quaquebeke von der Kühne Logistics University und Daniel Gläser (RespectResearchGroup, Universität Hamburg), die gemeinsam mit Dr. Suzanne van Gils von der Universität Maastricht die Kollateraleffekte von Bonussystemen in Organisationen untersucht haben.

So genannte Pay-for-Performance-Systeme (PfP-Systeme) haben sich in vielen Branchen erfolgreich etabliert, vom Gesundheits- bis zum Bankwesen. Sie gelten als besonders effektives Mittel zur Steigerung der Motivation. Die Mitarbeiter erhalten finanzielle Boni, wenn Sie festgelegte Ziele erreichen. Die unschönen Begleiterscheinungen dieser Praxis wurden bislang jedoch außer Acht gelassen. In einer branchenübergreifenden Querschnittsstudie und zwei Experimenten richten die Autoren ihren Blick genau auf diese negativen Konsequenzen für den einzelnen Mitarbeiter und die Gesamtorganisation. Daniel Gläser fasst zusammen: „PfP-Systeme können für Organisationen zu einem Problem werden. In einem Unternehmen, dessen Erfolg von Wissensaustausch, Innovation und guter kollegialer Zusammenarbeit seiner Mitarbeiter und Führungskräfte abhängt, vergiftet ein aggressiver Wettbewerb zwischen den Kollegen das Arbeitsklima.“ Dieser Wettbewerb muss nicht einmal im System angelegt sein; es reicht, dass Mitarbeiter sich automatisch mehr mit anderen vergleichen und ein Wettbewerbsklima empfinden. „Wenn Mitarbeiter sich gegenseitig schaden und Leistungsträger das Unternehmen verlassen, schadet das auf lange Sicht dem gesamten Unternehmen“, sagt Gläser.

Die Autoren plädieren daher dafür, die möglichen negativen Prozesse hinter einem PfP-System in der Organisation offenzulegen und den durch die Systeme geschaffenen Wettbewerb genau im Blick zu behalten. Prof. Dr. Niels Van Quaquebeke erklärt: „Das gilt ganz besonders bei Mitarbeitern, deren individuelles Profil durch Konkurrenzdenken geprägt ist. Wer einen starken Willen zum interpersonellen Vergleich hat und immer besser sein möchte als die anderen, spricht stark an auf die Reize durch Bonussysteme. Dies kann dann zu aggressivem Verhalten führen.“ Daher empfehlen die Autoren bei der Einführung von PfP-Systemen, mögliche Konflikte zwischen kurzfristigen ökonomischen Zielen und der langfristig angestrebten Unternehmenskultur genau abzuwägen. Diverse Beispiele aus der Vergangenheit zeigen, dass überehrgeiziges Gewinnstreben dem Image des Unternehmens schaden oder gar zu schweren unternehmerischen Krisen führen kann.

Der Artikel „Pay-for-Performance and Interpersonal Deviance: Competitiveness as the Match that Lights the Fire“ erscheint in der nächsten Ausgabe des Journal of Personnel Psychology.

Über die KLU
Die Kühne Logistics University – Wissenschaftliche Hochschule für Logistik und Unternehmensführung (KLU) ist eine private Hochschule mit Sitz in der Hamburger HafenCity. Die Schwerpunkte der unabhängigen, staatlich anerkannten Hochschule liegen in den Bereichen Logistik und Management. Mit einem Bachelor- und vier Masterstudiengängen, einem PhD-Begleitprogramm für Doktoranden und einem berufsbegleitenden MBA bietet die KLU ihren 275 Vollzeit-Studierenden eine hohe Spezialisierung und exzellente Studienbedingungen. Fach- und Führungskräfte profitieren in offenen und maßgeschneiderten Managementseminaren von der Anwendung wissenschaftlicher Erkenntnisse auf praktische Fragestellungen. Die KLU richtet sich an Studierende aus dem In- und Ausland, ein internationales Team von 23 Professoren unterrichtet auf Englisch. Die Forschung an der KLU konzentriert sich um die Kompetenzschwerpunkte Sustainability, Digital Transformation und Creating Value in den Bereichen Transport, globale Logistik und Supply Chain Management.

Das jüngste Handelsblatt-Ranking weist die KLU als eine der forschungsstärksten Universitäten hinsichtlich der Forschungsleistung pro Professor in Deutschland, Österreich und der Schweiz aus. Im neuesten CHE-Hochschulranking erreicht die KLU in allen Hauptkriterien die Höchstbewertung.

Mehr Informationen unter www.the-klu.org.

Quelle: idw

(nach oben)


TU Berlin: Eine Fundgrube für Wertstoffe

Stefanie Terp Stabsstelle Presse, Öffentlichkeitsarbeit und Alumni
Technische Universität Berlin

BMBF-Verbundvorhaben „Konzentrate aus der Abwasser-Wiederverwendung“ (HighCon) will mit innovativen Prozessen die Wasserverfügbarkeit sicherstellen

Die Wiederverwendung kommunaler und industrieller Abwässer wird weltweit immer wichtiger, um die Wasserverfügbarkeit ökonomisch und ökologisch sicherzustellen. Dabei fallen hochkonzentrierte Abwasserströme an, die derzeit fast ausschließlich in kommunale Kläranlagen oder in einigen Drittländern sogar direkt in die Umwelt eingeleitet werden. Sie enthalten Salze, schwer abbaubare organische Verbindungen und auch Schwermetalle.

Wege zu finden, diese Konzentrate zu verwerten, damit beschäftigt sich ein neues Verbundvorhaben. Das Projekt „Konzentrate aus der Abwasser-Wiederverwendung“ (HighCon) hat das Ziel, innovative Prozesse zur Wiederverwendung von industriellem Abwasser bis hin zur Verwertung der Konzentrat-Inhaltsstoffe zu entwickeln. Die Konzentrate werden nicht mehr als Abfallprodukte betrachtet, die es zu entsorgen gilt, sondern werden selbst zum Rohstoff.

Um diese Konzentrate wiederverwenden zu können, bedarf es innovativer systemtechnischer Lösungsansätze, bei denen verschiedenste Aufbereitungsverfahren, aber auch Vermeidungs- oder Substitutions-Maßnahmen zusammenwirken müssen. Besonders die Abtrennung anorganischer Stoffe wie gelöste Salze stellt eine Herausforderung dar. Zum einen kann nur hierdurch der zunehmend kritisch werdende Eintrag dieser Stoffe in den natürlichen Wasserkreislauf verhindert werden. Zum anderen wird in immer mehr Bereichen die Rückgewinnung dieser Stoffe als Wertstoff wirtschaftlich interessant – zum Bespiel zur Rückführung in die eigene Prozesskette wie beispielsweise die Laugenrückgewinnung für industrielle Reinigungsprozesse oder zur Weiterverarbeitung für andere Anwendungen. Dazu zählen unter anderem Soda, Schwefelsäure oder Trockensalze wie Tausalz oder andere Salzarten. Dies ist insbesondere auch vor dem Hintergrund der beispielsweise begrenzten Kalisalz-Reserven sowie des stark schwankenden Preises relevant.

Die Wasser-Wiederverwendung in der Industrie erfordert dabei – anders als im kommunalen Bereich – auf die jeweilige Branche zugeschnittene Lösungen. Besondere Merkmale des industriellen Wassermanagements, vor allem in Prozessindustrien wie beispielsweise in der Chemie, in der Biotechnologie oder in der Lebensmittelproduktion, sind im Gegensatz zum kommunalen Bereich spezifische Abwasser-Charakteristiken und Anforderungen an die Wasser-Wiederverwendung und die Konzentrat-Verwertung. Wesentlich für die Betreiber von Wasser-Recyclinganlagen sind dabei insbesondere die Minimierung von Reststoffen aufgrund der sehr hohen Entsorgungskosten und der Entsorgungssicherheit. Deshalb werden basierend auf den Anforderungen ausgewählter Industriebranchen innovative Technologien wie die Membran-Destillation, die selektive Niedertemperatur-Destillation-Kristallisation sowie die monoselektive Elektrodialyse weiterentwickelt und an spezifische Anwendungen angepasst.

Dazu werden zunächst umfangreiche Laborversuche mit synthetischen und realen Abwässern durchgeführt und auf den Pilotmaßstab übertragen. Anschließend erfolgt die Demonstration in verschiedenen Industrieunternehmen (Kaffeerösterei, Berufskleidungswäscherei, Bioethanolproduzent), die als assoziierte Anwender in dem Projekt kooperieren. Ein Simulationswerkzeug soll die komplexen Zusammenhänge von den Rohwasserströmen bis zur Konzentrat-Verwertung abbilden und damit erstmalig die Wasserwiederverwendung ganzheitlich optimieren.

Das Vorhaben wird vom Projektträger Karlsruhe (PTKA) betreut und vom TU-Fachgebiet Umweltverfahrenstechnik unter der Leitung von Prof. Dr.-Ing. Sven-Uwe Geißen koordiniert. Neben externen Partnern aus der Wirtschaft wie WEHRLE Umwelt GmbH, SolarSpring GmbH, Terrawater GmbH und DEUKUM GmbH sind auch die DECHEMA Gesellschaft für Chemische Technik und Biotechnologie e.V., das Fraunhofer Institut für Solare Energiesysteme ISE und die DVGW-Forschungsstelle am Engler-Bunte-Institut des Karlsruher Instituts für Technologie beteiligt. Das Verbundprojekt HighCon wird vom Bundesministerium für Bildung und Forschung im Rahmen der Fördermaßnahme WavE drei Jahre gefördert.

http://www.highcon.de/

Weitere Informationen erteilen Ihnen gern:
Prof. Dr.-Ing. Sven-Uwe Geißen
TU Berlin
Fachgebiet Umweltverfahrenstechnik
Tel.: 030/314-22905
E-Mail: sven.geissen@tu-berlin.de

Dr.-Ing. Gesine Götz
Tel.: 030/314-25652
E-Mail: gesine.goetz@tu-berlin.de

Weitere Informationen:
http://www.highcon.de/

Quelle: idw

(nach oben)


Meereswärme zur Versorgung eines Kälte- und Wärmenetzes in Marseille

Marie de Chalup Wissenschaftliche Abteilung
Wissenschaftliche Abteilung, Französische Botschaft in der Bundesrepublik Deutschland

Nach 2-jähriger Bauzeit wurde im Oktober 2016 die Kälteanlage Thassalia im Hafen von Marseille in Betrieb genommen. Ziel ist eine Kälte-/Wärme-Anlage, die die Meereswärme zur Versorgung eines Kälte- und Wärmenetzes im Stadtteil Euroméditerranée nutzt.

Aus 7 m Tiefe wird das Meerwasser zur Versorgung von Platten-Wärmetauschern über sechs Pumpen mit einem Gesamtdurchfluss von 3600 m3/h hochgepumpt. Durch zwei Rohre fließt 60°C warmes Süßwasser und durch zwei weitere 5°C kaltes Süßwasser in einem geschlossenen Kreislauf mit einer maximalen Durchlaufgeschwindigkeit von 2280 m3/h für Kaltwasser und 1050 m3/h für Warmwasser. Bei ihrem Durchfluss durch die Anlage tauschen das Süß- und das Salzwasser Wärme aus, ohne sich zu vermischen. Über den Platten-Wärmetauscher wird dem Kaltwasser Wärme entzogen und an das Warmwasser abgegeben, wodurch das kalte Wasser noch kälter und das warme Wasser noch wärmer wird. Dank der Thermopumpen kommt es zu diesem Temperaturaustausch zwischen dem Kalt- und dem Warmwassernetz. Diese technische Lösung verhindert eine Durchströmung des Meereswassers in den Thermopumpen.

Die Temperatur des Meereswassers beträgt im Winter durchschnittlich 14°C und im Sommer 22°C. Die wieder ins Meer zurückgeführte Temperatur liegt nie über 30 Grad und der Temperaturunterschied zwischen dem eingespeisten Meerwasser und dem wieder zurückgeführten Wasser übersteigt nie 5°C. Eine biologische Überwachung des Meereswassers wird regelmäßig durchgeführt.

Für die Erzeugung von 19 MW Kälte und 19 MW Wärme werden 70% durch die Energie des Meereswassers, 5% durch Gas und 25% durch Stromversorgung abgedeckt.

Das Gesamtbudget des Projektes beträgt 35 Millionen Euro und stammt vor allem von Privatinvestoren. Die französische Agentur für Umweltschutz und Energie (ADEME), die Europäische Union (Programm FEDER), die Region Provence-Alpes-Côte-d’Azur, das Departement Bouches-du-Rhône, die Stadt Marseille und der Staat unterstützen das Projekt finanziell in Höhe von 7 Millionen Euro. Bis 2019 wird eine weitere Thermopumpe installiert und das Süßwassernetz erweitert, um Wohnungen und Büros mit einer Fläche von 500 000 m² zu beheizen und zu klimatisieren.

Quelle:
ꞌꞌThassalia pompe les calories marinesꞌꞌ, Pressemitteilung von Indutrie&Technologie, 28.04.2017 – https://www.industrie-techno.com/thassalia-pompe-les-calories-marines.49194

Redakteur: Luc Massat, luc.massat@diplomatie.gouv.fr

Quelle: idw

(nach oben)


Nanopartikel: Wo bleiben sie, und wie verändern sie sich?

Dr. Suzan Fiack Presse- und Öffentlichkeitsarbeit
Bundesinstitut für Risikobewertung (BfR)

BfR koordiniert Forschungsprojekt zur Untersuchung luftgetragener Partikelgemische sowie ihrer möglichen Effekte auf die Gesundheit

Trotz der stetig steigenden Anwendung industriell hergestellter Nanomaterialien (NM) ist bisher wenig darüber bekannt, wo sie nach einer potenziellen Freisetzung in die Luft und nach einer Aufnahme über die Atmung im Körper verbleiben. Unbekannt ist auch, welche gesundheitlichen Effekte sie im Bronchialtrakt und den Alveolen der Lunge verursachen. Mit dem internationalen Forschungsprojekt NANOaers (NANOaers =fate of aerosolized Nanoparticles: The influence of surface active substanced on lung deposition and respiratory effects) soll der Verbleib luftgetragener, lungengängiger Partikel erforscht werden. Die Finanzierung erfolgt in Deutschland durch das Bundesministerium für Bildung und Forschung (BMBF). „Uns interessiert dabei insbesondere auch die Frage einer möglichen Ko-Exposition gegenüber Partikeln und weiteren im Aerosol vorliegenden Stoffen“, sagt der Präsident des Bundesinstituts für Risikobewertung (BfR), Professor Dr. Dr. Andreas Hensel, „Nanopartikel sind in der Luft nicht in Reinform vorhanden. Sie unterliegen bei der Freisetzung Veränderungsprozessen und werden in der Regel zusammen mit anderen Partikeln und Stoffen als Gemisch eingeatmet.“ Dieser Aspekt ist von Bedeutung, da Mensch und Umwelt nur in seltenen Fällen gegenüber Nanomaterialien exponiert bzw. belastet werden, die nicht bereits durch chemische Substanzen verändert wurden, entweder durch die Anwendung an sich oder durch Reaktionen in der Atmosphäre. In dem internationalen Forschungsvorhaben, welches für drei Jahre innerhalb des Rahmenprogramms ERA-NET SIINN gefördert wird, sind neben den EU-Ländern Deutschland, Österreich, Spanien und Rumänien auch die USA beteiligt. Das Projekt hat ein Gesamtvolumen von ca. 1,7 Millionen Euro.

Eine große Zahl an Nanomaterialien wird zur Verarbeitung in Flüssigkeiten eingebracht und dann versprüht. Bekannte Beispiele solcher Kleinstteilchen-Flüssigkeitsgemische aus dem Alltag sind unter anderem Reinigungs- und Imprägnier-Sprays, beispielsweise beim Lackieren oder Versiegeln. Diese luftgetragenen Nanomaterialien werden als „aerosolisiert“ bezeichnet. Bisher ist wenig über den Verbleib und die Effekte solcher Gemische bekannt. Vor allem der Einfluss sogenannter Matrixeffekte in flüssigen Formulierungen ist bislang ungeklärt: So können beispielswiese Nanomaterialien andere Substanzen binden und als Träger an Orte in der Lunge befördern, wo diese Stoffe unter anderen Umständen nicht hingelangen würden.

Im Mittelpunkt des Forschungsvorhabens NANOaers steht deshalb die Frage, wie sich die Nanomaterialien in Gegenwart anderer Chemikalien verhalten und welche Auswirkungen sie auf den Menschen, insbesondere seinen Atemtrakt, haben. Dabei sollen die potentielle Aufnahme dieser Gemische über die Atemwege und ihr Verbleib in der Lunge aufgeklärt werden. Im Projekt wird auch untersucht, in welcher Weise sich Nanopartikel eventuell bereits auf ihrem Weg durch die Luft in ihrer chemischen und physikalischen Komposition verändern und ob und in welchem Umfang sich andere Stoffe an sie anlagern. Weiterhin sollen mögliche, daraus resultierende gesundheitliche Effekte untersucht werden.

Zur Klärung dieser Fragen werden realitätsnahe Formulierungen mit unterschiedlichen Nanomaterialien hergestellt. Diese Proben werden hinsichtlich ihres Verbleibs in der Raumluft und in den Atemwegen nach Aerosolisierung unter Anwendung verschiedener Messtechniken wie der Einzelpartikelgrößenbestimmung oder der bildgebenden Massenspektrometrie charakterisiert. Zur Klärung möglicher Effekte werden toxikologische Untersuchungen in vitro unter Anwendung unterschiedlicher Zellsysteme und auch in vivo Studien (mit Mäusen) durchgeführt. Weiterhin soll die Ablagerung der Nanoteilchen im Lungengewebe modellhaft beschrieben werden.

Die so gewonnenen Ergebnisse der einzelnen Untersuchungen werden in ein weiteres Modell einfließen, mit dessen Hilfe man den Verbleib von Nanomaterialien aus Aerosolgemischen in der Luft prädiktiv berechnen kann. Diese Art der Modellierung bildet ein wichtiges Instrument, um langfristig die Anzahl an sicherheitsrelevanten Untersuchungen der zahlreichen Variationen von Nanomaterialien zu reduzieren.

ERA-NET SIINN steht für European Research Area Network – Safe Implementation of Innovative Nanoscience and Nanotechnology. Mit diesem-Programm wird der sichere und schnelle Transfer von europäischen Forschungsergebnissen der Nanowissenschaften und Nanotechnologien in die praktische Anwendung gefördert.

Über das BfR
Das Bundesinstitut für Risikobewertung (BfR) ist eine wissenschaftlich unabhängige Einrichtung im Geschäftsbereich des Bundesministeriums für Ernährung und Landwirtschaft (BMEL). Es berät die Bundesregierung und die Bundesländer zu Fragen der Lebensmittel-, Chemikalien- und Produktsicherheit. Das BfR betreibt eigene Forschung zu Themen, die in engem Zusammenhang mit seinen Bewertungsaufgaben stehen.

In diesem Jahr feiert das BfR sein 15-jähriges Bestehen. Aus diesem Anlass hat das BfR eine Jubiläumsbroschüre herausgegeben, die unter http://www.bfr.bund.de/de/publikation/broschueren-660.html kostenlos heruntergeladen oder bestellt werden kann.

Quelle: idw

(nach oben)


Ressourceneinsatz bei Umwälzpumpen optimieren

Elvira Grub M.A. Presse- und Öffentlichkeitsarbeit
Hochschule Kaiserslautern

In zwei Projekten will die Hochschule Kaiserslautern gemeinsam mit der TU Berlin und dem Frankenthaler Pumpenhersteller KSB Umwälzpumpen mit innovativer Leistungselektronik optimieren, um Rohstoff und Energie einzusparen.

Pumpen erzeugen weltweit den höchsten Energiebedarf. Von A wie Abwasser bis Z wie Zentralheizung werden Pumpen in vielfältigsten Bereichen eingesetzt, vor allem in der Industrie, z.B. im Rahmen von Kühlsystemen oder in Kraftwerksanlagen. Das Potential, Energie einzusparen ist hier enorm. Allein europaweit werden mehr als 140 Mio. Umwälzpumpen betrieben, die im Schnitt alle zehn Jahre ersetzt werden. Signifikante Verbesserungen der Ressourcen- und Energieeffizienz bei der Pumpenherstellung haben zwei vom Bundesministerium für Bildung und Forschung (BMBF) geförderte Verbundprojekte im Fokus, an denen die Hochschule Kaiserslautern gemeinsam mit der TU Berlin und dem Pumpenhersteller KSB beteiligt ist.

Das Projekt IMPROVE, das im Rahmen des Programms r+ Impuls gefördert wird, will Umwälzpumpen mit innovativer Leistungselektronik optimieren, um Rohstoff und Energie einzusparen. Dies soll durch die Miniaturisierung und Integration der Leistungselektronik in die Elektromotoren von Umwälzpumpen gelingen, was es ermöglicht, die Pumpe mit variablen und damit auch höheren Drehzahlen zu fahren. Höhere Drehzahlen bedeuten, dass die Pumpe kleiner und damit materialsparender gebaut werden kann. Bei einer beabsichtigten Verkleinerung um 50 Prozent ist das Potential für Einsparungen also ganz erheblich. Bislang nicht Stand der Technik sind dabei die geplante Miniaturisierung und Integration der Leistungselektronik in das Motorgehäuse. Dies erfordert eine Überarbeitung der elektromechanischen Motorkonstruktion. Die Entwicklung entsprechender Voraussetzungen liegt bei der TU Berlin, die dafür innovative Leiterplattentechnologien einsetzt.

Für die Entwicklung der entsprechend kleinformatigen Elektromotoren will man im Projekt Eco-Pump-Drive gänzlich auf die Verarbeitung von Permanentmagneten auf der Basis von Selten-Erd-Metallen verzichten. Selten-Erd-Metalle werden in der Herstellung von hocheffizienten Elektromotoren verarbeitet und haben den Nachteil, dass zwar nicht deren Vorkommen, aber deren Gewinnung sehr aufwändig und daher mit hohem Energieverbrauch und hohen Kosten verbunden ist. Bei der Trennung vom Gestein, in das sie eingebunden sind, entstehen darüber hinaus chemisch und radioaktiv verunreinigte Abwässer. Ein Verzicht würde also nicht nur eine enorme Energie- und Kostenersparnis nach sich ziehen, sondern auch die Umweltverschmutzung verringern. Die Entwicklung von Elektromotoren, die zu 100 Prozent auf den Einsatz von Selten-Erd-Metallen verzichten, soll über ein verändertes Motorendesign gelingen. Hierbei arbeiten ebenfalls die Hochschule Kaiserslautern und das Unternehmen KSB zusammen und werden ebenfalls im Rahmen des Programms r+ Impuls gefördert.

Für beide Projekte ist es Aufgabe der Hochschule Kaiserslautern, eine industrietaugliche Demonstrationsanlage aufzubauen, in der die Entwicklung bis zur Qualifizierung permanent getestet wird. Dafür wird die Hochschule unter Leitung von Prof. Dr. Sven Urschel aus dem Fachbereich Angewandte Ingenieurwissenschaften, Testspezifikationen erstellen, die unter anderem bestimmen, welche Normen in Bezug auf die Umweltbedingungen oder das Betriebsverhalten erfüllt werden müssen. Für die durchzuführenden Tests werden verschiedene Versuchsstände und eigens ein Umweltsimulationsschrank angeschafft, der Wetterbedingungen simuliert. Dafür und für die Einrichtung von Mitarbeiterstellen erhält die Hochschule Kaiserslautern rund eine Million Euro über einen Zeitraum von drei Jahren.

Der Frankenthaler Pumpenhersteller KSB führt die Integration der Leistungselektronik in den Pumpenmotor durch. Außerdem übernimmt er die Gesamtentwicklung und -integration.

Ansprechpartner: Prof. Dr. Sven Urschel ++ Tel: 0631/3724-2240 ++ Mail: sven.urschel@hs-kl.de

Quelle: idw

(nach oben)


Wasserqualität von Flüssen: Zusätzliche Reinigungsstufen in Kläranlagen lohnen sich

Antje Karbe Hochschulkommunikation
Eberhard Karls Universität Tübingen

Viele Keime und Spurenstoffe in Abwasser könnten kostengünstig ausgefiltert werden

Eine zusätzliche Reinigungsstufe in Kläranlagen könnte mit geringem Aufwand große Mengen an Schadstoffen aus dem Abwasser entfernen und die Wasserqualität von Flüssen deutlich verbessern. Zu diesem Ergebnis kommen Wissenschaftlerinnen und Wissenschaftler in einem von der Universität Tübingen koordinierten Forschungsprojekt. Sie haben im Auftrag des Bundesministeriums für Bildung und Forschung untersucht, wie effizient weitergehende Abwasserreinigung in Kläranlagen und Regenwasserbehandlungssystemen neuartige Verschmutzungen in Flüssen beseitigt.

Medikamente, Industriechemikalien und Krankheitserreger tauchen in immer größeren Mengen in Flüssen auf, weil die bisherigen Technologien in Kläranlagen diese zu wenig ausfiltern. „Im Durchschnitt können weitergehende Reinigungsstufen über 80 Prozent der Mikroverunreinigungen entfernen und die Anzahl der Keime um mehr als das Tausendfache reduzieren“, macht Rita Triebskorn deutlich, Professorin für Physiologische Ökologie der Tiere an der Universität Tübingen. Für das Projekt SchussenAktivplus untersuchte ein Forschungsteam unter ihrer Leitung von 2012 bis 2016 die Schussen. Der größte deutsche Bodenseezufluss ist durch Landwirtschaft, Industrie und dichte Besiedlung belastet. Die Ergebnisse wurden nun in einem Abschlussbericht sowie einem Praxishandbuch des Bundesministeriums für Bildung und Forschung veröffentlicht.

Bisher arbeiten Kläranlagen in der Regel mit zwei bis drei Reinigungsstufen. Für SchussenAktivplus testeten die Forscherinnen und Forscher den Einsatz zusätzlicher Technologien wie Ozon, Aktivkohle in Form von Pulver oder Granulat sowie Sandfilter. Vor und nach Inbetriebnahme einer Anlage mit einer Pulveraktivkohlestufe prüfte das Team von Rita Triebskorn den Schadstoff- und Keimgehalt, schädliche Wirkpotentiale im Wasser sowie die Gesundheit von Gewässerorganismen, wie Fischen und Flohkrebsen.

Mit welcher Technologie eine zusätzliche Reinigungsstufe in Kläranlagen künftig arbeiten sollte, ist abhängig von den Standortbedingungen der einzelnen Anlagen. Ozonanlagen beseitigen besonders effektiv Keime und bestimmte Medikamente wie Diclofenac, benötigen aber eine zusätzliche Nachreinigung durch eine Filterstufe. Sie sind empfehlenswert, wenn beispielsweise Badegewässer durch den Ablauf der Kläranlage beeinflusst werden. Aktivkohleanlagen entfernen vor allem Mikroverunreinigungen, zum Beispiel die Industriechemikalie Benzotriazol, das auch in Geschirrspülmitteln zum Einsatz kommt. Im Einzugsgebiet von Naturschutzgebieten oder Trinkwasserreservoirs ist diese Technologie besonders sinnvoll.

An der Pulveraktivkohleanlage in Ravensburg beobachteten die Forscherinnen und Forscher, wie schnell sich ein Gewässer durch den Einsatz der Technologie regenerieren kann: Zweieinhalb Jahre nach Anschluss des Filters zeigten Fische unterhalb der Kläranlage Langwiese weniger Schäden und entwickelten sich besser. Außerdem verbesserte sich die Lebensgemeinschaft der auf dem Gewässerboden lebenden wirbellosen Tiere. Es kamen insgesamt mehr und auch für Umwelteinflüsse empfindliche Artenvor, wie z.B. seltene und gefährdete Steinfliegenlarven.

Auch die Kosten haben die Forscher berechnet. Die Jahreskosten für die Anlagen hängen von der gewählten Technologie, der Anlagengröße – in der Praxis gerechnet in Einwohnerwerten (EW) – und den örtlichen Rahmenbedingungen ab. „Bei Anlagengrößen von 100.000 EW sind pro Bürger im Jahr Kosten zwischen sechs und vierzehn Euro realistisch“ so Professor Rita Triebskorn. „Die weitergehende Abwasserreinigung ist somit ein sehr wirksames und bezahlbares Instrument, um Mikroverunreinigungen und Keime im Wasserkreislauf zu vermindern“.

Der Abschlussbericht des Projekts mit dem Titel „Weitergehende Abwasserreinigung: Ein wirksames und bezahlbares Instrument zur Verminderung von Spurenstoffen und Keimen im Wasserkreislauf“ steht nun online zur Verfügung. Zudem hat das Bundesministerium für Bildung und Forschung die Ergebnisse von SchussenAktivplus und elf weiteren Verbundprojekten im Praxishandbuch „Risikomanagement von neuen Schadstoffen und Krankheitserregern im Wasserkreislauf (RiSKWa)“ veröffentlicht.

Mehr zum Projekt und eine ausführliche Publikationsliste sind zu finden unter www.schussenaktivplus.de

Publikationen:
Triebskorn, Rita (Hrsg.): Weitergehende Abwasserreinigung: Ein wirksames und bezahlbares Instrument zur Verminderung von Spurenstoffen und Keimen im Wasserkreislauf. Tübingen 2017. Online abrufbar unter: https://publikationen.uni-tuebingen.de/xmlui/handle/10900/74316

Die Ergebnisse von allen geförderten Projekten zum Risikomanagement von neuen Schadstoffen und Krankheitserregern im Wasserkreislauf RiSKWa finden sich im Praxishandbuch:
http://www.bmbf.riskwa.de/_media/RISKWA_Praxishandbuch.pdf  

Kontakt:
Prof. Dr. Rita Triebskorn
Universität Tübingen
Institut für Evolution und Ökologie
Telefon: +49 7071-29-78892
rita.triebskorn@uni-tuebingen.de

Quelle: idw

(nach oben)


Abwasser effektiv reinigen

Dipl.-Chem. Katrin Schwarz Presse- und Öffentlichkeitsarbeit
Fraunhofer-Institut für Keramische Technologien und Systeme IKTS

Wasser ist lebenswichtig – Abwässer müssen daher möglichst effizient gereinigt werden. Möglich machen das keramische Membranen. Forscher vom Fraunhofer-Institut für Keramische Technologien und Systeme IKTS in Hermsdorf konnten die Trenngrenze dieser Membranen nun deutlich herabsetzen und erstmals auch gelöste organische Moleküle mit einer Molaren Masse von nur 200 Dalton zuverlässig abfiltrieren. So lassen sich selbst Industrie-Abwässer effizient reinigen.

Wer sich im Hochsommer schon einmal mit zu wenig Wasser im Gepäck einen sonnigen Küstenpfad entlang geschleppt hat, weiß: Ohne Wasser hält man nicht lange durch. Denn Wasser ist eine der Grundlagen des Lebens. Und auch in der Industrie ist das kühle Nass ein Muss: In vielen Produktionsprozessen dient es als Lösemittel, Reinigungsmittel, kühlt oder überträgt Wärme. Da zunehmend mehr Wasser verbraucht wird, gilt es, Abwässer aufzubereiten und wiederzuverwenden. Eine gute Möglichkeit dazu bieten keramische Membranen: Da sie auf mechanische Art und Weise trennen – also ähnlich wie ein Kaffeefilter – sind sie besonders energieeffizient. Allerdings war mit dieser Methode bisher bei einer Molekülgröße von 450 Dalton Schluss: Kleinere Moleküle konnten mit keramischen Membranen nicht abgetrennt werden. Experten zufolge galt es sogar als unmöglich, diese Grenze zu unterschreiten.

Erstmalig 200 Dalton kleine Moleküle abtrennbar
Dr. Ingolf Voigt, Dr.-Ing. Hannes Richter und Dipl.-Chem. Petra Puhlfürß vom Fraunhofer IKTS haben das Unmögliche geschafft. »Mit unseren keramischen Membranen erreichen wir erstmals eine molekulare Trenngrenze von 200 Dalton – und erzielen damit eine ganz neue Qualität«, freut sich Voigt, stellvertretender Institutsleiter des IKTS und Standortleiter in Hermsdorf.

Doch wie ist den Forschern das gelungen? Auf dem Weg, das Unmögliche möglich zu machen, galt es zunächst verschiedene Hindernisse zu überwinden. Das erste lag in der Herstellung der Membran selbst: Möchte man so kleine Moleküle zuverlässig abtrennen, benötigt man eine Membran mit Poren, die kleiner sind als die Moleküle, die man abtrennen möchte. Außerdem müssen alle Poren möglichst gleich groß sein, da eine einzelne größere Öffnung ausreicht, um Moleküle hindurchrutschen zu lassen. Die Herausforderung lag also darin, möglichst kleine Poren zu erzeugen, die alle mehr oder weniger gleich groß sind. »Über eine Weiterentwicklung der Sol-Gel-Technik ist uns dies gelungen«, sagt Richter, Abteilungsleiter am IKTS. Die zweite Hürde lag darin, solche Membranschichten defektfrei über größere Flächen herzustellen. Auch dies ist den Fraunhofer-Forschern geglückt. »Während üblicherweise nur wenige Quadratzentimeter große Flächen beschichtet werden, haben wir eine Pilotanlage mit einer Membranfläche von 234 Quadratmetern ausgerüstet – unsere Membran ist also mehrere Größenordnungen größer«, verdeutlicht Puhlfürß, Wissenschaftlerin am IKTS.

Transfer vom Labor in die Praxis
Die besagte Pilotanlage wurde im Auftrag von Shell von der Firma Andreas Junghans – Anlagenbau und Edelstahlbearbeitung GmbH & Co. KG in Frankenberg gebaut und steht im kanadischen Alberta. Hier reinigt sie seit 2016 erfolgreich Abwasser, das bei der Förderung von Öl aus Ölsand verwendet wird. Derzeit planen die Forscher eine erste Produktionsanlage mit einer Membranfläche von mehr als 5000 Quadratmetern.

Auch in industriellen Produktionsprozessen bringen die neuartigen keramischen Membranen Vorteile: Mit ihnen lassen sich Teilströme direkt im Prozess reinigen und das gereinigte Wasser im Kreislauf führen – das spart Wasser und Energie.

Für die Entwicklung der keramischen Nanofiltrationsmembran erhalten Dr. Ingolf Voigt, Dr.-Ing. Hannes Richter und Dipl.-Chem. Petra Puhlfürß den diesjährigen Joseph-von-Fraunhofer-Preis. Die Jury begründet die Preisvergabe unter anderem mit »der erstmaligen Umsetzung für Filtrationsanwendungen im Rahmen dieser Materialklasse«.

Weitere Informationen:
https://www.ikts.fraunhofer.de/de/press_media/press_releases/17_05_cleaning_wast…

Quelle: idw

(nach oben)


Wie innere Uhren miteinander kommunizieren

Gunnar Bartsch Presse- und Öffentlichkeitsarbeit
Julius-Maximilians-Universität Würzburg

Eine Vielzahl innerer Uhren steuert das Leben von Tier und Mensch. Ob und wie diese untereinander in Verbindung stehen, ist ein Rätsel. Eine neue Studie zeigt jetzt: Bisweilen gibt ein zentrales Uhrwerk den Takt vor.

Egal, ob Fliege, Maus oder Mensch: Innere Uhren geben jedem Tier den Takt vor. Die Vorstellung von dem einen, zentralen Uhrwerk, das sämtliche Vorgänge im Körper zeitlich diktiert, trifft allerdings nicht zu. Stattdessen finden sich in den meisten Organismen eine Vielzahl innerer Uhren – eine zentrale im Gehirn und viele periphere in den Organen und Systemen.

Wie diese Uhren miteinander kommunizieren, wie sie sich untereinander koordinieren und ob die zentrale Uhr allen anderen die Zeit verbindlich vorgibt: Diese Fragen sind bislang größtenteils ungeklärt. Ein internationales Wissenschaftlerteam der Universität Würzburg und der Universidad de Valparaiso (Chile) hat jetzt allerdings bei der Taufliege den Kopplungsweg zwischen einer zentralen und peripheren Uhr aufgeklärt und experimentelle Beweise für das sogenannte „Zwei-Oszillatoren-Modell“ mit einer „Master“- und vielen „Slave“-Uhr erbracht.

Verantwortlich für den Würzburger Teil der Studie waren Christian Wegener, Professor für Neurogenetik am Biozentrum der Uni Würzburg, und seine Mitarbeiterin, die Postdoc Mareike Selcho, sowie die Doktoranden Franziska Ruf und Jiangtian Chen und der Student Gregor Bergmann. Die Ergebnisse ihrer Arbeit stellen die Forscher in der aktuellen Ausgabe der Fachzeitschrift Nature Communications vor.

Ein Hormon gibt das Signal zum Schlüpfen
„Wir haben uns in dieser Studie auf den neuronalen Weg konzentriert, der die innere Uhr im Gehirn der Taufliege mit einer peripheren Uhr in einer Steroidhormon-produzierenden Drüse, der sogenannten Prothorakaldrüse, verbindet“, erklärt Christian Wegener. Was diese Drüse so interessant macht: Sie produziert das Hormon Ecdyson und gibt damit das Signal zum „Erwachsen-Werden“ der Taufliege, sprich: Sie definiert den Moment, in dem die Fliege schlüpft. Dies Schlüpfen folgt einem strikten Terminplan: Es geschieht in der Regel nur in den frühen Morgenstunden eines Tages.

Und noch ein Aspekt macht diesen Weg und diese Drüse aus Sicht der Wissenschaft so spannend: „Es gibt ein vergleichbares System beim Menschen, das ähnlich funktioniert“, sagt Mareike Selcho. Die Stelle der Prothorakaldrüse nimmt hier die Nebennierenrinde ein. Und statt Ecdyson schüttet diese Glukokortikoide aus, denen eine wichtige Rolle bei der Synchronisation der Säuger-Uhren zugesprochen wird. Ist diese Synchronisation beim Menschen dauerhaft gestört, können sich verschiedene Krankheiten entwickeln, angefangen bei Depressionen über Erkrankungen des Herz-Kreislauf-Systems bis zu Stoffwechselstörungen.

Zentrale und Peripherie kommunizieren miteinander
Dass die zentrale Uhr im Gehirn der Taufliege mit der peripheren Uhr der Prothorakaldrüse kommuniziert, legen Ergebnisse aus früheren Studien nahe. Demnach müssen beide Uhren funktionieren, damit die Fliegen auch dann zu den üblichen Zeiten schlüpfen, wenn sie unter konstanten Verhältnissen gehalten werden – wenn also der Wechsel von Tag und Nacht fehlt. Ändern sich die Lichtverhältnisse rhythmisch, so wie es den natürlichen Gegebenheiten entspricht, reicht eine funktionstüchtige periphere Uhr alleine, um das morgendliche Schlüpfen aufrecht zu erhalten. Die zentrale Uhr kann dann problemlos ausfallen.

Bei der Suche nach dem Verbindungsweg haben die Würzburger Wissenschaftler sich auf spezifische Nervenzellen konzentriert, über die der Kontakt zwischen zentraler und peripherer Uhr laufen könnte – sogenannte PTTH-Neurone. „Diese müssen allein aufgrund ihrer räumlichen Anordnung hervorragend dafür geeignet sein, die beiden Uhren miteinander zu verbinden“, sagt Christian Wegener.

Tatsächlich konnten die Würzburger Wissenschaftler nachweisen, dass PTTH-Neurone eine direkte Verbindung zwischen der Uhr im Gehirn der Taufliege und dem peripheren Stellwerk herstellen. In ihren Experimenten zeigen sie, dass die zentralen Uhr-Neurone ein spezielles Neuropeptid produzieren, das Zeit-Informationen an die PTTH-Neurone übermittelt. PTTH-Neurone ihrerseits leiten diese Information an die Taktgeber der Prothorakaldrüse weiter und nehmen Einfluss auf die Produktion von Ecdyson.

Bestätigung durch Experimente in Chile
Eine Bestätigung für die Theorie von Master und Slave erhielten die Würzburger Forscher durch die Arbeit ihrer Kollegen in Chile. Diese hatten in einer Reihe von Experimenten die inneren Uhren der Taufliege in unterschiedlichen Kombinationen künstlich verlangsamt und die Auswirkungen auf das Schlupfverhalten untersucht.

Die Ergebnisse: Gehen beide Uhren langsamer, verlängert sich der „Schlupfrhythmus“ von den üblichen 24 auf mehr als 27 Stunden. Eine ähnliche Verlängerung zeigt sich, wenn die periphere Uhr ihre reguläre Geschwindigkeit beibehält, die zentrale Uhr aber abgebremst wird. Im umgedrehten Fall hingegen – funktionierende zentrale Uhr und verlangsamte periphere – schlüpfen die Fliegen ungerührt im 24-Stunden-Abstand.

„Das ist die erste vollständige experimentelle Beschreibung eines Kopplungswegs zwischen inneren Uhren, und zeigt, dass in bestimmten Fällen das Zwei-Oszillatoren-Modell tatsächlich zutrifft“, sagt Christian Wegener. Von einem genauen Verständnis des Zusammenspiels innerer Uhren sei die Wissenschaft dennoch weit entfernt. Schließlich zeigen die jüngsten Ergebnisse, dass die diversen Mechanismen stark miteinander verschränkt und mit Rückkoppelungsschleifen versehen sind. „Es wird kompliziert“, ist sich Wegener deshalb sicher.

Central and peripheral clocks are coupled by a neuropeptide pathway in Drosophila. Mareike Selcho, Carola Millán, Angelina Palacios-Muñoz, Franziska Ruf, Lilian Ubillo, Jiangtian Chen, Gregor Bergmann, Chihiro Ito, Valeria Silva, Christian Wegener, and John Ewer. Nature Communications, DOI: 10.1038/ncomms15563

Kontakt
Prof. Dr. Christian Wegener, +49 931 31-85380, christian.wegener@biozentrum.uni-wuerzburg.de

Quelle: idw

(nach oben)


Leitfaden zur Energiewende für Kommunen und Stadtwerke

Dipl.-Chem. Iris Kumpmann Abteilung Public Relations
Fraunhofer-Institut für Umwelt-, Sicherheits- und Energietechnik UMSICHT

Der Strategieleitfaden »Akzente setzen durch Energieausgleich: Flexibilisierung der Energieversorgung« informiert kommunale Fachplaner und Fachplanerinnen sowie lokale Energieversorger über die Chancen von Energieausgleich und unterstützt sie bei der Planung von eigenen Konzepten vor Ort mit konkreten Anregungen und Hilfestellungen. Der kostenfrei erhältliche Leitfaden für Kommunen und Stadtwerke fasst zentrale Ergebnisse des vom Bundesministerium für Bildung und Forschung (BMBF) geförderten Forschungsprojekts »Akzente – Gesellschaftliche Akzeptanz von Energieausgleichsoptionen und ihre Bedeutung bei der Transformation des Energiesystems« zusammen.

Im Stromsektor sollen laut Energiekonzept der Bundesregierung im Jahr 2050 mindestens 80 Prozent des Bruttostromverbrauchs durch erneuerbare Energien gedeckt werden. Dies erfordert eine signifikante Änderung des Stromsystems in den Bereichen Erzeugung, Verbrauch und Übertragung bzw. Verteilung. Der hohe Anteil von Wind- und Solarenergie an der Stromversorgung wird dazu führen, dass zeitweise deutlich mehr Strom erzeugt als verbraucht wird oder an wind- und sonnenscheinarmen Tagen Versorgungslücken entstehen, die gedeckt werden müssen.

Energieausgleich zentrales Gestaltungselement für nachhaltige Energieversorgung
Energieausgleichsoptionen, wie Speichertechnologien oder steuerbare Stromverbraucher und -erzeuger, können die zeitlichen und räumlichen Abweichungen zwischen Energieerzeugung und -verbrauch ausgleichen. Durch eine Kombination verschiedener Technologien zu regionalen Energieausgleichskonzepten entstehen Lösungen, die Stromnetze entlasten, die Versorgungssicherheit gewährleisten sowie die Effizienz des Gesamtsystems erhöhen und zudem wirtschaftliche Flexibilität anbieten.

Energieausgleich wird somit zu einem zentralen Gestaltungselement für eine nachhaltige Energieversorgung. Integrierte kommunale Planungsprozesse sind aussichtsreiche
Anknüpfungspunkte, um das Thema vor Ort zu verankern und die zukünftige Energieversorgung ressourcenschonend zu gewährleisten.

Strategieleitfaden als Planungshilfe
Das bietet der Strategieleitfaden
• Er liefert Informationen zu Chancen und Potenzialen von Energieausgleichskonzepten.
• Er beschreibt heute schon nutzbare Ausgleichstechnologien.
• Er gibt Planungshilfen und praktische Tipps.
• Er ist kostenfrei als pdf verfügbar.

Der Strategieleitfaden wurde im Rahmen des vom Bundesministerium für Bildung und Forschung (BMBF) geförderten Forschungsprojekts »Akzente – Gesellschaftliche Akzeptanz von Energieausgleichsoptionen und ihre Bedeutung bei der Transformation des Energiesystems« mit der IZES gGmbH (Institut für ZukunftsEnergie- und Stoffstromsysteme) und der Orangequadrat Nikol | Umbreit | Langer GbR erstellt.

Projektförderung
Bundesministerium für Bildung und Forschung (BMBF), Förderkennzeichen: 03EK3513A-C
im Rahmen des Programms: Umwelt- und gesellschaftsverträgliche Transformation des
Energiesystems (http://www.transformation-des-energiesystems.de/)

Autorinnen und Autoren
Daniela Becker, Dr. Ulrike Ehrenstein, Jan Hildebrand, Ann-Katrin Knemeyer,
Dr. Sebastian Langer, Claudia Nikol, Cornelius Schill, Tom Umbreit, Patrick Wrobel

Umfang
36 Seiten

Weitere Informationen:
https://www.umsicht.fraunhofer.de/content/dam/umsicht/de/dokumente/pressemitteil… Download: Strategieleitfaden »Akzente setzen durch Energieausgleich: Flexibilisierung der Energieversorgung«
https://www.umsicht.fraunhofer.de/de/presse-medien/2017/leitfaden-energiewende.h… Pressemitteilung

Quelle: idw

(nach oben)


Neues Helmholtz-Institut für marine Biodiversität erforscht menschlichen Einfluss auf Meere

Sebastian Tilch Pressearbeit
Netzwerk-Forum zur Biodiversitätsforschung

Die Meere bedecken 70 % unseres Planeten, beinhalten 97 % des flüssigen Wassers und bilden den größten Lebensraum. Sie leisten enorme Dienste für den Menschen – als Ernährer, Klimapuffer oder Sauerstoffproduzent. Allerdings nur wenn sie gesund sind. Der Mensch setzt die Ökosysteme immer stärker unter Druck. Ansätze für einen besseren Umgang mit den Meeren sind also ein gemeinschaftliches Anliegen. Doch dafür bedarf es an Wissen, das gerade im globalen Maßstab bisher kaum verfügbar ist. Das neue Helmholtz-Institut für Funktionelle Marine Biodiversität (HIFMB), das am 31. Mai 2017 in Oldenburg startet, soll hier Fortschritte bringen. NeFo sprach mit Institutsleiter Prof. Helmut Hillebrand.

Dass Ökosysteme aus einer Vielzahl aufeinander angewiesener Arten bestehen, wird an einem schönen Beispiel im Nordpazifik deutlich: Die dort verbreiteten Kelpwälder, bestehend aus riesigen, oft über hundert Meter langen, Braunalgen, gehören zu den artenreichsten Lebensräumen im Meer. Hier tummeln sich diverse Meeressäuger wie Schwertwale (Orcas), Seehunde, Seelöwen und Seeotter, die durch den großen Fischreichtum einen gedeckten Tisch vorfinden. Bis Ende der 1980er Jahre wurde dieser Fischreichtum auch vom Menschen stark genutzt.

Die intensive Befischung führte in den 1990ern in manchen Regionen zum völligen Verschwinden der Kelpwälder und zeigte, wie diese Arten voneinander abhängen. Durch die fehlende Nahrungsgrundlage, den Fisch, für Seehunde und -löwen ging nun auch deren Population so drastisch zurück, dass die Schwertwale, die sich bisher auf diese Beute konzentriert hatten, nun auf Seeotterjagd gingen. Da die Otter die Seeigel, ihre Hauptspeise, im Zaum gehalten hatten, breiteten sich diese nun ungebremst aus. Ihre Nahrungspflanze, der Tang, wurde nach und nach abgegrast, das Grundgerüst des gesamten Ökosystems fiel in sich zusammen, und damit auch die Grundlage für eine ertragreiche Fischerei.

Dieses Beispiel für natürliche Nahrungsnetze zeigt, wie komplex die Zusammenhänge der Lebensräume und ihrer Artenvielfalt, aber auch, wie fragil ihre Funktionsfähigkeit sein können. Doch gerade im globalen Maßstab ist das Wissen über die marinen Ökosysteme noch sehr gering. „Unsere Information über diese Vielfalt beruht auf verblüffend wenigen Proben“, sagt der Oldenburger Algenexperte Hillebrand im NeFo-Interview. „Für die Tiefsee wurde berechnet, dass alle bisher genommenen Proben gemeinsam kaum mehr als wenige hundert Quadratmeter umfassen – und das bei einem System, das den Großteil der Fläche der Planeten ausmacht.“

Entsprechend schwierig ist es auch, die Auswirkungen von menschlichen Veränderungen zu verstehen und vorherzusagen. „Hier müssen wir eine konsistente Entwicklung von Langzeitbeobachtungen mit neuen quantitativen Auswerteverfahren koppeln – ein Feld, bei dem die marine Forschung der terrestrischen noch hinterher hinkt“, meint der Meeresökologe.

Die Meere sind für das menschliche Leben nicht wegzudenken: Knapp drei Milliarden Menschen decken 20 Prozent ihres Proteinbedarfs durch Fisch. Über 93 % der durch menschliche CO2-Emissionen entstandenen Wärme haben die Ozeane aufgenommen und das Klima damit bisher stabilisiert. Außerdem wird 50% des globalen Sauerstoffs von marinen Ökosystemen produziert (Quelle: Meeresatlas 2017 der Böll-Stiftung). Doch diese stoßen an ihre Belastungsgrenzen. Überfischung, Düngemittel, Müll und andere Schadstoffe, Rohstoffabbau und Lärmbelastung sind die wichtigsten Ursachen für den Rückgang der Arten, Lebensräume und genetischen Vielfalt in den Meeren.

Wovon hängt die Stabilität eines marinen Ökosystems ab? Und welche Rolle spielt dabei die Artenvielfalt? Diese Frage wird in den kommenden Jahren eine zentrale Rolle im Helmholtz-Institut für Funktionelle Marine Biodiversität (HIFMB) spielen. Im marinen Bereich gibt es dazu wesentlich weniger Studien als im terrestrischen, meist auch nur bezüglich einzelner Störgrößen und wenigen Organismengruppen, meint Hillebrand. Doch tatsächlich sind die Meere wesentlich mehr Störfaktoren ausgesetzt als der Fischerei. Erwärmung, Versauerung, Verschmutzung, Überdüngung und Lärm zwingen die marinen Ökosysteme zu einem zunehmenden Wandel. Das große Bild fehlt also.

Dieses will Prof. Helmut Hillebrand in seinem integrativen Institut nun schaffen.
Das Helmholtz-Institut soll dafür bereits vorhandene Arbeitsgruppen am Alfred-Wegener-Institut und der Universität Oldenburg zusammenführen. Dies ermöglicht eine gemeinsame Arbeit zu den wesentlichen Aspekten der Biodiversität – von der Genetik einzelner Meerestiere, Algen und Bakterien bis hin zur Funktionsanalyse eines ganzen Ökosystems. Darüber hinaus werden vier neue Professoren berufen und Nachwuchsforschergruppen eingerichtet.

Die Forschung am neuen Helmholtz-Institut ist ausgesprochen interdisziplinär angelegt, die neben den naturwissenschaftlichen auch die gesellschaftswissenschaftlichen Fragestellungen bearbeiten können. Denn am Ende sollen entsprechende Politikempfehlungen für Naturschutz- und Managementstrategien, also nachhaltige Nutzungsformen der Meere und ihrer natürlichen Ressourcen stehen. „Wie können wir unsere marine Umwelt wirksam schützen, obgleich viele dort lebende Arten mobil und die Gebiete ohnehin meist keiner Nation zugehörig sind? Das ist nur eine der Herausforderungen des marinen Naturschutzes, bei der wir noch am Anfang stehen und für die wir Konzepte entwickeln wollen“, erläutert Hillebrand.

In der Aufbauphase von 2017 bis 2020 wird das neue Institut vom Land Niedersachsen mit 23 Millionen Euro finanziert, darin ist auch ein Institutsneubau in Oldenburg enthalten. Ab 2021 wird überwiegend die Helmholtz-Gemeinschaft die Kosten tragen.

Zum NeFo-Interview: http://www.biodiversity.de/Interview-Hillebrand-hifmb

Zur PM der Universität Oldenburg http://www.presse.uni-oldenburg.de/mit/2017/184.html

Kontakt:
Sebastian Tilch
Pressereferent NeFo
c/o Helmholtz-Zentrum für Umweltforschung – UFZ
Tel. 0341/235-1062
Email: sebastian.tilch@ufz.de

Netzwerk-Forum zur Biodiversitätsforschung Deutschland ist ein Projekt zur inter- und transdisziplinären Vernetzung und Sichtbarmachung der Biodiversitätsforschung in Deutschland über Institutionsgrenzen hinweg. Es wird gefördert durch das Bundesministerium für Bildung und Forschung BMBF und maßgeblich durchgeführt vom Helmholtz-Zentrum für Umweltforschung Leipzig – UFZ sowie dem Museum für Naturkunde – Leibniz-Institut für Evolutions- und Biodiversitätsforschung Berlin.

Unsere tagesaktuelle Auswahl von Pressemitteilungen aus Biodiversitätsforschung und -politik finden Sie auf unter:

Weitere Informationen:

http://www.biodiversity.de
http://und auf twitter.com/Ne_Fo

Quelle: idw

(nach oben)


Extrakorporale Stoßwellentherapie bei Fersenschmerz: besser als Placebo, Ultraschall, Iontophorese

Dr. Anna-Sabine Ernst Presse- und Öffentlichkeitsarbeit
Institut für Qualität und Wirtschaftlichkeit im Gesundheitswesen (IQWiG)

Gegenüber aktiven Vergleichstherapien durchwachsene Ergebnisse / Optimale Dosis bleibt unklar
Eine Reizung und Entzündung der sogenannten plantaren, also in der Fußsohle gelegenen Sehnenplatte am Fersenbein kann zu Gewebsveränderungen und damit zu Fersenschmerzen führen. Diese Schmerzen können sowohl beim Anlaufen als auch nach längeren oder stärkeren Belastungen auftreten. Sie beeinträchtigen unter Umständen die Bewegungsfähigkeit und die Lebensqualität. Verschwinden die Symptome nach einer Weile nicht von selbst, kommen verschiedene Behandlungen infrage, etwa Schuheinlagen, Dehnübungen, Medikamente oder Physiotherapie. Halten die Schmerzen länger an, kann eine extrakorporale Stoßwellentherapie, kurz ESWT, helfen oder eine Operation.

Im November 2016 hatte das Institut für Qualität und Wirtschaftlichkeit im Gesundheitswesen (IQWiG) seinen Vorbericht zum Nutzen einer Fersenschmerz-Behandlung mit ESWT veröffentlicht. Die anschließend eingegangenen Stellungnahmen und die Auswertung einer weiteren Studie haben dessen Ergebnisse bestätigt: Laut dem jetzt veröffentlichten Abschlussbericht gibt es im Vergleich zu Scheininterventionen für den Endpunkt Schmerz einen Beleg und für den körperlichen Funktionsstatus einen Anhaltspunkt für einen Nutzen.

Gegenüber aktiven Vergleichstherapien ist das Ergebnis durchwachsen. In einigen Vergleichen zeigten sich Vorteile der ESWT, in anderen Nachteile oder aber keine Anhaltspunkte für einen höheren oder geringeren Nutzen. Unklar bleibt, wie viel Energie nötig ist, um die positive Wirkung zu erzielen und zugleich die Nachteile der Behandlung zu minimieren.

Die Behandlung ist schmerzhaft
Stoßwellen sind stark gebündelte Druckwellen, die Schallwellen ähneln. Sie werden unter anderem zur Zertrümmerung von Nierensteinen eingesetzt. Bei der extrakorporalen Stoßwellentherapie wird in der Regel die schmerzhafteste Stelle am Fuß behandelt. Die Stoßwellen sollen die Zellen zur Bildung von Zytokinen anregen und den Zellumsatz erhöhen; das Bindegewebe soll dadurch schneller heilen.

Für gewöhnlich werden über ein bis zwei Wochen etwa drei bis fünf Sitzungen durchgeführt. Ab einer gewissen Intensität kann die Behandlung mit Stoßwellen schmerzhaft sein, sodass die Stelle häufig vorher lokal betäubt wird. Dazu Sandra Molnar, die im Ressort Nichtmedikamentöse Verfahren federführend am IQWiG-Bericht mitgewirkt hat: „Am Rande des Orthopädenkongresses hatte ich Gelegenheit, mich probeweise mit Stoßwellen behandeln zu lassen, und zwar ohne örtliche Betäubung. Ich kann bestätigen: Ja, das tut erst mal ganz schön weh!“

Mehrere Vergleichstherapien betrachtet
Umso wichtiger ist es, diesen Nachteil genau gegen die Vorteile der Behandlung abzuwägen. Das IQWiG hat insgesamt 29 Studien ausgewertet, in denen eine ESWT mit einer Scheinbehandlung, mit verschiedenen aktiven Therapien oder aber mit einer anderen ESWT-Variante verglichen wurde.

Aus den 15 Studien, in denen ESWT mit Scheinbehandlungen verglichen wurde, ergaben sich bei den patientenrelevanten Endpunkten Schmerz und körperlicher Funktionsstatus jeweils ein Beleg und ein Anhaltspunkt für einen Nutzen der ESWT. Bei der gesundheitsbezogenen Lebensqualität gibt es dagegen keinen Anhaltspunkt für einen Nutzen.

Teils größerer, teils kleinerer Nutzen als andere aktive Therapien
Bei zwei von sechs aktiven Vergleichstherapien ergaben sich Anhaltspunkte für einen höheren Nutzen der ESWT, und zwar gegenüber Ultraschall und gegenüber Iontophorese (Aufnahme von Arzneimitteln durch die Haut mithilfe eines schwachen elektrischen Stroms) plus Einnahme schmerzstillender Mittel.

Bei zwei weiteren aktiven Vergleichstherapien, nämlich Operation und Ultraschall plus Dehnübungen, fanden sich keine Anhaltspunkte für einen höheren oder geringeren Nutzen. Im Vergleich zu Dehnübungen allein und gegenüber Glukokortikoid-Injektionen schnitt die ESWT schlechter ab, wobei ein Publikationsbias nicht ausgeschlossen werden kann: In beiden Fällen gibt es unveröffentlichte Studien.

Optimale Dosis bleibt unklar
Aus den sechs Studien schließlich, in denen verschiedene ESWT-Varianten getestet wurden, ließen sich keine Anhaltspunkte für einen höheren oder geringeren Nutzen einer bestimmten Behandlungsweise ableiten. Bei vier dieser Studien wurden Varianten mit hoher und niedriger Gesamtenergiedosis verglichen.

Zwar zeigten sich in drei Studien statistisch signifikante Vorteile der jeweils höheren Gesamtenergiedosis. Aber die niedrigere Dosis war in diesen Fällen so klein, dass es sich womöglich um Scheinbehandlungen handelte. Daher kann aus diesen Untersuchungen keine Empfehlung für eine Behandlungsvariante abgeleitet werden.

Zum Ablauf der Berichtserstellung
Die vorläufigen Ergebnisse, den sogenannten Vorbericht, hatte das IQWiG im November 2016 veröffentlicht und zur Diskussion gestellt. Nach dem Ende des Stellungnahmeverfahrens wurde der Vorbericht überarbeitet und als Abschlussbericht im März 2017 an den Auftraggeber versandt. Die eingereichten schriftlichen Stellungnahmen werden in einem eigenen Dokument zeitgleich mit dem Abschlussbericht publiziert. Der Bericht wurde gemeinsam mit externen Sachverständigen erstellt.

Weitere Informationen:
http://www.iqwig.de

Quelle: idw

(nach oben)


Den Faktor Mensch im biologischen Flickflack der Küstengewässer erkennen

Dr. Barbara Hentzsch Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Ostseeforschung Warnemünde

Biologische Langzeitdatenserien sind wertvolle Datenarchive, um Auswirkungen des menschlichen Einflusses auf die Ökosysteme oder Klima-getriebene Regime-Veränderungen zu identifizieren. In Küstengewässer jedoch, dort wo der Süßwasserzustrom von Land gemeinsam mit dem Wettergeschehen und lokalen Strömungen zu rasch wechselnden Werten von Salzgehalt, Temperatur und Sauerstoff führt, kommt ihre Aussagekraft an ihre Grenzen. Zu dominant sind die Reaktionen der Lebensgemeinschaften auf diese Umweltparameter. Einer Gruppe Warnemünder Wissenschaftler ist es nun gelungen mithilfe statistischer Verfahren weitere Einflussgrößen zu identifizieren.

Auf den ersten Blick erscheint es unmöglich, für Veränderungen bei den Häufigkeiten von benthischen Organismen oder deren Artenreichtum andere Ursachen zu erkennen, als die alles maskierenden Reaktionen auf die rasch wechselnden Salzgehalte oder saisonalen Sauerstoffmangel. Sind wir damit am Ende der Interpretierbarkeit biologischer Langzeitdaten in Küstengewässern angekommen? Michael L. Zettler, Meeresbiologe am Leibniz-Institut für Ostseeforschung und seine Kolleginnen und Kollegen wollten sich damit nicht zufrieden geben. In einer kürzlich in der renommierten Fachzeitschrift PLoS ONE veröffentlichten Studie wenden sie zum ersten Mal bestimmte statistische Verfahren (DistLM – distance based linear model permutation test) an biologischen Langzeitdaten von drei Stationen in der deutschen Ostsee an, um die Aussagekraft der 35 Jahre umfassenden Datenreihe von Makrozoobenthos Parametern zu erhöhen.

Die Studie konzentriert sich auf Stationen in der Mecklenburger Bucht, an der Darsser Schwelle und im Arkonabecken. Alle drei Stationen unterscheiden sich beträchtlich hinsichtlich der Struktur der Lebensgemeinschaft, der Abundanzen, Biomassen und Artenzahlen. Auch die statistische Signifikanz und die Bedeutung von Umweltparametern bei der Erklärung zeitlicher Schwankungen der makrozoobenthischen Daten unterscheiden sich zwischen den Stationen und in Abhängigkeit der jeweiligen biotischen Parameter.

Mithilfe der DistLM Methode ließen sich Variablen ermitteln, die an der jeweiligen Station am ehesten die Variationen der einzelnen Makrozoobenthos-Parameter erklären. Neben den bereits bekannten Umweltvariablen wie Sauerstoffmangel und Salzgehaltsschwankungen lassen sich die Schwankungen und Trends der biologischen Komponenten zu einem großen Teil auch durch Klimaveränderungen (verwendet wurde der Nordatlantische Oszillations-Index=NAOI) erklären.

Wie also ist die Entwicklung der makrozoobenthischen Gemeinschaften in den letzten 35 Jahren verlaufen? Michael Zettler fasst die Ergebnisse zusammen: „Während wir an den Stationen Mecklenburger Bucht und Arkonabecken, die häufig durch Sauerstoffmangel geprägt sind, weder regime shifts noch Trends erkennen können, zeigt sich an der Darsser Schwelle, dass sich die benthische Lebensgemeinschaft innerhalb der untersuchten 35 Jahre mehrfach drastisch geändert hat. Wir gehen von zwei größeren regime shifts, am Ende der 1980er Jahre und um die Mitte der 1990er Jahre, aus. Es könnte sich um die benthische verzögerte Reaktion auf den klimabedingten und mittlerweile allgemein akzeptierten Nordatlantik Regime Shift handeln.“

Vor dem Hintergrund der wichtigen ökologischen Rolle, die benthischen Lebensgemeinschaften zukommt, ist es essentiell ihre Reaktion auf Klimawandel und andere anthropogene oder natürliche Einflüsse zu verstehen und vorherzusagen. Die nun veröffentlichte Studie zeigt, dass die Fortführung der Langzeitdatenserien auch in hochdynamischen Seegebieten Sinn macht.

Die hier beschriebenen Langzeitdaten wurden im Rahmen des HELCOM Monitorings erhoben, das das Leibniz-Institut für Ostseeforschung Warnemünde im Auftrag des Bundesamtes für Seeschifffahrt und Hydrographie durchführt.

Zettler, M. L., Friedland, R., Gogina, M., Darr, A. (2017): Variation in benthic long-term data of transitional waters: Is interpretation more than speculation? PLoS ONE 12(4): e0175746
https://doi.org/10.1371/journal.pone.0175746

Kontakt zum Autor:
Dr. Michael L. Zettler | Tel.: 0381 5197-236 | michael.zettler@io-warnemuende.de

Kontakt Presse- & Öffentlichkeitsarbeit:
Dr. Barbara Hentzsch | Tel.: 0381 5197-102 | barbara.hentzsch@io-warnemuende.de
Dr. Kristin Beck | Tel.: 0381 5197-135 | kristin.beck@io-warnemuende.de

Das IOW ist Mitglied der Leibniz-Gemeinschaft, zu der zurzeit 91 Forschungsinstitute und wissenschaftliche Infrastruktureinrichtungen für die Forschung gehören. Die Ausrichtung der Leibniz-Institute reicht von den Natur-, Ingenieur- und Umweltwissen-schaften über die Wirtschafts-, Sozial- und Raumwissenschaften bis hin zu den Geis-teswissenschaften. Bund und Länder fördern die Institute gemeinsam. Insgesamt beschäftigen die Leibniz-Institute etwa 18.100 MitarbeiterInnen, davon sind ca. 9.200 WissenschaftlerInnen. Der Gesamtetat der Institute liegt bei mehr als 1,6 Mrd. Euro. (www.leibniz-gemeinschaft.de)

Quelle: idw

(nach oben)


Besseres Wassermanagement in trockenen Gebieten

Monika Landgraf Strategische Entwicklung und Kommunikation – Gesamtkommunikation
Karlsruher Institut für Technologie

Wie viel Wasser wird künftig in trockenen und halbtrockenen Regionen der Erde verfügbar sein? Wie lassen sich Reservoire und bewässerte Landwirtschaft steuern? Mit diesen Fragen befassen sich Forscher in dem am Karlsruher Institut für Technologie (KIT) koordinierten Projekt „Saisonales Wasserressourcen-Management in Trockenregionen: Praxistransfer regionalisierter globaler Informationen“ (SaWaM). Das vom Bundesministerium für Bildung und Forschung (BMBF) geförderte Projekt macht globale Satelliten- und Modelldaten für das regionale Wassermanagement und die saisonale Vorhersage nutzbar.

Die lebensnotwendige Ressource Wasser ist regional unterschiedlich verteilt. So ist die Wasserversorgung für rund 80 Prozent der Weltbevölkerung potenziell unsicher. Bis 2025 werden nach Schätzung der UN voraussichtlich 1,8 Milliarden Menschen von absoluter Wasserknappheit – weniger als 500 Kubikmeter Wasser pro Person und Jahr – betroffen sein. Gründe für die sich verschärfende Wasserknappheit sind das Wachstum der Weltbevölkerung sowie die Klimaänderung. „Besonders relevant ist diese Problematik für Gebiete, die schon jetzt von Wassermangel geprägt sind, also für die ariden und semi-ariden Gebiete, die immerhin rund 40 Prozent der Landflächen auf der Erde ausmachen“, berichtet Professor Harald Kunstmann, stellvertretender Leiter des Instituts für Meteorologie und Klimaforschung – Atmosphärische Umweltforschung (IMK-IFU) des KIT in Garmisch-Partenkirchen. „Daher ist es gerade in diesen Regionen wichtig, die verfügbaren Wasserressourcen genau zu kennen.“

Harald Kunstmann koordiniert das soeben gestartete Projekt „Saisonales Wasserressourcen-Management in Trockenregionen: Praxistransfer regionalisierter globaler Informationen“ (SaWaM). An dem auf drei Jahre angelegten Projekt sind insgesamt sieben Forschungseinrichtungen aus der Klima-, Hydrologie-, Ökosystemforschung und Fernerkundung sowie zwei deutsche Unternehmen beteiligt.

In ariden und semiariden Regionen ist der Niederschlag über Monate hinweg geringer als die Verdunstung und es gibt ausgeprägte lange Trockenzeiten. Beobachtungsdaten zum Wasserkreislauf sind in den meist entwicklungsschwachen betroffenen Ländern immer weniger verfügbar. Daher müssen Wissenschaftler zunehmend auf Satelliten- oder Modelldaten zurückgreifen. Diese sind jedoch in der Regel äußerst grob aufgelöst und mit großen Unsicherheiten behaftet. Entsprechend eingeschränkt ist ihr Nutzen für das regionale Wassermanagement.

Das Projekt SaWaM zielt darauf, die Leistungsfähigkeit globaler hydrometeorologischer Datenprodukte zu untersuchen und durch neu entwickelte Methoden für die Entscheidungsunterstützung zu optimieren. Dabei geht es auch und besonders um die saisonale Vorhersage der wichtigsten Wasserhaushaltsgrößen für die nächsten sechs bis zwölf Monate „SaWaM liefert somit wichtige Informationen über die zukünftige Entwicklung der Wasserverfügbarkeit, vor allem für die Steuerung von Reservoiren und die bewässerte Landwirtschaft“, erklärt Projektkoordinator Harald Kunstmann.

Um die Praxisnähe der entwickelten Methoden zu gewährleisten, ist das Projektkonsortium eng mit lokalen Entscheidungsträgern, Forschungseinrichtungen und Unternehmen in den insgesamt fünf semi-ariden Zielregionen verzahnt. Die Anwendung im Detail ist für drei Entwicklungsregionen – Iran, Sudan und Brasilien – vorgesehen. Für zwei weitere Perspektivregionen – Ecuador und Westafrika – evaluieren die Wissenschaftler die generelle Anwendbarkeit der Verfahren sowie ausgewählte Teilaspekte.

Die verschiedenen Regionen stellen unterschiedliche Anforderungen. Deshalb definieren die Forscher im Dialog mit lokalen Entscheidungsträgern regionsspezifische Zielgrößen. Diese bilden auch die Grundlage für ein prototypisches Online-Portal, auf dem die Ergebnisse des Projekts bereitgestellt und visualisiert werden. Unter anderem liefert SaWaM Informationen über den Sedimenteintrag im Upper-Atbara-Staudamm/Sudan im Einzugsgebiet des Nil sowie eine verbesserte hydrometeorologische Datengrundlage für ein nachhaltiges Wassermanagement des Urmia-Sees im Iran.

An SaWaM beteiligt sind neben dem KIT die Universität Potsdam, die Universität Stuttgart, die Universität Marburg, das Helmholtz-Zentrum für Umweltforschung UFZ, das Helmholtz-Zentrum Potsdam – Deutsches GeoForschungsZentrum GFZ, die Technische Universität Berlin sowie die Lahmeyer International GmbH (Bad Vilbel) und die GAF AG (München).

Das Verbundprojekt „Saisonales Wasserressourcen-Management in Trockenregionen: Praxistransfer regionalisierter globaler Informationen“ (SaWaM)“ wird vom Bundesministerium für Bildung und Forschung (BMBF) im Rahmen der Fördermaßnahme „Globale Ressource Wasser“ (GROW) gefördert.

Details zum KIT-Zentrum Klima und Umwelt: http://www.klima-umwelt.kit.edu

Weiterer Kontakt:
Kosta Schinarakis, Themenscout, Tel.: +49 721 608 41956, Fax: +49 721 608 43658, E-Mail: schinarakis@kit.edu

Das Karlsruher Institut für Technologie (KIT) verbindet seine drei Kernaufgaben Forschung, Lehre und Innovation zu einer Mission. Mit rund 9 300 Mitarbeiterinnen und Mitarbeitern sowie 25 000 Studierenden ist das KIT eine der großen natur- und ingenieurwissenschaftlichen Forschungs- und Lehreinrichtungen Europas.

KIT – Die Forschungsuniversität in der Helmholtz-Gemeinschaft
Das KIT ist seit 2010 als familiengerechte Hochschule zertifiziert.
Diese Presseinformation ist im Internet abrufbar unter: www.kit.edu

Weitere Informationen:
http://www.klima-umwelt.kit.edu

Anhang
Besseres Wassermanagement in trockenen Gebieten
https://idw-online.de/de/attachment57442

Quelle: idw

(nach oben)


Neue DNA-Datenbank der Wasserinsekten verbessert Umweltüberwachung

Dr. Eva-Maria Natzer Öffentlichkeitsarbeit
Staatliche Naturwissenschaftliche Sammlungen Bayerns

Im Wasser lebende Insekten spielen eine große Rolle als Zeigerarten bei der Beurteilung der Gewässerqualiät von Bächen, Flüssen und Seen. Die Forscher der Zoologischen Staatssammlung München (SNSB-ZSM) veröffentlichten nun eine genetische Arten-Datenbank der Eintags-, Köcher- und Steinfliegen in Deutschland, die das Umweltmonitoring und die Beurteilung von Ökosystemen erleichtern soll.

Wasserinsekten sind vor allem bei der Bestimmung der Gewässergüte von Fließ- sowie Standgewässern von enormer Bedeutung. Viele Arten speziell der Eintags-, Köcher- und Steinfliegen sind so optimal an ihre Lebensräume angepasst, dass sie äußerst sensibel auf kleinste Veränderungen ihrer Umwelt durch beispielsweise Verschmutzung oder auch klimatische Abweichungen reagieren. Die Reaktion der Insektenfauna auf veränderte Standortbedingungen werden heute oft zum Zwecke des Umweltmonitoring genutzt. Ökologen können durch die Erfassung der vorkommenden Arten und der Artgemeinschaften innerhalb eines Biotops unter anderem Rückschlüsse auf Wasser- oder Bodenqualität ziehen und somit dessen ökologisches Gleichgewicht bewerten.

Leider gestaltet sich die Artbestimmung bei diesen sogenannten Bioindikator- oder Zeigerarten in der Praxis oft sehr schwierig. Vor allem die Larven sind selbst für Experten anhand ihrer äußeren Merkmale kaum zu unterscheiden. Artbestimmungen sind somit meist zeitaufwändig, teuer und oft fehlerhaft.

Forscher der Zoologischen Staatssammlung München geben Ökologen und Umweltgutachtern mit ihrer nun veröffentlichten Gen-Datenbank für Eintags-, Köcher- und Steinfliegen ein wichtiges Werkzeug an die Hand. Im Rahmen ihrer DNA-Barcoding Projekte haben die ZSM Wissenschaftler die genetischen Fingerabdrücke – sogenannte DNA-Barcodes – von über 2600 Exemplaren der Wasserinsekten aus den drei Gruppen erfasst (www.barcoding-zsm.de). Diese konnten insgesamt 363 verschiedenen Arten zugeordnet werden, was rund zwei Dritteln aller in Deutschland vorkommenden Arten entspricht. Diese genetische ‚Bibliothek des Lebens‘ dient nun als solide Referenz für zukünftige Artbestimmungen und gibt Ökologen eine schnellere und zuverlässigere Methode zur Identifikation von Indikatorarten an die Hand.

„Die neu von uns aufgestellte DNA-Datenbank beinhaltet alle für ökologische Fragestellungen relevanten Arten“, so Jérôme Morinière, taxonomischer Koordinator an der ZSM, „unser Ziel ist der weitere Ausbau unserer „Bibliothek des Lebens“ und deren Nutzbarkeit für Prozesse im Umwelt- oder Biodiversitätsmonitoring.“

Im Rahmen der Initiativen „Barcoding Fauna Bavarica“ (BFB) und „German Barcode of Life“ (GBOL) verfolgen die Münchener Forscher das ehrgeizige Ziel, alle bayerischen bzw. deutschen Tierarten genetisch zu erfassen und in einer Online-Bibliothek für Fachleute weltweit zur Verfügung zu stellen. Aus den Projekten sind bereits mehrere vollständige Checklisten für bayerische Insektengruppen hervorgegangen, wie z. B. für Schmetterlinge, Heuschrecken oder Wildbienen. Insgesamt konnten schon mehr als 20.000 Tierarten erfasst werden. Mehr Informationen zum Thema finden sich unter www.barcoding-zsm.de.

Publikation:
Morinière, J., Hendrich, L., Balke, M., Beermann, A. J., König, T., Hess, M., Koch, S., Müller, R., Leese, F., Hebert, P. D. N., Hausmann, A., Schubart, C. F. and Haszprunar, G. (2017), A DNA barcode library for Germany′s mayflies, stoneflies and caddisflies (Ephemeroptera, Plecoptera & Trichoptera). Mol Ecol Resour. Accepted Author Manuscript. doi:10.1111/1755-0998.12683

Kontakt:
Jérôme Morinière
Zoologische Staatssammlung München (SNSB-ZSM)
Münchhausenstraße 21
81247 München
Tel.: 089 8107 121
E-Mail: moriniere@zsm.mwn.de

Weitere Informationen:
http://www.barcoding-zsm.de Barcoding Projekte an der ZSM
http://www.snsb.de Staatliche Naturwissenschaftliche Sammlungen Bayerns
http://www.zsm.mwn.de Zoologische Staatssammlung München

Quelle: idw

(nach oben)


Sonne, Outdoor-Working: Krebsgefahr?

Dr. Thomas Nesseler Presse- und Öffentlichkeitsarbeit
Deutsche Gesellschaft für Arbeitsmedizin und Umweltmedizin e.V.

Der Sommer kommt. „Raus ins Freie“ ist der erste Impuls. Doch Vorsicht: Zu viel UV-Strahlung erhöht das Risiko einer Hautkrebserkrankung. Besonders gefährdet ist die Berufsgruppe der Arbeitnehmer, die im Freien arbeiten. Der Präsident der Deutschen Gesellschaft für Arbeitsmedizin und Umweltmedizin (DGAUM), Professor Hans Drexler, setzt sich in seiner aktuellen Stellungnahme eindeutig für die arbeitsmedizinische Vorsorge sowie eine erfolgreiche und nachhaltige Prävention von Hautkrebs am Arbeitsplatz ein.

Hautkrebs als Berufskrankheit anerkannt
Im Januar 2015 wurde der Hautkrebs als Berufskrankheit in die Berufskrankheiten-Verordnung (BKV) aufgenommen. Dies war ein erfolgreicher Schritt zur Verbesserung der arbeitsmedizinischen Vorsorge für die Beschäftigten. Der Zentralverband des Deutschen Baugewerbes (ZDB) stellte jedoch kürzlich in einer Stellungnahme die Notwendigkeit einer Hautkrebsvorsorge für Outdoor-Worker in Frage. Obwohl die Statistiken ganz klar belegen, dass die Beschäftigten im Freien einer täglichen Bestrahlung von bis zu 5 SED/d ausgesetzt sind. Als Grenzwert gilt 1 SED/d. „In Deutschland sind bei keiner krebserzeugenden Wirkung am Arbeitsplatz derart hohe Risiken zulässig. Hinzu kommt, dass das Risiko für Hautkrebs mit Abstand das größte Krebsrisiko ist“, erklärt Professor Drexler.

Die Arbeitgeber in der Pflicht
Die Haut der Beschäftigten, die im Freien arbeiten, wird einer intensiven Belastung durch natürliche UV-Strahlung ausgesetzt. Laut der Verordnung zur arbeitsmedizinischen Vorsorge (ArbMedVV) hat der Arbeitgeber auf der Grundlage der Gefährdungsbeurteilung für eine angemessene arbeitsmedizinische Vorsorge der bei ihm beschäftigten Arbeitnehmerinnen und Arbeitnehmer zu sorgen. Der Präsident der DGAUM sieht die Vorsorge von Hautkrebs daher als unverzichtbares Präventionsinstrument an: „Das Plattenepithelkarzinom hat eine hohe Erkrankungsprävalenz und das Risiko zu erkranken ist für Outdoorworker deutlich erhöht“. Dabei haben Arbeitsmediziner gute Möglichkeiten, Hautkrebs früh zu erkennen. Die Vorsorge verfügt über ein gutes präventives Potential, sowohl technisch als auch organisatorisch, betont Drexler.

Die DGAUM setzt sich für die Beschäftigten ein
Die Deutschen Gesellschaft für Arbeitsmedizin und Umweltmedizin (DGAUM) steht nach Aussage ihres Präsidenten uneingeschränkt zum Konzept der arbeitsmedizinischen Vorsorge sowie den Bemühungen, die Gesundheit der Beschäftigten durch eine nachhaltige Vorsorge und Prävention zu schützen.

Die komplette Stellungnahme ist auf der DGAUM-Homepage zu lesen: http://www.dgaum.de/stellungnahmen-und-publikationen/

Kontakt bei Rückfragen:
Prof. Dr. med. Hans Drexler
Institut und Poliklinik für Arbeits-, Sozial- und
Umweltmedizin der Universität Erlangen-Nürnberg
Schillerstraße 25/29
91054 Erlangen
E-Mail: Hans.Drexler@fau.de

Über DGAUM:
Die DGAUM wurde 1962 gegründet und ist eine gemeinnützige, wissenschaftlich-medizinische Fachgesellschaft der Arbeitsmedizin und der klinisch orientierten Umweltmedizin. Ihr gehören heute über 1000 Mitglieder an, die auf dem Gebiet der Arbeitsmedizin und Umweltmedizin arbeiten, vor allem Ärztinnen und Ärzte, aber auch Angehörige anderer Berufsgruppen wie etwa Natur- und Sozialwissenschaftlerinnen und -wissenschaftler. Die Mitglieder der Fachgesellschaft engagieren sich nicht nur in Wissenschaft und Forschung, um so bereits bestehende Konzepte für die Prävention, die Diagnostik und Therapie kontinuierlich zu verbessern, sondern sie übernehmen die ärztliche und medizinische Beratung von Arbeitgebern und Arbeitnehmern an der Schnittstelle von Individuum und Unternehmen. Darüber hinaus beraten die Mitglieder der DGAUM alle Akteure, die ihren Beitrag zu der medizinischen Versorgung leisten und auf Fachwissen aus der betrieblichen Gesundheitsförderung und Prävention, der arbeits- und umweltbezogenen Diagnostik und Therapie, der Beschäftigungsfähigkeit fördernden Rehabilitation sowie aus dem versicherungsmedizinischen Kontext angewiesen sind.

Weitere Informationen unter: http://www.dgaum.de

Ihre Ansprechpartner Presse DGAUM
Mariya Ahner, M.A.
Telefon 089/330 396-0
Fax 330 396-13
E-Mail: mahner@dgaum.de
http://www.dgaum.de

Quelle: idw

(nach oben)


Biofilme: Bakterien schützen sich durch Lotuseffekt

Dr. Ulrich Marsch Corporate Communications Center
Technische Universität München

Plaque auf den Zähnen oder der bräunlich-zähe Schleim in Abflussrohren sind zwei bekannte Beispiele für bakterielle Biofilme. Solche Beläge von den Oberflächen zu entfernen, ist oft sehr schwierig, unter anderem weil sie sehr stark wasserabweisende Eigenschaften haben können. Ein Team von Wissenschaftlern der Technischen Universität München (TUM) konnte nun zeigen, wie solche Biofilme ihre Oberfläche anpassen, um Wasser abzuweisen und dabei Blättern ähneln.

Bakterien umgeben sich mit einer dichten Hülle von selbst hergestellten chemischen Bausteinen (Polymere), um sich vor Umwelteinflüssen zu schützen. Diese Kombination von Bakterien und dem von ihnen produzierten Schleim nennt man Biofilm. Mikroorganismen, die diese Oberflächenbeläge bilden, sind äußerst trickreich, um sich vor fließendem Wasser – und damit vor dem Ablösen – zu schützen. Nicht nur in Abflussrohren, sondern auch an medizinischen Implantaten oder Schläuchen kann das zum großen Problem werden.

Prof. Oliver Lieleg, Professor für Biomechanik, erforscht mit seiner Arbeitsgruppe „Biologische Hydrogele“ an der Munich School of BioEngineering die physikalischen Prinzipien, die bakterielle Biofilme so widerstandsfähig machen. In ihrer aktuellen Studie im Journal NPJ Biofilms and Microbiomes haben sie die Oberfläche von Biofilmen mit konfokalen Reflexions-Lichtmikroskopen genau vermessen.

Nahrungsangebot bestimmt die Oberfläche der Biofilme

„Unsere erste Erkenntnis war: Biofilm ist nicht gleich Biofilm – auch wenn er vom selben Bakterium erzeugt wird“, sagt Oliver Lieleg. Die Forscher stellten fest, dass das Bodenbakterium Bacillus subtilis Biofilme mit ganz unterschiedlichen Eigenschaften herstellen kann: Einmal breiten sich Wassertropfen fast sofort auf der Oberfläche aus, ein anderes Mal rollen die Wassertropfen von der Oberfläche herunter und ein drittes Mal bleiben die Wassertropfen in kugeliger Form auf der Oberfläche haften – selbst wenn diese senkrecht gestellt wird.

Wie die Wissenschaftler zeigen konnten, nutzen die Mikroorganismen dabei Effekte, die aus der Pflanzenwelt bekannt sind: das wasserabweisende Verhalten der Blätter von Lotuspflanzen und Rosen. Lieleg und sein Team konnten nachweisen, dass die Oberflächenstruktur in der Tat stark verwandt zu denen der Pflanzenblätter ist. Genau wie die Blätter weist auch der Biofilm rauhe Strukturen sowohl im Mikrometer- als auch im Nanometerbereich auf, die dazu führen, dass die Benetzung mit Wasser erschwert wird.

Ein wesentlicher Unterschied, der sowohl bei den Pflanzenblättern als auch bei den Biofilmen auftritt: Beim Lotus-Effekt werden kleine Luftbläschen zwischen dem Wassertropfen und der Oberfläche des Blattes eingeschlossen, beim Rosenblatt-Effekt dagegen nicht. Deshalb perlen Wassertropfen von Lotusblättern ab, haften aber an Rosenblättern. Ob sich ein Biofilm eher wie ein Lotus- oder wie ein Rosenblatt verhält, hängt von den Nährstoffen ab, die die Bakterien beim Wachstum vorfinden, da dies die genaue Oberflächenstruktur des Biofilms bestimmt.

Ein neuer Ansatzpunkt zur Bekämpfung von Biofilmen
Bakterien in Biofilmen lassen sich oft nur schwer mit Antibiotika und anderen Chemikalien bekämpfen. Teilweise ist dafür die wachsende Zahl bakterieller Resistenzen verantwortlich. Die Forscher schlagen nun vor, auch die wasserabweisenden Eigenschaften der Biofilme anzugreifen: „Wenn ein antibakterieller Stoff die Oberfläche eines Biofilms gar nicht erreicht, weil er abperlt, dann kann er auch nicht wirken. Wir müssen deshalb diese wasserabweisende Oberflächentextur verändern“, erklärt Oliver Lieleg. „Das wäre ein neuer Ansatzpunkt, um Biofilme von Oberflächen wie Rohren, Kathetern oder infizierten Wunden zu entfernen.“

Das Projekt wurde im Rahmen des SFB863 „Forces in Biomolecular Systems“ durchgeführt.

Originalpublikation
Werb, M., Falcón Garcia, C., Bach, N., Grumbein, S., Sieber, S., Opitz, M. and O. Lieleg, „Surface topology affects wetting behavior of Bacillus subtilis biofilms“, NPJ Biofilms and Microbiomes, DOI: 10.1038/s41522-017-0018-1 (2017)
https://www.nature.com/articles/s41522-017-0018-1

Kontakt
Prof. Dr. Oliver Lieleg
Technische Universität München
Professur für Biomechanik / Fakultät für Maschinenwesen und Munich School of BioEngineering
Tel: +49 89 289 10952
E-Mail: oliver.lieleg@tum.de

Mehr Informationen
Professorenprofil Prof. Dr. Oliver Lieleg: http://www.professoren.tum.de/lieleg-oliver/

Arbeitsgruppe „Biologische Hydrogele“: http://www.imetum.tum.de/arbeitsgruppen/biologische-hydrogele

Weitere Informationen:

https://www.tum.de/die-tum/aktuelles/pressemitteilungen/detail/article/33914/ – Diese Meldung im Web
https://www.tum.de/die-tum/aktuelles/ – Pressemeldungen der Technischen Universität München

Quelle: idw

(nach oben)


Erythrit – Forscher finden Früherkennungszeichen für Fettleibigkeit

Stephan Nachtigall Presse und Kommunikation
Technische Universität Braunschweig

Ein internationales Forschungsteam, an dem Wissenschaftler der Technischen Universität Braunschweig beteiligt sind, hat eine chemische Substanz identifiziert, die als Früherkennungszeichen für eine einsetzende Fettleibigkeit genutzt werden kann. Solch ein Biomarker für Adipositas war bisher nicht bekannt. Es handelt sich um den Zuckeralkohol Erythrit. Die Forscher um Prof. Dr. Karsten Hiller, Leiter der Abteilung Bioinformatik und Biochemie am Braunschweiger Zentrum für Systembiologie (BRICS) der TU Braunschweig konnten nachweisen, dass Menschen, die stark an Gewicht zunehmen und Gefahr laufen, fettleibig zu werden, Erythrit in erhöhten Konzentrationen im Blut haben.

Erythrit dient als Süßstoff etwa in Limonaden und gilt als besonders gut verträglich, weil es – so die gängige Annahme – vom menschlichen Stoffwechsel nicht verarbeitet, sondern unverändert ausgeschieden wird. Das Team konnte zeigen, dass diese Annahme falsch ist: Erythrit ist durchaus Bestandteil des Stoffwechsels – und wird vom Körper sogar selbst hergestellt. Seine Ergebnisse veröffentlicht das Konsortium, an dem auch das Luxembourg Centre for Systems Biomedicine (LCSB) der Universität Luxemburg und die US-amerikanische Cornell-Universität beteiligt sind, heute in dem Fachjournal PNAS.

Grundlage für die Forschungsarbeit war eine Beobachtung, die Ernährungswissenschaftler schon seit längerem machen: „Drei Viertel aller Studienanfänger in den USA neigen dazu, im ersten Semester an Gewicht zuzulegen“, sagt Prof. Dr. Patricia Ann Cassano vom Bereich Ernährungswissenschaften an der Cornell-Universität und Initiatorin der Studie: „Dies dürfte damit zusammenhängen, dass sie von zuhause ausziehen, sich nun selbst versorgen müssen und ihre Ernährung umstellen.“ Bisher war kein Stoffwechselprodukt bekannt, das als Früherkennungszeichen oder Biomarker für diese Gewichtszunahme – die unter Umständen zu Fettleibigkeit führt – dienen kann. Cassano und ihr Team wollten das ändern, denn gerade im frühen Erwachsenenalter bestehen noch Chancen, einer einsetzenden Adipositas entgegenzuwirken. Die Wissenschaftler untersuchten deshalb in einer repräsentativen Gruppe von Studienanfängern über ein Jahr hinweg den Gesundheitszustand und nahmen bei den Probanden Blutproben.

Dann baten sie Karsten Hiller, der damals am LCSB tätig war, und sein Team, die Blutproben zu untersuchen. Ziel war es, herauszufinden, welche Stoffwechselprodukte sich darin befanden und wie sich deren Zusammensetzung im Lauf des Untersuchungszeitraums veränderte. Hiller gilt für solche Untersuchungen als einer der führenden Experten: „Wir haben Techniken entwickelt, mit denen wir genau nachverfolgen können, wie bestimmte Substanzen im Körper abgebaut werden und welche Produkte daraus entstehen. Auch bisher unbekannte Stoffwechselprodukte können wir so bestimmen.“ Die Forscher fanden heraus, dass bei Studienteilnehmern, die gerade stark zunehmen, die Substanz Erythrit verstärkt im Stoffwechsel auftaucht.

Hillers Team stellte zudem fest, dass der Süßstoff nicht nur über die Nahrung in den Körper gelangt, sondern auch selbst von ihm hergestellt wird. „Dazu haben wir mit markiertem Zucker gearbeitet“, sagt Dr. Jean-Pierre Trezzi, der am LCSB maßgeblich an den Untersuchungen beteiligt war. In Glukose haben die Forscher bestimmte Kohlenstoffatome durch solche Kohlenstoffatome ersetzt, die einen Kernbaustein mehr enthalten, als das in der Natur meistens der Fall ist. Trezzi: „Dieses als C13 bezeichnete Kohlenstoff-Isotop ist stabil, hat keine Auswirkungen auf Lebewesen und kommt in der Natur sehr selten vor. Wenn wir es künstlich in Glukose einbauen, können wir genau verfolgen, welchen Weg die Glukose im Körper nimmt.“

Das Ergebnis war für die Forscher überraschend: Nehmen Probanden eine markierte Glukoselösung ein, finden sich die C13-Kohlenstoffatome nach einiger Zeit auch im Erythrit. „Das ist der Beweis dafür, dass der Körper den Zuckeralkohol auch selbst herstellen kann“, sagt Karsten Hiller: „Erythrit ist keine Substanz, die wir einfach wieder ausscheiden. Sie hat eine Wirkung auf unseren Stoffwechsel. Das steht im Gegensatz zu allen bisherigen Annahmen.“

Eine Aussage darüber, welche Beziehung zwischen einer erhöhten Erythrit-Konzentration im Blut und einer einsetzenden Fettleibigkeit besteht, können die Forscher mit ihren bisherigen Ergebnissen allerdings noch nicht machen, so Hiller: „Das ist Gegenstand der nächsten Untersuchungen. Wir werden mit der Isotopenmethode nun die Stoffwechselwege rund um das Erythrit genau ausleuchten, untersuchen, wo es herkommt und wie es aus dem Körper verschwindet – und hoffen dabei Hinweise zu bekommen, welche Rolle dieser Zuckeralkohol bei der Gewichtszunahme spielt.“

Zur Person und zur Abteilung Bioinformatik und Biochemie
Professor Karsten Hiller wurde im Juli 2016 an die TU Braunschweig berufen und leitet dort seither die Abteilung für Bioinformatik und Biochemie. Zudem gehört er der Abteilung für Bioinformatik der Infektionsforschung des Helmholtz Zentrums für Infektionsforschung (HZI) an. Zuvor war er Professor für Zell-Metabolismus an der Universität Luxembourg und leitete dort für sechs Jahre die Arbeitsgruppe Metabolomics. Prof. Hiller und sein Team untersuchen die Rolle des Stoffwechsels von Zellen des Immunsystems und des Gehirns im Zusammenhang mit Krankheiten. Zudem untersuchen sie, wie sich der Stoffwechsel der humanen Wirtszellen während einer Infektion verändert. Die Gruppe hat auf diesem Weg zum Beispiel herausgefunden, dass menschliche Immunzellen eine bisher im humanen Stoffwechsel unbekannte Substanz herstellen, die eine antibiotische Wirkung auf Bakterien entfaltet. Mit Hilfe von Methoden aus der Biochemie und der Informatik sollen weitere Drehpunkte im Stoffwechsel der Immunzellen identifiziert werden, die in Zukunft für Therapie-Möglichkeiten ausgenutzt werden können.

Kontakt
Prof. Dr. Karsten Hiller
Technische Universität Braunschweig
Institut für Biochemie, Biotechnologie und Bioinformatik (IB³)
Abteilung Bioinformatik und Biochemie
Rebenring 56
38106 Braunschweig
Tel.: 0531 391-55201
E-Mail: karsten.hiller@tu-braunschweig.de
http://bibc.tu-braunschweig.de/bioinf

Weitere Informationen:
https://magazin.tu-braunschweig.de/pi-post/erythrit-der-suessstoff-den-der-koerp…
https://www.eurekalert.org/jrnls/pnas/16-20079.htm

Quelle: idw

(nach oben)


Je gerechter, desto grüner

Rudolf-Werner Dreier Presse- und Öffentlichkeitsarbeit
Albert-Ludwigs-Universität Freiburg im Breisgau

Forscher finden Zusammenhang zwischen der Ungleichheit von Einkommen und dem ökonomischen Wert der Natur

Forscher der Universitäten Freiburg, Kiel und Berlin haben herausgefunden, dass der ökonomische Wert der Natur für eine Gesellschaft unter anderem von der Einkommensungleichheit in der Gesellschaft bestimmt wird. „Soziale Gerechtigkeit und Naturschutz stehen nicht unbedingt in einem Konflikt zueinander, anders als häufig behauptet wird. Vielmehr können Maßnahmen für mehr soziale Gerechtigkeit in einer gesellschaftlichen und gesamtwirtschaftlichen Betrachtung auch den Naturschutz stärken“, betont Stefan Baumgärtner, Professor für Umweltökonomie und Ressourcenmanagement an der Universität Freiburg und Leiter der Studie. Die Wissenschaftler haben ihre Theorie im „Journal of Environmental Economics and Management“, der führenden Fachzeitschrift der Umweltökonomie, vorgestellt und anhand eines umfangreichen empirischen Datensatzes zu Naturbewertungen in 22 Ländern weltweit quantifiziert.

Natürliche Ökosysteme sind für Menschen aus vielen Gründen nützlich. Sie stellen Wasser, Nahrungsmittel, Baustoffe, Energie und Medikamente bereit; sie regulieren das Klima und die Ausbreitung von Krankheiten; und sie haben wichtige kulturelle Bedeutung. Aus all diesen Gründen hat Natur einen ökonomischen Wert für Menschen. „Auch wenn dieser Wert nicht offensichtlich ist, da die meisten und wichtigsten Leistungen der Natur nicht auf Märkten gehandelt werden, sollte er bei Entscheidungen über den Umgang mit Natur, zum Beispiel bei der Planung neuer Verkehrswege, Wohn- oder Gewerbegebiete, berücksichtigt werden“, betont Baumgärtner.
Dass der ökonomische Wert der Natur für eine Gesellschaft umso höher ist, je höher das durchschnittliche Einkommen in der Gesellschaft ist, war schon länger bekannt. Das liegt daran, dass bei der ökonomischen Naturbewertung die Leistungen der Natur mit dem Nutzen von Konsumgütern verglichen werden. Wer über ein höheres Einkommen verfügt, kann mehr konsumieren und wird damit normalerweise auch der Natur einen höheren Wert zusprechen.

Unklar war bislang, welchen Einfluss die Ungleichheit der Einkommensverteilung auf den ökonomischen Wert der Natur hat. Diese Frage ist nun beantwortet: Wenn die Leistungen der Natur für das menschliche Wohlbefinden gut durch von Menschen produzierte Güter und Dienstleistungen ersetzt werden können, ist der ökonomische Wert der Natur für eine Gesellschaft umso höher, je gleichmäßiger die Einkommen in dieser Gesellschaft verteilt sind. In diesem Fall gilt umgekehrt auch: Je ungleicher die Einkommen verteilt sind, desto geringer ist der ökonomische Wert der Natur für die Gesellschaft. Die empirischen Daten deuten darauf hin, dass die Bedingung der guten Ersetzbarkeit für viele Leistungen der Natur auf dem derzeitigen Konsumniveau erfüllt ist.

„Dieses Ergebnis ist wichtig, weil es einen klaren Zusammenhang zwischen sozialer Gerechtigkeit und Naturschutz herstellt“, sagt Baumgärtner. Einkommensungleichheit führe nach diesem Ergebnis nämlich zu einer Unterbewertung von Natur. Eine Verringerung von Einkommensungleichheit hätte demnach eine Höherbewertung von Natur zur Folge. Damit würde die Natur in Entscheidungen über wirtschaftliche Entwicklungsmaßnahmen auch einen höheren Stellenwert erhalten.

Originalveröffentlichung
S. Baumgärtner, M.A. Drupp, J.N. Meya, J.M. Munz and M.F. Quaas (2017), Income inequality and willingness to pay for environmental public goods, Journal of Environmental Economics and Management 85: 35-61.
http://doi.org/10.1016/j.jeem.2017.04.005

Kontakt:
Prof. Dr. Stefan Baumgärtner
Fakultät für Umwelt und Natürliche Ressourcen
Albert-Ludwigs-Universität Freiburg
Tel.: 0761/203-3753
E-Mail: stefan.baumgaertner@ere.uni-freiburg.de

Weitere Informationen:
https://www.pr.uni-freiburg.de/pm/2017/je-gerechter-desto-gruener

Quelle: idw

(nach oben)


Energiewende: intelligent, vernetzt, nachhaltig

Monika Landgraf Strategische Entwicklung und Kommunikation – Gesamtkommunikation
Karlsruher Institut für Technologie

Der Umbau des Energiesystems hin zu mehr Nachhaltigkeit benötigt viele Bausteine. Etwa smarte Solarspeicher, intelligent verknüpfte Energienetze und strombasierte synthetische Kraftstoffe (e-Fuels). Das Karlsruher Institut für Technologie (KIT) erforscht diese Technologien und stellt auf den Messen Intersolar und ees Europe (31. Mai bis 02. Juni 2017, München) aktuelle Ergebnisse und Forschungsausblicke vor. Themen sind die Helmholtz-Infrastrukturplattform „Energy Lab 2.0″, das Projekt „SafetyFirst“ für effiziente Heimspeicher und Betriebserfahrungen aus Deutschlands größtem Solarstrom-Speicherpark für die Forschung am KIT (Halle B1, Stand B1.154 und Sonderschau „Smart Renewable Energy“).

„SafetyFirst“ und Solarstromspeicherpark
Je günstiger Heimspeicher werden, desto mehr davon werden im privaten Haushalt eingesetzt. Die Technologie steht an der Schwelle zum Massenmarkt. Doch sind die Systeme auch so gut wie von den Herstellern versprochen wird? Denn nicht nur der Anschaffungspreis, sondern auch die Qualität, also die Leistungsfähigkeit im Betrieb, haben einen erheblichen Einfluss auf die laufenden Speicherkosten. „Im Projekt „SafetyFirst“ vermessen wir die Performance von zwanzig kommerziellen Speichersystemen“, erklärt Projektleiterin Nina Munzke vom KIT.

Für die Performance spielen neben dem Wirkungsgrad der Systemkomponenten auch die Standby-Verbräuche, die Reaktionsgeschwindigkeit des Speichers auf Änderungen in der Last und Erzeugung sowie die Intelligenz der Gesamtsystemsteuerung eine große Rolle. „Die Ergebnisse der Messungen zeigen: es gibt noch erhebliche Unterschiede zwischen den Speichern am Markt. Für eine bessere Vergleichbarkeit haben wir eine Checkliste aufgestellt, in der die wichtigsten Kriterien und die KIT-Messergebnisse als Benchmark aufgeführt sind. Damit sollen auch Kunden und Handwerker die richtigen Fragen an die Speicherhersteller und -lieferanten stellen können.“ Die Erfahrungen aus dem Projekt „SafetyFirst“ sind auch in den „Effizienzleitfaden für PV-Speichersysteme“ des Bundesverbands für Energiespeicher (BVES) und des Bundesverbands Solarwirtschaft (BSW Solar) eingeflossen. Dieser wurde im März veröffentlicht und stellt ein einheitliches, standardisiertes Verfahren zur Messung der Energieeffizienz von PV-Speichersystemen vor.

Neben der Qualität werden die Speichersysteme im Rahmen von „SafetyFirst“ auch hinsichtlich Transport- und funktionaler Sicherheit sowie Netzdienlichkeit untersucht. Dadurch werden Entwicklungsempfehlungen möglich, die der Gesamtheit der Netz- und Speicherbetreiber sowie den Stromkunden zugute kommen. Das Projekt „Safety First“ wird vom Bundesministerium für Wirtschaft und Energie mit etwa 4 Mio. Euro gefördert und vom Karlsruher Institut für Technologie koordiniert. Projektpartner sind das Fraunhofer-Institut für Solare Energiesysteme in Freiburg und das Zentrum für Sonnenenergie- und Wasserstoffforschung in Ulm.

Auf der Intersolar und ees Europe 2017 werden Lehren aus den Vergleichstests zu Performance, Sicherheit und Netzdienlichkeit vorgestellt. Daneben zeigen aktuelle Ergebnisse aus dem Solarstrom-Speicherpark am KIT, wie man die Eigenstromversorgung maximiert.

Weitere Informationen und Checkliste unter:
http://www.competence-e.kit.edu/eeseurope2017

Sonderschau „Smart Renewable Energy“: Von Einzellösungen zum intelligenten integrativen System
Die Energiewende ist eine große Herausforderung: Es gilt immer mehr elektrische Energie aus den fluktuierenden erneuerbaren Quellen Sonne und Wind effektiv und bezahlbar zu nutzen und dabei gleichzeitig die erforderliche Netzstabilität und Versorgungssicherheit zu gewährleisten. „Um die Energiewende im Rahmen der gesetzten Zeithorizonte erfolgreich zu gestalten, müssen wir bereits jetzt das gesamte Energiesystem betrachten und in viel größerem Ausmaß als heute effiziente Verknüpfungen zwischen den verschiedenen Energieträgern schaffen“, erklärt Roland Dittmeyer vom KIT, Projektleiter des „Energy Lab 2.0″. „Ich bin überzeugt, dass wir dazu sowohl vorhandene Technologien beherzt anwenden als auch neue bis hin zur Marktreife entwickeln müssen. Mit dem „Energy Lab 2.0″ können wir diese Entwicklung in idealer Weise unterstützen.“

Das „Energy Lab 2.0″ als „Reallabor“ und Simulationsplattform macht es möglich, neue Ansätze zur Integration unterschiedlichster Technologien ins Energiesystem zu erproben. Dafür werden in Europa erstmals größere Versuchsanlagen miteinander vernetzt; etwa solche zur Erzeugung erneuerbarer elektrischer Energie, zur Speicherung und Umwandlung in Wärme, synthetisches Erdgas und schadstoffminimierte synthetische Kraftstoffe (e-Fuels) sowie zur brennstoff- und lastflexiblen Stromerzeugung aus leicht speicherbaren chemischen Energieträgern. Es werden Entwürfe für ein zellulares, intelligentes Gesamtsystem zur Energieversorgung abgeleitet und umfassend untersucht. Neben der Verknüpfung der elektrischen, thermischen und chemischen Energieströme und der Speicherintegration liegt dabei ein Hauptaugenmerk auf der Entwicklung und Erprobung neuer Informations- und Kommunikationstechnologien zur Steuerung und Regelung dieser intelligenten Energienetze. Projektpartner im „Energy Lab 2.0″ sind die Forschungszentren der Helmholtz-Gemeinschaft Karlsruher Institut für Technologie (KIT), Deutsches Zentrum für Luft- und Raumfahrt (DLR) und Forschungszentrum Jülich (FZJ). Das Vorhaben wird gefördert vom Ministerium für Wissenschaft, Forschung und Kunst Baden-Württemberg sowie von den Bundesministerien für Bildung und Forschung (BMBF) und Wirtschaft und Energie (BMWi).

Weitere Informationen unter:
http://www.elab2.kit.edu/
http://www.intersolar.de/de/programm/sonderveranstaltungen/sonderschau-smart-ren…

Weiterer Kontakt:
Kosta Schinarakis, Themenscout, Tel.: +49 721 608 41956, Fax: +49 721 608 43658, E-Mail: schinarakis@kit.edu

Details zum KIT-Zentrum Energie: http://www.energie.kit.edu

Das Karlsruher Institut für Technologie (KIT) verbindet seine drei Kernaufgaben Forschung, Lehre und Innovation zu einer Mission. Mit rund 9 300 Mitarbeiterinnen und Mitarbeitern sowie 25 000 Studierenden ist das KIT eine der großen natur- und ingenieurwissenschaftlichen Forschungs- und Lehreinrichtungen Europas.

KIT – Die Forschungsuniversität in der Helmholtz-Gemeinschaft

Das KIT ist seit 2010 als familiengerechte Hochschule zertifiziert.

Diese Presseinformation ist im Internet abrufbar unter: http://www.kit.edu

Weitere Informationen:
http://www.competence-e.kit.edu/eeseurope2017
http://www.elab2.kit.edu/
http://www.intersolar.de/de/programm/sonderveranstaltungen/sonderschau-smart-ren…
http://www.intersolar.de/de/conference/session/smart-renewable-energy-forum-besc…
http://www.energie.kit.edu

Anhang

Energiewende: intelligent, vernetzt, nachhaltig
https://idw-online.de/de/attachmentdata57480.pdf

Quelle: idw

(nach oben)


Deutsche Hochdruckliga e.V. (DHL): Bluthochdruck bei Frauen häufig unterschätzt

Stephanie Priester Geschäftsstelle
Deutsche Hochdruckliga

Hypertonie und Herzinfarkt galten früher als typisch männliche Leiden: Der Patient – so das landläufige Bild – hat sich seinen Hochdruck durch beruflichen Stress quasi „erarbeitet“ und ihm dann durch Alkohol und Nikotin noch Vorschub geleistet. Bei Frauen wurde eine Hypertonie oft gar nicht in Erwägung gezogen oder zu spät erkannt. Dabei sind Frauen mit steigendem Alter sogar stärker gefährdet als Männer. Am 15. Mai diskutieren Experten im Rahmen einer Pressekonferenz der Deutschen Hochdruckliga e.V. DHL® – Deutsche Gesellschaft für Hypertonie und Prävention in Berlin, welche besonderen geschlechtsspezifischen Herausforderungen es bei Blutdruckpatienten gibt.

„Ab 65 Jahren wird Bluthochdruck häufiger bei Frauen diagnostiziert als bei Männern“, sagt Dr. med. Ute Seeland vom Institut für Geschlechterforschung in der Medizin an der Berliner Charité im Vorfeld der Pressekonferenz. Mittlerweile sind sogar einige Risikofaktoren bekannt, die als typisch weiblich gelten müssen. So steigt das Hypertonie-Risiko auf das Zwei- bis Dreifache an, wenn Frauen die Pille einnehmen und zusätzlich beispielsweise übergewichtig sind. Auch eine Schwangerschaftshypertonie oder eine (Prä-)Eklampsie steigern das Risiko, binnen zehn Jahren einen manifesten Bluthochdruck zu entwickeln. „Die betroffenen Frauen müssen dringend als Risikogruppe wahrgenommen werden. Mit Aufklärungskampagnen sollten diese gezielt angesprochen werden und an Untersuchungen zur kardiovaskulären Risikoeinschätzung teilnehmen“, fordert Dr. Seeland. Die bisherige Aufklärungsarbeit – etwa zum Rauchen – sei vor allem auf Männer abgestimmt gewesen.

Ein Grund dafür, dass Frauen lange Zeit als Zielgruppe vernachlässigt wurden, ist der durch weibliche Östrogene vermittelte Gefäß-Schutz. In mittleren Jahren erkranken Frauen daher tatsächlich seltener an Bluthochdruck als Männer. Doch solle die hormonelle Schutzwirkung nicht überschätzt werden, mahnt Dr. Seeland. „Wenn 77 Prozent der Hypertonie-Patientinnen die Menopause bereits hinter sich haben, bedeutet das zugleich, dass 23 Prozent noch vor der Menopause betroffen sind“, sagt die Charité-Ärztin und verweist auf die Ergebnisse der Berliner BEFRI-Studie. Für die Studie haben sie und ihre Kollegen über 1000 Berliner Frauen zwischen 25 und 75 Jahren befragt und untersucht. Dabei zeigte sich auch, dass 45 Prozent der weiblichen Allgemeinbevölkerung Störungen der arteriellen Gefäßfunktion und/oder eine erhöhte Steifigkeit der Gefäßwände aufweisen1) 2). Solche Veränderungen können einer Hypertonie um Jahre vorausgehen und bleiben oft unentdeckt. „Die Störungen sind oft noch reversibel, sodass gesundheitsfördernde Maßnahmen hier sehr gut greifen können“, sagt die Expertin. Dazu zählte etwa ein Rauchstopp, ausreichend Bewegung, eine salzarme Ernährung (nach Empfehlung der DHL 5 – 6 g Kochsalz pro Tag) und die Vermeidung von Übergewicht. Wie die Internistin betont, stehen heute mit der Messung des sogenannten Augmentationsindex und der Pulswellengeschwindigkeit Methoden zur Verfügung, mit denen die Elastizität der Gefäßwand bereits früh diagnostiziert werden kann. Eine solche Untersuchung solle Männern und Frauen bereits ab 40 Jahren angeboten werden, wenn sie zusätzliche Risikofaktoren aufweisen.

„Frauen leben im Durchschnitt länger als Männer, weshalb die Phase der Folgekrankheiten auf die Lebenszeit gesehen bei Frauen meistens länger ist, als bei Männern“, erklärt Dr. Seeland. „Das bedeutet aus gendermedizinischer Sicht, dass neben den berechtigten sogenannten „harten Endpunkten“ wie dem kardiovaskulären Tod oder der Gesamtmortalität auch die Lebensqualität als ein weiterer Endpunkt in den Studien seine Berechtigung hat und in Zukunft stärker als Outcome Variable mitberücksichtigt werden sollte.“Einschränkungen der Lebensqualität stärker zu berücksichtigen, sei ein wichtiger Schritt hin zur Entwicklung einer gendergerechten Therapie.

Bei der Diagnose „Bluthochdruck“ handelt es sich um eine Erkrankung, die konsequent und langfristig behandelt werden muss – manchmal ein Leben lang. Rund ein Viertel der Menschen mit Bluthochdruck werden momentan gar nicht behandelt und die andere Hälfte nicht ausreichend. „Eine wichtige Ursache für eine nichtausreichende Behandlung ist die Nonadhärenz, also das Nichteinhalten und Nichtumsetzen von Therapieempfehlungen“, sagt Professor Dr. med. Bernhard Krämer, Vorstandsvorsitzender der DHL®. Studien belegen, dass Blutdruckbehandlungen dann erfolgreich sind, wenn Arzt und Patient die Therapieentscheidungen gemeinsam im Dialog treffen. Wie die Therapietreue des Patienten im Alltag gelingen kann, diskutieren Experten im Rahmen einer Pressekonferenz der Deutschen Hochdruckliga anlässlich des Welt Hypertonie Tages am 15. Mai 2017 in Berlin. In diesem Rahmen spricht Dr. Seeland auch darüber, warum sich die Therapie gendergerecht weiterentwickeln muss und welche besonderen Herausforderungen Bluthochdruck bei Frauen mit sich bringt.

Quellen:
1) Oertelt-Prigione S, Seeland U, Kendel F, Rücke M, Flöel A, Gaissmaier W, Heim C, Schnabel R, Stangl V, Regitz-Zagrosek V. Cardiovascular risk factor distribution and subjective risk estimation in urban women–the BEFRI study: a randomized cross-sectional study. BMC Med. 2015 Mar 16;13:52.

2) Seeland U, Brecht A, Nauman AT, Oertelt-Prigione S, Ruecke M, Knebel F, Stangl V, Regitz-Zagrosek V. Prevalence of arterial stiffness and the risk of myocardial diastolic dysfunction in women. Biosci Rep. 2016 Oct 27;36:1-9

Bitte beachten Sie: Im Sinne einer leichteren Lesbarkeit haben wir uns für die männliche Schreibweise entschieden. Die hier abgebildeten Inhalte richten sich jedoch gleichermaßen an weibliche und männliche Interessenten und sind in keiner Weise als Zurücksetzung von Frauen zu verstehen.

Über die Deutsche Hochdruckliga DHL®- Deutsche Gesellschaft für Hypertonie und Prävention
Die Deutsche Hochdruckliga e.V. DHL® bündelt die Expertise zur arteriellen Hypertonie in Deutschland. Gegründet 1974, engagiert sie sich seitdem für eine bessere Versorgung von Menschen mit Bluthochdruck. Weltweit bleibt Bluthochdruck die größte Gefahr für die Gesundheit. Deshalb verfolgt die DHL® das Ziel „30-50-80″: Jeder Mensch ab 30 Jahren sollte seinen Blutdruck kennen. Ab 50 sollte der Blutdruck bei jedem kontrolliert und gut eingestellt sein. Menschen mit 80 sollten nicht an Folgeschäden des Bluthochdrucks wie Schlaganfall oder Herzinfarkt leiden.

www.hochdruckliga.de
http://www.ich-bleib-mir-treu.de/start.html

Quelle: idw

(nach oben)


Welche Auswirkungen hat die Digitalisierung der Industrieproduktion auf Jobs und Umweltschutz?

Eva Söderman Presse und Kommunikation
Institute for Advanced Sustainability Studies e.V.

Studie des IASS zu Industrie 4.0 in China und Deutschland zeigt, wie unterschiedlich Angestellte verschiedener Länder in die Zukunft blicken: Chinesische Arbeitnehmer erwarten von den neuen Technologien viel drastischere Veränderungen für die Umwelt und den Arbeitsmarkt als deutsche. Das zeigt eine Umfrage unter Industrie-Angestellten in Deutschland und China, die Wissenschaftler des Instituts für transformative Nachhaltigkeitsforschung (IASS) durchgeführt haben.

Die umfragebasierte IASS-Studie zum Thema Industrie 4.0, die nun im „International Journal of Precision Engineering and Manufacturing“ erschienen ist, ist eine der ersten, die die Auswirkungen von Digitalisierung und der Verknüpfung industrieller Prozesse auf Nachhaltigkeitsaspekte hin untersucht.

Weniger Jobs in der Fertigung, mehr Jobs in der Entwicklung
Die Auswirkungen der Digitalisierung auf die Zahl der Jobs und Anforderungen an die Arbeitnehmer halten die Chinesen für deutlich gravierender als die Deutschen. So nehmen 88 Prozent der chinesischen Befragten an, dass es künftig weniger oder viel weniger Arbeitsplätze in der Fertigung geben wird. Vier von fünf der Chinesen erwarten dies auch für Jobs in der Montage. Dagegen rechnet nur gut die Hälfte der deutschen Befragten mit einer abnehmenden Zahl der Arbeitsplätze in der Fertigung (56 Prozent) und Montage (53 Prozent). Eine sichere Zukunft prognostizieren die Deutschen dem Bereich Entwicklung: 77 Prozent erwarten eine steigende Zahl von Arbeitsplätzen, gegenüber 46 Prozent der Chinesen.

„Die Ergebnisse unserer Umfrage spiegeln wider, dass Industrie 4.0 in verschiedenen Regionen der Welt ganz unterschiedliche Auswirkungen zeitigen wird, je nach den vorherrschenden industriellen Voraussetzungen“, sagt Leitautor Grischa Beier. So ließe sich die unterschiedliche Einschätzung dadurch erklären, dass Deutschland bereits einen hohen Automationsgrad aufweist: Auf 10.000 Angestellte kommen 292 Roboter, während es in China nur 36 Roboter sind. Deutschland ist somit ein hochindustrialisierter Pionier der Industrie 4.0 und hat manche Prozesse bereits durchlaufen, die das Schwellenland China noch vor sich hat.

Energie- und Ressourceneffizienz wird wichtiger
In beiden Ländern geht eine Mehrheit davon aus, dass das Thema Ressourceneffizienz zukünftig an Bedeutung gewinnt. Die Befragten aus China rechnen künftig mit einem deutlich niedrigeren Energiebedarf und Materialverbrauch durch die Digitalisierung der Warenherstellung. Deutsche Industrie-Angestellte hingegen prognostizieren mehrheitlich einen gleichbleibenden oder steigenden Energiebedarf. „Möglicherweise lässt sich diese unterschiedliche Einschätzung damit erklären, dass in vielen deutschen Unternehmen bereits Energieeffizienz-Maßnahmen implementiert wurden. Das führt dazu, dass weitere große Einsparpotentiale schwerer zu realisieren sind“, erläutert Grischa Beier.

Zurzeit ist Luftverschmutzung ein erhebliches Umweltproblem in China, wozu die Kohleindustrie und andere industrielle Emissionen in hohem Umfang beitragen. Obwohl in Deutschland ein ähnlich hoher Anteil der Bruttowertschöpfung auf die Industrie entfällt – 26 Prozent verglichen mit 32 Prozent in China – unterscheidet sich der Anteil der Industrie am gesamten Energieverbrauch erheblich: In China liegt er bei 70 Prozent, in Deutschland bei nur 28 Prozent.

Studie
Beier, G., Niehoff, S., Ziems, T., Xue, B. (2017): Sustainability aspects of a digitalized industry – A comparative study from China and Germany. – International Journal of Precision Engineering and Manufacturing – Green Technology, 4, p. 227-234.

Bei Rückfragen wenden Sie sich bitte an
Eva Söderman und Anja Krieger
Presse & Kommunikation
Institute for Advanced Sustainability Studies e.V. (IASS)
Berliner Straße 130, 14467 Potsdam
Tel. +49 (0)331 288 22-340/341
Fax +49 (0)331 288 22-310
E-Mail eva.soederman@iass-potsdam.de / anja.krieger@iass-potsdam.de
www.iass-potsdam.de

Das von den Forschungsministerien des Bundes und des Landes Brandenburg geförderte Institut für transformative Nachhaltigkeitsforschung (Institute for Advanced Sustainability Studies, IASS) hat das Ziel, Entwicklungspfade für die globale Transformation zu einer nachhaltigen Gesellschaft aufzuzeigen. Das IASS folgt einem transdisziplinären, dialogorientierten Ansatz zur gemeinsamen Entwicklung des Problemverständnisses und von Lösungsoptionen in Kooperation zwischen den Wissenschaften, Politik, Wirtschaft und Gesellschaft. Ein starkes nationales und internationales Partnernetzwerk unterstützt die Arbeit des Instituts. Zentrale Forschungsthemen sind u.a. die Energiewende, aufkommende Technologien, Klimawandel, Luftqualität, systemische Risiken, Governance und Partizipation sowie Kulturen der Transformation.

Weitere Informationen:
http://publications.iass-potsdam.de/pubman/faces/viewItemOverviewPage.jsp?itemId…
http://www.iass-potsdam.de

Quelle: idw

(nach oben)


Keramiken und Kunststoffe können Metalle schon bei vielen Zahn-Therapien ersetzen

Markus Brakel Öffentlichkeitsarbeit
Deutsche Gesellschaft für Zahn-, Mund- und Kieferheilkunde e.V.

DGZMK: Risiken von Metallen im Mund eher gering einzuschätzen / Unverträglichkeiten sind aus wissenschaftlicher Sicht selten / Kunststoffe verdrängen Amalgam als Füllungsmaterial

Die Gefahr, die von Metall im Mund ausgehen kann, haben Kinogänger noch vor Augen: In den James Bond-Filmen „Der Spion, der mich liebte“ und „Moonraker“ verbreitete der von Richard Kiel gespielte Bösewicht „Der Beißer“ mit einem Gebiss aus Stahl Angst und Schrecken. Wie groß aber ist die Gefahr, die Metalle im Mund auslösen können, wenn sie als Füllungsmaterial oder Zahnprothesen zum Einsatz kommen? Und braucht die moderne Zahn-, Mund- und Kieferheilkunde sie überhaupt noch angesichts neuer Keramiken und Kunststoffe, die bei Behandlungen heute angewendet werden? „Aus wissenschaftlicher Sicht sind die Risiken, die von Metallen im Mund ausgehen, grundsätzlich eher gering einzuschätzen. Hier widersprechen unsere Erkenntnisse eindeutig einer weit verbreiteten Wahrnehmung. Wir möchten daher ein Zeichen in Richtung eines faktenbasierten Umgangs mit diesem Thema setzen“, stellt Prof. Dr. Michael Walter, Präsident der DGZMK (Deutsche Gesellschaft für Zahn-, Mund- und Kieferheilkunde) und als solcher oberster Repräsentant der wissenschaftlichen Zahnmedizin hierzulande, eindeutig klar. „Keramiken und Kunststoffe können Metalle heute bei vielen Therapien schon ersetzen, ganz verdrängen können sie diese aber noch nicht.“ Im Rahmen einer Pressekonferenz der DGZMK, die sich mit den beiden genannten Fragen beschäftigte, wurde die Verwendung von Metallen, Keramiken und Kunststoffen bei zahnärztlichen Therapien aus unterschiedlichen Blickwinkeln beleuchtet.

Wahrgenommenes Allergie-Risiko im Widerspruch zur Wissenschaft
Was die Verträglichkeit von Dentalmetallen angeht, erläutert Priv.-Doz. Dr. Anne Wolowski (WWU Münster) vom Arbeitskreis Psychologie und Psychosomatik in der DGZMK: „Man liest immer wieder Einzelfallberichte über teils dramatisch erlebte lokale wie allgemeine, sehr unspezifische Beschwerden durch Dentalmetalle (z. B. allgemeine Schwäche, Ermüdung, Energielosigkeit, Mundtrockenheit, erhöhter Speichelfluss). Die intuitiv gesteuerte Wahrnehmung eines solchen Allergie-Risikos durch die Bevölkerung steht dabei aber im Widerspruch zu wissenschaftlichen Erkenntnissen.“

„Grundsätzlich gilt, dass an der Mundschleimhaut kontaktallergische Reaktionen seltener als an der Haut auftreten und im Falle einer Reaktion auch ein eher geringeres Ausmaß annehmen. Der Grund dafür ist die verdünnende Wirkung des Speichels (‚rinse-off‘-Effekt), welche die Kontaktzeit des Allergens verringert. Ein weiterer Grund ist die geringere Dichte jener Zellen im Bereich der Mundschleimhaut, die für die Abwehrreaktion verantwortlich sind“, so Wolowski. Ein positives Testergebnis sei zunächst nur der Nachweis einer Sensibilisierung. In jedem Fall müsse die klinische Relevanz interdisziplinär beurteilt werden. Erst bei eindeutigen Hinweisen aufgrund der Vorgeschichte und belastender Symptome könne man von einer nachgewiesenen Allergie ausgehen und sollte die fraglichen Materialien gegebenenfalls austauschen.

Nozeboeffekt belastet in hohem Maße
Wolowski empfiehlt bei unklaren Beschwerden und/oder bei dem Verdacht auf eine Materialunverträglichkeit die Zusammenarbeit von Zahnmedizin und Allgemeinmedizin. Dabei hänge es von der Art der Beschwerden, der Vorgeschichte und gegebenenfalls vorliegender körperlicher Befunde ab, in welche Richtung eine spezifische Fachdiagnostik und gegebenenfalls Therapie geleitet werden müsse. Dabei steht für die spezialisierte Zahnmedizinerin fest: „Die höchste Belastung, die Patienten erleben, ergeben sich oft aus einer vorschnellen und von Polemik gesteuerten Diagnostik. Unsicherheiten durch unbegründete Spekulationen haben eine Überschätzung eines objektiven Risikos im Sinne eines Nozeboeffektes (als schädigend wahrgenommener Effekt) zur Folge und belasten Betroffene unnötig in hohem Maße.“

Immer wieder in die Schlagzeilen und entsprechend in Verruf ist Amalgam geraten. Bei diesem seit 1820 eingesetzten Füllungsmaterial steht der rund 50prozentige Quecksilberanteil in negativem Ruf. Inzwischen, so Prof. Dr. Roland Frankenberger (Uni Marburg) von der DGZ (Deutsche Gesellschaft für Zahnerhaltung), habe diese Tatsache und der Wunsch nach „unsichtbaren“ zahnfarbenen Füllungen für einen Siegeszug der dentalen Füllungskunststoffe (Komposite) gesorgt. „Diese bieten neben der Ästhetik im Vergleich zum Amalgam vor allem den Vorteil, dass sie viel minimal-invasiver, d.h. unter Opferung wesentlich geringerer Mengen gesunder Zahnhartsubstanz verarbeitet werden können. Daher haben die Komposite das Amalgam heute de facto als Massenfüllungsmaterial abgelöst“, erklärt Frankenberger.

Verwendung von Amalgam normalerweise unbedenklich
Allerdings sei die toxikologische Bewertung beider Füllungsmaterialien nicht trivial. Auch einzelne Bestandteile dentaler Komposite würden zum Teil kritisch gesehen, da im Zuge der Polymerisation mit Licht in der Regel eine 100%-ige Polymerisation nicht zu erzielen sei. Und trotzdem sei bei 50 Mio. Füllungen pro Jahr in Deutschland die Komplikationsrate bezüglich biologischer Begleiterscheinungen nachgewiesenermaßen sehr gering. Frankenbergers Fazit: „Ein perfekt biokompatibles Füllungsmaterial gibt es nicht. Es gilt daher, eine stringente Risikoabschätzung durchzuführen. Nach dieser ist die Verwendung von Amalgam und Amalgamersatzmaterialien in der Regel unbedenklich – d.h. das Risiko ist akzeptabel.“

Keramik verdrängt Metalle beim Zahnersatz
Zahnersatz ist in herausnehmbaren und festsitzenden sowie in zahngetragenen und implantatgetragenen Zahnersatz unterteilbar. Bei der Herstellung von Zahnersatz kommen neben unterschiedlichen Kunststoffen und Kunststoffzähnen vor allem Metalle und Keramiken zur Anwendung. „Generell zeigt sich bei diesen Zahnersatzversorgungen, dass Verträglichkeitsprobleme eher selten auftauchen“, fasst Prof. Dr. Stefan Wolfart (RWTH Aachen) von der Deutschen Gesellschaft für Prothetische Zahnmedizin und Biomaterialien (DGPro) zusammen. „Im Bereich des festsitzenden Zahnersatzes (Kronen und Brücken) wird die Metallkeramik immer noch als Goldstandard bezeichnet. Hierbei wird ein Edelmetall- oder Nichtedelmetallgerüst mit einer Verblendkeramik verblendet. Zahnersatz aus Vollkeramik stellt dazu in vielen Bereichen eine sinnvolle Alternative dar.“ Bei den herausnehmbaren Restaurationen sei eine Versorgung ohne Metalle dagegen nicht realisierbar. Jeder herausnehmbare Zahnersatz – von der Totalprothese abgesehen – weise ein Metallgerüst auf. Insgesamt lasse sich festhalten, dass der Einsatz von Metallen bei Zahnersatz stark zurückgegangen sei. Ganz ohne Metalle gehe es aber vor allem bei großen Brücken, in der Implantatprothetik und bei herausnehmbaren Prothesen noch nicht. Die hochgoldhaltigen Legierungen würden heute aus Kostengründen – wo immer möglich – immer mehr durch Nichtedelmetalllegierungen ersetzt.

Titanimplantate weiter Goldstandard
Zahnärztliche Implantate stellen heutzutage eine wissenschaftlich anerkannte Therapiealternative zum Ersatz fehlender Zähne dar. Die Prognose (sog. Überlebensrate) für zahnärztliche Implantate ist nach adäquater Planung, Einbringung und Versorgung als sehr gut zu beziffern und beträgt nach fünf bis zehn Jahren, je nach Einsatzbereich, zwischen 95 und 100 Prozent. Grundlegend gilt es jedoch zu beachten, dass zahnärztliche Implantate einer intensiven Mundhygiene bedürfen. Neben der häuslichen „Implantatreinigung“ muss eine regelmäßige Kontrolle und professionelle Reinigung durch den Zahnarzt erfolgen. Somit lassen sich Implantatentzündungen (z.B. Periimplantitis) in aller Regel vermeiden.
„Zahnärztliche Implantate werden heutzutage überwiegend aus Titan, einem leichten aber sehr festen Metall, gefertigt. Insbesondere Reintitan wird vom Körper sehr gut akzeptiert und bildet an der Luft eine beständige Schutzschicht aus. Die Korrosionsbeständigkeit des Reintitans und von Titanlegierungen gilt allgemein als ausgezeichnet“, führt Prof. Dr. Frank Schwarz (Uni Düsseldorf), Präsident der Deutschen Gesellschaft für Implantologie (DGI) aus.
Neue Materialentwicklungen wie z.B. Keramikimplantate (Zirkondioxid) können derzeit noch nicht für alle Einsatzbereiche empfohlen werden. Die weitgehend problemlose Verwendung von Titanimplantaten ist wissenschaftlich bestens belegt. Titanimplantate bilden im Moment nach wie vor den Goldstandard und bleiben vorerst noch unverzichtbar. Keramikimplantate können bei bestimmten Indikationen eingesetzt werden.

Weitere Informationen:
http://www.dgzmk.de/presse/pressemitteilungen/dgzmk-pressekonferenz-am-11-mai-20….

Quelle: idw

(nach oben)


Ostfalia forscht: „KlärLam – Kläranlagen als Lastmanager“

Evelyn Meyer-Kube Presse/Public Relations
Ostfalia Hochschule für angewandte Wissenschaften

Sind Kläranlagen zur Bereitstellung von elektrischer Regelleistung für das Stromnetz geeignet? Mit dieser Fragestellung setzen sich an der Fakultät Versorgungstechnik der Ostfalia Hochschule derzeit Prof. Dr. Jens Wagner und Stefan Kielmeier wissenschaftlich auseinander. Denn durch die Energiewende und der damit verbundenen schlechteren Regelbarkeit der Stromerzeugung in Europa, wird die Aufrechterhaltung des Gleichgewichts zwischen Erzeugung und Verbrauch immer bedeutender.

Eine Möglichkeit diesen Schwankungen im Stromnetz entgegen zu wirken besteht, neben teuren Stromspeichern, in der Stabilisierung des Netzes durch ein sogenanntes „Lastmanagement“. Durch dieses, auch als „Demand Side Management“ bezeichnet, erfolgt eine kurzfristige zeitliche Verschiebung des Strombezugs.

Kläranlagen verbrauchen durchschnittlich mehr Strom als die Straßenbeleuchtung. Daher untersuchen Wagner und Kielmeier vor allem die Belüftung, die durch ihren hohen Energieverbrauch das größte Potential bietet. Neben den Simulationen werden auch reale Bedingungen betrachtet, um einen möglichen Einfluss auf die Betriebsparameter auszuschließen. Dazu wurde eine Container-Versuchsanlage nach dem Vorbild einer Großanlage gebaut, die ihren Dienst seit März 2016 auf dem Gelände der Kläranlage Wolfenbüttel verrichtet. Die Anlage fasst circa 15 Kubikmeter Wasser und ist mit moderner Messtechnik ausgestattet. Die zuvor simulierten Computermodelle werden nun in der Praxis überprüft. Dabei haben sich positive Ergebnisse gezeigt. Professor Wagner berichtet: „Am Modell hat sich durch ein Abstellen der Belüftung für kürzere Zeiträume keine nennenswerte Verschlechterung der Abwasserreinigung ergeben. Die Laststeuerung und die gleichzeitige Gewährleistung der Abwasserbehandlung funktionieren bestens.“

Das bereits im Jahr 2014 gestartete Projekt wird in Zusammenarbeit mit den Stadtwerken Wolfenbüttel, der Firma NeVisio und der Universität Duisburg-Essen durchgeführt und vom Bundesministerium für Bildung und Forschung (BMBF) mit rund 431 000 Euro finanziert. Nach einer erfolgreichen Übertragung auf die Großanlage soll die detaillierte Auswertung und ein Abschlussbericht zum Ende des Jahres veröffentlicht werden. Ein Nachfolgeantrag für weitere Forschungsgelder ist vorgesehen. „Ich würde mich freuen, wenn wir weiter forschen könnten und noch genaueres zum Thema Primärregelleistungsbereitstellung oder zu der Entwicklung der lastorientierten Fahrweise von Nitrifikationsbecken beitragen könnten“, so Stefan Kielmeier.

Weitere Informationen:
http://www.ostfalia.de/v/wir_ueber_uns/personen/_mitarbeiter_seiten/wagner.html

Quelle: idw

(nach oben)


WSI Tarifarchiv: Wer bekommt Urlaubsgeld und was sehen die Tarifverträge vor?

Rainer Jung Abt. Öffentlichkeitsarbeit
Hans-Böckler-Stiftung

42,6 Prozent der Beschäftigten erhalten von ihrem Arbeitgeber ein Urlaubsgeld. Zu diesem Ergebnis kommt eine aktuelle Online-Befragung der Internetseite www.lohnspiegel.de, die vom Tarifarchiv des Wirtschafts- und Sozialwissenschaftlichen Instituts (WSI) der Hans-Böckler-Stiftung betreut wird. Für die Befragung wurden Angaben von rund 6.600 Beschäftigten aus dem Jahr 2016 ausgewertet.

Dabei zeigt sich, dass die Chancen auf Urlaubsgeld sehr unterschiedlich sind. Den größten Unterschied macht es, ob im Unternehmen ein Tarifvertrag gilt oder nicht. Beschäftigte, die in einem tarifgebundenen Unternehmen arbeiten, sind klar im Vorteil: 60,4 Prozent von ihnen erhalten ein Urlaubsgeld. Bei den Beschäftigten ohne Tarifvertrag sind es hingegen lediglich 36,9 Prozent.

Durchschnittlich erhalten Männer häufiger ein Urlaubsgeld (50,7 Prozent) als Frauen (38,7 Prozent). Im Westen fällt der Anteil mit 49,0 Prozent höher aus als im Osten (33,2 Prozent). In Kleinbetrieben (unter 100 Beschäftigte) erhalten 34,4 Prozent ein Urlaubsgeld, während der Anteil in größeren Betrieben (über 500 Beschäftigte) mit 56,5 Prozent wesentlich höher ist (siehe auch Abbildung 1 in der pdf-Version dieser PM; Link unten).

Deutliche Unterschiede zeigen sich auch im Hinblick auf die verschiedenen Branchen (Abbildung 2 in der pdf-Version), wobei oft ein Zusammenhang zum Grad der Tarifbindung besteht. Am Weitesten ist das Urlaubsgeld mit 66,2 Prozent im verarbeitenden Gewerbe verbreitet. In den Bereichen Verkehr und Lagerei, dem Baugewerbe und dem Handel erhalten etwas mehr als die Hälfte der Beschäftigten ein Urlaubsgeld. In den meisten Dienstleistungsbranchen erhält hingegen nur eine Minderheit der Beschäftigten Urlaubsgeld.

Die Höhe des tarifvertraglich vereinbarten Urlaubsgeldes fällt je nach Branche sehr unterschiedlich aus: Zwischen 156 und 2.316 Euro bekommen Beschäftigte in der mittleren Vergütungsgruppe in diesem Jahr als tarifliches Urlaubsgeld (ohne Berücksichtigung von Zulagen/Zuschlägen, bezogen auf die Endstufe der Urlaubsdauer). Das zeigt die aktuelle Auswertung des WSI-Tarifarchivs für 22 Wirtschaftszweige (Stand: April 2017).

Am wenigsten Geld für die Urlaubskasse bekommen Beschäftigte in der Landwirtschaft, im Steinkohlenbergbau und im Hotel- und Gaststättengewerbe. Die höchsten Zahlungen erhalten Arbeitnehmerinnen und Arbeitnehmer unter anderem in der Holz- und Kunststoffverarbeitung, in der Druckindustrie, der Papier verarbeitenden Industrie sowie in der Metallindustrie (siehe auch Abbildung 3 und die Tabellen in der pdf-Version; Link unten).

Im Westen ist das Urlaubsgeld vielfach höher als in Ostdeutschland. Im öffentlichen Dienst und in der Stahlindustrie gibt es kein gesondertes tarifliches Urlaubsgeld. Es wird mit dem Weihnachtsgeld zu einer einheitlichen Jahressonderzahlung zusammengefasst. Bei der Deutschen Bahn AG wird es in das Jahrestabellenentgelt eingerechnet. Im Bankgewerbe und in der Energiewirtschaft gibt es kein tarifliches Urlaubsgeld.

Gegenüber dem Vorjahr hat sich das tarifliche Urlaubsgeld in 12 von 22 untersuchten Branchen erhöht, und zwar zwischen 2,0 Prozent (Holz- und Kunststoff verarbeitende Industrie, Druckindustrie, Einzelhandel), 2,1 Prozent (Versicherungsgewerbe, Papier verarbeitende Industrie), 2,3 Prozent (Eisen- und Stahlindustrie), 2,4 Prozent (Textilindustrie Westfalen), 2,5 Prozent (Bekleidungsindustrie Bayern), 3,2 Prozent (Gebäudereinigerhandwerk Ost), 4,1 Prozent (Deutsche Bahn AG), 4.7 Prozent (Bauhauptgewerbe West), 4,9 Prozent (Metallindustrie), 5,3 Prozent (Bauhauptgewerbe Ost) und 10 Prozent (Textilindustrie Ost).

In zehn Branchen gab es keine Erhöhung (z. B. Chemieindustrie, Großhandel, Süßwarenindustrie, Landwirtschaft, Hotel- und Gaststättengewerbe). Gründe dafür: Entweder fanden im Auswertungszeitraum keine Tarifverhandlungen statt oder das Urlaubsgeld wurde als Festbetrag vereinbart, der nicht automatisch mit dem Tarifabschluss steigt.

Ansprechpartner in der Hans-Böckler-Stiftung
Prof. Dr. Thorsten Schulten
Leiter WSI-Tarifarchiv
Tel.: 0211 / 77 78-239
E-Mail: Thorsten-Schulten@boeckler.de

Rainer Jung
Leiter Pressestelle
Tel.: 0211 / 77 78-150
E-Mail: Rainer-Jung@boeckler.de

Weitere Informationen:
http://www.boeckler.de/pdf/pm_ta_2017_06_06.pdf – Die PM mit Grafiken und Tabellen (pdf)

Quelle: idw

(nach oben)


Gesunde Mitarbeiter – erfolgreiches Unternehmen

Dr. Thomas Nesseler Presse- und Öffentlichkeitsarbeit
Deutsche Gesellschaft für Arbeitsmedizin und Umweltmedizin e.V.

Die voranschreitende Digitalisierung der Arbeitswelt, immerwährende Erreichbarkeit und Flexibilität fordern ihren Tribut: Chronische und psychische Erkrankungen wie Burnout nehmen zu. Gesundheitsbedingte Arbeitsausfälle sind nicht nur für den Arbeitnehmer belastend, sie kosten auch Geld. In die Gesundheit ihrer Mitarbeiter zu investieren, lohnt sich deshalb für Unternehmen. Das betriebliche Gesundheitsmanagement (BGM) hilft, Fehlzeiten zu minimieren und ein neues Bewusstsein für das Thema „Gesundheit am Arbeitsplatz“ zu schaffen.

Arbeit im Wandel
Die arbeitende Bevölkerung wird älter. Und mit dem Alter nehmen Krankheiten zu. Im Jahr 2014 lag die Erwerbstätigenquote der 55- bis 65-jährigen bei 65,6 Prozent. Auch psychische Erkrankungen können, wenn sie nicht entdeckt und behandelt werden, zu einem Problem werden. „Psychischen Erkrankungen sind die Achillesferse der betrieblichen Leistungserbringung“, sagt Kerstin Reisinger, Geschäftsführerin von „GiB 21 – Gesundheit im Betrieb“. In der Mai-Ausgabe der Zeitschrift „Arbeitsmedizin, Sozialmedizin, Umweltmedizin“ (ASU) setzt sie sich mit dem Thema Betriebliches Gesundheitsmanagement auseinander.

Fünf „Must-haves“ für erfolgreiches betriebliches Gesundheitsmanagement
Das Ziel von BGM ist, Gesundheit und Leistungsfähigkeit der Mitarbeiter nachhaltig zu stärken. Kerstin Reisinger empfiehlt Unternehmen deshalb, nicht nur auf das Budget und die Umsetzung einzelner Maßnahmen zu achten, sondern eine Strategie zu entwickeln. Nur so kann ein positiver „Return on Investment“ erwirtschaftet werden. Dabei sollte auf fünf „Must-haves“ geachtet werden:

Zielorientierung
Die Wirtschaftlichkeit eines Unternehmens hängt von der Gesundheit und Leistungsfähigkeit seiner Mitarbeiter ab: „Ein wirksames betriebliches Gesundheitsmanagement sollte keinem Selbstzweck dienen, sondern Antworten darauf finden, wie es gelingen kann, die betrieblichen Ziele bei bester Gesundheit zu erreichen“, betont Kerstin Reisinger.

Gemeinsame Werte
Das Arbeitsklima wirkt sich entscheidend auf die Krankheitsquote aus. Zu viel Druck ist genauso schädlich wie zu wenige Pausen: „Einem Mitarbeiter, dem ein Wochenende kaum zur Erholung reicht und der es leidlich schafft, seinen privaten Anliegen nachzukommen, wird auch montags nicht zur Höchstform auflaufen“, erklärt Reisinger.

Führung und Netzwerkorientierung
Ein gesundes Arbeitsklima in einem Unternehmen beginnt mit dem richtigen Bewusstsein bei den Führungskräften. Fühlt sich ein Arbeitnehmer unterstützt und geschätzt, puffert dies Belastungen und reduziert gesundheitliche Beschwerden.

Verhaltens- und Verhältnisprävention
Das Arbeitspensum darf fordern, aber nicht überfordern. Denn lang anhaltende Überforderung schadet der Gesundheit genauso wie Unterforderung. Hier ist das Ziel des betrieblichen Gesundheitsmanagements, Fehlbelastungen und damit verbundenen Gesundheitsrisiken gezielt zu begegnen.

Lernen im Sinne kontinuierlicher Verbesserung
Das betriebliche Gesundheitsmanagement ist ein System, das kontinuierlich weiterentwickelt werden muss. Ausgehend von einer Analyse des Ist-Zustandes können gesundheitsfördernde Maßnahmen entwickelt und später evaluiert werden.

Kerstin Reisinger zieht ein klares Fazit: Das betriebliche Gesundheitsmanagement ist ein wichtiges Werkzeug, um nicht nur das Arbeitsklima und die Leistungsfähigkeit der Mitarbeiter zu verbessern, sondern unterm Strich auch Kosten zu sparen.

3. Präventionskongress 2017
Wo genau beginnt Gesundheitsmanagement im Betrieb? Wo ist es nach dem Gesetz verpflichtend und wo wird die Grenze gezogen, an der die Verantwortung des Arbeitgebers für die Gesundheit des Mitarbeiters aufhört und dessen eigene Entscheidungen im Vordergrund stehen? Welche Anforderung muss ein Betrieb an sein BGM stellen und welche Angebote machen für die Mitarbeiter überhaupt Sinn?

Auch die Mai-Ausgabe der Zeitschrift „Arbeitsmedizin, Sozialmedizin, Umweltmedizin“ (ASU) widmet sich im Schwerpunkt dem Thema BGM. Erfahren Sie mehr unter https://www.asu-arbeitsmedizin.com

Kontakt bei Rückfragen:
Alfons W. Gentner Verlag GmbH & Co. KG
Patrick Hagemann, Verlagsleiter Medizin
Forststr. 131 • 70193 Stuttgart
Tel. 0711/ 63 672-851
Fax 0711/ 63 672-751
Email: hagemann@gentner.de
http://www.gentner.de

Über ASU – Zeitschrift für medizinische Prävention:
Die Zeitschrift „Arbeitsmedizin, Sozialmedizin, Umweltmedizin“ ist das Leitmedium der deutschsprachigen Arbeitsmedizin. Das Publikationsorgan der Fachinstitutionen DGAUM, ÖGA, SGARM, VDBW, Vereinigung Deutscher Staatlicher Gewerbeärzte e.V. sowie der arbeitsmedizinischen Akademien und richtet sich an Betriebsärzte, Arbeitsmediziner und Akteure in wichtigen Schnittstellenbereichen zur Arbeitsmedizin. Die Zeitschrift ist peer reviewed. 1965 gegründet, erscheint ASU monatlich und erreicht nahezu alle arbeits- und präventionsmedizinisch orientierten Akteure im deutschsprachigen Raum. Weitere Informationen unter http://www.asu-arbeitsmedizin.com

Ihre Ansprechpartner Presse DGAUM
Mariya Ahner, M.A.
Telefon 089/330 396-0
Fax 330 396-13
E-Mail: mahner@dgaum.de www.dgaum.de
Hauptgeschäftsführer:
Dr. Thomas Nesseler

Über DGAUM:
Die DGAUM wurde 1962 gegründet und ist eine gemeinnützige, wissenschaftlich-medizinische Fachgesellschaft der Arbeitsmedizin und der klinisch orientierten Umweltmedizin. Ihr gehören heute über 1000 Mitglieder an, die auf dem Gebiet der Arbeitsmedizin und Umweltmedizin arbeiten, vor allem Ärztinnen und Ärzte, aber auch Angehörige anderer Berufsgruppen wie etwa Natur- und Sozialwissenschaftlerinnen und -wissenschaftler. Die Mitglieder der Fachgesellschaft engagieren sich nicht nur in Wissenschaft und Forschung, um so bereits bestehende Konzepte für die Prävention, die Diagnostik und Therapie kontinuierlich zu verbessern, sondern sie übernehmen die ärztliche und medizinische Beratung von Arbeitgebern und Arbeitnehmern an der Schnittstelle von Individuum und Unternehmen. Darüber hinaus beraten die Mitglieder der DGAUM alle Akteure, die ihren Beitrag zu der medizinischen Versorgung leisten und auf Fachwissen aus der betrieblichen Gesundheitsförderung und Prävention, der arbeits- und umweltbezogenen Diagnostik und Therapie, der Beschäftigungsfähigkeit fördernden Rehabilitation sowie aus dem versicherungsmedizinischen Kontext angewiesen sind.

Weitere Informationen unter: http://www.dgaum.de

Quelle: idw

(nach oben)


Biokohle in Brenngas umwandeln

Rüdiger Mack Marketingkommunikation
FIZ Karlsruhe – Leibniz-Institut für Informationsinfrastruktur GmbH

Biogene Reststoffe aus der Landschaftspflege, Grünabfälle und ähnliche Materialien aus Landwirtschaft, Gartenbau und Lebensmittelherstellung lassen sich bisher energetisch schlecht nutzen. Das liegt am hohen Feuchtegehalt und der inhomogenen Zusammensetzung. In einem neuen Verfahren werden diese Materialien zuerst zu Biokohle umgesetzt und anschließend in ein Brenngas für ein Motor-BHKW umgewandelt. Das BINE-Projektinfo „Gas aus Biokohlenstaub treibt Motor-BHKW an“ (04/2017) stellt die Anlagen vor. Dabei kommt ein neuer Flugstromvergaser zum Einsatz, der speziell für kleine Anlagen entwickelt worden ist.

Neues Verfahren erschließt biogene Reststoffe energetisch
Die Umwandlung der Bioabfälle erfolgt mit dem Verfahren der hydrothermalen Karbonisierung (HTC). Diese arbeitet mit Druck und Wärme, um den natürlichen Verkohlungsprozess von Biomasse nachzubilden. Es entsteht dabei eine hochwertige Biokohle, deren Brennwert 70 % höher liegt als bei den Ausgangsmaterialien. Sie wird für den anschließenden Vergasungsprozess gemahlen. Aus dem Ausgangsmaterial Biokohlenstaub entsteht im Flugstromvergaser ein kohlenmonoxid- und wasserstoffhaltiges Brenngas, das für Motor-BHKW geeignet ist. Die HTC-Anlage und der Flugstromvergaser haben die Erprobung im Technikumsmaßstab erfolgreich beendet.

Aktuell arbeiten die Entwickler an der wirtschaftlichen Verbesserung des Verfahrens. Ansätze dabei sind, künftig auch die Abwärme aus den Prozessen zu nutzen und den Prozess stärker zu automatisieren. Die Leitung des Forschungsprojekts lag bei der SunCoal Industries GmbH in Zusammenarbeit mit der Technischen Universität München.

Das BINE-Projektinfo ist kostenfrei beim BINE Informationsdienst von FIZ Karlsruhe erhältlich – unter www.bine.info oder 0228 – 92379-0.

BINE Informationsdienst ist ein Service von FIZ Karlsruhe und wird vom Bundesministerium für Wirtschaft und Energie (BMWi) gefördert.

FIZ Karlsruhe – Leibniz-Institut für Informationsinfrastruktur ist eine gemeinnützige Gesellschaft, die im öffentlichen Auftrag weltweit publizierte wissenschaftliche Information zugänglich macht und entsprechende Dienstleistungen zur Verfügung stellt. FIZ Karlsruhe
hat die Aufgabe, den nationalen und internationalen Wissenstransfer und die Innovationsförderung zu unterstützen.

Weitere Informationen:
http://www.bine.info/en – BINE Information Service – Energy research for practical applications
http://www.twitter.com/bineinfo – Schnell, schneller, Twitter – @BINEInfo
https://www.facebook.com/BINE.Informationsdienst – Auch auf Facebook
https://www.instagram.com/bineinfo/ – Bilderstories auf Instagram

Quelle: idw

(nach oben)


Phthalate erhöhen das Allergierisiko bei Kindern

Susanne Hufe Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum für Umweltforschung – UFZ

Phthalate, die als Weichmacher in Kunststoffen eingesetzt werden, können das Allergierisiko bei Kindern deutlich erhöhen. Das konnten UFZ-Forscher gemeinsam mit Wissenschaftlern der Universität Leipzig und des Deutschen Krebsforschungszentrums (DKFZ) in ihrer aktuellen im Fachmagazin Journal of Allergy and Clinical Immunology erschienenen Studie zeigen. Für Kinder besteht demnach ein größeres Risiko ein allergisches Asthma zu entwickeln, wenn die Mutter während der Schwangerschaft und Stillzeit besonders stark durch Phthalate belastet war. Ausgangs- und Endpunkt der translationalen Studie war die Mutter-Kind-Kohorte der LINA-Studie.

In unserem Alltag kommen wir mit unzähligen Kunststoffen in Kontakt, die Weichmacher enthalten. Diese Weichmacher, zu denen auch die sogenannten Phthalate gehören, werden in der Kunststoffverarbeitung eingesetzt, um die Produkte geschmeidiger zu machen. Phthalate können über die Haut, die Nahrung oder die Luft in unseren Körper gelangen. „Dass Phthalate unser Hormonsystem beeinflussen und dadurch zu unerwünschten Wirkungen auf Stoffwechsel oder Fruchtbarkeit führen können, ist bekannt. Das ist aber noch nicht alles“, sagt UFZ-Umweltimmunologe Dr. Tobias Polte. „Unsere aktuellen Studienergebnisse zeigen, dass Phthalate auch in das Immunsystem eingreifen und das Allergierisiko deutlich erhöhen können.“

Zu Beginn der Studie untersuchte das UFZ-Forscherteam den Urin von Schwangeren aus der Mutter-Kind-Kohorten-Studie LINA (Lebensstil und Umweltfaktoren und deren Einfluss auf das Neugeborenen-Allergierisiko) und fahndete nach Stoffwechselprodukten (Metaboliten) von Phthalaten. Die Höhe der gefundenen Konzentrationen setzten sie in Bezug zum Auftreten von allergischem Asthma bei den Kindern. „Es zeigte sich ein eindeutiger Zusammenhang zwischen erhöhten Konzentrationen des Metaboliten von Butylbenzylphthalat (BBP) im Urin der Mütter und dem Vorkommen von allergischem Asthma bei den Kindern“, erklärt Dr. Irina Lehmann, die die LINA-Studie leitet.

Die Ergebnisse aus der Mutter-Kind-Kohorte konnten die Forscher in Zusammenarbeit mit Kollegen der Medizinischen Fakultät der Universität Leipzig im Mausmodell bestätigen. Dabei wurden Mäuse während der Schwangerschaft und Stillzeit einer Phthalat-Belastung ausgesetzt, die zu vergleichbaren Urin-Konzentrationen des BBP-Metaboliten führte, wie sie auch bei hochbelasteten Müttern der LINA-Kohorte beobachtet wurden. Die Nachkommen zeigten eine deutliche Neigung zu allergischem Asthma, wobei selbst die Enkelgeneration noch betroffen war. Bei den erwachsenen Mäusen gab es dagegen keine verstärkten Allergiesymptome. „Entscheidend ist also der Zeitpunkt: Ist der Organismus während der frühen Entwicklungsphase Phthalaten ausgesetzt, kann das Auswirkungen auf das Krankheitsrisiko bis in die übernächste Generation haben“, erklärt Polte. „Durch die Phthalatbelastung wird also offenbar die pränatale Prägung verändert.“

Phthalate schalten regulierende Gene aus
Um herauszufinden, was genau sich verändert haben könnte, schauten sich Polte und sein Team in Zusammenarbeit mit Kollegen des Deutschen Krebsforschungszentrums DKFZ die Gene der jungen Mäuse von belasteten Muttertieren an. Die DNA dieser Gene war – mehr als dies normalerweise der Fall ist – mit sogenannten Methylgruppen versehen. Bei dieser sogenannten epigenetischen Veränderung der DNA legen sich Methylgruppen wie eine Art Vorhängeschloss an ein Gen und verhindern, dass sein Code abgelesen und das entsprechende Protein hergestellt werden kann. Als die Forscher die Mäuse mit einer speziellen Substanz behandelten, die die Methyl-Schlösser auf den Genen knackt, zeigten die Mäuse danach geringere Anzeichen von allergischem Asthma als zuvor. Polte: „Phthalate schalten offenbar entscheidende Gene durch DNA-Methylierung aus, wodurch deren Aktivität bei den jungen Mäusen verringert ist.“

Aber welche Gene führen zu allergischem Asthma, wenn sie nicht abgelesen werden können? Bei der Allergieentwicklung spielen sogenannte T-Helfer-2-Zellen eine zentrale Rolle. Sie werden durch spezielle Gegenspieler (Repressoren) reguliert. Kann ein Repressor-Gen durch blockierende Methylgruppen nicht abgelesen werden, werden die allergiefördernden T-Helfer-2-Zellen nicht mehr ausreichend gehemmt, und es kann eher eine Allergie entstehen. „Wir vermuten, dass dieser Zusammenhang für die Entwicklung eines allergischen Asthmas durch Phthalate ausschlaggebend ist“, sagt Polte. „Im Zellversuch konnten wir darüber hinaus zeigen, dass sich aus Immunzellen von Nachkommen belasteter Muttermäuse verstärkt T-Helfer-2-Zellen bilden, was bei Nachkommen unbelasteter Tiere eher seltener der Fall ist. Eine erhöhte Neigung zu Allergien konnten wir so noch einmal nachweisen.“

Vom Menschen zur Maus und wieder zurück
Bei Mäusen konnten die Forscher nachweisen, dass ein durch DNA-Methylierung ausgeschaltetes Repressor-Gen für die Entstehung des allergischen Asthmas verantwortlich ist. Aber spielt dieser Mechanismus auch beim Menschen eine Rolle? Um diese Frage zu beantworten zogen die Forscher noch einmal die LINA-Kohorte heran. Sie suchten bei den Kindern mit allergischem Asthma nach dem entsprechenden Gen und schauten nach Methylierungsgrad und Genaktivität. Und auch hier zeigte sich, dass das Gen durch Methylgruppen blockiert war und nicht abgelesen werden konnte. „Mithilfe unseres translationalen Studienansatzes – vom Menschen über das Mausmodell und die Zellkultur wieder zurück zum Menschen – konnten wir zeigen, dass offensichtlich epigenetische Veränderungen dafür verantwortlich sind, dass Kinder bei starker mütterlicher Phthalat-Belastung während Schwangerschaft und Stillzeit ein erhöhtes Risiko haben, ein allergisches Asthma zu entwickeln.“, sagt Polte. „Ziel unserer weiteren Forschung wird es sein, zu verstehen, wie genau bestimmte Phthalate eine Methylierung von Genen hervorrufen, die für die Allergieentstehung relevant sind.“

Publikation:
Susanne Jahreis, Saskia Trump, Mario Bauer, Tobias Bauer, Loreen Thürmann, Ralph Feltens, Qi Wang, Lei Gu, Konrad Grützmann, Stefan Röder, Marco Averbeck, Dieter Weichenhan, Christoph Plass, Ulrich Sack, Michael Borte, Virginie Dubourg, Gerrit, Schüürmann, Jan C. Simon, Martin von Bergen, Jörg Hackermüller, Roland Eils, Irina Lehmann, Tobias Polte (2017): Maternal phthalate exposure promotes allergic airway inflammation over two generations via epigenetic modifications, Journal of Allergy and Clinical Immunology; doi: 10.1016/j.jaci.2017.03.017; http://doi.org/10.1016/j.jaci.2017.03.017

Weiterführende Informationen:
PD Dr. Tobias Polte
Leiter der Helmholtz-Hochschul-Forschungsgruppe „Experimentelle Allergologie und Immunologie“
Telefon: +49 341 235-1545
E-mail: tobias.polte@ufz.de
http://www.ufz.de/index.php?de=37960

Dr. Irina Lehmann
Leiterin des UFZ-Departments Umweltimmunologie
Telefon: +49 341 235-1216
E-Mail: irina.lehmann@ufz.de
http://www.ufz.de/index.php?de=40286

Weitere Informationen:
http://www.ufz.de/index.php?de=36336&webc_pm=14/2017

Quelle: idw

(nach oben)


Einkommensteuer: Beseitigung des Mittelstandsbauchs entlastet vor allem Besserverdienende

Renate Bogdanovic Pressestelle
Deutsches Institut für Wirtschaftsforschung DIW Berlin

DIW Berlin rechnet verschiedene Reformszenarien durch
Eine vollständige Beseitigung des „Mittelstandsbauchs“ beim Einkommensteuertarif würde die Steuerpflichtigen jährlich um 35 Milliarden Euro entlasten. Mehr als die Hälfte davon würde jedoch den einkommensstärksten 20 Prozent der Bevölkerung zugutekommen. Zu diesem Ergebnis kommt eine aktuelle Studie des Deutschen Instituts für Wirtschaftsforschung (DIW Berlin). „Wenn man den Einkommensteuertarif auf breiter Front senkt, werden die hohen Einkommen absolut stärker entlastet als die mittleren“, sagt DIW-Steuerexperte Stefan Bach.

Das liegt daran, dass die Einkommensteuer stark progressiv wirkt: Die Steuerpflichtigen mit mittleren Einkommen tragen relativ zu ihrer großen Zahl nur wenig zum gesamten Einkommensteueraufkommen bei, während die einkommensstärksten zehn Prozent alleine 56 Prozent und die einkommensstärksten 20 Prozent fast drei Viertel des Einkommen-steueraufkommens aufbringen. Will man hohe Steuerausfälle vermeiden und primär die mittleren Einkommen entlasten, müsste man die Steuersätze im oberen Einkommensbereich anheben. Eine moderate Anhebung der Spitzensteuersätze würde jedoch nur begrenzte Mehreinnahmen erzielen.

Vor dem Hintergrund des gestiegenen Einkommensteueraufkommens und der anstehenden Bundestagswahl werden vermehrt Forderungen laut, die mittleren Einkommensgruppen bei der Einkommensteuer zu entlasten. Die DIW-Ökonomen Stefan Bach und Hermann Buslei haben einige der Reformvorschläge aufgegriffen und mit einem Mikrosimulationsmodell auf ihre Aufkommens- und Verteilungswirkungen hin untersucht. Neben der Beseitigung des „Mittelstandsbauchs“ analysieren sie eine Erhöhung des Spitzensteuersatzes sowie konkrete Reformvorschlägen aus der steuerpolitischen Diskussion der letzten Monate: den „Bayern-Tarif“ des bayerischen Finanzministers Markus Söder, den Vorschlag der Mittelstands- und Wirtschaftsvereinigung der CDU/CSU, den Vorschlag des DGB sowie den Vorschlag der Partei DIE LINKE.

Unter „Mittelstandsbauch“ versteht man den steilen Anstieg des Grenzsteuersatzes – also die Steuerbelastung für jeden zusätzlichen Euro – bei einem zu versteuernden Jahreseinkommen von etwa 10 000 bis 30 000 Euro. In diesem Bereich liegen die meisten Steuerpflichtigen. Um den Mittelstandsbauch vollständig zu beseitigen, müssten zwischen dem Eingangssteuersatz von 14 Prozent und dem ersten Spitzensteuersatz von 42 Prozent die Grenzsteuersätze konstant steigend verlaufen. Das würde ledige Steuerpflichtige mit Bruttoeinkommen von mehr als 60 000 Euro um etwa 1 600 Euro jährlich entlasten, Ehepaare ab dem doppelten Einkommen würden das Doppelte sparen. Die mittleren Einkommen bei etwa 24 000 Euro je Person würden im Durchschnitt nur etwa 500 Euro jährlich einsparen. Die niedrigsten Einkommen würden dagegen kaum entlastet, da sie kaum Einkommensteuer zahlen. Diese Haushalte werden in weit stärkerem Maß durch indirekte Steuern wie die Mehrwertsteuer sowie durch Sozialbeiträge belastet.

Spielraum für Steuerentlastungen ist mittelfristig nicht vorhanden
Mit Senkungen des Einkommensteuertarifs gehen schnell beträchtliche Steuerausfälle einher, da auch die höheren Einkommen davon profitieren. Im Falle einer vollständigen Abschmelzung des Mittelstandsbauchs wären dies 35 Milliarden Euro beziehungsweise 1,1 Prozent des aktuellen Bruttoinlandsprodukts. „Auch wenn das Einkommensteueraufkommen in den letzten Jahren gestiegen ist: Der Spielraum der öffentlichen Haushalte ist begrenzt“, sagt Bach. „Die Budgetüberschüsse werden in den nächsten Jahren voraussichtlich gegen null sinken“. Eine Anhebung des Spitzensteuersatzes von 42 auf 49 Prozent würde zehn Milliarden Euro bringen und könnte somit eine durchgreifende Steuerentlastung der mittleren Einkommen nicht gegenfinanzieren, zumal dabei Ausweichreaktionen der Steuerpflichtigen noch nicht berücksichtigt sind.

Weitere Informationen:
http://diw.de/documents/publikationen/73/diw_01.c.558502.de/17-20.pdf

Quelle: idw

(nach oben)


Energie und Mobilität: Biogas wichtiges Standbein

Franz-Georg Elpers Pressestelle
Deutsche Bundesstiftung Umwelt (DBU)

DBU-Chef Bottermann: Neue Geschäftsmodelle können Biogas-Branche zukunftsfähig machen – Nachhaltige Flächennutzung ausschlaggebend

Osnabrück. „Biogas ist ein Standbein der Energie- und Mobilitätswende. Ausschlaggebend für eine zukunftsfähige Entwicklung werden eine flexible Stromerzeugung und eine nachhaltige Flächennutzung sein. Wenn auch die wirtschaftlichen Voraussetzungen vorliegen, kann Biogas als Kraftstoffalternative einen Beitrag zur Dekarbonisierung leisten“, betonte Dr. Heinrich Bottermann, Generalsekretär der Deutschen Bundesstiftung Umwelt (DBU), anlässlich des 10. Biogas-Innovationskongresses in der DBU in Osnabrück. Um die Erderwärmung wie beim Klimagipfel in Paris 2015 international vereinbart unter zwei Grad zu halten, sei es, so Bottermann, nicht nur wichtig, erneuerbare Energien zu fördern und die Nutzung fossiler Energieträger in absehbarer Zeit einzustellen. Um Märkte bedarfsgerecht zu bedienen, müssten auch die Potenziale der einzelnen Energieträger erkannt und effektiver genutzt sowie Nachteile kompensiert werden. Bottermann: „Insbesondere bei Biogas sehe ich noch Entwicklungsbedarf.“

Multitalent Biogas: Stromschwankungen ausgleichen, Abwärme vermarkten
Bottermann zeigte bei dem Kongress, der in Zusammenarbeit mit unter anderem dem Fachverband Biogas, dem Deutsche Bauernverband und dem Bundesverband BioEnergie stattfand, drei zentrale Herausforderungen für die Biogas-Branche auf. Die erste: Windenergie und Photovoltaik würden die zukünftige Stromversorgung tragen. Wind und Sonne seien jedoch nicht immer ausreichend vorhanden, so dass Schwankungen entstehen. Die aus Biogas gewonnene Energie habe das Potenzial, naturgegebene Schwankungen auszugleichen und könne somit flexibel auf den Strombedarf reagieren. Zusätzlich müssten notwendige infrastrukturelle Veränderungen beim Betrieb der Anlagen verwirklicht werden. Ein Ausbau von Gasspeichern und der modulare Betrieb von Blockheizkraftwerken könne eine Lösung sein. Es sei effektiver, kleine Blockheizkraftwerke unter Volllast zu fahren und je nach Bedarf weitere zuzuschalten, als ein großes zu betreiben, das teilweise nur geringfügig ausgelastet sei, etwa wegen mangelnder Stromnachfrage. Auch neue Geschäftsmodelle sollten, so Bottermann, in Betracht gezogen werden. So müsse heute die Abwärme der Biogasanlagen, die in der Vergangenheit häufig einfach verpuffte, zusätzlich zum Strom genutzt werden und als weitere Einkommensquelle dienen.

Biomethan aus Biogas für Schwerlast- und Schiffsverkehr nutzen
Eine weitere Herausforderung liege, so der DBU-Chef, im Mobilitätssektor. Auf Deutschlands Straßen seien 2014 160 Millionen Tonnen Treibhausgase ausgestoßen worden – eine Verringerung der Kohlendioxid-Belastung sei derzeit nicht erkennbar. Das widerspreche jedoch der politischen Zielsetzung: Bis 2050 soll der Endenergieverbrauch im Verkehr um 40 Prozent verringert werden im Vergleich zu 2005. Bottermann: „Die Aufbereitung von Biogas zu Biomethan bietet Anlagenbetreibern ein weiteres neues Geschäftsmodell und finanzielle Möglichkeiten. In DBU-Projekten haben wir zeigen können, dass Methan zum Beispiel aus Biogasanlagen eine klimaschonende Kraftstoffalternative für Arbeitsmaschinen sein kann.“ So wurde etwa von der Universität Rostock ein herkömmlicher Dieselmotor-Traktor zu einem gasbetriebenen Traktor umgebaut. Das Ergebnis: Vergleichbare Leistungsdaten wie beim Diesel-Grundmotor bei gleichzeitiger Verringerung des Kohlendioxid- und Stickoxidausstoßes. Weitere Beispiele aus der Praxis zeigten, dass der Kraftstoff auch im Schwerlast- und Schiffsverkehr problemlos einsetzbar sei. Darüber hinaus könne Biomethan nach einer entsprechenden Aufreinigung auch ins Netz eingespeist werden und damit eine zusätzliche Einnahmequelle für die Unternehmen bieten.

Verknüpfung mit nachhaltiger Entwicklung macht Branche zukunftsfähig
Die dritte zentrale Herausforderung für die Biogas-Branche liege laut Bottermann darin, den zukünftigen Fortschritt stärker mit einer nachhaltigen Entwicklung zu verknüpfen. „Der intensive Maisanbau, der auch mit der Biogas-Erzeugung in Zusammenhang steht, hat zu einem Image-Schaden der Branche geführt. Das können wir uns weder im Zusammenhang mit den Zielen der Energiewende noch bezogen auf den Verlust der Artenvielfalt leisten. Es ist überfällig, verstärkt nach sinnvollen Alternativen zu suchen.“ So falle etwa bei der Landschaftspflege von Flächen mit hoher Artenvielfalt Grünmaterial an, das ebenso in Biogas-Anlagen verwertet und genutzt werden könne. Wenn dies für die Unternehmen aus wirtschaftlichen Gründen keine Alternative sei, müsse bei den Förderungen nachgebessert werden. Bottermann: „Als dezentraler Lieferant erneuerbarer Energie hat Biogas eine nicht zu unterschätzende Bedeutung mit weiterem Potenzial nach oben. Jetzt gilt es, sie zukunftsfähig zu machen.“

Weitere Informationen:
https://www.dbu.de/123artikel37172_2362.html

Quelle: idw

(nach oben)


Vitamin D: Für Diabetiker wichtiger als gedacht

Janina Wetzstein Pressestelle
Deutsche Gesellschaft für Innere Medizin e. V.

Mannheim – Viele Jahre lang war Vitamin D nur für seine Wirkungen auf das Skelett und den Kalzium-Haushalt bekannt – immerhin wurde es vor rund 100 Jahren als Heilmittel gegen die schweren Skelettdeformationen der Rachitis entdeckt. Mittlerweile kennt die Wissenschaft jedoch viele weitere positive Eigenschaften des Vitamins. So greift es regulierend in Immunprozesse ein, steuert Zellwachstum und -differenzierung und beeinflusse den Zuckerhaushalt. Welche Rolle Vitamin D künftig in der Diabetes-Therapie spielen kann, diskutierten Experten der Deutschen Gesellschaft für Innere Medizin e.V. (DGIM) bei der Vorab-Pressekonferenz anlässlich des 123. Internistenkongresses am 27. April in Mannheim.

Im Gegensatz zu anderen Vitaminen nehmen wir Vitamin D nicht hauptsächlich mit der Nahrung auf, sondern können – und müssen – es auch selbst herstellen. Allerdings benötigen wir hierzu das UV-Licht der Sonne, denn nur unter seinem Einfluss kann die Haut das wertvolle Vitamin produzieren. In den Wintermonaten reicht die Sonneneinstrahlung jedoch nicht aus, und auch im Sommer gehen viele Menschen nicht genug ins Freie oder schirmen das UV-Licht durch Kleidung und Sonnenschutz fast vollständig ab. Daher leiden viele Menschen unter einem Vitamin D-Mangel, ohne es überhaupt zu bemerken.

Besonders gravierend kann dies für Menschen mit einem Diabetes mellitus sein, wie Professor Dr. Klaus Badenhoop von der Medizinischen Klinik 1 der Johann Wolfgang Goethe-Universität Frankfurt betont. „Bei einem Diabetes mellitus läuft der Abbau der Knochenmasse, der jeden Menschen ab dem frühen Erwachsenenalter betrifft, deutlich schneller ab“, sagt der erfahrene Internist. Ein ausreichender Vitamin D-Spiegel könne dem entgegenwirken und so die Gefahr von Osteoporose und Knochenbrüchen senken. Vitamin D kann außerdem die Produktion und Sekretion von Insulin in der Bauchspeicheldrüse verbessern und die Wirkung des Hormons an den Muskeln erhöhen. So trägt das Vitamin unmittelbar zur Regulation des Blutzuckerspiegels bei.
Aus wissenschaftlichen Studien ist inzwischen bekannt, wie wichtig eine gute Versorgung mit Vitamin D auch für andere Körperfunktionen ist: Sie verringert die Anfälligkeit für Infektionskrankheiten, das Sturzrisiko und das Risiko für psychische Störungen wie Angstzustände oder eine Depression. „Rezeptoren für Vitamin D finden sich in fast allen Zellen des menschlichen Körpers“, erklärt Internist Badenhoop das große Wirkspektrum des Vitamins.

Die Erkenntnis, dass Vitamin D ein physiologisches Multitalent ist, hat auch dazu geführt, dass die Empfehlungen für eine ausreichende Versorgung neu überdacht wurden. Lange Zeit galt erst ein Serumspiegel von unter 10 ng/ml als Vitamin D-Mangel und Werte über 20 ng/ml als ausreichend. Heute nimmt man an, dass optimale Werte zwischen 30 und 50 ng/ml liegen. Diesen Serumspiegel zu erreichen, ist zumindest in den Wintermonaten schwierig – hierfür müsste man große Mengen fetthaltigen Fisch, Rinderleber, Eigelb oder Pilze zu sich nehmen. Menschen, die ein Risiko für einen Vitamin D-Mangel tragen (chronisch Kranke, Ältere, ohne ausreichend Sonnenexposition, mit Malabsorption oder einer Osteoporosegefährdung u.a.), sollten daher mit ihrem Arzt über die Einnahme eines Vitamin D-Präparates sprechen.

Deutsche Gesellschaft für Innere Medizin (DGIM)
Pressestelle
Janina Wetzstein
Postfach 30 11 20
70451 Stuttgart
Tel.: 0711 8931-457
Fax: 0711 8931-167
wetzstein@medizinkommunikation.org

Weitere Informationen:
http://www.dgim2017.de

Quelle: idw

(nach oben)


Wer schwimmt wo?

Rudolf-Werner Dreier Presse- und Öffentlichkeitsarbeit
Albert-Ludwigs-Universität Freiburg im Breisgau

Forscher werten Daten zur globalen Verbreitung von Meerestieren aus und entwickeln eine Web-App

Ein internationales Forschungsteam hat Weltkarten zur globalen Verbreitung von Meerestieren miteinander verglichen und Vorschläge erarbeitet, wie sich aus den beiden maßgeblichen Datenbanken, die diesen Karten zugrunde liegen, künftig präzisere Darstellungen als bisher erzeugen lassen. Daten zu Verbreitungsgebieten sind eine wichtige Grundlage für ökologische Studien sowie für Entscheidungen über Maßnahmen, die das Überleben bedrohter Spezies sicherstellen sollen. Die Wissenschaftlerinnen und Wissenschaftler haben zudem eine Web-App entwickelt, in der Interessierte unter anderem die Karten aus beiden Datenbanken zum jeweiligen Verbreitungsgebiet einer Art übereinanderlegen und vergleichen können – etwa 250 Spezies sind in der App erfasst. An den Arbeiten, die das Team im Fachjournal PLOS ONE veröffentlicht hat, war die Biologin Dr. Kristin Kaschner von der Universität Freiburg beteiligt.

Vor allem zwei große Projekte sind damit befasst, die Verbreitungsgebiete von Meerestieren auf globaler Ebene darzustellen: Die International Union for Conservation of Nature (IUCN) erstellt Karten, indem sie das Wissen von Expertinnen und Experten für die einzelnen Arten auswertet, wohingegen AquaMaps, ein von Kaschner entwickeltes Projekt, Karten mithilfe von Habitatsvorhersagemodellen erzeugt. Zusammen erfassen die Datenbanken 24.586 Spezies. Davon kommen 22.889 in AquaMaps und 4.027 in IUCN vor; nur 2.330 sind in beiden enthalten.

Die Vorhersagen zur Verbreitung einzelner Arten können allerdings aufgrund der unterschiedlichen Methodik zum Teil weit auseinanderliegen. Bei vielen gut erforschten Arten stimmen die aus beiden Datenbanken erzeugten Karten in hohem Maß überein. Bei einigen jedoch sind Unstimmigkeiten zu finden: In den IUCN-Karten wird beispielsweise die Präsenz von Korallen in tiefen Gewässern überschätzt. Einige der computergenerierten AquaMaps-Karten wiederum, von denen nur 5,7 Prozent von Experten überprüft wurden, zeigen an den Rändern der prognostizierten Verbreitungsgebiete Brüche, die auf Verbesserungsmöglichkeiten für den Algorithmus hinweisen.

„Wir möchten mit unseren Resultaten einen Anstoß geben, die Kooperation zwischen den Experten für bestimmte Tierarten und den Experten für Computermodellierungen weiter zu vertiefen“, sagt Kaschner. „Ziel ist, allen Akteurinnen und Akteuren aus Wissenschaft, Politik und Zivilgesellschaft zu Fragen rund um den Schutz bedrohter Arten und die Biodiversität in den Meeren eine möglichst gute Entscheidungsgrundlage zu bieten.“

Interaktive Web-App
http://ohi-science.nceas.ucsb.edu/plos_marine_rangemaps

Originalveröffentlichung
Casey C. O’Hara, Jamie C. Afflerbach, Courtney Scarborough, Kristin Kaschner, and Benjamin S. Halpern: Aligning marine species range data to better serve science and conservation. In: PLOS ONE.
http://journals.plos.org/plosone/article?id=10.1371/journal.pone.0175739

Kontakt:
Dr. Kristin Kaschner
Abteilung für Biometrie und Umweltsystemanalyse
Albert-Ludwigs-Universität Freiburg
Tel.: 0172/6978709
E-Mail: kristin.kaschner@biologie.uni-freiburg.de

Die Web-App ermöglicht es, Karten aus den beiden maßgeblichen Datenbanken zur globalen Verbreitung von Meerestieren, hier am Beispiel des Weißseitendelfins, miteinander zu vergleichen.
Quelle: http://ohi-science.nceas.ucsb.edu/plos_marine_rangemaps

Weitere Informationen:
https://www.pr.uni-freiburg.de/pm/2017/wer-schwimmt-wo

Quelle: idw

(nach oben)


Unstatistik des Monats: Eine Stunde joggen, sieben Stunden länger leben

Jörg Schäfer Kommunikation
RWI – Leibniz-Institut für Wirtschaftsforschung

Eine amerikanische Studie über Jogging hat im April die Medien bewegt – und zur Unstatistik des Monats April geführt. Die Studie berichtet, dass Laufen mit einer Verringerung von Herzkrankheiten, Krebs und anderen Krankheiten einhergeht und diese Wirkung größer sei, als wenn man die gleiche Zeit mit Radfahren, Schwimmen, Gehen oder einem anderem Sport verbringt. Im Internet wurden die Ergebnisse mit Schlagzeilen wie „Eine Stunde Jogging verlängert Leben um sieben Stunden“ verbreitet.

Eine amerikanische Studie über Jogging (Lee et al „Running as a Key Lifestyle Medicine for Longevity“) hat im April die Medien bewegt – und zur Unstatistik des Monats April geführt. Etwa 55.000 Männer und Frauen im Alter von 18 bis 100 Jahren wurden untersucht, um herauszufinden, ob Laufen das Leben verlängert. Die Studie berichtet, dass Laufen mit einer Verringerung von Herzkrankheiten, Krebs und anderen Krankheiten einhergeht und diese Wirkung größer sei, als wenn man die gleiche Zeit mit Radfahren, Schwimmen, Gehen oder einem anderem Sport verbringt. Im Internet wurden die Ergebnisse mit Schlagzeilen wie „Eine Stunde Jogging verlängert Leben um sieben Stunden“ (http://www.ispo.com/knowhow/id_79705462/studie-1-stunde-jogging-verlaengert-lebe…) oder „Jede Stunde Laufen schenkt dir 7 Stunden Lebenszeit!“ (https://www.woman.at/a/jede-stunde-laufen-mehr-lebenszeit) verbreitet.

Eine Stunde investieren und sieben zusätzliche erhalten – das klingt wie ein Traum. Wenn das so wäre, dann könnten wir uns unsterblich „laufen“. Rechnen wir das einmal nach: Würde man täglich vier Stunden laufen, dann macht das pro Tag einen Gewinn von 28 Stunden Lebenszeit. Da 28 Stunden länger dauern als ein Tag, wird demnach die Lebenserwartung jeden Tag immer länger. Selbst wenn man nur eine Stunde täglich joggen würde, wären dies in den 50 Lebensjahren von 20 bis 70 insgesamt 365×50 Stunden, also etwas über 2 Jahre, die man mit Laufen verbringt. Nach dieser Rechnung würde sich die Lebenserwartung um 14 Jahre verlängern, wovon modernste Medizintechnik nur träumen kann. Also nichts wie los, ums Leben laufen?

Doch die Schlagzeilen führen in die Irre, da sich die Zahl „eine Stunde Joggen, um sieben Stunden länger zu leben“ nur auf die Situation von zwei Stunden Jogging pro Woche bezieht. Das ist die durchschnittliche Zeit, welche die untersuchten Jogger gelaufen sind (und diese zwei Stunden wurden nicht gemessen, sondern waren eine Selbsteinschätzung im Fragebogen). In der Originalstudie heißt es auch klar, dass der Nutzen des Laufens abnimmt, je länger man pro Tag läuft. Insgesamt wird über einen maximalen Gewinn von etwa drei Jahren Lebenserwartung berichtet – was die meisten Berichte im Internet am Ende auch erwähnen. Die Zahl „eine Stunde Joggen und sieben Stunden länger leben“ wurde so geschätzt: Eine Gruppe von Joggern im Alter von 44 Jahren, die 2 Stunden pro Woche läuft, verbringt bis zum Alter von 80 Jahren insgesamt 0,43 Jahre mit Laufen und gewinnt dabei 2,8 Jahre zusätzliche Zeit – das entspricht rund eine Stunde Laufen pro sieben Stunden länger leben. Dass jede zusätzliche Stunde Laufen sieben Stunden Lebenszeit schenkt und damit das Leben immer länger wird, wenn man mehr läuft, davon war nicht die Rede. Im Gegenteil, exzessives Laufen kann das Risiko erhöhen, an Herzkrankheiten zu sterben, wie die Studie auch berichtet.

Fazit: Schlagzeilen erwecken oft Erwartungen, die der Artikel nicht befriedigen kann. Dennoch weisen viele Studien daraufhin, dass regelmäßige Bewegung wie Laufen, Gehen und Tanzen für Menschen ohne schwere Krankheit genau so viel oder mehr zur Gesundheit beitragen kann wie regelmäßige Checkups, Krebs-Früherkennung und vorbeugende Medikamente. Und noch etwas: Wenn schon zum Arzt, dann laufen.

Ansprechpartner:
Prof. Dr. Gerd Gigerenzer, Tel.: (030) 82406-0
Jörg Schäfer (Pressestelle RWI), Tel.: (0201) 8149-244

Mit der „Unstatistik des Monats“ hinterfragen der Berliner Psychologe Gerd Gigerenzer, der Dortmunder Statistiker Walter Krämer und RWI-Vizepräsident Thomas K. Bauer jeden Monat sowohl jüngst publizierte Zahlen als auch deren Interpretationen.

Weitere Informationen:
http://www.unstatistik.de – Weitere Unstatistiken, Informationen, Kontakte & Archiv

Quelle: idw

(nach oben)


„40 Jahre – wir wünschen uns was!“ Das Öko-Institut startet ins Jubiläumsjahr

Alexa Hännicke Öffentlichkeit und Kommunikation
Öko-Institut e. V. – Institut für angewandte Ökologie

Vom streitbaren Wissenschaftsrebell zum wissenschaftlichen Berater für Gesellschaft, Unternehmen und Politik: Das Öko-Institut wird 40 Jahre alt und eröffnet unter dem Motto „Wir wünschen uns was!“ mit einem multimedialen Weblog die Jubiläumszeit, die am 7. November mit einem Symposium zur Zukunft der Umweltpolitik und einer Festveranstaltung in Berlin endet.

Das Jubiläumsmotto „Wir wünschen uns was!“ zeigt dabei den Anspruch des Öko-Instituts in den vergangenen 40 Jahren und zugleich für die Zukunft: Visionen und Lösungen für dringende Umweltfragen entwickeln, sich aktiv in Politik einmischen und Wirtschaft und Gesellschaft stets zu umweltbewusstem Handeln herausfordern und motivieren.

„Ob Atomausstieg oder Energiewende, Konzepte für den Verkehr von morgen oder eine nachhaltige Chemikalienpolitik auf EU-Ebene – unsere Arbeit hat immer die reale Umweltpolitik beeinflusst. Wir konnten unsere Ideen zur Verbesserung von umweltbezogenen Gesetzen und Initiativen einbringen und haben dabei häufig Erfolg gehabt“, beschreibt Michael Sailer, Sprecher der Geschäftsführung den Stellenwert des Öko-Instituts. „Das macht uns zu einem wichtigen, unabhängigen und verlässlichen Partner für die Gestaltung künftiger Herausforderungen.“
Der Jubiläumsweblog 40.oeko.de (http://40.oeko.de/) präsentiert Artikel, Interviews, Videos und Audiomitschnitte. Er gibt einen Einblick in die Geschichte des Instituts und lässt zugleich die Menschen hinter dem Öko-Institut mit ihren „Wünschen“ an die Zukunft zu Wort kommen.

Aus 40 Jahren: Die Geschichte des Öko-Instituts

Am 5. November 1977 riefen in Freiburg 27 Personen, darunter Rechtsanwälte der Anti-Atomkraftbewegung, Mitglieder verschiedener Umweltbewegungen sowie kritische Naturwissenschaftlerinnen und -wissenschaftler, aber auch Volkswirte sowie Vertreterinnen und Vertreter der evangelischen Kirche das Öko-Institut ins Leben. Das Ziel: der Öffentlichkeit unabhängige wissenschaftliche Beratung und fundierte Gutachten zur Verfügung stellen.
Heute arbeiten über 165 Mitarbeiterinnen und Mitarbeiter an den Standorten Freiburg, Darmstadt und Berlin transdisziplinär in den Arbeitsgebieten Energie und Klimaschutz; Immissions- und Strahlenschutz; Landwirtschaft und Biodiversität; Nachhaltigkeit in Konsum, Mobilität, Ressourcenwirtschaft und Unternehmen; Nukleartechnik und Anlagensicherheit, Chemikalienmanagement und Technologiebewertung sowie Recht, Politik und Governance.

Fundiert, kritisch, kontrovers: Meilensteine der Institutsgeschichte im interaktiven Zeitstrahl
Trinkwasserstudie, Tschernobyl, HoechstNachhaltig, Emissionshandel, Renewbility – das Öko-Institut blickt auf viele Meilensteine in der eigenen Geschichte zurück. In einem Zeitstrahl können sich die Besucherinnen und Besucher des Jubiläumsweblogs interaktiv durch die die Geschichte des Öko-Instituts bewegen und Dokumente und Zeitzeugenberichte zu den einzelnen Meilensteinen anklicken.

Zum interaktiven Zeitstrahl „40 Jahre Öko-Institut“: http://40.oeko.de/zeitreise/

Weitere Hintergrundinformationen zu Highlights aus der 40-jährigen Arbeit des Öko-Institut: https://www.oeko.de/fileadmin/oekodoc/HG-Papier_40-Jahre-Oeko-Institut.pdf

Ansprechpartnerin am Öko-Institut:
Mandy Schoßig
Kommunikation & Öffentlichkeit
Öko-Institut e.V., Büro Berlin
Tel.: +49 30 405085-334
E-Mail: m.schossig@oeko.de

Das Öko-Institut ist eines der europaweit führenden, unabhängigen Forschungs- und Beratungsinstitute für eine nachhaltige Zukunft. Seit der Gründung im Jahr 1977 erarbeitet das Institut Grundlagen und Strategien, wie die Vision einer nachhaltigen Entwicklung global, national und lokal umgesetzt werden kann. Das Institut ist an den Standorten Freiburg, Darmstadt und Berlin vertreten.

Neues vom Öko-Institut auf Twitter: twitter.com/oekoinstitut

Interesse an eco@work, dem kostenlosen E-Paper des Öko-Instituts?
Abo unter www.oeko.de/newsletter_ein.php

Anhang
40 Jahre Öko-Institut
https://idw-online.de/de/attachmentdata57411.pdf

Quelle: idw

(nach oben)


Eigene Kinder beflügeln Top-Führungskräfte in ihrer Arbeit

Sarah Blaß Pressestelle
Frankfurt University of Applied Sciences

Eigene Kinder beflügeln Top-Führungskräfte in ihrer Arbeit: sie sind zufrieden mit Work-Life-Balance trotz wenig Zeit für Kinder/ Mitarbeiterinnen mit Kindern gelten bei ihnen aber als karrieredesinteressiert

Studie der Frankfurt UAS beschäftigt sich mit Lebensmustern von Führungskräften mit Kindern/ Top-Führungskräfte setzen bei Kinderbetreuung auf Partner/-in und Topmanagerinnen verbringen mehr Zeit mit ihren Kindern als Topmanager

Wieviel Zeit verbringen Führungskräfte mit ihren Kindern? Welche Zeit- und Aufgabenteilung nehmen Führungskräfte und deren Partner/-innen in verschiedenen Lebensbereichen vor? Wie zufrieden sind Führungskräfte mit ihrer persönlichen Lebenssituation in Hinblick auf Beruf und Familie? Welche Leistung, Engagement und Belastbarkeit schreiben Führungskräfte mit Kindern ihren Mitarbeiterinnen mit Kindern zu? Wie sehen sie Mitarbeiter/-innen in Teilzeit? Mit diesen Fragen hat sich Prof. Dr. Regine Graml, Professorin für Betriebswirtschaft, Personalmanagement und Organisation am Fachbereich Wirtschaft und Recht der Frankfurt University of Applied Sciences (Frankfurt UAS), beschäftigt. Ihre Studie „Arbeit und Familie – Lebensmuster von Führungskräften“ belegt, dass die befragten Führungskräfte unter der Woche sehr wenig Zeit mit ihren Kindern verbringen und die Aufteilung von Zuständigkeiten innerhalb der Familie traditionellen Rollenmustern folgt. Dennoch fühlen sie sich durch ihr Familienleben in ihrer Arbeit beflügelt. Bei ihren Mitarbeiterinnen sehen sie das anders: mit Kindern gelten diese als wenig an der Karriere interessiert trotz hoher Arbeitsleistung, Belastbarkeit und Zuverlässigkeit; dies trifft ebenso auf Teilzeitbeschäftigte zu.

Graml führte die Untersuchung mittels Online-Befragung im Rahmen des Executive Panels der internationalen Personalberatung Odgers & Berndtson durch. Befragt wurden Führungskräfte aus Deutschland, Österreich und der Schweiz. Von den Panel-Teilnehmer/-innen mit Kindern, haben 177 Personen an Gramls Befragung zu deren Lebensmustern teilgenommen. 70 % der Befragten gehören der obersten Leitungsebene oder der Bereichsleitung an. Laut Befragung hat die typische Führungskraft zwei Kinder (52 %), ist männlich (91 %), 40 bis 49 Jahre alt (64 %), mit Hochschulabschluss oder weiterführendem Abschluss (96 %), verheiratet/zusammenlebend (93 %), mit einer/einem berufstätigen Partner/-in (73 %) und arbeitet 50 bis 59 Stunden pro Woche (48 %). Der Großteil der Führungskräfte verbringt unter der Woche fünf bis zehn Stunden mit seinen Kindern (47 %), unter fünf Stunden sind es 42 % und über zehn Stunden 11 %. Die jeweilige Partnerin/der Partner verbringt unter der Woche mehr Zeit mit den Kindern als die Befragten. Am Wochenende verbringt der Großteil der Befragten mehr Zeit mit den Kindern als unter der Woche: 76 % verbringen mehr als zehn Stunden mit ihren Kindern, 28 % sogar mehr als 20 Stunden. Position, Alter, Qualifikation der Führungskraft, Anzahl der Kinder, Alter des jüngsten Kindes sowie Berufstätigkeit und Qualifikation der Partnerin/des Partners haben dabei keinen signifikanten Einfluss auf die Zeit, die die Führungskräfte mit ihren Kindern verbringen. „Durch die Studie wird deutlich, dass traditionelle Muster der Zeiteinteilung zwischen Arbeit und Familie dominieren, wobei beide – die Top-Führungskraft und der/die jeweilige Partner/-in – gut qualifiziert sind. Andere Familienkonstellationen, wie beispielsweise eine egalitäre Verteilung oder einfach mehr Vielfalt in der Zeiteinteilung werden kaum gelebt. Hier zeigt sich, dass noch großer Handlungsbedarf für Gesellschaft, Politik und Unternehmen besteht, um Top-Management und Familie besser zu vereinbaren“, resümiert Graml.

Befragte Frauen verbringen unter der Woche (Montag bis Freitag) mehr Zeit mit den Kindern als die befragten Männer: Bei gleichen Charakteristika (Alter, Qualifikation und Position) verbringen die weiblichen Führungskräfte unter der Woche fast drei Stunden mehr Zeit mit ihren Kindern als männliche Führungskräfte. „Aufgrund der geringen Fallzahlen weiblicher Führungskräfte bei der Befragung ist die Aussagekraft der Analyse begrenzt. Dennoch kann das zeitliche Engagement der weiblichen Führungskräfte für ihre Kinder ein Hinweis auf die typische Doppelbelastung der Frauen, Familie und Beruf zu vereinen, sein“, erläutert Graml.

Die Selbstbetreuung der Kinder (also die Betreuungszeit, in der die Kinder nicht von Kitas, Schulen oder anderen Dienstleistern beaufsichtigt werden) übernimmt überwiegend die Partnerin/der Partner; dabei ist die Familienkonstellation dadurch gekennzeichnet, dass der/die Partner/-in meist sehr gut qualifiziert und ebenfalls erwerbstätig ist (73%). Arbeitet diese/r in Vollzeit, übernehmen häufiger auch die Führungskräfte die Selbstbetreuung. 69 % der arbeitenden Partner/-innen arbeiten in Teilzeit. Die Familienorganisation übernimmt überwiegend bzw. ausschließlich die Partnerin/der Partner. Haus- und Gartenpflege wird überwiegend von den Befragten selbst wahrgenommen. Die Kindererziehung wird bei der Mehrheit zu gleichen Teilen durchgeführt (59 %). „Obwohl die Führungskräfte wenig Zeit mit ihren Kindern an Wochentagen verbringen, empfinden sie, dass sie egalitär Verantwortung in der Kindererziehung übernehmen. Dies weist auf ein starkes familiäres ‚Involvement‘, also eine empfundene Beteiligung der Führungskräfte, hin“, so Graml.

Mitarbeiterinnen und Mitarbeitern in Teilzeit (egal ob mit oder ohne Kindern) schreiben die befragten Führungskräfte mehrheitlich (67%) ein geringeres Karrierestreben im Vergleich zu anderen Mitarbeiterinnen und Mitarbeitern zu. Dabei bewerten die Befragten die Arbeitsleistung (83 %) von Mitarbeiterinnen und Mitarbeitern in Teilzeit, ihr Commitment (84 %) und ihre Zuverlässigkeit (87 %) mindestens genauso hoch wie bei Vollzeitmitarbeiterinnen und -mitarbeitern. 30 % der Führungskräfte schätzen die Arbeitsleistung von Teilzeitmitarbeiterinnen und -mitarbeitern sogar höher ein. „Auffällig ist, dass den Teilzeitmitarbeiterinnen und -mitarbeitern einerseits hohe Arbeitsleistung und andererseits geringes Karrierestreben zugeschrieben wird. Für die befragten Führungskräfte scheint Karriere in Teilzeit in ihren Unternehmen also nicht oder kaum vorstellbar“, betont Graml.

Mütter in ihrem Unternehmen (unabhängig vom Arbeitszeitmodell) sehen die Befragten ebenfalls als an der Karriere desinteressiert: So halten 46 % ihr Karrierestreben für geringer im Vergleich zu anderen Mitarbeiterinnen und -mitarbeitern. Nur 37 % sehen keinen Unterschied im Karrierestreben. Dabei bewerten die Befragten die Arbeitsleistung (82 %) von Müttern, ihr Commitment (79 %) und ihre Zuverlässigkeit (81 %) mindestens genauso hoch wie bei anderen Beschäftigten. 10 % der Führungskräfte schätzen die Arbeitsleistung von ihnen sogar höher ein.

2/3 der Befragten sind mit ihrer Lebensbalance hinsichtlich Beruf und Familie zufrieden, 73 % fühlen sich durch ihr Familienleben in ihrer Arbeit beflügelt. Begünstigende Faktoren der Lebensbalance sind Selbstbestimmung und die Flexibilität der Partnerin/des Partners. Dennoch empfinden 3/4 der Führungskräfte, dass die Arbeit das Privatleben beeinträchtigt: Hohes Arbeitspensum und Geschäftsreisen werden als besonders negativ für die Work-Life-Balance wahrgenommen. Die persönliche Zufriedenheit ist abhängig von der Position: Führungskräfte auf der Ebene der Bereichsleitung (unter Unternehmensleitung und über Abteilungsleitung) sind weniger zufrieden als Führungskräfte der Unternehmensleitung oder der Abteilungsleitung. Die Zufriedenheit wird von den anderen untersuchten Variablen nicht beeinflusst: bei Qualifikation, Alter, Geschlecht, Unternehmensgröße und Anzahl der Kinder ist kein Einfluss auf die Zufriedenheit erkennbar.

Kontakt:
Frankfurt University of Applied Sciences, Fachbereich 3: Wirtschaft und Recht, Prof. Dr. Regine Graml, Telefon: 069/1533-2918, E-Mail: graml@fb3.fra-uas.de

Weitere Informationen unter:
https://www.frankfurt-university.de/fileadmin/de/Fachbereiche/FB3/Forschung_und_…

Quelle: idw

(nach oben)


Umwelt, Verkehr, Energie. Erste Wasserstofftankstelle aus erneuerbaren Energien in Frankreich

Marie de Chalup Wissenschaftliche Abteilung
Wissenschaftliche Abteilung, Französische Botschaft in der Bundesrepublik Deutschland

Am 11. April 2017 haben Roland Roth, Präsident des Gemeindeverbands Sarreguemines Confluences (CASC) in Lothringen, Didier Vaucois, Regionalvertreter des französischen Energiekonzerns (EDF), Projektpartner und Nutzer von Brennstoffzellenfahrzeugen die erste Wasserstofftankstelle Frankreichs in Betrieb genommen. Die Tankstelle wird zur Förderung einer nachhaltigen Mobilität mit Wasserstoff (hergestellt aus erneuerbaren Energien) beliefert.

Am 11. April 2017 haben Roland Roth, Präsident des Gemeindeverbands Sarreguemines Confluences (CASC) in Lothringen, Didier Vaucois, Regionalvertreter des französischen Energiekonzerns (EDF), Projektpartner und Nutzer von Brennstoffzellenfahrzeugen die erste Wasserstofftankstelle Frankreichs in Betrieb genommen. Die Tankstelle wird zur Förderung einer nachhaltigen Mobilität mit Wasserstoff (hergestellt aus erneuerbaren Energien) beliefert.

Im Rahmen der Energiewende hatte der CASC beschlossen, eine umweltverträgliche Mobilität an der Grenze Frankreichs zu Deutschland und den Beneluxländern und an einem Verkehrsknotenpunkt Europas zu fördern. Vor diesem Hintergrund wurde das Projekt FaHyence gestartet mit dem Ziel, eine Wasserstoff-Tankstelle zu errichten, für die der Wasserstoff direkt vor Ort produziert wird. Besitzer und Betreiber ist der CASC.

Mehrere Akteure haben an diesem Projekt mitgearbeitet:
EDF und das europäische Institut für Energieforschung in Karlsruhe (EIFER) haben ihre technische Kompetenz zur Entwicklung, Dimensionierung und Einrichtung der Demonstrationsanlage eingebracht. Sie haben ein Monitoring- und Steuersystem entwickelt, um einen Stromverbrauch in Spitzenproduktionszeiten der erneuerbaren Energien und in Spitzenverbrauchszeiten zu ermöglichen;
McPhy hat die erste Kopplungsanlage mit einer innovativen und hocheffizienten Elektrolyseur-Einheit und einer Wasserstofftankstelle von 40 kg täglicher Speicherkapazität in Frankreich bereitgestellt. Dieses selbständige System wird für eine automatische Wasserstoffproduktion und eine laufende Verfügbarkeit des Tanks eingerichtet. Im Laufe des Betriebs unterstützt McPhy auch den Betreiber CASC;
Symbio hat ein Renault Kangoo ZE-Hybridfahrzeug (Strom/Wasserstoff) entwickelt. Eine 5 kW Brennstoffzelle und ein 1,8 kg Wasserstoff-Tank verlängern die 22 kW Akkulaufzeit, wodurch eine Reichweite von mehr als 300 km anstatt 150 km erreicht werden kann.

FaHyence ist Teil des europäischen Projekts H2ME und wird im Rahmen des europäischen Programms FCH JU gefördert. Ziel ist es, bis 2020 29 Biowasserstofftankstellen und 300 Fahrzeuge einzusetzen. Nach dieser 2-jährigen Projektentwicklungsphase wurde bereits die erste Tankstelle eröffnet und 10 Fahrzeuge an öffentliche und private Akteure geliefert.

Weitere Informationen:
Webseite der GECO air-App – http://www.gecoair.fr/en/

Quelle:
ꞌꞌCommissioning of the first H2 refueling station in France producing green hydrogen on!ꞌꞌ, Pressemitteilung von McPhy, 11.04.2017 – http://www.mcphy.com/en/news/releases/commissioning-of-the-first-h2-refueling-st…

Redakteur: Luc Massat, luc.massat@diplomatie.gouv.fr

Quelle: idw

(nach oben)


Wiesn-Studie: Alkoholkonsum beeinflusst das Auftreten von Herzrhythmusstörungen

Philipp Kressirer Kommunikation und Medien
Klinikum der Universität München

An Besuchern des Münchner Oktoberfests konnten Forscher des Klinikums der Universität München und des Deutschen Zentrums für Herz-Kreislaufforschung e.V. (DZHK) zeigen, dass mit höherem Alkoholspiegel das Risiko für Herzrhythmusstörungen ansteigt. Die Studie, die ganz aktuell in der Zeitschrift European Heart Journal veröffentlicht wurde, untersucht erstmals einen Zusammenhang zwischen akutem Alkoholkonsum und Herzrhythmusstörungen prospektiv, d.h. während bzw. unmittelbar nach dem Alkoholkonsum, an einer großen Anzahl von Probanden.

Die Ergebnisse sind deshalb von besonderer Bedeutung, da Mediziner seit langem vermuten, dass durch Alkohol ausgelöste Herzrhythmusstörungen unter Umständen zu Vorhofflimmern führen können. Besteht Vorhofflimmern über einen längeren Zeitraum, können Schlaganfälle oder eine Herzschwäche die Folge sein. Dieser vermutete Zusammenhang zwischen dem Genuss großer Alkoholmengen über einen kurzen Zeitraum und dem Auftreten von Herzrhythmusstörungen bei sonst eigentlich Herzgesunden wird als „Holiday Heart Syndrome“ bezeichnet, wurde jedoch bislang nur in kleinen Studien und nicht prospektiv nachgewiesen.

Unter der Führung der Wissenschaftler PD Dr. med. Stefan Brunner und PD Dr. med. Moritz Sinner, beide aus der Medizinischen Klinik und Poliklinik I des Klinikums der Universität München, konnten im Jahr 2015 an allen 16 Festtagen auf dem Münchener Oktoberfest 3028 freiwillige Teilnehmer untersucht werden. Dabei hatten die Teilnehmer unterschiedliche Mengen an Alkohol konsumiert. Die Alkoholspiegel reichten dementsprechend von 0 bis 3,0 Promille (0-3,0 g/kg), der laut Studienprotokoll für die Teilnahme maximal erlaubten Alkoholmenge. Das Alter der Teilnehmer lag im Mittel bei 35 Jahren, 30 Prozent der Teilnehmer waren Frauen. Die Forscher registrierten Elektrokardiogramme (EKGs) mit einem tragbaren, Smartphone-basierten System, um den Herzrhythmus zu analysieren. Der Alkoholspiegel wurde mit einem Atemalkoholmessgerät erfasst. Bei der Durchführung des Projektes wurden die Autoren durch die Stiftung für Biomedizinische Alkoholforschung, das Deutsche Zentrum für Herz-Kreislaufforschung e.V. (DZHK) und die Europäische Kommission unterstützt.

Die Häufigkeit der Herzrhythmusstörungen in der Allgemeinbevölkerung liegt bei ca. 1 bis 4 Prozent. In ihrer Studie fanden die Forscher Herzrhythmusstörungen bei 30,5 Prozent der Teilnehmer. In 25,9 Prozent der Fälle lag dabei eine sogenannte Sinustachykardie vor, bei der das Herz schneller als normal schlägt. Die Atemalkoholkonzentration war dabei signifikant mit einem erhöhten Risiko für Herzrhythmusstörungen in Verbindung zu bringen: pro zusätzlichem Gramm pro Kilogramm Alkohol erhöhte sich das Risiko für Herzrhythmusstörungen um 75 Prozent.

Zusammenhang zwischen Alkoholkonsum und beschleunigter Herzfrequenz auch in anderer Studie belegt:
Die Forscher untersuchten zusätzlich den Einfluss von gewohnheitsmäßigem, chronischen Alkoholkonsum bei 4131 Teilnehmern der sogenannten KORA S4 Studie (Kooperative Gesundheitsforschung im Raum Augsburg), einer Untersuchung in der Allgemeinbevölkerung. „Diese Teilnehmer entsprechen der typischen Allgemeinbevölkerung. Die Allermeisten waren bei der Untersuchung gesund und allenfalls wenige waren schwere Trinker. Für diese Studie quantifizierten wir die mittlere konsumierte Alkoholmenge in Gramm pro Tag“, erklärt Dr. Sinner.

In der KORA Studie wiesen nur 2,7 Prozent der Teilnehmer Herzrhythmusstörungen auf, wobei 0,4 Prozent eine Sinustachykardie hatten. Es bestand dennoch auch hier eine geringe, jedoch signifikante Assoziation zwischen der täglichen Alkoholmenge und Sinustachykardie. Die Wahrscheinlichkeit hierfür erhöhte sich um drei Prozent pro zusätzlichem Gramm Alkohol pro Tag. „Wir bestätigten den Zusammenhang zwischen Sinustachykardie und chronischem Alkoholkonsum in der KORA Studie. Zwar war der Effekt deutlich schwächer verglichen mit dem Einfluss von akutem Alkoholkonsum, dennoch konnten wir unsere Hauptergebnisse auf dem Oktoberfest bestätigen“, ergänzt Dr. Sinner.

„Der Ausgangspunkt unserer Untersuchungen waren die nicht ausreichend schlüssigen Berichte über das ‚Holiday Heart Syndrom‘, das durch akuten Alkoholkonsum ausgelöste Vorhofflimmern. In unserer Studie konnten wir zwar nicht unmittelbar nachweisen, dass es aufgrund von akutem Alkoholkonsum sofort zu Vorhofflimmern kommt. Jedoch fanden wir eine sehr starke und robuste Assoziation mit zwischen Alkohol und Herzrhythmusstörungen, die als Vorstufe von Vorhofflimmern angesehen werden können“, geben die Autoren an.

Insbesondere zeigte sich ein Zusammenhang zwischen Alkoholkonsum und Veränderungen in den atemabhängigen Schwankungen der Herzrate, der sogenannten respiratorischen Sinusarrhythmie. Die respiratorische Sinusarrhythmie spiegelt ein Ungleichgewicht in der autonomen Nervenversorgung des Herzens wider – also im unbewussten Kontrollsystem, welches die Körperfunktionen wie Herzschlag oder Atmung kontrolliert. „Es ist bekannt, dass Vorhofflimmern auftreten kann, wenn Patienten eine durch ein autonomes Ungleichgewicht ausgelöste Sinustachykardie entwickeln“, sagt Dr. Sinner. „Unsere Studie konnte das ‚Holiday Heart Syndrom‘ nicht prospektiv beweisen, aber sie wird Klinikern und Wissenschaftlern helfen, die Veränderungen im Kreislauf besser einzuordnen. Außerdem haben wir die Voraussetzungen für weitere Forschung auf diesem Gebiet geschaffen. Hierzu sind bereits mehrere Nachfolgestudien in Arbeit.“ „Insbesondere sollen so die autonome Imbalance durch akute Alkoholexposition besser quantifiziert und herausgefunden werden, ob Vorhofflimmern und andere längerdauernde Herzrhythmusstörungen im Verlauf nach akutem Alkoholkonsum auftreten“, fügt Dr. Brunner hinzu.

Die Forscher hegen den Verdacht, dass die auf dem Oktoberfest erfassten Herzrhythmusstörungen oftmals nur zeitlich begrenzt waren und diese zu einem Ende kamen, wenn die Teilnehmer wieder nüchtern wurden. Sicher ist dies jedoch nicht, da die EKGs nur einmalig registriert wurden. Sollten Teilnehmer bereits eine zugrundeliegende Herzerkrankung aufweisen, könnte die durch den Alkohol ausgelöste Herzrhythmusstörung auch fortdauern. „Um diese Fragen endgültig beantworten zu können, werden wir weitere Forschungsergebnisse mit längerer Erfassung des EKGs nach Alkoholkonsum benötigen“, fassen die Autoren zusammen.

Originalpublikation:
Alcohol consumption, sinus tachycardia, and cardiac arrhythmias at the Munich Octoberfest: results from the Munich Beer Related Electrocardiogram Workup Study, by Stefan Brunner et al. European Heart Journal
doi: 10.1093/eurheartj/ehx156

Ansprechpartner:
PD Dr. med. Moritz Sinner, MPH
Medizinische Klinik und Poliklinik I
Klinikum der Universität München (LMU)
Campus Großhadern
Tel: 089/4400-76159
E-Mail: Moritz.Sinner@med.uni-muenchen.de

PD Dr. med. Stefan Brunner
Medizinische Klinik und Poliklinik I
Klinikum der Universität München (LMU)
Campus Innenstadt
Tel: 089/4400-52305
E-Mail: Stefan.Brunner@med.uni-muenchen.de

Weitere Informationen:
http://www.klinikum.uni-muenchen.de/de/das_klinikum/zentrale-bereiche/weitere-in…

Anhang
European Heart Journal
https://idw-online.de/de/attachment57257

Quelle: idw

(nach oben)


Neues Tool: Betrugssoftware in Autos automatisch entdecken

Dr. Julia Weiler Dezernat Hochschulkommunikation
Ruhr-Universität Bochum

IT-Sicherheitsexperten der Ruhr-Universität Bochum (RUB) und der University of California, San Diego, haben mit dem Lübecker IT-Spezialisten Felix Domke ein Tool entwickelt, das automatisch Betrugssoftware in der Motorsteuerung von Autos entdeckt. Das Team um Prof. Dr. Thorsten Holz vom Bochumer Horst-Görtz-Institut testete gemeinsam mit den Kollegen 900 verschiedene Versionen der Motorsteuerungssoftware für Diesel-Fahrzeuge von Volkswagen und Fiat Chrysler aus den vergangenen acht Jahren. In 400 davon fanden sie eine Vorrichtung, die die Abgasreinigung unter regulären Fahrbedingungen abschaltet. Die Analyse deckt auch auf, wie genau die verschiedenen Hersteller bei dem Betrug vorgehen.

Die Ergebnisse präsentieren die Bochumer Forscher, zu denen auch die Doktoranden Moritz Contag und Andre Pawlowski vom RUB-Lehrstuhl für Systemsicherheit gehören, gemeinsam mit ihren US-amerikanischen Partnern auf dem „IEEE Symposium on Security and Privacy“, das vom 22. bis 24. Mai 2017 in San Jose, Kalifornien, stattfindet. Die zugehörige Veröffentlichung kann online eingesehen werden (https://www.syssec.rub.de/research/publications/defeat-devices/).

Zwei Minuten Softwareanalyse reichen aus
Um zu erkennen, ob in einem Fahrzeugmodell eine nicht erlaubte Abschalteinrichtung eingebaut ist, musste bislang ein Wagen auf dem Prüfstand einen etwa 20-minütigen Test absolvieren. „Wenn man zehn Fahrzeugmodelle testen möchte, muss man auch zehn Wagen auf den Prüfstand bringen. Das ist aufwendig“, sagt Thorsten Holz. „Unser Tool braucht kein Auto, sondern nur die Motorsteuerungssoftware. Wir können in zwei Minuten analysieren, ob sie eine Abschalteinrichtung beinhaltet oder nicht.“

Anhand der Software können die Forscher nachvollziehen, wie ein Auto auf bestimmte Zustände reagiert, zum Beispiel welche Abgasfiltermechanismen in einer bestimmten Situation angeschaltet werden.

„Besonders plump“
Nicht nur die Motorsteuerungssoftware von Volkswagen haben die IT-Experten unter die Lupe genommen. Auch das System des Fiat 500X, wegen dem die EU-Kommission am 17. Mai 2017 ein Verfahren gegen die italienische Regierung eingeleitet hat, untersuchten sie. „Fiat geht besonders plump vor“, lautet das Fazit von Thorsten Holz. Während die VW-Software zum Beispiel anhand der Sequenz von Beschleunigungen und Bremsmanövern erkennt, ob sich ein Fahrzeug gerade in einem Prüfzyklus befindet, nutzt Fiat die Tatsache, dass ein Prüfzyklus 20 Minuten dauert – und schaltet die Abgasreinigung schlicht nach etwas mehr als 22 Minuten Betrieb ab.

Da die Wissenschaftler Software aus den vergangenen acht Jahren testeten, können sie nachvollziehen, dass die Abschalteinrichtungen im Lauf der Jahre immer weiter verfeinert wurden. Ihr Ziel ist es nun, ihr Tool so weiterzuentwickeln, dass es die Motorsteuerungssoftware beliebiger Hersteller automatisch analysieren kann.

Originalveröffentlichung
Moritz Contag, Guo Li, Andre Pawlowski, Felix Domke, Kirill Levchenko, Thorsten Holz, Stefan Savage: How they did it: an analysis of emission defeat devices in modern automobiles, IEEE Symposium on Security & Privacy, 2017, San Jose, CA, USA

Prof. Dr. Thorsten Holz
Lehrstuhl für Systemsicherheit
Horst-Görtz-Institut für IT-Sicherheit
Ruhr-Universität Bochum
Tel.: 0234 32 25199
E-Mail: thorsten.holz@rub.de

Moritz Contag
Lehrstuhl für Systemsicherheit
Horst-Görtz-Institut für IT-Sicherheit
Ruhr-Universität Bochum
Tel.: 0234 32 29363
E-Mail: moritz.contag@rub.de

Quelle: idw

(nach oben)


Eine Werbesäule zur Minderung der Luftverschmutzung in Paris

Marie de Chalup Wissenschaftliche Abteilung
Wissenschaftliche Abteilung, Französische Botschaft in der Bundesrepublik Deutschland

Die weltberühmte Pariser Morris-Säule [1] wird als Pilotanlage für die Luftreinigung getestet. Eine erste Säule wird am Place d’Alesia aufgestellt, wo täglich 72.000 Fahrzeuge durchfahren und infolgedessen die CO2-Belastung und die Feinstaubemissionen hohe Werte erreichen. So liegt die Stickstoffdioxidkonzentration beispielsweise bei 40 µg/m3, was den Schwellenwert deutlich übersteigt.

Die weltberühmte Pariser Morris-Säule [1] wird als Pilotanlage für die Luftreinigung getestet. Eine erste Säule wird am Place d’Alesia aufgestellt, wo täglich 72.000 Fahrzeuge durchfahren und infolgedessen die CO2-Belastung und die Feinstaubemissionen hohe Werte erreichen. So liegt die Stickstoffdioxidkonzentration beispielsweise bei 40 µg/m3, was den Schwellenwert deutlich übersteigt.

Die Pilotanlage nutzt zur Luftreinigung Mikroalgen, die sich in einem 1 m3 großen Bioreaktor im Inneren der Säule befinden. In den Chloroplasten der Mikroalge läuft das natürliche Verfahren der Fotosynthese ab, welches CO2 und Licht zur Sauerstoffproduktion braucht. Die natürliche Strahlung wird durch zusätzlich integrierte Leuchtdioden verstärkt, um das Fotosyntheseverfahren zu beschleunigen. Die Mikroalgen sind ebenfalls in der Lage, das von Fahrzeugen ausgestoßene Stickstoffdioxid zu fixieren. Nach diesem Verfahren wird die gereinigte Luft nach außen abgegeben. Je mehr Kohlendioxid die Mikroalgen adsorbieren, desto stärker wachsen und vermehren sie sich. Wird die so entstandene Biomasse zu groß, wird sie über die Kanalisation zur nächstgelegenen Kläranlage abtransportiert und für die Einspeisung in das Erdgasnetz in Biomethan umgewandelt.

Dieses Projekt befindet sich noch in der Probephase, bei der genau ermittelt werden soll, wie viele Schadstoffe (CO2, Stickstoffdioxid, Schwefeldioxid, Feinstaub) die Mikroorganismen aufnehmen können. Theoretisch kann der 1 m3 große Bioreaktor die gleiche CO2-Menge binden wie 100 Bäume, was einer Tonne CO2 pro Jahr oder einem Hin- und Rückflug Paris-Washington entspricht. Durch die Umwandlung der Mikroorganismen in Biomethan wird eine jährliche Menge von 10 kg Biomethan erzeugt. Trotz des geringen Volumens des Bioreaktors und der geringen Menge produzierten Biomethans bildet diese Technologie als Kohlenstoffsenke einen vielversprechenden Ansatz, da diese einzelligen Mikroorganismen Wachstumsraten aufweisen, die 10 bis 40 Mal höher liegen als bei Pflanzen, sie in der Natur reichlich vorkommen und sie unter optimalen Bedingungen ihre Masse täglich verdoppeln können.

Zwei Unternehmen sind an diesem Projekt beteiligt: das französische Start-up Fermentlag, das die Mikroalgen entwickelt hat, und das Unternehmen Suez, Spezialist im Bereich Abfall- und Wasserwirtschaft, das das Projekt mit dem Einsatz der Werbesäule als Kohlensenke gefördert hat. Im Januar wurde die umgebaute Säule von 4 m Höhe und 2,5 m Durchmesser und ihrem 1 m3 großen Bioreaktor mit Rauchgasen getestet, die bei der Aufbereitung von Schlämmen in einer Kläranlage in der Pariser Region entstehen. Bis zum Ende des Jahres unterstützt Suez finanziell den Test dieser Pilotanlage; bei positivem Ergebnis sollen weitere Werbesäulen auf den Markt gebracht werden.

[1] Der Name geht zurück auf den Druckereibetreiber Gabriel Morris, der die deutsche Litfaßsäule in Frankreich einführte.

Quelle:
ꞌꞌPollution de l’air : Paris va tester une colonne Morris dépolluanteꞌꞌ, Pressemitteilung aus Le Monde, 15.04.2017- http://www.lemonde.fr/planete/article/2017/04/15/pollution-de-l-air-paris-va-tes…

Redakteur: Luc Massat, luc.massat@diplomatie.gouv.fr

Quelle: idw

(nach oben)


Raucherland Deutschland – weltweit unter den Top Ten

Kerstin Ullrich Pressestelle
Deutsche Diabetes Gesellschaft

Berlin – Deutschland gehört weltweit zu den Top Ten der Länder mit der höchsten Anzahl an Rauchern – mit fatalen Folgen: Etwa jeder siebte Todesfall ist hierzulande eine Folge des Tabakkonsums. Dies zeigt die Global Burden of Disease-Studie, die kürzlich im angesehenen Fachjournal „The Lancet“ erschien. In dieser Studie schätzt ein Konsortium namhafter Wissenschaftler für 195 Länder und Territorien die Raucherzahlen ab und berechnet die durch den Tabakkonsum verursachten Todesfälle.

Zugleich belegt Deutschland den vorletzten Platz – nur gefolgt von Österreich – auf der Tabakkontrollskala der Europäischen Krebsliga, die staatliche Maßnahmen zur Verringerung des Tabakkonsums bewertet, und gerade aktualisiert wurde. Den neunten Platz im Ranking der Länder mit den meisten Rauchern verdankt Deutschland nicht nur seiner hohen Einwohnerzahl, sondern auch dem immer noch hohen Raucheranteil. Dieser ist zwar seit 1990 leicht gesunken, aber nur bei Männern und deutlich weniger als im Durchschnitt aller Länder weltweit. Der Studie zufolge konsumieren in Deutschland rund 20 Prozent der weiblichen und 25 Prozent der männlichen Bevölkerung täglich irgendeine Form von Tabak – mit schwerwiegenden Folgen.

Denn Rauchen ist nach wie vor einer der bedeutendsten Risikofaktoren für Krankheit und Tod: Weltweit ist mehr als jeder zehnte Tod durch Tabakkonsum verursacht. Dies könnte in den kommenden Jahren noch mehr werden, fürchtet Dr. Ute Mons, Leiterin der Stabsstelle Krebsprävention und des WHO-Kollaborationszentrums für Tabakkontrolle am Deutschen Krebsforschungszentrum in Heidelberg: „Mit der demographischen Alterung der Bevölkerung rollt eine Welle tabakbedingter Todesfälle auf Deutschland zu, weil die geburtenstarken Jahrgänge der 1950er und 1960er Jahre, von denen vergleichsweise viele zur Zigarette gegriffen haben, jetzt in ein Alter kommen, in dem das Risiko für tabakbedingte Erkrankungen besonders hoch ist.“

„Diese Entwicklung kann aufgehalten werden, wenn sich Deutschland endlich für eine konsequente Präventionspolitik entscheidet“, sagt Dr. Dietrich Garlichs, Sprecher der Deutschen Allianz Nichtübertragbare Krankheiten (DANK), einem Zusammenschluss von 20 medizinisch-wissenschaftlichen Fachgesellschaften, Verbänden und Forschungseinrichtungen. Mit dem Tabakrahmenübereinkommen der WHO, das Deutschland unterzeichnet und ratifiziert hat, steht ein Bündel wirksamer Präventionsmaßnahmen zur Eindämmung des Rauchens und dessen gesundheitlicher Folgen zur Verfügung.

DANK fordert, dass diese Maßnahmen nun auch entschlossen umgesetzt werden. Dazu gehören insbesondere regelmäßige, deutliche Erhöhungen der Tabaksteuer, ein konsequenter Nichtraucherschutz ohne Ausnahmeregelungen und ein umfassendes Tabakwerbeverbot. „Die Einführung des längst überfälligen Verbots der Außenwerbung für Tabakprodukte, die im Augenblick vom Bundestag blockiert wird, wäre ein wichtiger Schritt zur Eindämmung des Tabakkonsums und der daraus resultierenden Krankheiten und Todesfälle – die Politik muss endlich handeln!“ so Garlichs.

Quellen:
Lancet-Studie
Tabakkontrollskala

Über die Deutsche Allianz Nichtübertragbare Krankheiten (DANK)
Die Deutsche Allianz Nichtübertragbare Krankheiten (DANK) ist ein Zusammenschluss von 20 medizinisch-wissenschaftlichen Fachgesellschaften, Verbänden und Forschungseinrichtungen, der sich für nachhaltige und bundesweite Primärprävention in Deutschland einsetzt. Denn nichtübertragbare Krankheiten sind weltweit Todesursache Nummer eins. In Deutschland gehen rund zwei Drittel der vorzeitigen Todesfälle darauf zurück, z.B. auf Krebs, Herz-Kreislauferkrankungen, Diabetes und chronische Atemwegserkrankungen. Nichtübertragbare Krankheiten bürden PatientInnen und Familien viel Leid und der Gesellschaft enorme Kosten auf. Mit geeigneten Präventionsmaßnahmen sind diese Krankheiten häufig vermeidbar.

DANK fokussiert dabei auf folgende Ziele und Maßnahmen aus dem WHO Global Action Plan for the Prevention and Control of NCDs 2013-2020, da diese besonders wirksam sind:

1. Reduzierung des Tabakkonsums (u.a. durch regelmäßige, spürbare Tabaksteuererhöhungen)
2. Verringerung des schädlichen Alkoholkonsums (u.a. durch Erhöhung der Alkoholsteuer und Erhebung nach Alkoholgehalt)
3. Verhinderung der Zunahme von Diabetes und Adipositas (u.a. durch eine Zucker-Fett-Salzsteuer)
4. Steigerung der körperlichen Aktivität (u.a. durch eine tägliche Sportstunde in Kita und Schule)

Homepage: http://www.dank-allianz.de

Kontakt:
Deutsche Allianz Nichtübertragbare Krankheiten (DANK)
c/o Deutsche Diabetes Gesellschaft
Dr. Dietrich Garlichs (Sprecher)
Albrechtstraße 9, 10117 Berlin
Telefon 030 / 3 11 69 37 0
Telefax 030 / 3 11 69 37 20
E-Mail info@dank-allianz.de

Weitere Informationen:
http://www.tobaccocontrolscale.org/
http://thelancet.com/journals/lancet/article/PIIS0140-6736%2817%2930819-X/fullte…

Quelle: idw

(nach oben)


Von Batterien bis zu Vanillin: Elektrochemie verwandelt Holzabfälle

Petra Giegerich Kommunikation und Presse
Johannes Gutenberg-Universität Mainz

Abfälle der Papier- und Zellstoffindustrie liefern Ausgangsmaterial für Entwicklung neuer Redox-Flow-Batterie – Elektrosynthese im Vormarsch

Die Stabilisierung der Stromnetze wird mit dem Ausbau erneuerbarer Energien eine wachsende Herausforderung. Hier könnten Redox-Flow-Batterien einen wichtigen Beitrag leisten. Wissenschaftler der Johannes Gutenberg-Universität Mainz (JGU) arbeiten im Rahmen eines Kooperationsprojekts an der Entwicklung neuer Elektrolyte für Redox-Flow-Batterien auf der Basis von Lignin, das in der Zellstoffherstellung aus Holz als Abfallprodukt anfällt. Gemeinsam mit ihren industriellen und wissenschaftlichen Partnern erforschen die Mainzer Chemiker damit die Nutzung nachwachsender Rohstoffe zur effizienteren Verwendung erneuerbarer Energien. Bisher wird für Flussbatterien vor allem das Metall Vanadium verwendet, das jedoch nur in begrenzter Menge zur Verfügung steht und außerdem teuer ist. Für die Arbeitsgruppe um Prof. Dr. Siegfried Waldvogel vom Institut für Organische Chemie erschließt sich mit diesem Projekt ein neues Forschungsfeld, in das sie ihre langjährige Erfahrung auf dem Gebiet der Elektrochemie einbringen kann.

Im Falle der Redox-Flow-Batterie geht es den Wissenschaftlern darum, aus Lignin, das in Holz und allgemein in Pflanzen für Stabilität sorgt, geeignete Redox-Paare herzustellen. Diese Redox-Paare werden im Elektrolyt von Flussbatterien aufgeladen und dann getrennt in Tanks gespeichert. Bei Bedarf werden sie später in der galvanischen Zelle zur Energieerzeugung wieder zusammengeführt. „Wir werden aus der Ablauge, die bei der Papier- und Zellstoffproduktion anfällt, durch elektrochemische Zersetzung Chinone gewinnen und sie für den Einsatz in einer Batterie weiter optimieren“, erläutert Waldvogel die Aufgabe der Mainzer Kooperationspartner. Das Projekt wird vom Bundesministerium für Ernährung und Landwirtschaft (BMEL) bis Januar 2019 gefördert.

Elektrosynthese bringt grüne Chemie voran
„Die Elektrosynthese hat hier in Mainz sehr an Fahrt aufgenommen“, ergänzt Waldvogel, der das Forschungsgebiet seit 2010 an der Johannes Gutenberg-Universität Mainz etabliert. In den letzten drei Jahren konnte die Gruppe neue Projekte mit einem Fördervolumen von rund vier Millionen Euro einwerben. Bei der Elektrosynthese geht es im Wesentlichen darum, elektrischen Strom als Reagens zu nutzen, wobei die Elektronen zur Oxidation oder Reduktion von organischen Stoffen dienen. Das ist billiger und wesentlich umweltfreundlicher als konventionelle Reagenzien, sofern Elektrizität aus erneuerbaren Energien verwendet wird. „Man spricht aktuell von der Elektrifizierung der chemischen Synthese und es wird erwartet, dass diese Entwicklung zukünftige Industriegesellschaften weltweit beeinflusst“, so Waldvogel.

Bisher gibt es nur wenige industriell genutzte elektrosynthetische Prozesse für organische Moleküle. Die Gruppe von Siegfried Waldvogel hat nun unter anderem die Gewinnung des Aromastoffs Vanillin aus Holzabfällen entwickelt. Außerdem werden einige Hilfsstoffe für chemische Reaktionen mit diesen Verfahren schneller verfügbar gemacht. Eine besondere Erfolgsgeschichte ist die Veränderung eines Arzneimittelbausteins in Kooperation mit Novartis: Nachdem konventionelle Methoden nicht ans Ziel führten, genügte den Mainzer Wissenschaftlern nur eine elektrochemische Umsetzung, um das Produkt zu erhalten.

Neben Geschmacks- und Duftstoffen sowie Wirkstoffen sieht Waldvogel für die Elektrosynthese großes Potenzial bei der Herstellung spezieller Erzeugnisse für die Agrochemie und von Molekülen für die Materialwissenschaften. Mit dieser Methode können oft viele konventionelle Syntheseschritte abgekürzt werden. Darüber hinaus senkt das Verfahren die Abhängigkeit von knappen Rohstoffen, die normalerweise für chemische Reagenzien benötigt werden. Die Flusselektrolyseure für die Laborversuche, bei denen elektrochemische Prozesse ablaufen, werden in der JGU-eigenen Werkstatt als Prototypen entwickelt und gebaut.

Fotos:
http://www.uni-mainz.de/bilder_presse/09_orgchemie_elektrochemie_batterie_01.jpg
Forscherin beim Aufbau einer Flusselektrolyse
Foto/©: Alexander Sell, JGU

http://www.uni-mainz.de/bilder_presse/09_orgchemie_elektrochemie_batterie_02.jpg
Bis zu acht verschiedene Versuche können gleichzeitig in diesem Screening-Elektrolyseur durchgeführt werden. In jedem der kleinen Kunststoffbecher stecken zwei Elektroden.
Foto/©: Carsten Siering, JGU

Weitere Informationen:
Dr. Carsten Siering
Arbeitskreis Waldvogel
Institut für Organische Chemie
Johannes Gutenberg-Universität Mainz
55099 Mainz
Tel. +49 6131 39-26067
Fax +49 6131 39-26777
E-Mail: siering@uni-mainz.de
http://www.chemie.uni-mainz.de/OC/AK-Waldvogel/

Weitere Links:
https://www.blogs.uni-mainz.de/fb09akwaldvogel/forschung/organic-electrochemistr…
http://www.uni-mainz.de/presse/57994.php (Pressemitteilung vom 23.10.2013 „Zukunftspreis Pfalz geht an Mainzer Chemiker Siegfried Waldvogel“)
https://www.fnr.de/ (Fachagentur Nachwachsende Rohstoffe)

Quelle: idw

(nach oben)


Wer mit Automaten unhöflich umgeht, den bedienen sie nicht

Jan Vestweber Pressestelle
Universität Witten/Herdecke

Prof. Dr. Birger Priddat schreibt in diesem Gastbeitrag darüber, wie die künstliche Intelligenz den Menschen zivilisieren könnte

Plötzlich machen sich alle Gedanken über Roboter und Automaten. Vor allem über die künstliche Intelligenz (KI), die zunehmend in die Automaten eingebaut und ständig weiterentwickelt wird. Wird ihre Intelligenz unsere bald überflügeln?

Dass Algorithmen vieles, was wir uns mühsam zusammenreimen, extrem schnell und komplex berechnen können, ist eine nützliche Eigenschaft der Digitalisierung. Dass aber die Roboter die Macht übernehmen, ist eher der Nachtschatten schlechter amerikanischer Filme. Aber etwas anderes wird passieren: dass wir uns daran gewöhnen, mit Automaten zusammenzuleben. Wir werden sie vielfach gar nicht mehr als Automaten empfinden, sondern als gleichsam natürliche Gesprächs- und Arbeitspartner (so wie heute schon Siri oder die Stimme des Navigationsgerätes). Spätestens dann, wenn die Maschinen reden werden. Denn alle Automaten, die mit uns oder für uns arbeiten, werden kommunizieren: untereinander, aber auch mit uns. Dass sie mit uns andere Dinge kommunizieren, ist klar: Alexa oder Siri sind die ersten Erprobungen.

Wenn sich die Automaten sprachlich in unsere Kommunikationswelten einklinken, sind wir nicht mehr darauf angewiesen, mit Texten, SMS’en, Mails, Bildern etc. zu operieren. Sondern wir kommunizieren mit den Maschinen gleichsam auf ‚Ohrenhöhe‘. Aber das ist der trivialere Teil der Aussage; der weniger triviale ist der, dass uns die Maschinen durchgehend vernünftig gegenübertreten. Sie sind – zumindest erst einmal – emotionslos (ohne kühl zu sein. Das Timbre der Stimmen von Siri und Alexa erleben manche sogar als proto-erotisch). Aber sie kommunizieren letztlich in einer Dimension: streng vernünftig.

Bevor wir nicken und sagen, das sei doch klar, sollten wir bedenken, dass sich daran unsere Kommunikationsstile neu formieren. Mit emotionalem, gehässigem, aufbrausendem, oder aber auch nöligem, wischi-waschi- und labernden Aussagen werden wir den Maschinen nicht kommen können. Sanft werden die Algorithmen unsere Stimmungen korrigieren, nachfragen, unnachgiebig vernünftig. Oder aber die Sache auf später verschieben, weil man von uns gerade keine vernünftige Antwort bekommt etc. Mit unseren schlampigen Kommunikationen, unklarem Entscheiden bzw. Nicht-Entscheiden-Können werden diese Maschinen nichts anfangen können, außer uns leise ‚zur Vernunft‘ zu bringen. Wir werden – mehr oder minder – genötigt, vernünftig zu fragen und vernünftig zu antworten – eine Qualität der Kommunikation, die wir im Alltag durchschnittlich weder beherrschen noch hinreichend üben.

Es kann also sein, dass die Automaten uns zivilisieren. Nicht weil sie so programmiert sind (auch darauf kann man achten), sondern schlicht, weil sie logische Automaten sind, die nichts anderes können, als einigermaßen vernünftig zu sein. Es wäre ein miserabler Automat, wenn er schlampig, uneindeutig, fahrig antworten würde. Die Automaten können eine kulturbildende Aufgabe bekommen. Diesen Aspekt findet man in der euphorischen Sorge über Roboter und Algorithmen äußerst selten.

Natürlich können dann semantische Algorithmen jede gehässige Äußerung – von Aussagen wage ich gar nicht zu reden – zurückweisen; nicht gleich löschen, sondern an den Absender zurückgehen lassen mit der Bitte, sie in ein einigermaßen zivilisiertes Deutsch zur übersetzen. Überhaupt könnte jeder Text – in Facebook, Twitter, aber auch in den Mails – zurückgegeben werden (back to sender), der in schlechtem Deutsch, grammatikalisch falsch und in brüchigem Satzbau verfasst ist. Wahrscheinlich würden 50 Prozent der aktuell gesendeten Textchen nicht durch den sprachbildenden Filter gehen.

Eine absurde Idee? Warum? Warum lassen wir es zu, dass ein Großteil der Kommunikation in der Gesellschaft in schlechtem Deutsch geschieht? Wenn man privat seine Sprache verschludern lassen will, ist das eine Sache, aber nicht in der Öffentlichkeit. Mit dem Internet und seiner zivilisatorischen Vernunft hätten wir eine erstmalige Chance, in eine neue Sprachkultur einzutreten. Wer mit den Automaten unhöflich oder sprachlich barbarisch umgeht, den bedienen sie nicht.

Weitere Informationen: Prof. Dr. Birger Priddat, birger.priddat@uni-wh.de oder 02302 / 926-530

Über uns:
Die Universität Witten/Herdecke (UW/H) nimmt seit ihrer Gründung 1982 eine Vorreiterrolle in der deutschen Bildungslandschaft ein: Als Modelluniversität mit rund 2.400 Studierenden in den Bereichen Gesundheit, Wirtschaft und Kultur steht die UW/H für eine Reform der klassischen Alma Mater. Wissensvermittlung geht an der UW/H immer Hand in Hand mit Werteorientierung und Persönlichkeitsentwicklung.

Witten wirkt. In Forschung, Lehre und Gesellschaft.

Quelle: idw

(nach oben)


Frischluft im Sand: Was Bakterien in der Nordsee antreibt

Dr. Fanni Aspetsberger Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für marine Mikrobiologie

Zwei neue Studien liefern spannende Details über das Leben der Bakterien im Boden der Nordsee.

Fast fünf Millionen Deutsche machen alljährlich Urlaub an der Nordsee. Sie erholen sich am Strand oder genießen das Naturschauspiel des Wattenmeers. Doch die Nordsee ist mehr als nur eines der beliebtesten deutschen Reiseziele. Sie ist auch ein faszinierendes Ökosystem, das für unser Leben höchst bedeutsam ist und immer noch voller Überraschungen steckt.

Soeren Ahmerkamp und David Probandt vom Bremer Max-Planck-Institut verbringen deshalb viel Zeit an der Nordsee. Die beiden Forscher beschäftigen sich mit dem Lebensraum Sand – oder, wissenschaftlich gesprochen, mit permeablen Küstensedimenten. Nun beschreiben sie in zwei neuen Veröffentlichungen, wie Sauerstoff den Sand durchdringt und was das für die dort lebende Bakteriengemeinschaft bedeutet.

„Sande bedecken große Teile des Meeresbodens entlang der Kontinentalränder“, erklärt Soeren Ahmerkamp aus der Abteilung Biogeochemie am MPI Bremen. „Sie sind viel durchlässiger für das Meerwasser als der meist schlammige Boden der Tiefsee.“ Wenn Meerwasser durch den Sand strömt, gelangt auch Sauerstoff in den Boden und regt die dortigen Mikroorganismen an. Je mehr Sauerstoff in den Boden gelangt, desto aktiver sind die Mikroorganismen und können beispielsweise große Mengen Kohlenstoff oder Stickstoff umsetzen. „Das ist besonders wichtig angesichts dessen, dass durch die Flüsse große Mengen an Stickstoff und anderen Nährstoffen in die Nordsee gelangen“, so David Probandt aus der Abteilung Molekulare Ökologie.

„Bisher wurde die Wechselwirkung von Sanden und dem Meerwasser meist nur im Labor untersucht“, fährt Ahmerkamp fort. „Wir haben sie uns vor Ort angesehen, unter realen Bedingungen, um mehr über ihre tatsächliche Bedeutung aussagen zu können.“

Gemeinsam mit Kollegen vom MPI Bremen entwickelte Ahmerkamp ein Gerät namens LanceALot, das gleichzeitig die Strömungsgeschwindigkeit, die Form des Bodens und den Sauerstoff im Sand messen kann. An 16 verschiedenen Stellen in der Nordsee wurde LanceALot eingesetzt, um den Zusammenhang zwischen diesen Faktoren zu untersuchen.

Eine bedeutende Rolle spielen demnach Rippel – die typischen, an ein Wellblech erinnernden Sandwellen am Meeresboden. „Durch die ständigen Veränderungen der Rippel und die wechselnden Gezeitenströme ist der Sand ein sehr dynamischer Lebensraum, der sich ständig verändert. Sauerstoff ist mal mehr oder weniger vorhanden, mal dringt er mehrere Zentimeter tief in den Sand ein und mal bleibt er an der Oberfläche – daran müssen sich die Mikroorganismen im Sand anpassen“, sagt Ahmerkamp.

Den bakteriellen Bewohnern des Sandes wird also viel abverlangt. „Auf jedem Sandkorn sitzen zehntausende bis hunderttausende Bakterien. Die können natürlich einiges bewirken“, meint auch David Probandt. Da diese Bakterien beispielsweise Kohlenstoff und auch Stickstoff aus dem Meerwasser verarbeiten, wirken die Sande wie riesige, reinigende Filter. Vieles von dem, was das Meerwasser in den Boden spült, kommt nicht wieder heraus.

Bislang ist nur wenig über die bakteriellen Bodenbewohner entlang der Küsten bekannt. Probandt und seine Kollegen haben sie nun an verschiedenen Stellen der Nordsee mit modernen molekularen Methoden und Fluoreszenzmikroskopie erforscht. „Schon in den obersten fünf Millimetern des Meeresbodens finden wir ganz andere und vielfältigere Bakterien als im Meerwasser selbst“, so Probandt. „Wer wo wohnt, hängt vor allem von der Zusammensetzung des Meeresbodens ab. Je durchlässiger der Boden für einströmendes Meerwasser ist, desto mehr aerobe Bakterien treten auf.“ Die Arbeit zeigte ebenfalls, dass eine Bakteriengruppe, die sogenannten Planctomyceten, besonders häufig in Küstensedimenten vorkommen. Planctomyceten unterscheiden sich von anderen Bakterien durch ihren komplexen Lebenszyklus und stellen viele verschiedene Naturstoffe her. Sie könnten daher auch besonders gut an die besonderen Bedingungen in Oberflächensedimenten angepasst sein. „Ob dies der Fall ist, werden wir in zukünftigen Arbeiten betrachten“ betont Probandt.

Der Meeresboden entlang der Küsten ist besonders stark von menschlichem Einfluss – von der wirtschaftlichen Nutzung über Nährstoffeintrag durch die Flüsse bis hin zum Klimawandel – betroffen. Die neuen Studien zeigen, wie komplex dieser Lebensraum ist und welche bedeutende Rolle seine Bewohner für unser Leben spielen. „Durch die Zusammenarbeit von Wissenschaftlern verschiedener Fachrichtungen konnten wir viele neue Erkenntnisse über dieses dynamische Ökosystem erlangen“, betont Probandt.

„Es gibt noch sehr viel zu erforschen in der Nordsee und den anderen Küstenmeeren“, schließt Ahmerkamp. „Die Vorgänge und mögliche Veränderungen in diesem Ökosystem betreffen uns alle.“

Originalveröffentlichungen
S. Ahmerkamp, C. Winter, K. Krämer, D. de Beer, F. Janssen, J. Friedrichs, M. Kuypers und M. Holtappels (2017): Regulation of benthic oxygen fluxes in permeable sediments of the coastal ocean. Limnology and Oceanography.
DOI: 10.1002/lno.10544 (http://onlinelibrary.wiley.com/doi/10.1002/lno.10544/full)
Die Publikation ist im Rahmen des MPI-marum Cross-Cutting-Project 5 (CCP5)“Organic-matter remineralization and nutrient turnover in permeable sandy sediments“ unter der Leitung von Moritz Holtappels entstanden.

D. Probandt,. K. Knittel, H. E. Tegetmeyer, S. Ahmerkamp, M. Holtappels und R. Amann (2017): Permeability shapes bacterial communities in sublittoral surface sediments. Environmental Microbiology 19(4): 1584-1599.
DOI: 10.1111/1462-2920.13676 http://onlinelibrary.wiley.com/doi/10.1111/1462-2920.13676/epdf

Rückfragen bitte an
Dr. Soeren Ahmerkamp (https://www.mpi-bremen.de/Dr.-soeren-ahmerkamp.html)
David Probandt (https://www.mpi-bremen.de/David-Probandt.html)

oder an die Pressestelle
Dr. Fanni Aspetsberger
Dr. Manfred Schlösser
Telefon: +49 421 2028 704
E-Mail: presse@mpi-bremen.de

Quelle: idw

(nach oben)


Durch die Luft übertragene Viren überleben im Wasser

Anja Wirsing Pressestelle des Forschungsverbundes Berlin e.V.
Forschungsverbund Berlin e.V.

Bisher dachte man, dass Herpesviren außerhalb ihres Wirtes kaum überlebensfähig sind. WissenschaftlerInnen des Berliner Leibniz-Instituts für Zoo- und Wildtierforschung (Leibniz-IZW) zeigen in ihrer aktuellen Studie, dass Pferde-Herpesviren unter bestimmten Bedingungen über einen Zeitraum von bis zu drei Wochen stabil und infektiös bleiben. Die Forschungsergebnisse legen nahe, dass unbehandeltes Wasser eine Quelle für Herpesinfektionen darstellt. Die Studie wurde jetzt in der wissenschaftlichen Fachzeitschrift „Scientific Reports“ veröffentlicht.

Herpesviren gehören zu den „umhüllten Viren“, die über die Luft von Wirt zu Wirt übertragen werden und Krankheiten hervorrufen können. Bisher wurde angenommen, dass sie in der Umwelt instabil sind und die Übertragung daher schnell und direkt erfolgen muss.

Diese Annahme wurde jetzt durch ein Forscherteam unter der Leitung des Leibniz-IZWs in Zusammenarbeit mit dem Institut für Virologie der Freien Universität Berlin überprüft. Hierzu reicherten die ForscherInnen Wasser mit Pferde-Herpesviren unter verschiedenen Bedingungen an und untersuchten über einen Zeitraum von drei Wochen, ob virale DNA entnommen werden konnte und das Virus im Wasser infektiös blieb.

„Die Ergebnisse zeigen, dass das Virus bis zu drei Wochen stabil und infektiös bleibt. Die ‚Überlebensdauer‘ wird durch den pH-Wert und die Temperatur des Wassers bestimmt“, erklärt Anisha Dayaram, Wissenschaftlerin am Leibniz-IZW. Überraschenderweise wurde außerdem festgestellt, dass durch Zugabe von Erde das Virus aus dem Wasser „herausgezogen“ und so für längere Zeit stabilisiert wurde. „In natürlichen Gewässern könnte das Virus so für längere Zeit in der Bodenschicht bestehen, ohne direkt einen weiteren Wirt zu infizieren. Im Fall des Pferde-Herpesvirus könnten sich daher Pferde, oder andere für das Virus anfällige Säugetiere, über das Wasser anstecken, und dass noch lange, nachdem ein infiziertes Tier in dem entsprechenden Gebiet war“, erklärt Alex Greenwood, Abteilungsleiter Wildtierkrankheiten am Leibniz-IZW.

Die Ergebnisse lassen darauf schließen, dass Viren wie das Pferde-Herpesvirus Teil des sogenannten Umwelt-„Viroms“ sind und infektiös bleiben könnten. Das Pferde-Herpesvirus hat sich zwischen Säugetieren wie Eisbären und Nashörner ohne direkten Kontakt mit Pferden oder deren Artverwandten sowohl in Gefangenschaft als auch in freier Wildbahn ausgebreitet, zum Teil mit fatalen Folgen. Es könnte sein, dass gemeinsam genutzte Wasserstellen eine mögliche Übertragungsquelle für Infektionen darstellen.

Diese Arbeit ist Teil des laufenden Forschungsprojekts „AquaVir“ („Wasser als aquatischer viraler Vektor für neu auftretende Infektionskrankheiten“); gefördert durch Bund und Länder im Rahmen des Paktes für Forschung und Innovation und des Leibniz-Forschungsverbundes Infections‘21.

Publikation:
Dayaram A, Franz M, Schattschneider A, Damiani AM, Bischofberger S, Osterrieder N, Greenwood AD (2017): Long term stability and infectivity of herpesviruses in water. Scientific Reports. www.nature.com/articles/srep46559

Kontakt:
Leibniz-Institut für Zoo- und Wildtierforschung (IZW)
im Forschungsverbund Berlin e.V.
Alfred-Kowalke-Str. 17
10315 Berlin

Prof. Alex D. Greenwood
Tel.: 030 / 5168-255
E-Mail: greenwood@izw-berlin.de

Steven Seet (Pressestelle)
Tel.: 030 / 5168-125
E-Mail: seet@izw-berlin.de

Quelle: idw

(nach oben)


Erwerbstätige Frauen arbeiten täglich 1,6-mal so lang unbezahlt wie Männer

Rainer Jung Abt. Öffentlichkeitsarbeit
Hans-Böckler-Stiftung

WSI-Studie: Deutliche Folgen für Karriere und Alterssicherung

Frauen leisten erheblich mehr in der Kindererziehung und Hausarbeit als Männer. Solange das so bleibt, ist eine Gleichstellung in Beruf und Gesellschaft nicht erreichbar. Zu diesem Ergebnis kommt eine neue Studie des Wirtschafts- und Sozialwissenschaftlichen Instituts (WSI) der Hans-Böckler-Stiftung.*

Viele Paare wünschen sich eine partnerschaftliche Arbeitsteilung. Doch die Realität sieht anders aus: Den größten Teil der unbezahlten Arbeit – Hausarbeit, Kinderbetreuung und Pflege – leisten in Deutschland nach wie vor Frauen, wie eine aktuelle Auswertung des WSI GenderDatenPortals auf Basis der repräsentativen Zeitverwendungserhebung 2012/13 für Personen im Erwerbsalter zeigt. Frauen von 18 bis 64 Jahren verwenden demnach 2,4-mal so viel Zeit für unbezahlte Fürsorgearbeit und das 1,6-fache für Hausarbeit wie Männer dieser Altersgruppe. Noch deutlicher sind die Unterschiede bei Erwerbstätigen mit Kindern.

Zwar fällt die Gesamtarbeitszeit von erwerbstätigen Frauen und Männern ähnlich hoch aus – die Frauen arbeiten im Schnitt täglich 7:44 Stunden, die Männer 7:40 Stunden. Allerdings unterscheiden sich beide Geschlechter sehr deutlich in der Verteilung von bezahlter und unbezahlter Arbeit:

• Erwerbstätige Männer verbringen im Durchschnitt täglich 5:32 Stunden mit bezahlter Arbeit, etwa 1,2-mal so viel Zeit wie erwerbstätige Frauen (4:15 Stunden; zur Erhebung und Berechnung der täglichen Arbeitszeiten siehe die methodischen Informationen am Ende der PM).

• Erwerbstätige Frauen verwenden auf unbezahlte Arbeit im Schnitt 3:29 Stunden und damit etwa 1,6-mal so viel Zeit wie erwerbstätige Männer (2:08 Stunden).

Hoher Aufwand für häusliche Arbeit geht Hand in Hand mit reduzierten Arbeitszeiten im Beruf. Fast jede zweite Frau in Deutschland arbeitet in Teilzeit. Unter Müttern ist Vollzeitarbeit sogar die Ausnahme, während Männer – selbst dann, wenn sie Väter sind – fast ausschließlich in Vollzeit arbeiten. Für einen Mann, der voll arbeitet, besteht mit 73 Prozent der größte Teil seiner Gesamtarbeitszeit aus bezahlter Arbeit. Eine teilzeitbeschäftigte Frau wird hingegen nur für 43 Prozent ihrer Gesamtarbeitszeit entlohnt und leistet den größeren Teil ihrer Arbeit unbezahlt.

Besonders groß ist das Missverhältnis von beruflicher und häuslicher Arbeit zwischen den Geschlechtern, wenn Kinder unter sechs Jahren im Haushalt leben. Vollzeitbeschäftigte Väter mit kleinen Kindern haben mit 9:11 Stunden die längste Gesamtarbeitszeit von allen – nur ein Drittel davon verwenden sie auf Hausarbeit, Kinderversorgung und gegebenenfalls Pflegeaufgaben. Vollzeitbeschäftigte Mütter hingegen wenden dafür mehr als die Hälfte und teilzeitbeschäftigte Mütter sogar fast 70 Prozent ihrer Gesamtarbeitszeit auf. Die Betreuung von Kleinkindern ist also nach wie vor weitgehend Frauensache.

Das lässt sich auch daran ablesen, dass Mütter deutlich häufiger und länger Elterngeld beziehen als Väter. Mehr als 90 Prozent der Elternzeit, für die Elterngeld gezahlt wird, entfallen bislang noch auf Frauen. Immerhin scheint sich hier etwas zu verändern – heute nehmen Männer häufiger Vätermonate in Anspruch als in früheren Jahren. Auch wenn die Elternzeit von Vätern meist nur von kurzer Dauer ist, ergeben sich daraus langfristige Effekte: Je mehr Männer sich um den Nachwuchs kümmern und darüber in Kontakt mit vorübergehender Teilzeitarbeit kommen, umso wahrscheinlicher wird es, dass sie auch über das Ende der Elternzeit hinaus ihre Arbeitszeit reduzieren. Etwa jeder vierte Vater verringert seine Arbeitszeitdauer im Anschluss an seine Elternmonate im Vergleich zu der Zeit vor der Geburt des Kindes um 10 bis 20 Prozent. Väter, die drei oder mehr Elterngeldmonate genommen haben, reduzieren anschließend besonders häufig ihre Arbeitszeit (42 Prozent). „Das Elterngeld scheint zu helfen, dem Wunsch nach einer eher partnerschaftlichen Aufteilung bei Paaren in der Realität zumindest für eine bestimmte Zeit näherzukommen“, schreiben die Forscherinnen und Forscher.

Neben der Betreuung von Kindern ist die Pflege von Angehörigen der zweite wichtige Bereich der Fürsorgearbeit. Auch hier engagieren sich Frauen sowohl häufiger als auch intensiver. Sie stellen mit 2,35 Millionen Pflegepersonen fast zwei Drittel derjenigen, die unbezahlte Pflegearbeit leisten. Drei Prozent der Frauen, aber nur ein Prozent der Männer bringen täglich mindestens zwei Stunden für die Pflege von Angehörigen auf. Vor allem im Erwerbsalter, also bis zum 65. Lebensjahr, unterstützen Frauen andere Menschen viel häufiger, als Männer dies tun. Der Anteil pflegender Frauen ist im Alter von 45 bis 74 Jahren am höchsten, während die meisten Männer eher später im Lebensverlauf pflegen. Dass Frauen ab 75 seltener pflegen als Männer in der gleichen Altersgruppe, liegt daran, dass sie häufiger verwitwet sind und somit keinen Partner mehr betreuen.

„Von einer gleichmäßigen Aufteilung der bezahlten und unbezahlten Arbeit zwischen Frauen und Männern kann bislang keine Rede sein“, lautet das Fazit der Analyse. Dass Frauen im Beruf häufig zurückstecken, hänge direkt mit der ungleichen Aufteilung der häuslichen Arbeit zusammen – damit verbunden seien erheblichen Auswirkungen auf das Einkommen, die beruflichen Chancen und die Alterssicherung der Frauen. „Gleichstellungspolitik sollte daher berufliche Gleichstellung von Frauen mit Anreizen für eine Umverteilung von unbezahlter Arbeit hin zu Männern verknüpfen“, so die Wissenschaftlerinnen und Wissenschaftler, „und für beide Geschlechter bessere Bedingungen für die Vereinbarkeit von Erwerbs- und Sorgearbeit schaffen“.

Informationen zur Methode der Erhebung:
Die WSI-Analyse basiert auf Sonderauswertungen der Zeitverwendungserhebung (ZVE) 2012/13, durchgeführt vom Statistischen Bundesamt in Zusammenarbeit mit den Statistischen Landesämtern. Über einen Zeitraum von zwölf Monaten erfolgte eine schriftliche Befragung von mehr als 5.000 Privathaushalten und 11.000 Personen ab zehn Jahren. Für jeweils drei vorgegebene Tage füllten die Teilnehmer ein Tagebuch aus, in das sie ihre Tätigkeiten im Zehn-Minuten-Takt eintrugen. Im Auftrag des Wirtschafts- und Sozialwissenschaftlichen Instituts (WSI) wurde zudem ermittelt, wie sich die Zeitverwendung von Frauen und Männern im Erwerbsalter unterscheidet.

Da viele Tätigkeiten ungleich über die Wochentage verteilt sind, etwa weil sie gehäuft an Wochentagen stattfinden (Erwerbstätigkeit) oder vorwiegend am Wochenende (Hausarbeit bei Vollzeiterwerbstätigen), wurden die einzelnen Tage für die Berechnung der durchschnittlichen Zeitdauer gewichtet. Auch Urlaube, Feiertage und Krankheitstage wurden entsprechend einberechnet. Dadurch können die Werte für die durchschnittliche Zeitdauer einer Tätigkeit von dem gewohnten Verständnis abweichen: So kann die durchschnittliche Arbeitszeit von Vollzeiterwerbstätigen beispielsweise weniger als fünf Stunden pro Tag betragen. Die Analysen beruhen ausschließlich auf den Angaben zu den Haupttätigkeiten. Dies kann vor allem im Bereich der Fürsorgearbeit zu einer zeitlichen Untererfassung führen, wenn Phasen der Kinderbetreuung als Nebentätigkeit eingetragen wurden – etwa die Unterhaltung mit dem Kind während das Essen zubereitet wird.

Kontakt in der Hans-Böckler-Stiftung:
Dr. Christina Klenner
WSI
Tel.: 0211-7778-231
E-Mail: Christina-Klenner@boeckler.de

Rainer Jung
Leiter Pressestelle
Tel.: 0211-7778-150
E-Mail: Rainer-Jung@boeckler.de

Weitere Informationen:
https://www.boeckler.de/pdf/p_wsi_report_35_2017.pdf – *Dietmar Hobler, Christina Klenner, Svenja Pfahl, Peter Sopp, Alexandra Wagner: Wer leistet unbezahlte Arbeit? Hausarbeit, Kindererziehung und Pflege im Geschlechtervergleich, aktuelle Auswertungen aus dem WSI GenderDatenPortal, April 2017.

Quelle: idw

(nach oben)


Neue Studie: Zu niedriger Blutdruck ist schädlich, Untergrenzen könnten sinnvoll sein

Prof. Dr. Eckart Fleck Pressesprecher
Deutsche Gesellschaft für Kardiologie – Herz- und Kreislaufforschung e.V.

Ein möglichst niedriger Blutdruckwert ist bei Patienten mit hohem Herz-Kreislauf-Risiko nicht unbedingt das optimale Behandlungsziel. Sinkt der Blutdruck unter einen bestimmten Wert, steigt das Herz-Kreislauf-Risiko wieder an, zeigt eine neue Studie. Auch in der Bluthochdrucktherapie sei deshalb ein individualisierter Ansatz wünschenswert, sagten Herz-Spezialisten auf der Jahrestagung der Deutschen Gesellschaft für Kardiologie in Mannheim.

Mannheim/Homburg/Saar, 22. April 2017 – Ein möglichst niedriger Blutdruckwert ist bei Patienten mit hohem Herz-Kreislauf-Risiko nicht unbedingt das optimale Behandlungsziel. Sinkt der Blutdruck unter einen bestimmten Wert, steigt das Herz-Kreislauf-Risiko wieder an. Das ist das Ergebnis einer auf der 83. Jahrestagung der Deutschen Gesellschaft für Kardiologie (DGK) in Mannheim diskutierten neuen wissenschaftlichen Studie. „Das Festlegen einer Blutdruck-Untergrenze könnte also sinnvoll sein“, so Studienleiter Prof. Michael Böhm (Homburg/Saar), der auch in der Bluthochdrucktherapie einen individualisierten Ansatz für wünschenswert hält.

Aktuelle wissenschaftliche Leitlinien empfehlen einen systolischen Blutdruckzielwert von unter 140 Millimeter Quecksilbersäule (mmHg), machen aber keine Vorgaben, wie niedrig der Blutdruck sinken sollte oder darf. Das Prinzip „je niedriger desto besser“, das häufig für das LDL-Cholesterin angenommen wird, scheint beim Blutdruck keine Gültigkeit zu haben, zeigt die Analyse der beiden Großstudien ONTARGET und TRANSCEND mit insgesamt fast 30.940 eingeschlossenen Hochrisiko-Patienten. Bei manchen Patienten, deren Blutdruck während der Therapie auf zu niedrige Werte sinkt, könnte es sinnvoll sein, die Medikation zu reduzieren, um Nebenwirkungen zu vermeiden, sagt Prof. Böhm.

Doch wo sollte eine Untergrenze definiert werden? In den Studien wurde die Wirksamkeit eines Blutdrucksenkers allein sowie in Kombinationen untersucht. Patienten, die während des mittleren Beobachtungs-Zeitraums von 53 Monaten systolische Blutdruckwerte unter 120 mmHg erreichten, hatten ein um 14 Prozent höheres Risiko für Herz-Kreislauf-Ereignisse als jene, deren Blutdruck zwischen 120 und 140 mmHg lag, mit der Ausnahme von Herzinfarkt und Schlaganfall. Die Herz-Kreislauf-Sterblichkeit stieg um 29 Prozent und die Gesamtsterblichkeit um 28 Prozent.

Ähnlich sieht die Situation beim diastolischen Blutdruck aus. Werte unter 70 mmHg standen mit einem um 31 Prozent erhöhten Risiko für Herz-Kreislauf-Ereignisse im Zusammenhang, verglichen mit Werten zwischen 70 und 80 mmHg. Auch das Risiko für Herzinfarkt und durch Herzschwäche bedingte Klinikeinweisungen war erhöht. Schlaganfälle kamen allerdings seltener vor, wenn die Werte darunter fielen.
Das niedrigste Risiko für kardiovaskuläre Ereignisse hatten Patienten, die unter der Blut-druck-Therapie einen systolischen Blutdruck zwischen 120 und 140 mmHg und einen diastolischen Blutdruck um die 75 mmHg erreichten. Somit sei für die meisten Hochrisiko-Patienten ein Blutdruckzielwert von unter 130 mmHg, nicht jedoch ein Wert unter 120 mmHg sicher und wirksam, fassen die Studienautoren zusammen.

Sie gehen davon aus, dass sich der Vorteil einer erreichten Blutdruckhöhe individuell unterscheiden kann und vom jeweiligen Risikoprofil eines Menschen abhängt. Patienten mit einem besonders hohen Risiko für ein bestimmtes Ereignis wie zum Beispiel einen Schlaganfall könnten von einem noch niedrigeren Blutdruck profitieren, vermuten die Studienautoren, während dieser Bereich für Patienten mit einem erhöhten Herzinfarkt-Risiko nachteilig ist. In der Praxis sind solche eindeutigen Prognosen allerdings oft schwierig. Außer Frage stehe, dass auch in der Bluthochdrucktherapie ein individualisierter Ansatz wünschenswert sei.

Quelle: Böhm M, Schumacher H, Teo K et al. Achieved blood pressure and cardiovascular outcomes in high-risk patients: results from ONTARGET and TRANSCEND trials. Lancet 2017

Die Deutsche Gesellschaft für Kardiologie – Herz und Kreislaufforschung e.V. (DGK) mit Sitz in Düsseldorf ist eine gemeinnützige wissenschaftlich medizinische Fachgesellschaft mit mehr als 10.000 Mitgliedern. Sie ist die älteste und größte kardiologische Gesellschaft in Europa. Ihr Ziel ist die Förderung der Wissenschaft auf dem Gebiet der kardiovaskulären Erkrankungen, die Ausrichtung von Tagungen die Aus-, Weiter- und Fortbildung ihrer Mitglieder und die Erstellung von Leitlinien. Weitere Informationen unter www.dgk.org

Weitere Informationen:

http://www.dgk.org/presse
http://www.kardiologie.org

Quelle: idw

(nach oben)


575 Elbkilometer aktiv für die Meeresforschung: Mitschwimmerinnen und Mitschwimmer gesucht

Nina Petersen Redaktionsbüro Wissenschaftsjahr 2016*17 – Meere und Ozeane
Wissenschaftsjahr 2016*17 – Meere und Ozeane

Im Rahmen des Wissenschaftsjahres 2016*17 – Meere und Ozeane startet im Juni die bislang größte Freiwasser-Schwimmstaffel Deutschlands: Die Elbschwimmstaffel rückt als einzigartige Mitmach- und Forschungsveranstaltung die Bedeutung von sauberen Fließgewässern für Meere und Ozeane in den Mittelpunkt.

Alle (Wasser-)Wege führen ins Meer. Für den Schutz der Meere und Ozeane sind saubere Fließgewässer somit unabdingbar. Um diesen Zusammenhang hervorzuheben, formiert sich vom 24. Juni bis zum 12. Juli die bislang größte Freiwasser-Schwimmstaffel Deutschlands: Die Elbschwimmstaffel. Unter dem Motto „Das Meer beginnt hier!“ bietet die Mitmach-Aktion im Rahmen des Wissenschaftsjahres 2016*17 – Meere und Ozeane interessierten Bürgerinnen und Bürgern die Gelegenheit, sich aktiv mit Forschung auseinanderzusetzen und sich somit am Meeresschutz zu beteiligen.

Ab sofort besteht die Möglichkeit, sich unter http://www.elbschwimmstaffel.de für die Teilnahme an der Aktion anzumelden und einer von rund 200 Schwimmerinnen und Schwimmern der bislang größten Staffelmannschaft zu sein, die jemals ein deutsches Fließgewässer durchschwommen hat.

Am Beispiel der Flusslandschaft Elbe wird zugleich aufgezeigt, wie Mensch und Umwelt von einem sauberen Fluss profitieren. Hierfür wird die Staffel von drei Forschungsprojekten wissenschaftlich begleitet: Die Technische Universität Berlin untersucht Mikroplastik im Wasserkreislauf, das Karlsruher Institut für Technologie führt eine Gewässeranalyse durch und die Technische Universität Dresden geht der Frage nach einer gemeinsamen Umsetzungsmöglichkeit von Hochwasserschutz und naturnaher Gewässerentwicklung nach.

Der Startschuss fällt am 24. Juni in Bad Schandau. Von dort aus wird die Staffelmannschaft eine Strecke von insgesamt 575 km die Elbe hinab schwimmen. Die Strecke beinhaltet 19 Tagesetappen. Eine Schwimmstrecke hat jeweils eine Länge von 2 km. Zum Schwimmen aufgerufen sind alle Erwachsenen, die keine gesundheitlichen Einschränkungen haben, körperlich fit sind und mindestens das Schwimmabzeichen in Bronze (Freischwimmer) abgelegt haben. Bundesforschungsministerin Johanna Wanka betont: „Galt die Elbe vor 25 Jahren noch als einer der schmutzigsten Flüsse Europas, so zeigt sie heute, was durch ein gezieltes Zusammenwirken von Politik, Behörden, Wissenschaft und Gesellschaft möglich ist. Am Beispiel Elbe wollen wir die Menschen direkt an Meeres- und Fließgewässerforschung heranführen, sie aktiv einbeziehen und ihre vielfältigen Aspekte – von Fischansiedlung bis zu Mikroplastik – anschaulich darstellen.“

Ob sportlich-ehrgeizig, umweltbewusst oder wissenschaftlich interessiert – Die Elbschwimmstaffel ist ein einmaliges Mitmach- und Forschungsereignis, das neben der aktiven Bürgerbeteiligung vor allem die breite Öffentlichkeit für das Thema der nachhaltigen Nutzung sowie für den Schutz unserer Meere und Ozeane sensibilisiert.

Weitere Informationen finden Sie unter:
http://www.elbschwimmstaffel.de

Wissenschaftsjahr 2016*17 – Meere und Ozeane
Die Meeresforschung ist Thema des Wissenschaftsjahres 2016*17. Zu 71 Prozent bedecken Ozeane und Meere unseren Planeten. Sie sind Klimamaschine, Nahrungsquelle, Wirtschaftsraum – und sie bieten für viele Pflanzen und Tiere Platz zum Leben. Wissenschaftlerinnen und Wissenschaftler untersuchen die Ozeane seit Jahrhunderten; und doch sind sie noch immer geheimnisvoll und in weiten Teilen unerforscht. Im Wissenschaftsjahr 2016*17 – Meere und Ozeane geht es um die Ergründung der Gewässer, ihren Schutz und eine nachhaltige Nutzung. Die Wissenschaftsjahre sind eine Initiative des Bundesministeriums für Bildung und Forschung (BMBF) gemeinsam mit Wissenschaft im Dialog (WiD). Sie tragen als zentrales Instrument der Wissenschaftskommunikation Forschung in die Öffentlichkeit. Das Wissenschaftsjahr 2016*17 wird vom Konsortium Deutsche Meeresforschung (KDM) als fachlichem Partner begleitet.

Pressekontakt
Redaktionsbüro Wissenschaftsjahr 2016*17 – Meere und Ozeane
Nina Petersen I Katharina Sawade
Gustav-Meyer-Allee 25 | Gebäude 13/5 | 13355 Berlin
Tel.: +49 30 818777-164 | Fax: +49 30 818777-125
presse@wissenschaftsjahr.de
http://www.wissenschaftsjahr.de

Quelle: idw

(nach oben)


Zinkversorgung beeinflusst Herzgesundheit

Dr. Ulrich Marsch Corporate Communications Center
Technische Universität München

Neben den essentiellen Stoffwechselfunktionen beeinflusst der Zinkstatus im Körper auch das Herz. Tritt oxidativer Stress auf, ist womöglich ein Zinkmangel vorhanden, der sich am Herzmuskel ablesen lässt. Eine Studie der Technischen Universität München (TUM) zeigt den Zusammenhang des Gesamtgehaltes an Zink im Körper und der Gesundheit des Herzens auf.

Oxidativer Stress entwickelt sich, wenn in der Zelle mehr freie Radikale gebildet werden als durch Antioxidantien wie beispielsweise Vitamin E abgefangen werden können. Dass schwerer Zinkmangel mit klinischen Symptomen den Zellstress erhöht, wurde bereits belegt. So ein extremer Mangel ist jedoch sehr selten. Viel häufiger kommen dagegen kurzfristige und latente Unterversorgungen an Zink vor. Inwiefern auch hier ein Zusammenhang zu oxidativem Stress besteht, wurde bislang wenig untersucht.

Aufgrund seiner hohen Stoffwechselaktivität haben sich die Wissenschaftler auf den Herzmuskel konzentriert. Hier entstehen bezogen auf die Gewebemasse besonders viele freie Radikale. Zudem hat der Herzmuskel auch noch eine geringere anti-oxidative Kapazität als andere Gewebe. Daher ist dieser Muskel für oxidativen Stress besonders anfällig.

Für die in „The Journal of Nutrition“ erschienene Studie ist dies an zwei Antioxidantien nachgewiesen worden: Glutathion und Vitamin E (α-Tocopherol). Beide machen freie Radikale unschädlich, wobei insbesondere Vitamin E für die Unversehrtheit der Zellmembran verantwortlich ist. Die Zellmembran grenzt den Zellinhalt gegen die Umwelt ab.

Oxidativer Stress wird vom Zinkstatus gesteuert
Es wurde jungen Ferkeln für wenige Tage das Nahrungszink in unterschiedlichem Ausmaß vorenthalten. So konnten die Wissenschaftler nachvollziehen, wie sich ein schwindendes Zinkdepot auf den Herzmuskel der Tiere auswirkt: Sie konnten nun beobachten, dass der Vorrat an Glutathion im Herzmuskel parallel zum Zinkstatus abnahm. Somit beeinflusst die Zinkversorgung des Körpers bereits in diesem frühen Stadium die Fähigkeit des Herzens, mit oxidativem Stress umzugehen. Dieser ist nach gegenwärtigem Stand der Forschung daran beteiligt, dass Herzerkrankungen entstehen.

Ebenso zeigte sich, dass Gene, die für den programmierten Zelltod verantwortlich sind (Apoptose), in dieser Phase des Zellstresses mit schwindendem Zink hochreguliert werden. „Der Organismus kann den entstandenen Zinkmangel nicht mehr ausgleichen, obwohl unsere Tests nur über wenige Tage liefen“, sagt Erstautor Daniel Brugger vom Lehrstuhl für Tierernährung der TU München.

Eine Kompensation des Herzens wurde im weiteren Verlauf beobachtet: „Nach der ersten Phase, in der sich eine Reduktion der Herzzinkgehaltes zeigte, steuerte der Herzmuskel gegen und erhöhte den Zinkgehalt wieder auf das Ausgangsniveau. Dies geschieht allerdings zulasten der Zinkgehalte in anderen Organen – allen voran der Leber, Niere und des Pankreas.“ Weitere, noch nicht veröffentlichte Daten zeigen zudem, dass daraufhin beispielsweise in der Leber subklinische Entzündungen aufgrund des dort einsetzenden Zinkmangels auftreten. Dass scheint auch andere Gewebe allen voran die primären Immungewebe zu betreffen. Um dies bestätigen zu können, sind weitere Studien notwendig.

Publikation:
Daniel Brugger und Wilhelm M. Windisch: Short-Term Subclinical Zinc Deficiency in Weaned Piglets Affects Cardiac Redox Metabolism and Zinc Concentration, Journal of Nutrition 2017.
DOI: 10.3945/jn.116.240804
http://jn.nutrition.org/content/early/2017/02/15/jn.116.240804.full.pdf

Kontakt:
Technische Universität München
Lehrstuhl für Tierernährung
Hans Eisenmann-Zentrum für Agrarwissenschaften
Daniel Brugger
Tel. +49 (0) 8161 – 714009
E-Mail: Daniel.Brugger@wzw.tum.de
www.wzw.tum.de/lte

Weitere Informationen:
https://www.tum.de/die-tum/aktuelles/pressemitteilungen/detail/article/33844/

Quelle: idw

(nach oben)


IGB Policy Brief: Fünf drängende Gewässerthemen für die kommende Bundesregierung identifiziert

Johannes Graupner Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)

Im Vorfeld der Bundestagswahl 2017 hat das Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB), Deutschlands größtes Forschungszentrum für Binnengewässer, fünf drängende Gewässerthemen identifiziert und in einem IGB Policy Brief veröffentlicht. Bei den Themen besteht nach Einschätzung der Wissenschaftler in der nächsten Legislaturperiode für die neue Bundesregierung dringender Diskussions- und Handlungsbedarf.

Wasser und Gewässer sind lebenswichtige Ressourcen von hoher gesellschaftlicher, wirtschaftlicher und kultureller Bedeutung. Doch die Mehrzahl der Binnengewässer in Deutschland ist in einem ökologisch schlechten Zustand, der zu zahlreichen Konflikten um ihren Schutz und ihre Nutzung führt. Bäche, Flüsse, Seen, Feuchtgebiete und Grundwasser sind somit Brennpunkte des gesellschaftlichen Diskurses. Doch nicht selten fehlen in dieser politischen Debatte Argumente, die durch verlässliche wissenschaftliche Analysen unterlegt sind.

„Forschen für die Zukunft unserer Gewässer“ ist der Leitspruch des IGB. Die objektive und evidenzbasierte Beratung gesellschaftlicher Akteure aus Politik, Behörden, Verbänden, Wirtschaft, Bildungseinrichtungen und der interessierten Öffentlichkeit gehört zu den zentralen Aufgaben des Instituts.

Diesem gesellschaftlichen Beratungsauftrag kommt das IGB auch im Wahljahr 2017 nach, indem es Fakten und fundierte Argumente zu fünf Gewässerthemen zusammengestellt hat, bei denen das Institut dringenden politischen Diskussions- und Handlungsbedarf sieht:

1. Überdüngung: Diffuse Nährstoffbelastung von Gewässern mit Stickstoff und Phosphor

2. Synthetische Stoffe: Pharmazeutika, Mikroplastik, Nanopartikel und hormonaktive Stoffe in Gewässern

3. Wasserstraßen: Unrentabler Ausbau im Konflikt mit der EU-Gesetzgebung

4. Aquakultur: Nachhaltige Kreislaufsysteme und Eigenversorgung stärken

5. Wasserkraft: EEG-Förderung kleiner Wasserkraftanlagen im Spannungsfeld mit dem Gewässerschutz

„Ein nachhaltiges Gewässermanagement muss den Schutz und die Nutzung unserer Gewässer gleichermaßen berücksichtigen. Diese unterschiedlichen Interessen und mögliche Kompromisse müssen in der Politik ausgehandelt werden. Zur wissenschaftlichen Beratungsrolle des IGB gehört dabei auch, auf konkrete Probleme und unbequeme Interessenkonflikte hinzuweisen. Mit dem IGB Policy Brief bieten wir dafür objektive forschungsbasierte Diskussions- und Entscheidungshilfen an“, erklärt Prof. Dr. Mark Gessner, kommissarischer Direktor des IGB und Mitautor des IGB Policy Briefs, anlässlich der Veröffentlichung.

Der IGB Policy Brief zur Bundestagswahl 2017 – „Schutz und Nutzung von Binnengewässern in Deutschland – Status Quo, Konflikte und politische Handlungsoptionen“ kann kostenlos als PDF unter dem folgendem Link heruntergeladen werden:
http://bit.ly/IGB_Policy_Brief_Bundestagswahl_2017_Gewaesser

Weitere Informationen zum IGB:
www.igb-berlin.de
Die Arbeiten des IGB verbinden Grundlagen- mit Vorsorgeforschung als Basis für die nachhaltige Bewirtschaftung der Gewässer. Das IGB untersucht dabei die Struktur und Funktion von aquatischen Ökosystemen unter naturnahen Bedingungen und unter der Wirkung multipler Stressoren. Forschungsschwerpunkte sind unter anderem die Langzeitentwicklung von Seen, Flüssen und Feuchtgebieten bei sich rasch ändernden globalen, regionalen und lokalen Umweltbedingungen, die Entwicklung gekoppelter ökologischer und sozioökonomischer Modelle, die Renaturierung von Ökosystemen und die Biodiversität aquatischer Lebensräume. Die Arbeiten erfolgen in enger Kooperation mit den Universitäten und Forschungsinstitutionen der Region Berlin-Brandenburg und weltweit. Das IGB gehört zum Forschungsverbund Berlin e. V., einem Zusammenschluss von acht natur-, lebens- und umweltwissenschaftlichen Instituten in Berlin. Die vielfach ausgezeichneten Einrichtungen sind Mitglieder der Leibniz-Gemeinschaft.

Quelle: idw

(nach oben)


Mücken: Eine kommt, die andere geht

Judith Jördens Senckenberg Pressestelle
Senckenberg Forschungsinstitut und Naturmuseen

Wissenschaftler von Senckenberg und der Goethe-Universität haben die zukünftige Verbreitung der Asiatischen Tigermücke und der Asiatischen Buschmücke in Europa modelliert. Sie kommen zu dem Schluss, dass sich die wärmeliebende Tigermücke aufgrund des globalen Klimawandels weiter in den Norden Europas ausbreiten wird. Das Verbreitungsgebiet der verwandten Art, der Asiatischen Buschmücke, die bereits in Deutschland heimisch ist, wird dagegen deutlich kleiner. Beide Mückenarten gelten als Überträger von verschiedenen Viren, die Infektionskrankheiten auslösen, wie beispielsweise den Zika-, Dengue- oder Gelbfieber-Viren.

Die Tigermücke (Aedes albopictus) gehört zu den 100 schlimmsten invasiven Arten und auch deren enge Verwandte, die Asiatische Buschmücke (Aedes japonicus) genießt keinen guten Ruf: „Beide Mückenarten sind potentielle Überträger, sogenannte Vektoren, einer Reihe von Infektionskrankheiten auslösenden Viren. Dazu zählen Zika-, Dengue-, West-Nil- oder Chikungunya-Viren“, erklärt Prof. Dr. Sven Klimpel vom Senckenberg Biodiversität und Klima Forschungszentrum und der Goethe-Universität Frankfurt und fährt fort: „Wir haben nun untersucht, welche Lebensräume sich zukünftig klimatisch für diese beiden invasiven Arten eignen.“

Ursprünglich aus Asien stammend, haben sich Tiger- und Buschmücken aufgrund der Globalisierung sehr schnell in Europa ausgebreitet. Tigermücken gibt es bereits seit mehreren Jahrzehnten im Mittelmeerraum. Klimpel erläutert: „Unsere Ergebnisse zeigen, dass sich das potentielle Verbreitungsgebiet der Tigermücke in Europa durch den Klimawandel nach Norden und Nordosten ausdehnen wird. Für die Buschmücke dagegen bringt die globale Erwärmung eine Verkleinerung des Gebietes mit geeigneten Klimabedingungen in Europa mit sich.“

Das Forscherteam rund um den Frankfurter Parasitologen führte seine Modellierungen unter Verwendung verschiedener Szenarien des Welt-Klimarates (IPCC Intergovernmental Panel on Climate Change) durch. Im Hinblick auf die Frage, welches die wichtigen Umweltfaktoren für eine erfolgreiche Etablierung der Tigermücke in Europa sind, ergab die Studie, dass in Nord- und Osteuropa die Temperatur während der Wintermonate, der entscheidende „limitierende Faktor“ für die Tigermücke ist. Die Mücken sind zwar bis zu einem gewissen Grad an kältere Temperaturen angepasst; liegen die Temperaturen aber unter der kritischen Grenze überleben ihre Eier nicht. „Durch den projizierten Klimawandel werden sich die Grenzen der potentiellen Verbreitungsgebiete aufgrund milderer Winter aber weiter nach Norden verschieben“, ergänzt Klimpel und fährt fort: „In Südeuropa werden wir die Tigermücke dagegen aufgrund der zunehmenden Sommertrockenheit nicht mehr so häufig antreffen, denn die Tiere sind unter anderem für ihre Fortpflanzung auf stehende Gewässer angewiesen.“

Für die Buschmücke, die an kühlere Bedingungen besser angepasst ist, wird sich nach den Ergebnissen der Modellierungen, das Gebiet mit geeigneten Klimabedingungen im Zuge des Klimawandels verkleinern. Ohne Anpassungen an die Klimaveränderungen, würde sich die Art vermutlich in kühlere Gebiete zurückziehen. „Dieser Mücken-Art wird es bei uns zukünftig schlicht zu warm“, fügt Klimpel hinzu.

Stechmücken gelten als die wichtigsten Überträger vektor-assoziierter Infektionserreger und Infektionskrankheiten zählen weltweit immer noch zu den häufigsten Todesursachen. „Wir haben gerade in der jüngeren Vergangenheit mit dem drastischen Auswirkungen von Zika gesehen, dass sich die Welt auf einige seltene, aber besonders gefährliche Erreger, die über Vektoren verbreitet werden, besser vorbereiten muss. Gerade durch den anthropogen verursachten Klimawandel können einige dieser krankheitsübertragenden Arten, die bislang nur in den Tropen und Subtropen vorkommen, auch in Europa geeignete Klimabedingungen finden und sich etablieren. Unsere Modellierungen in Kombination mit langfristigen Überwachungs- und Erfassungsmaßnahmen helfen daher, auf eine mögliche Einwanderung vorbereitet zu sein und frühzeitig Gegenmaßnahmen ergreifen zu können“, gibt Klimpel einen Ausblick.

Kontakt
Prof. Dr. Sven Klimpel
Senckenberg Biodiversität und
Klima Forschungszentrum &
Goethe-Universität Frankfurt
Tel. 069- 7542 1895
sven.klimpel@senckenberg.de

Judith Jördens
Pressestelle
Senckenberg Gesellschaft für Naturforschung
Tel. 069- 7542 1434
pressestelle@senckenberg.de

Publikation
Cunze S, Kochmann J, Koch LK, Klimpel S
(2016) Aedes albopictus and Its Environmental Limits
in Europe. PLoS ONE 11(9): e0162116. doi:10.1371/
journal.pone.0162116

Cunze et al. Parasites & Vectors (2016) 9:573
DOI 10.1186/s13071-016-1853-2

Pressemitteilung und Bildmaterial finden Sie auch unter www.senckenberg.de/presse

Die Natur mit ihrer unendlichen Vielfalt an Lebensformen zu erforschen und zu verstehen, um sie als Lebensgrundlage für zukünftige Generationen erhalten und nachhaltig nutzen zu können – dafür arbeitet die Senckenberg Gesellschaft für Naturforschung seit nunmehr 200 Jahren. Diese integrative „Geobiodiversitätsforschung“ sowie die Vermittlung von Forschung und Wissenschaft sind die Aufgaben Senckenbergs. Drei Naturmuseen in Frankfurt, Görlitz und Dresden zeigen die Vielfalt des Lebens und die Entwicklung der Erde über Jahrmillionen. Die Senckenberg Gesellschaft für Naturforschung ist ein Mitglied der Leibniz-Gemeinschaft. Das Senckenberg Naturmuseum in Frankfurt am Main wird von der Stadt Frankfurt am Main sowie vielen weiteren Partnern gefördert. Mehr Informationen unter www.senckenberg.de.

200 Jahre Senckenberg! 2017 ist Jubiläumsjahr bei Senckenberg – die 1817 gegründete Gesellschaft forscht seit 200 Jahren mit Neugier, Leidenschaft und Engagement für die Natur. Seine 200-jährige Erfolgsgeschichte feiert Senckenberg mit einem bunten Programm, das aus vielen Veranstaltungen, eigens erstellten Ausstellungen und einem großen Museumsfest im Herbst besteht. Natürlich werden auch die aktuelle Forschung und zukünftige Projekte präsentiert. Mehr Infos unter: www.200jahresenckenberg.de.

Quelle: idw

(nach oben)


Sehen Fußballfans rivalisierender Mannschaften dasselbe Fußballspiel mit anderen Augen?

Dr. Evamarie Blattner Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Wissensmedien

Wenn sich am 26. April der FC Bayern München und Borussia Dortmund gegenüberstehen, schauen sich viele Fußball-Begeisterte das Halbfinal-Spiel um den DFB-Pokal gemeinsam an. Die Erfahrungen zeigen, dass die Erinnerungen der Fans nach einem solchen Spiel zugunsten ihrer eigenen Mannschaft verzerrt sind. Wann setzt diese Verzerrung ein? Sehen Fans rivalisierender Mannschaften bereits das Spiel anders oder kommt es erst später bei der Rückerinnerung zu dieser Verzerrung? Eine Antwort darauf haben Forscher an der Universität Tübingen, PD Dr. Markus Huff, und am Leibniz-Institut für Wissensmedien (IWM), Prof. Dr. Stephan Schwan, mit Hilfe einer eigens entwickelten Methode gefunden.

Bisher zeigte die Forschung, dass Fans nach dem Spiel eine verzerrte Erinnerung zugunsten ihrer eigenen Mannschaft haben. Unbeantwortet blieb die Frage: Sehen Fans bereits das Spiel anders? Dazu hat die Arbeitsgruppe um Markus Huff in Kooperation mit der Arbeitsgruppe von Stephan Schwan das Champions-League Finale zwischen Borussia Dortmund und dem FC Bayern München zum Anlass genommen, den Wahrnehmungsprozess von Fußballfans während des Spiels zu untersuchen. „Das Finale der Champions-League war eine einmalige Gelegenheit, diese Prozesse zu untersuchen. In einem internationalen Finale standen sich zwei deutsche Mannschaften gegenüber. Die Begegnungen dieser beiden Rivalen sind immer hoch emotional, was sich in der Berichterstattung im Vorfeld wiederspiegelte“, so Markus Huff.
Die Live-Übertragung des Finales sahen 58 Fußballfans – 33 Dortmund- und 25 Bayern-Fans – mit dem Ziel, den gesamten Wahrnehmungsprozess zu untersuchen. Während bei allen Fans im Anschluss an das Spiel das Gedächtnis getestet wurde, konnten bei 21 Fans die Augenbewegungen während des Spiels aufgezeichnet werden, um der Hypothese nachzugehen, ob sich die fanbasierte Verzerrung sehr früh, d. h. bereits bei der Betrachtung des Spiels abzeichnet.
Die Ergebnisse dieser groß angelegten Studie sind eindeutig: Die Wahrnehmungsprozesse glichen sich während des Spiels – die Blickbewegungen waren bei beiden Fangruppen identisch. Dagegen war die Erinnerung der Fans tatsächlich zugunsten ihrer Mannschaft verzerrt, da sie angeblich mehr Spielanteile hatte, das gegnerische Team hatte scheinbar weniger.
Das Vorgehen in dieser Studie unterscheidet sich grundlegend von bisherigen Forschungsansätzen, die psychologische Prozesse fast ausschließlich im Labor erforschen. „Dies ist die erste Studie, die die Wahrnehmung und das Gedächtnis von echten Fans während einer Live-Übertragung mit eigens für dieses Experiment entwickelten Methoden untersuchte“, so Markus Huff. Die Studie ermöglichte somit zum einen, dass der Rezeptionsprozess unmittelbar, also unabhängig zum Beispiel von späterer Berichterstattung, erfasst werden konnte. Zum anderen konnten in dieser Studie Blickbewegungs- und Gedächtnisprozesse gemeinsam betrachtet werden, um verlässliche Aussagen über den gesamten Prozess der menschlichen Informationsverarbeitung machen zu können.
Damit zeigt die Studie, dass die menschliche Wahrnehmung verlässlicher ist als vermutet: Selbst leidenschaftlich wahrgenommene Abläufe, die in der Erinnerung verzerrt werden, werden dennoch neutral wahrgenommen.

Die Ergebnisse der Studie wurden aktuell in der Fachzeitschrift Scientific Reports veröffentlicht.

Publikation
Huff, M., Papenmeier, F., Maurer, A. E., Meitz, T. G. K, Garsoffky, B., & Schwan, S. (2017). Fandom biases retrospective judgments not perception. Scientific Reports, 7:43083. doi: 10.1038/srep43083
Kontakt
PD Dr. Markus Huff, Universität Tübingen, Mathematisch-Naturwissenschaftliche Fakultät, Allgemeine Psychologie, Telefon +49 7071 29-75612, markus.huff@uni-tuebingen.de
Prof. Dr. Stephan Schwan, Leibniz-Institut für Wissensmedien (IWM), Arbeitsgruppe Realitätsnahe Darstellungen, Telefon ++49 7071 979-228, s.schwan@iwm-tuebingen.de

Das Leibniz-Institut für Wissensmedien
Das Leibniz-Institut für Wissensmedien (IWM) in Tübingen erforscht, wie digitale Technologien eingesetzt werden können, um Wissensprozesse zu verbessern. Die psychologische Grundlagenforschung der rund 110 Wissenschaftlerinnen und Wissenschaftler ist auf Praxisfelder wie Schule und Hochschule, auf Wissensarbeit mit digitalen Medien, wissensbezogene Internetnutzung und Wissensvermittlung in Museen ausgerichtet. Von 2009 bis 2016 unterhielt das IWM gemeinsam mit der Universität Tübingen Deutschlands ersten Leibniz-WissenschaftsCampus (WCT) zum Thema „Bildung in Informationsumwelten“, der ab 2017 als Nachfolgeprojekt unter dem Titel „Kognitive Schnittstellen“ weitergeführt wird.

Kontakt & weitere Informationen zum Leibniz-Institut für Wissensmedien
Dr. Evamarie Blattner, Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Wissensmedien, Schleichstraße 6, 72076 Tübingen,
Tel. 07071/ 979-222, E-Mail: presse@iwm-tuebingen.de

Die Leibniz-Gemeinschaft
Die Leibniz-Gemeinschaft verbindet 91 selbständige Forschungseinrichtungen. Ihre Ausrichtung reicht von den Natur-, Ingenieur- und Umweltwissenschaften über die Wirtschafts-, Raum- und Sozialwissenschaften bis zu den Geisteswissenschaften. Leibniz-Institute widmen sich gesellschaftlich, ökonomisch und ökologisch relevanten Fragen. Sie betreiben erkenntnis- und anwendungsorientierte Forschung, auch in den übergreifenden Leibniz-Forschungsverbünden, sind oder unterhalten wissenschaftliche Infrastrukturen und bieten forschungsbasierte Dienstleistungen an. Die Leibniz-Gemeinschaft setzt Schwerpunkte im Wissenstransfer, vor allem mit den Leibniz-Forschungsmuseen. Sie berät und informiert Politik, Wissenschaft, Wirtschaft und Öffentlichkeit. Leibniz-Einrichtungen pflegen enge Kooperationen mit den Hochschulen u. a. in Form der Leibniz-WissenschaftsCampi, mit der Industrie und anderen Partnern im In- und Ausland. Sie unterliegen einem transparenten und unabhängigen Begutachtungsverfahren. Aufgrund ihrer gesamtstaatlichen Bedeutung fördern Bund und Länder die Institute der Leibniz-Gemeinschaft gemeinsam. Die Leibniz-Institute beschäftigen rund 18.600 Personen, darunter 9.500 Wissenschaftlerinnen und Wissenschaftler. Der Gesamtetat der Institute liegt bei mehr als 1,7 Milliarden Euro.

Quelle: idw

(nach oben)


Elektroimpulse säubern Industriewässer und Lacke

Monika Landgraf Strategische Entwicklung und Kommunikation – Gesamtkommunikation
Karlsruher Institut für Technologie

Die meisten Lacke, sei es im Haushalt oder in der Industrie, nutzen heute Wasser als Grundlage und sind umweltfreundlicher als solche mit Lösemitteln. Wasserbasierte Lacke haben aber einen Nachteil: Mikroorganismen wie Bakterien können sich darin ausbreiten. Betroffen sind auch Lackieranlagen in der Automobilbranche und anderen Industriezweigen. Industrielle Wässer und Lacke künftig mit Elektroimpulsen nachhaltig entkeimen zu können, ist Ziel des vom Bundesministerium für Bildung und Forschung(BMBF) geförderten Verbundprojekts DiWaL, das Forscher des Karlsruher Instituts für Technologie (KIT) koordinieren. Das neue Verfahren entwickeln sie gemeinsam mit Partnern aus Forschung und Industrie.

Ob knallbunt oder klassisch in Silbergrau oder Schwarz: Bevor die ansprechende Decklackschicht auf ein Auto kommt, wird die Karosserie gereinigt, vorbehandelt und erhält eine Schicht, die vor Korrosion schützt. Das geschieht in der Oberflächenvorbehandlung und in der elektrophoretischen Tauchlackierung. Letzteres ist ein elektrochemisches Verfahren, das über ein Gleichspannungsfeld im Tauchbad einen gleichmäßigen Lackfilm ermöglicht. „In den dabei verwendeten Wässern und Lacken können sich jedoch Bakterien so vermehren, dass sie die Oberflächenbeschichtung beeinträchtigen. Um sie zu bekämpfen, werden bislang häufig Biozide eingesetzt. Mit der Elektroimpulstechnologie setzen wir nun auf ein Verfahren, das ohne chemische Zusätze arbeitet, damit Wasserressourcen schont und gleichzeitig einen Beitrag zum Gewässerschutz leistet“, sagt Dr. Wolfgang Frey vom IHM – Institut für Hochleistungsimpuls- und Mikrowellentechnologie des KIT und Koordinator im Verbundprojekt „Dekontamination von industriellen Wässern und Lacken“, kurz DiWaL.

Bei der Elektroimpulsbehandlung werden Zellen, wie beispielsweise Mikroorganismen, einem elektrischen Feld ausgesetzt, dabei polarisiert die Zellmembran, das heißt es bilden sich elektrische Pole, und es öffnen sich wässrige Poren, die letztendlich zum Absterben der Mikroorganismen führen. Dieses Phänomen wird großtechnisch zur effektiven Gewinnung von Zellinhaltsstoffen und zur Abtötung von Mikroorganismen genutzt („kalte Pasteurisation“).

Da die Elektroimpulse rein physikalisch wirken, ist, anders als bei Bioziden, nicht zu erwarten, dass die Bakterien Resistenzen entwickeln. „Wir kontrollieren die mikrobiologische Belastung und können so eine optimale Beschichtungsqualität erreichen und gleichzeitig Nacharbeiten vermeiden“, so Dr. Frey.

In der Automobilherstellung ist die Lackierung der Karosserie der Bereich mit dem höchsten Wasserverbrauch (bis zu 600 Liter pro Karosserie). Integriert wird die Elektroimpulstechnologie deshalb in ein neues, automatisiertes und ressourceneffizientes Wassermanagement- und Anlagenkonzept für Vorbehandlung und Tauchlackierung, das die Partner aus Forschung und Industrie ebenfalls in DiWaL entwickeln. Dies soll es ermöglichen, Wasser in der Fabrik besser im Kreislauf zu führen und weniger Frischwasser zu verbrauchen. Im Mittelpunkt der anlagentechnischen Umsetzung stehen dabei die Aspekte Qualität, Kosten und Umwelt. Wesentlich dafür ist auch die Perspektive der Anwender: DiWaL analysiert deshalb die Anforderungen der Nutzer ebenso wie mögliche Hemmnisse, die Ergebnisse fließen dann in Konzeption und technische Entwicklung ein.

DiWaL bündelt die Kompetenzen von Partnern aus Forschung (Karlsruher Institut für Technologie und Hochschule Pforzheim) und Industrie, neben einem Anlagenbauer (Eisenmann SE), sind dies zwei Lackhersteller (Emil Frei GmbH & Co. KG und PPG Deutschland Business Support GmbH) und ein Automobilhersteller (BMW Group).

Der Fokus des Verbundprojekts liegt sowohl auf der Oberflächenbehandlung für die Automobilindustrie (kathodische Tauchlackierung, KTL) als auch auf Anwendungen für die allgemeine Industrie, beispielsweise für die Lackierung von Industriegütern mit anodischer Tauchlackierung (ATL). Dabei betrachten sie technische, wirtschaftliche und ökologische Rahmenbedingungen und Anforderungen.

Das Verbundprojekt „Entwicklung eines ressourceneffizienten Wassermanagement- und Anlagenkonzepts für Vorbehandlungs- und Tauchlackieranlagen unter Nutzung der Elektroimpulstechnologie zur Dekontamination von industriellen Wässern und Lacken (DiWaL)“ wird vom Bundesministerium für Bildung und Forschung (BMBF) im Rahmen der Fördermaßnahme WavE gefördert.

Weitere Informationen zur Fördermaßname WavE des BMBF: http://www.bmbf-wave.de/

Weiterer Kontakt:
Margarete Lehné, Pressereferentin, Tel.: +49 721 608-48121, Fax: +49 721 608-43658, margarete.lehne@kit.edu

Das Karlsruher Institut für Technologie (KIT) verbindet seine drei Kernaufgaben Forschung, Lehre und Innovation zu einer Mission. Mit rund 9 300 Mitarbeiterinnen und Mitarbeitern sowie 25 000 Studierenden ist das KIT eine der großen natur- und ingenieurwissenschaftlichen Forschungs- und Lehreinrichtungen Europas.

KIT – Die Forschungsuniversität in der Helmholtz-Gemeinschaft

Das KIT ist seit 2010 als familiengerechte Hochschule zertifiziert.

Diese Presseinformation ist im Internet abrufbar unter: http://www.kit.edu

Weitere Informationen:
http://www.bmbf-wave.de/

Anhang
Elektroimpulse säubern Industriewässer und Lacke
https://idw-online.de/de/attachment57272

Quelle: idw

(nach oben)


Testosteron ist nicht Schuld am männlichen Haarausfall

Jan Meßerschmidt Presse- und Informationsstelle
Ernst-Moritz-Arndt-Universität Greifswald

Testosteron und Haarausfall – dieser Zusammenhang gehört zu den hartnäckigsten Vorurteilen gegenüber männlichen Hormonen. In einer der bislang größten Studien wurde dieser Mythos nun von Wissenschaftlern der Universitätsmedizin Greifswald systematisch untersucht und widerlegt. Die Auswertung der Daten von 373 männlichen Teilnehmern der Bevölkerungsstudie SHIP-TREND ergab keinen Zusammenhang zwischen Sexualhormonen wie Testosteron, Androstendion oder DHEAS und Haarausfall. Die Studienergebnisse wurden in der Fachzeitschrift JAMA Dermatology veröffentlicht.

„Der unterstellte Zusammenhang zwischen Sexualhormonen und männlichem Haarausfall wurde noch nie in einer so großen Bevölkerungsstudie bei gesunden Männern untersucht“, sagt Dr. Hanna Kische, die am Institut für Klinische Chemie und Laboratoriumsmedizin der Universitätsmedizin Greifswald forscht und Erstautorin der Studie ist. „Diese Lücke haben wir mit unserer Publikation in der internatio-nalen Fachzeitschrift JAMA Dermatology nun geschlossen.“
Prof. Dr. Robin Haring, DFG-Projektleiter und Seniorautor der Studie fügt hinzu, dass „die vorliegende Beobachtungsstudie eine wichtige Ergänzung der bisherigen Ergebnisse aus klinischen Studien dar-stellt, die nur auf sehr kleinen Fallzahlen basieren“.

Da weder Haardichte noch Haarwachstum in einem direkten Zusammenhang mit Testosteron stehen, werden verschiedene alternative Erklärungsansätze diskutiert. Neben genetischen Faktoren, steht neueren Erkenntnissen zufolge sowohl das Hormon DHT, ein potentes Folgeprodukt von Testosteron, als auch das Gewebshormon Prostaglandin D2 unter Verdacht, männliche Haare dünner werden zu lassen. Weil die wirkliche Ursache noch nicht abschließend geklärt ist, existieren zur Therapie des männlichen Haarausfalls bisher nur wenige Wirkstoffe, mit zum Teil erheblichen Nebenwirkungen. In diese Richtung wird künftig also noch intensiv geforscht werden.

Publikation
Sex hormones and hair loss in men from the general population
http://jamanetwork.com/journals/jamadermatology/article-abstract/2617871
Jama Dermatology. 2017 April, doi:10.1001/jamadermatol.2017.0297
Bevölkerungsstudie SHIP
http://www2.medizin.uni-greifswald.de/cm/fv/ship/studienbeschreibung/
Institut für Klinische Chemie und Laboratoriumsmedizin
http://www2.medizin.uni-greifswald.de/klinchem/

Ansprechpartner an der Universitätsmedizin Greifswald
Institut für Klinische Chemie und Laboratoriumsmedizin
Prof. Dr. habil. Robin Haring
Ferdinand-Sauerbruch-Straße
17475 Greifswald
Telefon +49 381 8087 264
Telefon +49 3834 86 19645
robin.haring@uni-greifswald.de

Quelle: idw

(nach oben)


Wohlstandsmessung aus dem Weltall

Julia Wandt Stabsstelle Kommunikation und Marketing
Universität Konstanz

Konstanzer Politikwissenschaftler zeigen, dass durch Satelliten gemessene Licht-Emissionen zuverlässige Wohlstandsprognosen auch für kleine geographische Einheiten zulassen

In der Nacht erleuchtete Städte und Dörfer sind in Weltregionen wie Europa eine Selbstverständlichkeit. Anders in Entwicklungsländern. Satellitendaten zeigen, dass es dort nachts neben erleuchteten auch viele dunkle Regionen gibt. Die beiden Konstanzer Politikwissenschaftler Prof. Dr. Nils Weidmann und Dr. Sebastian Schutte haben Satelliten-Daten von Nachtlicht-Emissionen ausgewertet und sie mit Daten klassischer Umfragen verglichen. Sie konnten zeigen, dass es möglich ist, aufgrund des Nachtlichts den Wohlstand einer Region zu prognostizieren. Während die Analyse von Nachtlicht-Emission bislang auf Länderebene eingesetzt wurde, können die beiden Wissenschaftler nun belegen, dass dies auch innerhalb eines Landes für kleine geographische Einheiten wie zum Beispiel einzelne Dörfer funktioniert. Ihre Ergebnisse wurden in einer Sonderausgabe des Journal of Peace Research zum Thema „Prognose in der Friedensforschung“ veröffentlicht.

Wohlstand spielt eine entscheidende Rolle in vielen Theorien zu Krieg und Frieden. Wirtschaftlicher Wohlstand beeinflusst viele politische und gesellschaftliche Variablen, ist aber in vielen Teilen der Welt schwer zu messen. Punktuell werden Wohlstands-Indizes über Umfragen ermittelt. Das ist jedoch nicht in allen Regionen der Welt möglich und insbesondere in solchen Ländern schwierig, an denen die Konfliktforschung besonders interessiert ist. Die Satelliten-Daten zur nächtlichen Licht-Emission können hier als alternative Datenquelle eingesetzt werden. Je genauer die Datenlage, desto präziser könnte beispielsweise geschätzt werden, inwieweit Wohlstand und Wohlstandsunterschiede das Konfliktrisiko beeinflussen, oder wie hoch der wirtschaftliche Schaden durch Gewalt in einer bestimmten Region ist.

Nils Weidmann und Sebastian Schutte haben zwei frei zugängliche Daten-Pools für ihre Untersuchung genutzt: Die Umfragedaten der „Demographic and Health Survey“ (DHS) sowie Daten aus dem „Defense Meteorological Satellite Program“ (DMSP), das die Satelliten-Daten liefert. Die Nachtlicht-Daten resultieren aus jeweils einjährigen Beobachtungszeiträumen, um so verfälschende Werte durch Wolken oder Waldbrände ausschließen zu können.

Die Referenz liefern die Umfragedaten, die ebenso wie die Satelliten-Daten über geographische Koordinaten verortet werden. So können die beiden Daten-Sätze zusammengeführt und verglichen werden. Das Ergebnis ist eindeutig: Mehr Licht korreliert mit mehr Reichtum, was an der pakistanischen Stadt Hyderabad beispielhaft gezeigt werden kann (siehe Abbildung). Hier entspricht die höchste Licht-Emission dem Wohlstandsindex von 4,54 (Skala von 1 für arm bis 5 für reich). Dieser Wert entspricht einem sehr hellen Nachtlichtwert, während eine vergleichsweise arme Region (Wohlstandsindex von 1,82) wenig oder keine Nachtlichter emittiert. Ein solcher Vergleich wurde für mehr als 34.000 Umfrageergebnisse in rund 40 Ländern ausgeführt.

Die Ergebnisse zeigen, dass der Zusammenhang zwischen Wohlstand und Nachtlichtern in den meisten der untersuchten Länder sehr stark ist. „Wir können mit sehr hoher Genauigkeit vorhersagen, in welcher Rangordnung befragte Haushalte zueinander stehen“, resümiert Sebastian Schutte, der Mitglied im Zukunftskolleg der Universität Konstanz ist. Ist bekannt, wo in einem Land sich diese Haushalte befinden, kann diese Methode auch für Regionen außerhalb der untersuchten Stichprobe eingesetzt werden.

Der Datenvergleich zeigt, dass die Satelliten-Methode in der Lage ist, fehlende Daten zu ergänzen, wo Umfrageergebnisse nicht vorhanden sind. Obendrein liefert sie einen Weg, um das Wohlstandslevel von Ländern miteinander in Beziehung zu setzen. Allerdings ist das Verhältnis von Wohlstand und Licht im globalen Vergleich nicht einheitlich. Beispielsweise erreicht in Albanien die Licht-Emission einer wohlhabenden Region einen deutlich höheren Wert als in Liberia, weshalb Unterschiede zwischen Ländern berücksichtigt werden müssen. Ein reiches Land wie zum Beispiel Schweden auf diese Weise zu vermessen funktioniert nicht. Hier sind bewohnte Gegenden unabhängig von Wohlstand in der Nacht hell erleuchtet.

Originalveröffentlichung:
Nils. B. Weidmann, Sebastian Schutte: Using night light emissions for the prediction of local wealth. Journal of Peace Research, 54 (2), 2017.
URL: http://dx.doi.org/10.1177/0022343316630359

Faktenübersicht:
• Prof. Nils Weidmanns Forschung wird durch einen Sofja-Kovalevskaja-Preis der Alexander von Humboldt-Stiftung finanziert.
• Dr. Sebastian Schutte wird durch ein Marie-Curie Fellowship am Zukunftskolleg der Universität Konstanz gefördert.
• Die Daten stammen aus dem Zeitraum 2002 bis 2012.
• Die Analyse schließt mehr als 34.000 Messpunkte aus rund 40 Ländern ein.

http://uni.kn/shared/nightlights.pdf
Bildunterschrift: Vergleich von Wohlstandsindizes aus Umfragen des „Demographic and Health Survey“ (DHS) und Nachtlicht-Emissionen in Pakistan.

https://cms.uni-konstanz.de/fileadmin/pi/fileserver/2017/FO_PI_170421/weidmann66…
Bildunterschrift: Prof. Dr. Nils Weidmann

https://cms.uni-konstanz.de/fileadmin/pi/fileserver/2017/FO_PI_170421/Schutte.jp…
Bildunterschrift: Dr. Sebastian Schutte

Kontakt:
Universität Konstanz
Kommunikation und Marketing
Telefon: + 49 7531 88-3603
E-Mail: kum@uni-konstanz.de

Quelle: idw

(nach oben)


Mit Urzeitalgen zu gesundem Wasser: Wirtschaftliches Verfahren zur Beseitigung von EDC im Abwasser

Madlen Domaschke Pressestelle
Technische Universität Bergakademie Freiberg

Chemiker und Mineralogen der TU Bergakademie Freiberg sowie Umwelttechniker der TU Dresden forschen gemeinsam an einem wirtschaftlichen Verfahren, um Arzneimittelrückstände, Weichmacher und weitere für Mensch und Tier schädliche Substanzen aus dem Abwasser zu beseitigen. Das dreijährige Forschungsvorhaben (noch bis Oktober 2018) wird von der Sächsischen Aufbaubank mit 730.000 Euro gefördert.

Konkret geht es um endokrin wirkende Chemikalien – kurz EDC. Das sind Substanzen, die zu einer Beeinflussung des hormonellen Systems von Menschen und Tieren sowie zu Veränderungen in der Reproduktionsbiologie führen. EDC werden mit erhöhtem Krebsrisiko und nicht mehr rückgängig zu machenden Fehlentwicklungen, insbesondere während der embryonalen und kindlichen Entwicklung in Zusammenhang gebracht. In den letzten Jahrzehnten wurden solche Modifikationen immer häufiger vor allem an Fischen, Seemöven und Schnecken beobachtet.

Auch der Mensch kommt auf vielen Wegen mit EDC in Berührung: über Kunststoffe in Lebensmittelverpackungen und Wasserleitungen, über Agrarchemikalien als Rückstände in Lebensmitteln sowie über Medikamentenrückstände in Abwässern aus Haushalten und Krankenhäusern. Da die EDC in kommunalen Kläranlagen nur unzureichend aus dem Abwasser entfernt werden, gelangen sie auf Umwegen ins Grundwasser oder werden durch Klärschlamm in den Boden eingebracht (nach Novellierung des AbfKlärV bis 2025). Bekannte Verfahren zur Reduzierung von EDC in Klärwasser wie Adsorption an Aktivkohle, Membranverfahren, biologischer Abbau und chemische Oxidation sind sehr teuer.

„Wir forschen gemeinsam mit Dresdner Wissenschaftlern an einer kostengünstigen und gleichzeitig effektiven und umweltfreundlichen Alternative zur Eliminierung von EDC, also den endokrin wirkenden Chemikalien, die für Mensch und Tier gesundheitsschädlich sind und Krebs verursachen können. In unserem Verfahren verwenden wir den äußerst wirksamen, günstigen und natürlich vorkommenden Rohstoff Alginit. Dieser soll die EDC im Abwasser adsorbieren und kann durch Wiederaufbereitung mehrfach verwendet werden“, erklärt Prof. Dr. Martin Bertau von der TU Bergakademie Freiberg das neue Verfahren.

Aktuell wird das neue Reinigungsverfahren im Labor- und Demonstrationsmaßstab entwickelt und untersucht. Dabei bewerten die Wissenschaftler das Verfahren mit Hinblick auf eine großtechnische Umsetzung hinsichtlich der Effektivität der Reinigung, der verfahrenstechnischen Umsetzbarkeit, der Wiederaufbereitung und der jeweiligen Prozess- und Investitionskosten.

Steckbrief
Forschungsvorhaben: „Entwicklung eines innovativen Verfahrens zur energieeffizienten Behandlung von kontaminierten Abwasserfraktionen“

Projektpartner:
TU Bergakademie Freiberg: Institut für Technische Chemie (Prof. Bertau), Institut für Mineralogie (Prof. Heide)

TU Dresden: Institut für Verfahrenstechnik und Umwelttechnik, Professur für Energieverfahrenstechnik (Prof. Beckmann)

Projektlaufzeit: 01.11.2015-31.10.2018
Fördermittelgeber: Sächsische Aufbaubank

Weitere Informationen:
http://tu-freiberg.de/presse/mit-urzeitalgen-zu-gesundem-wasser Meldung auf der Uni-Homepage
http://tu-freiberg.de/tch/forschung Homepage des Instituts für Technische Chemie der TU Bergakademie Freiberg

Quelle: idw

(nach oben)


Verbreitung und Genauigkeit von Fitnessarmbändern – Ergebnisse aus Studie liegen vor

Johanna Besold Pressestelle Campus Heilbronn
Hochschule Heilbronn

– Studie des Fachbereichs Medizinische Informatik zum Heilbronner Trollinger Marathon
– drei von vier Sportlern nutzen Apps, Fitnesstracker oder Sportuhren;
– GPS-Sportuhren messen verlässlich

Für viele Hobbyläufer sind sie zu einem regelmäßigen Trainingsbegleiter geworden: Smartphones mit Lauf-Apps, Fitnesstracker oder GPS-Sportuhren. Das Angebot tragbarer Geräte, sogenannter „Wearables“, ist groß. Werden diese aber tatsächlich von Sportlerinnen und Sportlern genutzt? Und wenn ja, welche der Geräte? Zwei wissenschaftliche Mitarbeiter des Studiengangs Medizinische Informatik sammelten zu dieser Frage während des Trollinger-Marathons 2016 mit Unterstützung von Studierenden Daten von über 1.000 Teilnehmern. Außerdem untersuchte die Studie, wie genau die im Markt befindlichen Geräte die zurückgelegte Laufstrecke aufzeichnen und wie vergleichbar die erfassten Daten untereinander sind.
„Ich habe beim Training selbst einen Fitnesstracker getragen und gleichzeitig eine Smartphone-App zum Aufzeichnen meiner Strecke benutzt“, berichtet Medizininformatikerin Monika Pobiruchin von ihren eigenen Erfahrungen mit einem Wearable. Sie war überrascht, wie sehr sich die Aufzeichnung der zurückgelegten Kilometer voneinander unterschieden. Pobiruchin betreute das Projekt gemeinsam mit ihrem Kollegen, dem Medizininformatiker Martin Wiesner. „Der Heilbronner Trollinger Marathon als größtes Laufevent der Region erschien uns als idealer Ort, um zu untersuchen, welche Geräte von den Läufern genutzt werden und wie genau die verschiedenen Geräte aufzeichnen“, ergänzt er.

Ergebnisse veröffentlicht: GPS-Sportuhren messen verlässlich
Die Ergebnisse der Studie wurden kürzlich im internationalen Journal of Medical Internet Research mHealth and uHealth veröffentlicht. „Es hat sich gezeigt, dass drei von vier Teilnehmern ein Wearable während des Trainings oder Wettkampfs einsetzen. Manche Läufer greifen sogar auf mehrere Geräte gleichzeitig zurück“, berichtet Wiesner.
Ein weiteres Ergebnis der Trollinger-Studie ist außerdem, dass GPS-Sportuhren unter Läufern weit verbreitet sind und die zurückgelegte Strecke genauer als andere untersuchte Gerätekategorien aufzeichnen. Nutzen Läufer andere Wearables, dann sind es Smartphones mit entsprechenden Lauf-Apps, wohingegen Fitnessarmbänder oder Smart Watches deutlicher weniger vertreten sind. Die durchschnittliche Abweichung der Sportuhren auf dem Halbmarathon-Kurs betrug nur 120 Meter, bei Smartphones mit Apps jedoch 350 Meter. Dies ist bemerkenswert, da es sich hier nicht etwa um streng geeichte Messgeräte handelt, sondern um erschwingliche Hardware aus dem Konsumentensegment. Die Auswertung zeigt auch, dass die Nutzung von tragbarer Technologie für das Lauftraining eher Männern und Läufern jüngerer Altersgruppen zu zuordnen ist.
Die Ergebnisse der Studie sind online abrufbar unter http://mhealth.jmir.org/2017/2/e24/
Die beiden Forscher wiederholen ihre Studie bei der nächsten Auflage des Trollinger-Marathons am 7. Mai 2017, um so mögliche Änderungen im Nutzungsverhalten der Läufer feststellen zu können.

Hochschule Heilbronn – Kompetenz in Technik, Wirtschaft und Informatik
Mit rund 8.300 Studierenden ist die staatliche Hochschule Heilbronn die größte Hochschule für Angewandte Wissenschaften in Baden-Württemberg. 1961 als Ingenieurschule gegründet, liegt heute der Kompetenz-Schwerpunkt auf den Bereichen Technik, Wirtschaft und Informatik. Angeboten werden an den drei Standorten Heilbronn, Künzelsau und Schwäbisch Hall und in sieben Fakultäten insgesamt 50 Bachelor- und Masterstudiengänge. Die enge Kooperation mit Unternehmen aus der Region und die entsprechende Vernetzung von Lehre, Forschung und Praxis werden in Heilbronn großgeschrieben.

Weitere Informationen:
Monika Pobiruchin, Hochschule Heilbronn,
Max-Planck-Str. 39, 74081 Heilbronn, Telefon: 07131-504-633,
E-Mail: monika.pobiruchin@hs-heilbronn.de, Internet: http://www.gecko.hs-heilbronn.de

Quelle: idw

(nach oben)


Die Kieler Förde – ein Trainingsbecken für Miesmuscheln

Dr. Andreas Villwock Kommunikation und Medien
GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel

Miesmuscheln aus der Kieler Förde können sich durch Evolution an Ozeanversauerung anpassen. In einem Vergleichsexperiment reagierten sie weniger empfindlich auf erhöhte Kohlendioxid-Konzentrationen als ihre Artgenossen aus der Nordsee. Dies führt ein Team von Wissenschaftlerinnen und Wissenschaftlern des GEOMAR Helmholtz-Zentrums für Ozeanforschung Kiel, des Alfred-Wegener-Instituts, der Universität Bremen und des Senckenberg am Meer auf eine langfristige genetische Anpassung an die extremen Lebensbedingungen zurück. Ihre Ergebnisse sind im Fachmagazin Science Advances veröffentlicht.

Die Ostsee ist ein einzigartiges Freiland-Labor für Untersuchungen zu Auswirkungen der Ozeanversauerung, einem wichtigen Aspekt des Klimawandels – und offenbar auch ein Trainingsbecken für die Miesmuschel Mytilus edulis. Im Zuge der Evolution hat sich die Population aus der Kieler Förde an starke Schwankungen im Säuregehalt angepasst. In einem Vergleichsexperiment bildeten Mytilus-Larven ihre Kalkschalen im saureren Wasser schneller als ihre Artgenossen aus der Nordsee. Gleichzeitig überlebten auch deutlich mehr Förde-Muscheln. Ein ergänzendes, drei Jahre dauerndes Mehr-Generationen-Experiment mit Muscheln aus der Kieler Förde legt nahe, dass die erfolgreiche Anpassung durch Evolution jedoch nicht innerhalb weniger Generationen erfolgte. Vermutlich lief die Evolution über mehrere Jahrzehnte, wenn nicht Jahrhunderte oder Jahrtausende ab, urteilen Meeresbiologinnen und Meeresbiologen des GEOMAR Helmholtz-Zentrums für Ozeanforschung Kiel, des Alfred-Wegener-Instituts, Helmholtz-Zentrum für Polar- und Meeresforschung, der Universität Bremen und des Senckenberg am Meer. Die Ergebnisse der beiden Experimente, die im Rahmen des deutschen Forschungsverbunds zur Ozeanversauerung BIOACID stattfanden, sind in der aktuellen Ausgabe des Fachmagazins Science Advances veröffentlicht.

Für das Vergleichsexperiment wurden Miesmuscheln aus der Kieler Förde nach List auf Sylt gebracht und an die Lebensbedingungen in der Nordsee gewöhnt. Ihre Larven wurden gemeinsam mit Larven heimischer Individuen bei heutigen Kohlendioxid-Konzentrationen von 390 Mikroatmosphären und einem Extremwert von 2400 Mikroatmosphären gehalten. Die hohe Konzentration tritt in der Kieler Förde schon jetzt regelmäßig auf, wenn der Wind im Sommer sauerstoffarmes und kohlendioxidreiches Wasser an die Oberfläche transportiert. Sie wird im Zuge des Klimawandels noch häufiger erreicht werden. Beide Larven-Populationen entwickelten ihre erste Muschelschale bei erhöhten Kohlendioxid-Konzentrationen langsamer, wodurch die Schalen zunächst kleiner blieben als unter Normalbedingungen. Larven, die von Muscheln aus der Kieler Förde abstammten, zeigten sich jedoch weitaus robuster und überlebensfähiger. „Die deutlichen Unterschiede zwischen den Kieler und den Sylter Miesmuschel-Larven legen nahe, dass die langfristige, genetische Anpassung eine entscheidende Rolle für ihr Überleben und ihre Fähigkeit zum Aufbau der Schalen gespielt hat“, betont Dr. Jörn Thomsen, Post-Doktorand in der Arbeitsgruppe Ökophysiologie am GEOMAR und Erst-Autor der Publikation. „Aus früheren Analysen wissen wir, dass sich die beiden Populationen auch genetisch unterscheiden.“

Offen ist jedoch, über welchen Zeitraum die genetische Anpassung stattgefunden hat. „Sie kann in den vergangenen Jahrzehnten stattgefunden haben, als Klimawandel, Überdüngung und andere Faktoren für eine zunehmende Versauerung und steigende Schwankungen im Säuregehalt gesorgt haben“, erläutert Co-Autor Dr. Frank Melzner, Ökophysiologe am GEOMAR. „Es kann aber genauso gut sein, dass sich die genetischen Unterschiede, von denen die Förde-Muscheln im Experiment profitierten, schon vor tausenden Jahren herausgebildet haben. Der niedrigere Salzgehalt der Ostsee hat seit jeher den Karbonat-Haushalt auf ähnliche Weise beeinflusst, wie es heute die Versauerung tut.“ Im Vergleich zur Nordsee haben sich die Ostsee-Muscheln bereits langfristig an niedrigere Konzentrationen von gelöstem Kalziumkarbonat, das sie für den Schalenaufbau nutzen, anpassen müssen.

Ein Mehrgenerationen-Experiment lässt vermuten, dass die Miesmuscheln einerseits über genügend genetische Vielfalt verfügen, um sich prinzipiell an die saureren Lebensbedingungen anzupassen. Anderseits scheint dieser Prozess nicht innerhalb weniger Generationen abgeschlossen zu sein. „Auch in der dritten Larvengeneration beobachteten wir bei der Population aus der Kieler Förde noch die Fähigkeit, die ungünstigeren Lebensbedingungen auf Basis des vorhandenen Erbmaterials zu kompensieren“, berichtet Dr. Thomsen. Nur deutlich längere Experimente würden Aufschluss darüber geben, wann sich die Widerstandsfähigkeit in den Genen der Tiere niederschlägt, wie schnell die genetische Anpassung abläuft – und ob sie mit dem Klimawandel Schritt halten kann. „Angesichts unserer Einblicke glauben wir, dass die Forschung sehr vorsichtig mit Hypothesen über die Anpassungsfähigkeit von Organismen sein sollte, die auf kurzen Experimenten mit nur wenigen Generationen beruhen“, hebt Dr. Melzner hervor. „Unser Experiment lief nur über drei Generationen, war aber eines der bisher längsten zu dieser Fragestellung. Es führt deutlich vor Augen, dass weitaus mehr Aufwand nötig wäre, um die Chancen einer Anpassung an den Klimawandel abschätzen zu können.“

Aktuell untersuchen die Forschenden, welche chemischen Prozesse der Schalenbildung den Miesmuscheln so viel Energie abverlangt und welche Faktoren diese besonders beeinträchtigen. Besseren Aufschluss sollen Untersuchungen an Populationen aus der östlichen Ostsee geben. Dort herrschen aufgrund des im Vergleich zur Kieler Förde noch niedrigeren Salzgehalts bereits heute Bedingungen, die die Schalenbildung und damit die Lebensfähigkeit der Muschellarven stark beeinträchtigen. Dr. Melzner: „Die Ostsee mit ihren verschiedenen Becken gibt uns einen guten Einblick in marine Lebensbedingungen, die in anderen Regionen erst in vielen Jahrzehnten eintreten werden. So können wir aus Beobachtungen vor der eigenen Haustür vieles lernen – aber um sie auf die Zukunft übertragen zu können, sind viele weitere Analysen nötig.“

Original-Veröffentlichung:
Thomsen, J., Stapp, L. S., Haynert, K., Schade, H., Danelli, M., Lannig, G., Wegner, K. M., and Melzner, F.: Naturally acidified habitat selects for ocean acidification tolerant mussels. Science Advances, doi: 10.1126/sciadv.1602411.

BIOACID in Kürze:
Unter dem Dach von BIOACID (Biological Impacts of Ocean Acidification) untersuchen zehn Institute, wie marine Lebensgemeinschaften auf Ozeanversauerung reagieren und welche Konsequenzen dies für das Nahrungsnetz, die Stoff- und Energieumsätze im Meer sowie schließlich auch für Wirtschaft und Gesellschaft hat. Eine Liste der Mitglieds-Institutionen, Informationen zum wissenschaftlichen Programm und den BIOACID-Gremien sowie Fakten zur Ozeanversauerung sind auf der Website www.bioacid.de zu finden.

Bildmaterial:
Unter www.geomar.de/n5152 steht Bildmaterial zum Download bereit.

Weitere Informationen:
http://www.geomar.de Das GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel
http://www.awi.de Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung
http://www.senckenberg.de Senckenberg am Meer
http://www.uni-bremen.de Universität Bremen
http://www.bioacid.de BIOACID – Biological Impacts of Ocean Acidification

Quelle: idw

(nach oben)


Feierabend-Studie: Teilnehmer gesucht

Bernd Hegen Referat Öffentlichkeitsarbeit
Universität Koblenz-Landau

Psychologinnen der Universität in Landau suchen Berufstätige für die Teilnahme an einer Studie zum Thema „Erholung am Feierabend.

An der Universität Koblenz-Landau wird ab Ende April unter Berufstätigen eine Studie zum Feierabend durchgeführt. Dabei geht es um die Frage, wie Arbeitnehmer sich während des Feierabends erholen. Für die Studie werden berufstätige Teilnehmerinnen und Teilnehmer gesucht.

Die Online-Studie erstreckt sich über einen Zeitraum von zwei Arbeitswochen (zehn Tage). In dieser Zeit erhalten die Teilnehmer dreimal täglich per SMS oder E-Mail einen Link zu einer Mini-Befragung. Das Ausfüllen der Befragungen dauert lediglich drei bis fünf Minuten und ist gut in den Alltag integrierbar. In den Mini-Befragungen sollen die Teilnehmer Fragen zu ihrem Arbeitstag und ihrem Feierabend beantworten.

Die Studie wird von den Psychologinnen Dr. Dorota Reis, Charlotte Arndt und Dunja Höneß geleitet. Nähere Informationen zur Studie, zum Datenschutz sowie das Anmeldeformular gibt es online unter http://www.forschung-landau.de
Unter den Teilnehmern werden Gutscheine in unterschiedlicher Höhe verlost. Auf Wunsch erhalten die Teilnehmer eine individuelle Rückmeldung der eigenen Ergebnisse. Bei Rückfragen steht Dr. Dorota Reis per E-Mail unter reis@uni-landau.de zur Verfügung.

Weitere Informationen:
http://www.forschung-landau.de

Quelle: idw

(nach oben)


Zecken & Rohmilch: Forscher berichten von neuen Übertragungswegen für FSME

Florian Klebs Presse- und Öffentlichkeitsarbeit
Universität Hohenheim

Universität Hohenheim verweist auf steigende Ansteckungsgefahr durch weitere Übertragungswege / Zeckenaktivität 2016 wieder gestiegen / höchste Aktivität weiterhin im Süden

Nicht nur Zecken – auch infizierte Rohmilch kann Hirnhautentzündung übertragen. Dies zeigt die aktuelle Auswertung von Deutschlands erstem klar dokumentierten Fall, den Zeckenforscher auf der heutigen Pressekonferenz der Universität Hohenheim vorstellten. Eine zweite neue Erkenntnis war der Fund von FSME-infizierten Zecken bei einer Zeckenart, die wesentlich früher im Jahr und bis in den Winter hinein aktiv ist, aber bislang nicht als Überträger der Krankheit galt. Zecken-Expertin Prof. Dr. Ute Mackenstedt berichtete außerdem über steigende Fallzahlen in Norddeutschland. Laut der Zecken-Expertin kann die Zahl der Krankheitsfälle auch zwischen kleinräumigen Gebieten stark variieren.

Unbehandelte Ziegenmilch vom Biohof: ein gesunder Genuss, dachte sich eine Familie beim Besuch eines Ziegenhofs im Kreis Reutlingen und probierte die angebotene frische Ziegenmilch. Was keiner ahnen konnte: Die Milch war mit dem Virus der Frühsommer-Meningoenzephalitis (FSME) befallen, zwei Familienmitglieder erkrankten daran. Sie wurden stationär behandelt, haben sich inzwischen jedoch wieder erholt.

FSME-Infektionen nach dem Verzehr von Rohmilchprodukten kommen in Osteuropa regelmäßig vor. In Deutschland sei ein solcher Fall vor dem Sommer 2016 jedoch noch nicht aufgetreten, erklärte Zecken-Expertin Prof. Dr. Ute Mackenstedt, Leiterin des Fachgebiets Parasitologie an der Universität Hohenheim.

Wissenschaftler arbeiten nun daran, den gesamten Übertragungsweg bei den Krankheitsfällen nachzuvollziehen, berichtete Prof. Dr. Mackenstedt. „Zum ersten Mal konnten wir bei diesem Fall die Überträger (Zecken), die Wirtstiere (Ziegen), befallene Lebensmittel wie Ziegenmilch und Rohmilchkäse und die erkrankten Personen untersuchen.“

Dabei seien noch viele Fragen offen, so die Parasitologin: „Die vierköpfige Familie nahm Ziegenkäse von dem Hof zu sich, die beiden männlichen Familienmitglieder tranken außerdem Milch und erkrankten.“. Das könne ein Zufall sein oder daran liegen, dass die Männer zusätzlich zum Käse auch Milch zu sich genommen haben. Grund könnten aber auch geschlechtsspezifische hormonelle Unterschiede der beteiligten Personen sein.

Doch vor FSME-Erregern in Nahrungsmittel könne man sich schützen, so die Experten bei der heutigen Pressekonferenz. Dr. Rainer Oehme vom Landesgesundheitsamt Stuttgart stellte klar: „Nach gegenwärtigem Kenntnisstand schützt auch eine normale FSME-Impfung vor einer Ansteckung über infizierte Nahrungsmittel.“

Es sei außerdem davon auszugehen, dass bei Milchprodukten aus pasteurisierter Milch keine Ansteckungsgefahr bestehe.

Weitere Zeckenart tritt als neuer FSME-Überträger auf
Im vergangenen Jahr wurde außerdem eine neue Zeckenart als FSME-Überträger ausgemacht, die bei deutlich niedrigeren Temperaturen aktiv ist als der Gemeine Holzbock.

Die Auwaldzecke (Dermacentor reticulatus) galt bislang nicht als Überträger des Erregers. Das habe sich nun geändert, erklärte PD Dr. Gerhard Dobler. Der Mediziner leitet das Institut für Mikrobiologie der Bundeswehr und ist Leiter des Deutschen Konsiliarlabors für Frühsommer-Meningoenzephalitis (FSME).

„An einem Mess-Standort nahe Leipzig wurden 2016 und 2017 mit FSME infizierte Auwaldzecken gefunden.“ Bislang gehörten alle Überträger der FSME zur Gattung Ixodes, darunter auch der Gemeine Holzbock, der im Gegensatz zu vielen anderen Zeckenarten auch Menschen befällt.

PD Dr. Dobler kann jedoch beruhigen: „Es ist zwar nicht ausgeschlossen, dass Auwaldzecken auch Menschen befallen. Deutlich häufiger befallen sie jedoch Tiere.“ Auch gegen das durch diese Zeckenart übertragene FSME-Virus sei man mit einer FSME-Impfung geschützt.

Trotz Anstieg bei FSME-Erkrankungen: Vorsicht vor Trendprognosen
Knapp 350 Fälle von FSME registrierte das Robert-Koch-Institut 2016 – ein Anstieg um mehr als 120 Erkrankungen im Vergleich zum Vorjahr. Und: Bereits in diesem Jahr wurden zwei FSME-Fälle erfasst.

Prof. Dr. Mackenstedt warnt jedoch vor vorschnellen Interpretationen der Statistik: „Auch in Jahren mit weniger Fallzahlen haben wir einzelne Landkreise, bei denen die Krankheitsfälle zunahmen. In anderen treten plötzlich über Jahre keine Krankheitsfälle auf, dann flammen sie wieder auf.“

Als Beispiel dafür nannte sie Beobachtungen aus einem Garten in Stuttgart, den das Landesgesundheitsamt seit über 20 Jahren auf FSME-infizierte Zecken überprüft. Nach zwei Jahren ohne infizierte Tiere wurden dort in diesem Jahr erstmals wieder Zecken gefunden, die das Virus in sich tragen.

Prof. Dr. Mackenstedt zog daraus den Schluss: „Nur weil wir für ein paar Jahre keine infizierten Zecken in einem Gebiet finden konnten oder es keine Erkrankungsfälle gab, heißt das nicht, dass die FSME-Infektion an dieser Stelle erloschen ist.“

Zecke weiter bundesweit auf dem Vormarsch
Nach wie vor sind zwar vor allem Baden-Württemberg und Bayern von FSME-Infektionen betroffen: Dort traten 80 Prozent der erfassten Fälle auf. Doch die FSME-Fälle werden immer häufiger weiter im Norden registriert.

„Was sich bereits in den vergangenen Jahren abzeichnete, können wir erneut bestätigen“, so PD Dr. Dobler. „Die FSME kommt inzwischen auch gehäuft in Niedersachsen und nahe der holländischen Grenze vor.“

Erneut hätten dabei der überwiegend milde Winter und der warme Vorfrühling dafür gesorgt, dass die Zecken früh aktiv werden. „Seit den warmen Tagen Anfang März kommen die Tiere mit Macht“, stellte Prof. Dr. Mackenstedt fest.

Zeckenforschung in Labor und Garten
Um das Zeckenvorkommen auf Grundstücken zu zählen, hat Prof. Dr. Mackenstedt mit ihrem Team in den vergangenen Jahren immer wieder Gärten im Großraum Stuttgart „beflaggt“. Dabei ziehen die Forscher weiße Stoffbahnen über Rasen und Büsche. Die Zecken wechseln auf diese Zeckenfahnen und werden anschließend abgesammelt und gezählt. Im Labor werden die Zecken getötet und auf FSME-Erreger getestet.

Für weitere Forschungsprojekte werden im Labor der Universität Hohenheim auch lebende Zecken gehalten. Zur Fütterung werden bis zu 15 Zecken mit Pinseln auf Wüstenrennmäuse aufgestrichen, wo sie sich für circa 3 – 14 Tage festsaugen.

Der Zeckenstich und das Saugen sind für die Wüstenrennmäuse schmerzfrei. Sie müssen während der Fütterung jedoch in einem Käfig von ihren Artgenossen isoliert gehalten werden, damit diese die Zecken nicht abknabbern. Sobald die Zecken abfallen, werden die Wüstenrennmäuse wieder in ihre soziale Gruppe reintegriert. Das Tierschutzgesetz stuft dies als „niedrige Belastung“ ein.

Da die Fütterung der Zecken mit dem Risiko einhergeht, dass sich die Wüstenrennmäuse mit Krankheitserregern infizieren, werden die Mäuse nach gut drei solcher Fütterungsgänge mit CO2 betäubt und schmerzlos eingeschläfert. Circa fünf Wüstenrennmäuse sind jeweils zur Fütterung der Zecken in einem Versuch nötig.

Quelle: idw

(nach oben)


BfG registriert an Fischaufstiegsanlage Koblenz über 230.000 aufsteigende Fische

Dipl.-Met. Alfred Hommes Referat Öffentlichkeitsarbeit
Bundesanstalt für Gewässerkunde

Die im Jahr 2011 an der Moselstaustufe Koblenz errichtete Fischaufstiegsanlage (FAA) wird rege genutzt. Dies dokumentiert der von der Bundesanstalt für Gewässerkunde (BfG) installierte automatische Fischzähler. Kleinere, den Fluss hinaufwandernde Fische wurden bisher jedoch nicht gezählt. Durch eine verbesserte Erfassungstechnik kann die BfG nun erstmals detaillierte Zahlen zu allen Größenklassen der beobachteten Fische vorlegen.

Die Zahlen der in der Fischaufstiegsanlage Koblenz aufsteigenden Fische für die Jahre 2012 bis 2014 wurden durch die BfG bereits veröffentlicht. Damals konnten kleinere Fische unter 15 cm aus technischen Gründen noch nicht erfasst werden. Seit Mitte des Jahres 2015 ermöglicht eine neue Bewegungserkennungssoftware, auch die kleineren Fische zu registrieren. Durch diese Neuerung konnten für das Jahr 2015 über 230.000 aufsteigende Fische nachgewiesen werden.

Aufgrund der Vielzahl der Fische gestaltete sich die Auswertung sehr zeitaufwändig. Über das gesamte Jahr 2015 hinweg wurden 28 Fischarten beobachtet (s. Tabelle 1a). Meist handelte es sich um Jungfische, vornehmlich Rotaugen und Rapfen, aber auch Döbel, Hasel und Nasen, die im Spätsommer in großen gemischten Schwärmen die Fischaufstiegsanlage zur Erschließung des Lebensraumes oberhalb der Staustufe Koblenz nutzten. Denkbar ist auch, dass junge Fische wieder in ihre ehemaligen Lebensräume zurückwandern, aus denen sie als kleine Fischlarven z. B. bei höheren Wasserständen stromab verdriftet werden. Die genauen Prozesse der Wanderung von Jungfischen, d. h. Motivation, Ziel und Umfang sind noch unverstanden. Mit der neu entwickelten Methode gelingt es hier erstmals für Deutschland systematisch quantitative Daten zur Jungfischwanderung zu erheben.
Eine so große Anzahl wandernder Fische ist nicht ungewöhnlich. In Jahren mit hoher Fortpflanzungsrate sind Millionen Jungfische in den Flüssen und größere Mengen auch unterhalb der Staustufe Koblenz zu finden. Der überwiegende Teil dieser Fische wird jedoch aus unterschiedlichen Gründen das Erwachsenenalter nicht erreichen. Die Jungfische sind unter der Gruppe „kleine Cypriniden“ zusammengefasst, da die Arten in den Videoaufzeichnungen aufgrund der geringen Größe der Fische nicht sicher unterscheidbar waren. Bei den erwachsenen Fischen dominierten die Arten Rotauge und Ukelei.

Um die Zahlen aus dem Jahr 2015 mit den Zahlen der Vorjahre vergleichbar zu machen, sind in Tabelle 1b nur die Fischzahlen dargestellt, die mit der gleichen Technik wie die Jahre zuvor erfasst wurden. Hier ist ein leichter Rückgang der Gesamtzahlen zu verzeichnen. Die genauen Ursachen sind noch zu prüfen, jedoch sind auch natürliche jährliche Schwankungen in den Populationen denkbar.

Erfreulich sind im Jahr 2015 die erneuten Beobachtungen von Maifischen sowie der leichte Anstieg der Zahl aufgestiegener Lachse im Vergleich zu den Vorjahren. Diese Zahlen sind jedoch noch weit davon entfernt, eine erfolgreiche natürliche Erhaltung der Population zu gewährleisten.
Beachtlich ist die Anzahl an Meerneunaugen. Diese leben wie Maifisch, Lachs und Meerforelle als erwachsene Tiere im Meer und wandern zum Laichen die Flüsse hinauf. Sie gehören jedoch nicht zu den Fischen, sondern zu den sogenannten Rundmäulern. Die Larven leben einige Jahre blind im Gewässerboden und ernähren sich von Mikroorganismen, Algen und organischen Schwebstoffen. Wenn sich die Augen entwickelt haben wandern sie ins Meer ab. Dort saugen sich die Tiere an größeren Fischen fest und raspeln mit kleinen Hornzähnen Haut und Gewebe ab, von dem sie sich fortan ernähren, bis sie geschlechtsreif werden und zum Laichen in die Flüsse wandern.
Meerneunaugen sind seit Jahrzehnten in der Mosel (fast) ausgestorben. Umso erfreulicher ist es, dass mit der Fischaufstiegsanlage der Zugang zu ehemaligen Lebensräumen wieder geöffnet wurde und sich eine neue Population dieser streng geschützten Art anzusiedeln beginnt.

Die Fischaufstiegsanlage Koblenz hat 39 Becken mit einer Gesamtlänge von 220 Metern und sie bietet aufstiegswilligen Fischen verschiedene Einstiegsmöglichkeiten, um in den Fischpass hinein zu gelangen. Die BfG ermittelt an der Fischtreppe Koblenz nicht nur die Zahl der aufsteigenden Fische, sie forscht auch an anderen Fragestellungen. Dabei werden Fische z. B. mit Transpondern markiert (s. Link). Mit dieser Technik wird untersucht, welche Einstiege von den Fischen genutzt werden und wie lange Fische für die Passage der FAA benötigen.

Die BfG wird auch in den nächsten Jahren die Aufstiegszahlen in Koblenz erfassen, wobei die Erfassungstechnik stetig optimiert wird. Man darf also auf die Zahlen der kommenden Jahre gespannt sein.

Presseartikel „Der gechipte Fisch“:
http://www.bafg.de/DE/Service/presse/2014_10_31.html

Weitere fachliche Informationen: Dr. Matthias Scholten, Fon: 0261/1306 5937, Mail: scholten@bafg.de und Bernd Mockenhaupt, Fon: 0261/1306 5941, Mail: mockenhaupt@bafg.de,
beide: Bundesanstalt für Gewässerkunde, Referat Tierökologie – Projektgruppe „Ökologische Durchgängigkeit für Fische“

Die Bundesanstalt für Gewässerkunde ist das zentrale wissenschaftlich eigenständige Institut des Bundes für die wissenschaftlich-technische Versuchs- und Forschungsarbeit und die praxisbezogene Beratung der Wasserstraßen- und Schifffahrtsverwaltung in den Fachgebieten Hydrologie und Gewässernutzung, Gewässerbeschaffenheit sowie Ökologie und Gewässerschutz. Sie unterstützt das Bundesministerium für Verkehr und digitale Infrastruktur sowie andere Bundesressorts in fachspezifischen Fragestellungen zu Bundeswasserstraßen und deren Einzugsgebiete und vertritt diese auch international.

Anhang
Aufstiegszahlen an FAA Koblenz in 2015
https://idw-online.de/de/attachment57106

Quelle: idw

(nach oben)


Wie ein Sensor-Kabel den Zug im Tunnel und den Einbrecher am Zaun erfasst

Claudia Ehrlich Pressestelle der Universität des Saarlandes
Universität des Saarlandes

Es kann helfen, den Straßenverkehr zu leiten oder genau anzeigen, wo eine U-Bahn oder ein Zug gerade fährt. Und es kann warnen, wann und wo Unbefugte in Gärten, Industrieanlagen oder Naturschutzgebiete eindringen: Das Sensor-Kabel, das Experimentalphysiker der Universität des Saarlandes entwickelt haben, ist vielseitig, flexibel und kostengünstig. Auch kleinste Veränderungen des Magnetfeldes erfasst es sicher, ordnet sie zu und meldet sie weiter. Ohne Daten zu sammeln.

Wo genau ist die U-Bahn oder der Zug im Tunnel? Wo versucht jemand auf ein Grundstück zu kommen, auf dem er nichts zu suchen hat? Oder: Wer hat ein Handy dabei, obwohl er nicht sollte? Ein dünnes Sensor-Kabel, das die Forschergruppe von Uwe Hartmann an der Saar-Uni entwickelt hat, kann auf solche Fragen Antworten geben. Es erfasst einige Meter um sich herum alles, was das Erdmagnetfeld in irgendeiner Weise ändert. Es kann an Zäunen angebracht unterscheiden, ob nur der Wind an den Maschen rüttelt oder ein Bolzenschneider. Im Boden verlegt erkennt es Autos, nimmt wahr, in welche Richtung sie fahren, unterscheidet sie von Lastwagen. Sogar Drohnen, die in ein paar Metern Höhe das Kabel überfliegen, bemerkt es – ebenso wie auch den Reißverschluss oder das Handy von dem, der darüber geht. An Flughäfen, U-Bahnen oder Bahnhöfen macht es neue Leitsysteme möglich, auf Privatgrundstücken, Kernkraftwerken wie Industrieanlagen neue Überwachungstechnik.

„Wir haben die Magnetfeld-Sensoren in den vergangenen Jahren kontinuierlich weiterentwickelt und immer sensibler und selektiver gemacht. Die Messwerte und Signalmuster, die entstehen, wenn unsere Sensoren Veränderungen wahrnehmen, können wir sehr genau den Ursachen einer Störung zuordnen“, erläutert Professor Uwe Hartmann. Verschiedene Sensor-Systeme, die seine Arbeitsgruppe entwickelt hat, werden bereits als Verkehrsleitsysteme eingesetzt, etwa an Flughäfen oder in Parkhäusern.

Die kleinen Messfühler, die die Physiker wie Perlen an einer Schnur in einem dünnen Kabel miteinander verbinden, sind untereinander vernetzt, und melden ihre Messwerte an einen Microcontroller. Dieser verarbeitet die Daten weiter. „Die Signalmuster unterscheiden sich je nach Art der Störung. Wir haben in zahlreichen Versuchsreihen etliche Arten von Änderungen des Magnetfeldes und von Erschütterungen simuliert und den jeweiligen Ursachen zugeordnet. Mit diesen Informationen haben wir das System angelernt. Es erkennt typische Muster, ordnet sie selbstständig Störungen zu und sortiert Fehlalarme aus“, erklärt Hartmann. Die Physiker haben hierzu Datenmuster mathematisch modelliert und die Auswerteeinheit wie die Sensoren immer detailreicher programmiert und verfeinert.

Das System zeigt den Ort der Störung genau an, was vor allem bei großen überwachten Geländen interessant ist. „Wir können es sehr flexibel an verschiedenste Anforderungen anpassen“, erklärt der promovierte Physiker Haibin Gao, der in Hartmanns Team an der neuen Sensortechnik forscht. „Auf der Hannover Messe Ende April suchen wir Partner, mit denen wir das System je nach Bedarf zur Serienreife entwickeln können“, sagt Gao. Das Sensor-Kabel braucht nicht viel Strom, eine Versorgung etwa über Solargeneratoren wäre möglich. Die Sensoren sind nahezu verschleißfrei, ihre Messung ist unabhängig von der Witterung – auch bei Regen, Nebel oder Schnee funktionieren sie ohne weiteres. Und das System speichert keine Daten oder sonstige Informationen. Auch Hacker finden keine Angriffsfläche. Nachrichten können etwa via Bluetooth aufs Smartphone oder Tablet geschickt werden.

Das Bundesforschungsministerium förderte die Forschung mit insgesamt über einer Million Euro, mehr als 250.000 Euro davon flossen an die Saar-Universität. Beteiligte Partner waren die Firma Sensitec GmbH mit Sitz in Mainz und Lahnau (http://www.sensitec.com), die Firma Listec GmbH mit Sitz in Isen (http://www.listec-gmbh.com) und die GBA-Panek GmbH mit Sitz in Kahla (http://www.gba-panek.de).

Kontakt:
Prof. Dr. Uwe Hartmann, Lehrstuhl für Nanostrukturforschung und Nanotechnologie der Universität des Saarlandes:
Tel.: (0681) 302-3799 oder -3798; E-Mail: u.hartmann@mx.uni-saarland.de
Dr. Haibin Gao Tel: (0681) 302-3654; E-Mail: h.gao@mx.uni-saarland.de
Dr. Uwe Schmitt: (0681) 302-2957; E-Mail: uwe.schmitt@mx.uni-saarland.de

Hintergrund:
Die Forschergruppe von Professor Uwe Hartmann stellt auf der Hannover Messe auch ein Angebot vor, mit dem sich die Experimentalphysiker vor allem an kleine und mittelständische Unternehmen wenden: Unter dem Motto „Simply advanced“ bietet der Lehrstuhl für Nanostrukturforschung und Nanotechnologie aufwändige Analysen und Simulationen rund um die Gebiete supraleitende Materialien, Magnetfeldsensorik und Nanotechnologie an. Die Arbeitsgruppe verfügt über Spezialgeräte und hochauflösende Mikroskope. Davon können vor allem Unternehmen profitieren, die keine eigene Forschungsabteilung für Materialentwicklung oder für Funktionswerkstoffe haben.

Der saarländische Forschungsstand wird organisiert von der Kontaktstelle für Wissens- und Technologietransfer der Universität des Saarlandes (KWT). Sie ist zentraler Ansprechpartner für Unternehmen und initiiert unter anderem Kooperationen mit Saarbrücker Forschern. http://www.kwt-uni-saarland.de/

Quelle: idw

(nach oben)


Tiefseekrake hat Quallen zum Fressen gern

Dr. Andreas Villwock Kommunikation und Medien
GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel

Mit Hilfe von Tiefseerobotern ist es Meeresbiologen aus Kiel und aus dem kalifornischen Monterey (USA) erstmals gelungen, den sehr seltenen Tiefseekraken Haliphron atlanticus bei der Nahrungsaufnahme zu filmen. Die Bilder bestätigen, dass die Tiere sich zumindest teilweise von Quallen ernähren und ihre Beute vielleicht auch zum Eigenschutz verwenden. Die Analyse der Videobilder ist jetzt in der internationalen Online-Fachzeitschrift Scientific Reports erschienen.

Der offene Ozean ist der größte Lebensraum auf diesem Planeten. Diese sogenannte pelagische Zone ist die Heimat von winzigen Planktonorganismen, Quallen, Tintenfischen, Fischen und Meeressäugetieren. Doch die Tiefe und die Weite des Ozeans erschwert die Erforschung dieser Zone. Viele Arten, die dort leben, sind wahrscheinlich noch unentdeckt, und das Verhalten vieler Tiere ist kaum je in ihrem natürlichen Lebensraum beobachtet worden. Erst dank neuester technischer Entwicklungen gelingt es der Wissenschaft zunehmend, einen genaueren Blick in die großen und verborgenen Tiefen unter der Wasseroberfläche zu werfen.

Dr. Henk-Jan Hoving vom Kieler Exzellenzcluster „Ozean der Zukunft“ / GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel und sein Kollegen Dr. Steve Haddock vom Monterey Bay Aquarium Research Institute (MBARI) konnten jetzt erstmals nachweisen, dass der Riesen-Tiefseekrake Haliphron atlanticus sich zumindest teilweise von Quallen ernährt. Das zeigt die Auswertung von Videoaufnahmen aus der Tiefsee, die die beiden Wissenschaftler jetzt in der internationalen Fachzeitschrift Scientific Reports veröffentlicht haben.

„Haliphron atlanticus gehört zu den größten bekannten Krakenarten überhaupt. Weibchen können eine Länge von bis zu vier Metern und ein Gewicht bis zu 75 Kilogramm erreichen, während die Männchen nur knapp 30 Zentimeter lang werden. Die Art lebt in der Tiefsee und ihre Lebensweise ist bisher kaum bekannt“, berichtet Dr. Hoving. Wissenschaftler des MBARI haben die Spezies in den vergangenen 27 Jahren nur drei Mal lebend gesichtet. Häufiger sind dagegen tot in den Netzen von Trawlern gefundene Tiere.

Diese schwer auffindbaren Lebewesen hat das MBARI-Team nun mit Hilfe von ferngesteuerten Unterwasserrobotern, sogenannten ROVs (Remotely Operated Vehicles), gefilmt. Während einer Expedition in der Monterey Bay und vor Hawaii entdeckten Haddock und sein Team ein Exemplar, das eine große Qualle in seinen Armen festhielt.

Daraufhin untersuchte das Team Bildmaterial von zwei vorherigen Begegnungen mit Haliphron. Dabei stellte es fest, dass eines der anderen Exemplare ebenfalls eine Qualle in seinen Fangarmen hielt. „Als wir anschließend den Mageninhalt von fünf toten Exemplaren unter die Lupe nahmen, konnten wir erkennen, dass sie ebenfalls Quallen und andere gelatinöse Beute gefressen hatten“, berichtet Dr. Hoving. Diese Ergebnisse lassen den Schluss zu, dass Quallen für den Tiefseekraken einen wichtigen Teil des Speisezettels ausmachen.

Quallen sind in der Tiefsee weit verbreitet und bieten dem eher langsamen Kraken eine einfach zu fangende Beute. Die Abwehrmechanismen der Quallen sind für einen großen aber langsamen Räuber wie den Tiefseekraken wohl verhältnismäßig einfach zu überwinden. Möglicherweise kann das Kraken-Weibchen nach dem Verspeisen der nährstoffreichen Teile den Schirm der Qualle mit ihren Nesselzellen sogar als Abwehr zu eigenen Zwecken nutzen

Die Entdeckung der Beziehung zwischen Haliphron und dem gelatinösen, tierischen Plankton bestätigt frühere Erkenntnisse zu achtarmigen Tintenfischen. Bei drei anderen Familien dieser Gruppe war bereits bekannt, dass sie Quallen fressen oder zur eigenen Abwehr nutzen.

Da Haliphron atlanticus seinerseits Beute für Pottwale, Blauhaie und Schwertfische ist, lässt die Entdeckung auch Schlüsse auf das gesamte Ökosystem der Tiefsee zu. „Gelatinöses Plankton wie Quallen und ähnliche Organismen wird bisher in seiner Funktion als Nahrung für viele andere Meeresbewohner und damit als Teil der gesamten Nahrungskette unterschätzt“, sagt Dr. Hoving.

Originalarbeit:
H.J.T. Hoving, H.J.T., S.H.D. Haddock (2017): The giant deep-sea octopus Haliphron atlanticus forages on gelatinous fauna. Scientific Reports 7, http://dx.doi.org/10.1038/srep44952

Weitere Informationen:
http://www.geomar.de Das GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel
http://www.ozean-der-zukunft.de Der Exzellenzcluster „Ozean der Zukunft“
http://www.mbari.org/a-giant-deep-sea-octopus-is-a-sucker-for-jellies/ Meldung des Monterey Bay Aquarium Research Institute

Video des Tiefseekraken Haliphron atlanticus
https://youtu.be/CzU8CUXxLsA

Quelle: idw

(nach oben)


Blutdruckwerte in Deutschland sinken – trotzdem keine Entwarnung

Christine Vollgraf Presse- und Öffentlichkeitsarbeit
Deutsches Zentrum für Herz-Kreislauf-Forschung e.V.

Eine aktuelle Auswertung von sieben großen Bevölkerungsstudien in Deutschland zeigt, dass die Blutdruckwerte in Deutschland in den letzten beiden Jahrzehnten gesunken sind. Am stärksten war der Rückgang bei den 55- bis 74-Jährigen. Trotz der sinkenden Werte ist der Blutdruck in Deutschland immer noch zu hoch, insbesondere bei Männern sehen Wissenschaftler des Deutschen Zentrums für Herz-Kreislauf-Forschung (DZHK) großen Handlungsbedarf.

Die Ergebnisse bieten erstmals einen umfassenden Überblick zu Blutdruckwerten der letzten zwanzig Jahre in Deutschland. Das von DZHK-Wissenschaftlern gegründete Konsortium zur Blutdruckepidemiologie hat hierfür Daten aus zwei nationalen Gesundheitssurveys und fünf regionalen bevölkerungsbezogenen Studien untersucht, die zwischen 1997 und 2012 durchgeführt wurden. Bundesweit sind die Blutdruckwerte bei Männern und Frauen gesunken, am stärksten in der Altersgruppe der 55- bis 74-Jährigen. Auch regional zeigten sich Unterschiede: Im Nordosten sanken die Werte im Vergleich zum Bundesdurchschnitt am stärksten. Das in früheren Publikationen nachgewiesene Ost-West-Gefälle, wonach die Werte in Ostdeutschland höher waren als in Westdeutschland, gleicht sich damit an.

Bluthochdruck wird bei Frauen häufiger erkannt und behandelt
Schon früher beobachtete Unterschiede zwischen Männern und Frauen haben sich nicht verändert: Weiterhin wird ein bestehender Bluthochdruck bei Frauen früher erkannt, häufiger behandelt und damit erfolgreich gesenkt. In einer weiteren Untersuchung fand PD Dr. Hannelore Neuhauser vom Robert-Koch-Institut in Berlin und Mitglied des Konsortiums heraus, dass diese geschlechtsabhängigen Differenzen bei den 18- bis 54-Jährigen besonders groß sind. „Auch in anderen Ländern werden solche Geschlechterunterschiede beobachtet. Eventuell kommen sie zustande, weil jüngere Männer selten zum Arzt gehen und ihre Blutdruckwerte daher auch seltener kontrolliert werden. Frauen sind hingegen regelmäßig beim Frauenarzt, wo auch ihr Blutdruck gemessen wird“, sagt Neuhauser. Bei jungen Männern zwischen 25 und 34 Jahren wurde sogar nur im Norden Ostdeutschlands ein Rückgang der Blutdruckwerte beobachtet. Dieser positive Trend zeigte sich im restlichen Bundesgebiet nicht.

Gesunde Ernährung, mehr Bewegung, Verzicht aufs Rauchen
Die Wissenschaftler verzeichneten auch, dass Bluthochdruck in den letzten Jahren vermehrt behandelt wird. In den erhöhten Behandlungsraten sehen sie einen möglichen Grund für die verbesserten Werte, vermuten aber, dass auch präventive Maßnahmen wie eine gesündere Ernährung, mehr Bewegung und ein Verzicht auf das Rauchen zu der positiven Entwicklung beigetragen haben.

Bedeutendstes Gesundheitsrisiko weltweit
Nach wie vor sind die Blutdruckwerte allerdings auf einem zu hohen Niveau und die Zahl der Menschen mit Bluthochdruck insgesamt hat sich nur wenig verändert. Die Forscher gehen sogar davon aus, dass die Diagnose Bluthochdruck wegen der immer älter werdenden Gesellschaft in Zukunft häufiger wird. Und das nicht nur in Deutschland: Die WHO hat Bluthochdruck als bedeutendste Gesundheitsgefahr weltweit eingestuft. Er gehört zu den größten Risikofaktoren für Demenz, Herz-Kreislauf- und Nieren-Erkrankungen. Dabei wäre Bluthochdruck in vielen Fällen vermeidbar und es gibt effektive Behandlungsmöglichkeiten. „Am Beispiel Nord-Ostdeutschland sehen wir, wieviel innerhalb eines Jahrzehnts erreicht werden kann“, sagt Neuhauser. „Doch es gibt noch viel Spielraum und vorrangiges Ziel muss bleiben, dass Bluthochdruck erst gar nicht entsteht.“ Der Grenzwert liegt aktuell bei 140/90 mm Hg. Doch laut der Medizinerin muss man schon vorher ansetzen, im sogenannten prähypertonen Bereich bei Werten zwischen 120-140/80-90 mm Hg. In diesem Bereich werden keine Medikamente verordnet, aber eine Lebensstilveränderung kann viel bewirken: also Übergewicht abbauen, mehr bewegen, viel Obst und Gemüse essen und nicht rauchen.

Schwierig zu messen
Bevölkerungsweite Studien zum Bluthochdruck, die über zeitliche Trends oder regionale Unterschiede in Deutschland Auskunft geben, sind vergleichsweise selten. Denn obwohl der Blutdruck ständig gemessen wird, ist es schwierig an Daten heranzukommen, die nach genau festgelegten Regeln hochpräzise erhoben wurden und daher vergleichbar sind. „Den Blutdruck zu messen, ist ähnlich schwierig wie den Meeresspiegel zu bestimmen. Beide unterliegen starken Schwankungen“, vergleicht Neuhauser. „Einmal die Treppe hochlaufen oder sich aufregen und schon geht der Blutdruck nach oben.“ In den sieben analysierten Studien mussten sich die Probanden in einer genau festgelegten Position hinsetzen und auch die Ruhezeiten vor den einzelnen Blutdruckmessungen waren identisch. Unterschiede zwischen den verwendeten Messgeräten wurden durch spezielle Kalibrierungsformeln herausgerechnet. „Solche standardisierten Datenerhebungen zur Entwicklung des Bluthochdrucks sind aufwändig aber unverzichtbar, um gezielte Maßnahmen gegen die Gesundheitsgefahr Bluthochdruck zu entwickeln“, stellt Neuhauser fest. Insbesondere bei über 70-Jährigen und jungen Erwachsenen sehen sie und ihre Kollegen noch einen großen Bedarf an aktuellen Zahlen. Das von ihnen gegründete Konsortium zur Blutdruckepidemiologie wird seine Arbeit fortsetzen und auch zukünftig Studien zum Bluthochdruck in Deutschland auswerten.

Über das DZHK
Das Deutsche Zentrum für Herz-Kreislauf-Forschung (DZHK) will erreichen, dass neue Erkenntnisse aus der Herz-Kreislauf-Forschung schnellstmöglich bei den Patienten ankommen. Ziel ist es, Diagnose, Prävention und Behandlung von Herz-Kreislauf-Erkrankungen in Deutschland zu verbessern. Dafür arbeiten im DZHK Grundlagenforscher und klinische Forscher aus 30 Einrichtungen an sieben Standorten zusammen. Das DZHK wurde 2011 auf Initiative des Bundesministeriums für Bildung und Forschung (BMBF) gegründet und wird zu 90 Prozent vom Bund und zu 10 Prozent von denjenigen Ländern gefördert, in denen seine Mitgliedseinrichtungen ihren Sitz haben. Es gehört zu den sechs Deutschen Zentren der Gesundheitsforschung (DZG), die sich der Erforschung großer Volkskrankheiten widmen.

Originalarbeiten:
Hypertension in Germany – data from seven population-based epidemiological studies (1994-2012).
Neuhauser H, Diederichs C, Boeing H, Felix SB, Jünger C, Lorbeer R, Meisinger C, Peters A, Völzke H, Weikert C, Wild P, Dörr M: Dtsch Arztebl Int 2016; 113: 809-15.
DOI: 10.3238/arztebl.2016.0809
https://www.aerzteblatt.de/int/archive/article/184205/Hypertension-in-Germany-da…

The persisting gender gap in hypertension management and control in Germany: 1998 and 2008-2011.
Sarganas G, Neuhauser HK. Hypertens Res. 2016 Jun; 39(6): 457-66.
DOI: 10.1038/hr.2016.5.
http://www.nature.com/hr/journal/v39/n6/full/hr20165a.html

Kontakt:
PD Dr. med. Hannelore Neuhauser, Robert Koch-Institut, Abteilung für Epidemiologie und Gesundheitsmonitoring, NeuhauserH@rki.de

Weitere Informationen:
http://www.dzhk.de

Quelle: idw

(nach oben)


FH Potsdam startet neues Forschungsprojekt für integrierte Stadtentwicklung

Jutta Neumann Pressesprecherin
Fachhochschule Potsdam

Wie lässt sich die Entwicklung von Städten besser verstehen, vorhersehen und aktiv mitgestalten? Dieser Fragestellung widmet sich das neue Forschungsprojekt „PaSyMo“. Die Abkürzung steht für „Partizipative System-Modellierung als Tool für integrierte Stadtentwicklung“. PaSyMo ist am Institut für Angewandte Forschung – Urbane Zukunft (IaF) angesiedelt und läuft über eine Dauer von zwei Jahren. Es wird von Prof. Dr. Tobias Schröder geleitet und von den beiden neuen wissenschaftlichen Mitarbeitern Max Priebe und Timo Szczepanska durchgeführt. Mit dem Projekt startet am 17. Mai an der FH Potsdam auch die neue Vortragsreihe „Urban Future Talks“.

Ziel des Forschungsvorhabens ist es, zusammen mit städtischen AkteurInnen und BürgerInnen eine Toolbox zu entwickeln, die dazu anregen soll, sich an einer nachhaltigen Stadtentwicklung zu beteiligen. Mithilfe von ansprechenden Visualisierungen von unterschiedlichen Einflussfaktoren wie Verkehr, Wohnraum oder Umwelt sollen die komplexen Zusammenhänge in Städten so abgebildet werden, dass sie für jedermann verständlich und nachvollziehbar sind.

„PaSyMo zeichnet die Konsequenzen von Handeln nach und macht es möglich sich mit Chancen wie auch Risiken zukünftiger Entwicklungen auseinanderzusetzen“, erläutert Prof. Dr. Tobias Schröder, Leiter des Forschungsprojekts. „Das Alleinstellungsmerkmal von PaSyMo besteht darin, gezielt kleine und mittlere Kommunen mit einer kosteneffizienten Toolbox zu unterstützen, ohne dabei den Aufwand kommerzieller Smart City Initiativen zu verursachen.“

Das Forschungsprojekt ist am Institut für angewandte Forschung – Urbane Zukunft (IaF) der FH Potsdam angesiedelt und wird durch Mittel des Europäischen Fonds für Regionale Entwicklung (EFRE) gefördert. PaSyMo baut auf die am IaF vorhandenen, sich interdisziplinär ergänzenden Kompetenzen, in Informationsvisualisierung, Energie- und Stoffstrommodellierung, Modellierung sozialer Interaktions- und Transformationsprozesse, Verkehrsmodellierung und Telematik sowie dem forschenden Lernen im Masterstudiengang Urbane Zukunft.

„Das Forschungsprojekt gibt Studierenden des Masterstudiengangs Urbane Zukunft die Möglichkeit, erste Erfahrungen in der angewandten Forschung zu sammeln. Durch die enge Kooperation mit städtischen AkteurInnen in Brandenburg erhoffen wir uns einen direkten Mehrwert für Stadtentwicklungen in den Kommunen“, ergänzen die beiden neuen wissenschaftlichen Mitarbeiter Max Priebe und Timo Szczepanska, die das Forschungsvorhaben durchführen werden. „Interessierte laden wir schon jetzt herzlich zu den „Urban Future Talks“ am 17. Mai an der FH Potsdam ein. Neben spannenden Vorträgen zu Beteiligung im digitalen Zeitalter möchten wir einen Dialog bezüglich des Vorgehens und der Ziele des PaSyMo-Projektes anregen.“

Kontakt:
Prof. Dr. Tobias Schröder
Forschungsprofessor „Nachhaltige urbane Entwicklungsstrategien“
FH Potsdam// Institut für Angewandte Forschung – Urbane Zukunft
Tel: 0331-580 2512
Mail: schroeder@fh-potsdam.de

Quelle: idw

(nach oben)


Ameisen retten ihre Verletzten

Robert Emmerich Presse- und Öffentlichkeitsarbeit
Julius-Maximilians-Universität Würzburg

Im Reich der Ameisen gibt es ein einzigartiges Rettungswesen: Kommt es im Kampf zu einer Verletzung, ruft die verwundete Ameise um Hilfe. Sie wird dann zurück ins Nest getragen und verarztet.

Die afrikanischen Matabele-Ameisen (Megaponera analis) sind südlich der Sahara weit verbreitet und haben sich auf eine besondere Nahrung spezialisiert: Sie fressen Termiten. Zwei bis vier Mal am Tag gehen die Ameisen auf Beutefang. Sie ziehen in langen Kolonnen aus, überfallen Termiten an ihren Futterstellen, töten dort viele Arbeiter und schleppen die Opfer zurück in ihr Nest.

Bei diesen Überfällen stoßen die Ameisen allerdings auf Gegenwehr – sie werden in Kämpfe mit der Soldatenkaste der Termiten verwickelt. Dabei kann es Tote und Verwundete geben, denn die Soldaten wissen ihre gepanzerten Köpfe und kräftigen Kiefer gut gegen die Ameisen einzusetzen.

Das Verletzungsrisiko ist also hoch auf den Beutezügen. Die Ameisen haben darum ein Rettungsverhalten entwickelt, das man in dieser Form bei Insekten bislang nicht kannte.

Chemisches Signal löst die Rettung aus
Wird eine Ameise im Kampf verletzt, „ruft“ sie ihre Artgenossen um Hilfe, indem sie chemische Signalstoffe absondert. Sie wird dann zurück ins Nest getragen und dort verarztet, so dass sie in der Lage ist, bei künftigen Raubzügen wieder dabei zu sein. Worin die „Therapie“ besteht? Meist werden Termiten entfernt, die sich an der Ameise festgebissen haben.

Ein Forschungsteam vom Biozentrum der Universität Würzburg hat dieses Rettungswesen von Megaponera analis aufgedeckt und beschreibt es im Journal „Science Advances“. An der Arbeit beteiligt waren Erik Frank, Thomas Schmitt, Thomas Hovestadt, Oliver Mitesser, Jonas Stiegler und Karl Eduard Linsenmair, alle vom Lehrstuhl für Tierökologie und Tropenbiologie.

Verletztenrettung macht sich bezahlt
„Erstmals haben wir damit bei wirbellosen Tieren ein Helferverhalten gegenüber Verletzten beobachtet“, sagt Doktorand Erik Frank. Gerade bei sozialen Insekten, bei denen das Individuum im Vergleich zur ganzen Kolonie in der Regel nur wenig zählt, sei das nicht zu erwarten gewesen. Aber offenbar zahlt es sich in der Gesamtbilanz für die Kolonie aus, den Aufwand zur Rettung von Verwundeten zu betreiben, wie die Forscher in ihrer Publikation zeigen.

Saving the injured: Rescue behaviour in the termite hunting ant Megaponera analis, Erik T. Frank, Thomas Schmitt, Thomas Hovestadt, Oliver Mitesser, Jonas Stiegler, Karl Eduard Linsenmair, Science Advances, 12. April 2017

Kontakt
Erik Frank, Biozentrum der Universität Würzburg, erik.frank@uni-wuerzburg.de

Quelle: idw

(nach oben)


Rostocker Forscher wollen Glyphosat „entzaubern“

Ingrid Rieck Presse- und Kommunikationsstelle
Universität Rostock

Glyphosat in der Umwelt: erkannt, entschlüsselt, entzaubert? Ist es nun ein Gesundheitsrisiko für Menschen oder nicht? „Seit über 40 Jahren Forschung stehen wir immer noch vor Problemen und vielen Fragen mit dem Unkrautgift“, sagt Peter Gros von der Agrar-und Umweltwissenschaftlichen Fakultät (AUF) der Universität Rostock.

Der 32-jährige, der an der TU Bergakademie Freiberg Angewandte Naturwissenschaft mit der Vertiefung Biotechnologie und Umweltanalytik studierte, kniet sich seit zwei Jahren in das Umweltverhalten des weltweit wichtigsten Herbizids tief hinein. Denn: Einsatzgebiete finden sich nicht nur in der industriellen Landwirtschaft, auch bei Hobbygärtnern erfreut sich Glyphosat einer großen Beliebtheit. Über viele Jahre galt das Mittel als unbedenklich für Mensch und Umwelt. Man ging davon aus, dass Glyphosat stark an Metalloxide im Boden gebunden wird und deshalb nicht einfach in die Umwelt ausgewaschen werden kann. Einmal fixiert, wird Glyphosat dann von Bakterien zu Kohlenstoffdioxid und Phosphat abgebaut.

Doch jüngst geriet das Unkrautbekämpfungsmittel in die Schlagzeilen. Vor diesem Hintergrund hat sich ein Team aus Bodenkundlern (AG Prof. Peter Leinweber) und theoretischen Physikern (AG Prof. Oliver Kühn) an der Uni Rostock gebildet, um die Wechselwirkung von Glyphosat mit Bodenbestandteilen auf molekularer Ebene zu verstehen. Die entscheidende Frage, ob ein Risiko besteht, an Krebs zu erkranken, können sie nicht beantworten. „Aber wir hoffen, dass wir mit unserer Forschung zur Aufklärung der Wechselwirkungen von Glyphosat in komplexen Systemen beitragen können“, betont Peter Gros.
„Es gibt unzählige Studien, die sich widersprechen“, sagt der junge Wissenschaftler.
Peter Gros betrachtet Glyphosat aus bodenkundlicher Sicht. „Wir beobachten Phänomene in der Natur“, sagt Gros, „die die bisherigen Vorstellungen, wie sich Glyphosat in der Umwelt verhält, in Frage stellen.“
Zum großen Erstaunen ist vor etwa zwei Jahren Glyphosat sogar in der Ostsee und das oberhalb der Grenzwerte nachgewiesen worden. „Dort dürfte es aus bodenkundlicher Sicht nie hingelangen“, sagt Peter Gros. Dazu erklärt Professor Detlef Schulz-Bull vom Leibniz-Institut für Ostseeforschung Warnemünde (IOW): „Das Pflanzenschutzmittel Glyphosat kann über die Flüsse in die Ostsee eingetragen werden. In Mündungsgebieten sowie in Küstengewässern von Mecklenburg-Vorpommern wurden hohe Konzentrationen von Glyphosat und des Abbauproduktes AMPA nachgewiesen.
Die Transportprozesse und die biologischen Effekte sind Bestandteil aktueller Arbeiten am IOW.“

Peter Gros will nun mit seinem Physiker-Kollegen von der Uni Rostock, Dr. Ashour A. Ahmed, durch theoretische Modellierung auf der einen Seite und detaillierte Experimente auf der anderen die Wechselwirkungen von Glyphosat betrachten und aufklären. „Wir konnten bereits eindeutig nachweisen, dass die organische Bodensubstanz einen starken Einfluss auf die Bindung von Glyposat im Boden hat“, verweist Gros auf ein Ergebnis. Es gebe nach monatelangen Untersuchungen eindeutige Hinweise, dass, obwohl Glyphosat stark im Boden gebunden sei, dennoch mobil, also auswaschbar sein könne. Das werde aus Sicht des Forschers möglich durch das komplexe System Boden mit seiner organischen Bodensubstanz.

Und was nun? „Wir werden diesen Erkenntnissen durch weitere analytische Untersuchungen auf den Grund gehen“, kündigt Peter Gros an. Es gehe jetzt darum, Bindungsverhältnisse im komplexen System aufzuklären. „Wir nutzen die durch Professor Peter Leinweber bestehenden Kontakte zu Wissenschaftlern in Kanada und können dort in Kürze mit einem Teilchenbeschleuniger Bodenproben mit hochenergetischer Strahlung untersuchen“, sagt Gros. Dadurch erhoffe er sich sehr detaillierte Informationen über konkrete Bindungsverhältnisse von Glyphosat an den Bodenbestandteilen, um nach Jahrzehnten die drängenden Fragen zu dem Unkrautgift endgültig zu klären. Text: Wolfgang Thiel

Kontakt:
Universität Rostock
Agrar- und Umweltwissenschaftliche Fakultät
Prof. Dr. Peter Leinweber
Fon: +49 (0)381 498 – 3120
Mail: peter.leinweber@uni-rostock.de

Quelle: idw

(nach oben)


Drohneneinsatz in der Meeresforschung

Dr. Andreas Villwock Kommunikation und Medien
GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel

Kieler Forschende setzen erstmals Fluggerät für die Gewinnung von Luft- und Wasserproben ein

Ein Team des GEOMAR Helmholtz-Zentrums für Ozeanforschung Kiel hat erstmals erfolgreich eine Drohne zur Gewinnung von marinen Luft und Wasserproben eingesetzt. Ziel der Studie, in deren Rahmen die Drohne eingesetzt wurde, ist es, die Rolle der Küstengewässer als Quelle für reaktive Spurengase, die für chemische Prozesse in der Atmosphäre und das Klima wichtig sind, besser zu verstehen. Das Projekt mit dem Namen LASSO (Lagrangian study of marine trace gas Air-Sea exchange over the Ocean) wird vom Kieler Exzellenzcluster „Ozean der Zukunft“ gefördert.

Unbemannte Fluggeräte, sogenannte Drohnen, werden nicht nur zur Erstellung von Bild- und Filmmaterial sondern zunehmend für komplexere Aufgaben eingesetzt. Auch in der Forschung werden diese mobilen Plattformen zunehmend verwendet. Ein Team von Wissenschaftlerinnen und Wissenschaftlern vom GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel hat nun erstmalig eine mittelgroße Drohne für die Gewinnung von Luft- und Wasserproben im unzugänglichen Bereich der Brandungszone eingesetzt. Das Projekt wird vom Kieler Exzellenzcluster „Ozean der Zukunft“ gefördert.

Anfang April war es endlich soweit: Eine DJI Matrice 600 Drohne wurde genutzt, um Proben an der Westküste der Insel Sylt zu nehmen. „Wir hatten sehr variable Wetterbedingungen mit Windgeschwindigkeiten von mehr als 10 m/s, bei denen sich die Drohne sehr gut bewährt hat“, erläutert die Projektleiterin Dr. Birgit Quack vom GEOMAR. „Am ersten milden Tag fragte eine Spaziergängerin noch, ob man das Ganze nicht auch im Sommer und einem Schwimmer erledigen könnte. An den folgenden stürmischen Tagen mit hohen Brandungswellen fragte niemand mehr, außer uns war eigentlich auch fast niemand mehr da“, schmunzelt Dr. Quack.

„Wir konnten sowohl horizontale wie vertikale Profile fliegen und Proben atmosphärischer Größen in der Küstenzone nehmen“, so Dr. Steffen Fuhlbrügge, Meteorologe am GEOMAR und Steuerer der Drohne. Neben 120 Luftproben gelang es auch 40 Wasserproben zu gewinnen. Zusätzlich zeichnete die Drohne auch Bilder von der Meeresoberfläche auf. „Der Gasaustausch zwischen Ozean und Atmosphäre wird durch die Schaumbildung verstärkt“, erläutert Prof. Dr. Christa Marandino, Atmosphärenchemikerin vom GEOMAR. „Mit unserer Feldstudie möchten wir die Rolle der Küstengewässer als Quelle für reaktive Spurengase, die für die troposphärische bzw. stratosphärische Chemie und das Klima wichtig sind, besser verstehen“, so Marandino weiter.

Die gewonnenen Proben werden jetzt weiter ausgewertet. Die Luftproben werden von amerikanischen Kooperationspartnern auf mehr als 50 Spurengase, einschließlich Halogenkohlenwasserstoffe (z.B. Bromoform, Dimethybromid, Methyljodid), Nicht-Methan-Kohlenwasserstoffe (z.B. Isopren) und schwefelhaltige Verbindungen (z.B. Dimethylsulfid) hin untersucht. Am GEOMAR beschäftigen sich die Wissenschaftlerinnen und Wissenschaftler schwerpunktmäßig mit der Analyse der Wasserproben und Auswertung der Luftbilder.

Währenddessen schmieden die Forschenden schon neue Pläne. „Wir wollen die Luft- und Wasserprobenahme weiter optimieren, um einen größeren Bereich mit mehr Flexibilität abdecken zu können sowie weitere Sensoren (z. B. für meteorologische Daten) auf dem Drohnenpaket zu integrieren“, so Dr. Quack. Ferner sollen die Probennahme und Bildaufzeichnung mit direkten Gas-Transfer-Messungen gekoppelt werden, um den Gasaustausch zwischen Atmosphäre und Ozean besser abschätzen zu können. „Letztendlich möchten wir das Messverfahren dann auch auf Schiffsexpeditionen auf hoher See und in den Tropen und Subtropen anwenden, da dort die Konzentrationen der marinen Spurengase oft noch höher sind“, meint Birgit Quack abschließend.

Kontakt:
Dr. Andreas Villwock(GEOMAR, Kommunikation & Medien), Tel.: 0431 600-2802, presse@geomar.de

Quelle: idw

(nach oben)


Deutsche brauchen weniger Vorgesetzte als US-Firmen – Mitbestimmung wichtig für flache Hierarchie

Rainer Jung Abt. Öffentlichkeitsarbeit
Hans-Böckler-Stiftung

Unternehmen brauchen weniger Chefs, die Beschäftigte anweisen und kontrollieren, wenn das institutionelle Umfeld stimmt. Notwendig sind unter anderem Arbeitnehmervertretungen. Deutsche Firmen kommen mit deutlich weniger Vorgesetzten aus als Unternehmen in den USA oder Großbritannien, zeigt eine Untersuchung.*

Kaum ein Beschäftigter dürfte engmaschige Überwachung durch den Chef schätzen. Aber auch für das Unternehmen ist Kontrolle immer mit Kosten verbunden, was aus betriebswirtschaftlicher Sicht für flache Hierarchien spricht – wenn sie denn funktionieren.

Welche Voraussetzungen erfüllt sein müssen, damit Betriebe mit wenig Führungs- und Aufsichtspersonal auskommen, haben Dr. Silvia Teuber und Prof. Dr. Uschi Backes-Gellner von der Universität Zürich gemeinsam mit Prof. Dr. Paul Ryan von der Universität Cambridge mit Unterstützung der Hans-Böckler-Stiftung untersucht. Das Ergebnis: Ohne solide Berufsbildung, Beschäftigungsstabilität und Mitbestimmung geht es nicht.

Die Forscher haben 22 Maschinenbauunternehmen in Deutschland, Großbritannien, der Schweiz und den USA verglichen, die mindestens 50 Beschäftigte haben und mit vergleichbaren Technologien arbeiten. Für die Studie wurden die Personalverantwortlichen interviewt, die Produktionsstätten besichtigt und Unternehmensdaten ausgewertet.

Wenn man die so genannte „Kontrollspanne“ der untersuchten Betriebe – also das Verhältnis zwischen Mitarbeitern und Vorgesetzten in der Produktion – betrachtet, sind nationale Muster deutlich erkennbar: In den USA kommen im Schnitt 7,1 Beschäftigte auf einen Chef, in Großbritannien 10,3, in der Schweiz 13,6 und in Deutschland 26. Der niedrigste Wert bei den deutschen Firmen beträgt 17,6, in den USA stellt 13 den maximalen Wert dar.

Die Unterschiede decken sich mit Erkenntnissen der sogenannten Varieties-of-Capitalism-Forschung: Deutschland entspricht dem Prototyp einer „koordinierten Marktwirtschaft“ mit kooperativen Arbeitsbeziehungen, Flächentarif, wirksamem Kündigungsschutz, systematischer Berufsausbildung und beruflicher Weiterbildung. Das US-amerikanische Modell steht dagegen für „liberale Marktwirtschaft“ in Reinform: wenig Kooperation, starkes Management, kaum Tarifbindung, schwacher Kündigungsschutz, Investitionen vor allem in akademische Bildung. Großbritannien und insbesondere die Schweiz stellen eher Mischformen dar.

– Mitbestimmung stärkt das gegenseitige Vertrauen –
Dass in koordinierten Marktwirtschaften im Vergleich weniger kontrolliert wird, halten die Autoren für schlüssig: Ein solides Berufsbildungssystem sorge für qualifizierte Arbeiter, die wenig Anleitung und Überwachung brauchen. Da gut ausgebildete Beschäftigte auch anspruchsvolle Aufgaben übernehmen, sei die Motivation von vornherein höher. Kündigungsschutz und Flächentarif erhöhten die Mitarbeiterbindung, was wiederum den Erwerb von betriebsspezifischem Wissen begünstigt. Führungspositionen könnten so mit erfahrenen Leuten besetzt werden. Hinzu komme der positive Einfluss von Betriebsräten: Mitbestimmung stärke das Vertrauen zwischen Management und Belegschaft und trage so ebenfalls zu weniger Kontrollbedarf bei. In liberalen Marktwirtschaften wie den USA fehle es dagegen an Mechanismen zur Gewährleistung von adäquater Qualifikation, Mitarbeiterbindung und Vertrauensbildung. Daher seien die Firmen gezwungen, in erster Linie auf Hierarchie und Regeln und damit auf eine enge Kontrollspanne zu setzen.

Die skizzierten Zusammenhänge lassen sich nicht nur im Ländervergleich, sondern auch auf betrieblicher Ebene nachweisen. Grundsätzlich stehe es Unternehmen frei, im Rahmen der nationalen Institutionen eigene organisatorische Akzente zu setzen, so die Betriebswirte. Der Analyse zufolge gibt es auch in den USA Maschinenbauunternehmen mit starken internen Arbeitsmärkten. Eine der fünf britischen Firmen verfügt über eine Arbeitnehmervertretung. In der Schweiz gibt es sogar fünf Unternehmen mit betrieblicher Interessenvertretung und nur eines ohne. Zwei der sechs Schweizer Unternehmen rekrutieren ihre Führungskräfte vor allem intern. Wenn man die betrieblichen Merkmalskombinationen zur Kontrollspanne in Beziehung setzt, zeigt sich: Eine qualitativ hochwertige Berufsbildung, ein hoher Anteil interner Beförderungen und eine Arbeitnehmervertretung sind notwendige Bedingungen dafür, dass eine Firma mit weniger Chefs auskommt – sobald nur eines dieser Elemente fehlt, nimmt der Überwachungsbedarf erheblich zu.

*Silvia Teuber, Uschi Backes-Gellner, Paul Ryan: How companies adjust their span of control to national institutions, Die Betriebswirtschaft 4/2016

Ansprechpartner in der Hans-Böckler-Stiftung:
Rainer Jung
Leiter Pressestelle
Tel.: 0211 / 77 78-150
E-Mail: Rainer-Jung@boeckler.de

Quelle: idw

(nach oben)


240.000 Euro für Forschung zu Digitalisierung und Vernetzung in der Wasserwirtschaft

Heike Lücking Referat Kommunikation & PR
Hochschule Ruhr West

Im Förderwettbewerb des Landes für die NRW-Fachhochschulen (FH Struktur) hat sich die HRW erfolgreich mit ihrer Antragsidee „Smart Water- Chancen und Risiken einer digitalisierten Wasserwirtschaft“ behauptet. In den nächsten zwei Jahren erhält das Projekt rund 240.000 Euro Fördergelder. Punkten konnte die HRW mit einer besonders zukunftsweisenden Fragestellung und einem fachübergreifenden Ansatz zwischen Wirtschaftswissenschaftlern und Bauingenieuren. Im Mittelpunkt des interdisziplinären Projektes stehen die Chancen und Risiken, die sich aus einer Digitalisierung und Vernetzung in der Wasserwirtschaft ergeben.

„Smart Water“ zeigt, dass Wasser(-wirtschaft) und Digitalisierung sehr viel mehr miteinander zu tun haben, als zunächst gedacht. Die sinnhafte Kombination von Technik und Ökonomie bietet ungeahnte Chancen bei der Bewältigung zentraler gesellschaftlicher Herausforderungen wie extremen Wettersituationen und Klimawandel.

„Digitalisierung wird uns über die nächsten Jahre und Jahrzehnte in stets wandelndem Kleid begegnen. Dies strukturiert zu begleiten und auf diese Weise diese neuen Entwicklungen für die Branche und damit für die Kunden und die Umwelt nutzbar zu machen, ist die zentrale Aufgabe,“ so Prof. Dr. Mark Oelmann vom Wirtschaftsinstitut. Dabei ist es ihm und Prof. Dr.-Ing. Markus Quirmbach vom Institut Bauingenieurwesen wichtig, die bestehenden Risiken nicht zu vernachlässigen. Um Risiken von Daten- über Ver- und Entsorgungssicherheit bis hin zur Verunsicherung von Mitarbeitern entgegenzuwirken sind erhebliche Anstrengungen im Wasserbereich nötig.

Die Entwicklungen der vergangenen Jahre im Bereich der Digitalisierung haben die Notwendigkeit unterstrichen, sich verstärkt mit kleineren und mittelständischen Unternehmen außerhalb der Wasser-wirtschaft zu vernetzen. In der Vergangenheit haben sich insbesondere diese Unternehmen als Treiber und Ideengeber der Digitalisierung hervorgetan. „Smart Water“ will bewusst die Zusammenarbeit mit dieser Unternehmensgruppe aus verschiedenen Branchen der Region stärken, um gemeinsam an Lösungsansätzen zu arbeiten und einen wichtigen Beitrag zur Digitalisierung der Wasserwirtschaft zu leisten.

Über FH Struktur
Das Förderprogramm FH Struktur ist darauf ausgerichtet, der Forschung an Fachhochschulen Impulse für neue Forschungsansätze zu geben und deren Forschungsprofile zu stärken. Die Hochschule Ruhr West erhält nun mit acht weiteren Fachhochschulen in NRW eine Anschubfinanzierung von jeweils 240.000 Euro über zwei Jahre. Durch einen Eigenanteil von über 60.000 Euro wird zudem die Förderung für zwei weitere Jahre bis 2021 sichergestellt. Seit 2012 hat das Förderprogramm FH Struktur bereits 48 Programme mit rund zwölf Millionen Euro finanziert.

Quelle: idw

(nach oben)


Fettleibigkeit: Mit Spritzen oder Skalpell der Adipositas auf den Leib rücken

Medizin – Kommunikation Medizinkommunikation
Arbeitsgemeinschaft der Wissenschaftlichen Medizinischen Fachgesellschaften e.V.

Mainz – Ernährungsumstellung und mehr Bewegung erzielen bei Menschen mit starker Fettleibigkeit oft nur eine begrenzte Wirkung. Das Problem ist nicht die Gewichtsabnahme, sondern das Halten des reduzierten Gewichts. Immer häufiger raten Ärzte ihren sehr fettleibigen Patienten daher zu einer Operation mit Magenverkleinerung oder Magenbypass. Zudem könnte eine neue Pharmakotherapie mit Analoga zu gastrointestinalen Hormonen Menschen mit ausgeprägter Adipositas langfristig helfen, berichteten Experten auf dem 60. Deutschen Kongress für Endokrinologie in Würzburg.

Die Mehrheit der Erwachsenen in Deutschland ist mit einem Body-Mass-Index (BMI) von über 25 kg/m2 übergewichtig, ein Viertel mit einem BMI von über 30 kg/m2 sogar fettleibig. Fettleibigkeit gefährdet zunehmend die Gesundheit der Bevölkerung. „Adipositas kann zu schweren Folgeerkrankungen wie Typ-2-Diabetes, Fettleber und Bluthochdruck führen“, berichtet Professor Dr. med. Matthias M. Weber, Mediensprecher der DGE. Fettleibige leiden häufiger an Herzinfarkt, Schlaganfall, Demenz, Depressionen, Gelenkerkrankungen, obstruktiver Schlafapnoe und einigen Krebsarten. „Zudem sterben sie früher. Bei einem BMI von über 40 sind es zwölf Jahre“, warnt Weber, Leiter der Endokrinologie und Diabetologie der Universitätsmedizin Mainz.

Heute weiß man, dass die konservative Adipositas-Therapie langfristig selten erfolgreich ist. Professor Dr. med. Matthias Blüher, Leiter der Adipositas-Ambulanz für Erwachsene an der Universitätsmedizin Leipzig, erklärt: „Es besteht kein Zweifel daran, dass Adipositas im Wesentlichen durch hyperkalorische Ernährung und Bewegungsmangel entsteht.“ Doch das Konzept „weniger essen und mehr bewegen“ ist langfristig meist nicht erfolgreich, wenn man sich den Effekt der Therapie nach einem längeren Zeitraum ansieht. Die Patienten, die ihren Lebensstil ändern, nehmen im ersten halben Jahr etwa zehn Prozent ihres Körpergewichtes ab und dann in den folgenden sechs Monaten wieder zu. Nach einem Jahr bleibt so dauerhaft ein Gewichtsverlust von zwei Prozent. Bei der medikamentösen Therapie mit Tabletten, bei der das Hungergefühl gedämpft oder die Nahrungsaufnahme im Magen-Darm-Trakt gehemmt wird, sieht es etwas besser aus, aber auch hier nehmen die Menschen erst ab und dann wieder zu. Nach zwölf Monaten haben sie dauerhaft nur etwa acht Prozent Gewicht reduziert. Die Herausforderung ist also: nicht nur abnehmen, sondern das niedrigere Gewicht auch langfristig halten.

„Nur von der bariatrischen Chirurgie, also der Magenverkleinerung, dem Magenband oder dem Magenbypass, wissen wir derzeit verlässlich, dass das Gewicht dauerhaft reduziert werden kann“, betont Blüher. Zu einem langfristigen Therapieerfolg nach der Adipositas-Chirurgie gehöre allerdings auch ein multimodales Therapiekonzept zur optimalen Vorbereitung und eine strukturierte Langzeitnachsorge.

Hoffnungen setzt der Adipositas-Experte auf neue Medikamente aus der Gruppe der Inkretin-Analoga. Aufbauend auf vielversprechenden Daten, vor allem von Partnern des Deutschen Zentrums für Diabetesforschung (Professor Dr. med. Matthias Tschöp), sollen zukünftig Moleküle eingesetzt werden, die gewichtsreduzierende Effekte von Glucagon-like Peptide 1 (GLP-1) mit denen von Glucagon und glukoseabhängigem insulinotropen Polypeptide (GIP) kombinieren. Die als Spritze verabreichten Substanzen ahmen die Wirkung des Darmhormons GLP-1 nach. Dieses regt die Insulinfreisetzung an, verzögert die Magenentleerung, führt zu einem früheren Sättigungsgefühl und dämpft den Appetit. „Inkretin-Analoga, wie zum Beispiel Liraglutid, werden jetzt bereits erfolgreich bei Menschen mit Typ-2-Diabetes eingesetzt. Wir kennen bereits die gewichtsreduzierende Wirkung“, führt Blüher aus. Aus Tierversuchen wissen die Experten zudem, dass die Effekte dieser Therapie mit denen der Chirurgie vergleichbar sein könnten. Professor Blüher hofft, dass in den nächsten Jahren weitere Mittel hinzukommen: „Der kombinierte Einsatz könnte zu einer deutlich stärkeren Gewichtsreduktion führen und eine Operation dann in vielen Fällen unnötig machen.“

Literatur:
Sjöström L et al. Swedish Obese Subjects Study Scientific Group. Lifestyle, diabetes, and cardiovascular risk factors 10 years after bariatric surgery. N Engl J Med. 2004 Dec 23;351(26):2683-93.
Pi-Sunyer X et al. SCALE Obesity and Prediabetes NN8022-1839 Study Group. A Randomized, Controlled Trial of 3.0 mg of Liraglutide in Weight Management. N Engl J Med. 2015 Jul 2;373(1):11-22.
Look AHEAD Research Group., Wing RR et al. Cardiovascular effects of intensive lifestyle intervention in type 2 diabetes. N Engl J Med. 2013 Jul 11;369(2):145-54.

Endokrinologie ist die Lehre von den Hormonen, Stoffwechsel und den Erkrankungen auf diesem Gebiet. Hormone werden von endokrinen Drüsen, zum Beispiel Schilddrüse oder Hirnanhangdrüse, aber auch bestimmten Zellen in Hoden und Eierstöcken, „endokrin“ ausgeschüttet, das heißt nach „innen“ in das Blut abgegeben. Im Unterschied dazu geben „exokrine“ Drüsen, wie Speichel- oder Schweißdrüsen, ihre Sekrete nach „außen“ ab.

DGE Medienpreis 2017/2018:
Die Deutsche Gesellschaft für Endokrinologie (DGE) schreibt zum zweiten Mal den DGE-Medienpreis für journalistische Beiträge zu Erkrankungen des Hormonsystems und Störungen des Stoffwechsels aus. Bewerbungsschluss ist der 15. Februar 2018. Das Preisgeld beträgt 2.000 Euro. Der Medienpreis würdigt herausragende journalistische Arbeiten zu endokrinologischen Themen, die sorgfältig recherchiert, allgemeinverständlich formuliert sind und den Kriterien medizin-journalistischer Qualität entsprechen. Teilnehmen können Journalistinnen und Journalisten aus den Bereichen Text (Zeitungen, Zeitschriften, Internettexte), Fernsehen und Hörfunk. Die Beiträge werden bei der DGE-Pressestelle eingereicht. Nähere Informationen unter http://www.endokrinologie.net/medienpreis.php oder telefonisch unter 0711 8931-380.

http://www.hormongesteuert.net
https://www.facebook.com/dge.hormongesteuert
http://www.endokrinologie.net

Quelle: idw

(nach oben)


Strom aus erneuerbaren Energien mit Drucklufttechnologien speichern

Dipl.-Chem. Iris Kumpmann Abteilung Public Relations
Fraunhofer-Institut für Umwelt-, Sicherheits- und Energietechnik UMSICHT

Elektrischen Strom aus erneuerbaren Energien kosteneffizient speichern – dieser technischen Herausforderung widmen sich BOGE KOMPRESSOREN und das Fraunhofer-Institut für Umwelt-, Sicherheits- und Energietechnik UMSICHT in einem gemeinsamen Forschungsprojekt. Ziel ist es, eine zukunftsfähige Druckluftenergiespeichermethode zu entwickeln, die elektrischen Strom nachhaltig konserviert und nach Bedarf wieder ins Stromnetz einspeist. Gefördert wird das dreijährige Forschungsvorhaben vom Bundesministerium für Wirtschaft und Energie (BMWi) mit einem Betrag von rund 3 Millionen Euro.

Um die Energieversorgung von fossilen Brennstoffen auf erneuerbare Energien umzustellen, sind Speichertechnologien gefragt, die sicher, bezahlbar und effizient sind. Diesem Bedarf tragen der Bielefelder Systemhersteller für Druckluftlösungen BOGE KOMPRESSOREN Otto Boge GmbH & Co. KG und Fraunhofer UMSICHT Rechnung. In einem Verbundforschungsprojekt arbeiten die Kooperationspartner bis 2019 an der Technologieentwicklung für einen neuartigen Druckluftenergiespeicher.

Turbomaschine trifft Kolbenmaschine
Das Anlagenlayout vereint u.a. Turbomaschinen von Fraunhofer UMSICHT und BOGE Kolbenmaschinen. Ann-Kristin Bienias, Technische Projektkoordinatorin bei BOGE, sagt: »Wir freuen uns, gemeinsam mit Fraunhofer UMSICHT eine wirtschaftliche und universell einsetzbare Speichertechnologie zu entwickeln und damit zur Energiewende beizutragen.«

Druckluftspeicher in flachen Gegenden einsetzbar
Im Gegensatz zu herkömmlichen Pumpspeicherkraftwerken, die ein Gefälle benötigen, können Druckluftspeicher auch in flachen Gegenden eingesetzt werden. Das gilt insbesondere für das windintensive Norddeutschland – dort müssen schon heute erneuerbare Energieanlagen zeitweise abgeregelt werden.

Nur eine Maschine zur Kompression und Expansion der Luft nötig
Das neue Konzept des Druckluftenergiespeichers von BOGE und Fraunhofer UMSICHT ist so konzipiert, dass zum einen die Prozesswärme gespeichert und beim Expandieren keine zusätzliche Zufeuerung benötigt wird. Mit dem Ziel, vergleichsweise geringere Investitions- und Speicherkosten zu erreichen, sollen zum anderen dieselben Maschinen zur Kompression und Expansion der Luft genutzt werden. Im Vergleich zu herkömmlichen Druckluftenergiespeichern entfällt dadurch eine zusätzliche Expansionsmaschine. Auch häufige Lastwechsel bei schwankendem Stromausgleichsbedarf und kurze Anfahrtszeiten der Anlage soll die Technologie für den zukunftsfähigen Druckluftenergiespeicher meistern. Als Zwischenspeicher für die Druckluft dienen beispielsweise unterirdische Salzkavernen oder Röhrenspeicher.

Entwicklungsziele: Günstige Speicherkapazität und verlängerte Lebensdauer
Unterm Strich soll die neue Technologie des Druckluftenergiespeichers – auch im Vergleich zu Akkumulatoren (Lithium-Ionen- und Blei-Akkumulatoren) – mit geringeren Kosten pro Kilowattstunde (kWh) Speicherkapazität und mit der zu erwartenden, längeren Lebensdauer punkten.

Weitere Informationen:
https://www.boge.com/de/node/13664/3337?position=0

Quelle: idw

(nach oben)


Stoßlüften ist besser als gekippte Fenster

Dr. Ulrich Marsch Corporate Communications Center
Technische Universität München

Jeder Fünfte leidet hierzulande an einer Pollenallergie. Zur Pollensaison stellt sich immer wieder aufs Neue die Frage, wie lüften ohne beeinträchtigt zu werden? Ein Team an der Professur für Ökoklimatologie der Technischen Universität München (TUM) hat Pollenkonzentrationen in Büroräumen systematisch untersucht und daraus praktische Tipps zum Lüften abgeleitet.

In Deutschland leiden laut Bundesgesundheitsblatt aus dem Jahr 2013 rund 15 bis 20 Prozent der Bevölkerung an Heuschnupfen. Da sich Europäer und Nordamerikaner zu über 90 Prozent ihrer Zeit in geschlossenen Räumen aufhalten, müssen Pollenkonzentrationen in Gebäuden berücksichtigt werden. Neben meteorologischen Einflussgrößen wurden für die im Fachmagazin „Indoor Air“ erschienene Studie auch Art und Häufigkeit der Raumbelüftung berücksichtigt.

Bei ihren Untersuchungen konzentrierten sich die Autorinnen und Autoren auf Birkenpollen, wie Gräserpollen lösen diese besonders häufig allergische Reaktionen aus. Birken sind Erstbesiedler (Pionierpflanzen), beginnen früh mit der Reproduktionsphase und als Windbestäuber produzieren sie besonders viele Pollen, die Gründe für ihr hohes Allergiepotential.

Für die Studie wurden im April 2015 in fünf verschiedenen Räumen und vor den jeweils dazu gehörenden Fenstern die Birkenpollenkonzentrationen gemessen. Die Räume unterschieden sich unter anderem in ihrer Durch- oder Belüftung.

Die mobilen Pollenfallen waren auf einer Höhe von 1,2 Meter platziert, was der durchschnittlichen Einatmungshöhe von Personen während der Arbeit an ihrem Schreibtisch entspricht. Sie befanden sich in 2,5 Metern Abstand vom jeweiligen Zimmerfenster. Eine zweite Pollenfalle wurde jeweils auf dem Fenstersims befestigt.

Des Weiteren wurde eine Standard-Burkard-Pollenfalle auf dem Gebäudedach in 15 Metern Höhe neben der meteorologischen Station installiert für die Messung der grundsätzlichen Belastung. Diese Messung von Pollen in der Umgebungsluft werden nach den Standards des Europäischen Aeroallergen Netzwerkes (EAN) erhoben täglich von März bis November.

Vom 13. bis zum 29. April wurde die Blüte von 56 Birken in der näheren Umgebung beobachtet. Zehn der Bäume lagen in direkter Nähe zu den untersuchten Büros, die restlichen 46 Birken befanden sich in 0,5 bis zu 15 Kilometern Entfernung. Die Daten zur allgemeinen Wettersituation wiederum stammen vom Deutschen Wetterdienst in Freising. Direkt vor den Räumen wurden zusätzlich Temperatur, Luftfeuchtigkeit und Windstärke sowie -richtung erhoben.

Große Unterschiede zwischen einzelnen Räumen
Wie zu erwarten war, sind die Pollenkonzentrationen in den Räumen grundsätzlich niedriger als draußen. Dabei schwankt das Konzentrationsverhältnis der Pollen zwischen sieben zu 75 Prozent. Denn es ergeben sich große Unterschiede durch die Lüftungsstrategie: Für die Studie wurde beispielsweise ein Raum alle zwei Stunden für fünf Minuten gelüftet. In diesem Raum herrschte die niedrigste Pollenbelastung im Vergleich zu einem Nachbarraum, in dem das Fenster dauerhaft gekippt war.

Ebenfalls höher war die Konzentration in einem Raum mit geöffnetem Fenster und einem chemischen Labor mit automatischem Luftabzug. Die Pollenkonzentrationen können durchs Stoßlüften um zwei Drittel reduziert werden im Vergleich zum Maximum der in der Studie erreichten Pollenkonzentrationen in einem Raum. Um Birkenpollen besonders effektiv außen vor zu lassen, raten die Autorinnen und Autoren daher Pollenallergikern ihre Büro- und Aufenthaltsräume lediglich stoßzulüften.

Ein weiterer, beeinflussender Faktor ist der Publikumsverkehr in einem Büro. Mit der Zeit erhöht sich die Pollenkonzentration in einem Raum. Dies kann auf einen Zusammenhang hinweisen, wie viele Arbeitskollegen in einen Raum ein- und ausgehen, weil Pollen der Kleidung anhaften. Auch häufen sich Pollen im Hausstaub an, sofern gar nicht oder selten geputzt wird. Dies geschieht sogar über die Pollensaison hinaus. Regelmäßiges Staubwischen ist daher für Allergiker eine wichtige Maßnahme, um allergische Reaktionen zu minimieren.

Publikation:
A. Menzel, M. Matiu, Michaelis, S. Jochner: Indoor birch pollen concentrations differ with ventilation scheme, room location, and meteorological factors, Indoor Air 2016. DOI: 10.1111/ina.12351

Kontakt:
Technische Universität München
Professur für Ökoklimatologie
Prof. Dr. Annette Menzel
Tel: +49/8161/71-4740
E-Mail: amenzel@wzw.tum.de

Weitere Informationen:
https://www.tum.de/die-tum/aktuelles/pressemitteilungen/detail/article/33823/

Quelle: idw

(nach oben)


Frauen, die mehr verdienen, bevorzugen finanzielle Unabhängigkeit durch getrennte Kassen

Rainer Jung Abt. Öffentlichkeitsarbeit
Hans-Böckler-Stiftung

Studie untersucht Geldverwaltung in der Partnerschaft

Die meisten Paare legen zwar ihr Einkommen zusammen. Doch wenn Frauen mehr verdienen, bevorzugen sie getrennte Kassen, zeigt eine neue Studie.* Die Sozialwissenschaftlerin Dr. Yvonne Lott von der Hans-Böckler-Stiftung weist darin nach, dass getrenntes Wirtschaften in einer Partnerschaft umso wahrscheinlicher wird, je mehr die Frau verdient. Nach ihrer Ansicht deutet das darauf hin, dass Frauen finanzielle Unabhängigkeit anstreben, wenn sie die Möglichkeit dazu haben.

Lott hat Daten des Sozio-oekonomischen Panels aus den Jahren 2004, 2005 und 2008 ausgewertet, die sich auf fast 2.900 heterosexuelle Paare in erwerbsfähigem Alter beziehen. Dabei hat sie eine „eher ungleiche Verteilung“ von bezahlter und unbezahlter Arbeit ermittelt: Im Beobachtungszeitraum entfallen auf die Partnerinnen im Schnitt 78 Prozent der Arbeit im Haushalt und 89 Prozent der Kinderbetreuung. Der Anteil der Frauen am gemeinsamen Einkommen liegt dagegen lediglich bei 32 Prozent. Nur ein Drittel der Frauen arbeitet in Vollzeit.

Etwa drei Viertel der befragten Paare verwalten der Analyse zufolge ihr Geld gemeinsam, 15 Prozent unabhängig voneinander und 9 Prozent zum Teil getrennt. Dabei spielt die Form der Partnerschaft eine wichtige Rolle: Von den nichtehelichen Lebensgemeinschaften wirtschaftet weniger als ein Drittel gemeinsam, bei den Ehepaaren sind es hingegen 83 Prozent. Auch wenn Faktoren wie die Dauer der Beziehung, das Alter oder die Ausbildung der Partner herausgerechnet werden, bleibt ein signifikanter Unterschied. Wenn man nicht Paare mit und ohne Trauschein vergleicht, sondern untersucht, wie sich eine Eheschließung auf das Verhalten von Paaren auswirkt, ergibt sich ebenfalls ein deutlicher Effekt auf das partnerschaftliche Arrangement im Umgang mit Geld. Die Geburt eines Kindes hat dagegen keinen messbaren Einfluss.

Von maßgeblicher Bedeutung ist indes das Einkommen der Frau: Bei Paaren mit getrennter Kasse ist es im Schnitt fast doppelt so hoch wie bei denen, die ihre Finanzen gemeinsam verwalten. Einkommenszuwächse auf Seiten der Partnerin erhöhen signifikant die Wahrscheinlichkeit, dass Paare unabhängig voneinander haushalten.

Lott schließt daraus, dass Frauen in einer Beziehung stark an finanzieller Unabhängigkeit interessiert sind und diesen Wunsch realisieren, sobald sie sie es sich leisten können. Ein wichtiger Grund: In traditionellen Partnerschaften laufe ein gemeinsames Konto oft darauf hinaus, dass der Mann einseitig Kontrolle über die Finanzen ausübt. Zentrale Grundsätze der deutschen Familienpolitik, die beispielsweise beim Ehegatten-Splitting von gemeinsamen Ressourcen als Norm ausgeht, seien vor diesem Hintergrund problematisch, so die Forscherin.

*Yvonne Lott: When My Money Becomes Our Money: Changes in Couples‘ Money Management. Social Policy & Society 2/2017, Cambridge University Press

Kontakt in der Hans-Böckler-Stiftung:
Dr. Yvonne Lott
Expertin für Genderforschung und Arbeitszeit, Abteilung Forschungsförderung
Tel.: 0211-7778-600
E-Mail: Yvonne-Lott@boeckler.de

Rainer Jung
Leiter Pressestelle
Tel.: 0211-7778-150
E-Mail: Rainer-Jung@boeckler.de

Quelle: idw

(nach oben)


Besser als die Natur: Künstlicher Biofilm steigert Stromproduktion mikrobieller Brennstoffzellen

Christian Wißler Mediendienst Forschung
Universität Bayreuth

Mikrobielle Brennstoffzellen nutzen den Stoffwechsel von Bakterien, um elektrischen Strom zu erzeugen. Ein neuartiger Biofilm aus Bayreuth kann diese noch junge Technologie deutlich effektiver, stabiler und anwendungsfreundlicher machen. Ein Forschungsteam der Universität Bayreuth hat jetzt ein Material hergestellt, das sich weit besser als natürliche Biofilme zur Stromproduktion in Brennstoffzellen eignet. In der Zeitschrift „Macromolecular Bioscience“ stellen die Wissenschaftler die Vorteile ihrer neuen Entwicklung vor.

Bakterien in mikrobiellen Brennstoffzellen ernähren sich von organischen Substanzen, zum Beispiel von Milchsäure. Dabei werden durch Stoffwechselprozesse ständig Elektronen freigesetzt. Sobald diese Elektronen mit der Anode der Brennstoffzelle in Berührung kommen, werden sie zur gegenüberliegenden Kathode weitergeleitet. So entsteht ein Stromkreislauf. Um auf diese Weise Strom zu produzieren, war es bislang üblich, die metallische Oberfläche der Anode mit Bakterien zu besiedeln. Dort vermehren sich die Bakterien, bilden allmählich einen natürlichen Biofilm und übertragen Elektronen auf die Anode. Der neu entwickelte, künstliche Biofilm aus Bayreuth hat den gleichen Effekt, optimiert diese Art der Stromerzeugung aber gleich in mehrfacher Hinsicht.

Bakterien in Kunststoffnetzen: stabiler als natürliche Biofilme
Das Material, das die Forschergruppe um Prof. Dr. Ruth Freitag (Bioprozesstechnik) und Prof. Dr. Andreas Greiner (Makromolekulare Chemie) entwickelt hat, ist ein Biokomposit, genauer: ein Hydrogel. Es handelt sich um ein Netzwerk aus winzigen Polymerfasern, in denen sich lebende Bakterien befinden, die ihren stromerzeugenden Stoffwechsel uneingeschränkt fortsetzen. Doch die Menge des erzeugten Stroms ist deutlich höher: „Unser Biofilm enthält nur eine einzige Art von Bakterien, Bakterien der Art Shewanella oneidensis. Die elektrische Leistung einer Brennstoffzelle ist mit diesem Film doppelt so hoch, als wenn Bakterien der gleichen Art einen natürlichen Biofilm produzieren“, erklärt der Bayreuther Doktorand Patrick Kaiser M.Sc., einer der Autoren der jetzt veröffentlichten Studie.

Zu dieser Leistungssteigerung kommt ein weiterer Vorteil hinzu: Die Stromerzeugung verläuft zuverlässig und berechenbar, denn die Dichte der Bakterien ist im künstlichen Biofilm von vornherein festgelegt. Ein natürlicher Biofilm wird im Gegensatz dazu auf eine schwer zu kontrollierende Weise abgebaut und ist deshalb instabil. Das neue Biokomposit der Bayreuther Wissenschaftler macht Brennstoffzellen deshalb wesentlich anwendungsfreundlicher.

Das Biokomposit wurde auf dem Bayreuther Campus durch das Elektrospinnen von Polymerfasern hergestellt, die zusammen einen Vliesstoff bilden. „Das Elektrospinnen von Vliesstoffen ist heute eine weit verbreitete Technologie. Für die Einbettung der Bakterien sind keine zusätzlichen Produktionsschritte erforderlich“, betont Steffen Reich M.Sc., der sich in seiner Bayreuther Doktorarbeit mit der Verkapselung von Bakterien in Polymeren befasst.

Finanzierung durch Bayerischen Projektverbund
Die jetzt veröffentlichten Ergebnisse zur mikrobiellen Brennstoffzelle sind aus dem Vorhaben „Biofilme für die Prozessintensivierung“ hervorgegangen, das dem Projektverbund „Ressourcenschonende Biotechnologie in Bayern – BayBiotech“ angehört. Dieser Verbund wird seit 2015 vom Bayerischen Staatsministerium für Umwelt und Verbraucherschutz mit insgesamt rund zwei Millionen Euro finanziert.

Veröffentlichung:
Patrick Kaiser, Steffen Reich, Daniel Leykam, Monika Willert-Porada, Seema Agarwal, Andreas Greiner, Ruth Freitag,
Electrogenic single-species biocomposites as anodes for microbial fuel cells,
Macromolecular Bioscience (2017), doi: 10.1002/mabi.201600442.

Video zum Vorhaben „Biofilme für die Prozessintensivierung“:

http://www.youtube.com/watch?v=_OYnFJ4-Z5o&feature=youtube_gdata
oder bei http://www.baybiotech.de

Kontakt:
Prof. Dr. Ruth Freitag / Prof. Dr. Andreas Greiner
Lehrstuhl für Bioprozesstechnik / Lehrstuhl für Makromolekulare Chemie II
Universität Bayreuth
95447 Bayreuth
Telefon: +49 (0)921 55 7371 / 3399
E-Mail: ruth.freitag@uni-bayreuth.de / andreas.greiner@uni-bayreuth.de

Quelle: idw

(nach oben)


Darmkrebsvorsorge mit verbessertem Test: Antikörper suchen verstecktes Blut im Stuhl

Medizin – Kommunikation Medizinkommunikation
Arbeitsgemeinschaft der Wissenschaftlichen Medizinischen Fachgesellschaften e.V.

Ab dem 1. April 2017 erstatten die Krankenkassen einen neuen Test zur Früherkennung von Darmkrebs. Der bisherige Guajak-Test wird durch einen immunologischen Stuhltest ersetzt, den immunologischen fäkalen Okkultbluttest iFOBT. Dieser beruht auf einer Antikörper-Reaktion mit dem menschlichen Blutfarbstoff Hämoglobin und hat sich in Studien als noch zuverlässiger erwiesen. Die Deutsche Gesellschaft für Gastroenterologie, Verdauungs- und Stoffwechselkrankheiten (DGVS) rät Menschen ab 50 Jahren regelmäßig zur Darmkrebsvorsorge zu gehen. Der iFOBT sollte ab dem Alter von 50 Jahren einmal jährlich durchgeführt werden. Spätestens ab 55 Jahren ist alle zehn Jahre eine Darmspiegelung empfohlen.

Dickdarmkrebs entwickelt sich in der Regel über viele Jahre hinweg aus harmlosen Vorstufen, den Darmpolypen oder Adenomen. Diese Wucherungen sind zwar meist zunächst gutartig, neigen aber eher zum Bluten als gesunde Darmschleimhaut. „Diese Tatsache machen sich die Stuhltests zunutze“, erläutert Professor Dr. med. Thomas Seufferlein, Ärztlicher Direktor der Klinik für Innere Medizin I des Universitätsklinikums Ulm. Die Tests können winzige, für das Auge nicht sichtbare Blutmengen im Stuhl nachweisen. Während der Guajak-Test auf einer biochemischen Reaktion mit dem roten Blutfarbstoff Hämoglobin beruht, weisen die neuen Tests das Hämoglobin mithilfe einer Antikörper-Reaktion nach. „Weil die Antikörper nur auf menschliches Hämoglobin reagieren, ist der iFOBT deutlich weniger störanfällig als der Guajak-Test“, sagt Seufferlein. Dieser reagiere zuweilen auch auf Blut aus der Nahrung, wenn etwa rotes Fleisch verzehrt worden sei. Die immunologischen Stuhltests, die jetzt in das Screening-Programm aufgenommen werden, haben in umfangreichen Studien bewiesen, dass sie Blutspuren im Stuhl rund zwei bis drei Mal häufiger erkennen als der bisherige Guajak-Test. Im vergangenen Jahr hat der Gemeinsame Bundesausschuss (G-BA) daher beschlossen, den neuen Test in die Krebsfrüherkennungs-Richtlinie aufzunehmen. Ab April 2017 sind die Tests für Versicherte ab 50 Jahren Kassenleistung.

Beim Ablauf des Screenings ergeben sich einige Änderungen: Zwar gibt der Arzt weiterhin den Test an den Patienten aus und erklärt die Durchführung. Die Auswertung wird künftig jedoch nicht mehr in den Arztpraxen, sondern in Speziallaboren stattfinden. Wie bisher wird der Patient nur bei einem positiven Befund kontaktiert. „Eine zentrale Evaluierung der Ergebnisse wie bei der Vorsorgekoloskopie – also eine zentrale Auswertung im Hinblick auf Qualität und Nutzen – ist für den iFOBT seitens des G-BA bislang noch nicht geplant“, sagt Professor Dr. med. Wolff Schmiegel, Direktor der Medizinischen Universitätsklinik Knappschaftskrankenhaus Bochum. „Die DGVS empfiehlt unbedingt, dies nachzuholen: Im Sinne der Qualitätssicherung sollte eine zentrale Evaluierung der Ergebnisse erfolgen.“

An den Empfehlungen, wer am Screening teilnehmen sollte, wird der neue Test nichts ändern: „Frauen und Männern ab 50 Jahren sollten den Test einmal jährlich durchführen, die Kosten dafür übernimmt die Krankenkasse“, so Professor Schmiegel. Fällt dieser positiv aus, so muss zur Absicherung des Ergebnisses eine Darmspiegelung erfolgen. Spätestens ab dem 55. Lebensjahr ist die Darmspiegelung im Rahmen der Krebsfrüherkennungs-Richtlinie ohnehin empfohlen. Bei einer Darmspiegelung können Veränderungen der Darmschleimhaut wesentlich präziser erkannt werden als mit dem Stuhltest. Die Koloskopie muss – anders als der Stuhltest – im Falle eines unauffälligen Ergebnisses nur alle zehn Jahre wiederholt werden. Sie ist nicht nur ein diagnostisches, sondern zugleich ein therapeutisches Verfahren: Auffällige Veränderungen, also Darmpolypen aus denen Krebs entstehen könnte, entfernt der Arzt in der Regel bereits im Rahmen der Untersuchung.

Die Deutsche Gesellschaft für Gastroenterologie, Verdauungs- und Stoffwechselkrankheiten (DGVS) wurde 1913 als wissenschaftliche Fachgesellschaft zur Erforschung der Verdauungsorgane gegründet. Heute vereint sie mehr als 5000 Ärzte und Wissenschaftler aus der Gastroenterologie unter einem Dach. Die DGVS fördert sehr erfolgreich wissenschaftliche Projekte und Studien, veranstaltet Kongresse und Fortbildungen und unterstützt aktiv den wissenschaftlichen Nachwuchs. Ein besonderes Anliegen ist der DGVS die Entwicklung von Standards und Behandlungsleitlinien für die Diagnostik und Therapie von Erkrankungen der Verdauungsorgane – zum Wohle des Patienten. Mehr Informationen finden Interessierte unter http://www.dgvs.de oder im aktuellen DGVS-Video: https://www.youtube.com/watch?v=Orv-uHE1fls.

Weitere Informationen:
https://youtu.be/Orv-uHE1fls

Quelle: idw

(nach oben)


Zuckerrübenschnitzel: der neue Rohstoff für Werkstoffe?

Dipl.-Chem. Iris Kumpmann Abteilung Public Relations
Fraunhofer-Institut für Umwelt-, Sicherheits- und Energietechnik UMSICHT

Die Verwendung von Zuckerrübenschnitzeln in Verbundwerkstoffen oder als Bestandteil von Kunststofffolien bietet Zuckerrübenproduzenten zukünftig neue Geschäftsfelder und reduziert den Verbrauch an fossilen Rohstoffen. Die Fraunhofer-Institute UMSICHT und WKI erforschen gemeinsam mit Partnern aus Landwirtschaft und Industrie innovative und wirtschaftliche Nutzungsmöglichkeiten von Rübenschnitzeln.

Während der Rübenernte und Verarbeitung fallen allein bei den großen deutschen Zuckerherstellern Rübenschnitzel im siebenstelligen Tonnenbereich an. Diese so genannten Pressschnitzel werden derzeit regional als Milchviehfutter oder Biogassubstrat vermarktet. Die begrenzte Vermarktbarkeit führt dazu, dass ein Teil der Pressschnitzel, getrocknet und zu Pellets gepresst, als lagerfähiges Futtermittel verkauft wird. Die produzierten Mengen werden europaweit jedoch weiter steigen, zudem übt das Auslaufen der Zuckermarktverordnung in 2017 Handlungsdruck aus, neue Wertschöpfungsmöglichkeiten zu erschließen.

Die Verwendung der Rübenschnitzel in höherwertigen Anwendungen jenseits des Energie- und Futtermittelmarktes liefert einen Beitrag zur Bioökonomiestrategie des Bundes, stärkt regionale Märkte und spart gleichzeitig fossile Rohstoffe ein. Im Projekt »Werkstoffentwicklung auf Basis von Rübenschnitzeln für marktrelevante Anwendungen« (WeRümA) entwickeln die beiden Fraunhofer-Institute UMSICHT und WKI gemeinsam mit Partnern aus Landwirtschaft und Industrie Produktionskonzepte und Applikationen, bei denen Zuckerrübenschnitzel in Verbundwerkstoffen eingesetzt werden können.

Höherwertige Anwendungen
Generell stellt sich die Frage, welche biogenen Rohstoffe nachhaltig für eine stoffliche Verwertung in NRW, Deutschland und Europa zur Verfügung stehen. Rübenschnitzel können energie- und ressourceneffizient hergestellt werden, da in Zuckerfabriken Kraft-Wärme-Kopplung zur Energieerzeugung eingesetzt und Abwärme sehr effizient als Energiequelle genutzt wird. Zuckerrübenschnitzel haben allerdings eine von gängigen Pflanzenfasern oder Agrarprodukten wie Stärke und Holz abweichende Zusammensetzung: Cellulose, Hemicellulose und Pektine sind in ähnlichen Anteilen vertreten, Lignin hingegen nur in geringer Menge. Daraus resultiert eine veränderte Verfahrensführung zur Verarbeitung.

Produktionskonzepte und Applikationen
Auf Basis von Kooperationen mit mehreren regionalen Unternehmen entlang der Wertschöpfungskette – vom Rohstoff bis zu den Endprodukten – sollen im Verbundprojekt technische und ökonomische Fragestellungen zur Machbarkeit beantwortet werden. Hierzu zählen Verfahrenstechnik, Rezepturentwicklung und Prüfung der hergestellten Verbundwerkstoffe.

Die Fraunhofer-Forscher arbeiten an der Konditionierung der Rübenschnitzel mittels thermomechanischer Verfahren. Unter anderem befassen sie sich mit der Anwendung des im Holzbereich genutzten Refiners und der Verarbeitung in Verbundwerkstoffen. Fraunhofer UMSICHT prüft die Möglichkeit, Rübenschnitzel in Kunststofffolien zu nutzen, wobei die Konditionierung der Rübenschnitzel für die Anwendbarkeit im Mikrometerbereich – Folien sind häufig nur 20 µm dick – eine Herausforderung darstellt. Eine denkbare Anwendung dafür wären beispielsweise Mulchfolien für die Landwirtschaft. Am Fraunhofer WKI erforschen die Experten den Einsatz von Rübenschnitzeln in so genannten Wood-Polymer Composites.

Die Projektpartner entlang der Wertschöpfungskette
Rüben: Pfeifer & Langen GmbH & Co. KG, Landwirtschaftlicher Betrieb Koch*
Rohstoffkonditionierung: Jäckering Mühlen- und Nährmittelwerke GmbH, Fraunhofer WKI, Harold-Scholz & Co GmbH*
Halbzeug: Kunststoff-Institut Lüdenscheid, Fraunhofer UMSICHT, Entex Rust & Mitschke GmbH, FKuR Kunststoff GmbH, BYK-Chemie GmbH*
Endprodukt: SWOBODA engineering GmbH, nova-Institut für politische und ökologische Innovation GmbH

*Assoziierte Partner

Förderhinweis
Das Projekt »WeRümA« wird gefördert mit einer Zuwendung des Landes Nordrhein-Westfalen unter Einsatz von Mitteln aus dem Europäischen Fonds für regionale Entwicklung (EFRE) 2014-2010 »Investitionen in Wachstum und Beschäftigung«. Projektträger: LeitmarktAgentur.NRW – Projektträger ETN Forschungszentrum Jülich.

Weitere Informationen:
https://www.efre.nrw.de/

Quelle: idw

(nach oben)


Faire Ungleichheit?

Julia Wandt Stabsstelle Kommunikation und Marketing
Universität Konstanz

Studie zu geschlechtsspezifischem Lohnunterschied belegt eine gesellschaftliche Verankerung der Ungleichheit

Eine Lohnlücke von sieben bis neun Prozent wird gesellschaftlich als fair angesehen. Dies ist eines der Ergebnisse einer Studie zur Lohnungleichheit zwischen Männern und Frauen von Prof. Dr. Thomas Hinz, Professor für Empirische Sozialforschung an der Universität Konstanz.

In einer Umfrage mit 1.600 Teilnehmern wurde untersucht, welche Gehälter von den Teilnehmern als gerecht eingestuft werden. Dafür wurden den Befragten über 26.000 Profile von fiktiven Arbeitnehmern vorgelegt, die verschiedene Geschlechter, Erfahrungen und Qualifikationen hatten. Sie wurden gebeten, deren Gehälter in die Kategorien fair, ungerecht hoch und ungerecht niedrig einzustufen. Die Ergebnisse der Untersuchung „Why Should Women Get Less? Evidence on the Gender Pay Gap from Multifactorial Survey Experiments“ wurden von Thomas Hinz gemeinsam mit Prof. Dr. Katrin Auspurg und Dr. Carsten Sauer in der aktuellen Ausgabe von American Sociological Review veröffentlicht.

Obwohl sich vorab alle Teilnehmer der Studie explizit für eine gleiche Bezahlung für gleiche Leistung ausgesprochen hatten, wurde Frauen bei gleicher Qualifikation weniger Geld zugeteilt als Männern. „Bemerkenswert ist, dass die Ergebnisse geschlechtsübergreifend sind. Es sind also genauso Frauen wie Männer, die weniger Gehalt für Frauen als fair empfanden“, erläutert Thomas Hinz die Ergebnisse der Studie und führt weiter aus, dass diese Resultate auf eine normative Kraft der bestehenden Verhältnisse zurückzuführen seien. Die Befragten griffen bei der Bewertung von fairen Lohnverhältnissen auf ihre persönlichen Erfahrungen zurück. Wenn ungerechte Vergütung gesellschaftlich so stark verankert ist, seien die Befragten schlicht gewöhnt, dass verschiedene Geschlechter ungleich bezahlt werden. Aus dieser Gewohnheit heraus haben sie in der Umfrage ein Meinungsbild produziert, das ihrer Einstellung bei direkter Befragung zum Thema Lohngleichheit widerspricht.

Originalveröffentlichung:
Why Should Women Get Less? Evidence on the Gender Pay Gap from Multifactorial Survey Experiments, Katrin Auspurg, Thomas Hinz, Carsten Sauer, American Sociological Review, 2017, DOI: 10.1177/0003122416683393
http://journals.sagepub.com/doi/abs/10.1177/0003122416683393?journalCode=asra

Faktenübersicht:
• Studie zu geschlechtsspezifischem Lohnunterschied
• Lohnlücke von sieben bis neun Prozent wird gesellschaftlich als fair angesehen
• Why Should Women Get Less? Evidence on the Gender Pay Gap from Multifactorial Survey Experiments, Katrin Auspurg, Thomas Hinz, Carsten Sauer, American Sociological Review, 2017, DOI: 10.1177/0003122416683393
http://journals.sagepub.com/doi/abs/10.1177/0003122416683393?journalCode=asra

Kontakt:
Universität Konstanz
Kommunikation und Marketing
Telefon: + 49 7531 88-3603
E-Mail: kum@uni-konstanz.de

Quelle: idw

(nach oben)


Mediziner warnen vor rasantem Anstieg bei Speiseröhrenkrebs als Folge von Sodbrennen

Mathias Eberenz Konzernbereich Unternehmenskommunikation/Pressestelle
Asklepios Kliniken Hamburg GmbH

Auf dem Endoskopie-Kongress in Berlin zeigten die Spezialisten, wie der Krebs früh entdeckt und ohne OP geheilt werden kann / Kongress-Rekord mit 2.000 Teilnehmern aus Deutschland und Europa / 30 Operationen werden live in den Tagungssaal übertragen

Auf Deutschlands größtem Treffen von Endoskopie-Spezialisten in Berlin steht die Früherkennung und die Heilung verschiedener Krebsarten per schonender „Spiegelung“ mit dem Endoskop im Mittelpunkt. Hier hat die Forschung, die Technik – vor allem aber die Medizin rasante Fortschritte gemacht, von denen die Patienten profitieren. Highlight der dreitägigen Veranstaltung mit der Rekordbeteiligung von 2.000 Teilnehmern aus aller Welt ist die Live-Übertragung von mehr als 30 Operationen aus dem Sana Klinikum Lichtenberg in den Tagungssaal des Estrel Hotels Berlin. Durchgeführt werden die Eingriffe von 15 nationalen und internationalen Experten, die u.a. aus Israel, Frankreich, Italien und Belgien kommen. Die bedeutsamste Veranstaltung im Bereich der Endoskopie fand vom 6. bis 8. April statt. Hinter der kryptischen Bezeichnung „DGE-BV meets Endoskopie Live“ verbirgt sich der Zusammenschluss zweier Veranstaltungen: Der 47. Kongress der Deutschen Gesellschaft für Endoskopie und Bildgebende Verfahren (DGE-BV) und Endoskopie Live. Letztere ist eine der großen deutschen Endoskopie-Veranstaltungen, bei denen die Eingriffe live übertragen werden.

„Uns geht es darum, den Kollegen bewährte und neue Techniken in der Endoskopie zu demonstrieren und mit ihnen zu diskutieren. Die Endoskopie hat sich im Laufe der Zeit rasant entwickelt und ermöglicht therapeutische Untersuchungen von Erkrankungen, die vor Jahren noch unvorstellbar waren“, sagt Prof. Dr. Siegbert Faiss, Chefarzt der gastroenterologischen Abteilung in der Asklepios Klinik Barmbek in Hamburg, der den Kongress gemeinsam mit Priv.-Doz. Dr. Dirk Hartmann, Chefarzt an der Klinik für Innere Medizin am Sana Klinikum Lichtenberg organisiert. „Frühe Krebserkrankungen im Verdauungstrakt, in der Speiseröhre, im Magenbereich, der Bauchspeicheldrüse oder der Gallenwege können in vielen Fällen allein mit der Endoskopie geheilt werden, ohne dass eine Operation notwendig ist“, so Prof. Faiss weiter.

Obwohl der Dickdarmkrebs in Deutschland rückläufig ist, gibt es keinen Anlass zur Entwarnung bei Tumoren des Verdauungstraktes. Denn Speiseröhrenkrebs als Folge von chronischem Sodbrennen, das so genannte Barrett-Karzinom, ist die derzeit am schnellsten zunehmende Krebserkrankung in der westlichen Welt. „Wie zu Anfang der Darmkrebs wird der Krebs der Speiseröhre derzeit noch deutlich unterschätzt. Dabei hat das Beispiel des Darms gezeigt, dass regelmäßige Vorsorgeuntersuchungen, bei denen die Endoskopie-Experten potenziell gefährliche Strukturen wie Polypen und sogar kleine, oberflächliche Tumore frühzeitig entfernen, vielen Patienten Operationen erspart und das Leben gerettet haben“, sagt Prof. Faiss. Die Eröffnungsrede hält Prof. Dr. Frank Ulrich Montgomery zum Thema: „Wir Ärzte im Spannungsfeld der Politik“.

In diesem Videointerview erläutert Prof. Faiss, wie Frühtumore endoskopisch ohne weitere Operation entfernt werden können:
https://www.youtube.com/watch?v=ZU1x8I8pBpk

Kontakt:
Asklepios Kliniken
Konzernbereich Unternehmenskommunikation & Marketing
Tel.: (040) 18 18-82 66 36
E-Mail: presse@asklepios.com
24-Stunden-Rufbereitschaft der Pressestelle: (040) 1818-82 8888

Besuchen Sie Asklepios im Internet, auf Facebook oder YouTube:
www.asklepios.com
www.facebook.com/asklepioskliniken
www.youtube.com/asklepioskliniken

Quelle: idw

(nach oben)


Schluss mit Ölwechsel auf Verdacht: Sensor warnt, wenn Öl im Blockheizkraftwerk schlecht wird

Claudia Ehrlich Pressestelle der Universität des Saarlandes
Universität des Saarlandes

Kein unnötiger Ölwechsel mehr. Stattdessen immer auf dem Laufenden, wie es um das Öl steht: Ein Sensorsystem, das Professor Andreas Schütze und sein Forscherteam von der Universität des Saarlandes mit Partner-Firmen entwickelt haben, misst im laufenden Betrieb die Ölqualität in Blockheizkraftwerken – permanent und zuverlässig. Und es warnt, wenn das Öl plötzlich schlecht wird. Das Öl fließt dafür durch eine kleine Messzelle, in der es durchleuchtet und auf seinen chemischen Zustand hin geprüft wird. Das Verfahren schont die Umwelt, senkt Betriebskosten und macht Wartungseinsätze planbar.

Öl ist für Motoren überlebenswichtig. Es verhindert, dass sie heiß laufen, und verringert Reibung wie Verschleiß. Aber das geht dem Öl an die Substanz: Mit der Zeit oxidiert es. Wasser reichert sich darin an und irgendwann sind Zusätze, die dafür sorgen, dass es gut schmiert, verbraucht. Es muss gewechselt werden, sonst drohen Schäden. Aber wann ist das genau der Fall? Hier liegt das Problem. Denn genau sagen lässt sich das bislang nur durch regelmäßige Laboruntersuchungen. Daher wird das Schmieröl – ob beim Auto oder beim Blockheizkraftwerk – turnusmäßig und damit häufig zu früh gewechselt. Sicherheitshalber. Genau dies ändert jetzt ein neues Verfahren, das Professor Andreas Schütze und sein Team auf der Hannover Messe zeigen:

„Wir bauen eine kleine Messzelle im Motor ein, durch die während des laufenden Betriebs das Öl hindurchfließt. Unser Verfahren überwacht die Qualität des Öls fortwährend und prognostiziert laufend, wann der Ölwechsel wahrscheinlich fällig ist. So kann die Wartung längerfristig geplant werden, teure Motorschäden durch eine plötzliche Verschlechterung werden aber dennoch sicher vermieden“, erklärt Andreas Schütze. Die Messzelle misst ständig den chemischen Zustand des Öls: Sie durchleuchtet das Öl mit einer Infrarot-Quelle und fängt die Strahlen auf, die es durchdringen. „Wenn sich das Öl chemisch verändert, ändert sich auch das empfangene Lichtspektrum. Also können wir hieraus Rückschlüsse auf seinen chemischen Zustand ziehen, den Oxidationsgrad messen und auch erkennen, ob Wasser in das System eingedrungen ist“, erklärt Ingenieur Eliseo Pignanelli, der das Verfahren mitentwickelt hat. Die Daten aus der Messzelle können die Ingenieure in das Steuerungs- oder Fernüberwachungssystem einer Anlage einbinden, so dass sie diese unabhängig vom Standort der Anlage auswerten können.

Blockheizkraftwerke, die Strom und Wärme direkt am Ort erzeugen, wo sie verbraucht werden und so eine unabhängige Versorgung bieten, kommen vielerorts zum Einsatz, von Industrie, Schulen, Krankenhäusern bis hin zum Privathaushalt. Die Mini-Kraftwerke erreichen einen hohen Wirkungsgrad. Verlustreiche Transportwege der Energie entfallen, nicht selbst genutzter Strom kann ins öffentliche Netz eingespeist werden. Die bislang üblichen turnusmäßigen Ölwechsel schlagen in der ökonomischen wie ökologischen Bilanz der Anlagen negativ zu Buche. „Bei erdgasbetriebenen Blockheizkraftwerken wird heute das Öl etwa alle 1.500 Betriebsstunden gewechselt, ob es nötig ist oder nicht. Das ist schlecht für die Umwelt und erhöht zugleich die Betriebskosten der Anlagen. Mit unserem Messsystem lässt sich dies vermeiden“, erläutert Andreas Schütze.

Das Saarbrücker Sensorsystem kann serienmäßig in Blockheizkraftwerken eingebaut werden. Auch in sonstigen Industrie- und Windkraftanlagen oder Maschinen – und sogar mobil – kann es zum Einsatz kommen. Es eignet sich außerdem zur Überwachung anderer Flüssigkeiten.
Die Saarbrücker Ingenieure haben das System in verschiedenen Forschungsprojekten an der Universität des Saarlandes und am Zentrum für Mechatronik und Automatisierungstechnik erarbeitet; mehrere Partner aus Wissenschaft und Wirtschaft waren hieran beteiligt. Bei dem Verfahren speziell für Blockheizkraftwerke arbeiten sie mit den Thüringer Unternehmen WEGRA, EAW und ZILA zusammen, die auf Anlagenbau, Blockheizkraftwerke sowie Sensorik spezialisiert sind. Die Forschungsprojekte förderten das Bundeswirtschaftsministerium, das Bundesforschungsministerium, das saarländische Wirtschaftsministerium und der Europäische Fond für regionale Entwicklung.

Kontakt:
Prof. Dr. Andreas Schütze, Tel.: 0681/302 4663, schuetze@lmt.uni-saarland.de
Dipl.-Ing. Eliseo Pignanelli: Tel.: 0681-85 787 44, e.pignanelli@lmt.uni-saarland.de
http://www.lmt.uni-saarland.de

Hintergrund:
Am Zentrum für Mechatronik und Automatisierungstechnik ZeMA in Saarbrücken arbeiten Saar-Uni, Hochschule für Technik und Wirtschaft sowie Industriepartner zusammen, um Mechatronik und Automatisierungstechnik im Saarland zu stärken sowie den Technologietransfer zu fördern. In zahlreichen Projekten wird industrienah entwickelt und neue Methoden aus der Forschung in die industrielle Praxis umgesetzt. http://www.zema.de

Der saarländische Forschungsstand wird organisiert von der Kontaktstelle für Wissens- und Technologietransfer der Universität des Saarlandes (KWT). Sie ist zentraler Ansprechpartner für Unternehmen und initiiert unter anderem Kooperationen mit Saarbrücker Forschern. http://www.uni-saarland.de/kwt

Quelle: idw

(nach oben)


Durstige Landwirtschaft: Übermässige Grundwassernutzung bedroht Lebensmittelversorgung weltweit

Sabine Wendler Senckenberg Biodiversität und Klima Forschungszentrum Pressestelle
Senckenberg Forschungsinstitut und Naturmuseen

Der Anbau international gehandelter Lebensmittel zapft immer größere Mengen an nicht-erneuerbarem Grundwasser an. Dies führt dazu, dass die Grundwasservorräte schrumpfen – die zukünftige Verfügbarkeit von Lebensmitteln und Wasser gerät damit weltweit in Gefahr, warnt ein internationales Forscherteam im Fachblatt „Nature“. Laut den Experten des University College of London, des Senckenberg, der Universität Klagenfurt, der NASA and des International Institute for Applied Systems Analysis, ist die Menge an nicht-erneuerbarem Grundwasser, das zur Bewässerung genutzt wird, von 2000 bis 2010 um knapp ein Viertel angestiegen.

Reis aus Pakistan, Weizen aus Ägypten und Baumwolle aus den USA – wenn es um die Herkunft dieser und anderer landwirtschaftlicher Güter geht, bedient sich auch der deutsche Verbraucher gern international. Was in Anbauregionen mit aridem oder semiariden Klima an Regen fehlt, wird durch Bewässerung mit Grundwasser ersetzt. Und genau das ist ein Problem. „Die Menge des dabei verbrauchten, nicht-erneuerbaren Grundwassers – also Wasser, das nicht oder nur wenig durch Regen oder Eindringen von Oberflächenwasser erneuert wird – hat weltweit zwischen 2000 und 2010 um 22 Prozent zugenommen. 11 Prozent des übermäßig genutzten Grundwassers fließen in den Bewässerungsanbau von international gehandelten Lebensmitteln“, so Dr. Thomas Kastner, Senckenberg Biodiversität und Klima Forschungszentrum und Universität Klagenfurt, Ko-Autor der neuen Nature-Studie.

Hauptexporteur von landwirtschaflichen Produkten, die mit nicht- erneuerbaren Grundwasser angebaut wurden, ist Pakistan (29 % des nicht-erneuerbaren Grundwassers, das weltweit zum Anbau gehandelter landwirtschaftliche Produkte eingesetzt wird), gefolgt von den USA (27 %) und Indien (12 %). Beim Import ist China der Spitzenreiter (9 % des nicht-erneuerbaren Grundwassers, das weltweit zum Anbau gehandelter landwirtschaftliche Produkte eingesetzt wird), gefolgt von den USA und Iran. Für Deutschland liegt dieser Wert immerhin bei 2,5 % und damit deutlich über dem Anteil der Deutschen an der Weltbevölkerung.

Exporteure von Produkten, zu deren Anbau übermässig Grundwasser verbraucht wurde, mögen kurzfristig profitieren. Langfristig gesehen dürfte diese Form der Landwirtschaft aber nicht aufrechtzuerhalten sein. Aber auch für Importeure, wie Deutschland, birgt die Entwicklung Risiken. „Obwohl in Deutschland kein Grundwassermangel herrscht, importieren wir Nahrungsmittel, die durch übermässige Grundwassernutzung hergestellt wurden. Langfristig gesehen, könnte diese Versorgung einbrechen oder die Preise stark steigen“, so Kastner.

Die Liste der Produkte, die im internationalen Handel das meiste nicht-erneuerbare Grundwasser ‚im Gepäck haben‘ wird angeführt von Reis (29 % der Gesamtmenge an nicht-erneuerbarem Grundwasser). Mit Abstand folgen Weizen (12 %) und Baumwolle (11 %), Mais (4 %) und Sojabohnen (3 %). Beim Anbau in trockeneren Regionen werden häufig konventionelle Berieselungssysteme eingesetzt. Sie stehen in der Kritik, weil die Entnahmenraten 20 bis 50 Mal über der Menge an Grundwasser liegen, die als erneuerbar eingeschätzt wird.

Dr. Carole Dalin vom University College London, Hauptautorin der Studie, ist besorgt: „Wo und wie Produkte angebaut werden ist äußerst wichtig, denn Grundnahrungsmittel wie Brot und Reis könnten sich negativ auf die globalen Wasservorräte auswirken. Wenn sich Verbraucher und Produzenten nicht auf Strategien einigen, um die Nachhaltigkeit der Grundwasernutzung zu maximieren, stehen für einen großen Teil der Weltbevölkerung die stabile Nahrungsmittelversorgung und -preise auf dem Spiel. Im Zuge des Klimawandels werden zudem Dürren in vielen Regionen häufiger werden. Um dies kompensieren zu können, dürfen wir die Grundwasservorräte nicht erschöpfen.“

Kontakt
Dr. Thomas Kastner
Senckenberg Biodiversität und Klima Forschungszentrum
Tel. 069- 7542 1807
thomas.kastner@senckenberg.de

Sabine Wendler
Pressestelle
Senckenberg Biodiversität und Klima Forschungszentrum
Tel. 069- 7542 1818
Sabine.wendler@senckenberg.de

Publikation
Dalin, C., Wada, Y. Kastner, Th. And Puma, M.J. (2017): Groundwater depletion embedded in international food trade. Nature. Doi: 10.1038/nature21403

Die Natur mit ihrer unendlichen Vielfalt an Lebensformen zu erforschen und zu verstehen, um sie als Lebensgrundlage für zukünftige Generationen erhalten und nachhaltig nutzen zu können – dafür arbeitet die Senckenberg Gesellschaft für Naturforschung seit nunmehr 200 Jahren. Ausstellungen und Museen sind die Schaufenster der Naturforschung, durch die Senckenberg aktuelle wissenschaftliche Ergebnisse mit den Menschen teilt und Einblicke in vergangene und gegenwärtige Veränderungen der Natur vermittelt. Die Senckenberg Gesellschaft für Naturforschung ist ein Mitglied der Leibniz-Gemeinschaft. Das Senckenberg Naturmuseum in Frankfurt am Main wird von der Stadt Frankfurt am Main sowie weiteren Sponsoren und Partnern gefördert. Mehr Informationen unter www.senckenberg.de.

200 Jahre Senckenberg! 2017 ist Jubiläumsjahr bei Senckenberg – die 1817 gegründete Gesellschaft forscht seit 200 Jahren mit Neugier, Leidenschaft und Engagement für die Natur. Seine 200-jährige Erfolgsgeschichte feiert Senckenberg mit einem bunten Programm, das aus vielen Veranstaltungen, eigens erstellten Ausstellungen und einem großen Museumsfest im Herbst besteht. Natürlich werden auch die aktuelle Forschung und zukünftige Projekte präsentiert. Mehr Infos unter: www.200jahresenckenberg.de.

Quelle: idw

(nach oben)


Neue Müslis für die Gesundheit

Stephan Laudien Stabsstelle Kommunikation/Pressestelle
Friedrich-Schiller-Universität Jena

Ernährungswissenschaftler der Uni Jena untersuchen das gesundheitsfördernde Potenzial von Hafer und Gerste nach dem Rösten

Die Getreidesorten Hafer und Gerste fristen ein kümmerliches Nischendasein in der menschlichen Ernährung. Aktuell gelangen nur ein Prozent der Gersten- und 14 Prozent der Haferproduktion auf den Tisch. Dabei haben Gerste und Hafer durch ihren hohen Gehalt an β-Glucan das Potenzial, zur Prävention ernährungsbedingter Krankheiten wie Diabetes, Darmkrebs oder Herz-Kreislauf-Erkrankungen beizutragen.

Ernährungswissenschaftler der Universität Jena loten dieses Potenzial jetzt in einem neuen Forschungsprojekt aus, das vom Bundesministerium für Wirtschaft und Energie gefördert wird.

„Wir wollen Röstbedingungen für diese Getreide etablieren, die zu sensorisch hochwertigen Produkten führen“, sagt Prof. Dr. Michael Glei. Der Ernährungswissenschaftler von der Universität Jena leitet das neue Forschungsprojekt gemeinsam mit seinem Fachkollegen Prof. Dr. Stefan Lorkowski. Für ihr Vorhaben haben sie Partner aus kleinen und mittelständischen Unternehmen gewonnen – eine Voraussetzung, um die Förderung von ca. 350.000 Euro durch das Bundesministerium zu erhalten. Einer der Partner ist der führende Hersteller für Röstmaschinen, außerdem sind diverse Mühlen und Bäckereien involviert.

„Beim Rösten sollen die Eigenschaften verbessert werden, ohne dass wir Verluste bei den Inhaltsstoffen haben“, erläutert Dr. Wiebke Schlörmann, die die Studie gemeinsam mit Dr. Christine Dawczynski durchführen wird. Erste Pilotstudien hätten gute Ergebnisse gebracht, wobei die Wissenschaftler mit dem Rösten tatsächlich Neuland betreten.

Zu den wichtigsten Inhaltsstoffen mit gesundheitsfördernden Eigenschaften gehört das β-Glucan, ein langkettiges Polysaccharid. Dieser Ballaststoff gelangt unverdaut in den Dickdarm und wird dort durch Bakterien fermentiert, wobei u. a. kurzkettige Fettsäuren entstehen. „Die bei der Fermentation entstehenden Stoffe haben positive Effekte auf die Darmgesundheit“, sagt Dr. Schlörmann. Es müsse jedoch sichergestellt werden, dass die positiven Effekte nicht durch das Rösten verlorengehen.

Ein Teil des Projekts, das zunächst auf zwei Jahre angelegt ist, wird eine Humaninterventionsstudie sein, bei der die Kurz- und Langzeiteffekte einer Ernährung mit hohem Anteil an Gerste- und Haferprodukten untersucht werden.

Bereits jetzt werden Müslis und Brötchen mit Hafer- und Gerstenflocken durchaus gern verzehrt. Die Jenaer Ernährungswissenschaftler wollen mit ihrer Studie diese Beliebtheit wissenschaftlich untermauern.

Kontakt:
Prof. Dr. Michael Glei
Institut für Ernährungswissenschaften der Friedrich-Schiller-Universität Jena
Dornburger Straße 24, 07743 Jena
Tel.: 03641 / 949674
E-Mail: michael.glei@uni-jena.de

Weitere Informationen:
http://www.uni-jena.de

Quelle: idw

(nach oben)


Energie aus der Toilette

Monika Landgraf Presse, Kommunikation und Marketing
Karlsruher Institut für Technologie

Abwasser steht im Geruch, zu nichts Nutze zu sein – zu Unrecht! Waschwasser ist durchschnittlich 30 Grad warm. Aus Toilettenwasser könnten nicht nur Biogas und Dünger sondern auch wertvolle Ressourcen gewonnen werden, die ungenutzt den Bach runtergehen. Schlimmer: An Durchfallerkrankungen durch falschen Umgang mit Abwasser sterben jährlich über zwei Millionen Menschen. Wie diesen Missständen begegnet werden kann, daran forschen die Experten der „Wasser-Energie-Gruppe“ am Karlsruher Institut für Technologie (KIT).

Obwohl etwa 72 Prozent der Erdoberfläche mit Wasser bedeckt sind, eignet sich nur 0,3 Prozent davon als Trinkwasser. „Angesichts dessen ist Abwasser kein Abfall. Es enthält thermische Energie, chemische Energie in Form von Kohlenstoffverbindungen und wertvolle Pflanzennährstoffe. Jetzt gilt es, Verfahren zu entwickeln, die es erlauben, diese Ressourcen zu nutzen“, sagt Helmut Lehn vom Institut für Technikfolgenabschätzung und Systemanalyse (ITAS). Die Abwärme häuslichen Abwassers könne zum Beispiel mittels Wärmetauschern in Kanalrohren verwertet werden. „Noch effektiver ist es, das warme Abwasser aus Waschmaschine und Bad direkt im Haus zu nutzen, um etwa frisches Wasser zum Duschen vorzuwärmen“, ergänzt Witold Poganietz, der gemeinsam mit Lehn die Forschungsgruppe leitet. Eine solche Anlage sei in einem Berliner Wohnblock bereits in Betrieb.

Eine Grundvoraussetzung, um die Ressource Abwasser intelligent auszuschöpfen, sei die Trennung der Abwasserströme aus Toilette (Schwarzwasser) und Bad sowie Küche (Grauwasser), erläutert Lehn. Würden Exkremente separat und unverdünnt abtransportiert – zum Beispiel durch Vakuumtoiletten wie im Flugzeug oder ICE – ließen sich aus einem Liter Abwasser drei Liter Biogas gewinnen. „Durch die Zugabe von Biomüll könnte die Energieausbeute sogar noch gesteigert und die Biotonne im Haushalt eingespart werden“, sagt Lehn. Darüber hinaus sei „Urin ein idealer Pflanzendünger. Denn es enthält Stickstoff, Kalium und Phosphor.“ Da Letzteres als nicht-erneuerbare Ressource gilt, die im Übrigen vermutlich noch vor Kohle und Erdöl zur Neige gehe, werde intensiv daran geforscht, es aus kommunalem Abwasser und Klärschlamm zurückzugewinnen. So ließe sich auch die Nachfrage nach Kunstdünger, dessen Herstellung sehr energieintensiv ist, vermindern.

Während bei bestehender Infrastruktur die gemischten Abwässer wohl weiterhin aufwendig gereinigt werden müssten, biete sich die Trennung der Abwasserströme bei Neubaugebieten an, meint Franka Steiner vom ITAS. Gleiches gelte für die immer weiter wachsenden Ballungsräume in Schwellen- und Entwicklungsländern. „Denn hier gibt es oft überhaupt noch keine Sanitärsysteme“, sagt die Geoökologin, die wie Lehn weltweit unterwegs ist, um Akteure wie Stadtverwaltungen bei der Planung von Abwassersystemen zu beraten. Ein Trennsystem, das sowohl Energie als auch Nährstoffe aus dem Abwasser mehrerer tausend Einwohner gewinnt, erprobe zur Zeit die Stadt Hamburg in einem Konversionsgebiet. Ein Projekt, das die ITAS-Forscher mit großem Interesse verfolgen.

UN-Weltwassertag erinnert an Millionen Tote durch falschen Umgang mit Schmutzwasser
Um auf die weltweite Abwasserproblematik aufmerksam zu machen, haben die Vereinten Nationen den alljährlichen „United Nations World Water Day“ („Tag des Wassers“), der seit 1993 immer am 22. März begangen wird, diesmal unter das Motto „Wastewater“ also Abwasser gestellt. Mit gutem Grund: Laut der Weltgesundheitsorganisation WHO verursachen Durchfallerkrankungen, die mit dem unsachgemäßen Umgang mit Abwasser in Verbindung gebracht werden, vier Prozent aller Todesfälle weltweit – Tendenz steigend
.
Viele der über zwei Millionen Opfer pro Jahr seien Kinder, die in Entwicklungsländern leben, sagt Lehn. Zum Vergleich: Im Jahr 2015 starben rund 440.000 Menschen an Malaria (halb so viele wie 15 Jahre zuvor) und 1,1 Millionen Menschen an AIDS. Einen Grund für den Anstieg der tödlichen Durchfallerkrankungen sieht ITAS-Forscher Lehn in der fortschreitenden Urbanisierung mit immer mehr Menschen, die in städtischen Slums eng gedrängt und ohne hygienische Abwasserbehandlung leben.

ITAS informiert wie Bürger Abwasser schon heute nutzen können
Aus erster Hand über die Nutzungsmöglichkeiten von Abwasser informieren können sich Besucher am Donnerstag, 11. Mai, von 18 bis 21 Uhr, im ITAS-Gebäude (Karlstraße 11, 76021 Karlsruhe). Es sprechen Experten der „Wasser-Energie-Gruppe“ sowie Praktiker der Abwasserwirtschaft und der Entwicklungszusammenarbeit. „Bürger können hier selbst eine Einschätzung gewinnen, wie es um unser derzeitiges Abwasserbehandlungssystem bestellt ist, welche Nutzungsmöglichkeiten alternativer Abwassersysteme jedem Einzelnen schon heute offenstehen und welche ein gemeinsames Vorgehen von Hausbesitzern und Kommunen erfordern, sagt Helmut Lehn.

Zusammenhänge zwischen Wasser, Energie und Abfall: ITAS-Planspiel auf der Weltwasserwoche
Auf der World-Water-Week in Stockholm vom 27. August bis 1. September 2017, zu der unter dem Motto „Water and waste – reduce and reuse“ mehr als 3.000 Besucher aus aller Welt erwartet werden, präsentiert die Wasser-Energie-Gruppe des ITAS ein Planspiel. „Dabei sollen technoökonomische sowie soziokulturelle und ökologische Zusammenhänge zwischen Wasser, Energie und Abfall beleuchtet und Konzepte für unterschiedliche urbane Kontexte entworfen werden“, sagt Jasmin Friedrich, die zum Thema Wasser-Energie-Nexus forscht.

KIT bildet Spezialisten im nachhaltigen Umgang mit Wasser aus
Einen weiteren Beitrag zur Lösung der weltweiten Wasserprobleme leistet das KIT mit dem Masterstudiengang „Water, Science & Engineering“. Das KIT bietet hier eine interdisziplinäre, forschungsorientierte Ausbildung an der Schnittstelle wasserbezogener Ingenieur- und Naturwissenschaften. Das Studium vermittelt fundierte Fachkenntnisse in wasserbezogenen Ingenieur- und Naturwissenschaften. Dazu gehören Wassertechnologie und Siedlungswasserwirtschaft, Wasserbau und Hydraulik sowie Umweltsystemwissenschaft und Wasserressourcenmanagement. Der Studiengang ist international ausgerichtet und ein großer Teil des Lehrangebots ist englischsprachig. Absolventinnen und Absolventen qualifizieren sich für eine verantwortungsvolle Tätigkeit in Planungs- und Ingenieurbüros, Industrieunternehmen, im Öffentlichen Dienst, der internationalen Entwicklungszusammenarbeit und der Wissenschaft.

Das Karlsruher Institut für Technologie (KIT) verbindet seine drei Kernaufgaben Forschung, Lehre und Innovation zu einer Mission. Mit rund 9 300 Mitarbeiterinnen und Mitarbeitern sowie 25 000 Studierenden ist das KIT eine der großen natur- und ingenieurwissenschaftlichen Forschungs- und Lehreinrichtungen Europas.
KIT – Die Forschungsuniversität in der Helmholtz-Gemeinschaft

Das KIT ist seit 2010 als familiengerechte Hochschule zertifiziert.

Diese Presseinformation ist im Internet abrufbar unter: www.kit.edu

Anhang
Energie aus der Toilette
https://idw-online.de/de/attachment56902

Quelle: idw

(nach oben)


Internationales Team um Oldenburger Meeresforscher untersucht Meeresoberfläche

Dr. Corinna Dahm-Brey Presse und Kommunikation
Carl von Ossietzky-Universität Oldenburg

Internationale Meeres- und Klimaforscher kamen am 27. März zu einem bisher einzigartigen Experiment am Institut für Chemie und Biologie des Meeres (ICBM) der Universität Oldenburg zusammen. Zwei Wochen lang wurde das interdisziplinäre Expertenteam vom Wilhelmshavener ICBM Standort aus auf dem Jadebusen die hauchdünne Oberflächenschicht des Meeres auch in der Nacht untersuchen. Sie beeinflusst den Gasaustausch zwischen Atmosphäre und Ozean und wirkt sich auch auf das Klimageschehen aus.

Der größte Teil der Ozeane ist von dünnen natürlichen Häutchen, sogenannten Oberflächenfilmen, bedeckt. Angereichert mit organischen Verbindungen biologischen Ursprungs bilden sie eine turbulenzfreie Grenzschicht auf der Meeresoberfläche. Diese Schicht verlangsamt den Gasaustausch zwischen Ozean und Atmosphäre. Und oft bietet sie ideale Lebensbedingungen für Mikroorganismen, die diesen Austausch zusätzlich aktiv beeinflussen können. Die Wissenschaftler des Projektteams vermuten, dass sich dieser Film bei Dunkelheit anders verhält als am Tag: Die Sonneneinstrahlung lässt zum Beispiel Mikroalgen Sauerstoff (O2) produzieren – die Ozeane steuern immerhin die Hälfte des Luftsauerstoffs auf der Erde bei. Darüber hinaus nehmen die Meere ungefähr ein Drittel des von Menschen produzierten Treibhausgases Kohlendioxid (CO2) auf. Speziell nachts, so die Annahme, könnten allerdings atmende Mikroorganismen in der Grenzschicht in den Vordergrund treten, die ebenfalls CO2 produzieren.
In den kommenden zwei Wochen am Jadebusen geht es vor allem um folgende Fragen: Schwanken die Zusammensetzung und die Stoffwechselleistungen der Mikroben-Gemeinschaften im Tagesverlauf nennenswert? Und beeinflussen Sie tatsächlich in maßgeblicher Form den Gasaustausch von O2 und CO2 durch den Oberflächenfilm? Außerdem interessiert die Wissenschaftler, inwieweit biologische, physikalische und (photo-) chemische Prozesse die Menge und Beschaffenheit feinster Schwebstoffe (Aerosole) über der Meeresoberfläche prägen – diese wirken sich auch auf die Wolkenbildung aus.
„Es ist das erste Mal, dass wir Oberflächenfilme auch nachts untersuchen, überdies international und fachübergreifend. Das wird eine Herausforderung, denn die Arbeit bei Dunkelheit auf See ist ohnehin nicht einfach“, erklärt Dr. Mariana Ribas Ribas, Ozeanographin in der Arbeitsgruppe (AG) Meeresoberflächen am ICBM. Gemeinsam mit ihrem Kollegen Dr. Christian Stolle, der zudem am Institut für Ostseeforschung (IOW) forscht, hat sie das Projekt initiiert. Die Idee für „MILAN“ (sea-surface microlayer functioning during the night) ist auf unkonventionelle Weise am Rande einer Fachtagung entstanden. „Normalerweise wirbt man Geld ein und führt dann ein Projekt durch. Hier lief es anders herum“, so Ribas Ribas weiter. Gemeinsam wolle man MILAN nun zu einem europäischen Projekt ausbauen.
Zum Team gehören Forscher aus Costa Rica, Dänemark, Großbritannien, Italien, Kroatien, Polen, Schweden und Spanien. Von deutscher Seite sind neben den Projektinitiatoren Ribas Ribas und Stolle sowie dem Leiter der durch den European Research Council (ERC Starting Grants) geförderten AG Meeresoberflächen, Dr. Oliver Wurl, weitere Wissenschaftler der Universität Oldenburg, des GEOMAR Helmholtz-Zentrums für Ozeanforschung Kiel, des Bremer Leibniz-Zentrums für Marine Tropenforschung (ZMT) und des Leibniz-Instituts für Troposphärenforschung (TROPOS) in Leipzig beteiligt.
Dem Projektteam steht der Forschungskutter „Senckenberg“ des Wilhelmshavener Senckenberg Instituts zur Verfügung. Von Bord des Schiffes aus soll neben einer sensorbestückten Spezial-Driftboje auch ein ferngesteuerter Forschungskatamaran der ICBM AG Meeresoberflächen zum Einsatz kommen: Er sammelt größere Mengen des Oberflächenfilms für Laboruntersuchungen ein. Zweckgebundene universitäre Mittel in begrenztem Umfang erlauben zudem den Einsatz des ICBM-Forschungsbootes „Otzum“.
MILAN beginnt am 27. März und endet vorerst am 13. April. Interessierte können dem Projekt über soziale Medien folgen: Es wird ein Blog unter http://icbm-auf-see.uni-oldenburg.de/category/home/fs-senckenberg/ eingerichtet, und Dr. Mariana Ribas Ribas wird nach Projektbeginn via Twitter unter dem Hashtag #MILANProject informieren.

Weitere Informationen:
http://www.icbm.de/

Quelle: idw

(nach oben)


Besser lernen dank Zink?

Dr. Karin J. Schmitz Abteilung Öffentlichkeitsarbeit
Gesellschaft Deutscher Chemiker e.V.

Zink reguliert die Speicherung und Ausschüttung von Neurotransmittern

Zink ist ein wichtiges Spurenelement, das an vielen zellulären Vorgängen beteiligt ist: Z.B. bei Lern- und Gedächtnis-Prozessen spielt es eine – bisher nicht verstandene – Rolle. Dieser sind schwedische Forscher jetzt einen Schritt näher gekommen. Durch nanoelektrochemische Messungen konnten sie zeigen, dass Zink die Ausschüttung von Botenstoffen beeinflusst. Wie sie in der Zeitschrift Angewandte Chemie berichten, änderte Zink die in Vesikeln gelagerte Botenstoffmenge und die Dynamik bei deren Ausschleusung aus der Zelle.

Bei der Signalübertragung an Synapsen werden Botenstoffe (Neurotransmitter) aus Vorratsspeichern, den synaptischen Vesikeln, in den synaptischen Spalt ausgeschüttet und von der benachbarten Nervenzelle „erkannt“. Die Ausschüttung basiert auf einer Ausschleusung (Exocytose): Das Vesikel dockt an die Zellmembran an, öffnet sich an der Kontaktstelle, gibt einen Teil seiner Fracht nach außen ab, schließt sich wieder, trennt sich von der Plasmamembran und kann erneut befüllt werden.

Das Team um Andrew G. Ewing von der Universität Göteborg (Schweden) verwendete Kohlefaser-Elektroden mit Nano-Spitzen, um den Einfluss von Zink auf diese Vorgänge zu beleuchten. Dazu führten sie Messungen einer P12-Zelllinie durch, die analog Nervenzellen den Neurotransmitter Dopamin freisetzt, wenn sie mit einer hohen Kaliumkonzentration stimuliert wird. „Mit einer an die Zelloberfläche angelegten Elektrodenspitze lässt sich das Öffnen der individuellen Vesikel verfolgen und die Anzahl der freigesetzten Moleküle berechnen“, so Ewing. Beim Einführen der Elektrodenspitze in die Zelle bleiben die Vesikel des Cytoplasmas dagegen an der Elektrode kleben und setzen ihren gesamten Inhalt frei. Ewing: „Anhand der auftretenden Stromspitzen können wir direkt im Cytoplasma der lebenden Zellen ermitteln, wieviele Transmitter-Moleküle in individuellen Vesikeln gelagert sind.“

Nach einer Zinkbehandlung war der gesamte in Vesikeln verpackte Gehalt an Neurotransmittern verringert, im Schnitt enthielten die Vesikel 27 % weniger Transmitter. Gleichzeitig blieb die bei Stimulation freigesetzte Transmittermenge konstant. Eine Analyse der Stromkurven brachte eine Erklärung dieses vermeintlichen Widerspruchs. Ewing sagt: „Zink verändert die Dynamik der Freisetzung. Vor und nach der eigentlichen Öffnung eines Vesikels entsteht an der Berührungsstelle mit der Plasmamembran eine Pore. Nach einer Zink-Behandlung schließt sie sich langsamer als sonst, das Vesikel bleibt länger offen und gibt 92 % seiner Transmitter-Moleküle nach außen ab – statt nur 66 % ohne Zinkbehandlung.“

Um das Phänomen weiter zu untersuchen, wurden die Zellen Schicht für Schicht von außen nach innen abgetragen und massenspektrometrisch analysiert. Dabei fanden die Forscher eine Zink-Spezies nahe der Zellmembran und eine zweite im Zellinneren. „Erstere könnte an Proteinkinase C gebunden sind, ein Enzym, das an die Membran bindet, um die Exocytose-Geschwindigkeit zu regulieren. Die Zinkspezies im Zellinneren könnte das Transportprotein, das Dopamin in die Vesikel lädt, verlangsamen“, vermutet Ewing. „Unsere Ergebnisse liefern endlich eine Verbindung zwischen Zink und der Regulierung der Neurotransmitterausschüttung, die wichtig sein könnte bei der Erzeugung und Speicherung von Erinnerungen.“

Autor: Andrew G. Ewing, Chalmers University of Technology (Sweden), https://www.chalmers.se/en/staff/Pages/andrew-ewing.aspx

Link zum Originalbeitrag: http://dx.doi.org/10.1002/ange.201700095

Angewandte Chemie, Postfach 101161, 69451 Weinheim, Germany.

Weitere Informationen:
http://presse.angewandte.de

Quelle: idw

(nach oben)


Prof. Roger Nitsch: „In der Generation unserer Kinder wird es kein Alzheimer mehr geben“

Dr. Christian Leibinnes Presse- und Öffentlichkeitsarbeit
Alzheimer Forschung Initiative e.V.

„Wir sind fast da, es dauert nur noch ein paar Jahre. In der Generation unserer Kinder wird es kein Alzheimer mehr geben“, sagte Prof. Dr. Roger Nitsch bei einer Veranstaltung der gemeinnützigen Alzheimer Forschung Initiative e.V. (AFI) im Rahmen des Alzheimer’s & Parkinson’s Diseases Congress (AD/PD) am Freitag in Wien. Prof. Nitsch ist Erfinder des hoffnungsvollen Alzheimer-Wirkstoffs Aducanumab, der zurzeit in einer Phase-3-Studie an einer großen Probandenzahl getestet wird. Aducanumab ist ein Antikörper, der sich gegen die für Alzheimer charakteristischen Plaques aus Beta-Amyloid richtet.

„Wir haben die Hoffnung, irgendwann ein Heilmittel zu finden. Diese Hoffnung ist auch mit dem Namen Roger Nitsch verbunden“, sagte der AFI-Vorstandsvorsitzende Dr. Michael Lorrain.

Prof. Nitsch, der heute am Institut für Regenerative Medizin der Universität Zürich forscht, war der erste Wissenschaftler, der eine Projektförderung der AFI bekam. Im Jahr 1996, ein Jahr nach Gründung der AFI, wurde das Projekt „Untersuchung von erinnerungsspezifischen Rezeptoren“ mit 150.000 DM gefördert. Prof. Nitsch, der damals am Zentrum für Molekularbiologie der Universität Hamburg tätig war, beschäftigte sich mit erinnerungsspezifischen Genen, die durch Alzheimer-Medikamente beeinflusst werden. Daraus sollten effizientere Wirkstoffe entwickelt werden. „Die Förderung der Alzheimer Forschung Initiative war für mich der erste Grant nach meiner Rückkehr aus Boston. Diese Förderung hat mir meine weitere Arbeit ermöglicht“, sagte Prof. Nitsch.

„Ich wurde am Anfang meiner Laufbahn von Medizinern und Forschern ausgelacht, als ich sagte, dass ich mich für das Thema Alzheimer-Forschung interessiere. Noch vor 30 Jahren wusste niemand, dass Alzheimer eine richtige Krankheit ist“, sagte Prof. Nitsch über die Anfänge seiner Forschung.

Nach dem Forschungsprojekt von Prof. Nitsch konnte die AFI insgesamt 200 weitere Forschungsaktivitäten mit über 8,4 Millionen Euro unterstützen. Das Forschungsportfolio der AFI reicht von zweijährigen Standard-Grants für erfahrene Forscher im Wert von 100.000 Euro über Pilot Grants für junge Forscher mit einer Fördersumme von 40.000 Euro bis hin zu Weiterbildungsaufenthalten und Reisekostenzuschüssen für den wissenschaftlichen Nachwuchs.

Über die Alzheimer Forschung Initiative e.V.
Die Alzheimer Forschung Initiative e.V. (AFI) ist ein eingetragener gemeinnütziger Verein. Seit 1995 fördert die AFI mit Spendengeldern Forschungsprojekte engagierter Alzheimer-Forscher und stellt kostenloses Informationsmaterial für die Öffentlichkeit bereit. Bis heute konnte die AFI 201 Forschungsaktivitäten mit über 8,4 Millionen Euro unterstützen und 750.000 Ratgeber und Broschüren verteilen. Interessierte und Betroffene können sich auf www.alzheimer-forschung.de fundiert über die Alzheimer-Krankheit informieren und Aufklärungsmaterial anfordern. Ebenso finden sich auf der Webseite Informationen zur Arbeit des Vereins und allen Spendenmöglichkeiten. Botschafterin der AFI ist die Journalistin und Sportmoderatorin Okka Gundel.

Weitere Informationen:
http://www.alzheimer-forschung.de/5129 – Kostenfreies Fotomaterial

Quelle: idw

(nach oben)


Antibiotika wirken gegen Rückenschmerzen – Dänische Wissenschaftlerin erhält Deutschen Schmerzpreis

Nicole Zeuner Presse- und Öffentlichkeitsarbeit
Deutsche Gesellschaft für Schmerzmedizin e.V.

Für ihre revolutionären Studien zur Behandlung von Rückenschmerzen mit Antibiotika wurde Dr. Hanne Albert, Odense, Dänemark, mit dem DEUTSCHEN SCHMERZPREIS – Deutscher Förderpreis für Schmerzforschung und Schmerztherapie ausgezeichnet. Der Preis wurde im Rahmen des Deutschen Schmerz- und Palliativtages 2017 in Frankfurt am Main überreicht. Wissenschaftlicher Träger des Preises ist die Deutsche Gesellschaft für Schmerzmedizin e.V. (DGS), der Preis wird gemeinsam mit der Deutschen Schmerzliga e.V. verliehen. Er wird von dem Limburger Pharmaunternehmen Mundipharma gestiftet und ist mit 10.000 Euro dotiert.

Ungefähr die Hälfte der Patienten mit chronischen Schmerzen im unteren Rücken weisen bei Untersuchungen im MRT Ödeme im Knochenmark, so genannte ‚modic changes‘, auf. Bei ersten Untersuchungen konnte Albert in dem nach einem Bandscheibenvorfall entnommenen Gewebe bei mehr als 50 Prozent der Patienten Bakterien nachweisen. Zu einem Großteil war das Gewebe mit P. acnes infiziert. Dieses Bakterium, das zur natürlichen Mundflora gehört, gelangt beispielsweise über kleine Verletzungen, die beim Zähneputzen entstehen, ins Blut. Über neu gebildete Kapillaren an dem ausgetretenen Gewebe der Bandscheibe gelangen die Bakterien schließlich ins Innere der Bandscheibe und verbleiben dort auch nach einer Ausheilung des Bandscheibenvorfalls und verursachen Entzündung, Knochenödem und Schmerzen.

So entstand die Idee, in einer Pilotstudie zu testen, ob Antibiotika gegen den Bakterienbefall und damit auch gegen die Rückenschmerzen der Patienten wirken können. Bereits diese erste Studie zeigte signifikante Ergebnisse in der Verbesserung – sowohl der Schmerzsymptome als auch der funktionellen Beschwerden der Patienten. Weitere randomisierte, placebo-kontrollierte Studien bestätigen das Ergebnis. Die Patienten erhielten über einen Zeitraum von 100 Tagen 3-mal täglich 1.000 mg Amoxicillin. Erste Effekte zeigten sich nach 6 bis 8 Wochen und setzten sich über eine Follow-up-Zeit von einem Jahr, in einer weiteren Studie sogar über zwei Jahre, fort.

Antibiotika bei „modic changes“ mit Bakteriennachweis
Auf die Frage, ob nun alle Patienten mit Schmerzen im unteren Rücken mit Antibiotika behandelt werden sollen, sagte Albert: „Nein, aber diejenigen mit ‚modic changes‘, bei denen Bakterien eine Rolle spielen, profitieren enorm.“ Ein revolutionärer Ansatz in der Schmerzmedizin, der nicht nur das Leiden von Millionen von Patienten lindern könnte, sondern auch enorme Kosten aufgrund von Arbeitsunfähigkeiten und Frühberentungen einsparen könnte. Diese Forschungsanstrengungen wurden nun mit dem DEUTSCHEN SCHMERZPREIS ausgezeichnet.

„Hanne Albert hat mit ihrer bahnbrechenden Arbeit schmerzmedizinische Denkweisen nachhaltig verändert und eine neue Diskussionsbasis zum Verständnis von chronischen Rückenschmerzen geschaffen“, so Dr. Gerhard Müller-Schwefe, Präsident der Deutschen Gesellschaft für Schmerzmedizin in seiner Laudatio.

Der DEUTSCHE SCHMERZPREIS – Deutscher Förderpreis für Schmerzforschung und Schmerzmedizin – wird jährlich an Persönlichkeiten verliehen, die sich durch wissenschaftliche Arbeiten über Diagnostik und Therapie akuter und chronischer Schmerzzustände verdient gemacht oder die durch ihre Arbeit oder ihr öffentliches Wirken entscheidend zum Verständnis des Problemkreises Schmerz und der davon betroffenen Patienten beigetragen haben.

Weitere Informationen:

http://www.schmerz-und-palliativtag.de

Anhang
PM_Schmerztag 2017_Verleihung Deutscher Schmerzpreis
https://idw-online.de/de/attachment56954

Quelle: idw

(nach oben)


Ein Fisch macht Schule: Mit dem Stör werden Kinder und Jugendliche zu Gewässerexperten

Angelina Tittmann Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)

Kleine Störe auf die Reise schicken, mit Kescher und Forschungsinstrumenten Gewässer entdecken und eigene Experimente und Exkursionen durchführen – all dies ermöglicht das Projekt „Wanderfisch“. Unter dem Motto „Einmal zum Meer und zurück: Auf Wanderschaft mit Stör, Lachs & Co.“ richtet sich das Projekt an Schulen und macht Kinder und Jugendliche zu Gewässerexpertinnen und -experten. Ab sofort können sich Einrichtungen für die kostenlose Teilnahme bewerben. „Wanderfisch“ wird vom Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB) und BildungsCent e.V. durchgeführt und im Rahmen des Wissenschaftsjahres 2016*17 vom Bundesministerium für Bildung und Forschung (BMBF) gefördert.

BildungsCent und das IGB laden Schulklassen im Wissenschaftsjahr Meere und Ozeane ein, den Stör auf seiner Reise zwischen Fluss und Meer zu begleiten. Störe sind die größten Wanderfische unserer Breiten. Die bis zu fünf Meter langen Tiere lebten schon zu Zeiten der Dinosaurier. Heute sind sie fast ausgestorben. Nur in Frankreich existiert noch ein kleiner Bestand. Ein umfangreiches Wiederansiedlungsprogramm sowie die Verbesserung der Lebensräume sollen die Wanderfische eines Tages wieder in unsere Flüsse zurückbringen.

Ihre beschwerliche Reise zwischen dem Meer, wo sie ausreichend Nahrung finden, und unseren Flüssen, in denen sie ihre Eier ablegen, treten Störe gleich mehrfach in ihrem langen Leben an. „Aufgrund dieser Lebensweise sind Störe und andere Wanderfische auf frei fließende und saubere Gewässer angewiesen“, erklärt IGB-Experte Dr. Jörn Geßner, der sich seit über 20 Jahren für die Wiederansiedlung dieser stark bedrohten Tiere einsetzt. An der Lebensweise der Störe lassen sich deshalb Themen wie Artenschutz, Gewässerverbauung und -verschmutzung, Konflikte zwischen Wirtschaft und Naturschutz sowie die Verbindung von Fluss und Meer besonders anschaulich und praxisnah vermitteln.

Es ist Zeit, rauszugehen: Vielseitige Materialien unterstützen Gewässerprojekte
Das Projektteam hat ein umfangreiches Angebot an Materialien zusammengestellt: „Mit Becherlupen, Keschern, Fernglas und Bestimmungsbüchern befüllt, lädt unser GewässerRucksack ein, die heimischen Gewässer zu entdecken“, sagt Bianca Neumann von BildungsCent. „Zudem erhalten teilnehmende Schulen ein GewässerPäckchen, das mit vielen Projekt- und Exkursionsideen, Bauanleitungen für Forschungsinstrumente und Gewässerexperimenten Schülerinnen und Schüler ins nachhaltige Handeln bringt.“ So werden Schülerinnen und Schüler aktiv an Fragestellungen und Lösungsansätzen des Arten- und Gewässerschutzes beteiligt.

Das Projekt Wanderfisch bietet Schulen auch die Möglichkeit, sich aktiv an einer Stör-Besatzaktion an der Oder und anderen deutschen Flüssen zu beteiligen. Einrichtungen können sich außerdem eine kostenlose Ausstellung rund um die Themen Stör, Fluss und Meer ausleihen.

Wanderfisch richtet sich primär an die 1. bis 7. Klassenstufe. Schulen und Bildungseinrichtungen können sich ab sofort mit ihren geplanten Gewässerprojekten für die kostenlose Teilnahme bewerben: http://www.wanderfisch.info/bewerbungsformular

Die ersten 50 Schulen erhalten einen GewässerRucksack. Zusätzlich gehen 200 GewässerPäckchen an Lehrerinnen und Lehrer, die mit ihren Schülerinnen und Schülern eigene Gewässerprojekte umsetzten möchten.

Weitere Informationen sowie Materialien bündelt die Wanderfisch-Website unter: http://www.wanderfisch.info

Ansprechpartner:
Bianca Neumann
BildungsCent e.V.
Schulkontakte und Anmeldung
030 610 81 44 68
bneumann@bildungscent.de

Madeleine Ammar
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Projektkoordination
030 641 81 975
ammar@igb-berlin.de

Dr. Jörn Geßner
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Projektleitung
030 641 81 626
sturgeon@igb-berlin.de

Zum Wanderfisch-Film:
In einem kurzen Film für Kinder und Jugendliche erzählt Wanderfisch die Geschichte des Störs und erklärt, warum die Fische vom Aussterben bedroht sind und was wir dagegen tun können:
https://youtu.be/f6Xriulzj64

Zum Wanderfisch-Poster:

Das Poster zeigt, welche Stationen Störe und andere Wanderfische auf ihrer Reise meistern. Es steht auf der Wanderfisch-Website zum Download zur Verfügung und wird mit den Gewässer-Päckchen an teilnehmende Schulen und Einrichtungen versandt:
http://www.wanderfisch.info/sites/default/files/media-files/download-files/17011…

Über das Wissenschaftsjahr 2016*17 – Meere und Ozeane:
Die Meeresforschung ist Thema des Wissenschaftsjahres 2016*17. Zu 71 Prozent bedecken Ozeane und Meere unseren Planeten. Sie sind Klimamaschine, Nahrungsquelle, Wirtschaftsraum – und sie bieten für viele Pflanzen und Tiere Platz zum Leben. Wissenschaftlerinnen und Wissenschaftler untersuchen die Ozeane seit Jahrhunderten; und doch sind sie noch immer geheimnisvoll und in weiten Teilen unerforscht. Im Wissenschaftsjahr 2016*17 – Meere und Ozeane geht es um die Ergründung der Gewässer, ihren Schutz und eine nachhaltige Nutzung. Die Wissenschaftsjahre sind eine Initiative des Bundesministeriums für Bildung und Forschung (BMBF) gemeinsam mit Wissenschaft im Dialog (WiD). Sie tragen als zentrales Instrument der Wissenschaftskommunikation Forschung in die Öffentlichkeit. Das Wissenschaftsjahr 2016*17 wird vom Konsortium Deutsche Meeresforschung (KDM) als fachlichem Partner begleitet.

Weitere Informationen unter http://www.wissenschaftsjahr.de

Über das IGB:
http://ww.igb-berlin.de

Das IGB ist das bundesweit größte Forschungszentrum für Binnengewässer. Es verbindet Grundlagen- und Vorsorgeforschung, bildet den wissenschaftlichen Nachwuchs aus und berät Politik und Gesellschaft in Fragen des nachhaltigen Gewässermanagements. Forschungsschwerpunkte sind u.a. die Langzeitentwicklung von Seen, Flüssen und Feuchtgebieten angesichts sich rasch ändernder Umweltbedingungen, die Renaturierung von Ökosystemen, die Biodiversität aquatischer Lebensräume sowie Technologien für eine ressourcenschonende Aquakultur. Die Arbeiten erfolgen in enger Kooperation mit den Universitäten und Forschungsinstitutionen der Region Berlin/Brandenburg und weltweit. Das IGB gehört zum Forschungsverbund Berlin e. V., einem Zusammenschluss von acht natur-, lebens- und umweltwissenschaftlichen Instituten in Berlin. Die vielfach ausgezeichneten Einrichtungen sind Mitglieder der Leibniz-Gemeinschaft.

Über BildungsCent e.V.:
http://www.bildungscent.de

Seit 2003 arbeitet BildungsCent e.V. mit Sitz in Berlin im gesamten Bundesgebiet mit 5.000 Schulen und Bildungseinrichtungen zusammen. Zweck der gemeinnützigen Organisation ist die Förderung einer neuen und nachhaltigen Lehr- und Lernkultur. Alle Programme von BildungsCent e.V. verfolgen das Ziel, die Schule als einen Lebensraum zu entwickeln, in dem die Schülerinnen und Schüler ihre Potenziale entfalten und an der Gestaltung des Schullebens und ihrer Umwelt aktiv teilhaben. BildungsCent e.V. betrachtet Schulen als entscheidende Orte gesellschaftlicher Transformation hin zu mehr Nachhaltigkeit im Sinne der 17 Ziele für nachhaltige Entwicklung der Agenda 2030 der Vereinten Nationen.

Anhang
Wanderfisch-Logo
https://idw-online.de/de/attachment56922

Quelle: idw

(nach oben)


Univesität in Landau sucht Teilnehmer für Online-Befragung zum Thema Berufsalltag

Bernd Hegen Referat Öffentlichkeitsarbeit
Universität Koblenz-Landau

Will man die Herausforderungen des Berufsalltags gut meistern, ist neben Fachkenntnissen auch die Fähigkeit gefragt, sich selbst zu motivieren oder Emotionen wie Ärger oder Frust zu regulieren. Das Zentrum für Empirische Pädagogische Forschung (zepf) der Universität in Landau führt derzeit eine Studie zu den so genannten personalen Kompetenzen am Arbeitsplatz durch.

Will man die Herausforderungen des Berufsalltags gut meistern, ist neben Fachkenntnissen auch die Fähigkeit gefragt, sich selbst zu motivieren oder Emotionen wie Ärger oder Frust zu regulieren. Das Zentrum für Empirische Pädagogische Forschung (zepf) der Universität in Landau führt derzeit eine Studie zu den so genannten personalen Kompetenzen am Arbeitsplatz durch.

Die Befragung dauert rund 15 Minuten und fragt das Verhalten zu verschiedenen Situationen in der Büro- und Arbeitswelt ab. Die Wissenschaftler wollen herausfinden, auf welche Verhaltensstrategien Personen zurückgreifen, um die Anforderungen im Berufsalltag zu bewältigen und welche davon funktionieren. Für die Teilnahme sucht die Universität Berufstätige, ganz gleich in welchem Beruf oder auf welcher Position. Der Online-Fragebogen ist unter http://sitkom.zepf.eu erreichbar. Bei Rückfragen steht Christian Marquardt vom zepf per E-Mail unter marquardt@zepf.uni-landau.de zur Verfügung.

Kontakt:
Zentrum für Empirische Pädagogische Forschung (zapf)
Dipl.-Päd. Christian Marquardt
E-Mail: marquardt@zepf.uni-landau.de

Pressestelle Campus Landau
Kerstin Theilmann
Tel.: 06341 280-32219
E-Mail: ktheilmann@uni-koblenz-landau.de

Weitere Informationen:
http://sitkom.zepf.eu Homepage der Befragung

Quelle: idw

(nach oben)


Lachs mit Nebenwirkungen / Aquakulturen belasten die Flüsse

Susanne Hufe Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum für Umweltforschung – UFZ

Lecker, vielseitig verwendbar, ein hoher Gehalt an lebensnotwendigen Omega-3-Fettsäuren: Lachse gehören zu den beliebtesten Speisefischen überhaupt. In den Handel kommen neben Wildfängen vor allem Tiere aus Zuchtbetrieben, die allerdings Flüsse, Seen und Meere verschmutzen können. Doch wie groß ist dieses Problem? Dieser Frage sind deutsche und chilenische Wissenschaftler unter Leitung des UFZ nachgegangen. Sie haben die gelösten organischen Verbindungen untersucht, die durch Lachsfarmen in Chiles Flüsse gelangen, und warnen im Fachjournal Scientific Reports davor, dass diese Substanzen die Ökosysteme massiv belasten und ganze Lebensgemeinschaften verändern.

Lachse führen ein ziemlich abwechslungsreiches Leben. Während die erwachsenen Fische im Meer zuhause sind, wandern sie zur Fortpflanzung die Flüsse hinauf und legen ihre Eier in den Kiesbetten der Oberläufe ab. Dort schlüpft der Nachwuchs, wächst eine Zeit lang im sauberen, sauerstoffreichen Wasser heran und macht sich dann auf den Weg Richtung Meer. Wer die beliebten Speisefische züchten will, muss ihnen also je nach Alter unterschiedliche Lebensbedingungen bieten.
Chilenische Fischfarmer tun das, indem sie sich am natürlichen Lebenszyklus der Lachse orientieren. An den klaren Flüssen, die vom Anden-Hauptkamm Richtung Pazifik fließen, haben sie einige hundert Aufzucht-Stationen für die Eier und die jüngsten Tiere eingerichtet. Etwas größere Lachse leben dann in Käfigen in den Seen des südamerikanischen Landes, und die Erwachsenen ziehen schließlich in ähnliche Unterkünfte um, die vor der Küste im Meer verankert sind. Auf diese Weise haben Chiles Aquakulturen 2012 rund 820.000 Tonnen Lachs im Wert von knapp fünf Milliarden US-Dollar produziert. Seit Jahren rangiert das Land auf der Liste der weltweit wichtigsten Lachsproduzenten auf Platz zwei nach Norwegen.

Folgen für die Umwelt?
Aus den Käfigen für die mittelgroßen und großen Fische rieseln Kot, Futterreste und andere Substanzen in die Seen und Küstengewässer des Landes. Und aus etlichen der eigentlich extrem sauberen und naturbelassenen Flüsse leiten die Betriebe Wasser für ihre Aufzuchtstationen ab. Sie pumpen es durch die Becken der Junglachse und leiten es ein Stück weiter unten wieder ein – und zwar in keinem guten Zustand.
Statt klarem Wasser fließt unterhalb solcher Anlagen oft eine nach Fisch stinkende Brühe talwärts – was für Anwohner, Touristen und Wasserlebewesen gleichermaßen eine Belastung ist. „Es darf inzwischen zwar kein völlig trübes Wasser mehr eingeleitet werden“, berichtet UFZ-Biologe Dr. Norbert Kamjunke. Die darin enthaltene Menge von Partikeln muss unter bestimmten Grenzwerten bleiben. Daher klären die Aquakulturen ihr Abwasser inzwischen mithilfe von Absetzbecken und Rotationsfiltern. Für gelöste Substanzen aber gibt es solche Vorschriften nicht, diese fließen nach wie vor ohne jede Behandlung oder Überwachung in die Gewässer. Und zwar in gewaltigen Mengen.

In einer früheren Studie haben Norbert Kamjunke und seine Kollegen herausgefunden, dass in solchen Anlagen für 50 Tonnen gezüchteten Lachs rund 40 Tonnen gelöstes organisches Material in den Flüssen landen. Zu diesen Substanzen, die Chemiker unter dem Kürzel DOM (Dissolved Organic Matter) zusammenfassen, gehören zum Beispiel die flüssigen Ausscheidungen der Lachse, sowie aufgelöste Reste von Futter und Kot. „Es sind aber auch Desinfektionsmittel und Antibiotika dabei“, erklärt er. Doch aus welchen Verbindungen besteht dieser Cocktail genau? Und was bewirkt er in den Gewässern? Das haben die Forscher nun zum ersten Mal genau untersucht.
Zum Einsatz kamen dabei die modernsten Methoden der chemischen Analytik. Mithilfe von Fluoreszenz-Messungen, hochauflösender Massenspektrometrie und Kern-Magnet-Resonanz-Spektroskopie haben die Forscher das Abwasser von vier chilenischen Aquakulturen sowie Proben aus den oberhalb und unterhalb gelegenen Flussabschnitten unter die Lupe genommen. Bei der Probenahme haben sie dabei mit Kollegen der Universidad Austral de Chile in Valdivia zusammengearbeitet, die späteren Messungen erfolgten am Helmholtz-Zentrum München. „So konnten wir sehr genau bestimmen, welche DOM-Moleküle in welchen Konzentrationen das jeweilige Wasser enthält“, erklärt Norbert Kamjunke.

Dabei hat sich herausgestellt, dass jeder der Flüsse von Natur aus einen etwas anderen chemischen Fingerabdruck hat. Strömt er durch waldreiche Gebiete, enthält sein Wasser zum Beispiel viele Huminstoffe. Ein hoher Anteil von Schwefelverbindungen ist dagegen typisch für Gewässer in Vulkanregionen. Es gibt aber auch Gemeinsamkeiten. So ist in den naturnahen Flussabschnitten generell wenig organisches Material gelöst. Und diese geringe Fracht besteht aus Verbindungen, die für Bakterien schwer zu knacken sind. „Es herrschen dort also sehr nährstoffarme Bedingungen“, resümiert Norbert Kamjunke.
Durch die Einleitung der Aquakultur-Abwässer aber ändert sich das Bild. Diese Anlagen setzen große Mengen von leicht abbaubaren Verbindungen frei. Vor allem Kohlenhydrate, Proteine und deren Bausteine sowie Lipide finden sich unterhalb der Anlagen in viel höheren Konzentrationen als oberhalb. Die Aquakulturen verpassen den nährstoffarmen Flüssen also eine Art Düngerschub.

Was bedeutet das für die Gewässer und ihre Bewohner?
Auch dieser Frage sind die Forscher in ihrer Studie nachgegangen. Mithilfe von Laser-Scanning-Mikroskopen haben sie den glitschigen Überzug untersucht, der auf Steinen im Flussbett wächst. Oberhalb der Aquakulturen fanden sich in diesen sogenannten Biofilmen reichlich winzige Algen. Unterhalb waren diese Organismen deutlich seltener, dafür gab es sehr viel mehr Bakterien. „Dadurch aber verändert sich das ganze Ökosystem“, erklärt Norbert Kamjunke.
Die Algen am Grund der naturnahen Gewässer spielen nämlich aus mehreren Gründen eine wichtige Rolle. Zum einen produzieren sie Sauerstoff, zum anderen bieten sie Nahrung für zahlreiche winzige Weidetiere. Schnecken grasen den Belag ebenso ab wie Eintags- oder Steinfliegenlarven. Und die wiederum stehen auf dem Speiseplan von Fischen. „Ohne die Algen fehlt diesem ganzen Nahrungsnetz die Grundlage“, sagt Norbert Kamjunke. Doch das ist nicht der einzige Punkt, in dem sich die Lebensbedingungen durch das Abwasser der Aquakulturen verändern. Denn während die Bakterien unterhalb der Anlagen das gelöste organische Material abbauen, verbrauchen sie reichlich Sauerstoff. Und zu niedrige Sauerstoff-Konzentrationen bedeuten für viele an saubere Fließgewässer angepasste Arten das Ende.

Die starke Aktivität der Bakterien, die das Team unterhalb der Lachszuchtbetriebe gemessen hat, führt andererseits aber auch zur Reinigung des Wassers. „Trotzdem sollte man die Flüsse nicht als natürliche Kläranlagen missbrauchen“, betont Norbert Kamjunke. Denn zum einen verdienen die sauberen und unbelasteten Gewässer mitsamt ihren Bewohnern besonderen Schutz. Zum anderen muss das Wasser unterhalb der Anlagen erst ein ganzes Stück flussabwärts strömen, bis es wieder sauber ist. Wie lang diese Strecke ist, hängt von den äußeren Umständen ab. Am effektivsten arbeiten die kleinen Wasserreiniger bei hohen Temperaturen und langsamen Fließgeschwindigkeiten. Unter solchen Umständen haben sie die Belastung rund 2,7 Kilometer unterhalb der Anlage wieder abgebaut, zeigt eine frühere Studie der Magdeburger Forscher. „Im Winter brauchen sie allerdings eine deutlich längere Fließstrecke“, sagt Norbert Kamjunke. Und die haben sie in den kurzen Andenflüssen nicht immer zur Verfügung.

Die Forscher plädieren daher dafür, auch für die eingeleiteten DOM-Konzentrationen Grenzwerte einzuführen. Ihre Erkenntnisse über die Aktivitäten der Bakterien können dabei helfen, diese so festzulegen, dass die Gewässer nicht überlastet werden. Die Aquakulturen müssten dann ihr Abwasser vor dem Einleiten besser reinigen – beispielsweise mithilfe von sogenannten Tropfkörpern. Das sind im Prinzip große Röhren voller Steine, auf denen Biofilme wachsen. Oben wird das Abwasser eingeleitet, unten kommt es von den Bakterien geklärt wieder heraus. „Unsere Ergebnisse zeigen auch, wie groß solche Anlagen sein müssten“, erklärt Norbert Kamjunke. Denn aus den gemessenen Abbauraten lässt sich berechnen, wie viel Steinoberfläche man für die gewünschte Reinigungsleistung braucht.
Die Forscher ziehen aus ihrer Studie aber noch einen weiteren Schluss. Sie halten es nicht für sinnvoll, an den chilenischen Flüssen noch weitere Aquakulturen einzurichten. Für neue Lachsfarmen in den Seen haben die Behörden bereits einen Genehmigungsstopp verhängt. Daher gibt es bei den Betreibern nun Überlegungen, auch die Haltung der mittelgroßen Lachse von den Seen in die Flüsse zu verlegen. „Das könnte theoretisch durchaus klappen“, meint Norbert Kamjunke. „Ökologisch gesehen aber wäre es überhaupt keine gute Idee“.

Publikation:
Norbert Kamjunke, Jorge Nimptsch, Mourad Harir, Peter Herzsprung, Philippe Schmitt-Kopplin, Thomas R. Neu, Daniel Graeber, Sebastian Osorio, JoseValenzuela, Juan Carlos Reyes, Stefan Woelfl, Norbert Hertkorn (2017): Land-based salmon aquacultures change the quality and bacterial degradation of riverine dissolved organic matter,
Scientific Reports 7, 43739; doi: 10.1038/srep43739

Weiterführende Informationen:
Dr. Norbert Kamjunke
UFZ-Department Fließgewässerökologie
Telefon: +49 391 810 9434
Mail: norbert.kamjunke@ufz.de
http://www.ufz.de/index.php?en=39563

Weitere Informationen:
http://www.ufz.de/index.php?de=36336&webc_pm=9/2017

Quelle: idw

(nach oben)


Lupinensamen: Gesundheitliche Beeinträchtigungen bei bitterem Geschmack möglich

Dr. Suzan Fiack Presse- und Öffentlichkeitsarbeit
Bundesinstitut für Risikobewertung (BfR)

BfR empfiehlt, auf eigenmächtige Entbitterung von Lupinensamen zu verzichten
Seit einigen Jahren werden die Samen von Lupinen vermehrt in der Lebensmittelproduktion verwendet – etwa zur Herstellung von glutenfreien Back- und Teigwaren oder diätetischen Produkten für Milcheiweißallergiker. In manchen europäischen und nordafrikanischen Ländern werden die Samen der Lupinen auch als Knabberartikel konsumiert. Je nach botanischer Art und geographischer Herkunft der Lupinen können ihre Samen bittere Chinolizidinalkaloide enthalten. Werden diese Alkaloide in einem sogenannten „Entbitterungsprozess“ nicht fachgerecht entfernt, können sie beim Menschen Vergiftungssymptome auslösen, die das Nerven-, Kreislauf- und Verdauungssystem betreffen. „Beim Kauf von unverarbeiteten Lupinensamen ist meist kaum ersichtlich, ob es sich um Bitterlupinensamen handelt, die giftige Alkaloide enthalten, oder um Süßlupinensamen, die ohne weitere Verarbeitung verzehrt werden können“, sagt BfR-Präsident Professor Dr. Dr. Andreas Hensel. In der Vergangenheit wurden vereinzelt Vergiftungsunfälle durch Bitterlupinensamen in Deutschland berichtet. „Das BfR empfiehlt Verbraucherinnen und Verbrauchern, die über keine eigene Sachkunde verfügen, auf eindeutig als Süßlupinensamen oder als bereits entbitterte Bitterlupinensamen ausgewiesene Erzeugnisse zurückzugreifen und auf die eigene Entbitterung von Lupinensamen zu verzichten.“

Für den Zeitraum von 2010 bis 2016 wurden dem Bundesinstitut für Risikobewertung (BfR) von den Giftinformationszentren Daten von ca. 30 konkreten Fällen mit Vergiftungssymptomen unterschiedlichen Schweregrades, ausgelöst durch Bitterlupinensamen, übermittelt. Darüber hinaus wurden in der internationalen Literatur Berichte von Vergiftungsunfällen durch Bitterlupinensamen mit teils schwerwiegenden Verläufen veröffentlicht. In der Regel waren diese Fälle auf eine ungenügende küchentechnische Entbitterung von Bitterlupinensamen zurückzuführen.

Ein bitterer Geschmack von Lupinensamen oder den aus ihnen hergestellten Erzeugnissen kann ein Indikator für die Anwesenheit von gesundheitlich unerwünschten Lupinenalkaloiden sein. Auch sollte das bitter schmeckende Einweichwasser von Lupinensamen in keinem Fall verzehrt bzw. zur Zubereitung von Speisen verwendet werden.

Lebensmittel mit Lupinensamen werden derzeit in Deutschland nur selten verzehrt. In einer deutschlandweiten, repräsentativen „Verbraucherbefragung zum Verzehr von Lupinensamen“ im Auftrag des BfR gaben 19 % der Studienteilnehmerinnen und Studienteilnehmer an, dass ihnen die Essbarkeit von Lupinensamen bekannt war. Von diesen wiederum hatten 46 % schon einmal bewusst ein industriell hergestelltes oder selbst zubereitetes lupinensamenhaltiges Lebensmittel gegessen. Der Anteil der Befragten, die überhaupt schon einmal Lebensmittel mit Lupinensamen bewusst gegessen haben, ist mit 9,2 % gering. Der Anteil derjenigen, die dafür unverarbeitete Lupinensamen kauften und selbst weiterverarbeiteten, liegt bei 1,2 %.

Herstellern von lupinensamenhaltigen Lebensmitteln empfiehlt das BfR, nur Lupinensamen in den Verkehr zu bringen, die ohne weitere haushaltstechnische Entbitterungsprozesse verzehrsfähig sind. Dies können Süßlupinensamen sein, die von sich aus niedrige Alkaloidgehalte aufweisen, oder Bitterlupinensamen, die vom Hersteller bereits ausreichend entbittert wurden. Bei Mehl aus Lupinensamen zur Abgabe an Verbraucher sollte von Herstellerseite sichergestellt sein, dass es aus Lupinensamen hergestellt wurde, die alkaloidarm sind bzw. ausreichend entbittert wurden.

Eine ausführliche Risikobewertung von Alkaloidgehalten in Lupinensamen hat das BfR in einer Stellungnahme veröffentlicht:

http://www.bfr.bund.de/cm/343/risikobewertung-des-alkaloidvorkommens-in-lupinens…

Über das BfR
Das Bundesinstitut für Risikobewertung (BfR) ist eine wissenschaftlich unabhängige Einrichtung im Geschäftsbereich des Bundesministeriums für Ernährung und Landwirtschaft (BMEL). Es berät die Bundesregierung und die Bundesländer zu Fragen der Lebensmittel-, Chemikalien- und Produktsicherheit. Das BfR betreibt eigene Forschung zu Themen, die in engem Zusammenhang mit seinen Bewertungsaufgaben stehen.

In diesem Jahr feiert das BfR sein 15-jähriges Bestehen. Aus diesem Anlass hat das BfR eine Jubiläumsbroschüre herausgegeben, die unter http://www.bfr.bund.de/de/publikation/broschueren-660.html kostenlos heruntergeladen oder bestellt werden kann.

Quelle: idw

(nach oben)


Neues Forschungsvorhaben analysiert Optionen für Biogas-Bestandsanlagen bis 2030

Paul Trainer M.A. Presse- und Öffentlichkeitsarbeit
Deutsches Biomasseforschungszentrum

Bis zum Jahr 2030 wird eine Vielzahl von Biogasanlagen aus der Förderung des Erneuerbare-Energien-Gesetzes (EEG) fallen und der Anteil fluktuierender erneuerbarer Energien am Energiesystem gleichzeitig zunehmen. Für Anlagenbetreiber ergibt sich hieraus eine Vielzahl neuer Anforderungen. In einem vom Umweltbundesamt (UBA) beauftragten Forschungsvorhaben sollen Optionen aufgezeigt werden, wie Bestandsanlagen ökonomisch und ökologisch sinnvoll weiterbetrieben werden könnten und dabei einen Beitrag zur Veränderung des Energiesystems leisten können.

Im Projektverbund mit der Deutschen Energie-Agentur (dena), dem Fraunhofer-Institut für Windenergie und Energiesystemtechnik (IWES) und der Kanzlei Becker Büttner Held Rechtsanwälte Wirtschaftsprüfer Steuerberater (BBH) untersucht das Deutsche Biomasseforschungszentrum im Forschungsvorhaben „Optionen für Biogas-Bestandsanlagen bis 2030 aus ökonomischer und energiewirtschaftlicher Sicht“ Perspektiven von Biogas-Bestandsanlagen in Deutschland. Im Fokus des zweijährigen Verbundprojektes steht die Frage, welche Optionen für einen Weiterbetrieb von Biogasanlagen bis 2030 existieren und welche Perspektiven sich für die jeweiligen Sektoren (Verkehr, Strom, Wärme) entsprechend der Ausbauziele mit erneuerbaren Energien und der nationalen Klimaschutzziele ergeben.

In insgesamt vier Arbeitspaketen werden verschiedene Aspekte zur perspektivischen Weiterentwicklung von Bestandsanlagen erforscht und u.a. die Fragen untersucht, welche alternativen Anlagenkonzepte besonders wertvoll für das sich verändernde Energiesystem sind, für welche Bestandsanlagen die Umrüstung zu einem dieser Konzepte technisch möglich, ökonomisch tragbar und ökologisch sinnvoll ist und welche Hemmnisse bei der Umsetzung solcher alternativen Anlagenkonzepte bestehen. „Ziel des Vorhabens ist es, gegenüber Betreibern von Bestandsbiogasanlagen zu definieren, welche Maßnahmen für die Umsetzung alternativer Anlagenkonzepte zu ergreifen sind und politischen Entscheidungsträger gleichzeitig möglichst konkrete Vorschläge für die notwendigen Anpassungen, u.a. der rechtlichen Rahmenbedingungen mitzugeben“, fasst die Projektleiterin am DBFZ, Jaqueline Daniel-Gromke, die Zielrichtung des Projekts zusammen.

Das FuE-Vorhaben wurde vom Umweltbundesamt im Rahmen des EVUPLAN (FKZ: 37EV 16 111 0) ausgeschrieben und umfasst eine Projektlaufzeit von zwei Jahren (1/2017-2/2019). Anfang November 2017 sollen die ausgewählten Anlagenkonzepte und die Bewertungs-Matrix im Rahmen eines Experten-Workshops beim Umweltbundesamt in Dessau vorgestellt und diskutiert werden.

Projektpartner:
DBFZ Deutsches Biomasseforschungszentrum gemeinnützige GmbH
Deutsche Energieagentur – dena
Fraunhofer-Institut für Windenergie und Energiesystemtechnik (IWES)
Kanzlei Becker Büttner Held Rechtsanwälte Wirtschaftsprüfer Steuerberater (BBH)

Smart Bioenergy – Innovationen für eine nachhaltige Zukunft
Das Deutsche Biomasseforschungszentrum arbeitet als zentraler und unabhängiger Vordenker im Bereich der energetischen und stofflichen Biomassenutzung an der Frage, wie die begrenzt verfügbaren Biomasseressourcen nachhaltig und mit höchster Effizienz und Effektivität zum bestehenden und zukünftigen Energiesystem beitragen können. Im Rahmen der Forschungstätigkeit identifiziert, entwickelt, begleitet, evaluiert und demonstriert das DBFZ die vielversprechendsten Anwendungsfelder für Bioenergie und die besonders positiv herausragenden Beispiele gemeinsam mit Partnern aus Forschung, Wirtschaft und Öffentlichkeit. Mit der Arbeit des DBFZ soll das Wissen über die Möglichkeiten und Grenzen einer energetischen und integrierten stofflichen Nutzung nachwachsender Rohstoffe in einer biobasierten Wirtschaft insgesamt erweitert und die herausragende Stellung des Industriestandortes Deutschland in diesem Sektor dauerhaft abgesichert werden – www.dbfz.de.

Wissenschaftlicher Kontakt
Jaqueline Daniel-Gromke
Tel. +49 (0)341 2434-441
E-Mail: jaqueline.daniel-gromke@dbfz.de

Weitere Informationen:

https://www.dbfz.de/presse/pressemitteilungen-2017/neues-forschungsvorhaben-anal…

Quelle: idw

(nach oben)


Mädchen können besser lesen, Jungen besser rechnen? So einfach ist es nicht!

Philip Stirm Referat Kommunikation
Deutsches Institut für Internationale Pädagogische Forschung

Forscherinnen und Forscher des DIPF haben herausgefunden, dass der Einfluss des Geschlechts auf die Leistungen von Schulkindern je nach sozialer Herkunft unterschiedlich ausfällt. Verallgemeinernde Aussagen über den Bildungserfolg DER Jungen oder DER Mädchen greifen also zu kurz, da deren Leistungsunterschiede sozial bedingt variieren.

Jungen bleiben häufiger sitzen und machen seltener Abitur. Mädchen zeigen wiederum schlechtere Schulleistungen in Mathematik. Das geht aus aktuellen Daten hervor, etwa vom Statistischen Bundesamt oder aus der PISA-Studie. Die Kennzahlen scheinen eine deutliche Sprache zu sprechen, weswegen in der öffentlichen Diskussion oft ein schnelles Urteil gefällt wird: Von den „Jungen als Bildungsverlierern“ oder davon, dass Mathematik „kein Mädchenfach“ sei, ist immer wieder die Rede. „Dabei wird jedoch übersehen, dass Jungen und Mädchen keine homogenen sozialen Gruppen sind“, gibt Josefine Lühe zu bedenken. In einer Studie hat die Bildungsforscherin gemeinsam mit weiteren Wissenschaftlern des Deutschen Instituts für Internationale Pädagogische Forschung (DIPF) herausgefunden, dass sich der Einfluss der Geschlechtszugehörigkeit auf die Schulleistungen je nach sozialem Hintergrund unterscheidet. Sie empfiehlt daher, mit generalisierenden Aussagen zum Bildungserfolg nur aufgrund des Geschlechts vorsichtig zu sein.

Über die wechselseitige Wirkung von sozialem Hintergrund und Geschlechtszugehörigkeit auf die Schulleistungen ist bislang nur wenig systematisches Wissen vorhanden. An diese Forschungslücke knüpfen Lühe und ihre Kollegen Dr. Michael Becker, Dr. Marko Neumann und Professor Dr. Kai Maaz an. Sie untersuchten Daten zu 3935 Schülerinnen und Schülern aus der sechsten Klasse von knapp 90 öffentlichen Berliner Grundschulen. Die Daten waren im Rahmen der BERLIN-Studie, der langjährigen Begleituntersuchung der Berliner Schulstrukturreform, erhoben worden. Die Forscherinnen und Forscher konzentrierten sich auf die Ergebnisse von Leistungstests in Lesen, Mathematik und Englisch sowie auf die Angaben der Eltern zu ihrem sozio-ökonomischen Status in Fragebögen. Das Team errechnete anschließend mittels statistischer Regressionsanalysen die Beziehung zwischen den Variablen.

Die Ergebnisse bestätigen zunächst die bekannten Befunde, dass Mädchen im Lesen und in Englisch, Jungen in Mathematik besser abschneiden. „Der Effekt der Geschlechtszugehörigkeit wird jedoch durch den sozio-ökonomischen Status der Jungen und Mädchen moderiert“, so Lühe. Das bedeutet, dass die Leistungsunterschiede zwischen den Geschlechtern je nach sozialem Hintergrund unterschiedlich ausfallen – in allen drei getesteten fachlichen Bereichen. Ein weiterer Befund: Im Vergleich mit den Mädchen ist bei den Jungen der Zusammenhang zwischen der sozialen Herkunft und der Leistung größer. Ihre Leistungen steigen also bei einem höheren sozio-ökonomischen Status stärker an und fallen umgekehrt bei einem niedrigeren Status deutlicher ab.

Weiterführende Erklärungen für die Effekte können die Wissenschaftlerinnen und Wissenschaftler anhand dieser Untersuchungen noch nicht geben. Sie verweisen aber darauf, dass sich möglicherweise gesellschaftliche Stereotypen auswirken. In Familien mit einem niedrigeren sozio-ökonomischen Status könnte beispielsweise die Vorstellung verbreiteter sein, dass es unmännlich sei, fleißig für die Schule zu lernen. Die Analysen könnten nun erweitert werden, etwa auf Kinder im ländlichen Raum oder auf andere Altersgruppen, Schulsysteme und Bundesländer. Als praktische Implikation hält Josefine Lühe aber schon jetzt fest: „Wenn es zum Beispiel um die Entwicklung und Anwendung von pädagogischen Fördermaßnahmen für Kinder geht, sollte man von stereotypen Vorstellungen von DEN Jungen oder DEN Mädchen besser abrücken.“

Die Studie wird im Detail in einem Beitrag für die Zeitschrift für Erziehungswissenschaft beschrieben:
http://bit.ly/Leistungsunterschiede_Geschlecht_soziale_Herkunft

Kontakt:
Studie: Josefine Lühe, DIPF, +49 (0)30 293360-223, luehe@dipf.de
Presse: Philip Stirm, DIPF, +49 (0)69 24708-123, stirm@dipf.de, http://www.dipf.de

Über das DIPF:
Das Deutsche Institut für Internationale Pädagogische Forschung (DIPF) trägt mit empirischer Bildungsforschung, digitaler Infrastruktur und gezieltem Wissenstransfer dazu bei, Herausforderungen im Bildungswesen zu bewältigen. Das von dem Leibniz-Institut erarbeitete und dokumentierte Wissen über Bildung unterstützt Wissenschaft, Politik und Praxis im Bildungsbereich – zum Nutzen der Gesellschaft.

Über die BERLIN-Studie:
Die Studie ist die wissenschaftliche Begleituntersuchung der Berliner Schulstrukturreform. Zentrale Bestandteile der Reform sind die Zusammenlegung der bisherigen Haupt-, Real- und Gesamtschulen zur neu eingeführten Integrieren Sekundarschule (ISS) und die Neugestaltung des Übergangsverfahrens in die weiterführenden Schulen. Die Begleituntersuchung ist ein Kooperationsprojekt des Max-Planck-Instituts für Bildungsforschung, des DIPF und des Leibniz-Instituts für die Pädagogik der Naturwissenschaften und Mathematik (IPN).

Weitere Informationen:
http://bit.ly/Leistungsunterschiede_Geschlecht_soziale_Herkunft – detaillierte Beschreibung der Studie in einem Beitrag für die Zeitschrift für Erziehungswissenschaft

Quelle: idw

(nach oben)


Wie bei Hempels unter dem Sofa

Dr. Anne Hardy Public Relations und Kommunikation
Goethe-Universität Frankfurt am Main

In Familien von Kindern mit ADHS beobachten Forscher häufiger inadäquates Erziehungsverhalten, ein negatives emotionales Klima und Haushaltschaos. Wie diese Faktoren zusammenhängen, hat eine Arbeitsgruppe der Goethe-Universität jetzt untersucht. Mit einem überraschenden Ergebnis.

FRANKFURT. „Wir sind davon ausgegangen, dass die Eltern von Kindern mit ADHS es wegen der Symptome ihrer Kinder schwer haben, Strukturen und Routinen aufrecht zu erhalten. Das Haushaltschaos beeinträchtigt wiederum das emotionalen Klima und das Elternverhalten“, erklärt Dr. Andrea Wirth, wissenschaftliche Mitarbeiterin in der pädagogischen Psychologie an der Goethe-Universität.

In die Studie gingen Daten von insgesamt 84 Kindern im Alter von 7 bis 13 Jahren ein, von denen 31 Kinder der ADHS-Gruppe und 53 Kinder der Kontrollgruppe zugewiesen wurden. Das Erziehungsverhalten wurde mit Hilfe eines standardisierten Fragenbogens erfasst, in dem abgefragt wird, wie intensiv sich Eltern um ihre Kinder kümmern, sie loben oder kritisieren, wie konsistent ihre Erziehung ist und ob sie körperlich strafen. Um das familiäre emotionale Klima zu erfassen, forderten die Psychologen ein Elternteil auf, fünf Minuten über das Kind zu sprechen und die Persönlichkeit des Kindes sowie die Beziehung zum Kind zu beschreiben. Das Haushaltschaos wurde wiederum mit einem standardisierten Test erhoben.

Erwartungsgemäß zeigten die Eltern von Kindern mit ADHS mehr inadäquates Erziehungsverhalten, kritisierten ihre Kinder häufiger und berichteten über ein höheres Haushaltschaos als die Eltern der Kontrollkinder. Zur Überraschung der Psychologen schätzten Eltern von Kindern mit ADHS aber die Beziehung zu ihren Kindern als positiver ein als Eltern von Kindern ohne ADHS. Die Forscher vermuten als möglichen Grund unter anderem, dass einige der teilnehmenden Familien bereits in eine Therapie eingebunden waren, da sowohl für medikamentöse als auch für verhaltenstherapeutische Interventionen Verbesserungen der Eltern-Kind-Beziehung nachgewiesen sind.

Die genaue Beziehung der drei Konstrukte wurde mit Hilfe von statistischen Analysen (Mediationsanalysen) untersucht. „Haushaltschaos scheint so etwas wie ein Mechanismus zu sein, durch den die Symptome der Kinder mit ADHS sich negativ auf das Erziehungsverhalten der Eltern auswirken“, so Andrea Wirth. Jedoch scheint sich eine chaotische Umgebung nicht auf das emotionale Klima in der Familie auszuwirken. Das ist im Widerspruch zu früheren Studien, die einen Zusammenhang zwischen inadäquatem Elternverhalten und emotionalem Klima festgestellt hatten. „Ein sehr chaotischer und unstrukturierter Haushalt, der durch die ADHS-Symptomatik der Kinder mitbedingt ist, erschwert es den Eltern, autoritativ zu erziehen. Gleichzeitig ist anzunehmen, dass die Eltern trotz des herrschenden Chaos ihre Kinder mögen, positiv über sie sprechen und es genießen, Zeit mit ihnen zu verbringen.“

Künftig will die Arbeitsgruppe am LOEWE-Zentrum Idea, dem Andrea Wirth angehört, Empfehlungen erarbeiten, die Eltern dabei unterstützen, das Familienleben zu ordnen, Routinen und Rituale zu stärken und die Organisation des Familienalltags zu verbessern. Also z.B.: Bei den Hausaufgaben Radio und Fernseher ausschalten, Telefongespräche hinter geschlossenen Türen führen, Gäste nur zu bestimmten Zeiten empfangen und Hausaufgaben alleine in einem ruhigen Raum machen.

Information: Dr. Andrea Wirth, Abteilung Pädagogische Psychologie, Fachbereich 5, Campus Westend, Tel.: (069) 798-35398, wirth@psych.uni-frankfurt.de.

Aktuelle Nachrichten aus Wissenschaft, Lehre und Gesellschaft in GOETHE-UNI online (www.aktuelles.uni-frankfurt.de)

Die Goethe-Universität ist eine forschungsstarke Hochschule in der europäischen rankfurt. 1914 mit privaten Mitteln überwiegend jüdischer Stifter gegründet, hat sie seitdem Pionierleistungen erbracht auf den Feldern der Sozial-, Gesellschafts- und Wirtschaftswissenschaften, Medizin, Quantenphysik, Hirnforschung und Arbeitsrecht. Am 1. Januar 2008 gewann sie mit der Rückkehr zu ihren historischen Wurzeln als Stiftungsuniversität ein hohes Maß an Selbstverantwortung. Heute ist sie eine der drittmittelstärksten und drei größten Universitäten Deutschlands mit drei Exzellenzclustern in Medizin, Lebenswissenschaften sowie Geistes- und Sozialwissenschaften. Zusammen mit der Technischen Universität Darmstadt und der Universität Mainz ist sie Partner der länderübergreifenden strategischen Universitätsallianz Rhein-Main(siehe auch www.uni-frankfurt.de/59086401/rhein-main-allianz). Internet: www.uni-frankfurt.de

Herausgeberin: Die Präsidentin der Goethe-Universität Redaktion: Dr. Anne Hardy, Referentin für Wissenschaftskommunikation, Abteilung PR & Kommunikation, Theodor-W.-Adorno-Platz 1, 60323 Frankfurt am Main,
Tel: 069 798-12498, Fax: 069 798-763 12531, hardy@pvw.uni-frankfurt.de

Quelle: idw

(nach oben)


Klimakiller Kuh: Methan-Ausstoß von Vieh könnte bis 2050 um über 70 Prozent steigen

Sabine Wendler Senckenberg Biodiversität und Klima Forschungszentrum Pressestelle
Senckenberg Forschungsinstitut und Naturmuseen

Kühe gelten als Klimakiller und in Zukunft werden sie sogar einen deutlich höheren Anteil an der Klimaerwärmung haben. Wissenschaftler des Senckenberg, der Royal Botanic Gardens, Kew und des Scotland Rural College, haben herausgefunden, das Futterpflanzen in wärmeren Regionen einen geringeren Nährwert haben. Rinder fressen daher mehr und stoßen mehr Methan aus. Im Zuge des Klimawandels, der damit verbundenen Temperaturerhöhung und weltweit wachsender Tierbestände könnte der Methan-Ausstoss von Vieh demzufolge bis 2050 um über 70 % steigen. Das wiederum würde den Treibhauseffekt verstärken. Die Studie ist soeben im Fachjournal „Biogeosciences“ erschienen.

Weltweit stehen heute 1,5 Milliarden Rinder auf der Weide: Dieses scheinbar idyllische Bild wird schnell zerstört, wenn man die Klimabilanz der Wiederkäuer betrachtet. Wenn die Tiere verdauen, stossen sie Methan aus. Das hat es in sich: das Gas heizt das Weltklima 25-mal stärker an als Kohlendioxid. Wissenschaftler des Senckenberg, der Royal Botanic Gardens Kew und des Scotland Rural College haben jetzt modelliert, wie sich der Methan-Ausstoß durch Rinder zukünftig entwickeln könnte und dabei insbesondere deren Futterpflanzen unter die Lupe genommen.

„Je nach Klimaszenario könnte der Methan-Ausstoß jeder Kuh bis 2050 um bis zu 4,5 Prozent ansteigen. Wenn man jetzt noch bedenkt, dass die Viehbestände drastisch steigen werden, könnte Vieh im Jahr 2050 Methan in einer Menge emittieren, die dem Erwärmungspotential von 4,7 Giga Tonnen Kohlendioxid entspricht. Das wäre ein über 70 Prozent höherer Wert als zum gegenwärtigen Zeitpunkt. Verantwortlich ist der sinkende Nährwert der Futterpflanzen“, fasst Dr. Peter Manning, Wissenschaftler am Senckenberg Biodiversität und Klima Forschungszentrum in Frankfurt, die Ergebnisse zusammen.

Wie die Auswertung diverser Studien ergab, haben Futterpflanzen in wärmeren Gebieten verglichen mit kühleren Klimata einen geringeren Nährwert. In wärmeren Regionen dominieren Pflanzen mit geringerem Protein- und höherem Ballaststoffgehalt. Wahrscheinlich handelt es sich dabei um eine Anpasung der Pflanzen an Hitzestress und Wassermangel beispielweise durch dickere Blätter und Stängel. In wärmeren Gebieten müssen die Kühe daher mehr Pflanzenmaterial fressen und verdauen länger, wobei das Klimagas Methan ensteht.

Da durch den Klimawandel die Temperaturen weltweit steigen, erwarten die Wissenschaftler, dass sich Futterpflanzen und ihre Gemeinschaften verändern und deren Nährwert global abnimmt. Dr. Mark Lee, Wissenschaftler an den Royal Botanic Gardens, Kew: „Was wir beobachten, ist ein Teufelkreis. Kühe produzieren bei ihrer Verdauung Methan, das unseren Planeten aufheizt. Dieser Temperaturanstieg führt zu Futterpflanzen, die schwerer zu verdauen sind und länger im Magen bleiben. Damit wird mehr noch Methan freigesetzt, was wiederum die Erwärmung vorantreibt. “

Doch nicht nur diese positive Rückkopplung, die bisher nicht in Klimamodellen berücksichtigt wurde, dürfte den Methan-Ausstoß durch Vieh ansteigen lassen. Sorge bereitet den Forschern vor allem, dass durch den weltweit steigenden Fleischkonsum die Anzahl von Rindern immer stärker wächst. Interessanterweise sind die Hotspots der steigenden Methan-Emissionen, Nord-Amerika, Zentral- und Osteuropa und Asien auch die Regionen, die gegenwärtig den größten Anstieg an Viehhaltung verzeichnen.

„Um den Anstieg des Methan-Ausstoßes zu verhindern, müssten wir die Viehhaltung in den Regionen, die sich am schnellsten erwärmen, begrenzen oder nährstoffreichere Pflanzen kultivieren. Es ist aber auch wichtig, den individuellen Fleischkonsum zu reduzieren und der globalen Zunahme des Fleischkonsums – mit all seinen Folgen für das Weltklima, die wir beispielsweise hier im Zusammenhang mit Methan untersucht haben – entgegenzuwirken“, resümmiert Manning.

Kontakt
Dr. Peter Manning
Senckenberg Biodiversität und Klima Forschungszentrum
Tel. 069- 7542 1913
Peter.manning@senckenberg.de

Sabine Wendler
Pressestelle
Senckenberg Biodiversität und Klima Forschungszentrum
Tel. 069- 7542 1818
Sabine.wendler@senckenberg.de

Royal Botanical Gardens, Kew
Pressestelle
Tel. +44 (0)20 8332 5607
pr@kew.org

Publikation
Lee, M.A et al. (2017): Forage quality declines with rising temperatures, with implications for livestock production and methane emissions. Biogeosciences, doi: 10.5194/bg-14-1403-2017

Pressemitteilung und Bildmaterial finden Sie auch unter www.senckenberg.de/presse

Die Natur mit ihrer unendlichen Vielfalt an Lebensformen zu erforschen und zu verstehen, um sie als Lebensgrundlage für zukünftige Generationen erhalten und nachhaltig nutzen zu können – dafür arbeitet die Senckenberg Gesellschaft für Naturforschung seit nunmehr 200 Jahren. Ausstellungen und Museen sind die Schaufenster der
Naturforschung, durch die Senckenberg aktuelle wissenschaftliche Ergebnisse mit den Menschen teilt und Einblicke in vergangene und gegenwärtige Veränderungen der Natur vermittelt. Die Senckenberg Gesellschaft für Naturforschung ist ein Mitglied der Leibniz-Gemeinschaft. Das Senckenberg Naturmuseum in Frankfurt am Main wird von der Stadt Frankfurt am Main sowie weiteren Sponsoren und Partnern gefördert. Mehr Informationen unter www.senckenberg.de.

200 Jahre Senckenberg! 2017 ist Jubiläumsjahr bei Senckenberg – die 1817 gegründete Gesellschaft forscht seit 200 Jahren mit Neugier, Leidenschaft und Engagement für die Natur. Seine 200-jährige Erfolgsgeschichte feiert Senckenberg mit einem bunten Programm, das aus vielen Veranstaltungen, eigens erstellten Ausstellungen und einem großen Museumsfest im Herbst besteht. Natürlich werden auch die aktuelle Forschung und zukünftige Projekte präsentiert. Mehr Infos unter: www.200jahresenckenberg.de

The Royal Botanic Gardens, Kew is a world famous scientific organisation, internationally respected for its outstanding collections as well as its scientific expertise in plant diversity, conservation and sustainable development in the UK and around the world. Kew Gardens is a major international and a top London visitor attraction. Kew’s 132 hectares of landscaped gardens, and Kew’s country estate, Wakehurst, attract over 1.5 million visits every year. Kew was made a UNESCO World Heritage Site in July 2003 and celebrated its 250th anniversary in 2009. Wakehurst is home to Kew’s Millennium Seed Bank, the largest wild plant seed bank in the world. www.kew.org

Scotland’s Rural College (SRUC) delivers comprehensive skills, education and business support for Scotland’s land-based industries, founded on world class and sector-leading research, education and consultancy. www.sruc.ac.uk

Anhang
PM zum Download
https://idw-online.de/de/attachment56958

Quelle: idw

(nach oben)


„Seit Anbeginn der Zeit“ – DNA bestätigt einzigartige Bindung australischer Ureinwohner an ihr Land

Petra Mader Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Menschheitsgeschichte / Max Planck Institute for the Science of Human History

Die DNA aus Haarproben der Ureinwohner Australiens zeigt ein ausgeprägtes geographisches Muster, das darauf hindeutet, dass die jeweiligen Bevölkerungsgruppen bis zu 50.000 Jahre lang in derselben Region siedelten. Die heute in Nature veröffentlichten Ergebnisse betonen damit die einzigartige Bindung der Ureinwohner Australiens zu ihrem Land und zeichnen erstmals eine detaillierte genetische Karte Australiens vor Ankunft der Europäer. Die Studie entstand im Rahmen des Aboriginal Heritage Projects unter Leitung der Universität Adelaide und des South Australian Museums, an dem auch Wolfgang Haak, vom Max-Planck-Institut für Menschheitsgeschichte in Jena maßgeblich beteiligt ist.

Die Ureinwohner Australiens sind dem Land, das sie besiedeln, in besonderer Weise verbunden. So siedeln die rund 400 Sprach- und Regionalgruppen bereits seit bis zu 50.000 Jahren – und damit seit kurz nach der Besiedlung Australiens überhaupt – kontinuierlich in derselben Region. Das zeigt die DNA aus Haarproben von Aborigines, die im South Australian Museum in Adelaide aufbewahrt werden.

Die Sammlung von über 5000 Haarproben, die durch einen wahren Schatz an vielfältigen kulturellen, sprachlichen, genealogischen und geographische Daten bereichert wird, stammt aus Expeditionen des Anthropologischen Forschungsvorstands der Universität Adelaide zwischen 1928 und den 1970er Jahren. Die Haarspender waren mehrheitlich Nachfahren erster und zweiter Generation von Familien, die nach der Besiedlung Australiens durch die Europäer aus vielen Regionen Australiens zwangsweise in Gemeinden und Missionen wie Cherbourg in Queensland, sowie Koonibba und Point Pearce in Südaustralien umgesiedelt wurden.

Für ihre Studien analysierten die Wissenschaftler die mitochondriale DNA von 111 Haarproben, welche die Rückverfolgung der mütterlichen Linie ermöglicht und mit dem in den Genealogien dokumentierten ursprünglichen Geburts- oder Herkunftsort der ältesten mütterlichen Vorfahrin verknüpft werden konnte. Sowohl die Gewinnung der Haarproben als auch die jetzige Analyse durch die Wissenschaftler erfolgte mit Zustimmung der Haarspender bzw. ihrer Familien.

Die Ergebnisse zeigen, dass die modernen Aborigines Australiens die Nachfahren einer einzigen Gründerpopulation sind, die vor 50 000 Jahren Australien besiedelte, als es noch im Urkontinent „Sahul“ durch eine Landbrücke mit Neuguinea verbunden war. Nach Anstieg des Meeresspiegels spaltete sich die Population weiter auf und breitete sich innerhalb von nur 1 500 bis 2 000 Jahren entlang der Ost- und Westküste Australiens aus. Irgendwo im Süden des Kontinents trafen diese zwei Ströme dann wieder aufeinander, wo die frühesten archäologischen Funde auf 48 000 Jahr datieren.

„Überraschenderweise scheint es so, dass die Populationsmuster aus dieser Zeit die nächsten fast 50.000 Jahre überdauerten. Das zeigt, dass die ersten Besiedler des Kontinents sich rasch regional aufgliederten und ihren jeweiligen geografischen Regionen treu blieben und zwar selbst dann, wenn es keine natürlichen Grenzen zwischen diesen Regionen gab“, sagt Professor Alan Cooper, Projektleiter und Direktor des ACAD. „Das ist weltweit einmalig und liefert überzeugende Beweise für die bemerkenswerte kulturelle und spirituelle Bindung der Aborigines an ihr Land. Wir hoffen, dass dieses Projekt zu einer Umschreibung der Australischen Geschichtsbücher führt. Sie werden in Zukunft auch eine detaillierte Geschichte der Ureinwohner Australiens enthalten und darüber berichten, was es bedeutet, 50 000 Jahre in einem Land gelebt zu haben – das ist in etwa zehn Mal so lang wie die gesamte Geschichte Europas, die üblicherweise gelehrt wird.“

Das Aboriginal Heritage Project unter Leitung des Australischen Zentrums für Alte DNA (ACAD) der Universität Adelaide und des South Australian Museums ist auf Jahrzehnte angelegt. Ziel des Projekts ist es, Menschen, die Aborigine-Herkunft haben, aber kulturell entwurzelt sind, zu ermöglichen, ihre regionale Herkunft nachzuvollziehen und ihre genealogische Familiengeschichte zu rekonstruieren. Darüber hinaus soll das Projekt die Rückführung von australischen Artefakten (Kulturgütern) unterstützen, welche in Überseesammlungen der Kolonialzeit aufbewahrt werden.

„Wir Aborigines haben immer gewusst, dass wir seit Anbeginn der Zeit auf unserem Land waren“, sagt Kaurna Mr Lewis O’Brien, einer der damaligen Haarspender und heute Mitglied des wissenschaftlichen Beirats der Studie. „Es ist jedoch wichtig, dies mit Hilfe von moderner Wissenschaft dem Rest der Welt zu zeigen. Dies ist ein aufregendes Projekt und wir hoffen, dass es Menschen aus unserer ‚Gestohlenen Generation‘ und anderen dabei helfen wird, sich wieder mit ihren Familien zu vereinen.“

„Die ehemalige staatliche Politik der Zwangsumsiedlung und der gezielten Wegnahme von Kindern, der sogenannten ‚Gestohlenen Generation‘ macht die Rekonstruktion der genetischen Geschichte der ursprünglichen Bevölkerung Australiens zu einem schwierigen Unterfangen, da diese Agenda einen großen Teil der physischen und spirituellen Verbindung zwischen Gruppen und ihrem Land im heutigen Australien zerstört hat“, sagt Dr. Wolfgang Haak, ehemals Wissenschaftler am ACAD und Co-Initiator der Studie, und heute Forschungsgruppenleiter am Max-Planck-Institut für Menschheitsgeschichte in Jena. „Die umfangreichen Aufzeichnungen der anthropologischen Teams um Norman Tindale und Joseph Birdsell zeigen nicht nur eine enorme wissenschaftliche Weitsicht, sondern eröffnen uns eine wirklich einzigartige Gelegenheit, die eigentliche Menschheitsgeschichte Australiens zu schreiben. Dafür möchte ich im Besonderen auch den Familien in Cherbourg, Koonibba und Point Pearce danken, die uns nicht nur herzlich empfangen haben, sondern dieses Projekt mit Begeisterung unterstützen.“

Die zukünftige Forschung wird sich auch auf die väterlichen Linien und das Genom des Zellkerns erstrecken. Teammitglied Dr. Ray Tobler, Postdoktorand am ACAD und väterlicherseits mit Aborigine-Abstammung, hat ein Stipendium des australischen Forschungsrats (ARC), um die AHP-Forschung zu erweitern und zu untersuchen, inwieweit die Jahrtausende währende „Standorttreue“ in verschiedenen Lebensräumen die bemerkenswerte phänotypische Vielfalt heutiger Ureinwohner Australiens geprägt hat.

Weitere Forschungspartner
Weitere Forschungspartner sind die La Trobe University, die Deakin University und das National Center for Indigenous Genomics in Canberra. Das Projekt wird durch das ARC-Linkage Programm mit zusätzlicher Forschungsförderung der Australian Genome Research Facility, Bioplatforms Australia, dem ARC Center of Excellence für Mathematische und Statistische Grenzen und der National Geographic Society finanziert.

Orginalveröffentlichung
Ray Tobler, Adam Rohrlach, Julien Soubrier1, Pere Bover, Bastien Llamas, Jonathan Tuke, Nigel Bean, Ali Abdullah-Highfold, Shane Agius, Amy O’Donoghue, Isabel O’Loughlin, Peter Sutton5, Fran Zilio, Keryn Walshe, Alan N. Williams, Chris S.M. Turney, Matthew Williams, Stephen M. Richards, Robert J. Mitchell, Emma Kowal, John R. Stephen, Lesley Williams, Wolfgang Haak, and Alan Cooper: Aboriginal mitogenomes reveal 50,000 years of regionalism in Australia. Nature. Doi:10.1038/nature21416

Weitere Informationen
Max-Planck-Institut für Menschheitsgeschichte
Dr. Wolfgang Haak
Forschungsgruppenleiter Molekulare Anthropologie
+49 3641 686-642

Quelle: idw

(nach oben)


Wetter-Extreme: Menschheit verändert wahrscheinlich gigantische Luftströme

Jonas Viering, Sarah Messina Presse- und Öffentlichkeitsarbeit
Potsdam-Institut für Klimafolgenforschung

Die Zunahme verheerender sommerlicher Wetter-Extreme steht wahrscheinlich in Verbindung mit dem vom Menschen verursachten Klimawandel, wie immer mehr Belege zeigen. Gigantische Luftströme umkreisen die Erde, wellenförmig schwingen sie zwischen Tropen und Arktis auf und ab. Diese planetaren Wellen transportieren Wärme und Feuchte. Wenn sie ins Stocken kommen, können Dürren oder Fluten entstehen. Die globale Erwärmung durch Treibhausgase aus fossilen Brennstoffen schafft Bedingungen, welche ein solches Stocken begünstigen, so hat jetzt ein internationales Team von Wissenschaftlern herausgefunden.

„Die kalifornische Dürre 2016, die Überschwemmung in Pakistan 2010 und die Hitzewelle in Europa 2003 zählen alle zu einer äußerst beunruhigenden Serie von Extremen“, sagt Michael Mann von der Pennsylvania State University in den USA, Leit-Autor der in Scientific Reports erscheinenden Untersuchung. „Solche Ereignisse treten öfter auf, als durch die direkte Wirkung der globalen Erwärmung zu erwarten wäre. Also muss es hier einen zusätzlichen Effekt des Klimawandels geben. In Daten aus Computer-Simulationen wie auch aus Beobachtungen sehen wir Veränderungen, die ungewöhnlich anhaltende, extreme Mäander des Jet-Streams begünstigen, und diese wiederum unterstützen das Entstehen von Wetter-Extremen. Die Menschheit stand schon lange im Verdacht, zu diesen Mustern beizutragen. Aber jetzt entdecken wir einen deutlichen Fingerabdruck der menschlichen Aktivität.“

+++ Wie aus Sonnentagen eine heftige Hitzewelle wird +++

„Wenn dasselbe Wetter wochenlang anhält, dann kann in einer Region aus sonnigen Tagen eine heftige Hitzewelle werden, oder Dauerregen führt zu Fluten“, erklärt Ko-Autor Stefan Rahmstorf vom Potsdam-Institut für Klimafolgenforschung (PIK). „Dies tritt unter besonderen Bedingungen auf, die eine sogenannte quasi-resonante Verstärkung begünstigen. Diese lässt die Nord-Süd-Windungen des Jetstreams sehr groß werden, und sie lässt die Vorwärtsbewegung der Wellen von West nach Ost stocken. Hier den menschlichen Fingerabdruck dingfest zu machen, das ist fortgeschrittene Detektivarbeit.“

Luftströme werden großteils von Temperaturunterschieden zwischen dem Äquator und den Polen angetrieben. Weil die Arktis sich schneller erwärmt als andere Regionen, nehmen diese Temperaturunterschiede ab. Außerdem erwärmen sich die Landmassen schneller als die Ozeane, besonders im Sommer. Beide Veränderungen wirken sich auf die weltumspannenden Winde aus. Hierzu zählen auch die gigantischen Luftströme, die planetare Wellen genannt werden, weil sie die Nördliche Halbkugel in Form großer Kurven zwischen Tropen und Arktis umkreisen. Die Wissenschaftler entdeckten eine besondere Verteilung von Temperaturen gerade während der Zeiten, in denen die östliche Vorwärtsbewegung der planetaren Wellen stockte, wie Satellitendaten zeigen.

+++ Temperaturmessungen seit 1870 bestätigen Erkenntnisse aus Satellitendaten +++

„Hochwertige Satellitendaten gibt es erst seit vergleichsweise kurzer Zeit – zu kurz, um belastbare Rückschlüsse zu ziehen, wie diese Episoden des Stockens der planetaren Wellen sich über die Zeit hinweg verändert haben. Verlässliche Temperaturmessungen hingegen gibt es seit etwa 1870. Deshalb haben wir diese Messdaten genommen, um die Veränderungen über die Zeit hinweg zu rekonstruieren“, sagt Ko-Autor Kai Kornhuber, ebenfalls vom PIK. „Wir haben uns Dutzende verschiedener Klimamodelle – Computer-Simulationen, CMIP5 genannt – wie auch Beobachtungsdaten angeschaut. Und es stellte sich heraus, dass die Temperaturverteilung, die das Stocken der planetaren Wellen begünstigt, in fast 70 Prozent der Simulationen zugenommen hat.“

Interessanterweise ist der größte Teil dieser Veränderungen erst in den letzten vier Jahrzehnten aufgetreten. „Dass der Jetstream sich öfter über lange Zeit stark windet, ist ein recht neues Phänomen – das macht es noch bedeutsamer“, sagt Ko-Autor Dim Coumou von der Abteilung für Wasser und Klimarisiken an der VU Universität in Amsterdam. „Wir müssen das weiter untersuchen; neben den guten Belegen haben wir weiterhin auch offene Fragen. In jedem Fall sollten solche nicht-lineare Reaktionen des Erdsystems auf die globale Erwärmung besser vermieden werden. Wir können die Risiken der Zunahme von Wetterextremen begrenzen, wenn wir unseren Ausstoß von Treibhausgasen begrenzen.“

Artikel: Michael E. Mann, Stefan Rahmstorf, Kai Kornhuber, Byron A. Steinman, Sonya K. Miller, Dim Coumou (2017): Influence of Anthropogenic Climate Change on Planetary Wave Resonance and Extreme Weather Events. Scientific Reports [DOI: 10.1038/srep45242 2]

Weblink zum Artikel, sobald er veröffentlicht ist (innerhalb 24 Stunden nach Sperrfristende): www.nature.com/articles/srep45242

Weblink zu einem Video, dass die „Planetaren Wellen“ erklärt (nur auf Englisch verfügbar): https://www.youtube.com/watch?v=MzW5Isbv2A0

Kontakt für weitere Informationen:
Potsdam-Institut für Klimafolgenforschung, Pressestelle
Telefon: +49 (0)331 288 2507
E-Mail: presse@pik-potsdam.de
Twitter: @PIK_Klima
www.pik-potsdam.de

Quelle: idw

(nach oben)


Männer mit gestörtem Zuckerstoffwechsel sollten kohlenhydratreiches Essen am Abend meiden

Dr. Gisela Olias Presse- und Öffentlichkeitsarbeit
Deutsches Institut für Ernährungsforschung Potsdam-Rehbrücke

Wie eine Ernährungsstudie unter Führung des Deutschen Instituts für Ernährungsforschung (DIfE), einem Partner des Deutschen Zentrums für Diabetesforschung, zeigt, beeinflusst auch die sogenannte innere Uhr, wie Menschen mit einer Zuckerstoffwechselstörung auf kohlenhydratreiches Essen reagieren. So wirkte sich bei Männern mit Prädiabetes der abendliche Verzehr von reichlich stärke- und zuckerhaltigen Lebensmitteln negativ auf die Blutzuckerregulation aus. Im Vergleich dazu spielte bei gesunden Studienteilnehmern der Zeitpunkt der Kohlenhydrataufnahme keine wesentliche Rolle für die Blutzuckerregulation.

Die Wissenschaftler um Katharina Keßler, Andreas F. H. Pfeiffer, Olga Pivovarova und Natalia Rudovich vom DIfE publizierten ihre Ergebnisse nun in der Fachzeitschrift Scientific Reports (Kessler et al. 2017; DOI: 10.1038/srep44170).

Seit Langem ist bekannt, dass die sogenannte innere Uhr eine Rolle für die Regulation von Stoffwechselprozessen spielt und auch der Zuckerstoffwechsel einer bestimmten Tagesrhythmik unterliegt. Zudem weisen neuere Studien an Nagern darauf hin, dass die innere Uhr auch beeinflusst, wie der Stoffwechsel auf die Zufuhr von Kohlenhydraten oder Fetten reagiert und dass bestimmte Zeitfenster für den Verzehr einer kohlenhydratreichen oder fettreichen Kost aus gesundheitlicher Sicht besser geeignet sind als andere. Ebenso kamen Beobachtungsstudien am Menschen zu dem Ergebnis, dass Personen, die morgens kohlenhydratreich, aber fettarm essen, ein vermindertes Risiko für Typ-2-Diabetes oder das metabolische Syndrom besitzen. Letzteres ist durch Symptome wie übermäßige Fetteinlagerungen im Bauchraum, Bluthochdruck sowie einen gestörten Zucker- und Fettstoffwechsel charakterisiert. Das genaue Zusammenspiel zwischen der Ernährungsweise und der tagesrhythmischen Regulation des Zuckerstoffwechsels ist jedoch noch nicht hinreichend erforscht.

Um mehr über die physiologischen Mechanismen zu erfahren, die diesem Zusammenspiel zugrunde liegen, führten die Wissenschaftler am DIfE eine Ernährungsstudie an insgesamt 29 Männern durch. Sie waren im Schnitt etwa 46 Jahre alt und hatten einen durchschnittlichen Body-Mass-Index von 27, das heißt, sie waren normal- bis stark übergewichtig. Bei 11 Personen stellten die Wissenschaftler zu Beginn der Studie eine Zuckerstoffwechselstörung fest. Das bedeutet, die Teilnehmer hatten bereits erhöhte Nüchtern-Blutzuckerwerte oder ihre Blutzuckerwerte sanken nach einem Zuckerbelastungstest deutlich langsamer ab als normal. Bei den restlichen 18 Studienteilnehmern war die Blutzuckerregulation dagegen nicht gestört, ihre Glukosetoleranz war also normal.

Während der Studie mussten die Studienteilnehmer für jeweils vier Wochen zwei unterschiedliche Diäten A und B* einhalten. Beide Diäten lieferten dieselbe Menge an Kalorien, Kohlenhydraten, Fetten und Eiweiß, jedoch unterschieden sie sich darin, zu welcher Tageszeit die Teilnehmer vorwiegend Kohlenhydrate oder Fette verzehrten. So aßen Studienteilnehmer nach Diätplan A von morgens bis 13:30 Uhr kohlenhydratbetont und von 16:30 bis 22:00 Uhr fettbetont. Nach Diätplan B verzehrten sie vormittags fettreiche und nachmittags und abends kohlenhydratreiche Speisen. Begleitend zu den jeweiligen Ernährungsumstellungen untersuchten die Wissenschaftler verschiedene Stoffwechselwerte der Studienteilnehmer.

„Wie unsere Studie zeigt, ist es zumindest für Männer mit einer Zuckerstoffwechselstörung relevant, zu welcher Tageszeit sie eine kohlenhydratreiche Mahlzeit verzehren. Verglichen wir die nach den beiden Diäten gemessenen Blutzuckerwerte, so lagen ihre Blutzuckerspiegel nach Diät B um durchschnittlich 7,9 Prozent höher als nach Diät A, bei der die Teilnehmer abends fettbetont aßen. Interessanterweise konnten wir diesen Effekt bei den gesunden Männern nicht beobachten, obwohl wir generell sowohl bei den gesunden als auch den vorbelasteten Personen eine Abnahme der Glukosetoleranz im Tagesverlauf feststellten. Diese fiel bei Letzteren allerdings deutlich stärker aus“, sagt Erstautorin Keßler. Des Weiteren beobachteten die Forscher bei den vorbelasteten Männern eine veränderte Sekretion der Darmhormone Glucagon-like peptide-1 (GLP-1)** und Peptid YY (PYY)***, die zur Regulation des Zuckerstoffwechsels bzw. des Körpergewichts beitragen und deren Ausschüttung einer bestimmten Tagesrhythmik unterliegt. So sanken bei vorbelasteten Personen parallel zur deutlich ausgeprägten, nachmittäglichen Abnahme der Glukosetoleranz die Blutspiegel der beiden Hormone wesentlich stärker ab als bei gesunden Studienteilnehmern.

„Die zirkadiane Rhythmik der Hormonausschüttung beeinflusst also, wie wir auf Kohlenhydrate reagieren“, sagt Endokrinologe Pfeiffer, der am DIfE die Abteilung Klinische Ernährung leitet. Daher empfehlen Diabetologin Rudovich und Wissenschaftlerin Pivovarova insbesondere Menschen, die bereits unter einer Störung des Zuckerstoffwechsels leiden, sich nach ihrer inneren Uhr zu richten und am Abend kohlenhydratreiche Mahlzeiten zu meiden.

Hintergrundinformationen:
An der Untersuchung nahmen nur Männer teil, da die Untersuchung zirkadianer Rhythmen bei Frauen auf Grund des Menstruationszyklus erheblich erschwert ist.

* Bei beiden Diäten A und B lag der Gesamtanteil der Kohlenhydrate an der Energiezufuhr bei 50 Prozent, der der Fette bei 35 Prozent und der des Eiweiß bei 15 Prozent, was einer ausgewogenen Ernährung entspricht. In dem Zeitfenster, in dem verstärkt Kohlenhydrate verzehrt werden sollten, d. h. in der kohlenhydratreichen Diätphase, lag der Anteil der Kohlenhydrate an der Energiezufuhr bei 65 Prozent, der der Fette bei 20 Prozent und der des Eiweiß bei 15 Prozent. Dagegen lag in der fettbetonten Diätphase der Anteil der Kohlenhydrate an der Energiezufuhr bei 35 Prozent, der der Fette bei 50 Prozent und der des Eiweiß bei 15 Prozent. Jeweils 50 Prozent der täglich aufgenommenen Kalorien entfiel auf die kohlenhydrat- bzw. die fettreiche Phase.

** Glucagon-like peptide-1 (GLP-1): Im Darm setzen sogenannte L-Zellen GLP-1 frei, nachdem sie durch Kohlenhydrate (z. B. Zucker), Eiweiße oder Fette stimuliert wurden. Das Peptidhormon hat eine Halbwertszeit von weniger als zwei Minuten, stimuliert die Insulinfreisetzung und hemmt gleichzeitig die Ausschüttung des hormonellen Insulingegenspielers Glucagon. Beides führt dazu, dass der Blutzuckerspiegel sinkt. Zudem weisen Untersuchungen darauf hin, dass es die Insulinempfindlichkeit der Beta-Zellen in der Bauchspeicheldrüse wiederherstellt und gleichzeitig ihrem Absterben entgegenwirkt. Darüber hinaus verzögert es die Aufnahme von Kohlenhydraten aus dem Darm und wirkt sättigend (Quelle: Wikipedia).

*** Peptid YY (PYY) wird nach dem Essen von bestimmten Zellen der Darmschleimhaut ins Blut abgegeben. PYY hemmt die Magenentleerung, die exokrine Pankreassekretion sowie die Magensekretion. Hierdurch wird die Entleerung von fetthaltiger Nahrung in den Dünndarm verzögert und so eine bessere Verdauung ermöglicht. PYY beeinflusst ebenfalls sehr stark das Appetit- und Sättigungsgefühl und führt hierüber zu einer reduzierten Nahrungsaufnahme (Quelle: Wikipedia).

Das Deutsche Institut für Ernährungsforschung Potsdam-Rehbrücke (DIfE) ist Mitglied der Leibniz-Gemeinschaft. Es erforscht die Ursachen ernährungsassoziierter Erkrankungen, um neue Strategien für Prävention, Therapie und Ernährungsempfehlungen zu entwickeln. Zu seinen Forschungsschwerpunkten gehören die Ursachen und Folgen des metabolischen Syndroms, einer Kombination aus Adipositas (Fettsucht), Hypertonie (Bluthochdruck), Insulinresistenz und Fettstoffwechselstörung, die Rolle der Ernährung für ein gesundes Altern sowie die biologischen Grundlagen von Nahrungsauswahl und Ernährungsverhalten. Das DIfE ist zudem ein Partner des 2009 vom BMBF geförderten Deutschen Zentrums für Diabetesforschung (DZD; https://www.dzd-ev.de/).

Die Leibniz-Gemeinschaft (https://www.leibniz-gemeinschaft.de/start/) verbindet 91 selbständige Forschungseinrichtungen. Ihre Ausrichtung reicht von den Natur-, Ingenieur- und Umweltwissenschaften über die Wirtschafts-, Raum- und Sozialwissenschaften bis zu den Geisteswissenschaften. Leibniz-Institute widmen sich gesellschaftlich, ökonomisch und ökologisch relevanten Fragen. Sie betreiben erkenntnis- und anwendungsorientierte Forschung, auch in den übergreifenden Leibniz-Forschungsverbünden, sind oder unterhalten wissenschaftliche Infrastrukturen und bieten forschungsbasierte Dienstleistungen an. Die Leibniz-Gemeinschaft setzt Schwerpunkte im Wissenstransfer, vor allem mit den Leibniz-Forschungsmuseen. Sie berät und informiert Politik, Wissenschaft, Wirtschaft und Öffentlichkeit. Leibniz-Einrichtungen pflegen enge Kooperationen mit den Hochschulen – u.a. in Form der Leibniz-WissenschaftsCampi, mit der Industrie und anderen Partnern im In- und Ausland. Sie unterliegen einem transparenten und unabhängigen Begutachtungsverfahren. Aufgrund ihrer gesamtstaatlichen Bedeutung fördern Bund und Länder die Institute der Leibniz-Gemeinschaft gemeinsam. Die Leibniz-Institute beschäftigen rund 18.600 Personen, darunter 9.500 Wissenschaftlerinnen und Wissenschaftler. Der Gesamtetat der Institute liegt bei mehr als 1,7 Milliarden Euro.

Kontakt:
Prof. Dr. Andreas F. H. Pfeiffer
Abteilung Klinische Ernährung
Deutsches Institut für Ernährungsforschung
Potsdam-Rehbrücke (DIfE)
Arthur-Scheunert-Allee 114-116
14558 Nuthetal/Deutschland
Tel.: +49 (0)30 45051-4422
Tel.: +49 (0)33200 88-2771
E-Mail: afhp@dife.de
E-Mail: afhp@charite.de

PD Dr. Natalia Rudovich
Seit kurzem in der Schweiz tätig:
Division of Endocrinology and Diabetology
Department of Internal Medicine
Spital Bülach
Spitalstrasse 24
CH-8180 Bülach/Switzerland
Tel. +41 (0)44 863 25 30
E-Mail: natalia.rudovich@spitalbuelach.ch

Dr. Olga Pivovarova
Abteilung Klinische Ernährung
Deutsches Institut für Ernährungsforschung
Potsdam-Rehbrücke (DIfE)
Arthur-Scheunert-Allee 114-116
14558 Nuthetal/Deutschland
E-Mail: olga.pivovarova@dife.de

Katharina Keßler
Abteilung Klinische Ernährung
Deutsches Institut für Ernährungsforschung
Potsdam-Rehbrücke (DIfE)
Arthur-Scheunert-Allee 114-116
14558 Nuthetal/Deutschland
E-Mail: katharina.kessler@dife.de

Weitere Informationen:
https://www.ncbi.nlm.nih.gov/pubmed/28272464 Wissenschaftliche Kurzfassung der Studie in PubMed
http://www.dife.de/forschung/abteilungen/kurzprofil.php?abt=KLE Abteilung Klinische Ernährung am DIfE

Quelle: idw

(nach oben)


Rück- statt Fortschritt: Automatisches Vertretungsrecht für Eheleute gefährdet Patientenautonomie

lic. phil. Jürg Beutler Presse- und Öffentlichkeitsarbeit
Deutsche Gesellschaft für Psychiatrie und Psychotherapie, Psychosomatik und Nervenheilkunde (DGPPN)

Am Mittwoch berät der Ausschuss für Recht und Verbraucherschutz des Bundestages in einer öffentlichen Anhörung über einen neuen Gesetzesentwurf, mit dem der Bundesrat das Vertretungsrecht für Ehegatten und Lebenspartner im Fall einer schweren Erkrankung oder eines Unfalls reformieren will. Die DGPPN bewertet das Gesetzesvorhaben in einer heute veröffentlichten Stellungnahme kritisch: Aus medizinischer Sicht ist eine Neuregelung weder notwendig noch sinnvoll und sollte aktuell nicht weiterverfolgt werden.

Eheleute und eingetragene Lebenspartner sollen künftig automatisch für den Partner Entscheidungen über medizinische Behandlungen treffen können, wenn dieser aufgrund einer psychischen Erkrankung oder einer körperlichen oder geistigen Behinderung dazu nicht mehr in der Lage ist. Das sieht ein Gesetzesentwurf des Bundesrats vor, zu dem das Bundeskabinett im Februar einen Änderungsantrag beschlossen hat. In einer öffentlichen Anhörung berät morgen der Ausschuss für Recht und Verbraucherschutz über beide Vorlagen.

Die DGPPN sieht die Entwürfe kritisch und empfiehlt in einer heute veröffentlichten Stellungnahme dringend, die Neuregelung nicht umzusetzen. „Die geplante Ermächtigung der Eheleute beschränkt das Selbstbestimmungsrecht der Betroffenen auf unnötige Weise. Wer im Fall seiner Einwilligungsunfähigkeit eine Vertretung durch seinen Partner wünscht, kann und sollte eine Vorsorgevollmacht und eine Patientenverfügung verfassen. Auch wenn sich der überwiegende Teil der Bevölkerung eine Vertretung durch den Partner wünscht, darf daraus nicht geschlossen werden, dass dies auch für die Menschen zutrifft, die keine schriftliche Vorausverfügung getroffen haben. Vielleicht ist in diesen Fällen genau das Gegenteil der Fall“, stellt DGPPN-Präsident Professor Arno Deister fest.

Aus Sicht der Fachgesellschaft setzt der Gesetzesentwurf deshalb ein falsches Signal. „Er würde in der Bevölkerung die falsche Überzeugung stärken, dass Vorausverfügungen gar nicht mehr notwendig seien. Damit würde in Deutschland die Patientenautonomie nicht weiter gefördert, sondern gefährdet.“, so Professor Thomas Pollmächer, der bei der DGPPN der Task-Force „Patientenautonomie“ vorsteht. „Gerade bei psychischen Erkrankungen gibt es immer wieder erhebliche Konflikte zwischen Partnern. In solchen Situationen ist oft ein unabhängiger Betreuer die wesentlich bessere Lösung. Die geplante pauschale Ermächtigung – und insbesondere auch das pauschale Recht zum Einblick in die Krankenakte – drängt Partner aber zu Entscheidungen, die das partnerschaftliche Verhältnis zu einem späteren Zeitpunkt enorm belasten können.“

In ihrer Stellungnahme führt die DGPPN eine Vielzahl weiterer Gründe auf, die gegen eine Umsetzung der Gesetzesvorlage sprechen.

Weitere Informationen:
http://www.dgppn.de/presse/pressemitteilungen/detailansicht/article//rueck-statt…

Quelle: idw

(nach oben)


Gefährdete Giganten: Große Süßwasser-Tierarten sind weltweit am stärksten vom Aussterben bedroht

Angelina Tittmann Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)

Süßwasser-Megafauna wie Flussdelfine, Krokodile oder Störe haben eine enorm große Bedeutung für ihr jeweiliges Ökosystem. In einer aktuellen Fachpublikation zeigen Forscher des Leibniz-Instituts für Gewässerökologie und Binnenfischerei (IGB) gemeinsam mit internationalen Kollegen, wodurch diese großen Wirbeltierarten heute bedroht sind, und rufen dazu auf, sie gründlicher zu erforschen und besser zu schützen. So könnten auch Süßwasserökosysteme, die weltweit besonders stark vom Rückgang der Biodiversität betroffen sind, insgesamt effektiver bewahrt werden.

Viele große aquatische Wirbeltierarten, sogenannte Süßwasser-Megafauna, legen lange Wegstrecken zwischen ihren Brut- und Futterplätzen zurück. Sie sind auf durchgängige Fließgewässer angewiesen. Das macht sie jedoch besonders anfällig für die zunehmende Fragmentierung von Flussgebieten durch Dämme. Diese versperren beispielsweise dem Russischen Stör den Zugang zu 70 Prozent seiner Laichplätze vom Kaspischen Meer aus sowie sämtliche Laichplätze, die ursprünglich vom Schwarzen Meer aus erreichbar waren. Auch viele andere Arten wie die Amazonas-Seekuh, der Ganges-Flussdelfin und der Mekong-Riesenwels sind vom Staudammboom betroffen und gelten inzwischen als bedroht. „Die Fragmentierung von Lebensräumen ist neben der Übernutzung von Binnengewässern eine der zentralen Bedrohungen für Süßwasser-Megafauna“, sagt Fengzhi He. Der IGB-Wissenschaftler ist Hauptautor der Studie über das Verschwinden großer Wirbeltierarten aus Flüssen und Seen, die kürzlich in der Fachzeitschrift WIREs Water erschienen ist. Weltweit seien mehr als die Hälfte der Wirbeltiere, die in Süßwasserökosystemen leben und ausgewachsen mindestens 30 Kilogramm Gewicht auf die Waage bringen, nach der Roten Liste gefährdeter Arten der Weltnaturschutzunion (IUCN) gefährdet oder sogar akut vom Aussterben bedroht.

Dabei spielt die Süßwasser-Megafauna eine Schlüsselrolle in ihren jeweiligen Ökosystemen: Aufgrund ihrer Größe stehen viele Megafauna-Arten an der Spitze der Nahrungskette, ihre Ausrottung hätte Einfluss auf die meisten anderen Lebewesen im lokalen Ökosystem. So gestaltet beispielsweise der eurasische und amerikanische Biber durch seine Lebensweise ganze Flussläufe, was unter anderem Auswirkungen auf biochemische und hydrologische Prozesse hat; Mississippi-Alligatoren schaffen und erhalten in den Everglades kleine Teiche, die Lebensraum für viele Pflanzen und kleinere Tiere sind. „Die Bedeutsamkeit von Süßwasser-Megafauna für die Biodiversität und für den Menschen kann gar nicht hoch genug eingeschätzt werden“, so Fengzhi He. In der vorliegenden Publikation beschreibt er gemeinsam mit Kollegen der IUCN, der Universität Tübingen und der Queen Mary University of London, welche Faktoren Süßwasser-Megafauna bedrohen. Neben dem Verbau und der Fragmentierung der Gewässer durch Dämme sind dies Übernutzung, Umweltverschmutzung, Lebensraumzerstörung und Arteninvasion sowie die mit dem Klimawandel einhergehenden Änderungen.

Was Megafauna-Arten für den Einfluss von außen besonders anfällig macht, sind ihre lange Lebenserwartung, stattliche Körpergröße, späte Geschlechtsreife und geringe Fruchtbarkeit, so die Autoren. Trotz der akuten Bedrohung vieler Arten wurden sie in bisherigen wissenschaftlichen Bestrebungen zur Erforschung und zum Erhalt weitgehend vernachlässigt. Fengzhi He und seine Co-Autoren fordern, Verbreitungsmuster, Lebensgeschichte und Populationsdynamik von Süßwasser-Megafauna besser zu erforschen. Da Binnengewässer zu den weltweit am stärksten bedrohten Ökosystemen zählen und der Verlust der Biodiversität hier schneller voranschreitet als in marinen und terrestrischen Systemen, sei es umso wichtiger, nachhaltige Naturschutzstrategien für Süßwasserökosysteme und ihre Süßwasser-Megafauna zu entwickeln.

Link zur Studie
http://onlinelibrary.wiley.com/doi/10.1002/wat2.1208/full

He, F., Zarfl, C., Bremerich, V., Henshaw, A., Darwall, W., Tockner, K. and Jähnig, S. C. (2017), Disappearing giants: a review of threats to freshwater megafauna. WIREs Water, e1208. doi:10.1002/wat2.1208

Ansprechpartner
Fengzhi He
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Müggelseedamm 310, 12587 Berlin
fengzhi.he@igb-berlin.de

Dr. Sonja Jähnig
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Justus-von-Liebig-Str. 7, 12489 Berlin
sonja.jaehnig@igb-berlin.de
+49 (0)30 6392 4085

Über das IGB:
http://www.igb-berlin.de

Das IGB ist das bundesweit größte Forschungszentrum für Binnengewässer. Es verbindet Grundlagen- und Vorsorgeforschung, bildet den wissenschaftlichen Nachwuchs aus und berät Politik und Gesellschaft in Fragen des nachhaltigen Gewässermanagements. Forschungsschwerpunkte sind u.a. die Langzeitentwicklung von Seen, Flüssen und Feuchtgebieten angesichts sich rasch ändernder Umweltbedingungen, die Renaturierung von Ökosystemen, die Biodiversität aquatischer Lebensräume sowie Technologien für eine ressourcenschonende Aquakultur. Die Arbeiten erfolgen in enger Kooperation mit den Universitäten und Forschungsinstitutionen der Region Berlin/Brandenburg und weltweit. Das IGB gehört zum Forschungsverbund Berlin e. V., einem Zusammenschluss von acht natur-, lebens- und umweltwissenschaftlichen Instituten in Berlin. Die vielfach ausgezeichneten Einrichtungen sind Mitglieder der Leibniz-Gemeinschaft.

Quelle: idw

(nach oben)


Schwangerschaft begünstigt neue, hochpathogene Grippevirus-Varianten

Dr. Franziska Ahnert Presse- und Öffentlichkeitsarbeit
Heinrich-Pette-Institut – Leibniz-Institut für Experimentelle Virologie

Die Immunantwort bei Schwangeren führt zu schweren Krankheitsverläufen und neuen, hochvirulenten H1N1-Stämmen

Die Immunantwort während der Schwangerschaft verstärkt nicht nur die Pathogenität von H1N1-Grippeviren, sondern begünstigt auch die Entstehung neuer, hoch-virulenter Stämme. Zu diesen Ergebnissen gelangt eine kooperative Studie der Forschungsgruppe Virale Zoonosen am Heinrich-Pette-Institut, Leibniz-Institut für Experimentelle Virologie (HPI) unter der Leitung von Prof. Gülsah Gabriel und dem Labor Feto-Maternale Medizin am Universitätsklinikum Hamburg-Eppendorf (UKE) unter der Leitung von Prof. Petra Arck, die nun in dem renommierten Fachjournal „Cell Host & Microbe“ erschienen ist.

Aus Sicht des Immunsystems stellt eine Schwangerschaft eine einzigartige Situation dar, denn der Fötus trägt zur Hälfte auch väterliche Antigene. „Das mütterliche Immunsystem reagiert mit einer gezielten Immuntoleranz, um sicherzugehen, dass der Fötus nicht wie ein Transplantat abgestoßen wird“, erklärt Prof. Petra Arck. „Bei einer Grippevirus-Infektion ist dagegen eine schnelle Immunantwort notwendig, um sich gegen die Viren zur Wehr zu setzen“ ergänzt Prof. Gülsah Gabriel. Aufgrund dieser entgegengesetzten immunologischen Anforderungen sind schwangere Frauen die größte Risiko-Gruppe für schwere, teilweise tödliche, Grippeverläufe. Über die genauen Ursachen dafür liegen bisher jedoch nur wenige Erkenntnisse vor.

In der nun erschienenen Studie ist es den Teams um Gabriel und Arck gelungen, die Vorgänge im Immunsystem bei einer Infektion mit dem Grippevirus pH1N1 während einer Schwangerschaft genauer zu charakterisieren. Mithilfe eines Mausmodells konnte gezeigt werden, dass die anti-virale Immunantwort in trächtigen Muttertieren deutlich abgeschwächt ist und die Infektion sehr viel schwerer verläuft als bei den nicht-trächtigen Tieren. Zudem ist es gelungen, die Bildung neuer, hochvirulenter Grippevirus-Varianten in den trächtigen Tieren nachzuweisen.

„Unsere Ergebnisse zeigen eindrucksvoll, wie wichtig es ist, dass sich gerade schwangere Frauen mit einer Impfung vor Grippeinfektionen schützen. Zudem können die Erkenntnisse aber auch die Grundlage für neue therapeutische Ansätze liefern“, erklärt Prof. Gülsah Gabriel, Leiterin der HPI-Forschungsgruppe „Virale Zoonosen und Adaptation“.

Gefördert wurde die Forschungsarbeit mit Mitteln des Deutschen Zentrums für Infektionsforschung (DZIF) sowie dem Fonds National de la Recherche Luxembourg. Weiterhin ist die Studie in die durch die Deutsche Forschungsgesellschaft geförderte Klinische Forschergruppe 296 zum Thema „Feto-Maternale Immunität“ eingebettet, welche Frau Prof. Arck als Sprecherin vertritt.

Die Ergebnisse wurden in der Fachzeitschrift „Cell Host & Microbe“ veröffentlicht:
Géraldine Engels, Alexandra Maximiliane Hierweger, Julia Hoffmann, René Thieme, Swantje Thiele, Stephanie Bertram, Carola Dreier, Patricia Resa-Infante, Henning Jacobsen, Kristin Thiele, Malik Alawi, Daniela Indenbirken, Adam Grundhoff, Svenja Siebels, Nicole Fischer, Violeta Stojanovska, Damián Muzzio, Frederico Jensen, Khalil Karimi, Hans-Willi Mittrücker, Petra Clara Arck & Gülsah Gabriel (2017). Pregnancy-related immune adaptation promotes the emergence of highly virulent H1N1 strains in allogenically-pregnant mice. Cell Host & Microbe, März 2017.

Weitere Informationen:
http://www.hpi-hamburg.de Webseite Heinrich-Pette-Institut
http://www.cell.com/cell-host-microbe/fulltext/S1931-3128%2817%2930082-3 Cell Host & Microbe Veröffentlichung

Anhang

PDF der PM zum Download
https://idw-online.de/de/attachment56802

Quelle: idw

(nach oben)


Methan: Insektenlarven in Seen sind unvermutete „Klimasünder“

Angelina Tittmann Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)

Büschelmücken (Chaoborus spp) sind kleine Fliegen, die mit Ausnahme der Antarktis überall auf der Erde zu finden sind. Wissenschaftler haben entdeckt, dass die Larven dieser Insekten Methan aus den Sedimenten von Seen freisetzen, um es für ihre Fortbewegung zu nutzen. Dieser Mechanismus könnte die Methan-Emissionen in die Atmosphäre erhöhen und somit die globale Erderwärmung beschleunigen. Die Studie, an der die Universität Genf (UNIGE), das Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB), die Universität Potsdam und die Swansea University beteiligt waren, wurde am 14. März im Fachjournal „Scientific Reports“ veröffentlicht.

Büschelmücken (Chaoborus spp) verbringen ein bis zwei Jahre ihres Lebens als Larven unter Wasser. Tagsüber verstecken sich die Tiere vor ihren Feinden im Sediment, zum Fressen kommen sie aber jede Nacht an die Wasseroberfläche. Um sich auf- und abwärts zu bewegen, nutzen die Larven kleine Gassäckchen in ihrem Körper. Indem sie diese befüllen oder entleeren, verändern die Tiere ihre Position im Wasser. „Dies funktioniert jedoch nur bis zu einer Tiefe von etwa 70 Metern“, erklärt Prof. Hans-Peter Grossart, Mitautor der Studie und Wissenschaftler am IGB. „Dann wird der Wasserdruck zu groß für die Larven, um ihre Gaspolster zu füllen.“ Gemeinsam mit Prof. Daniel McGinnis und Dr. Sabine Flury (Universität Genf) sowie Prof. Kam Tang (Universität Swansea) hat er erforscht, wie es den relativ kleinen Tieren dennoch gelingt, an die Wasseroberfläche zu gelangen.

„Wir wissen, dass Methan in großen Mengen in den Sedimenten am Gewässergrund vorkommt und kleine Bläschen formt“, berichtet Daniel McGinnis. Die Wissenschaftler vermuteten deshalb, dass Büschelmücken dieses Gas nutzen, um damit trotz des hohen Wasserdrucks ihre Gassäckchen aufzufüllen. Und tatsächlich, das Methan strömt fast automatisch in die Gassäckchen der kleinen Larven und ermöglicht so den Aufstieg der Tiere an die Wasseroberfläche. Durch diesen Lift-Effekt sparen die Larven bis zu 80 Prozent Energie. Das hilft ihnen zum Beispiel, mit weniger Nahrung auszukommen und neue Lebensräume zu erschließen.

Larven verschärfen den Treibhauseffekt
Methan ist aber auch ein entscheidender Faktor bei der globalen Erderwärmung. Das Gas absorbiert 28 Mal mehr Wärme als Kohlendioxid (CO2). „20 Prozent aller natürlichen Methan-Emissionen stammen aus Binnengewässern“, erklärt Grossart. Normalerweise sei das meiste Gas jedoch in Seesedimenten gespeichert und festgelegt.

Die Wissenschaftler untersuchten deshalb, was mit dem Methan passiert, nachdem es von den Larven freigesetzt wird. „Dafür setzten wir die Larven in ein Gefäß mit Wasser, das wir zuvor mit Methan angereichert hatten“, erklärt McGinnis „Anschließend überführten wir sie in methanarmes Wasser.“ Die Messungen ergaben, dass sich der Methangehalt des Wassers proportional zur Anzahl der Larven erhöht. Mit anderen Worten: Die Larven setzen das Gas aus dem Sediment frei und verteilen es anschließend in der Wassersäule. Auf diesem Weg gelangt Methan nicht nur vermehrt in die Oberflächengewässer, sondern von dort aus auch in die Atmosphäre. Die Tiere fördern damit die globale Erderwärmung, sind sich die Autoren einig.

Schlechte Wasserqualität bietet Larven beste Bedingungen
Büschelmücken gelten als ein Zeichen für den schlechten ökologischen Zustand von Seen. „Die Larven, deren Dichte von 2.000 bis 130.000 Individuen pro Quadratmeter variieren kann, kommen insbesondere in Seen mit schlechter Wasserqualität oder einem zu hohen Nährstoffgehalt vor“, sagt McGinnis. Dies erfordere vor allem Anstrengungen bei der Verbesserung der Wasserqualität und eine Reduktion der Nährstoffeinträge durch Landwirtschaft und Abwässer, um die Freisetzung von Methan künftig zu reduzieren.

Die Studie wurde im Rahmen eines Fellowships am Leibniz-Institut für Gewässerökologie und Binnenfischerei in Neuglobsow durchgeführt.

Link zur Studie:
http://www.nature.com/articles/srep44478

Daniel F. McGinnis, Sabine Flury, Kam W. Tang & Hans-Peter Grossart (2017): Porewater methane transport within the gas vesicles of diurnally migrating Chaoborus spp.: An energetic advantage. Scientific Reports 7:44478, DOI: 10.1038/srep44478.

Ansprechpartner:
Prof. Hans-Peter Grossart
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
E-Mail: hgrossart@igb-berlin.de
Telefon: +49 (0)33082 699 91

Über das IGB:
http://www.igb-berlin.de
Das IGB ist das bundesweit größte Forschungszentrum für Binnengewässer. Es verbindet Grundlagen- und Vorsorgeforschung, bildet den wissenschaftlichen Nachwuchs aus und berät Politik und Gesellschaft in Fragen des nachhaltigen Gewässermanagements. Forschungsschwerpunkte sind u.a. die Langzeitentwicklung von Seen, Flüssen und Feuchtgebieten angesichts sich rasch ändernder Umweltbedingungen, die Renaturierung von Ökosystemen, die Biodiversität aquatischer Lebensräume sowie Technologien für eine ressourcenschonende Aquakultur. Die Arbeiten erfolgen in enger Kooperation mit den Universitäten und Forschungsinstitutionen der Region Berlin/Brandenburg und weltweit. Das IGB gehört zum Forschungsverbund Berlin e. V., einem Zusammenschluss von acht natur-, lebens- und umweltwissenschaftlichen Instituten in Berlin. Die vielfach ausgezeichneten Einrichtungen sind Mitglieder der Leibniz-Gemeinschaft.

Quelle: idw

(nach oben)


Frauen im Job – Psychologe untersucht Vorurteile

Susann Huster Stabsstelle Universitätskommunikation/Medienredaktion
Universität Leipzig

Frauen fahren schlechter Auto als Männer. Sie zeigen weniger Führungsstärke, und Schwangere sind am Arbeitsplatz weniger leistungsfähig als ihre Kollegen: Dies alles sind negative Vorurteile, für die es keinerlei Beweise gibt. Dennoch begegnen sie uns tagtäglich und sie können uns – oft unbewusst – stark beeinflussen. Prof. Dr. Hannes Zacher, Arbeitspsychologe der Universität Leipzig, erforscht dieses Phänomen, das auch im Zeitalter der Gleichberechtigung von Mann und Frau noch vielerorts auftaucht – vor allem im Job. Zum bevorstehenden Internationalen Frauentag am 8. März stellt er einige seiner wissenschaftlichen Erkenntnisse zu dieser Thematik vor.

„Ich forsche daran, was diese Vorurteile mit den Menschen machen“, erklärt der Psychologe, der dafür mit Umfragen und Experimenten arbeitet. „Wenn eine einzige Managerin ansonsten nur mit männlichen Führungskräften zusammenarbeitet, kann auch bei ihr unbewusst ein Vorurteil aktiviert werden: Ich habe weniger Führungsstärke als ein Mann. Das kann zu Hemmungen führen“, erklärt Zacher. Wie ausgeprägt diese sein können, beweist die Tatsache, dass Chefinnen oftmals geheim halten, dass sie Kinder haben – eine vermeintliche Schwäche. Es kann auch dazu führen, dass sie seltener Angebote von Arbeitgebern zur Kinderbetreuung und für mehr Flexibilität in Anspruch nehmen als ihre männlichen Pendants.

Auch vermeiden es Frauen in Führungspositionen häufig, Gefühle zu zeigen, weil ihnen das als Schwäche und als Bestätigung eines klassischen Vorurteils ausgelegt werden könnte. Tatsächlich sollte eine (weibliche) Führungskraft Zacher zufolge im Job nicht nur einfühlsam auftreten. Er rät hier zum goldenen Mittelweg: „Empathie ist gut, anderen zuhören. Eine Führungskraft sollte andere im positiven Sinne beeinflussen können, aber nicht mit allen Mitarbeitern gut befreundet sein.“

Ein weiteres, weit verbreitetes Stereotyp in der Arbeitswelt betrifft Schwangere. Ihnen wird häufig unterstellt, sie seien weniger leistungsfähig als ihre Kollegen. Die Reaktionen der Betroffenen auf dieses Vorurteil fallen Zacher zufolge unterschiedlich aus: Während einige Schwangere unbewusst diesem Vorurteil entsprechen und sich auf Arbeit zurückhalten, stecken andere werdende Mütter noch mehr Energie in ihre Arbeit als sonst. „Es gibt Vorurteile gegenüber dem Geschlecht eines Menschen, aber auch gegenüber bestimmten Altersgruppen“, sagt Zacher, der sich seit Kurzem auch mit den Vorurteilen jüngerer Kollegen gegenüber Älteren wissenschaftlich beschäftigt und dabei schon mehrere gängige Vorurteile – zum Beispiel das ältere Erwerbstätige weniger leistungsfähig als jüngere sind – widerlegen konnte.

Hinweis:
Prof. Dr. Hannes Zacher ist einer von mehr als 150 Experten der Universität Leipzig, auf deren Fachwissen Sie mithilfe unseres Expertendienstes zurückgreifen können.

Weitere Informationen:
Prof. Dr. Hannes Zacher
Institut für Psychologie
Telefon: +49 341 97-35932
E-Mail: hannes.zacher@uni-leipzig.de

Medienredaktion der Universität Leipzig
Telefon: +49 341 97-35020
E-Mail: presse@uni-leipzig.de

Weitere Informationen:
http://www.zv.uni-leipzig.de/service/kommunikation/medienredaktion/expertendiens…

Quelle: idw

(nach oben)


Malaria-Therapien: bald schon viel einfacher, flexibler und effizienter?

Christian Wißler Mediendienst Forschung
Universität Bayreuth

Malaria-Infektionen lassen sich möglicherweise schon bald viel effizienter behandeln als heute. Forscher an den Universitäten Bayreuth und Jerusalem haben hierfür ein neuartiges Verfahren zur Wirkstoff-Freisetzung entwickelt. Der Wirkstoff Artemisone lässt sich damit zuverlässig in Mengen und Zeitabständen verabreichen, die exakt auf das Krankheitsbild des einzelnen Patienten abgestimmt sind. In der Zeitschrift „Global Challenges“ stellen die Wissenschaftler ihre Entwicklung vor. Die Forschungsarbeiten waren Teil eines Projekts, das von der Deutschen Forschungsgemeinschaft (DFG) für fünf Jahre mit insgesamt rund 1,5 Millionen Euro gefördert wird.

Zuverlässig und flexibel: Winzige Fasern ermöglichen die optimale Dosis
Um den Verlauf einer Malaria-Behandlung flexibel dem individuellen Krankheitsbild anpassen zu können, haben die Wissenschaftler den Wirkstoff Artemisone auf speziellen Polymerfasern platziert. Diese Fasern sind ungefähr 100mal dünner als ein menschliches Haar. Sobald sie mit einer tensidhaltigen Standard-Infusionsflüssigkeit in Kontakt kommen, wird das Artemisone allmählich freigesetzt. Wie hoch die Artemisone-Dosis ist, die in den Blutkreislauf des Patienten gelangt, lässt sich dabei auf einfache Weise regulieren. Die Fasern, aus denen die Artemisone-Moleküle freigesetzt werden, können den Organismus des Patienten nicht erreichen. Sie bleiben unterhalb des Flüssigkeitsbehälters in der Tropfkammer fixiert.

Das Verfahren unterscheidet sich damit grundlegend von bisherigen Ansätzen, ein „Programmed release“ für Antimalaria-Wirkstoffe zu entwickeln. Denn bislang hat sich die Forschung auf die Frage konzentriert, wie diese Wirkstoffe innerhalb des Organismus kontrolliert freigesetzt werden können. Vor allem Implantate und spezielle Verkapselungen von Tabletten wurden dafür in Betracht gezogen. „Alle diese Ansätze sind auf Schwierigkeiten gestoßen, die bisher nicht überzeugend gelöst werden konnten. Unser Verfahren zeichnet sich dadurch aus, dass wir die Wirkstoff-Freisetzung vorverlagern. Sie findet im Infusionssystem und somit komplett außerhalb des Organismus statt“, erklärt Prof. Dr. Andreas Greiner von der Universität Bayreuth. „Deshalb entfallen alle unkontrollierbaren Gesundheitsrisiken, die entstehen können, wenn ein Wirkstoffträger sich über einen längeren Zeitraum im Körper befindet und erst hier schrittweise den Wirkstoff freisetzt“, ergänzt der Bayreuther Doktorand Amir Reza Bagheri M.Sc., der zu den polymerwissenschaftlichen Forschungsergebnissen wesentlich beigetragen hat.

Die an der Entwicklung des neuen Antimalaria-Verfahrens beteiligten Wissenschaftler betonen, dass sich die winzigen Polymerfasern auch als Vehikel für andere Wirkstoffe eignen und daher die Behandlung weiterer Krankheiten unterstützen können.

Keine Utopie mehr: Effektive Hilfe für Malaria-Patienten in den Tropen
Das neue Therapieverfahren knüpft an Untersuchungen anderer Forschungseinrichtungen an, in denen Artemisone mit vielversprechenden Ergebnissen getestet wurde. „Die vorklinischen Tests zeigen, dass Artemisone klare Vorteile gegenüber dem Wirkstoff Artemisinin hat, der heute zur Behandlung von Malaria-Infektionen eingesetzt wird. Deshalb haben wir bei der Entwicklung unseres Therapieverfahrens von vornherein auf diesen effizienteren Wirkstoff gesetzt, bei dem es sich – chemisch gesprochen – um ein Artemisinin-Derivat handelt“, erklärt Prof. Dr. Jacob Golenser von der Hebräischen Universität Jerusalem. Er ist zuversichtlich, dass Artemisone in nicht allzu ferner Zukunft für die Behandlung von Malaria-Infektionen zugelassen werden könnte. „Auch unser Infusionssystem dürfte die nötigen klinischen Tests bestehen. Dann steht der Anwendung in der medizinischen Praxis grundsätzlich nichts mehr im Weg“, meint Prof. Dr. Seema Agarwal von der Universität Bayreuth.

Ist das in Bayreuth und Jerusalem entwickelte Antimalaria-Verfahren auch Entwicklungs- und Schwellenländern zugänglich? Die benötigten Fasern werden durch das Elektrospinnen von Vliesen hergestellt, ein heute bereits übliches industrielles Verfahren. Die Fasern mit Artemisone zu beladen und in die Tropfkammer eines Infusionsbestecks einzubauen, verursacht nach Auffassung der Wissenschaftler in Bayreuth und Jerusalem keine hohen Kosten. „Die so vorbereiteten Infusionsbestecke könnten in Entwicklungs- und Schwellenländern, wo viele Malaria-Infektionen nur unzureichend behandelt werden, durchaus erschwinglich sein. Sofern Krankenhäuser und Malaria-Stationen mit Standard-Infusionstechniken ausgestattet sind, haben ihre Patienten vielleicht schon bald die Chance auf eine effiziente Therapie“, so die Einschätzung von Prof. Golenser.

Veröffentlichung:
Amir Reza Bagheri, Seema Agarwal, Jacob Golenser, and Andreas Greiner,
Unlocking Nanocarriers for the Programmed Release of Antimalarial Drugs,
Global Challenges (2017), DOI: 10.1002/gch2.201600011.

Kontakt:
Prof. Dr. Andreas Greiner
Lehrstuhl Makromolekulare Chemie II
Universität Bayreuth
Universitätsstr. 30
95447 Bayreuth
Telefon: +49 (0)921 55 3399
E-Mail: greiner@uni-bayreuth.de

Quelle: idw

(nach oben)


Es muss nicht immer Trinkwasser sein – Abwasser als Ressource nutzen

Melanie Neugart Wissenskommunikation und Öffentlichkeitsarbeit
ISOE – Institut für sozial-ökologische Forschung

Die Verteilungskonflikte um die Ressource Wasser sind nicht mehr auf die trockenen Regionen der Erde begrenzt, selbst im wasserreichen Deutschland kommt es vereinzelt zu Nutzungskonflikten. Der weltweite Wasserbedarf steigt stetig: Schon jetzt werden allein für landwirtschaftliche Zwecke zwei Drittel der vorhandenen Trinkwassermenge verwendet. Wegen des wachsenden Drucks auf die Wasserressourcen machen die Vereinten Nationen zum Weltwassertag am 22. März auf das Potenzial von Abwasser aufmerksam. WissenschaftlerInnen des ISOE – Institut für sozial-ökologische Forschung untersuchen die vielfältigen Möglichkeiten der Wiederverwendung

Der nachhaltige Umgang mit Wasser zählt zu den zentralen Herausforderungen der Gegenwart, er ist als Nachhaltigkeitsziel (SDG) in der Agenda 2030 der UN verankert. Doch wie kann dieser nachhaltige Umgang aussehen? „Wir haben in vielen Forschungsprojekten wassersparende Technologien erprobt“, sagt Martin Zimmermann, Wasserforscher am ISOE. „Insbesondere in der Wiederverwendung von gereinigtem Abwasser liegen große Potenziale, sie werden allerdings bislang kaum genutzt.“

Noch immer werde zu wenig unterschieden, für welchen Einsatz sich welche Wasserqualität eigne. „Es bleibt weitgehend unhinterfragt, ob für die Gartenpflege, die Autowaschanlage oder für die Toilettenspülung tatsächlich Trinkwasser notwendig ist“, sagt Zimmermann. Aufbereitet kann dasselbe Wasser zwei- bis dreimal verwendet werden. Es ist nicht nur in Haushalten, sondern auch für den industriellen Bedarf einsetzbar. „Vor dem Hintergrund, dass 70 Prozent des verfügbaren Trinkwassers weltweit in die Landwirtschaft fließen, stellt sich zudem die Frage, wie der Einsatz von gereinigtem Abwasser in der Landwirtschaft sinnvoll geregelt werden kann.“

Den Druck auf die Ressource verringern: gereinigtes Abwasser auch für die Landwirtschaft
Insbesondere in semiariden Gebieten kann die Wiederverwendung von aufbereitetem Abwasser den Druck auf die Ressource Wasser verringern. Wichtig ist jedoch, attraktive Konzepte der Wasserwiederverwendung zu entwickeln, die optimal auf die jeweiligen Rahmenbedingungen vor Ort abgestimmt sind. Dies ist das Ziel eines aktuellen Forschungsprojektes des ISOE und der TU Darmstadt: So gibt es zum Beispiel in Namibia zwar Abwasser-Sammelsysteme, bei denen sich die Feststoffe am Grund der Sammelbecken absetzen. Das Wasser ist jedoch aufgrund hygienischer Bedenken nicht ohne Weiteres für die landwirtschaftliche Bewässerung nutzbar. Gelingt es aber, diese Verfahren durch einfache Behandlungsschritte zu erweitern, etwa durch eine gezielte Trennung von Schlamm und Wasser, erhält man für die Landwirtschaft geeignetes Wasser. „Damit ist eine Blaupause geschaffen, die in vielen Gegenden des südlichen Afrikas angewendet werden kann“, sagt Zimmermann.

Einen weiteren innovativen Ansatz untersucht das ISOE mit Partnern für Deutschland. Dabei geht es darum, wie man durch ein modulares Technikset Abwasser so aufbereitet, dass es als Wasser- und Nährstoffquelle für den Betrieb hydroponischer Systeme nutzbar wird. Hier werden Pflanzen in bodenlosen Systemen in einer Nährlösung gezogen. Hydroponische Systeme erzielen bei geringerem Flächenbedarf eine deutlich höhere Produktionskapazität als der konventionelle Anbau bei gleichzeitig sehr viel geringerem Wasserbedarf.

Dies ist insbesondere im Hinblick auf die rasch wachsende Erdbevölkerung relevant. Für die Ernährungssicherung ist Bewässerungswasser in ausreichender Menge und Qualität zentral. Insbesondere Regionen, die schon heute unter Wassermangel leiden, müssen über alternative Wasserquellen und über nachhaltige Managementkonzepte für die bestehenden Ressourcen nachdenken. „Das Missverhältnis zwischen steigendem Wasserbedarf und begrenzten Wasserressourcen wird sich in den nächsten Jahren vergrößern“, sagt ISOE-Wasserexperte Zimmermann. „Mit diesen Konzepten zur effizienten Wassernutzung können wir aber zumindest den Druck auf die Ressource etwas verringern.“

Mehr zu den Projekten EPoNa und HypoWave auf www.isoe.de
ISOE – Institut für sozial-ökologische Forschung, Frankfurt am Main
Das ISOE gehört zu den führenden unabhängigen Instituten der Nachhaltigkeitsforschung. Seit mehr als 25 Jahren entwickelt das Institut wissenschaftliche Grundlagen und zukunftsfähige Konzepte für Politik, Zivilgesellschaft und Wirtschaft – regional, national und international. Zu den Forschungsthemen gehören Wasser, Energie, Klimaschutz, Mobilität, Urbane Räume, Biodiversität und sozial-ökologische Systeme.

Anhang
Weltwassertag 2017: Es muss nicht immer Trinkwasser sein – Abwasser als Ressource nutzen
https://idw-online.de/de/attachment56877

Quelle: idw

(nach oben)


Risikoentscheidungen: Alter schützt vor Kühnheit nicht

Kerstin Skork Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Bildungsforschung

Entgegen des gängigen Vorurteils zeigt eine Studie, dass ältere Menschen risikobereitere Entscheidungen treffen als jüngere. Dabei kommt ihnen zugute, dass positive Emotionen bei ihnen stärker ausgeprägt sind; dies lässt sie Risiken optimistischer bewerten. Außerdem empfinden ältere Erwachsene die Möglichkeit von Verlusten nicht so negativ wie junge. Zu diesen Ergebnissen kommt eine Studie des Max-Planck-Instituts für Bildungsforschung, die in der Fachzeitschrift Psychological Science erschienen ist.

Die menschliche Lebenserwartung steigt. Schon heute liegt der Anteil der über 65-Jährigen in den industrialisierten Teilen der Welt bei etwa 21 Prozent, und es wird vermutet, dass es bis 2060 etwa 32 Prozent sein werden. Ältere Menschen und ihre Entscheidungen haben somit einen immer größer werdenden wirtschaftlichen und gesellschaftlichen Einfluss. Die Wissenschaftler untersuchten deshalb, wie ältere im Vergleich zu jüngeren Menschen Entscheidungen unter Risiko treffen. Dafür verglichen sie Ähnlichkeiten und Unähnlichkeiten bei Risikoentscheidungen von 60 jüngeren Erwachsenen im Alter zwischen 18 und 30 Jahren sowie 62 älteren Erwachsenen im Alter zwischen 63 und 88 Jahren. Die Probanden machten einen Entscheidungstest, bei dem sie jeweils zwischen zwei Optionen wählen sollten. Bei jeder Option konnte mit gewisser Wahrscheinlichkeit Geld gewonnen oder verloren werden. Insgesamt galt es 105 Aufgaben zu bearbeiten, wobei stets die Information vorlag, welcher Betrag gewonnen oder verloren werden konnte und wie hoch die Wahrscheinlichkeit eines Gewinns oder eines Verlusts war.

Die älteren Menschen trafen in der Studie häufiger risikoreichere Entscheidungen als die jüngeren. Grund dafür ist, laut den Wissenschaftlern, die bessere Gemütslage der Älteren. Wie auch schon in früheren Studien berichteten sie von mehr positiven und weniger negativen Emotionen als die Jüngeren. „Wer gut gestimmt ist, hat eher die positiven Möglichkeiten einer Entscheidung im Blick“, sagt Thorsten Pachur, Erstautor der Studie und Wissenschaftlicher Mitarbeiter im Forschungsbereich „Adaptive Rationalität“ des Max-Planck-Instituts für Bildungsforschung. „Die älteren Probanden waren optimistischer in der Bewertung möglicher Gewinne und wagten demnach mehr. Zudem bewerteten sie mögliche Gewinne und Verluste gleich, während die jüngeren Probanden stärker darauf fokussiert waren, mögliche Verluste zu vermeiden“, so Thorsten Pachur weiter.

Der Befund einer größeren Risikobereitschaft von älteren Menschen widerspricht den Ergebnissen vieler früherer Untersuchungen. Dies erklären die Wissenschaftler mit einem veränderten Studienaufbau: Während in früheren Studien den Probanden meist die Wahl zwischen einer sicheren und einer risikoreichen Option gegeben wurde, waren in dieser Studie beide Optionen risikoreich, aber in unterschiedlichem Maße. Somit mussten sie sich mit den Optionen genauer auseinandersetzen.

Zusätzlich zu den Unterschieden in der Risikobereitschaft zeigte sich, dass die älteren Probanden jedoch schlechtere Entscheidungen trafen als die jüngeren. Das heißt, sie wählten seltener die objektiv bessere Option, das heißt die Option, die aus ökonomischer Sicht einen höheren erwarteten Gewinn bot. „Die Unterschiede in der Entscheidungsqualität sind auf die Abnahme der fluiden Intelligenz im Alter zurückzuführen, also auf die Abnahme der Fähigkeit, Informationen schnell zu verarbeiten und Probleme zu lösen“, sagt Thorsten Pachur.

Die Ergebnisse deuten darauf hin, dass die Ausprägung von Altersunterschieden im Risikoverhalten stark durch die Situation beeinflusst ist, in der das Risikoverhalten untersucht wird. Zudem verdeutlichen sie das Zusammenwirken von Emotion und Kognition bei der Entscheidung für oder gegen ein Risiko. „Beides spielt dabei eine Rolle, jedoch mit unterschiedlichen Funktionen. Während Emotionen vor allem dafür verantwortlich sind, ob von zwei zur Auswahl stehenden Risiken das größere oder kleinere gewählt wird, hilft die Kognition, die objektiv bessere Option zu identifizieren“, so Thorsten Pachur.

Originalstudie
Pachur, T., Mata, R., & Hertwig, R. (2017). Who dares, who errs? Disentangling cognitive and motivational roots of age differences in decisions under risk. Psychological Science. https://doi.org/10.1177/0956797616687729

Max-Planck-Institut für Bildungsforschung
Das Max-Planck-Institut für Bildungsforschung wurde 1963 in Berlin gegründet und ist als interdisziplinäre Forschungseinrichtung dem Studium der menschlichen Entwicklung und Bildung gewidmet. Das Institut gehört zur Max-Planck-Gesellschaft zur Förderung der Wissenschaften e.V., einer der führenden Organisationen für Grundlagenforschung in Europa.

Weitere Informationen:
https://www.mpib-berlin.mpg.de/de/presse/2017/03/risikoentscheidungen-alter-schu…

Quelle: idw

(nach oben)


Dem Geheimnis der Achilles-Ferse auf der Spur

Dr. Ulrich Marsch Corporate Communications Center
Technische Universität München

Gehen, laufen, rennen – jede Bewegung des Fußes zerrt an der Achillessehne. Bei Sprüngen kann die Belastung das Zehnfache des Körpergewichts betragen. Erstaunlicherweise hält die Verbindung zwischen Fersenbein und Achillessehne diesen enormen Kräften stand. Warum, das hat ein interdisziplinäres Team aus Medizin, Physik, Chemie und Ingenieurwissenschaften an der Technischen Universität München (TUM) herausgefunden.

Rund 8000 Risse der Achillessehne müssen in Deutschland jedes Jahr behandelt werden, obwohl sie die stärkste Sehne des menschlichen Körpers ist. Sie verbindet Fersenbein und Wadenmuskel und hält bis zum Zehnfachen des Körpergewichts aus. Benannt ist sie nach dem – fast – unverletzbaren griechischen Helden Achilleus, dem ein Pfeilschuss in die Ferse zum Verhängnis wurde.

„Obwohl in der Orthopädie tagtäglich Patientinnen und Patienten mit Sehnenverletzungen behandelt werden, wissen wir noch immer sehr wenig über den genauen feingeweblichen Aufbau am direkten Übergang von der Sehne zum Knochen: Die biochemischen Vorgänge, die Mikromechanik und die Mikrostruktur des Gewebes sind bisher kaum erforscht“, berichtet PD Dr. Rainer Burgkart, Oberarzt und Forschungsleiter am Lehrstuhl für Orthopädie und Sportorthopädie der TUM.

Dünne Fasern, perfekter Halt
Zusammen mit einem interdisziplinären Team aus Biochemie und Biophysik der TU München hat der Mediziner im Rahmen des neugegründeten Center for functional Protein Assemblies (CPA) und der Munich School of Bioengineering (MSB) das Geheimnis der Achillessehne entschlüsselt: Zwischen Sehnen und Knochen entdeckten die Experten eine Gewebeschicht, die aus extrem dünnen Proteinfasern besteht und für eine extrem hohe Stabilität sorgt.

Menschen sind daher in der Lage, über Hürden zu springen, hohe Sprünge und harte Landungen zu machen, ohne dass die Verbindung zwischen Sehne und Fersenbein Schaden nimmt. Tatsächlich reißt eher die Sehne, als dass sich die Verbindung zum Knochengewebe löst.

„Dass die Sehnen direkt am Knochen ansetzen, das war bislang die Annahme. Tatsächlich gibt es jedoch einen Übergangsbereich. Hier spleißt sich das Sehnengewebe auf in Dutzende von feinen Fasern mit einer ganz charakteristischen biochemischen Zusammensetzung“, erklärt Prof. Andreas Bausch, Inhaber des Lehrstuhls für Zellbiophysik und Leiter der interdisziplinären Forschungsgruppe. „Die dünnen Fasern sind fest in der zerklüfteten Oberfläche des Knochens verankert und mechanisch äußerst belastbar.“

Gemeinsam am Start: Medizin, Physik, Chemie und Ingenieurwissenschaften
Entdeckt wurden die feinen Fasern durch einen neuen, interdisziplinären Forschungsansatz: „Die Innovation der Arbeit liegt darin, dass wir verschiedene medizinische, physikalische und ingenieurwissenschaftliche Verfahren kombiniert haben“, sagt Bausch.

Ein Stück Schweineknochen mit Sehne, in der Orthopädie sorgfältig präpariert, wurde am Lehrstuhl für Zellbiophysik in eine Apparatur eingespannt und fixiert. Dann richteten die Forscherinnen und Forscher das Mikroskop auf die Grenzschicht, entlang derer die Sehne mit dem Knochen verwachsen ist. Mit Hilfe der Multiskalen-Mikroskopie-Technik wurden Dutzende von Aufnahmen erstellt und digital zu einem großen Bild zusammengeführt. „Auf diese Weise konnten wir die Struktur der feinen, aufgespleißten Fasern sichtbar machen“, berichtet Bausch.

Im nächsten Schritt verwendete das Team fluoreszierende Antikörper, um bestimmte Proteine zum Leuchten zu bringen. Hier zeigte sich, dass die dünnen Fasern eine andere biochemische Zusammensetzung haben als die eigentliche Sehne. Im dritten Teil des Experiments bewegten sie die Sehne unter Belastung hin und her und filmten dabei die Fasern. Das Ergebnis: Je nach Belastungsrichtungen sind unterschiedliche Fasern aktiv und stabilisieren den Kontakt.

Ergänzt wurden die lichtmikroskopischen Untersuchungen durch besonders hochauflösende Bilder eines Elektronenmikroskops. Mitarbeiter des Lehrstuhls für Medizinische Biophysik setzten außerdem einen Mikro-Computertomographen ein, mit dem sich die Grenzregion dreidimensional darstellen ließ. Am Lehrstuhl für organische Chemie wurden die unterschiedlichen Proteine in Sehnen und Übergangsfasern analysiert.
Ansätze für die Medizin der Zukunft

„Unsere Ergebnisse erlauben es erstmals, die biochemischen und biomechanischen Prozesse in der Kontaktzone zwischen Knochen und Sehne zu verstehen, die unserem Bewegungsapparat seine enorme Stabilität verleihen“, resümiert Bausch.

Mögliche Anwendungen ergeben sich sowohl in der Materialforschung als auch in der Medizin: Ingenieurtechnisch könnten innovative Verbindungen zwischen festen und weichen Stoffen hergestellt werden. Und in der Orthopädie sollen die Erkenntnisse genutzt werden, um künftig in der Tumorchirurgie Sehnen an Implantate zu refixieren.

Publikation:
L. Rossetti, L. A. Kuntz, E. Kunold, J. Schock, K. W. Müller, H. Grabmayr, J. Stolberg-Stolberg, F. Pfeiffer, S. A. Sieber, R. Burgkart and A. R. Bausch: The microstructure and micromechanics of the tendon-bone insertion, Nature Materials 27.02.2017 – DOI: 10.1038/NMAT4863

Kontakt:
Prof. Dr. Andreas R. Bausch
Technische Universität München
Lehrstuhl für Zellbiophysik
James-Franck-Str. 1, 85748 Garching, Germany
Tel.: +49 89 289 12480
E-Mail: abausch@mytum.de

Weitere Informationen:
https://www.tum.de/die-tum/aktuelles/pressemitteilungen/detail/article/33774/

Quelle: idw

(nach oben)


»ZeroTrace«: Nachhaltige Aktivkohleverfahren zur Entfernung von Mikroschadstoffen aus Abwasser

Dipl.-Chem. Iris Kumpmann Abteilung Public Relations
Fraunhofer-Institut für Umwelt-, Sicherheits- und Energietechnik UMSICHT

Um Mikroschadstoffe wie Arzneimittelrückstände aus Abwasser zu eliminieren, kommt in Kläranlagen häufig Aktivkohle zum Einsatz, die meist aus fossiler Steinkohle hergestellt wird. Im Verbundprojekt »ZeroTrace« will Fraunhofer UMSICHT nun Adsorptionsmaterialien aus regenerativen Ausgangsstoffen entwickeln, die ortsnah regeneriert werden und in kommunalen und industriellen Kläranlagen implementiert werden können. Das Projekt ist im Februar offiziell mit einem Auftakttreffen der sieben Projektpartner an der Kläranlage Wuppertal-Buchenhofen gestartet.

Weltweit sind 50 Millionen organische Verbindungen im Wasser im Umlauf, von denen 5000 als potenziell umweltrelevant eingestuft werden. So sind die Ab- und Gewässer in Deutschland mit Mikroschadstoffen wie Arzneimittelrückständen, Pflanzenschutzmitteln oder Schwermetallen belastet, die über die Landwirtschaft, Industrie und die Entwässerung von Wohn- und Industriegebieten in Grund- und Trinkwasser gelangen. Mikroschadstoffe sind schwer abbaubar und können trotz ihrer geringen Konzentration toxisch wirken. Um die Substanzen zu entfernen, werden in Kläranlagen häufig Aktivkohlefilter eingesetzt, die die organischen Stoffe an ihrer Oberfläche binden. Die für den Prozess gebrauchte Aktivkohle wird anschließend entweder entsorgt oder in zentralen Verbrennungsanlagen regeneriert.

Ein Nachteil dieses Verfahren ist, dass der überwiegende Anteil an Aktivkohle aus Steinkohle gewonnen wird – einem fossilen und nicht nachwachsenden Rohstoff. Gleichzeitig findet die Regeneration der Aktivkohle derzeit unter hohem energetischen und logistischen Aufwand statt. Vor diesem Hintergrund möchte das Fraunhofer Institut für Umwelt-, Sicherheits- und Energietechnik UMSICHT unter der Projektleitung des Wupperverbands gemeinsam mit Partnern aus Industrie und Forschung im Projekt »ZeroTrace« Aktivkohlen entwickeln, die aus regenerativen Rohstoffen wie Kokosnussschalen hergestellt werden und in großen Mengen preiswert verfügbar sind. »Die Aktivkohle soll außerdem effizient regenerierbar sein sowie möglichst viele Arten von Mikroschadstoffen entfernen«, sagt Dr. Ilka Gehrke, Abteilungsleiterin Photonik und Umwelt bei Fraunhofer UMSICHT. Ein weiteres Projektziel ist deshalb die Entwicklung neuer Regenerationsverfahren für kommunale und industrielle Kläranlagen, die vor Ort stattfinden, energieeffizient sind und somit bestehende Prozesse optimieren.

Nachhaltige Komposit-Aktivkohle
Der Lösungsweg umfasst entlang der kompletten Wertschöpfungskette zunächst die Entwicklung von Aktivkohle als Komposit, das von der Bundesanstalt für Materialprüfung und -forschung modifiziert und von EVERS Wassertechnik und Anthrazitveredlung für die spätere Anwendung konfektioniert wird. Gemeinsam mit EnviroChemie wird Fraunhofer UMSICHT ein Verfahren auf Basis von »Electric Field Swing Adsorption« (EFSA) entwickeln, mit dem sich Aktivkohlen vor Ort regenerieren lassen, statt sie unter Aufwand zu einer zentralen Verbrennungsanlage zu fahren. Das neue Verfahren soll die Wärme zum Ausbrennen der Aktivkohle elektrisch erzeugen, weshalb den Aktivkohlen elektrisch leitende Materialien wie Graphit zugegeben werden. Denn je elektrisch leitfähiger die Aktivkohle ist, desto besser erwärmt sie sich und desto vollständiger werden die Mikroschadstoffe in der Regeneration wieder abgelöst. Der gesamte Prozess soll schließlich von EnviroChemie anlagentechnisch umgesetzt und auf zwei Kläranlagen des Wupperverbands unter realen Bedingungen demonstriert werden. Zudem betrachtet inter3 erstmalig die Entwicklung neuer Aktivkohlematerialien und -verfahren im Rahmen einer Multi-Kriterien-Analyse.

Beim Auftakttreffen des »ZeroTrace« Konsortiums am 21. Februar 2017 waren sich die beteiligten Fachleute einig, dass Aktivkohle langfristig in der Mikroschadstoff-Eliminierung nicht ersetzbar ist. Deshalb gilt es, den für den Filtrationsprozess wichtigen Ausgangsstoff ressourcenschonender und seine Regeneration effizienter zu gestalten. Vor dem Hintergrund, dass in Deutschland voraussichtlich eine vierte Klärstufe eingeführt werden soll, müssen in den nächsten Jahren vermutlich weit über hundert Kläranlagen und Wasserwerke mit einer Adsorptionsstufe ausgerüstet werden. »Wir erhoffen uns vom Projekt somit nicht nur einen Erkenntnisgewinn zur Herstellung von Komposit-Aktivkohle aus nachwachsenden Rohstoffen«, so Dr. Gehrke. Auch die wirtschaftlichen Erfolgsaussichten der im Rahmen von »ZeroTrace« zu entwickelnden Adsorptionssysteme und -materialien schätzt das Projektkonsortium hoch ein.

Über das Projekt:
»ZeroTrace« ist am 01. Februar 2017 gestartet und auf eine Laufzeit von drei Jahren angelegt. Das Projekt wird vom Bundesministerium für Bildung und Forschung sowie dem Projektträger Jülich (PtJ) gefördert.

Projektpartner:
EVERS Wassertechnik und Anthrazitveredelung | Wupperverband | EnviroChemie | Bundesanstalt für Materialprüfung und -forschung BAM | Carbotech | inter3

Quelle: idw

(nach oben)


„Seit Anbeginn der Zeit“ – DNA bestätigt einzigartige Bindung australischer Ureinwohner an ihr Land

Petra Mader Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Menschheitsgeschichte / Max Planck Institute for the Science of Human History

Die DNA aus Haarproben der Ureinwohner Australiens zeigt ein ausgeprägtes geographisches Muster, das darauf hindeutet, dass die jeweiligen Bevölkerungsgruppen bis zu 50.000 Jahre lang in derselben Region siedelten. Die heute in Nature veröffentlichten Ergebnisse betonen damit die einzigartige Bindung der Ureinwohner Australiens zu ihrem Land und zeichnen erstmals eine detaillierte genetische Karte Australiens vor Ankunft der Europäer. Die Studie entstand im Rahmen des Aboriginal Heritage Projects unter Leitung der Universität Adelaide und des South Australian Museums, an dem auch Wolfgang Haak, vom Max-Planck-Institut für Menschheitsgeschichte in Jena maßgeblich beteiligt ist.

Die Ureinwohner Australiens sind dem Land, das sie besiedeln, in besonderer Weise verbunden. So siedeln die rund 400 Sprach- und Regionalgruppen bereits seit bis zu 50.000 Jahren – und damit seit kurz nach der Besiedlung Australiens überhaupt – kontinuierlich in derselben Region. Das zeigt die DNA aus Haarproben von Aborigines, die im South Australian Museum in Adelaide aufbewahrt werden.

Die Sammlung von über 5000 Haarproben, die durch einen wahren Schatz an vielfältigen kulturellen, sprachlichen, genealogischen und geographische Daten bereichert wird, stammt aus Expeditionen des Anthropologischen Forschungsvorstands der Universität Adelaide zwischen 1928 und den 1970er Jahren. Die Haarspender waren mehrheitlich Nachfahren erster und zweiter Generation von Familien, die nach der Besiedlung Australiens durch die Europäer aus vielen Regionen Australiens zwangsweise in Gemeinden und Missionen wie Cherbourg in Queensland, sowie Koonibba und Point Pearce in Südaustralien umgesiedelt wurden.

Für ihre Studien analysierten die Wissenschaftler die mitochondriale DNA von 111 Haarproben, welche die Rückverfolgung der mütterlichen Linie ermöglicht und mit dem in den Genealogien dokumentierten ursprünglichen Geburts- oder Herkunftsort der ältesten mütterlichen Vorfahrin verknüpft werden konnte. Sowohl die Gewinnung der Haarproben als auch die jetzige Analyse durch die Wissenschaftler erfolgte mit Zustimmung der Haarspender bzw. ihrer Familien.

Die Ergebnisse zeigen, dass die modernen Aborigines Australiens die Nachfahren einer einzigen Gründerpopulation sind, die vor 50 000 Jahren Australien besiedelte, als es noch im Urkontinent „Sahul“ durch eine Landbrücke mit Neuguinea verbunden war. Nach Anstieg des Meeresspiegels spaltete sich die Population weiter auf und breitete sich innerhalb von nur 1 500 bis 2 000 Jahren entlang der Ost- und Westküste Australiens aus. Irgendwo im Süden des Kontinents trafen diese zwei Ströme dann wieder aufeinander, wo die frühesten archäologischen Funde auf 48 000 Jahr datieren.

„Überraschenderweise scheint es so, dass die Populationsmuster aus dieser Zeit die nächsten fast 50.000 Jahre überdauerten. Das zeigt, dass die ersten Besiedler des Kontinents sich rasch regional aufgliederten und ihren jeweiligen geografischen Regionen treu blieben und zwar selbst dann, wenn es keine natürlichen Grenzen zwischen diesen Regionen gab“, sagt Professor Alan Cooper, Projektleiter und Direktor des ACAD. „Das ist weltweit einmalig und liefert überzeugende Beweise für die bemerkenswerte kulturelle und spirituelle Bindung der Aborigines an ihr Land. Wir hoffen, dass dieses Projekt zu einer Umschreibung der Australischen Geschichtsbücher führt. Sie werden in Zukunft auch eine detaillierte Geschichte der Ureinwohner Australiens enthalten und darüber berichten, was es bedeutet, 50 000 Jahre in einem Land gelebt zu haben – das ist in etwa zehn Mal so lang wie die gesamte Geschichte Europas, die üblicherweise gelehrt wird.“

Das Aboriginal Heritage Project unter Leitung des Australischen Zentrums für Alte DNA (ACAD) der Universität Adelaide und des South Australian Museums ist auf Jahrzehnte angelegt. Ziel des Projekts ist es, Menschen, die Aborigine-Herkunft haben, aber kulturell entwurzelt sind, zu ermöglichen, ihre regionale Herkunft nachzuvollziehen und ihre genealogische Familiengeschichte zu rekonstruieren. Darüber hinaus soll das Projekt die Rückführung von australischen Artefakten (Kulturgütern) unterstützen, welche in Überseesammlungen der Kolonialzeit aufbewahrt werden.

„Wir Aborigines haben immer gewusst, dass wir seit Anbeginn der Zeit auf unserem Land waren“, sagt Kaurna Mr Lewis O’Brien, einer der damaligen Haarspender und heute Mitglied des wissenschaftlichen Beirats der Studie. „Es ist jedoch wichtig, dies mit Hilfe von moderner Wissenschaft dem Rest der Welt zu zeigen. Dies ist ein aufregendes Projekt und wir hoffen, dass es Menschen aus unserer ‚Gestohlenen Generation‘ und anderen dabei helfen wird, sich wieder mit ihren Familien zu vereinen.“

„Die ehemalige staatliche Politik der Zwangsumsiedlung und der gezielten Wegnahme von Kindern, der sogenannten ‚Gestohlenen Generation‘ macht die Rekonstruktion der genetischen Geschichte der ursprünglichen Bevölkerung Australiens zu einem schwierigen Unterfangen, da diese Agenda einen großen Teil der physischen und spirituellen Verbindung zwischen Gruppen und ihrem Land im heutigen Australien zerstört hat“, sagt Dr. Wolfgang Haak, ehemals Wissenschaftler am ACAD und Co-Initiator der Studie, und heute Forschungsgruppenleiter am Max-Planck-Institut für Menschheitsgeschichte in Jena. „Die umfangreichen Aufzeichnungen der anthropologischen Teams um Norman Tindale und Joseph Birdsell zeigen nicht nur eine enorme wissenschaftliche Weitsicht, sondern eröffnen uns eine wirklich einzigartige Gelegenheit, die eigentliche Menschheitsgeschichte Australiens zu schreiben. Dafür möchte ich im Besonderen auch den Familien in Cherbourg, Koonibba und Point Pearce danken, die uns nicht nur herzlich empfangen haben, sondern dieses Projekt mit Begeisterung unterstützen.“

Die zukünftige Forschung wird sich auch auf die väterlichen Linien und das Genom des Zellkerns erstrecken. Teammitglied Dr. Ray Tobler, Postdoktorand am ACAD und väterlicherseits mit Aborigine-Abstammung, hat ein Stipendium des australischen Forschungsrats (ARC), um die AHP-Forschung zu erweitern und zu untersuchen, inwieweit die Jahrtausende währende „Standorttreue“ in verschiedenen Lebensräumen die bemerkenswerte phänotypische Vielfalt heutiger Ureinwohner Australiens geprägt hat.

Weitere Forschungspartner
Weitere Forschungspartner sind die La Trobe University, die Deakin University und das National Center for Indigenous Genomics in Canberra. Das Projekt wird durch das ARC-Linkage Programm mit zusätzlicher Forschungsförderung der Australian Genome Research Facility, Bioplatforms Australia, dem ARC Center of Excellence für Mathematische und Statistische Grenzen und der National Geographic Society finanziert.

Orginalveröffentlichung
Ray Tobler, Adam Rohrlach, Julien Soubrier1, Pere Bover, Bastien Llamas, Jonathan Tuke, Nigel Bean, Ali Abdullah-Highfold, Shane Agius, Amy O’Donoghue, Isabel O’Loughlin, Peter Sutton5, Fran Zilio, Keryn Walshe, Alan N. Williams, Chris S.M. Turney, Matthew Williams, Stephen M. Richards, Robert J. Mitchell, Emma Kowal, John R. Stephen, Lesley Williams, Wolfgang Haak, and Alan Cooper: Aboriginal mitogenomes reveal 50,000 years of regionalism in Australia. Nature. Doi:10.1038/nature21416

Weitere Informationen
Max-Planck-Institut für Menschheitsgeschichte
Dr. Wolfgang Haak
Forschungsgruppenleiter Molekulare Anthropologie
+49 3641 686-642

Quelle: idw

(nach oben)


Lebensmittel im Blickpunkt: Die vitaminreiche Mango

Nina Banspach Pressestelle
Bundesamt für Verbraucherschutz und Lebensmittelsicherheit (BVL)

Rückstände von Pflanzenschutzmitteln sind gelegentlich zu hoch

Sie ist süß, reich an Vitaminen und gilt als Stimmungsaufheller. Die Mango wird wegen ihres aromatischen Geschmacks, ihrer Beliebtheit und fernen Herkunft gern als Königin der exotischen Früchte bezeichnet. Wie bei anderen Früchten werden auch beim Mangoanbau häufig Pflanzenschutzmittel eingesetzt – vorwiegend zur Bekämpfung von Schadpilzen und zur Schalenbehandlung. Überschreitungen der zulässigen Höchstgehalte für Pflanzenschutzmittel werden aber nur gelegentlich festgestellt.

Im Jahr 2015 wurden in acht der 296 untersuchten Proben Gehalte an Pflanzenschutzmittelrückständen gefunden, die über dem gesetzlich vorgeschriebenen Höchstgehalt lagen (2,7 Prozent). Die Quote der Überschreitungen ist von Jahr zu Jahr Schwankungen unterworfen, wie ein Blick in die Statistik zeigt. Im Jahr 2014 lag die Zahl der Überschreitungen mit 8,3 Prozent deutlich höher, während beispielsweise 2013 nur in 3,2 Prozent der untersuchten Proben zu hohe Gehalte an Rückständen gefunden worden waren.

Die Überschreitung eines Rückstandshöchstgehalts bedeutet nicht zwangsläufig ein Gesundheitsrisiko für die Verbraucher. Ob die gefundene Menge gesundheitsschädlich ist, muss im Einzelfall von den Überwachungsbehörden der Bundesländer bewertet werden.

Unterschiede gibt es bei der Betrachtung der Rückstandssituation nach Herkunftsländern. Bei peruanischen und brasilianischen Mangos, die aufgrund der starken Importmengen die Mehrzahl der in Deutschland untersuchten Früchte ausmachten, lag die Quote der Rückstandshöchstgehaltsüberschreitungen im Jahr 2015 bei 2,1 (peruanische Mangos) bzw. 3,5 Prozent (brasilianische Mangos), bei thailändischen Mangos jedoch bei 10,5 Prozent.

Besser schnitten Mangos ab, die gemäß Öko-VO (EG) produziert wurden. Hier gab es bei den untersuchten Proben keine Überschreitung der Rückstandshöchstgehalte von Pflanzenschutzmitteln.

Eine Recherche im Europäischen Schnellwarnsystem für Lebensmittel und Futtermittel (RASFF) in dem Zeitraum von 2011 bis 2016 zeigt insgesamt 25 Meldungen bezüglich frischer Mangos. Neben Verderb ist der Hauptbeanstandungsgrund die Überschreitung der gesetzlichen Höchstgehalte von Pflanzenschutzmittelrückständen.

Reich an Vitaminen
Mangos sind reich an E, C und B-Vitaminen. Das Provitamin A kommt nur in wenigen Obstarten in einem so hohen Gehalt wie bei der Mangofrucht vor. Auch Eisen, Jod, Folsäure, Kalium, Magnesium, Phosphor, Calcium und Biotin finden sich in der Mango. Verzehrt werden die geschälten Früchte am besten roh. Sie werden aber auch in Babynahrung, Saft, Kompott, Marmelade und Eiscreme verarbeitet. Reife Mangos sollten am besten gleich gegessen werden. Unreife Früchte können bis zu einer Woche bei Zimmertemperatur gelagert werden. In den Kühlschrank sollten die Früchte aber nicht wandern – dies zerstört den Geschmack.

Hintergrundinformation
Das Bundesamt für Verbraucherschutz und Lebensmittelsicherheit (BVL) ist eine eigenständige Bundesoberbehörde im Geschäftsbereich des Bundesministeriums für Ernährung und Landwirtschaft. Das BVL ist für die Zulassung von Pflanzenschutzmitteln, Tierarzneimit¬teln und gentechnisch veränderten Organismen in Deutschland zuständig. Im Bereich der Lebensmittel- und Futtermittelsicherheit übernimmt es umfassende Managementaufgaben und koordiniert auf verschiedenen Ebenen die Zusammenarbeit zwischen dem Bund, den Bundesländern und der Europäischen Union. In der Rubrik „Lebensmittel im Blickpunkt“ stellt das BVL regelmäßig Informationen zu bestimmten Lebensmitteln zusammen.

Anhang
PI Mango
https://idw-online.de/de/attachment56654

Quelle: idw

(nach oben)


Umweltforscher entwickeln neue Biosensoren für Gewässerkontrolle

Antje Karbe Hochschulkommunikation
Eberhard Karls Universität Tübingen

Tübinger Biologen beteiligt: Sensoren weisen Medikamente und deren Wirkung im Wasser schneller und in geringen Mengen nach

In einem interdisziplinären Wissenschaftlerteam haben Naturwissenschaftler neuartige Biosensoren entwickelt, mit denen sich Pharmazeutika im Wasser effektiver als bisher erfassen lassen. Biologen der Universität Tübingen waren an der Studie beteiligt. Zwei pharmazeutische Wirkstoffklassen ‒ Beta-Blocker und Nicht-steroidale Entzündungshemmer (NSAIDs) ‒ können damit in Echtzeit und bereits in geringen Konzentrationen gemessen werden. Die Studie wurde in der Zeitschrift Water Research publiziert.

Mit dem demographischen Wandel steigt der Verbrauch von Medikamenten in den Industrienationen. Bereits heute gelangen große Mengen pharmakologisch wirksamer Substanzen über das Abwasser in Kläranlagen. Weil sie nur unzureichend wieder entfernt werden können, sind Organismen in Oberflächengewässern einem „Cocktail“ aus Arzneimitteln ausgesetzt. Die Anzahl der eingetragenen Medikamente nimmt dabei ständig zu. So können beispielsweise Schmerzmittel auch bei Fischen schädliche Nebenwirkungen verursachen, schon bei Konzentrationen von wenigen Mikrogramm pro Liter Wasser. Ökotoxikologen und Umweltchemiker sind herausgefordert, das immer vielfältigere Vorkommen von Arzneimitteln zu quantifizieren und deren schädigende Wirkung auf die Umwelt abzuschätzen.

Im Verbundprojekt „EffPharm“ arbeiten Biologen, Biochemiker und analytische Chemiker verschiedener Institutionen gemeinsam an diesem Thema. Das Projekt wird vom Umweltbundesamt gefördert und von der Tübinger Ökotoxikologin Professorin Rita Triebskorn koordiniert. So gelang es der Arbeitsgruppe um Dr. Manfred Frey vom Steinbeis-Innovationszentrum Zellkulturtechnik an der Hochschule Mannheim, für die zwei genannten pharmazeutische Wirkstoffklassen zellbasierte Biosensoren zu entwickeln. Diese erlauben es, die Bindung dieser Substanzen an ihre Zielmoleküle (Rezeptoren) in „gereinigtem“ Abwasser in Echtzeit zu bestimmen. An der Universität Tübingen wiesen Professorin Rita Triebskorn und Professor Heinz Köhler von der Arbeitsgruppe „Physiologische Ökologie der Tiere“ nach, wie sensitiv die Biosensoren sind: Sie erfassen schon geringe Konzentrationen der Medikamente, in denen erste Schäden bei Wasserorganismen auftreten. Dr. Marco Scheurer vom Technologiezentrum Wasser in Karlsruhe zeigte, dass die neuen Biosensoren einen großen Teil der Verbindungen erfassen, die bisher durch aufwändige und zeitintensive chemische Analysen nachgewiesen werden mussten. Zusätzlich schließen die Testsysteme die Effekte von Abbauprodukten der Wirkstoffe und unbekannten Verbindungen mit ein, was für die ökologische Bedeutung der Umweltbelastungen entscheidend ist.

Wie die Autoren der Studie darlegen, vereinigen die neuen Biosensoren viele Vorteilen gegenüber bisherigen Ansätzen. Nachdem die Biosensor-Zelllinien Kontakt mit Pharmazeutika in Umweltproben hatten, erscheint innerhalb von Sekunden ein Fluoreszenzsignal. Im Gegensatz zu herkömmlichen Sensoren erfassen sie so die Wirkung von Chemikalien in der Zelle in Echtzeit und vermeiden Falschinformationen, wie sie in Systemen auftreten können, die erst nach Stunden Signale erzeugen. Dadurch besitzen die Testsysteme eine extrem hohe Sensitivität im Nanomolarbereich (ein Millionstel Promille), die vergleichbar mit der chemischen Analytik ist.

Durch ihre Funktionsweise können die Biosensoren zudem die Wirkung künftiger Beta-Blocker oder NSAIDs aufspüren, obwohl deren chemische Struktur noch gar nicht bekannt ist. „Es wäre wünschenswert, dass die hier entwickelte Technik künftig in Monitoring-Programmen zur Bestimmung von Wasserqualität und Reinigungsleistung von Kläranlagen eingesetzt wird“, sagt Professorin Rita Triebskorn. „Damit wäre eine wichtige Lücke in der Plausibilitätskette zwischen dem Auftreten von Arzneimitteln in Gewässern und den bei betroffenen Organismen auftretenden Gesundheitsschäden geschlossen.“

Publikation:
Kevin Bernhard, Cordula Stahl, Regina Martens, Heinz-R. Köhler, Rita Triebskorn, Marco Scheurer, Manfred Frey (2017): Two novel real time cell-based assays quantify beta-blocker and NSAID specific effects in effluents of municipal wastewater treatment plants. Water Research 115, 74-83. http://dx.doi.org/10.1016/j.watres.2017.02.036

Kontakt:
Prof. Dr. Rita Triebskorn
Universität Tübingen
Institut für Evolution und Ökologie
Physiologische Ökologie der Tiere
Telefon +49 7071 29-78892
rita.triebskorn@uni-tuebingen.de

Quelle: idw

(nach oben)


Versorgungsatlas: In Deutschland wächst die Zahl der Patienten mit Diabetes mellitus

Barbara Ritzert Pressestelle Versorgungsatlas – ProScience Communications
Versorgungsatlas

In Deutschland steigt die Zahl der Menschen, die an Diabetes leiden. Waren 2009 noch 8,9 Prozent der gesetzlich Versicherten betroffen, hat sich dieser Anteil bis zum Jahr 2015 auf 9,8 Prozent erhöht. Eine halbe Million Menschen erhalten pro Jahr zum ersten Mal die Diagnose Diabetes mellitus. Dies belegt erstmals eine neue Studie der Wissenschaftler vom Versorgungsatlas auf der Basis ambulanter Versorgungsdaten. Auffallend sind die ausgeprägten Unterschiede zwischen den neuen und alten Bundesländern sowie auf der Kreisebene. Die Studie ist auf dem Portal www.versorgungsatlas.de verfügbar.

http://www.versorgungsatlas.de/themen/alle-analysen-nach-datum-sortiert/?tab=6&a…

Weltweit steigt die Zahl der Patienten mit Diabetes mellitus. Bisherige Schätzungen in Deutschland gehen von 7 bis 9 Prozent Diabetiker aus. Nun haben die Wissenschaftler vom Versorgungsatlas erstmals auf der Basis bundesweiter ärztlicher Abrechnungsdaten die Häufigkeit (Prävalenz) von Diabetes mellitus für die Jahre 2009 bis 2015 und die Zahl der neuerkrankten Patienten (Inzidenz) für die Jahre 2012 bis 2014 erhoben.

Neuerkrankte: eine halbe Million pro Jahr.
Die Studie zeigt, dass jedes Jahr in Deutschland rund 500.000 Menschen zum ersten Mal die Diagnose Diabetes mellitus Typ 2 erhalten. Entsprechend wächst auch die Häufigkeit: Die Prävalenz für Diabetes mellitus insgesamt ist von 8,9 in 2009 auf 9,8 Prozent in 2015 gestiegen. Männer sind in fast allen Altersgruppen stärker betroffen als Frauen, ebenso die Menschen im Osten der Republik: In den neuen Bundesländern leiden 11,8 Prozent der Bürger an Diabetes, während es in den alten Bundesländern 9,2 Prozent sind.

Massive Unterschiede auf Kreisebene.
Noch ausgeprägter sind die Unterschiede auf der Ebene der Kreise. Im Kreis Starnberg ist die Häufigkeit von Typ-2-Diabetes mellitus mit 6,5 Prozent bundesweit zwischen 2013 und 2015 am niedrigsten. Eine mehr als doppelt so hohe Prävalenz konnten die Forscher für den Kreis Prignitz mit 14,2 Prozent feststellen.

»Aufgrund der prognostizierten demografischen Entwicklung müssen wir davon ausgehen, dass in Zukunft die Krankheitslast durch Diabetes mellitus weiter zunehmen wird«, erklärt Benjamin Goffrier, der Erstautor der Studie. Dr. Jörg Bätzing-Feigenbaum, der Leiter des Versorgungsatlas hat darüber hinaus noch eine Empfehlung für die gesundheitspolitisch Verantwortlichen: »Bei der Entwicklung von Präventionsprogrammen und Versorgungsstrukturen sollten die regionalen Unterschiede berücksichtigt werden.«

Die Studie.
Auf Basis der gesamtdeutschen vertragsärztlichen Abrechnungsdaten, die für administrative Zwecke erhoben werden, wurden die entsprechend als »administrativ« bezeichneten Prävalenzen des Diabetes mellitus für die Jahre 2009 bis 2015 und administrative Inzidenzen für die Jahre 2012 bis 2014 berechnet.Die prävalenten Fälle wurden anhand eines Algorithmus Typ-1-, Typ-2- oder sonstigem Diabetes zugeordnet, wobei als notwendige Bedingung festgelegt wurde, dass nur gesicherte Diagnosen gezählt werden, die pro Jahr in mindestens zwei Quartalen kodiert sein mussten. Als inzident wurden Patienten gezählt, die im Indexjahr eine gesicherte Diagnose und mindestens eine weitere Diagnose innerhalb der darauffolgenden drei Quartale erhalten haben sowie in einem dreijährigen Vorbeobachtungszeitraum keine Diabetes-Diagnose erhalten hatten.
Goffrier B, Schulz M, Bätzing-Feigenbaum J. Administrative Prävalenzen und Inzidenzen des Diabe-tes mellitus von 2009 bis 2015. Zentralinstitut für die kassenärztliche Versorgung in Deutschland (Zi). Versorgungsatlas-Bericht Nr. 17/03. Berlin 2017. DOI: 10.20364/VA-17.03. URL: http://www.versorgungsatlas.de/themen/alle-analysen-nach-datum-sortiert/?tab=6&a….

Der Versorgungsatlas.
www.versorgungsatlas.de
ist eine Einrichtung des Zentralinstituts für die kassenärztliche Versorgung (Zi). Es ist eine öffentliche Informationsquelle mit Studien zur medizinischen Versorgung in Deutschland. Schwerpunkt sind regionale Unterschiede in der ambulanten Versorgung. Die Analysen sollen Anhaltspunkte liefern, wie die medizinische Versorgung verbessert werden kann. Die Studien der Wissenschaftler des Versorgungsatlas basieren auf den bundesweiten Abrechnungsdaten der vertragsärztlichen Versorgung in Deutschland. Die Plattform steht auch anderen Forschergruppen für Publikationen zur Verfügung.

Pressestelle Versorgungsatlas
des Zentralinstituts für die Kassenärztliche
Versorgung in Deutschland (Zi), Berlin

Dipl. Biol. Barbara Ritzert
ProScience Communications –
die Agentur für Wissenschaftskommunikation GmbH
Andechser Weg 17 · 82343 Pöcking
Fon: +94 8157 9397-0

Weitere Informationen:
http://www.versorgungsatlas.de/themen/alle-analysen-nach-datum-sortiert/?tab=6&a…

Quelle: idw

(nach oben)


Und sie lächelt doch: Mona Lisas Mimik eindeutiger als gedacht

Benjamin Waschow Stabsstelle Unternehmenskommunikation
Universitätsklinikum Freiburg

Probanden bewerten Gesichtsausdruck auf da Vinci-Gemälde fast immer als fröhlich / Wissenschaftler des Universitätsklinikums Freiburg stellen damit Jahrhunderte lange Annahme der Kunstgeschichte in Frage

Es ist das vielleicht berühmteste Gemälde der Welt: die „Mona Lisa“ von Leonardo da Vinci. Als ein wesentlicher Grund für seine enorme Anziehungskraft galt lange Zeit der vermeintlich mehrdeutige Gesichtsausdruck der Gemalten: fröhlich oder traurig? Wissenschaftlerinnen und Wissenschaftler des Universitätsklinikums Freiburg, des Instituts für Psychologie der Universität Freiburg und des Freiburger Instituts für Grenzgebiete der Psychologie und Psychohygiene (IGPP) haben nun in einer Studie herausgefunden, dass Versuchspersonen die Mona Lisa in fast 100 Prozent der Fälle als fröhlich wahrnehmen. Sie stellten außerdem fest, dass die emotionale Einschätzung der Bilder davon abhängt, welche weiteren Bild-Varianten bisher gezeigt wurden. In ihrer Studie präsentierten die Forscher den Probanden das Original-Gemälde und acht Bild-Varianten, auf denen die Mundwinkel der Mona Lisa nach unten oder nach oben verschoben wurden und dadurch ein traurigerer oder fröhlicherer Gesichtsausdruck entstand. Die Studie ist am 10. März 2017 im renommierten Online-Journal Scientific Reports erschienen.

„Es war für uns eine große Überraschung, dass die Original-Mona Lisa fast immer als fröhlich wahrgenommen wird. Das widerspricht der gängigen Meinung der Kunstgeschichte“, sagt PD Dr. Jürgen Kornmeier, Leiter der Forschungsgruppe Wahrnehmung und Kognition im Freiburger IGPP und an der Klinik für Augenheilkunde des Universitätsklinikums Freiburg.

Fröhliche Gesichter werden schneller erkannt
Die Wissenschaftler um Dr. Kornmeier und Ko-Studienleiter Prof. Dr. Ludger Tebartz van Elst, Leitender Oberarzt an der Klinik für Psychiatrie und Psychotherapie des Universitätsklinikums Freiburg, erzeugten für die Studie zunächst acht Mona Lisa-Varianten, die sich nur in einer schrittweisen Veränderung der Mund-Krümmung unterschieden. Die Forscher präsentierten dann den zwölf Probanden das Original sowie je vier Bilder mit traurigerem und fröhlicherem Gesichtsausdruck in zufälliger Reihenfolge. Per Tastendruck gaben die Testpersonen für jedes Bild an, ob sie es als fröhlich oder traurig wahrnahmen, und anschließend, wie sicher sie sich bei ihrer Antwort waren. In der Summe der Antworten ergab sich so ein prozentualer Wert auf einer Skala von traurig bis fröhlich und ein Wert für die Sicherheit ihrer Entscheidung.

In nahezu 100 Prozent der Fälle wurden das Original sowie alle positiveren Varianten als fröhlich wahrgenommen. Dabei erkannten die Probanden fröhliche Gesichtsausdrücke schneller als traurige. „Es scheint, als hätten wir einen Filter für positive Gesichtsausdrücke in unserem Gehirn“, sagt Dr. Kornmeier.

Traurig ist nicht immer gleich traurig
In einem zweiten Experiment behielten die Forscher die Variante mit der geringsten Mund-Krümmung als traurigste Variante bei. Sie präsentierten dann das Mona Lisa-Original als fröhlichste Variante sowie sieben Zwischenvarianten, wobei drei davon schon im ersten Experiment gezeigt worden waren. Mit Erstaunen stellten die Forscher fest, dass die Probanden nun jene Bildvarianten, die schon im ersten Experiment gezeigt worden waren, tendenziell als trauriger wahrnahmen. „Die Daten zeigen, dass unsere Wahrnehmung, etwa ob ein Gesicht traurig oder fröhlich ist, nicht absolut ist, sondern sich erstaunlich schnell an die Umwelt anpasst“, sagt Dr. Kornmeier.

Die Studie ist Teil eines größeren Projekts von Dr. Kornmeier und Prof. Tebartz van Elst am Universitätsklinikum Freiburg, in dem Wahrnehmungsprozesse erforscht werden. „Mit unseren Sinnen können wir nur einen sehr eingeschränkten Teil der Information aus unserer Umwelt aufnehmen, beispielsweise weil ein Objekt teilweise verdeckt oder schlecht beleuchtet ist“, erläutert Dr. Kornmeier. „Das Gehirn muss dann aus den unvollständigen und oft mehrdeutigen Informationen ein Bild der Welt konstruieren, das der Realität am nächsten kommt“. Wie diese Konstruktionsprozesse bei Gesunden ablaufen und ob sie bei Menschen mit psychischen Erkrankungen, etwa mit Wahnvorstellungen, verändert sind, untersuchen die Freiburger Forscher.

Original-Titel zur Studie: Mona Lisa is always happy – and only sometimes sad
DOI: 10.1038/srep43511
Link zur Studie: www.nature.com/articles/srep43511

Kontakt:
PD Dr. Jürgen Kornmeier
Institut für Grenzgebiete der Psychologie und Psychohygiene
Telefon: 0761 207-2121 oder 0176 61387757
juergen.kornmeier@uni-freiburg.de

Johannes Faber
Referent für Presse- und Öffentlichkeitsarbeit
Unternehmenskommunikation
Universitätsklinikum Freiburg
Telefon: 0761 270-84610
johannes.faber@uniklinik-freiburg.de

Weitere Informationen:
http://www.nature.com/articles/srep43511 Link zur Studie
https://www.uniklinik-freiburg.de/psych.html Klinik für Psychiatrie und Psychotherapie des Universitätsklinikums Freiburg
http://www.igpp.de/allg/welcome.htm Institut für Grenzgebiete der Psychologie und Psychohygiene

Korrektur zu Absatz „Traurig ist nicht immer gleich traurig“
In einem zweiten Experiment behielten die Forscher die Variante mit der geringsten Mund-Krümmung als traurigste Variante bei. Sie präsentierten dann das Mona Lisa-Original als fröhlichste Variante sowie sieben Zwischenvarianten, wobei drei davon schon im ersten Experiment gezeigt worden waren. Mit Erstaunen stellten die Forscher fest, dass die Probanden nun jene Bildvarianten, die schon im ersten Experiment gezeigt worden waren, tendenziell als fröhlicher wahrnahmen. „Die Daten zeigen, dass unsere Wahrnehmung, etwa ob ein Gesicht traurig oder fröhlich ist, nicht absolut ist, sondern sich erstaunlich schnell an die Umwelt anpasst“, sagt Dr. Kornmeier.

Quelle: idw

(nach oben)


Warum ein Rückgang des Düngemitteleinsatzes in der Zukunft denkbar ist

Marie de Chalup Wissenschaftliche Abteilung
Wissenschaftliche Abteilung, Französische Botschaft in der Bundesrepublik Deutschland

Im Rahmen des französischen Programms EcoPhyto zur Minderung des Einsatzes von Pflanzenschutzmitteln haben Wissenschaftler des französischen Instituts für Agrarforschung (INRA) und des Unternehmens Agrosolutions eine Studie durchgeführt, um den Zusammenhang zwischen dem Einsatz von Düngemitteln und der landwirtschaftlichen Produktivität und Rentabilität zu untersuchen [1]. Die Daten dieser 3-jährigen Studie stammen aus 946 verschiedenen landwirtschaftlichen Betrieben, die dem Netzwerk DEPHY angehören. Dieses Netzwerk versammelt repräsentative französische Bauernhöfe mit unterschiedlicher Verwendung von Düngemitteln und unterschiedlichen landwirtschaftlichen Verfahren.

Im Rahmen des französischen Programms EcoPhyto zur Minderung des Einsatzes von Pflanzenschutzmitteln haben Wissenschaftler des französischen Instituts für Agrarforschung (INRA) und des Unternehmens Agrosolutions eine Studie durchgeführt, um den Zusammenhang zwischen dem Einsatz von Düngemitteln und der landwirtschaftlichen Produktivität und Rentabilität zu untersuchen [1]. Die Daten dieser 3-jährigen Studie stammen aus 946 verschiedenen landwirtschaftlichen Betrieben, die dem Netzwerk DEPHY angehören. Dieses Netzwerk versammelt repräsentative französische Bauernhöfe mit unterschiedlicher Verwendung von Düngemitteln und unterschiedlichen landwirtschaftlichen Verfahren.

Die Ergebnisse zeigen, dass der Zusammenhang zwischen dem Einsatz von Düngemitteln und der Produktivität/Rentabilität auch von den Boden- und Klimabedingungen, der parallelen Viehzucht (verbessert die Vielfalt durch den Anbau von widerstandsfähigen Futterpflanzen), dem Zugang zu Wasserressourcen bzw. den Absatzmöglichkeiten für industriell genutzte Kulturen abhängt. Daraus schließen die Forscher, dass eine Verringerung des Düngemitteleinsatzes in 94% der Fälle keine Auswirkung auf die Produktivität und in 78% der Fälle keine Auswirkung auf die Rentabilität hat. Einer Prognose für Frankreich zufolge wäre beim Düngemitteleinsatz ein Rückgang um 30% zu erwarten. Betriebe, die diese landwirtschaftliche Praxis anwenden würden, würden durchschnittlich 37% weniger Herbizide, 47% weniger Fungizide und 60% weniger Insektizide verwenden.

Die Ergebnisse zeigen weiterhin, dass ein verminderter Einsatz von Düngemitteln sich nicht zwangsläufig negativ auf die Produktivität/Rentabilität auswirkt, wenn bestimmte Anbausysteme berücksichtigt werden, z.B. eine Diversifizierung des Anbaus durch die Anpflanzung widerstandsfähiger Futterpflanzen bzw. Feldgraswirtschaft in Viehzuchtgebieten, Veränderung der Fruchtfolge, Anpassung der Aussaatzeiten oder mechanische Unkrautbekämpfung. Dennoch sind diese Empfehlungen in der Praxis schwer umzusetzen und bedürfen einer Unterstützung der Landwirte.

[1] Lechenet, Dessaint, Py, Makowski and Munier-Jolain, ꞌꞌReducing pesticide use while preserving crop productivity and profitability on arable farmsꞌꞌ. Nature plants, 2017.

Quellen:
ꞌꞌRéduire l’usage des pesticides en agriculture sans perte de performancesꞌꞌ, Pressemitteilung des INRA, 27.02.2017 – http://presse.inra.fr//Communiques-de-presse/Reduire-l-usage-des-pesticides-en-a…

ꞌꞌAgriculture : pourquoi la réduction des pesticides est possibleꞌꞌ, Artikel aus Le Monde, 27.02.2017 – http://www.lemonde.fr/planete/article/2017/02/27/agriculture-pourquoi-la-reducti…

Redakteur:
Luc Massat, luc.massat@diplomatie.gouv.fr

Quelle: idw

(nach oben)


Hoher Fleisch- und Wurstwarenkonsum verschlechtert die Symptome von Asthma

Marie de Chalup Wissenschaftliche Abteilung
Wissenschaftliche Abteilung, Französische Botschaft in der Bundesrepublik Deutschland

Ein Forschungsteam des Inserm hat im Rahmen einer siebenjährigen Studie aufgezeigt, dass ein hoher Konsum von Fleisch- und Wurstwaren (mindestens 4 Mal/Woche) mit einer Verschlechterung der Asthma-Symptome verbunden ist. Der Fleisch- und Wurstwarenkonsum wurde bereits von der WHO (Weltgesundheitsorganisation) als karzinogen und Ursache von chronischen obstruktiven Lungenerkrankungen anerkannt.

Im Rahmen der Studie wurden fast 1000 Personen über 7 Jahre beobachtet. In dieser Zeit beklagten 20% der Teilnehmer eine Verschlechterung ihrer Asthma-Symptome. Um die Ursachen dafür aufzuklären, haben die Forscher die Ernährung der Patienten analysiert.

Da der BMI (Body-Mass-Index) ein bereits bekannter Risikofaktor für Asthma ist, mussten die Forscher diesen Parameter aus der Analyse entfernen, da dieser das Ergebnis verfälschen könnte. Es ist nachvollziehbar, dass der BMI einen kausalen Zusammenhang zwischen Ernährung (Fleisch- und Wurstwarenkonsum) und Asthma herstellt. Durch diese Methode konnte nur bei 14% ein Zusammenhang zwischen Fleisch- und Wurstwarenkonsum und Asthma infolge von Fettleibigkeit festgestellt werden (indirekte Wirkung). Das bestätigt, dass der Fleisch- und Wurstwarenkonsum eine direkte Wirkung unabhängig vom BMI auf die Verschlechterung von Asthma hat.

Originalpublikation:
Li, Z., Rava, M., Bédard, A., Dumas, O., Garcia-Aymerich, J., Leynaert, B., … & Camargo, C. A. (2016). Cured meat intake is associated with worsening asthma symptoms. Thorax, thoraxjnl-2016.

Quelle:
„Charcuterie et asthme : meilleurs ennemis ?“, Pressemitteilung des Inserm
http://presse.inserm.fr/charcuterie-et-asthme-meilleurs-ennemis/27201/

Redakteurin:
Laura Voisin, laura.voisin@diplomatie.gouv.fr

Weitere Informationen:
http://www.wissenschaft-frankreich.de/de/gesundheit/hoher-fleisch-und-wurstwaren…

Quelle: idw

(nach oben)


Neubildung von Grundwasser exakter berechnen

Rudolf-Werner Dreier Presse- und Öffentlichkeitsarbeit
Albert-Ludwigs-Universität Freiburg im Breisgau

Wissenschaftler zeigen, dass bisherige Modelle die Heterogenität des Untergrunds teils unzureichend berücksichtigen

Eine internationale Forschungsgruppe um den Hydrologen Dr. Andreas Hartmann von der Universität Freiburg hat nachgewiesen, dass Berechnungen zur Verfügbarkeit von Wasser und zur Abschätzung der Folgen des Klimawandels stark verbessert werden können, wenn in großskaligen Modellen wichtige hydrologische Prozesse berücksichtigt werden – etwa wie durchlässig Gestein und Erde an manchen Stellen sind. Die Studie zeigt, dass für etwa 560 Millionen Menschen in Europa, Nordafrika und im Mittleren Osten potenziell mehr Grundwasser pro Kopf zur Verfügung stünde als bislang von großskaligen Modellen angenommen. Die Wissenschaftlerinnen und Wissenschaftler weisen darauf hin, dass bisherige, auf ganze Kontinente bezogene Modellrechnungen die Menge des Grundwassers, das sich aus Teilen des versickernden Niederschlags neu bildet, teilweise stark unterschätzen. Die Ergebnisse der Studie legen nahe, dass großskalige hydrologische Modelle weitere Verbesserungen benötigen, bevor sie für lokales Wassermanagement eingesetzt werden können. Das Team hat seine Ergebnisse in der Fachzeitschrift „Proceedings of the National Academy of Sciences“ (PNAS) veröffentlicht.

Grundwasser ist in vielen Regionen weltweit eine lebenswichtige Ressource. Die Rate seiner Neubildung ist für das Trinkwassermanagement eine wichtige Größe, um eine nachhaltige Versorgung sicherzustellen. Die Wissenschaftler haben zwei Modelle, welche die Grundwasserneubildung modellieren, miteinander verglichen: ein globales, das schon länger etabliert ist, aber die Heterogenität des Untergrunds nur beschränkt berücksichtigt, und ein selbst entwickeltes kontinentales, das beispielsweise die variable Dicke des Bodens und die unterschiedliche Wasserdurchlässigkeit des Untergrunds mit einbezieht. Den Vergleich haben sie für alle Karstregionen Europas, Nordafrikas und des Mittleren Ostens vorgenommen. Diese sind für ihre starke Heterogenität des Untergrunds bekannt, weil Karbonatgestein eine starke Tendenz zur chemischen Verwitterung – als Verkarstung bezeichnet – aufweist, was unter anderem zu unterschiedlichen Bodentiefen und Durchlässigkeiten führt. Ein Vergleich der Modellrechnungen mit unabhängigen Beobachtungen der Grundwasserneubildung an 38 Orten in den Regionen hat gezeigt, dass das Modell, das die Heterogenität berücksichtigt, realistischere Abschätzungen hervorbringt.

Die Forscherinnen und Forscher erklären den Grund für den Unterschied zwischen den beiden Modellen: Das von den Wissenschaftlern neu entwickelte zeigt in der Simulation weniger Oberflächenabfluss und eine geringere Verdunstung – und damit mehr Grundwasserneubildung. Ein Bauer in der mediterranen Region würde dem neuen Modell zufolge potenziell bis zu eine Million Liter Grundwasser zur Förderung im Jahr mehr zur Verfügung stehen als nach dem etablierten Modell – abhängig von der tatsächlichen Beschaffenheit des Untergrunds und dem Wasserbedarf des Ökosystems vor Ort.

Die Wissenschaftler zeigen mit ihrem Ansatz am Beispiel der Karstregionen, wie es möglich sein kann, globale Modelle, die unter anderem zur Prognose von Wassermangel, Trockenheit oder Hochwasser eingesetzt werden, realistischer an regionale Gegebenheiten anzupassen. An der Studie waren Forscher der Universität Freiburg, der Victoria University in Kanada, der University of Bristol in England sowie des International Institute for Applied Systems Analysis in Österreich beteiligt.

Originalveröffentlichung:
Hartmann, A., Gleeson, T., Wada, Y., Wagener, T., 2017. Enhanced groundwater recharge rates and altered recharge sensitivity to climate variability through subsurface heterogeneity. In: „Proceedings of the National Academy of Sciences“; doi:10.1073/pnas.1614941114.

Kontakt:
Dr. Andreas Hartmann
Professur für Hydrologie
Albert-Ludwigs-Universität Freiburg
Tel.: 0761/203-3520
E-Mail: andreas.hartmann@hydrology.uni-freiburg.de

Weitere Informationen:
https://www.pr.uni-freiburg.de/pm/2017/pm.2017-02-28.25

Quelle: idw

(nach oben)


Neue App: Welches Elektroauto zu welchem Fahrer passt

Dr. Julia Weiler Dezernat Hochschulkommunikation
Ruhr-Universität Bochum

Eine neue App hilft Autofahrern zu entscheiden, ob der Umstieg vom Benziner auf ein Elektroauto für sie praktikabel wäre – und welches Fahrzeugmodell am besten zu ihren Bedürfnissen passen würde. Entwickelt haben sie Ingenieure der Ruhr-Universität Bochum um Prof. Dr. Constantinos Sourkounis. Mit der Smartphone-App können Fahrer typische Strecken aufzeichnen, während sie zum Beispiel mit ihrem Benziner unterwegs sind. Aus den gesammelten Daten generiert das Programm eine Liste von Fahrzeugmodellen, die die Anforderungen des Fahrers erfüllen würden, zum Beispiel eine ausreichende Reichweite hätten. Auch Informationen zur Kostenersparnis können sich Anwender anzeigen lassen.

Erhältlich ist die mehrsprachige App für das Smartphone-Betriebssystem Android als Download unter elektromobilitaet.rub.de. Eine Version mit eingeschränktem Informationsgehalt ist kostenlos erhältlich, die Vollversion zum Preis von 1,50 Euro. Medienvertreter erhalten die Vollversion auf Anfrage 20 Tage lang zu Testzwecken gratis.

App individuell konfigurierbar
Philip Dost entwickelte die App gemeinsam mit Masterarbeitsstudent Christoph Degner am Institut für Energiesystemtechnik und Leistungsmechatronik von Constantinos Sourkounis. „Die App soll Interessenten, aber auch Skeptikern, helfen auszuloten, ob ein Elektroauto oder ein Hybridfahrzeug für sie funktionieren würde“, sagt der Projektverantwortliche Philip Dost. „Außerdem können Leute damit herausfinden, ob ein E-Car-Sharing-Angebot in ihrer Umgebung für ihre Bedürfnisse ausreichend wäre.“

Die App zeichnet während der Fahrt GPS-Daten und Beschleunigung auf. Nutzer können selbst entscheiden, welche Strecken in die Analyse einfließen sollen, etwa nur der typische Weg zur Arbeit, aber nicht der Familienausflug am Wochenende, der möglicherweise mit einem anderen Auto erfolgt. Sie starten das Programm, wenn sie losfahren, und stoppen es, wenn sie angekommen sind. Die Anwender können auch angeben, an welchen Stellen auf der Strecke Ladesäulen verfügbar sind. Andere Anforderungen, etwa die zu befördernde Personenzahl oder den Platz im Kofferraum, können sie ebenfalls spezifizieren. Außerdem können die Nutzer eintragen, ob sie das Fahrzeug nur bei mildem oder auch bei kaltem Klima betreiben möchten.

Sortierbare Liste
Aus allen Aufzeichnungen können die Anwender auswählen, welche Fahrten in die Analyse einfließen sollen. Als Resultat bekommen sie eine Liste von Fahrzeugen angezeigt, die die ausgewerteten Strecken meistern könnten. Diese enthält nicht nur reine Elektrofahrzeuge, sondern auch Plug-in-Hybride und Range Extender, die bei leerer Batterie auf Benzinantrieb umschalten. Die Liste lässt sich nach unterschiedlichen Kriterien, etwa laufenden Verbrauchskosten oder Kaufpreis, sortieren.

Zu jedem infrage kommenden Fahrzeugmodell zeigt die App auf Wunsch Statistiken an. Eine Grafik visualisiert zum Beispiel, wie der Energieverbrauch auf den gefahrenen Strecken mit dem ausgewählten Elektrofahrzeug gewesen wäre. So kann der Nutzer sehen, wie viel Puffer er gehabt hätte, bevor die Batterie zuneige gegangen wäre.

Kostenvorteil berechnen
Die App schätzt auch Verbrauchskosten im Vergleich zum aktuellen Fahrzeug. Dazu müssen Nutzer Strom- und Benzinpreis eingeben sowie den Verbrauch ihres derzeitigen Autos. Basierend darauf berechnet die App, wie viel mehr oder weniger Kosten man auf den untersuchten Strecken mit einem Elektroauto erzielt hätte.

Das Programm greift auf eine Datenbank am Bochumer Institut für Energiesystemtechnik und Leistungsmechatronik zu. Diese aktualisieren die Forscher regelmäßig, fügen etwa neu auf den Markt kommende Fahrzeuge hinzu oder entfernen nicht mehr verfügbare Modelle. „Fahrzeuge, die nicht mehr produziert werden, zeigen wir in der App immer noch an, wenn sie noch gebraucht zu kaufen sind“, erklärt Dost. „Sie werden dann aber speziell markiert.“

Auch als Web-Anwendung verfügbar
Wer kein Android-Smartphone oder kein Auto besitzt, kann den Bochumer Service in vereinfachter Form auch auf einer Webseite nutzen. Dort können Interessenten Daten von typischen Fahrten eingeben und sich eine ähnliche Ausgabe wie in der App anzeigen lassen. Die von Rania Kontopoulou im Rahmen eines Institutsprojekts programmierte Web-Anwendung steht ebenfalls kostenlos unter elektromobilitaet.rub.de bereit.

Projekt
Beide Analysetools, also Web-Anwendung und Smartphone-App, entstanden im Projekt „Evaluation“, an dem auch Philipp Spichartz beteiligt war. Das Team vom Institut für Energiesystemtechnik und Leistungsmechatronik setzte die Arbeiten ohne Drittmittelfinanzierung um. Die Idee dafür ging aus Vorläuferprojekten zum Thema „Alltagstauglichkeit von Elektromobilität“ hervor.

Quelle: idw

(nach oben)


Lebensstil kann Grauen Star beeinflussen: Diabetes, Rauchen und Übergewicht trüben die Augenlinse

Lisa-Marie Ströhlein Pressestelle
Deutsche Ophthalmologische Gesellschaft

München – Fast zehn Millionen Menschen in Deutschland leiden an einem Grauem Star. Stoffwechselerkrankungen wie Diabetes mellitus, Zigarettenrauch und starkes Übergewicht sind wichtige Risikofaktoren, die die Trübung der Augenlinse beschleunigen bis schließlich eine Operation nötig wird. Patienten mit einem beginnenden Grauen Star müssen über diese Risikofaktoren aufgeklärt und bei der Umsetzung eines gesünderen Lebensstils unterstützt werden, fordern Experten der Deutschen Ophthalmologischen Gesellschaft (DOG).

Nach Schätzung der DOG müssen Augenärzte in Deutschland mindestens 800 000 Augen pro Jahr wegen eines Grauen Stars operieren. Damit ist der Linsenaustausch der häufigste Eingriff hierzulande. Experten berechnen die Kosten für das Gesundheitssystem mit über 600 Millionen Euro pro Jahr (1). „Der Graue Star ist eine echte Volkskrankheit und der häufigste Grund für Sehbehinderung weltweit“, sagt DOG-Präsident Professor Dr. med. Thomas Kohnen. „Genetische Faktoren und Umwelteinflüsse spielen bei der Krankheitsentstehung eine Rolle, wie wir heute wissen“, so Kohnen weiter. Diese Zusammenhänge müssten weiter erforscht werden.

Eine leichte Trübung der Augenlinse ab dem 60. Lebensjahr sei eine ganz normale Alterserscheinung, sagt Kohnen, der die Klinik für Augenheilkunde am Universitätsklinikum Frankfurt leitet. „Erst wenn sich die Trübung so verstärkt, dass sie das Sehen stark beeinträchtigt, muss die getrübte Linse durch eine Kunstlinse ersetzt werden.“ Studien deuten darauf hin, dass der Lebensstil, zum Beispiel Ernährung und körperliche Aktivität einen Einfluss darauf hat, wie schnell die Trübung voranschreitet. So identifizierte eine englische Kohorten-Studie (2) im vergangenen Sommer die Stoffwechselerkrankung Diabetes als einen bedeutenden Risikofaktor bei Frauen nach den Wechseljahren. Bei Studienteilnehmerinnen, die unter Diabetes mellitus litten, war das Risiko wegen eines Grauen Stars operiert zu werden dreimal größer als bei gesunden Probandinnen. Rauchen erhöhte dieses Risiko um 26 Prozent; starkes Übergewicht (BMI>30) um zwölf Prozent.

„Diese Ergebnisse zeigen einmal mehr wie wichtig es ist, dass wir als Augenärzte Patienten darüber aufklären, wie sie selbst dazu beitragen können, das Fortschreiten eines Grauen Stars zu vermeiden“, sagt Professor Dr. med. Christian Ohrloff, Mediensprecher der DOG. So sollte bei Menschen mit Diabetes auch zum Schutz der Augen der Blutzucker stets gut eingestellt sein. Der Verzicht auf Zigaretten wiederum schützt gleichzeitig vor Erkrankungen der Lunge oder des Herz-Kreislauf-Systems. Auch eine ausgewogene, vitaminreiche Ernährung und regelmäßige Bewegung können die Augen gesund halten (3).

Quellen:
(1) C. Hirneiß, A. Kampik, A. S. Neubauer. Volkswirtschaftliche Kosten von Augenerkrankungen. Der Ophthalmologe 2014; 111: 420-427

(2) S. Floud et al. Risk factors for cataracts treated surgically in postmenopausal women, Ophthalmology, 2016 Aug; 123(8): 1704-1710

(3) J. Z. Selzin et al.: Long-term physical activity and risk of age-related cataract: a population-based prospective study of male and female cohorts
2015, Ophthalmology; 122: 274-280

DOG: Forschung – Lehre – Krankenversorgung
Die DOG ist die medizinisch-wissenschaftliche Fachgesellschaft für Augenheilkunde in Deutschland. Sie vereint unter ihrem Dach mehr als 6500 Ärzte und Wissenschaftler, die augenheilkundlich forschen, lehren und behandeln. Wesentliches Anliegen der DOG ist es, die Forschung in der Augenheilkunde zu fördern: Sie unterstützt wissenschaftliche Projekte und Studien, veranstaltet Kongresse und gibt wissenschaftliche Fachzeitschriften heraus. Darüber hinaus setzt sich die DOG für den wissenschaftlichen Nachwuchs in der Augenheilkunde ein, indem sie zum Beispiel Stipendien vor allem für junge Forscher vergibt. Gegründet im Jahr 1857 in Heidelberg ist die DOG die älteste augenärztliche Gesellschaft der Welt.

Quelle: idw

(nach oben)


UDE koordiniert EU-Netzwerk: Gewässer besser analysieren

Beate Kostka M.A. Ressort Presse – Stabsstelle des Rektorats
Universität Duisburg-Essen

Nähr- und Schadstoffe, aber auch der Klimawandel bedrohen die Meere, Seen, Flüsse und das Grundwasser weltweit. Um wirksame Gegenmaßnahmen einleiten zu können, muss man genau wissen, welche Organismen in den Gewässern leben. Schnell, standardisiert und umfassend lässt sich dies über genetische Verfahren erheben. Allerdings wurden sie bisher nur exemplarisch getestet und noch in keinem standardisierten nationalen oder internationalen Programm eingesetzt. Um dies zu ändern, gründete sich kürzlich ein internationales Netzwerk DNAqua-Net mit mehr als 250 Vertretern aus 41 Nationen.

Ihr erstes Treffen fand vom 7. bis 8. März an der Universität Duisburg-Essen (UDE) statt – auf Einladung von Prof. Dr. Florian Leese, Leiter des Fachgebiets Aquatische Ökosystemforschung. Organisiert wird die Auftaktveranstaltung vom Zentrum für Wasser- und Umweltforschung (ZWU) der UDE.

Das DNAqua-Net ist eine EU COST Action (Co-Operation in Science and Technology), in dem sich Vertreter aus Wissenschaft, Verbänden, Behörden, und Industrie zusammengefunden haben. Die EU fördert das Vorhaben an der UDE für vier Jahre. In fünf Arbeitsgruppen erarbeitet das Netzwerk konkrete Vorschläge, wie DNA-basierte Techniken genutzt werden können, um die Biodiversität standardisiert zu erfassen, bewerten und letztendlich in die Monitoringpraxis einzubinden.

Belastete Gewässer beeinträchtigen nicht nur das jeweilige Ökosystem (z.B. Selbstreinigungsfähigkeit, Photosynthese, Biomasseproduktion), sondern wirken sich auch auf den Menschen aus. Nach der EU-Wasserrahmenrichtlinie sind alle Mitgliedsstaaten verpflichtet, die Oberflächengewässer bis 2027 in einen guten Zustand zu überführen oder diesen zu halten.

Wie sauber ein Gewässer ist, zeigen verschiedene ökologisch-wichtige Schlüsselarten an (Bioindikatoren): Fische, Wasserpflanzen, Mikroalgen sowie Eintags-, Stein- und Köcherfliegen. Sie werden bestimmt, in Listen eingetragen und mit denen von Referenzgewässern verglichen. Dann wird die ökologische Zustandsklasse ermittelt und bei Bedarf Verbesserungsmaßnahmen konzipiert.

Prof. Leese: „Dieser Prozess ist sehr zeitaufwändig, teuer und oft nicht standardisiert.“ Außerdem sind die kleinen Organismen kaum auseinanderzuhaltenden und werden deshalb oft fehlbestimmt. Bei der genetischen Methode kann das nicht passieren. Die Artengemeinschaften werden anhand ihres Erbguts eindeutig bestimmt (DNA-basierte Bioindikation), selbst dann, wenn nur wenige Bruchstücke der Organismen vorliegen.

Von der Beprobung über die Artenliste von Mikroben bis hin zu höheren Tieren dauert der Prozess nur wenige Tage und kostet kaum mehr als die bislang gängigen Verfahren. Allerdings müssen noch technische und konzeptionelle Fragen geklärt werden, bevor DNA-basierte Techniken im bestehenden Verfahren eingesetzt werden können. Genau diese Probleme greift das DNAqua-Net auf.

Weitere Informationen: Prof. Dr. Florian Leese, Chair der DNAqua-Net EU COST Action CA15219, Fakultät für Biologie, Aquatische Ökosystemforschung, Tel. 0201/183-4172, florian.leese@uni-due.de,

Redaktion: Beate Kostka, Tel. 0203/379-2430, beate.kostka@uni-due.de

Weitere Informationen:
http://dnaqua.net
http://www.cost.eu/COST_Actions/ca/CA15219

Quelle: idw

(nach oben)


Psychologen untersuchten Persönlichkeitsveränderungen junger Menschen

Susann Huster Stabsstelle Universitätskommunikation/Medienredaktion
Universität Leipzig

Vom Ende der Adoleszenz bis ins junge Erwachsenenalter erleben viele Menschen positive Veränderungen ihrer Persönlichkeit. Eine neue Studie von einem internationalen Team aus Psychologen der Universitäten Leipzig, Mainz, Stanford und Cambridge zeigt nun, dass auch Bekannte diese Veränderungen wahrnehmen. Zudem fanden die Forscher heraus, dass mit zunehmendem Alter die Selbst- und die Außenperspektive auf die Persönlichkeit zunehmend ähnlicher werden.

Der Übergang von der Jugend zum Erwachsenenalter wird oft von positiven Persönlichkeitsveränderungen begleitet: Wir werden beispielsweise zunehmend emotional stabil und gewissenhafter. Dieser von zahlreichen Studien gut belegte Befund wird als Persönlichkeitsreifung bezeichnet. Allerdings beruhten bislang viele dieser Studien nur auf Selbstbeschreibungen der eigenen Persönlichkeit, weswegen nur wenig darüber bekannt ist, ob auch Freunde und Bekannte diese Veränderungen wahrnehmen.
Um diese Wissenslücke zu schließen, analysierten Julia Rohrer und Prof. Dr. Stefan Schmukle von der Universität Leipzig, Prof. Dr. Boris Egloff von der Johannes Gutenberg-Universität Mainz, Prof. Dr. Michal Konsinski von der Stanford University (USA) und Dr. David Stillwell von der University of Cambridge die Persönlichkeitsprofile von über 10.000 Nutzern der Facebook-App myPersonality im Alter zwischen 14 und 29 Jahren.

Das besondere hierbei war, dass die Nutzer nicht nur selbst Persönlichkeitsfragebögen ausfüllten, sondern zusätzlich auch von Facebook-Freunden eingeschätzt wurden. Das ermöglichte es den Forschern zu prüfen, ob sich die Veränderungen mit dem Alter nicht nur im Selbstbericht, sondern auch im Fremdbericht durch Bekannte wiederfinden. Zudem erlaubten es die Daten, zu untersuchen, wie hoch die Übereinstimmung zwischen Selbst- und Fremdperspektive ist. Die Ergebnisse dieser Analysen erschienen gerade in der renommierten Fachzeitschrift „Journal of Personality and Social Psychology“.

„Im Großen und Ganzen kann man sagen, dass die Alterseffekte im Selbstbericht denen in der Einschätzung durch Bekannte ähneln. Ältere Personen berichten, dass sie extrovertierter, gewissenhafter und offener für neue Erfahrungen sind – und die Persönlichkeitseinschätzungen durch Bekannte zeigen die gleichen Trends“, erklärt Rohrer. Allerdings gab es auch Punkte, in denen Uneinigkeit herrschte: Während ältere Befragte berichteten, dass sie emotional stabiler seien, teilten ihre Bekannten nicht diese Fremdeinschätzung. „Ein möglicher Grund dafür ist, dass Anzeichen von niedriger emotionaler Stabilität – wie übermäßige Besorgtheit und Ängstlichkeit – von außen nicht so gut sichtbar sind. Deswegen bemerken Außenstehende vielleicht nicht, dass jüngere Erwachsene vergleichsweise weniger emotional stabil sind“, schlägt Egloff als eine Erklärung des Befundes vor. Weiterhin betrachteten die Forscher die Stärke der Übereinstimmung zwischen Selbst- und Fremdbericht und fanden, dass diese mit zunehmendem Alter ansteigt. Die Forscher interpretieren dies als ein mögliches weiteres Anzeichen der Persönlichkeitsreifung. „Inhaltlich scheint das zunächst plausibel, und mehrere Erklärungen hierfür sind denkbar. Zum Beispiel könnte es sein, dass mit zunehmender Reife die Personen selbst ihre Persönlichkeit präziser einschätzen können oder, dass sie sich in Beziehungen zu anderen authentischer verhalten und deswegen andere ihre Persönlichkeit genauer beurteilen können“, sagt Schmukle. „Allerdings müssen unsere Ergebnisse auf jeden Fall noch einmal mit längsschnittlichen Daten bestätigt werden“, schränkt er ein, „denn unsere Studie beruht darauf, dass wir jüngere Personen mit älteren vergleichen. Daher sollten unsere Ergebnisse in Studien überprüft werden, in denen man die gleichen Personen über einen längeren Zeitraum verfolgt und beobachtet, wie sich die Persönlichkeit aus unterschiedlichen Perspektiven über die Zeit hinweg ändert.“

Originaltitel der Veröffentlichung im „Journal of Personality and Social Psychology“:

„In Your Eyes Only? Discrepancies and Agreement Between Self- and Other-Reports of Personality From Age 14 to 29“
doi.org/10.1037/pspp0000142

Weitere Informationen:
Julia Rohrer
Institut für Psychologie der Universität Leipzig
Telefon: +49 341 97-35919
E-Mail: julia.rohrer@uni-leipzig.de
Web: home.uni-leipzig.de/diffdiag/pppd

Prof. Dr. Stefan Schmukle
Institut für Psychologie der Universität Leipzig
Telefon: +49 341 97-35902
E-Mail: schmukle@uni-leipzig.de
Web: home.uni-leipzig.de/diffdiag/pppd

Weitere Informationen:
http://psycnet.apa.org/psycinfo/2017-07265-001/

Quelle: idw

(nach oben)


Bin ich nicht zu alt dafür? Musiktherapie gegen Tinnitus für die Generation 65plus

Natascha Schettler-Brox Öffentlichkeitsarbeit
Deutsches Zentrum für Musiktherapieforschung (Viktor Dulger Institut) DZM e.V.

Tinnitus-Musiktherapie auch bei „Best Agern“ sehr effektiv

Etwa jeder vierte Mensch über 65 Jahren leidet unter Tinnitus- mit steigender Tendenz.
Dieser Alterstrend lässt sich auch in der Tinnitusambulanz am Deutschen Zentrum für Musiktherapieforschung DZM e.V. beobachten: Seit über 10 Jahren wird die Neuro-Musiktherapie bei Tinnitus angeboten und zunehmend von Senioren angefragt und in Anspruch genommen. Dabei taucht immer wieder die Besorgnis auf „für diese Therapie bin ich doch schon zu alt, oder?“
Ausgehend von diesem Alterstrend wurde nun die „Neuro-Musiktherapie“ für chronischen Tinnitus speziell auf die Bedürfnisse der Generation 65plus abgestimmt.
Ergebnisse einer aktuellen Analyse an 140 Tinnitusbetroffenen bestätigen, dass Teilnehmer ab 65 Jahren (Durchschnittsalter 72 Jahre) davon profitieren – und sogar eine größere Chance auf Therapieerfolg erreichen, wie eine im Schnitt rund 25 Jahre jüngere Vergleichsgruppe. Insgesamt erreichten rund 80% der behandelten Senioren eine spürbare Verbesserung ihrer Tinnitussymptome.
Gerade weil sich die Best Ager überwiegend „reich, jung und fit“ (Quelle: Generali Altersstudie) fühlen, stellt ein dauerhaftes Ohrgeräusch eine deutliche Belastung dar und führt zu Einbußen in der Lebensqualität im dritten Lebensabschnitt. In der Regel sind die bisherigen Therapieangebote offen für eine sehr große Zielgruppe, richten sich aber implizit vor allem an die Gruppe der berufstätigen Erwachsenen im Alter zwischen 35 und 60 Jahren. Eine spezielle Anpassung der Therapie, wie sie am DZM e.V. angeboten wird, erhöht allerdings die Therapiechancen drastisch.

Die Tinnitusambulanz des Deutschen Zentrums für Musiktherapieforschung bietet laufend Kompakttherapien für Patienten mit akutem und chronischem Tinnitus an. Weitere
Informationen für Patienten sind telefonisch erhältlich unter 06221 – 79 63 101 oder per E-Mail unter
tinnitusambulanz@dzm-heidelberg.de.

Das Deutsche Zentrum für Musiktherapieforschung (Viktor Dulger Institut) DZM e. V. wurde 1995 in Heidelberg gegründet. Heute ist das DZM eines der größten musiktherapeutischen Forschungsinstitute in Europa und vereint Forschung und Praxis unter einem Dach. Das DZM ist als gemeinnützig anerkannt und finanziert sich zum überwiegenden Teil aus Spenden und Forschungsdrittmittel. Am DZM entwickeln und erforschen Musiktherapeuten, Mediziner, Musikwissenschaftler und Psychologen in interdisziplinären Projekten musiktherapeutische und musikmedizinische Konzepte zur Verbesserung der Lebenssituation erkrankter Menschen.
Außer dem Forschungsinstitut gehören eine Tinnitus- sowie eine Cochlea-Implantat-Ambulanz zum DZM.

Weitere Informationen:
Deutsches Zentrum für Musiktherapieforschung
(Viktor Dulger Institut) DZM e.V.
Ansprechpartner: Natascha Schettler-Brox
Maaßstraße 26
69123 Heidelberg
Telefon: +49 (6221) 83 38 60
Telefax: +49 (6221) 73 999 89
E-Mail: dzm@dzm-heidelberg.de
Internet: www.dzm-heidelberg.de

Weitere Informationen:
http://www.dzm-heidelberg.de

Quelle: idw

(nach oben)


Meeresforschung in Echtzeit verfolgen

Dr. Andreas Villwock Kommunikation und Medien
GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel

Ab sofort können alle Interessierten live im Internet verfolgen, wo das GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel Wave-Glider einsetzt. Dabei handelt es sich um von Wellenkraft angetriebene Messplattformen, die wochen- oder auch monatelang die Oberfläche der Meere abfahren können. Auf dem Internetportal „GEOMAR Navigator“ sind neben Kursen und Geschwindigkeiten der Geräte auch aktuelle Messdaten aus dem Ozean einsehbar. Entwickelt wurde das Portal in einer Forschungskooperation mit dem Oman, die erste Testmission findet aktuell im subtropischen Nordostatlantik statt.

Die Ausdehnung der Ozeane in Fläche und Volumen ist gigantisch. Daten aus ihnen zu erheben und ihren Zustand zu vermessen ist daher eine gewaltige Aufgabe. Mehr und mehr erweitern ferngesteuerte und vorprogrammierte Geräte die Reichweite und die Ausdauer der menschlichen Forschenden. Zu diesen Geräten gehören auch sogenannte Wave-Glider. Angetrieben von der Energie der Wellen können die Surfbrett-ähnlichen Schwimmkörper wochen- oder sogar monatelang bestückt mit unterschiedlichsten Sensoren auf der Oberfläche der Meere kreuzen.

Das GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel verfügt mittlerweile über drei dieser Geräte. Ab sofort können alle Interessierten die Missionen dieser Wave-Glider live online auf der Plattform „GEOMAR Navigator“ (https://waveglider.geomar.de/navigator) verfolgen. Zur Premiere zeigt sie die aktuellen Missionen von zwei Wave-Glidern rund um einen Unterwasserberg nahe der kapverdischen Inseln.

Kurse, Geschwindigkeiten, schon zurückgelegte Strecken, aber auch Wetterdaten, weitere Messwerte und Hintergrundinformationen zu jeweiligen Forschungsprojekten – all diese Daten sind auf dem „GEOMAR Navigator“ einsehbar. „Zuallererst dient die Plattform dazu, dass, wer auch immer eine Wave-Glider Mission leitet, die Missionsparameter jederzeit bequem vom Büro, vom heimischen Sofa oder vom Hotelzimmer aus überwachen kann“, erklärt Programmierer Patrick Leibold aus der Arbeitsgruppe Technologietransfer des GEOMAR, der das Portal entwickelt hat.

„Letztendlich kann aber jeder interessierte Mensch das Portal nutzen, um die Missionen unserer Geräte zu verfolgen“, ergänzt Dr. Warner Brückmann, Leiter des Technologietransfers am GEOMAR. Die beiden Wave-Glider, die derzeit im Einsatz sind, sind Teil der Expedition MSM61 des deutschen Forschungsschiffs MARIA S. MERIAN. Mit einer ganzen Anzahl unterschiedlicher Geräte will das Team an Bord das Ökosystem rund um den Senghor Seamount, einen Unterwasserberg nördlich der Kapverden-Insel Sal, besser verstehen.

Einer der beiden Wave-Glider der Testmission gehört dem GEOMAR und ist schon häufiger als schwimmende Messplattform rund um das Kapverdische Ozean-Observatorium (Cape Verde Ocean Observatory, CVOO) zum Einsatz gekommen. Den zweiten hat das Bremer Zentrum für Marine Umweltwissenschaften MARUM jetzt zur Expedition beigesteuert. „Für uns ist diese Ausfahrt ein wichtiger Testlauf, wie gut das Portal funktioniert und ob die Forschenden damit zurechtkommen“, sagt Leibold, der selbst mit an Bord der MARIA S. MERIAN ist.

Der Anstoß zur Entwicklung des Portals und die Finanzierung stammen aus einer Kooperation des GEOMAR mit dem Wüstenstaat Oman. Dort soll demnächst der neueste GEOMAR Wave-Glider nach Grundwasseraustritten am küstennahen Meeresboden suchen. „Ziel ist es, ein besseres Verständnis von Süßwassersystemen im Untergrund von Küstenregionen zu erhalten. Für den Oman ist dieses Verständnis von existentieller Bedeutung. Süßwasser ist dort eine sehr knappe und damit umso wichtigere Lebensgrundlage. Eine falsche Bewirtschaftung würde sie bedrohen“, erklärt Dr. Brückmann.

Das im Rahmen des Oman-Projektes entwickelte Online-Portal wird aber allen Gruppen, die am GEOMAR Wave-Glider betreuen, zur Verfügung stehen. „Und darüber hinaus kann die gesamte deutsche Meeresforschung die Technik nutzen, wie gleich die erste Testmission in Zusammenarbeit mit dem MARUM zeigt“, sagt Dr. Brückmann.

Weitere Informationen:
http://www.geomar.de Das GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel
https://waveglider.geomar.de/navigator Das Wave Glider Portal GEOMAR Navigator
https://waveglider.geomar.de/navigator/?p=dashboard&m=SENGHOR&v=0
Direkter Link zur aktuellen Wave-Glider-Mission am Senghor Seamount

Quelle: idw

(nach oben)


Bitte nichts verraten! Wenn es um die eigene Zukunft geht, wollen die meisten nichts wissen

Kerstin Skork Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Bildungsforschung

Möchten Sie wissen, wann Sie sterben werden? Hätten sie die Möglichkeit, in die Zukunft zu sehen, zögen es die meisten Menschen vor, lieber nicht wissen zu wollen, was das Leben für sie bereithält. Auch nicht, wenn es etwas Positives sein könnte. Dies zeigt eine aktuelle Studie von Wissenschaftlern des Max-Planck-Instituts für Bildungsforschung in Berlin und der Universität Granada, die in der Fachzeitschrift Psychological Review erschienen ist.

„In der griechischen Mythologie hatte Kassandra, die Tochter des trojanischen Königs, die Gabe, in die Zukunft sehen zu können. Aber sie war auch dazu verflucht, dass niemand ihren Prophezeiungen Glauben schenkte“, sagt Gerd Gigerenzer, Erstautor der Studie und Direktor des Forschungsbereichs „Adaptives Verhalten und Kognition“ am Max-Planck-Institut für Bildungsforschung. „In unserer Studie haben wir herausgefunden, dass Menschen die Sehergabe, die Kassandra berühmt machte, eher ablehnen und auf Wissen über ihre persönliche Zukunft verzichten würden. Dahinter steht das Bestreben, mögliches Leid und Bedauern zu umgehen, welches das Wissen über die Zukunft mit sich bringen könnte. Gleichzeitig möchten sie sich aber auch die freudige Spannung von schönen Erlebnissen erhalten.“

Zwei nationale, repräsentative Erhebungen mit mehr als 2.000 Erwachsenen in Deutschland und Spanien zeigen, dass 86 bis 90 Prozent der Menschen bevorstehende negative Ereignisse nicht wissen wollen. Zudem bevorzugen 40 bis 77 Prozent auch über bevorstehende positive Ereignisse im Ungewissen zu bleiben. Die Wissenschaftler nennen das willentliche Ignoranz (engl. deliberate ignorance). Das heißt, sich bewusst dafür zu entscheiden, die Antwort auf eine Frage, die einen persönlich betrifft, nicht wissen zu wollen. Lediglich 1 Prozent aller Befragten würde konsequent gerne wissen, was die Zukunft bereithält.

Die Wissenschaftler fanden auch heraus, dass Menschen, die ihre Zukunft nicht kennen möchten, risikoscheuer sind und häufiger Lebens- und Rechtsschutzversicherungen kaufen als diejenigen, die gerne einen Blick in die Zukunft werfen würden. „Das legt nahe, dass Menschen, die Wissen über die Zukunft willentlich ignorieren, erwarten, unangenehme Nachrichten zu erhalten“, so Gigerenzer weiter. Auch der Zeitpunkt, an dem ein Ereignis in der Zukunft eintreten könnte, spielt eine Rolle: Je näher das mögliche Eintreten in der Zukunft liegt, desto weniger wollen Menschen etwas darüber wissen. So wollten zum Beispiel ältere im Vergleich zu jüngeren Erwachsenen seltener wissen, wann und woran ihr Partner sterben wird.

Die Studienteilnehmer wurden zu einer Reihe von möglichen Ereignissen – positiven wie negativen – befragt. So zum Beispiel, ob sie wissen wollten, welche Mannschaft ein Fußballspiel gewinnt, das sie später noch sehen wollten, was sie zu Weinachten geschenkt bekommen, ob es ein Leben nach dem Tod gibt oder ihre Ehe in einer Scheidung endet. Das Geschlecht ihres ungeborenen Kindes war das Einzige, das die Mehrzahl der Befragten vorab wissen wollte, nur 37 Prozent möchten sich lieber überraschen lassen.

Obwohl die in Deutschland und Spanien lebenden Menschen sich in Alter, Bildung und anderen wichtigen Aspekten unterschieden, war das Muster der willentlichen Ignoranz in beiden Ländern gleichermaßen verbreitet. „Wissen zu wollen, scheint der Normalzustand der Menschheit zu sein und bedarf keiner Rechtfertigung. Menschen sind nicht nur dazu eingeladen, von ihnen wird auch oft erwartet, an Krebsfrüherkennungsmaßnahmen oder regulären Gesundheitschecks teilzunehmen, ihr ungeborenes Baby einer Reihe von pränatalen Gentest zu unterziehen oder Self-Tracking-Geräte zur Messung der eigenen Gesundheit zu nutzen“, sagt Gigerenzer. „Die willentliche Ignoranz von Menschen scheint vor diesem Hintergrund nicht einleuchtend und mag Stirnrunzeln verursachen. Aber wie wir in unserer Studie zeigen konnten, existiert sie nicht nur, sondern ist auch eine weiterverbreitete Haltung.“

Originalstudie
Gigerenzer, G., & García-Retamero, R. (in press). Cassandra’s regret: The psychology of not wanting to know. Psychological Review. http://dx.doi.org/10.1037/rev0000055

Max-Planck-Institut für Bildungsforschung
Das Max-Planck-Institut für Bildungsforschung wurde 1963 in Berlin gegründet und ist als interdisziplinäre Forschungseinrichtung dem Studium der menschlichen Entwicklung und Bildung gewidmet. Das Institut gehört zur Max-Planck-Gesellschaft zur Förderung der Wissenschaften e.V., einer der führenden Organisationen für Grundlagenforschung in Europa.

Weitere Informationen:
https://www.mpib-berlin.mpg.de/de/presse/2017/02/bitte-nichts-verraten-wenn-es-u…

Quelle: idw

(nach oben)


Leipziger Forscher erklären wichtigen Prozess bei biologischer Methanbildung

Dipl.-Journ. Carsten Heckmann Stabsstelle Universitätskommunikation/Medienredaktion
Universität Leipzig

Methan ist das Hauptprodukt der Biogasherstellung in Biogasanlagen, in denen es zur Energiegewinnung erzeugt wird. Zugleich gilt Methan als effektives Treibhausgas, denn es hat eine 25-mal stärkere Wirkung als Kohlendioxid. Die in der Natur für die Methanproduktion verantwortlichen Mikroorganismen produzieren jährlich ca. 1 Milliarde Tonnen Methan, wovon etwa ein Drittel in die Atmosphäre entweicht. Für die Bildung des Methans ist ein spezielles Molekül als Katalysator notwendig. Forscher der Universität Leipzig haben nun in Zusammenarbeit mit der University of Kent entdeckt, wie dieser „Methankatalysator“ gebildet wird. Ihre Ergebnisse wurden in der Fachzeitschrift „Nature“ veröffentlicht.

Methan ist das Hauptprodukt der Biogasherstellung in Biogasanlagen, in denen es zur Energiegewinnung erzeugt wird. Zugleich gilt Methan auch als effektives Treibhausgas, denn es hat eine 25-mal stärkere Wirkung als Kohlendioxid. Die in der Natur für die Methanproduktion verantwortlichen Mikroorganismen produzieren jährlich ca. 1 Milliarde Tonnen Methan, wovon etwa ein Drittel in die Atmosphäre entweicht. Für die Bildung des Methans ist ein sehr spezielles Molekül als Katalysator notwendig. Forscher der Universität Leipzig haben nun in Zusammenarbeit mit Forschern der University of Kent in England entdeckt, wie dieser essentielle „Methankatalysator“ gebildet wird. Die Forschungsergebnisse wurden in der Fachzeitschrift „Nature“ veröffentlicht.

Methan trägt auch zur Klimaerwärmung bei, wenn es vermehrt freigesetzt wird. In Biogasanlagen und Faultürmen von Kläranlagen wird es als Energiequelle erzeugt, wobei hier die gleichen Organismen für die Methanbildung verantwortlich sind wie in der Natur. Das natürlich gebildete Methan wird teilweise in Erdgasdepots oder als Methaneis am Meeresboden eingelagert. „Die biologische Methanbildung ist ein wichtiger Prozess beim globalen Kohlenstoff- beziehungsweise Biomassekreislauf. Es wird von spezialisierten, unter anaeroben Bedingungen lebenden Mikroorganismen gebildet. Diese Organismen sind unter anderem in den Sedimenten von Seen oder Sümpfen zu finden oder beispielsweise im Verdauungstrakt von Wiederkäuern“, erklärt Prof. Dr. Gunhild Layer vom Institut für Biochemie der Universität Leipzig.

Um Methan bilden zu können, benötigen diese Mikroorganismen ein spezielles Protein. Dieses enthält ein zusätzliches Molekül, das Coenzym F430, das für die Methanbildung essentiell ist. Die chemische Struktur des gelben Coenzyms F430 ist verwandt mit den Strukturen des roten Blutfarbstoffs und des Chlorophylls (grüner Pflanzenfarbstoff). Über die Bildung dieses Coenzyms F430 war bisher nur wenig bekannt.

Die Leipziger Biochemiker um Prof. Dr. Gunhild Layer konnten nun in Zusammenarbeit mit der Arbeitsgruppe von Prof. Dr. Martin Warren in Canterbury, (Großbritannien) aufklären, wie das Coenzym F430 gebildet wird. Die an der Synthese beteiligten Proteine wurden einzeln produziert, gereinigt und auf ihre Aktivität hin getestet. Damit gelang es zum ersten Mal, das Coenzym F430 im Reagenzglas herzustellen. „Es war ein langer und schwieriger Weg bis zur kompletten enzymatischen Synthese des Coenzyms F430, aber die Mühe hat sich gelohnt“, sagt Prof. Layer. Und Prof. Warren ergänzt: „Die Aufklärung des Biosynthesewegs für Coenzym F430 vervollständigt unser Wissen über die Bildung der sogenannten ‚Farbstoffe des Lebens‘ zu denen auch Coenzym F430 gehört.“

Originaltitel der Veröffentlichung in „Nature“:
„Elucidation of the biosynthesis of the methane catalyst coenzyme F430“,
DOI:10.1038/nature21427

Weitere Informationen:
Prof. Dr. Gunhild Layer
Institut für Biochemie
Telefon: +49 341 97-36996
E-Mail: gunhild.layer@uni-leipzig.de

Weitere Informationen:
http://www.nature.com/nature/journal/vaop/ncurrent/full/nature21427.html „Nature“-Veröffentlichung

Quelle: idw

(nach oben)


1,5 Millionen Diabetespatienten müssen bald ohne bewährte Medikamente auskommen

Kerstin Ullrich Pressestelle
Deutsche Diabetes Gesellschaft

Berlin – Viele Menschen mit Typ-2-Diabetes müssen demnächst womöglich auf gewohnte Medikamente verzichten. Die Deutsche Diabetes Gesellschaft (DDG) befürchtet, dass mehrere Präparate aus der Gruppe der DDP-4-Hemmer demnächst vom Markt genommen werden, weil der Gemeinsame Bundesausschuss (G-BA) diesen Medikamenten einen Zusatznutzen abgesprochen hat. Von der Entscheidung sind bis zu 1,5 Millionen Patienten betroffen. Die Medikamente haben sich seit zehn Jahren in der Praxis bewährt.

Der G-BA-Beschluss bezieht sich auf Medikamente mit den beiden Wirkstoffen Sitagliptin und Saxagliptin, die derzeit als Monopräparate oder in Kombination mit dem Wirkstoff Metformin als sogenannte „Fix-Kombination“ angeboten werden. Sitagliptin und Saxagliptin hemmen das Enzym Dipeptidyl-Peptidase-4 (DPP-4), das die Wirkung eines körpereigenen Hormons verlängert. Die Folge ist eine wirkungsvolle Senkung des Blutzuckers ohne Unterzuckerung und Gewichtszunahme.

Der G-BA hatte im Dezember beschlossen, dass Sitagliptin, das seit 2007 in Deutschland zugelassen ist, als Monopräparat einen geringen Zusatznutzen besitzt. Saxagliptin, das 2009 eingeführt wurde, könnte ganz vom Markt verschwinden, da der G-BA dem Präparat jeglichen Zusatznutzen abgesprochen hat; gleiches gilt für die Fix-Kombinationen der DDP-4-Hemmer mit Metformin.

Die Hersteller dürfen diese Präparate weiter anbieten. Bei der Verordnung durch Kassenärzte würden sie jedoch nur den Preis erhalten, der derzeit zwischen Krankenkassen und Herstellern vertraulich ausgehandelt wird. „Es steht durchaus zu befürchten, dass – wenn nicht mit Augenmaß verhandelt wird – die Präparate am Ende vom Markt genommen werden“, sagt Professor Dr. med. Dirk Müller-Wieland, gesundheitspolitischer Sprecher der DDG. Er verweist auf das Beispiel Synjardy, eine Fix-Kombination aus Empagliflozin plus Metformin: Das Präparat wurde im November vom Markt genommen, nachdem der G-BA dem Kombipräparat keinen Zusatznutzen zuerkannt hat.

Das Gleiche droht jetzt für die Diabetesmittel Onglyza, Komboglyze, Janumet und Velmetia. „Bei einer Marktrücknahme müssten bis zu 1,5 Millionen Patienten auf andere Medikamente ausweichen“, befürchtet Müller-Wieland. Die Umstellung ist nach Erfahrung des DDG-Experten häufig schwierig und mit zusätzlichen Kosten verbunden. „Sie entstehen, weil die Patienten beim Wechsel auf ein neues Medikament unter Umständen eine Schulung benötigen und ihren Blutzucker zunächst häufiger kontrollieren müssen“, so Müller-Wieland. Zudem seien die „Alternativen“ häufig teurer und mitunter mit Injektionen verbunden.

„Warum eine Tablette, die zwei Substanzen enthält, anders sein soll als zwei separate Tabletten, leuchtet medizinisch nicht ein“, betont der DDG-Sprecher. „Dies insbesondere nicht bei Patienten, die häufig mehrere Substanzen einnehmen müssen und dankbar sind, wenn die Zahl der Tabletten dennoch möglichst gering ist.“

Weitere Probleme ergeben sich, wenn Patienten, die derzeit mit den Kombinationen behandelt werden, künftig zwei Tabletten statt einer einnehmen müssen. „Dies ist nicht nur mit höheren Kosten etwa durch die doppelte Apothekenabgabe verbunden. Mit der Zahl der Medikamente sinkt häufig auch die Einnahmetreue der Patienten, was das Behandlungsergebnis verschlechtern kann“, erläutert Müller-Wieland.

Es ist nicht das erste Mal, dass der G-BA in die Verordnung von Diabetesmedikamenten eingreift. „Bisher haben nur 4 von 18 neuen Diabetes-Präparaten einen Zusatznutzen vom G-BA erhalten, 6 sind in Deutschland nicht mehr auf dem Markt“, berichtet DDG Präsident Professor Dr. med. Baptist Gallwitz. Dies liege keineswegs daran, dass es sich bei diesen neuen Substanzen sogenannte Schein-Innovationen handele. „Die Beurteilungskriterien des Instituts für Qualität und Wirtschaftlichkeit im Gesundheitswesen, das für den G-BA die Bewertungen durchführt, sind häufig inkonsistent und nicht frei von Interessen“, so Gallwitz. „Die Entscheider setzen sich über den medizinischen Standard hinweg und ignorieren oft die Leitlinien der DDG und anderer internationaler Fachgesellschaften.“

Jetzt bewerben für die DDG Medienpreise 2017!
Die DDG schreibt auch in diesem Jahr drei Medienpreise aus, die mit insgesamt 6.000 Euro dotiert sind. Eingereicht werden können Artikel (Print und Online) sowie Beiträge aus Hörfunk und Fernsehen, die zwischen dem 1. August 2016 und dem 31. Juli 2017 publiziert wurden/werden. Prämiert werden Arbeiten, denen es gelingt, Diabetes-Mythen zu „entzaubern“ und ein Bewusstsein für diese Krankheit und ihre Folgeerkrankungen zu schaffen. Einsendeschluss ist der 31. Juli 2017. Weitere Informationen zur Ausschreibung finden Sie hier: http://www.deutsche-diabetes-gesellschaft.de/presse/ddg-pressemeldungen/meldunge….

Über die Deutsche Diabetes Gesellschaft (DDG):
Die Deutsche Diabetes Gesellschaft (DDG) ist mit 9.000 Mitgliedern eine der großen medizinisch-wissenschaftlichen Fachgesellschaften in Deutschland. Sie unterstützt Wissenschaft und Forschung, engagiert sich in Fort- und Weiterbildung, zertifiziert Behandlungseinrichtungen und entwickelt Leitlinien. Ziel ist eine wirksamere Prävention und Behandlung der Volkskrankheit Diabetes, von der mehr als sechs Millionen Menschen in Deutschland betroffen sind. Zu diesem Zweck unternimmt sie auch umfangreiche gesundheitspolitische Aktivitäten.

Deutsche Diabetes Gesellschaft (DDG)
Geschäftsstelle
Albrechtstraße 9, 10117 Berlin
Tel.: 030 3116937-0, Fax: 030 3116937-20
info@ddg.info

Weitere Informationen:
http://www.ddg.info

Quelle: idw

(nach oben)


demowanda.de: Fakten zum demografischen Wandel in der Arbeitswelt

Andreas Pieper Presse- und Öffentlichkeitsarbeit
Bundesinstitut für Berufsbildung (BIBB)

BIBB ist Teil eines neuen Forschungsportals

Die Zahl der Arbeitskräfte verringert sich, die Erwerbsbevölkerung wird älter – wir alle müssen uns bewusst machen, dass der demografische Wandel die Arbeitswelt verändern wird. Um Erkenntnisse, Daten und Fakten hierzu leichter zugänglich zu machen, bieten sechs Ressortforschungseinrichtungen des Bundes, darunter das Bundesinstitut für Berufsbildung (BIBB), ab sofort das gemeinsame Internetportal demowanda.de an. Es gibt einen Überblick über Entwicklungen in verschiedenen Lebensbereichen, die die Arbeitswelt beeinflussen.

Das unter Leitung der Bundesanstalt für Arbeitsschutz und Arbeitsmedizin (BAuA) gebündelte ressortübergreifende Fachwissen ermöglicht erstmals einen derart umfassenden Blick auf Entwicklungen in Deutschland, die für eine alters- und alternsgerechte Gestaltung der Arbeitswelt von Bedeutung sind.

So ist neben dem steigenden Anteil Älterer in den Belegschaften beispielsweise auch die Frage der Qualifikation ein Thema, weil wichtiger Aspekt des demografischen Wandels: Nach Berechnungen des BIBB lag die Quote der Ungelernten im Alter von 20 bis 34 in den Jahren 2011 bis 2014 zwischen 13 und 14 %. Untersuchungen des BIBB und des Instituts für Arbeitsmarkt- und Berufsforschung (IAB) deuten darauf hin, dass gerade im Bereich Gesundheit, aber auch im Bereich der Be- und Verarbeitung von Holz und Kunststoffen sowie in den Bauberufen künftig nicht genug qualifizierte Arbeitskräfte zur Verfügung stehen werden. Zudem verändern neue Techniken und Praktiken die Arbeitswelt stetig und erfordern geeignete Weiterbildungsmaßnahmen. Laut Studien des BIBB haben 2013 rund 70 % der Betriebe in Deutschland Weiterbildungsmaßnahmen durchgeführt. Darüber hinaus stieg nach Ergebnissen des Deutschen Alterssurveys der Anteil an Personen, die im Ruhestand erwerbstätig sind – von rund 6,3 % im Jahr 2003 auf 11,6 % in 2014.

Das Portal demowanda.de gliedert sich in die sechs Themenbereiche „Bevölkerung“, „Bildung“, „Arbeitsmarkt“, „Arbeitsbedingungen“, „Gesundheit“ und „Arbeit im Alter“, die die verschiedenen Zusammenhänge zwischen Arbeitswelt und demografischem Wandel deutlich machen. Wissenschaftler, Journalisten, Vertreter der Politik und alle weiteren Interessierten finden neben aktuellen und übersichtlich aufbereiteten Informationen auch weiterführende Literaturhinweise, Grafiken und Kontaktadressen.

Die BAuA hat das Internetportal im Auftrag des Bundesministeriums für Arbeit und Soziales (BMAS) gemeinsam mit dem BIBB, dem Bundesinstitut für Bevölkerungsforschung (BiB), dem Deutschen Zentrum für Altersfragen (DZA), dem IAB und dem Robert Koch-Institut (RKI) entwickelt. Damit bündelt diese erste Initiative für eine fachübergreifende Berichterstattung über die Arbeitswelt Fachwissen aus verschiedenen Bundesministerien. Dazu gehören das Bundesministerium für Arbeit und Soziales (BMAS), das Bundesministerium für Inneres (BMI), das Bundesministerium für Bildung und Forschung (BMBF), das Bundesministerium für Familie, Senioren, Frauen und Jugend (BMFSFJ) sowie das Bundesministerium für Gesundheit (BMG).

Weitere Informationen zum Portal „demowanda. Demografischer Wandel in der Arbeitswelt – ein fachübergreifendes Monitoring“ unter http://www.demowanda.de

Quelle: idw

(nach oben)


Neue Maßstäbe für eine bessere Wasserqualität in Europa

Susanne Hufe Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum für Umweltforschung – UFZ

Die Europäische Wasserrahmenrichtlinie (WRRL) soll bis zum Jahr 2019 überarbeitet werden. Bereits jetzt ist der Arbeitsprozess dafür in vollem Gange – wichtiger Input kommt auch aus der Wissenschaft. In einer aktuellen Studie etwa, die unter Federführung des UFZ entstand, hat ein internationales Forscherteam Empfehlungen formuliert, die die Überwachung, Bewertung und das Management von Schadstoffen verbessern sollen. Veröffentlicht wurde die Studie kürzlich im Fachmagazin Science of the Total Environment.

Die Europäische Wasserrahmenrichtlinie ist seit dem Jahr 2000 in Kraft. Ziel der Richtlinie ist es, dass Flüsse, Seen, Küstengewässer und Grundwasser spätestens bis zum Jahr 2027 einen „guten Zustand“ erreicht haben: Die Gewässer sollen möglichst nur geringfügig durch Schadstoffe belastet sein und Pflanzen und Tieren einen naturnahen Lebensraum bieten.
Das Besondere an der Europäischen Wasserrahmenrichtlinie ist, dass die Gewässer länderübergreifend – bei Flüssen von der Quelle bis zur Mündung – betrachtet werden. „Das ist in dieser Form weltweit einmalig. Von vielen Ländern wird die Europäische Wasserrahmenrichtlinie deshalb als Vorbild angesehen“, sagt Umweltchemiker Dr. Werner Brack vom UFZ.
Von der Erreichung des Ziels ist Europa jedoch noch weit entfernt. Konkrete Maßnahmen zur Verbesserung der Gewässerstruktur, zur Wiederherstellung der Durchgängigkeit von Oberflächengewässern sowie zur Reduzierung des Eintrags von Nähr- und Schadstoffen, müssten vielerorts wesentlich konsequenter als bislang umgesetzt werden. „Aber auch das Regelwerk selbst hat Schwächen und soll deshalb bis 2019 überarbeitet werden“, sagt Werner Brack. Unter seiner Leitung haben Wissenschaftler des europäischen Forschungsprojekts SOLUTIONS sowie des Europäischen Forschungsnetzwerks NORMAN diese Schwächen genauer unter die Lupe genommen und leiten daraus Empfehlungen für ein verbessertes Schadstoff-Monitoring und Gewässermanagement ab.

Überwachung verbessern
Derzeit sind in der Wasserrahmenrichtlinie 45 Schadstoffe, sogenannte prioritäre Schadstoffe, gelistet. Sie dürfen in einem Gewässer mit guter Wasserqualität nicht oder nur in geringem Maße vorkommen. Demgegenüber stehen allerdings mehr als 100.000 verschiedene chemische Substanzen, die wir täglich benutzen und die in unsere Umwelt und Gewässer gelangen. Die meisten Substanzen werden bei der Bewertung der Gewässerqualität nach der derzeitigen EU-Wasserrahmenrichtlinie also gar nicht berücksichtigt. „Das auf einzelne Schadstoffe orientierte Monitoring ist teuer, ignoriert den größten Teil der Schadstoffe und läuft den eigentlichen Problemen hinterher. Denn die meisten prioritären Schadstoffe sind längst vom Markt und durch andere sehr ähnlich wirkende chemische Substanzen ersetzt. Neue Stoffe auf die Liste zu bekommen, ist ein langwieriger politischer Prozess“, kritisiert Brack.
Außerdem beschränkt sich die Wasserrahmenrichtlinie bislang nur auf die Prüfung von Einzelstoffen. Schadstoffe wirken in der Umwelt aber nicht einzeln, sondern zusammen und können sich in ihrer Wirkung gegenseitig verstärken. „Nicht das Vorkommen eines Schadstoffes ist ausschlaggebend, sondern seine Wirkung im Gewässer“, sagt Brack. Deshalb empfehlen die Wissenschaftler, die Überwachung der Gewässerqualität von der chemischen Analytik einzelner Schadstoffe wo immer möglich auf effektbasierte Methoden – wie etwa biologische Wirkungstests – umzustellen. So würden alle Stoffe mit derselben Wirkung erfasst, auch Stoffgemische. Und teure chemische Analytik wäre nur noch erforderlich, falls bestimmte Wirkschwellen überschritten werden.

Bewertung verbessern
Überarbeitungsbedarf sehen die Forscher auch bei der Bewertung der Gewässerqualität. Bislang ist immer die schlechteste Teilkomponente maßgeblich dafür, ob ein Gewässer in einen guten chemischen oder ökologischen Zustand eingestuft wird – selbst wenn diese wie im Falle von Schadstoffen aus Verbrennungsprozessen durch das Gewässermanagement kaum zu beeinflussen ist. Das führt dazu, dass viele Gewässer auch bei signifikanten Verbesserungen wesentlicher Komponenten die Bewirtschaftungsziele nicht erreichen können. Brack: „Die derzeitige Regelung gibt zu wenig Anreize, Probleme zu beheben und führt in vielen Fällen zu Untätigkeit. Wir schlagen deshalb vor, dass Maßnahmen zur Verbesserung der Gewässerqualität künftig durch eine differenziertere Bewertung belohnt werden.“ Das schließt auch die Schaffung von Anreizen für gutes Monitoring ein. Denn derzeit scheitern viele Mitgliedsländer bereits daran, Schadstoffe regelmäßig zu messen und zu analysieren, deren Überwachung eigentlich vorgeschrieben ist. Und sie werden dafür noch belohnt, denn je weniger sie messen, je seltener sie messen, je schlechter die Analytik ist, desto geringer ist das abgeleitete Risiko und damit der Handlungsbedarf für Reduzierungsmaßnahmen. Die Wissenschaftler schlagen für die neue Wasserrahmenrichtlinie deshalb eine umgekehrte Beweisführung vor: Dort, wo durch unzureichendes Monitoring keine Daten erhoben werden, könnten für die Gewässerbewertung Modellwerte herangezogen werden. So müssten die „Säumigen“ dann mit Messungen nachweisen, dass der tatsächliche Gewässerzustand besser ist als der Vorhergesagte.

Management verbessern
Alleiniges Messen und Bewerten der Gewässerqualität reicht aber nicht aus, um den Zustand eines Gewässers zu verbessern – dem Monitoring müssen entsprechende Maßnahmen folgen. „In unserer aktuellen Studie geben wir Empfehlungen für ein stärker lösungsorientiertes Gewässermanagement, bei dem Überwachung, Bewertung und mögliche Maßnahmen von Anfang an viel enger miteinander verzahnt sein sollten, als dies heute der Fall ist“, sagt Brack.
So stellen beispielsweise Kläranlagenabläufe eine wichtige und vergleichsweise vorhersagbare Quelle von Belastungen in Bächen und Flüssen dar, die zur Überschreitung von Wirkschwellen führen können. Die Autoren schlagen vor, in einem ersten Schritt zu prüfen, inwieweit eine gefundene Schadwirkung des Flusswassers dem entspricht, was aufgrund des Abwasseranteils und des Reinigungsgrades zu erwarten ist. Dann ist eine verbesserte Abwasserbehandlung in der Kläranlage das Mittel der Wahl, um Qualitätsziele zu erreichen. Für den Fall, dass beobachtete Schadwirkungen die Erwartungen übersteigen, empfehlen die Autoren verschiedene Ansätze, um spezifische Schadstoffe und ihre Quellen zu identifizieren und möglichst vor dem Erreichen der Kläranlage zu eliminieren. Dabei sollte der Schwerpunkt darauf liegen, mögliche Alternativen zur Verbesserung der Qualität zu untersuchen, anstatt bei der Festlegung des Gewässerstatus zu verharren. „Dies hilft auch, Lösungsansätze zu finden, mit denen man mehrere Fliegen mit einer Klappe schlagen kann“, meint Brack. „So können ausreichend breite und mit Büschen bestandene Randstreifen nicht nur dazu beitragen, den Eintrag an Pflanzenschutzmitteln ins Gewässer zu reduzieren, sondern auch dabei helfen, eine Überdüngung oder zu hohe Temperaturen im Gewässer zu vermeiden. Und sie bieten obendrein ein wertvolles Habitat für viele Tiere und Pflanzen.“
Wie Untersuchungen im EU-Projekt SOLUTIONS zeigen, erfordert die Verbesserung der Wasserqualität in manchen Fällen auch eine Harmonisierung der vielen Regelwerke zur Umweltqualität und Chemikaliensicherheit auf europäischer und nationaler Ebene mit der Wasserrahmenrichtlinie.
Die Wissenschaftler hoffen, dass sie mit ihren Forschungsergebnissen aus SOLUTIONS und NORMAN weitere Lösungsansätze für die Überarbeitung der Europäischen Wasserrahmenrichtlinie liefern – und dadurch einer nachhaltigeren Wassernutzung in Europa den Weg bereiten können.

Das EU-Projekt SOLUTIONS vereinigt 39 Partner aus weltweit 17 Ländern. Es wird bis zum Jahr 2018 mit insgesamt 12 Millionen Euro von der Europäischen Union gefördert. Ziel ist es, Werkzeuge und Modelle zu entwickeln, um den Chemikaliencocktail in Gewässern hinsichtlich seines Risikos zu bewerten. SOLUTIONS entwickelt Methoden, um vorrangig zu behandelnde Stoffe zu erkennen und schlägt Lösungen zu deren Verminderung vor.

Das europäische Forschungsnetzwerk NORMAN fördert die Zusammenarbeit und den Informationsaustausch zwischen Forscherteams verschiedener Länder hinsichtlich der Überwachung von bisher nicht regulierten Stoffen in der Umwelt.

Publikation
Brack W, Dulio V, Ågerstrand M, Allan I, Altenburger R, Brinkmann M, Bunke D, Burgess RM, Cousins I, Escher BI, Hernández FJ, Hewitt LM, Hilscherová K, Hollender J, Hollert H, Kase R, Klauer B, Lindim C, López Herráez D, Miège C, Munthe J, O’Toole S, Posthuma L, Rüdel H, Schäfer RB, Sengl M, Smedes F, van de Meent D, van den Brink PJ, van Gils J, van Wezel AP, Vethaak AD, Vermeirssen E, von der Ohe PC, Vrana B (2017) Towards the review of the European Union Water Framework Directive: Recommendations for more efficient assessment and management of chemical contamination in European surface water resources. Science of the Total Environment. http://dx.doi.org/10.1016/j.scitotenv.2016.10.104

Ansprechpartner:
Dr. Werner Brack
Leiter des UFZ-Departments Wirkungsorientierte Analytik
Telefon: 0341 235 1531
E-mail: werner.brack@ufz.de

Weitere Informationen:
Die Wasserrahmenrichtlinie – Deutschlands Gewässer 2015: https://www.umweltbundesamt.de/publikationen/die-wasserrahmenrichtlinie-deutschl…
EU-Projekt SOLUTIONS: www.solutions-project.eu
SOLUTIONS-Film: www.youtube.com/UFZde
Forschungsnetzwerk NORMAN: http://www.norman-network.net/

Quelle: idw

(nach oben)


Bewerbungen: Diese Strategien wenden Jobsuchende an

Dr. Anne Klostermann Presse- und Öffentlichkeitsarbeit
Deutsche Gesellschaft für Psychologie (DGPs)

Eine aktuelle Befragung von rund 1000 Bewerberinnen und Bewerbern zeigt: im Bewerbungsprozess nutzt die Mehrheit von Anfang an gezielt Strategien, um ihre Chancen zu verbessern. Allerdings gehen dabei Einstellung und Verhalten nicht immer Hand in Hand. Die Ergebnisse der Befragung wurden gerade in der „Zeitschrift für Arbeits- und Organisationspsychologie“ veröffentlicht.

„Bisher hat sich die Personalauswahlforschung vor allem mit dem Faking, also dem Vorgaukeln einer nicht vorhandenen Eignung, und der Selbstdarstellung von Bewerberinnen und Bewerbern beschäftigt“, sagt Uwe Kanning, Professor für Wirtschaftspsychologie an der Hochschule Osnabrück. „Meine Untersuchung weist darauf hin, dass Bewerberinnen und Bewerber über diese beiden Strategien hinausgehend eine Vielzahl strategischer Verhaltensweisen gezielt einsetzen, um den Bewerbungsprozess positiv zu beeinflussen.“

In einer explorativen Online-Studie befragte der Wirtschaftspsychologe 999 Personen im Alter von 17 bis 66 Jahren zu ihrem strategischen Verhalten im Bewerbungsprozess. Dazu legte er den Befragten für vier gängige Personalauswahlmethoden – Bewerbungsunterlagen, Einstellungsinterview, Testverfahren, Assessment Center – Listen mit strategischen Verhaltensweisen vor (zum Beispiel das Auffüllen von Lücken im Lebenslauf oder die Teilnahme an Bewerbertrainings für Assessment Center). Die Befragten sollten angeben, welche der Strategien sie schon einmal selbst angewendet haben. Außerdem sollten sie jede Strategie daraufhin beurteilen, inwiefern sie ihnen sinnvoll erscheint. Somit wurde zum einen das strategische Verhalten der Befragten erfasst, zum anderen ihre Einstellungen bezüglich dieser Strategien.

Zunahme an strategischem Verhalten
Fast alle Befragten haben in der Vergangenheit mindestens eine der abgefragten Strategien eingesetzt, um ihre Chancen zu verbessern. Zudem haben strategische Aktivitäten insgesamt zugenommen. Bewerberinnen und Bewerber, die sich in den letzten fünf Jahren beworben haben, gehen strategischer vor als diejenigen, deren letzte Bewerbung schon länger zurückliegt. Mit 86% ist die Recherche auf den Unternehmenswebsites die am weitesten verbreitete Strategie bei der Vorbereitung auf eine Bewerbung bzw. auf ein Bewerbungsgespräch. Rund die Hälfte der Befragten bereiteten sich in Gesprächen mit Freunden oder Bekannten auf die Bewerbung vor. Auffallend ist, dass es bei vielen Strategien eine große Abweichung zwischen Einstellung und Verhalten gibt. So fanden zwar 77% der Befragten die Lektüre von Ratgeberliteratur zur Vorbereitung auf ein Assessment Center sinnvoll, aber lediglich 53% zogen entsprechende Bücher auch wirklich zu Rate.

Bewerbungsfoto immer noch ein Muss
In entgegengesetzter Richtung zeigt sich die Diskrepanz zwischen Einstellung und Verhalten insbesondere bei Bewerbungsfotos. Mehr als 90 % der Befragten legten ihrer Bewerbung ein Foto bei, obwohl nur gerade einmal die Hälfte glaubt, dass Fotos etwas über die Eignung eines Bewerbers oder einer Bewerberin verraten. „Seit 2006 ist es Arbeitgebern eigentlich untersagt, Fotos anzufordern. Hier zeigt sich besonders deutlich, dass viele Bewerber eher strategisch agieren“, erklärt Uwe Kanning. „Sie gehen davon aus, dass Personalverantwortliche auch heute noch das Fehlen eines Bewerbungsfotos negativ bewerten – und das zu recht, wie wir aus eigenen Befragungen zum Thema wissen.“

Informationen werden gezielt platziert
Mehr als 60 % der Befragten gaben an, Vorlagen für ihre Bewerbungsunterlagen heute aus dem Internet herunterzuladen und diese nur noch zu überarbeiten. 42 % denken sich Hobbys aus, von denen sie glauben, dass sie positiv bewertet werden. „In diesen Fällen sagen das Anschreiben oder die formale Gestaltung der Unterlagen nichts über den Menschen aus, der hinter der Bewerbung steht“, erklärt Uwe Kanning. Bezogen auf das Einstellungsinterview gaben 90 % der Befragten an, dass sie sich Stärken ausdenken, von denen sie glauben, dass der Arbeitgeber sie hören will. 70 % gaben an, selbst schon einmal im Bewerbungsgespräch Fragen gestellt zu haben, bloß um interessiert zu wirken.
Diese Ergebnisse zeigen für Uwe Kanning, dass ein stärkerer Austausch zwischen Wissenschaft und Wirtschaft notwendig ist. „Insgesamt entsteht der Eindruck, dass Bewerberinnen und Bewerber inzwischen sehr gut auf die Standardverfahren vorbereitet sind.“ Und Conny Antoni, Präsident der DGPs und Professor für Arbeits-, Betriebs- und Organisationspsychologie an der Universität Trier, ergänzt: „Die psychologische Forschung bietet laufend aktuelle Erkenntnisse zum Thema Personalauswahl. Arbeitgeberinnen und Arbeitgeber können die Qualität ihrer Personalauswahl steigern, wenn sie diese Erkenntnisse gezielt im Auswahlprozess nutzen.“

Link zur Originalstudie:
Kanning, U. P. (2017). Strategisches Verhalten in der Personalauswahl – Wie Bewerber versuchen, ein gutes Ergebnis zu erzielen. Zeitschrift für Arbeits- und Organisationspsychologie, 61, 3-17.

Kontakt bei Rückfragen:
Prof. Dr. Uwe P. Kanning
Hochschule Osnabrück
Fakultät Wirtschafts- und Sozialwissenschaften
U.Kanning@hs-osnabrueck.de

Pressestelle der DGPs:
Dr. Anne Klostermann
Pressereferentin
Tel.: 030 28047718
E-Mail: pressestelle@dgps.de

Über die DGPs:
Die Deutsche Gesellschaft für Psychologie (DGPs e.V.) ist eine Vereinigung der in Forschung und Lehre tätigen Psychologinnen und Psychologen. Die über 4000 Mitglieder erforschen das Erleben und Verhalten des Menschen. Sie publizieren, lehren und beziehen Stellung in der Welt der Universitäten, in der Forschung, der Politik und im Alltag.
Die Pressestelle der DGPs informiert die Öffentlichkeit über Beiträge der Psychologie zu gesellschaftlich relevanten Themen. Darüber hinaus stellt die DGPs Journalisten eine Datenbank von Experten für unterschiedliche Fachgebiete zur Verfügung, die Auskunft zu spezifischen Fragestellungen geben können.
Wollen Sie mehr über uns erfahren? Besuchen Sie die DGPs im Internet: www.dgps.de

Quelle: idw

(nach oben)


Klug entscheiden in der Pneumologie: Lungenärzte empfehlen Lungenfunktionstests für Raucher

Medizin – Kommunikation Medizinkommunikation
Arbeitsgemeinschaft der Wissenschaftlichen Medizinischen Fachgesellschaften e.V.

Berlin – Jeder Raucher sollte eine Messung der Lungenfunktion erhalten, um frühe Anzeichen von chronisch-obstruktiver Lungenerkrankung (COPD) oder Lungenkrebs zu erkennen. Darüber hinaus sollte Rauchern mit einer chronischen Lungenerkrankung eine professionelle Tabakentwöhnung angeboten werden. Diese und weitere Empfehlungen veröffentlicht die Deutsche Gesellschaft für Pneumologie und Beatmungsmedizin (DGP) im Rahmen der Mediziner-Initiative „Klug entscheiden“.

Rauchen verursacht 85 Prozent aller Fälle der sehr häufigen Lungenerkrankung COPD. Eine ähnliche Quote gilt für den Lungenkrebs – die dritthäufigste und gleichzeitig tödlichste Krebserkrankung in Deutschland. Trotzdem ordnen die wenigsten Ärzte einen Lungenfunktionstest an, so lange ihre Patienten keine Beschwerden haben, sagt DGP-Präsident Professor Dr. med. Berthold Jany. „Dabei nehmen die meisten Raucher die frühen Symptome einer Lungenerkrankung – wie etwa Raucherhusten – kaum wahr, weil sie sich schon daran gewöhnt haben.“ Sobald Betroffene erste Beschwerden wahrnehmen, seien viele Lungenerkrankungen schon weit fortgeschritten. Eine frühe Diagnose dagegen erhöhe die Chancen auf eine erfolgreiche Behandlung.

Jeder Patient, der an COPD, Asthma, Lungenkrebs oder Lungenfibrose leidet, sollte außerdem die Möglichkeit haben, an einem strukturierten Tabakentwöhnungsprogramm teilzunehmen, so die weitere Empfehlung der DGP. „Je schneller Betroffene das Rauchen aufgeben können, desto mehr verbessern sich Symptome wie Atemnot, Husten und Atemwegsentzündungen“, erklärt Jany, der die Abteilung Innere Medizin des Klinikums Würzburg-Mitte am Standort Missioklinik leitet. Langzeitstudien zeigen außerdem, dass die Sterblichkeit unter Patienten, die das Rauchen aufgeben, deutlich sinkt.

„Klug entscheiden“ ist eine Initiative der Deutschen Gesellschaft für Innere Medizin (DGIM), die zum Ziel hat, Über- und Unterversorgung in der Medizin zu vermeiden. Die DGP hat als eine von zwölf Fachgesellschaften konkrete Handlungsempfehlungen ausgesprochen, welche medizinischen Therapien und Behandlungen sinnvoll sind und welche in vielen Fällen unnötig. „Manchmal neigen Ärzte dazu, ‚sicherheitshalber‘ eine Untersuchung anzuordnen, die dem Patienten gar nicht nützt“, erklärt Jany. Andersherum gäbe es Maßnahmen wie die Tabakentwöhnung oder die pneumologische Rehabilitation, die trotz erwiesenem Nutzen zu selten zum Einsatz kämen. „Mit ihren Empfehlungen möchte die DGP auf solche Über- und Unterversorgungen hinweisen und Ärzte ermutigen, Entscheidungen zu treffen, die dem aktuellen Stand der medizinischen Forschung entsprechen“, so Jany. Diese und weitere Empfehlungen der DGP sind Thema einer Pressekonferenz im Vorfeld des DGP-Kongresses am 15. März 2017 in Berlin.

Quelle:
„Klug entscheiden in der Pneumologie“, Deutsches Ärzteblatt, Jg. 113, Heft 19, 13. Mai 2016

Quelle: idw

(nach oben)


Hoch wirksamer Malaria-Impfstoff erfolgreich getestet

Antje Karbe Hochschulkommunikation
Eberhard Karls Universität Tübingen

Tübinger Wissenschaftler erreichen Impfschutz von bis zu 100 Prozent – Lebendimpfstoff unter kontrollierten Bedingungen eingesetzt

In einer klinischen Studie mit einem neuen Impfstoff gegen Malaria haben Wissenschaftlerinnen und Wissenschaftler des Universitätsklinikums und der Universität Tübingen einen Impfschutz von bis zu 100 Prozent erreicht. Wie Professor Peter Kremsner und Dr. Benjamin Mordmüller vom Tübinger Institut für Tropenmedizin und dem Deutschen Zentrum für Infektionsforschung (DZIF) berichteten, wurden für die Impfung Malaria-Parasiten des Biotechnologie-Unternehmens Sanaria eingesetzt. Der Impfstoff basiert auf vollständig lebensfähigen, nicht abgeschwächten Malaria-Erregern, die gleichzeitig mit einem Malaria-Medikament verabreicht werden. Dieser neue Impfansatz wurde in einer DZIF-Studie erstmals klinisch getestet. Die Ergebnisse wurden am 15. Februar im Fachmagazin Nature veröffentlicht. DOI: 10.1038/nature21060

Malaria-Parasiten werden durch den Stich der weiblichen Anophelesmücke übertragen. Für die Mehrzahl der Malaria-Erkrankungen weltweit und nahezu alle Todesfälle ist der Parasit Plasmodium falciparum verantwortlich. Bisherige Impfstoffkandidaten basierten zumeist auf dem Einsatz von einzelnen Molekülen der Erreger. Es zeigte sich jedoch, dass durch derartige Impfungen keine ausreichend schützende Immunantwort ausgelöst wurde. An der Tübinger Studie nahmen 67 gesunde, erwachsene Probanden teil, die noch nie an Malaria erkrankt waren. Die beste Immunantwort zeigte sich bei einer Gruppe von neun Probanden, die dreimal in je vierwöchigem Abstand den Impfstoff in einer hohen Dosierung erhielten. In dieser Gruppe zeigten alle Probanden anschließend einen 100-prozentigen Impfschutz.

„Der Schutz entstand wahrscheinlich durch spezifische T-Lymphozyten und Antikörper-Antworten gegen die Parasiten in der Leber“, erklärte Professor Peter Kremsner. Zudem habe man die Immunreaktion des Körpers analysiert und Proteinmuster identifiziert, die eine weitere Verbesserung des Impfstoffs ermöglichen. Die Wissenschaftler spritzten die lebendigen Malaria-Parasiten und verhinderten eine Erkrankung der Probanden durch die gleichzeitige Gabe von Chloroquin, einem seit langem genutzten Malaria-Medikament.

Die Tübinger Forscher machten sich bei der Studie Eigenschaften sowohl des Parasiten wie auch des Gegenmittels Chloroquin zunutze. So kommt Plasmodium falciparum, nachdem ein Mensch infiziert ist, zunächst in die Leber, um sich dort zu vermehren. In dieser Inkubationsphase kann das menschliche Immunsystem bereits reagieren, die Krankheit bricht aber noch nicht aus. Zudem wirkt Chloroquin nicht in der Leber, bremst also dort auch nicht die Vermehrung des Parasiten. Zum Ausbruch der Krankheit kommt es erst, wenn der Erreger die Leber verlässt, ins Blut wandert und sich als Parasit in den roten Blutkörperchen einnistet und vermehrt. Sobald der Erreger im Blut ist, wird er aber von Chloroquin abgetötet und somit der Ausbruch der Krankheit verhindert.

„Durch die Impfung mit einem lebenden und zuerst nicht abgeschwächten Erreger ist es uns ganz offensichtlich gelungen, eine sehr starke Immunantwort auszulösen“, sagte Studienleiter Benjamin Mordmüller. „Darüber hinaus deuten die bisher vorliegenden Daten darauf hin, dass wir es mit einem vergleichsweise stabilen und lange anhaltenden Impfschutz zu tun haben.“ In der Gruppe der Probanden, die nach dreimaliger Gabe einer hohen Dosis von Parasiten einen 100-prozentigen Impfschutz gezeigt haben, sei dieser auch zehn Wochen nach der Impfung noch zuverlässig vorhanden, eine messbare Immunantwort noch wesentlich länger. Der neue Impfstoff habe sich zudem als sehr gut verträglich erwiesen. Im nächsten Schritt soll er im Rahmen einer weiteren klinischen Studie in Gabun über mehrere Jahre auf Wirksamkeit getestet werden. In dieser Region gehört Malaria zu den größten Gesundheitsproblemen. Die Universität Tübingen kooperiert in Gabun seit vielen Jahren mit dem von Albert Schweitzer gegründeten Hospital in Lambaréné sowie dem benachbarten medizinischen Forschungszentrum, dem Centre de Recherches Médicales de Lambaréné. Diese Kooperation wird im Rahmen des DZIF weiter gestärkt.

Malaria ist eine der wichtigsten Infektionskrankheiten weltweit. Nach Angaben der Weltgesundheitsorganisation (WHO) erkrankten allein im Jahr 2015 rund 214 Millionen Menschen durch den Malaria-Parasiten. Schätzungsweise 438.000 Menschen starben an den Folgen, rund 90 Prozent davon in Afrika. Nahezu drei Viertel der tödlichen Erkrankungen betreffen Kinder unter fünf Jahren. Seit mehr als 100 Jahren forschen Wissenschaftler an einem Impfstoff. Mit einer wirksamen Vakzine ließe sich Malaria einfacher kontrollieren, in stark betroffenen Gebieten könnten Impfkampagnen durchgeführt werden, um den Erreger zu eliminieren. Außerdem könnte ein Impfstoff die Ausbreitung von Resistenzen verhindern und Reisende besser schützen.

Weiterführende Informationen:
http://www.who.int/malaria/publications/world-malaria-report-2016/report/en/

Hochaufgelöste Versionen dieses und weiterer Fotos finden Sie unter:
http://www.pressefotos.uni-tuebingen.de/20170210_Malaria-Impfstoff_UT.zip

Ein Kurzvideo zum aktuellen Forschungsergebnis finden Sie unter:
http://www.pressefotos.uni-tuebingen.de/20170210_Malaria Video.zip

Die Infografik finden Sie unter:
http://www.pressefotos.uni-tuebingen.de/2017-02-10_Malaria_infografik_hk_print_4…

Publikation:
Benjamin Mordmüller, Güzin Surat, Heimo Lagler, Sumana Chakravarty, Andrew S. Ishizuka, Albert Lalremruata, Markus Gmeiner, Joseph J. Campo, Meral Esen, Adam J. Ruben, Jana Held, Carlos Lamsfus Calle, Juliana B. Mengue, Tamirat Gebru, Javier Ibáñez, Eric R. James, Peter F. Billingsley, Natasha KC, Anita Manoj, Tooba Murshedkar, Anusha Gunasekera, Abraham G. Eappen, Tao Li, Richard E. Stafford, MingLin Li, Phil L. Felgner, Robert A. Seder, Thomas L. Richie, B. Kim Lee Sim, Stephen L. Hoffman & Peter G. Kremsner: Sterile protection against human malaria by chemoattenuated PfSPZ vaccine, Nature, DOI: 10.1038/nature21060

Kontakt:
Prof. Dr. Peter Kremsner
Universitätsklinikum Tübingen / Universität Tübingen
Institut für Tropenmedizin
Telefon: +49 7071 29-87179
peter.kremsner@uni-tuebingen.de

PD Dr. Benjamin Mordmüller
Universitätsklinikum Tübingen / Universität Tübingen
Institut für Tropenmedizin
Telefon +49 7071 29-85446
benjamin.mordmueller@uni-tuebingen.de

Quelle: idw

(nach oben)


Ivan Tolpe Award 2017 für BioEcoSIM-Projekt für beste Neuentwicklung in der Gülleverarbeitung

Dr. Claudia Vorbeck Presse und Öffentlichkeitsarbeit
Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik IGB

Die Fraunhofer-Wissenschaftlerin Dr. Jennifer Bilbao erhielt am 9. Februar 2017 im belgischen Gent den Ivan Tolpe Award für Ihre Arbeiten im Rahmen des EU-Verbundprojekts BioEcoSIM. Darin wurde ein neuer Prozess zur Aufbereitung von Schweinegülle entwickelt, der es ermöglicht, daraus verschiedene Düngemittel und Bodenverbesserer herzustellen. Somit können Reststoffe aus der Landwirtschaft nachhaltig wieder nutzbar gemacht werden.

Der Ivan Tolpe Award 2017 geht an das von der EU geförderte Forschungsprojekt BioEcoSIM. Im Rahmen des Forschungsvorhabens entwickelten 14 Projektpartner aus vier europäischen Ländern zwischen Oktober 2012 und Dezember 2016 einen neuartigen Prozess zur Herstellung von Düngern und Bodenverbesserern aus Gülle. Koordiniert wurde das Projekt von Dr. Jennifer Bilbao. Die Wissenschaftlerin ist Leiterin der Forschungsgruppe Nährstoffmanagement am Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik IGB in Stuttgart. In ihrer Funktion als Projektkoordinatorin nahm sie am 9. Februar 2017 den Ivan Tolpe Award im Rahmen einer feierlichen Preisverleihung im belgischen Gent entgegen.

Die mit 2000 Euro dotierte Auszeichnung wird alle zwei Jahre vom Flemish Coordination Centre for Manure Processing (VCM) für wegweisende Entwicklungen in der Gülleverarbeitung vergeben. Die flämische Einrichtung mit Sitz in Brügge hat das Ziel, die nachhaltige Gülleverarbeitung in Flandern zu fördern. Hierfür bietet das VCM eine Plattform für den Austausch zwischen Politik und dem Landwirtschaftssektor. Der Ivan Tolpe Award wird in diesem Jahr zum zweiten Mal verliehen. Erstmals werden dabei auch überregionale und internationale Beiträge berücksichtigt. Benannt ist der Preis nach Ivan Tolpe, einem 2013 verstorbenen Pionier auf dem Gebiet der Gülleaufbereitung.

Aufgrund der enthaltenen Nährstoffe wird Gülle zur Düngung von landwirtschaftlichen Nutzflächen eingesetzt. Allerdings ist die Ausbringung von Gülle in Gegenden mit intensiver Tierhaltung, wie beispielweise einigen Regionen in Flandern, nicht immer möglich, da eine Überdüngung zu Verunreinigungen des Grundwassers durch Nitrat und des Bodens durch Phosphor verursachen kann. Aus diesem Grund muss die überschüssige Gülle – die aus 90 Prozent aus Wasser besteht – in weniger belastete Regionen mit Düngerbedarf exportiert werden. Das ist für die Landwirte teuer und bietet keine langfristige Lösung.

Deswegen sind Technologien gefragt, um Gülle so zu bearbeiten, dass die Nährstoffe in markfähige Produkte extrahiert werden, um negative Auswirkungen auf die Umwelt zu vermeiden und gleichzeitig Kosten zu reduzieren.

Hier setzte das EU-Verbundprojekt BioEcoSIM an. »Mit dem von uns entwickelten Verfahren lassen sich phosphorarme organische Bodenverbesserer sowie mineralische Düngesalze wie Ammoniumsulfat und Phosphatsalze aus der Gülle gewinnen«, erklärt Bilbao. »Auf dieser Basis können wir Dünger und Bodenverbesserer herstellen, die leicht zu handhaben, gut lagerfähig, mit der gängigen landwirtschaftlichen Technik ausbringbar und als Produkt vermarktbar sind.«

Ein weiterer Vorteil des Verfahrens: Die wiedergewonnenen Stoffe können auf eine nach Pflanzenart und Bodenbeschaffenheit abgestimmte Nährstoffzusammensetzung vermischt werden, sodass sich maßgeschneiderte Dünger für verschiedene Kunden und deren spezifische Anwendungen produzieren lassen. Der Gesamtprozess nutzt somit energieeffiziente Technologien und folgt dem Prinzip der Kreislaufwirtschaft.

Im Projekt BioEcoSIM konnten verschiedene Verfahren zur Aufbereitung von Gülle zu hochwertigen Produkten entwickelt und als separate Module in einer Pilotanlage über ein Jahr lang erfolgreich getestet werden. Diese wurde in einen landwirtschaftlichen Betrieb in Kupferzell, Deutschland eingerichtet. Hier konnte auch Gülle aus Flandern aufbereitet und verwertet werden. Mit der Anlage gelang es, zu zeigen, dass aus einem Problemstoff durch ein kosteneffizientes Verfahren verschiedene Produkte gewonnen werden können.

Weitere Informationen:

http://www.igb.fraunhofer.de/de/forschung/kompetenzen/physikalische-prozesstechn…

Anhang
Presseinformation Ivan Tolpe Award 2017
https://idw-online.de/de/attachment56581

Quelle: idw

(nach oben)


Wie viel Klimaschutz steckt im EEG?

Birgit Kruse Referat Medien- und Öffentlichkeitsarbeit
Universität Hamburg

2017 ist die Reform des Erneuerbare-Energien-Gesetzes (EEG) in Kraft getreten. Mit dem EEG soll der Ausstoß von Treibhausgasen verringert und damit das Klima geschützt werden. Welchen Effekt das EEG tatsächlich für den Klimaschutz hat, haben Prof. Dr. Grischa Perino und Dr. Johannes Jarke vom Fachbereich Sozialökonomie der Universität Hamburg untersucht. Sie kommen zu dem Schluss, dass angesichts des europäischen Treibhausgas-Handelssystems (EU-ETS) die Treibhausgasemissionen durch das EEG sogar steigen können.

Durch das EEG soll laut Bundeswirtschaftsministerium der Anteil erneuerbarer Energien von derzeit rund 32 Prozent auf 40 bis 45 Prozent im Jahr 2025 und auf 55 bis 60 Prozent im Jahr 2035 steigen. In ihrem Klimaschutzplan hat sich die Bundesregierung außerdem verpflichtet, die Treibhausgasemissionen bis 2050 im Vergleich zu 1990 um 80 bis 95 Prozent zu vermindern.

Doch durch das europäische Emissionshandelssystem (EU ETS) ist die Obergrenze an Treibhausgasemissionen verbindlich festgelegt. Das EU-ETS erfasst europaweit rund 12.000 Anlagen der Energiewirtschaft und der energieintensiven Industrie sowie alle innereuropäischen Flüge. Die Betreiber der Anlagen, die dem EU-ETS unterliegen, müssen für jede ausgestoßene Tonne CO2 ein Zertifikat abgeben. Emissionsrechte, die nicht benötigt werden, werden an andere teilnehmende Unternehmen verkauft oder für die Zukunft gespart. Eine Reduzierung der Emissionen in der deutschen Stromerzeugung verschiebt die Emissionen also lediglich an eine andere Stelle. Das hat auch das Gutachten Anfang Februar 2017 vorgestellte Gutachten des Wissenschaftlichen Beirats des Bundeswirtschaftsministeriums noch einmal betont.

Die Hamburger Forscher zeigen in ihrer gerade im „Journal of Environmental Economics and Management“ erschienenen Studie: Werden die erneuerbaren Energien durch einen Aufschlag auf den Strompreis finanziert, wie dies in Deutschland mit der EEG-Umlage der Fall ist, können die Treibhausgasemissionen insgesamt sogar steigen. Der Grund: Für Verbraucherinnen und Verbraucher ist Strom durch die Energiewende deutlich teurer geworden, so dass sie vermehrt fossile Energieträger in Bereichen nutzen, die nicht dem EU ETS unterliegen, und damit die Gesamtemissionen erhöhen. Eine Finanzierung der Energiewende über das Steuersystem würde diesen Effekt vermeiden.

Professor Perino: „Der Ausbau erneuerbarer Energien im Stromsektor ist ein zentraler Bestandteil der Energiewende und damit der Klimapolitik der Bundesregierung. Intuitiv erscheint das sehr sinnvoll. Auf den zweiten Blick sind die Zusammenhänge aber deutlich komplexer. Insbesondere die Wechselwirkungen mit dem Emissionshandel stellen derzeit so manche Intuition auf den Kopf. Eine regelgebundene Flexibilisierung der Emissionsobergrenze im Emissionshandel, wie auch vom Umweltbundesamt und dem Wissenschaftlichen Beirat des Bundeswirtschaftsministeriums gefordert, ist daher für die Klimawirkung des EEG entscheidend.“

Für Rückfragen:
Prof. Dr. Grischa Perino
Universität Hamburg
Fakultät für Wirtschafts- und Sozialwissenschaften
Fachbereich Sozialökonomie
Tel.: +49 40 42838-8767
E-Mail: grischa.perino@wiso.uni-hamburg.de

Originalartikel:
Do Renewable Energy Policies Reduce Carbon Emissions? On Caps and Inter-Industry Leakage“. Journal of Environmental Economics and Management, DOI: 10.1016/j.jeem.2017.01.004.

Weitere Informationen:
https://www.uni-hamburg.de/presse/pressemitteilungen/2017/pm12.html

Quelle: idw

(nach oben)


Elektrischer Antrieb zum Mitnehmen

Dr. Ulrich Marsch Corporate Communications Center
Technische Universität München

Ingenieure der Forschungseinrichtung TUMCREATE in Singapur haben einen Elektromotor entwickelt, der an fast jedes Fahrrad angebracht werden kann und es so in ein Pedelec verwandelt. Das Gerät ist so leicht, dass es vor und nach Gebrauch ohne Probleme mitgenommen werden kann. Einen ersten Prototyp haben die Forscher bereits getestet.

Gerade in Großstädten nutzen viele Menschen ihr Fahrrad für den Weg zur Arbeit. Je nach Wetter, Streckenverlauf oder Stimmung kann das Radeln ziemlich anstrengend sein. Viele Radler würden sich für diese Situationen einen Elektromotor wünschen. Ein herkömmliches Pedelec (Pedal Electric Cycle) ist aber vielen Menschen zu teuer, um es für die tägliche Fahrt zu nutzen und es vergleichsweise ungeschützt am Bahnhof oder Arbeitsplatz abzustellen.

Felix Römer, Doktorand bei TUMCREATE in Singapur – eine gemeinsame Forschungseinrichtung der TUM und der Nanyang Technological University (NTU) – radelt selbst fast jeden Tag zur nächsten U-Bahn-Station, um von dort weiter zu Arbeit zu pendeln. Bei dem schwülen Klima in Singapur ist das Radfahren nicht immer ein Vergnügen. So entwickelte Römer die Idee eines flexiblen Elektromotors, der einfach an jedes Rad angebracht werden kann.

Viele Komponenten in einem Gehäuse
„Es gibt bereits einige Ansätze in diese Richtung, aber bei diesen sind meist Veränderungen am Fahrrad nötig“, sagt Römer. „Diesen Aufwand scheuen viele.“ Zudem passen diese Einheiten oft nur an spezielle Fahrräder oder Felgen. Römer und die Masterstudenten Marius Mrosek und Simon Schmalfuss entwickelten daher ein komplett eigentständiges Gerät.

Die größte Herausforderung für das Team war es, die benötigten Komponenten wie Motor, Akku und Sensoren kompakt in einem Gehäuse unterzubringen. „Wir brauchen zum Beispiel optische Sensoren, die erkennen, dass die Pedalen getreten werden“, sagt Römer. Bei den meisten Pedelecs sind diese Sensoren fest im Tretlager verbaut. „Es hat sehr viel Zeit und Mühe gekostet, bis alles ohne Kabel oder Zusatzeinheit funktioniert hat.“ Die Erkennung der Pedalenbewegung ist notwendig, um die Gesetzesvorgaben für Pedelecs zu erfüllen. Pedelecs sind dem Fahrrad rechtlich gleichgestellt, sie dürfen ohne Versicherungskennzeichen, Zulassung und Führerschein gefahren werden.

In dem Gerät ist ein Lithiumakku verbaut, der je nach Beanspruchung eine Reichweite von bis zu 50 Kilometern hat und innerhalb von wenigen Stunden wieder aufgeladen werden kann. Der Motor hat eine Leistung von 250 Watt und schaltet sich automatisch aus, wenn eine Geschwindigkeit von 25 Stundenkilometern erreicht wurde – auch dies ist eine der Vorgaben für Pedelecs.

In weniger als zehn Sekunden montiert
Die Ingenieure haben bereits einen funktionstüchtigen Prototyp entwickelt. Dieser wiegt 3,5 Kilogramm und kann an einem Gelenk in der Mitte zusammengeklappt werden. Die Fahrer können das Gerät so einfach im Rucksack verstauen.

Die Befestigung erfolgt mithilfe einer Kabelschlaufe, die im Rahmen verhakt und mit einem drehbaren Knauf angebracht wird – in weniger als zehn Sekunden. „Wenn man die Einheit abnimmt, bleibt nichts am Fahrrad zurück“, sagt Römer. In langer Tüftelarbeit hatten die Wissenschaftler die Einheit so konstruiert, dass sie zu verschiedenen Rahmenformen passt. Sie kann gleichermaßen an beiden Seiten des Fahrrads angebracht werden. Welche Seite gewählt wurde, erkennt das Gerät automatisch.

Praktische Lösung für Pendler
Als Konkurrenzprodukt zu den herkömmlichen Pedelecs sieht Römer „ease“ nicht. „Unser Produkt ist für Personen geeignet, deren täglicher Arbeitsweg zu weit zum Fahrradfahren ist, für die sich eine Anschaffung eines teuren Pedelecs mit hoher Reichweite jedoch nicht lohnt.“

Das Team arbeitet bereits an Verbesserungen. „Wir haben nach den ersten Tests Rückmeldungen bekommen, dass einige Fahrer mit den Schuhen an die Einheit gestoßen sind“, sagt Römer. Die ersten Fehler werden nun ausgebessert und die Einheit optimiert. Für weitere Entwicklungen hoffen die Wissenschaftler auf die Kooperation mit einem Industriepartner. Erst dann sei es auch möglich abzuschätzen, wie viel „ease“ kosten wird. Auf ihre Erfindung haben die Wissenschaftler ein Patent angemeldet.

Weitere Informationen:
http://www.tum.de/die-tum/aktuelles/pressemitteilungen/detail/article/33698/

Quelle: idw

(nach oben)


Rezeptur aus der Nanowelt für saubereres Trinkwasser

Thomas Joppig Brand Management, Marketing & Communications
Jacobs University Bremen gGmbH

Zu viel Gülle, zu viele Düngemittel: An vielen Orten in Deutschland beeinträchtigt die intensive Landwirtschaft die Wasserqualität. Die Nitratwerte im Grundwasser sind zu hoch. Ein Forscherteam der Jacobs University um den Chemiker Prof. Dr. Ulrich Kortz hat jetzt im Labor einen neuen Weg gefunden, wie die Nitratbelastung im Wasser reduziert werden kann – mithilfe von sogenannten Polyoxometallaten, kurz: POMs.

POMs sind Geschöpfe der Nanowelt. Es handelt sich um molekulare Metall-Sauerstoff-Verbindungen, die im Labor mithilfe der Reaktion von verschiedenen Substanzen in Wasser hergestellt werden, oftmals unter erstaunlich simplen Bedingungen. Der Chemieprofessor Ulrich Kortz und sein Team gehören zu den weltweit führenden auf dem Gebiet der Synthese neuartiger POMs. Von einer „magischen Rezeptur“, spricht Kortz, wenn es darum geht die exakten Synthesebedingungen für ein POM zu identifizieren, welches robust und lösungsstabil ist.

In dem konkreten Fall haben die Forscher mit einem bestimmten POM gearbeitet, welches eine vakante Stelle in der Gerüststruktur aufweist. Diese Vakanz haben sie systematisch mit verschiedenen Metallatomen gefüllt, und dann untersucht, wie die so angereicherten POMs den elektrokatalytischen Abbau von Nitrat in Wasser beeinflussen. Die Ergebnisse haben gezeigt, dass die POMs mit Kobalt und Zink eher unauffällig blieben. Der Einbau von Kupfer oder Nickel erwies sich jedoch als ausgesprochen effektiv: Das nickelhaltige POM senkte den Nitratgehalt um den Faktor 4, und das kupferhaltige POM sogar um den Faktor 50.

Von einem „hochinteressanten Resultat“ spricht Grundlagenforscher Kortz. Er setzt auch deshalb große Hoffnungen in die Methode, weil die Nitratreduktion mithilfe von POMs weniger Kohlendioxid emittiert als herkömmliche Verfahren, also umweltfreundlicher ist. Weitere Untersuchungen sollen nun klären, ob und wie sich die Methode zielsicher im Alltag einsetzen lässt.

Die Nitratbelastung im Grundwasser ist ein seit langem bekanntes Problem in Deutschland. Laut dem Nitratbericht 2016 der Bundesregierung weisen fast ein Drittel der Messstellen für die Grundwasserqualität zu hohe Nitratwerte auf. Verantwortlich dafür ist vor allem der übermäßige Einsatz von Stickstoffdüngern in der Landwirtschaft. Ist das Grundwasser zu stark mit Nitrat belastet, muss es für die Trinkwasserversorgung verdünnt oder das Nitrat technisch reduziert beziehungsweise beseitigt werden. Der erlaubte Grenzwert liegt bei 50 Milligramm pro Liter.

Kortz und sein internationales Team, zu dem auch Wissenschaftler aus China, Indien, Libanon, Pakistan, Simbabwe und Japan gehören, haben ihre Ergebnisse jüngst in dem European Journal of Inorganic Chemistry veröffentlicht. Wie diese POMs entwickelt und für diese Anwendung maßgeschneidert wurden, zeigt auch sehr anschaulich ein kurzer Film unter: https://vimeo.com/198758996

Weitere Informationen:
http://onlinelibrary.wiley.com/doi/10.1002/ejic.201601354/epdf
http://ukortz.user.jacobs-university.de
http://www.jacobs-university.de

Fragen beantwortet:
Ulrich Kortz | Professor für Chemie
u.kortz@jacobs-university.de | Tel.: +49 421 200-3235

Über die Jacobs University:
Die Jacobs University ist eine private, unabhängige, englischsprachige Universität in Bremen. Hier studieren junge Menschen aus der ganzen Welt in Vorbereitungs-, Bachelor-, Master- und PhD-Programmen. Internationalität und Transdisziplinarität sind die besonderen Kennzeichen der Jacobs University: Forschung und Lehre folgen nicht einem einzigen Lösungsweg, sie gehen Fragestellungen aus der Perspektive verschiedener Disziplinen an. Dieses Prinzip macht Jacobs Absolventen zu begehrten Nachwuchskräften, die erfolgreich internationale Karrierewege einschlagen.

Kontakt:
Thomas Joppig | Brand Management, Marketing & Communications
t.joppig@jacobs-university.de | Tel.: +49 421 200-4504

Quelle: idw

(nach oben)


Weniger Sauerstoff in allen Meeren

Dr. Andreas Villwock Kommunikation und Medien
GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel

Der aktuell zu beobachtende globale Wandel lässt Wassertemperaturen steigen und verändert die Ozeanzirkulation. Das sorgt unter anderem dafür, dass weniger Sauerstoff im Oberflächenwasser der Meere gelöst ist und weniger Sauerstoff in die Tiefsee gelangt – mit weitreichenden Folgen für die Organismen im Meer. In der internationalen Fachzeitschrift Nature veröffentlichen Ozeanographen des GEOMAR Helmholtz-Zentrums für Ozeanforschung Kiel jetzt die bisher umfassendste Analyse zum Sauerstoffverlust in den Weltmeeren und deren Ursache.

Nicht nur für an Land lebende Tiere und Pflanzen ist Sauerstoff eine existenzielle Lebensgrundlage. Auch nahezu alle Organismen im Ozean können ohne ihn nicht existieren. Doch der zu beobachtende Anstieg der Wassertemperaturen sorgt gleich in doppelter Weise für eine schlechtere Sauerstoffversorgung der Meere. Wärmeres Oberflächenwasser nimmt weniger Sauerstoff auf als kälteres Wasser. Hinzu kommt, dass es die Schichtung des Wassers stabilisiert. Das schwächt die Umwälzbewegung, so dass weniger Sauerstoff in große Tiefen transportiert wird. Daher sagen viele Modellrechnungen bei einer weltweiten Erwärmung eine Abnahme des Sauerstoffgehalts in den Ozeanen voraus. Die erste globale Auswertung von historischen Messungen in vielen Meeresregionen scheint diesen Trend zu bestätigen und deutet auf erste Folgen der globalen Erwärmung hin.

In dem renommierten Wissenschaftsjournal Nature veröffentlichen die Ozeanographen Dr. Sunke Schmidtko, Dr. Lothar Stramma und Prof. Dr. Martin Visbeck vom GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel jetzt die bisher umfassendste Studie zum globalen Sauerstoffgehalt in den Weltmeeren. Sie zeigt, dass er in den vergangenen 50 Jahren um mehr als zwei Prozent abgenommen hat. „Da insbesondere große Fische Gebiete mit geringem Sauerstoffgehalt meiden beziehungsweise dort nicht überleben, können diese Veränderungen weitreichende biologische Folgen haben“, sagt Dr. Schmidtko, der Erstautor der Studie.

Die Forschergruppe nutzte für ihre Arbeit alle weltweit vorhandenen Sauerstoffdaten, ergänzte sie mit aktuellen Messungen und verfeinerten die Interpolationsverfahren, um die Entwicklung des Sauerstoffgehalts in den Ozeanen über ein halbes Jahrhundert hinweg genauer zu rekonstruieren. In einzelnen Gebieten konnte schon vorher mit Beobachtungsdaten nachgewiesen werden, dass in den oberen Wasserschichten weniger Sauerstoff zur Verfügung steht als noch vor einigen Jahrzehnten. „Für den gesamten Ozean war dieser Nachweis aber schwieriger, da viel weniger Sauerstoff-Messdaten aus entlegenen Regionen und aus dem tiefen Ozean existieren“, erklärt Dr. Schmidtko, „wir konnten jetzt zum ersten Mal die Sauerstoffverteilung und deren Änderung im gesamten Weltozean dokumentieren – das ist eine wesentliche Voraussetzung, um die Prognosen für den Ozean der Zukunft zu verbessern“.

Die Studie zeigt auch, dass mit Ausnahme von einigen wenigen Regionen der Sauerstoffgehalt im Untersuchungszeitraum überall im Ozean abnahm. Den größten Verlust konnten die Ozeanographen im Nordpazifik ausmachen. „Während die geringe Sauerstoffabnahme in der Atmosphäre zurzeit als unkritisch angesehen wird, kann die Sauerstoffabnahme im Ozean wegen der ungleichmäßigen Verteilung durchaus weitreichende Konsequenzen haben. In fischreichen küstennahen Gebieten wären diese Konsequenzen ökologisch, aber auch wirtschaftlich zu spüren“, betont der Koautor Dr. Lothar Stramma.

„Mit Messungen alleine können wir allerdings nicht sämtliche Ursachen erklären“, räumt Koautor Professor Martin Visbeck ein, „auch natürliche Prozesse, die auf Zeitskalen von einigen Jahrzehnten auftreten, könnten an der beobachteten Abnahme mit Schuld sein.“ Allerdings, so der Ozeanograph weiter, sei das Ergebnis konsistent mit den meisten Modellrechnungen, die aufgrund höherer Kohlendioxid-Konzentrationen und den damit verbundenen höheren Temperaturen im Ozean und der Atmosphäre eine weitere Abnahme des Sauerstoffs in den Meeren prognostizieren.

Die vorgestellten Messergebnisse sind ein wichtiges Ergebnis für die laufenden Arbeiten im Sonderforschungsbereich 754 „Klima – biogeochemische Wechselwirkungen im tropischen Ozean“, den die Deutsche Forschungsgemeinschaft an der Kieler Christian-Albrechts-Universität und am GEOMAR fördert. Der SFB 754 soll helfen, das Wechselspiel von Klima und Biogeochemie des tropischen Ozeans besser zu verstehen. „Vier Expeditionen mit dem deutschen Forschungsschiff METEOR widmen sich ab Anfang März der tropischen Sauerstoffminimumzone im Ostpazifik vor Peru. Dabei werden wir weitere Daten zur regionalen Entwicklung gewinnen, die uns auch helfen, die globalen Trends besser zu verstehen“, betont Dr. Stramma, der Expeditionskoordinator für den SFB ist.

Hinweis:
Die Arbeiten für diese Studie wurden unterstützt durch das vom Bundesministerium für Bildung und Forschung finanziertes Projekt MIKLIP (http://www.geomar.de/nc/forschen/fb1/fb1-po/projekte/miklip/) sowie durch den von der Deutschen Forschungsgemeinschaft geförderten Sonderforschungsbereich 754 „Klima – Biogeochemische Wechselwirkungen im tropischen Ozean“.

Originalarbeit:
Schmidtko, S., L. Stramma und M. Visbeck (2017): Decline in global oxygen content during the past five decades. Nature, http://dx.doi.org/10.1038/nature21399

Weitere Informationen:
http://www.geomar.de Das GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel
http://www.ocean-oxygen.org/ Webseite zum Sauerstoffbudget des Ozeans
http://www.sfb754.de Der Sonderforschungsbereich 754

Quelle: idw

(nach oben)


Pizza, Burger und Co.: Eine fettreiche Mahlzeit kann den Stoffwechsel schädigen und den Weg

Birgit Niesing Presse- und Öffentlichkeitsarbeit
Deutsches Zentrum für Diabetesforschung

Die weltweite Ausbreitung von Übergewicht, Fettleibigkeit und Typ-2-Diabetes wird häufig mit dem Verzehr gesättigter Fette in Verbindung gebracht. Wissenschaftler am Deutschen Diabetes-Zentrum (DDZ) und am Helmholtz Zentrum München (HMGU) haben herausgefunden, dass bereits die einmalige Aufnahme einer größeren Menge Palmöl die Empfindlichkeit des Körpers für Insulin verringert sowie vermehrte Fetteinlagerungen und Veränderungen im Energiestoffwechsel der Leber hervorruft. Die Studienergebnisse geben Aufschluss über die frühesten Veränderungen im Leberstoffwechsel, welche langfristig zu Fettlebererkrankungen bei Übergewicht und Typ-2-Diabetes führen können.

Düsseldorf (DDZ) – In der aktuellen Ausgabe von „The Journal of Clinical Investigation“ veröffentlichten DZD-Forscher des Deutschen Diabetes-Zentrums gemeinsam mit dem Helmholtz Zentrum München und portugiesischen Kollegen eine Untersuchung an gesunden, schlanken Männern, die nach dem Zufallsprinzip einmal ein aromatisiertes Palmöl-Getränk und ein anderes Mal ein Glas mit klarem Wasser als Kontrollexperiment erhielten. Das Palmöl-Getränk enthielt eine ähnliche Menge an gesättigtem Fett wie zwei Cheeseburger mit Speck und eine große Portion Pommes Frites oder wie zwei Salami-Pizzen. Die Wissenschaftler zeigten, dass diese einzige fettreiche Mahlzeit ausreicht, um die Insulinwirkung zu vermindern, d. h. Insulinresistenz hervorzurufen und den Fettgehalt der Leber zu erhöhen. Zudem konnten Veränderungen im Energiehaushalt der Leber nachgewiesen werden. Die beobachteten Stoffwechselveränderungen gleichen den Veränderungen, wie sie bei Menschen mit Typ-2-Diabetes oder nichtalkoholischer Fettlebererkrankung (NAFLD) beobachtet werden. NAFLD ist die häufigste Lebererkrankung in den Industrienationen und mit Fettleibigkeit, dem sogenannten „Metabolischen Syndrom“, und erhöhtem Risiko für Typ-2-Diabetes verbunden. Des Weiteren kann die NAFLD in fortgeschrittenen Stadien zu schweren Leberschädigungen führen.

„Überraschend war, dass eine einzige Palmöl-Dosis bei gesunden Menschen so schnell und direkt Auswirkungen auf die Leber hat und durch die verabreichte Fettmenge bereits eine Insulinresistenz ausgelöst wird“, erklärt Prof. Dr. Michael Roden, Wissenschaftlicher Geschäftsführer und Vorstand am DDZ und des Deutschen Zentrums für Diabetesforschung (DZD). „Eine Besonderheit unserer Untersuchung ist, dass wir den Leberstoffwechsel von Menschen mit einer überwiegend nichtinvasiven Technologie, d. h. durch eine Magnetresonanzspektroskopie, überprüft haben. Diese erlaubt es, die Zucker- und Fettspeicherung sowie den Energiestoffwechsel der Mitochondrien (Kraftwerke der Zelle) beim Menschen zu verfolgen.“ Dank neuer Untersuchungsmethoden wiesen die Wissenschaftler nach, dass die Einnahme des Palmöls Muskeln, Leber und Fettgewebe in ihrer Stoffwechselaktivität beeinträchtigt. So führt die hervorgerufene Insulinresistenz zu einer vermehrten Zuckerneubildung in der Leber und einer gleichzeitig verminderten Zuckeraufnahme in der Skelettmuskulatur, ein Mechanismus der bei Typ-2-Diabetes und seinen Vorstufen den Blutzuckerspiegel ansteigen lässt. Zudem bewirkt die Insulinresistenz des Fettgewebes eine vermehrte Freisetzung von Fetten in die Blutbahn, welche wiederum die Insulinresistenz weiter fördern. Die erhöhte Verfügbarkeit von Fett führt dadurch zu einer gesteigerten Arbeitslast der Mitochondrien, was langfristig diese zellulären Kraftwerke überfordern und zur Entstehung einer Lebererkrankung beitragen kann.
Das Team um Prof. Roden vermutet, dass gesunde Menschen diese unmittelbaren Auswirkungen der fettreichen Nahrung auf den Stoffwechsel je nach Prädisposition der Gene leicht bewältigen können. Problematisch könnten jedoch die langfristigen Folgen für regelmäßige Esser solcher fettreichen Mahlzeiten sein.

Diese Arbeit wird unter anderem durch das Bundesgesundheitsministerium, das Ministerium für Innovation, Wissenschaft und Forschung des Landes Nordrhein-Westfalen, das Bundesministerium für Bildung und Forschung (Deutsches Zentrum für Diabetesforschung e.V.), sowie die Deutsche Forschungsgemeinschaft (DFG), die Deutsche Diabetes-Gesellschaft (DDG) und die Schmutzler-Stiftung gefördert.

Originalpublikation:
Elisa Álvarez Hernández, Sabine Kahl, Anett Seelig, Paul Begovatz, Martin Irmler, Yuliya Kupriyanova, Bettina Nowotny, Peter Nowotny, Christian Herder, Cristina Barosa, Filipa Carvalho, Jan Rozman, Susanne Neschen, John G. Jones, Johannes Beckers, Martin Hrabě de Angelis and Michael Roden, Acute dietary fat intake initiates alterations in energy metabolism and insulin resistance, J Clin Invest. 2017., 23. Januar 2017.
doi:10.1172/JCI89444.

Das Deutsche Diabetes-Zentrum (DDZ) versteht sich als deutsches Referenzzentrum zum Krankheitsbild Diabetes. Ziel ist es, einen Beitrag zur Verbesserung von Prävention, Früherkennung, Diagnostik und Therapie des Diabetes mellitus zu leisten. Gleichzeitig soll die epidemiologische Datenlage in Deutschland verbessert werden. Federführend leitet das DDZ die multizentrisch aufgebaute Deutsche Diabetes-Studie. Es ist Ansprechpartner für alle Akteure im Gesundheitswesen, bereitet wissenschaftliche Informationen zum Diabetes mellitus auf und stellt sie der Öffentlichkeit zur Verfügung. Das DDZ gehört der „Wissenschaftsgemeinschaft Gottfried Wilhelm Leibniz“ (WGL) an und ist Partner im Deutschen Zentrum für Diabetesforschung (DZD e.V.).

Das Deutsche Zentrum für Diabetesforschung (DZD) e.V. ist eines der sechs Deutschen Zentren der Gesundheitsforschung. Es bündelt Experten auf dem Gebiet der Diabetesforschung und verzahnt Grundlagenforschung, Epidemiologie und klinische Anwendung. Ziel des DZD ist es, über einen neuartigen, integrativen Forschungsansatz einen wesentlichen Beitrag zur erfolgreichen, maßgeschneiderten Prävention, Diagnose und Therapie des Diabetes mellitus zu leisten. Mitglieder des Verbunds sind das Helmholtz Zentrum München – Deutsches Forschungszentrum für Gesundheit und Umwelt, das Deutsche Diabetes-Zentrum DDZ in Düsseldorf, das Deutsche Institut für Ernährungsforschung DIfE in Potsdam-Rehbrücke, das Institut für Diabetesforschung und Metabolische Erkrankungen des Helmholtz Zentrum München an der Eberhard-Karls-Universität Tübingen und das Paul-Langerhans-Institut Dresden des Helmholtz Zentrum München am Universitätsklinikum Carl Gustav Carus der TU Dresden, assoziierte Partner an den Universitäten in Heidelberg, Köln, Leipzig, Lübeck und München sowie weitere Projektpartner. Weitere Informationen: www.dzd-ev.de

Das Helmholtz Zentrum München verfolgt als Deutsches Forschungszentrum für Gesundheit und Umwelt das Ziel, personalisierte Medizin für die Diagnose, Therapie und Prävention weit verbreiteter Volkskrankheiten wie Diabetes mellitus und Lungenerkrankungen zu entwickeln. Dafür untersucht es das Zusammenwirken von Genetik, Umweltfaktoren und Lebensstil. Der Hauptsitz des Zentrums liegt in Neuherberg im Norden Münchens. Das Helmholtz Zentrum München beschäftigt rund 2.300 Mitarbeiter und ist Mitglied der Helmholtz-Gemeinschaft, der 18 naturwissenschaftlich-technische und medizinisch-biologische Forschungszentren mit rund 37.000 Beschäftigten angehören. Das Helmholtz Zentrum München ist Partner im Deutschen Zentrum für Diabetesforschung e.V. Weitere Informationen: www.helmholtz-muenchen.de

Aktuelle Pressemitteilungen des DDZ finden Sie im Internet unter www.ddz.uni-duesseldorf.de

DDZ-Pressebilder dürfen nur für redaktionelle Zwecke unter der Führung des Bildnachweises: „Quelle: DDZ e.V.“ verwendet werden. Der Abdruck ist honorarfrei. Wir bitten jedoch um Zusendung eines Belegexemplars bzw. einen Hinweis zum Ort der Veröffentlichung.

Ansprechpartner am DDZ für weitere Fragen ist:
Christina A. Becker
Pressesprecherin
Deutsches Diabetes-Zentrum (DDZ)
Leibniz-Zentrum für Diabetes-Forschung
an der Heinrich-Heine-Universität Düsseldorf
Tel.: 0211-3382-450
E-Mail: Christina.Becker@ddz.uni-duesseldorf.de

Quelle: idw

(nach oben)


Frauen liegen bei Renten zurück – Angleichung künftig vor allem durch sinkende Renten bei Männern

Rainer Jung Abt. Öffentlichkeitsarbeit
Hans-Böckler-Stiftung

Neue Studie zum Gender Pension Gap

Bei der Altersversorgung ist die Kluft zwischen Männern und Frauen in Deutschland noch deutlich größer als bei den Löhnen. In Westdeutschland fällt der so genannte Gender Pension Gap zudem fast doppelt so hoch aus wie im Osten.

In Zukunft wird der Abstand zwar schrumpfen. Doch das hat nur zum kleineren Teil mit einer besseren Altersversorgung von Frauen zu tun.

Vor allem liegt es daran, dass künftig die durchschnittliche gesetzliche Rente von Männern im Vergleich zu heutigen Rentnern geringer sein wird. Zu diesem Ergebnis kommt eine neue, von der Hans-Böckler-Stiftung geförderte Studie.* Eine Forschergruppe des Deutschen Instituts für Wirtschaftsforschung (DIW) um den Ökonomen Dr. Markus Grabka hat dafür geschlechtsspezifische Unterschiede bei der gesetzlichen Rente analysiert. Die Untersuchung basiert auf Daten des Sozio-oekonomischen Panels und der Rentenversicherung.

Der Studie zufolge erhielten westdeutsche Männer im Ruhestand 2014 monatlich im Schnitt 994 Euro und damit 418 Euro oder 42 Prozent mehr aus der Gesetzlichen Rentenversicherung (GRV) als die weiblichen Ruheständler. In den neuen Bundesländern, wo die Männer im Schnitt auf 1.057 Euro kommen, betrug die Differenz 239 Euro oder 23 Prozent.

Verantwortlich für den Rückstand der Frauen seien in erster Linie Unterschiede beim sozialversicherungspflichtigen Arbeitsentgelt, schreiben die DIW-Wissenschaftler. Im Schnitt verdienten Arbeitnehmerinnen deutlich weniger als Arbeitnehmer – unter anderem, weil sie öfter in schlecht bezahlten Berufen tätig sind, seltener in Führungspositionen gelangen und häufiger in Teilzeit arbeiten. Hinzu komme, dass Frauen wesentlich häufiger als Männer ihre Erwerbstätigkeit unterbrechen, um sich um Kinder oder pflegebedürftige Angehörige zu kümmern. Infolgedessen übertreffe der Gender Pension Gap deutlich den Gender Pay Gap, der zuletzt deutschlandweit bei 21 Prozent (West 23 Prozent, Ost 8 Prozent) lag.

Die Unterschiede sind in den ärmeren Einkommensschichten besonders stark ausgeprägt: Bei Westdeutschen der Jahrgänge 1936 bis 1945 variiert die geschlechtsspezifische Differenz bei der Rente zwischen 40 Prozent im Zehntel mit dem höchsten Rentenanspruch und 75 Prozent im Zehntel mit der niedrigsten Rente. Nach Ansicht der Autoren dürfte das mit den vielen teilzeitbeschäftigten und nicht erwerbstätigen Frauen in der unteren Hälfte der Verteilung zusammenhängen.

Im Verlauf der letzten beiden Jahrzehnte ist der Gender Pension Gap langsam kleiner geworden. Das zeigt ein Blick auf Neurentnerinnen und Neurentner: 1995 lag der Abstand zwischen westdeutschen Männern und Frauen, die erstmals eine Rente der GRV bezogen, noch bei 48 Prozent. 2014 waren es 39 Prozent. Im Osten, wo die Differenzen durchgehend kleiner sind, ging die geschlechtsspezifische Lücke von 33 auf 10 Prozent zurück. Als maßgeblichen Grund nennen die Ökonomen die gestiegene Frauenerwerbstätigkeit, eine zunehmend bessere Ausbildung von Frauen und einen wenn auch langsam sinkenden Gender Pay Gap.

– Blick in die Zukunft: Renten der Männer sinken, die von Frauen steigen nur im Westen –

In Zukunft wird aber noch ein anderer Faktor bei der Angleichung an Gewicht gewinnen: sinkende Rentenansprüche bei Männern. Mithilfe eines Simulationsmodells haben die Experten auch berechnet, was heute Berufstätigen im Alter finanziell blüht. Männern in Ost und West, die zwischen 1966 und 1970 geboren wurden, drohen demnach geringere Alterseinkommen im Vergleich zu heute bereits Verrenteten. Ihre gesetzlichen Rentenansprüche im Alter von 65 Jahren werden nach den Berechnungen im Westen um monatlich rund 170 Euro niedriger liegen als bei Männern der Geburtsjahrgänge 1936 bis 1945. Im Osten dürfte der Rückgang sogar 220 Euro betragen. Die Gründe: häufigere Erwerbsunterbrechungen, längere Ausbildung, mehr Teilzeit. Bei den westdeutschen Frauen wird die zunehmende Erwerbsbeteiligung zu etwas höheren durchschnittlichen Rentenansprüchen führen, während es im Osten, wo die weibliche Erwerbsbeteiligung bereits zu DDR-Zeiten relativ hoch war, kaum Veränderungen gibt. Gesamtdeutsch dürfte der Gender Pension Gap bei den Jahrgängen 1966 bis 1970 im Vergleich zu den 1936 bis 1945 Geborenen 15 Prozentpunkte geringer ausfallen.

Um die eigenständige Altersversorgung von Frauen weiter zu stärken, empfehlen die Forscher den Ausbau einer unterstützenden Infrastruktur für Familien. Dies würde es vor allem Frauen ermöglichen, ihre Arbeitszeit auch mit Sorgeverpflichtung aufrecht zu erhalten und Erwerbsunterbrechungen zu begrenzen. Darüber hinaus gelte es, alle Säulen der Alterssicherung im Auge zu behalten. Die gesetzliche Rente, die bei Frauen der Jahrgänge 1966 bis 1970 im Schnitt bei knapp über 700 Euro liegen wird, dürfte allein kaum vor Altersarmut schützen. Schon gar nicht, wenn das Rentenniveau künftig deutlich sinken sollte. Allerdings gebe es bislang auch bei der betrieblichen Altersvorsorge einen Gender Pension Gap, so die Forscher.

Kontakt in der Hans-Böckler-Stiftung
Dr. Dorothea Voss
Leiterin Abteilung Forschungsförderung
Tel.: 0211-7778-194
E-Mail: Dorothea-Voss@boeckler.de

Rainer Jung
Leiter Pressestelle
Tel.: 0211-7778-150
E-Mail: Rainer-Jung@boeckler.de

Weitere Informationen:
http://www.diw.de/documents/publikationen/73/diw_01.c.551601.de/17-5.pdf – Quelle: Markus Grabka, Björn Jotzo, Anika Rasner, Christian Westermeier: Der Gender Pension Gap verstärkt die Einkommensungleichheit von Männern und Frauen im Rentenalter. In: DIW Wochenbericht 5/2017.

Quelle: idw

(nach oben)


Darmspiegelung schon ab 50 – vor allem für Männer

Dr. Stefanie Seltmann Presse- und Öffentlichkeitsarbeit
Deutsches Krebsforschungszentrum

Ab dem Alter von 55 Jahren haben gesetzlich Krankenversicherte Anspruch auf eine Darmspiegelung zur Früherkennung von Darmkrebs. Eine gemeinsame Studie vom Deutschen Krebsforschungszentrum (DKFZ), der AOK Baden-Württemberg, der Bosch BKK und MEDI Baden-Württemberg legt nun nahe, diese Altersgrenze zu senken: Die Untersuchung ist routinemäßig schon ab dem Alter von 50 sinnvoll – insbesondere für Männer.

2002 wurde die Vorsorge-Darmspiegelung in das Krebs-Früherkennungsprogramm der gesetzlichen Krankenkassen aufgenommen. Ab dem Alter von 55 Jahren haben Versicherte Anspruch auf die Untersuchung, bei der eventuell entdeckte Krebsvorstufen sogleich entfernt werden können. Seither ist die Darmkrebs-Neuerkrankungsrate deutlich zurückgegangen – und zwar ausschließlich in der Altersgruppe, der das Screening angeboten wird.

„In den ersten zehn Jahren haben mehr als vier Millionen Menschen an einer Vorsorge-Darmspiegelung teilgenommen. Das hat nach unseren Berechnungen etwa 180.000 Darmkrebsfälle verhindert“, sagt Hermann Brenner vom Deutschen Krebsforschungszentrum. Der Heidelberger Präventionsexperte und seine Kooperationspartner suchen nach Möglichkeiten, diese Rate noch weiter zu verbessern.

Bei Menschen ohne familiäre Belastungen tritt Darmkrebs vor dem Alter von 50 Jahren äußerst selten auf. Danach steigt die Erkrankungsrate kontinuierlich an. Nationale und internationale Leitlinien empfehlen daher die Krebsvorsorge bereits ab 50 Jahren. „Durch die Zusammenarbeit mit der AOK Baden-Württemberg, der Bosch BKK und MEDI Baden-Württemberg hatten wir erstmals die Möglichkeit, an einer großen Bevölkerungsgruppe zu prüfen, welche Ergebnisse mit dem Angebot der Vorsorge-Darmspiegelung ab 50 Jahren zu erzielen sind“, so Brenner.

Insgesamt 84.726 Versicherte der AOK Baden-Württemberg im Alter zwischen 50 und 54 Jahren erhielten in den Jahren 2014 und 2015 eine persönliche Einladung zu einer Früherkennungs-Darmspiegelung. Eingeladen wurden ausschließlich Personen, die in den Jahren zuvor keine Darmspiegelung beansprucht hatten, nicht an Krebs erkrankt und in das Hausarzt- oder das Facharztprogramm der AOK eingeschrieben waren.

1,9 Prozent der Angeschriebenen leisteten der Einladung Folge. Bei den insgesamt 1396 Untersuchungen wurden in 6,8 Prozent der Fälle Darmkrebs oder Darmkrebsvorstufen, so genannte fortgeschrittene Adenome, entdeckt und abgetragen.

Die Untersuchung offenbarte einen deutlichen Unterschied zwischen den Geschlechtern: Während bei nur 4,5 Prozent der Frauen dieser Altersgruppe Darmkrebs oder Vorstufen gefunden wurden, traten sie bei Männern mit 8,6 Prozent fast doppelt so häufig auf. Das heißt, die Ärzte entdeckten bei jeder zwölften Untersuchung von Männern zwischen 50 und 54 eine verdächtige Gewebeveränderung. Dagegen müssten bei Frauen dieser Altersgruppe 22 Darmspiegelungen durchgeführt werden, um einen relevanten Befund zu entdecken.

„Damit sind Darmkrebs und seine Vorstufen bei Männern dieser Altersgruppe sogar häufiger als bei den 55 bis 69-jährigen Frauen, bei denen die Darmspiegelung ganz selbstverständlich zum Krebsfrüherkennungsangebot gehört. Das ist ein überzeugender Grund dafür, die Altersgrenze für die Vorsorge-Koloskopie zumindest bei Männern schon vom 50. Geburtstag an routinemäßig anzubieten“, ist das Fazit Hermann Brenners. Andere Länder, etwa Österreich, haben die Vorsorgeuntersuchung bereits ab 50 Jahren in ihr Krebsfrüherkennungsprogramm aufgenommen.

Seit 2017 ist ein Einladungsverfahren für die Früherkennung durch die Darmspiegelung ab dem Alter von 55 gesetzlich vorgesehen. Bundesweiter Vorreiter ist dabei seit Jahren das Facharztprogramm Gastroenterologie von AOK Baden-Württemberg und Bosch BKK. Dort wird das Einladungsschreiben bereits seit 2011 für Teilnehmer ab dem 55. Geburtstag und seit 2014 für Teilnehmer ab dem 50. Geburtstag umgesetzt.

Die Studienergebnisse bestätigen den Beteiligten die Richtigkeit des Weges: „Es wird eindeutig belegt, wie unverzichtbar Früherkennung bei Darmkrebs gerade auch bei Jüngeren ist. Wer an unserem Haus- und Facharztprogramm teilnimmt, kann die kostenlose Darmspiegelung bereits ab 50 Jahren in Anspruch nehmen. Ich empfehle dies nachdrücklich“, so der Vorstandschef der AOK Baden-Württemberg, Dr. Christopher Hermann.

Hermann Brenner, Nadine Zwink, Leopold Ludwig, Michael Hoffmeister: Sollte die Vorsorgekoloskopie bereits ab 50 Jahren angeboten werden? Befunde eines landesweiten Modellprojekts und Ergebnisse einer randomisierten Interventionsstudie.
Deutsches Ärzteblatt 2017, 114(6): 94-100; DOI: 10.3238/arztebl.2017.0094

Ein Bild zur Pressemitteilung steht zum Download zur Verfügung unter:
http://www.dkfz.de/de/presse/pressemitteilungen/2017/bilder/Darmkrebs.jpg

www.dkfz.de

Quelle: idw

(nach oben)


Manche Arten mögen’s nass – Schutz von Mooren und Feuchtgebieten fördern

Franz-Georg Elpers Pressestelle
Deutsche Bundesstiftung Umwelt (DBU)

Start von 78 Einzelmaßnahmen zum Management des Wasserhaushalts auf DBU-Naturerbefläche Prora auf Rügen

Binz. „Der Rückgang der Moore und Feuchtgebiete durch flächendeckende Trockenlegung hat ganze Landschaften in Deutschland stark verändert. Feuchtigkeitsliebende Tier- und Pflanzenarten werden gebietsweise immer seltener“, sagte Dr. Heinrich Bottermann, Generalsekretär der Deutschen Bundesstiftung Umwelt (DBU), anlässlich des Welttags der Feuchtgebiete am 2. Februar. Der Jahrestag wird seit 1997 begangen und erinnert an das Übereinkommen zum Schutz von Feuchtgebieten der UNESCO, auch Ramsar-Vereinbarung genannt. Die Erhaltung und Wiederherstellung von artenreichen Lebensgemeinschaften in Feuchtgebieten gehört zu den zentralen Aufgaben der gemeinnützigen DBU-Naturerbe-Tochter auf ihren bundesweit 70 Flächen, die zum Nationalen Naturerbe gehören.

Schutz von Feuchtgebieten von weltweiter Bedeutung
„Das Schutzgut Wasser gewinnt weltweit immer mehr an Bedeutung. Um an sauberes Trinkwasser zu gelangen und den natürlichen Wasserhaushalt der Flächen intakt zu halten, ist die ökologische Funktionsfähigkeit von Feuchtgebieten ein zentraler Faktor – deshalb steht der Schutz in direktem Zusammenhang mit der wasserwirtschaftlichen Nutzung“, so Bottermann. Intakte Feuchtgebiete würden aber auch einer Vielzahl teilweise hoch spezialisierter und gefährdeter Tier- und Pflanzenarten Lebensraum bieten. So fänden unter anderem Wasser- und Watvögel Rast- und Überwinterungsplätze. Die wasserreichen Böden dienten darüber hinaus gleichzeitig als Grundwasserfilter und Wasserspeicher und böten Überschwemmungsschutz. Die ehemals militärisch genutzten DBU-Naturerbeflächen mit insgesamt 69.000 Hektar (ha) sind seit der Übertragung für Naturschutz-Maßnahmen vorgesehen: Dort könne auf lange Sicht geplant und dauerhafter Schutz gewährleistet werden.

Umsetzung des ersten Naturerbe-Entwicklungsplans beginnt
In den kommenden Wochen startet das DBU-Naturerbe mit der praktischen Umsetzung der Feuchtgebietsmaßnahmen des ersten Naturerbe-Entwicklungsplans auf der DBU-Naturerbefläche Prora auf Rügen. Begonnen wird mit Vernässungsmaßnahmen. „Um großflächig und langfristig wiederzuvernässen, werden Entwässerungsgräben geschlossen und das Wasser angestaut. Anrainer werden nicht betroffen sein, sondern ausschließlich Flächen des DBU-Naturerbes“, so Bottermann. Das Neuschaffen von Kleingewässern und das Vertiefen bereits vorhandener Senken würde die biologische Vielfalt, insbesondere von feuchtigskeitsliebenden Tier- und Pflanzenarten fördern. Die hohe ökologische Bedeutung der Feuchtgebiete soll wieder in Kraft gesetzt und gesichert werden. Für die Renaturierung von Feuchtwiesen seien in erster Linie ganzjährig hohe Wasserstände notwendig. Indem die Grabensysteme außer Funktion gesetzt würden, ließe sich das Wasser in der Fläche halten. 345 ha grundwasser-, oberflächenwasser- oder von der Überflutungsdynamik beeinflusste Lebensräume weise Prora auf. In sechs größeren Komplexen seien insgesamt 78 Einzelmaßnahmen zum Management des Wasserhaushalts durch Renaturierungsmaßnahmen geplant.

DBU-Naturerbefläche Prora eine der reizvollsten Landschaften
Die rund 1.900 ha große DBU-Naturerbefläche Prora auf Rügen ist als ehemaliger Truppenübungsplatz Teil des sogenannten Nationalen Naturerbes. Die DBU-Tochter trägt seit 2008 die Verantwortung für Prora als eine der reizvollsten, durch Inlandeis und Ostsee geformten Boddenlandschaften Rügens. Insgesamt hat sie bislang 70 Flächen mit rund 69.000 ha vom Bund übernommen. Für alle 70 Flächen wird ein naturschutzfachlicher Managementplan entwickelt, über den Erhaltungs- und Schutzmaßnahmen für die folgenden zehn Jahre festgelegt werden. Der DBU-Naturerbe-Entwicklungsplan Prora war der erste, der im Mai 2016 nach Abstimmung mit dem Bundesamt für Naturschutz und dem Ministerium für Landwirtschaft, Umwelt und Verbraucherschutz Mecklenburg-Vorpommern veröffentlicht wurde. Neben den Wiedervernässungsmaßnahmen wird die Stiftungstochter zum Beispiel die Wacholderheiden der Feuersteinfelder und die Magerrasenflächen der Seesandebene offenhalten. Ein weiteres Ziel ist es, den Wald naturnaher zu gestalten. Bis April 2019 werden insgesamt etwa 1.012 ha und damit bereits über die Hälfte des Waldes von Prora der natürlichen Entwicklung überlassen sein.

Weitere Informationen:

https://www.dbu.de/123artikel37065_2362.html

Quelle: idw

(nach oben)


4,3 Millionen Euro für Verbundprojekt zur Biodiversität von Auwäldern in der „Flusslandschaft Elbe“

Birgit Kruse Referat Medien- und Öffentlichkeitsarbeit
Universität Hamburg

Hartholz-Auwälder spielen eine große Rolle in natürlichen Überschwemmungsgebieten von Flusslandschaften (Hochwasserretention). Um solche „Ökosystemdienstleistungen“ besser zu verstehen und die räumlichen und zeitlichen Ausprägungen der Leistungen zu erfassen, untersuchen Wissenschaftlerinnen und Wissenschaftler ab sofort die Biodiversität von Auwäldern im UNESCO-Biosphärenreservat „Flusslandschaft Elbe“.

Das Bundesministerium für Bildung und Forschung (BMBF) fördert das Verbundprojekt „Mechanismen der Ökosystemdienstleistungen in Hartholz-Auwäldern: Wissenschaftliche Analyse sowie Optimierung durch Naturschutzmanagement (MediAN)“ mit insgesamt 4,3 Millionen Euro, die Universität Hamburg erhält davon 2,4 Millionen.

Vier Forschungseinrichtungen sowie zwei Naturschutzorganisationen kooperieren in dem Verbundprojekt auf dem Gebiet der Biodiversitätsforschung und der nachhaltigen Entwicklung von Auenlandschaften. Das Projekt hat eine Laufzeit von sechs Jahren und wird von Prof. Dr. Kai Jensen vom Fachbereich Biologie der Universität Hamburg geleitet. Die gewonnenen Kenntnisse sollen in die Naturschutzpraxis einfließen.

Die biologische Vielfalt in Ökosystemen ist die Basis für vielfältige Dienstleistungen der Natur: Hartholz-Auwälder spielen nicht nur eine große Rolle für die Hochwasserretention in Flusslandschaften, sondern dienen über die Festlegung von CO2 aus der Atmosphäre auch der Kohlenstoffspeicherung. Welche Komponenten der Biodiversität in Hartholz-Auwäldern an der Bereitstellung von Ökosystemdienstleistungen maßgeblich beteiligt sind und wie die Leistungen der Natur bewertet werden können, daran arbeiten Wissenschaftlerinnen und Wissenschaftler aus den Gebieten der Pflanzenökologie (Prof. Dr. Kai Jensen, Universität Hamburg), der Bodenkunde (Prof. Dr. Annette Eschenbach, Universität Hamburg), der Bodenzoologie (Dr. David Russell, Senckenberg Gesellschaft Görlitz), der Landschaftsökologie (Mathias Scholz, Helmholtz-Zentrum für Umweltforschung Leipzig) sowie der Landschaftsökonomie (Prof. Dr. Volkmar Hartje, TU Berlin).

Die beteiligten Naturschutzorganisationen (Trägerverbund Burg Lenzen, Dr. Maike Kleinwächter; Loki Schmidt Stiftung, Axel Jahn) werden geeignete Flächen für die Begründung von Hartholz-Auwäldern erwerben und dort auf den Forschungsergebnissen basierende Umsetzungsmaßnahmen realisieren.

Prof. Dr. Kai Jensen: „Mit dem Projekt werden wir unsere international anerkannte Expertise im Bereich der Biodiversität und Ökosystemfunktionen von Flussmündungen und Küstenregionen nun auch auf die weltweit bedeutsamen Auen großer Flüsse ausweiten“.

Das BMBF fördert seit 2013 „Forschungsvorhaben zur Umsetzung der Nationalen Strategie zur biologischen Vielfalt“, denen eine gesamtstaatliche Bedeutung zukommt und die die Nationale Strategie zur Biologischen Vielfalt in maßstabsetzender Weise umsetzen. Auf der Grundlage der Forschungsergebnisse soll der Rückgang der biologischen Vielfalt in Deutschland gestoppt und mittel- bis langfristig in einen positiven Trend umgekehrt werden.

Für Rückfragen:
Prof. Dr. Kai Jensen
Fachbereich Biologie
Abteilung Angewandte Pflanzenökologie
Tel.: +49 40 42816-576
E-Mail: kai.jensen@uni-hamburg.de

Quelle: idw

(nach oben)


Abgas als Rohstoff

Dr. Susanne Langer Kommunikation und Presse
Friedrich-Alexander-Universität Erlangen-Nürnberg

Chemiker der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU) haben ein Verfahren entwickelt, mit dem Stickoxide, die in industriellen Prozessen anfallen, für die Herstellung von Farbstoffen und Arzneimitteln genutzt werden können. Mit dieser Methode könnten Unternehmen künftig die Entgiftung von Abgasen mit der Produktion neuer Stoffe kombinieren.

Stickoxide zählen zu den bedeutendsten Umweltgiften. Die Verbindungen aus Stickstoff und Sauerstoff entstehen vor allem bei der Verbrennung, etwa in Kraftfahrzeugmotoren, in Gas- und Kohlekraftwerken, aber auch bei anderen thermischen und chemischen Prozessen in der Industrie. Um die Abgase zu reinigen, werden entweder Nachverbrennungen oder das Prinzip der katalytischen Reduktion eingesetzt – beide Verfahren sind jedoch vergleichsweise aufwändig und mit gewissen Nachteilen behaftet. Doch Stickoxide sind nicht nur überflüssige Gifte. Wie neue Forschungsarbeiten zeigen, können sie auch in der chemischen Synthese hochwertiger Produkte eingesetzt werden.

Umweltgift als Rohstoff nutzen
Die Forschergruppe um Prof. Dr. Markus Heinrich vom Lehrstuhl für Pharmazeutische Chemie der FAU hat jetzt ein hocheffizientes Verfahren entwickelt, das genau diese zwei Welten – die Reinigung von Abgasströmen und die sinnvolle Verwertung der Stickoxide – zusammenbringt. In einer Modellanlage simulierten die Erlanger Chemiker ein typisches Verfahren der Industrie: die Umwandlung von Kupfer in Kupfernitrat. „Kupfernitrat wird als Farbstoff, Korrosions- und Holzschutzmittel sowie als Oxidationsmittel in der Synthesechemie verwendet“, erklärt Markus Heinrich. „Das beim Herstellungsprozess entstehende Stickstoffdioxid können wir unmittelbar mit der Synthese von Balsalazid und Sulfasalazin kombinieren – zwei zu den Azoverbindungen zählende Arzneistoffe, die zur Behandlung chronisch entzündlicher Darmerkrankungen eingesetzt werden.“

Fast 100 Prozent AbgasreinigungHerzstück der Modellanlage ist ein röhrenförmiger Gaswäscher, mit dem die Forscher die Stickstoffdioxidkonzentration im Abgasstrom um 99,7 Prozent senken konnten. „Das ist ein sensationeller Wert, den wir allerdings unter Laborbedingungen erreichen“, schränkt Markus Heinrich ein. „Wir gehen jedoch davon aus, dass unsere Methode auch in der industriellen Anwendung einen guten Wirkungsgrad erzielen wird.“ Im Gegensatz zu früheren Versuchen im Experimentallabor der Pharmachemiker verwertet die neue Anlage auch geringe Stickoxid-Konzentrationen und arbeitet selbst bei Schwankungen des Abgasstroms zuverlässig.

Azoverbindungen für verschiedene Einsatzgebiete
Die Herstellung von Kupfernitrat ist nur ein Beispiel für industrielle Verfahren, bei denen Stickoxide bislang aufwändig neutralisiert werden, anstatt sie in gewinnbringende Syntheseprozesse zu überführen. Heinrich: „Überall dort, wo wir es mit überschaubaren Ausgangsstoffen zu tun haben, dazu zählt beispielsweise auch das Ätzen von Leiterplatten in der Elektronikindustrie, können wir Stickoxide als Nebenprodukt für die Herstellung von Arzneistoffen verwenden. Anders sieht es zum Beispiel bei Kraftwerken oder Müllverbrennungsanlagen aus: Aus diesem Cocktail an Giften und Schwermetallen sollten wir besser keine Medikamente gewinnen. Aber es ist möglich und sinnvoll, die im Abgas befindlichen Stickoxide für die Herstellung bestimmter Farbstoffe auf der Basis von Azoverbindungen zu verwenden.“

Die Ergebnisse des von der Deutschen Bundesstiftung Umwelt (DBU) geförderten Projektes sind unter dem Titel „Sustainable synthesis of balsalazide and sulfasalazine based on diazotization with low concentrated nitrogen dioxide in air“ in Chemistry – A European Journal veröffentlicht worden (doi: dx.doi.org/10.1002/chem.201605359).

Quelle: idw

(nach oben)


Erste Hilfe für Internetsüchtige – Neues Portal hilft bei Internetsucht weiter

Dr. Ellen Katz Presse- und Öffentlichkeitsarbeit
Universitätsklinikum Tübingen

Am 7. Februar, dem Safer Internet Day, geht die deutschlandweit bisher umfassendste Onlinedatenbank zur Therapiesuche für Menschen mit Internetsucht online. Im Zentrum der Website www.erstehilfe-internetsucht.de steht eine Adressdatenbank für Beratungs- und Behandlungsangebote bei internetbasiertem Suchtverhalten.

Die Datenbank enthält aktuell mehr als 950 Einträge und ist damit die bislang größte Suchhilfe für Hilfsangebote bei Internetabhängigkeit. Konzipiert, entwickelt und umgesetzt wurde das Webangebot von einem Forschungsteam der Sektion für Suchtmedizin und Suchtforschung an der Tübinger Universitätsklinik für Psychiatrie und Psychotherapie unter der Leitung von Prof. Dr. Anil Batra und Dr. Kay Uwe Petersen. Finanziert wurde der Aufbau des Portals durch das Bundesministerium für Gesundheit (BMG).

Die Internetseite bietet Betroffenen und Angehörigen neben der Adresssuche auch Hintergrundinformationen über Internetsucht. Alle 14 Tage bereitet das Team der Sektion Suchtforschung aktuelle Entwicklungen in Forschung und Praxis in Form eines Blogs auf. Die mit fast 1.000 Einträgen umfangreichste und mit Orts- und Postleitzahlensuche komfortabel nutzbare Datenbank für Beratungs- und Behandlungsangebote wird fortlaufend ergänzt und jährlich aktualisiert. Die umfangreiche, deutschlandweite Recherche der Adressen erfolgte 2015 im Rahmen des Projekts „Angebote bei internetbasiertem Suchtverhalten (ABiS)“.

„Uns ist wichtig, dass Forschungsergebnisse Betroffene direkt, praktisch und alltagsnah erreichen“, so Projektleiter Dr. Kay Uwe Petersen. „Darum haben wir erstehilfe-internetsucht.de entwickelt. Die Online-Adressdatenbank unterstützt Menschen, die ihre Internetnutzung als riskant, problematisch oder abhängig einstufen bei der Suche nach Hilfsangeboten“ „Eine so umfangreiche Onlinedatenbank für Beratungs- und Behandlungsstellen bei Internetsucht gab es in Deutschland bisher noch nicht“, erklärt Prof. Dr. Anil Batra, Leiter der Sektion für Suchtmedizin und Suchtforschung. „Durch anschauliche Onlinebeiträge erleichtern wir Betroffenen den Zugang zur Thematik. Wir möchten ihnen langfristig Orientierung bieten.“

„Es ist wichtig, verständlich zu erklären, welche Hilfsmöglichkeiten es überhaupt gibt – von der ambulanten Beratung und Therapie bis hin zur Tagesklinik oder zum stationären Klinikaufenthalt“, erklärt Psychologin Sara Hanke, wissenschaftliche Mitarbeiterin des Projekts. „Mit dynamischen und lebendigen Inhalten zum Beispiel in Form eines Blogs möchten wir Betroffene jeden Alters und Hintergrunds erreichen.“ „Wir haben die Seite bewusst lebendig und doch seriös konzipiert“, so die wissenschaftliche Mitarbeiterin Linny Bieber. „Sie ist flexibel ausbaubar und bietet zahlreiche Zusatzangebote. Das moderne, responsive Design ermöglicht, dass das Angebot auch über Smartphone und Tablet abrufbar ist.“

Safer Internet Day
Der von der Europäischen Union initiierte „Safer Internet Day“ findet jedes Jahr am zweiten Tag der zweiten Woche des zweiten Monats statt. Ziel ist es, Menschen aller Altersgruppen dazu zu bewegen, der Sicherheit im Internet mehr Aufmerksamkeit zu schenken. Zur Sicherheit gehört auch die Selbstkontrolle über Zeit und Intensität, mit der sich Menschen mit Internetanwendungen wie z.B. Onlinespielen oder Sozialen Netzwerken beschäftigen. Verliert man die Kontrolle, so dass schulische, berufliche oder soziale Verpflichtungen nicht mehr bzw. nur noch ungenügend erfüllt werden, kann eine „Internetsucht“ vorliegen.

Weitere Informationen:
https://www.bundesgesundheitsministerium.de/fileadmin/Dateien/Publikationen/Drog…
Der Abschlussbericht des Projekts „Angebote bei internetbasiertem Suchtverhalten (ABiS)“ ist auf den Internetseiten des Bundesgesundheitsministeriums abrufbar.

Quelle: idw

(nach oben)


Giftalarm in der Küche

Giulia Roggenkamp Pressestelle
Stiftung Kindergesundheit

Die meisten Familien in Deutschland legen großen Wert auf ein sauberes Zuhause. Damit es überall blitzt und blinkt, werden hierzulande allein für den Kauf von Haushaltsprodukten zum Waschen, Pflegen und Reinigen jedes Jahr rund vier Milliarden Euro aufgewendet.

Für kleine Kinder indes birgt die blitzeblanke Wohnung auch gesundheitliche Gefahren, warnt die Stiftung Kindergesundheit: Jedes Jahr müssen etwa 20.000 Kinder wegen Vergiftungen oder Verätzungen medizinisch behandelt werden. Betroffen sind vor allem Kleinstkinder im Alter von 10 Monaten bis zu zwei Jahren. Als Ursache solcher Unfälle haben die Haushaltschemikalien mittlerweile die Medikamente überholt, berichtet die Stiftung in einer aktuellen Stellungnahme.

Jährlich erreichen rund 220.000 Anfragen die bundesweiten acht Informationszentralen, weil Kleinkinder gefährliche Substanzen geschluckt haben. Die Zahl dieser Anfragen hat sich in den letzten 15 Jahren verdoppelt. In rund 40 Prozent der Fälle sind chemische Helfer für Küche, Haushalt und Toilette der Grund für den Giftnotruf.

Welche Produkte am häufigsten im Kindermund landen, zeigt die Statistik der Anfragen, die in den Jahren zwischen 2006 und 2015 alleine das Giftinformationszentrum Erfurt erreicht haben: Am gemeldeten Unfall beteiligt waren feste Kohlenanzünder (1.662 Fälle), Geschirrspülmittel (1.327), Knicklicht (1.253), WC-Stein (1.102), Waschmittel (1.041), Geschirrspültabs (946), Dusch- und Schaumbäder (817), Duftöle (784), Geräteentkalker (743) oder Silicagel (714). Zum Glück kommt es nicht immer zu einer tatsächlichen Schädigung. Es wächst jedoch die Zahl der Produkte, die bei Kindern zu gefährlichen Verletzungen führen können. In 20 bis 40 Fällen pro Jahr führen sie sogar zum Tod.

Als besonders gefährliche Substanzen gelten nach Angaben des Bundesinstituts für Risikobewertung BfR folgende Produkte: Abbeizer, Abflussreiniger, Ammoniakzubereitungen, Backofen- und Grillreiniger, Benzin, Chemikalien, Entkalker, Essigessenz, Lampenöle, flüssige Grillanzünder, Methanol, methanolhaltige Brennstoffe für Heizkamine, Brennstoffzellen, Puder, Rohrreiniger, Schädlingsbekämpfungsmittel (z. B. Wühlmausgifte), Unkrautvernichter, Kühlerfrostschutz, Bremsflüssigkeit sowie Steinreiniger. Auch verschluckte Knopfzellenbatterien sind gefährlich.

Gefahr geht auch von neuen Produkten aus, betont die Stiftung Kindergesundheit: Die bunten, glänzenden, wie große Bonbons aussehenden Flüssigwaschmittel, „Liquid Caps“ genannt, werden von Kindern oft mit Süßigkeiten verwechselt. Sie können schon in kleinen Mengen zu Übelkeit, Erbrechen oder Atemnot führen.

Die Art der häufig vorkommenden Vergiftungen ist je nach dem Alter der Kinder verschieden, berichtet die Stiftung Kindergesundheit. In der Zeit, in der sie laufen lernen, sind Vergiftungen mit Zigaretten besonders häufig, danach geht die Hauptgefahr von den Haushaltschemikalien aus, die häufig in Bodennähe, z. B. in Unterschränken gelagert werden. Wenn die Kinder dann auch noch lernen, auf Stühle und Bänke zu klettern, gibt es einen weiteren Anstieg der Vergiftungsmöglichkeiten. Im dritten und vierten Lebensjahr spielen die Medikamente die wichtigste Rolle. Mit zunehmender Selbständigkeit des Kindes nach dem vierten Lebensjahr steigt die Zahl der Vergiftungen durch Pflanzen an.

Gefährliche Ablenkung durch das Handy
Zu den Unfällen kommt es vielfach dann, wenn die aufsichtführende Person kurz abgelenkt wird. Das passiert häufig, wenn jemand unerwartet an der Tür klingelt, das Handy läutet, die Milch überkocht oder die Mutter oder der Vater dringend auf die Toilette müssen.

Untersuchungen haben außerdem ergeben, dass Kinder in Familien mit ungünstiger Wohnsituation durch Vergiftungen besonders gefährdet sind: Das Bemühen der Eltern, gefährliche Haushaltsmittel sicher zu verwahren, scheitert häufig an den mangelhaften räumlichen Bedingungen. Erhöht ist die Vergiftungsgefahr außerdem für die Kinder in Familien mit Migrationshintergrund und für Kinder aus unvollständigen Familien. Sie sind doppelt so häufig betroffen, wie es ihrem Anteil an der Bevölkerung entspräche.

Als gefährlichster Platz im Haushalt erweist sich die Küche, sagt die Stiftung Kindergesundheit. Studien in den Niederlanden haben ergeben, dass bunte Plastikflaschen oder Spülmaschinentabs auf Kleinkinder eine stärkere Anziehungskraft ausüben als altersgerechtes Spielzeug.

Die Stiftung weist außerdem auf eine weitere, selten bedachte Gefahrenquelle hin, nämlich auf den Haushalt von Opa und Oma. Der ist leider nur selten kindersicher: Die von den Großeltern benötigten Medikamente werden häufig sichtbar auf einem Tisch oder in einem leicht zugänglichen Schrank aufbewahrt. Auch die Taschen von Oma und Opa werden von Kindern unbemerkt durchstöbert und die bunten vermeintlichen Süßigkeiten probiert.

Nicht erbrechen lassen!
Wenn ein Kind in einem unbeaufsichtigten Augenblick eines der riskanten Produkte erwischt hat, sollte man sofort versuchen, seinen Mund mit Wasser auszuspülen, um die Reste aus dem Mund zu entfernen. Danach sollte man dem Kind sofort viel zu trinken geben: ein Glas Leitungswasser, Tee oder Saft. Damit wird das Gift zumindest stark verdünnt. Wichtig: Keine Milch zu trinken geben! Milch beschleunigt unter Umständen die Giftaufnahme durch den Darm.

Kinder, die Haushaltchemikalien zu sich genommen haben, sollten auf keinen Fall zum Erbrechen gebracht werden. Es besteht sonst die Gefahr, dass der dabei entstehende Schaum in die Lungen gerät und zu einer chemischen Lungenentzündung führt.

Die Stiftung Kindergesundheit empfiehlt, möglichst alle Putz- und Reinigungsmittel außer Reichweite der Kinder aufzubewahren, am besten wegzuschließen. Haushaltschemikalien sollten nicht im selben Schrank oder Regal wie Lebensmittel aufbewahrt werden. Als besonders riskant erweist sich immer wieder das Umfüllen von Chemikalien in Getränkeflaschen oder Lebensmittelbehälter.

Nicht zögern, Giftnotruf anrufen!
Selbst beim leisesten Verdacht, das Kind könnte gefährliche Mengen einer giftigen Substanz eingenommen haben, sollte man auf keinen Fall erst auf eventuelle Anzeichen einer Vergiftung warten, sondern sofort handeln. Das heißt: Sich so schnell wie möglich mit einem Arzt oder mit einer der Giftinformationszentren in Verbindung setzen. Diese können den anrufenden Eltern meist sofort sagen, ob eine akute Gefahr besteht und was gegebenenfalls zu unternehmen ist. Sie vermitteln auch die Information, ob ein Arzt- oder Krankenhausbesuch notwendig ist.

Diese Zentren sind unter folgenden Telefonnummern zu erreichen: Berlin 030/19240; Bonn 0228/19240; Erfurt 0361/730730; Freiburg 0761/19240; Göttingen 0551/19240; Homburg/Saar 06841/19240; Mainz 06131/19240; München 089/19240; Wien +43-1-406 43 43; Zürich +41-44-251 51 51.

Eltern sollten in die Hocke gehen
Medikamente sollten für Kinder unerreichbar aufbewahrt werden, am besten in einem abschließbaren Schrank. Das gilt auch für die Antibabypille: Sie sollte nicht offen auf dem Nachttisch oder auf der Ablage im Badezimmer herumliegen. Medikamente sollten im Beisein von Kleinkindern niemals als Bonbons oder Fruchtsaft erklärt oder als wohlschmeckend bezeichnet werden. Puder darf niemals in Kinderhand geraten.

Die Stiftung Kindergesundheit verweist auf eine praktische Empfehlung der Spezialisten beim Giftnotruf Berlin: „Wenn Ihr Kind mobil wird, begeben Sie sich einmal in gleicher Höhe wie Ihr Kind auf eine Entdeckungsreise durch Ihre Wohnung: Sie werden erstaunt sein, was plötzlich alles in Reichweite Ihres Kindes ist.“

Unabhängige und wissenschaftlich basierte Berichterstattung braucht Förderer:
Fördern auch Sie die Gesundheit unserer Kinder durch Ihre Spende, die in voller
Höhe den Projekten der Stiftung Kindergesundheit zugute kommt.

Mit einem Beitritt zum Freundeskreis der Stiftung Kindergesundheit können Sie die Arbeit der
Stiftung regelmäßig fördern.
Mehr Informationen hierzu finden Sie unter: www.kindergesundheit.de
Spendenkonto: HypoVereinsbank München
IBAN: DE41 7002 0270 0052 0555 20
SWIFT (BIC): HYVEDEMMXXX
Vielen Dank!

Save the Date!
Dinner-Symposium des Freundeskreises
der Stiftung Kindergesundheit

Für ein gesundes Aufwachsen von Kindern:
20 Jahre Stiftung Kindergesundheit

am 24. März 2017, 18.00 – 22.30 Uhr, München
Veranstaltungsort: Hotel Holiday Inn Munich City Centre, Hochstr. 3,
81669 München, Großer Saal

Das Jubiläumssymposium adressiert in Vorträgen und einer Podiumsdiskussion die Bedingungen und neue Herausforderungen für die Gesundheit von Kindern und Jugendlichen und für die Gestaltung ihrer Zukunft. Auf einem Markt der Möglichkeiten stellen sich aktuelle Präventionsinitiativen vor.

Zur Veranstaltung tragen renommierte Persönlichkeiten aus Politik, Wissenschaft, Kunst und Verbänden bei, u.a. die Bayerische Gesundheitsministerin Melanie Huml, die Ehrenkuratorin Dr. Irene Epple-Waigel sowie die Schirmherrin der Stiftung, die Regisseurin und Oscar-Preisträgerin Caroline Link.

Das genaue Programm können Sie in den kommenden Tagen unter: www.kindergesundheit.de einsehen

Presseakkreditierung unter: 089-4400-57769 (Giulia Roggenkamp)

Quelle: idw

(nach oben)


Weniger Umweltbelastung durch Weinbau: Förderpreis mit 750.000 Euro für Landauer Forschungsprojekt

Bernd Hegen Referat Öffentlichkeitsarbeit
Universität Koblenz-Landau

Der Projekt PHOTOPUR wird in den nächsten drei Jahren von der Trinationalen Metropolregion Oberrhein (TMO) mit 750.000 Euro gefördert. Der Forschungsverbund PHOTOPUR unter der Leitung der Universität Koblenz-Landau wird ein neues Reinigungsverfahren von pestizidbelastetem Wasser aus dem Weinbau erproben.

Das Forschungsprojekt PHOTOPUR gehört zu den Siegern des Wettbewerbs „Wissenschaftsoffensive“ der Trinationalen Metropolregion Oberrhein (TMO). Es ist eines von sieben Gewinnerprojekten und wird mit 750.000 Euro gefördert. In den kommenden drei Jahren wird der oberrheinische Forschungsverbund PHOTOPUR unter der Leitung der Universität Koblenz-Landau ein neues Reinigungsverfahren von pestizidbelastetem Wasser aus dem Weinbau erproben.

„Frühere Untersuchungen haben einen Handlungsbedarf gezeigt“, erklärt Dr. Ricki Rosenfeldt vom „Institut für Umweltwissenschaften Landau“ an der Universität Koblenz-Landau, der gemeinsam mit seinem Kollegen Dr. Frank Seitz das Projekt leitet. Intensiver Weinbau erfordert den Einsatz von Pflanzenschutzmitteln gegen Agrarschädlinge, um die Erträge zu sichern. Bei der Reinigung von Pflanzenschutzgeräten und durch Regen können die Wirkstoffe aus den Rebflächen ins Gewässer gespült werden. Frühere Forschungsarbeiten des Instituts zeigen, dass diese Wirkstoffe dann sehr konzentriert auftreten und Ökosysteme schädigen können. „Derzeit gibt es noch keine flächendeckende Anwendung oder Methode, um den Eintrag von Pflanzenschutzmitteln in Oberflächengewässern wirksam und dauerhaft zu reduzieren“, betont Rosenfeldt. So zeigten sich derzeit eingesetzte Methoden zur Vermeidung von Einträgen aus Pflanzenschutzmitteln in Gewässern wie Aktivkohlebehandlung als ökologisch und ökonomisch ineffektiv.

PHOTOPUR bündelt nun grenzüberschreitend die Herausforderungen des regionalen Weinbaus in der TMO-Region mit dem Know-how der Landauer Umweltwissenschaften und Partnern aus Rheinland-Pfalz, Baden und dem Elsass. Im Rahmen des Projekts wird ein Geräte-Prototyp gebaut und erprobt, der durch die Energie von Sonnenlicht und mit der chemischen Reaktion von Photokatalysatoren die Pestizide im Abwasser aus Weinbau zersetzt. Nach der dreijährigen Erprobungsphase soll das Gerät marktreif sein und in Serie produziert werden. „Mit dem Einsatz des Gerätes bei Winzern soll die Konzentration von Pestiziden in Oberflächengewässern der TMO reduziert werden, um die Umweltqualitätsnormen der Europäischen Wasserrahmenrichtlinie (WRRL) einzuhalten“, unterstreicht Frank Seitz.

Der rheinland-pfälzische Wissenschaftsminister Prof. Dr. Konrad Wolf überreichte den Förderbescheid auf der Auftaktveranstaltung der Wissenschaftsoffensive der TMO. Die Gewinnerprojekte erhalten eine Förderung gemeinsam von der Région Grand Est, den Ländern Baden-Württemberg und Rheinland-Pfalz sowie aus dem Programm INTERREG Oberrhein.

Kontakt:
Dr. Ricki R. Rosenfeldt (Tel.: 06341 280-31323, rosenfeldt@uni-landau.de)
Dr. Frank Seitz (Tel.: 06341 280-31321, seitz-f@uni-landau.de)

Hintergrundinformation: Interreg A-Programm „Oberrhein“
Das Programm Interreg V A „Oberrhein“ verfügt für den Zeitraum von 2014 bis 2020 über Fördermittel in Höhe von insgesamt gut 109,7 Mio. Euro. Dies ist das größte Fördervolumen seit dem Start der Interreg A-Programme am Oberrhein im Jahre 1989.
Interreg A ist ein Förderprogramm der Europäischen Union, mit dem gezielt die grenzüberschreitende Zusammenarbeit finanziell unterstützt wird. Als Instrument der europäischen Strukturpolitik trägt Interreg dazu bei, die Zusammenarbeit europäischer Akteure zu verbessern, sei es im Hochschulbereich, in der Kultur, im Tourismus, in der Forschung, im Verkehr oder im Wirtschaftssektor.
Das seit 2014 laufende aktuelle Interreg-Programm „Oberrhein“ ist die fünfte Auflage und läuft noch bis 2020. Die Projekte, die hier kofinanziert werden, decken vielseitige Themengebiete ab und tragen alle zur Umsetzung einer spezifisch für den Oberrheinraum entwickelten Strategie bei. Das Fördergebiet Oberrhein umfasst die gesamte Südpfalz sowie die Verbandsgemeinden Dahn und Hauenstein, Baden, das Elsass und die Nordwestschweiz.

Kontakt:
Daniel Schaefer, Leiter des Koordinationsbüros der Säule Wissenschaft
Tel.: 07851/7407-35, E-Mail: daniel.schaefer@rmtmo.eu

Weitere Informationen:
http://science.rmtmo.eu/de/wissenschaftsoffensive/ Informationen zur Wissenschaftsoffensive
http://science.rmtmo.eu/de/wissenschaftsoffensive/wissenschaftsoffensive-2016/pr… Informationen zu den Preisträgern

Quelle: idw

(nach oben)


Volksverschlüsselung muss kommen

Daniel Krupka Presse- und Öffentlichkeitsarbeit
Gesellschaft für Informatik e.V.

Gesellschaft für Informatik unterstützt Initiative des Fraunhofer SIT zur Volksverschlüsselung und fordert mehr Anstrengungen seitens der Bundesregierung

Die Gesellschaft für Informatik e.V. (GI) sieht die vom Fraunhofer-Institut für Sichere Informationstechnologie (SIT) entwickelte Volksverschlüsselung auf dem richtigen Weg zur flächendeckend sicheren E-Mail. Mit einer Erweiterung auf Klasse-1-Zertifikate und mit der Anbindung an eine allgemein akzeptierte Zertifizierungsstelle könnte dieses Ziel bei entsprechender Unterstützung durch die Bundesregierung auch zügig erreicht werden.

Prof. Dr. Hannes Federrath, Vizepräsident der Gesellschaft für Informatik und IT-Sicherheitsexperte von der Universität Hamburg: „Trotz jahrelanger Bemühungen gibt es immer noch keine einfache Lösung, mit der sich Nutzer vor der massenhaften Ausforschung ihrer E-Mail-Nachrichten schützen können. Die bisherigen Lösungsansätze zur Verschlüsselung des E-Mail-Verkehrs sind entweder nicht benutzerfreundlich oder es handelt sich um Insellösungen, die nicht mit dem existierenden E-Mail-System kompatibel sind. Daraus resultieren erhebliche Eintritts- und Nutzungsbarrieren, die einer weiten Verbreitung entgegenstehen.

Die Gesellschaft für Informatik begrüßt es daher, dass inzwischen in mehreren Projekten daran gearbeitet wird, die Benutzbarkeit der existierenden, wohluntersuchten Techniken zur Ende-zu-Ende-gesicherten Übertragung von E-Mails zu verbessern. Aussichtsreich erscheinen insbesondere solche Ansätze, die S/MIME nutzen, da diese Technik von den gängigen Desktop- und Smartphone-Betriebssystemen ohne zusätzliche Software unterstützt wird.“

Initiativen wie die vom Fraunhofer SIT entwickelte Volksverschlüsselung (www.volksverschluesselung.de) sind nach Auffassung der GI wegweisend. Zum einen erzeugen sie Aufmerksamkeit und tragen zur Verbreitung des Themas bei; zum anderen verfolgen sie einen nutzerzentrierten Ansatz, der nicht nur Schlüsselerzeugung und Zertifizierung, sondern auch den Schlüsselaustausch und die Konfiguration der E-Mail-Programme abdeckt.

Prof. Dr. Hartmut Pohl, Sprecher des GI-Präsidiumskreises Datenschutz und IT-Sicherheit und Geschäftsführer der SoftScheck GmbH: „Das aktuelle Konzept der Volksverschlüsselung weist allerdings einige Verbesserungsmöglichkeiten auf, die nach Auffassung der Gesellschaft für Informatik einer schnellen Verbreitung entgegenstehen.

Erstens sieht das Konzept ausschließlich die Ausstellung von Klasse-3-Zertifikaten vor, bei dem die Nutzer ihre Identität nachweisen müssen. Dies stellt eine erhebliche Eintrittsbarriere dar, da der Identitätsnachweis mit einem spürbaren Aufwand für den Nutzer verbunden ist und nicht vollautomatisch ablaufen kann. Zudem steht dies einer schnellen und weiten Verbreitung entgegen. Die GI empfiehlt daher, auch Klasse-1-Zertifikate anzubieten, die sich lediglich auf die E-Mail-Adresse des Nutzers beziehen und eine aufwändige persönliche Identifizierung entbehrlich machen.

Zweitens benutzt die im Rahmen der Volksverschlüsselung betriebene Zertifizierungsstelle derzeit ein Stammzertifikat, dem die gängigen E-Mail-Programme nicht vertrauen. Dies reduziert die Interoperabilität mit existierenden S/MIME-Nutzern erheblich und beinhaltet das Risiko, dass auch die Volksverschlüsselung zu einer Insellösung ohne weite Verbreitung wird. Die GI empfiehlt daher, ein Stammzertifikat zu verwenden, das in den gängigen Programmen bereits hinterlegt ist.“

In jedem Fall geht es letztlich um eine flächendeckend sichere E-Mail-Kommunikation, ein Ziel, das die maßgebliche Mitwirkung staatlicher Stellen erfordert. Die Bundesregierung hat angekündigt, Deutschland zum „Verschlüsselungsstandort Nr. 1″ zu machen. Die GI ruft die Bundesregierung auf, dieses Ziel durch Unterstützung von Ansätzen wie der Volksverschlüsselung nachdrücklich zu befördern.

Weitere Informationen:
http://www.gi.de

Quelle: idw

(nach oben)


Wenn dem Meeresboden der Atem stockt: Zeitweiliger Sauerstoffmangel hat jahrzehntelang Auswirkungen

Dr. Fanni Aspetsberger Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für marine Mikrobiologie

Periodische Schwankungen im Sauerstoffgehalt des Bodenwassers können den Kohlenstoffspeicher im Meeresboden und seine Bewohner auf Jahrzehnte verändern. Das zeigt eine neue Untersuchung im Schwarzen Meer, die nun in der Fachzeitschrift Science Advances erscheint. Die Ergebnisse sind besonders bedeutsam, da Sauerstoff in immer größeren Bereichen der Meere Mangelware ist.

Der Meeresboden spielt eine Schlüsselrolle in den weltweiten Stoffkreisläufen. Die Organismen, die dort leben, verzehren und verarbeiten herabsinkendes organisches Material. Ein kleiner Teil des eintreffenden Materials wird üblicherweise im Boden vergraben. Der Großteil wird von den Bodenbewohnern remineralisiert, also abgebaut und in seine Bestandteile zerlegt, und steht danach dem Ökosystem für neue Biomasseproduktion zur Verfügung. So beeinflusst das Schicksal dieses Materials am Meeresboden maßgeblich die weltweiten Kohlenstoff- und Nährstoffzyklen und in der Folge die Produktivität der Meere und unser Klima.

Kurzer Mangel, lange Wirkung
Welche Organismen am Meeresboden leben und wie aktiv sie sind, hängt maßgeblich davon ab, wie viel Sauerstoff im Meeresboden verfügbar ist. Inwieweit auch kurzfristige Schwankungen des Sauerstoffgehalts die Remineralisierung – und damit die Menge an Kohlenstoff, die vergraben wird – verändern, war lange unklar. Die nun vorliegende Studie einer internationalen Forschergruppe um Gerdhard Jessen vom Max-Planck-Institut für Marine Mikrobiologie zeigt: Sinkende Sauerstoffwerte im Bodenwasser beeinflussen den Kohlenstoffspeicher im Meeresboden früher und über größere Flächen als bisher angenommen, und das über Jahrzehnte hinweg. Wird der Sauerstoff am Meeresboden knapp, so wird deutlich weniger organisches Material abgebaut und deutlich mehr vergraben. Und was einmal vergraben ist, bleibt auch lange im Untergrund. „Um die Hälfte mehr Material verbleibt im Boden, wenn der Sauerstoff im Bodenwasser immer mal wieder knapp wird“, so Jessen. „Sogar für die Tiere leckere Häppchen wie frisch abgesunkenes Algenmaterial, das eigentlich leicht umzusetzen ist, bleibt dann jahrzehntelang ungenutzt.“

Das Schwarze Meer als natürliches Labor
Im Labor sind solche langfristigen und komplexen Prozesse nur schwer nachzuvollziehen. Deswegen untersuchte das internationale Forscherteam im Rahmen des EU FP7 Projektes HYPOX mit dem Forschungsschiff Maria S. Merian das Schwarze Meer, das größte natürliche sauerstofffreie Gewässer der Welt. Dort gibt es durch eine besonders stabile Schichtung des Meeres eine natürliche Abnahme des Sauerstoffs im Bodenwasser, vom gut durchlüfteten Flachwasser über Gebiete mit variablen Sauerstoffbedingungen bis ins sauerstofffreie Tiefenwasser unterhalb von etwa 160 m Wassertiefe. „Wir nutzten den Meeresboden im Schwarzen Meer wie ein natürliches Labor. Dort lässt sich untersuchen, was vielen Bereichen der Weltmeere bevorstehen könnte“, erklärt Jessen.

„Sauerstoffarme Zonen in den Ozeanen nehmen durch menschliche Nährstoffeinträge und Ozeanerwärmung immer weiter zu“, erläutert Antje Boetius, Leiterin der HGF MPG Brückengruppe für Tiefsee-Ökologie und -Technologie und Leiterin der Studie. „Deswegen ist es besonders wichtig, zu verstehen und zu messen, was Sauerstoffarmut für das Leben im Meer und die großen biogeochemischen Kreisläufe bedeutet.“

Veränderte Besiedelung
Wieso haben die zeitweiligen Atemprobleme des Meeresbodens so starke Auswirkungen? „Der Sauerstoffmangel verändert die Bewohner des Meeresbodens“, so Boetius. Vor allem große Tiere wie Würmer und Muscheln brauchen Sauerstoff zum Leben. Diese Tiere durchwühlen das Sediment auf der Suche nach Nahrung und beim Anlegen von Wohnbauten und mischen dabei auch Nahrung und Sauerstoff für kleinere Meeresbodenbewohner unter. „Wird der Sauerstoff knapp, verschwinden die Tiere. Die im Meeresboden lebenden Bakterien sind dann quasi allein für die Umsetzung des organischen Materials, die Remineralisierung, verantwortlich.“ Doch sie sind dabei dann sehr langsam. So kommt es, dass bei weniger Sauerstoff im Bodenwasser mehr organisches Material vergraben wird. Anaerobe Mikroorganismen, die ohne Sauerstoff beispielsweise durch Fermentation oder Sulfatreduktion ihre Energie gewinnen, übernehmen das Ruder. Sie produzieren dann den giftigen Schwefelwasserstoff, der den Abbau weiter verlangsamt.

„Vom Schwarzen Meer können wir viel lernen“, sagt Boetius, „denn dort kann man die Auswirkungen von Sauerstoffmangel auf das Ökosystem Meer und seine Bedeutung auch für uns Menschen besonders gut erforschen. Solche Untersuchungen sind angesichts des globalen Wandels unverzichtbar, um mögliche Alarmsignale aus den Ozeanen rechtzeitig zu erkennen.“

Originalveröffentlichung
Gerdhard L. Jessen, Anna Lichtschlag, Alban Ramette, Silvio Pantoja, Pamela E. Rossel, Carsten J. Schubert, Ulrich Struck, Antje Boetius: Hypoxia causes preservation of labile organic matter and changes seafloor microbial community composition (Black Sea). Science Advances 2017. DOI: 10.1126/sciadv.1601897

Beteiligte Institute
Max-Planck-Institut für Marine Mikrobiologie, Bremen
Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung, Bremerhaven
Universität Concepción, Concepción, Chile
ICBM-MPI Brückengruppe, Universität Oldenburg
Eawag: Wasserforschungsinstitut des ETH-Bereichs, Kastanienbaum, Schweiz
Museum für Naturkunde, Leibniz-Institut für Evolutions- und Biodiversitätsforschung, Berlin

Rückfragen bitte an
Dr. Gerdhard Jessen
E-Mail: gjessen@mpi-bremen.de
gjessen@gmail.com

Prof. Dr. Antje Boetius
Telefon: +49 421 2028 860
E-Mail: aboetius@mpi-bremen.de

Weitere Informationen:
http://www.mpi-bremen.de/Wenn_dem_Meeresboden_der_Atem_stockt.html

Anhang
Einfluss von Sauerstoff im Bodenwasser auf das Ökosystem an der nordwestlichen Krim/Schwarzmeer-Schelf.
https://idw-online.de/de/attachment56479
Erklärung siehe www.mpi-bremen.de/Wenn_dem_Meeresboden_der_Atem_stockt.html

Quelle: idw

(nach oben)


Verstädterung wird 300.000 km2 fruchtbarsten Ackerlands verschlingen

Fabian Löhe Presse- und Öffentlichkeitsarbeit
Mercator Research Institute on Global Commons and Climate Change (MCC) gGmbH

Durch die rasante Expansion der Städte werden bis zum Jahr 2030 global etwa 300.000 Quadratkilometer von besonders fruchtbarem Ackerland verloren gehen. Das entspräche nahezu der Größe Deutschlands. Diese Fläche machte im Jahr 2000 fast vier Prozent des weltweiten Anbaus von Nahrungspflanzen möglich. Das geht aus Forschungsergebnissen des Mercator Research Institute on Global Commons and Climate Change (MCC) hervor. Zum Vergleich: Von der Nahrungsmittelproduktion auf dieser Fläche könnten sich gut 300 Millionen Menschen bei einem durchschnittlichen Kalorienverbrauch von 2.500 Kalorien pro Tag ein ganzes Jahr ernähren.

Die entsprechende Studie „Future urban land expansion and implications for global croplands“ haben Christopher Bren d’Amour und Felix Creutzig mit weiteren Wissenschaftlern jetzt im Fachmagazin Proceedings of the National Academy of Sciences of the United States of America (PNAS) veröffentlicht. Demnach wird sich die globale Urbanisierung auf einer landwirtschaftlichen Fläche vollziehen, die fast doppelt so fruchtbar ist wie der weltweite Durchschnitt.

Generell wird der Verlust von Ackerland in Asien und Afrika besonders schwerwiegend sein: Afrika weist die höchsten Urbanisierungsraten auf, in Asien ist der absolute Anstieg der Stadtbevölkerung am stärksten. Allein China wird der Analyse zufolge mit einem Viertel des globalen Verlusts von landwirtschaftlicher Fläche zu kämpfen haben, fast 80.000 km2.

„Hotspots des Ackerlandverlusts liegen häufig in einem Flussdelta, etwa im Goldenen Dreieck des Jangtse bei Schanghai oder im Perlfluss-Delta bei Hongkong. Regional kann dieser Nahrungsmittelverlust nicht immer ausgeglichen werden. Das wiederrum könnte Auswirkungen auf das Welternährungssystem haben“, sagt Leitautor Bren d’Amour. Dass der Landnutzungskonflikt zwischen Verstädterung und Nahrungsmittelproduktion aber im weltweiten Vergleich deutliche Unterschiede aufweist, zeigt das Beispiel Indien. „Vieles hängt von den individuellen Urbanisierungsdynamiken der Länder ab. In Indien vollzieht sich die Verstädterung beispielsweise langsamer und auf niedrigerem Niveau als in China. Das spiegelt sich in unseren Resultaten wieder, die deutlich geringere Ackerlandverluste prognostizieren. “

Für ihre Forschung haben die Wissenschaftler Prognosen der Yale University über die räumliche Ausdehnung von Städten genutzt. Diese haben sie mit Landnutzungsdaten der University of Minnesota und der University of British Columbia über die weltweit landwirtschaftlich genutzte Fläche und deren Ernteerträge kombiniert. Untersucht wurde der Verlust an gesamten landwirtschaftlichen Anbauflächen. Um die Produktivität dieser Flächen zu bestimmen, haben die Forscher die aggregierte Produktion der 16 wichtigsten Nahrungspflanzen berechnet, darunter zum Beispiel Mais, Reis, Sojabohnen und Weizen.

Ein weiterer globaler Schwerpunkt des globalen Verlusts von Ackerland wird neben Asien in den rapide urbanisierenden Regionen Afrikas liegen. Hier werden vor allem Nigeria sowie die ohnehin stark unter Hunger leidende Region zwischen Burundi und Ruanda beim Viktoriasee betroffen sein. Auf dem afrikanischen Kontinent kommt auch die besondere Verwundbarkeit vieler Länder für die Folgen des Klimawandels zum Tragen. Auch ist es für die arbeitslose Landbevölkerung hier schwieriger, auf den urbanen Arbeitsmärkten Fuß zu fassen.

Besonders schlägt die Urbanisierung in Ägypten zu Buche: Durch sie könnte das Land bis 2030 gut ein Drittel seines Ackerlandes verlieren. Zusätzlich wird die Situation dadurch erschwert, dass die Region des Nildeltas um Kairo voraussichtlich stark vom Anstieg des Meeresspiegels betroffen sein wird. Diese vergleichsweise kleine Fläche ist aber für einen Großteil der landwirtschaftlichen Produktion des Landes verantwortlich.

„Politische Entscheider auf kommunaler Ebene sind jetzt am Zug: Stadtplanung ist inzwischen zur Weltpolitik geworden“, sagt Felix Creutzig, Leiter der MCC-Arbeitsgruppe Landnutzung, Infrastruktur und Transport. „Die Stadtplaner können dazu beitragen, dass besonders Kleinbauern nicht ihre landwirtschaftliche Lebensgrundlage verlieren. Dazu könnte eine raumeffiziente Urbanisierung beitragen, die vorhandene produktive Landwirtschaft bewahrt, aber auch weiterhin Kleinbauern den Zugang zum städtischen Lebensmittelmarkt ermöglicht.“

Referenz:
Bren d’Amour, Christopher et al. (2016): Future urban expansion and implications for global croplands. Proceedings of the National Academy of Sciences of the United States of America,
DOI: 10.1073/pnas.1615688114

Für inhaltliche Fragen kontaktieren Sie bitte Felix Creutzig (Telefon: 0174 905 41 05, E-Mail: creutzig@mcc-berlin.net).

Weitere Informationen:

https://www.eurekalert.org/jrnls/pnas/16-06036.htm
http://www.mcc-berlin.de

Quelle: idw

(nach oben)


Magensäureblocker: Ohne eindeutige Diagnose nicht langfristig einnehmen

Medizin – Kommunikation Medizinkommunikation
Arbeitsgemeinschaft der Wissenschaftlichen Medizinischen Fachgesellschaften e.V.

Berlin – Protonenpumpeninhibitoren (PPI), auch Magensäureblocker genannt, gehören zu den hierzulande am häufigsten eingenommenen Medikamenten. Nach Angaben des aktuellen Arzneimittelverordnungs-Reports hat sich ihre Verordnung in den zurückliegenden zehn Jahren mehr als verdreifacht und lag 2015 bei rund 3,7 Milliarden definierten Tagesdosen (DDD, daily defined dose). Protonenpumpeninhibitoren sind wichtige Medikamente, erklärt die Deutsche Gesellschaft für Gastroenterologie, Verdauungs- und Stoffwechselkrankheiten (DGVS). Sie würden jedoch vielfach auch bei Beschwerden eingesetzt, für die sie nicht geeignet seien.

In jüngster Zeit mehren sich Hinweise, dass eine langfristige Einnahme von PPI mehr Nebenwirkungen verursachen könnte, als bislang bekannt. Eine Dauermedikation sollte deshalb nur unter ärztlicher Betreuung und bei klar abgesicherter Diagnose erfolgen, empfiehlt die DGVS.

Protonenpumpeninhibitoren, umgangssprachlich auch Magensäureblocker oder Magenschutz genannt, reduzieren die Bildung von Magensäure. „Diese Medikamente sind wirksam und wichtig zur Behandlung und Vorbeugung bestimmter säureassoziierter Magenerkrankungen wie beispielsweise der Refluxkrankheit, der gastroduodenalen Ulkuskrankheit, des Barrett-Ösophagus oder des Zollinger-Ellison-Syndroms“, erklärt DGVS-Experte Professor Dr. med. Matthias Ebert, Direktor der II. Medizinischen Klinik, Universitätsmedizin Mannheim. „In manchen Fällen ist auch ihr Einsatz als ‚Magenschutz‘, also als Vorsorge von Magenblutungen, ausgelöst durch die langfristige Einnahme bestimmter Medikamente wie Acetylsalicylsaure oder nichtsteroidale Antirheumatika, sinnvoll und wichtig“, so der Gastroenterologe.

Zu häufig aber würden Protonenpumpeninhibitoren auch bei Beschwerden angewandt, bei denen ihr Nutzen nicht wissenschaftlich nachgewiesen sei. Hierzu zählt vor allem ein Reizmagen. „Ein Reizmagen-Syndrom ist nicht ganz leicht zu behandeln, denn seine Symptome und die Ursachen sind vielfältig. Aus Mangel an effizienten Therapien wird dann nicht selten auf PPIs zurückgegriffen“, so Ebert. Die unkritische Einnahme von PPIs bei unspezifischen und teils auch ernährungsbedingten Magenbeschwerden – etwa Aufstoßen, Völlegefühl oder Übelkeit – werde zudem dadurch begünstigt, dass die Medikamente auch freiverkäuflich in Apotheken abgegeben würden. Aus dem gelegentlichen Griff zu den PPIs kann schnell eine Dauereinnahme werden. Grund: Beim abrupten Absetzen eines PPI kann es bei manchen Patienten zu einer überschießenden Produktion von Magensäure kommen – dann treten die Symptome, gegen die das Medikament eingenommen wurde, eine gewisse Zeit lang sogar noch verstärkt auf. „Dies führt nicht selten dazu, dass Patienten das Medikament dann weiter einnehmen und langfristig dabei bleiben“, so Ebert.

In jüngster Zeit mehren sich Hinweise und Studien, dass eine langfristige Einnahme von Protonenpumpeninhibitoren – über mehrere Monate oder sogar Jahre – mit möglichen Nebenwirkungen assoziiert ist. Zu den unter Wissenschaftlern diskutierten möglichen Risiken zählen insbesondere ein erhöhtes Risiko für Knochenbrüche und eine Veränderung der Darmflora. Verschiedene Untersuchungen zeigten auch, dass bei langfristiger Einnahme von PPI die Rate an Darminfektionen mit Erregern wie Clostridium difficile oder Campylobacter zunahm. „Hier muss man jedoch betonen: Bei vielen der vermuteten Nebenwirkungen ist die Studienlage bislang noch dürftig und teils auch widersprüchlich“, sagt DGVS-Pressesprecher Professor Dr. med. Christian Trautwein aus Aachen. Gesicherte Erkenntnisse gebe es bislang kaum – es brauche weitere, aussagekräftige Studien, um die aktuellen Hinweise zu belegen oder zu widerlegen.

„Dennoch müssen die aktuellen Hinweise Anlass dazu geben, die bislang recht unkritische Verschreibung und Einnahme von Protonenpumpeninhibitoren zu überdenken“, betont Trautwein. Bislang waren PPIs für ein sehr gutes Nutzen-Risiko-Verhältnis bekannt, weshalb die Verordnung oft sehr großzügig und die Indikationsstellung recht weit gefasst war – dies muss sich ändern.“

Die Deutsche Gesellschaft für Gastroenterologie, Verdauungs- und Stoffwechselkrankheiten rät: Protonenpumpeninhibitoren sollten nicht langfristig – über mehr als zwei Monate – ohne eine eindeutige, gesicherte Diagnose, die eine PPI-Therapie unabdingbar erfordert, eingenommen werden. Hierfür sei etwa ein Gastroenterologe der richtige Ansprechpartner. Von einer regelmäßigen Einnahme von PPIs ohne ärztliche Überwachung und klare Indikation rät die Fachgesellschaft ab.

Literatur:
Mössner, J, Magen-Darm-Mittel und Lebertherapeutika. In: Schwabe, U., Paffrath, D. (Hrsg), Arzneimittelverordnungs-Report 2016, Berlin Heidelberg: Springer 2016. http://www.springer.com/de/book/9783662503508

Ueberschaer, H., Allescher H.D., Protonenpumpenhemmer – Nebenwirkungen und Komplikationen der langfristigen Protonenpumpenhemmereinnahme, Z Gastroenterol 2017; 55(01): 63-74, DOI: 10.1055/s-0042-121265 https://www.thieme-connect.de/products/ejournals/abstract/10.1055/s-0042-121265

Buendgens L, Bruensing J, Matthes M, Dückers H, Luedde T, Trautwein C, Tacke F, Koch A., Administration of proton pump inhibitors in critically ill medical patients is associated with increased risk of developing Clostridium difficile-associated diarrhea. J Crit Care. 2014 Aug; 29(4):696.e11-5. http://dx.doi.org/10.1016/j.jcrc.2014.03.002

Mössner, J, The indications, applications, and risks of proton pump inhibitors – a review after 25 years. Dtsch Arztebl Int 2016; 113: 477-83. DOI: 10.3238/arztebl.2016.0477 http://www.aerzteblatt.de/pdf/113/27/m477.pdf

Die Deutsche Gesellschaft für Gastroenterologie, Verdauungs- und Stoffwechselkrankheiten (DGVS) wurde 1913 als wissenschaftliche Fachgesellschaft zur Erforschung der Verdauungsorgane gegründet. Heute vereint sie mehr als 5000 Ärzte und Wissenschaftler aus der Gastroenterologie unter einem Dach. Die DGVS fördert sehr erfolgreich wissenschaftliche Projekte und Studien, veranstaltet Kongresse und Fortbildungen und unterstützt aktiv den wissenschaftlichen Nachwuchs. Ein besonderes Anliegen ist der DGVS die Entwicklung von Standards und Behandlungsleitlinien für die Diagnostik und Therapie von Erkrankungen der Verdauungsorgane – zum Wohle des Patienten. Mehr Informationen finden Interessierte unter http://www.dgvs.de oder im aktuellen DGVS-Video https://www.youtube.com/watch?v=Orv-uHE1fls.

Weitere Informationen:
http://www.dgvs.de

Quelle: idw

(nach oben)


Moderner Wasserbau ist komplex

Doris Keßler Hochschulkommunikation
Technische Hochschule Nürnberg Georg Simon Ohm

Das Team um den Organisator Prof. Dr.-Ing. habil. Dirk Carstensen gilt im deutschsprachigen Raum als eine der profilierten Adressen für innovative Ansätze im Wasserbau und trägt wesentlich zur Generierung neuen Wissens in der Branche bei. Zum Nürnberger Wasserbau-Symposium stellten die Organisatoren spannende Projekte mit hoher Komplexität und neue Konzepte von renommierten Experten aus Verwaltungen, Unternehmen, Universitäten und Hochschulen vor.

Moderner Wasserbau ist komplex und adressiert viele technische, wirtschaftliche und gesellschaftliche Themen. Bundesweit renommierte Sprecher, u.a. von der TH Nürnberg, präsentierten auf dem Nürnberger Wasserbau-Symposium die Bandbreite aktueller Fragestellungen: Die ökologische Optimierung und Effizienzsteigerung bei der Bereitstellung von Energie, der Hochwasserschutz, die Erhöhung der Sicherheit bei gleichzeitiger Kostensenkung durch die Simulation von wasserbaulichen Anlagen, die verkehrswasserbaulichen Herausforderungen an Binnenwasserstraßen und der urbane Wasserbau – die Themen des Symposiums decken wichtige Bedürfnisse einer modernen Industriegesellschaft ab.

Dr.-Ing. Andreas Schmidt, Leiter Wasserbau Binnenbereich in der Bundesanstalt für Wasserbau, erläutert die Herausforderungen des modernen Verkehrswasserbaus: „In Zukunft bedeutet das vermehrt, die Leistungsfähigkeit des Wasserstraßennetzes angesichts steigender Verkehrsintensität, knapper Finanzmittel und möglicher Änderungen der Abflussregulierung durch einen möglichst großen Erhalt der Substanz sowie durch eine maßvolle und naturverträgliche Optimierung und Rationalisierung des Betriebs zu steigern oder zumindest zu erhalten.“

Moderner Wasserbau bietet auch Optionen für die technische Ausbauplanung von Erneuerbaren Energien, so Prof. Dr.-Ing. Holger Schüttrumpf, Institut für Wasserbau und Wasserwirtschaft an der RWTH Aachen: „Durch den starken Ausbau der Erneuerbaren Energien in Deutschland werden immer mehr Speichermöglichkeiten benötigt. Eine interessante Alternative sind unterirdische Pumpspeicherwerke mit unterirdischen Kavernensystemen. Wir erforschen die Ausbauplanung von Kavernen der Zukunft, bevor Detailuntersuchungen für spezielle Kraftwerksvorhaben durchgeführt werden. Eine Realisierung führt aus strömungstechnischen Gesichtspunkten zwar zu großen Herausforderungen, sie sollte aber möglich sein. Die bislang genutzten 3D- und 2D-Modellverfahren sind für eine Strömungssimulation geeignet.“

Die TH Nürnberg setzt mit dem von Prof. Dr.-Ing. habil. Dirk Carstensen geleiteten Institut für Wasserbau und Wasserwirtschaft starke Impulse: „Die TH Nürnberg engagiert sich bundesweit und in der Metropolregion Nürnberg in der Entwicklung moderner, optimierter Anlagen für die Regelung und Hochwasserentlastung, zur Wasserkraftnutzung oder zur ökologischen Durchgängigkeit der Fließgewässer gemäß Europäischer Wasserrahmenrichtlinie, wie beispielsweise Auf- und Abstiegsanlagen für Fische und Benthosfauna.“

Im Zentrum der wasserbaulichen Forschungsaktivitäten an der TH Nürnberg steht das Institut für Wasserbau und Wasserwirtschaft als moderne Lehr- und Forschungseinrichtung mit hervorragenden Kontakten zu in- und ausländischen Hochschulen und Universitäten. Dort laufen zahlreiche Forschungsprojekte auf dem Gebiet der Strömungsmechanik im Bauingenieurwesen, des Wasserbaus und der Wasserwirtschaft: Physikalischen Versuche zu Hochwasserentlastungsanlagen an verschiedenen Talsperren oder Klimadatenanalysen und Simulationen zur Eis- und Wellenbelastung auf dem Großen Brombachsee. Auftraggeber sind Behörden wie Wasserwirtschaftsämter und Unternehmen, häufig in Zusammenarbeit mit Ingenieurbüros. Durch die Ausstattung des Labors und die Expertise von Prof. Dr. Carstensen und seinem Team ist es möglich, wasserbauliche Probleme im physikalischen Versuch und gleichzeitig in der hydrodynamischen oder numerischen Simulation anzugehen.

Quelle: idw

(nach oben)


LED-Lampen könnten für die Augen toxisch sein

Marie de Chalup Wissenschaftliche Abteilung
Wissenschaftliche Abteilung, Französische Botschaft in der Bundesrepublik Deutschland

Ein Forschungsteam des Inserm hat gezeigt, dass LED-Lampen potenziell toxisch für die Augen sind. Diese Lampen kommen täglich zum Einsatz und könnten die altersbedingte Makuladegeneration aufgrund bestimmter Wellenlängen fördern.

Zur Untersuchung dieses Problems wurden Ratten in drei Gruppen aufgeteilt, um die Wirkungen verschiedener Lichtarten zu vergleichen – LED-Lampe, Glühbirne und Kaltkathodenlampe (Leuchtröhre). Die Forscher setzten die Ratten zunächst über 24 Stunden einer hohen Lichtintensität (6000 Lux) aus und konnten beobachten, dass unabhängig von der Lichtquelle ein Entzündungsprozess einsetzte, der den Zelltod (Apoptose) förderte. War die Lichtintensität geringer (500 Lux, wie in einer normalen Wohnung), wurde die Netzhaut der Ratten nur durch das LED-Licht beeinträchtigt, jedoch nicht von den anderen Lichtquellen.

Die Ursache dieser Schädigungen liegt im blauen Licht begründet, das in LED-Lampen mit gelbem Licht vermischt wird, um weißes Licht zu erzeugen. Diese Lampen werden heute sehr häufig eingesetzt, weil sie wirtschaftlicher und seit 2005 von der Europäischen Kommission vorgeschrieben sind. Weitere Forschungen sind also notwendig, um das mögliche Phototoxizitätspotenzial von LED-Lampen vollständig aufzudecken.

Quellen: „Les LED, pas si inoffensives que ça…“, Artikel von der Webseite des Inserm, 04.01.2017 – http://www.inserm.fr/actualites/rubriques/actualites-recherche/les-led-pas-si-in…

„Les LED sont-elles dangereuses pour nos yeux ?“, Artikel aus Le Monde, 06.01.2017 – http://www.lemonde.fr/les-decodeurs/article/2017/01/06/les-led-sont-elles-danger…

Redakteurin: Laura Voisin, laura.voisin@diplomatie.gouv.fr

Weitere Informationen:
http://www.wissenschaft-frankreich.de

Quelle: idw

(nach oben)


„Entengrütze“: Kleine Pflanzen, große Chancen

Stephan Laudien Stabsstelle Kommunikation/Pressestelle
Friedrich-Schiller-Universität Jena

Wissenschaftler der Universität Jena erforschen das Potenzial von Wasserlinsen

Wolffia globosa, eine kleine wurzellose Wasserlinse, hat offenbar das Zeug, ganz groß rauszukommen. Wissenschaftler der Universität Jena haben jetzt in Kooperation mit Fachkollegen in Indien und Deutschland das Potenzial verschiedener Wasserlinsen für die menschliche Ernährung untersucht. Die Ergebnisse sind vielversprechend. Veröffentlicht werden sie unter dem Titel „Nutritional value of duckweeds (Lemnaceae) as human food“ in der renommierten Zeitschrift „Food Chemistry“.

„Die Wasserlinsen könnten durchaus als Proteinquelle für die menschliche Ernährung dienen“, sagt Prof. Dr. Gerhard Jahreis von der Universität Jena. Nicht von ungefähr würden Wasserlinsen „grüne Maschinen“ genannt, fügt der Ernährungswissenschaftler hinzu. Jahreis sagt, die Wasserlinsen seien in ihrem Proteingehalt vergleichbar mit Lupine, Raps oder Erbsen. So liege der Proteinertrag bei 30 Prozent der Trockenmasse. Außerdem enthielten die Pflanzenwinzlinge wertvolle omega-3-Fettsäuren, wie Stearidonsäure und alpha-Linolensäure. Mögliche Einsatzgebiete der Wasserlinsen seien die beliebten Smoothies oder Gebäck, das glutenfrei produziert wird.

„Die Wasserlinsen vermehren sich sehr rasch, benötigen aber keine zusätzlichen Anbauflächen“, sagt PD Dr. Klaus Appenroth von der Friedrich-Schiller-Universität Jena. Angesichts schwindender Ackerflächen sei das ein enormer Vorteil gegenüber beispielsweise Soja. Bereits seit Jahrtausenden würden Wasserlinsen in asiatischen Ländern wie Thailand, Kambodscha und Laos auf dem Speiseplan stehen. Appenroth hat als Pflanzenphysiologe beinahe sein gesamtes Forscherleben an der Universität Jena den Pflanzenwinzlingen gewidmet und u. a. eine umfangreiche Sammlung von Lemnaceae (deutsch: Wasserlinsengewächse) angelegt. Er verweist besonders auf die Art Wolffia globosa, die in Asien als Suppe, Gemüsebeilage oder Omelette auf die Tische kommt. In den aktuellen Tests der Forschergruppe schnitt Wolffia globosa am vielversprechendsten ab.

Bislang würde die „Entengrütze“ nicht kultiviert, sondern einfach von Gewässern „geerntet“. Gleichwohl gebe es erste Versuchsanlagen in Israel und den Niederlanden, in denen Wasserlinsen im industriellen Maßstab erzeugt werden. Wolffia globosa sind nur 0,7 bis 1,5 mm groß, von kugliger Gestalt und ohne Wurzeln. Sie vermehren sich vegetativ so rasch, dass die „Entengrütze“ in kurzer Zeit ganze Gewässeroberflächen bedeckt. Für eine Nutzung der Pflanzen in der menschlichen Ernährung spricht zudem, dass Wasserlinsen problemlos Spurenelemente aufnehmen können, die im Wasser gelöst sind. So ließen sich ernährungsbedingte Mangelerscheinungen mit geringem Aufwand ausgleichen.

Weitere potenzielle Einsatzgebiete der Wasserlinsen sind Fischzucht und Gewässerreinigung. Die Winzlinge könnten zudem zur Herstellung von Bio-Ethanol eingesetzt werden.

Original-Publikation:
Klaus-J. Appenroth, K. Sowjanya Sree, Volker Böhm, Simon Hammann, Walter Vetter, Matthias Leiterer, Gerhard Jahreis: „Nutritional value of duckweeds (Lemnaceae) as human food“; Food Chemistry; DOI: 10.1016/j.foodchem.2016.08.116

Kontakt:
PD Dr. Klaus Appenroth
Institut für Allgemeine Botanik und Pflanzenphysiologie der Friedrich-Schiller-Universität Jena
Dornburger Straße 159, 07743 Jena
Tel.: 03641 / 949233
E-Mail: Klaus.Appenroth@uni-jena.de

Prof. Dr. Gerhard Jahreis
Institut für Ernährungswissenschaften der Friedrich-Schiller-Universität Jena
Dornburger Straße 24, 07743 Jena
Tel.: 03641 / 949610
E-Mail: b6jage@uni-jena.de

Weitere Informationen:
http://www.uni-jena.de

Quelle: idw

(nach oben)


Wärmewende für Berlin – Forschungsprojekt gestartet

Richard Harnisch Öffentlichkeitsarbeit und Kommunikation
Institut für ökologische Wirtschaftsforschung GmbH, gemeinnützig

► Wie kann Berlin umwelt- und klimaschonender mit Wärme versorgt werden?
► Wichtiger Baustein im Berliner Energie- und Klimaschutzprogramm
► Bernd Hirschl: „Keine Klimaneutralität ohne Wärmewende“

In Deutschland wird ein Drittel der Energie genutzt, um Raumwärme und Warmwasser zu erzeugen – bislang ganz überwiegend auf Basis fossiler Brennstoffe. Während die Energiewende in der Stromerzeugung bereits fortgeschritten ist, fehlen Ansätze für eine umwelt- und klimaschonende Wärmeversorgung bislang weitgehend. Das neue Forschungsprojekt „Urbane Wärmewende“ entwickelt nun am Beispiel der Stadt Berlin Empfehlungen für eine sozial-ökologische Transformation der Energieinfrastrukturen.

„Mit den Forschungsergebnissen möchten wir den neuen Berliner Senat, aber auch Politik, Verwaltung, Unternehmen und die Zivilgesellschaft unterstützen, etwa bei Themen wie einer urbanen Wärmeplanung, bei der Identifikation von Quartierslösungen oder bei der stärkeren Kopplung der Sektoren Strom und Wärme“, sagte Projektleiter Bernd Hirschl vom Institut für ökologische Wirtschaftsforschung (IÖW). Das dreijährige Projekt führt das IÖW gemeinsam mit der Senatsverwaltung für Umwelt, Verkehr und Klimaschutz, der TU Berlin, der Universität Bremen und weiteren Partnern mit Förderung des Bundesforschungsministeriums durch. Unter http://www.urbane-waermewende.de stellt sich das Projekt vor.

Drei Berliner Kieze werden „Reallabore“
In dem Projekt werden drei Berliner Stadtteile zu sogenannten „Reallaboren“, in denen unterschiedliche Wärmeszenarien simuliert und bewertet werden. Die Wissenschaftler/innen folgen dabei dem Leitbild einer urbanen Wärmewende – eine städtische Wärmeversorgung, die umwelt- und sozialverträglich sowie intelligent mit anderen Infrastrukturen vernetzt und resilient gestaltet ist. Hierbei arbeiten die Forscherinnen und Forscher in verschiedenen Arbeitsformaten eng mit Akteuren aus der Praxis zusammen, um etwa folgende Fragen zu beantworten: Welche Entwicklungsoptionen der Wärmeversorgung sind auf Basis weitgehend CO2-freier Energieerzeugung machbar und wie können sie bewertet werden? Wie verwundbar oder robust sind die Energiesysteme? Welche Governanceformen eignen sich, und welches Zusammenspiel von privaten und öffentlichen Akteuren ist sinnvoll? Und nicht zuletzt: Wie ist die Wärmewende betriebswirtschaftlich, wie kommunalwirtschaftlich zu bewerten?

Wärme-, Gas- und Strominfrastrukturen intelligent vernetzen
„Für eine klimaschonende Wärmeversorgung haben Städte eigene Herausforderungen und Potenziale“, sagte Hirschl. „Aufgrund der hohen Nachfrage in Ballungsräumen können Haushalte und Gewerbe sowohl mit dezentral hergestellter Wärme als auch über das Leitungsnetz versorgt werden.“ Derzeit werden verschiedene Möglichkeiten diskutiert, es bestehen aber noch große Unsicherheiten bei politischen Entscheidern, welche Aspekte bei der zukünftigen Wärmeversorgung wichtig sind. Energieexperten sehen einen Schlüssel für das Gelingen der Energiewende insbesondere darin, die unterschiedlichen Energieinfrastrukturen (Strom, Wärme, Gas) noch mehr und intelligenter miteinander zu vernetzen.

Wärmewende: Großer Baustein im Berliner Energie- und Klimaschutzprogramm
Fast die Hälfte der CO2-Emissionen Berlins fallen derzeit durch die Wärmeversorgung im Gebäudebereich an. Diese müssen bis 2050 drastisch gesenkt werden, so sieht es das im vergangenen Jahr vom Senat beschlossene Berliner Energie- und Klimaschutzprogramm vor, das die neue Berliner Regierung umsetzen will, um Berlin damit zu einem Vorreiter im Klimaschutz und in der Energiewende zu machen.

Den Entwurf für das Programm hatte das IÖW mit mehreren Partnern in einem breiten Beteiligungsprozess erarbeitet. „Mit dem Projekt ‚Urbane Wärmewende‘ nehmen wir uns nun eine der härtesten Nüsse vor, die Berlin auf seinem Weg in die Klimaneutralität zu knacken hat“, ordnete Hirschl die Bedeutung einer nachhaltigen Wärmeversorgung für Berlin ein. „Ohne erfolgreiche Wärmewende wird Berlin nicht klimaneutral werden können.“

Andere Städte sollen von den Erkenntnissen aus dem Berliner Projekt lernen können, so der Anspruch der Wissenschaftler, die sich vorgenommen haben, verallgemeinerbare Erkenntnisse zu urbanen Transformationsprozessen hin zur Wärmewende zu erarbeiten.

+++++++++++++++++++++++++++++

Über das Projekt
Das Projekt „Urbane Wärmewende – Partizipative Transformation von gekoppelten Infrastrukturen mit dem Fokus auf die Wärmeversorgung am Beispiel Berlin“ wird durch das Bundesministerium für Bildung und Forschung (BMBF) in der Fördermaßnahme „Nachhaltige Transformation urbaner Räume“ des Programms Sozial-ökologische Forschung (SÖF) gefördert. Das Institut für ökologische Wirtschaftsforschung arbeitet im Projekt mit Senatsverwaltung für Umwelt, Verkehr und Klimaschutz, der Technischen Universität Berlin und der Universität Bremen zusammen. Projektleiter ist Prof. Dr. Bernd Hirschl vom Institut für ökologische Wirtschaftsforschung.

Mehr Informationen unter: http://www.urbane-waermewende.de

Das Institut für ökologische Wirtschaftsforschung (IÖW) ist ein führendes wissenschaftliches Institut auf dem Gebiet der praxisorientierten Nachhaltigkeitsforschung. 45 Mitarbeiterinnen und Mitarbeiter erarbeiten Strategien und Handlungsansätze für ein zukunftsfähiges Wirtschaften – für eine Ökonomie, die ein gutes Leben ermöglicht und die natürlichen Grundlagen erhält. Das Institut arbeitet gemeinnützig und ohne öffentliche Grundförderung.
http://www.ioew.de

Weitere Informationen:
http://www.urbane-waermewende.de

Quelle: idw

(nach oben)


Wasser- der heimliche Treiber des Kohlenstoffkreislaufs?

Susanne Héjja Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Biogeochemie

Aktuell nimmt die Landoberfläche etwa ein Viertel der anthropogenen Kohlendioxidemissionen aus der Atmosphäre wieder auf. Ob die Aufnahmefähigkeit dieser Kohlenstoffsenke erhalten bleibt und wie sie sich zukünftig weiterentwickeln wird, ist ungewiss. Wie sie reguliert wird, konnte nun eine Forschergruppe unter der Leitung des Max-Planck-Instituts für Biogeochemie näher beleuchten: Global gesehen werden jährliche Schwankungen der Kohlenstoffsenke vornehmlich durch die Temperatur bestimmt. Blickt man aber auf die lokale Ebene, so ist die Wasserverfügbarkeit der dominierende Faktor.

Die neue Studie zeigt auch, wie kompensierende Effekte der Wasserverfügbarkeit zu den Unterschieden zwischen lokalen und globalen Skalen führen.

Der aktuell fortschreitende Klimawandel ist gekennzeichnet durch steigende Kohlendioxidkonzentrationen in der Atmosphäre, die mit einer globalen Erwärmung einhergehen. Der seit Jahrzehnten gemessene Anstieg von atmosphärischem CO₂ variiert allerdings erheblich von Jahr zu Jahr. Diese Variationen haben ihre Ursache vor allem in Schwankungen in der Kohlenstoffaufnahme durch die Landökosysteme und weniger in einer veränderter Aufnahme durch die Ozeane oder in Schwankungen der anthropogenen Emissionen.

Wie wird diese Landsenke reguliert? Die Frage, ob eher die Temperatur oder das Wasser das Aufnahmevermögen der Landvegetation bestimmen, wird unter den Wissenschaftlern kontrovers diskutiert. Nach heutigem Wissensstand stehen die jährlichen, globalen Schwankungen des Kohlenstoffhaushalts in statistischem Zusammenhang mit tropischen Temperaturen. Allerdings zeigen andere Untersuchungen, dass die stärksten Schwankungen in der Kohlenstoffaufnahme in großräumigen Gebieten auftreten, wo Wasserknappheit herrscht.
Dieser scheinbare Widerspruch konnte nun durch ein internationales Expertenteam unter der Leitung des Max-Planck-Instituts für Biogeochemie in Jena erklärt werden. In einem aktuellen Artikel des Wissenschaftsjournals Nature beschreiben Dr. Martin Jung und seine Teamkollegen, wie sie durch Kombination empirischer und prozessbasierter Computermodelle die Wirkung von Temperatur und Wasserverfügbarkeit auf den Kohlenstoffaustausch zwischen der Atmosphäre und der Landoberfläche auf unterschiedlichen Größenskalen analysierten.

Es zeigte sich, dass auf lokaler Ebene die Verfügbarkeit von Wasser entscheidend ist für die Jahr-zu-Jahr-Schwankungen der Kohlenstoffsenke. Die Wasserverfügbarkeit beeinflusst die Photosynthese, bei der Kohlendioxid aufgenommen wird und auch die Atmung der Pflanzen und Mikroorganismen, die wiederum CO₂ in die Atmosphäre abgeben. In der Summe wird der Nettoaustausch von CO₂ zwischen der Atmosphäre und der terrestrischen Biosphäre stark davon bestimmt, wieviel Wasser vorhanden ist. Eigenartigerweise werden auf globaler Ebene die Schwankungen im Nettoaustausch überwiegend durch die Temperatur reguliert.

„Was im ersten Moment als paradox erscheint, lässt sich mit einem Blick auf die verschiedenen räumlichen und zeitlichen Schwankungen im Zusammenspiel der Biosphäre und der Atmosphäre erklären“, erläutert Dr. Martin Jung, Erstautor der Veröffentlichung. „Es gibt zwei sich kompensierende Wasser-Effekte.“ Die stärkste Kompensation entsteht durch ungleichmäßig auftretende Auswirkungen von außergewöhnlichen Wasseranomalien. „Wenn es in einem Gebiet der Erde sehr trocken ist, ist es in anderen Gebieten sehr feucht, so dass sich weltweit wasserbedingte Anomalien im Netto-Austausch des Kohlenstoffs gegenseitig fast aufheben.“ Das Wasser ist also der eigentliche Treiber des Kohlenstoffkreislaufs, auch global gesehen.

Die Ergebnisse der Studie klären nicht nur die scheinbar widersprüchlichen Ergebnisse zur Frage, ob das Wasser oder die Temperatur die Stärke der Landsenke bestimmen. Sie zeigen auch, wie wichtig es ist, das Augenmerk auf die Abweichungen von Klimavariablen in unterschiedlichen Untersuchungsräumen zu richten. „Die schlichte Beziehung zwischen der Temperatur und der globalen Kohlenstoffsenke an Land sollte man mit Vorsicht betrachten“, resümiert Professor Markus Reichstein, Koautor der Untersuchungen und Direktor am Max-Planck-Institut für Biogeochemie, „sie sollte nicht für Rückschlüsse auf ökologische Prozesse oder gar Langzeitprognosen dienen.“

Originalveröffentlichung:
Jung, M. et al. (2017).Compensatory water effects link yearly global land CO₂ sink changes to tem-perature. doi: 10.1038/nature20780

Kontakt:
Dr. Martin Jung
Email: mjung@bgc-jena.mpg.de
Tel: +49 (0)3641- 57 6261

Prof. Dr. Markus Reichstein
Email: mreichstein@bgc-jena.mpg.de
Tel: +49 (0)3641- 57 6200

Quelle: idw

(nach oben)


www.tarifrunde-2017.de: Aktuelles zu Kündigungsterminen, Forderungen, Verhandlungen und Ergebnissen

Rainer Jung Abt. Öffentlichkeitsarbeit
Hans-Böckler-Stiftung

Service des WSI-Tarifarchivs
www.tarifrunde-2017.de: Aktuelles zu Kündigungsterminen, Forderungen, Verhandlungen und Ergebnissen

Die Tarifrunde 2017 hat begonnen. Die Forderungen für einige Branchen liegen bereits auf dem Tisch, erste Verhandlungen haben schon stattgefunden. Insgesamt laufen in diesem Jahr Tarifverträge für rund 11,4 Millionen Beschäftigte aus. Das WSI-Tarifarchiv der Hans-Böckler-Stiftung dokumentiert auch in diesem Jahr das Tarifgeschehen in den wichtigsten Branchen und Tarifbereichen zeitnah und im Detail. Alle Informationen finden sich unter der Webadresse www.tarifrunde-2017.de.

Ausgewählte Kündigungstermine:
– Dezember 2016: Öffentlicher Dienst Länder (ohne Hessen)
– Januar: Textil und Bekleidungsindustrie West
– Februar: Eisen- und Stahlindustrie, Energie Ost (AVEU)
– März: Versicherungsgewerbe
– März – April: Groß- und Außenhandel
– März – Juni: Einzelhandel
– April: Kfz-Gewerbe (regional), Textilindustrie Ost
– Juni: Wohnungs- und Immobilienwirtschaft
– September: Garten-, Landschafts- und Sportplatzbau
– Oktober: Gebäudereinigerhandwerk
– Dezember: Metall- und Elektroindustrie

Weitere Kündigungstermine im ausführlichen Kündigungsterminkalender.
Tarifforderungen und -verhandlungen:
Die Lohnforderungen bewegen sich bislang zwischen 4,5 und 6 Prozent. In der Textil- und Bekleidungsindustrie wird bereits seit Dezember verhandelt. Im Öffentlichen Dienst fand am 18.1. die erste Verhandlungsrunde statt.

Zu ausgewählten Branchen berichtet der Online-Service des Tarifarchivs nach Möglichkeit tagesaktuell über den Fortgang der Verhandlungen und ihre Ergebnisse.

Frühere Tarifabschlüsse:
Die WSI-Tarifdatenbank informiert mit zwei Klicks über die wichtigsten Tarifabschlüsse der vergangenen Jahre. Eine Bilanz der Tarifrunde 2016 liegt ebenfalls vor. Eine ausführliche Analyse des Tarifjahrs 2016 liefert der soeben erschienene Tarifpolitische Jahresbericht: http://www.boeckler.de/pdf/p_ta_jb_2016.pdf

Ansprechpartner in der Hans-Böckler-Stiftung
Dr. Reinhard Bispinck
Leiter WSI-Tarifarchiv
Tel.: 0211 / 77 78-232
E-Mail: Reinhard-Bispinck@boeckler.de

Rainer Jung
Leiter Pressestelle
Tel.: 0211 / 77 78-150
E-Mail: Rainer-Jung@boeckler.de

Weitere Informationen:
https://www.facebook.com/wsi.tarifarchiv – Weitere Infos gibt es bei Facebook
https://twitter.com/wsitarifarchiv – Twitter

Quelle: idw

(nach oben)


Solarien bergen Gesundheitsgefahren

Ina Stelljes PB2/ Pressearbeit
Bundesamt für Strahlenschutz

Internationale Experten stützen Warnung des BfS vor Solariennutzung

Wer Solarien nutzt, geht Gesundheitsrisiken ein. Diese Warnung, die das Bundesamt für Strahlenschutz (BfS) bereits in der Vergangenheit ausgesprochen hat, bestätigen internationale Experten. Die Europäische Kommission und ihr Wissenschaftlicher Ausschuss für Gesundheits-, Umwelt- und Schwellenrisiken (SCHEER) haben jüngst eine Stellungnahme zu den gesundheitlichen Folgen von UV-Strahlung veröffentlicht. Dabei bewertete das Gremium insbesondere auch die Nutzung künstlicher UV-Strahlung in Solarien.

Das wissenschaftliche Gremium kommt unter anderem zu dem Schluss, dass der Zusammenhang zwischen Solariennutzung und Hautkrebserkrankungen eindeutig ist und es keine gesundheitlich sichere UV-Bestrahlung in Solarien gibt. „Die Stellungnahme des Wissenschaftlichen Ausschusses der EU unterstreicht unser Engagement für den UV-Schutz“, so Ina Stelljes vom BfS. „Die gesundheitlichen Risiken der UV-Strahlung, die unter Wissenschaftlern unstrittig sind, werden immer wieder unterschätzt.“

So wirbt die Branche teilweise damit, dass sich mit künstlicher UV-Strahlung einem angeblich drohenden Vitamin-D-Mangel begegnen ließe. Zwar ist es richtig, dass ein Teil der UV-Strahlung zur Bildung von Vitamin D nötig ist. SCHEER stellt dazu aber klar, dass die gesundheitlichen Risiken, insbesondere für Hautkrebs, die Vorteile bei weitem überwiegen. Für die Vitamin-D-Bildung reichen maßvolle Aufenthalte in der Sonne, sagen Experten verschiedener Fachrichtungen übereinstimmend. Im Winter wird das im Sommer gespeicherte Vitamin D vom Körper genutzt. Die BfS- und die EU-Wissenschaftler sehen daher keine Notwendigkeit, Solarien zur Vitamin-D-Bildung zu nutzen.

Das BfS hatte bereits 2014 eine wissenschaftsbasierte und gemeinsam mit 19 weiteren Fachorganisationen getragene „Empfehlung zu UV-Strahlung und Vitamin-D“ herausgegeben. Darin wird „dringend von starken, nicht ärztlich kontrollierten UV-Bestrahlungen (Sonne oder Solarium) zum Zweck der Vitamin-D-Bildung, der Selbsttherapie eines Vitamin-D-Mangels oder der Bräunung“ abgeraten.

Das BfS setzt sich bereits seit Jahren unter anderem für eine Regulierung des Solarienbetriebs ein. Per Gesetz ist es seit August 2009 in Deutschland verboten, Minderjährige Solarien nutzen zu lassen. Eine Verordnung regelt darüber hinaus Gerätestandard, Betrieb sowie Einsatz, Aufgaben und Qualifikation von Fachpersonal für Solarien.

Zum Thema
Stellungnahme SCHEER

http://ec.europa.eu/health/scientific_committees/scheer/opinions/index_en.htm

BfS Info zu Solarien
http://www.bfs.de/DE/themen/opt/uv/solarien/solarien_node.html

UMID-Artikel „UV-Schutz konkret – Solarienregulierung“
https://www.umweltbundesamt.de/sites/default/files/medien/360/publikationen/umid…

Solarien-Check
http://www.bfs.de/DE/themen/opt/uv/solarien/check/check_node.html

Empfehlung zu UV und Vitamin D
http://www.bfs.de/DE/themen/opt/uv/wirkung/akut/empfehlung.html

Quelle: idw

(nach oben)


Vom Phosphorrezyklat zum intelligenten langzeitverfügbaren Düngemittel – Projektstart

Marie-Luise Righi Marketing und Kommunikation
Fraunhofer-Institut für Silicatforschung ISC

Phosphatdünger aus Klärschlammasche herzustellen ist Ziel des vom Bundesministerium für Ernährung und Landwirtschaft (BMEL) geförderten Forschungsprojektes PRiL. Dabei wird auf der Basis des biochemischen P-bac-Verfahrens rückgewonnene Phosphat zu einem marktfähigen Düngemittel weiterentwickelt. Ein besonderes Augenmerk liegt zudem auf der Wiederverwertbarkeit der im Verfahren entstehenden Reststoffe.

Phosphor ist ein elementarer Bestandteil allen Lebens: Menschliche, tierische und pflanzliche Organismen brauchen Phosphor, um existieren zu können, er ist Bestandteil der DNA.

In der Landwirtschaft werden großflächig phosphathaltige Düngemittel eingesetzt, um die Erträge sichern und steigern zu können. Rund 90 Prozent des heute abgebauten Phosphats werden zu Düngemitteln verarbeitet und landen so auf unseren Äckern. Das ist aus mehreren Gründen problematisch: Zum einen sind 75 Prozent der Phosphatreserven in Marokko und der Westlichen Sahara konzentriert. Die geopolitische Abhängigkeit ist also groß. Zum anderen sind Phosphaterze in zunehmendem Maße mit Schwermetallen (Cadmium und Uran) belastet. Recyceltes Phosphat hingegen ist im Vergleich zum Primärrohstoff weitaus weniger mit Schadstoffen angereichert. Anstatt Phosphat abzubauen, ist es also ökologisch und ökonomisch sinnvoll, Phosphat in großem Maße rückzugewinnen und es dem Kreislauf wieder zuzuführen, zum Beispiel in Form von Düngemitteln.

Hier setzt das Forschungsprojekt PRiL »Phosphorrückgewinnung und Entwicklung intelligenter Langzeitdünger« an. Unter der Leitung der Fraunhofer-Projektgruppe für Wertstoffkreisläufe und Ressourcenstrategie IWKS entwickeln die Forscher zusammen mit den Firmen Fritzmeier Umwelttechnik GmbH und ICL Fertilizers Deutschland GmbH einen Phosphat-Recyclingdünger aus Klärschlammasche. Basis ist das von der Firma Fritzmeier entwickelte P-Bac-Verfahren, das nun in den industriellen Maßstab aufskaliert werden soll.

Bakterien als effiziente Helfer bei der Phosphorrückgewinnung
Die Besonderheit des P-Bac-Verfahrens liegt in der Nutzung von Bakterien, mit denen Phosphor aus Klärschlammasche rückgewonnen werden kann. Bei dem sogenannten Bioleaching wird die Klärschlammasche sauer ausgelaugt, sodass eine phosphathaltige Lösung entsteht. Die Mikroorganismen übernehmen hierbei die Herstellung der für die Laugung der Asche nötigen Schwefelsäure. Bakterien der Gattung Acidithiobacillus nutzen elementaren Schwefel, um daraus durch Oxidation ihre Energie zu gewinnen. Diesen auch in der Natur ablaufenden Prozess macht man sich seit Jahren bei der Gewinnung von Gold, Kupfer, Zink oder Uran zunutze. Der P-Bac-Prozess bringt das Bioleaching erstmals bei der Rückgewinnung von Phosphat zur Anwendung. Nach dem Prozess des Auslaugens kann nun in einem zweiten Schritt der in den Bakterien gespeicherte Phosphat aus der Lösung rückgewonnen werden. Durch den Einsatz der Bakterien reduziert sich die Verwendung von Chemikalien in der Recyclingphase auf ein Minimum.

Vom Rezyklat zum Düngemittel
In einem dritten Schritt wird nun mit Hilfe eines von der Firma ICL Fertilizers Deutschland GmbH optimierten physikalisch-chemischen Verfahrens aus dem Phosphorrezyklat ein für die Landwirtschaft effizientes und breit einsetzbares Düngemittel hergestellt. Die Düngewirksamkeit des Rückgewinnungsproduktes konnte bereits in vorangegangenen Untersuchungen belegt werden. Nun soll das Verfahren in den Industriemaßstab überführt werden. Dabei wird unter Beachtung des Düngemittelrechts ein besonderes Augenmerk auf die chemischen sowie physikalischen Eigenschaften des Düngemittels gelegt. Die Wiederverwendung der aus dem Prozess entstehenden Reststoffe gilt es dabei zu gewährleisten. Ziel ist, nicht nur ökologisch unbedenkliche Entsorgungsmöglichkeiten für die gelaugte Asche und die abgetrennten Schwermetalle zu finden, sondern aus den Reststoffen so weit wie möglich marktfähige Produkte zu entwickeln.

Die Projektpartner
Die Firma Fritzmeier Umwelttechnik GmbH unterstützt das Forschungsprojekt nicht nur durch das von ihnen entwickelte P-Bac-Verfahren, sondern begleitet das gesamte Vorhaben mit seiner Expertise im Bereich Bioleaching. Mit der ICL Fertilizers Deutschland GmbH ist ein führender Hersteller aus dem Bereich der Düngemittelindustrie als kompetenter Projektpartner gewonnen worden. Er verfügt über das nötige Know-how auf dem Gebiet der Düngemittelherstellung und -vermarktung. Die Fraunhofer-Projektgruppe für Wertstoffkreisläufe und Ressourcenstrategie IWKS des Fraunhofer-Instituts für Silicatforschung ISC ist neben der Projektkoordination zuständig für die Verwertung der aus den Prozessen entstehenden Reststoffe. Als assoziierter Partner ist die Münchner Stadtentwässerung beteiligt. Sie liefert die Klärschlammasche für das Forschungsprojekt.

Die Projektlaufzeit von PRiL beträgt 30 Monate. Die Förderung des Vorhabens erfolgt aus Mitteln des Bundesministeriums für Ernährung und Landwirtschaft (BMEL) aufgrund eines Beschlusses des deutschen Bundestages. Die Projektträgerschaft erfolgt über die Bundesanstalt für Landwirtschaft und Ernährung (BLE) im Rahmen des Programms zur Innovationsförderung.

Weitere Informationen:
http://www.isc.fraunhofer.de
http://www.iwks.fraunhofer.de

Quelle: idw

(nach oben)


BMWi fördert innovative Verwertungsansätze: Biogene Rest- und Abfallstoffe für mehr Strom und Wärme

Bianca Stur Presse- und Öffentlichkeitsarbeit
Deutsches Biomasseforschungszentrum

Das Bundesministerium für Wirtschaft und Energie (BMWi) investiert weitere 6 Mio. Euro in das seit 2008 laufende Förderprogramm „Energetische Biomassenutzung“. Besonderes Augenmerk der neuen Förderphase liegt auf der Verwertung von bisher ungenutzten Rest- und Abfallstoffen, da hier die Chancen innovativer Technologie- und Wertschöpfungsansätze besonders hoch sind. Bis Ende 2019 entwickeln nun 14 neue Projekte Konzepte, Verfahren und effiziente Technologien für eine nachhaltige, klimafreundliche und dabei bezahlbare Bioenergie.

Aus einer zuverlässigen, umweltschonenden und dabei ökonomisch tragfähigen Transformation des Energiesystems ist die Biomasse nicht mehr wegzudenken. Mit 88 Prozent in der Wärmeerzeugung stellt Biomasse nach wie vor die wichtigste erneuerbare Wärmequelle dar. Auch auf dem Strommarkt ist trotz der Verlangsamung des Ausbaus von Stromerzeugungs-kapazitäten im Zuge der EEG-Novelle 2014 ein leichter Anstieg zu verzeichnen. Vor dem Hintergrund der energiepolitischen Ziele der Bundesregierung, die erneuerbaren Energien weiterhin stark auszubauen und hierfür die vielfältigen Potenziale der Biomasse zu nutzen, investiert das Bundesministerium für Wirtschaft und Energie (BMWi) weitere 6 Mio. Euro in das seit 2008 laufende Förderprogramm „Energetische Biomassenutzung“.

Unter dem Dach des Förderprogramms finden sich vor allem Forschungs- und Demonstrations-vorhaben, die sich mit der kosten- und umwelteffizienten Wärme- und Stromerzeugung, Kraft-Wärme-Kopplung, Reststoffverwertung oder der Flexibilisierung und Integration bioenergetischer Anwendungen in das Gesamtsystem erneuerbarer Energien befassen.

Der Fokus der aktuell bewilligten Projekte liegt sowohl auf der Entwicklung effizienter Technologien und Prozesse als auch standortangepasster Wertschöpfungskonzepte in der Nutzung biogener Rest- und Abfallstoffe. Damit wird der Ausbau der erneuerbaren Energien vorangetrieben und perspektivisch der Ausstoß von klimaschädlichen Treibhausgasen gemindert. Insgesamt starten in der diesjährigen Förderperiode 14 Projekte mit 36 Partnern, vor allem aus Wissenschaft, Industrie (klein- und mittelständische Unternehmen) und Kommunen.

Die bunte Palette an Rest- und Abfallstoffen stammt in der aktuellen Förderrunde vom Hinterhof, über Park- und Grünflächen bis hin zu Kreuzfahrtschiffen. Das Ziel der Forscher ist die Entwicklung von ganzheitlichen Entsorgungs- und Verwertungskonzepten zur gekoppelten energetischen und stofflichen Nutzung. Ein besonderes Augenmerk wird auch auf Anwendungen gelegt, die in Kommunen effiziente Verwertungsoptionen im Abfallmanagement, hier vor allem auch im Biogasbereich eröffnen.
Zudem setzt das Förderprogramm auch einen klaren Schwerpunkt auf die Optimierung thermischer Prozesse, z. B. durch effizientere Regelungstechnik, Kraft-Wärme-Kopplung (KWK) und Brennstoffzellen. Neben der technischen Seite werden fernen auch die Entwicklungsperspektiven der Bioenergie im Wärmemarkt der Zukunft analysiert.

Mit dieser Technologie- und Forschungsförderung soll die Umsetzung vielversprechender Forschungsergebnisse in marktfähige Produkte erleichtert und die Wettbewerbsfähigkeit der Unternehmen gestärkt werden.

Die einzelnen Vorhaben zusammengefasst im Überblick:

I. NEUE ENTSORGUNGSKONZEPTE für biogene Abfälle und deren optimierte energetische Nutzung:

FKZ 03KB107 Grün-OPTI / Optimierung der Erfassung, Aufbereitung und stofflich-energetischen Verwertung von Grüngut in Deutschland
Die Potenziale von getrennt erfassbaren Garten- und Parkabfällen (Grüngut) sind deutlich größer als die tatsächlich erfasste Menge. Derzeit wird jedoch mehr als die Hälfte ohne adäquate Nutzung entsorgt. Grüngut kann jedoch durch effiziente Techniken zu hochwertigem Kompost und Brennstoff aufbereitet werden. Dadurch könnten bei den derzeitigen Erfassungsleistungen von 4,7 Mio. Mg/a CO2-Einsparungen von 3,3 Mio. Mg jährlich erzielt werden. Neben einer Analyse der Wertschöpfungskette Grüngut in Deutschland werden auch die Steigerung der Getrennterfassung und die Optimierung der Aufbereitung von Grüngut untersucht.
Partner: Witzenhausen-Institut für Abfall, Umwelt und Energie GmbH

FKZ 03KB108 Bio-DYN / Hemmnisanalyse für den dynamisierten Ausbau der Vergärung kommunalen Bioguts in Deutschland
Die energetisch-stoffliche Kaskadennutzung biogener Abfälle ist besonders effizient. Trotz des bekundeten Willens sowohl das stoffliche als auch das energetische Potenzial biogener Abfälle zu nutzen, werden derzeit kaum neue Anlagen zur Vergärung von Biogut umgesetzt und bestehende Anlagen nicht flexibilisiert. Dies obwohl erst ca. 20 % des erfassten Bioguts vergoren werden und gleichzeitig eine Ausweitung der Erfassung von Biogut erfolgt. Das Projekt Bio-DYN untersucht die Hemmnisse für (bisher) nicht umgesetzte Anlagenprojekte und vergleicht diese mit den Erfahrungen umgesetzter Projekte. Die Ergebnisse sollen zu einer realitätsnahen Bewertung der Hemmnisse und Konzepte in der Politik und Branche beitragen.
Partner: Witzenhausen-Institut für Abfall, Umwelt und Energie GmbH, Ingenieurgemeinschaft IGLux – Witzenhausen GmbH

FKZ 03KB119 WAS2E / Waste and Sludge to Energy – Entsorgungskonzept für Schiffsabfälle internationaler Herkunft
Ziel des Projektes ist es, ein Verfahren zu entwickeln, dass es ermöglicht Schiffsabfälle und -abwasser, vor allem aus dem Kreuzfahrtbereich, anaerob zur Energieerzeugung zu nutzen. Die Einhaltung der rechtlichen Rahmenbedingungen, insbesondere der Hygieneanforderungen, spielt dabei eine besondere Rolle. Die derzeit bestehenden Entsorgungskosten und negative Umwelteffekte sollen reduziert werden. Im Moment werden die zentral anfallenden Abfallstoffe meist in die Meere geleitet. Ursache sind fehlende Technologien und der gesetzte rechtliche Rahmen. Neben der anaeroben Behandlung werden Verfahren untersucht, mit denen der entstandene Gärrest einerseits verwertet und andererseits hygienisiert werden kann. Die hydrothermale Karbonisierung und die Pyrolyse stehen hier im Fokus.
Partner: Innovations- und Bildungszentrum Hohen Luckow e. V., ROSOMA – Sondermaschinen- und Anlagenbau GmbH, LMS Agrarberatung GmbH

FKZ 03KB116 STEP / Praxisnahe Erprobung einer Verfahrenskette für die gemeinsame energetische und stoffliche Verwertung strohbasierter Energiepellets und Geflügelmist in Biogasanlagen mit wärmeautarker Prozesswasseraufbereitung und Gärrestnutzung
Innerhalb des Verbundprojektes STEP werden wichtige Erkenntnisse aus bereits abgeschlossenen Vorlaufprojekten zur Vergärung alternativer Substrate (Stroh + Geflügelmist) sowie zur sauberen Verbrennung von Gärrückständen in einem größeren Maßstab demonstriert und weiter optimiert. Zielsetzung ist zum einen der Nachweis der Praxistauglichkeit von strohbasierten Energiepellets in einer großtechnischen Biogasanlage und zum anderen die weitere Verbesserung der Energiebilanz bei der gezielten Aufbereitung von Gärresten zu Wertstoffen und Prozesswasser. Weiterhin soll neben der Erzeugung von Düngeprodukten ein Brennstoff aus Gärresten erzeugt werden, welcher hinsichtlich seiner Verbrennungseigenschaften für eine direkte Nutzung in Heizkesseln geeignet ist. Zur weiteren Verbesserung der thermischen Gärrestnutzung wird die Verbrennungsstrecke in praktisch relevanten Heizkesseln hinsichtlich der Emissionsminimierung optimiert. Am Ende des Projektes stehen Auslegungsparameter für die gesamte Verfahrenskette für eine großtechnische Umsetzung zur Verfügung.
Partner: Fraunhofer IKTS, DBFZ Deutsches Biomasseforschungszentrum gGmbH, Rückert NatUrgas GmbH, GM Biogas GmbH & Co. KG, ATS – Agro Trading & Solutions GmbH, A.P. Bioenergietechnik GmbH, REGEB Energieerzeugung und -verteilung Bersenbrück GmbH & Co. KG

II. KOMMUNALE KONZEPTE zur Optimierung der energetischen Verwertung von biogenen Abfall- und Reststoffen:

FKZ 03KB110 Hybridkläranlage / Anlagenkonzept zum energieautarken Betrieb von kommunalen Kläranlagen
Die Hybridkläranlage macht die energetische Nutzung von Faulschlamm für kleine Gemeinden unter 10.000 EW dank des innovativen Konzepts der Verflüssigung ungenutzter, biogener Reststoffe wirtschaftlich. Der Betrieb eines eigenen Faulturms zur regenerativen Energiegewinnung und der energieautarke Betrieb wird so für Klärwerke der Größenklasse 1, 2 und 3 realisierbar.
Es ist geplant, kommunale Kläranlagen im Demonstrationsverfahren durch einen „Modularen Feststoff-Hydrolysator“ sowie einem integrierten chemischen Energiespeicher im low tec Verfahren aufzurüsten. Dazu sollen die in den Gemeinden kostengünstig zur Verfügung stehenden biogene Rest- und Abfallstoffe wie Grasschnitt, Bioabfall oder Laub mit einem speziellen Verfahren zu Biogas umgewandelt und zusammen mit dem Faulgas kann so zusätzliches und wesentlich hochwertigeres Klärgas mit einem CH4-Gehalt von >80 % und einem Energieäquivalent von bis zu 250 kW zur Stromproduktion erzeugt werden.
Partner: Bio H2 Umwelt GmbH, Zweckverband Wasser und Abwasser Orla; Pößneck

FKZ 03KB117 BioAuto / Optimierung der thermischen Biomassenutzung durch Autoklavierung
Im Projekt werden Biomassereststoffe durch Autoklavieren der Feinfraktion zu einem lagerfähigen und flexibel einsetzbaren biogenen Festbrennstoff verarbeitet. Potenziale werden ermittelt und das innovative Verfahren in ein integriertes kommunales Konzept eingepasst. Dazu sollen insbesondere Grünschnitt, Laub und weitere biogene Stoffströme, die im derzeitigen Stoffstrommanagement der Stadtreinigung Hamburg (SRH) nicht oder nur eingeschränkt (d. h. ineffizient) energetisch genutzt werden, als Einsatzstoffe untersucht werden. Ziel der Autoklavierung ist es, aus den entsprechenden Stoffströmen Schad- und Störstoffe abzutrennen und einen entwässerten und damit lagerfähigen, höherwertigen biogenen Festbrennstoff zu erzeugen. Geplant ist eine Demonstrationsanlage zur Autoklavierung von max. 1 Mg/h, die am Standort einer Abfallbehandlungsanlage der SRH installiert werden soll.
Partner: TU Hamburg, ETH Umwelttechnik GmbH

FKZ 03KB111 SET-Laub / Systematische Ermittlung von Emissionsdaten bei der thermischen Umsetzung unterschiedlicher Laubfraktionen
Laub wird auf kommunaler Ebene im Zuge der Straßenreinigung, der Parkpflege und Bioabfallsammlung erfasst und meist kompostiert oder mit geringer Methanausbeute vergärt. Thermische Verfahren könnten die organische Substanz fast vollständig ausnutzen. Der Einfluss der Laub(mit)verbrennung auf die Emissionen wurde bisher jedoch nicht systematisch untersucht. Aus diesem Grund sollen im vorliegenden Forschungsvorhaben unter der Einhaltung der Anforderungen an die Feuerungsanlagen gemäß 4. BImSchV und TA Luft unterschiedliche Laubfraktionen in Mischungsanteilen mit einem konventionellen, holzartigen Brennstoff in einer bereits vorhandenen Verbrennungsanlage (400 kW) thermisch untersucht und ihre Eignung zur energetischen Nutzung demonstriert werden.
Partner: Fraunhofer UMSICHT, Netz Ingenieurbüro GmbH

III. OPTIMIERUNG DER THERMISCHEN NUTZUNG von Biomasse durch Regelungstechnik, KWK und Brennstoffzelle:

FKZ 03KB109 Kombinationssystem / Intelligentes Kombinationssystem zur regelungstechnischen Optimierung der Verbrennung und zur Vermeidung der Fehlbedingung in Biomasseheizkesseln durch den Einsatz modernster Sensorik
Ziel des Projektes ist die Entwicklung eines innovativen Systems für die regelungstechnische Optimierung der Verbrennung, sowie für die rechtzeitige Erkennung der Fehlbedingung von Biomasseheizkesseln durch den Einsatz von einer neuen Sensorik zur Identifizierung von ungünstigen Betriebszuständen während der Verbrennung. Dieses Kombinationssystem soll im Technikum des Fraunhofer IBP entwickelt und in der Praxis an einem realen Biomasseheizkessel getestet und dauererprobt werden. Mit dieser Sensorik soll eine hohe Betriebszuverlässigkeit aufgrund von Fehlervermeidung durch den Bediener und eine verbesserte Wirtschaftlichkeit entstehen, sowie der Stand der Technik und die Effizienz der Biomasseheizkessel ohne großen technischen Aufwand angehoben werden. Ferner wird aufgrund der Reduzierung des Biomasseverbrauchs eine signifikante Schadstoffminderung in Wohngebieten erzielt (z. B. CO2, CO, PAKs, und VOCs).
Partner: Fraunhofer-Institut für Bauphysik IBP, HDG Bavaria GmbH, LAMTEC Mess- und Regeltechnik für Feuerungen GmbH & Co. KG

FKZ 03KB118 Dampf-KWK / Entwicklung eines Klein-KWK-Dampfmotors zur Nachrüstung von Feuerungsanlagen im mittleren Leistungsbereich
Kraftwärmekopplungsanlagen weisen in der Nutzung von Biomasse einen sehr hohen Gesamtwirkungsgrad auf. Ziel des Projekts ist es, Erkenntnisse zur Übertragung von etablierten KWK-Technologien im Leistungsbereich von 10-30 kWel auf Feuerungen mit biogenen Festbrennstoffen zu gewinnen, wobei der Fokus auf der Lösung typischer technischer Probleme (z. B. Wärmeübertrager) und der Verbesserung der Gesamteffizienz liegt. Durch Aufbau und Betrieb einer Demonstrationsanlage soll die Praxistauglichkeit der gewonnenen Erkenntnisse nachgewiesen werden.
Partner: DBFZ Deutsches Biomasseforschungszentrum gGmbH, Burkhardt GmbH

FKZ 03KB112 FlexSOFC / Verwertung biogener Schwachgase schwankender Qualität in Hochtemperaturbrennstoffzellen (SOFC)
Eine Verstromung von Holzgas kann beim Einsatz von minderwertigen Brennstoffen zum Problem werden, weil die Gasqualität Schwankungen unterworfen ist. Eine Umsetzung dieser Gase könnte ohne Zwischenabkühlung in Hochtemperaturbrennstoffzellen (SOFCs) realisiert werden, wenn eine geeignete Regelung der SOFC-Module entwickelt wird. In ein existierendes 1 kWel Brennstoffzellen-heizgerät wird dazu ein Wechselrichter mit Onlinediagnostik integriert. Nach Inbetriebnahme im Labor der FAU wird das optimierte System an einer realen Holzvergasungsanlage der Fa. Spanner flexibel betrieben und mit Brennstoffen unterschiedlicher Qualität demonstriert.
Partner: Friedrich-Alexander-Universität Erlangen-Nürnberg, NOVUM Engineering GmbH

IV. MESSVERFAHREN zur Prozesssteuerung in Biogasanlagen:

FKZ 03KB120 LaserSize / Laserrückreflexions-basierte Analyse der Größenverteilung von Partikeln zur Ultraschall-gestützten Optimierung der Flüssigphase in Gärprozessen
Im Projekt wird ein neuartiges Verfahren zur Messung der Größenverteilung von Partikeln adaptiert, um die Aufbereitung von Substraten sowie der Vorbereitung und Behandlung in der Flüssigphase des Biogasprozesses zu optimieren. Die Lösung soll einfach in Bestandsanlagen integrierbar sein und Online-Messung autark auswertbar sein. Durch die Maßnahmen wird eine Erhöhung der Substratflexibilität und Anlageneffizienz angestrebt. Die Methodik wird exemplarisch an drei unterschiedlichen Praxisanlagen getestet.
Partner: Technische Universität Berlin, Sequip GmbH, Devad GmbH

FKZ 03KB115 OptiMand / Optimierter Einsatz von Mühlennachprodukten zur bedarfsgerechten Bioenergieproduktion durch innovative Überwachungs-, Mess- und Regelungsmethoden
Im Projekt soll die biogene Reststoffnutzung und Prozessflexibilisierung zur bedarfsgerechten Energieproduktion innerhalb eines flexiblen Hochlastvergärungsprozesses miteinander verbunden werden. Für die flexible Biogasproduktion auf Basis von Getreideabfällen und Mühlennachprodukten wir eine modellgestützte Prozessregelung weiterentwickelt und im Anlagenmaßstab erprobt. Neben herkömmlichen Prozessanalysedaten ist geplant dafür Onlinesensoren zur Erfassung flüchtiger organischer Säuren im Gasstrom sowie im Gärmedium (Halbleitersensor und mikrobielle elektrochemische Sensorplattform) einzubinden.
Partner: DBFZ Deutsches Biomasseforschungszentrum gGmbH, ICR – International Consulting Bureaux, S+B Service und Betrieb GmbH

V. STRATEGIEVORHABEN – Zukünftige Rolle der Bioenergie:

FKZ 03KB114 Bio-Strom-Wärme / Rolle der Bioenergie im Strom- und Wärmemarkt bis 2050 unter Einbeziehung des zukünftigen Gebäudebestandes
Das Ziel des Projekts besteht darin, die Rolle der energetischen Nutzung von Biomasse im Strom- und Wärmemarkt in Deutschland von 2020 bis 2050 modellgestützt zu analysieren. Die Szenarienanalyse berücksichtigt sowohl verschiedene Annahmen bzgl. des für den Strom- und Wärmemarkt zur Verfügung stehenden Angebots an Bioenergie als auch die Entwicklung von Heizungssystemen und des Wärmeschutzstandards im Gebäudebestand. Es werden Vor- und Nachteile verschiedener Einsatzpfade für die Bioenergie hinsichtlich Effizienz und Klimaschutzwirkung herausgearbeitet.
Partner: Öko-Institut e. V. Institut für angewandte Ökologie

FKZ 03KB113 BioplanW / Systemlösungen Bioenergie im Wärmesektor im Kontext zukünftiger Entwicklungen
Mit dem Projekt werden – unter umfassender Berücksichtigung der politischen Zielstellungen im Wärmebereich sowie von vorliegenden Biomassepotenzialabschätzungen, Energieszenarien und Technologieinformationen – die Entwicklungsperspektiven der Wärmeerzeugung aus Biomasse systematisch abgeschätzt. Dabei werden zum einen die gegenwärtig in der Entwicklung befindlichen Technologiekonzepte systematisiert und zum anderen ihre Wettbewerbsfähigkeit in verschiedenen Teilmärkten simuliert und die damit verbundenen Auswirkungen auf den Gesamtbeitrag zur Energieversorgung, den Klimaschutzbeitrag und die Effekte auf die Landnutzung bewertet und diskutiert.
Partner: DBFZ Deutsches Biomasseforschungszentrum gGmbH, Helmholtz-Zentrum für Umweltforschung GmbH – UFZ, Universität Kassel

Das Förderprogramm
Im Juni 2008 startete das Förderprogramm „Energetische Biomassenutzung“. Das Programm wird vom Bundesministerium für Wirtschaft und Energie (BMWi) gefördert und war bisher mit rund 52 Millionen Euro ausgestattet. Nach fast achtjähriger Laufzeit umfasst das Programm 115 Verbundprojekte bzw. 300 Einzelprojekte, die zum Thema Biomasse als Energieträger forschen. Im Fokus stehen insbesondere Forschungs- und Entwicklungsprojekte zur praxistauglichen Weiterentwicklung wettbewerbsfähiger Technologien, insbesondere in den Bereichen Verbrennung, Vergasung und Vergärung von Biomasse. Weitere Forschungsschwerpunkte sind systemflexible Anlagenkonzepte und Produkte für eine nachhaltige und effiziente Erzeugung von Strom und Wärme aus Biomasse, hier vor allem aus biogenen Rest- und Abfallstoffen. Fördermittelempfänger sind klassische Forschungseinrichtungen, aber vor allem auch klein- und mittelständische Unternehmen, die die Markteinführung bestimmter Technologien anstreben. Insgesamt sind seit 2009 rund 200 Institutionen im Programm beteiligt, davon über 90 KMUs. Die Programmbegleitung, angesiedelt am DBFZ Deutsches Biomasseforschungszentrum gGmbH, ist für die wissenschaftliche Begleitung und Öffentlichkeitsarbeit des Förderprogramms zuständig. Mit der fachlichen und administrativen Koordination desselben wurde der Projektträger Jülich (PtJ) beauftragt.

Kontakt
Projektträger Jülich (PtJ)
Lena Panning
Telefon: +49 (0) 30 20199-3132
E-Mail: l.panning@fz-juelich.de

Programmbegleitung des Förderprogramms
„Energetische Biomassenutzung“
Diana Pfeiffer – Projektkoordination
Telefon: +49 (0) 341 2434-554
E-Mail: diana.pfeiffer@dbfz.de

Bianca Stur – Öffentlichkeitsarbeit
Telefon: +49 (0) 341 2434-439
E-Mail: bianca.stur@dbfz.de

Weitere Informationen:
http://energetische-biomassenutzung.de Programmportal des Förderprogramms
http://energetische-biomassenutzung.de/de/vorhaben.html Informationen über die aktuellen Projekte im Förderprogramm
http://ptj.de/bioenergie Informationen des PtJ zur Förderbekanntmachung sowie Hinweise zum Antragsprozedere
http://foerderportal.bund.de/easyonline Skizzeneinreichung mit dem easy-Online-Tool

Quelle: idw

(nach oben)


Geothermie: Den Sommer im Winter ernten

Monika Landgraf Presse, Kommunikation und Marketing
Karlsruher Institut für Technologie

Abwärme im Boden zwischenspeichern und zu einem späteren Zeitpunkt wieder abrufen: So lautet das Ziel des Projekts GeoSpeicher.bw, das das Karlsruher Institut für Technologie (KIT) koordiniert. Ganz konkrete Projekte wie die Nutzung der Abwärme eines Schwimmbads, die Kälte- und Wärmeversorgung eines Klinikums oder auch für das Elefantenhaus der Wilhelma in Stuttgart stehen auf dem Plan. Das Umweltministerium Baden-Württembergs bewilligte rund 880.000 Euro, um an acht Standorten das Potenzial der geothermischen Wärmespeicherung wissenschaftlich zu bewerten.

Das Speichern von sommerlicher Wärme oder der Abwärme von Industrieanlagen in unterirdischen, wasserführenden Schichten – in sogenannten Aquiferen – ist beispielsweise in den Niederlanden weit verbreitet. An über 1.800 Standorten verwirklichte das Nachbarland bereits diese Technologie. In Deutschland gibt es bisher nur drei Standorte mit geothermischer Energiespeicherung in Grundwasserleitern. Prominentestes Beispiel ist das Reichstagsgebäude in Berlin, welches über mehrere Aquiferspeicher mit Wärme im Winter und Kälte im Sommer versorgt wird. Hamburg plant zurzeit einen enormen Aquiferwärmespeicher, der in Zukunft über eine Viertelmillionen Haushalte und Gewerbebetriebe warm durch den Winter bringen soll. „In Baden-Württemberg gibt es bis zum heutigen Zeitpunkt keinen Aquiferspeicher, obwohl der Untergrund in zahlreichen Gebieten gut bis sehr gut zur Energiespeicherung geeignet ist“, stellt Professor Philipp Blum vom Institut für Angewandte Geowissenschaften des KIT fest.

Aquiferspeicher sind wasserführende Schichten im Untergrund, in denen das Wasser nicht oder kaum fließt – die Wärme also nicht abtransportiert wird. Sie werden durch Bohrungen erschlossen, um mit der Abwärme von Industrieanlagen oder Solarwärme das Wasser im Untergrund aufzuheizen. Das umgebende Gestein wirkt dabei als Isolator. Die eingespeicherte Wärme kann dann über Wärmetauscher bei Bedarf, also zum Beispiel im Winter, wieder abgerufen werden.

Ein solches System ist für die anfallende überschüssige Wärme eines großen Schwimm- und Erlebnisbads in Hockenheim geplant. Die Kellerräume sind hier aufgrund des Wärmenetzes sowie der Abwärme technischer Anlagen ganzjährig auf über 30 Grad Celsius aufgeheizt. Diese überschüssige Wärme soll nun während der Sommermonate in einem Grundwasserleiter gespeichert werden, um dann im Winter wieder zur Verfügung zu stehen. Wissenschaftler des KIT begleiten das Vorhaben und entwickeln ein maßgeschneidertes und innovatives Monitoring- und Speicherkonzept.

Aber auch Abwasserkanäle oder Tunnelsysteme eignen sich als Wärme- oder Kältespeicher. „Die sogenannte Tunnelgeothermie zur Heizung, Kühlung und Wärmespeicherung ist für das zukünftige Elefantenhaus der Wilhelma in Stuttgart geplant“, erläutert Blum, Koordinator des Forschungsvorhabens GeoSpeicher.bw. „Das neue Stadtmuseum Stuttgart wird zukünftig dank Abwasserwärme und -kälte energieeffizient aufgestellt sein“, führt Blum weiter aus. Im Rahmen von Promotionsarbeiten wird hierbei unter anderem die Einbindung von röhrenförmigen Erdwärmeabsorbern in ein Wärme-Smart-Grid untersucht oder auch die Systemintegration geothermischer Anlagen in ein bestehendes Gebäude- und Energiekonzept.

Insgesamt acht Geothermie-Projekte in Baden-Württemberg werden in den kommenden drei Jahren unter Federführung des KIT wissenschaftlich ausgewertet und begleitet. Die Themen erstrecken sich von innovativen Monitoring- und Speicherkonzepten, detaillierten Wärmetransport-Modellen, Untersuchungen zur Hydrogeochemie, weitreichenden System- und Optimierungsanalysen bis hin zu maßgeschneiderten Kommunikations-Strategien. Regelmäßige Workshops, Tagungen und Fortbildungen stellen einen regen Gedankenaustausch auch über die Institutsgrenzen sicher. Sieben Doktoranden sowohl aus den Reihen des KIT sowie den Universitäten Heidelberg und Stuttgart sowie den Hochschulen Biberach und Offenburg engagieren sich in den verschiedenen Vorhaben. Blum betont: „Eine fachübergreifende Doktorandenschule stellt hierbei sicher, dass Gebäudetechniker, Ingenieure, Geologen und Entscheidungsträger voneinander lernen. Hierfür laden wir zum Beispiel auch Experten aus den Niederlanden ein, um so starke Kompetenzen in dieser zukunftsweisenden Technologie in Deutschland aufzubauen.“

Philipp Blum skizziert das Ziel: „Gemeinsam mit den Stadtwerken möchten wir greifbare Demo- und Beispielprojekte mit einer breiten Öffentlichkeitswirkung schaffen. Deshalb sind Fachleute der Stadtwerke Hockenheim, Biberach, Überlingen, Bad Waldsee sowie Stuttgart von Anfang an eng in die Arbeiten mit eingebunden.“

Im Projekt GeoSpeicher.bw arbeiten Wissenschaftler des Karlsruher Instituts für Technologie mit Kollegen der Universitäten Heidelberg und Stuttgart sowie der Hochschulen Biberach und Offenburg zusammen.

Weiterer Kontakt:
Kosta Schinarakis, Themenscout, Tel.: +49 721 608 41956, Fax: +49 721 608 43658, E-Mail: schinarakis@kit.edu

Das Karlsruher Institut für Technologie (KIT) verbindet seine drei Kernaufgaben Forschung, Lehre und Innovation zu einer Mission. Mit rund 9 300 Mitarbeiterinnen und Mitarbeitern sowie 25 000 Studierenden ist das KIT eine der großen natur- und ingenieurwissenschaftlichen Forschungs- und Lehreinrichtungen Europas.

KIT – Die Forschungsuniversität in der Helmholtz-Gemeinschaft
Das KIT ist seit 2010 als familiengerechte Hochschule zertifiziert.
Diese Presseinformation ist im Internet abrufbar unter: www.kit.edu

Anhang
Geothermie: Den Sommer im Winter ernten
https://idw-online.de/de/attachment56277

Quelle: idw

(nach oben)


Löschwasser mobil und kosteneffizient reinigen

Dipl.-Chem. Iris Kumpmann Abteilung Public Relations
Fraunhofer-Institut für Umwelt-, Sicherheits- und Energietechnik UMSICHT

Um bei Großbränden von Kraftstoffen und Lösemitteln beispielsweise auf Flug- und Binnenhäfen, in Raffinerien oder in Lagereinrichtungen der Industrie effektiv löschen zu können, ist der Einsatz von Schaumlöschmitteln mit per- und polyfluorierten Chemikalien (PFC) unerlässlich. Doch Fluor-Kohlenstoff-Verbindungen (PFC) sind in der Natur kaum oder nur sehr schlecht abbaubar, z. T. toxisch. Sie schädigen deshalb die Umwelt, wenn sie nicht frühzeitig aus dem Löschwasser entfernt werden. Daher müssen PFC-haltige Löschwässer aufgefangen und anschließend aufbereitet oder fachgerecht entsorgt werden.

Etablierte Verfahrensweisen sind jedoch nicht spezifisch und sehr kostenintensiv. Deshalb entwickeln Fraunhofer UMSICHT und die Cornelsen Umwelttechnologie GmbH in einem zweijährigen Verbundprojekt ein neues Verfahren, mit dem sich PFC effektiv und kostengünstig noch am Einsatzort aus dem anfallenden Löschwasser eliminieren lassen. Dieses Verfahren basiert auf einer bestehenden Gemeinschaftsentwicklung zur Aufreinigung von PFC-belastetem Grundwasser und kombiniert die Aktivkohle-Adsorption mit einer vorgeschalteten Reinigungsstufe.

Weniger Prozessmittel, weniger Kosten
In dieser Vorbehandlung wird dem verunreinigten Wasser die Additivlösung »PerfluorAd®« zugegeben, die ein Ausfällen der gelösten PFC-Verbindungen bewirkt. Dadurch müssen weniger Prozessmittel eingesetzt und weniger PFC-kontaminierter Sonderabfall entsorgt werden. Dies führt insbesondere bei der Löschwasser-Aufbereitung mit sehr hoher PFC-Belastung zu erheblichen Kostenreduzierungen gegenüber herkömmlichen Methoden. Das »PerfluorAd®« -Verfahren vereinigt noch weitere positive Aspekte: Die spezifischen Fällungsmittel werden aus dem Bereich der grünen Chemikalien ausgewählt – das heißt unter anderem: Sie basieren auf natürlichen Rohstoffen, stellen keine Gefahr für Mensch und Umwelt dar und werden nach der Nutzung natürlich abgebaut. Zudem lässt sich das Verfahren auf die Entfernung weiterer, polar persistenter Umweltschadstoffe übertragen wie beispielsweise bestimmte Arzneimittelrückstände im Abwasser. Es kann somit künftig einen wichtigen Beitrag für die Lösung anderer umweltrelevanter Herausforderungen liefern.

Tests in mobiler Pilotanlage geplant
Während des jetzt gestarteten Vorhabens entwickelt Fraunhofer UMSICHT die auf ein reales Löschwasser angepassten Prozess-Chemikalien, erprobt diese im Labormaßstab und stellt geeignete Methoden zur Prozessanalytik bereit. Wenn die Forscher die wirksamste Verfahrensvariante im Labor ermittelt haben, wird das Kombinationsverfahren in der bei der Cornelsen Umwelttechnologie GmbH aufgebauten, mobilen Pilotanlage getestet. Im Anschluss stellt das Team von Fraunhofer UMSICHT im Zuge einer Nachhaltigkeitsbewertung die neue Behandlungsmethode den klassischen PFC-Aufbereitungsprozessen wie zum Beispiel einer reinen Aktivkohle-Adsorption gegenüber. Die ökonomische Bewertung des vollständigen Prozesses erfolgt durch die Cornelsen Umwelttechnologie GmbH.

Projektziel ist es, eine sowohl energie- und ressourceneffiziente als auch kostenoptimierte Aufbereitungsmethode für die Praxis zu entwickeln. Zu den potenziellen Nutzern des neuen Verfahrens gehören Feuerwehren, Versicherungen und Entsorger beziehungsweise Unternehmen, die von einem akuten Brandereignis betroffen sind. Die Cornelsen Umwelttechnologie GmbH wird zukünftig die Löschwasser-Behandlungsanlagen planen, bauen und betreiben.

Förderhinweis: Das Verbundprojekt wird vom Bundesministerium für Bildung und Forschung (BMBF) gefördert. Es ist Teil der BMBF-Fördermaßnahme »KMU-Innovativ: Ressourcen- und Energieeffizienz« im Technologie- und Anwendungsbereich »Nachhaltiges Wassermanagement«.

Quelle: idw

(nach oben)


Grüne Dächer binden Feinstaub, produzieren Frischluft und sind schön anzusehen

Sarah Blaß Pressestelle
Frankfurt University of Applied Sciences

Erstes intelligentes Gründachkataster Deutschlands von Prof. Dr. Martina Klärle an der Frankfurt UAS für Stadt Marburg entwickelt

Eignet sich das eigene Haus für eine Dachbegrünung? Was bringt es für das städtische Klima? Das erste intelligente Gründachkataster Deutschlands betrachtet nicht nur die allgemeine Eignung eines Dachs für die Bepflanzung, sondern macht auch Angaben zur Feinstaubabsorption, CO2-Bindung und Frischluftproduktion. Es gibt zudem Pflanzempfehlungen für den jeweiligen Standort in Abhängigkeit von Dachneigung, Besonnung und Substrathöhe. Auch Vorlieben zu den Pflanzen wie die Farbe können berücksichtigt werden.

Das Gründachkataster für die Stadt Marburg wurde Ende 2016 von Prof. Dr. Martina Klärle, Professorin für Landmanagement an der Frankfurt University of Applied Sciences (Frankfurt UAS), zusammen mit Dr. Franz Kahle, Bürgermeister der Stadt Marburg, im Marburger Rathaus vorgestellt.

Das intelligente Gründachkataster zeigt virtuell die Vorteile von begrünten Dächern für die Bürgerinnen und Bürger auf. So verringert sich bei einem bepflanzten Dach die Abwassermenge bei Regen, da bis zu 80 Prozent des Jahresniederschlags dort zurückgehalten werden kann. Dadurch werden Abwassergebühren eingespart und Kanalsysteme bei Starkniederschlägen weniger stark belastet. Der Pflanzenbewuchs im Stadtgebiet reduziert außerdem den Gehalt von C02 und Feinstaub in der Luft – ein wichtiges Element von Anpassungsstrategien der Ballungsräume an den Klimawandel. „Vor allem für Großstädte in Kessellage wie z.B. Stuttgart sind Frischluftproduktion und Vermeidung von Überhitzung von herausragender Bedeutung – auch für die Gesundheit der Einwohner“, wirbt Klärle für die Einführung des Gründachkatasters auch in anderen deutschen Städten.

Zu den weiteren Vorteilen zählt die Steigerung der biologischen Vielfalt in der Stadt. Bepflanzte Dächer können von Vögeln und Insekten als Aufenthaltsort genutzt werden, die in eng bebauten Stadtgebieten sonst nur wenige Rückzugsgebiete vorfinden. Ein Dachgarten ist auch ein idealer Ort für Urban Gardening (Urbanen Gartenbau) und kann den Bewohnern des Hauses als Ort der Erholung dienen. „Eine Dachbegrünung lässt sich auch sehr gut mit einer Photovoltaikanlage kombinieren. Im Gegensatz zu Ziegel-, Kies- oder Metalldächern wirkt ein bepflanztes Dach kühlend und kann damit den Wirkungsgrad einer Photovoltaikanlage erhöhen“, beschreibt Klärle mögliche Synergieeffekte einer Dachbegrünung. Deshalb wurde das Gründachkataster in Marburg auch mit dem – ebenfalls von Klärle entwickelten – Solarkataster kombiniert. Durch die Verwendung der gleichen Datengrundlagen – Laserscanner-Daten, Luftbilder, amtliche Geobasisdaten, Liegenschaftskarte – werden hier Synergien geschaffen.

Marburgs Bürgermeister Kahle sieht den Nutzen des Gründachkatasters für die Bürgerinnen und Bürger seiner Stadt nicht nur im Klima- und Naturschutz: „Nicht allen ist bewusst, wie viele Vorteile eine Dachbegrünung wirklich hat. Das Gebäude wird auch optisch aufgewertet und kann als Ersatz oder Ergänzung für den Garten genutzt werden.“ Es ist das erste intelligente System dieser Art und mit diesen Funktionen in Deutschland: „Auch andere Städte haben farblich markierte Luftaufnahmen, mit denen die Eignung für eine Begrünung festgestellt werden kann. Das Marburger Kataster erkennt aber auch anhand der Neigung, Ausrichtung, Verschattung sowie Art des Daches, welche Gewächse am besten angepflanzt werden können, wie viel Abwasser eingespart werden kann und ob sich eine Photovoltaikanlage lohnt“, erklärt Klärle. „Zudem wird die potenzielle CO2-Absorption und der gebundene Feinstaub bei einer Dachbegrünung errechnet.“ Diese Berechnungen können auf der interaktiven Karte des Katasters für jede Dachfläche Marburgs durchgeführt werden. Die Bürgerinnen und Bürger können so feststellen, ob eine Begrünung des eigenen Dachs prinzipiell Sinn ergäbe; eine individuelle Analyse des Dachs zur Berechnung der Statik und der Lastreserven kann dadurch aber nicht ersetzt werden. Weitere Informationen zum Gründachkataster: http://www.marburg.de/gruendachkataster.

Klärle ist Geodätin und Umweltwissenschaftlerin und leitete bereits eine Reihe von Forschungsprojekten an der Schnittstelle zwischen Big Data und Umwelt. Sie beschäftigt sich seit etlichen Jahren vorrangig mit der Berechnung von Erneuerbaren Energiepotenzialen. Zu ihren bekannten Forschungsprojekten zählen neben dem Solardachkataster „SUN-AREA“, das eine Methode anwendet, bei der auf Basis von Geodaten vollautomatisch alle Dachflächen ermittelt werden, die für die Gewinnung von Solarenergie optimal geeignet sind, auch „ERNEUERBAR KOMM!“ zur ganzheitlichen Potenzialanalyse von Erneuerbaren Energien und die automatisierte Windpotenzialanalyse für Kleinwindanlagen „WIND-AREA“. 2015 war sie mit dem Projekt „WIND-AREA“ unter den drei Finalisten des Deutschen Nachhaltigkeitspreises Forschung, der vom Bundesministerium für Bildung und Forschung (BMBF) ausgeschrieben wird.

Prof. Dr. Martina Klärle war vom 1. September 2013 bis zum 31. August 2016 Dekanin des Fachbereichs Architektur, Bauingenieurwesen, Geomatik und ist weiterhin Geschäftsführende Direktorin des Frankfurter Forschungsinstituts für Architektur, Bauingenieurwesen, Geomatik (FFin) und Direktoriumsmitglied des Center for Applied European Studies (CAES) der Frankfurt UAS. Mehr zur Person Martina Klärle: http://www.frankfurt-university.de/?2100.

Kontakt: Frankfurt University of Applied Sciences, Fachbereich 1: Architektur • Bauingenieurwesen • Geomatik, Prof. Dr. Martina Klärle, Telefon: 069/1533-2778, E-Mail: martina.klaerle@fb1.fra-uas.de

Weitere Informationen:
http://www.marburg.de/gruendachkataster
http://www.frankfurt-university.de/?2100

Quelle: idw

(nach oben)


UDE: MULTI-ReUse – Neues Forschungsprojekt zur Abwassernutzung

Beate Kostka M.A. Ressort Presse – Stabsstelle des Rektorats
Universität Duisburg-Essen

Gereinigtes Abwasser immer wieder einzusetzen, statt es wie bisher in den Fluss einzuleiten, ist Ziel des Forschungsprojekts MULTI-ReUse am Mülheimer IWW Zentrum Wasser, einem An-Institut der Universität Duisburg-Essen (UDE).

Im Mittelpunkt steht ein modulares Abwasseraufbereitungssystem, um Brauchwasser in unterschiedlichen Qualitäten und wechselnden Mengen zu konkurrenzfähigen Preisen anbieten zu können. Das Vorhaben wird in den nächsten drei Jahren vom Bundesforschungsministerium (BMBF) gefördert.

Gereinigtes Abwasser kann zwar problemlos in Flüsse eingeleitet werden, allerdings sind dann die Einsatzbereiche eingeschränkt. Genau hier setzt das MULTI-ReUse-Projekt an. „Es hat dann zwar nicht unbedingt Trinkwasserqualität, eignet sich aber nach einer weiteren Reinigung durchaus für industrielle oder landwirtschaftliche Zwecke“, betont Projektkoordinatorin Barbara Zimmermann. „Es kann auch dazu beitragen, Ressourcen zu schonen, weil mit ihm unter anderem das Grundwasser oder die Trinkwasserproduktion im Ausland angereichert werden kann.“

Insgesamt neun Projektpartner, darunter auch das Biofilm Centre der UDE, entwickeln in den nächsten drei Jahren entsprechende Techniken und Methoden für den Testbetrieb einer Pilotanlage in Norddeutschland. Dazu gehören auch zuverlässige Verfahren zur Qualitätskontrolle des Wassers, ein Bewertungstool und Konzepte, wie die Ergebnisse weltweit vermarktet werden können.

Weitere Informationen: Barbara Zimmermann, IWW Rheinisch-Westfälisches Institut für Wasser, b.zimmermann@iww-online.de, 0208/40303-0, http://www.iww-online.de

Redaktion: Beate Kostka, Tel. 0203/379-2430, beate.kostka@uni-due.de

Weitere Informationen:
https://www.water-multi-reuse.org

Quelle: idw

(nach oben)


Änderungen des Meeresspiegels unterschätzt

André Zeppenfeld Stabsstelle für Presse, Kommunikation und Marketing
Universität Siegen

Eine neue Studie der Universität Siegen zeigt, dass der Einfluss auf Sturmflut- und Wellenhöhen in Zukunft stärker ist als gedacht – und die Planungshöhen von Schutzbauwerken wie Deichen deshalb möglicherweise überdacht werden sollten.

Das aktuelle Sturmhochwasser an der deutschen Ostseeküste belegt, wie verwundbar unsere Gesellschaft gegenüber extremen Naturereignissen ist. Deshalb ist es besonders wichtig, für küstennahe Bereiche gegenwärtige und zukünftige Sturmflut- und Wellenhöhen sicher zu ermitteln. Doch entlang der nordfriesischen Küste könnten in Zukunft höhere Küstenschutzbauwerke erforderlich werden als bisher angenommen. Das ist das Ergebnis einer neuen Studie des internationalen Forscherteams um Dr. Arne Arns vom Forschungsinstitut Wasser und Umwelt (fwu) an der Universität Siegen. Die aktuellen Ergebnisse sind in einem Artikel in der international renommierten Fachzeitschrift „Scientific Reports“ der „Nature Publishing Group“ veröffentlicht worden.

Die Forschungsergebnisse machen deutlich, dass die erforderlichen Schutzhöhen künftig steigen. Und zwar um das 1,5- bis 2-fache des mittleren Meeresspiegelanstiegs, der bisher als Grundlage für die Schutzhöhen dient. Bisher schätzen ExpertInnen zukünftige Schutzhöhen von Küstenschutzbauwerken wie zum Beispiel von Deichen anhand von wissenschaftlich fundierten Prognosen des mittleren Meeresspiegels. In bisherigen Untersuchungen werden aber oftmals nicht die z.T. starken Veränderungen in Sturmflutwasserständen und in den auflaufenden Wellen berücksichtigt. Doch wie die Untersuchungen der Wissenschaftler nun zeigen, beeinflusst deren Zusammenwirken die erforderlichen Schutzhöhen entlang der nordfriesischen Küste teils stark.

Im aktuellen Beitrag haben die Wissenschaftler erstmals umfassende Analysen durchgeführt, die den Einfluss des Meeresspiegels sowohl auf Sturmflutwasserstände als auch auf Wellen berücksichtigen. „Die Untersuchungen zeigen, dass insbesondere in den flachen Wattbereichen Nordfrieslands dynamische und komplexe Wechselwirkungen zwischen Änderungen des Meeresspiegels und extremen Wasserständen auftreten. Als Konsequenz werden die Sturmflutwasserstände etwas stärker ansteigen als der Meeresspiegel. Auch auf die Wellen hat ein steigender Meeresspiegel eine erhöhende Wirkung. So werden diese in Zukunft weniger durch die Wattflächen beeinflusst, können einfacher bzw. weniger stark beeinflusst in Richtung Küste und Schutzbauwerke wandern und daher größer ausfallen als bisher“, erklärt Dr. Arne Arns. Seine Empfehlung lautet: „Diese Effekte sollten in zukünftigen Untersuchungen dringend berücksichtigt werden. Wenn wir die für die Zukunft erforderlichen Schutzhöhen vereinfacht über prognostizierte Meeresspiegeländerungen abschätzen, kann dies zu einer Unterschätzung des erforderlichen Schutzniveaus führen.“ Der Forscher weist jedoch gleichzeitig darauf hin, dass „die zukünftige Entwicklung der Wattflächen bislang schwer abschätzbar ist. Hierdurch könnten die genannten Effekte zumindest teilweise kompensiert werden.“

Referenz:
Arns, A. et al. Sea-level rise induced amplification of coastal protection design heights. Sci. Rep. 6, 40171; doi: 10.1038/srep40171 (2016).

Quelle: idw

(nach oben)


Auch wenig Sport beugt Krankheiten vor

Sabine Ranke-Heinemann Pressestelle
Australisch-Neuseeländischer Hochschulverbund / Institut Ranke-Heinemann

Bereits ein bis zwei Trainingseinheiten pro Woche können australischen Forschern zufolge unser Erkrankungsrisiko signifikant verringern.

Einer Studie der University of Sydney zufolge können körperliche Aktivitäten von nur ein bis zwei Trainingseinheiten pro Woche schon ausreichen, um das Todesrisiko von Herz-Kreislauferkrankungen sowie Krebs zu senken.

Die Ergebnisse, welche im „JAMA Internal Medicine“ Magazin veröffentlicht wurden, zeigen, dass bereits wenige Trainingseinheiten, die sich gut in eine vielbeschäftigte Lebensweise einfügen lassen, gesundheitliche Vorteile liefern, auch bei Übergewichtigen und Menschen mit gesundheitlichen Risikofaktoren.

So bestätigt Professor Emmanuel Stamatakis von der University of Sydney und Hauptautor des Artikels, dass es beruhigend ist, zu wissen, dass bereits wenige sportliche Aktivitäten das Sterberisiko senken – auch wenn man nicht die offiziell empfohlene Trainingsdauer erreicht. Um jedoch von optimalen Gesundheitsbedingungen zu profitieren, schlägt Stamatakis vor, sich trotzdem an die Empfehlungen für sportliche Aktivitäten zu halten, und zu versuchen, die Ziele zu erreichen oder auch zu übertreffen.

Die Weltgesundheitsorganisation (WHO) empfiehlt hierzu, dass Erwachsene mindestens 150 Minuten pro Woche sportlichen Aktivitäten mit moderater Intensität nachgehen sollen oder zumindest 75 Minuten pro Woche ein sehr intensives Training absolvieren.

Doch die Forschung muss noch zeigen, wie die Häufigkeit und gesamte wöchentliche Aktivität am besten kombiniert werden muss, um die maximalen gesundheitlichen Vorteile zu erzielen. So könnten Menschen zum Beispiel jeden Tag mit moderater Intensität 30 Minuten sportlich aktiv sein, um die derzeitigen Trainingsvorgaben zu erreichen, oder sie trainieren ein Mal die Woche 75 Minuten, aber dafür mit einer hohen Intensität. Diejenigen, die ihr gesamtes Workout an ein oder zwei Tagen in der Woche absolvieren, werden in diesem Zusammenhang „Wochenend-Kämpfer“ genannt.

Die wichtigsten Erkenntnisse:
Im Vergleich zu denen, die nicht sportlich aktiv waren, war das allgemeine Sterberisiko bei denen, die unzureichend aktiv waren, um 31%, bei den „Wochenend-Kämpfern“ um 30% und bei den regelmäßig Aktiven um 35% niedriger.

Im Vergleich zu denen, die nicht sportlich aktiv waren, war das Sterberisiko aufgrund von kardiovaskulären Erkrankungen bei denen, die unzureichend aktiv waren um 37% und bei den „Wochenend-Kämpfern“ sowie den regelmäßig Aktiven um 41% geringer.

Im Vergleich zu denen, die nicht sportlich aktiv waren, war das Sterberisiko aufgrund einer Krebserkrankung bei denen, die unzureichend aktiv waren, um 14%, bei den „Wochenend-Kämpfern“ um 18% und bei den regelmäßig Aktiven um 21% geringer.

Die Ergebnisse bestätigen also, dass diejenigen, die sich zwar unzureichend, aber immerhin etwas bewegen sowie die „Wochenend-Kämpfer“ und regelmäßig Aktiven, im Gegensatz zu den gänzlich inaktiven Menschen, gesamtheitlich ein geringeres Sterberisiko in Bezug zu den obengenannten Krankheiten vorweisen, sagt Stamatakis.

Diese Resultate bedeuten demnach, dass man auch von nur wenigen Sporteinheiten wöchentlich einen enormen gesundheitlichen Vorteil genießt.

Weitere Informationen:
Institut Ranke-Heinemann / Australisch-Neuseeländischer Hochschulverbund
Pressestelle Friedrichstr. 95
10117 Berlin
Email: berlin@ranke-heinemann.de
Tel.: 030-20 96 29 593

oder

Dan Gaffney
Tel.: +61 2 9351 4630
Email: daniel.gaffney@sydney.edu.au

Das Institut ist die gemeinnützige Einrichtung zur Förderung des Austausches und der Auslandsstudien insbesondere mit allen Universitäten Australiens und Neuseelands sowie zur Förderung von Wissenschaft und Forschung. In seinen Förderprogrammen stellt es SchülerInnen und Studierenden Unterstützung in der Finanzierung durch Stipendien und Coaching in der Studienberatung und Studienplatzbewerbung zur Verfügung.

Weitere Informationen:

http://www.ranke-heinemann.de
http://www.ranke-heinemann.at
http://www.ranke-heinemann.tv

Quelle: idw

(nach oben)


Mehr Strom aus Abwärme von dezentralen Blockheizkraftwerken

Doris Keßler Hochschulkommunikation
Technische Hochschule Nürnberg Georg Simon Ohm

Dezentrale Blockheizkraftwerke ermöglichen es, die Erzeugung von Strom zum Ausgleich der schwankenden Erneuerbaren Energien und Wärme zu koppeln und beides besonders effizient zu erzeugen. Falls mehr Wärme erzeugt als lokal benötigt wird, kann die Energie im heißen Abgas der Blockheizkraftwerke durch einen thermodynamischen Wasserdampfprozess zu Strom umgewandelt werden. Diese Technologie kommt bislang vorwiegend in großen Kraftwerken zum Einsatz. Im Projekt „MicroRankine“ fokussiert die Arbeitsgruppe um Prof. Dr. Frank Opferkuch an der TH Nürnberg auf die Optimierung von Anwendungen mit deutlich kleinerer Leistung. Davon könnten Betreiber von dezentralen Blockheizkraftwerken profitieren.

Nürnberg, 18. Januar 2017. Das Projekt „MicroRankine“ der TH Nürnberg von Prof. Dr.-Ing. Frank Opferkuch und seiner Arbeitsgruppe hat zum Ziel, das bislang ungenutzte Potenzial von Abwärme aus Blockheizkraftwerken auszuschöpfen. Die technologische Entwicklung wird vor allem für dezentrale Blockheizwerke von Bedeutung sein. Deren Anzahl steigt zunehmend, sie machen einen immer größeren Teil der modernen Energieversorgung aus. Die Nutzung von Abwärme ist aktuell sowohl in der Energietechnik als auch in der Industrie von hoher Bedeutung. Bislang sind jedoch noch nicht alle Anlagen so ausgerüstet, dass sich aus der Abwärme effizient wertvoller Strom gewinnen lässt. Während in großen Anlagen mit Erfolg daran gearbeitet wird, den hohen technologischen Anforderungen an Material und Maschinen gerecht zu werden, standen Anlagen mit kleinerer Leistung (unter einem Megawatt) bisher nicht im Mittelpunkt der Forschung. „Die Nutzung von Abgaswärme aus dezentralen Blockheizkraftwerken ist ein wichtiger Baustein der zukunftsorientierten und nachhaltigen Energieversorgung“, erläutert Prof. Dr.-Ing. Frank Opferkuch.

Mit den Fördermitteln des BMBF wird die TH Nürnberg eine Versuchseinrichtung für Wasserdampf-Prozesse (auch Clausius-Rankine-Prozess genannt) errichten, die eine Plattform für vielfältige Forschungsarbeiten auf dem Gebiet der dezentralen Energieumwandlung mit Dampfprozessen darstellt. Mit der Anlage werden auch Kooperationsfirmen praxisnahe Tests an technischen Komponenten wie Dampferzeugern, Wärmeübertragern, Regelventilen, Expandern und schnelllaufenden Generatoren durchführen, die bislang kaum weiterentwickelt wurden. Durch diesen Technologietransfer wird das aus dem Projekt gewonnene Wissen auch für die Industrie zugänglich.

Die TH Nürnberg profitiert durch die Erweiterung der bestehenden Laborausstattung. Lehrende und Studierende am Nuremberg Campus of Technology NCT können neue Validierungstests und Messaufgaben im Rahmen von Kooperationsvorhaben sowie fachübergreifende Forschungsvorhaben mit Industriepartnern nutzen. „Mit diesem innovativen Forschungsprojekt setzt die TH Nürnberg mit den Mitteln des Bundesministeriums für Bildung und Forschung ein weiteres wichtiges Ziel ihrer struktur- und forschungspolitischen Entwicklungsplanung um und gibt innovative Impulse in die Metropolregion Nürnberg“, so der Präsident der TH Nürnberg, Prof. Dr. Michael Braun.

Quelle: idw

(nach oben)


Wälzlager: kleines Bauteil, riesiges Sparpotenzial

Mechtild Freiin v. Münchhausen Referat für Kommunikation und Marketing
Leibniz Universität Hannover

Neues Verfahren schont Ressourcen und die Umwelt

Enorme Produktivitätssteigerungen bei der Fertigung und eine Erhöhung der Wälzlager-Lebensdauer um 250 Prozent: Das ist das Ergebnis eines Forschungsprojekts zur Ressourceneffizienz. „Viele Millionen Wälzlager werden weltweit jährlich eingesetzt – fast immer, wenn sich irgendwo etwas drehen soll“, skizziert Dipl.-Ing. Oliver Maiß die Dimension seiner Forschungsergebnisse. „Wenn die Lebensdauer eines Lagers nun zweieinhalbmal so lang ist wie bisher, kann man pro einer Million eingesetzter Wälzlager etwa 77 Tonnen Stahl einsparen“. Etwa die gleiche Menge CO2 würde weniger erzeugt. Maiß ist wissenschaftlicher Mitarbeiter am Institut für Fertigungstechnik und Werkzeugmaschinen (IFW) am Produktionstechnischen Zentrum der Leibniz Universität Hannover, und das Ziel seines Projekts ist es, Wälzlager so herzustellen, dass sie in der Herstellung und Nutzung möglichst wenig Ressourcen brauchen.

Die Lebensdauersteigerung ist deshalb nicht alles: Sie geht Hand in Hand mit einer zweiten Verbesserung. Das neue Fertigungsverfahren, das Maiß für die Produktion dieser Wälzlager optimiert hat, bietet einen zweiten Ressourcenvorteil. Die für die Reibung relevanten Flächen der Wälzlagerringe werden bei Maiß nämlich nicht geschliffen und gehont. Vielmehr erzielt er die besondere, lebensdauererhöhende Oberflächenqualität durch das so genannte Hartdrehwalzen, bei dem in einem kombinierten Prozess die gedrehten Flächen gleich gewalzt werden. „Durch das Walzen wird das Gefüge so stark verdichtet, dass hohe Druckeigenspannungen auftreten, die die Lebensdauer erhöhen. Gleichzeitig kann auch die Oberflächentopografie gut eingestellt werden.“ Mit anderen Worten: Trotz deutlich höherem Vorschub lässt sich die Oberflächenrauheit und damit der Rollwiderstand reduzieren. „Wenn die Produktivitätssteigerung bei 300 Prozent liegt, ist die Oberflächenqualität noch immer um 20 Prozent besser als beim Hartdrehen ohne Walzen“, präzisiert Maiß.

Das Forschungsprojekt, das gemeinsam vom Institut für Fertigungstechnik und Werkzeugmaschinen und vom Institut für Maschinenkonstruktion und Tribologie (IMKT) bearbeitet wird, gehört zu einem größeren Vorhaben, dem Schwerpunktprogramm „Ressourceneffiziente Konstruktionselemente“, das von der Deutschen Forschungsgemeinschaft gefördert wird und noch bis Ende 2017 läuft. Am IMKT berechnen Professor Gerhard Poll und seine Mitarbeiter mit einem eigenen Lebensdauermodell die Oberflächenanforderungen, legen die Wälzlager aus und definieren für das IFW schließlich auch die Anforderungen an die Fertigung.
Erste Transferprojekte mit Industriepartnern sind bereits geplant. Prof. Dr.-Ing. Berend Denkena, Institutsleiter des IFW, begrüßt die Ergebnisse und auch den schnellen Transfer in die Unternehmen: „Gerade wenn wir mit unserer Forschung dazu beitragen können, real und in relevantem Maße Ressourcen zu sparen, ist es uns ein großes Anliegen, die Ergebnisse schnell umgesetzt zu sehen. Weitere Forschungs- und Anwendungspartner aus der Industrie sind daher sehr willkommen.“

Quelle: idw

(nach oben)


Wo die Nesthocker wohnen

Dr. Peter Wittmann Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Länderkunde

Vor allem in Deutschlands Süden verlassen junge Erwachsene erst spät die elterlichen vier Wände, wie aktuelle Karten des Leibniz-Instituts für Länderkunde zeigen.

In Thüringen, Bayern und im Saarland lebt mehr als ein Viertel der 25- bis 29-Jährigen noch zuhause bei den Eltern. Spitzenwerte erreicht die Nesthocker-Quote in den bayerischen Landkreisen Freyung-Grafenau und Straubing-Bogen sowie im thüringischen Eichsfeld. Dort leben in dieser Altersgruppe die Hälfte der Männer und fast ein Drittel der Frauen noch im Elternhaus. In den Stadtstaaten und in Schleswig Holstein logieren dagegen nur zwischen zehn und 15 Prozent der jungen Erwachsenen im Hotel Mama.

Auffällig ist in allen Bundesländern der deutliche Stadt-Land-Unterschied. Das liegt vor allem an der Konzentration der Hochschulen in den Städten, denn die Aufnahme eines Studiums ist ein wichtiger Auszugsgrund. Auszubildende bleiben dagegen häufig so lange im Elternhaus, bis sie einen festen Job haben oder eine eigene Familie gründen. Mit deutschlandweit 26 Prozent ist der Anteil der jungen Männer, die noch im Haushalt der Eltern leben, fast doppelt so hoch wie derjenige der jungen Frauen.

Zu diesen Ergebnissen kommt Dr. Tim Leibert vom Leibniz-Institut für Länderkunde (IfL). Der Bevölkerungsgeograph hat für das Webangebot „Nationalatlas aktuell“ des IfL die Statistiken zu Haushalten und Familien erstmals auf Basis der Kreise und kreisfreien Städte ausgewertet. Aktuelle Karten des IfL veranschaulichen die regionalen Unterschiede.

„Ein Grund für den Geschlechterunterschied dürfte sein, dass Eltern Töchter oft stärker kontrollieren als Söhne und von ihnen auch mehr Mithilfe im Haushalt erwarten“, erklärt Leibert. Für junge Frauen bedeute der Auszug folglich einen größeren Autonomiegewinn als für junge Männer. Zudem hätten junge Frauen allgemein eine höhere Neigung zum Abwandern, so der Bevölkerungsgeograph. Wie seine Analysen weiter ergaben, ist in den ländlichen Gebieten Ostdeutschlands der Anteil der im elterlichen Haushalt lebenden Frauen zwischen 20 und 24 Jahren besonders niedrig. Verantwortlich sei das niedrigere Erstgeburtsalter in den neuen Ländern und damit ein deutlich höherer Anteil der Frauen, die Anfang 20 allein, als alleinerziehende Mutter oder in einer nichtehelichen Gemeinschaft leben. „Dies unterstreicht die Wechselwirkungen zwischen Auszugsverhalten, Bildungs- und Familienbiographie“, so Leibert.

Der Auszug aus dem Elternhaus markiert indes nicht immer den Beginn einer eigenständigen Wohnbiographie. Laut Schätzungen kehrt in Deutschland jeder Zehnte der 18- bis 32-Jährigen wieder zu den Eltern zurück, nachdem er oder sie eine Zeitlang alleine, mit Partner oder in einer WG gewohnt hat. „In Phasen erhöhter Unsicherheit und des sozialen Abstiegs dient der Haushalt der Eltern als Sicherheitsnetz“, so Leibert. Viel spricht nach seiner Einschätzung dafür, dass die Mehrzahl der Nesthocker aus ökonomischer Notwendigkeit im Hotel Mama residieren und nicht, wie oft behauptet wird, weil sie von Vati und Mutti umsorgt werden.

Der vollständige Beitrag ist im Webangebot „Nationalatlas aktuell“ des IfL nachzulesen. Auf aktuell.nationalatlas.de veröffentlicht das Institut regelmäßig Kartenbeiträge zu Themen aus Wirtschaft, Gesellschaft, Kultur, Politik und Umwelt. Alle Karten, Diagramme und Fotos sind dort online verfügbar und stehen zusätzlich als PDF-Dokumente zum freien Download bereit. Auf Wunsch können die Materialien in Druckqualität zur Verfügung gestellt werden.

Weitere Informationen:
Volker Bode
Tel.: 0341 600 55-143
V_Bode@ifl-leipzig.de
http://aktuell.nationalatlas.de

Weitere Informationen:
http://aktuell.nationalatlas.de/auszug_elternhaus-1_01-2017-0-html/
http://www.ifl-leipzig.de

Quelle: idw

(nach oben)


Weltraum-Bärtierchen: Zäh über Generationen

Andrea Mayer-Grenu Abteilung Hochschulkommunikation
Universität Stuttgart

Tardigraden, besser bekannt als Bärtierchen, können bei tiefsten Minusgraden überleben und sind auch gegen starke Hitze und Strahlung gefeit. Wie sie mit den lebensfeindlichen Bedingungen des Weltalls klarkommen, untersuchen Dr. Ralph O. Schill von der Universität Stuttgart sowie Wissenschaftler der schwedischen Kristianstad Universität, der Universität Stockholm und des Deutschen Zentrums für Luft- und Raumfahrt (DLR) im Rahmen des Weltraumprojekt TARDIS (Tardigrades in Space Project). Neueste Erkenntnisse zeigen: Die Reparaturmechanismen in den Zellen der Kleinstlebewesen arbeiten so effektiv, dass auch die Nachkommen der „Weltraumbären“ sich normal entwickeln.

Bärtierchen überdauern höchst unwirtliche Bedingungen meist in einem tönnchenförmigen Ruhestadium, in dem sie den Stoffwechsel einstellen und keine Zeichen des Lebens mehr nachweisbar sind. Sobald die Umweltbedingungen besser werden, kehren die Tiere binnen einer halben Stunde zum aktiven Leben zurück. Um die Mechanismen hinter den beachtenswerten Fähigkeiten dieser kleinen Tiere zu untersuchen, starteten die Bärtierchen des Zoologen Ralph Schill im September 2007 im Rahmen der FOTON-M3-Mission von Baikonur (Kasachstan) aus mit einer Rakete für zehn Tage in den Weltraum. Der Satellit drehte sich mit dem Experiment in 270 Kilometern Höhe 189 Mal um die Erde, wobei die Bärtierchen im getrockneten Zustand, der so genannten Kryptobiose, direkt dem Vakuum und je nach Experiment verschiedenen Strahlungen ausgesetzt waren.
Das Vakuum steckten die Stuttgarter „Bären“ damals ohne bedeutsame Verluste weg. Die lebensfeindliche Gesamtstrahlung im Weltraum, die sich aus dem kompletten UV-Spektrum, ionisierender Strahlung und kosmischer Strahlung zusammensetzt, überlebten immerhin zwei Prozent. Und wenn die Bärtierchen im Vakuum nur der UV-A und UV-B Strahlung ausgesetzt waren, überlebte weit über die Hälfte aller Tiere das Weltraumabenteuer unbeschadet. Zurück auf der Erde und mit Wasser versorgt, gingen die meisten sofort der Nahrungsaufnahme nach und legten Eier.
Um diese Nachkommen der Weltraumtiere geht es in einer jetzt neu erschienen Arbeit.*) Dabei zeigte sich, dass auch mehrere Generationen später keine offensichtliche Schädigungen der Tiere, ein verändertes Verhalten oder zeitliche Veränderungen in der Entwicklung festgestellt werden konnten. Die Bärtierchen scheinen in der Lage zu sein, der „make or break“-Regel zu folgen. Diese besagt, dass die zellulären Schäden durch den Weltraumausflug entweder auf effiziente Weise repariert wurden und sich dann alle Nachkommen normal entwickeln können. Oder die Schäden sind tödlich, so dass erst gar keine Fortpflanzung mehr stattfinden kann. Schädigende Mutationen werden nicht weitervererbt.
Die Wissenschaftler wollen diese Reparaturmechanismen nun weiter erforschen und besser verstehen. Eines Tages, so die Hoffnung, sollen sie auf biomedizinische Fragestellungen, etwa im Bereich von Biobanken, übertragen werden.
Ralph Schill erforscht das Leben der Moos- und Wasserbewohner schon seit fast 15 Jahren. Im Rahmen vieler nationaler und internationaler Forschungsprojekte beschäftigt er sich mit den dynamischen Prozessen, die den zähen Winzlingen das Überleben ermöglicht. „Von den im Lauf der Jahrmillionen optimal an ihren Lebensraum angepassten Bärtierchen und ihren Fähigkeiten können wir viel über die Natur des Lebens lernen“, so Schill, „und wir erwarten auch in Zukunft spannende Erkenntnisse darüber, wie die Tiere ihre Zellen und Zellbestandteile schützen und auch reparieren.“

*)Originalpublikation: K. INGEMAR JÖNSSON, RALPH O. SCHILL, ELKE RABBOW, PETRA RETTBERG und MATS HARMS-RINGDAHL (2016). The fate of the TARDIS offspring: no intergenerational effects of space exposure. Zoological Journal of the Linnean Society, Volume 178, Issue 4, 178: 924-930, doi: 10.1111/zoj.12499

Weitere Informationen: apl. Prof. Dr. Ralph O. Schill, Universität Stuttgart, Institut für Biomaterialien und biomolekulare Systeme, Tel. +49 (0) 1727304726, E-Mail: ralph.schill@bio.uni-stuttgart.de

Quelle: idw

(nach oben)


Manganknollen als Brutstätte für Tiefseekraken

Ralf Röchert Kommunikation und Medien
Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung

Biologen entdecken in mehr als 4000 Metern Tiefe neue Krakenarten, die viele Jahre lang ihr Gelege bewachen und ohne Hartsubstrat wie Manganknollen kaum überleben

Manganknollen am Meeresboden des Pazifischen Ozeans sind eine wichtige Brutstätte für Tiefseekraken. Wie ein deutsch-amerikanisches Biologen-Team in der aktuellen Ausgabe des Fachmagazins Current Biology berichtet, heften die Kraken ihre Eigelege an Schwämme, welche nur auf den Manganknollen wachsen. Die Forscher hatten die bisher unbekannten Krakenarten auf Tauchexpeditionen im Pazifik in einer Tiefe von mehr als 4000 Metern beobachtet – ein neuer Tiefenrekord für diese Kraken. Ihre spezielle Abhängigkeit von Manganknollen als Brutstätte belegt, dass einem industriellen Abbau von Wertstoffen in der Tiefsee gründliche Untersuchungen zu den ökologischen Folgen vorausgehen müssen.

Kennen Sie Casper? Im Februar dieses Jahres avancierte der Tiefseekrake (Octopoda, Untergruppe: Incirrina) innerhalb weniger Tage zum Star in den Sozialen Medien. Der US-amerikanische Tauchroboter Deep Discovery hatte den etwa zehn Zentimeter kleinen Meeresbewohner vor der hawaiianischen Necker-Insel in einer Tiefe von 4290 Metern aufgespürt, ihn aus nächster Nähe gefilmt und den Clip direkt veröffentlicht. Die Webgemeinde gab dem nahezu durchsichtigen Kraken dann den Namen Casper, in Anlehnung an das bekannte Trickfilm-Gespenst. Das Video wurde hunderttausendfach geschaut – doch erst jetzt berichten die Forscher im Fachmagazin Current Biology, welch weitreichendes Wissen über das Leben in der Tiefsee und über die ökologische Bedeutung von Manganknollen sie Casper und 28 weiteren Tiefseekraken entlocken konnten.

Tiefenrekord: Kraken bewachen ihr Gelege in mehr als 4000 Metern Tiefe
Caspers Auftritt vor der Kamera in einer Tiefe von 4290 Metern stellt bis heute die größte Tiefe dar, in der flossenlose Kraken jemals beobachtet wurden. Ein halbes Jahr zuvor hatten Forscher des Alfred-Wegener-Institutes, des GEOMAR, des Max-Planck-Institutes für Marine Mikrobiologie und des Zentrums für Marine Umweltwissenschaften (MARUM) im Peru-Becken im südöstlichen Pazifik weitere Tiere bislang unbekannter Krakenarten in einer Tiefe von 4120 bis 4197 Metern gefilmt und fotografiert. Die Aufnahmen der verwandten Arten gelangen mit dem Tauchroboter ROV Kiel 6000 und einem geschleppten Kamerasystem.

„Bis zu diesen Beobachtungen waren wir davon ausgegangen, dass diese Kraken nur bis in eine Tiefe von 2600 Metern vorkommen. Die jetzt entdeckten Arten aber besiedeln viel größere Tiefen“, sagt Erstautor Dr. Autun Purser vom Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI).

Ohne Manganknollen finden die Kraken keinen Laichplatz
Zwei der Kraken bewachten gerade ihr Gelege, als die Forscher ihre Kameras auf sie richteten. „Diese Tiere hatten ihre Eier in einer Tiefe von 4000 Metern an die Stängel abgestorbener Schwämme geheftet, welche wiederum auf Manganknollen gewachsen waren. Die Knollen dienten den Schwämmen als einziger Ankerpunkt auf dem sonst sehr schlammigen Untergrund. Das heißt, ohne die Manganknollen hätten die Schwämme an dieser Stelle nicht leben können und ohne Schwämme hätten die Kraken keinen Platz für ihr Gelege gefunden“, erzählt der AWI-Wissenschaftler.

Hinzukommt: Auch Kraken ohne Brut suchen die Nähe der Manganknollen und felsartigen Vorsprünge. „Auf den Videoaufnahmen ist zu erkennen, dass die Tiere den Meeresboden rund um die Knollen gereinigt haben. Dieser Eindruck entsteht vermutlich, weil die Tiere bei der Futtersuche mit ihren Armen im Sediment wühlen“, berichtet Co-Autor Henk-Jan Hoving vom GEOMAR Helmholtz-Zentrum für Ozeanforschung.

Dass Tiefseebewohner wie die Kraken Manganknollen in ihrem Lebensraum brauchen, zeigt das sogenannte DISCOL-Experiment aus den späten 1980er Jahren. Damals hatten deutsche Forscher ebenfalls im Peru-Becken durch Pflügen des Meeresbodens Manganknollen entfernt. In den Folgejahren beobachteten sie dann, welche Folgen dieser menschliche Eingriff für die Lebensgemeinschaft der Tiefsee hatte. Die Wissenschaftler der Expedition mit dem Forschungsschiff Sonne waren nun nach 26 Jahren noch einmal an die Stelle des DISCOL-Experimentes zurückgekehrt. Ihr Fazit: „Die Entnahme der Manganknollen führte damals dazu, dass die Gemeinschaft der fest am Boden siedelnden Tiere, zu der auch Schwämme gehören, fast vollständig zusammengebrochen ist. Auch nach 26 Jahren haben sich die Bestände ganzer Tiergruppen nicht erholt“, berichten die Autoren in der neuen Studie.

„Unsere neuen Beobachtungen zeigen, dass wir das Verhalten und die speziellen Anpassungen von Tiefseetieren an ihren Lebensraum kennen müssen, um nachhaltige Schutz- und Nutzkonzepte aufzustellen“, sagt AWI-Forscherin Antje Boetius, Leiterin der Sonne-Expedition in das Peru-Becken.

Kraken bewachen ihre Brut vermutlich viele Jahre lang
Sie stuft Casper und seine Artgenossen aus dem Peru-Becken als „besonders gefährdet“ ein – unter anderem deshalb, weil die Tiefseekraken nur sehr wenige Eier legen und außergewöhnlich lange Reproduktionszyklen haben. Forschungsergebnisse zeigen, dass der Nachwuchs von Kraken, die bei einer Wassertemperatur von drei Grad Celsius laichen, erst vier Jahre nach der Eiablage schlüpft. Am Grund des Peru-Beckens aber beträgt die Wassertemperatur gerade mal 1,5 Grad Celsius. „Wir vermuten deshalb, dass die Krakenembryos hier viele Jahre benötigen, um sich vollständig zu entwickeln“, so Antje Boetius. Störungen während dieser so wichtigen Zeit hätten mit großer Wahrscheinlichkeit schwerwiegende Folgen für den Krakennachwuchs.

Die in der aktuellen Studie vorgestellten Beobachtungsdaten stammen aus mehreren Expeditionen. Die Aufnahmen aus dem Peru-Becken wurden im Herbst 2015 während einer Fahrt des deutschen Forschungsschiffes Sonne gemacht. Die Tauchgänge des Roboters Deep Discovery an der hawaiianischen Necker-Insel gehörten zu einer Expedition des US-amerikanischen Forschungsschiffes Okeanos Explorer und fanden im Februar 2016 statt. Weitere Beobachtungen wurden während einer Fahrt des Forschungsschiffes Kilo Moana im Jahr 2011 gemacht.

Die Forschungsarbeiten wurden finanziert durch das EU-Projekt „Managing Impacts of Deep-seA reSource exploitation (MIDAS)“. Die Arbeiten von Bord des Forschungsschiffes Sonne ermöglichte das Bundesministerium für Bildung und Forschung im Rahmen des Projektes „Mining Impact of the Joint Programming Initative Healthy and Productive Seas and Oceans (JPIO)“.

Die Studie erscheint unter folgendem Titel im Fachjournal Current Biology:
• Autun Purser, Yann Marcon, Henk-Jan T. Hoving, Michael Veccione, Uwe Piatkowski, Deborah Eason, Hartmut Bluhm, Antje Boetius: Association of deep-sea incirrate octopods with mangan crusts and nodule fields in the Pacific Ocean, Current Biology, December 2016

Fotos der Tiefseekraken und ihrer Gelege finden Sieunter:
http://multimedia.awi.de/medien/pincollection.jspx?collectionName=%7Bccd28eb5-c6…

Attraktives Videomaterial des Tauchroboters ROV Kiel 6000 stellt Ihnen gern die Pressestelle des GEOMAR zur Verfügung (E-Mail: presse@geomar.de).

Eine Videosequenz mit Casper (89 Mb) finden Sie hier: http://oceanexplorer.noaa.gov/okeanos/explorations/ex1603/dailyupdates/media/vid…

Ihre wissenschaftlichen Ansprechpartner am Alfred-Wegener-Institut sind:
• Dr. Autun Purser (Tel: +49 (0)471 4831 – 1740; E-Mail: autun.purser@awi.de)
• Prof. Dr. Antje Boetius (Tel: +49 (0)471 4831 – 2269; E-Mail: Antje.Boetius@awi.de)

Das Alfred-Wegener-Institut forscht in der Arktis, Antarktis und den Ozeanen der mittleren und hohen Breiten. Es koordiniert die Polarforschung in Deutschland und stellt wichtige Infrastruktur wie den Forschungseisbrecher Polarstern und Stationen in der Arktis und Antarktis für die internationale Wissenschaft zur Verfügung. Das Alfred-Wegener-Institut ist eines der 18 Forschungszentren der Helmholtz-Gemeinschaft, der größten Wissenschaftsorganisation Deutschlands.

Quelle: idw

(nach oben)


Abwehrmechanismus von Algen kopiert: Cerdioxid schützt zuverlässig vor marinem Fouling

Petra Giegerich Kommunikation und Presse
Johannes Gutenberg-Universität Mainz

Cerdioxid-Nanopartikel greifen in die Kommunikation zwischen Bakterien ein und verhindern Biofilmbildung

Chemiker der Johannes Gutenberg-Universität Mainz (JGU) haben eine Methode entwickelt, um das gefährliche Fouling im Meerwasser effektiv, günstig und umweltschonend zu bekämpfen. Fouling tritt zum Beispiel an Hafenanlagen, Schiffsrümpfen oder den Netzen von Aquakulturen auf, wenn sich Bewuchs von Bakterien, Algen oder Muscheln bildet. Die Schäden und Folgekosten können erheblich sein und werden allein in der Schifffahrt auf jährlich über 200 Milliarden Dollar geschätzt. Schutzanstriche, die aufgebracht werden, enthalten meist kupferhaltige Biozide. Deren Nachteil ist, dass die Umwelt darunter leidet und sich Resistenzen ausbilden können. Für ihre Alternative haben die Wissenschaftler um Prof. Dr. Wolfgang Tremel einen Abwehrmechanismus von Algen nachgeahmt und festgestellt, dass Nanopartikel aus Cerdioxid den Bewuchs effektiv unterbinden. Die Entdeckung könnte zur Herstellung neuer Schutzanstriche beitragen, die weit weniger umweltbelastend sind als die bisher verwendeten Schiffslacke.

Marine Algen nutzen sekundäre Stoffwechselprodukte zur chemischen Abwehr von pathogenen Mikroorganismen oder Fressfeinden. Die halogenierten Sekundärmetabolite schützen vor dem Bewuchs mit bakteriellen Biofilmen, Algen oder auch Seepocken, die sich auf größeren Algen, Schwämmen und anderen Lebewesen festsetzen können. Halogenierte Verbindungen der Rotalge Delisea pulchra verhindern zum Beispiel den Bewuchs mit Bakterien, wirken aber weder toxisch noch wachstumshemmend. Stattdessen torpedieren sie das „Quorum Sensing“, das heißt die Kommunikation zwischen Bakterien durch Botenstoffe, die zur Bildung von Biofilmen führt. Die halogenierten Verbindungen der Alge besitzen eine ähnliche Struktur wie diese Botenstoffe und können daher die Botenstoffe von dem Signalempfänger-Bakterium verdrängen. Letztlich verhindern sie damit, dass die bakterielle Genregulation auf Biofilmbildung umschaltet. Dieser Eingriff in die bakterielle Genregulation ist auch von pharmakologischem Interesse, denn pathogene Bakterien können sich durch die Bildung von Biofilmen, beispielsweise auf den Epithelien der Atemwege, dem Angriff der Immunabwehr oder der Wirkung von Antibiotika entziehen.

Den natürlichen Abwehrvorgang ahmen die Mainzer Chemiker mit Nanopartikeln aus Cerdioxid nach. „Feldversuche zeigen, dass Cerdioxid ein umweltfreundlicher Ersatz für Cuprit ist, das als Biozid neben Kupferthiocyanat und Kupferpyridin in Antifoulinglacken in Anteilen bis zu 50 Prozent enthalten ist“, erklärt Wolfgang Tremel vom Institut für Anorganische Chemie und Analytische Chemie der JGU. Kupferverbindungen sind jedoch giftig und reichern sich in der Umwelt an. Einige Länder wie Kanada und Dänemark haben deshalb auch die Verwendung von kupferhaltigen Antifoulings bereits stark eingeschränkt.

Kostengünstige und umweltfreundliche Alternative zu kupferhaltigen Bioziden
„Cerdioxid ist in jedem modernen Abgaskatalysator von Fahrzeugen enthalten. Es ist nicht giftig und chemisch extrem stabil“, ergänzt Karoline Herget, die ihre Doktorarbeit in dem Projekt durchgeführt hat. Sie ist davon überzeugt, dass Cerdioxid eine praktikable und kostengünstige Alternative zu konventionellen Bioziden ist.

Cerdioxid, ein Oxid des Seltenerd-Metalls Cer, fällt als Nebenprodukt bei der Gewinnung der Seltenen Erden an. Cer ist allerdings nicht selten, sein Preis ist daher vergleichbar mit dem von Cuprit (Kupfer(I)oxid), es wird aber in sehr viel geringeren Mengen eingesetzt. „Wir haben hier eine umweltverträgliche Komponente für eine neue Generation von Antifoulingfarben, die das natürliche Verteidigungssystem mariner Organismen nachahmen. Vor allem funktioniert es nicht nur im Labor, sondern auch im praktischen Einsatz in Gewässern“, fügt sie hinzu. Stahlplatten, die mit Lacken unter Verwendung von Ceroxid-Nanopartikeln beschichtet sind, können wochenlang dem Meerwasser ausgesetzt werden, ohne dass sich Ablagerungen von Bakterien, Algen, Muscheln und Seepocken bilden. Vergleichsproben, die nur mit normalen Wasserlacken gestrichen werden, zeigen im gleichen Zeitraum ein massives Fouling.

Biofilme sind praktisch allgegenwärtig. Sie kommen in Trinkwasserleitungen und Kläranlagen ebenso vor wie im Grundwasser, bei der Wasserfiltration und -kühlung, auf nahezu jeder Oberfläche (z.B. in Lebensmittelverpackungen, an Türgriffen, auf Druckknöpfen, Keybords oder anderen Kunststoffbauteilen) sowie im medizinischen Bereich wie etwa bei Kathetern. Die große Gefahr bei der Bekämpfung mit Bioziden und Antibiotika ist die Resistenzbildung. Dies könnte durch Oberflächenbeschichtungen mit Cerdioxid-Partikeln wirkungsvoll und umweltfreundlich umgangen werden. Das neue Verfahren kann daher Anwendung in Boots- und Außenanstrichen, Dachabdeckungen, Outdoor-Textilien, Polymermembranen für die Wasserentsalzung, Gehege für Aquakulturen oder vielen Kunststoffkomponenten finden.

Das Forschungsprojekt erfolgte in Kooperation mit der BASF und wurde in der Fachzeitschrift Advanced Materials publiziert.

Fotos/Abbildungen:
http://www.uni-mainz.de/bilder_presse/09_anorgchemie_fouling_cer_01.jpg
Wirkweise der bioinspirierten Bootsanstriche: Ähnlich wie das Enzym Haloperoxidase fungieren Cerdioxid-Nanopartikel als Katalysator für die Bildung von hypohalogeniger Säure, die in Folgereaktionen zu den halogenierten Sekundärmetaboliten umgesetzt wird.
Abb./©: Tremel Forschungsgruppe, JGU

http://www.uni-mainz.de/bilder_presse/09_anorgchemie_fouling_cer_02.jpg
Boote in einem Binnenhafen (Maas, Belgien) zum Test der unterschiedlich beschichteten Stahlplatten
Foto/©: R. Schröder, Tremel Forschungsgruppe, JGU

http://www.uni-mainz.de/bilder_presse/09_anorgchemie_fouling_cer_03.jpg
Edelstahlplatten wurden mit handelsüblicher Farbe (Hartlack und Softlack ohne Zusatz) für Schiffsrumpfanstriche behandelt und an einem Bootssteg in einem Binnenhafen befestigt. Nach 52 Tagen zeigten die Platten ohne Cerdioxid-Nanopartikel einen starken Bewuchs, die Platten mit Cerdioxid-Beschichtung dagegen nicht. Cu2O, der aktuelle Goldstandard, wird handelsüblichen Anstrichen in Gewichtsanteilen bis zu 50 Prozent zugesetzt.
Foto/©: Tremel Forschungsgruppe, JGU

Publikation:
Karoline Herget et al.
Haloperoxidase Mimicry by CeO2-x Nanorods Combats Biofouling
Advanced Materials, Online-Publikation, 29. November 2016
DOI: 10.1002/adma.201603823

Kontakt und weitere Information:
Professor Dr. Wolfgang Tremel
Institut für Anorganische Chemie und Analytische Chemie
Johannes Gutenberg University Mainz
55099 Mainz
Tel. +49 6131 39-25135
Fax +49 6131 39-25605
E-Mail: tremel@uni-mainz.de
http://www.ak-tremel.chemie.uni-mainz.de/index.php

Weitere Links:
http://onlinelibrary.wiley.com/doi/10.1002/adma.201603823/abstract
https://www.uni-mainz.de/presse/52490.php (Pressemitteilung vom 02.07.2012 „Von der Natur inspiriert: Lacke mit bakteriziden Nanopartikeln gegen marines Fouling“)

Quelle: idw

(nach oben)


Biokunststoffe aus der Kläranlage

Dr. Christian Remenyi Abteilung Öffentlichkeitsarbeit
Gesellschaft Deutscher Chemiker e.V.

Eine Quelle für biologisch abbaubare Kunststoffe sind Bakterien im Primärschlamm. Kläranlagen mit entsprechend ausgelegten Reaktoren könnten den Bedarf an Biokunststoffen decken, ohne auf nachwachsende Rohstoffe zuzugreifen. Wie die Bakterien im Klärschlamm die Biokunststoffe herstellen und welches Potenzial somit in Deutschlands kommunalen Kläranlagen steckt, steht in den „Nachrichten aus der Chemie“.

Kunststoffe aus Erdöl tragen zu Ressourcenverbrauch und Umweltverschmutzung bei. Um die Abhängigkeit vom Rohstoff Erdöl zu reduzieren, sind Recycling und die Entwicklung umwelt- und ressourcenschonender Herstellungsverfahren für Kunststoffe entscheidend.

Primärschlamm aus kommunalen Kläranlagen eignet sich als Rohstoff für Biokunststoffe. Bakterien im Schlamm synthetisieren biologisch Polyhydroxyalkanoate (PHAs). Die Synthese verläuft in zwei Stufen: Zunächst werden kurzkettige Fettsäuren erzeugt, die dann nach Anreicherung bestimmter Bakterien im Klärschlamm zu PHAs polymerisieren. Die Bakterien nutzen diese kurz- oder mittelkettigen Polymere überwiegend als Energie- und Kohlenstoffspeicher. Die meisten Materialeigenschaften der kurzkettigen PHAs ähneln denen von Polypropylen und könnten dieses in vielen Anwendungen ersetzen.

Die Produktion von PHAs kann im Bypass zur Abwasserreinigung ablaufen, ohne die Reinigungsleistung der Kläranlage zu beeinflussen. Allein in Deutschland ließen sich mit passenden Reaktoren so in kommunalen Kläranlagen zurzeit etwa 157.000 Tonnen PHAs herstellen – das entspricht etwa 20 Prozent der im Jahr 2015 weltweit produzierten Biopolymere.

Umweltschutztechnik-Ingenieur Timo Pittmann erläutert in den „Nachrichten aus der Chemie“ die Schritte und Rahmenbedingungen der PHA-Herstellung und analysiert das Potenzial kommunaler Kläranlagen zur Biokunststoffproduktion. Die PDF-Datei des Beitrags gibt es bei der Redaktion der „Nachrichten aus der Chemie“ unter nachrichten@gdch.de.

Nahezu 60.000 anspruchsvolle Chemiker und Chemikerinnen aus Wissenschaft, Wirtschaft und Lehre informieren sich mit den „Nachrichten“ über Entwicklungen in der Chemie, in angrenzenden Wissenschaften sowie über gesellschaftliche und wirtschaftliche Aspekte. Kennzeichen der Zeitschrift der Gesellschaft Deutscher Chemiker sind das breite Spektrum der Berichte sowie das einmalige Informationsangebot an Personalien, Veranstaltungs- und Fortbildungsterminen.

Weitere Informationen:

http://www.nachrichtenausderchemie.de

Quelle: idw

(nach oben)


Große Windparks bremsen den Wind und senken die Energieeffizienz

Dr. Eberhard Fritz Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Biogeochemie

Windenergie trägt maßgeblich zum steigenden Anteil kostengünstiger, erneuerbarer Energie bei. Aber kann sich dieser Trend über die nächsten Jahrzehnte weiter so fortsetzen? Eine neue Studie von Wissenschaftlern des Max-Planck-Instituts für Biogeochemie in Jena, gerade erschienen in den Proceedings of the National Academy of Sciences, USA, senkt diese Erwartung für die großflächige Energiegewinnung mit Windparks erheblich.

Die Autoren der Studie bestimmten, wieviel Energie sich bestenfalls aus Windkraft erzeugen lässt und wie sich dies auf die Effizienz jeder einzelnen Windkraftanlage auswirkt. Jede Windkraftanlage entzieht dem Wind Energie, sodass viele Anlagen großräumig zu verringerten Windgeschwindigkeiten in der Atmosphäre führen sollten. Dieser Effekt geht über den Windschatten hinter jeder einzelnen Anlage hinaus. Die langsamere Windgeschwindigkeit verringert dann die Energieerzeugung jeder einzelnen Windkraftanlage.

Durch Berücksichtigung dieses Effekts konnten die Autoren die starke Diskrepanz zwischen theoretisch modellierten und datenbasierten Abschätzungen der Windenergie erklären, welche einerseits aus großskaligen Klimamodellen und andererseits aus Beobachtungen lokaler Windgeschwindigkeitsmessungen und kleiner Windparks stammen. Dr. Lee Miller, Erstautor der Studie, erklärt: „Man sollte nicht annehmen, dass die Windgeschwindigkeiten unverändert bleiben, wenn man viele Windkraftanlagen in einer Region installiert. Auch wenn die aus Klimamodellen berechneten Windgeschwindigkeiten nicht ganz realistisch sind, so können diese Modelle den Effekt von vielen Windkraftanlagen dennoch simulieren. Wenn man beobachtete Windgeschwindigkeiten nutzt um Windenergieerzeugung abzuschätzen, kann man diesen Effekt aber nicht erfassen.“ Das im Modell errechnete Abbremsen des Winds reduziert die Effizienz der einzelnen Windkraftanlagen gewaltig. Die Autoren berechneten, dass dadurch die Energieerzeugung jeder einzelnen Anlage um bis zu 80% reduziert sein kann.

Die Forscher berechneten mit einem Klimamodell in einer Reihe von Szenarien, wieviel Windenergie maximal über allen Kontinenten genutzt werden kann. Die Ergebnisse zeigen, dass auf nur 3-4% der Landoberfläche mehr als 1 Watt Strom pro Quadratmeter erzeugt werden kann, mit typischen Raten von 0,5 Watt oder weniger. Diese Berechnungen stimmen mit anderen Klimamodellrechnungen überein, sind aber nur ein Bruchteil der Abschätzungen, die auf gemessenen Windgeschwindigkeiten beruhen. Diesen Unterschied konnten die Forscher auf schwächere Geschwindigkeiten zurückführen, die im Klimamodell um 40-50% reduziert werden. Da Windgeschwindigkeiten überproportional die Stromerzeugung von Windkraftanlagen beeinflussen, führte deren Abbremsen zu deutlich niedrigerer Windenergieerzeugung in den Klimamodellrechnungen und zu der drastisch reduzierten Effizienz der einzelnen Windkraftanlagen.

Dr. Axel Kleidon, Gruppenleiter am Max-Planck-Institut für Biogeochemie, führt aus, dass es sich hierbei um hypothetische Szenarien der Windenergienutzung handelt. Allerdings weist er darauf hin, dass diese Ergebnisse hoch relevant für den zukünftigen Ausbau der Windenergie sind: „Wir finden diese dramatischen Effekte bei Abständen zwischen einzelnen Windkraftanlagen, wie man sie heutzutage häufig in Windparks auf Land antrifft.“ Kleidon plant, seine Berechnungen mit Messungen heutiger Windparks abzugleichen, um zu testen ob der Bremseffekt schon sichtbar wird. Für den weiteren Ausbau der Windenergie würde dies bedeuten, dass man wahrscheinlich auf deutlich größere Abstände zwischen den Windkraftanlagen setzen sollte, um die heutige Effizienz von Windenergieerzeugung auch in Zukunft zu erreichen.

Die Studie wurde online im Wissenschaftsjournal „Proceedings of the National Academy of Sciences, USA“ am 14.November 2016 veröffentlicht.

Originalveröffentlichung:
Wind speed reductions by large-scale wind-turbine deployments lower turbine efficiencies and set low generation limits. Lee M. Miller and Axel Kleidon (2016)
www.pnas.org/cgi/doi/10.1073/pnas.1602253113

Kontakt:
Dr. Axel Kleidon
Max Planck Institut für Biogeochemie
Hans-Knöll-Str. 10
07745 Jena
Tel.: 03641 57 6217
E-mail: akleidon@bgc-jena.mpg.de

Weitere Informationen:
https://www.bgc-jena.mpg.de/index.php/BTM/Home/ Webseite der Forschungsgruppe

Quelle: idw

(nach oben)


Nachhaltige Biomasse aus dem All erkennen

Dr. Torsten Gabriel Presse- und Öffentlichkeitsarbeit
Fachagentur Nachwachsende Rohstoffe e.V.

Mit modernster Satellitentechnik Rodungen und andere Flächenumwandlungen aufspüren –
Bundeslandwirtschaftsminister Schmidt bewilligt im Rahmen der 22. Klimakonferenz in Marrakesch wichtiges Nachhaltigkeitsprojekt

„Die Bioökonomie geht einher mit einem weltweit steigenden Handelsaufkommen an Biomasse. Dies mit dem Schutz wertvoller Lebensräume und dem Klimaschutz in Einklang zu bringen – dabei kann uns das neue GRAS-System unterstützen. GRAS soll uns künftig noch umfangreichere und genauere Daten zu noch mehr land- und forstwirtschaftlichen Flächen weltweit liefern und so den Aufbau nachhaltiger und entwaldungsfreier Lieferketten erleichtern. Damit kann ein wichtiger Beitrag zur Reduktion der klimaschädlichen Emissionen aus Entwaldungen geleistet werden.“ sagte Bundeslandwirtschaftsminister Christian Schmidt am 12. November in Marrakesch anlässlich der Übergabe des Zuwendungsbescheides an die Global Risk Assessment Services GmbH. Das Unternehmen aus Köln erhält bis 2019 eine Förderung des Bundesministeriums für Ernährung und Landwirtschaft (BMEL) für die Weiterentwicklung des GRAS-Systems.
Die Internet-Plattform GRAS steht für Global Risk Assessment Services. Das BMEL hatte bereits die Entwicklung des ersten Prototypen gefördert, der seit 2015 unter gras-system.org online ist und anhand von Satellitendaten Informationen zu Anbauflächen nachwachsender Rohstoffe und zu Landnutzungsänderungen liefert.

Aktuelle Satellitengenerationen wie die seit 2014 bzw. 2015 im All befindlichen Sentinel-1- und -2-Satelliten aus dem Copernicus-Programm der ESA liefern immer bessere Bilder der Erde. Dank einer Auflösung von bis zu fünf Metern pro Pixel, dank Spektral- und wolkendurchdringender Radartechnik können Flächennutzungen immer verlässlicher erkannt werden. Und da die Informationen regelmäßig alle fünf bis zehn Tage zur Verfügung stehen, lassen sich auch Entwicklungen im Zeitablauf ablesen und etwa der Zeitpunkt von Rodungen und der anschließenden landwirtschaftlichen Nutzung sicher nachweisen. Von diesem technischen Fortschritt soll nun auch das System GRAS profitieren. Im Ergebnis können Auditoren im Rahmen einer Nachhaltigkeitszertifizierung beispielsweise Unternehmen, die Rodungen vornehmen, aus Lieferketten ausschließen. Wichtig ist dabei, dass man auch die Wiederanpflanzung von bereits bestehenden Plantagen von der Regenwaldrodung unterscheiden kann.

Die Arbeitsagenda im Projekt ist technisch anspruchsvoll, denn das System muss nun noch deutlich größere Datenmengen aus verschiedenen Quellen verarbeiten. Zudem wollen die Forscher weitere Nachhaltigkeitsinformationen an die Geodaten koppeln, zum Beispiel zur Artenvielfalt, zur Ressource Wasser oder zu sozialen Indikatoren. Zudem soll eine Warnfunktion bei Waldbränden und die Erkennung von kleinräumigen Entwaldungen integriert werden. Schließlich sind auch neue Abschätzungen der ober- und unterirdischen Kohlenstoffgehalte von Flächen und die Darstellung der Ergebnisse in Kohlenstoff-Karten geplant.

Der erste GRAS-Prototyp war für Anwendungen in der Landwirtschaft konzipiert. Die Weiterentwicklung soll stärker auf die Bedürfnisse einer nachhaltigen Forstwirtschaft ausgerichtet sein und die Bekämpfung illegaler Rodungen unterstützen.

Auch das Spektrum der durch GRAS II abgedeckten Länder soll sich erweitern und Staaten in Süd- und Mittelamerika, Südostasien, Afrika und Australien abdecken, ebenso wie weitere europäische Länder.

Das ab 2020 zur Verfügung stehende erweiterte GRAS-System soll einen praktischen Beitrag zur ökologisch und sozial nachhaltigen Biomassegewinnung leisten. Es kann Unternehmen der Bioökonomie, aber auch weitere Anwender dabei unterstützen, nachhaltige und entwaldungsfreie Lieferketten aufzubauen und somit auch einen Beitrag zum Klimaschutz leisten.

Das BMEL fördert das Vorhaben über seinen Projektträger Fachagentur Nachwachsende Rohstoffe e. V. (FNR). Informationen stehen auf fnr.de unter dem Förderkennzeichen 22015416 zur Verfügung.

Weitere Informationen:
https://www.gras-system.org/
http://www.fnr.de/projektfoerderung/projekte-und-ergebnisse/projektverzeichnis/
http://www.fnr.de/index.php?id=11150&fkz=22015416

Quelle: idw

(nach oben)


Ozeanworkshop für Jugendliche: Jetzt bewerben!

Dr. Andreas Villwock Kommunikation und Medien
GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel

Jugendliche ab 16 Jahren sind ab sofort aufgerufen, sich für einen zweiwöchigen Ozeanworkshop zu bewerben, der im September 2017 auf Helgoland stattfindet. Er wird organisiert von den Schülerlaboren und Schulprogrammen des GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel, der Biologischen Anstalt Helgoland des Alfred-Wegener-Instituts Helmholtz-Zentrum für Polar- und Meeresforschung (AWI) und des Helmholtz-Zentrums Geesthacht. Der Workshop ist Teil des Wissenschaftsjahres 2016*17 – Meere und Ozeane.

(Gemeinsame Pressemitteilung des GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel, des Alfred-Wegener-Institut Helmholtz-Zentrum für Polar- und Meeresforschung und des Helmholtz-Zentrum Geesthacht)

Schülerinnen und Schüler, die mehr über das Meer und speziell die Ozean- und Küstenforschung erfahren wollen, haben ab sofort die Chance, sich auf einen der 20 Plätze beim Ozeanworkshop „Mehr Meer 2017″ auf der Nordseeinsel Helgoland zu bewerben. Gesucht werden Jugendliche ab 16 Jahren, die mit Gleichgesinnten und Experten zwei Wochen lang Themen der Meeresforschung kennenlernen und Messmethoden erproben möchten. Beim Experimentieren im Labor, in der Diskussion mit Fachleuten vom GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel, Alfred-Wegener-Institut Helmholtz-Zentrum für Polar- und Meeresforschung (AWI) Helgoland und vom Helmholtz-Zentrum Geesthacht (HZG), aber auch auf Exkursionen und Beprobungen rund um die Insel entdecken die Jugendlichen die Vielfalt der Fachgebiete, die zu den Meereswissenschaften beitragen. Dabei sind Initiative, Teamgeist und Begeisterungsfähigkeit gefragt sowie Arbeitswille und sogar Seefestigkeit, die möglicherweise schon bei der Überfahrt auf die Hochseeinsel auf die Probe gestellt werden wird.

Das Bundesministerium für Bildung und Forschung fördert den Workshop, die Anreise und die Aufenthaltskosten der Teilnehmerinnen und Teilnehmer aus allen Teilen der Bundesrepublik im Rahmen des Wissenschaftsjahrs 2016*17 – Meere und Ozeane. Allerdings ist für eine erfolgreiche Bewerbung neben den üblichen Unterlagen noch eine eigene Stellungnahme zum Thema „Erforschung, Nutzung und Schutz der Meere: Was ist nötig und was ist möglich?“ gefragt, die als Aufsatz, Video oder beispielsweise auch als Comic-Strip eingereicht werden kann. Einzelheiten hierzu sind auf der Webseite des Workshops zu finden. Bewerbungsschluss ist der 31. März 2017.

„Wir hoffen, dass Jugendliche aus allen Bundesländern am Workshop teilnehmen werden“, erklärt Dr. Joachim Dengg vom GEOMAR Kiel, der das Projekt koordiniert. Dr. Antje Wichels vom Schülerlabor OPENSEA am AWI Helgoland, die Gastgeberin vor Ort, erläutert: „Nach unserer Erfahrung werden oft gerade die Schülerinnen und Schüler, die weit weg von der Küste wohnen, von den neuen Eindrücken in unseren Kursen am meisten angesprochen.“ „Aber auch das eigenständige Arbeiten ohne den schulischen Notendruck macht einen wesentlichen Teil solcher Workshops aus“, fügt Dr. Sabine Mendach hinzu, die im HZG-eigenen Schülerlabor „Quantensprung“ in Geesthacht ausgiebige Erfahrung mit der Arbeit mit Jugendlichen hat.

Alle drei freuen sich auf zwei spannende Wochen im nächsten Herbst, mit vielen guten Projekten, in die auch die Anregungen aus den Stellungnahmen der Bewerberinnen und Bewerber einfließen werden.

Weitere Informationen und Unterlagen zur Bewerbung auf
http://www.helmholtz.de/mehrmeer2017
oder auf
http://www.facebook.com/mehrmeer2017

Weitere Informationen:
http://www.geomar.de Das GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel
http://www.awi.de Das Alfred-Wegener-Institut Helmholtz-Zentrum für Polar- und Meeresforschung
http://www.hzg.de Das Helmholtz-Zentrum Geesthacht

Quelle: idw

(nach oben)


Frühwarnsignale für Seen halten nicht, was sie versprechen

Angelina Tittmann Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)

Seen reagieren oft abrupt auf Umweltveränderungen wie steigende Temperaturen oder erhöhte Nährstoffkonzentrationen. Werden bestimmte Grenzwerte erreicht, kann sich ein See plötzlich grün färben oder ganz „kippen“. Es kommt zu Algenblüten. Solche Veränderungen sind meist unumkehrbar und beeinflussen langfristig die Lebensgemeinschaften unter Wasser. Wissenschaftler vom Berliner Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB) haben gemeinsam mit internationalen Kollegen getestet, welche Frühwarnsignale sich für die Prognose solcher Ereignisse in Seen eignen. Ihre Ergebnisse veröffentlichten sie kürzlich in der Fachzeitschrift „Proceedings of the National Academy of Sciences“.

Ökosysteme können sich plötzlich und grundlegend verändern. Wissenschaftler bezeichnen dieses Phänomen als Tipping Points (Wendepunkte). Sie können trotz nahezu gleichbleibender äußerer Bedingungen auftreten und führen in Seen zu bleibenden Veränderungen, sogenannten Regimewechseln. Theoretisch lassen sich derartige Regimewechsel mithilfe statistischer Frühwarnsignale vorhersagen. Doch wie zuverlässig sind die Signale?

„Tritt ein solches Ereignis in einem Ökosystem auf, ist es schwierig oder sogar unmöglich, die ursprüngliche Situation wiederherzustellen“, betont Prof. Dr. Rita Adrian, Mitautorin der Studie. Aus diesem Grund sei es wichtig, Alarmsignale für anstehende Veränderung frühzeitig zu erkennen.

Gemeinsam mit einem internationalen Team hat die IGB-Wissenschaftlerin verschiedene statistische Indikatoren in langen Datenreihen von Seen getestet, die als Frühwarnsignale gelten. Die Ergebnisse zeigen, dass Vorhersagen zwar funktionieren können, bislang jedoch nicht in allen Fällen auf natürliche Ökosysteme anwendbar sind.

Weltweit sind Seen von plötzlich auftretenden Systemveränderungen betroffen
Für die Studie untersuchten die Wissenschaftler fünf Seen, für die jeweils Langzeitdaten über mehrere Jahrzehnte vorlagen, darunter der Müggelsee in Berlin und der Lake Washington in den USA. Alle Gewässer zeigten eine Gemeinsamkeit: Sie unterlagen plötzlich auftretenden und langfristig anhaltenden Systemveränderungen.

„Im Müggelsee sank beispielsweise 1990 die Biomasse der im See vorkommenden Algen abrupt und langanhaltend um fast die Hälfte“, sagt Adrian. „Einige Zooplankton-Arten wie zum Beispiel eine Copepodenart konnten wir daraufhin weniger häufig beobachten, eine andere Copepodenart breitete sich hingegen aus.“ Diese Veränderung an der Basis der Nahrungskette wirkte sich auf die Populationsdichten und die Artenzusammensetzung im See aus. Eine Verbesserung der Lichtverhältnisse im See förderte zugleich die Ausbreitung von Wasserpflanzen.

Bei einem Großteil der untersuchten Seen erkannten die Forscher tatsächlich Frühwarnsignale, in einigen Fällen sogar mehrere Jahre bevor die Veränderung eintrat. Insgesamt war die Aussagekraft der vier getesteten Frühwarnsignale (Autokorrelation, Verteilung, Varianz und Erholungszeit nach Störung) jedoch nicht eindeutig. Frühwarnindikatoren als Methode seien deshalb zwar vielversprechend, aber entgegen vieler Hoffnungen noch nicht für eine allgemeine Anwendung geeignet, lautet das Fazit der Forscher. Das macht es bislang unmöglich, schon vor einer potenziellen Krise entsprechende Gegenmaßnahmen zu ergreifen.

Prognosen brauchen Rückblicke und bessere Daten
„Wir können Frühwarnsignale nur entdecken und für das Gewässermanagement nutzen, wenn ausreichend Langzeitdaten für die betroffenen Seen vorliegen“, betont Rita Adrian. Dieses „Fenster in die Vergangenheit“ sei aber nicht der einzige Schlüssel zum Erfolg: Die Methoden für die Datengewinnung müssen ebenfalls weiterentwickelt werden. „Automatisierte Messstationen, wie z.B. die Müggelsee-Messstation in Berlin, auf der physikalische und biologische Werte in hoher zeitlicher Auflösung erfasst werden, könnten es in Zukunft ermöglichen, Regimewechsel besser vorherzusagen“, sagt Rita Adrian.

Zur Studie:
Evaluating early-warning indicators of critical transitions in natural aquatic ecosystems, Alena Sonia Gsell, Ulrike Scharfenberger, Deniz Özkundakci, Annika Walters, Lars-Anders Hansson, Annette B. G. Janssen, Peeter Nõges, Philip C. Reid, Daniel E. Schindler, Ellen van Donk, Vasilis Dakos & Rita Adrian
Proceedings of the National Academy of Sciences (PNAS), 23 November 2016 (Early Edition)
http://www.pnas.org/content/early/2016/11/21/1608242113.full

Ansprechpartner:
Rita Adrian
Leibniz-Institut Gewässerökologie und Binnenfischerei (IGB)
Müggelseedamm 310
12587 Berlin
E-Mail: adrian@igb-berlin.de
Telefon: +49 (0)30 64181 680

Alena Gsell
Netherlands Institute of Ecology (NIOO-KNAW)
Droevendaalsesteeg 10, 6708BP Wageningen, Niederlande
E-Mail: a.gsell@nioo.knaw.nl
Telefon: +31 (0)317 473 531

Zum IGB:
http://www.igb-berlin.de

Die Arbeiten des IGB verbinden Grundlagen- mit Vorsorgeforschung als Basis für die nachhaltige Bewirtschaftung der Gewässer. Das IGB untersucht dabei die Struktur und Funktion von aquatischen Ökosystemen unter naturnahen Bedingungen und unter der Wirkung multipler Stressoren. Forschungsschwerpunkte sind unter anderem die Langzeitentwicklung von Seen, Flüssen und Feuchtgebieten bei sich rasch ändernden globalen, regionalen und lokalen Umweltbedingungen, die Entwicklung gekoppelter ökologischer und sozioökonomischer Modelle, die Renaturierung von Ökosystemen und die Biodiversität aquatischer Lebensräume. Die Arbeiten erfolgen in enger Kooperation mit den Universitäten und Forschungsinstitutionen der Region Berlin/Brandenburg und weltweit. Das IGB gehört zum Forschungsverbund Berlin e. V., einem Zusammenschluss von acht natur-, lebens- und umweltwissenschaftlichen Instituten in Berlin. Die Einrichtungen sind Mitglieder der Leibniz-Gemeinschaft.

Quelle: idw

(nach oben)


Nährstoffhaushalt einer neuentdeckten „Todeszone“ im Indischen Ozean auf der Kippe

Dr. Manfred Schloesser Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für marine Mikrobiologie

In den großen Sauerstoff-freien Bereichen der Ozeane, den so genannten Todeszonen, entweichen aufgrund mikrobieller Prozesse große Mengen an Stickstoff als Gas. Stickstoff ist ein Schlüsselelement für alles Leben auf der Erde. Diese Art von Todeszonen findet man an den Westküsten Nord- und Südamerikas, Namibias und auch an der Westküste Indiens im Arabischen Meer.

Jetzt publiziert ein Team von Wissenschaftlern in der Fachzeitschrift Nature Geoscience seine Forschungsergebnisse und zeigt, dass sich eine weitere Todeszone im Golf von Bengalen im nordöstlichen Indischen Ozean über eine Fläche von 60 000 Quadratkilometern in einer Wassertiefe zwischen 100 und 400 Metern ausbreitet. Mit dabei im Team waren Forscher von der University of Southern Denmark (SDU), dem Bremer Max-Planck-Institut für Marine Mikrobiologie (MPIMM) und dem National Institute of Oceanography (NIO) of India. Erstautorin Laura Bristow, früher Wissenschaftlerin an der SDU und jetzt am Bremer MPIMM, sagt: “ Die Situation im Golf von Bengalen hat uns lange Zeit vor ein Rätsel gestellt, denn mit herkömmlichen Messmethoden konnte zwar kein Sauerstoff nachgewiesen werden, trotzdem gab es keinerlei Anzeichen von Stickstoffverlusten, die für andere Todeszonen so typisch sind.“
Das Forscherteam konnte jetzt mit neuen empfindlichen Sauerstoffsensoren das Vorhandensein minimaler Konzentrationen an Sauerstoff nachweisen, die aber 10 000 Mal niedriger waren als im sauerstoffgesättigten Oberflächenwasser. Jene Mikroorganismen, die in anderen Todeszonen für die Stickstoffentfernung zuständig sind, gab es auch in diesen Wasserproben. Messungen zeigten, dass diese Mikroorganismen zwar auch im Golf von Bengalen Stickstoff entfernten, allerdings viel langsamer als in anderen Todeszonen. Laura Bristow führt weiter aus.“ Das ist schon eine verrückte Sache. Die Mikroben sind anwesend und könnten große Mengen an Stickstoff entfernen, werden aber durch die minimalen Spuren von Sauerstoff an ihrem Job gehindert.“
Wajih Naqvi, früher Direktor am NIO und Ko-Autor der Studie, fügt hinzu:“ Wenn auch die letzten Reste an Sauerstoff weg sind, wird der Golf von Bengalen plötzlich zu einer Stickstoffsenke mit globalen Auswirkungen.“ Diese dann auftretenden Stickstoffverluste würden den Stickstoffhaushalt und damit die Produktivität der marinen Lebensgemeinschaften verändern. Experten sagen, dass die Klimaveränderung die Atmosphäre und die Meere erwärmen und sich damit die Todeszonen ausweiten werden. Ob die Auswirkungen des Klimawandels den letzten Sauerstoff aus dem Golf von Bengalen entfernen werden, ist noch nicht sicher. Doch auch die hohe Bevölkerungsdichte und der damit verbundene hohe Nährstoffeintrag könnten im Golf von Bengalen dem Sauerstoff den Rest geben. Laura Bristol spricht warnende Worte: „Wir werden sehen, wie es mit dieser Todeszone weitergeht. Sicher ist, dass der Golf von Bengalen auf der Kippe steht. Jetzt brauchen wir mathematischen Modelle, um die potentiellen Auswirkungen auf den Stickstoffkreislauf im Golf von Bengalen, aber auch weltweit, zu verstehen.“

Weitere Informationen
Dr. Laura Bristow, +49 421 2028 634, lbristow@mpi-bremen.de
Max-Planck-Institut für Marine Mikrobiologie, Celsiusstr. 1, D-28359 Bremen
Oder wenden Sie sich an die Presseabteilung:
Dr. Manfred Schlösser, +49 421 2028704, mschloes@mpi-bremen.de
Dr. Fanni Aspetsberger, +49 421 2028947, faspetsb@mpi-bremen.de
Institutionen

Department of Biology and Nordic Center for Earth Evolution (NordCEE), University of 
Southern Denmark, Campusvej 55, 5230 Odense M, Denmark.
Max-Planck-Institut für Marine Mikrobiologie, Celsiusstraße 1, D-28359 Bremen
School for Marine Science and Technology, University of Massachusetts Dartmouth, 706 South 
Rodney French Blvd, New Bedford, MA 02744-1221, USA.
CSIR-National Institute of Oceanography, Dona Paula, 403 004, Goa, India,
Department of Biological Sciences, Aarhus University, Building 1540, DK-8000 Aarhus C, Denmark.

Originalartikel
N2 production rates limited by nitrite availability in the Bay of Bengal oxygen 
minimum zone
L.A. Bristow, C.M. Callbeck, M. Larsen, M.A. Altabet, J. Dekaezemacker, M. Forth, M. Gauns, R.N. Glud, M.M.M. Kuypers, G. Lavik, J. Milucka, S.W.A. Naqvi, A. , Pratihary, N.P. Revsbech, B. Thamdrup, A.H. Treusch, D.E. Canfield. Nature Geoscience 2016, DOI 10.1038/ngeo2847

Weitere Informationen:
http://www.mpi-bremen.de Webseite des Max-Planck-Instituts für Marine Mikrobiologie

Quelle: idw

(nach oben)


Im Winter trägt der Hirsch Schal und Wildschweine erhalten eine Haarverlängerung

Eva Goris Kommunikation
Deutsche Wildtier Stiftung

Deutsche Wildtier Stiftung: So kommen Wildtiere gut durch die Kälte

Wildtiere brauchen bei Minusgraden ein dickes Fell, um Kälte abzuwettern. Der Fellwechsel ist jetzt abgeschlossen; Väterchen Frost kann kommen. Wie funktioniert die haarige „Funktionsjacke“? Sie arbeitet ähnlich wie funktionelle Winterkleidung nach dem Schichten-Prinzip mit Luftkammern. Fette helfen obendrein die Körperwärme zu halten. Die Wildtiere machen sich im Winter im Wortsinn „dicke“: Vögel plustern sich auf, Säugetiere tragen wollige „Unterwäsche“.
Damit der Hirsch gut durch den Winter kommt, wachsen ihm neue Haare. Seine Fellfarbe wandelt sich von einem glänzenden sommerlichen Rot in ein gedecktes winterliches Grau. „Das Winterhaar der Hirsche ist doppelt so lang wie im Sommer, es ist wesentlich spröder und hat einen anderen Querschnitt“, sagt Hilmar Freiherr von Münchhausen, Geschäftsführer der Deutschen Wildtier Stiftung. Unter der äußeren Decke wachsen Wollhaare, die wie eine wärmende Thermo-Unterwäsche beim Menschen Schutz gegen die Kälte bieten. „Die Wollhaare stehen sehr dicht. Luftpolster zwischen den Haaren sorgen zusätzlich für Isolation und auch die Temperaturleitfähigkeit der Haare ist deutlich herabgesetzt.“ Damit ist der Rothirsch perfekt gegen eisige Temperaturen gewappnet. Am auffälligsten ist der Haarwuchs der Hirsche am Hals – seine prächtige Mähne sieht einem warmen Wollschal sehr ähnlich. Doch sie hat nicht nur eine wärmende Aufgabe. „Während der Brunft ist die stolze Mähne an die Menge des Sexualhormons Testosteron gebunden: Je länger die Mähne, desto mehr Testosteron steckt in dem Prachtkerl.“ So dienen Haare bei Wildtieren nicht nur als Wärmeschutz, sondern auch als wichtiges Kriterium bei der Partnerwahl.

Auch im Wildschwein-Fell sind zwischen den Haaren Luftkammern eingeschlossen, die die Abgabe der Körperwärme verhindern. Jetzt im Dezember ist der Fellwechsel bei Wildschweinen abgeschlossen. Sie haben sich das Sommerfell an Bäumen abgescheuert, sind so die alten Haare losgeworden. Das Winterhaar kommt ebenfalls in dunkelgrau bis schwarz daher – und eine auffällige Haarverlängerung stand an: Denn die borstigen Deckhaare sind deutlich länger als im Sommer. Darunter liegt die kurze, dicke Unterwolle. „An besonders frostigen Tagen rotten sich die Tiere auch mit ihren Artgenossen zusammen, um sich gegenseitig zu wärmen“, erklärt von Münchhausen.
Wer im Wasser lebt, braucht eine gute Portion Schmierfett, um sich vor klirrender Kälte zu schützen. Der Fischotter hat zwar ein perfektes „Funktionsjacken“-Fell mit etwa 50.000 Haaren pro Quadratzentimeter – und damit den dichtesten Winterpelz aller heimischen Säugetiere. Doch auch bei ihm spielt Fett als Kälteschutzmittel eine wichtige Rolle. Er produziert ein öliges Drüsensekret, das wasserabweisend wirkt. Damit wird das Fell ordentlich „bearbeitet“. Dasselbe Wärmeschutzprinzip wenden Wasservögel an: Ihre Federn sind gut eingefettet. Enten haben eine spezielle Fettdrüse an der Oberseite der Schwanzwurzel, die sogenannte Bürzeldrüse. Das Fett aus dieser Drüse verteilen sie mit dem Schnabel im Federkleid – eine gute Portion Pomade ist in diesem Fall überlebenswichtig.

Kontakt:
Eva Goris, Pressesprecherin, Christoph-Probst-Weg 4, 20251 Hamburg,
Telefon 040 9707869-13, Fax 040 9707869-19,
E.Goris@DeutscheWildtierStiftung.de, www.DeutscheWildtierStiftung.de

Weitere Informationen:
http://www.Presse.DeutscheWildtierStiftung.de

Quelle: idw

(nach oben)


Forscher entwickeln Unterwasser-Observatorium

Dr. Michael Welling Presse- und Öffentlichkeitsarbeit
Johann Heinrich von Thünen-Institut, Bundesforschungsinstitut für Ländliche Räume, Wald und Fischerei

Neues Gerät soll vor Helgoland automatisch die Plankton-Lebensgemeinschaft erfassen

Die Weiten des Meeres und dessen zeitweise harschen Bedingungen stellen Meeresforscher häufig vor schwierige Situationen. In der Nordsee nahe Helgoland haben Wissenschaftler des Thünen-Instituts für Seefischerei, des Alfred-Wegener-Instituts (AWI) und des Helmholtz-Zentrums Geesthacht (HZG) jetzt ein außergewöhnliches Gerät ausgebracht: ein optisch-akustisches Unterwasser-Observatorium. Es ist in der Lage, kleinste Meereslebewesen unter Wasser zu erfassen und automatisch zu identifizieren – rund um die Uhr und selbst unter Bedingungen, unter denen kein Forschungsschiff den Hafen verlassen kann.

Mikroskopisch kleine Krebstiere, Fischlarven, Quallen sowie Jugendstadien vieler Schnecken und Stachelhäuter – all das wird zum Zooplankton gezählt. Es stellt die Basis der Nahrungskette im Meer dar, seine Verteilung und Vielfalt ist somit auch für viele Fischbestände und Meeressäuger von großer Bedeutung.

Das Zooplankton-Observatorium ist in der Lage, die Verteilungsmuster der Kleinlebewesen und Partikel mit einer hohen räumlichen und zeitlichen Auflösung automatisch zu erfassen, ohne die Lebensgemeinschaften durch Fanggeräte oder Probenahmen zu beeinflussen. Zusätzlich kann es die Verteilung und Sinkgeschwindigkeit kleiner organischer Partikel, den sogenannten „Schnee der Meere“, registrieren. Diese Partikel sind wichtiger Bestandteil der Kohlenstoffflüsse in den Ozeanen und haben somit Einfluss auf die klimatischen Bedingungen sowie deren Wandel.

Das Unterwasser-Gerät basiert auf der Kombination eines akustischen Doppler-Strömungsmessers (ADCP) mit einem Video-Plankton-Rekorder (VPR). Letzterer ist ein Unterwasser-Kamerasystem, das 15 hochaufgelöste Bilder pro Sekunde aufnehmen kann. Dadurch wird es möglich, Organismen ab einer Größe von 0,5 Millimeter zu beobachten und zu bestimmen – selbst fragile Arten wie gelatinöses Plankton, welches bei der traditionellen Probennahme mit Planktonnetzen häufig nicht erfasst wird. Der ADCP liefert eine dreidimensionale Vermessung des Strömungsfeldes und misst die akustische Rückstreustärke. Mit Hilfe dieser Daten lassen sich tägliche oder auch saisonale Wanderungsmuster von Zooplankton-Gemeinschaften untersuchen und Wanderungsgeschwindigkeiten ermitteln.

Das Zooplankton-Observatorium wurde von Dr. Boris Cisewski vom Thünen-Institut für Seefischerei und Dr. Klas Ove Möller vom Helmholtz-Zentrum Geesthacht (ehemals Institut für Hydrobiologie und Fischereiwissenschaft der Universität Hamburg) mit der Hilfe von spezialisierten Meerestechnik-Unternehmen entwickelt. Ende November wurde es vom wissenschaftlichen Tauchzentrum des AWI unter Mithilfe des Wasser- und Schifffahrtsamts Tönning mit dem Gewässerschutzschiff „Neuwerk“ ausgebracht.

Das neue Zooplankton-Observatorium ergänzt nun den Unterwasserknoten, welcher als Teil von COSYNA (Coastal Observing System for Northern and Arctic Seas) vom Helmholtz-Zentrum Geesthacht und Alfred-Wegener-Institut entwickelt und 2012 nördlich von Helgoland im AWI-Unterwasserexperimentalfeld MarGate in Betrieb genommen wurde. Dieser Unterwasserknoten – eine Unterwassersteckdose für Strom- und Internetanschluss unter Wasser – bietet die Möglichkeit, unterschiedliche Sensoren und Geräte unter Wasser anzuschließen und kurz- oder längerfristig per Fernzugriff zu betreiben. Der Knoten wird von Prof. Philipp Fischer, Wissenschaftler am AWI, in Zusammenarbeit mit dem Helmholtz-Zentrum Geesthacht betrieben, um u.a. die Fischfauna und Bodentiere zu untersuchen und zu vermessen. Das Zooplankton-Observatorium ergänzt die bereits ausgebrachten Messinstrumente in idealer Weise und soll nun zunächst für mehrere Monate Daten liefern.

Die drei verantwortlichen Wissenschaftler wollen die optisch-akustischen Daten, die das neue Zooplankton-Observatorium liefert, zusammen mit dem vom AWI erhobenen Langzeit-Datensatz „Helgoland Reede“ für weitergehende gemeinsame Untersuchungen verwenden. „Helgoland Reede“ gilt als einer der wertvollsten und detailliertesten Meeres-Datensätze der Welt, im täglichen Rhythmus werden dort Messwerte von Temperatur, Salz- und Nährstoffgehalt erhoben sowie die vorkommenden Tiere und Pflanzen analysiert.

Das Zooplankton-Observatorium wurde im Rahmen des Verbundprojekts AutoMAT („Anpassung und Weiterentwicklung von innovativen, nicht-invasiven Monitoringsystemen und Auswerteverfahren für die Fischereiforschung“) entwickelt. AutoMAT wurde vom Projektträger BLE (Bundesanstalt für Landwirtschaft und Ernährung) gefördert.

Ansprechpartner:
Dr. Boris Cisewski
Thünen-Institut für Seefischerei
Tel.: 040 38905-224
Mail: boris.cisewski@thuenen.de

Dr. Klas Ove Möller
Helmholtz-Zentrum Geesthacht (HZG)
Tel.: 04152 87-2371
Mail: klas.moeller@hzg.de

Prof. Dr. Philipp Fischer
Alfred-Wegener-Institut (AWI)
Tel.: 04725 819-3344
Mail: philipp.fischer@awi.de

Quelle: idw

(nach oben)


Auf Video: Bärtierchen-Sex

Judith Jördens Senckenberg Pressestelle
Senckenberg Forschungsinstitut und Naturmuseen

Senckenberg-Wissenschaftler haben erstmals die Fortpflanzung von Bärtierchen dokumentiert. Im Rahmen einer Studie zum Lebenszyklus der Bärtierchen-Art Isohypsibius dastychi gelang es dem Görlitzer Wissenschaftlerteam in Kooperation mit der Universität Stuttgart das Sexualverhalten der winzigen Tiere auf Video festzuhalten. Sie zeigen, dass sich die achtbeinigen Tiere bis zu einer Stunde lang paaren und dabei ein sehr komplexes Vorspiel vollziehen. Die Studie ist kürzlich im Fachjournal „Zoological Journal of the Linnean Society“ erschienen.

Bärtierchen sind faszinierende Lebewesen: die winzigen Tiere mit ihrer namensgebenden, langsam tapsigen Fortbewegungsweise haben sich an vielfältige Lebensräume angepasst. Weltweit sind sie im Meer, Süßwasser oder in feuchten Lebensräumen an Land zu finden – dort können sie, unter anderem wegen ihrer Fähigkeit zur Kryptobiose – einem todesähnlichen Zustand -, Trockenperioden, Kälteeinbrüche, starke Schwankungen im Salzgehalt oder Sauerstoffmangel überstehen.

„Obwohl dieser Tierstamm aufgrund seiner Besonderheiten schon seit 245 Jahren im Fokus der Wissenschaft steht, ist über den Lebenszyklus und das Sexualverhalten getrennt-geschlechtlicher Bärtierchen-Arten bisher erstaunlich wenig bekannt“, erklärt Bodenzoologin Dr. Karin Hohberg vom Senckenberg Museum für Naturkunde in Görlitz und fährt fort: „Wir haben uns diesem Aspekt nun am Beispiel der Bärtierchen-Art Isohypsibius dastychi angenommen.“

Das Wissenschaftlerteam zeigt in der aktuell veröffentlichten Studie, dass das Paarungsverhalten der achtbeinigen Tiere komplexer ist als es bisher vermutet wurde. Im Rahmen ihrer Bachelorarbeit gelang es Jana Bingemer, Studentin an der Universität Stuttgart, über 30 Bärtierchen-Paare bei der Fortpflanzung zu beobachten und den Geschlechtsakt auf Video festzuhalten.

„Für uns überraschend war das Vorspiel, das zwischen den Bärtierchenpaaren stattfand“, erklärt Bingemer und fährt fort: „Die Partner stimulieren sich wechselseitig: das Männchen legt sich um den Kopf des Weibchens und hält sich dort mit seinem ersten Beinpaar fest und das Weibchen stupst ihren Partner so lange leicht mit ihren stilettartigen Mundwerkzeugen an, bis dieser seinen Samen ejakuliert.“ Dieser Vorgang wiederholt sich mehrfach während der bis zu einer Stunde andauernden Paarung. Währenddessen legt das Weibchen ihre Eier in ihr Häutungshemd ab und steigt zuletzt aus ihrer alten Haut. Die Befruchtung findet daraufhin außerhalb der Bärtierchenkörper im Häutungshemd statt. Taucht zum passenden Zeitpunkt kein Männchen auf, häutet sich das Weibchen ohne die Eier abzulegen. Die Eier verbleiben dann im Körper und werden binnen weniger Tage resorbiert. Nichtpaarungsbereite Weibchen werden von den männlichen Bärtierchen ignoriert.
„Die aktuelle Studie zeigt uns, dass sich die Bärtierchen auch in ihrem Fortpflanzungsverhalten extrem effektiv verhalten – Energie wird nur aufgewandt, wenn es sich auch lohnt“, schlussfolgert Hohberg.

Um das Sexualverhalten zu beobachten haben die Wissenschaftler weibliche von männlichen Bärtierchen getrennt und diese dann gezielt und unter Beobachtung wieder zusammengeführt – „nur so konnten wir die Paarung studieren und uns auch sicher sein, wie lange die Entwicklung nach der Eiablage andauert“, erzählt die Görlitzer Biologin Eine Gruppe wurde so bei einer Temperatur von 20 Grad, eine andere unter 12 Grad Celsius aufgezogen. Unter kälteren Bedingungen verlängerte sich die Generationszeit der Tiere von etwa 28 auf 44 Tage: die Bärtierchen waren sowohl später geschlechtsreif, als auch deutlich größer, als ihre unter wärmeren Bedingungen lebenden Artgenossen.

Kontakt
Karin Hohberg
Senckenberg Museum für Naturkunde Görlitz
Tel. 03581-47605531
Karin.Hohberg@senckenberg.de

Judith Jördens
Pressestelle
Senckenberg Gesellschaft für Naturforschung
Tel. 069- 7542 1434
pressestelle@senckenberg.de

Link zum Video
www.youtube.com/user/SenckenbergFrankfurt

Publikation
Bingemer, J., Hohberg, K. and Schill, R. O. (2016), First detailed observations on tardigrade mating behaviour and some aspects of the life history of Isohypsibius dastychi Pilato, Bertolani & Binda 1982 (Tardigrada, Isohypsibiidae). Zool J Linn Soc, 178: 856-862. doi:10.1111/zoj.12435

Pressemitteilung und Bildmaterial finden Sie auch unter www.senckenberg.de/presse

Die Natur mit ihrer unendlichen Vielfalt an Lebensformen zu erforschen und zu verstehen, um sie als Lebensgrundlage für zukünftige Generationen erhalten und nachhaltig nutzen zu können – dafür arbeitet die Senckenberg Gesellschaft für Naturforschung seit nunmehr fast 200 Jahren. Diese integrative „Geobiodiversitätsforschung“ sowie die Vermittlung von Forschung und Wissenschaft sind die Aufgaben Senckenbergs. Drei Naturmuseen in Frankfurt, Görlitz und Dresden zeigen die Vielfalt des Lebens und die Entwicklung der Erde über Jahrmillionen. Die Senckenberg Gesellschaft für Naturforschung ist ein Mitglied der Leibniz-Gemeinschaft. Das Senckenberg Naturmuseum in Frankfurt am Main wird von der Stadt Frankfurt am Main sowie vielen weiteren Partnern gefördert. Mehr Informationen unter www.senckenberg.de.

Quelle: idw

(nach oben)


Über 100.000 Klicks: Forscher der TU Kaiserslautern erklären Computerchips auf YouTube

Katrin Müller Presse- und Öffentlichkeitsarbeit
Technische Universität Kaiserslautern

Auf ihrem eigenen YouTube-Kanal erklären Elektrotechniker der TU Kaiserslautern komplexe Computerchips in Lehrvideos. Im Fokus dabei stehen sogenannte Zynq-Chips, die vielseitig einsetzbar sind. Die Videos erklären detailliert, welche Anwendungen sich mit diesen Bauteilen realisieren lassen. Vor allem Studentinnen und Studenten, aber auch die Industrie profitieren davon. Die Clips vermitteln Lernstoff, der in Vorlesungen aus Zeitgründen nicht ausführlich behandelt werden kann. Mit ihren YouTube-Videos, die sie in ihrem Studio auf dem Campus produzieren, haben die Kaiserslauterer Ingenieure bereits über 100.000 Klicks erreicht. Die meisten Nutzer stammen aus den USA.

Das Studium der Eingebetteten Systeme im Fachbereich Elektrotechnik und Informationstechnik an der TU Kaiserslautern vermittelt das Einmaleins der Computer-Architektur. Studentinnen und Studenten erlernen unter anderem, mit welchen digitalen Schaltkreisen und -elementen Mikroprozessoren oder Computerchips funktionieren. Um sich mit der Technik auseinanderzusetzen, bauen sie beispielsweise eigene Schaltkreise. „Dazu nutzen sie bestimmte Chips, sogenannte Field Programmable Gate Arrays, kurz FPGAs“, sagt Matthias Jung, der am Lehrstuhl für Entwurf Mikroelektronischer Systeme bei Professor Dr. Norbert Wehn an der TU Kaiserslautern forscht. Ein FPGA ist ein Chip, auf den eine Schaltung aufgespielt werden kann.

„Die Industrie nutzt sie in vielen Produkten, beispielsweise zur schnellen Signalverarbeitung, gerade wenn kleine Stückzahlen erforderlich sind“, so Jung weiter. „Sie sind wesentlich flexibler als andere Schaltungen, wie etwa sogenannte anwendungsspezifische integrierte Schaltungen, da man sie im Feld, also beim Kunden vor Ort, direkt neu konfigurieren kann. Fehler können so zum Beispiel schnell und kostengünstig behoben werden.“ Aufgrund ihrer einfachen Entwicklung können Technikkonzerne solche Systeme außerdem schnell auf den Markt bringen.

Seit ein paar Jahren gibt es eine neue Form: die Zynq-Chips. „Sie bestehen aus zwei Komponenten“, sagt Jung. „Neben einem freiprogrammierbaren Element wie bei herkömmlichen FPGAs gibt es zusätzlich einen Prozessor, auf dem Software ausgeführt werden kann.“

„Um herauszufinden, an welchen Stellen die Software viel Zeit verbraucht, nutzen wir ein gängiges Programmierwerkzeug, das Profiling“, erläutert Jung. In der Software, die auf dem Prozessor ausgeführt wird, laufen einzelne Arbeitsschritte nacheinander ab. Mit dem Zynq-Baustein ist es nun möglich, den rechenintensiven Teil der Software auf den integrierten FPGA auszulagern und parallel in Hardware rechnen zu lassen. „Diese sogenannten Hardwarebeschleuniger reduzieren somit die Gesamtlaufzeit des Systems und erhöhen die Energieeffizienz“, so Jung weiter.

Diese Technik sowohl auf Prozessor- als auch auf FPGA-Seite ist sehr komplex. „In Vorlesungen haben wir gar nicht genug Zeit, alle Details der Zynq-Plattform praxisnah zu erklären“, so Jung weiter. Damit der Ingenieurnachwuchs aber nicht das Nachsehen hat, hatten die Forscher eine Idee: Sie haben 2014 einen eigenen YouTube-Kanal ins Leben gerufen. „Wir stellen hier Tutorials ein, in denen wir Schritt für Schritt auf Englisch erklären, wie die Technik funktioniert und welche Anwendungen sich damit realisieren lassen“, sagt Jung.

Jung kümmert sich um die Technik und die Produktion der Videos, während Dr. Mohammad Sadegh Sadri als Moderator durchs Programm führt. Die Videos produzieren die Elektrotechniker in einem Studio auf dem Campus, das ihnen von Kollegen um Professor Dr. Hans Schotten aus dem Studiengang Medientechnik zur Verfügung gestellt wird. Es besitzt unter anderem einen Green-Screen. Damit können die Forscher die einzelnen Arbeitsschritte am Rechner direkt einblenden, ähnlich wie dies beim Wetterbericht im Fernsehen der Fall ist.

Die Reaktionen auf ihr Angebot sind sehr positiv. Ein Großteil der Nutzer stammt aus den USA. „Auf Konferenzen im Ausland werde ich oft darauf angesprochen“, so Jung. „Auch unsere Studenten schauen die Videos, um die Technik weiter zu erlernen.“ Mit ihrem Web-Angebot haben die Kaiserslauterer bereits Tausende von Nutzern erreicht: Vor kurzem haben sie die 100.000-Klick-Marke überschritten.

Der YouTube-Kanal der Kaiserslauterer Ingenieure: www.youtube.com/user/EMSUNIKL

Fragen beantworten:
Dipl.-Ing. Matthias Jung
Tel.: 0631 205- 3579
E-Mail: jungma@eit.uni-kl.de

Dr.-Ing. Christian Weis
Tel.: 0631 205-2711
E-Mail: weis@eit.uni-kl.de

Quelle: idw

(nach oben)


Hilfe vor und nach der letzten Zigarette

Dipl.-Ing. Mario Steinebach Pressestelle
Technische Universität Chemnitz

Raucherambulanz Chemnitz bietet Tabakentwöhnungskurse an, die von der Professur Klinische Psychologie und Psychotherapie der TU wissenschaftlich betreut werden

Das neue Jahr beginnt für viele mit dem guten Vorsatz, mit dem Rauchen aufzuhören. Gründe dafür gibt es viele. „Wer sich vom Glimmstängel verabschiedet, lebt länger und vor allem länger körperlich und psychisch gesund – das ist durch die Forschungsergebnisse der letzten Jahrzehnte zweifelsfrei bewiesen“, sagt Prof. Dr. Stephan Mühlig, Inhaber der Professur Klinische Psychologie und Psychotherapie an der Technischen Universität Chemnitz. Raucher haben nicht nur ein vielfach höheres Risiko, an Lungenkrebs zu erkranken. „Auch andere Krebs-Erkrankungen wie Kehlkopf-, Lippen-, Magen-Darm- oder Blasenkrebs kommen bei Rauchern sehr viel häufiger vor als bei Nichtrauchern. Auch schwerwiegende chronische Atemwegs- und Herzkreislauferkrankungen wie beispielsweise die Chronische Bronchitis, Herzinfarkte, Gefäßverengungen, frühzeitige Erblindung und Potenzprobleme werden im Wesentlichen durch das Zigarettenrauchen mitverursacht“, weiß Mühlig.

Unabhängig von den körperlichen Folgeschäden ist das Zigarettenrauchen aber häufig auch eine Suchterkrankung. Nikotin zähle zu den suchtpotentesten Substanzen überhaupt, mit einem ähnlich hohen Abhängigkeitspotenzial wie Heroin. „Wer zur Zigarette greift, weiß zwar meist um die gesundheitlichen Risiken des Tabakrauchens, und deshalb wollen die meisten Raucher eigentlich aufhören. Aber dies ist eben bei süchtigen Rauchern nicht einfach nur eine Willensfrage“, sagt Mühlig.

Neben abhängigkeitsbezogenen Problemen wie Entzugserscheinungen und Suchtverlangen ist die Zigarette im Alltag mit vielerlei Auslösereizen, Ritualen und Gewohnheiten verbunden, die nach einem Rauchstopp noch lange Zeit automatisch ein heftiges Suchtverlangen und schließlich Rückfälle auslösen können. „Ohne professionelle Unterstützung liegt die Rückfallquote von Abstinenzversuchen nach einem Jahr bei über Prozent“, sagt Mühlig. Vielen Rauchern gelinge der Rauchstopp zwar irgendwann auch ohne professionelle Unterstützung, allerdings oft erst nach mehreren Anläufen und nach vielen Jahren. Das bedeutet: Nicht selten erst, wenn bereits ernsthafte Gesundheitsschäden und Rauchererkrankungen eingetreten sind.

Vor diesem Hintergrund bietet die Raucherambulanz der Technischen Universität Chemnitz Intensivkurse zur Tabakentwöhnung für aufhörwillige Raucher aus der Region Chemnitz an. Das verwendete Programm basiert auf einem wissenschaftlich fundierten Konzept, das die wirksamsten Methoden psychologischer sowie medikamentöser Entwöhnungsbehandlungen kombiniert. Es umfasst sechs Einheiten a 90 Minuten Dauer und wird in Gruppen von acht bis zwölf Teilnehmern über etwa drei Monate durchgeführt. Die Teilnehmer der einzelnen Kurse werden vorab gründlich befragt und nach Kursende noch sechs Monate telefonisch begleitet. Mühlig verweist auf die wissenschaftlichen Wirksamkeitsnachweise der verhaltenstherapeutischen Gruppentherapie zur Tabakentwöhnung: „In den Kursen werden die Hintergründe der Tabaksucht erklärt. Der Rauchstopp wird systematisch vorbereitet, und die Teilnehmer entwickeln Strategien, mit Entzugserscheinungen und Suchtverlangen umzugehen und ihren Lebensalltag als Nichtraucher neu zu gestalten. Die Kursgruppen bieten zudem vielen Teilnehmern nicht nur einen Rückhalt, sie erzeugen eine hilfreiche soziale Unterstützung, wirklich ans Ziel zu kommen. Hinzu kommt die intensive Betreuung nach dem Ende des eigentlichen Kurses. “

Mühlig meint, dass jeder Raucher einfach mal einen Blick in die Statistik werfen sollte: „Weltweit stirbt alle sieben Sekunden ein Mensch an den Folgen des Rauchens. Allein in Deutschland sind das im Jahr etwa 140.000 Menschen, die vorzeitig an tabakbedingten Erkrankungen sterben“, sagt der Psychologe. 90 Prozent der Raucher würden sich das Rauchen eigentlich abgewöhnen wollen, ohne professionelle Hilfe schaffen es jedoch nur drei bis sechs Prozent dauerhaft. „Einen guten Vorsatz zu haben, auf den blauen Dunst zu verzichten, ist dennoch ein wichtiger Schritt in die richtige Richtung“, meint Mühlig.

Weitere Informationen zur Raucherambulanz Chemnitz: https://www.tu-chemnitz.de/hsw/psychologie/professuren/klinpsy/RAC/index.php

Rückfragen werden beantwortet per E-Mail raucherambulanz@tu-chemnitz.de oder telefonisch unter der Rufnummer 0371 531-32243.

Quelle: idw

(nach oben)


Wo bleibt das Treibhausgas Kohlendioxid?

Dr. Andreas Villwock Kommunikation und Medien
GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel

Heute erscheint der „Global Carbon Budget 2016″ Bericht in der Fachzeitschrift Earth System Science Data. Bei dieser jährlich erstellten Publikation handelt es sich um ein Vorzeigeprodukt der internationalen Erdsystembeobachtung, das auf den besten weltweit verfügbaren Daten basiert. Der Bericht wird von einem internationalen Autorenteam erstellt, Kieler Meeresforscher tragen im Rahmen des europäischen „Integrated Carbon Observation System“ regelmäßig mit ihren Daten und ihrem Wissen zu diesem wichtigen Produkt bei.

Wie viel Kohlendioxid (CO2) durch die Verbrennung fossiler Energieträger freigesetzt wird, ist über deren Verbrauch relativ gut bekannt. Doch wo bleibt das CO2? Wie viel davon nimmt die Landvegetation auf, wie viel der Ozean, wie schnell wird es dort in große Meerestiefen verfrachtet? Aussagen hierüber sind immer noch mit großen Unsicherheiten behaftet. Um diese zu beseitigen sind Langzeitbeobachtungen notwendig. Kieler Meeresforscher vom GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel tragen mit ihren Daten dazu bei.

„Ich bin froh und auch ein wenig stolz, dass es uns in der Meeresforschung gelungen ist, die Verwertungskette für unsere CO2-Daten von der Messung über die sorgfältige Qualitätskontrolle und turnusmäßige Abgabe an internationale Datenbanken bis hin zum jährlichen ‚Global Carbon Budget‘ und damit letztlich auch in die Berichte des Weltklimarates zu schließen“, so Prof. Dr. Arne Körtzinger, der die Messungen am GEOMAR leitet, „Nur mit einem solchen nahtlosen System ist eine aktuelle und globale Bestimmung des Kohlenstoffkreislaufs möglich.“

Der neue Bericht belegt, dass die weltweiten Emissionen von Kohlendioxid nun schon im dritten Jahr in Folge kaum noch ansteigen. Damit deutet sich trotz deutlich wachsender Weltwirtschaft erstmals eine Trendwende an, die vor allem auf die rückläufige Verbrennung von Kohle in China zurückzuführen ist, unterstützt durch ebenfalls leicht abnehmende Emissionstrends in Europa und den USA. Im atmosphärischen CO2-Gehalt, der auch in 2015 deutlich weiter anstieg und mit 400 ppm eine neue Rekordmarke erreichte, zeichnen sich die reduzierten Emissionen hingegen noch nicht ab. Grund dafür ist der natürliche CO2-Austausch mit dem Ozean und vor allem der Landbiosphäre, der starken zwischenjährlichen Schwankungen unterliegt.

Eines der Ziele der Arbeitsgruppe von Professor Körtzinger ist seit vielen Jahren den Schwankungen der CO2-Aufnahme im Nordatlantik auf die Spur zu kommen. „Mit Forschungsschiffen allein können wir dem Weltozean allerdings nicht den Puls fühlen.“, so Dr. Tobias Steinhoff vom GEOMAR, der die Messungen betreut. „Wir nutzen daher seit mehr als zehn Jahren ein Frachtschiff, das ständig auf der Europa-Nordamerika-Route pendelt und uns so mit Hilfe von autonomen Mess-Systemen eine fast lückenlose Beobachtung entlang der Fahrtroute erlaubt.“ Derartige autonome Plattformen sind, so Prof. Körtzinger, die Zukunft in der operationellen Meeresforschung. So können in Regionen, in denen kaum Schiffsverkehr besteht, inzwischen sogar robotische Instrumente eingesetzt werden, die vom Arbeitsplatz in Kiel aus gesteuert werden.

„Mit dem sogenannten Wave Glider verfügen wir über eine Art Mini-Forschungsschiff, das wir ferngesteuert überall im Weltozean für die CO2-Messung einsetzen können. Wir haben das Gerät jetzt erstmalig erfolgreich im tropischen Atlantik eingesetzt und, darüber bin ich besonders froh, auch heil wieder aufnehmen können,“ so Dr. Björn Fiedler aus der Arbeitsgruppe Körtzinger, der die Langzeit-Beobachtungen bei den Kapverdischen Inseln betreut.

Hinweis:
Die Messungen werden im Rahmen des Projektes ICOS-D vom BMBF (Förderkennzeichen 01LK1224J) gefördert.

Originalveröffentlichung:
Le Quéré, C., R.M. Andrew, J. G. Canadell, S. Sitch, J. I. Korsbakken, G. P. Peters, A. C. Manning, T. A. Boden, P. P. Tans, R. A. Houghton, R. F. Keeling, S. Alin, O.D. Andrews, P. Anthoni, L. Barbero, L. Bopp, F. Chevallier, L. P. Chini, P. Ciais, K. Currie, C. Delire, S. C. Doney, P. Friedlingstein, T. Gkritzalis, I. Harris, J. Hauck, V. Haverd, M. Hoppema, K. Klein Goldewijk, A. K. Jain, E. Kato, A. Körtzinger, P. Landschützer, N. Lefèvre, A. Lenton, S. Lienert, J. R. Melton, N. Metzl, F. Millero, P. M. S. Monteiro, D. R. Munro, J. E. M. S. Nabel, S. Nakaoka, K. O’Brien, A. Olsen, A. M. Omar, T. Ono, D. Pierrot, B. Poulter, C. Rödenbeck, J. Salisbury, U. Schuste, J. Schwinger, R. Séférian, I. Skjelvan, B. D. Stocker, A. J. Sutton, T. Takahashi, H. Tian, B. Tilbrook, I. T. van der Laan-Luijkx, G. R. van der Werf, N. Viovy, A. P. Walker, A. J. Wiltshire, S. Zaehle, 2016: Global Carbon Budget 2016. Earth System Science Data. http://www.earth-syst-sci-data-discuss.net/essd-2016-51/, doi: 10.5194/essd-8-605-2016

Weitere Informationen:
http://www.geomar.de Das GEOMAR Helmholtz-Zentrum für Ozeanfoschung Kiel
https://www.icos-ri.eu Integrated Carbon Observation System (ICOS)
http://www.icos-infrastruktur.de ICOS Deutschland
http://www.globalcarbonproject.org/carbonbudget Daten und Abbildungen
http://www.globalcarbonatlas.org Visualisierungsplattform des Global Carbon Projects

Quelle: idw

(nach oben)


Buch über die Pflanzenwelt der Bibel und des Koran

Dr. Andreas Archut Dezernat 8 – Hochschulkommunikation
Rheinische Friedrich-Wilhelms-Universität Bonn

Ob Dattelpalmen, Gewürze, Blumen oder der Baum der Erkenntnis: Pflanzen spielen in den Heiligen Büchern der Christen und Muslime eine bedeutende Rolle. Bibel und Koran zeigen überraschende Gemeinsamkeiten – auch in ihrer Forderung zum Erhalt der Natur. Wissenschaftler der Universität Bonn veröffentlichen nun die erste umfangreiche Publikation im deutschsprachigen Raum zu diesem Thema. Herausgeber des eindrucksvoll illustrierten Bands ist das Bundesamt für Naturschutz.

Nicht nur Naturwissenschaftler vergessen es manchmal: Religion spielt bis in die Tagespolitik eine bedeutende Rolle. Mehr als 80 Prozent unserer Weltbevölkerung sind religiös orientiert, davon fünf Milliarden Menschen durch die Bibel und den Koran. Die Gemeinsamkeiten zwischen den Schriften sind erstaunlich – etwa die über 4.000 Jahre alte Geschichte von Noah (Bibel) oder Nuh (Koran), die zur Bewahrung der Schöpfung aufruft.

Die Arche zur Rettung von Tieren und Pflanzen war möglicherweise aus Zedernholz gebaut. Die Zeder ist nur eine der rund hundert Arten, die in Bibel und Koran erwähnt sind. Einen Überblick bietet der vorliegende Band: Für dreißig ausgewählten Pflanzen wird der religiöse, botanische und kulturgeographische Hintergrund aufgezeigt. Vorangestellt werden relevante Zitate aus Bibel und Koran. Eine gründlich erarbeitete Liste der in beiden Schriften erwähnten Pflanzen rundet das Buch ab. Der Text ist auf 106 Seiten durch 54 Farbabbildungen illustriert – zum Beispiel von den Weihrauchbäumen aus dem Reich der Königin von Saba, dem heutigen Jemen und Äthiopien. Die Zusammenschau richtet sich explizit auch an Nicht-Botaniker.

Die Autoren und die Autorin des Bandes kommen von der Universität Bonn: Professor Wilhelm Barthlott war langjähriger Institutsdirektor und Direktor der Botanischen Gärten, Dr. Mohammad Daud Rafiqpoor ist Geograph und Jasmin Obholzer Biologin. Der Band enthält zudem Beiträge der Präsidentin des Bundesamtes für Naturschutz (BfN), Professor Beate Jessel, von Andreas Mues (ebenfalls BfN), sowie der führenden Koranpflanzen-Spezialistin Fatima Al-Khulaifi aus Quatar und des weltweit anerkannten Bibel- und Koran-Pflanzen-Forschers Prof. Lytton J. Musselman aus den USA.

Obwohl biologisch motiviert, hat das Buch neben einer allgemein-politischen eine hohe Naturschutz-politische Bedeutung. „Die Darstellung der Pflanzen im ethischen Kontext der Religionen kann eine wertebasierte Auseinandersetzung mit der eigenen Mensch-Natur-Beziehung anregen“, betont Professor Beate Jessel, Präsidentin des Bundesamtes für Naturschutz (BfN). „Diese halte ich für ein wesentliches Element zur Förderung einer naturverträglicheren Gesellschaftsentwicklung.“

„In vielen Punkten – nicht nur in ihrer Einschätzung zur Bedeutung der Natur – sind die Parallelen zwischen Koran und Bibel erstaunlich“, erklärt Professor Dr. Wilhelm Barthlott. „Um es mit den Worten von Nicolaus Cusanus zu sagen: ‚Wir sehen alle die gleichen Sterne‘. Dennoch suchen wir trauriger Weise vor allem die Unterschiede.“

Die Publikation erscheint als Nr. 448 der BfN-Skripten und ist unter der Adresse http://www.bfn.de/religionen_und_natur.html barrierefrei im Internet abrufbar.

Kontakt:
Prof. Dr. Wilhelm Barthlott
Nees Institut für Biodiversität der Pflanzen, Universität Bonn
Telefon: 0228/73-2271
E-Mail: barthlott@uni-bonn.de

Quelle: idw

(nach oben)


Struwwelpeter-Gene entdeckt

Dr. Andreas Archut Dezernat 8 – Hochschulkommunikation
Rheinische Friedrich-Wilhelms-Universität Bonn

Manche Kinder leiden unter völlig zersausten Haaren, die sich partout nicht kämmen lassen. Im Deutschen trägt das Phänomen den treffenden Namen „Syndrom der unkämmbaren Haare“ oder auch „Struwwelpeter-Syndrom“. Forscher der Universitäten Bonn und Toulouse haben Mutationen in drei Genen identifiziert, die dafür verantwortlich sind. Insgesamt waren an der Arbeit Wissenschaftler aus acht Ländern beteiligt. Die Ergebnisse sind heute im American Journal of Human Genetics erschienen.

Dass Kinder nicht immer einfach zu frisieren sind, wissen wohl viele Eltern aus eigener Erfahrung. Doch mit Geduld und starken Nerven lassen sich in aller Regel auch die hartnäckigsten Knoten lösen.

Beim „Syndrom der unkämmbaren Haare“ haben Bürste oder Kamm dagegen nicht den Hauch einer Chance. Die Betroffenen haben extrem krause, trockene, meist hellblonde Haupthaare mit charakteristischem Glanz, die sich jeder Anstrengung, sie zu bändigen, erfolgreich widersetzen. Am ausgeprägtesten sind diese Symptome in der Kindheit und lassen dann mit der Zeit nach. Im Erwachsenenalter lassen sich die Haare meist mehr oder weniger normal frisieren.

Über die Ursachen ist bislang so gut wie nichts bekannt – wohl auch deshalb, weil das Phänomen relativ selten ist. Im Jahr 1973 wurde es zum ersten Mal in der Fachliteratur beschrieben; inzwischen sind weltweit gut einhundert Fälle dokumentiert. „Wir nehmen aber an, dass es deutlich mehr Betroffene gibt“, erklärt Professor Dr. Regina Betz vom Institut für Humangenetik der Uni Bonn. „Wer unter unkämmbaren Haaren leidet, sucht deshalb nicht unbedingt einen Arzt oder eine Klinik auf.“ Immerhin weiß man, dass die Anomalie in manchen Familien gehäuft vorkommt – sie scheint also genetische Ursachen zu haben.

Betz ist Spezialistin für seltene erbliche Haarerkrankungen. Vor ein paar Jahren wurde sie auf einem Kongress von einem britischen Kollegen angesprochen. Dieser hatte kurz zuvor eine Familie mit zwei betroffenen Kindern untersucht. Das Interesse der Bonner Humangenetikerin war geweckt. „Über Kontakte zu Kollegen aus aller Welt gelang es uns, neun weitere Kinder zu finden“, erklärt sie. Die Bonner Wissenschaftler sequenzierten sämtliche Gene der Betroffenen. Beim Abgleich mit großen Datenbanken stießen sie so auf Mutationen in drei Erbanlagen, die an der Bildung des Haares beteiligt sind.

Quervernetzung der Haar-Proteine gestört
Die veränderten Gene tragen die Kürzel PADI3, TGM3 und TCHH. Die ersten beiden enthalten die Bauanleitung für Enzyme, das dritte – TCHH – dagegen für ein wichtiges Protein des Haarschafts. In gesundem Haar sind die TCHH-Proteine über hauchfeine Hornfäden miteinander vernetzt, die für Form und Struktur des Haares verantwortlich sind. Bei diesem Vorgang spielen die zwei anderen gefundenen Gene eine wichtige Rolle: „PADI3 verändert das Haarschaftprotein TCHH so, dass sich die Hornfilamente an ihm anlagern können“, erklärt die Erstautorin der Studie Dr. Fitnat Buket Basmanav Ünalan. „Das TGM3-Enzym stellt dann die eigentliche Verknüpfung her.“

Zusammen mit Kollegen der Universität Toulouse führten die Bonner Wissenschaftler Experimente in Zellkultur durch. In diesen konnten sie die Wichtigkeit der identifizierten Mutationen für die Funktion der Proteine zeigen. Wenn auch nur eine der drei Komponenten nicht funktionell ist, hat das fundamentale Auswirkungen auf die Struktur und Stabilität der Haare. Mäuse, bei denen das PADI3- oder das TGM3-Gen defekt ist, entwickeln daher charakteristische Fell-Anomalien, die dem menschlichen Phänotyp sehr ähnlich sind.

„Aus den gefundenen Mutationen lässt sich eine ganze Menge über die Mechanismen lernen, die an der Bildung gesunder Haare beteiligt sind, und warum es manchmal zu Störungen kommt“, freut sich Professor Regina Betz. „Zugleich können wir nun die klinische Diagnose ‚unkämmbare Haare‘ mit molekulargenetischen Methoden absichern.“

Für betroffene Personen mit Haarerkrankungen ist dieser letzte Punkt eine gute Nachricht: Manche Haar-Anomalien gehen mit schweren Begleiterkrankungen einher, die sich mitunter erst in späteren Lebensjahren manifestieren. Das Struwwelpeter-Syndrom tritt dagegen meist isoliert ohne weitere gesundheitliche Beeinträchtigungen auf. Die unkämmbaren Haare seien zwar lästig und möglicherweise auch eine psychische Belastung, sagt Betz. „Ansonsten müssen sich Betroffene aber keine Sorgen machen.“

Publikation: F. Buket Ü. Basmanav et al.: Mutations in three genes encoding proteins involved in hair shaft formation cause uncombable hair syndrome; The American Journal of Human Genetics; DOI: 10.1016/j.ajhg.2016.10.004

Kontakt:
Prof. Dr. Regina Betz
Institut für Humangenetik, Universität Bonn
Telefon: 0228/287-51023
E-Mail: regina.betz@uni-bonn.de

Quelle: idw

(nach oben)


Bäume pflanzen beim Radeln

Dr. Norbert Aschenbrenner Corporate Communications, Corporate Technology
Siemens AG

Mit einem Smartphone-Spiel erstrampeln sich Radfahrer virtuelle Bäume, die später gegen echte getauscht werden können. Der Wettbewerb ist Teil eines Projekts, mit dem Forscher von Siemens Corporate Technology umweltfreundliche Verkehrsmittel fördern.

Das EU-Projekt Streetlife will mit Hilfe moderner Kommunikationstechnik den CO2-Ausstoß im Stadtverkehr der Pilotstädte: Berlin, Tampere, Finnland und Rovereto, Italien reduzieren. In Berlin entwickelten die Partner die App Streetlife, einen intermodalen Routenplaner, der alle Verkehrsmittel kombiniert – Fahrrad, Bus oder Bahn, Auto sowie Fußwege. Die Nutzer bekommen für jede Variante jeweils Zeit, Weglänge, Kosten, aber auch CO2-Emissionen angezeigt. Die Vorschläge berücksichtigen zudem das aktuelle Wetter und informieren erstmals auch über Gefahrenstellen für Fahrradfahrer. Grundlage letzterer Information sind Unfallstatistiken und Befragungen von Radfahrern.

Der Siemens-Beitrag: Die Vernunft attraktiv machen
Siemens ist an Streetlife in dreifacher Weise beteiligt: Die Siemens-Tochter VMZ Berlin ermittelt die intermodalen Routen. Die City Intelligence Platform (CIP), eine Entwicklung von Corporate Technology (CT) mit smarter Datenanalytik an Bord, wickelt alle Services in Hintergrund ab. Als Informations- und Datenplattform für Städte organisiert die CIP die Kommunikation zwischen den verschiedenen Systemkomponenten, verwaltet die Nutzerdaten und wertet sie aus. „Eine solche Auswertung wäre beispielsweise die Frage, ob an bestimmten Tagen besonders viele oder besonders wenige Fahrradkilometer gesammelt wurden, und warum“, sagt CT-Forscher Christian Schwingenschlögl. Um die App, die eher an die Vernunft appelliert, spielerischer und damit attraktiver zu machen, entwickelten er und Astrid Kellermann von der Business Unit Verkehrstechnik bei Mobility Management (MO MM ITS), die Idee für den Wettbewerb BikeRider.

Der Wettbewerb macht den Unterschied
„Das war der entscheidende Dreh, um möglichst viele Nutzer zu gewinnen“, erzählt Kellermann. „Es gibt ja schon einige kommerzielle Apps, in Berlin beispielsweise von der BVG, und wir befürchteten, zu wenige Nutzer zu finden. So kam uns die Idee mit dem Wettbewerb, und das hat wirklich etwas gebracht.“ Mit BikeRider sammeln die Spieler für jeden gefahrenen Fahrradkilometer 10 Blätter. Haben sie 500 Blätter oder 50 Radkilometer beisammen, können sie auf dem virtuellen Stadtplan Berlins einen Baum pflanzen. „Zuerst zeigte die App nur den CO2-Footprint in Form von Blättern an. Nachdem wir den Wettbewerb mit den Bäumen eingeführt hatten, gingen die Nutzerzahlen deutlich nach oben“, sagt Kellermann. Gespielt wird in drei Runden á einem Monat, gestartet ist BikeRider Anfang März. Für jeden Monat werden jeweils die Teilnehmer mit den meisten Fahrradkilometern ermittelt. Die Fahrer auf den ersten beiden Plätzen gewinnen einen echten Baum, der von Siemens gesponsert und von der Berliner Stadtbauminitiative gepflanzt wird.

Mitte April gab es 180 registrierte BikeRider-Teilnehmer, die insgesamt bereits knapp 7000 Kilometer geradelt waren. Die App selbst wurde bis dahin über 900 Mal heruntergeladen. „Es ist schön, zu sehen wie die Community wächst. Ich sehe ganz viele virtuelle Bäume auf unserer Karte“, freut sich Kellermann. Auch die beiden Gewinner für März stehen jetzt fest. Trotz der frühen Jahreszeit haben sie in diesem Monat 460 beziehungsweise fast 400 Kilometer mit dem Rad zurückgelegt.

GPS-Daten liefern die Fahrradkilometer
Um das Spiel umzusetzen, mussten die Forscher BikeRider zuerst auf der City Intelligence Platform (CIP) implementieren. „Die Berechnung der Fahrradkilometer, die Erstellung des High-Scores, der gesamte Wettbewerb läuft auf der Plattform“, erklärt Schwingenschlögl. Die Spieler übermitteln an sie die GPS-Daten ihres Smartphones. Ein von den Forschern entwickelter Algorithmus ermittelt dann, ob der Teilnehmer zum jeweiligen Zeitpunkt radelt, geht oder Bus fährt. Daraus ergibt sich die Grundlage des Spiels – nämlich die von jedem Spieler mit dem Fahrrad zurückgelegten Kilometer.

In dem EU-Projekt wird nun untersucht, wie die App das Verhalten beeinflusst. Nutzer – die ansonsten anonym radeln – werden gefragt, warum sie vorgeschlagene Routen verwenden oder nicht. Diese Erhebungen macht das Deutschen Luft- und Raumfahrtzentrum (DLR), die App selbst stammt vom Projektpartner DFKI (Deutsches Forschungszentrum für Künstliche Intelligenz). Anhand der Ergebnisse soll modelliert werden, wie sich die App bei einer großflächigen Umsetzung insgesamt auf den Berliner Verkehr auswirken würde.

Ausweitung auf andere Städte
Streetlife endet im Herbst 2016. „Wir überlegen, an andere Städte mit der Idee heranzutreten, BikeRider als Motivation fürs Radfahren einzusetzen“, berichtet Kellermann. „Eine Routen-App gibt es fast in jeder Stadt, in München zum Beispiel von der MVG. Darauf kann BikeRider aufbauen.“ Die City Intelligence Platform, die die Trackingdaten verarbeitet, sei ebenfalls für die jeweilige Stadt einfach aufzusetzen. Erste Anfragen gibt es bereits. Derweil überlegen die Forscher, das Spiel weiter auszubauen, beispielsweise um Teams gegeneinander antreten zu lassen. Das gäbe den Städten die Möglichkeit, einen groß angelegten Wettbewerb zu starten oder das Spiel in Zusammenhang mit Großereignissen umzusetzen und so Mobilität nachhaltig zu organisieren.

Kontakt:
Herr Dr Norbert Aschenbrenner
Redaktion
Siemens AG
norbert.aschenbrenner@siemens.com

Originalartikel im Internet:
https://www.siemens.com/innovation/de/home/pictures-of-the-future/mobilitaet-uns…

Quelle: idw

(nach oben)


Der Rückgang von Emissionen hat auch negative Begleiterscheinungen

Susanne Hufe Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum für Umweltforschung – UFZ

In großen Teilen Europas und Nordamerikas hat der Rückgang von industriellen Emissionen zu einer geringeren Schadstoffbelastung der Atmosphäre, und damit von Böden und Gewässern in naturnahen Gebieten geführt. Dass diese positive Entwicklung auch negative Begleiterscheinungen haben kann, haben Wissenschaftler des UFZ nun im Fachmagazin Global Change Biology veröffentlicht. Demnach sind sinkende Nitratwerte in den Auenböden rund um die Zuflüsse von Talsperren dafür verantwortlich, dass gelöster organischer Kohlenstoff (DOC) und Phosphat vermehrt freigesetzt werden und sich die Wasserqualität verschlechtert.

Durch die Verbrennung von Biomasse und fossilen Energieträgern sowie vor allem durch die Landwirtschaft gelangt nach wie vor zu viel reaktiver Stickstoff in die Umwelt – mit negativen Auswirkungen auf die biologische Vielfalt, das Klima und die menschliche Gesundheit. Eine differenzierte Betrachtung von Eintragspfaden der verschiedenen Verursacher zeigt jedoch große Unterschiede. Während Stickstoff-Einträge über den Boden – vor allem durch die Landwirtschaft verursacht – zum Beispiel die Nitratwerte im Grundwasser vieler Regionen weiter über den Grenzwert von 50 mg pro Liter steigen lassen, nimmt in großen Teilen Europas und Nordamerikas die atmosphärische Belastung durch emissionsverringernde Maßnahmen ab. Das führt dazu, dass über diesen Pfad auch weniger Stickstoff in Böden und Gewässer gelangt. Langzeitmessungen über die letzten 20 Jahre zeigen das etwa deutlich für Deutschland: Pro Quadratmeter und Jahr wurden durchschnittlich 35 mg weniger atmosphärischer Stickstoff in den Boden eingetragen. Daraus resultieren laut Untersuchungen der UFZ-Wissenschaftler 0,08 mg pro Liter und Jahr weniger Nitrat, das in Flüsse und Trinkwassertalsperren gelangt. „Das klingt erst einmal wenig, aber in einigen naturnahen Landschaften, die nicht oder kaum durch Industrie und Landwirtschaft geprägt sind, stellen sich im Laufe der Zeit vorindustrielle Bedingungen ein“, sagt UFZ-Hydrogeologe Dr. Andreas Musolff. „Hier sind wir mit teilweise weniger als 6 mg Nitrat pro Liter Wasser weit entfernt von den problematischen Nitratkonzentrationen, die in landwirtschaftlich oder industriell stark geprägten Regionen gemessen werden“.

Dass diese positive Entwicklung auch negative Begleiterscheinungen haben kann, wurde deutlich, als Wissenschaftler damit begannen, die Ursachen einer in Deutschland, Nordeuropa und Nordamerika zunehmend zu beobachtenden Braunfärbung des Wassers in Talsperren zu erforschen. Sie ist vor allem für die Trinkwasseraufbereitung problematisch. Bei der Überprüfung verschiedener Hypothesen stellten sie fest, dass die Braunfärbung des Wassers vor allem mit den sinkenden Nitratkonzentrationen in den Auenböden rund um die Zuflüsse der Talsperren in Verbindung zu bringen ist. Denn die Präsenz von Nitrat in den Auen, in denen ein Großteil des Abflusses der Gewässer gebildet wird, sorgt dafür, dass Kohlenstoff, Phosphat und verschiedene Metalle an oxidiertes Eisen gebunden bleiben. Geringere Nitratgehalte ermöglichen die chemische Reduktion der Eisenverbindungen und damit die Mobilisierung bislang adsorbierter Stoffe. Das heißt – bislang stabile Bindungen an Bodenpartikel lösen sich und gelangen mit dem Regenwasser in die Flüsse. Im Falle von Kohlenstoff bedeutet das, dass sich die Konzentration an gelöstem organischen Kohlenstoff (Dissolved Organic Carbon – DOC) erhöht, sichtbar durch die bräunliche Farbe des Wassers. Bei knapp 40 Prozent der 110 untersuchten Zuflüsse von Trinkwassertalsperren stellten die Wissenschaftler mit durchschnittlich 0,12 mg mehr DOC pro Liter und Jahr signifikant steigende DOC-Konzentrationen fest. Der stärkste Anstieg war in naturnahen Einzugsgebieten mit viel Wald zu verzeichnen, wo die Nitratkonzentration im Wasser bei weniger als 6 mg pro Liter liegt.

Neben dem DOC steigt in über 30 Prozent der Zuflüsse auch der Phosphatgehalt signifikant an. Die im Durchschnitt ermittelten 7 µg pro Liter und Jahr mehr begünstigen das Algenwachstum und sind auf lange Sicht ebenso problematisch für die Wasserqualität. Es gibt Hinweise, dass zudem neben DOC und Phosphat adsorbierte Metalle wie Arsen, Vanadium, Zink oder Blei zunehmend mobilisiert werden.
„Man löst ein Problem, indem man die Luft sauberer macht, und kreiert damit an bestimmten Stellen ein anderes Problem“, beschreibt Biologe Dr. Jörg Tittel, der das Projekt am UFZ geleitet hat, den unerwarteten Effekt. „Keiner der gelösten Stoffe ist in dieser geringen Konzentration giftig, zudem werden die Stoffe durch die Wasseraufbereitung weitgehend entfernt. Aber die Aufbereitung des Wassers wird teurer.“

Einen ersten Beleg ihrer Hypothese lieferte die Auswertung der Daten eines 1,7 km2 kleinen Einzugsgebietes im Erzgebirge, rund um die Wilzsch, einem Nebenfluss der Zwickauer Mulde, der in die Talsperre Carlsfeld mündet. Danach wählten die Wissenschaftler einen wesentlich größeren Maßstab, in deren Fokus 110 Flüsse und ihre Einzugsgebiete standen, die in insgesamt 36 Trinkwassertalsperren münden. Trotz der wesentlich größeren Vielfalt hinsichtlich der Größe der Flüsse und ihrer Einzugsgebiete, ihrer Topografie, der Niederschlagsmenge, der Landnutzung und der chemischen Charakteristik bestätigte sich auch hier ihre Vermutung: Der beobachtete Anstieg des DOC hängt eng mit dem abnehmenden Nitratgehalt im Wasser zusammen.

Mittlerweile hat eine Diskussion begonnen, wie die Ergebnisse dieser Meta-Analyse gemeinsam mit den zuständigen Behörden in praktische Maßnahmen umgesetzt werden können, die den DOC-Anstieg stoppen. „Die Studie hilft, zukünftige Forschung auf die relevanten Prozesse zu fokussieren und entsprechende Feldexperimente zu planen, die die Entscheidungsgrundlage im Hinblick auf konkrete Maßnahmen weiter verbessern“, so Andreas Musolff.

Die Forschungsergebnisse wurden im Rahmen des Projekts „Belastung von Trinkwassertalsperren durch gelösten organischen Kohlenstoff: Prognose, Vorsorge, Handlungsoptionen (TALKO)“ erbracht, welches bis 2015 vom Bundesministerium für Bildung und Forschung (BMBF) mit mehr als einer Million Euro gefördert wurde. Ziel der Zusammenarbeit von UFZ, Talsperrenverwaltungen, Wasserversorgern, Behörden und einem Ingenieurbüro war es, Möglichkeiten zu finden, wie die Einträge in die Talsperren reduziert, Vorhersagen verbessert und Technologien der Wasseraufbereitung optimiert werden können.

Publikation:
Musolff, A., Selle, B., Büttner, O., Opitz, M. and Tittel, J. (2016), Unexpected release of phosphate and organic carbon to streams linked to declining nitrogen depositions. Glob Change Biol. doi:10.1111/gcb.13498 http://dx.doi.org/10.1111/gcb.13498

Ansprechpartner:
Dr. Andreas Musolff
UFZ-Department Hydrogeologie
Telefon: +49 341 235 1983
https://www.ufz.de/index.php?de=38352

Dr. Jörg Tittel
UFZ-Department Seenforschung
Telefon: +49 391 810 9419
http://www.ufz.de/index.php?de=38293

Weitere Informationen:
http://www.ufz.de/index.php?de=36336&webc_pm=43/2016

Quelle: idw

(nach oben)


Förderprogramm „Energetische Biomassenutzung“ sucht: intelligent, flexibel und effizient

Bianca Stur Presse- und Öffentlichkeitsarbeit
Deutsches Biomasseforschungszentrum

Das Bundesministerium für Wirtschaft und Energie (BMWi) setzt mit zwei weiteren Skizzeneinreichungsterminen die seit 2009 erfolgreich mit bereits 118 Projekten laufende Fördermaßnahme fort. Es entspricht damit dem Forschungs- und Entwicklungsbedarf für intelligente, energie- und kosteneffiziente, sowie gleichzeitig umweltverträgliche Bioenergiekonzepte als essentieller Bestandteil des erneuerbaren Energiemixes.

Zur Umsetzung der Energiewende kommt es nun auf integrierte und sektorenübergreifende Lösungen im Bereich der erneuerbaren Energien an. Die Bioenergie kann hier einen wichtigen Teil beitragen: von der flexiblen und nachhaltigen Rohstoffbereitstellung, vor allem aus Rest- und Abfallstoffen über intelligent verknüpfte Technologien und Systemkomponenten bis hin zur energieeffizienten Endnutzung. Durch die Fortführung des Programms zur Förderung von Forschung und Entwicklung zur kosten- und energieeffizienten Nutzung von Biomasse im Strom- und Wärmemarkt „Energetische Biomassenutzung“ möchte das BMWi die notwendige anwendungs-nahe Weiterentwicklung auf diesem Gebiet beschleunigen. Umso wichtiger ist hier die Förderung von Pilot- und Demonstrationsvorhaben mit Beteiligung von klein- und mittelständischen Unternehmen, um hohe Risiken bei der Umsetzung in die Praxis abzufedern.

Insbesondere wird die Förderung von zukunftsweisenden, effizienten und kostengünstigen Technologienkonzepten mit Demonstrations- und Pilotcharakter für die Strom-, Wärme- und gekoppelte Strom- und Wärmeerzeugung betont. Hierzu gehören beispielsweise umfassend steuerbare systemflexible Anlagenkonzepte in allen Bioenergiepfaden (Vergärung, Vergasung, Biomassefeuerung), das Repowering und die Emissionsminderung von Bioenergieanlagen, sowie die Erzeugung, Speicherung und wärmegeführte KWK dazu.

Die Förderbekanntmachung vom 9. Juli´15 bleibt somit inhaltlich vollständig gültig und wird durch die neue Bekanntmachung vom 3. Nov´16 um zwei Einreichungstermine für Projektskizzen in 2017 und 2018 ergänzt.

Ziele
Das Förderprogramm zielt vor allem ab auf:

Effiziente Wärmenutzung bei hohen Verstromungswirkungsgraden
Kostengünstige Emissionsminderung
Erhöhung der Substratflexibilität und nachhaltige Rohstoffe
Hohe Energieeffizienz & Gesamtwirkungsgrade
Nachhaltige & flexible Energiebereitstellung
Effiziente Kombination mit anderen erneuerbaren Energien
Intelligente Systemintegration und Sektorkopplung: Integration von Bioenergieanlagen in bestehende und zukünftige Infrastrukturen zur Stabilisierung der Netze und Versorgungssicherheit

Themenschwerpunkte
Gesucht werden innovative und wettbewerbsfähige Projektideen zu folgenden Themen:

WÄRME: Entwicklung von Technologien zur effizienten Erzeugung von Wärme aus Biomasse (Pilot- und Demonstrationsanlagen, Gebäudeeffizienzmaßnahmen, integrierte Versorgungslösungen, Prozesswärmeerzeugung)
STROM: Forschung, Entwicklung und Innovation zur effizienten Erzeugung von Strom aus Biomasse und dessen Integration ins Stromsystem (Repowering/Upgrading, Flexibilisierung, Kombination mit anderen Erneuerbaren)
BIOMASSEREST- UND ABFALLSTOFFE: Erschließung kostengünstiger Biomasserest- und Abfallstoffe außerhalb der Forst- und Landwirtschaft (inkl. Klärgas) für die energetische Nutzung im Wärme- und Strombereich (nachhaltige Rohstoffbasis)
KWK(K): Entwicklung und Demonstration neuer und fortschrittlicher Technologien zur effizienten Nutzung von Biomasse in Kraft-Wärme-(Kälte) Kopplungs-Anlagen (Optimierung, Pilot- und Demonstrationsanlagen, Flexibilisierung, Power-to-Heat, Gebäudeeffizienzmaßnahmen)
MARKTPOTENZIAL: Validierung des Marktpotenzials von Forschungsergebnissen
STUDIEN & KONZEPTE für die Energieerzeugung aus Biomasse (Rolle der Bioenergie in zukünftigen Energiemärkten, Daten zur Wärmenutzung)

Zwei neue Ausschreibungsfristen vormerken!
Jeweils bis zum 27. September 2017 und 2018 können Projektskizzen im Elektronischen Formularsystem der Bundesregierung (easy-Online) eingereicht werden.

Noch Fragen?
Ihr Ansprechpartner bei Fragen zum Procedere der Skizzeneinreichung ist:

Lena Panning
Projektträger Jülich
Telefon: 030 20199-3132
E-Mail: l.panning@fz-juelich.de

Weitere Informationen:
https://www.energetische-biomassenutzung.de/de/presse/pressemitteilungen/details…
https://www.ptj.de/bioenergie
https://foerderportal.bund.de/easyonline/

Quelle: idw

(nach oben)


Schweinefleisch ist nach wie vor eine bedeutende Infektionsquelle des Menschen mit Salmonellen

Nina Banspach Pressestelle
Bundesamt für Verbraucherschutz und Lebensmittelsicherheit (BVL)

BVL veröffentlicht Bericht zum Zoonosen-Monitoring 2015

Die Ergebnisse des repräsentativen Zoonosen-Monitorings 2015, die das Bundesamt für Verbraucherschutz und Lebensmittelsicherheit (BVL) heute veröffentlicht hat, zeigen, dass Schweine zum Teil Träger von Salmonellen sind (5 bis 10 % positive Kotproben) und es im Rahmen der Schlachtung zu einer Kontamination der Schlachtkörper und des Fleisches mit eingetragenen Keimen kommen kann. Insbesondere aufgrund des teilweise üblichen Rohverzehrs (z. B. als Mett) geht von Schweinefleisch ein potenzielles Risiko für eine Infektion des Menschen mit Salmonellen aus. Die Ergebnisse der Resistenzuntersuchungen zeigen, dass Bakterien, die von Läufern (Schweine vor der Hauptmast bis 30 kg) und Mastkälbern bzw. Jungrindern stammen, die höchsten Resistenzraten bei diesen Tierarten aufweisen. Dies spiegelt die häufige Antibiotikagabe bei diesen Tiergruppen wider.

Im Rahmen des Zoonosen-Monitorings 2015 wurden insgesamt 6.106 Proben auf allen Ebenen der Lebensmittelkette durch die Überwachungsbehörden der Bundesländer genommen und von den Untersuchungseinrichtungen auf das Vorkommen der wichtigsten über Lebensmittel übertragbaren Erreger untersucht. Dabei wurden 2.063 Bakterien-Isolate gewonnen und in den Nationalen Referenzlaboratorien am Bundesinstitut für Risikobewertung (BfR) weitergehend charakterisiert und auf ihre Resistenz gegen ausgewählte Antibiotika untersucht. Die wichtigsten Ergebnisse sind:

Salmonellen
Die Ergebnisse der Untersuchungen aus Ferkelerzeugerbetrieben zeigen, dass Zuchtsauen (5,6 % positive Kotproben) und insbesondere Läufer (10,3 % positive Kotproben) Träger von Salmonellen sind. Dieses Ergebnis verdeutlicht, wie wichtig die Salmonellenbekämpfung bereits auf Ebene der Zuchtbetriebe ist, um die Einschleppung von Salmonellen über infizierte Ferkel in die Mastbetriebe zu verhindern. Die Ergebnisse der Untersuchungen an Schlachthöfen zeigen, dass es im Rahmen der Schlachtung zu einer – wenn auch im Vergleich zur Geflügelschlachtung geringeren – Verschleppung von eingetragenen Salmonellen auf die Schlachtkörper (4,5 % positive Proben) kommt. Frisches Schweinefleisch aus dem Einzelhandel war zu 0,4 % mit den Erregern verunreinigt. Trotz der relativ geringen Kontaminationsrate mit Salmonellen stellt Schweinefleisch aufgrund des teilweise üblichen Rohverzehrs nach wie vor eine bedeutende Infektionsquelle für den Menschen mit Salmonellen dar. Rohes Hackfleisch und Rohwurstprodukte sind aus diesem Grund keine geeigneten Lebensmittel für empfindliche Verbrauchergruppen wie Kleinkinder, ältere und immungeschwächte Menschen und Schwangere.

Verotoxinbildende Escherichia coli (VTEC)
Die Ergebnisse der Untersuchungen in der Lebensmittelkette Mastkälber/Jungrinder liegen auf demselben Niveau wie im Zoonosen-Monitoring der Vorjahre. In 25,7 % der Proben von Blinddarminhalt von Mastkälbern und Jungrindern am Schlachthof und in 0,9 % der Proben von frischem Rindfleisch aus dem Einzelhandel wurden VTEC nachgewiesen. Die Ergebnisse bestätigen, dass Mastkälber und Jungrinder eine Quelle für Infektionen des Menschen mit VTEC darstellen, zumal unter den VTEC-Isolaten auch O-Gruppen nachgewiesen wurden, die als häufige Erreger von EHEC-Infektionen und des hämolytisch urämischen Syndroms (HUS) bekannt sind.

Koagulase positive Staphylokokken
Koagulase positive Staphylokokken sind Bakterien, die sich unter geeigneten Bedingungen in Lebensmitteln vermehren können und dabei Enterotoxine bilden, die bereits wenige Stunden nach der Aufnahme zu einer Lebensmittelvergiftung führen können. Sie wurden in Proben von Schafs- und Ziegenkäse aus Rohmilch häufig nachgewiesen (9,3 % positive Proben). In 1,2 % der Proben lag die Keimzahl oberhalb des kritischen Wertes von 100.000 koloniebildenden Einheiten pro Gramm, ab dem der Käse nur in den Verkehr gebracht werden darf, wenn die Freiheit von Staphylokokken-Enterotoxin durch eine Untersuchung nachgewiesen wird. Die Ergebnisse verdeutlichen, dass bei der Gewinnung von Rohmilch höchste Anforderungen an die Eutergesundheit der milchliefernden Tiere gestellt werden müssen und eine strenge Personal- und Produktionshygiene eingehalten werden muss, da sich in der Milch vorhandene Staphylokokken während des Käsungsprozesses zu bedenklichen Keimzahlen vermehren können.

Methicillin-resistente Staphylococcus aureus (MRSA)
MRSA zeichnen sich durch eine Resistenz gegen sämtliche Beta-Laktam-Antibiotika (Penicilline und Cephalosporine) aus. Meist sind sie auch noch gegen weitere Klassen von antimikrobiellen Substanzen unempfindlich. Sie kommen in der Lebensmittelkette Mastschwein häufig vor: 26,3 % der Proben aus dem Wartebereich von Zuchtsauen waren positiv für MRSA. Die Nachweisrate von MRSA in Proben aus dem Aufzuchtbereich von Läufern war mit 41,3 % noch signifikant höher. Dieses Ergebnis verdeutlicht, dass von den weiter vermarkteten Läufern ein Risiko für die Einschleppung von MRSA in die Mastbetriebe ausgeht. Die Schlachtkörper von Mastschweinen und frisches Schweinefleisch waren zu etwa 20 % bzw. 13 % mit MRSA kontaminiert. Nach dem gegenwärtigen Stand der Wissenschaft scheint die Übertragung von MRSA auf den Menschen über den Verzehr von Lebensmitteln zwar von untergeordneter Rolle zu sein. Für Menschen, die häufig Kontakt zu Tierbeständen haben, besteht aber ein erhöhtes Risiko, Träger von Nutztier-assoziierten MRSA-Stämmen zu werden.

ESBL/AmpC-bildende E. coli
Extended-Spectrum-Beta-Laktamase (ESBL) und AmpC-Beta-Laktamase (AmpC) bildende Bakterien zeichnen sich dadurch aus, dass sie Enzyme bilden, die die Wirksamkeit von Penicillinen und Cephalosporinen herabsetzen bzw. aufheben, sodass sie resistent gegenüber diesen Antibiotika sind. Sie wurden mittels selektiver Verfahren in etwa der Hälfte der untersuchten Kotproben von Zuchtsauen, Läufern (47,6 % positive Proben) und Mastschweinen (53,9 % positive Proben) nachgewiesen. Im Blinddarminhalt von Mastkälbern und Jungrindern am Schlachthof wurden ESBL/AmpC-bildende E. coli mit 60,6 % positiver Proben noch häufiger nachgewiesen als bei Schweinen. Frisches Schweinefleisch und frisches Rindfleisch wiesen eine Kontaminationsrate mit ESBL/AmpC-bildenden E. coli von 5,7 % bzw. 4,0 % auf. Nach dem derzeitigen wissenschaftlichen Kenntnisstand ist davon auszugehen, dass ESBL/AmpC-bildende E. coli auch über Lebensmittel auf den Menschen übertragen werden können, wobei sich das Infektionsrisiko gegenwärtig nicht genau abschätzen lässt.

Dunker’scher Muskelegel
Der Dunker‘sche Muskelegel ist die Mesozerkarie (Zwischenstadium) des parasitischen Saugwurms Alaria alata. Er wurde als Zufallsbefund im Rahmen der Trichinenuntersuchung bei Wildschweinen wiederholt vereinzelt nachgewiesen. Im Zoonosen-Monitoring waren insgesamt 4,7 % der untersuchten Wildschweinproben positiv für den Dunker’schen Muskelegel. Die Ergebnisse bestätigen, dass Wildschweinfleisch eine potenzielle Quelle für eine Infektion des Menschen mit dem Dunker‘schen Muskelegel darstellt. Allerdings sind bisher nur wenige Erkrankungsfälle beim Menschen aus Nordamerika bekannt, die nach dem Verzehr von unzureichend erhitztem mesozerkarienhaltigen Wildfleisch auftraten und u. a. mit Atemwegsbeschwerden einhergingen. Die Ergebnisse unterstreichen die Empfehlung, Wildschweinfleisch vor dem Verzehr gründlich durchzuerhitzen. Aus Gründen des vorbeugenden Verbraucherschutzes sollte Wildschweinfleisch, das mit dem Dunker’schen Muskelegel infiziert ist, nicht in den Verkehr gebracht werden.

Resistenzlage
Die Resistenzraten waren im Zoonosen-Monitoring 2015 insgesamt gegenüber den Vorjahren eher rückläufig. Als problematisch wird aber die zu beobachtende zunehmende Resistenz von MRSA-Isolaten gegenüber dem in der Humanmedizin wichtigen Wirkstoff Ciprofloxacin und gegenüber weiteren wichtigen Antibiotika gesehen.

Die E. coli-Isolate aus der Schweinefleischkette waren zu 50 % bis 70 % resistent gegenüber mindestens einer der getesteten antibiotischen Substanzen. Isolate von Läufern wiesen gegenüber vielen antibiotischen Substanzen die höchsten Resistenzraten auf, was vermutlich mit der häufigen Gabe von Antibiotika bei dieser Tiergruppe im Zusammenhang steht. E. coli-Isolate aus dem Blinddarminhalt von Mastkälbern und Jungrindern wiesen eine höhere Resistenzrate (46,1 %) auf als Isolate aus Rindfleisch, die nur zu 11,5 % gegenüber mindestens einer der antibiotischen Substanzen resistent waren. Auch dies spiegelt Unterschiede in der Häufigkeit der Behandlung von Mastkälbern/Jungrindern und Mastrindern – von denen in der Regel das Rindfleisch stammt – mit Antibiotika wider.

Bei der Interpretation der Ergebnisse der Resistenzuntersuchungen muss beachtet werden, dass die minimalen Hemmkonzentrationen (MHK) anhand der epidemiologischen Cut-Off-Werte bewertet wurden. Diese bestimmen den Anteil mikrobiologisch resistenter Isolate und geben frühzeitig Hinweise auf eine beginnende Resistenzentwicklung, erlauben aber keine unmittelbare Aussage über die Wahrscheinlichkeit eines Therapieerfolges mit einem Antibiotikum.

Der vollständige Bericht zum Zoonosen-Monitoring 2015 ist online abrufbar unter: http://www.bvl.bund.de/ZoonosenMonitoring

Verbrauchertipps zum Schutz gegen lebensmittelbedingte Infektionen sind dargestellt unter: http://www.bvl.bund.de/lebensmittelhygiene

Eine Empfehlung zum Umgang mit rohem Fleisch kann hier eingesehen werden:
http://www.bfr.bund.de/de/presseinformation/2012/11/hackepeter_und_rohes_mett_sind_nichts_fuer_kleine_kinder_-129122.html

Hintergrund
Zoonosen sind Krankheiten bzw. Infektionen, die auf natürlichem Weg direkt oder indirekt zwischen Tieren und Menschen übertragen werden können. Zoonoseerreger können von Nutztieren zum Beispiel während der Schlachtung und Weiterverarbeitung auf das Fleisch übertragen werden. Mit Zoonoseerregern kontaminierte Lebensmittel stellen eine wichtige Infektionsquelle für den Menschen dar. Häufige Erreger lebensmittelbedingter Infektionen sind Campylobacter spp. und Salmonella spp. Infektionen mit Listeria monocytogenes oder verotoxinbildende E. coli (VTEC) treten seltener auf. Methicillin-resistente Staphylococcus aureus (MRSA) und ESBL/AmpC-bildende E. coli sind weltweit verbreitete Erreger von zum Teil schwerwiegenden Krankenhausinfektionen. Bei Nutztieren hat sich ein spezifischer Typ von MRSA ausgebreitet. Eine Besiedlung des Menschen mit diesen „Nutztier-assoziierten“ MRSA-Stämmen scheint jedoch nur in seltenen Fällen zu schweren Krankheitserscheinungen zu führen.

Basierend auf der Richtlinie 2003/99/EG zur Überwachung von Zoonosen und Zoonoseerregern sind alle EU-Mitgliedstaaten verpflichtet, repräsentative und vergleichbare Daten über das Auftreten von Zoonosen und Zoonoseerregern sowie diesbezüglicher Antibiotikaresistenzen in Lebensmitteln, Futtermitteln und lebenden Tieren zu erfassen, auszuwerten und zu veröffentlichen, um so Aufschluss über Entwicklungstendenzen und Quellen von Zoonosen und Zoonoseerregern zu erhalten. Dabei werden vor allem diejenigen Zoonoseerreger überwacht, die eine besondere Gefahr für die menschliche Gesundheit darstellen. Das Zoonosen-Monitoring wird von den Bundesländern seit dem Jahr 2009 auf Grundlage einer Verwaltungsvorschrift bundesweit einheitlich jährlich im Rahmen der amtlichen Lebensmittel- und Veterinärüberwachung durchgeführt. Die von den Bundesländern erhobenen Untersuchungsergebnisse werden vom Bundesamt für Verbraucherschutz und Lebensmittelsicherheit (BVL) gesammelt, ausgewertet und zusammen mit den Ergebnissen der Typisierung und Resistenztestung sowie der Bewertung des Bundesinstituts für Risikobewertung (BfR) im Bericht über die Ergebnisse des jährlichen Zoonosen-Monitorings veröffentlicht. Das BfR übermittelt die Ergebnisse gemäß den Bestimmungen des Artikels 9 der Richtlinie 2003/99/EG an die Europäische Behörde für Lebensmittelsicherheit (EFSA).

Im Zoonosen-Monitoring werden repräsentative Daten zum Vorkommen von Zoonoseerregern bei den wichtigsten Lebensmittel liefernden Tierarten und Produkten gewonnen, die es ermöglichen, das Infektionsrisiko für Verbraucher durch den Verzehr von Lebensmitteln abzuschätzen. Die Resistenzuntersuchungen verbessern die Datenlage in diesem Bereich und tragen dazu bei, Beziehungen zwischen dem Antibiotikaeinsatz in der Tierproduktion und der Entwicklung von Antibiotikaresistenzen besser analysieren zu können.

Anhang
PI Zoonosen-Monitoring 2015
https://idw-online.de/de/attachment53881

Quelle: idw

(nach oben)


Grüne Trafos fürs grüne Ländle

Dr. Norbert Aschenbrenner Corporate Communications, Corporate Technology
Siemens AG

Siemens liefert für den größten Netzbetreiber in Baden-Württemberg mehr als 100 Verteiltransformatoren mit biologisch abbaubarer Isolierflüssigkeit. Für Siemens ist das der weltweit größte Auftrag für grüne Verteiltrafos.

Verteiltransformatoren sind das letzte Bindeglied in der Stromverteilung zum Verbraucher und daher oft nahe an Gebäuden oder in Wohngebieten aufgestellt. Die Netze BW, der größte Stromnetzbetreiber in Baden Württemberg, legt bei ihren Transformatoren großen Wert auf Zuverlässigkeit, Effizienz, Umweltfreundlichkeit und Betriebssicherheit. Für ein Pilotprojekt lieferte Siemens nun die ersten grünen Verteiltransformatoren.

Höherer Flammpunkt – besserer Brandschutz
Die neuen Transformatoren sind mit natürlichem Ester gefüllt, einer Flüssigkeit auf Pflanzenölbasis aus nachwachsenden Rohstoffen (Raps, Sonnenblumen oder Soja), die als Isolier- und Kühlflüssigkeit dient. Bisher werden meist Mineral- und Silikonöle eingesetzt. Wenn diese freigesetzt werden, sind sie umweltschädlich und leicht brennbar. Ester ist die grüne Alternative: Das natürliche Isolieröl ist beinahe vollständig biologisch abbaubar. Dadurch sind die negativen Folgen bei einem Leck in der Anlage für die Umwelt deutlich geringer. Außerdem bietet es aufgrund des höheren Flammpunktes einen deutlich besseren Brandschutz, was den Betrieb noch sicherer macht. Gerade für Wasser- und Naturschutzgebiete oder auch in Bereichen mit erhöhten Brandschutzauflagen sind die Ester-gefüllten Trafos eine saubere, umweltfreundliche und sichere Lösung. Und nicht nur das: In Labortests wurde nachgewiesen, dass das als Isoliermaterial verwendete Spezialpapier in Estern unter Ausschluss von Luftsauerstoff langsamer altert und somit die Lebensdauer der Transformatoren verlängern kann.

Ester als zukünftige Standard-Isolier- und Kühlflüssigkeit?
Siemens hat im Trafobau bereits jahrzehntelange Erfahrung mit alternativen Flüssigkeiten. Seit 2004 baut Siemens große Leistungstransformatoren mit Ester-Isolierung und ist weltweit führend auf diesem Gebiet. Verteiltransformatoren mit synthetischer Esterisolierung wurden bislang insbesondere für den Einsatz in Windparks gefertigt.

Die Netze BW nutzt diese Erfahrungen nun auch für ihre Verteiltransformatoren. Siemens liefert für das Innovationsprojekt insgesamt 102 mit natürlichem Ester isolierten Transformatoren. Für das Unternehmen ist es der weltweit größte Auftrag für Verteiltransformatoren mit natürlicher Esterfüllung. An einer Ortsnetzstation in Weinstadt (Baden-Württemberg) erfolgte am 10. Juni der symbolische Knopfdruck zum Start des Pilotprojekts. In Zusammenarbeit mit Siemens, der Universität Stuttgart und dem Institut für Energie-und Umweltforschung in Heidelberg werden die mit Pflanzenöl gefüllten Transformatoren überwacht und die Ergebnisse über ein Jahr ausgewertet. Mit den gewonnenen Daten will das Netzunternehmen herausfinden, ob diese Alternative zukünftig als Standard-Isolier- und Kühlflüssigkeit in Frage kommt.

Kontakt:
Herr Dr Norbert Aschenbrenner
Redaktion
Siemens AG
norbert.aschenbrenner@siemens.com

Originalartikel im Internet:
https://www.siemens.com/innovation/de/home/pictures-of-the-future/energie-und-ef…

Quelle: idw

(nach oben)


Mit Zucker gegen Rost: Bis zu 80 Prozent weniger Biokorrosion

Evelyn Bargs-Stahl Presse- und Öffentlichkeitsarbeit
Arbeitsgemeinschaft industrieller Forschungsvereinigungen „Otto von Guericke“ e.V.

Eine Schicht aus Zuckerguss ist nicht nur lecker; sie schützt das Weihnachtsgebäck auch vor Austrocknung. Eine ganz andere Schutzwirkung von Zuckermolekülen ist bislang weniger bekannt: Sie eignen sich ebenfalls zum ökologisch unbedenklichen Rostschutz von Metallen.

Auf 100 Milliarden Euro wird die jährliche Schadenshöhe durch Korrosion in Deutschland geschätzt; bis zu 30 Prozent davon wird von Mikroorganismen durch die sogenannte Biokorrosion verursacht. Bakterien, Algen und Pilze finden in den wässrigen Milieus von Wassertransportleitungen, Kühlkreisläufen oder industriellen Produktionsanlagen optimale Lebensbedingungen. Hier setzen sie sich an den metallhaltigen Werkstoffen fest, scheiden sogenannte extrazelluläre polymere Substanzen (EPS) aus und bilden schleimige Biofilme auf den Oberflächen. Diese Biofilme greifen die Werkstoffe an und führen zu einer langsamen Zersetzung der Metalle. Im schlimmsten Fall kommt es zum Bruch von Anlagenteilen und dadurch zum Ausfall ganzer Anlagen.
Im Rahmen verschiedener Forschungsvorhaben der Industriellen Gemeinschaftsforschung (IGF), haben Wissenschaftler des DECHEMA-Forschungsinstituts in Frankfurt a.M. und der Universität Duisburg-Essen herausgefunden, dass die Beschichtung der Oberflächen mit bestimmten Zuckermolekülen die Anheftung der Bakterien um bis zu 90 Prozent senkt. Gleichzeitig sinkt auch die Biokorrosion um bis zu 80 Prozent. Die vorwettbewerbliche IGF ermöglicht insbesondere kleinen und mittleren Unternehmen (KMU) den Zugang zu aktuellen Forschungsergebnissen. Sie wird zusammen mit 100 branchenorientierten Forschungsvereinigungen im Innovationsnetzwerk der AiF Arbeitsgemeinschaft industrieller Forschungsvereinigungen organisiert. Projekte der IGF werden vom Bundesministerium für Wirtschaft und Energie (BMWi) über dieses Netzwerk mit öffentlichen Mitteln gefördert.

Biofilme – Schutz und Übel zugleich
Je nach Art und Zusammensetzung der EPS können mikrobielle Biofilme die Korrosion von Metallen sowohl verstärken als auch unterdrücken. Einige der Bakterien in den Biofilmen scheiden Säuren aus, die die Oberflächen angreifen; andere beschleunigen chemische Reaktionen zwischen den Metalloberflächen und dem umgebenden Wasser und begünstigen so die Korrosion. Die korrosionshemmende Wirkung hingegen beruht darauf, dass manche EPS die Anheftung von Mikroorganismen an die Oberflächen der Werkstoffe verhindern, indem sie selbst diesen Platz einnehmen und damit die Bildung von Biofilmen unterbinden. Andere wiederum können den korrosiven Angriff von Chlorionen unterdrücken oder Eisenionen abfangen, die sonst Bakterien anziehen würden. Insbesondere Cyclodextrine, ringförmige Kohlenhydrate wie Dextrane oder Saccharide, die Bakterien beim Abbau von Mais- oder Kartoffelstärke bilden, sind in den Focus der Forschungen gerückt. Sie scheinen sich zum Korrosionsschutz besonders gut zu eignen, da sie sicher auf Werkstoffoberflächen haften, selbst nicht korrosiv wirken und nicht mikrobiell abbaubar sind.

Biogene Schutzschicht in der Praxis
In einem aktuellen IGF-Projekt, das von der AiF-Forschungsvereinigung DECHEMA koordiniert wird, entwickeln Forscher jetzt ein praktisches Anwendungsverfahren für die Cyclodextrin-Beschichtung. Am Ende soll ein einsatzfähiges Korrosionsschutzsystem auf Cyclodextrinbasis stehen. Gleichzeitig versuchen die Wissenschaftler die Langzeitstabilität der korrosionsverhindernden Wirkung der Cyclodextrine zu erhöhen.
Bislang werden metallhaltige Oberflächen in wässrigen Milieus entweder mit Schutzschichten überzogen oder mit Bioziden behandelt, was ökologisch nicht unbedenklich ist. Mit biogenen Schutzschichten hingegen könnten zukünftig große Mengen an Bioziden eingespart werden. Dies ist besonders interessant, da nach der EU-Biozidrichtlinie die Hürden für den Einsatz von Bioziden erheblich erhöht wurden.

Ansprechpartner zum Projekt
PD Dr. Wolfram Fürbeth, DECHEMA-Forschungsinstitut,
E-Mail: fuerbeth@dechema.de, Telefon: +49 69 7564 398

Prof. Dr. Wolfgang Sand, Universität Duisburg-Essen, Fakultät für Chemie – Biofilm Centre,
E-Mail: wolfgang.sand@uni-due.de, Telefon: +49 201 183 7089

Über die AiF
Die Arbeitsgemeinschaft industrieller Forschungsvereinigungen „Otto von Guericke“ e.V. ist das Forschungsnetzwerk für den deutschen Mittelstand. Sie fördert Forschung, Transfer und Innovation. Als Dachverband von 100 gemeinnützigen Forschungsvereinigungen mit 50.000 eingebundenen Unternehmen und 1.200 beteiligten Forschungsstellen leistet sie einen wichtigen Beitrag, die Volkswirtschaft Deutschlands in ihrer Wettbewerbsfähigkeit nachhaltig zu stärken. Die AiF als gemeinnütziger Verein organisiert die Industrielle Gemeinschaftsforschung und betreut über die AiF Projekt GmbH und die AiF F∙T∙K GmbH, ihre einhundertprozentigen Tochtergesellschaften, weitere Förderprogramme der öffentlichen Hand. Im Jahr 2015 setzte die AiF rund 525 Millionen Euro an öffentlichen Fördermitteln ein.

Weitere Informationen:
http://www.aif.de
http://www.aif.de/innovationsfoerderung/industrielle-gemeinschaftsforschung.html
http://www.uni-due.de
http://www.dechema.de
http://www.bmwi.de

Quelle: idw

(nach oben)


Schnelltests für Antibiotika in Gewässern und Impfstoffe auf Basis von Antigenen

Jan Meßerschmidt Presse- und Informationsstelle
Ernst-Moritz-Arndt-Universität Greifswald

Zwei Forschungsprojekte zu Antibiotikaresistenzen sowie zur Entwicklung neuartiger Impfstoffe werden seit Oktober 2016 durch das Konsortium InfectControl 2020 an der Universität Greifswald gefördert. Ziel des Verbundprojektes ANTIRES ist, antibiotikaresistente Mikroorganismen und Antibiotikaresistenzgene in Abwässern aufzuspüren und einen Antibiotika-Resistenz-Schnelltest zu entwickeln. In dem zweiten Verbundprojekt VacoME geht es um die Identifizierung der Antigene von Pneumokokken und Streptococcus suis, die die Basis für den Infektionsschutz im menschlichen und tierischen Körper sind. Durch gezielte Kombination von Antigenen sollen neuartige Impfstoffe entwickelt werden.

Verbundprojekt ANTIRES
Verbreitungswege von Antibiotika-Resistenzen in kommunalen Abwässern

Ziel des Projektes sind Untersuchungen zum Vorkommen antibiotikaresistenter Mikroorganismen und Antibiotikaresistenzgenen in kommunalen und landwirtschaftlichen Abwässern. Der intensive Einsatz von Antibiotika zur Behandlung bakterieller Infektionen von Mensch, Haus- und Nutztieren sowie der massive Antibiotikazusatz in Futtermitteln resultieren in einem kontinuierlich ansteigenden Antibiotikaeintrag in die Umwelt. Die damit einhergehende Verbreitung von Antibiotikaresistenzgenen und die Entwicklung multiresistenter Keime führen zu einer dramatischen Abnahme der Wirksamkeit von Antibiotikatherapien. Als eine der Hauptquellen für den Antibiotikaeintrag in die Umwelt gelten antibiotikabelastete Abwässer.

Zur detailgetreuen Aufklärung der Verbreitungswege von Antibiotikaresistenzen durch belastete Abwässer werden in ANTIRES kommunale Abwässer im jahreszeitlichen Rhythmus beprobt. Die Integration von mikrobiologischen und biochemischen sowie innovativen Metagenom-, Metatranskriptom- und Metaproteom-Analysen soll dann Aufschluss über die Belastung der Proben mit Antibiotikaresistenzen geben.

Die Erkenntnisse dieser Untersuchungen sollen schließlich für die Etablierung eines Antibiotikaresistenz-Schnelltests genutzt werden. Die in ANTIRES erhobenen Daten und entwickelten diagnostischen Werkzeuge tragen zu einem besseren Verständnis der Verbreitungswege und der jahreszeitlichen Dynamik von Antibiotikaresistenzen in Gewässern bei und sind damit essenziell für die Entwicklung von Strategien zur Eindämmung dieses Prozesses.

In ANTIRES fließt das Know-how verschiedener Forschungsgruppen aus vier Standorten ein. Beteiligt sind Prof. Katharina Riedel (Koordinatorin, Abteilung Mikrobielle Physiologie und Molekularbiologie, Institut für Mikrobiologie an der Universität Greifswald), Prof. Dörte Becher (Universität Greifswald), Prof. Rolf Daniel (Georg-August-Universität Göttingen), Dr. Katrin Premke (Leibniz-Institut für Gewässerökologie und Binnenfischerei, Berlin) und Dr. Robert Möller (Analytik Jena AG, Jena).

Verbundprojekt VacoME
Entwicklung von Impfstoffen gegen respiratorische und systemische Infektionen bei Mensch und Schwein

Ziel des Gesamtprojektes ist die Identifizierung von Antigenen von Pneumokokken (Streptococcus pneumoniae) und Streptococcus suis, die allein oder in Kombination einen Schutz gegenüber einer Infektion vermitteln. Infektionen des Menschen mit Pneumokokken und des Schweins mit Streptococcus suis stellen für das Gesundheitssystem bzw. die Agrarwirtschaft eine erhebliche Belastung dar. Pneumokokken verursachen schwere, außerhalb des Krankenhauses erworbene Lungenentzündungen und invasive Erkrankungen wie Sepsis oder Hirnhautentzündung, in deren Folge weltweit mehr als 1,6 Millionen Menschen pro Jahr sterben. Das Erregerpotenzial macht den mit Pneumokokken verwandten Erreger Streptococcus suis zum wichtigsten invasiven bakteriellen Krankheitserreger in der Ferkelaufzucht, der zudem die Fähigkeit hat vom Tier auf den Menschen übertragen zu werden. Beide bakteriellen Erreger zeigen eine Typenvielfalt und kommen als verschiedene Serotypen vor. Eine Pneumokokkenprophylaxe ist schwierig, da die auf Zuckerstrukturen basierenden Impfstoffe nur gegen 13 der 94 Serotypen einen Schutz vermitteln. Die Identifizierung von Antigenen in den verschiedenen Nischen ihrer Wirte und die Kombination immunogener Antigene zu einem Impfstoff mit Serotyp-übergreifender Schutzwirkung eine zentrale Herausforderung für die Bekämpfung dieser bakteriellen Erreger.

In VacoME werden daher infektionsrelevante Antigene mittels in vivo Proteomics und RNAseq-Analysen in den unterschiedlichen Wirtsnischen wie dem Atmungstrakt, dem Blut bzw. der Nervenflüssigkeit identifiziert. Die Immunogenität der Antigene wird dann in Proteom-basierten Immunanalysen mit Patientenseren analysiert, um Antigene zu identifizieren, gegen die der Patient bzw. das Schwein Antikörper gebildet hat. Ziel dieses Ansatzes ist, aufzuzeigen, wie durch die gezielte Kombination dieser Antigene ein Impfstoff mit Serotyp-übergreifender Schutzwirkung generiert werden kann.

Im VacoME-Verbund arbeiten Prof. Sven Hammerschmidt (Koordinator, Abteilung Genetik der Mikroorganismen, Interfakultäres Institut für Genetik und Funktionelle Genomforschung an der Universität Greifswald), Prof. Uwe Völker (Abteilung Funktionelle Genomforschung, Interfakultäres Institut für Genetik und Funktionelle Genomforschung, Universitätsmedizin Greifswald), Prof. Christoph Baums und Prof. Gottfried Alber (beide Universität Leipzig), Prof. Susanne Häußler (Helmholtz-Zentrum für Infektionsforschung, Braunschweig), Dr. Volker Florian und Dr. Peter Schmid (IDT Biologika GmbH, Dessau) sowie Dominik Driesch (BioControl Jena GmbH) zusammen.

InfectControl 2020
InfectControl 2020 wurde im Rahmen der BMBF-Fördermaßnahme „Zwanzig20 – Partnerschaft für Innovation“ gegründet. Es ist ein Konsortium aus Wirtschaftsunternehmen und akademischen Partnern. Ziel der Konsortien sind die Entwicklung neuer Antiinfektionsstrategien in der Veterinär- und Humanmedizin und die Verringerung der Ausbreitung neuer und multiresistenter Keime aufgrund von unsachgemäßem Einsatz von Antibiotika, mangelnder Hygiene sowie globalen Menschen- und Güterströmen.

Ansprechpartner an der Universität Greifswald
Verbund ANTIRES

Prof. Dr. Katharina Riedel
Abteilung Mikrobielle Physiologie und Molekularbiologie
Institut für Mikrobiologie
Friedrich-Ludwig-Jahn-Straße 15
17489 Greifswald
Telefon +49 3834 86-4200
Telefax +49 3834 86-4201
riedela@uni-greifswald.de
http://www.mikrobiologie.uni-greifswald.de

Verbund VacoME
Prof. Dr. Sven Hammerschmidt
Abteilung Genetik der Mikroorganismen
Interfakultäres Institut für Genetik und Funktionelle Genomforschung
Friedrich-Ludwig-Jahn-Straße 15 A
17489 Greifswald
Telefon +49 3834 86-4161
Telefax +49 3834 86-4172
sven.hammerschmidt@uni-greifswald.de
http://mnf.uni-greifswald.de/genetik
http://RTG1870.uni-greifswald.de

Quelle: idw

(nach oben)


Volksleiden Rückenschmerzen: Patienten überschätzen Bildaufnahmen

Kristine Kruse Pressestelle
Bertelsmann Stiftung

Wenn der Rücken schmerzt, reagieren Patienten und Ärzte häufig übertrieben. Wie der neue Faktencheck Rücken der Bertelsmann Stiftung zeigt, sind Betroffene unsicher und erwarten zu schnell eine ärztliche Einschätzung auf Basis bildgebender Verfahren. Behandelnde Ärzte rücken die überzogenen Hoffnungen ihrer Patienten oft nicht zurecht.

Jeder fünfte gesetzlich Versicherte geht mindestens einmal im Jahr wegen Rückenschmerzen zum Arzt – 27 Prozent davon suchen sogar vier Mal oder öfter einen Arzt auf. Von den jährlich mehr als 38 Millionen rückenschmerzbedingten Besuchen bei Haus- oder Fachärzten und den dabei veranlassten sechs Millionen Bildaufnahmen wären viele vermeidbar. Zu diesem Schluss kommt die Studie Faktencheck Rücken der Bertelsmann Stiftung.

Falsche Erwartungen: Patienten wollen den Grund für Rückenschmerzen sehen
Wenn es um Rückenschmerzen geht, ist jeder Zweite (52 Prozent) überzeugt davon, dass man immer einen Arzt aufsuchen muss. 60 Prozent der Bevölkerung erwarten außerdem schnellstens eine bildgebende Untersuchung. Und mehr als zwei von drei Personen (69 Prozent) sind der Meinung, dass der Arzt durch Röntgen-, Computertomografie- (CT) und Magnetresonanztomographie-Aufnahmen (MRT) die genaue Ursache des Schmerzes findet. Ein Trugschluss: Ärzte können gerade einmal bei höchstens 15 Prozent der Betroffenen eine spezifische Ursache für den Schmerz feststellen. Die meisten Bilder verbessern oft also weder Diagnose noch Behandlung von Rückenschmerzen.

Falsche Reaktion: Ärzte weichen oft von wissenschaftlichen Empfehlungen ab
Die falschen Erwartungen der Patienten rücken Ärzte häufig nicht zurecht. Dadurch kommt es neben übermäßig vielen Arztbesuchen auch zu unnötig vielen Bildaufnahmen. Allein 2015 haben Ärzte über sechs Millionen Röntgen-, CT- und MRT-Aufnahmen vom Rücken veranlasst. „Oft werden die Befunde der Bildgebung überbewertet. Dies führt zu unnötigen weiteren Untersuchungen und Behandlungen, zur Verunsicherung des Patienten und kann sogar zur Chro-nifizierung der Beschwerden beitragen“, so Prof. Dr. Jean-Francois Chenot von der Universität Greifswald und medizinischer Experte für den Faktencheck. Die bildgebende Diagnostik erfolgt zudem oft vorschnell. Bei 22 Prozent wurde eine Aufnahme vom Rücken bereits im Quartal der Erstdiagnose angeordnet. Bei jedem zweiten Betroffenen wurde ein Bild veranlasst, ohne vorher einen konservativen Therapieversuch, zum Beispiel mit Schmerzmitteln oder Physiotherapie, unternommen zu haben.

Fakt ist: 85 Prozent der akuten Rückenschmerzen gelten als medizinisch unkompliziert und nicht spezifisch. Ärztliche Leitlinien empfehlen bei Rückenschmerzen ohne Hinweise auf gefährliche Verläufe (beispielsweise Wirbelbrüche oder Entzündungen), körperliche Aktivitäten so weit wie möglich beizubehalten, Bettruhe zu vermeiden und keine bildgebende Diagnostik durchzuführen. Ärzte weichen von diesen wissenschaftlichen Empfehlungen jedoch häufig ab. So wird 43 Prozent der Betroffenen Ruhe und Schonung empfohlen. Zudem verstärken Ärzte oft das Krankheitsgefühl der Betroffenen, anstatt sie zu beruhigen. 47 Prozent der Betroffenen wird vermittelt, dass der Rücken „kaputt“ oder „verschlissen“ sei. „Ärzte müssen falsche Kenntnisse und Erwartungen von Patienten korrigieren. Nur so werden sie ihrem eigenen Anspruch als vertrauenswürdige Experten gerecht“, so Brigitte Mohn, Vorstand der Bertelsmann Stiftung.

Erhebliche regionale Unterschiede im Verhalten von Betroffenen und Ärzten
Betroffene mit Rückenschmerzen gehen in Berlin oder Bayern viel häufiger zum Arzt als in Hamburg, Schleswig-Holstein und Rheinland-Pfalz. Die Zahl der Behandlungsfälle pro 1.000 Versicherten und Jahr variiert auf Bundeslandebene zwischen 370 in Hamburg und 509 in Berlin. Auf Kreisebene gibt es Unterschiede um mehr als das Doppelte: So betrug die durchschnittliche Anzahl von Behandlungsfällen je 1.000 Versicherten in den Jahren 2009 bis 2015 in den Kreisen Ostprignitz-Ruppin (BB) und Rotenburg/Wümme (NI) nur 306, im Werra-Meißner-Kreis (HE) dagegen 711 und in Dingolfing-Landau (BY) sogar 730 Fälle. Auch Ärzte agieren regional sehr unterschiedlich: Zwischen den Bundesländern variieren die Verordnungen von Röntgen-, CT-, und MRT-Aufnahmen um bis zu 30 Prozent. In manchen Stadt- und Landkreisen werden sogar doppelt so viele Aufnahmen veranlasst wie anderswo.

Mehr reden statt röntgen
„Die gründliche körperliche Untersuchung und das persönliche Gespräch zwischen Arzt und Patient müssen wieder mehr Gewicht erhalten“, fordert Mohn. Dafür bedarf es Korrekturen im ärztlichen Vergütungssystem. So müssen Gespräche im Verhältnis zu technikbasierten Untersuchungen besser bezahlt werden.
Internationale Beispiele zeigen des Weiteren, dass es mehrere Möglichkeiten gibt, unnötige und im Zweifelsfall gesundheitsschädliche Aufnahmen zu reduzieren: In Teilen Kanadas erhalten Ärzte seit 2012 keine Vergütung mehr, wenn sich herausstellt, dass Bildaufnahmen veranlasst wurden, obwohl kein gefährlicher Verlauf der Rückenschmerzen erkennbar war. In den Niederlanden setzt man auf striktere Zugangsbeschränkungen zu Röntgen-, CT- und MRT-Geräten.

Zusatzinformationen
Im Auftrag der Bertelsmann Stiftung hat das Institut für angewandte Gesundheitsforschung (InGef) Analysen zu Behandlungsfällen und zum Ausmaß der Bildgebung aufgrund von Rückenschmerzen durchgeführt. Datengrundlage sind anonymisierte, repräsentative Daten von mehr als sieben Millionen Versicherten aus circa 70 gesetzlichen Krankenversicherungen. Zudem wurde mit TNS EMNID eine repräsentative Befragung zum Thema Rückenschmerzen durchgeführt. Die Ergebnisse wurden im aktuellen Faktencheck Rücken zusammengeführt.

Unsere Experten: Eckhard Volbracht, Telefon: 0 52 41 81 81 215
E-Mail: eckhard.volbracht@bertelsmann-stiftung.de

Marion Grote-Westrick, Telefon: 0 52 41 81 81 271
E-Mail: Marion.GroteWestrick@bertelsmann-stiftung.de

Weitere Informationen:
Werte zur Versorgungssituation bei Rückenschmerzen in Ihrer Region finden Sie in unserem interaktiven Kartentool auf: www.faktencheck-ruecken.de

Quelle: idw

(nach oben)


TU Berlin: Kunststoff aus Strom und Selters

Stefanie Terp Stabsstelle Presse, Öffentlichkeitsarbeit und Alumni
Technische Universität Berlin

TU-Forscher wollen mit grüner Elektrochemie Ethylen aus klimaschädlichem CO2 erzeugen – Start eines neuen Verbundprojekts

Plastiktüten und andere Produkte aus Kunststoff werden aus Ethylen hergestellt – genauer: aus Polyethylen. 140 Millionen Tonnen des kohlenstoffbasierten Chemierohstoffs werden jährlich weltweit produziert. Erdöl ist der Rohstoff dafür. Das Produktionsverfahren bei Temperaturen um 800°C ist energieintensiv und wenig nachhaltig. TU-Forscher wollen nun mit weiteren Partnern eine nachhaltige Alternative dazu entwickeln: die Produktion von Ethylen aus Sprudelwasser – also Kohlendioxid und Wasser – und regenerativem Strom.

Prof. Dr. Peter Strasser und sein Team von der TU Berlin, die sich mit der elektrochemischen Katalyse befassen, starten mit weiteren Partnern aus Hochschulen und Industrie das im Rahmen des BMBF-Programms „CO2Plus – Stoffliche Nutzung von CO2″ geförderte Verbundprojekt „eEthylen“. Eine neuartige, komplexe elektrochemische Technologie soll es ermöglichen, aus Kohlendioxid und Wasser Ethylen zu synthetisieren, dessen Nebenprodukt ausschließlich reinster Sauerstoff ist. So werden im Gegensatz zum herkömmlichen Verfahren keine umweltschädlichen Nebenprodukte freigesetzt. Die benötigte Energie wird elektrisch zugeführt und stammt aus erneuerbaren Quellen.

Chemische Katalyse ohne schädliche Nebenprodukte
Eine große wissenschaftliche Herausforderung liegt im Design der Materialien für die Elektroden an beiden Enden der Elektrolysezelle. Die Nanostruktur des Materials muss das komplexe Netzwerk chemisch gekoppelter Einzelreaktionen des Gesamtprozesses so organisieren können, dass Kohlendioxid- und Wassermoleküle schnell, ohne Nebenprodukte und ohne großen Energieverlust zu Ethylen reagieren können.

Schnelle Umsetzung für die industrielle Anwendung
Die Erkenntnisse der Forschungen sollen dabei direkt in die industrielle Entwicklung einfließen und so helfen, technische Verfahren zu entwickeln und zu optimieren. Die Beteiligung von Großunternehmen ermöglicht eine schnelle Umsetzung in die industrielle Anwendung. Als wissenschaftliche Partner sind außer der TU Berlin die Ruhr-Universität Bochum und das Helmholtz-Institut Erlangen-Nürnberg am Projekt beteiligt, als industrielle Koordinatoren die Unternehmen Evonik Resource Efficiency GmbH und Siemens AG. Das Gesamtfördervolumen des Verbunds beträgt 1,5 Millionen Euro. Knapp eine Viertelmillion Euro geht an die TU Berlin.

Weitere Informationen erteilt Ihnen gern:
Prof. Dr. Peter Strasser
Technische Universität Berlin
Institut für Chemie – Technische Chemie
Tel.: 030/314-22261
E-Mail: pstrasser@tu-berlin.de

Quelle: idw

(nach oben)


Maßgeschneiderte Membranen für die Umwelt

Dipl.-Biologin Annette Stettien Unternehmenskommunikation
Forschungszentrum Jülich

Durch das Verbrennen fossiler Energieträger in Kohle- und Gaskraftwerken entstehen umweltschädliche Abgase. Jülicher Forscher arbeiten an Möglichkeiten, diese Abgase nicht nur zu reduzieren, sondern auch nutzbar zu machen. Sie entwickeln keramische Membranen, mit denen sich aus Kohlenstoffdioxid und Wasserdampf reiner Wasserstoff abtrennen lässt, der dann als sauberer Energieträger – zum Beispiel in Brennstoffzellen – verwendet werden kann. Nun konnten sie die Leistungsfähigkeit dieser Membranen auf einen bisher unerreichten Wert steigern. Die Ergebnisse ihrer Forschung veröffentlichten sie in der Fachzeitschrift Scientific Reports (DOI: 10.1038/srep34773).

In technischen Systemen lassen sich mit Membranen Gase trennen – effizienter und kostengünstiger als mit etablierten Verfahren. Membransysteme ermöglichen so die Abtrennung von schädlichen Klimagasen mit vergleichsweise geringen Verlusten. Gleichzeitig lässt sich so hochreiner Wasserstoff für saubere Energieerzeugung und -speicherung gewinnen. Dies macht keramische Membranen zu einer Schlüsseltechnologie der Energiewende.

Eine Möglichkeit, den Wasserstoff aus Gasgemischen abzutrennen, ist eine sogenannte Zweiphasen-Membran. „Diese besteht aus zwei keramischen Materialien. Die einzelnen Körnchen haben nur eine Größe von einem tausendstel Millimeter und weisen einerseits eine ionische und anderseits eine elektronische Leitfähigkeit auf“, erklärt Dr. Mariya Ivanova vom Jülicher Institut für Energie- und Klimaforschung. Die Bestandteile des Wasserstoffs, Protonen und Elektronen, werden so einzeln durch die Membran transportiert. Auf der anderen Seite setzen sie sich zu hochreinem Wasserstoff zusammen. Möglich ist dies durch maßgeschneiderte Fehlstellen im Kristallgitter der Keramiken, die durch Protonen besetzt werden. Diese Protonen, angetrieben durch Druckunterschiede und Temperatur, werden durch das Material der Membran geleitet. „Sie docken an einem Sauerstoff-Ion an, und springen in Richtung des geringeren Drucks zum nächsten Sauerstoff-Ion, von Fehlstelle zu Fehlstelle, bis sie auf der anderen Seite wieder zu elementarem Wasserstoff formiert werden“, sagt Mariya Ivanova. „Die Elektronen werden durch den zweiten Bestandteil der Keramik transportiert und sorgen für einen Ladungsausgleich.“

Doch das Verfahren weist noch einige entscheidende Schwächen auf. Für die Wasserstoffabtrennung sind hohe Temperaturen notwendig, was sie energieaufwändig macht. Außerdem sind die bisher untersuchten Membranen in einer kohlenstoffhaltigen Umgebung nicht stabil und werden unbrauchbar. Auch die Rate des Wasserstoffdurchflusses ist noch nicht hoch genug. Doch die Forscher um Mariya Ivanova haben wichtige Fortschritte gemacht: Durch das gezielte Einbringen von Fremdatomen in das Kristallgitter ist ihre Membran stabiler und bei niedrigeren Temperaturen einsetzbar. Der größte Erfolg ist jedoch der gesteigerte Wasserstoffdurchfluss. „Er ist beinahe doppelt so hoch wie bei allen bisher dokumentierten Fällen“, freut sich Ivanova.

Die Jülicher Membranen für die Messungen sind nur so groß wie ein 10-Cent-Stück, und einen halben Millimeter dick. „An einen industriellen Einsatz ist noch nicht zu denken“, erklärt Ivanova. „Wir forschen weiter, suchen nach dem geeigneten Material, mit großer Durchflussrate und Stabilität und geringen Kosten. Der nächste Schritt ist danach die Vergrößerung der Komponentengröße um einen wirtschaftlichen Einsatz zu gewährleisten.“ Die Forscher wollen zunächst eine Fläche zehn mal zehn Quadratzentimeter erreichen.
Originalpublikation:

„Hydrogen separation through tailored dual phase membranes with nominal composition BaCe0.8Eu0.2O3-δ:Ce0.8Y0.2O2-δ at intermediate temperatures“ by Mariya E. Ivanova, Sonia Escolástico, Maria Balaguer, Justinas Palisaitis, Yoo Jung Sohn, Wilhelm A. Meulenberg, Olivier Guillon, Joachim Mayer & Jose M. Serra, DOI: 10.1038/srep34773

Ansprechpartner:
Dr. Eng. Mariya E. Ivanova
Teamleiterin Wasserstoffpermeable Membranen
Telefon: 02461 61-5194
E-Mail: m.ivanova@fz-juelich.de

Prof. Dr. Olivier Guillon
Direktor des Instituts für Energie- und Klimaforschung (IEK-1): Werkstoffsynthese und Herstellungsverfahren
Telefon: 02461 61-5181
E-Mail: o.guillon@fz-juelich.de

Weitere Informationen:
http://www.fz-juelich.de/iek/iek-1/DE/Home/home_node.html
Institut für Energie- und Klimaforschung: Werkstoffsynthese und Herstellungsverfahren (IEK-1)
http://www.fz-juelich.de/iek/iek-1/DE/Forschung/Gastrennmembrane/_node.html
Forschungsfeld Gastrennmembranen am IEK-1

Quelle: idw

(nach oben)


Hausmüll mit weniger Energie aufbereiten

Rüdiger Mack Marketingkommunikation
FIZ Karlsruhe – Leibniz-Institut für Informationsinfrastruktur GmbH

Für Restmüll aus der grauen Tonne gibt es zwei Entsorgungswege: Eine Müllverbrennungsanlage oder eine mechanisch-biologische Abfallbehandlung (MBA). Bei dieser werden zuerst die Wertstoffe aussortiert und genutzt. Dann wird der Rest in Rottetunneln behandelt. Das neue BINE-Projektinfo „Energieverbrauch der Müllaufbereitung senken“ (15/2016) stellt eine effizientere Anlage zur Abluftbehandlung für MBA vor. Diese kann fast ein Viertel der Energie im Vergleich zu heutigen Anlagen einsparen.

Optimierte Abluftreinigung für mechanisch-biologische Abfallbehandlung
Der nicht zu verwertende Sortierrest des Mülls aus der grauen Tonne durchläuft in den Rottetunneln der MBA einen aeroben Verrottungsprozess. Dadurch werden alle organischen Bestandteile oxidiert. Nach der Behandlung lässt sich der Rest deponieren, ohne dass es noch zur Bildung von Methan oder anderen klimarelevanten Gasen kommt. Die Abluft aus den Tunneln muss gereinigt und behandelt werden, um schädliche Gas- und Geruchsemissionen zu vermeiden. Dazu werden Biofilter, Wäscher und eine Verbrennungseinheit für die kohlenstoffhaltigen Gase eingesetzt. Bei der neuen Anlage haben die Forscher die gesamte Prozesskette optimiert. Die Energieeinsparung konnte vor allem durch eine Reduzierung und Aufteilung der Abluftströme nach Kohlenstoffgehalt und einen dadurch sinkenden Stützgasverbrauch erreicht werden. Auch eine verbesserte Form der Mülleinbringung in die Tunnel hat dazu beigetragen.

In Deutschland gibt es derzeit 45 Anlagen zur mechanisch-biologischen Abfallbehandlung. Die praktische Erprobung der energiesparenden Abluftreinigung fand an der MBA des Landkreises Aurich in Großefehn statt. Das Institut für Aufbereitung und Recycling der RWTH Aachen hat das Projekt mit Kooperationspartnern durchgeführt.

Das BINE-Projektinfo ist kostenfrei beim BINE Informationsdienst von FIZ Karlsruhe erhältlich – unter www.bine.info oder 0228 – 92379-0.

BINE Informationsdienst ist ein Service von FIZ Karlsruhe und wird vom Bundesministerium für Wirtschaft und Energie (BMWi) gefördert.

FIZ Karlsruhe – Leibniz-Institut für Informationsinfrastruktur ist eine gemeinnützige Gesellschaft, die im öffentlichen Auftrag weltweit publizierte wissenschaftliche Information zugänglich macht und entsprechende Dienstleistungen zur Verfügung stellt. FIZ Karlsruhe
hat die Aufgabe, den nationalen und internationalen Wissenstransfer und die Innovationsförderung zu unterstützen.

Weitere Informationen:

http://www.bine.info/en – BINE Information Service – Energy research for practical applications
http://www.twitter.com/bineinfo – Folgen Sie BINE Informationsdienst aktuell auf Twitter
https://www.facebook.com/BINE.Informationsdienst – Auch auf Facebook mit mehr News und Infos rund um die Uhr

Quelle: idw

(nach oben)


Nach über 100 Jahren: Neue Wege in der Krampfaderbehandlung – Pressekonferenz der DEGUM

Friederike Gehlenborg Pressestelle
Deutsche Gesellschaft für Ultraschall in der Medizin (DEGUM)

Berlin – Wenn die Beine kribbeln, sich schwer anfühlen und blaue Adern durch die Haut schimmern – dann ist oft ein Venenleiden die Ursache. Die Erkrankung ist weit verbreitet: Mit rund 300.000 Eingriffen pro Jahr ist die Krampfaderbehandlung eine der häufigsten Operationen in Deutschland. Über 100 Jahre war das klassische Ziehen der Krampfadern – die sogenannte Stripping-Operation – die primäre Behandlungsart. Doch nun setzen sich zunehmend schonendere Kathetermethoden durch, bei denen Ultraschalldiagnostik zum Einsatz kommt.

„Die modernen Katheterbehandlungen zielen darauf ab, die erkrankten Venen mittels Katheter schonend zu verschließen statt sie zu entfernen“, erläutert Dr. med Tobias Hirsch, Facharzt für Innere Medizin und Angiologie von der Praxis für Innere Medizin und Gefäßkrankheiten in Halle (Saale). „Neben Methoden wie der Laserbehandlung, die auf der Einwirkung von Wärme beruhen, können die Krampfadern beispielsweise auch verklebt werden.“ Statt zahlreicher Schnitte sei für diese minimalinvasiven Methoden nur ein kleiner Einstich erforderlich. Der Vorteil: Die Behandlung ist für die Patienten angenehmer – und die Heilung erfolgt schneller.

Ob mit einer Laserbehandlung oder per Radiofrequenzkatheter – alle Methoden haben eines gemeinsam: moderne Ultraschalltechnik kommt zum Einsatz. „Um Krampfadern mit den schonenden Kathethermethoden erfolgreich behandeln zu können, ist die Ultraschalldiagnostik eine grundlegende Voraussetzung für uns“, so Hirsch. „Sie ermöglicht es, krankhafte Veränderungen an den Venen der Patienten umfassend und besonders exakt darzustellen.“ Neben der anatomischen Untersuchung der Venen kann so beispielsweise auch verdeutlicht werden, dass das Blut, das normalerweise herzwärts strömt, aufgrund einer gestörten Klappenfunktion wieder vom Herzen weg fließt. Durch den so entstandenen Rückstau des Blutes werden Venen geweitet – und Krampfadern entstehen. Auch Wassereinlagerungen – sogenannte Ödeme – können durch den Blutstau entstehen und eine verschlechterte Versorgung der Haut mit Sauerstoff und Nährstoffen können Folgen hiervon sein.

„Die Ultraschalltechnik ermöglicht mittlerweile eine sehr exakte Bildgebung, die es sogar möglich macht, die Rückflüsse zeitlich zu erfassen“, sagt der Experte. Der klare Vorteil gegenüber der radiologischen Bildgebung: Die Untersuchungen sind beliebig oft wiederholbar und können unmittelbar in der operativen Therapie durchgeführt werden. Eine wichtige Voraussetzung für den Einsatz der Technik ist ein sicherer Umgang des Arztes mit der Ultraschalltechnik; denn sowohl die Führung des Behandlungskatheters als auch die örtliche Betäubung erfolgen ultraschallgesteuert.

„Wir erwarten, dass in den kommenden Jahren auch in Deutschland die klassische Stripping-Operation mehr und mehr von den Kathetermethoden abgelöst wird“, meint Hirsch. „Dieser Trend zeigt sich auch daran, dass die entsprechenden fachspezifischen Kurse der DEGUM immer stärker besucht werden.“ Die Kursmodelle und speziellen Anwenderseminare berücksichtigen die neuen Entwicklungen in der Krampfaderbehandlung. Auch ein Blick über die Landesgrenze hinweg legt den beschriebenen Trend nahe: In den USA werden die Kathetermethoden zur Krampfaderbehandlung bereits seit 2011 und in Großbritannien seit 2013 als Therapie durch die nationalen Leitlinien empfohlen – und zwar als Therapie der ersten Wahl.

Über die DEGUM:
Die Deutsche Gesellschaft für Ultraschall in der Medizin (DEGUM) bietet ein Forum für den wissenschaftlichen und praktischen Erfahrungsaustausch auf dem Gebiet des medizinischen Ultraschalls. Sie vereint rund 10 000 Ärzte verschiedener Fachgebiete, medizinische Assistenten, Naturwissenschaftler und Techniker. Ultraschalldiagnostik ist heute das am häufigsten eingesetzte bildgebende Verfahren in der Medizin. Ultraschallanwendern bescheinigt die DEGUM eine entsprechende Qualifikation mit einem Zertifikat der Stufen I bis III. DEGUM-zertifizierte Ärzte finden Patienten im Internet unter: http://www.degum.de

Weitere Informationen:
http://www.degum.de

Quelle: idw

(nach oben)


Kommunen können mit „Monitor Nachhaltige Kommune“ den Grad ihrer Nachhaltigkeit messen

Sybille Wenke-Thiem Stabsstelle Presse- und Öffentlichkeitsarbeit
Deutsches Institut für Urbanistik

Bertelsmann Stiftung und Difu stellen neues Instrument für bundesweites Monitoring nachhaltiger Entwicklung vor

Berlin. Die Mehrzahl der Kommunen steht zu einer nachhaltigen Entwicklung. Allerdings war es bisher schwierig, den Erfolg des nachhaltigen Handelns zu messen. Der von der Bertelsmann Stiftung in Zusammenarbeit mit dem Deutschen Institut für Urbanistik in Berlin entwickelte „Monitor Nachhaltige Kommune“ liefert dazu nun die Möglichkeit: Er zielt darauf ab, den Stand der nachhaltigen Entwicklung in deutschen Kommunen transparent zu machen und die Entwicklung eines wirkungsorientierten Nachhaltigkeitsmanagements zu unterstützen. Im Internet-Portal www.wegweiser-kommune.de der Bertelsmann Stiftung können Kommunen mit mehr als 5.000 Einwohnern ihre individuellen Werte und Entwicklungsverläufe abrufen und mit den Werten anderer Kommunen vergleichen. Zwei Veröffentlichungen fassen die detaillierten Ergebnisse zusammen, sie stehen als PDF kostenfrei im Netz bereit: https://difu.de/10994

Obwohl Städte, Gemeinden und Kreise bei der Umsetzung von Nachhaltigkeitsstrategien des Bundes und der Länder eine wichtige Rolle spielen, gibt es wenige gesicherte Erkenntnisse darüber, wie nachhaltig Deutschlands Kommunen tatsächlich sind und mit welchen Themen sie sich beschäftigen. Diese Lücke soll der neue Monitor Nachhaltige Kommune schließen.

Die im Rahmen des Monitors durchgeführte Befragung der Stadtspitzen deutscher Städte und Kreise zeigt, wie nachhaltig Deutschlands Kommunen handeln. Fast 90 Prozent der befragten Kommunen betonen, dass das Thema für sie sehr wichtig bzw. wichtig ist. Dabei stehen die Themen Haushaltsführung, Bildung, Wohnen und Wohnumfeld sowie Klima und Energie in den befragten Kommunen derzeit hoch im Kurs. Gleichzeitig wird allerdings dem Engagement für Armut, Sicherheit, Gesundheit und Pflege sowie für die „Eine-Welt“ eher nachrangige Bedeutung beigemessen. Dies kann als Defizit bewertet werden: Die Vereinten Nationen betonen in ihrer Resolution zu den neuen globalen Zielen („Sustainable Development Goals“), dass die Beseitigung der Armut ein zentraler Aspekt und eine Vorbedingung für nachhaltige Entwicklung ist, und das gilt nicht nur global, sondern trifft auch auf deutsche Kommunen zu.

Neben der Befragung zum Nachhaltigkeitsmanagement wurde im Monitor Nachhaltige Kommune ein umfassender Indikatorenkatalog entwickelt, der dem Monitoring und der Evaluation von nachhaltiger Entwicklung dient. Von insgesamt 125 Indikatoren aus den zentralen kommunalen Aufgabenbereichen werden insbesondere 37 sogenannte „Kernindikatoren“ empfohlen. Zu diesen erfolgten eine flächendeckende Datenerhebung sowie statistische Analysen zu Zusammenhängen zwischen den Indikatoren.

Kontakt:
Dr. Busso Grabow
Telefon: 030-39001-248
E-Mail: grabow@difu.de

Dr. Jasmin Honold
Telefon: 030-39001-198
E-Mail: honold@difu.de

Weitere Informationen:
https://difu.de/10994
https://www.bertelsmann-stiftung.de/de/unsere-projekte/monitor-nachhaltige-kommu…
http://www.wegweiser-kommune.de/

Kurzinfo: Deutsches Institut für Urbanistik
Das Deutsche Institut für Urbanistik (Difu) ist als größtes Stadtforschungsinstitut im deutschsprachigen Raum die Forschungs-, Fortbildungs- und Informationseinrichtung für Städte, Kommunalverbände und Planungsgemeinschaften. Ob Stadt- und Regionalentwicklung, kommunale Wirtschaft, Städtebau, soziale Themen, Umwelt, Verkehr, Kultur, Recht, Verwaltungsthemen oder Kommunalfinanzen: Das 1973 gegründete unabhängige Berliner Institut – mit einem weiteren Standort in Köln (Bereich Umwelt) – bearbeitet ein umfangreiches Themenspektrum und beschäftigt sich auf wissenschaftlicher Ebene praxisnah mit allen Aufgaben, die Kommunen heute und in Zukunft zu bewältigen haben. Der Verein für Kommunalwissenschaften e.V. ist alleiniger Gesellschafter des in der Form einer gemeinnützigen GmbH geführten Forschungsinstituts.

Deutsches Institut für Urbanistik gGmbH
Sitz Berlin, AG Charlottenburg, HRB 114959 B
Geschäftsführer: Prof. Dipl.-Ing. Martin zur Nedden, Dr. Busso Grabow

Quelle: idw

(nach oben)


Lernen von Legionellen

Dr. Anne Hardy Public Relations und Kommunikation
Goethe-Universität Frankfurt am Main

Forscher haben bei Legionellen einen neuen Ubiquitinierungs-Mechanismus entdeckt, der die pathogenen Effekte von Bakterien erklärt. Ivan Dikic und sein Team an der Goethe-Universität vermuten, dass er auch an vielen anderen biologischen Prozessen beteiligt ist. Die Studie erscheint in der kommenden Ausgabe von „Cell“.

FRANKFURT. Die Markierung mit dem kleinen Molekül Ubiquitin galt lange als „Todeskuss“, durch den nicht mehr benötigte Proteine in der Zelle entsorgt werden. Doch inzwischen weiß man, dass Ubiquitin noch viele weitere Aufgaben in der zellulären Signalverarbeitung erfüllt. Ein Forscherteam unter Leitung von Prof. Ivan Dikic, Direktor des Instituts für Biochemie II an der Goethe-Universität Frankfurt, hat nun einen neuartigen Mechanismus zur Ubiquitinierung aufgeklärt, mit dem Legionellen die Steuerung ihrer Wirtszellen übernehmen können.

Nach der bisher gängigen Lehrmeinung erfordert die Anheftung von Ubiquitin an andere Proteine die konzertierte Aktion von drei Enzymen. Im April dieses Jahres beschrieben amerikanische Forscher erstmals eine Form der Ubiquitinierung, an der nur ein einziges Enzym aus Legionellen beteiligt ist. Das Team von Ivan Dikic hat nun gemeinsam mit der Gruppe von Ivan Matic (Max-Planck-Institut für Biologie des Alterns, Köln) den zugrundeliegenden molekularen Mechanismus aufgeklärt.

Verblüffend ist die bisher unbekannte Art der chemischen Verknüpfung von Ubiquitin mit Proteinen, die das Enzym aus den Legionellen herstellt. Für die Fachwelt ist das eine bahnbrechende Entdeckung. Dr. Sagar Bhogaraju, Wissenschaftler im Labor von Dikic, kommentiert: „Spannend ist nun vor allem die Frage, ob diese neuartige Ubiquitinierung auch unabhängig von bakteriellen Infektionen in menschlichen Zellen vorkommt und ob es ähnliche, bislang unentdeckte Enzyme beim Menschen gibt, die womöglich weitreichenden Einfluss auf zelluläre Prozesse haben.“

Bei der detaillierten Untersuchung des neuen Mechanismus wurden die Forscher erneut überrascht: Das Legionellen-Enzym katalysiert nicht nur die Ubiquitinierung zellulärer Proteine, es verändert außerdem alle weiteren vorhandenen Ubiquitin-Moleküle. Bei Infektionen mit Legionellen spielt diese modifizierte Form von Ubiquitin vermutlich eine wichtige Rolle, da sie das klassische Ubiquitin-System weitgehend hemmt.

Neben der „Abfallwirtschaft“ funktionieren dann auch weitere wichtige Prozesse in der Zelle nicht mehr, was für das Bakterium von entscheidendem Vorteil sein kann. So konnte das Team von Ivan Dikic zeigen, dass das modifizierte Ubiquitin die Entsorgung von Mitochondrien (Mitophagie) ebenso lahmlegt wie die Weiterleitung von Entzündungssignalen und den Abbau von Proteinen. Auf diese Weise könnten Legionellen fundamental in zelluläre Prozesse ihres Wirts eingreifen.

„Wir gehen davon aus, dass Legionellen nicht die einzigen Bakterien sind, die sich diesen Mechanismus zunutze machen. Hier könnten sich neue Strategien für die Entwicklung antibakterieller Agenzien ergeben, die komplementär zu konventionellen Antibiotika wirken und die zellulären Schäden durch bakterielle Enzyme begrenzen“, erklärt Dikic die medizinische Bedeutung der Entdeckung.

Ivan Dikic hat mit seiner Forschung am Institut für Biochemie II und am Buchmann Institut für Molekulare Lebenswissenschaften an der Goethe-Universität bereits in der Vergangenheit maßgeblich zu einem Paradigmenwechsel in der Ubiquitinforschung beigetragen. Er verfolgte schon früh die Hypothese, dass Ubiquitin-Signale von spezialisierten Bereichen in anderen Proteinen erkannt und übersetzt werden. Er konnte Ubiquitin-bindende Bereiche in über 200 Proteinen identifizieren und deren Rolle in normalen physiologischen Prozessen und bei der Entstehung von Erkrankungen wie Krebs, ALS und Parkinson belegen.

Publikation:
Bhogaraju S, Kalayil S, Liu Y, Bonn F, Colby T, Matic I, Dikic I. Phosphoribosylation of ubiquitin promotes serine ubiquitination and impairs conventional ubiquitination. Cell. 2016 Dec;167(6). DOI 10.1016/j.cell.2016.11.019

Bilder zum Download finden Sie unter: www.uni-frankfurt.de/64206818

Informationen:
Dr. Kerstin Koch, Institut für Biochemie II, Universitätsklinikum, Tel.: (069) 6301 84250, koch@biochem2.de

Die Goethe-Universität ist eine forschungsstarke Hochschule in der europäischen Finanzmetropole Frankfurt. 1914 mit privaten Mitteln überwiegend jüdischer Stifter gegründet, hat sie seitdem Pionierleistungen erbracht auf den Feldern der Sozial-, Gesellschafts- und Wirtschaftswissenschaften, Medizin, Quantenphysik, Hirnforschung und Arbeitsrecht. Am 1. Januar 2008 gewann sie mit der Rückkehr zu ihren historischen Wurzeln als Stiftungsuniversität ein hohes Maß an Selbstverantwortung. Heute ist sie eine der zehn drittmittelstärksten und drei größten Universitäten Deutschlands mit drei Exzellenzclustern in Medizin, Lebenswissenschaften sowie Geistes- und Sozialwissenschaften. Zusammen mit der Technischen Universität Darmstadt und der Universität Mainz ist sie Partner der länderübergreifenden strategischen Universitätsallianz Rhein-Main.

Aktuelle Nachrichten aus Wissenschaft, Lehre und Gesellschaft in GOETHE-UNI online (www.aktuelles.uni-frankfurt.de)

Das Max-Planck-Institut für Biologie des Alterns untersucht den natürlichen Alterungsprozess mit dem langfristigen Ziel, ein gesünderes menschliches Altern zu ermöglichen. Es ist ein Institut der Max-Planck-Gesellschaft, eine der führenden Grundlagenforschungs-Organisationen in Deutschland. Seit seiner Gründung im Jahr 2008 ist das Institut zentraler Bestandteil eines Life-Science-Clusters in Köln, welches sich auf die Erforschung des Alterns konzentriert.

Herausgeberin:
Die Präsidentin

Redaktion:
Dr. Anne Hardy, Referentin für Wissenschaftskommunikation, Abteilung PR & Kommunikation, Theodor-W.-Adorno-Platz 1, 60323 Frankfurt am Main, Tel: (069) 798-12498, Fax: (069) 798-763 12531, hardy@pvw.uni-frankfurt.de

Internet:
www.uni-frankfurt.de

Quelle: idw

(nach oben)


Haustiere: Garant für subjektives Wohlbefinden?

Dr. Anne Klostermann Presse- und Öffentlichkeitsarbeit
Deutsche Gesellschaft für Psychologie (DGPs)

Rund 30 Millionen Haustiere waren im Jahr 2015 in Deutschland gemeldet ‒ sieben Millionen mehr als noch fünf Jahre zuvor. Jeder zweite Deutsche wohnt in einem Haushalt mit mindestens einem Haustier. Katzen und Hunde führen dabei die Statistik der beliebtesten Tiere an, wie die Umfragen des Allensbach-Instituts zeigen. Welchen Einfluss Haustiere auf unser alltägliches Wohlbefinden ausüben, haben Psychologinnen in einer aktuellen Studie untersucht. Die Ergebnisse wurden nun im „Journal of Positive Psychology“ veröffentlicht.

Befragung von 631 Haustierbesitzerinnen und -besitzern
„Die Frage, ob Haustiere uns guttun, uns glücklicher und zufriedener machen, ist nicht so einfach zu beantworten“, sagt Anna Kalitzki. „Wichtig ist dabei wohl die Frage, unter welchen Bedingungen bestimmte Tiere gut für unser Wohlbefinden sind.“ Diese Bedingungen hat Kalitzki gemeinsam mit Maike Luhmann, Professorin für Psychologische Methodenlehre an der Ruhr-Universität Bochum, nun untersucht. In einer Online-Studie befragten sie insgesamt 631 Personen, die Hunde, Katzen oder Pferde halten. Der Fragebogen bestand einerseits aus Fragen zur Messung zweier Aspekte des subjektiven Wohlbefindens: positive Stimmung und Lebenszufriedenheit. Andererseits wurden Fragen zum Haustier und zu den erlebten Vorteilen („Nutzenfaktoren“) und Nachteilen („Kostenfaktoren“) des Haustierhaltens gestellt, etwa, ob die Befragten aufgrund ihres Haustiers verstärkt sportlichen Aktivitäten nachgehen oder wie belastend die Kosten des Haustierhaltens für sie sind.

Die Analysen zeigen unter anderem Folgendes: Das Wohlbefinden von Haustierhalterinnen und -haltern steigt besonders dann, wenn sie die Tierhaltung als eine wichtige Aufgabe in ihrem Leben – eine sogenannte „soziale Rolle“ – begreifen, und wenn die Tierhaltung ihr Bedürfnis nach Autonomie befriedigt. Problematisch wirkte es sich hingegen aus, wenn die Tierhaltung als zu große finanzielle Belastung empfunden wurde. Ein interessantes Ergebnis zeigte sich im Zusammenhang mit der persönlichen Bindung an das Tier: diese hatte nämlich im Zusammenspiel mit allen anderen gemessenen Variablen einen negativen Effekt auf das subjektive Wohlbefinden. Die Autorinnen diskutieren auch eine mögliche Erklärung für diesen Befund: eine starke Bindung an das Tier kann sich negativ auswirken, wenn sie Bindungen an andere Menschen weniger stark macht oder gar ganz ersetzt. Wer also wegen seines Haustiers keine Zeit mehr für soziale Kontakte hat, ist tendenziell umso unzufriedener, je enger er sich an das Tier gebunden fühlt.

Unterschiede zwischen den Haustieren
Die Forscherinnen schauten sich auch an, ob das Halten eines Hundes im Durchschnitt zufriedener macht als das Halten einer Katze oder eines Pferdes. Solche Unterschiede zwischen den Haustieren gab es interessanterweise nicht. Allerdings lassen sich für jedes Haustier ganz spezifische Kosten- und Nutzenfaktoren ausmachen. Pferde zum Beispiel tragen mehr zur Sinnstiftung bei ihren Besitzerinnen bei als Hunde oder Katzen. Pferde fördern darüber hinaus stärker das Autonomieerleben ihrer Besitzerinnen und Besitzer, aber sie werden auch als Belastung erlebt, und zwar sowohl was finanzielle als auch zeitliche Spielräume angeht. Katzen hingegen sind die Haustiere, die ihren Besitzerinnen und Besitzern die geringste Unterstützung geben. Aber sie sind auch diejenigen, die sich am wenigsten belastend auf die Beziehung zwischen ihrer Besitzerin und deren Partner oder Partnerin auswirken.
„In mancher Hinsicht kann man Haustiere durchaus mit Kindern vergleichen“ sagt Maike Luhmann. „Sie können eine Quelle purer Freude sein und einem das Gefühl geben, gebraucht und geliebt zu werden. Aber gleichzeitig kann der Umgang mit ihnen auch manchmal anstrengend sein und – je nach Lebensphase – eine finanzielle Belastung darstellen. Insgesamt scheinen sich die positiven und negativen Einflüsse auf das Wohlbefinden die Waage zu halten. Deshalb ist es für jeden Einzelnen wichtig, sich vor der Entscheidung für ein Haustier die verschiedenen Faktoren vor Augen zu führen und anhand der persönlichen Situation zu bewerten und zu gewichten.“

Weitere Links:
Der Artikel kann hier abgerufen werden: http://www.tandfonline.com/doi/full/10.1080/17439760.2016.1257054

Kontakt bei Rückfragen:
Prof. Dr. Maike Luhmann
Arbeitseinheit Psychologische Methodenlehre
Ruhr-Universität Bochum
E-Mail: maike.luhmann@ruhr-uni-bochum.de

Anna Kalitzki. M.Sc.
E-Mail: a.kalitzki@web.de

Pressestelle der DGPs:
Dr. Anne Klostermann
Pressereferentin
E-Mail: pressestelle@dgps.de
Tel.: 030 28047718

Über die DGPs:
Die Deutsche Gesellschaft für Psychologie (DGPs e.V.) ist eine Vereinigung der in Forschung und Lehre tätigen Psychologinnen und Psychologen. Die über 4000 Mitglieder erforschen das Erleben und Verhalten des Menschen. Sie publizieren, lehren und beziehen Stellung in der Welt der Universitäten, in der Forschung, der Politik und im Alltag.
Die Pressestelle der DGPs informiert die Öffentlichkeit über Beiträge der Psychologie zu gesellschaftlich relevanten Themen. Darüber hinaus stellt die DGPs Journalisten eine Datenbank von Experten für unterschiedliche Fachgebiete zur Verfügung, die Auskunft zu spezifischen Fragestellungen geben können.
Wollen Sie mehr über uns erfahren? Besuchen Sie die DGPs im Internet: www.dgps.de

Weitere Informationen:
http://www.tandfonline.com/doi/full/10.1080/17439760.2016.1257054

Quelle: idw

(nach oben)


Remweed-Forschungsprojekt: Unkrautbekämpfung mittels Agrar-Drohnen

Petra Dabelstein Marketing und Presse
Hochschule für Technik Stuttgart

Landwirte benötigen für eine gezielte Unkrautbekämpfung präzise Informationen über die Verunkrautung im Feld. „Agrar-Drohnen können solche Daten schnell und in hoher Qualität liefern und damit dem Landwirt eine Entscheidungshilfe für ein optimales Unkrautmanagement an die Hand geben“, erklärt Prof. Dr. Hahn. „Ziel unseres gemeinsamen Forschungsprojektes Remweed ist es, ein unabhängiges Online-Beratungssystem für Landwirte zu entwickeln, das auf der Basis von Fernerkundungsdaten praktikable Lösungsvorschläge zur effizienten und nachhaltigen Unkrautbekämpfung anbietet.“

Mit Hochleistungskameras Unkräuter aus der Luft bestimmen
Hierzu werden Unmanned Aerial Systems (UAS) eingesetzt, die mit Farb- und Multispektralkameras sowie weiteren Sensoren ausgestattet sind. Dies ermöglicht eine georeferenzierte und hochauflösende bildhafte Erfassung von Ackerschlägen in 3D. Die HFT Stuttgart entwickelt anhand der Fernerkundungsdaten Methoden zur Ableitung von agronomischen und herbologischen Parametern: Anhand der Fotos sollen unter anderem der Gesamtdeckungsgrad, die Unkrautarten und Unkrautdichte, der Deckungsgrad von Zwischenfrüchten und Mulch sowie der Herbizidstress von Kulturpflanzen ermittelt werden. Diese Parameter ermöglichen eine Einschätzung der Verunkrautungssituation. In einem weiteren Schritt werden daraus Applikationskarten für eine teilschlagspezifische Unkrautbekämpfung erzeugt.

Um den Bekämpfungserfolg einer Herbizidapplikation zu bestimmen, werden die Felder innerhalb einer Vegetationsperiode mehrfach überflogen. Außerdem lassen sich auf diese Weise auch neu aufgelaufene Unkräuter sowie die Bestandsentwicklung der Kulturpflanzen und Zwischenfrüchte ermitteln.

Vom Foto zur schlagspezifischen Verunkrautungssituation
Für die Artenbestimmung spielen neben den spektralen Informationen auch Form- und Texturmerkmale eine Rolle. Es soll untersucht werden, mit welchen zusätzlichen Informationen, z.B. über die phänologischen Zeitpunkte und Entwicklungsstadien, die Verunkrautungssituation weiter spezifiziert werden kann. Darüber hinaus werden Algorithmen zur Erkennung des Reihenverlaufs von Hackfrüchten wie Mais und Zuckerrüben einbezogen. Diese Metadaten bilden die Grundlage für das Expertensystem.

Im Praxistest wird die Tauglichkeit des UAS-Ansatzes für die flächenhafte Erfassung von Bestandsparametern getestet und evaluiert. Dazu werden die Parameter in regelmäßigen Abständen auf ausgewählten Schlägen mit konventionellen bodengestützten Methoden bestimmt, so dass ein Soll-Ist-Vergleich mit den Luftbild-basierten Ergebnissen möglich wird.

Mit den entwickelten Techniken sollen Dienstleister in die Lage versetzt werden, Landwirten eine bessere Datengrundlage für ein gezieltes Management zur Verfügung zu stellen. Die hochauflösenden Daten eignen sich zur die Steuerung teilschlagspezifischer Applikationstechnik und sind damit ein weiterer Baustein für Precision Farming Technologien.

Das Projekt wird in Zusammenarbeit mit der Universität Hohenheim, der Firma GerMAP GmbH, der Firma Proplanta GmbH &Co. KG sowie dem Landwirtschaftlichen Technologiezentrum Augustenberg durchgeführt. Es läuft bis Juli 2019 und wird vom Bundesministerium für Ernährung und Landwirtschaft (BMEL) gefördert. Auf www.agrar-drohnen.de wird über das Projekt Remweed in Kürze fortlaufend berichtet.

Weitere Informationen:
http://www.hft-stuttgart.de

Quelle: idw

(nach oben)


Upgrade für Biogas

Ulrike Schnyder Presse- und Öffentlichkeitsarbeit
Hochschule Landshut

Biogasanlagen sind wichtige Treiber für die Energiewende. Doch sie lohnen sich für viele Betreiber nicht mehr. Die Umwandlung in Biomethan kann die Anlagen flexibler und energieeffizienter machen ─ und Betreibern neue Geschäftsfelder eröffnen. Forscher der Hochschulen Landshut und Weihenstephan-Triesdorf haben ein entsprechendes Verfahren entwickeln.

Bis 2035 soll Deutschland 55 bis 60 Prozent seiner Stromerzeugung aus erneuerbaren Energien beziehen – aktuell ist das rund ein Drittel. Doch Photovoltaikanlagen sind nur tagsüber im Sommer ausgelastet, Windenergie lohnt sich oft nur in exponierten Lagen. Und in dunklen Wintermonaten übersteigt der Strombedarf die Produktion der erneuerbaren Quellen. Biogasanlagen können diese Schwankungen teilweise ausgleichen und für kontinuierlichen Strom sorgen.

„Die Stärke von Biogasanlagen ist, dass sie flexibel sind. Sie können bei Bedarf Strom und Wärme erzeugen und auch Strom ins Netz einspeisen – oder die Energie bei Stromüberschuss als Biogas speichern“, erklärt Prof. Dr. Josef Hofmann, Professor für Energie- und Umwelttechnik an der Hochschule Landshut. Gefördert wird im Moment aber vor allem der kontinuierliche, nicht der flexible Betrieb der Anlagen: Betreiber können derzeit noch mit einem festen Tarif für den Strom rechnen, den sie 365 Tage im Jahr ins Netz einspeisen.

Biomethan: Kraftstoffersatz und Energiespeicher
Dieser Deal läuft 2020 aus. „Viele Anlagen werden sich dann nicht mehr lohnen, wenn die Betreiber nicht umdenken“, schätzt Hofmann. Seine Lösung: Biogas umwandeln in flüssiges Biomethan. Der Clou: „Biomethan ist tausendmal energiereicher als Biogas“, sagt Hofmann. Das macht die Flüssigkeit zum begehrten Energiespeicher – über Monate kann sie stabil in wärmeisolierten Tanks gelagert werden. Bei Bedarf, zum Beispiel im kalten und dunklen Winter, lässt sie sich dann wieder in Wärme- oder elektrische Energie umwandeln. „Die Flüssigkeit lässt sich viel länger und effektiver speichern als Biogas“, fasst Hofmann zusammen.

Er hat gemeinsam mit Kollegen von der Hochschule Landshut und der Hochschule Weihenstephan-Triesdorf in Freising ein entsprechendes Verfahren entwickelt. Vorgereinigtes Biogas wird dabei in mehreren Stufen auf -162 Grad Celsius abgekühlt. Dabei entstehen zwei Komponenten: flüssiges Biomethan und festes Kohlendioxid, also Trockeneis. Hofmann: „Mit unserem Verfahren gewinnen wir Biomethan mit einer Reinheit von 99,9 Prozent. So wäre es auch als Rohstoff für die chemische Industrie interessant, etwa zur Herstellung von Grundchemikalien wie Wasserstoff oder Methanol.“ Und es könnte als Kraftstoff eingesetzt werden – als umweltverträglichere Alternative zu fossilen Brennstoffen. Das bedeutet für Betreiber von Biogasanlagen zusätzliche Geschäftsfelder neben Strom- und Wärmeproduktion.

Neue Geschäftsfelder für Biogasanlagen
Bevor das Biogas getrennt werden kann, müssen die Forscher es erst gründlich reinigen. Das war Aufgabe des Freisinger Teams um Prof. Dr. Oliver Falk von der Hochschule Weihenstephan-Triesdorf: „Kleinste Verunreinigungen könnten in den nachfolgenden Schritten gefrieren und Geräte beschädigen“, beschreibt der Ingenieur. Vor allem Schwefelwasserstoff ist im Biogas unerwünscht. Um ihn zu entfernen, haben die Forscher verschiedene Eisenpräparate und Aktivkohlefilter getestet und geschickt miteinander kombiniert. Das Ergebnis: „Im gereinigten Biogas ist kein Schwefelwasserstoff mehr nachweisbar, er enthält also weniger als ein part per million der Verbindung“, so Falk. Das entspricht einem Salzkorn in einem Liter Wasser.

Das gereinigte Gas fließt dann in die eigens entwickelte Laboranlage von Falks Kollegen an der Hochschule Landshut. In dem mannshohen Gebilde aus silbrigen Schläuchen und kupferfarbenen Verbindungsstücken steckt Prozess- und Material-Know-how aus der gesamten Hochschule. Zwei Studentinnen haben beispielsweise die perfekte Beschichtung für Wärmetauscher ermittelt. Das ist wichtig, damit Kohlendioxid dort als Schnee und nicht als Eis kristallisiert. Denn Schnee kann einfach abgeklopft werden. Eine Eisschicht müsste aber regelmäßig abgetaut werden – ähnlich wie bei einer Tiefkühltruhe. Das würde zusätzlich Energie verbrauchen.

Nebenprodukt Trockeneis wird weitervermarktet
Die Studentinnen haben in ihrer Abschlussarbeit herausgefunden: Sind die Wärmetauscher mit Teflon beschichtet, bildet sich der optimale Kohlendioxid-Schnee. Biogasanlagen-Betreiber können ihn als Trockeneis weitervermarkten. In Flugzeugen beispielsweise werden damit Lebensmittel gekühlt. Und in der Kunststoff- und Stahlindustrie nutzt man es, um die Oberflächen von Kunststoffen und Metallen zu reinigen.

Die Gasreinigung und -trennung funktioniert also im Labor einwandfrei. Die Forscher wollen nun das Prinzip auf den Maßstab einer Biogasanlage übertragen. Dafür wollen sie ab 2017 eine Demonstrationsanlage in Landshut errichten. Hofmann sieht in dem Verfahren eine Zukunft für Biogasanlagen: „Biomethan lässt sich viel leichter speichern und transportieren als Biogas. Die Anlagenbetreiber werden flexibler – und können weiterhin die Energiewende sowie eine klimafreundliche Mobilität unterstützen.“

Weitere Informationen:
https://youtu.be/-hfbewb4Goc

Quelle: idw

(nach oben)


Frachtschiffe reinigen, aber richtig: Forschungsprojekt der OTH Regensburg

Dipl. Journalistin, MBA Diana Feuerer Hochschulkommunikation und Öffentlichkeitsarbeit
Ostbayerische Technische Hochschule Regensburg

Wie verunreinigt ist das Wasser, mit dem der Laderaum von Frachtschiffen gewaschen wurde? „Putzen“ an Bord, ohne viel verunreinigtes Wasser zu verursachen, geht das? Mit spannenden Fragen zur Reinigung von Frachtschiffen befasst sich aktuell ein Forschungsprojekt der OTH Regensburg. Projektpartner sind die bayernhafen Gruppe, Regensburg, und die Bavaria Schifffahrts- und Speditions-AG, Aschaffenburg. Das Bayerische Staatsministerium für Umwelt und Verbraucherschutz fördert das einjährige Projekt mit 150.300 Euro.

Wie verunreinigt ist das Wasser, mit dem der Laderaum von Frachtschiffen gewaschen wurde? „Putzen“ an Bord, ohne viel verunreinigtes Wasser zu verursachen, geht das? Und: Wie kann das Waschwasser unkompliziert und umweltschonend entsorgt werden? Mit diesen spannenden Fragen zur Reinigung von Frachtschiffen befasst sich ein fakultätsübergreifendes Forschungsprojekt der OTH Regensburg. „Saubere Flüsse und Seen sind eine unserer größten Schätze. Bayern unternimmt vielfältige Anstrengungen, um die Qualität der Gewässer weiter zu verbessern. Das Projekt kann Möglichkeiten aufzeigen, wie die Belastung mit Waschwasser vermindert werden kann. Eine verbesserte Gewässerqualität schafft Mehrwert für Mensch und Natur“, betont die Bayerische Umweltministerin Ulrike Scharf anlässlich des Projektstarts. Das einjährige Projekt trägt den Titel „CDNI-Abwässer aus der Wäsche von Binnenschiffen“. Projektpartner sind die bayernhafen Gruppe mit Sitz in Regensburg, Betreiber der wichtigsten Hafenanlagen an den bayerischen Binnengewässern und die Bavaria Schifffahrts- und Speditions-AG, Aschaffenburg, wichtigster Schiffseigner in Bayern. Das Bayerische Staatsministerium für Umwelt und Verbraucherschutz fördert das Projekt mit 150.300 Euro.

Damit verschiedene Schiffsladungen, zum Beispiel Lebensmittel und Dünger, nicht miteinander in Berührung kommen, werden Schiffsladeräume nach dem Entladen gereinigt. Doch die Reinigung und vor allem das Entsorgen des Waschwassers bereitet unter anderem Schiffsführern mehr und mehr Kopfzerbrechen. Im „Übereinkommen über die Sammlung, Abgabe und Annahme von Abfällen in der Rhein- und Binnenschifffahrt“ (CDNI) ist gesetzlich geregelt, dass das Wasser nicht in allen Fällen in die Gewässer gelangen darf; das Waschwasser wäre dann ein Fall für die öffentliche Kanalisation. Da aber nicht bekannt ist, ob und wie das Waschwasser durch die Reste der Schiffsladung verunreinigt ist, sind derzeit teure und komplizierte chemische Analysen notwendig, bevor das Waschwasser in die öffentliche Kanalisation eingeleitet werden kann.

Die Thematik ist in der Wissenschaft weitgehend unerforscht. An der OTH Regensburg kümmern sich nun Prof. Andreas Ottl, Experte für Siedlungswasserwirtschaft an der Fakultät Bauingenieurwesen, und Prof. Dr. Walter Rieger, Experte für analytische Chemie, Umweltanalytik und chemische Sicherheit an der Fakultät Allgemeinwissenschaften und Mikrosystemtechnik, um das Thema. Zuallererst planen die Wissenschaftler zusammen mit ihren Teams eine Bestandsaufnahme: Wie werden Schiffe gereinigt? Wie viel Wasser entsteht dabei und wie verunreinigt ist das anfallende Wasser? Die Wissenschaftler suchen dann nach einer Reinigungsmethode, bei der möglichst wenig verunreinigtes Wasser anfällt, damit das „Putzwasser“ zukünftig ohne weitere Untersuchungen in die öffentliche Kanalisation eingeleitet werden kann. Die Ergebnisse des Forschungsprojekts sollen abschließend in einem praxistauglichen Leitfaden zusammengefasst werden, der auch bundesweit zum Einsatz kommen könnte.

Quelle: idw

(nach oben)


Energiespeicher von morgen wird erstmals im Bodensee getestet

Uwe Krengel Pressestelle
Fraunhofer Institut für Windenergie und Energiesystemtechnik IWES

Erfindung von Horst Schmidt-Böcking (Goethe-Universität) und seines Kollegen Dr. Gerhard Luther (Universität Saarbrücken) bildet Basis für neuartiges Meeres-Pump-Speicher-System, das vom Fraunhofer-Institut für Windenergie und Energiesystemtechnik (IWES) entwickelt wurde.

Frankfurt / Kassel / Saarbrücken. Wie kann man die enormen Mengen durch Offshore-Windkraft erzeugten Stroms bereits vor Ort zwischenspeichern? Bisher gab es auf diese Frage keine Antwort. Nun geht nach mehrjähriger Forschungsarbeit das vom Bundesministerium für Wirtschaft und Energie (BMWi) geförderte Projekt StEnSea (Stored Energy in the Sea) in die Erprobungsphase. Darin entwickelt das auf Energiesystemtechnik spezialisierte Fraunhofer-Institut IWES in Kassel zusammen mit Partnern die Erfindung von zwei Physik-Professoren der Universität Frankfurt und der Universität Saarbrücken zur Anwendungsreife.

Ein Modell im Maßstab 1:10 mit rund drei Metern Durchmesser wurde am 8.11.2016 im Fährhafen von Konstanz in den Bodensee gebracht und am 9.11.2016 etwa 200 Meter vor dem Ufer in Überlingen in 100 Meter Tiefe abgelassen. Anschließend wird es für vier Wochen getestet: »Auf dem Meeresboden installierte Pumpspeicherkraftwerke können in großen Wassertiefen den hohen Wasserdruck nutzen, um mit Hilfe von Hohlkörpern Stromenergie speichern zu können«, erläutert Horst Schmidt-Böcking, emeritierter Professor der Universität Frankfurt. Energieeinspeichern: Mit Strom wird über eine Elektropumpe Wasser aus der Kugel herausgepumpt. Strom erzeugen: Wasser strömt durch eine Turbine in die leere Kugel hinein und erzeugt über einen Generator Strom. Dieses Prinzip der Offshore-Energiespeicherung hat Prof. Schmidt-Böcking 2011 wenige Tage vor dem Fukushima-Supergau mit seinem Kollegen Dr. Gerhard Luther von der Universität Saarbrücken zum Patent angemeldet.

Die beiden Erfinder erinnern sich: »Die schnelle Umsetzung dieser Idee in die Praxis ist eigentlich einem Bericht in der FAZ zu verdanken. Technik-Redakteur Georg Küffner stellte diese Speicheridee in einem Artikel der Öffentlichkeit vor – und zwar zufällig am 1. April 2011. Viele Leser nahmen das sicherlich zunächst als Aprilscherz auf. Fachleute der Hochtief Solutions AG in Frankfurt erkannten allerdings sofort die in dieser Idee verborgenen Möglichkeiten. Innerhalb weniger Wochen konnte mit dem Betonbauspezialisten Hoch-Tief und den Meeresenergie- und Speicherspezialisten des Fraunhofer-Instituts für Windenergie und Energiesystemtechnik IWES in Kassel ein Konsortium für eine erste Machbarkeitsstudie gebildet werden«, so Schmidt-Böcking und Luther.

BMWi-Projekt StEnSea: Stored Energy in the Sea
Mit dem Nachweis der Machbarkeit förderte anschließend das BMWi das Projekt
StEnSea zur Entwicklung und Erprobung dieses neuartigen Pumpspeicherkonzepts im Modellmaßstab. Nun geht dieses in die Testphase. »Auf Basis der Vorstudie haben wir eine detaillierte Systemanalyse mit Konstruktion, Bau- und Logistikkonzept des Druckbehälters durchgeführt, eine Pump-Turbinen-Einheit entwickelt, die Einbindung in das Stromnetz untersucht, Wirtschaftlichkeitsberechnungen durchgeführt und eine Roadmap für die technische Umsetzung entwickelt« fasst Projektleiter Matthias Puchta vom Fraunhofer IWES die bisherigen erfolgreichen Arbeiten zusammen.

»Nun beginnt der vierwöchige Modellversuch im Maßstab 1:10 im Bodensee. Wir werden verschiedene Tests fahren, um Detailfragestellungen zur Konstruktion, der Installation, der Auslegung des Triebstrangs und des elektrischen Systems, der Betriebsführung und Regelung, der Zustandsüberwachung und der dynamischen Modellierung und Simulation des Gesamtsystems zu überprüfen«, so Puchta weiter.

Wie geht es nach dem Test im Bodensee weiter?
»Mit den Ergebnissen des Modellversuchs wollen wir zunächst geeignete Standorte für ein Demonstrationsprojekt in Europa genauer untersuchen. Für den Demonstrationsmaßstab des Systems streben wir einen Kugeldurchmesser vor 30 Metern an. Das ist unter ingenieurtechnischen Randbedingungen die derzeitige sinnvolle Zielgröße. Sicher ist, dass das Konzept erst ab Wassertiefen von ca. 600 – 800 Metern im Meer wirtschaftlich anwendbar sein wird. Die Speicherkapazität steigt bei gleichem Volumen linear mit der Wassertiefe und beträgt für eine 30 m-Kugel bei 700 Metern ungefähr 20 Megawattstunden (MWh)«, erklärt IWES-Bereichsleiter Jochen Bard, der seit vielen Jahren national und international auf dem Gebiet der Meeresenergie forscht.

»Es gibt ein großes Potential für die Anwendung von Meerespumpspeichersystemen in küstennahen Standorten, insbesondere auch vor den Küsten bevölkerungsdichter Regionen. Beispielsweise vor Norwegen (Norwegische Rinne). Aber auch Spanien, USA und Japan weisen große Potentiale auf. Mit heutiger standardisierter und verfügbarer Technik sehen wir bei der Speicherkapazität von 20 MWh pro Kugel eine weltweite elektrische Gesamtspeicherkapazität von 893.000 MWh. Damit ließen sich kostengünstig wichtige Ausgleichsbeiträge für die schwankende Erzeugung aus Wind und Sonne leisten«, stellt Bard fest.

Weitere Informationen:
s.fhg.de/stensea

Fachansprechpartner:

Dipl.-Ing. Matthias Puchta
Fraunhofer IWES | Energiesystemtechnik
E-Mail: matthias.puchta@iwes.fraunhofer.de
Telefon: +49 561 7294-367

Weitere Informationen:
http://www.energiesystemtechnik.iwes.fraunhofer.de/
http://s.fhg.de/89M
http://s.fhg.de/stensea

Anhang
Energiespeicher von morgen wird erstmals im Bodensee getestet
https://idw-online.de/de/attachment51532

Quelle: idw

(nach oben)


Power-to-Liquid: Erste Kompaktanlage im Pilotbetrieb

Monika Landgraf Presse, Kommunikation und Marketing
Karlsruher Institut für Technologie

Die bedarfsgerechte Erzeugung flüssiger Kraftstoffe aus regenerativen Energien ist ein wichtiger Baustein der Energiewende. Aus Sonnenenergie und dem Kohlenstoffdioxid der Luft synthetische Kraftstoffe herzustellen, ist das Ziel des nun gestarteten Projektes SOLETAIR, in dem die Ausgründung des Karlsruher Instituts für Technologie (KIT) INERATEC mit finnischen Partnern zusammenarbeitet. Zusammen wird die weltweit erste chemische Pilotanlage in Betrieb genommen, die so kompakt ist, dass sie in einen Schiffscontainer passt. Die mobile Anlage produziert aus regenerativem Wasserstoff und Kohlenstoffdioxid Benzin, Diesel und Kerosin.

Die Anlage besteht aus drei Komponenten. Die vom Technischen Forschungszentrum Finnland (VTT) entwickelte „Direct Air Capture“-Einheit filtert das Kohlenstoffdioxid aus der Luft heraus. Eine an der Lappeenranta University of Technology (LUT) entwickelte Elektrolyseeinheit erzeugt mittels Sonnenstrom den notwendigen Wasserstoff. Ein mikrostrukturierter, chemischer Reaktor wandelt dann als Herzstück des Ganzen den aus Sonnenenergie gewonnenen Wasserstoff und das Kohlenstoffdioxid in flüssige Treibstoffe um. Der Reaktor wurde am KIT entwickelt und von INERATEC zu einer marktreifen Kompaktanlage ausgebaut.

„Projekte wie SOLETAIR leisten einen wichtigen Beitrag zum Gelingen der Energiewende“, unterstreicht Professor Thomas Hirth, Vizepräsident für Innovation und Internationales am KIT. „Die Inbetriebnahme der Pilotanlange steht beispielhaft für den erfolgreichen Transfer von Forschungsinnovationen des KIT in die Wirtschaft.“ Die INERATEC GmbH ist eine Ausgründung aus dem KIT und entwickelt, baut und vertreibt chemische Kompaktanlagen für verschiedene Gas-to-Liquid und Power-to-Liquid-Anwendungen. Das Start-up wird gefördert vom EXIST-Forschungstransfer des Bundesministeriums für Wirtschaft und Energie.

„Wir sind stolz auf die Beteiligung an diesem zukunftsweisenden internationalen Projekt“, betont INERATEC-Gründungsmitglied Dr. Tim Böltken. Das KIT, INERATEC und VTT wollen künftig im Rahmen der beiden prominenten nationalen Forschungsverbünde „Energie Lab 2.0″ und „Neo-Carbon Energy“ ihre Zusammenarbeit bei der Erforschung und Entwicklung innovativer Energiesysteme, die auf erneuerbaren Energien basieren, bei neuen Speichertechnologien sowie bei der Umwandlung erneuerbarer Energien in chemische Energieträger weiter ausbauen. Das KIT und INERATEC bringen ihre Expertise darüber hinaus in das vom Bundesministerium für Bildung und Forschung geförderte Kopernikus-Projekt „Power-to-X“ ein.

„Die Energiewende kann nur ein Erfolg werden, wenn wir unser Know-How zusammenführen und die Kompetenzen der europäischen Industrie im Energiesektor gemeinsam stärken“, betont VTT-Wissenschaftler und SOLETAIR-Projektleiter Dr. Pekka Simell mit Blick auf die geplante Kooperation. Die neue Power-to-Liquid-Anlage wird in diesem Jahr am BIORUUKKI Piloting Center von VTT erstmalig in Betrieb genommen und soll danach 2017 auf dem Campus der LUT zum Einsatz kommen. Das Projekt SOLETAIR läuft noch bis Mitte 2018 und wird von der Finnischen Finanzierungsagentur für Technik und Innovation (Tekes) mit einer Million Euro gefördert.

Presseinformation von VTT zu SOLETAIR:
http://www.vttresearch.com/media/news/first-test-plant-to-produce-fuel-from-sola…

Presseinformation zu INERATEC:
https://www.kit.edu/kit/pi_2016_114_chemie-2-0-kit-beteiligt-sich-an-spin-off-in…

Weiterer Kontakt:
Kosta Schinarakis, PKM – Themenscout, Tel.: +49 721 608 41956, Fax: +49 721 608 43658, E-Mail: schinarakis@kit.edu

Details zum KIT-Zentrum Energie: http://www.energie.kit.edu

Das Karlsruher Institut für Technologie (KIT) verbindet seine drei Kernaufgaben Forschung, Lehre und Innovation zu einer Mission. Mit rund 9 300 Mitarbeiterinnen und Mitarbeitern sowie 25 000 Studierenden ist das KIT eine der großen natur- und ingenieurwissenschaftlichen Forschungs- und Lehreinrichtungen Europas.

KIT – Die Forschungsuniversität in der Helmholtz-Gemeinschaft

Das KIT ist seit 2010 als familiengerechte Hochschule zertifiziert.

Diese Presseinformation ist im Internet abrufbar unter: www.kit.edu

Weitere Informationen:
http://www.vttresearch.com/media/news/first-test-plant-to-produce-fuel-from-sola…
https://www.kit.edu/kit/pi_2016_114_chemie-2-0-kit-beteiligt-sich-an-spin-off-in…
http://www.energie.kit.edu

Anhang
Power-to-Liquid: Erste Kompaktanlage im Pilotbetrieb
https://idw-online.de/de/attachment51537

Quelle: idw

(nach oben)


Wie gefährliche Keime als blinde Passagiere von einem Kontinent zum anderen reisen / Neue Studie

Dr. Christina Heimken Presse- und Informationsstelle
Westfälische Wilhelms-Universität Münster

Wissenschaftler der Westfälischen-Universität Münster (WWU) haben in Zusammenarbeit mit dem Robert-Koch-Institut in Berlin nachgewiesen: Die Toiletten auf Flughäfen sind auch ein „Umsteigepunkt“ für gegen Antibotika resistente Bakterien.

Münster (mfm/sm) – Alltag am Flughafen: Bis zum Start des Jets, der seine Passagiere in ferne Lande bringt, dauert es noch – Zeit genug, um schnell die Toilette aufzusuchen. Was die Reisenden dort erwartet, ist nicht immer ein schöner Anblick. Wesentlich schlimmer allerdings kann das sein, was sie nicht sehen: Wie Wissenschaftler der Westfälischen-Universität Münster (WWU) in Zusammenarbeit mit dem Robert-Koch-Institut in Berlin jetzt nachgewiesen haben, sind die Toiletten auf Flughäfen auch für Keime ein „Umsteigepunkt“. Auf Abstrichen von inneren Türklinken zahlreicher Toilettenkabinen fanden die Forscher weltweit Keime – darunter auch solche gegen die herkömmliche Antibiotika zur Behandlung bakterieller Infektionen nicht oder nur eingeschränkt wirken. Als „blinde Passagiere“ reisen sie quer durch die Welt, zum Beispiel von Indien nach Frankreich. Seine Erkenntnisse hat das Team jetzt in der Fachzeitschrift „Clinical Microbiology and Infection“ veröffentlicht.

Insgesamt untersuchten die Forscher um Dr. Frieder Schaumburg und Prof. Karsten Becker, beide vom Institut für Medizinische Mikrobiologie des Universitätsklinikums Münster, 400 Türklinken von 136 Flughäfen in 59 Ländern. Die Abstriche stammen aus der Zeit von Dezember 2012 bis November 2015. Die inneren Türgriffe der Toilettenkabinen eignen sich besonders als Untersuchungsobjekt: „Eine Türklinke wird von einer Vielzahl an Menschen genutzt. Zudem ist sie der letzte Kontakt, den die Besucher nach dem Toilettengang haben, bevor sie sich die Hände waschen. Die Türklinke ist dann besonders mit Keimen beispielsweise der Haut und des Darms belastet“, so Schaumburg.

Von den Türklinken-Abstrichen wurden die daran haftenden Keime auf Spezialnährmedien angezüchtet und identifiziert. Die Forscher analysierten die Spezies und das Erbgut jedes gefundenen Erregers. Besonders häufig fanden sie den Staphylococcus aureus, der mit 5,5 Prozent etwa bei jeder zwanzigsten Probe auftrat, gefolgt von Stenotrophomonas maltophilia (2 %) und Acinetobacter baumannii (1,3 %). Einige dieser Erreger wiesen Resistenzen auf. Die Annahme der Forscher, dass Fluggäste auch sogenannte multiresistente „Superkeime“ von Reisen in ferne Länder in ihr Heimatland mitbringen können, wird durch die Funde bestätigt. „Einer der gefundenen MRSA-Erreger, festgestellt in einer Probe aus Paris, war höchst ungewöhnlich für diese Region. Hauptsächlich kommt er in Indien vor. Er muss also vom Menschen dorthin gebracht worden sein“, erläutert Becker.

Das Brisante daran: Methicillin-resistente S. aureus-Erreger, abgekürzt MRSA, sind alles andere als harmlose Bakterien. Sie stellen eine erhebliche Gefahr für Menschen dar, denn sie können, wenn sie ins Körperinnere gelangen, zu Infektionen an verschiedensten Stellen des Körpers führen. Dabei sind diese Erreger resistent gegen die am besten wirksamen Antibiotika, wie Penicillin und verwandte Substanzen. Auch wenn die gefundene Belastung der untersuchten Türklinken insgesamt gering ist: Die Studie aus Berlin und Münster belegt, dass international reisende Fluggäste gefährliche Erreger – bis hin zu „Superkeimen“ – erwerben und verbreiten können.

Der Rat, den die Autoren angesichts dieser Erkenntnis geben, ist nicht neu, aber unvermindert wichtig: „Egal an welchem Ort beziehungsweise Örtchen: Das gründliche Händewaschen nach der Toilettenbenutzung ist ein Muss. Auf öffentlichen Toiletten sollte der Hautkontakt mit Oberflächen so gering wie möglich gehalten werden und die alternative Nutzung eines alkoholischen Händedesinfektionsmittels anstatt von Seife ist hier – nicht aber im normalen häuslichen Umfeld – sinnvoll“, empfiehlt Prof. Karsten Becker.

Redaktion:
Dr. Thomas Bauer
Referat Presse der Medizinischen Fakultat der Universität Münster
Tel. 0251-83-58937
mobil: 0171-4948979
E-Mail: thbauer@uni-muenster.de

Originalpublikation:
Schaumburg F. et al: Airport door handles and the global spread of antimicrobial-resistant bacteria: a cross sectional study. Clinical Microbiology and Infection (in press, available online 23 September 2016); DOI: http://dx.doi.org/10.1016/j.cmi.2016.09.010

Quelle: idw

(nach oben)


Fraunhofer IWS präsentiert neue Ergebnisse für nächste Batteriegeneration zum 5.Workshop in Dresden

Dr. Ralf Jaeckel Presse und Öffentlichkeitsarbeit
Fraunhofer-Institut für Werkstoff- und Strahltechnik IWS

Lithium-Schwefel-Batterien sind die vielversprechendste Option für zukünftige Energiespeichersysteme. Neuartige Materialien wie nanostrukturierte Kohlenstoff / Schwefel-Verbundkathoden, Festelektrolyte und Legierungsanoden werden die Leistungsfähigkeit der Zelle signifikant erhöhen. Nach dem großen Erfolg der bisherigen Workshops »Lithium-Schwefel-Batterien« wird das Symposium auch dieses Jahr wieder ein internationales Publikum aus Wissenschaftlern und Industriekunden zusammenbringen. Renommierte Experten präsentieren am 21. und 22. November im Internationalen Congress Center in Dresden neueste Ergebnisse zu Materialien, Verfahren und Anwendungen im Bereich der Lithium-Schwefel-Batterien.

Lithium-Schwefel-(Li-S)-Batterien zeichnen sich durch eine höhere spezifische Energie und geringe Materialkosten als gängige Lithium-Ionen-Batterien aus. Die Zellchemie ist daher hochgradig attraktiv für zukünftige, Energiespeicher, insbesondere zur Steigerung der Reichweite von Elektrofahrzeugen. Für die Weiterentwicklung der Li-S-Technologie ist das Elektrolytsystem eine entscheidende Schlüsselkomponente. Ein am Fraunhofer IWS Dresden neu entwickelter, nicht entflammbarer Elektrolyt ermöglicht die Umwandlung des Schwefels an der Kohlenstoffoberfläche der Kathode, verringert Korrosionsvorgänge an der Lithiumanode und erzielt infolgedessen eine erhebliche Verbesserung der Zyklenstabilität.

Dr. Holger Althues, Koordinator des Batteriezentrums am IWS und Projektleiter verschiedener Forschungsprojekte, kommentiert die Forschungsergebnisse des IWS wie folgt: »In bisherigen Prototypen entfallen mindestens 40 – 50 % des Zellgewichts auf den Elektrolyt. Da dieser an den Auflösungs- und Umwandlungsreaktionen in der Kathode teilnimmt, ist die Kinetik und Vollständigkeit der Schwefelumwandlung unmittelbar vom Elektrolytanteil abhängig. Werte kleiner 3 ml Elektrolyt pro Gramm Schwefel waren mit klassischen Konzepten nicht erreichbar. Der neue Elektrolyt des IWS erlaubt eine hohe Ausnutzung des Schwefels erstmalig auch mit geringen Elektrolytanteilen von 2,7 ml pro Gramm Schwefel (< 40 % Zellgewicht)«.

Prof. Stefan Kaskel, Leiter des Geschäftsfeldes Chemische Oberflächen- und Reaktionstechnik am Fraunhofer IWS und Professor für Anorganische Chemie an der Technischen Universität Dresden ergänzt: »Zersetzungsreaktionen des Elektrolyten an der Oberfläche der Lithiumanoden sind die Hauptursache für Austrocknungs- und Degradationsvorgänge. Hoch lösliche Reaktionsprodukte führen zur beschleunigten Selbstentladung und einer geringen Ladeeffizienz. Mit dem neuen Elektrolyt des IWS bleibt die Morphologie des abgeschiedenen Lithiums über mehr als 100 Zyklen glatt und feinpartikulär. Ein durch unerwünschte Zersetzungsprozesse induziertes Aufblähen der Zellen ist mit IWS-Elektrolyt ausgeschlossen«.

Der 5. Workshop »Lithium-Schwefel-Batterien« bietet neben hochkarätigen Vorträgen zahlreiche Möglichkeit der Diskussion, beispielsweise im Rahmen der Ausstellung, der Postersession oder der Besichtigung der Forschungslabore im Fraunhofer IWS Dresden. Weitere Informationen zur Veranstaltung finden Sie unter:
www.iws.fraunhofer.de/battery-workshop.

Ihre Ansprechpartner für weitere Informationen:

Fraunhofer-Institut für Werkstoff- und Strahltechnik IWS Dresden
Winterbergstr. 28, 01277 Dresden, Germany

Dr. Holger Althues
Telefon: +49 351 83391 3476
Fax: +49 351 83391 3300
E-Mail: holger.althues@iws.fraunhofer.de

Presse und Öffentlichkeitsarbeit
Dr. Ralf Jäckel
Telefon: +49 351 83391-3444
Fax: +49 351 83391-3300
E-Mail: ralf.jaeckel@iws.fraunhofer.de

Internet:
www.iws.fraunhofer.de und
www.iws.fraunhofer.de/de/presseundmedien/presseinformationen.html

Weitere Informationen:
http://www.iws.fraunhofer.de
http://www.iws.fraunhofer.de/de/presseundmedien/presseinformationen.html
http://www.iws.fraunhofer.de/battery-workshop

Quelle: idw

(nach oben)


„Problemen die Stirn zu bieten, ist entscheidende Triebfeder für den Erfolg beim Umweltschutz“

Franz-Georg Elpers Pressestelle
Deutsche Bundesstiftung Umwelt (DBU)

Würzburg. „Die Bereitschaft, Problemen die Stirn zu bieten, ist entscheidende Triebfeder für den Erfolg beim Umweltschutz – für Ihre Erfolge, liebe Preisträger, und für die erfolgreiche Arbeit der Umweltstiftung. Ihre Leistungen bestätigen mir: Wir können optimistisch in die Zukunft schauen. Wir können guten Mutes sein, ein Verhalten zu erlernen, das die Reichtümer unseres Planeten zu schätzen und die Grenzen seiner Belastbarkeit zu respektieren weiß.“ – Mit diesen Worten würdigte heute in Würzburg Bundespräsident Joachim Gauck die neuen Träger des Deutschen Umweltpreises der Deutschen Bundesstiftung Umwelt (DBU) und die DBU selbst im 25. Jahr ihres Bestehens. Aus seinen Händen nahmen in Würzburg der Unternehmer Bas van Abel (39, Amsterdam), die Wissenschaftlerin Prof. Dr.-Ing. Angelika Mettke (64, Cottbus) und der Unternehmer Walter Feeß (62, Kirchheim/Teck) den höchstdotierten unabhängigen Umweltpreis Europas in Empfang. Van Abel erhält 250.000 Euro. Die zweite Hälfte des Preisgeldes teilen sich Mettke und Feeß.

Hartnäckige Überzeugungsarbeit – getragen von ökologischer Verantwortung
Vor rund 1.200 Festgästen – darunter Bundesumweltministerin Barbara Hendricks, die Präsidentin des Bayerischen Landtages, Barbara Stamm, die bayerische Umweltministerin Ulrike Scharf und ihr niedersächsischer Amtskollege Stefan Wenzel, der Vorsitzende der ökologischen Arbeitsgruppe der Deutschen Bischofskonferenz und Weihbischof in der Erzdiözese Freiburg Dr. Bernd Uhl sowie der Physik-Nobelpreisträger Prof. Dr. Georg Bednorz – betonte Gauck, der Bausektor gehöre zu den Wirtschaftsfeldern, für die besonders große Mengen hochwertiger Rohstoffe benötigt würden. Deren Recycling sei deshalb umso wichtiger. Durch die Preisträger Mettke und Feeß habe sich herumgesprochen, wie erfolgreich sich Baustoffe für den Straßen- und Gebäudebau wiederverwenden ließen. Die Bereitschaft dazu hätten beide entscheidend befördert – als Wissenschaftlerin und als Unternehmer. Triebfedern des Erfolgs seien dabei die unermüdliche Suche nach neuen Möglichkeiten und hartnäckige Überzeugungsarbeit – getragen von ökologischer Verantwortung.

„Impulse geben, um Nachhaltigkeit Alltag werden zu lassen“
Auch Preisträger van Abel weise Wege zu verantwortungsbewusstem Handeln. Beim Fairphone gehe es um einen fairen Ausgleich von Umweltschutz, wirtschaftlichen Interessen und sozialen Belangen. Hochachtung zollte Gauck dem Preisträger dafür, wie er diese komplexe Aufgabe gemeistert habe – von der Gewinnung der Rohstoffe über die Fertigung der Geräte bis hin zur Reparatur und zum Recycling. Umweltschutz sei stets angewiesen auf zahlreiche Mitstreiter, auf den Ideenreichtum und den Forscherdrang, auf die Leidenschaft und die Überzeugungskraft der Vielen. Denn die Zuversicht, dass grünes Wachstum gelingen könne, dass die Versöhnung von Ökologie und Ökonomie keine Utopie sei, gründe in der Vielfalt der Möglichkeiten, sich einzubringen und mitzuwirken. Er wünsche sehr, so der Bundespräsident, dass das Beispiel aller drei Preisträger Schule mache und dass ihre Leistungen „Impulse geben, um Nachhaltigkeit Alltag werden zu lassen“.

DBU sensibilisiert Millionen Menschen in Deutschland für die Bedeutung ökologischer Zusammenhänge
Das Staatsoberhaupt würdigte aber auch die Deutsche Bundesstiftung Umwelt anlässlich ihres 25. Geburtstags in diesem Jahr. Bundespräsident und DBU verbinde eine lange, ausgezeichnete Partnerschaft. Bereits die Genese der DBU bestätige, dass Ökonomie und Ökologie keine Gegensätze sein müssten. Schon die Gründerväter hätten auf das Potenzial der kleinen und mittelständischen Unternehmen gesetzt. Denn umweltfreundliche Verfahren, Dienstleistungen und Produkte seien Motor für Wachstum und Arbeitsplätze. Dabei sei vor 25 Jahren Skepsis gegenüber der „Green Economy“ in den klassischen Industriezweigen allerdings noch weit verbreitet gewesen. Die Fördermaßnahmen der DBU hätten deshalb einen doppelten Effekt: Sie trieben die Entwicklung umweltschonender Produkte und Verfahren an. Zugleich gelinge es, Sorgen abzubauen, Umweltschutz schade der Wettbewerbsfähigkeit. Die DBU habe Millionen Menschen in Deutschland für die Bedeutung ökologischer Zusammenhänge sensibilisiert. Ihre Förderprojekte bewiesen, wie viele Möglichkeiten es gebe, durch Umwelt- und Ressourcenschutz Lebensbedingungen zu verbessern. Der Bogen spanne sich vom Klima-, Boden- und Gewässerschutz über den Schutz der Artenvielfalt, den sparsamen Umgang mit Energie und Ressourcen bis zur umweltgerechten Abfallverwertung und zu verantwortungsbewusster Ernährung.

„Substantielle Minderung der Treibhausgase steht uns noch bevor“
Als Ansporn und Ermutigung wertete Gauck die Dynamik, die den Ratifizierungsprozess des Klimaschutzabkommens von Paris vorangetrieben habe. Dass auch die USA, China, Indien und die Europäische Union das Abkommen ratifiziert haben, sei ein großer diplomatischer Erfolg, bei dessen Zustandekommen sich die Bundesregierung stark habe einbringen können. Insgesamt erlebten wir in diesen Wochen eine erfreuliche Koalition von Staaten, die sich weniger als ein Jahr nach der Klimaschutzkonferenz von Paris auf das Inkrafttreten des Abkommens hätten einigen können. Gauck: „Aber wir wissen auch, die eigentliche Bewährungsprobe, die substantielle Minderung der Treibhausgase, steht uns noch bevor.“

Klima- und Umweltschutz insgesamt nicht zuletzt eine Frage des Verhaltens
Gefordert sei nicht nur die Politik. Denn Klima- und Umweltschutz insgesamt seien nicht zuletzt eine Frage des Verhaltens, auch des Kaufverhaltens des Einzelnen. Diese Erkenntnis sei nicht neu, sie aber zu beherzigen, falle dennoch schwer. Umweltschutz überall mitzudenken, sei ein mühsamer, manchmal unbequemer Lernprozess. Technologischer Fortschritt könne umweltschonendes Verhalten in vieler Hinsicht erleichtern. Gauck: „Aber die kritische Selbstbefragung, wie wir wohnen und uns fortbewegen, was wir konsumieren und wie wir mit Dingen verfahren, die wir nicht mehr brauchen, diese Selbstbefragung wird deshalb nicht entbehrlich.“ Denn mehr Energieeffizienz bedeute nicht unbedingt, dass tatsächlich Ressourcen eingespart werden. Manchmal reagierten wir Menschen – hocherfreut über die Sparsamkeit effizienter Produkte -, indem wir mehr kauften und mehr verbrauchten als notwendig. Jeder Konsument könne und solle hier verantwortungsvoll entscheiden. Gauck: „Wir dürfen uns ruhig zutrauen, unsere eigenen Konsumgewohnheiten und Ansprüche hin und wieder zu prüfen. Was lässt sich ändern, was kann ich verbessern?“

Mit unglaublich viel Mut, Engagement, Idealismus und gegen zahlreiche Widerstände
In einer von „Tagesschau“-Sprecherin Judith Rakers moderierten Gesprächsrunde gingen als Mitglieder der Jury des Deutschen Umweltpreises, auf deren Vorschlag hin das Kuratorium der Stiftung die jeweiligen Preisträger eines Jahres auswählt, Prof. Dr. Katharina Hölzle, Inhaberin des Lehrstuhls für Innovationsmanagement und Entrepreneurship der Universität Potsdam, und Max Schön, Präsident der Deutschen Gesellschaft Club of Rome, auf die Leistungen der Preisträger 2016 ein. Hölzle und Schön betonten, alle drei Preisträger lösten „vertrackte Probleme“, für die es keine einfachen Lösungen gebe, mit unglaublich viel Mut, Engagement, Idealismus und gegen zahlreiche Widerstände. Als Macher und Idealisten schafften sie es, Lösungen umzusetzen und die sehr komplexen Nachhaltigkeitsziele der Vereinten Nationen konkret anzupacken.

Beton umweltverträglicher gemacht und Rohstoffverbrauch in neue Bahnen gelenkt
Hölzle unterstrich, Mettke und Feeß stünden für ein Umdenken in einer traditionell sehr konservativen Branche. Sie machten Beton umweltverträglicher und lenkten den Rohstoffverbrauch in neue Bahnen. Mettke arbeite seit 40 Jahren an der Thematik. Dass in Berlin für Hochbau-Neubauten jetzt und zukünftig Recyclingbeton eingesetzt werden müsse, sei Angelika Mettkes Verdienst. Mit seiner ökonomischen und ökologischen Denkweise nähere sich Walter Feeß mit seinem Vorzeigeunternehmen dem Baustoffrecycling von der praktischen Seite. Von Widerständen habe er sich nie beeindrucken lassen. In seiner Branche sei er immer vorangegangen.

„Wirtschaft und Ökologie in eine neue Balance gebracht“
Zu van Abel betonte Schön, er habe ein Problem global gelöst, das die Großunternehmen der Branche nicht angingen und gezeigt, dass es auch anders geht. Bei seiner Handyproduktion betrachte er auch, wie es den Menschen in einem transparenten Produktionsprozess gehe, wie ihre Arbeitsbedingen, ihre Löhne seien. Banken hätten ihn nicht unterstützt, über Crowdfunding – also das Einwerben von finanziellen Unterstützern – habe er sich finanziert und sein reparaturfähiges, länger nutzbares Produkt auf den Weg gebracht. Schön: „Sie haben Wirtschaft und Ökologie in eine neue Balance gebracht und gezeigt, dass nachhaltige Wirtschaftsweise möglich ist und Fairness und Gewinnstreben zusammenzubringen sind.“

„‘Umweltschutz muss Freude machen‘ Leitspruch unserer Arbeit“
Nachdem Gauck und die DBU-Kuratoriumsvorsitzende und Parlamentarische Staatssekretärin im Bundesumweltministerium, Rita Schwarzelühr-Sutter, die Auszeichnungen überreicht hatten, wies DBU-Generalsekretär Dr. Heinrich Bottermann in seinen Schlussworten darauf hin, dass Umweltschutz und Nachhaltigkeit heute – durchaus nach Rückschlägen – in der Mitte aller gesellschaftspolitischen Institutionen angekommen seien. Den Durchbruch habe im Vorjahr das Klimaschutzabkommen von Paris gebracht, das nun tatsächlich in Kraft treten werde. Bundespräsident Gauck habe diesen Prozess maßgeblich gefördert: Zum einen durch seine zutreffenden Worte zur Bedeutung des Umweltschutzes, wonach Umweltschutz ein zivilisatorischer Lernprozess ist, der uns ein Leben lang begleitet. Zum anderen habe Gauck fünfmal in Folge den Deutschen Umweltpreis überreicht, obwohl sicher auch andere Themen weit vorne auf der Agenda gestanden hätten. Bottermann an Gaucks Adresse: „Eines bleibt für uns immer mit Ihrer Amtszeit verbunden: die in Osnabrück 2013 geborene Formulierung ‚Umweltschutz muss Freude machen‘ ist der Leitspruch unserer Arbeit.“

Weitere Informationen:
https://www.dbu.de/123artikel36952_2442.html

Quelle: idw

(nach oben)


Mit Bakterien Wertstoffe aus Kohlendioxid gewinnen

Dr. Anne Hardy Public Relations und Kommunikation
Goethe-Universität Frankfurt am Main

Die Goethe-Universität koordiniert ein 2-Mio-Euro-Projekt auf europäischer Ebene, das die Entwicklung von Verfahren zur mikrobiellen, CO2-basierten Biotechnologie vorantreiben soll. Ziel ist die umweltfreundliche Produktion von Treibstoffen und Basischemikalien.

FRANKFURT. Mikroben werden schon vielfach für die Produktion von Treibstoffen und Basischemikalien eingesetzt, aber die meisten müssen dafür mit Zucker „gefüttert“ werden. Da die Zucker-basierte Biotechnologie in Konkurrenz zur Nahrungsmittelproduktion steht, gerät sie immer stärker in die Kritik. Als Alternative ist inzwischen Kohlendioxid als Rohstoff für biotechnologische Verfahren in den Fokus gerückt. Die Goethe-Universität hat nun die Leitung eines europäischen Verbundprojekts übernommen, das die Entwicklung von Verfahren zur mikrobiellen, CO2-basierten Biotechnologie vorantreiben soll. Es wird in den nächsten drei Jahren mit zwei Millionen Euro gefördert.

„Diese anwendungsorientierte Arbeit ist eine logische Fortsetzung unserer jahrelangen erfolgreichen Bemühungen, den Stoffwechsel CO2-reduzierender acetogener Bakterien zu verstehen. Nun können wir beginnen, deren Stoffwechsel so zu lenken, dass sie für den Menschen interessante Wertstoffe und Treibstoffe produzieren“, so Prof. Volker Müller, Professor am Institut für Molekulare Biowissenschaften der Goethe-Universität. Er koordiniert das transnationale Projekt im Rahmen des European Research Area NETwork „Industrielle Biotechnologie“, in dem die deutschen Gruppen über das Bundesforschungsministerium (BMBF) finanziert werden. Damit hat die Goethe-Universität eine herausragende Stellung in der Entwicklung einer Zukunftstechnologie eingenommen.

Die besondere Gruppe der acetogenen Bakterien verarbeitet Kohlendioxid (CO2) in einem Fermentationsprozess, der von Licht und Sauerstoff unabhängig ist. Als Energieträger nutzen die Bakterien Wasserstoff (H2) oder Kohlenmonoxid (CO) oder eine Mischung aus beiden (Synthesegase). Allerdings erzeugen die Bakterien bei diesem Stoffwechsel nur sehr wenig Energie. Das schränkt die die Produktpalette der Gasfermentation dramatisch ein, so dass zur Zeit nur Essigsäure und Ethanol im industriellen Maßstab hergestellt werden können. Das europäische Verbundprojekt hat sich deshalb zum Ziel gesetzt, relevante acetogene Bakterien gentechnisch derart zu modifizieren, dass diese energetischen Barrieren überwunden werden können. Beteiligt sind die Goethe-Universität Frankfurt sowie die Universitäten in Ulm, Göttingen und La Coruna. Industriepartner ist der weltweit größte Stahlproduzent ArcelorMittal.

Die mikrobielle, CO2-basierte Biotechnologie könnte zukünftig eine umweltfreundliche Alternative zur Wiederaufbereitung von Energie- und Kohlenstoff reichen Abfallgasen aus der Industrie bieten und die Abhängigkeit von Rohöl reduzieren. Die mikrobielle Fixierung und Umwandlung von CO2 in biologisch hergestellte Rohstoffe ermöglicht es zudem, den Ausstoß von Treibhausgasen zu reduzieren.

Eine Grafik zum Download finden Sie unter: www.uni-frankfurt.de/63820642

Bildtext: Acetogene (essigsäurebildende) Bakterien produzieren aus H2 + CO2 oder CO Essigsäure oder Ethanol. Dabei wird Energie in Form von ATP (Adenosintriphosphat) frei. Die Synthese anderer industriell interessanter Produkte aus dem Zwischenprodukt Acetyl-CoA verbraucht aber zusätzlich ATP. Ziel des Projektes ist es, die Energiebilanz der Bakterien durch genetische Modifikation so zu verändern, dass auch die Produktion solcher zusätzlich Energie-verbrauchender Verbindungen möglich wird.

Informationen: Prof. Volker Müller, Institut für Molekulare Biowissenschaften, Campus Riedberg, Tel.: (069)798-29507, VMueller@bio.uni-frankfurt.de.

Die Goethe-Universität ist eine forschungsstarke Hochschule in der europäischen Finanzmetropole Frankfurt. 1914 mit privaten Mitteln überwiegend jüdischer Stifter gegründet, hat sie seitdem Pionierleistungen erbracht auf den Feldern der Sozial-, Gesellschafts- und Wirtschaftswissenschaften, Medizin, Quantenphysik, Hirnforschung und Arbeitsrecht. Am 1. Januar 2008 gewann sie mit der Rückkehr zu ihren historischen Wurzeln als Stiftungsuniversität ein hohes Maß an Selbstverantwortung. Heute ist sie eine der zehn drittmittelstärksten und drei größten Universitäten Deutschlands mit drei Exzellenzclustern in Medizin, Lebenswissenschaften sowie Geistes- und Sozialwissenschaften. Zusammen mit der Technischen Universität Darmstadt und der Universität Mainz ist sie Partner der länderübergreifenden strategischen Universitätsallianz Rhein-Main.

Aktuelle Nachrichten aus Wissenschaft, Lehre und Gesellschaft in GOETHE-UNI online (www.aktuelles.uni-frankfurt.de)

Herausgeberin: Die Präsidentin
Redaktion: Dr. Anne Hardy, Referentin für Wissenschaftskommunikation, Abteilung PR & Kommunikation, Theodor-W.-Adorno-Platz 1, 60323 Frankfurt am Main, Tel: (069) 798-12498, Fax: (069) 798-763 12531, hardy@pvw.uni-frankfurt.de
Internet: www.uni-frankfurt.de

Quelle: idw

(nach oben)


Übergewicht verstehen und behandeln – Ein Ratgeber für Betroffene und Angehörige

Dr. Katarina Werneburg Stabsstelle Universitätskommunikation/Medienredaktion
Universität Leipzig

Ein neuer Ratgeber hilft Menschen, die unter krankhaftem Übergewicht leiden, mit grundlegenden Informationen und praktischen Ratschlägen zum Thema Adipositas. Die Autorinnen Anja Hilbert und Anne Brauhardt des IFB AdipositasErkrankungen sowie Simone Munsch der Universität Fribourg stellen die Ursachen der Entstehung von Übergewicht und Begleiterkrankungen sowie verschiedene Behandlungsmöglichkeiten vor.

Der Ratgeber zeigt, dass die Entstehung von Übergewicht und Adipositas von einer Vielzahl von Faktoren abhängig ist. Neben genetischer Veranlagung spielen Stress, psychische und medikamentöse Ursachen, aber auch das soziale Umfeld der Betroffenen eine wichtige Rolle. „Die Behandlung der Adipositas ist eine deutliche Herausforderung. Denn es geht darum, seine Gewohnheiten in Ernährung und Bewegung langfristig, oftmals lebenslang zu verändern. Einigen Betroffenen mag es gelingen, ihr Übergewicht in Selbsttherapie zu reduzieren. Für viele Betroffene ist es jedoch hilfreich, ein geeignetes Behandlungsangebot aufzusuchen, für die im Ratgeber entsprechende Informationen gegeben werden“, so Anja Hilbert, Professorin für Verhaltensmedizin am Integrierten Forschungs- und Behandlungszentrums (IFB) AdipositasErkrankungen und psychologische Leiterin der Adipositasambulanz der Universitätsmedizin Leipzig.

Aufgrund der vielfältigen Ursachen ist eine Therapie sinnvoll, die sich in verschiedenen Bausteinen (Modulen) vor allem auf das Verhalten und eine Lebensstiländerung konzentriert. Die sogenannte multimodale Verhaltenstherapie setzt sich aus mehreren Elementen zusammen: Durch eine Ernährungsumstellung und Steigerung der körperlichen Aktivität in Einzel- wie auch Gruppentherapie wird eine negative Energiebilanz angestrebt. Das heißt, dass der Energieverbrauch die Energiezufuhr überschreitet. In Studien hat sich multimodale Verhaltenstherapie als besonders erfolgreich herausgestellt, da nicht nur ein kurzfristiger Gewichtsverlust erzielt wird, sondern das reduzierte Gewicht langfristig stabilisiert werden kann.

Anhand von zahlreichen lebensnahen Beispielen werden im neuen Ratgeber die einzelnen Schritte zur selbstständigen Bewältigung von Adipositas aufgezeigt. Zusätzlich erhalten die Leser hilfreiche Anleitungen in Form von Arbeitsblättern, die dabei helfen sollen, die Auslöser für ungesundes Essverhalten oder Motivationsverlust zu finden und Probleme eigenständig zu bewältigen. So wird auch erläutert, wie ein realistisches Zielgewicht und andere Verhaltensziele festgelegt werden können – Grundsteine für einen langfristigen Erfolg bei der Gewichtsreduktion. Praktische Anleitungen und Protokolle unterstützen bei der Umsetzung persönlicher Ziele, indem beispielsweise die eigenen Vorstellungen in Wochenplänen festgehalten und dokumentiert werden. So soll Betroffenen Schritt für Schritt geholfen werden, gesetzte Ziele zu erreichen, Umstellungen in Ernährung und Bewegungsverhalten langfristig aufrecht zu erhalten und dauerhaft Gewicht zu verlieren.

Das IFB AdipositasErkrankungen ist ein vom Bundesministerium für Bildung und Forschung gefördertes Zentrum, das Forschung und Behandlung zu Adipositas, einem der großen, gesellschaftlich relevanten Krankheitsbilder unserer Gesellschaft, unter einem Dach vereint. In Leipzig steht Adipositas mit deren häufigen Begleiterkrankungen Typ-2-Diabetes, Atherosklerose, Fettgewebestörung und Fettleber im Mittelpunkt der Forschung.

„Ratgeber Übergewicht und Adipositas“ in der Reihe „Fortschritte in der Psychotherapie“ (Band 1), Hogrefe-Verlag, 2016, ISBN: 9783801727611

Claudia Silbermann, Anja Landsmann

Weitere Informationen:
http://www.ifb-adipositas.de

Quelle: idw

(nach oben)


Klimawandel beeinflusst Deutschland von der Nordsee bis zu den Alpen

Dr. Torsten Fischer Pressestelle
Helmholtz-Zentrum Geesthacht – Zentrum für Material- und Küstenforschung

Heute ist das wissenschaftliche Kompendium „Klimawandel in Deutschland: Entwicklung, Folgen, Risiken und Perspektiven“ erschienen, welches erstmalig umfassend und fächerübergreifend alle vorliegenden Informationen zusammenfasst und aufbereitet. Neben Inhalten des fünften IPCC-Sachstandsberichts flossen weitere wissenschaftliche Arbeiten und Fallstudien ein. Entstanden ist ein „Assessment“, das beansprucht, die Forschungslage darzustellen und die unterschiedlichen Positionen einzuordnen. Eines der Ergebnisse: Selbst eine globale Erwärmung von nur 1,5 – 2°C wird auch in Deutschland zu Veränderungen in allen Naturräumen, Wirtschaftssektoren und sämtlichen Lebensbereichen führen.

Risikominderung und Anpassung sind dringend erforderlich
Durch die steigende Anzahl von warmen Tagen und Hitzewellen sowie die Zunahme der bodennahen Ozon- und Feinstaubkonzentrationen werden in Zukunft vor allem chronisch Kranke, alte Menschen und Allergiker belastet. Dies gefährdet den urbanen Raum und erfordert eine klimagerechte Stadt- und Regionalplanung, etwa durch verbesserte Warnsysteme und eine noch stärkere Begrünung. Zunehmende Unwetteraktivitäten (Gewitter, Starkregen, Hagel und in Teilen Deutschlands auch Stürme) stellen Stadt und Land vor große Herausforderungen. Darüber hinaus wird sich durch den Klimawandel der Wasserhaushalt weiter verändern. Zum einen drohen verstärkte Niederschläge mit Hochwasser, zum anderen Dürreperioden, die die Grundwasserneubildung beeinträchtigen und die Wasserverkehrswege gefährden. Auch die Qualität der Acker- und Waldböden nimmt ab, etwa aufgrund von Vernässung oder Austrocknung. Eine verstärkte Bodenerosion wird die Menge an verfügbaren, produktiven Böden weiter reduzieren. Es ist anzunehmen, dass durch die in den Böden zu erwartenden Prozesse zahlreiche Rückkoppelungseffekte stattfinden, die ihrerseits das Klima beeinflussen.

„Es gibt auch für Deutschland eine Unmenge an Herausforderungen, die trotz ihrer vielfältigen Wechselwirkungen kalkulierbar erscheinen. Allerdings muss schnell reagiert werden, um die Folgen so klein wie möglich zu halten und die Chancen zu nutzen: Anpassungsmaßnahmen und Risikominderung müssen über die gesamte gesellschaftliche Breite erfolgen, beispielsweise ist die Novellierung der Umweltverträglichkeitsprüfung als Ansatzpunkt zu nutzen. Die Verwundbarkeit gegenüber dem Klimawandel muss in alle Planungsvorhaben, insbesondere langfristige Infrastrukturvorhaben, einfließen „, erklärt Prof. Daniela Jacob, Herausgeberin des Kompendiums und Direktorin am Climate Service Center Germany (GERICS), einer Einrichtung des Helmholtz-Zentrums Geesthacht. .“Wir benötigen integrative Ansätze, die über die Grenzen der einzelnen Sektoren hinweg funktionieren.“

Prof. Guy Brasseur, ehemaliger Direktor des GERICS und Initiator des Kompendiums schaut über Deutschland hinaus: „Darüber hinaus kennen unsere globalen Wirtschaftsverbindungen oder die klimabedingte Migration keine Ländergrenzen und hängen stark vom globalen Wandel ab. Deshalb sind hier vermehrt Reaktionen auch auf europäischer und internationaler Ebene nötig.“

Das Buch als Novum
In einem interdisziplinären Ansatz führt das Buch, das im Wissenschaftsverlag Springer erschienen ist, erstmals alle Fachgebiete und Themenfelder zusammen. Neben der Darstellung von Klimawandel und Klimawandelfolgen ziehen die Autoren auch Schlüsse zu notwendigen Reaktionen. Die wichtigsten Erkenntnisse sind in einem Fazit zum Ende jeden Kapitels zusammengefasst. Ein Glossar bündelt die Fachbegriffe.

„Klimawandel in Deutschland“ richtet sich an Professionals aller Disziplinen aus Politik, Wirtschaft und Verwaltung, die in ihrer Tätigkeit mit dem Klimawandel konfrontiert sind. Entscheidungsträger finden grundlegende Informationen für ihre Reaktion auf den Klimawandel. Das Buch bedient damit das oft geäußerte Bedürfnis, zum Klimawandel und seinen Folgen umfassende, neutrale, gut aufbereitete Informationen zu erhalten, um Entscheidungen über Vorsorge- und Anpassungsmaßnahmen in Deutschland treffen zu können.

Eine breite Aufstellung des Editorial Boards und das Einbinden der wichtigsten Wissenschaftler in Deutschland garantieren eine Vielfalt an Themen, Herangehensweisen und Blickwinkeln, die der Komplexität des Themas Rechnung trägt. Alle Beiträge wurden mehrfach wissenschaftlich begutachtet und sind per Open Access frei zugänglich.

Guy P. Brasseur | Daniela Jacob | Susanne Schuck-Zöller (Hrsg.)
Klimawandel in Deutschland
Entwicklung, Folgen, Risiken und Perspektiven 2017, 368 S. 116 Abb. davon 50 Abb. in Farbe Softcover € 53,49 (D) | € 54,99 (A) | CHF 66.55
ISBN 978-3-662-50396-6
Auch als eBook verfügbar (Open Access)

Die Herausgeber:
Prof. Dr. Guy Brasseur und Prof. Dr. Daniela Jacob, ehemaliger Direktor und gegenwärtige Direktorin des Climate Service Center Germany (GERICS), einer Einrichtung des Helmholtz-Zentrums Geesthacht, und Susanne Schuck-Zöller wurden bei diesem Buch unterstützt von einem Editorial Board, dem elf herausragende Wissenschaftler aus den wichtigsten Klimaforschungseinrichtungen in Deutschland angehören. Zusätzlich haben ca. 120 weitere Autoren verschiedenster Fachrichtungen an diesem Buch, das in deutscher Sprache geschrieben ist, mitgewirkt.

Weitere Informationen:
http://www.gerics.de/klimawandel_in_deutschland – Weiterführende Informationen, Statements und druckbare Abbildungen

http://link.springer.com/book/10.1007%2F978-3-662-50397-3 – der Link zum eBook verfügbar (Open Access)

Quelle: idw

(nach oben)


Neues Projekt: Abwasser aus dem Bergbau sinnvoll wiederverwenden

Dr. Julia Weiler Dezernat Hochschulkommunikation
Ruhr-Universität Bochum

Wie sich stark belastetes Abwasser aus dem Bergbau wiederverwenden lässt, untersuchen Forscher und Industriepartner im neuen Projekt „Waterminer“ am Beispiel der vietnamesischen Stadt Ha Long. Das Bundesministerium für Bildung und Forschung fördert das Vorhaben mit rund 1,8 Millionen Euro.
Der Lehrstuhl für Umwelttechnik und Ökologie im Bauwesen der Ruhr-Universität Bochum koordiniert die insgesamt sieben Teilprojekte. Sechs Partner aus Forschung und Industrie sind beteiligt. Waterminer ist offiziell am 1. August 2016 gestartet und läuft drei Jahre.

Konkurrierende Interessen
Im Projektgebiet Ha Long im Norden Vietnams konkurrieren die Interessen von Bergbauindustrie, städtischem Leben und Tourismus. Verunreinigtes Wasser aus dem Steinkohlebergbau gelangt in die Bucht und belastet die Umwelt stark.

„Die Herausforderungen und Konflikte im Wassersektor stehen einer nachhaltigen Stadt- und Regionalentwicklung in Ha Long entgegen“, sagt der Bochumer Projektleiter Prof. Dr. Harro Stolpe. „Insbesondere fehlt ein zwischen dem Steinkohlebergbau und der Stadt abgestimmtes integriertes Wassermanagement.“ Indem Abwasser gereinigt und wiederverwendet werde, bringe solch ein Wassermanagement sowohl ökologischen als auch ökonomischen Nutzen.

Konzept für einen Wasserkreislauf
Genau hierfür entwickelt das Waterminer-Team ein Konzept. Ziel ist es, das Bergbau-Abwasser in einen Wasserkreislauf einzubinden und somit wiederzuverwenden. Die Projektpartner erarbeiten zum Beispiel Vorschläge, wie Wasser aufbereitet und verteilt werden kann. Sie erforschen auch, ob ihre Konzepte wirtschaftlich sowie ökologisch sinnvoll sind und ob die verschiedenen Akteure sie akzeptieren.

Kern des Verbundprojektes ist ein Stoffstrommodell. Mit ihm sollen die Betroffenen simulieren und planen können, wie sie Bergbau-Abwasser jetzt und in Zukunft reinigen und weiter nutzen können – in den Bergbaubetrieben selbst oder durch externe Verbraucher aus der Region Ha Long.

Die Projektpartner berücksichtigen dabei, dass das Wasserangebot in der Region räumlich und zeitlich variiert, bedingt durch den Wandel, dem der Bergbau unterliegt. Waterminer deckt daher den Zeitraum bis zur Stilllegung aller dortigen Bergwerke ab.

Übertragbar auf andere Regionen
Ähnliche Probleme wie im vietnamesischen Ha Long gibt es auch in anderen Bergbauregionen, etwa in China oder Südafrika. Das neue Konzept will das Waterminer-Team später auf andere Standorte übertragen.

Zum Projekt
Der volle Titel des Projekts lautet „Räumlich-zeitlich abgestimmte Kreislaufführung und Wiederverwendung bergbaulicher Abwässer am Beispiel eines urban geprägten Bergbaugebietes“. Das Bundesministerium für Bildung und Forschung fördert es im Rahmen des Programms „Zukunftsfähige Technologien und Konzepte zur Erhöhung der Wasserverfügbarkeit durch Wasserwiederverwendung und Entsalzung“.

Kooperationspartner
An dem Projekt beteiligt sind neben dem Bochumer Lehrstuhl für Umwelttechnik und Ökologie im Bauwesen das Team vom Fachgebiet Umweltökonomie der Universität Koblenz-Landau sowie Mitarbeiter vom Grundwasserforschungszentrum Dresden. Industriepartner sind die Unternehmen Disy Informationssysteme aus Karlsruhe, Ribeka aus Bornheim und LUG Engineering aus Cottbus. Das Forschungsvorhaben findet in enger Kooperation mit dem vietnamesischen Bergbauunternehmen Vinacomin statt.

Quelle: idw

(nach oben)


Auszeichnung „Rede des Jahres 2016″ geht an Bundestagspräsident Norbert Lammert

Antje Karbe Hochschulkommunikation
Eberhard Karls Universität Tübingen

Seminar für Allgemeine Rhetorik der Universität Tübingen würdigt besonnene Rede in politisch turbulenten Zeiten
Die Auszeichnung der „Rede des Jahres“ geht in diesem Jahr an Professor Dr. Norbert Lammert, Präsident des Deutschen Bundestages, für seine Rede zum Tag der Deutschen Einheit am 3. Oktober in der Dresdner Semperoper. Damit zeichnet das Seminar für Allgemeine Rhetorik der Universität Tübingen eine besonnene Rede inmitten einer meist stürmisch geführten politischen Debatte aus.

Lammert steht mit seiner Rede vor einer großen Aufgabe: er soll als hoher Vertreter des Staates eine Festrede halten, während draußen vor dem Saal Menschen gegen die Staatsvertreter protestieren. Er soll seine Freude über die Entwicklung Deutschlands ausdrücken, während draußen dessen Niedergang beschworen wird. Er soll Lob aussprechen im Augenblick der Kritik. Mit Ehrlichkeit begegnet er dieser Herausforderung: „Rundum fröhlich ist Dresden auch in diesem Jahr nicht – und Deutschland auch nicht.“ Diese Offenheit verschafft ihm Glaubwürdigkeit und zeigt, dass er sich als Redner aufrichtig mit der politischen Gegenmeinung beschäftigen will. Bereits diese Einstellung hebt seine Rede in positiver Weise von vielen der politischen Stimmen des Jahres 2016 ab.

Es gehört zu den großen Stärken seiner Rhetorik, deutliche Worte zu finden, sich jedoch nicht zu aggressiven Tönen verleiten zu lassen, wenn er „diejenigen, die heute am lautesten schreien und pfeifen und ihre erstaunliche Empörung kostenlos zu Markte tragen“ direkt anspricht und an jene Verantwortung erinnert, die sich aus der deutschen Geschichte ergibt. Mit Blick auf die Demonstranten vor der Semperoper hält er fest, „Man darf sogar dagegen sein“, um am Ende doch umso stärker zu resümieren, Einigkeit, Recht und Freiheit seien mindestens „gleich drei gute Gründe zum Feiern“.

Lammert versteht es durch die gesamte Rede hindurch, seine politischen Botschaften für die Hörer konkret zu verdeutlichen, um seine Rede nicht zu einem der oft gesehenen Schauplätze politischer Allgemeinheiten zu machen. Dies gelingt ihm, indem er beispielsweise den stilistischen Kunstgriff der Erzählung wählt. Die Entstehung des Schriftzuges „Dem Deutschen Volke“ am Reichstagsgebäude, verbindet er in seiner Nacherzählung mit dem bewegenden Einzelschicksal des Widerstandskämpfers Erich Gloeden, der dem Terror des NS-Regimes zum Opfer fiel. Damit wird der abstrakte Gedanke, die Volksvertreter mögen dem Deutschen Volke dienen, emotional aufgeladen und die Notwendigkeit dieser politischen Forderung auf eindringliche Weise vor Augen geführt. Hierzu trägt der gekonnte Wechsel unterschiedlicher stilistischer Ebenen bei: Lammert schildert die Situation des zum Christentum konvertierten Gloeden, der sich in seinem Land sicher gefühlt habe „- zu sicher“, wie Lammert anfügt. Die so erzeugte Spannung der Erzählung kontrastiert stilistisch geschickt mit der schockierend nüchternen Aufzählung der Fakten: „Gloedens Frau, seine Schwiegermutter und er selbst wurden im November 1944 in Plötzensee durch das Fallbeil getötet.“ Doch Lammert bleibt nicht einfach bei der historischen Betrachtung stehen, sondern führt sie wieder zurück zu der drängenden Frage der Gegenwart – wer und was darf heute als deutsch gelten, und wer ist eigentlich jenes deutsche Volk, für das sich noch heute die Parlamentarier unter dem Reichstagsschriftzug versammeln? Dass er diese unbequeme Thematik explizit anspricht, macht seine Rede mutig und engagiert.

Zugleich beweist Lammert besonderes Geschick, seine Zuhörer zu überraschen, ohne durch diese Effekte den Ernst der Thematik zu übertönen: Das lange Zitat eines Flüchtlingsberichts, der klingt wie die Flucht einer Frau aus dem Nahen Osten über das Mittelmeer, entpuppt sich als Bericht einer Kriegsflüchtigen des zweiten Weltkrieges. Doch dieser Spannungsbogen steht ganz im Dienst des eigentlichen Anliegens Lammerts: Damals wie heute, so seine Botschaft, ist die Idee einer staatlichen Einheit in Frieden in vielen Teilen der Welt bedroht. Und der anschließende Flüchtlingsbericht einer jungen Frau aus Syrien verdeutlicht, wie groß die Verantwortung Deutschlands ist, sich vor diesen Dramen nicht zu verschließen. Diesen dramaturgisch gekonnten Redeaufbau nutzt Lammert erneut, um sein Anliegen zum Festtag hervorzubringen: „Dieser Staat, dessen Einheit wir heute feiern, unsere Gesellschaft, kann und will Möglichkeiten eröffnen, ein Leben in Frieden und Freiheit zu führen.“

Dabei gehört es zur besonderen Charakteristik der Rede, dass sich Lammert als Redner auch selbst von Emotionen bewegen lässt, etwa, wenn er von der Bombardierung des letzten Krankenhauses in Aleppo berichtet. Er steht durch seine persönliche Ergriffenheit für die Integrität seiner Worte, wirkt wohlwollend und klug, energisch und charmant. Nicht zuletzt dieser Umstand trug zu dem großen Medienecho bei, welches auf die Rede folgte. Damit wird sie zu einem bemerkenswerten Dokument politischer Rhetorik in einem Jahr, welches in vielerlei Hinsicht von öffentlicher Rede und Gegenrede geprägt war. Im Gegensatz zum herrschenden Ton des Diskurses rund um Einheit und Spaltung Deutschlands in den vergangenen Monaten, setzt Lammert ein Zeichen für die überlegte Rede, die den schrillen Auftritt vermeidet und auf die Stärken der demokratischen Gegenwart setzt. Denn Deutschland ist „sicher nicht perfekt, aber gewiss in besserer Verfassung als jemals zuvor.“

Zu der herausragenden rednerischen Qualität Lammerts zählt auch die Verbindung seines ruhigen und gefassten Vortragsstils mit einer deutlichen und kraftvollen Sprache am Ende der Rede: „Vieles ist uns gelungen, manches offenbar besser als anderen“ – mit diesen markanten Worten kann er seinen Stolz auf die Einheit Deutschlands ausdrücken, ohne einem dumpfen Nationalismus das Wort zu reden. Und zugleich formuliert er jene prägnante Mahnung, die seine Rede sprachlich so eindringlich macht: „Das Paradies auf Erden ist hier nicht.“ Aber weil doch viele Menschen in Not das Paradies in Deutschland suchen, so seine kluge Argumentation, haben wir alle eine besondere Verantwortung, den Gedanken von Einheit in Frieden hochzuhalten. Lammert gibt damit ein Vorbild für jene differenzierte Betrachtungsweise, die die politische Debatte der letzten Monate rund um die Identität dieses Landes allzu oft vermissen ließ. Seine Einheits-Rede wird so zu einem exzellenten Beispiel politischer Festrede.

Jury: Simon Drescher, Pia Engel, Dr. Gregor Kalivoda, Prof. Dr. Joachim Knape, Sebastian König, Prof. Dr. Olaf Kramer, Severina Laubinger, Viktorija Romascenko, Frank Schuhmacher, Prof. Dr. Dietmar Till, Dr. Thomas Zinsmaier

Sprecher der Jury:
Simon Drescher
Universität Tübingen
Seminar für Allgemeine Rhetorik
Telefon +49 7071 29-72113
Mobil 0152 33703234
simon.drescher@uni-tuebingen.de
www.rhetorik.uni-tuebingen.de

Hintergrund „Rede des Jahres“
Die Auszeichnung „Rede des Jahres“ wird seit 1998 vom Seminar für Allgemeine Rhetorik der Universität Tübingen vergeben und ging seitdem unter anderem an Marcel Reich-Ranicki, Joschka Fischer und Papst Benedikt. Mit diesem Preis würdigt das Seminar für Allgemeine Rhetorik jährlich eine Rede, die die politische, soziale oder kulturelle Diskussion entscheidend beeinflusst hat. Neben das Kriterium der Wirkungsmächtigkeit treten bei der Auswahl weitere Bewertungsmaßstäbe wie argumentative Leistung und stilistische Qualität der Rede. Ziel ist es, das gesamte rhetorische Kalkül des Redners zu betrachten und zu bewerten.

Hintergrund „Seminar für Allgemeine Rhetorik“
Das Seminar für Allgemeine Rhetorik der Eberhard Karls Universität Tübingen ist ein Forschungs- und Lehrinstitut für die Geschichte, Theorie und Praxis der Rhetorik. Jede Form menschlicher Beredsamkeit, ob sie sich mündlich, schriftlich oder mit Hilfe von Medien wie Film, Fernsehen und Internet artikuliert, ist Thema der Forschungsprojekte und Lehrveranstaltungen des Instituts. Gründliche theoretische und realitätsnahe praktische Ausbildung sind am Seminar für Allgemeine Rhetorik eng miteinander verknüpft. Allgemeine Rhetorik wird in Tübingen im Rahmen des BA-MA-Studiums als Hauptfach und als Nebenfach angeboten.

Weitere Informationen:
https://www.bundestag.de/parlament/praesidium/reden#url=L3BhcmxhbWVudC9wcmFlc2lk…

Quelle: idw

(nach oben)


Chemikalien aus Biomasse

Monika Landgraf Presse, Kommunikation und Marketing
Karlsruher Institut für Technologie

Nachwachsende Rohstoffe sollen künftig Grundbausteine für die chemische Industrie liefern, um den Verbrauch fossiler Ressourcen zu reduzieren. Ein Verbund aus Forschungsinstitutionen und Industriepartnern forscht unter der wissenschaftlichen Leitung des Karlsruher Instituts für Technologie (KIT) daran, den in Biomasse enthaltenen Kohlenstoff und das in der industriellen Produktion als Nebenprodukt anfallende Kohlendioxid als Kohlenstoffquelle nutzbar zu machen. Ziel ist die Entwicklung einer neuartigen Prozesskette für die Synthese der Basis-Chemikalie Methanol. Der Verbund OptiMeOH wird nun vom BMBF mit 1,4 Millionen Euro gefördert.

Für die Erzeugung von Strom und Wärme gibt es im Zuge der Energiewende bereits zahlreiche kohlenstofffreie Alternativen. Die chemische Industrie ist für die Herstellung ihrer Produkte jedoch auch künftig auf Kohlenstoff angewiesen. Als weltweit verfügbare nachhaltige Kohlenstoffquelle könnte in Zukunft auch Biomasse genutzt werden, um einen Teil des Rohstoffbedarfs der chemischen Industrie zu decken. Vorzugsweise werden dafür organische Reststoffe aus Industrie und kommunaler Entsorgung verwendet. Forscher des KIT, der DVGW-Forschungsstelle (Deutscher Verein des Gas- und Wasserfaches), der Universität Stuttgart und der TU Kaiserslautern haben gemeinsam mit drei Industriepartnern das Projekt „Optimierte Prozesskette zur ressourceneffizienten Methanolsynthese – OptiMeOH“ gestartet. In dem Forschungsvorhaben soll eine innovative Prozesskette zur Synthese von Methanol entwickelt werden, bei der auf fossile Rohstoffe entweder ganz verzichtet wird oder aber Kohlendioxid aus fossilen Quellen nochmals Verwendung findet, welches ansonsten in der Industrie als ungenutztes Nebenprodukt anfällt. „Die Kohlenstoffausnutzung und Ressourceneffizienz werden dadurch deutlich verbessert“, sagt Dr.-Ing. Siegfried Bajohr, der am Engler-Bunte-Institut des KIT das Arbeitsgebiet katalytisch-chemische Verfahren der Brennstoffwandlung leitet.

Methanol ist ein wichtiges Ausgangsmaterial für die chemische Industrie. Der aus einem Kohlenstoff-, einem Sauerstoff- und vier Wasserstoffatomen bestehende Chemie-Rohstoff ist vielseitig einsetzbar, zum Beispiel für die Produktion von Ameisen- und Essigsäure, Formaldehyd sowie von Lacken und Farben. 2015 umfasste der weltweite Bedarf an Methanol zirka 65 Millionen Tonnen.

Das bis Ende 2019 laufende Projekt OptiMeOH, mit dessen Hilfe das Methanol fossiler Herkunft teilweise durch „erneuerbares“ Methanol ersetzt werden soll, erhält rund 1,4 Millionen Euro aus der Fördermaßnahme „CO2Plus – Stoffliche Nutzung von CO2 zur Verbreiterung der Rohstoffbasis“ des Bundesministeriums für Bildung und Forschung. Zusammen mit rund 300.000 Euro, die die beteiligten Industriepartner zur Verfügung stellen, beträgt das Gesamtbudget für das Forschungsvorhaben rund 1,7 Millionen Euro.

Im Fokus der theoretischen und experimentellen Untersuchungen stehen unter anderem die energiesparende Biogaserzeugung durch Druckfermentation – die Vergärung von Biomasse unter hohem Druck von 30 bar und mehr -, ein neuartiges Reaktorkonzept zur Methanolsynthese und ein innovatives Verfahren zur Aufbereitung von Industriegasen durch die chemische Gaswäsche mit ionischen Fluiden.

„Eine unserer Hauptaufgaben ist es, zu untersuchen, wieviel Treibhausgas durch verfahrenstechnische Verbesserungen eingespart werden kann“, sagt Chemieingenieurin Nike Trudel vom KIT. Die neue Prozesskette wird unter wirtschaftlichen und ökologischen Gesichtspunkten mit etablierten Prozessen verglichen und bewertet. In einer Machbarkeitsstudie soll die Einbindung der Technologie in zwei unterschiedliche Industriestandorte – einen großen Industriepark und eine dezentral gelegene Anlage – beurteilt werden. „Der Prozess wird ganzheitlich bilanziert, sein Wirkungsgrad und seine Ökobilanz werden mit den Methanol-Herstellungsprozessen basierend auf Kohle, Erdöl oder Erdgas verglichen“, so Bajohr.

Die Projektgruppe OptiMeOH besteht je zur Hälfte aus Forschungsinstituten und Industriepartnern. Beteiligt sind das KIT mit dem EBI und die dort angesiedelte DVGW-Forschungsstelle (Deutscher Verein des Gas- und Wasserfaches), die Universität Stuttgart, Abteilung Ganzheitliche Bilanzierung am Lehrstuhl für Bauphysik, und die TU Kaiserslautern, Lehrstuhl für Thermische Verfahrenstechnik; von industrieller Seite bringt die Infraserv GmbH & Co. Höchst KG, das den Industriepark Höchst in Frankfurt am Main betreibt, seine Expertise ebenso ein wie das auf Anlagenbau spezialisierte Duisburger Unternehmen Mitsubishi Hitachi Power Systems Europe und das Starnberger Planungs- und Projektbüro keep it green, das sich mit der Einspeisung regenerativ erzeugter Gase in das öffentliche Versorgungsnetz und mit neuen Technologien zur Verbesserung der Kohlenstoffausnutzung bei der Umwandlung von Biomasse befasst.

Weiterer Kontakt:
Kosta Schinarakis, PKM – Themenscout, Tel.: +49 721 608 41956, Fax: +49 721 608 43658, E-Mail: schinarakis@kit.edu

Das Karlsruher Institut für Technologie (KIT) verbindet seine drei Kernaufgaben Forschung, Lehre und Innovation zu einer Mission. Mit rund 9 300 Mitarbeiterinnen und Mitarbeitern sowie 25 000 Studierenden ist das KIT eine der großen natur- und ingenieurwissenschaftlichen Forschungs- und Lehreinrichtungen Europas.

KIT – Die Forschungsuniversität in der Helmholtz-Gemeinschaft

Das KIT ist seit 2010 als familiengerechte Hochschule zertifiziert.

Diese Presseinformation ist im Internet abrufbar unter: http://www.kit.edu

Anhang
Chemikalien aus Biomasse
https://idw-online.de/de/attachment51391

Quelle: idw

(nach oben)


Wer körperlich fit ist, arbeitet effektiver

Eva Mühle Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Arbeitsforschung an der TU Dortmund

Den leidigen Bericht schreiben, den nervigen Kunden freundlich bedienen und dem Katzenvideo im Internet widerstehen: Um in der Arbeitswelt bestehen zu können, ist Selbstkontrolle unerlässlich. Zu hohe Kontrollanforderungen an die eigene Person zehren aber an den Kräften und können zu Burnout führen. Forscher des Leibniz-Instituts für Arbeitsforschung an der TU Dortmund (IfADo) haben untersucht, welche Rolle körperliche Fitness dabei spielt. Das Ergebnis: Wer regelmäßig Sport macht, kann besser mit Stress auf der Arbeit umgehen.

In vielen Berufen ist Selbstkontrolle das A und O für eine erfolgreiche Karriere. Besonders deutlich wird das im Dienstleistungssektor. Verkäufer, Ärzte, Rechtsanwälte, Bankangestellte – sie alle müssen ihre individuellen Emotionen regulieren, um den Bedürfnissen des Kunden gerecht zu werden, lange Zeit konzentriert zu arbeiten oder Ablenkungen zu widerstehen. Zu hohe Selbstkontrollanforderungen belasten mit der Zeit die Psyche. Als Folge fühlen sich viele Arbeitnehmer ausgepowert, erschöpft und krank.

IfADo-Wissenschaftler konnten jetzt zusammen mit der International School of Management Dortmund und dem Dortmunder Dienstleister Prevent.on nachweisen, dass körperliche Fitness als eine Art Puffer zwischen Selbstkontrollanforderungen und psychischer Belastung fungieren kann. Das Team um die IfADo-Psychologen Klaus-Helmut Schmidt und Wladislaw Rivkin hat Daten von mehr als 800 Probanden analysiert, die sich freiwillig zu einem medizinischen Check-up angemeldet hatten. Alle Teilnehmer arbeiten im Finanzsektor.

Als Messwert für die körperliche Fitness ermittelten die Forscher die maximale Aufnahmefähigkeit von Sauerstoff im Blut während einer sportlichen Tätigkeit, eine gängige Methode zur Beurteilung der körperlichen Leistungsfähigkeit. Anschließend wurden die Probanden zu psychischen Belastungen auf der Arbeit befragt. Die erhobenen Daten wurden verglichen. Dabei zeigte sich, dass Menschen, die körperlich fit sind, weniger Probleme haben, ihre Emotionen und ihr Verhalten auf der Arbeit entsprechend den Berufsanforderungen zu regulieren als Menschen, die selten Sport machen.

„Wer fit ist, kann psychischen Belastungen und Erkrankungen durch zu viel Stress während der Arbeit vorbeugen“, sagt Rivkin. „Gerade in Berufen, die täglich ein hohes Maß an Selbstkontrolle erfordern, könnten Sportangebote präventiv eingesetzt werden, um Überbelastung zu vermeiden.“ Denn um effektiv und konzentriert zu arbeiten, braucht der Körper ausreichend Energie in Form von Glukose, die nur begrenzt zur Verfügung steht. Ist der Körper aber durch regelmäßigen Sport in einer guten Verfassung, wird Zucker effizienter in die Zellen transportiert.

Zur Publikation:
Schmidt, Klaus-Helmut; Beck, Rüdiger; Rivkin, Wladislaw; Diestel, Stefan (2016) Self-Control Demands at Work and Psychological Strain: The Moderating Role of Physical Fitness. International Journal of Stress Management, Vol. 23, No.3, 255-275. Doi: 10.1073/str0000012

Das IfADo – Leibniz-Institut für Arbeitsforschung an der TU Dortmund erforscht die Potenziale und Risiken moderner Arbeit auf lebens- und verhaltenswissenschaftlicher Grundlage. Aus den Ergebnissen werden Prinzipien der leistungs- und gesundheitsförderlichen Gestaltung der Arbeitswelt abgeleitet. Das IfADo hat mehr als 200 Mitarbeiter/innen aus naturwissenschaftlichen und technischen Disziplinen. Das Institut ist Mitglied der Leibniz-Gemeinschaft, die 88 selbstständige Einrichtungen umfasst. Die Leibniz-Institute beschäftigen rund 18.100 Personen, darunter 9.200 Wissenschaftlerinnen und Wissenschaftler. Der Gesamtetat der Institute liegt bei 1,64 Milliarden Euro.

Weitere Informationen:
http://www.ifado.de/blog/2016/10/18/wer-koerperlich-fit-ist-arbeitet-effektiver/

Quelle: idw

(nach oben)