Donnerstag, März 28, 2024
StartAblageTägliche Meldungen 2016

Tägliche Meldungen 2016

Dezember 2016
Umwelt
Gesundheit
Gesellschaft
Umwelt
31.12.2016 Wissenschaft für Mensch und Umwelt 
30.12.2016 Verstädterung – die historische Ursache für niedrigen Sauerstoffgehalt in vielen Seen Europas 
28.12.2016 Leipziger Fachgespräch diskutierte Fragen zum Thema „Gasmanagement von Biogasanlagen“ 
25.12.2016 Record Biomap: neue Chancen für die Biomethanproduktion in kleinen Biogasanlagen 
23.12.2016 Im Regenwald sorgt Regen für neuen Regen 
19.12.2016 Aquakultur: Klares Wasser dank Kork 
16.12.2016 Forschungsprojekt HypoWave: neuer Ansatz für Wasserwiederverwendung in der Landwirtschaft 
15.12.2016 EU fördert Projekt zum Hochwasserrisikomanagement mit 6,9 Millionen Euro 
13.12.2016 Kläranlagen: Schlamm optimal verwerten 
12.12.2016 Herbstlaub wird zu Aktivkohle – Forschungsprojekt entwickelt clevere Biomassen-Verwertung 
11.12.2016 Regionale Bioenergiedaten online zusammenstellen: DBFZ stellt Bioenergie-Atlas vor 
09.12.2016 Abwasser mittels naturnaher Systeme reinigen 
07.12.2016 Hochschule Koblenz engagiert im Umwelt- und Klimaschutz: Neues Forschungsprojekt und Auszeichnung 
06.12.2016 Fokus Phosphor-Problematik: Internationale IPW8-Konferenz in Rostock zeigt Lösungen auf 
01.12.2016 Aus Kohlendioxid und Wasser mit Hilfe von Sonnenlicht zu neuen Rohstoffen 
Gesundheit
27.12.2016 Vom Rhein nach Westafrika: Biologische Mückenbekämpfung hilft gegen Malaria 
24.12.2016 Auch Männer erkranken an Osteoporose 
17.12.2016 TU Berlin: Mit feinkörnigem Eisenhydroxid Schwermetalle aus Wasser entfernen 
14.12.2016 Nicht nur bei Übergewicht: Bewegung als Medikament
10.12.2016 Was steckt hinter der Tagesmüdigkeit? Neuer EEG-Algorithmus hilft bei der Diagnose 
05.12.2016 Bertelsmann-Studie zeigt: Eltern unzufrieden mit Schulessen 
01.12.2016 Kohlenhydrate – optimale Ernährung zur Gewichtsabnahme und für ein längeres Leben 
Gesellschaft
29.12.2016 Warum Frauen und Männer unterschiedlich mit ihrer Gesundheit umgehen 
26.12.2016 Welche Autos das Herz am höchsten schlagen lassen 
20.12.2016 Uni-Studie untersucht Methoden zur Feststellung von Ängstlichkeit bei Kindern 
08.12.2016 Auszubildende sind zufrieden mit ihrem Betrieb, aber nicht mit ihrer Berufsschule 
02.12.2016 Keine Einzelkämpfer in der Arbeitswelt. Neue Befunde der Arbeitssoziologie 
November 2016
Umwelt
Gesundheit
Gesellschaft
Umwelt
30.11.2016 The challenges of phosphorus – International IPW8 Conference in Rostock identifies solutions 
28.11.2016 Hochwasserschutz – Simulation für den Ernstfall 
26.11.2016 Plastikpiraten erobern deutsche Flüsse 
21.11.2016 Halten Spiralwirbel und Bakterien Methan im Meerwasser zurück? Poseidon-Fahrt erfolgreich beendet 
18.11.2016 Neues Autolicht revolutioniert Sicherheit im Verkehr 
17.11.2016 Meeresbiologin mit Weltruf erforscht die Ostsee 
14.11.2016 Bäume erkennen Rehe am Speichel und wehren sich gegen Verbiss 
12.11.2016 Neue Wege für den Umweltschutz durch Abgaskatalyse 
10.11.2016 Offenes Wasser um den Nordpol: Arktisches Meereis auf dem Rückzug 
07.11.2016 »Sweedhart«: Unkraut nicht bekämpfen, sondern als Biomasse nutzen 
04.11.2016 Der Pinguin als Messstation: Symposium beleuchtet Perspektiven der Erdbeobachtung durch Tiere
01.11.2016 Effiziente Wiederverwertung von Lithium-Ionen-Batterien – Forschungsprojekt gestartet 
Gesundheit
29.11.2016 Das Geschäft mit dem Sterben 
27.11.2016 Ständige Impfkommission veröffentlicht neue Impfempfehlungen 
19.11.2016 Guter Schlaf schützt das Gehirn – schlechter Schlaf fördert Alzheimer und Parkinson 
16.11.2016 „Wer glaubt, multiresistente Keime wären in Deutschland ein Problem, sollte mal ins Ausland gehen!“ 
13.11.2016 Pflanzenbetonte Ernährungsweise kann Entzündungen vorbeugen 
11.11.2016 Neue Studien: Alkohol schützt das Herz doch nicht 
08.11.2016 Lässt Stress schneller altern oder hält er sogar geistig fit? 
05.11.2016 Studie belegt erstmals: Autofahren mit Flip Flops ist gefährlich 
02.11.2016 Handlungsempfehlungen zur Ernährung und Bewegung von Säuglingen und stillenden Frauen aktualisiert 
01.11.2016 Getränkeindustrie fördert Adipositas-Welle und Zivilisationskrankheiten 
Gesellschaft
15.11.2016 „Jeder ist seines Alters Schmied“ 
09.11.2016 Selbstbestimmte Arbeitszeiten:Männer verdienen mehr, Frauen nicht – selbst wenn sie länger arbeiten 
06.11.2016 Die Zukunft der E-Mobilität: Intelligente Navis machen Autos grüner 
03.11.2016 Unstatistik des Monats: Fußball-Fans haben die höchste Bildung 
01.11.2016 Gehirn räumt im Schlaf auf – und bleibt dadurch lernfähig 
Oktober 2016
Umwelt
Gesundheit
Gesellschaft
Umwelt
31.10.2016 Viel Regen, wenig Wespen
28.10.2016 Umweltrat: Umweltprogramm 2030 ist ein wichtiger Meilenstein 
25.10.2016 In einer der dunkelsten Regionen Deutschlands testen Forscher die Folgen der Lichtverschmutzung 
24.10.2016 Allergieforschung: Reaktion auf Hausstaubmilben hängt vom Alter ab 
20.10.2016 Körperwärme als Stromquelle 
17.10.2016 Startschuss für die wissenschaftliche Begleitforschung zur stofflichen CO2-Nutzung 
16.10.2016 Zukunft Altbau: Fraunhofer IFAM veröffentlicht Studie zur Nachdämmung bereits gedämmter Außenwände 
14.10.2016 Blühende Wiesen zum Wohl des Menschen 
10.10.2016 Nanopelz gegen die Ölpest 
08.10.2016 Steigende Wassertemperaturen und Ozeanversauerung beeinträchtigen wichtigen Plankton-Organismus 
06.10.2016 Marine Organismen am Meeresboden überleben in saurer Umgebung 
05.10.2016 EU-Projekt will Jugendliche für Umweltveränderungen sensibilisieren 
02.10.2016 Wärmetechnische Komponenten mit Schaum verbessern 
01.10.2016 Nützlicher Appetit von Algen 
Gesundheit
29.10.2016 Fortschritt bei der Impfung gegen Wespengift 
27.10.2016 Allergieforschung: Reaktion auf Hausstaubmilben hängt vom Alter ab 
23.10.2016 Selenversorgung beeinflusst Risiko für Krebsentwicklung 
18.10.2016  Gewicht und BMI liefern keine Hinweise auf Blutfettwerte
13.10.2016 Studie: Weniger Lebenszufriedenheit nach Jobverlust, emotionales Wohlbefinden erholt sich 
07.10.2016 Alles im Fluss: Wie der Flow unser Wohlbefinden bei der Arbeit fördert 
04.10.2016 Ausdauersport oder Krafttraining: Was bremst den Alterungsprozess am stärksten? 
01.10.2016 Dem Alter kann man kein Schnippchen schlagen: Warum wir alt aussehen – oder eben nicht 
Gesellschaft
30.10.2016 Wandel der Arbeitswelt – Soziale Medien steigern den Leistungsdruck 
26.10.2016 Hochschule Düsseldorf: Neue Studie – Kölsch versus Alt 
19.10.2016  UDE: Frauen arbeiten konstant kürzer als Männer – Zurückstecken für die Familie
15.10.2016 Spielfeld Arbeitsplatz: Was Manager von Profikickern lernen können 
12.10.2016 Neues im Netzwerk für Ausbilderinnen und Ausbilder 
09.10.2016 Wie uns Bakterien schützen oder schaden 
03.10.2016 Leere Bäuche lernen gerne? 
01.10.2016 „Roboter helfen uns, den Menschen besser zu verstehen“ 
September 2016
Umwelt
Gesundheit
Gesellschaft
Umwelt
29.09.2016 SmartEnCity – Auf dem Weg zu intelligenten und energieneutralen Städten in Europa 
27.09.2016 Alarmierende Ergebnisse: Schadstoffbelastung durch Mikroplastik im Sediment höher als erwartet
25.09.2016 Neue Projektideen für die Bioenergie 
23.09.2016 Großer Handlungsbedarf beim Problem Gülle 
22.09.2016 Warum Bioenergie Fluch und Segen zugleich ist 
20.09.2016 Universität Koblenz-Landau will Wasserqualität verbessern 
19.09.2016 Erdbeobachtung durch Tiere 
16.09.2016 Ozeanversauerung und die gesellschaftlichen Folgen 
15.09.2016 FluidSTORY: eine innovative Lösung zur Speicherung von Energie 
13.09.2016 Richtig Gärtnern für Wildbienen: Was schützt, was schadet 
11.09.2016 Für die deutsche Meeresforschung: 30 Jahre Forschungsschiff METEOR 
09.09.2016 Klimawandel: Hochwasser könnten noch größere Schäden verursachen als gedacht 
07.09.2016 Wie das Schmelzwasser der Eisschilde das Klima durcheinanderbrachte 
05.09.2016 Gleichspannung revolutioniert die industrielle Energieversorgung 
04.09.2016 Krankheitserregende Bakterien per Anhalter durch Nord- und Ostsee? 
01.09.2016 Sonnenhäuser wissenschaftlich bewertet 
Gesundheit
30.09.2016 Mit Twitter-Daten Grippewelle vorhersagen – Universität Osnabrück kooperiert mit Weltkonzern IBM 
26.09.2016 Zu wenig Kochsalz erhöht das Risiko für Herz-Kreislauf-Erkrankungen 
24.09.2016 Urologen warnen: Volksleiden Nykturie oft ein Alarmsignal 
17.09.2016 Wann ist Nano sicher? Broschüre für jedermann zeigt Arbeit des Forschungsverbundes Nanosicherheit 
14.09.2016 UDE/UK Essen: Die meisten Schlaganfälle lassen sich vermeiden 
10.09.2016 Schwarzer Hautkrebs 
06.09.2016 Heftige Dosis Sonne: Bei der Arbeit im Freien bekommt die Haut einiges an UV-Strahlung ab 
02.09.2016 Der Urlaub kann eine Gefahr für die Leber sein: Jetzt gegen Virushepatitis impfen 
Gesellschaft
28.09.2016 Zuckerabhängigkeit: Schalter für Zuckertransport ins Gehirn entdeckt 
21.09.2016 Einkommen und Vermögen, Armut und Reichtum – die häufigsten Fragen auf den Punkt beantwortet 
18.09.2016 Nicht einmal die Hälfte der Beschäftigten kann Arbeitszeitwünsche verwirklichen 
12.09.2016 Die DGOU begrüßt gesetzliche Klarstellung zur Bildung der Rettungsgasse 
08.09.2016 „Pokémon Go“ aus wissenschaftlicher Perspektive 
03.09.2016 Lohn- und Arbeitskosten: Deutschland weiter auf Position acht 
August 2016
Umwelt
Gesundheit
Gesellschaft
Umwelt
31.08.2016 Sicherer, effizienter, dynamischer: Ulmer Ingenieure entwickeln Allradantrieb für Elektro-Zweiräder
28.08.2016 Drohnen sollen Pflanzenwachstum erfassen 
26.08.2016 Mee(h)r Wissen über den Regen – Neue Methode ermöglicht genauere Rekonstruktion 
24.08.2016 „Uhrwerk Ozean“ 
22.08.2016 Phosphor-Dünger aus Klärschlamm: Pilotanlage erprobt Praxistauglichkeit des Hohenheimer Verfahrens 
19.08.2016 Bedarf an Bewässerungswasser stärker bestimmt durch Kulturpflanze als durch Klimaänderung
17.08.2016 Wie Wasser seine außergewöhnlichen Eigenschaften erhält 
16.08.2016 Mit Abgas das Klima retten 
13.08.2016 Gemeinsam für den Klimaschutz – Kohlendioxid sinnvoll nutzen 
10.08.2016 Mit Laserlicht dem Plastikmüll im Trinkwasser auf der Spur 
09.08.2016 Wer mit wem und wo am Ostseeboden? Biologen des IOW präsentieren Resultat einer umfassenden Inventur 
07.08.2016 Mehr Wildkatzen als gedacht – Studie zeigt Verbreitung von Wildkatzen in Deutschland 
06.08.2016 Die Mikroben-Versteherin 
05.08.2016 Uni forscht für gesündere Gewässer 
02.08.2016 Glyphosat-Diskussion: Agrarwissenschaftler plädiert für gezielteren Einsatz statt Verbot 
01.08.2016 Ein grüner Alleskönner aus Orangenschalen und Kohlendioxid: Grundlage für neue Kunststoffe
Gesundheit
30.08.2016 Mehr als nur der kleine Unterschied: Männer und Frauen variieren auffällig in punkto Blutfette 
27.08.2016 Gewitter: Diese Regeln sollte Ihr Kind kennen 
25.08.2016 Tourismusbranche unter Druck – Terrorismus verschiebt Reisegewohnheiten 
23.08.2016 Pneumokokken: Impfraten bei Senioren zu gering 
20.08.2016 Schnelltest identifiziert Krankheitserreger 
18.08.2016 Seetang statt Salz
14.08.2016 Wo die Angst sitzt 
11.08.2016 Funktionsweise von Contergan aufgedeckt 
08.08.2016 Bakterien im Darm als Spiegel der Gesundheit 
03.08.2016 Gewichtsabnahme durch Aktivierung des braunen Fettgewebes möglich 
01.08.2016 Was alles so drin ist im Muntermacher: Kaffee ist eine Herausforderung für die Risikobewertung
Gesellschaft
29.08.2016 Agile Arbeitswelt: Wunschdenken oder bereits Wirklichkeit? 
21.08.2016 Betriebe mit einer mitarbeiterorientierten Personalpolitik haben engagiertere Mitarbeiter 
15.08.2016 Cloud-Dienst des KIT deutschlandweit verfügbar 
12.08.2016 Neue App revolutioniert Arbeit der Fußballschiedsrichter 
04.08.2016 Geflüchtete verbinden mit Deutschland Rechtsstaatlichkeit, Menschenwürde und Religionsfreiheit 
01.08.2016 Immer mehr Menschen arbeiten auch im Ruhestand 
Juli 2016
Umwelt
Gesundheit
Gesellschaft
Umwelt
31.07.2016 Hochwasserschutz leicht gemacht 
29.07.2016 Nach den Unwettern kommen die Mücken – Mückenatlas bittet um Zusendungen 
28.07.2016 „Umweltschutz ist eine Aufgabe, die uns unser Leben lang begleitet“ 
27.07.2016 Zukunftsmarkt Wasser – Chancen für die deutsche Wasserwirtschaft 
26.07.2016 Wissenschaftler des Fraunhofer ISI präsentieren Forschungsergebnisse bei der „Woche der Umwelt“ 
24.07.2016 Schutz vor den Wassermassen 
22.07.2016 Internationales Projekt zur Wasseraufbereitung im Gebiet des Viktoriasees startet 
20.07.2016 Keimfreies Wasser ohne Chemie 
19.07.2016 Starre Wasserrohre, fit für die Zukunft 
16.07.2016 Thermooptische Messanlagen könnten Millionen Tonnen CO2 in Kohlekraftwerken einsparen 
15.07.2016 TU Berlin: Damit das Wasser der Ozeane trinkbar wird 
12.07.2016 Aufbruch in die unbekannte Welt der Brackwasser-Bakterien 
10.07.2016 Wie Bakterien lernen, ihre Feinde zu lieben 
05.07.2016 Wasserstoff – wichtiger Baustein der Energiewende 
02.07.2016 Große Pumpen für die Fische 
01.07.2016 Die Sulfatbelastung der Spree – Ursachen, Wirkungen und aktuelle Erkenntnisse
Gesundheit
30.07.2016 Sommerurlaub 2016: Auf Reisen ist Impfschutz ebenso wichtig wie Sonnenschutz 
25.07.2016 Zinkmangelernährung ist für Mensch und Tier schädlich 
17.07.2016 Gewürze und Kräuter: Zutaten, die ein gesundheitliches Risiko bergen können 
14.07.2016 Warum schon Kinder über Kreuzweh klagen 
11.07.2016 Risiko Ausdauersport? Mediziner finden keine Hinweise für Herzschäden durch langjährigen Sport 
08.07.2016 Schuppenflechte: Neue Details entschlüsselt 
06.07.2016 Du bist, was Du isst!
03.07.2016 Legionellen schwächen Abwehr durch Voraus-Kommando 
01.07.2016 Schlafprobleme am Wochenende? Grübeleien über unerledigte Aufgaben könnten der Grund sein
Gesellschaft
23.07.2016 Problem trotz guter Konjunktur: Langzeitarbeitslosigkeit belastet Ältere und Geringqualifizierte 
21.07.2016 Dresdner Riechforscher: Das Geheimnis eines erfüllten Liebeslebens ist der passende Geruch 
18.07.2016 Betriebsvereinbarungen: Digitales, Arbeitszeit u. Schutz vor psychischen Belastungen sind TopThemem 
13.07.2016 Göttinger Studie: Verbraucher wollen faire Preise für Milch, Fleisch und Backwaren 
04.07.2016 Menschenaffen kommunizieren kooperativ 
01.07.2016 Weisse Liste veröffentlicht neue Auswertung des Pflege-TÜV 
Juni 2016
Umwelt
Gesundheit
Gesellschaft
Umwelt
30.06.2016 Gute Beispiele für Synergien zwischen Umweltschutz und sozialer Gerechtigkeit gesucht! 
26.06.2016 Auf dem Weg zu einer besseren Wasserqualität 
23.06.2016 Neues Design für das Fahrradportal 
21.06.2016 Nutzung von Klärschlamm für Biogas wird erforscht 
18.06.2016 21. Mai 2016 World Fish Migration Day: Der millionste Stör wurde in die Oder entlassen 
16.06.2016 Wie verhalten sich Fische in Fischtreppen? 
14.06.2016 Tägliches Auf und Ab der Plankton-Tiere im Meer 
12.06.2016 Ségolène Royal startet die Initiative „100 Projekte für das Klima“ 
10.06.2016 Innovativ und energieeffizient: Sauberes Wasser ohne Chemie 
08.06.2016 Winzige Mikroroboter, die Wasser reinigen können 
06.06.2016 Riesige Einzeller sind die heimlichen Stars des Ozeans 
05.06.2016 Wasserver- und -entsorgung zukunftsfest ausrichten 
02.06.2016 Superstar auf Sendung: Schalten Sie um auf Adler-TV 
Gesundheit
29.06.2016 Ernährung beeinflusst Stresshormonspiegel bei Kindern 
27.06.2016 Vitamin C-reiche Ernährung und Sport schützen vor Grauem Star 
24.06.2016 Unterdrückung unliebsamer Testergebnisse? Blutzucker-Messgeräte-Hersteller geht gegen Prüflabor vor 
22.06.2016 Wie Schwangerschaft die Wahrnehmung verändert 
20.06.2016 Plasma-Kamm gegen Läuse – Technologie erobert Medizin und Haushalt 
17.06.2016 Gradmesser für die Fettverbrennung 
15.06.2016 Fettreiche Ernährung lässt Gehirn hungern 
13.06.2016 Arbeitsfähigkeit wird durch Arbeitsängste beeinträchtigt 
09.06.2016 Welt Hypertonie Tag 2016 „Blutdruck in Bewegung“ – Hochdruckliga: Richtig Messen und Bewegen 
07.06.2016 SPRINT-Studie: Wie tief soll der Blutdruck gesenkt werden? 
03.06.2016 Tinnitus durch Lärm: Wenn es rauscht im Ohr 
Gesellschaft
28.06.2016 Was ändert sich in meinem Job, wenn alles digitalisiert ist? 
19.06.2016 Wirtschaftsfaktor RB Leipzig: Erstligist spült über 16 Millionen Euro pro Saison in die Stadt 
11.06.2016 Statistiker: Deutschland wird Fußball-Europameister 
04.06.2016 Sturm und Drang in der Jugend, Eremit im Alter 
Mai 2016
Umwelt
Gesundheit
Gesellschaft
Umwelt
31.05.2016 Auswirkungen von Bewässerungslandwirtschaft auf das Klima 
30.05.2016 Fließgewässer effizienter renaturieren 
28.05.2016 Der frühe Vogel hat Probleme 
26.05.2016 Trinkwasser: CO2-Steuer kann weltweit Versorgungslücken schließen  
24.05.2016 Messung der Luftverschmutzung durch Tauben 
22.05.2016 Neue Plattform zur Erforschung der Abwasserreinigung durch Pflanzen in Bordeaux 
18.05.2016 Die üblichen Verdächtigen: Eine eingeschworene Bakteriengemeinschaft räumt in der Nordsee auf
11.05.2016 Grundwasser: weltweit wichtigste Trinkwasserressource 
10.05.2016 Bio-Sprit auf dem Prüfstand 
06.05.2016 Umweltschonend und kostensparend: Messsystem überwacht Ölqualität in Blockheizkraftwerken
04.05.2016 Meeresspiegelanstieg: Zu groß zum Wegpumpen 
02.05.2016 Effizienz der Wasserelektrolyse verdoppelt 
01.05.2016 Biogas repowered – Umfassende Maßnahmen zur effizienteren Biogasgewinnung 
Gesundheit
29.05.2016 Bakterien im Urin: Keine Symptome, kein Antibiotikum 
27.05.2016 Innovative Therapien gegen hohen Blutfettspiegel 
23.05.2016 Nach dem Infarkt: Schrittzähler motivieren zur Bewegung 
19.05.2016 Hygienische Wasseruntersuchung ab sofort einfach und kostengünstig möglich 
08.05.2016 Magenschleimhaut in Gefahr: Helicobacter-Beseitigung beugt Magenkrebs vor 
05.05.2016 Rückengesundheit: Orthopäden und Unfallchirurgen geben Tipps gegen den Handynacken 
01.05.2016 Potenzmittel Sildenafil kann Wachstum von Hauttumoren verstärken 
Gesellschaft
25.05.2016 Arbeitszeugnisse: Machen sie noch Sinn? 
21.05.2016 Die dunkle Seite der Religion – Wie Menschenopfer halfen, hierarchische Gesellschaften aufzubauen 
12.05.2016 Aktuelle Studie: Zecken fast ganzjährig und selbst in waldfernen Gärten aktiv 
09.05.2016 Wer sich sozial engagiert, lebt und stirbt zufriedener 
03.05.2016 Rechte Wutbürger untergraben die Demokratie 
01.05.2016 Brutto-Stundenverdienste in Frauenberufen 2014 um acht Euro niedriger als in Männerberufen 
April 2016
Umwelt
Gesundheit
Gesellschaft
Umwelt
29.04.2016 Industrielle Abwärme als Energieträger: Mit neuen Wärmespeichern zur konstanten Stromversorgung 
27.04.2016 Die Kraniche kommen – vielleicht ein letztes Mal 
26.04.2016 Forscher entdecken Feenkreise in Australien 
23.04.2016 Energetische Sanierungen bei Wohngebäuden rückläufig 
20.04.2016 „Alice, der Klimawandel und die Katze Zeta“: Ein Märchen über die Wahrheit 
18.04.2016 Aktive Reduzierung der Feinstaubbelastung mit Moosen 
17.04.2016 Hochschule Koblenz und Bundesanstalt für Gewässerkunde richteten „Tag der Hydrologie 2016″ aus
13.04.2016 Grundwasser, Trinkwasser, Abwasser und mehr – Wasserchemiker tagen an der Regnitz in Bamberg
12.04.2016 Arzneimittelrückstände im Wasserkreislauf: Technische Lösungen stoßen an ihre Grenzen 
11.04.2016 Strom aus Abwärme – Keramik macht‘s möglich 
10.04.2016 Tsunamigefahr am Ätna? 
08.04.2016 Stromkunden sind bereit für Ökostrom von Stadtwerken und Genossenschaften mehr zu zahlen
05.04.2016 Forschung zur saisonalen Wärmespeicherung im Untergrund 
04.04.2016 Erhöhte Feinstaubbildung in küstennahen Gebieten 
01.04.2016 Wieso altern Batterien? 
Gesundheit
30.04.2016 Bluttest zur Diagnose von Alzheimer entwickelt 
28.04.2016 Omega-3-Fettsäuren wirken nachweislich positiv auf das alternde Gehirn 
24.04.2016 Spielen im Freien schützt vor Kurzsichtigkeit: Schon 40 Minuten täglich können helfen 
19.04.2016 Ökologisch erzeugte Rohmilch enthält weniger antibiotikaresistente Keime als konventionell erzeugte 
14.04.2016 Kasseler Biologin erforscht die innere Uhr 
09.04.2016 Neue Wege in der Schwerhörendenversorung 
06.04.2016  Bei Sommerhitze komfortabel arbeiten
02.04.2016 Sodbrennen: Echtzeit-MRT macht Ursachen sichtbar 
Gesellschaft
25.04.2016 Tiefe Kluft zwischen Frauen und Männern bei der Rente 
21.04.2016 Das Bild vom Migranten als sexuelle Gefahr 
03.04.2016 Borreliose: Übertragung durch Mückenstich? 
März 2016
Umwelt
Gesundheit
Gesellschaft
Umwelt
30.03.2016 TU Darmstadt eröffnet ETA-Modellfabrik – Energieeffizienz im großen Maßstab begreifen 
26.03.2016 Neue Plattform für die Herstellung von Biomethan 
25.03.2016 Europa um eine Schlange reicher – Neue Ringelnatter-Art entdeckt 
24.03.2016 Unterirdische CO2-Speicherung: Risiken für Stoffkreisläufe im Boden 
22.03.2016 Wissenschaftler schlagen Alarm: Bedeutung der Versalzung von Gewässern wird weltweit unterschätzt 
20.03.2016 BHKW´s könnten effizienter und wirtschaftlicher werden 
19.03.2016 Dem Rebound-Effekt auf der Spur: Wenn sparsame Technik nicht zu weniger Energieverbrauch führt 
18.03.2016 Bessere Wassernutzung könnte globale Ernährungslücke halbieren 
16.03.2016 Rheinzufluss mit tropischen Parasiten 
15.03.2016 Unstatistik des Monats: 337 Prozent zu warm! 
12.03.2016 Künstliche Biofilme für ressourcenschonende Biotechnologie 
11.03.2016 Biomasseforschungszentrum zeigt innovative Katalysatoren auf der Woche der Umwelt 
09.03.2016 Spinströme aus Abwärme: Forscherteam legt neue Erkenntnisse über magnetische Spinwellen vor 
08.03.2016 Energie aus der Luft und dem Wasser 
06.03.2016 Einzeller mit Durchblick: Wie Bakterien „sehen“ 
05.03.2016 Bioökonomie als Motor des nächsten Wirtschaftszyklus 
02.03.2016 Kraftstoffe, die keine schädlichen Abgase produzieren 
Gesundheit
28.03.2016 Wenn Patienten googlen, fühlen sie sich gesünder 
23.03.2016 Chemische Substanzen in Verpackungen, Cremes oder Nahrung stören das Hormonsystem 
21.03.2016 Grippe trifft besonders Menschen mittleren Alters 
10.03.2016 Norovirus: Nach der Erkrankung noch zwei Tage zu Hause bleiben 
04.03.2016 Aktuelle Gefühlszustände beeinflussen Tinnitus: Forscherteam nutzt Tinnitus-App für neue Studie
Gesellschaft
29.03.2016 Auch in Doppelverdiensthaushalten: Vollzeiterwerbstätige Frauen leisten mehr Hausarbeit als Männer 
17.03.2016 MYTHOS MÜNDIGER VERBRAUCHER – DER KONSUMENT AUS SICHT DER VERHALTENS- UND HIRNFORSCHUNG 
13.03.2016 Gemeinsamkeiten in Hirnarchitektur 
07.03.2016 Angeln mal ganz wissenschaftlich und trotzdem unterhaltsam 
03.03.2016 Nachhaltige Kommunalentwicklung: Vor allem kleinen Gemeinden fehlt ein Gesamtkonzept 
Februar 2016
Umwelt
Gesundheit  
Gesellschaft
Umwelt
29.02.2016 Demonstration von intelligenter Energiespeicherung und Energiemanagement auf der Insel Borkum
28.02.2016 Thermoelektrik: Abwärme direkt in Strom wandeln 
27.02.2016 Erneuerbare Energien aus organischen Abfällen 
26.02.2016 Gewässerschutz als Thema auf der Woche der Umwelt 2016 
24.02.2016 Eine kompakte Biogasanlage für alle Arten von Substraten 
23.02.2016 Forscher der Uni Rostock wollen Meinung der Bürger zu „ihren“ Gewässern 
20.02.2016 Biogas-Fachgespräch diskutiert effektive Maßnahmen zum Fortbestand von Biogasanlagen 
19.02.2016 Dünger aus Biogasanlagen: Forschungsprojekt soll Einsatzmöglichkeiten verbessern 
18.02.2016 Deutscher Fachkongress für kommunales Energiemanagement 
16.02.2016 Projekt „WaterNeeds“ 
15.02.2016 Angegriffene Meerestiere – Was wir von Schnecken über den Klimawandel lernen können 
14.02.2016 Mit biologischen Abfällen zu nachhaltigen Batterien 
12.02.2016 Biogas flexibler und schneller produzieren 
10.02.2016 Biogas als Stromspeicher: „Künftige Anlagen müssen auch Wind- & Sonnenenergie speichern“ 
09.02.2016 „Clichy-Batignolles“: ein neues Ökoviertel im Herzen von Paris 
08.02.2016 Durchbruch in der Messtechnik: Neuer Hochleistungslaser könnte Wettervorhersage revolutionieren
07.02.2016 Energiewende – Was wir können und was wir wollen 
05.02.2016 Menschgemachter Klimawandel unterdrückt die nächste Eiszeit 
04.02.2016 Studie der Uni Halle: Weltgeschehen beeinflusst Bienenvölker stärker als Pestizide 
01.02.2016 LIFE-Projekt „Lebendige Lahn“ – Hessen, Rheinland-Pfalz und der Bund gemeinsam für mehr Leben 
Gesundheit
21.02.2016 Körpergröße beeinflusst Risiko für Herz-Kreislauf-Erkrankungen, Diabetes, und Krebs 
17.02.2016 Stellenwert des erholsamen Schlafes wird gesellschaftlich nicht hinreichend erkannt 
13.02.2016 Mammographie-Screening: Neues G-BA-Merkblatt veröffentlicht 
11.02.2016 Wann ist ein Vitamin-D-Präparat noch ein Nahrungsergänzungsmittel? 
06.02.2016 Mikroplastikpartikel in Speisefischen und Pflanzenfressern 
03.02.2016 Weniger als die Hälfte der Mädchen in Deutschland gegen krebserregende humane Papillomviren geimpft 
Gesellschaft

25.02.2016

Nicht die Ungleichheit ist das Neue, sondern die Unsicherheit 
22.02.2016 „Moment, hier war ich doch schon!“ – Wie das Gehirn Ortserinnerungen bildet 
02.02.2016 Rente: Deutsche oft deutlich schlechter abgesichert als Österreicher 
Januar 2016
Umwelt
Gesundheit  
Gesellschaft
Umwelt
31.01.2016 Wie die Taiga das Weltklima verändert 
28.01.2016 Wie die Taiga das Weltklima verändert 
24.01.2016 Neue Einsichten in die Folgen von Methanaustritten am Meeresboden 
22.01.2016 Ausbau der Wasserkraft bedroht Biodiversität 
20.01.2016 Erhöhte Giftigkeit durch Wanderschaft? – Invasive Meeresalge verstärkt ihre Abwehrmechanismen
18.01.2016 Neues Messgerät erfasst Stickstoffdioxide im Abgas eines vorausfahrenden Fahrzeugs 
15.01.2016 Sind die Flüsse tropischer Torfsümpfe wirklich CO₂-Schleudern? 
13.01.2016 Wie mikrobielle Stickstoff-Freisetzungen den Klimawandel beeinflussen 
11.01.2016 Wasserqualität in China: Hilfe für den Tai-See 
10.01.2016 Wie Urbakterien heute noch überleben 
07.01.2016 Gewässer- und Bodenschutz – ein neuer Forschungsschwerpunkt an der Ostfalia 
05.01.2016 Mehr Futter für den Feldhamster! Die Deutsche Wildtier Stiftung richtet „Kornkammer“ ein 
04.01.2016 Warum erwärmt sich die innere Antarktis nicht? 
02.01.2016 TU Berlin: Mehr Wissen über urbane Wasserkreisläufe 
Gesundheit
29.01.2016 Ein von jungen Jahren an sportlich aktives Leben schützt Männer vor Muskelschwund im Alter 
26.01.2016 500 Jahre Reinheitsgebot: Die Kelten kannten es nicht – und brauten trotzdem hochwertig 
23.01.2016 Warum reißen Achillessehnen? / Dissertation erforscht Gründe für Achillessehnenrupturen 
17.01.2016 Warnleuchte: Warum die Nutzung von Smartphone und Laptops am Abend für ADHS-Patienten riskant ist 
14.01.2016 Körperliche Aktivität fördert Knochenentwicklung bei Kindern 
09.01.2016 Einflüsse auf die Arbeit von Fachkräften für Arbeitssicherheit 
02.01.2016 Neue Ergebnisse zum Zusammenhang zwischen Kaffeekonsum und Leberkrebsrisiko 
Gesellschaft
30.01.2016 Selbstgemacht schmeckt besser 
24.01.2016 WSI-Tarifarchiv: Tariflöhne und -gehälter 2015: Reale Tarifsteigerungen von 2,4 Prozent 
21.01.2016 Macht Wochenendarbeit unzufrieden? 
19.01.2016 »kicker Archiv«: Fraunhofer IAIS macht 50 Jahre Fußballgeschichte digital verfügbar 
16.01.2016 IMK: Deutsche Wirtschaft bleibt auf Wachstumskurs, Arbeitslosigkeit wächst trotz Zuwanderung kaum 
12.01.2016 Wie frei ist der Wille wirklich? 
08.01.2016 Sinnlose Arbeit ist ein Motivationskiller 
06.01.2016 Lohnt sich die Nutzung sozialer Medien im Berufsleben? 
02.01.2016 Verblüffendes Studienergebnis: „Der Ehrfurchtseffekt“ 

Wissenschaft für Mensch und Umwelt

Bernd Hegen Referat Öffentlichkeitsarbeit
Universität Koblenz-Landau

Das Forschungsprojekt „AufLand: Land-Wasser-Interaktionen unter dem Einfluss neuer anthropogener Stressoren“ der Universität Koblenz-Landau untersucht die Prozesse im Übergangsbereich zwischen Land und Wasser. Unter dem Motto „Ressourcen nutzen – Natur schützen!“ präsentierten die Wissenschaftlerinnen und Wissenschaftler des Forschungsschwerpunktes im Rahmen der Veranstaltungsreihe „Science to Mayence“ ihre Forschungsergebnisse zu aktuellen Umweltthemen.

Land und Wasser sind zwei sehr unterschiedliche Komponenten unserer Umwelt. Die Übergangszonen zwischen Land und Wasser tragen durch ihre hohe Biodiversität, intensive biogeochemische Prozesse und nicht zuletzt durch ihre ästhetische Ausstrahlung zum ökologischen und gesellschaftlichen Wert einer Landschaft bei. Gleichzeitig sind sie sensibel gegenüber Umweltveränderungen und oft stoßen dort nicht nur Wasser und Land, sondern auch Mensch und Umwelt sowie gesellschaftliche Interessengruppen aufeinander. Der von der Forschungsinitiative des Landes Rheinland-Pfalz geförderte Schwerpunkt AufLand fokussiert insbesondere, wie sich Veränderungen in Gewässern auf das angrenzende Landökosystem auswirken. Im Gegensatz zur intensiv beforschten Richtung vom Land aufs Wasser ist das ökologische Wirkungsgefüge für die Richtung vom Wasser aufs Land nahezu unbekannt und wenig verstanden – obwohl gerade diese Richtung entscheidenden Einfluss auf die Qualität wichtiger Ökosysteme nimmt, wie zum Beispiel Auenlandschaften, Wässerwiesen, aber auch alle Uferrandzonen von Flüssen und Seen. Im Rahmen der Veranstaltungsreihe „Science to Mayence“ und unter dem Titel „Ressourcen nutzen – Natur schützen!“ informierte der Forschungsschwerpunkt im Erbacher Hof in Mainz über aktuelle Fragestellungen zum Einfluss von Schadstoffen auf die Umwelt, synthetischen Nanopartikeln und Folgen der Nutzung des Lands durch den Menschen.

Mit dem Format „Science to Mayence“ wird der Wissenstransfer in die Gesellschaft und Politik intensiviert. Forscherinnen und Forscher der Universität Koblenz-Landau kommen in die Landeshauptstadt und präsentieren Vertreterinnen und Vertretern aus Politik, Gesellschaft und Medien profilbildende Forschungsprojekte und -schwerpunkte der Universität Koblenz-Landau.

„AufLand ist interdisziplinär und campusübergreifend angelegt und zeigt eindrucksvoll die Forschungsstärke der Universität im Bereich der Umweltwissenschaften. Von Bedeutung ist insbesondere der Transfer der Forschungsergebnisse in die Gesellschaft hinein. Ich freue mich, dass heute das Projekt der Politik und Bürgergesellschaft in einem innovativen Rahmen vorgestellt wird“, sagte Prof. Dr. Roman Heiligenthal, Präsident der Universität Koblenz-Landau. „Der Forschungsschwerpunkt AufLand ist ein wichtiger Baustein der Forschungsaktivitäten im Profilbereich Umwelt unserer Universität, gerade da es hier um einen klassischen Ökosystemgrenzen überschreitenden Ansatz geht“, hob auch Vizepräsident Prof. Dr. Ralf Schulz hervor.

„Das Schicksal und die Wirkung neuer anthropogener Stressoren in den hochempfindlichen Ökosystemen der Übergangszone zwischen Land und Wasser sind hochaktuelle umweltwissenschaftliche Themen, die uns alle angehen – als betroffene Bürger, als Mitglieder der Gesellschaft oder als verantwortungsbewusste Verbraucher. Die Forschungsinitiative des Landes Rheinland-Pfalz hat maßgeblich dazu beigetragen, dass wir im Rahmen von AufLand diese Themen mit modernsten analytischen und instrumentellen Methoden auf international anerkanntem Niveau erforschen können und dürfen“, bekräftigte Prof. Dr. Gabriele Schaumann, Sprecherin des Forschungsschwerpunktes.

„Die Universität Koblenz-Landau leistet mit ihrer Forschung in den Umweltwissenschaften einen wichtigen Beitrag für das Verständnis des Ökosystems“, sagte der rheinland-pfälzische Minister für Wissenschaft, Weiterbildung und Kultur, Prof. Dr. Konrad Wolf, und führte weiter aus: „Diese Forschungsleistung hat sich sehr dynamisch entwickelt. Ich freue mich über beachtliche Drittmitteleinnahmen, zahlreiche Kooperationen mit der Wirtschaft und den erfolgreichen Wissenstransfer in die Wirtschaft und in die Gesellschaft. Das zeigt, dass die Forschungsarbeiten der Universität Koblenz-Landau in den Umweltwissenschaften ein hohes Ansehen genießen.“

Neben den einführenden Vorträgen von Prof. Dr. Gabriele Schaumann, Prof. Dr. Andreas Lorke, Stellvertretender Sprecher des Forschungsschwerpunkts, Dr. Constanze Buhk und Dr. Carola Winkelmann, Sprecherinnen zweier Teilprojekte, wurde mit dem „Café Science“ der interaktive Diskurs mit den Teilnehmerinnen und Teilnehmern aus Politik, Wirtschaft und Wissenschaft eröffnet. Das Café Science bot an sieben Tischen, korrespondierend mit den Themenschwerpunkten von AufLand, ein Menü aus Hintergrundinformationen zu aktuellen Umweltthemen mit dem Ziel der Diskussion ihrer Bedeutung für Mensch und Umwelt: Wie relevant sind synthetische Nanopartikel für die Umwelt? Welche ökologischen Auswirkungen hat die Stechmückenbekämpfung am Oberrhein? Wie lange ernährt uns der Boden noch? Warum ist genetische Diversität wichtig? Welchen ökologischen und ökonomischen Nutzen hat die historische Wiesenbewässerung in Rheinland-Pfalz? Wie erfolgreich ist die Renaturierung von Fließgewässern in Rheinland-Pfalz? Welche Bedeutung hat der Lebensraum Biofilm?

Im Rahmen des Café Science erhielten die Teilnehmer Gelegenheit, zwei der sieben Themen und deren ökologische und gesellschaftliche Relevanz zu diskutieren. In der „Vernissage Science“ kamen die Diskussionsergebnisse zur Ausstellung. In der abschließenden „Poster & Wein“-Ausstellung stand die Forschungsgruppe den Tagungsteilnehmern für vertiefende Gespräche zur Verfügung.

WEITERE INFORMATIONEN

Forschungsschwerpunkt AufLand
Der umweltwissenschaftliche Forschungsschwerpunkt AufLand wird seit 2008 im Rahmen der Forschungsinitiative des Landes Rheinland-Pfalz gefördert. Durch die Einrichtung und Förderung des Schwerpunktes wurde die dynamische Entwicklung der umweltwissenschaftlichen Forschung in Koblenz und Landau signifikant unterstützt. Aus dem Forschungsschwerpunkt sind inzwischen eine Vielzahl renommierter Forschungsvorhaben und Projekte hervorgegangen, unter anderem die Forschergruppe INTERNANO und mehrere Projekte der Deutschen Bundesstiftung Umwelt und der Europäischen Union. Im Zentrum des Forschungsschwerpunkts stehen Fragen der aktuellen Ökosystem- und Umweltforschung.

Landesforschungsinitiative Rheinland-Pfalz
Die Forschungsinitiative des Landes Rheinland-Pfalz wird durch das Ministerium für Wissenschaft, Weiterbildung und Kultur gefördert und dient der Profilbildung an den Universitäten des Landes. Mit Hilfe der Forschungsinitiative etabliert die Universität Koblenz-Landau neue Forschungsschwerpunkte, die national und international sichtbar sind, und die interdisziplinäre Zusammenarbeit innerhalb ihres Profils Bildung-Mensch-Umwelt ausbauen. Die Forschungsinitiative unterstützt die Universität Koblenz-Landau unter anderem darin, ihre modernen umweltwissenschaftlichen Laboratorien und Feldstationen in Koblenz und Landau aufzubauen und interdisziplinäre Pionierprojekte zu fördern. Dadurch wird die Entwicklung innovativer Forschungsaktivitäten möglich. Die Universität Koblenz-Landau gehört zu den anerkannten Institutionen für interdisziplinäre umweltwissenschaftliche Grundlagenforschung in der internationalen wissenschaftlichen Gemeinschaft.
Es bestehen zurzeit folgende Forschungsschwerpunkte: Land-Wasser-Interaktionen unter dem Einfluss neuer anthropogener Stressoren (AufLand), Kulturelle Orientierung und normative Bindung (Kultur-Norm), Kommunikation-Medien-Politik: Vermittlung, Wahrnehmung und Verarbeitung politisch relevanter Diskurse (KoMePol).

Internet: http://www.uni-koblenz-landau.de

Ansprechpartnerin Forschungsschwerpunkt AufLand:
Institut für Umweltwissenschaften Landau
Rebekka Gerlach
Fortstraße 7
D-76829 Landau

Phone: +49 (0)6341 280 31 521
E-Mail: gerlachr@uni-landau.de
Internet: http://www.uni-koblenz-landau.de/de/aufland

Weitere Informationen:
http://www.uni-koblenz-landau.de/de/aufland

Quelle: idw

(nach oben)


Verstädterung – die historische Ursache für niedrigen Sauerstoffgehalt in vielen Seen Europas

Eberhard Scholz Pressestelle
Universität Bremen

Fachzeitschrift „Proceedings of the National Academy of Sciences“ veröffentlicht Studienergebnisse mit Beteiligung des Instituts für Geographie der Uni Bremen

Mangelnde Sauerstoffkonzentrationen in Seen lassen sich seit mehr als 160 Jahren nachweisen. Die Entwicklung der Städte mit ihren Abwässern sowie der Einsatz von Kunstdünger in der Landwirtschaft haben das ökologische Gleichgewicht der europäischen Seen kontinuierlich verändert. Das haben internationale Wissenschaftler – unter ihnen Geographie-Professor Bernd Zolitschka von der Universität Bremen – in einer Studie nachgewiesen, deren Ergebnisse jetzt in einer Fachzeitschrift „Proceedings of the National Academy of Sciences“ publiziert worden sind. Sie belegt auch, dass die Regeneration der Seen nur langsam voranschreitet.

Bereits seit 1850 entwickeln sich niedrige Sauerstoffkonzentrationen in zahlreichen europäischen Seen. Diese sogenannten Hypoxia sind Folge der Anreicherung von Nährstoffen in den Seen durch von Menschen hervorgerufene Umweltbelastungen – Wissenschaftler sprechen von anthropogener Eutrophierung. Sie stört das ökologische Gleichgewicht der stehenden Gewässer erheblich. Dieser Zustand erfasste seit Beginn des 20. Jahrhunderts viele Seen, lange bevor Kunstdünger großflächig angewandt (1950er Jahre) oder der globale Klimawandel nachweisbar wurde (1970er Jahre). Ein internationales Team von Wissenschaftlern konnte den Wandel der Lebensstile und das damit verbundene Wachstum von Städten (Urbanisation) als Ursache für die niedrige Verfügbarkeit von Sauerstoff in einer großen Anzahl an Seen in Europa nachweisen.

Die Ergebnisse dieser Studie deuten darauf hin, dass ein erhöhter Abwassereintrag seit Beginn des 20. Jahrhunderts die biologische Produktivität in Seen steigerte, was zu einem Anstieg der Sauerstoffzehrung führte. Forscher aus Deutschland, Finnland, Frankreich und Kanada, darunter der Geographie-Professor Bernd Zolitschka von der Universität Bremen, haben jetzt diese Forschungsergebnisse in der renommierten Fachzeitschrift „Proceedings of the National Academy of Sciences“ veröffentlicht. Die Studie basiert auf Arbeiten der „Varve Working Group“ des Internationalen Geosphären-Biosphären Programms, IGBP-PAGES (Past Global Changes), an dem Bernd Zolitschka ebenfalls mitarbeitete.

Ein Hauptverursacher für Sauerstoffmangel sind städtische Abwässer
Die Wissenschaftler haben mögliche Auslöser, darunter klimatische Rahmenbedingungen und historische Landnutzung, und die Sedimentdaten von mehr als 1500 Einzugsgebieten europäischer Seen analysiert. Erstmalig verglichen sie Rekonstruktionen der Flächennutzung und deren zeitliche Entwicklung im kontinentalen Maßstab mit Daten der Sauerstoffzehrung in Seen während der vergangenen 300 Jahre. Somit konnten städtische Abwässer, vor allem das darin gelöste Phosphor, als ursächliche Faktoren für den markanten Anstieg von Hypoxia am Grunde von Seen seit Beginn des 20. Jahrhunderts identifiziert werden.

Ein zweiter Hauptverursacher ist Dünger aus der Landwirtschaft
Die Variationen der regionalen Umweltfaktoren sowie ihre Interaktionen aber auch Unsicherheiten bei den Langzeitstudien stellten eine große Herausforderung bei der Durchführung dieser Untersuchung dar. Dabei ist zu berücksichtigen, dass punktuelle und diffuse Quellen stets gemeinsam zum Nährstoffeintrag in Seen beitragen. Ihre Anteile variieren jedoch in Raum und Zeit. Die vorgestellten Ergebnisse dokumentieren die Bedeutung von punktuellen Einträgen städtischer Abwässer als dominierende Ursache der Eutrophierung in europäischen Seen während der gegenwärtigen Epoche der Erdgeschichte – dem Anthropozän. Allerdings lösten diffuse Nährstoffquellen durch den vermehrten Einsatz von Düngemitteln und die Beseitigung punktueller Nährstoffquellen durch den Bau von Abwasserreinigungsanlagen in den vergangenen Jahrzehnten diese als vorherrschende Eutrophierungsursache in den Industrieländern ab.

Trotz verbessertem Umweltschutz regenerieren sich die Seen nur langsam
Trotz der generellen Umweltverbesserung in den meisten Einzugsgebieten von Seen seit den 1980er Jahren sind die tiefsten Schichten dieser Seen weiterhin sauerstofffrei und die einmal etablierten Hypoxia bleiben bestehen. „Diese sehr langsamen Reaktionszeiten der Seesysteme illustrieren die Bedeutung historischer Landnutzungsstudien, aber auch die Notwendigkeit von Langzeitstrategien zur Erhaltung und Verbesserung der Wasserqualität in Seen“, ist die Quintessenz der Autoren.

Publikation:
„Urban point sources of nutrients were the leading cause for the historical spread of hypoxia across European lakes“. Jenny, J.-P., A. Normandeau, P. Francus, Z.E. Taranu, I. Gregory-Eaves, F. Lapointe, J. Jautzy, A.E.K. Ojala, J.-M. Dorioz, A. Schimmelmann and Bernd Zolitschka. Proceedings of the National Academy of Sciences (PNAS).

Weitere Informationen:
Universität Bremen
Fachbereich Sozialwissenschaften
Institut für Geographie
Prof. Dr. Bernd Zolitschka
Tel.: 0421-218.67150
E-Mail: zoli@uni-bremen.de

Weitere Informationen:
http://www.pnas.org/cgi/doi/10.1073/pnas.1605480113

Quelle: idw

(nach oben)


Warum Frauen und Männer unterschiedlich mit ihrer Gesundheit umgehen

Gabriele Rutzen Presse und Kommunikation
Universität zu Köln

Inwiefern sind Frauen und Männer unterschiedlich gesund? Wie können Gender-Aspekte angemessen in die Forschung integriert werden? Und wie sollten gendergerechte Gesundheitsinformationen aussehen?

Warum Frauen und Männer unterschiedlich mit ihrer Gesundheit umgehen
Internationale ceres-Tagung zum Thema Gender und Gesundheitskompetenz

In den letzten 20 Jahren hat das Konzept der Gesundheitskompetenz in Wissenschaft und Politik enorm an Bedeutung gewonnen. Es beschreibt die Fähigkeit, sich Zugang zu Gesundheitsinformationen zu verschaffen, diese zu verstehen, zu beurteilen und in gesundheitsförderndes Handeln umzusetzen. Allerdings werden die genderbezogenen Besonderheiten von Gesundheitskompetenz trotz teils enormer Unterschiede zwischen Frauen und Männern bislang weder in der Gesundheitspolitik noch im klinischen Alltag oder in der Forschung angemessen berücksichtigt. So kommt es zu einer genderbezogenen Über-, Unter- und Fehlversorgung, weil Unterschiede z.B. in der Symptomatik von Krankheiten, in der Wahrnehmung von Krebsvorsorgemaßnahmen, im Umgang mit Gesundheitsinformationen oder in Ernährung, Lebensweise und Risikoverhalten weitgehend ignoriert werden.

Die internationale ceres-Tagung „Gender-Sensitive Health Literacy – A Future Concept for Public Health?“ versammelte am 27.10.2016 weltweit führende Expert/innen in Köln, um genderbezogene Besonderheiten der Gesundheitskompetenz und -versorgung zu diskutieren und Ansätze für die zukünftige Gestaltung eines gendergerechten Gesundheitswesens zu entwickeln. Referieren werden u.a. Prof. Richard Osborne, PhD (Australien), Prof. Cristine Smith, EdD (USA) und Prof. John Oliffe, PhD, RN (Kanada). Tagungssprache ist Englisch.

Die Veranstaltung wird gemeinsam mit dem Prodekanat für Akademische Entwicklung und Gender der Medizinischen Fakultät der Universität zu Köln sowie der Abteilung für Medizinische Psychologie und Gender Studies der Uniklinik Köln ausgerichtet.

ceres, das Cologne Center for Ethics, Rights, Economics, and Social Sciences of Health, ist ein Zentrum für inter- und transdisziplinäre Forschung, Aus- und Fortbildung sowie Beratung zu gesellschaftsrelevanten Fragen im Bereich der Gesundheit. Es wird getragen von fünf Fakultäten und dem Rektorat der Universität zu Köln.

Quelle: idw

(nach oben)


Leipziger Fachgespräch diskutierte Fragen zum Thema „Gasmanagement von Biogasanlagen“

Paul Trainer M.A. Presse- und Öffentlichkeitsarbeit
Deutsches Biomasseforschungszentrum

Die flexible Erzeugung von Strom aus Biogas stellt in der zukünftigen Energieversorgung einen wichtigen Baustein zum Ausgleich der fluktuierenden erneuerbaren Energiequellen dar. Um dieser Aufgabe gerecht zu werden, müssen sowohl die Biogasproduktion als auch deren Verbrauch abgestimmt, überwacht sowie geregelt werden können. Das Leipziger Biogas-Fachgespräch am 23. November widmete sich daher dem Thema „Gasmanagement von Biogasanlagen“ in vier Vorträgen aus Forschung und Praxis.

Bei der Verstromung am Biogasanlagenstandort ist ein präzises Gasmanagement notwendig. Dies ist einerseits über eine präzise Zustandsbeschreibung wie über eine Prognose des Verhaltens von Gasproduktionsrate, Gasspeicherfüllstand und Gasverbrauchsrate möglich. Aus den Erfahrungen der Praxis zeigt sich jedoch, dass die Füllstandüberwachung der Rohbiogasspeicher in Abhängigkeit der Anlagengröße und Betreibermotivation eine teilweise zu geringe Priorität genießt und das Gasmanagement für einen bedarfsgerechten Anlagenbetrieb angepasst werden muss. Somit sind mit gezielten und einfachen Maßnahmen eine direkte Verbesserung der Biogasspeicherung, -bereitstellung und -verfügbarkeit realisierbar.

Im Rahmen des Biogas-Fachgesprächs am 23. November soll das Thema „Gasmanagement von Biogasanlagen“ anhand von vier Fachvorträgen vorgestellt und vertieft werden. Nach einer thematischen Einordnung wird Mathias Stur vom DBFZ das Forschungsvorhaben MANBIO vorstellen und die Entwicklung von technischen Maßnahmen zur Verbesserung des Gasmanagements von Biogasanlagen demonstrieren. Herr Prof. Jürgen Wiese von der Hochschule Magdeburg-Stendal präsentiert eine Mess- und Automationstechnik für ein optimales Gasmanagement von Biogasanlagen. Nach einer Kaffeepause erläutert Dr. Jürgen Kube, wie sich das Thema „Gasmanagement von Biogasanlagen“ aus Herstellersicht darstellt. Zum Abschluss der Veranstaltung stellt Thomas Heidenreich vom Sächsischen Landesamt für Umwelt, Landwirtschaft und Geologie (LfULG) den aktuellen Stand zur Novellierung der Technischen Anleitung zur Reinhaltung der Luft (TA-Luft) und deren Auswirkungen für Biogasanlagenbetreiber vor. Nach den Vorträgen bietet sich Raum für eine Zusammenfassung und Diskussion der Ergebnisse. Das Fachgespräch wird moderiert von Tino Barchmann (DBFZ).

Smart Bioenergy – Innovationen für eine nachhaltige Zukunft
Das Deutsche Biomasseforschungszentrum arbeitet als zentraler und unabhängiger Vordenker im Bereich der energetischen und stofflichen Biomassenutzung an der Frage, wie die begrenzt verfügbaren Biomasseressourcen nachhaltig und mit höchster Effizienz und Effektivität zum bestehenden und zukünftigen Energiesystem beitragen können. Im Rahmen der Forschungstätigkeit identifiziert, entwickelt, begleitet, evaluiert und demonstriert das DBFZ die vielversprechendsten Anwendungsfelder für Bioenergie und die besonders positiv herausragenden Beispiele gemeinsam mit Partnern aus Forschung, Wirtschaft und Öffentlichkeit. Mit der Arbeit des DBFZ soll das Wissen über die Möglichkeiten und Grenzen einer energetischen und integrierten stofflichen Nutzung nachwachsender Rohstoffe in einer biobasierten Wirtschaft insgesamt erweitert und die herausragende Stellung des Industriestandortes Deutschland in diesem Sektor dauerhaft abgesichert werden – www.dbfz.de.

Wissenschaftlicher Kontakt:
Tino Barchmann
Tel. +49 (0)341 2434-375
E-Mail: tino.barchmann@dbfz.de

Weitere Informationen:
https://www.dbfz.de/presse/pressemitteilungen-2016/leipziger-biogas-fachgespraec…
http://www.leipziger-fachgespraech.de

Quelle: idw

(nach oben)


Vom Rhein nach Westafrika: Biologische Mückenbekämpfung hilft gegen Malaria

Julia Bird Unternehmenskommunikation
Universitätsklinikum Heidelberg

Wissenschaftler des Instituts für Public Health am Universitätsklinikum Heidelberg übertragen Methode zur Stechmückenbekämpfung erfolgreich vom Oberrhein nach Burkina Faso / Manfred Lautenschläger-Stiftung hat das Projekt in den vergangenen drei Jahren mit rund 450.000 Euro gefördert

Eine am Oberrhein bewährte Methode zur Stechmückenbekämpfung kann in Afrika helfen, die durch Moskitos übertragene Tropenkrankheit Malaria einzudämmen. Das ist die Bilanz des Projekts „Ecologic Malaria Reduction for Africa“ (EMIRA) am Institut für Public Health des Universitätsklinikums Heidelberg. Die Manfred Lautenschläger-Stiftung hat das EMIRA-Projekt im westafrikanischen Burkina Faso mit rund 450.000 Euro gefördert. Seit 2013 haben die Wissenschaftler in Zusammenarbeit mit der Kommunalen Aktionsgemeinschaft zur Bekämpfung der Schnakenplage (KABS) e.V. aus Speyer und dem Gesundheitsministerium Burkina Fasos ein biologisches Mittel im Nordwesten des afrikanischen Landes eingesetzt. Dieses tötet Mückenlarven in den Brutgewässern ab und verhindert die Ausbreitung der Überträgermücken.

„In Afrika ist Malaria eine der Haupttodesursachen“, sagt Dr. Ali Sié, Direktor Gesundheitsforschungszentrum Nouna des Gesundheitsministeriums von Burkina Faso, bei einer Pressekonferenz am 18. Oktober 2016 am Universitätsklinikum Heidelberg. Insbesondere bei Kleinkindern kann die Krankheit rasch zu Koma und Tod führen. „Wenn es uns gelingt die Zahl der Mücken zu reduzieren, können wir auch die Malaria zurückdrängen.“

Mückenlarven in Brutgewässern bekämpfen – Malaria-Infektionsgefahr senken
„Der Transfer der Stechmückenbekämpfung vom Oberrhein nach Burkina Faso ist hervorragend geglückt“, so Projektleiter Professor Dr. Rainer Sauerborn, Institut für Public Health am Universitätsklinikum Heidelberg. „Die Anzahl der Stechmücken in den Dörfern ging deutlich zurück.“ Das Larvenvernichtungsmittel Bti, ein Eiweiß aus dem Bodenbakterium „Bacillus thuringiensis israelensis“ wird am Oberrhein bereits seit mehr als 30 Jahren erfolgreich eingesetzt. Das Mittel ist leicht zu handhaben – wichtig für den Einsatz in Afrika. Das Larvizid in Pulverform wird in Wasser gelöst und von den Uferbereichen in die Gewässer gespritzt. „Die Methode ist sicher, sie wirkt zuverlässig nur gegen Mückenlarven und ist unbedenklich für Menschen, andere Tiere oder Pflanzen“, betonte Professor Dr. Norbert Becker, Wissenschaftlicher Direktor der KABS.
Die Anzahl der Übertragungsmücken in den Dörfern haben die Wissenschaftler mithilfe von Lichtfallen gemessen. Die Geräte locken Mücken aus einem relativ kleinen Umkreis an und setzen diese in einem Netzzylinder fest. „Im Labor werden die Mücken gezählt und Art und Geschlecht be-stimmt“, erklärte Sauerborn. Nur die Mückengattung „Anopheles“ und hiervon wiederum nur die weiblichen Tiere übertragen Malaria. „Die Anzahl der weiblichen Anopheles ist ein guter Indikator für das Übertragungsrisiko. Weniger Tiere bedeuten ein geringeres Infektionsrisiko“.

Kosten sparen durch gezielte, sparsame Behandlung
Da eine flächendeckende Behandlung aller stehenden Gewässer und Tümpel in ländlichen Regionen zu teuer für die sehr armen westafrikanischen Länder wäre, haben die Wissenschaftler eine neue selektive Anwendung erprobt: Ein Team des Instituts für Public Health entwickelte zusammen mit Spezialisten für Fernerkundungen des französischen Raumforschungszentrums Centre des Etudes Spatiales (CNES) ein Verfahren, um anhand von Satellitenbildern die von Moskitos bevorzugten Brutstätten ausfindig zu machen. So stellen die Malaria-Mücken bestimmte Ansprüche an Ufervegetation, Lage und Wassertiefe. Anhand dieser Risikokarten wurden die Gewässer gezielt mit dem biologischen Larvenvernichter behandelt. „Die selektive Anwendung des Larvengifts ist ein Novum in der Malariabekämpfung“, erklärte Sauerborn. Im Modelldistrikt konnten die Forscher zeigen, dass die Methode effektiv die Malaria-Mücken bekämpft.

„Damit wird die Behandlung mit weniger als einem Dollar pro Einwohner und Jahr relativ günstig und auch für Länder wie Burkina Faso erschwinglich“, sagte Markus Lautenschläger, Geschäftsführer der Manfred Lauten-schläger-Stiftung. „Wir hoffen, dass wir mit dem Projekt einen weiteren Stein im Kampf gegen Malaria ins Rollen gebracht haben.“

Literatur:
Dambach, P., Traoré, I., Kaiser, A., Sié, A., Sauerborn, R., Becker, N. 2016. Challenges of implementing a large scale larviciding campaign against malaria in rural Burkina Faso – Lessons learned and recommendations derived from the EMIRA project. BMC Public Health

Dambach, P., Schleicher, M., Stahl, H.C., Traoré, I., Becker, N., Kaiser, A., Sié, A., Sauerborn, R., 2016. Routine implementation costs of larviciding with Bacillus thuringiensis israelensis (Bti) against malaria vectors in a district in rural Burkina Faso. Malaria Journal

Dambach, P., Traoré, I., Becker, N., Kaiser, A., Sié, A., Sauerborn, R., 2014b. EMIRA: Ecologic Malaria Reduction for Africa – Innovative tools for integrated malaria control. Glob Health Action 7, 25908.

Dambach, P., Louis, V.R., Kaiser, A., Ouedraogo, S., Sié, A., Sauerborn, R., Becker, N., 2014a. Efficacy of Bacillus thuringiensis var. israelensis against malaria mosquitoes in Northwestern Burkina Faso. Parasit. Vectors 7, 371.

Manuskripte derzeit in Vorbereitung:
Dambach, P., Traoré, I., Becker, N., Kaiser, A., Sié, A., Sauerborn, R., Louis, V.R., Reduction of malaria vector mosquitoes in a large scale intervention trial in rural Burkina Faso using Bti based larval source management.

Dambach, P., Traoré, I., Savadogo, H., Zabré, P., Lelii, S., Becker, N., Kaiser, A., Sié, A., Sauerborn, R., Community perception and acceptability of environmental larviciding against malaria with Bti formulations in Burkina Faso.

Universitätsklinikum und Medizinische Fakultät Heidelberg
Krankenversorgung, Forschung und Lehre von internationalem Rang

Das Universitätsklinikum Heidelberg ist eines der bedeutendsten medizinischen Zentren in Deutschland; die Medizinische Fakultät der Universität Heidelberg zählt zu den international renommierten biomedizinischen Forschungseinrichtungen in Europa. Gemeinsames Ziel ist die Entwicklung innovativer Diagnostik und Therapien sowie ihre rasche Umsetzung für den Patienten. Klinikum und Fakultät beschäftigen rund 12.800 Mitarbeiterinnen und Mitarbeiter und engagieren sich in Ausbildung und Qualifizierung. In mehr als 50 klinischen Fachabteilungen mit ca. 1.900 Betten werden jährlich rund 66.000 Patienten voll- bzw. teilstationär und mehr als 1.000.000 mal Patienten ambulant behandelt. Das Heidelberger Curriculum Medicinale (HeiCuMed) steht an der Spitze der medizinischen Ausbildungsgänge in Deutschland. Derzeit studieren ca. 3.500 angehende Ärztinnen und Ärzte in Heidelberg. www.klinikum.uni-heidelberg.de

Weitere Informationen:
https://www.klinikum.uni-heidelberg.de/Vom-Rhein-nach-Westafrika-Biologische-Mue… Online-Pressemappe mit

Bilderstrecke
https://www.klinikum.uni-heidelberg.de/Institute-of-Public-Health.5358.0.html Institute of Public Health
http://www.manfred-lautenschlaeger-stiftung.de/neuigkeiten.html Manfred Lautenschläger-Stiftung

Quelle: idw

(nach oben)


Welche Autos das Herz am höchsten schlagen lassen

Meike Drießen Dezernat Hochschulkommunikation
Ruhr-Universität Bochum

Volvo ist unangefochten die Nummer eins der Automarken, die von ihren Fahrern am meisten geliebt wird. Audi und BMW folgen mit deutlichem Abstand. Das ist das Ergebnis des Projektteams Testentwicklung um Dr. Rüdiger Hossiep von der Fakultät für Psychologie der Ruhr-Universität Bochum. Die Forscher werten jährlich die Einträge in das Online-Forum „Motor-Talk.de“ aus und beziehen Daten des Kraftfahrzeugbundesamts ein. Ihr Involvement-Index gibt Aufschluss über den emotionalen Wert der 36 in Deutschland verbreitetsten Automarken.

Gewinner des Jahres 2016
Den höchsten Involvement-Zuwachs verzeichnet in diesem Jahr die Marke Land Rover, die sich dadurch gegenüber dem Vorjahr um einen Platz verbessern konnte und nun den vierten Rang belegt. „Ansprechendes Design und gute Markenführung sind hier erfolgreich“, erläutert Hossiep. „Einen beachtlichen Sprung nach vorn hat auch die Marke Alfa Romeo gemacht“, stellt er fest. „Sie hat sich um sieben Plätze verbessert und es damit bis in die Top 10 geschafft.“ Auch Mazda konnte neun Plätze dazugewinnen und liegt jetzt im hinteren Mittelfeld auf Platz 20.

Verlierer des Jahres 2016
Den höchsten Involvement-Verlust verzeichnet wie schon im Vorjahr die Marke Porsche. „Hier schlagen die großen Neuzulassungszahlen – also die zunehmende Popularisierung der Marke – zu Buche“, begründet das Rüdiger Hossiep. Zwar konnte sie den siebten Platz halten, der Vorsprung zum achtplatzierten VW fällt nun aber nur noch hauchdünn aus. Hohe Involvement-Verluste musste auch die Marke Dacia hinnehmen, welche dadurch um neun Plätze abgestürzt ist und jetzt auf dem 31. Rang liegt. Deutlich verloren hat auch die japanische Premiummarke Lexus, die im Ranking um sechs Plätze auf Platz 19 gerutscht ist.

Wie die Bewertung funktioniert

Als Berechnungsgrundlage ziehen die Forscher die Anzahl der Forenbeiträge bei „Motor-Talk.de“ heran, dem größten deutschsprachigen Automobilforum. Für jede Automarke setzten sie die Anzahl der Forenbeiträge mit der jeweiligen Anzahl der in Deutschland zugelassenen Fahrzeuge in Relation – also den Fahrzeugbestand. „Wir gehen grundlegend davon aus, dass die emotionale Bindung eines Autofahrers an sein Fahrzeug desto höher ist, je mehr er darüber spricht“, erklärt Rüdiger Hossiep.
Um die Ergebnisse nicht zu verzerren, werden im Involvement-Index nur die Marken aufgeführt, die in Deutschland häufig zugelassen sind. 36 Marken sind im Ranking vertreten.

Weitere Informationen:
http://www.testentwicklung.de/testverfahren/Fahr/involvement_index.html – Link zu den aktuellen Ergebnissen

Quelle: idw

(nach oben)


Record Biomap: neue Chancen für die Biomethanproduktion in kleinen Biogasanlagen

Paul Trainer M.A. Presse- und Öffentlichkeitsarbeit
Deutsches Biomasseforschungszentrum

Im Rahmen eines neuen EU-Projekts „Record Biomap“ arbeiten Wissenschaftler verschiedener europäischer Forschungseinrichtungen in Kooperation mit Industrieunternehmen an innovativen Lösungen, die Biomethanproduktion zukünftig auch im kleinen und mittleren Leistungsbereich kosteneffizient gestalten zu können. Das Projektkonsortium stellt eine Online-Plattform zum Wissenstransfer vor und sucht innovative Konzepte für kleine Biomethananlagen.

Bisher lohnt sich die Aufbereitung des Biogases zu Biomethan nur in großen Biogasanlagen. Um aber zukünftig auch kleine und mittlere Anlagen energie- und kosteneffizient zu betreiben, wurden im Vorläuferprojekt SE.Biomethane (Laufzeit 1.2.2013 – 30.4.2016) bereits neue Technologien entlang der gesamten Prozesskette, d.h. von der Substrataufbereitung, über die Fermentertechnologie bis hin zur Biogasaufbereitung zu Biomethan entwickelt. Um eine flexiblere Nutzung des Biomethans gegenüber einer vor-Ort-Verstromung von Biogas möglich zu machen, müsse die Biomethanproduktion in kleinen Biogasanlagen (Produktion < 200 Nm³/h Roh-Biogas) nach Ansicht der DBFZ-Wissenschaftler nun weiter ausgebaut werden. So ist der Einsatz als Kraftstoff in landwirtschaftlichen Betrieben ebenso denkbar wie eine Verstromung des Biomethans außerhalb der Biogasanlage mit gleichzeitig hochwertiger Wärmenutzung. Nicht zuletzt kann die Erzeugung von Biomethan auch klimaneutral gestaltet werden und bei Substitution von fossilen Brennstoffen wie z.B. Erdgas einen positiven Klimaeffekt bewirken.

„Mit dem Forschungsvorhabens Record Biomap versuchen wir, die Brücke zwischen Wissenschaft und Industrie zu spannen und aktiv dazu beizutragen, die Technologien kontinuierlich weiterzuentwickeln, marktreif zu machen und an neue Bedingungen anzupassen. Gemeinsam mit unseren schwedischen und polnischen Partnern wollen wir ein europäisches Netzwerk initiieren und damit die Entwicklung sowie die Implementierung kleiner und mittlerer Biomethananlagen vorantreiben. Dafür suchen wir innovative Konzepte“, erläutert Kathrin Bienert, wissenschaftliche Mitarbeiterin am DBFZ und Projektleiterin des Vorhabens.

Um nicht nur die Entwicklungen neuer Technologien sondern auch deren Markteintritt aktiv zu unterstützen sowie Netzwerke aufzubauen, wurde eine Online-Plattform zum Wissenstransfer aufgebaut. So verzeichnet die Webseite www.biomethane-map.eu unter anderem eine interaktive Karte mit europäischen Vertretern aus Industrie und Forschung sowie Fokus auf dem Gebiet der Biogas- bzw. Biomethanproduktion im kleinen und mittleren Maßstab. Diese Plattform bietet den teilnehmenden Institutionen und Unternehmen dabei nicht nur die Möglichkeit zur Präsentation ihrer Technologieansätze, auch die gegenseitige Vernetzung über regelmäßig stattfindende Workshops ist Ziel des Projektes. Darüber hinaus werden über die verfügbaren Informationen zu relevanten Forschungsausschreibungen auch neue multilaterale Kooperationen und internationale Projektkonzepte forciert. Das Projektkonsortium ruft interessierte Firmen und Forschungseinrichtungen ausdrücklich zur Mitarbeit auf und steht für Rückfragen zum Thema als Ansprechpartner zur Verfügung.

Das EU-Vorhaben Record Biomap ist am 1. April 2016 gestartet und läuft bis März 2018. Partner des vom DBFZ koordinierten Vorhabens sind die polnische Universität UWM (Warmińsko-Mazurski) aus Olzstyn und das JTI Swedish Institute of Agricultural and Environmental Engineering aus Uppsala, Schweden.

Weitere Informationen unter: www.biomethane-map.eu

Smart Bioenergy – Innovationen für eine nachhaltige Zukunft
Das Deutsche Biomasseforschungszentrum arbeitet als zentraler und unabhängiger Vordenker im Bereich der energetischen und stofflichen Biomassenutzung an der Frage, wie die begrenzt verfügbaren Biomasseressourcen nachhaltig und mit höchster Effizienz und Effektivität zum bestehenden und zukünftigen Energiesystem beitragen können. Im Rahmen der Forschungstätigkeit identifiziert, entwickelt, begleitet, evaluiert und demonstriert das DBFZ die vielversprechendsten Anwendungsfelder für Bioenergie und die besonders positiv herausragenden Beispiele gemeinsam mit Partnern aus Forschung, Wirtschaft und Öffentlichkeit. Mit der Arbeit des DBFZ soll das Wissen über die Möglichkeiten und Grenzen einer energetischen und integrierten stofflichen Nutzung nachwachsender Rohstoffe in einer biobasierten Wirtschaft insgesamt erweitert und die herausragende Stellung des Industriestandortes Deutschland in diesem Sektor dauerhaft abgesichert werden – www.dbfz.de.

Wissenschaftlicher Kontakt:
Kathrin Bienert
Tel: +49 (0)341 2434-477
E-Mail: kathrin.bienert@dbfz.de

Weitere Informationen:
http://www.biomethane-map.eu
https://www.dbfz.de/presse/pressemitteilungen-2016/record-biomap-neue-chancen-fu…

Quelle: idw

(nach oben)


Auch Männer erkranken an Osteoporose

Holger Ostermeyer Presse- und Öffentlichkeitsarbeit
Universitätsklinikum Carl Gustav Carus Dresden

Am 20. Oktober war Weltosteoporosetag. Die Knochenerkrankung ist heute längst keine klassische Frauenkrankheit mehr. Aufgrund der gestiegenen Lebenserwartung leiden immer mehr Männer unter Osteoporose. Risikofaktoren sind bei Männern bestimmte Krankheiten, verschiedene Medikamente sowie Rauchen und Alkohol. Um dieser Entwicklung entgegenzuwirken, wurde 2015 am Universitätsklinikum Carl Gustav Carus Dresden das „UniversitätsCentrum für Gesundes Altern“ gegründet, das am Weltosteo­porosetag die Öffentlichkeit für diese Krankheit sensibilisieren möchte.

Im Klinikalltag unterstützt das Zentrum die weiblichen wie männlichen Patienten des Dresdner Uniklinikums mit Sportgymnastikkursen, die durch die Stiftung Hochschulmedizin Dresden finanziert werden und bietet eine komplette Diagnostik und moderne Therapie an. Eine neu eingestellte Koordinatorin ist nun Ansprechpartnerin für Patienten und Angehörige. Sie sorgt künftig dafür, dass die Patienten während des Klinikaufenthalts noch zielgerichteter betreut werden können.

Eine Folge der steigenden Lebenserwartung sind instabilere Knochen und damit verbunden eine erhöhte Gefahr von Brüchen. Wenn die Dichte der Knochen deutlich sinkt, sprechen die Experten von Osteoporose – eine Knochenerkrankung, von der immer mehr Menschen betroffen sind. „Osteoporose ist kein reines Frauenproblem“, sagt Prof. Lorenz Hofbauer, Stoffwechselexperte und Direktor des UniversitätsCentrums für Gesundes Altern (UCGA). „Wir wollen den Welt­osteoporosetag dazu nutzen, darauf aufmerksam zu machen, dass zunehmend auch Männer an Osteoporose erkranken.“ Zwar gibt es bei Männern keine wechseljahresbedingte Verschlechterung der Knochenstruktur, aber auch sie verlieren im Alter Knochensubstanz. „Daher raten wir jedem Mann über 70, die Knochendichte messen zu lassen“, so Prof. Hofbauer. „Wir gehen davon aus, dass Risikofaktoren für Osteoporose bei Männern Untergewicht, Rauchen, Alkohol, Diabetes oder auch vorangegangene Brüche sind.“ Hinzu kommen gesundheitliche Vorbelastungen wie rheumatoide Arthritis, eine Parkinsonerkrankung, Multiple Sklerose oder Schlaganfall. Negativ können sich auch dauerhaft eingenommene Medikamente auswirken – etwa das entzündungshemmende Prednisolon oder Säureblocker.

Um Osteoporose entgegenzuwirken, bietet das UCGA Programme zum Muskelaufbau an und rät zu Vorsorgemaßnahmen wie zum Beispiel eine ergänzende Einnahme von Kalzium und Vitamin D. Menschen, die an Osteoporose erkranken und stürzen, ziehen sich dabei deutlich häufiger Knochenbrüche zu. „Stürze im Alter sind meist auf nachlassendes Gleichgewichts- und Balancegefühl, Blutdruckschwankungen, Sehstörungen, und eine eingeschränkte Kognition zurückzuführen. Aber auch verschiedene Medikamente sowie äußere Umstände wie schlecht sitzende Schuhe, Kleidung, nicht angepasste Hilfsmittel und mangelnde Beleuchtung führen gerade in dieser Jahreszeit zu Stürzen“, erklärt Prof. Hofbauer.

Das UniversitätsCentrum für Gesundes Altern widmet sich der Diagnostik und Therapie von Alterserkrankungen und vereint zu diesem Zweck Pflege, Forschung und Lehre unter einem Dach. Ziel des Teams, welches aus Internisten, Neurologen und Psychiatern besteht, ist es, den Senioren ein selbstbestimmtes Leben zu ermöglichen. Zentraler Punkt der Prophylaxe von Stürzen ist das Trainieren von Balance und Gleichgewicht. Außerdem sensibilisieren die Therapeuten Betroffene dafür, gut sitzendes, rutschhemmendes festes Schuhwerk zu nutzen sowie Hilfsmittel wie Gehstock oder Rollator, sowie Brillen zu verwenden.

Koordination für einen reibungslosen Klinikbesuch
Mit einer neuen administrativen Koordinatorin sollen Patienten nun noch zielgerichteter betreut werden. „Silke Müller verfügt über eine ausgewiesene Expertise im pflegerischen Bereich und in der geriatrischen Versorgung. Sie wird als Ansprechpartnerin für ältere Patienten und deren Angehörigen sein und deren Ambulanz- und Klinikbesuche koordinieren“, erklärt Prof. Lorenz Hofbauer. Die Koordinatorin plant gemeinsam mit den zumeist betagten Patienten und deren Angehörigen die Terminkette und sorgt damit für die Umsetzung des sogenannten ‚One Stop Shop‘-Prinzips mit kurzen Wegen, geringen Wartezeiten und direkten Ansprechpartnern. Damit soll den alten Patienten der Aufenthalt im Klinikum so angenehm wie möglich gestaltet werden. Die Koordinatorin wird zukünftig dabei unterstützen, Menschen mit erhöhtem Sturzrisiko bei einer Osteoporose-Vorerkrankung zu identifizieren, um sie und deren Angehörige im Rahmen von Präventionsprogrammen zu beraten. Bei fortgeschrittner Osteoporose steht dem Betroffenen bereits jetzt ein Spektrum individualisierter Therapieverfahren zur Verfügung.

Das UniversitätsCentrum für Gesundes Altern wurde am 1. Dezember 2015 gegründet. Ziel ist es, die gegenwärtige Versorgungsqualität und Patientensicherheit älterer Patienten zu verbessern. Dies geschieht in interdisziplinären Fallkonferenzen, in der verbesserten Zusammenarbeit der Bereiche Diagnostik und Therapie sowie durch die Förderung von klinischer Forschung und Grundlagenforschung im Bereich altersassoziierter Erkrankungen. Dabei wird neben der reinen geriatrischen Gesundheitsversorgung auch ein spezieller Fokus auf präventive Maßnahmen gelegt.

Kontakt für Patienten
Universitäts-Centrum für Gesundes Altern
Zentrumskoordinatorin: Silke Müller
Tel. 0351/ 458 18858
E-Mail: gesundalt@uniklinikum-dresden.de

Kontakt für Journalisten
Universitätsklinikum Carl Gustav Carus Dresden
Medizinische Klinik und Poliklinik III
Universitäts-Centrum für Gesundes Altern
Prof. Dr. med. Lorenz Hofbauer
Tel. 0351/ 458 4309
E-Mail: lorenz.hofbauer@uniklinikum-dresden.de

Weitere Informationen:

http://www.uniklinikum-dresden.de

Anhang
Pressemitteilung
https://idw-online.de/de/attachment51320

Quelle: idw

(nach oben)


Im Regenwald sorgt Regen für neuen Regen

Dr. Susanne Benner Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Chemie

Im Amazonasgebiet bringt Abwind bei Niederschlag Aerosolpartikel aus großen Höhen herunter in die Luftschicht, aus der Wolken entstehen.

In einer gemeinsamen Studie haben Wissenschaftler untersucht, wie sich Wolken und damit Regen über dem Amazonasregenwald entwickeln. Sie fanden heraus, dass dort winzige Aerosolpartikel, die anschließend zu Wolkenkeimen werden, aus höheren atmosphärischen Schichten in die Luftschicht gebracht werden, aus der Wolken entstehen. Dafür sorgen die Abwinde, die bei Regen entstehen. Regen ist im Amazonaswald also die Voraussetzung für neuen Regen. Da es in diesem Gebiet keine Aerosol-partikel aus anthropogenen Quellen gibt, könnten diese Erkenntnisse erklären, wie Wolken und Niederschlag vor der Industrialisierung der Erde entstanden.

Damit Feuchtigkeit in der Luft kondensieren kann und sich so Wolken bilden, braucht es Aerosolpartikel. Manche Partikel wie Mineralstaub, Seesalze oder Pollen werden direkt von der Erde an die Luft abgegeben. Die meisten aber entstehen erst aus Gasen in der Atmosphäre und sind zunächst nur wenige Millionstel Millimeter groß. Anschließend wachsen sie durch Kondensation so lange, bis sie zu größeren Kondensationskeimen werden, an denen sich Nebel, Wolken und Niederschlag bilden können.

Welcher Mechanismus hinter der Neubildung der kleinen Partikel steckt, wissen Forscher für dichtbesiedelte Gebiete recht genau: Verbrennungsprozesse setzen Schwefeldioxid frei, aus dem wiederum Schwefelsäurepartikel entstehen.

Nicht so im Amazonasregenwald. In dem Gebiet, das zu den unberührtesten Regionen der Erde zählt, fehlen die Schwefelsäurepartikel aus anthropogenen Quellen, und die Atmosphäre ist in der Regenzeit meist beinahe so sauber wie vor der Industrialisierung. Daher hat ein internationales Team von Wissenschaftlern an einem abgelegenen Ort mitten im Urwald untersucht, woher dort die Vorläufer der Wolkenkeime stammen. Denn das könnte helfen, die Frage zu klären, wie in vorindustrieller Zeit Wolken und Niederschlag entstanden sind.

Die Wissenschaftler, darunter auch Forscher der beiden Max-Planck-Institute für Chemie und für Biogeochemie, konnten zeigen, dass über dem Regenwald Abwinde für den Transport der feinsten Partikel verantwortlich sind. Diese Winde, die sich meist im Zusammenhang mit Niederschlag bilden und räumlich begrenzt sind, befördern die winzigen Teilchen aus der oberen Troposphäre aus einer Höhe von mehreren Kilometern nach unten. So versorgen sie die bodennahe Schicht, die atmosphärische Grenzschicht, mit Aerosolpartikeln. Aus dieser Schicht heraus, die über dem Regenwald nur etwa ein bis zwei Kilometer hoch ist, entstehen Wolken und später Niederschlag.

„Im Regenwald liegt die Kinderstube der kleinen Aerosolpartikel nicht in den unteren Kilometern der Atmosphäre, wie es in belasteten Gebieten der Fall ist, sondern in viel größeren Höhen“, kommentiert Christopher Pöhlker, Gruppenleiter am Max-Planck-Institut für Chemie in Mainz die Messergebnisse, die in der aktuellen Ausgabe des Wissenschaftsmagazins Nature veröffentlicht werden.

Darin erläutern die Forscher, wie sie die Größenverteilung der Aerosolpartikel über dem Regenwald bestimmt haben. Sie nutzen dazu einerseits die ATTO-Messstation (Amazon Tall Tower Observatory), die sich 150 Kilometer nordöstlich von Manaus inmitten des Urwalds befindet und gemeinsam von der Max-Planck-Gesellschaft und dem brasilianischen Institut für Amazonas-forschung INPA betrieben wird. In einer Höhe von 60 Metern und somit deutlich über den Baumkronen sammelten sie kontinuierlich Luftproben. Ein Partikelsammler bestimmte anschließend die Anzahl und Größe der Aerosolpartikel. Die Partikelverteilung in einer Höhe von 60 Metern ist dabei charakteristisch für die Verteilung in der atmosphärischen Grenzschicht, da diese Luftschicht in sich gut durchmischt ist.

Außerdem überflogen die Wissenschaftler mit einem Forschungsflugzeug das Gebiet in unterschiedlichen Höhen und zu unterschiedlichen Zeiten. An Bord des Flugzeugs, einer Gulfstream-1 des US-amerikanischen Energieministeriums, befand sich ein Lufteinlasssystem, über das die Partikel zu einem Mess-instrument gelangten, das ebenfalls die Anzahl und Größe bestimmte.

Abwinde bringen die Vorläufer der Wolkenkeime in bodennahe Grenzschichten
Mit Hilfe des Messflugzeugs stellten die Wissenschaftler fest, dass die Konzentration an Partikeln, die kleiner als 50 Nanometer (Millionstel Millimeter) waren und somit zu den kleinsten Partikeln zählen, in der mittleren und oberen Troposphäre sehr hoch ist. An der Bodenmessstation registrierten sie, dass die Anzahl dieser kleinen Partikel nach Regen oder Sturm deutlich höher war als zuvor. Während vor dem Zeitpunkt des Niederschlags die durchschnittliche Partikelgröße deutlich über 100 Nanometer lag, sank sie direkt nach dem Niederschlag auf unter 50 Nanometer. Daraus schließen die Forscher, dass Abwinde, wie sie bei Regen oder Gewittern auftreten, die kleinen Aerosolpartikel aus der oberen Troposphäre in die bodennahe Grenzschicht befördern. In dieser Schicht wachsen die Partikel zu größeren heran, an denen Feuchtigkeit kondensieren kann, wodurch sich wiederum Wolken bilden. Man kann also sagen, dass der Regen im Amazonasgebiet dafür sorgt, dass neuer Regen entstehen kann.

Als nächstes werden die Forscher der Frage nachgehen, woher genau die kleinen Aerosolpartikel in der Troposphäre stammen. Allerdings haben sie bereits eine Vermutung, die sie aus noch unveröffentlichten Messungen mit dem deutschen Forschungsflugzeug HALO über dem Amazonas ableiten: „Diese Partikel stammen wahrscheinlich aus chemischen Reaktionen in der oberen Troposphäre“, sagt Meinrat O. Andreae, Direktor am Max-Planck-Institut für Chemie in Mainz. „Wenn es uns gelingt, dies zu belegen, sind wir einen großen Schritt weiter im Verständnis, wie Niederschlagsprozesse abliefen, bevor der Mensch irreversibel die Natur und auch die Atmosphäre verändert hat“, fügt er mit Blick auf das Anthropozän, das Zeitalter des Menschen, hinzu.

Die Ergebnisse des Forscherteams aus Brasilien, China, Deutschland, Finnland, Schweden und den USA haben aber noch eine weitere wichtige Bedeutung: In den Computermodellen, die den Klimawandel berechnen und vorhersagen, spielen Aerosolpartikel eine wichtige Rolle. Gleichzeitig sind die Teilchen noch einer der größten Unsicherheitsfaktoren in den Modellen, da man bisher nur eingeschränkt verstand, wie sie unter natürlichen Bedingungen entstehen. Die neuen Erkenntnisse über den Transport der kleinen Vorläufer der Wolkenkeime über dem Regenwald werden also dazu beitragen, die Vorhersagen des Klimawandels noch zuverlässiger zu machen.

Originalpublikation
Jian Wang, Radovan Krejci, Scott Giangrande, Chongai Kuang, Henrique M. J. Barbosa, Joel Brito, Samara Carbone, Xuguang Chi, Jennifer Comstock, Florian Ditas, Jost Lavric, Hanna E. Manninen, Fan Mei, Daniel Moran-Zuloaga, Christopher Pöhlker, Mira L. Pöhlker, Jorge Saturno, Beat Schmid, Rodrigo A. F. Souza, Stephen R. Springston, Jason M. Tomlinson, Tami Toto, David Walter, Daniela Wimmer, James N. Smith, Markku Kulmala, Luiz A. T. Machado, Paulo Artaxo, Meinrat O. Andreae, Tuukka Petäjä, and Scot T. Martin:
Vertical transport during rainfall sustain aerosol concentration in Amazon boundary layer, Nature, 2016, 10.1038/nature19819

Kontakt
Prof. Dr. Meinrat O. Andreae
Max-Planck-Institut für Chemie
Telefon: 06131-3056000
E-Mail: m.andreae@mpic.de

Dr. Christopher Pöhlker
Max-Planck-Institut für Chemie
Telefon: 06131-3054800
E-Mail: c.poehlker@mpic.de

Dr. Jošt V. Lavrič
Max-Planck-Institut für Biogeochemie
Tel: 03641-57 6368
E-Mail: jlavric@bgc-jena.mpg.de

Weitere Informationen:
http://www.mpic.de/aktuelles/pressemeldungen/news/imregenwaldsorgtregenfr.html

Quelle: idw

(nach oben)


Uni-Studie untersucht Methoden zur Feststellung von Ängstlichkeit bei Kindern

Petra Giegerich Kommunikation und Presse
Johannes Gutenberg-Universität Mainz

Wissenschaftliche Studie erforscht, ob Fragebögen Ängstlichkeit bei Kindern zuverlässig erfassen können – Noch Studienteilnehmer gesucht

Das Psychologische Institut der Johannes Gutenberg-Universität Mainz (JGU) startet eine neue Studie, um herauszufinden, mit welchen Methoden man Ängstlichkeit bei Kindern zuverlässig erkennen kann und ob die Berücksichtigung nonverbaler Ausdrucksformen wie beispielsweise des Gesichtsausdrucks zu einem genaueren Eindruck führt. Eigentlich gelten in der klinischen Diagnostik Fragebögen als Mittel der Wahl. „Dabei ist es gar nicht sicher, ob Fragebögen auch wirklich geeignet sind, um das psychische Wohlergehen von Kindern und Jugendlichen zu erfassen. Besonders jüngere Kinder haben Schwierigkeiten, abstraktere Zustände und Gefühle in Worte zu fassen“, erklärt Aleksandra Kaurin, die die Studie an der Abteilung für Klinische Psychologie und Neuropsychologie unter der Leitung von Prof. Dr. Michèle Wessa durchführt. Für diese Studie werden noch Kinder im Alter zwischen 7 und 13 Jahren mit und ohne Angststörungen zusammen mit ihren Müttern bzw. Vätern gesucht.

Erfahrene Versuchsleiter werden die jungen Teilnehmerinnen und Teilnehmer bei der Studie einem sozialen Stresstest und einer psychologischen Testung unterziehen. Im Vorfeld werden die Eltern telefonisch über Ereignisse im Alltag des Kindes befragt. Für die Teilnahme wird eine Aufwandsentschädigung von 50 Euro entrichtet. Interessenten können sich mit der Studienleiterin Aleksandra Kaurin unter der E-Mail-Adresse alkaurin@uni-mainz.de oder der Telefonnummer 06131 39-39216 in Verbindung setzen.

Weitere Informationen:
Aleksandra Kaurin (M. Sc.)
Abt. Klinische Psychologie und Neuropsychologie
Psychologisches Institut
Johannes Gutenberg-Universität Mainz
55099 Mainz
Tel. +49 6131 39-39216
E-Mail: akaurin@uni-mainz.de
http://www.clinical-psychology-and-neuropsychology.uni-mainz.de/department-membe…

Weitere Links:
https://www.klinische-psychologie-und-neuropsychologie.uni-mainz.de/
https://www.klinische-psychologie-und-neuropsychologie.uni-mainz.de/forschung/ae…

Quelle: idw

(nach oben)


Aquakultur: Klares Wasser dank Kork

Annette Siller Presse- und Öffentlichkeitsarbeit
Technologie Lizenz-Büro (TLB) der Baden-Württembergischen Hochschulen GmbH

Die Überfischung der Weltmeere ist ein globales Problem. Einen Ausweg liefert die Aquakultur, die schon heute mehr als die Hälfte der weltweit verzehrten Menge an Fisch liefert.
Mit einem jährlichen Wachstum von acht Prozent ist die Branche ein Zukunftsmarkt – die aber auch Umwelt- und Qualitätsstandards permanent überprüfen und verbessern muss.
Experten der Fischereiforschungsstelle des Landwirtschaftlichen Zentrums Baden-Württemberg haben einen Futterzusatz entwickelt, der sich sehr gut für die Produktion in der Aquakultur eignet.
Die TLB GmbH Die Technologie-Lizenz-Büro (TLB) GmbH ist mit der weltweiten wirtschaftlichen Umsetzung dieser Erfindung beauftragt.

Die Überfischung der Weltmeere ist ein globales Problem. Politik, Wirtschaft, Gesellschaft – sie alle sind gefordert, eine Lösung für die weltweit steigende Nachfrage nach Fisch bei schwindenden Ressourcen zu suchen. Dies zeigte sich vor kurzem wieder, als die Fischereiminister der EU eine spürbare Reduzierung der Dorsch-Fangquoten in der Ostsee beschlossen, um die Bestände nicht weiter zu gefährden.
Der enorme Druck auf die Wildfischbestände muss verringert werden. Einen Ausweg aus dem Dilemma liefert die Aquakultur, die schon heute mehr als die Hälfte der weltweit verzehrten Menge an Fisch liefert. Mit einem jährlichen Wachstum von acht Prozent ist die Branche ein Zukunftsmarkt – die aber auch Umwelt- und Qualitätsstandards permanent überprüfen und verbessern will und muss.

So ist derzeit ein Umdenken nötig. Denn die Fischfütterung in der Aquakultur – sowohl im Meer als auch in Teichen – kann sich negativ auf die Wasserqualität auswirken. An diesem zentralen Punkt setzt die Fischereiforschungsstelle des Landwirtschaftlichen Zentrums Baden-Württemberg an. Die Experten des Instituts haben einen Futterzusatz entwickelt, der sich sehr gut für die Produktion in der Aquakultur eignet.
Die Erfindung löst ein Hauptproblem der Fischerzeugung: die Eintrübung des Wassers durch Fäkalien. Denn trübes Wasser führt zu Krankheiten und Wachstumsproblemen bei den Fischen, belastet die Umwelt und gefährdet insbesondere bei modernen geschlossenen Anlagen die Systemstabilität.

Das Besondere an dem neu entwickelten Fischfutter ist die Beimischung von Kork. Dem Futter werden kleinste Korkpartikel zugesetzt, die sich unverdaut in den Ausscheidungen anreichern und den ausgeschiedenen Kot an die Wasseroberfläche schwimmen lässt, wo er leicht quantitativ abgeschöpft werden kann. Der Kork-Zusatz ist für die Fische unschädlich und gleichzeitig umweltfreundlich, da die gewonnenen Ausscheidungen der Fische direkt als Dünger Verwendung finden. In Aquakulturen werden die Filtersysteme weniger belastet und die Reinigungszyklen können signifikant verlängert werden.

Das Futter ist auch für den Einsatz in Aquaponik-Systemen geeignet, weil die Ausscheidungen dann mit geringem Aufwand zur Düngung der Pflanzen verwendet werden können.

Die Patente für diese Erfindungen wurden in Norwegen, Dänemark, Frankreich, Großbritannien und Deutschland erteilt. In Kanada und Chile wurde das Patent angemeldet. Die Technologie-Lizenz-Büro (TLB) GmbH ist mit der weltweiten wirtschaftlichen Umsetzung der Erfindung beauftragt und bietet Unternehmen Möglichkeiten der Zusammenarbeit oder Lizenzierung.

Für weitere Informationen:
Anne Böse (boese@tlb.de).

Weitere Informationen:

http://www.tlb.de
http://www.lazbw.de/pb/,Lde/Startseite/Fischereiforschungsstelle

Quelle: idw

(nach oben)


TU Berlin: Mit feinkörnigem Eisenhydroxid Schwermetalle aus Wasser entfernen

Stefanie Terp Stabsstelle Presse, Öffentlichkeitsarbeit und Alumni
Technische Universität Berlin

Durch die Kombination verschiedener Verfahren bei der Wasserreinigung sollen Ressourcen und Energie gespart werden

In höheren Konzentrationen wirken Schwermetalle toxisch auf Mensch und Umwelt. Im Wasser vieler Flüsse, Seen und im Grundwasser treten die Schadstoffe natürlicherweise auf oder wurden durch den Menschen eingetragen. Sie zu entfernen, ist mit großem Aufwand an Betriebsmitteln und Energie verbunden. An einem neuen Verfahren hierzu forscht nun das deutsch-israelische Kooperationsprojekt „Entfernung organischer Wasserschadstoffe durch neuartige Hybridprozesse mit Adsorption und Filtration“ (AdsFilt): Die Wissenschaftler kombinieren unterschiedliche Verfahren und setzen dabei feinkörnige eisenhaltige Materialien ein. Diese binden die Schwermetalle schnell und lassen sich inzwischen auch wieder leicht und vollständig abtrennen.

In der Trinkwassergewinnung werden an vielen Standorten grobe Granulate aus Eisen-Hydroxiden eingesetzt. Da bei der Herstellung dieser Granulate kleine Partikel in erheblichen Mengen anfallen und diese aufgrund ihrer großen Oberfläche Schadstoffe besonders gut aufnehmen, würde es sich lohnen, sie ebenfalls einzusetzen. Bislang war dies jedoch nicht möglich, da feine Partikel in Wasser als Suspension vorliegen und nicht wieder abgetrennt werden konnten. Das Verbundprojekt AdsFilt erforscht und entwickelt nun neue Hybridverfahren, in denen sehr kleine Partikel die Schwermetalle aus dem Wasser binden und anschließend durch Filter oder Membranen vollständig abgetrennt werden.

Sollte es gelingen, die eisenhaltigen pulverförmigen Adsorptionsmittel in Hybrid-Prozessen erfolgreich einzusetzen, könnten erhebliche Mengen an Ressourcen und Energie eingespart werden. Außerdem könnten diese Hybrid-Verfahren mit weiteren Prozessen kombiniert werden, wie der Entfernung organischer Schadstoffe durch Pulveraktivkohle. Weitere Ziele des Projektes sind die Rückgewinnung und Regeneration der Partikel sowie die Rückgewinnung der Schwermetalle. Im späteren Projektverlauf wird die neu entwickelte Verfahrenstechnik unter realen Bedingungen an einem kontaminierten Standort erprobt.

AdsFilt ist ein Kooperationsprojekt der TU Berlin, Fachgebiet Wasserreinhaltung, mit dem Israel Institute of Technology in Haifa (TECHNION). Es wird im Rahmen der deutsch-israelischen Kooperation in der Wassertechnologieforschung vom Bundesministerium für Bildung und Forschung (BMBF) sowie vom israelischen Wissenschaftsministerium (MOST) gefördert.

Weitere Informationen erteilt Ihnen gern:
Prof. Dr. Martin Jekel
TU Berlin
Fachgebiet Wasserreinhaltung
Tel. 030-314-25058
martin.jekel@tu-berlin.de

Quelle: idw

(nach oben)


Forschungsprojekt HypoWave: neuer Ansatz für Wasserwiederverwendung in der Landwirtschaft

Melanie Neugart Wissenskommunikation und Öffentlichkeitsarbeit
ISOE – Institut für sozial-ökologische Forschung

Regionale Konkurrenzen um die Ressource Wasser sind keine Seltenheit. Durch Klimawandel, Urbanisierung und Verschmutzung der Wasserressourcen könnten sich Nutzungskonflikte in den nächsten Jahrzehnten noch verschärfen. Deshalb sind neue Verfahren für die Wasseraufbereitung und Wasserwiederverwendung sinnvoll. In dem vom Bundesministerium für Bildung und Forschung (BMBF) geförderten Projekt „HypoWave“ wird jetzt ein wassersparendes Konzept für die Landwirtschaft unter-sucht: die hydroponische Pflanzenproduktion unter Verwendung von aufbereitetem Abwasser.

Besonders in wasserarmen Regionen beansprucht die landwirtschaftliche Produktion nicht selten den Großteil des vorhandenen Wassers. Große Mengen der knappen Ressource verdunsten dabei oder versickern in der Erde. Der Vorteil einer hydroponischen Pflanzenproduktion, wie man sie entfernt auch von Hydrokulturen bei Zimmerpflanzen kennt, liegt zunächst im geringen Wasserverbrauch. Die Pflanzen werden über eine Nährlösung in Pflanzgefäßen ohne Erde versorgt. Dabei versickert kein Wasser und es verdunstet nur wenig.

Im jetzt gestarteten Verbundprojekt „Einsatz hydroponischer Systeme zur ressourceneffizienten landwirtschaftlichen Wasserwiederverwendung (HypoWave)“ untersucht ein interdisziplinäres Team, wie die Effizienz dieser hydroponischen Pflanzenproduktion durch die Nutzung von kommunalem Abwasser für die Bewässerung noch erhöht werden kann. „Die abwassertechnische Innovation besteht darin, die Aufbereitung des Bewässerungswassers gezielt auf eine optimale Nährstoffverwertung der Pflanzen auszurichten“, sagt Projektleiter Thomas Dockhorn vom Institut für Siedlungswasserwirtschaft der Technischen Universität Braunschweig. Gleichzeitig garantiere die angepasste Abwasseraufbereitung eine hohe Produktqualität, die weitgehend frei ist von Schwermetallen, organischen Spurenstoffen oder pathogenen Keimen.

Pilotanlage in Wolfsburg: Marktfähige landwirtschaftliche Produktion der Zukunft?
Dazu wird zunächst eine Pilotanlage zur Wiederverwendung des gezielt aufbereiteten kommunalen Abwassers in einem hydroponischen Gewächshaussystem auf der Kläranlage Hattorf in der Nähe von Wolfsburg errichtet. Neben dem erstmaligen Einsatz einer biologisch abbaubaren Folie zur Verringerung der Wasserverdunstung oberhalb des Wurzelraumes der Pflanzen sollen außerdem die technischen Abläufe, die Pflanzenproduktion, die Wirtschaftlichkeit der Anlage sowie die Qualität der erzeugten Produkte untersucht werden. „Wichtig ist dabei auch, zu ermitteln, wie die konkrete Vernetzung zwischen Siedlungswasserwirtschaft und Landwirtschaft gelingen kann, damit das Konzept tragfähig wird“, sagt Martina Winker vom Projektpartner ISOE – Institut für sozial-ökologische Forschung in Frankfurt.

In einem zweiten wichtigen Schritt wird das Potenzial und die Marktfähigkeit eines solchen Konzeptes mithilfe von Fallstudien im Inland (u. a. Hessisches Ried) und in der Grenzregion zwischen Belgien und Deutschland sowie im portugiesischen Évora untersucht. Im Zuge der Forschungsarbeiten werden auch die möglichen Akteure solcher Systeme über einen Stakeholderdialog in das Forschungsprojekt eingebunden. Daraus ergeben sich Hinweise auf die Marktpotenziale für die hydroponische Landwirtschaft unter Verwendung von aufbereitetem Abwasser. „Die Lösungen müssen ökologisch und ökonomisch tragfähig sein“, fasst Projektleiter Dockhorn zusammen, „denn Ziel ist, dass diese Form der Wasserwiederverwendung in der Landwirtschaft dazu beitragen kann, langfristig das lokal knapper werdende Angebot der Ressource Wasser zu erhöhen.“

Das Forschungsprojekt HypoWave
Das Verbundprojekt „Einsatz hydroponischer Systeme zur ressourceneffizienten landwirtschaftlichen Wasserwiederverwendung (HypoWave)“ wird vom Bundesministerium für Bildung und Forschung (BMBF) gefördert. Die Projektpartner im Forschungsverbund unter der Leitung der Technischen Universität Carolo-Wilhelmina zu Braunschweig, Institut für Siedlungswasserwirtschaft (ISWW), sind das ISOE – Institut für sozial-ökologische Forschung, das Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik IGB, die Universität Hohenheim (UHOH), der Abwasserverband Braunschweig (AVB), WEB – Wolfsburger Entwässerungsbetriebe, ACS-Umwelttechnik GMBH & Co. KG, aquadrat ingenieure (a2i), aquatectura – studios for regenerative landscapes, aquatune – Dr. Gebhardt & Co. GmbH, BIOTEC Biologische Naturverpackungen GmbH und Co. KG sowie Xylem Services GmbH (Xylem). Die dreijährige Laufzeit von HypoWave endet am 31. August 2019.

Projektleitung
Technische Universität Braunschweig, Institut für Siedlungswasserwirtschaft
Prof. Dr.-Ing. Thomas Dockhorn
Pockelsstr. 2a
38106 Braunschweig
Tel. + 49 531 391-7937
t.dockhorn@tu-braunschweig.de
www.tu-braunschweig.de/isww

Anhang
Pressemitteilung HypoWave

Quelle: idw

(nach oben)


EU fördert Projekt zum Hochwasserrisikomanagement mit 6,9 Millionen Euro

Anke Westwood Presse & Kommunikation
Jade Hochschule – Wilhelmshaven/Oldenburg/Elsfleth

Seit der Besiedlung der Flachküsten in Nordwestdeutschland waren Hochwasser und Sturmfluten Themen, die die Existenz bestimmen. Über Jahrhunderte wurden Deiche gebaut und effiziente Entwässerungssysteme entwickelt, die vor Sturmfluten schützten und Binnenhochwässer in die Nordsee abführten. Erfahrungen haben zu einer Verbesserung dieser Systeme sowie zu einem subjektiven Gefühl der Sicherheit geführt. Die Umsetzung der EU-Hochwasserrisikomanagement-Richtlinie sowie Projektionen des zu erwartenden Klimawandels machen jedoch deutlich, dass es keinen einhundertprozentigen Schutz vor Extremereignissen geben kann. Umso wichtiger ist es, die verbleibenden Hochwasserrisiken zu managen.

Vor diesem Hintergrund hat das Referat Forschung & Transfer der Jade Hochschule zusammen mit dem Lead Partner Provincie Zuid Holland und in Kooperation mit Projektpartnern aus dem Nordseeraum (Niederlande, Belgien, Dänemark und Großbritannien) sowie der Universität Oldenburg und dem Oldenburgisch-Ostfriesischen-Wasserverband OOWV die Idee zum Projekt FRAMES (Flood Resilient Areas by Multi-layEred Safety) entwickelt. Im Rahmen des Nordseeprogramms der Europäischen Union „Interreg Vb“ wird FRAMES von 2016 bis 2019 mit insgesamt 6,9 Millionen Euro gefördert.

Zielregion der Forschungsaktivitäten der Jade Hochschule ist die Wesermarsch, die zu einem großen Teil unter dem Meeresspiegel liegt. Projektleiter Prof. Dr. Helge Bormann will integrative Lösungsansätze des Entwässerungsmanagements entwickeln sowie das Katastrophenmanagement analysieren und unterstützen. Schwachstellen sollen identifiziert und Informationslücken geschlossen werden. „Das Projekt ergänzt die Aktivitäten des KLEVER Projekts, das im Rahmen der Deutschen Anpassungsstrategie an den Klimawandel durch das Bildungsministerium für Umwelt, Naturschutz, Bau und Reaktorsicherheit gefördert wird und die bestehenden Entwässerungssysteme im Nordwesten unter die Lupe nimmt“.

Gemeinsam mit den Kollegen der Universität Oldenburg, des OOWV und der europäischen Partner soll in den jeweiligen Pilotregionen durch beispielhafte Aktivitäten die Resilienz gegenüber Hochwasser erhöht werden. „Der technische Hochwasserschutz allein reicht dazu heutzutage nicht mehr aus. Er muss durch Maßnahmen in den Bereichen hochwasserangepasste Planung, Katastrophenmanagement und Nachsorge ergänzt werden“, erklärt Bormann. Das im FRAMES Projekt angewendete Prinzip der „Multi-layEred Safety“ trägt diesen aktuellen Erfordernissen Rechnung.

Weitere Informationen:

https://www.jade-hs.de/jadewelt/forschung/detailseite/?tx_ttnews%5Btt_news%5D=43…
KLEVER Projekt

Quelle: idw

(nach oben)


Nicht nur bei Übergewicht: Bewegung als Medikament

Prof. Dr. Eckart Fleck Pressesprecher
Deutsche Gesellschaft für Kardiologie – Herz- und Kreislaufforschung e.V.

Die Ergebnisse zahlreicher Studien zeigen, dass regelmäßige Bewegung das Risiko von Herz-Kreislauferkrankungen reduzieren und das Leben verlängern kann. Wichtige Voraussetzungen für wirksames Training sind eine kardiologische Abklärung und sinnvolle Trainingspläne, betonten Experten im Rahmen der DGK Herztage in Berlin.

„Bewegung ist die Medizin des 21. Jahrhunderts. Umgekehrt gehört Bewegungsmangel weltweit zu den wichtigsten vermeidbaren Todesursachen“, betonte Dr. Susanne Berrisch-Rahmel, CardioCentrum Düsseldorf, heute im Rahmen der DGK-Herztage in Berlin. „Diese Entwicklung wird Folgen haben. Übergewicht alleine ist zwar kein gesicherter Risikofaktor für die koronare Herzkrankheit, wohl aber für Diabetes Typ 2. Und Diabetes erhöht das Risiko von Herz-Kreislauferkrankungen.“

In Deutschland beträgt der Anteil der Übergewichtigen in der erwachsenen Bevölkerung WHO-Daten zufolge 54,8 Prozent, das ist deutlich über dem weltweiten Schnitt von etwa 39 Prozent.

Die vorbeugende Wirkung von regelmäßiger Bewegung bei Herz-Kreislauf-Erkrankungen wie Herz-infarkt, Schlaganfall und Bluthochdruck ist wissenschaftlich gut belegt. Regelmäßiges sportliches Training vermindert das kardiovaskuläre Gesamtrisiko um die Hälfte und reduziert darüber hinaus das Risiko, Krebs oder psychische Erkrankungen zu entwickeln.

Fachgesellschaften empfehlen 150 Minuten Aktivität pro Woche
„Für gesunde Erwachsene werden moderate Aktivitäten von mindestens 30 Minuten pro Tag, fünfmal in der Woche, empfohlen, was einer wöchentlichen Gesamttrainingszeit von 150 Minuten ent-spricht“, so Dr. Berrisch-Rahmel. „Dabei gibt es im Detail Unterschiede zwischen den Empfehlungen verschiedener Fachgesellschaften.“

Die Deutsche Gesellschaft für Kardiologie (DGK) empfiehlt vier- bis fünfmal pro Woche 30 bis 45 Minuten Bewegung, davon mindestens zehn Minuten „mäßig intensiv“. Die aktuelle Leitlinie der Europäischen Gesellschaft für Kardiologie ESC empfiehlt zumindest 150 Minuten wöchentlich bzw. 30 Minuten fünfmal pro Woche moderate aerobe Aktivität; alternativ 75 Minuten wöchentlich bzw. 15 Minuten fünfmal pro Woche intensive aerobe Bewegung; oder eine entsprechende Kombination da-von. Unter „moderater“ Bewegung nennt die ESC-Empfehlung etwa rasches Gehen (4,8 bis 6,5 km/h), langsames Radfahren, Staubsaugen, Rasenmähen, Golf, Tennis (Doppel), Tanzen oder Wasser-Aerobic. Unter intensive Bewegung fällt etwa Joggen, schnelles Radfahren (über 15 km/h), Tennis (Einzel), Schwimmen oder intensive Gartenarbeit (Umgraben).

„Gemeinsam haben die verschiedenen Empfehlungen, dass sie relativ anspruchsvoll sind. Vollkommen untrainierte und womöglich deutlich übergewichtige Menschen schaffen die vorgegebenen Ziele oft nicht, was zu Frustration und zum Abbruch der Bemühungen führen kann“, gibt Dr. Berrisch-Rahmel zu bedenken. „Daher ist es wichtig zu betonen, dass auch bereits eine geringfügige Steigerung der Bewegungsaktivität, etwa durch tägliches schnelles Gehen oder Radfahren, das Risiko für Herz-Kreislauf-Erkrankungen senkt und die Lebensqualität deutlich erhöht.“

Zwar ist ein individuell vom Arzt erstellter Trainingsplan gemäß den Empfehlungen der Fachgesell-schaften ideal, doch könne man auch ohne „Sport“ zumindest für den Anfang zu einer gesunden Dosis Bewegung kommen, so die Expertin: „Jeder Schritt zählt und es lässt sich zum Beispiel mit Hilfe eines Schrittzählers gut die tägliche Dosis an Bewegung erhöhen. Zieldosis sind 10.000 Schritte am Tag.“

Vor dem regelmäßigen Training zur Untersuchung
Wünschenswert sei, dass sich auch Übergewichtige langfristig für regelmäßigen Sport entscheiden. Wichtig bei der Wahl der richtigen Sportart seien drei Grundregeln, betont Dr. Berrisch-Rahmel: „Die sportliche Betätigung soll Spaß machen. Es muss langsam begonnen werden. Und vor Trainingsbeginn nach einer langen Pause oder für Newcomer sollte eine Sporttauglichkeitsuntersuchung durch sportkardiologisch erfahrene Fachärzte durchgeführt werden.“

Grundsätzlich bedarf jedes Training einer Planung. „Das Erreichen der anaeroben Schwelle ist optimal, um einen guten Trainingseffekt zu erzielen. Erreichbare Ziele sind wichtig. Da sich Ausdauer auch bei Untrainierten rasch verbessert, muss das Training angepasst werden, wobei das Prinzip „ÖLI“, also öfter, länger, intensiver“ gilt“, so Dr. Berrisch-Rahmel. „In der Anfangsphase des Trainings ist Durchhaltevermögen gefragt, da es dauern kann, bis sich positives Feedback mit Steigerung des Wohlbefindens einstellt. Gesundheits-Apps sind für viele Menschen hilfreich, eine fachärztliche Emp-fehlung können sie jedoch nicht ersetzen.“

Bei der Wahl der Sportart auch auf die Gelenke achten
Besonders bei Übergewichtigen ist es wichtig, die Gelenke nicht zu überlasten, rät Dr. Berrisch-Rahmel: „Wer stark übergewichtig ist, sollte eine gelenkschonende Trainingsform wählen wie zum Beispiel Schwimmen oder Radfahren. Nicht zuletzt ist es wichtig, eine Trainingsform zu wählen, die das ganze Jahr durchgeführt werden kann, zum Beispiel Fahrrad-Heimtrainer, eine Mitgliedschaft in einem Turnverein oder Fitnesscenter, die Teilnahme an von Krankenkassen geförderten Kursen oder die Teilnahme an einer Herzgruppe der Herzstiftung.“

Die Deutsche Gesellschaft für Kardiologie – Herz und Kreislaufforschung e.V. (DGK) mit Sitz in Düsseldorf ist eine gemeinnützige wissenschaftlich medizinische Fachgesellschaft mit mehr als 9800 Mitgliedern. Sie ist die älteste und größte kardiologische Gesellschaft in Europa. Ihr Ziel ist die Förderung der Wissenschaft auf dem Gebiet der kardiovaskulären Erkrankungen, die Ausrichtung von Tagungen die Aus-, Weiter- und Fortbildung ihrer Mitglieder und die Erstellung von Leitlinien. Weitere Informationen unter www.dgk.org

Weitere Informationen:
http://www.dgk.org
http://www.dgk.org/presse
http://www.kardiologie.ord

Quelle: idw

(nach oben)


Kläranlagen: Schlamm optimal verwerten

Britta Widmann Kommunikation
Fraunhofer-Gesellschaft

Die Weinlese stellt Kläranlagen vor Herausforderungen: Die Abwasserfracht steigt durch die Verarbeitung der Trauben um ein Vielfaches – in Edenkoben in der Pfalz etwa um das 17fache. Die Hochlastfaulung ermöglicht, hier flexibel zu reagieren. Die Bilanz: Die Kläranlage verbraucht 20 Prozent weniger Energie, erzeugt über die Hälfte des benötigten Stroms selbst und produziert deutlich weniger Klärschlamm.

Saftig und reif hängen die Trauben an den Reben – nun gilt es für die Weinbauern und ihre Helfer, sie zu Wein zu verarbeiten. Dabei fällt stark belastetes Abwasser an, das die örtlichen Klärwerke jedes Jahr aufs Neue vor Herausforderungen stellt. So auch in der pfälzischen Verbandsgemeinde Edenkoben: Während an üblichen Sonn- und Feiertagen nur 7000 Einwohnerwerte (EW) die Kläranlage belasten, können es zur Zeit der Weinernte bis zu 120 000 EW sein – 17-mal so viel. Mit der Abwasserfracht schießt auch der Stromverbrauch der Klärwerke in die Höhe: Er klettert während der Weinlese auf das Dreifache. Damit der Schlamm, der nach der Reinigung des Abwassers zurückbleibt, nicht anfängt zu stinken, setzte man beim Bau der kleineren Klärwerke auf die aerobe Stabilisierung des Schlamms – und tut es auch heute noch. Dabei wird der Schlamm belüftet und somit stabilisiert. Das Manko dabei: Die Belüftung verbraucht viel Energie.

Energiebedarf um 20 Prozent senken
Mittlerweile arbeitet die Kläranlage deutlich effizienter – nicht nur was den Stromverbrauch betrifft. Möglich macht es die anaerobe Hochlastfaulung, die Forscher am Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik IGB in Stuttgart entwickelt haben. »Wir haben den Prozess in Edenkoben auf eine anaerobe Hochlastfaulung umgestellt, gemeinsam mit Kollegen aus verschiedenen Ingenieurbüros. Der neue Prozess in Edenkoben bietet gleich mehrere Vorteile: Zum einen gewinnen wir durch den Prozess Energie, statt sie zu verbrauchen. Zum anderen sinkt die Menge an Schlamm, die kostenintensiv entsorgt werden muss«, erläutert Dr. Werner Sternad, Wissenschaftler am Fraunhofer IGB. Da dieser Prozess keine energieintensive Belüftung benötigt, sinkt der Energieverbrauch um 20 Prozent. Der Rest lässt sich zu 50 Prozent und mehr aus Eigenstrom beziehen, der aus dem Faulgas in den beiden Blockheizkraftwerken erzeugt wird. Hierdurch muss nur noch weniger als die Hälfte der Energie, die das Klärwerk braucht, fremdbezogen werden. Auch bei der Schlammentsorgung lässt sich viel Geld einsparen: Statt wie zuvor jeden Tag Restschlamm zu pressen, bleibt nun außerhalb der Kampagne so wenig zurück, dass er lediglich zweimal pro Woche gepresst werden muss.

Betrieb flexibel anpassen
In Edenkoben haben die Forscher nun vor allem die Situation des Kampagnebetriebs berücksichtigt, also die stark unterschiedliche Auslastung im Laufe des Jahres. »Wir haben daher zwei Faulbehälter eingebaut. Diese lassen sich während der Weinlese parallel betreiben, im restlichen Jahr seriell. Somit können wir den Prozess an den Schlammvolumenstrom anpassen und den Schlamm optimal verwerten«, berichtet Sternad. Anfang 2016 ging die Anlage in Betrieb: Im seriellen Betrieb verwertet sie etwa 40 Kubikmeter Schlamm pro Tag, während der Weinlese sind es nun erstmalig bis zu 130 Kubikmeter. Sternad: »Mit der Hochlastfaulung können wir flexibel auf die Abwasserfracht reagieren. Zudem sparen wir Energie, erzeugen Eigenstrom und senken die Menge an zu entsorgendem Schlamm deutlich.«

Weitere Informationen:
https://www.fraunhofer.de/de/presse/presseinformationen/2016/oktober/klaeranlage…

Quelle: idw

(nach oben)


Herbstlaub wird zu Aktivkohle – Forschungsprojekt entwickelt clevere Biomassen-Verwertung

Sebastian Mense Kommunikation, Presse- und Öffentlichkeitsarbeit
Universität Kassel

Eine Forschergruppe der Universität Kassel entwickelt ein Verfahren, um aus Biomasse aus Parks oder von Straßenrändern wertvolle Aktivkohle herzustellen. Die Ergebnisse könnten den deutschen Städten immense Kosten sparen.

Herbstlaub verursacht den deutschen Stadtkämmerern jedes Jahr hohe Kosten, zu denen die Biomasse auf Kompostanlagen entsorgt wird. Gleiches gilt für Grünschnitt, wie er etwa regelmäßig an Straßenrändern oder in Parks anfällt. Schätzungen besagen, dass jedes Jahr in Nordwesteuropa rund 34 Mio. Tonnen Restbiomasse aus Landschafts- und Stadtpflege ungenutzt bleiben. Dabei steckt in dieser Biomasse viel mehr als ein Entsorgungsproblem: Eine Projektgruppe um den Kasseler Universitäts-Professor Dr. Michael Wachendorf hat sich zum Ziel gesetzt, die Energie dieser Abfälle zu nutzen und aus Gras und Laub Aktivkohle für Kläranlagen herzustellen. Die Wissenschaftler bauen dabei auf Forschungsergebnissen zur Biomassekonversion auf, die an der Universität Kassel bereits in mehreren europäischen Großprojekten gewonnen wurden. Die EU fördert das Verbundprojekt „Re-Direct“ mit elf Partnern aus fünf Ländern nun für die nächsten drei Jahre mit rund 3,2 Mio. Euro, davon entfallen 1,3 Mio. Euro auf die Uni Kassel.

Untersucht wird dabei, wie Restbiomassen in smarten, dezentralen Anlagen zu Bio- und Aktivkohle verarbeitet werden können. Bio- und Aktivkohle sind in der Lage, in Kläranlagen komplexe chemische Verbindungen wie z.B. Medizinrückstande aus dem Wasser filtern. „Wir werden innovative Technologien kombinieren, um Restbiomassen in regionalspezifischen Kreislaufsystemen zu hochwertigen Kohleprodukten zu veredeln“, so Wachendorf, Leiter des Fachgebiets Grünlandwissenschaft und Nachwachsende Rohstoffe an der Universität Kassel. Zum Nachweis der Praxistauglichkeit im industriellen Maßstab erstellen und betreiben die Wissenschaftlerinnen und Wissenschaftler eine städtische Bio- und Aktivkohle produzierende Anlage, die an das Klär- und Kompostwerk der Stadt Baden-Baden angeschlossen ist, sowie eine kleinere ländliche Biomasse-Konversionsanlage in Wales (UK).

Wachendorf, der das EU-Projekt leitet, betont: „Die Forschungsergebnisse werden auch für die deutschen Städte sehr interessant sein, die zum Management und zur Beseitigung der Restbiomassen jährlich immense Steuergelder aufwenden müssen, ohne dass die in diesen Biomassen enthaltene Energie oder Inhaltsstoffe genutzt werden.“

Kontakt:
Dr. Frank Hensgen
Universität Kassel
Fachgebiet Grünlandwissenschaft und Nachwachsende Rohstoffe
Tel.: 05542-98-1245.
Email: hensgen@uni-kassel.de

Das Fachgebiet Grünlandwissenschaft und Nachwachsende Rohstoffe beschäftigt sich in Forschung und Lehre zum einen mit den komplexen Beziehungen zwischen Grünlandvegetation und Standort sowie mit der Qualität der produzierten Biomasse und deren Bedeutung für Landwirtschaft und Umwelt. Zum anderen werden neue Anbauverfahren beforscht, um Pflanzen als Nachwachsende Rohstoffe z.B. zur Energiegewinnung als Biogas oder Festbrennstoff zu nutzen. Zur schnellen und genauen Erfassung und Beurteilung der Pflanzenbestände werden neue, sensorische und fernerkundliche Methoden erprobt, die zukünftig als Entscheidungshilfe für eine optimierte Bewirtschaftung der Bestände in der Praxis dienen sollen. Diese zukunftsorientierten Sektoren eröffnen der Landwirtschaft neue Einkommensquellen und bringen wichtige Impulse für die Diskussion um die nachhaltige Nutzung von Ressourcen.

Weitere Informationen zum Fachgebiet finden Sie unter www.uni-kassel.de/agrar/gnr bzw. www.researchgate.net/profile/Michael_Wachendorf .

Weitere Informationen:
http://www.uni-kassel.de

Quelle: idw

(nach oben)


Regionale Bioenergiedaten online zusammenstellen: DBFZ stellt Bioenergie-Atlas vor

Paul Trainer M.A. Presse- und Öffentlichkeitsarbeit
Deutsches Biomasseforschungszentrum

Deutschland verfügt über große Potenziale an trockener und feuchter Biomasse. Mit einem vom DBFZ entwickelten interaktiven Bioenergie-Atlas lassen sich nationale und regionale Biomassepotenziale mit nur wenigen Mausklicks schnell und einfach am Rechner visualisieren und die zugrundeliegenden Daten für weitere Recherchen als Excel-Datei downloaden. Damit steht Forschern, Investoren und interessierten Laien ein leistungsfähiges und kostenfrei nutzbares Tool zur Verfügung.

Die Nutzung der Bioenergie stellt eine wesentliche Option für den Ausgleich der volatilen, regenerativen Energiequellen im Stromnetz dar. Eine Vielzahl von Biomassen, speziell von Abfall- und Reststoffen, bergen ein hohes Potenzial für den weiteren Ausbau einer integrierten stofflichen und energetischen Nutzung. Die Datenbasis im Bereich der Biomassepotenziale ist bislang jedoch noch weitestgehend heterogen. In Zusammenarbeit mit verschiedenen wissenschaftlichen Partnern (u.a. Helmholtz-Zentrum für Umweltforschung, Thüringer Landesanstalt für Landwirtschaft, INFRO, HS Bremen, Fachagentur Nachwachsende Rohstoffe), konnten Wissenschaftler des DBFZ im Rahmen einer Meta-Studie verschiedenste Daten zu biogenen Rest- und Abfallstoffen sammeln, vereinheitlichen und vergleichbar machen. Mit dem vorliegenden Tool werden die erarbeiteten Ergebnisse in einer leistungsstarken und intuitiv bedienbaren Webanwendung zusammengeführt.

Mit dem vom DBFZ und der IPM GmbH entwickelten Bioenergie-Atlas ist es dem Nutzer damit erstmalig möglich, die Potenzialergebnisse verschiedener Biomassen individuell zusammenzustellen. So können mit dem Tool Informationen zu technischen Biomassepotenzialen in t TS sowie zur installierten Leistung von Bioenergieanlagen in kW individuell nach Themen und Regionen abgerufen werden. In interaktiven Karten lassen sich derzeit die Potenziale von 15 Biomassen/-kategorien z.T. bis auf Landkreisebene darstellen. Je nach Lizenzrecht der Datenquelle (Urheber) ist auch ein Download der Daten zur weiteren Verwendung möglich.

Das interaktive Tool ist zusätzlich in ein breites Online-Angebot von weiterführenden Informationen zum Thema Biomassepotenziale eingebettet. So verfügt die Webseite über eine wachsende Anzahl von Daten, Abbildungen, Karten, Datenblätter, Publikationen, Tools und Länderprofilen. Mit dem umfangreichen Informationsangebot stellt das DBFZ eine zentrale Anlaufstelle im Themenfeld Biomassepotenziale vor. Dem Nutzer wird mit dem Bioenergie-Atlas schnell ein biomassespezifisches Ergebnis präsentiert, zusätzlich können sich interessierte Nutzer durch die bereitgestellten Daten schrittweise immer tiefer in die Grundlagen bewegen. Nicht zuletzt besteht die Möglichkeit, miteinander in Kontakt zu treten und die Ergebnisse zu diskutieren und zu verbessern. Hierfür stehen institutsübergreifend die jeweiligen wissenschaftlichen Ansprechpartner zur Verfügung.
Weitere Informationen

Auf den folgenden Seiten finden Sie neben dem Bioenergie-Atlas ein kontinuierlich wachsendes Informationsangebot zu Biomassepotenzialen. In Ergänzung zu Forschungsberichten und verschiedenen Publikationsformaten erhalten Sie Direktzugriff auf Forschungsergebnisse: www.dbfz.de/biomassepotenziale

Smart Bioenergy – Innovationen für eine nachhaltige Zukunft
Das Deutsche Biomasseforschungszentrum arbeitet als zentraler und unabhängiger Vordenker im Bereich der energetischen und stofflichen Biomassenutzung an der Frage, wie die begrenzt verfügbaren Biomasseressourcen nachhaltig und mit höchster Effizienz und Effektivität zum bestehenden und zukünftigen Energiesystem beitragen können. Im Rahmen der Forschungstätigkeit identifiziert, entwickelt, begleitet, evaluiert und demonstriert das DBFZ die vielversprechendsten Anwendungsfelder für Bioenergie und die besonders positiv herausragenden Beispiele gemeinsam mit Partnern aus Forschung, Wirtschaft und Öffentlichkeit. Mit der Arbeit des DBFZ soll das Wissen über die Möglichkeiten und Grenzen einer energetischen und integrierten stofflichen Nutzung nachwachsender Rohstoffe in einer biobasierten Wirtschaft insgesamt erweitert und die herausragende Stellung des Industriestandortes Deutschland in diesem Sektor dauerhaft abgesichert werden – www.dbfz.de.

Wissenschaftlicher Kontakt:
Dipl. Geogr. André Brosowski
Tel. +49 (0)341 2434-718
E-Mail: andre.brosowski@dbfz.de

Weitere Informationen:
https://www.dbfz.de/presse/pressemitteilungen-2016/regionale-bioenergiedaten-onl…
https://www.dbfz.de/biomassepotenziale

Quelle: idw

(nach oben)


Was steckt hinter der Tagesmüdigkeit? Neuer EEG-Algorithmus hilft bei der Diagnose

Medizin – Kommunikation Medizinkommunikation
Arbeitsgemeinschaft der Wissenschaftlichen Medizinischen Fachgesellschaften

Ein neuer EEG-Algorithmus hilft zu erkennen, ob ein müder Patient schläfrig oder übererregt ist.
Tagesmüdigkeit ist ein belastendes Symptom, das sowohl bei psychischen Störungen wie Depression, Angst und Schlafstörungen als auch bei diversen nicht-psychiatrischen Erkrankungen häufig berichtet wird. Neurophysiologen des Universitätsklinikums Leipzig haben nun eine Methode entwickelt, die dazu beitragen soll, zu erkennen, ob die Erschöpfung bei einem Patienten mit einem zu niedrigem oder einem zu hohen zentralnervösen Erregungsniveau einhergeht.

Vom Vigilanz Algorithmus Leipzig (VIGALL 2.1) erhoffen sich Experten der Deutschen Gesellschaft für Klinische Neurophysiologie und Funktionelle Bildgebung (DGKN) damit gleichzeitig, den Zusammenhang zwischen gestörter Wachheitsregulation am Tag und psychischen Erkrankungen wie Depression, Manie und ADHS besser zu verstehen und die Behandlung von Betroffenen zu verbessern.

Depressive Patienten leiden häufig unter schwerer Erschöpfung, aber trotzdem gleichzeitig unter Schlaflosigkeit mit Einschlafproblemen, nächtlichen Wachphasen und frühmorgendlichem Aufwachen. „Untersuchungen mit dem VIGALL an Patienten mit typischer Depression weisen darauf hin, dass eine konstant hohe Aktivität des zentralen Nervensystems vorliegt, die auch in Ruhe und geschlossenen Augen kaum zurückgeht“, erklärt Professor Dr. med. Ulrich Hegerl, Präsident der DGKN. „Damit im Einklang ist, dass trotz großer Erschöpfung sich die Betroffenen häufig ruhelos und angespannt, wie vor einer Prüfung, fühlen“.

Vom aktiven Wachzustand, über entspannte Ruhe und Dösigkeit, bis zum Schlaf zeigt das zentrale Nervensystem unterschiedliche Aktivitätszustände. Wissenschaftler sprechen von unterschiedlichen „Arousalniveaus“. Die Regulation dieses Arousals ist überlebenswichtig. „Im Straßenverkehr oder bei Gefahr muss das Gehirn schneller reagieren und das Arousal hoch gehalten werden, anders in der Hängematte“, erklärt Hegerl. Durch bestimmtes Verhalten kann der Organismus das Arousal auch selbst regulieren. Ein gutes Beispiel dafür sind übermüdete Kinder. Hier ist der Organismus eigentlich schläfrig, das Arousal neigt also zum Abfallen. Dieser Einschlaftendenz wird aber durch Aufgedrehtheit, Hyperaktivität und Schaffung einer reizintensiven Umwelt entgegengesteuert.
Obwohl die Regulation des Arousals von fundamentaler Bedeutung für menschliches Verhalten ist, gab es bisher kein praktikables und ausreichend validiertes Verfahren, um die Arousalregulation im Wachzustand zu bestimmen. Mit dem VIGALL 2.1 legt nun die Leipziger Arbeitsgruppe eine überarbeitete Version des Vigilanz Algorithmus Leipzig vor, der Abschnitten aus einem Elektro-Enzephalogramm (EEG) jeweils eines von sieben Arousalstadien zuordnet. Im Rahmen eines 15-minütigen Ruhe-EEGs mit geschlossenen Augen in halb liegender Position können nun der Verlauf und die Regulation des Arousals bestimmt werden.
„VIGALL 2.1 könnte bei der Diagnostik psychischer Erkrankungen und der Wahl der richtigen Therapie helfen“, so Hegerl. An Patienten mit unipolarer oder bipolarer (manischer) Depression und ADHS wurde das Verfahren bereits getestet. So ist das Arousal bei Menschen mit unipolarer Depression hochreguliert- das Nervensystem bleibt trotz der ruhigen Umgebung hochaktiv. Patienten mit Manie und ADHS haben dagegen Schwierigkeiten, ihr Arousal aufrechtzuerhalten (siehe schematische Darstellung in Abbildung). Die Software VIGALL 2.1 stellen die Leipziger Wissenschaftler kostenlos zur Verfügung.

Quelle:
Ulrich Hegerl, Tilman Hensch. The vigilance regulation model of affective disorders and ADHD. Neuroscience an Biobehavioral Reviews 44 (2014) 45-57

Links:
VIGALL 2.1 zum Download, Handbuch und Studien
http://research.uni-leipzig.de/vigall/
www.dgkn.de

Die Deutsche Gesellschaft für Klinische Neurophysiologie und funktionelle Bildgebung (DGKN) ist die medizinisch-wissenschaftliche Fachgesellschaft für Ärzte und Wissenschaftler in Deutschland, die auf dem Gebiet der klinischen und experimentellen Neurophysiologie tätig sind. Anliegen der DGKN ist es, die Forschung auf diesem Gebiet zu fördern sowie eine qualitätsgesicherte Aus-, Weiter- und Fortbildung zu garantieren. Zu diesem Zweck richtet die DGKN wissenschaftliche Tagungen, Symposien und Fortbildungsveranstaltungen aus. Sie erarbeitet Richtlinien und Empfehlungen für die Anwendung von Methoden wie EEG, EMG oder Ultraschall. Darüber hinaus setzt sich die DGKN für den wissenschaftlichen Nachwuchs ein, indem sie etwa Stipendien und Preise vor allem für junge Forscher vergibt. Die Methoden der klinischen Neurophysiologie kommen Patienten bei der Diagnose und Therapie von neurologischen Erkrankungen wie Parkinson, Alzheimer, Migräne, Epilepsie, Schlaganfall oder Multiple Sklerose zugute.

Quelle: idw

(nach oben)


Abwasser mittels naturnaher Systeme reinigen

Dipl.-Met. Alfred Hommes Referat Öffentlichkeitsarbeit
Bundesanstalt für Gewässerkunde

Deutsch-israelisches Verbundvorhaben gestartet: Es untersucht, wie naturnahe technische Systeme – wie technische Feuchtgebiete (z. B. Pflanzenkläranlagen) oder Sandfilter – die Belastung des gereinigten Abwassers mit Arzneistoffen, Haushaltschemikalien, Krankheitserregern und antibiotika-resistenten Bakterien verringern können.

Am 30. und 31. August fand in der Bundesanstalt für Gewässerkunde (BfG) in Koblenz die Kick-off-Veranstaltung zum deutsch-israelischen Verbundforschungsprojekt „OPTI“ statt. Vier Institutionen aus Deutschland und Israel werden im Rahmen dieser Forschungsinitiative eng zusammenarbeiten, um die Eliminierung von Arzneistoffen, Haushaltschemikalien, Krankheitserregern und antibiotika-resistenten Bakterien in naturnahen technischen Systemen zur Nachbehandlung von gereinigtem Abwasser zu untersuchen. Ziel der Nachbehandlung ist die Verbesserung der Wasserqualität für eine direkte landwirtschaftliche Nutzung des Abwassers.

Das auf drei Jahre ausgelegte Verbundprojekt „Optimization of subsurface treatment units based on novel indicators (OPTI)“ wird im Rahmen der deutsch-israelischen Kooperation in der Wassertechnologieforschung vom Bundesministerium für Bildung und Forschung (BMBF) sowie vom israelischen Wissenschaftsministerium (MOST) gefördert. Koordiniert wird das Projekt von der BfG durch Prof. Dr. Thomas Ternes und Dr. Ann-Kathrin Ghattas. Weitere Partner sind das Technologiezentrum Wasser aus Karlsruhe, die Münchner Firma vermicon AG sowie die israelische Galilee Society.

Aufgrund des rapiden weltweiten Bevölkerungswachstums und des zunehmenden Wasserverbrauchs von Landwirtschaft und Industrie sowie infolge des Klimawandels schrumpfen die nutzbaren Wasserressourcen. Gereinigtes Abwasser wird dadurch zu einer wertvollen erneuerbaren Ressource, u. a. um den Wasserbedarf in der Landwirtschaft arider Gebiete zu stützen. Die Nutzung dieser Ressource setzt allerdings eine ausreichende Wasserqualität voraus, welche jedoch durch die vermehrte Einleitung chemischer und biologischer Verunreinigungen – wie Arzneistoffe und Haushaltschemikalien („neuartige Schadstoffe“) sowie Pathogene und antibiotika-resistente Bakterien – beeinträchtigt wird.

Innerhalb des Forschungsprojekts OPTI werden naturnahe Systeme (technische Feuchtgebiete und Sandfilter) zur Nachbehandlung kommunal gereinigten Abwassers auf ihre landwirtschaftliche Nutzbarkeit in Gebieten mit Wasserknappheit untersucht. Im Fokus der Untersuchungen stehen außerdem sogenannte Retentionsbodenfilter, die zur Behandlung von überschüssigem Schmutzwasser bei Starkregenereignissen einsetzbar sind. OPTI untersucht die Aspekte:

• Entfernung neuartiger Schadstoffe in Abhängigkeit von unterschiedlichen
Behandlungsverfahren und Betriebsbedingungen
• Aufklärung und Nachweis der entstandenen Transformations- bzw.
Abbauprodukte der neuartigen Schadstoffe
• Aufklärung der am Abbau beteiligten mikrobiellen Gemeinschaften und
enzymatischen Prozesse
• Inaktivierung von Krankheitserregern und Entfernung antibiotika-resistenter
Bakterien.

Das eingehende Verständnis der Zusammenhänge zwischen den Betriebsbedingungen, der Zusammensetzung der mikrobiellen Gemeinschaft und der Entfernung chemischer und biologischer Verunreinigungen wird genutzt, um Optimierungsstrategien und neuartige Bewertungskonzepte hinsichtlich der Entfernung chemischer und biologischer Verunreinigungen zu entwickeln.

Weitere fachliche Informationen: Prof. Dr. Thomas Ternes, Bundesanstalt für Gewässerkunde, Am Mainzer Tor 1, 56068 Koblenz, Fon: 0261/1306 5560, Mail: ternes@bafg.de.

Quelle: idw

(nach oben)


Auszubildende sind zufrieden mit ihrem Betrieb, aber nicht mit ihrer Berufsschule

Petra Schmidt-Bentum Referat für Kommunikation und Marketing, Team Presse- und Öffentlichkeitsarbeit
Technische Hochschule Köln

Die Mehrheit der Auszubildenden in Deutschland ist zufrieden bis sehr zufrieden mit ihrer betrieblichen Berufsausbildung. Weniger gut schneiden dagegen die Berufsschulen ab. Nicht einmal die Hälfte der Auszubildenden ist mit dem dortigen Unterricht zufrieden. Sie bemängeln vor allem die fehlende Abstimmung der Unterrichtsinhalte mit der Tätigkeit im Unternehmen und den Prüfungsanforderungen. Zu diesen Ergebnissen kommt eine Untersuchung am Schmalenbach Institut der Fakultät für Wirtschafts- und Rechtswissenschaften der TH Köln. Befragt wurden bundesweit rund 1.350 Auszubildende aus den Bereichen Handel, Industrie und der Dienstleistungsbranche.

Ziel der quantitativen Befragung war die Erfassung der Auszubildendenzufriedenheit im dualen System der Berufsausbildung. Unter der Leitung von Dr. Christian Ernst, Professor für Betriebswirtschaftslehre mit den Schwerpunkten Berufsbildung und Personalführung, stand dabei der Vergleich der Lernorte Betrieb und Berufsschule im Mittelpunkt der Analyse.

Gute Betreuung und hohes Niveau, unzufriedener mit der Bezahlung
Dreiviertel der Befragten (73 Prozent) sind zufrieden bis sehr zufrieden mit der betrieblichen Ausbildung. Die Atmosphäre der Auszubildenden untereinander und der Praxisbezug werden dabei besonders positiv bewertet. 76 Prozent sind der Meinung, dass das Unternehmen ein hohes praktisches Qualifikationsniveau sicherstellt. Auch die Erreichbarkeit der Ausbildungsleiter, die persönliche Betreuung und die Ausstattung des Arbeitsplatzes werden gut bewertet. Die Zufriedenheit sinkt jedoch markant mit der Länge der Ausbildung: Von den Azubis im

Verbesserungsbedarf sehen viele Auszubildende lediglich bei der Vergütung. Hier sind nur 55 Prozent zufrieden, aber 20 Prozent ausdrücklich unzufrieden. Dabei fällt die monetäre Zufriedenheit in Industrieunternehmen mit 80 Prozent deutlich höher aus als in den anderen Branchen. Auch in Konzernen sind Auszubildende mit ihrer Vergütung zufriedener (70 Prozent) als in kleinen Unternehmen (39 Prozent). „Das ist nicht überraschend aufgrund der höheren Verbreitung tarifvertraglich geregelter Ausbildungsvergütungen in diesen Unternehmen“, kommentiert Prof Dr. Christian Ernst das Ergebnis.

Berufsschulen: Schlechte Abstimmung der Lehrinhalte und mangelnde Motivation
Im Vergleich zur guten Qualität der Berufsbildung im Betrieb schneiden die Berufsschulen in der Wahrnehmung der Auszubildenden deutlich schlechter ab. Wirklich zufrieden sind lediglich 44 Prozent, 16 Prozent dagegen unzufrieden oder sogar sehr unzufrieden. Bemängelt werden vor allem die fehlende Abstimmung der Unterrichtsinhalte mit der Tätigkeit im Unternehmen und den Prüfungsanforderungen. Damit sind nur 42 Prozent zufrieden. Besonders die Auszubildenden in den Dienstleistungsunternehmen sind darüber unzufrieden. Allgemein werden auch die fehlende Aktualität des Lernstoffes und die mangelnde Motivation der Lehrerinnen und Lehrer kritisiert. Das Fachwissen des Lehrpersonals schneidet hingegen weniger schlecht ab.

„Die fehlende Abstimmung der Unterrichtsinhalte zwischen den beiden Lernorten ist ein altbekanntes Problem, dass diese Analyse noch einmal bestätigt“, sagt Professor Ernst. Die kritisierte Motivation der Lehrerinnen und Lehrer, und damit die Art des Unterrichts, liegen aus seiner Sicht an strukturellen Versäumnissen der Lehrerausbildung und vor allem am schulischen Personalmanagement. „Wenn man dem Aderlass der Lehre nicht weiter Vorschub leisten will, müssen Berufsschulen und Unternehmen näher zusammenrücken.“ So könnten obligatorische Hospitationen der BerufsschullehrerInnen in den Betrieben eingeführt und AusbilderInnen vermehrt im Unterricht eingesetzt werden. Außerdem würden die Lehrkräfte gerade in schwierigen Berufsschulklassen pädagogisch zu sehr allein gelassen, so Professor Ernst. Er empfiehlt eine Betreuung durch lernfeldorientierte Coaches, um den Unterricht didaktisch und methodisch weiterzuentwickeln. „Ebenso sollte die Reduzierung des Berufsschulunterrichts auf acht Wochenstunden kein Tabu in der Diskussion um eine Neuorientierung der Berufsschulen sein.“

Zur Befragung
Bundesweit wurden 1348 Auszubildende befragt. 46 Prozent der Befragten sind weiblich, 54 Prozent männlich. 81,1 Prozent waren zum Zeitpunkt der Analyse zwischen 18 und 23 Jahre alt. 35 Prozent befanden sich im ersten, 37 Prozent im zweiten und 27 Prozent im dritten Ausbildungsjahr. Mit 48 Prozent arbeitet die Mehrheit der Befragten im Handel, 26 Prozent in der Industrie bzw. dem produzierenden Gewerbe und neun Prozent in Dienstleistungsunternehmen. 26 Prozent der Teilnehmerinnen und Teilnehmer werden in Kleinunternehmen mit bis zu 50 Angestellten ausgebildet. Neun Prozent in Konzernen mit über 10.000 Angestellten.

Den Abschlussbericht der Studie „Auszubildendenzufriedenheit“ können Sie einsehen unter https://www.th-koeln.de/mam/downloads/deutsch/hochschule/aktuell/pm/2016/abschlu…

Die TH Köln bietet Studierenden sowie Wissenschaftlerinnen und Wissenschaftlern aus dem In- und Ausland ein inspirierendes Lern-, Arbeits- und Forschungsumfeld in den Sozial-, Kultur-, Gesellschafts-, Ingenieur- und Naturwissenschaften. Zurzeit sind mehr als 25.000 Studierende in über 90 Bachelor- und Masterstudiengängen eingeschrieben. Die TH Köln gestaltet Soziale Innovation – mit diesem Anspruch begegnen wir den Herausforderungen der Gesellschaft. Unser interdisziplinäres Denken und Handeln, unsere regionalen, nationalen und internationalen Aktivitäten machen uns in vielen Bereichen zur geschätzten Kooperationspartnerin und Wegbereiterin. Die TH Köln wurde 1971 als Fachhochschule Köln gegründet und zählt zu den innovativsten Hochschulen für Angewandte Wissenschaften.

Quelle: idw

(nach oben)


Hochschule Koblenz engagiert im Umwelt- und Klimaschutz: Neues Forschungsprojekt und Auszeichnung

Dipl.-Ing. (FH) Melanie Dargel-Feils RheinAhrCampus Remagen Pressestelle
Hochschule Koblenz – University of Applied Sciences

Nachhaltigkeit ist an der Hochschule Koblenz kein abgestumpftes Modewort, sondern Realität und stets mit neuen Maßnahmen anvisiertes Handlungsziel zugleich. Nun wurde die Hochschule wieder mit dem begehrten ÖKOPROFIT- Siegel für ökologisch engagierte Betriebe ausgezeichnet. Parallel dazu fiel der Startschuss für das nächste Projekt zur Entwicklung und Umsetzung frischer Ideen für Umwelt- und Klimaschutz: Gemeinsam mit 10 Hochschulen des Bundes nimmt die Hochschule Koblenz an ECHO teil, einem anwendungsorientierten Forschungsprojekt zum Thema nutzerbedingte Energieeinsparung.

KOBLENZ. Nachhaltigkeit ist an der Hochschule Koblenz kein abgestumpftes Modewort, sondern Realität und stets mit neuen Maßnahmen anvisiertes Handlungsziel zugleich. Nun wurde die Hochschule wieder mit dem begehrten ÖKOPROFIT- Siegel für ökologisch engagierte Betriebe ausgezeichnet. Parallel dazu fiel der Startschuss für das nächste Projekt zur Entwicklung und Umsetzung frischer Ideen für Umwelt- und Klimaschutz: Gemeinsam mit 10 Hochschulen des Bundes nimmt die Hochschule Koblenz an ECHO teil, einem anwendungsorientierten Forschungsprojekt zum Thema nutzerbedingte Energieeinsparung. Die Fragen: Wie viel Energie kann man sparen, wenn jeder Einzelne auf freiwilliger Basis durch sein Verhalten etwas dafür tut? Wie nachhaltig sind Aktionen bezüglich des Nutzerverhaltens?

Der ÖKOPROFIT Klub verbindet Ökologie und Ökonomie: „Kosten sparen durch Umweltschutz“ lautet sein Motto. Unterstützt wird der Klub von der Industrie- und Handelskammer zu Koblenz, der Handwerkskammer Koblenz und der Wirtschaftsförderung am Mittelrhein. Das vom Landkreis Mayen-Koblenz, der Stadt Koblenz und dem Landkreis Mainz-Bingen initiierte Projekt endete nun mit einer feierlichen Abschlussveranstaltung in der Kreisverwaltung Mainz-Bingen. Neben Jochen Wiebusch, Abteilungsleiter der Technik und Hausverwaltung an der Hochschule Koblenz, nahmen sieben weitere Unternehmensvertreterinnen und
-vertreter die Urkunden entgegen. Wiebusch freute sich über die erneute Auszeichnung: „Seit 2012 nimmt die Hochschule am ÖKOPROFIT Klub teil und erhielt 2013 erstmals das Siegel. Seither konnten wir unsere Einsparungen zu Gunsten des Umweltschutzes deutlich steigern. Mit 70.000 Euro im Jahr bedeutet das außerdem eine erhebliche Reduktion der Fixkosten des Gebäudeunterhalts, die zur Hälfte die Energie betreffen.“

Im vergangenen Jahr begleitete das Beratungsunternehmen Arqum die Projektteilnehmerinnen und -teilnehmer und erschloss Möglichkeiten, die Betriebe in Bezug auf Umweltthemen weiter zu optimieren. Im Vordergrund standen dabei Maßnahmen zur Kostenreduzierung und Vermeidung von Umweltbelastungen. Zentral war nicht nur die Beratung vor Ort, sondern auch der Erfahrungsaustausch zwischen den Teilnehmenden in drei gemeinsamen Workshops. Welche technischen Verbesserungen kann man einführen? Lohnt sich beispielsweise die Investition in eine sogenannte Kraft-Wärme-Kopplungsanlage zur Eigenstromerzeugung? Welche Förderungsmöglichkeiten für Energieeffizienzmaßnahmen in Unternehmen gibt es? Wie können Mitarbeiterinnen und Mitarbeiter in Umweltfragen sensibilisiert werden? Diese und viele weitere Fragen wurden in den Workshops ausführlich behandelt und diskutiert.

In der Abschlussphase des Projekts waren alle Unternehmen aufgerufen, je eine der geplanten oder bereits umgesetzten Maßnahmen auszuwählen und vorzustellen, um innerhalb dieser Auswahl die „Beste“ auszuzeichnen. Die Hochschule Koblenz geht den nächsten Schritt in eine umweltfreundliche Zukunft mit dem ECHO-Projekt. „Großes Einsparungspotential, sowohl finanziell als auch ökologisch, sehen wir im Bereich Nutzerverhalten“, erläutert Wiebusch. Zwei Teile des Hochschulgebäudes am RheinMoselCampus Koblenz werden als Pilot ausgewählt und in der Erhebungsphase regelmäßig mit Infomaterial, Tipps und Hinweisen zum Thema Energiesparen versorgt. Stoßlüften, die Heizung abdrehen, PC und Licht ausschalten: Es geht um die vielen kleinen Handgriffe, die beim Energiesparen helfen können. „Natürlich werden wir keine Maßnahmen ‚aufdiktieren‘ und auch niemanden persönlich kontrollieren. Das Ganze läuft auf rein freiwilliger Basis der Mitarbeiterinnen und Mitarbeiter“, so Wiebusch, „Rückschlüsse in Bezug auf den Erfolg dieser Idee werden wir nur aus den Energiedaten der jeweiligen Gebäudekomplexe ziehen.“ Im Anschluss an den Pilotversuch sollen die Erkenntnisse auf das komplette Gebäude ausgeweitet werden. Nicht außer Acht gelassen wird im Nachgang des Projekts die Frage, ob das Nutzerverhalten sich dauerhaft geändert hat. „Spannend werden für uns außerdem die regelmäßigen Treffen mit den zehn anderen teilnehmenden Hochschulen“, sagt Wiebusch, „von diesem intensiven Erfahrungsaustausch werden wir mit Sicherheit profitieren und neue Impulse erhalten.“

Weitere Informationen:

http://www.hs-koblenz.de

Quelle: idw

(nach oben)


Fokus Phosphor-Problematik: Internationale IPW8-Konferenz in Rostock zeigt Lösungen auf

Dr. Kristin Beck Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Ostseeforschung Warnemünde

Vom 12. bis 16. September 2016 fand in Rostock der 8. Internationale Phosphor-Workshop (IPW8) mit dem Titel „Phosphor 2020: Herausforderungen für Synthese, Landwirtschaft und Ökosysteme“ statt. 230 Wissenschaftler aus aller Welt diskutierten mögliche Lösungen, die die aktuelle Forschung für einen verantwortungsvollen Umgang mit dem begrenzt verfügbaren Rohstoff Phosphor anzubieten hat. Dabei gilt es, zum einen gravierende Umweltschäden wie Gewässerüberdüngung zu vermeiden und zum anderen die für die Welternährung essenzielle Phosphorversorgung durch nachhaltige Nutzung auch in Zukunft sicherzustellen.

Zu den wichtigsten Ergebnissen der Phosphorforschung der letzten Jahre zählen nach Auffassung der IPW8-Teilnehmer folgende Aspekte:

1. Phosphor-Düngung und Eintrag in Gewässer:
Auch die aktuellsten Forschungsergebnisse belegen, dass nach wie vor zu große Mengen Phosphor in die Gewässer gelangen. In Richtlinien verbindlich festgelegte Gewässerschutzziele werden da-her nicht erreicht. Als wichtige Ursachen hierfür identifizierten die Forscher, dass Phosphor in der intensiven Landwirtschaft immer noch zu ineffizient eingesetzt wird und die traditionellen Tests der landwirtschaftlichen Bodenuntersuchung auf pflanzenverfügbaren Phosphor das Austragsrisiko von Phosphor nicht adäquat anzeigen können. Zudem konnte nach-gewiesen werden, dass etablierte Gewässerschutzmaßnahmen (z.B. reduzierte Düngung) mitunter in den Gewässern noch keine Erfolge zeigen, weil es lange Verzögerungszeiten gibt, bis der Phosphor aus den Böden in die Gewässer ge-langt. Auch zeigte sich, dass durch Klimawandel bedingte häufigere Extremniederschläge die Mobilisierung und Auswaschung von Phosphor fördern.

2. Verbesserung der Untersuchungsmethoden:
In den letzten Jahren konnten zahlreiche Analysemethoden so verfeinert werden, dass nun eine Vielzahl von Phosphorverbindungen, beispielsweise der Unkrautvernichter Glyphosat, in der Umwelt nachgewiesen und ihre Umsetzung nachvollzogen werden können. In der Forschung werden bereits sehr anspruchsvolle spektroskopische Methoden, Isotopentechniken sowie auch Teilchenbeschleuniger für viele Fragestellungen eingesetzt, um Phosphor-Verbindungen und -umsetzungen mit größter Detailliertheit zu erforschen.

3. Phosphor-Recycling und -Synthese:
Erstmals wurden im Rahmen eines IPW verschiedene Technologien für Phosphor-Recycling und chemische Katalyse mit Phosphorverbindungen als zukunftsweisende Strategie für einen nach-haltigen Umgang mit Phosphor diskutiert. Dabei wurden sowohl grundlegende neue Reaktionswege und Verbindungen als auch eine Vielzahl an-wendungsreifer Technologien vorgestellt, die insbesondere auf die Phosphor-Rückgewinnung aus Klärschlämmen, Schlachtabfällen oder Gärresten aus Biogasanlagen abzielen.

4. Forschungsansatz Genetik:
Da die genetischen Grundlagen der Phosphornutzung durch Mikroorganismen, Pflanzen und Tiere zunehmend besser verstanden sind, eröffnen sich neue Möglichkeiten, Prozesse rings um die Phosphoraufnahme, -nutzung und -ausscheidung zu optimieren. Beispiele sind die Identifizierung von Genvarianten für die Züchtungen von Schweinen, die Phosphor im Futter effektiver verwerten können, oder neue Futterergänzungsmittel und Fütterungsregime, die die Verdaulichkeit und Ver-wertung von Phosphor-Verbindungen durch Tiere verbessern.

Als wichtigsten Forschungs- und Handlungsbedarf arbeiteten die IPW8-Teilnehmer folgende Aspekte heraus:

1.System-Zusammenhänge konsequent erforschen:
Bislang ist zu wenig darüber bekannt, welche Gemeinsamkeiten und Unterschiede Phosphor-Umsetzungsprozesse in verschiedenen Umweltsystemen – etwa im Wasser oder auf dem Land – aufweisen und wie sie mit anderen Stoffkreisläufen – etwa Kohlenstoff und Stickstoff – im gesamten Erdsystem gekoppelt sind. Zudem gibt es kaum integrierte Forschung, die Zusammenhänge zwischen Phosphor-Umsetzungen auf unterschiedlichen Größenskalen betrachtet, an-gefangen bei einzelnen Zellen über Organismen bis hin zu ganzen Ökosys-temen. Dies ist aber wichtig, da die meisten Vorgänge in Ökosystemen mit-einander gekoppelt sind und daher auch nur durch einen ganzheitlichen Ansatz richtig verstanden werden.

2. Innovative Technik konsequent in die Anwendung überführen:
Sowohl im Bereich der Phosphorrückgewinnung als auch bei den Untersuchungsmethoden zum Nachweis pflanzenverfügbaren Phosphors in Ackerböden, die eine wichtige Voraussetzung für effizienten Düngemitteleinsatz sind, wurden große wissenschaftliche und technologische Fortschritte erzielt. Dennoch mangelt es bisher an einer breiten Anwendungspraxis dieser Technologien. Die Gründe dafür sind sehr unterschiedlich: Entweder fehlt noch die praxisorientierte Anwendungsreife oder es gibt gesetzliche Hindernisse wie Richtlinien und Verordnungen, die keinen Raum für die Anwendung bestimmter Verfahren bieten. Probleme liegen zum Teil in unklaren politischen Rahmenbedingungen begründet, wie z. B. der Novellierung der Klärschlammverordnung in Deutschland und Anforderungen an Recyclingdünger europaweit. Hier sehen die IPW8-Forscher sowohl Handlungsbedarf in der Forschung als auch in der Politik.

3. Problembewusstsein und Umdenken konsequent fördern:
Eine für die IPW neue Sichtweise war die Einbeziehung der ethischen, umweltrechtlichen und umweltpolitischen Aspekte beim Einsatz von Phosphor. Verschiedene Aspekte, wie die Vorteile einer ausgewogenen Ernährung vor dem Hintergrund der Phosphorverfügbarkeit und -belastung oder die Möglichkeit, durch Anreize oder Verbote effektiv den Phosphor-Einsatz zu steuern, wurden auf der Konferenz lebhaft diskutiert. Es wurde deutlich, dass die bisher fast ausschließlich betriebenen natur- und agrarwissenschaftlichen Forschungsansätze durch entsprechende gesellschaftswissenschaftliche Ansätze ergänzt werden müssen, um eine nachhaltige Nutzung und Wiedergewinnung der Ressource Phosphor bei schonendem Umgang mit der Umwelt tatsächlich in akzeptierte Praxis umzusetzen.

Fazit:
Die Teilnehmer waren sich darin einig, dass nur eine Vielzahl von Einzelmaßnahmen „im Konzert“, wie züchterische Fortschritte, verbesserte landwirtschaftliche Untersuchungs- und Bewirtschaftungsmaßnahmen, neue Techniken und Technologien der Phosphor-Ersparnis und -Rückgewinnung, ein gesellschaftlicher Normen- und Bewusstseinswandel des Konsumverhaltens und flankierende politische Maßnahmen gemeinsam die Phosphor-Problematik lösen können. Hierzu ist auch die Entwicklung von neuen akademischen Strukturen notwendig, wie z. B. Leibniz-WissenschaftsCampi, die Transfer von Technologie, Methodik und Ideen unterstützen.

Der Internationale Phosphor-Workshop (IPW) findet alle drei Jahre in wechselnden europäischen Ländern statt und gehört zu den wichtigsten Veranstaltungen auf dem Gebiet der Phosphorforschung in Europa. In diesem Jahr war zum ersten Mal Deutschland der Gastgeber und konnte eine Rekordteilnehmerzahl willkommen heißen. Veranstalter war der Leibniz-WissenschaftsCampus Phosphorforschung Rostock, ein Zusammenschluss von fünf Leibniz-Instituten und der Universität Rostock.

*IPW8-Vorsitz:
Prof. Dr. Ulrich Bathmann, Sprecher des Leibniz-WissenschaftsCampus Phosphorforschung Rostock
Prof. Dr. Peter Leinweber, Sprecher der Universität für den Leibniz-WissenschaftsCampus Phosphorforschung Rostock

*Kontakt:
Dr. Inga Krämer, Koordinatorin des Leibniz-WissenschaftsCampus Phosphorforschung Rostock | 0381 5197-3471 | inga.kraemer@io-warnemuende.de

*Leibniz-WissenschaftsCampus Phosphorforschung Rostock
Aufgrund der zentralen Bedeutung von Phosphor in einer Vielzahl von Produktions- und Umweltsystemen ist ein interdisziplinärer Forschungsansatz notwendig. Deshalb haben sich fünf Leibniz-Institute und die Universität Rostock in einem Netzwerk zusammengeschlossen, um die Zusammenarbeit und Forschung rund um dieses essentielle Element und sein nachhaltiges Management zu intensivieren. Der Leibniz-WissenschaftsCampus Phosphorforschung Rostock fördert im Rahmen seiner strategischen Forschung die Interdisziplinarität in Themen, Projekten und Methoden. Die bestehenden Expertisen in verschiedensten Aspekten der Erforschung des essentiellen Elementes Phosphor, seiner vielfältigen chemischen Verbindungen und spezifischen Wirkungsweisen in Agrar- und Umweltsystemen wie auch in technischen und industriellen Prozessen werden in dem WissenschaftsCampus zusammengeführt. Der WissenschaftsCampus wird durch die Leibniz-Gemeinschaft und das Ministerium für Landwirtschaft, Umwelt und Verbraucherschutz MV gefördert.

Quelle: idw

(nach oben)


Bertelsmann-Studie zeigt: Eltern unzufrieden mit Schulessen

Julia Voormann Pressestelle
Deutsche Diabetes Gesellschaft

Berlin – Auch wenn die Mehrheit der Eltern mit dem pädagogischen Angebot an den Ganztagsschulen zufrieden ist: Das Essensangebot stößt bei fast der Hälfte der Erziehungsberechtigten auf Kritik. Das ist eines der Ergebnisse der repräsentativen Umfrage der Bertelsmann Stiftung unter mehr als 4000 Eltern schulpflichtiger Kinder im Alter von sechs bis 16 Jahren. „Ein großer Teil der Eltern hält das Essen für nicht gesund und ausgewogen“, sagt Dr. Dietrich Garlichs, Geschäftsführer der Deutschen Diabetes Gesellschaft (DDG). „Damit zeigt die neue Studie eindrucksvoll die Notwendigkeit, verbindliche Qualitätsstandards für die Schulverpflegung einzuführen.“

Die Fachgesellschaft sieht jetzt die Schulpolitik in der Pflicht, gesundes Essen an Schulen und Kitas zu fördern und so Übergewicht bei Kindern und Jugendlichen zu bekämpfen.

Nur 60 Prozent der befragten Eltern waren zufrieden mit der Essensauswahl an den Ganztagsschulen, an den gebundenen Ganztagsschulen 53 Prozent. Die Halbtagsschulen schnitten noch schlechter ab: Hier zeigten sich nur 37 Prozent der Eltern zufrieden mit dem Angebot der Schulkantine. „Eine gesunde Kita- und Schulverpflegung kann einen nachhaltigen Beitrag leisten, um Übergewicht bei Kindern und jungen Erwachsenen zu vermeiden“, betont Dietrich Garlichs, zugleich Sprecher der Deutsche Allianz Nichtübertragbarer Krankheiten (DANK). Denn 15 Prozent der drei- bis 17-Jährigen in Deutschland sind übergewichtig – Tendenz steigend. Ihnen droht auch im Erwachsenenalter Übergewicht und die damit verbundenen Risiken für Herz-Kreislauf-Erkrankungen, Diabetes, Krebs oder Gelenkverschleiß.

Bisher gibt es aber nur wenige Schulen, die die Vorgaben einer gesunden Ernährung erfüllen, wie eine bundesweite Studie des Bundesministeriums für Ernährung und Landwirtschaft zeigt. So wird in 60 Prozent der Schulen das Essen gekocht angeliefert und stundenlang warmgehalten. „Für die Schulen ist dies die preisgünstigste Variante – Vitamine werden sie in diesen Mahlzeiten allerdings kaum noch finden“, sagt Professor Ulrike Arens-Azevedo von der Hochschule für Angewandte Wissenschaften Hamburg. Zu selten würden dagegen frische Produkte angeboten. Nur bei einem Drittel der Schulen kommt täglich Gemüse oder Rohkost auf den Tisch. Geschmacklich können die meisten Schulkantinen auch nicht überzeugen: Die Hälfte der Schüler bewertet das Essen als schlecht, rund jeder Dritte verpflegt sich beim Imbiss, Bäcker oder Fast Food Restaurant, oft mit ungesunden und fettigen Snacks

Bereits im Jahr 2007 hat die Deutsche Gesellschaft für Ernährung (DGE) Qualitätsstandards zur Verbesserung der Kita- und Schulverpflegung erlassen. Doch bisher haben nur das Bundesland Berlin und das Saarland diese umgesetzt. Wie eine Umfrage der Deutschen Allianz Nichtübertragbare Krankheiten DANK unter den Kultusministern der übrigen vierzehn Bundesländer ergab, plant keines der Länder eine Einführung von verbindlichen Standards. Die Ministerien verweisen stattdessen auf die Eigenverantwortung der Schulen und Kitas. Jedoch sind die Qualitätsstandards der DGE nur bei 50 Prozent der Schulen und Kitas bekannt. Davon wiederum setzen nur die Hälfte die Standards um.

Im Rahmen einer Pressekonferenz hatte DANK daher erneut verbindliche Qualitätsstandards für die Kantinen in Schulen und Kitas gefordert. „Die repräsentative Bertelsmann-Umfrage macht einmal mehr deutlich, dass die Schulpolitik die Verantwortung für gesunde Schulverpflegung nicht länger auf die Schulen abschieben darf“, kritisiert Garlichs. Neben den Qualitätsstandards der DGE können auch Qualifizierungsnachweise für Caterer und Mitbestimmungsrechte für Schüler und Eltern dazu beitragen, das Essensangebot an Schulen und Kitas nachhaltig zu verbessern.

Weiterführende Links:
https://www.bertelsmann-stiftung.de/de/themen/aktuelle-meldungen/2016/september/…
http://www.dank-allianz.de/

Deutsche Diabetes Gesellschaft (DDG)
Geschäftsstelle
Albrechtstraße 9, 10117 Berlin
Tel.: 030 3116937-0, Fax: 030 3116937-20
info@ddg.info

Weitere Informationen:
http://www.ddg.info

Quelle: idw

(nach oben)


Keine Einzelkämpfer in der Arbeitswelt. Neue Befunde der Arbeitssoziologie

Dr. Jennifer Villarama Presse- und Öffentlichkeitsarbeit
Soziologisches Forschungsinstitut Göttingen (SOFI)

Die Gesellschaft wird ungleicher. Wie denken Arbeitnehmerinnen und Arbeitnehmer darüber? In der Erwerbsarbeitssphäre, das zeigt das aktuelle Schwerpunktheft der WSI-Mitteilungen, finden sich eine ausgeprägte „moralische Ökonomie“, Bereitschaft zur Solidarität und vitale interessenpolitische Ansprüche der Beschäftigten. Die versammelten Heftbeiträge verweisen auf Ansätze kollektiver Interessenvertretung und solidarischen Handelns. Konzipiert und koordiniert wurde die aktuelle Ausgabe der WSI-Mitteilungen von Knut Tullius, Berthold Vogel und Harald Wolf vom Soziologischen Forschungsinstitut Göttingen (SOFI).

Die Zeitdiagnostik malt das Bild einer Wirtschafts- und Arbeitswelt, in der Ungerechtigkeiten und Ungleichheiten zwar wachsen, zugleich aber auch die normativen und moralischen Grundlagen für Kritik und Protest schwinden. Diese Diagnose ist Herausforderung und Ansporn für die soziologische Arbeitsforschung, sich erneut stärker den Ungerechtigkeitserfahrungen und Gerechtigkeitsansprüchen von Beschäftigten zuzuwenden und nach ihrem Arbeitsbewusstsein zu fragen.

Das neue Schwerpunktheft der WSI-Mitteilungen geht dieser Aufgabenstellung auf Basis aktueller empirischer Forschungsbefunde nach und zeigt zugleich die konzeptionellen Erweiterungen der heutigen Forschungsansätze auf. Deutlich wird: Die Beschäftigten haben konkrete Vorstellungen, wie Arbeitsbedingungen und Beschäftigungsverhältnisse rational und gerecht zu gestalten sind; damit zeigen sich Ansatzpunkte für kollektive Interessenvertretung und solidarisches Handeln – auch über die Arbeitswelt hinaus. Schließlich: Eine am „Arbeitsbewusstsein“ interessierte Soziologie hat den Anspruch, Quellen politischer Veränderung der Arbeitswelt ausfindig zu machen und mit ihren Befunden klärend in die öffentliche Diskussion über soziale Gerechtigkeit, Arbeitnehmerbewusstsein und Interessenvertretung einzugreifen.

Zum Inhalt der WSI-Mitteilungen 7/2016
Schwerpunktheft „Gerechtigkeitsansprüche und Arbeitnehmerbewusstsein heute – neue Ansätze, neue Befunde“:

EDITORIAL: KNUT TULLIUS, BERTHOLD VOGEL, HARALD WOLF
Gerechtigkeitsansprüche und Arbeitnehmerbewusstsein heute – neue Ansätze, neue Befunde

KNUT TULLIUS, HARALD WOLF
Moderne Arbeitsmoral: Gerechtigkeits- und Rationalitätsansprüche von Erwerbstätigen heute

STEFANIE HÜRTGEN, STEPHAN VOSWINKEL
Ansprüche an Arbeit und Leben – Beschäftigte als soziale Akteure

BERTHOLD VOGEL, ANDREAS PFEUFFER
Amtsethos oder Job? Zum Arbeitsbewusstsein im öffentlichen Dienst

BARBARA HEIL, MARTIN KUHLMANN
„Die da oben, wir hier unten“ – Arbeits- und Betriebsverständnis von Industriearbeitern

WOLFGANG MENZ, SARAH NIES
Gerechtigkeit und Rationalität – Motive interessenpolitischer Aktivierung

MARIA DAMMAYR, THOMAS GEGENHUBER, DORIS GRAß, HERBERT ALTRICHTER, BRIGITTE AULENBACHER,
ROBERT BAUER
Legitime Leistungspolitiken? Governance und Gerechtigkeit in Schule, Altenpflege und Kreativwirtschaft

REINER HOFFMANN, THOMAS FISCHER
Gewerkschaftliche Gestaltungsanforderungen an die Arbeit der Zukunft – Überlegungen zur Praxisrelevanz der Arbeitsbewusstseinsforschung

FRIEDERIKE BAHL
Arbeit und Subjekt – Herausforderungen für eine Forschungstradition

MICHAEL SCHUMANN
Arbeitsbewusstsein und Gesellschaftsbild revisited

Weitere Informationen und Kontakt:
Dr. Jennifer Villarama
Soziologisches Forschungsinstitut Göttingen (SOFI) e.V.
Tel.: +49 551 52205-19
E-Mail: kommunikation@sofi.uni-goettingen.de

Weitere Informationen:
http://www.boeckler.de/wsi-mitteilungen_67665.htm

Anhang
Flyer WSI-Mitteilungen 7/2016 „Gerechtigkeitsansprüche und Arbeitnehmerbewusstsein heute – neue Ansätze, neue Befunde
https://idw-online.de/de/attachment51361

Quelle: idw

(nach oben)


Kohlenhydrate – optimale Ernährung zur Gewichtsabnahme und für ein längeres Leben

Sabine Ranke-Heinemann Pressestelle
Australisch-Neuseeländischer Hochschulverbund / Institut Ranke-Heinemann

Kohlenhydrate machen krank und dick? Ganz im Gegenteil, wie die University of Sydney meldet. Eine kohlenhydratreiche Ernährung unterstützt die Produktion eines Hormons, das den Appetit zügelt, die Gesundheit erhält und auch als lebensverlängernd gilt.

Neue Erkenntnisse von Wissenschaftlern des Charles Perkins Centre der University of Sydney zeigen, welche Bedeutung die Ernährung in Bezug auf die Produktion des Hormons Fibrolast Growth Factor 21 (FGF21) – dem so genannten „Jungbrunnen“-Hormon – hat. Die Ergebnisse, welche Ende September in der renommierten Zeitschrift „Cell Metabolism“ veröffentlicht wurden, veranschaulichen, dass eine optimale Ernährung mit vielen Kohlenhydrate die Produktion des Hormons ankurbelt, welches als lebensverlängernd gilt und Fettleibigkeit bekämpfen kann.

Frühere Studien zeigten bereits, dass FGF21 eine wichtige Rolle dabei spielt, Appetit zu zügeln, den Stoffwechsel zu mäßigen, das Immunsystem zu verbessern und das Leben zu verlängern. Zudem wird das Hormon heutzutage bereits in der Behandlung von Diabetes eingesetzt. Dennoch ist noch nicht viel darüber bekannt, wie das Hormon produziert und ausgeschüttet wird.

Um die Hormonproduktion genauer in Bezug zur Ernährungsaufnahme zu studieren, fütterten die Wissenschaftler für ihre Studien Mäuse nach fünfundzwanzig verschiedenen Ernährungsplänen. Diese unterschieden sich in der Menge der Proteine, Kohlenhydrate, Fette und dem Energiegehalt. Anschließend werteten die Wissenschaftler den Nährstoffgehalt aus und erforschten, welche Zusammensetzungen die besten Ergebnisse bezüglich der Ausschüttung von FGF21 erzielten.

Entgegen derzeitigen Trends von Diäten wie der „Paleo“-Diät, die eine Ernährung mit vielen Proteinen und wenig Kohlenhydrate vorschreiben, beobachteten die Wissenschaftler, dass ein gegenteiliger Ernährungsplan zu einer höheren Ausschüttung von FGF21 führt. Demzufolge ist eine Ernährung mit wenig Proteinen und vielen Kohlenhydraten am vorteilhaftesten für unsere Gesundheit und ein langes Leben, sagt Hauptautor Dr Samantha Solon-Biet.

Ausschlaggebend für eine hohe Ausschüttung des Hormons ist demnach die Zusammensetzung des Nährstoffgehalts und die damit verbundene Balance zwischen den Protein- und Kohlehydratanteilen.

Dr Solon-Biet betont in diesem Zusammenhang auch, dass weiterführende Studien zur Aktivierung von FGF21 essentiell für die Forschung an chronischen Krankheiten sein werden, denn FGF21 kann der Schlüssel zu Medikamenten für die Behandlung von Diabetes und anderen Stoffwechselstörungen sein. Im nächsten Schritt muss also der genaue Signalweg von FGF21 entschlüsselt werden, um unsere Ernährung noch zielgenauer anzupassen und alle Vorteile des Hormons auszuschöpfen.

Die Studie wurde in Zusammenarbeit mit dem ANZAC Research Institut, der Macquarie University, EWOS Innovation in Norwegen und dem Pennington Biomedical Research Centre in Louisiana, USA durchgeführt.

Weitere Informationen:
Institut Ranke-Heinemann / Australisch-Neuseeländischer Hochschulverbund
Pressestelle Friedrichstr. 95
10117 Berlin
Email: berlin@ranke-heinemann.de
Tel.: 030-20 96 29 593

oder

Emily Cook
Media and PR Adviser
Tel.: +61 2 8627 1433
Email: emily.cook@sydney.edu.au

Bei Veröffentlichung der Pressemitteilung bitten wir um eine Quellenangabe sowie die Zusendung eines Belegexemplars.

Das Institut ist die gemeinnützige Einrichtung zur Förderung des Austausches und der Auslandsstudien insbesondere mit allen Universitäten Australiens und Neuseelands sowie zur Förderung von Wissenschaft und Forschung. In seinen Förderprogrammen stellt es SchülerInnen und Studierenden Unterstützung in der Finanzierung durch Stipendien und Coaching in der Studienberatung und Studienplatzbewerbung zur Verfügung.

Weitere Informationen:
http://www.ranke-heinemann.de
http://www.ranke-heinemann.at
http://www.ranke-heinemann.tv

Quelle: idw

(nach oben)


Aus Kohlendioxid und Wasser mit Hilfe von Sonnenlicht zu neuen Rohstoffen

Dr. Barbara Heller Pressestelle
Leibniz-Institut für Katalyse e. V. an der Universität Rostock

Mit einer Millionen Euro fördert das BMBF über drei Jahre ein Verbundprojekt mit dem Kürzel PROPHECY. Wissenschaftler aus dem Leibniz-Institut für Katalyse (LIKAT Rostock) suchen gemeinsam mit Kollegen der Universität Oldenburg und dem Karlsruher Institut für Technologie neue Wege zur Gewinnung von Ausgangsstoffen für die chemische Industrie, die völlig unabhängig von fossilen Rohstoffen sind. Die Forschungen der drei akademischen Partner werden von der Siemens AG industriell bewertet. Mit Hilfe von Sonnenlicht sollen aus Kohlendioxid und Wasser durch neue Material- und Prozesskonzepte Produkte wie Methan, Methanol oder auch Synthesegas ökologisch und ökonomisch sinnvoll produziert werden.

Das in vorindustriellen atmosphärischen Konzentrationen lebenswichtige Treibhausgas Kohlendioxid (CO2) wird durch seine gigantische menschengemachte Freisetzung, vor allem aus der Verbrennung fossiler Energieträger, in der heutigen Zeit zusehends zum „Klimakiller“. Wenn CO2 wieder zu nutzbaren Rohstoffen oder Brennstoffen recycelt werden könnte, wären wir einerseits unseren Emissions- und Klimaschutzzielen näher und gleichzeitig könnten wir auch die Industrie mit Ausgangsstoffen versorgen, die von fossilen Rohstoffquellen unabhängig sind.
Deshalb wird schon seit etwa 30 Jahren das Ziel einer praktikablen photokatalytischen Umsetzung von CO2 verfolgt. Dabei soll Sonnenlicht genutzt werden, um auf der Oberfläche geeigneter Halbleitermaterialien eine Reaktion zwischen CO2 und Wasser auszulösen und dann Chemikalien wie Methan oder Methanol zu erzeugen. Trotz intensiver Forschungsanstrengungen konnten die Ausbeuten bisher nicht zu ökologisch und ökonomisch sinnvollen Größen gesteigert werden. Damit ist klar, dass sich am bekannten Forschungsansatz etwas ändern muss. Aber wo liegt eigentlich die Grenze für eine „sinnvolle“ Umsetzung? Welche Ausbeuten müssen erzielt werden? Und sind vielleicht völlig andere Material- und Prozesskonzepte erforderlich, um die Ausbeuten an Wertprodukten zu steigern?
Diesen Fragen soll im gerade gestarteten BMBF-Verbundprojekt „PROPHECY: PROzesskonzepte für die PHotokatalytische CO2-Reduktion verbunden mit LifE-CYcle-Analysis“ im Rahmen der Fördermaßnahme CO2Plus nachgegangen werden. Das Konsortium, bestehend aus den Gruppen um Prof. Dr. Jennifer Strunk (Leibniz-Institut für Katalyse, Rostock), Prof. Dr. Michael Wark (Universität Oldenburg) und Dr. Andreas Patyk (Institut für Technikfolgenabschätzung und Systemanalyse (ITAS) am Karlsruher Institut für Technologie), betrachtet neue Materialkonzepte und neue Prozesskonzepte in enger Verzahnung. Das gemeinsame Ziel ist die Steigerung der Gesamtproduktausbeute in der photokatalytischen CO2-Reduktion um mehrere Größenordnungen. Die Produktselektivität ist vorerst von untergeordneter Bedeutung, da alle möglichen Produkte (Methan, Synthesegas, Methanol o.ä.) gegenüber dem Abfallprodukt CO2 eine Wertsteigerung darstellen.
Im Hinblick auf den Prozess sollen dem äußerst reaktionsträgen Gemisch aus Kohlendioxid und Wasser regenerativ erzeugte Additive, z.B. Bioethanol oder Elektrolyse-Wasserstoff aus Windkraft, zugesetzt werden, die eine höhere Reaktivität besitzen und das Produktspektrum beeinflussen, zum Beispiel in Richtung längerer Kohlenwasserstoffketten. Materialseitig sollen nicht nur neue Synthesewege bekannter Photokatalysatoren wie TiO2 und ZnO zum Einsatz kommen, sondern auch völlig neuartige Materialien getestet werden, auch mit dem Ziel, einen größeren Teil des Sonnenlichts zu nutzen. Ob ein solcher Prozess mit allen verbundenen vor- und nachgeschalteten Prozessen „von der Wiege bis zur Bahre“ dann noch ökologisch und ökonomisch sinnvoll ist, wird in der begleitenden Nachhaltigkeitsanalyse von Beginn der F&E-Arbeiten an geprüft und kritisch bewertet.
Das Projekt wird mit einem Volumen von einer Millionen Euro vom BMBF (Bundesministerium für Bildung und Forschung) gefördert. Start des Projektes war der 01. September 2016. Die Laufzeit beträgt drei Jahre. Die Forschungen der drei akademischen Partner werden von der Siemens AG industriell begleitet und bewertet.

Quelle: idw

(nach oben)


The challenges of phosphorus – International IPW8 Conference in Rostock identifies solutions

Dr. Barbara Hentzsch Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Ostseeforschung Warnemünde

From September 12 to 16, 2016, the 8th International Phosphorus Workshop (IPW8), entitled „Phosphorus 2020: Challenges for synthesis, agriculture, and ecosystems“, took place in Rostock. 230 scientists from around the world discussed possible solutions arising from their latest research regarding the responsible use of this finite raw material. The aim is to avoid serious damage to the environment, such as the eutrophication of water bodies, and to ensure that, through its sustainable use, there will be enough phosphorus to maintain the world’s food supply in the future

According to IPW8 participants, the most important results of phosphorus research in recent years include those related to the following aspects:

1. Phosphate fertilizers and inputs into water bodies: The latest research continues to show that large amounts of phosphorus still end up in water. The binding water protection objectives set by various guidelines will therefore not be reached. As an important reason, the researchers cited the persisting inefficient use of phosphorus in intensive farming and the inability of traditional agricultural soil testing of plant-available phosphorus to adequately assess the risk of phosphorus seepage. In addition, it was demonstrated that established water protection measures (for example buffer strips, reduced fertilization) have yet to show success because of the long delays until the phosphorus is transported from the soil into water. It was also demonstrated that more extreme precipitation events due to climate change promote the mobilization and leaching of phosphorus.

2. Improved investigation methods: In recent years, the refinement of numerous analytical methods has allowed environmental monitoring of the presence of a large number of phosphorus compounds, for example, the weed-killer glyphosate, and their reaction products. Research methods already include the use of very sophisticated isotope and spectroscopic techniques, e.g. synchroton-based X-ray absorption, to carry out very detailed investigations of phosphorus compounds and their transformations.

3. Phosphorus recycling and synthesis: For the first time, the various technologies for phosphorus recycling and phosphorus-based chemical catalysis, as forward-looking strategies for the sustainable use of phosphorus, were discussed in the context of an IPW. Both fundamental, new reaction pathways and connections as well as a variety of mature technologies were presented, with phosphorus recovery from sewage sludge, slaughterhouse waste or biogas digestate as important targets.

4. Genetic research approaches: As our understanding of the genetic basis of phosphorus utilization by microorganisms, plants, and animals continually improves, new possibilities and processes related to phosphorus uptake, utilization, and dispersion are opening up. Examples are the identification of gene variants for the breeding of pigs such that they utilize the phosphorus in their feed more effectively, or new feed supplements and feeding regimes that increase the digestibility and utilization of P compounds by animals.

Important research goals and call for action identified by the IPW8 participants were:
1. Integrated system-based research: So far too little is known about the similarities and differences exhibited by phosphorus transformation processes in various environmental systems, such as in water or on land, and how they are coupled with Earth’s other biogeochemical cycles, including those of carbon and nitrogen. In addition, there is little integrated research into the relationship between phosphorus reactions at different size scales, from individual cells to organisms to entire ecosystems. This is important because most ecosystems processes are coupled and can therefore be properly understood only through a holistic approach.

2. The translation of innovative methodologies into applications: Both in the area of phosphorus recovery as well as with respect to analytical methods for the detection of plant-available phosphorus in agricultural soils – both of which are important prerequisites for the efficient use of fertilizers – major scientific and technological progress has been made. Yet so far widespread practical application of these technologies is lacking. Among the many different reasons are that either the practical application stage has yet to reach maturity or there are legal obstacles, such as those related to guidelines and regulations, that did not foresee the use of certain procedures. The problems partly lie in the unclear political conditions, such as revision of the Sewage Sludge Ordinance in Germany and European requirements for the recycling of manure. Here the IPW8 researchers recognize the need for action in research as well as in politics.

3. Encourage an awareness and a constant rethinking of problems: A new perspective for the IPW was the inclusion of ethical as well as legal- and political-environmental issues affecting the use of phosphorus. Various aspects, such as the benefits of a balanced diet in the light of phosphorus availability and load or the ability to effectively control phosphorus use through incentives or bans were lively topics of discussion at the conference. It became clear that the biological and agricultural research approaches pursued almost exclusively thus far must now be complemented by social science approaches aimed at making the sustainable use and recovery of phosphorus, via its more environmentally mindful utilization, an accepted practice.

Conclusion:
The participants agreed that only a wide range of individual measures implemented „in concert,“ such as advances in breeding methods, improved agricultural analyses and management measures, new techniques and technologies for the conservation and recovery of phosphorus, new societal norms, greater consumer awareness and complementary policy programs can solve the phosphorus problem. This joint strategy requires the development of new academic structures, such as the Leibniz ScienceCampi, that support the transfer of technologies, methodologies, and ideas.

The International Phosphorus Workshop (IPW) takes place every three years in different European countries and is one of the most important events in the field of phosphorus research in Europe. This year, for the first time, Germany was the host and was able to welcome a record number of participants. The workshop organizer was the Leibniz ScienceCampus Phosphorus Research Rostock, a consortium of five Leibniz institutes, and the University of Rostock.

IPW Chairs:
Prof. Dr. Ulrich Bathmann, Spokesman for the Leibniz Sci-enceCampus Phosphorus Research Rostock
Prof. Dr. Peter Leinweber, University Spokesman for the Leibniz ScienceCampus Phosphorus Research Rostock

Contact:
Dr. Inga Krämer, Coordinator of the Leibniz ScienceCampus Phosphorus Research Rostock | +49 (0)381 5197-3471 | inga.kraemer@sciencecampus-rostock.de

Leibniz ScienceCampus Phosphorus Research Rostock
Because of the central importance of phosphorus in many production and environmental systems, an interdisciplinary research approach is necessary. Therefore, five Leibniz Institutes and the University of Rostock have joined to form a network to intensify joint research and other forms of cooperation regarding this essential element and its sustainable management. The Leibniz ScienceCampus Phosphorus Research Rostock promotes, as part of its strategic research, interdisciplinarity in its topics, projects and methods. Established fields of expertise in various aspects of the exploration of the essential element P, its different chemical compounds and reactions, and its specific modes of action in agricultural and environmental systems as well as in technical and industrial processes are combined at the ScienceCampus. The ScienceCampus is funded by the Leibniz Association and the Ministry of Agriculture, Environment, and Consumer Protection Mecklenburg-Vorpommern.

Quelle: idw

(nach oben)


Das Geschäft mit dem Sterben

Meike Drießen Dezernat Hochschulkommunikation
Ruhr-Universität Bochum

Wenn Sterbende kurz vor ihrem Tod noch Chemotherapie, Bestrahlung und Operationen über sich ergehen lassen müssen, vergrößert das ihr Leid und verhindert einen würdevollen Abschied. Weil die Vergütung im Gesundheitssystem diese Überbehandlung belohnt, sind immer mehr Schwerkranke betroffen. In seinem Buch „Patient ohne Verfügung“, das am 1. September im Piper-Verlag erscheint, gibt Dr. Matthias Thöns, Lehrbeauftragter am Lehrstuhl für Allgemeinmedizin der Ruhr-Universität (Prof. Dr. Herbert Rusche) Anregungen für Veränderungen.

Jeder dritte Sterbenskranke erhält in den letzten Lebenswochen Chemotherapie, Apparatemedizin oder gar Wiederbelebung, jeder zweite Deutsche stirbt in der Klinik. Matthias Thöns berichtet aus seinem Alltag als ambulant tätiger Palliativmediziner. Er beschreibt selbst erlebte Schicksale und erläutert die Hintergründe laienverständlich.

Vergütungssystem verschärft das Problem
So wird das Problem der überflüssigen Apparatemedizin am Lebensende durch das 2004 eingeführte Vergütungssystem im deutschen Gesundheitswesen gespeist: Viele Eingriffe bei schlimmen Diagnosen werden von den Krankenkassen besonders hoch bezahlt, und die Ärzte an diesen Gewinnen durch „Bonusverträge“ beteiligt.
Obwohl der Politik das Problem bekannt ist, fanden sich im Jahr 2015 solche Klauseln noch in 97 Prozent der Chefarztverträge an deutschen Kliniken. „Längst warnen auch Fachverbände, die Bundesärztekammer, der Deutsche Ethikrat und die Bertelsmann Stiftung vor der Problematik“, unterstreicht Matthias Thöns.

Immense Kosten und großes Leid
Neben dem zusätzlichen Leid der Sterbenskranken verursacht die Übertherapie auch immense Kosten: Bis zu 25 Prozent der Gesamtausgaben der Krankenkassen fließen hinein. Fast jeder zweite Euro ambulanter Pflegeleistungen wird für zumeist ungewollte „Apparatemedizin zuhause“ ausgegeben.

Hausärzte haben es in der Hand
Hausärzte besäßen eine Schlüsselposition, diese Missstände zu verändern, legt Thöns dar: So werden durch die hausarztzentrierte Versorgung weniger Patienten sinnlos in Kliniken eingewiesen und unnötige Eingriffe vermieden. „Hausärzte sollten sich als neutrale Zweitmeinungsberater engagieren“, sagt Matthias Thöns. „Zweitmeinung vermeidet Studien zufolge bis zu 60 Prozent der unnötigen Eingriffe.“

Originalpublikation
Matthias Thöns: Patient ohne Verfügung. Das Geschäft mit dem Lebensende. Piper, München 2016, 320 Seiten, ISBN 978-3-492-05776-0

Quelle: idw

(nach oben)


Hochwasserschutz – Simulation für den Ernstfall

Rebecca Schweier Presse- und Öffentlichkeitsarbeit
Hochschule für Technik, Wirtschaft und Kultur Leipzig

Im HTWK-Wasserbaulabor wird der Umbau der Hochwasserentlastungsanlage der Talsperre Lehnmühle geplant

In Talsperren aufgestaute Flüsse versorgen die Bevölkerung mit Trinkwasser, schützen vor Hochwasser und erzeugen regenerativen Strom. Viele der 370 Staumauern in Deutschland wurden im letzten Jahrhundert errichtet. Für sehr extreme Hochwasser, wie sie durch den Klimawandel in Zukunft theoretisch möglich werden könnten, sind sie oft nicht ausgelegt und müssen dementsprechend angepasst werden. So auch die Talsperre Lehnmühle im sächsischen Erzgebirge, für welche der Umbau der Hochwasserentlastungsanlage anhand eines Miniaturmodells an der Hochschule für Technik, Wirtschaft und Kultur Leipzig (HTWK Leipzig) geplant wurde.

„Die Talsperre Lehnmühle stellt zusammen mit der Talsperre Klingenberg einen wichtigen Bestandteil des Hochwasserschutzes im Südraum Dresdens dar. Die Talsperre wurde so gebaut, dass sie selbst Extremhochwassern standhält, wie sie statistisch nur alle 10.000 Jahre vorkommen. Aufgrund der Hochwasserereignisse in den letzten Jahren mussten die statistischen Kennzahlen jedoch angepasst werden. Um den nun höheren Sicherheitsanforderungen zu entsprechen, werden wir die hydraulische Leistungsfähigkeit des Bauwerks steigern. Dazu soll ab 2017 die aus insgesamt 11 Wehrfeldern bestehende Hochwasserentlastungsanlage umgebaut werden“, so Michael Humbsch, Projektverantwortlicher bei der Landestalsperrenverwaltung Sachsen, Betrieb Oberes Elbtal. Um den Umbau auf Grundlage wissenschaftlicher Daten optimal zu planen, hat das Institut für Wasserbau und Siedlungswasserwirtschaft (IWS) der HTWK Leipzig im Auftrag der Landestalsperrenverwaltung die Talsperre im Maßstab 1 : 8 nachgebaut. Genauer gesagt wurde für die Planungen ein Teil der Hochwasserentlastungsanlage nachgebildet.

„Unser Modell dient der Verdeutlichung der komplexen Strömungen, die beim Abfließen eines Hochwassers durch die Entlastungsanlage der Staumauer auftreten. Im Vergleich zu rein theoretischen Berechnungen können Messungen an einem Modell genauere Ergebnisse liefern. Außerdem können wir Umbaumaßnahmen im Miniaturmaßstab testen und ihre Auswirkungen auf das Bauwerk prüfen“, erklärt Tilo Sahlbach vom Institut für Wasserbau und Siedlungswasserwirtschaft. Eingebunden ist das Talsperrenmodell in das Wasserbaulabor der HTWK Leipzig. Hier sind auf einer Fläche von 350 Quadratmetern hydraulische Großversuche möglich. Kernstück des Labors sind drei leistungsstarke Pumpen, die einen Wasserdurchfluss von 540 Litern pro Sekunde erzeugen können. Im Modell der Talsperre Lehnmühle lassen sich so Extremhochwasser simulieren, wie sie nur alle hundert, tausend oder gar alle zehntausend Jahre vorkommen.

Auf Grundlage der Forschungsarbeiten an der HTWK Leipzig hat die Landestalsperrenverwaltung im Sommer 2016 einen Planungsentwurf für den Umbau vorgelegt. Voraussichtlich im Frühjahr 2017 soll mit den Baumaßnahmen begonnen werden.

Hintergrund: Hochwasserentlastung in der Talsperre Lehnmühle
Mit einer 50 Meter hohen Staumauer und einem Rückhaltevolumen von rund 22 Millionen Kubikmetern Wasser gehört die Talsperre Lehnmühle zu den großen Talsperren in Deutschland. Sie wurde von 1926 bis 1930 gebaut und staut die Wilde Weißeritz auf, die im Erzgebirge entspringt und bei Dresden schließlich als Vereinigte Weißeritz in die Elbe mündet. Der Stausee funktioniert bei Hochwassern wie ein Puffer und schützt so zahlreiche Orte im Südraum Dresdens vor Überschwemmungen. Bei extremen Hochwassern fließt ein Teil der Wassermenge über die Hochwasserentlastungsanlage der Talsperre ab. Die Überlauföffnungen im oberen Teil der Staumauer funktionieren ähnlich einem Notüberlauf in der Badewanne. Denn würde ein Hochwasser ungehindert die Krone der Staumauer überfließen, könnte das die Standsicherheit und Funktionsfähigkeit des Bauwerks einschränken. Mit dem geplanten Umbau wird die Leistungsfähigkeit der Hochwasserentlastungsanlage erhöht.

Quelle: idw

(nach oben)


Ständige Impfkommission veröffentlicht neue Impfempfehlungen

Susanne Glasmacher Presse- und Öffentlichkeitsarbeit
Robert Koch-Institut

Die Ständige Impfkommission am Robert Koch-Institut (STIKO) hat ihre neuen Empfehlungen im Epidemiologischen Bulletin 34/2016 veröffentlicht. Im Mittelpunkt steht die Überarbeitung der Empfehlungen zur Pneumokokken-Schutzimpfung für Senioren und andere gefährdete Risikogruppen. Außerdem gibt die STIKO erstmals Hinweise zur Verringerung von Schmerz- und Stressreaktionen beim Impfen.

Die Ständige Impfkommission am Robert Koch-Institut (STIKO) hat ihre neuen Empfehlungen im Epidemiologischen Bulletin 34/2016 veröffentlicht. Im Mittelpunkt steht die Überarbeitung der Empfehlungen zur Pneumokokken-Schutzimpfung für Senioren und andere gefährdete Risikogruppen. Außerdem gibt die STIKO erstmals Hinweise zur Verringerung von Schmerz- und Stressreaktionen beim Impfen.

Pneumokokken stellen in Europa die Hauptursache von bakteriellen Lungenentzündungen dar. Die STIKO schätzt, dass jedes Jahr mehr als 5.000 Menschen in Deutschland an den Folgen einer Pneumokokken-Erkrankung sterben. Besonders gefährdet sind Kinder unter 2 Jahren, Menschen ab 60 Jahren sowie Kinder, Jugendliche und Erwachsene mit bestimmten Grundkrankheiten, z. B. Personen mit einer Immunschwäche oder mit chronischen Krankheiten des Herzens oder der Lunge.

Neben dem bereits seit 1983 zugelassenen 23-valenten Pneumokokken-Polysaccharid-impfstoff (PPSV23) steht seit einigen Jahren mit dem 13-valenten Pneumokokken-Konjugatimpfstoff (PCV13) ein zweiter Impfstoff für die Impfung von Erwachsenen zur Verfügung. Dies hat die STIKO veranlasst, ihre Empfehlungen zur Pneumokokken-Impfung für Erwachsene zu überarbeiten. Nach gründlicher Analyse aller verfügbaren Studien empfiehlt die STIKO auch weiterhin für alle Personen ab dem Alter von 60 Jahren eine alleinige Impfung mit PPSV23. PPSV23 hat gegenüber PCV13 den Vorteil, gegen ein deutlich breiteres Spektrum (nämlich 23 statt 13) der insgesamt über 90 Pneumokokken-Serotypen zu schützen. Nur für Personen mit einer Immunschwäche und einige wenige weitere Risikogruppen ist eine zusätzliche Impfung mit PCV13 sinnvoll. Für Kinder unter 2 Jahren gilt weiterhin die Empfehlung der routinemäßigen Impfung mit Konjugatimpfstoff, weil sie nach Impfung mit PPSV23 keine ausreichende Immunantwort entwickeln.

Eine bessere Umsetzung der Impf-Empfehlungen ist dringend wünschenswert: bislang sind nur 31 Prozent der Senioren (im Alter von 65 bis 79 J.) gegen Pneumokokken geimpft. Das zeigen Daten der Deutschen Erwachsenengesundheitsstudie DEGS des Robert Koch-Instituts. Die Pneumokokken-Impfung kann beim gleichen Impftermin durchgeführt werden wie die Grippeschutzimpfung, die ebenfalls für Ältere und für chronisch Kranke aller Altersstufen empfohlen ist.

Schmerzen und Stressreaktionen können bei jeder Impfung und in jedem Alter auftreten. Die Sorge davor kann die Einstellung gegenüber dem Arztbesuch, dem Impfen und die Akzeptanz von Impfungen ein Leben lang beeinträchtigen. Die STIKO gibt erstmals generelle Hinweise zur Verringerung von Schmerz- und Stressreaktionen beim Impfen. Zu den Empfehlungen gehören Hinweise auf bestimmte Injektionstechniken, schmerzstillende Medikamente und altersabhängige Ablenkungsmethoden.

Eine ausführliche Darstellung aller Neuerungen und die wissenschaftlichen Begründungen werden in den Ausgaben 35 bis 37 des Epidemiologischen Bulletins veröffentlicht.

Weitere Informationen:
Internetseite der STIKO http://www.rki.de/stiko
RKI-Internetseite zum Impfen http://www.rki.de/impfen

Herausgeber
Robert Koch-Institut
Nordufer 20
D-13353 Berlin

www.rki.de
Twitter: @rki_de

Kontakt
Tel.: 030-18754-2239, -2562 und -2286
E-Mail: presse@rki.de

Das Robert Koch-Institut ist ein Bundesinstitut im Geschäftsbereich des Bundesministeriums für Gesundheit.

Quelle: idw

(nach oben)


Plastikpiraten erobern deutsche Flüsse

Christine Rutke Redaktionsbüro Wissenschaftsjahr 2016*17 – Meere und Ozeane
Wissenschaftsjahr 2016*17 – Meere und Ozeane

Teilnehmer der Jugendaktion „Plastikpiraten“ im Wissenschaftsjahr Meere und Ozeane messen Plastikbelastung in Fließgewässern

Ein großer Teil des Mülls in den Meeren und Ozeanen gelangt über die Flüsse dorthin. Bis zu 13 Millionen Tonnen landen jährlich in den Meeren. 41 Prozent aller Deutschen aber meinen, dass sie durch den täglichen Gebrauch von Plastikartikeln wie Verpackungen keine große oder so gut wie keine Mitverantwortung an der Plastikmüllverschmutzung der Meere tragen, so das Ergebnis einer aktuellen repräsentativen forsa-Umfrage im Auftrag des Wissenschaftsjahres 2016*17 – Meere und Ozeane.

Am 16. September startete die bundesweite Citizen Science-Aktion „Plastikpiraten – Das Meer beginnt hier!“ des Wissenschaftsjahres, um die Belastung durch Plastik in fließenden Gewässern zu messen und die Öffentlichkeit stärker für das Problem zu sensibilisieren. Bis zum 18. November werden Jugendliche selbst zu Forscherinnen und Forschern: Schulklassen und Jugendgruppen fischen mit feinmaschigen Netzen in Flüssen nach Mikroplastik, sammeln Plastik am Ufer ein und dokumentieren das Ergebnis auf einer digitalen Karte unter http://www.wissenschaftsjahr.de/jugendaktion.

Den Auftakt hat am vergangenen Freitag eine Schülergruppe des Friedrich-Schiller-Gymnasiums Preetz am Falckensteiner Strand an der Kieler Förde gemacht, und die erste Untersuchung vorgenommen. Alle Ergebnisse werden anschließend von der Kieler Forschungswerkstatt wissenschaftlich ausgewertet. Das Schülerlabor ist Partner der Aktion und wird unterstützt vom Exzellenzcluster „Ozean der Zukunft“.
„Klimawandel, Überfischung und Vermüllung bedrohen den größten Lebensraum des Planeten“, sagte Bundesforschungsministerin Johanna Wanka. „Wir brauchen eine Trendwende hin zu einem nachhaltigen Umgang mit den Meeren. Das wollen wir mit der Aktion ‚Plastikpiraten‘ jungen Menschen nahebringen. Jeder und jede Einzelne kann etwas dafür tun, um die Meere zu schützen“.

Viele Deutsche würden Mehrkosten für umweltschonendere Alternativen akzeptieren
Immerhin sind viele Deutsche schon jetzt bereit, zum Schutz der Meere und Ozeane ihren Teil beizutragen: 86 Prozent geben laut forsa-Umfrage an, höhere Kosten zu akzeptieren, wenn beispielsweise Lebensmittelproduzenten zunehmend auf Plastikverpackungen verzichten und umweltschonendere, aber möglicherweise teurere Alternativen verwenden würden. Sogar bei den Befragten mit einem Haushaltsnettoeinkommen von unter 1.500 Euro liegt die Bereitschaft noch bei 78 Prozent, so das Ergebnis der forsa-Umfrage.

Mehr Forschung zum Thema Plastikmüll gewünscht
Dass Aufklärung wichtig ist, sagen fast alle: 90 Prozent der Befragten sind der Meinung, dass die Erforschung der Plastikbelastung in Meeren und Ozeanen staatlich gefördert werden soll. Zudem glauben 87 Prozent, dass die Auswirkungen von Plastikmüll auf die Gesundheit des Menschen nicht ausreichend bekannt sind. Rund die Hälfte der Befragten (53 Prozent) weiß nicht, dass in vielen Kosmetikartikeln kleine Plastikpartikel – sogenanntes Mikroplastik – enthalten sind, die durch die Verwendung dieser Produkte in die Meere gelangen. Um die Erforschung der Plastikmüll-Belastung zu fördern, hat das Bundesministerium für Bildung und Forschung im Juni 2016 die Förderrichtlinie „Plastik in der Umwelt“ veröffentlicht.

Wissenschaftsjahr 2016*17 – Meere und Ozeane
Die Meeresforschung ist Thema des Wissenschaftsjahres 2016*17. Zu 71 Prozent bedecken Ozeane und Meere unseren Planeten. Sie sind Klimamaschine, Nahrungsquelle, Wirtschaftsraum – und sie bieten für viele Pflanzen und Tiere Platz zum Leben. Wissenschaftlerinnen und Wissenschaftler untersuchen die Ozeane seit Jahrhunderten; und doch sind sie noch immer geheimnisvoll und in weiten Teilen unerforscht. Im Wissenschaftsjahr 2016*17 – Meere und Ozeane geht es um die Ergründung der Gewässer, ihren Schutz und eine nachhaltige Nutzung. Die Wissenschaftsjahre sind eine Initiative des Bundesministeriums für Bildung und Forschung (BMBF) gemeinsam mit Wissenschaft im Dialog (WiD). Sie tragen als zentrales Instrument der Wissenschaftskommunikation Forschung in die Öffentlichkeit. Das Wissenschaftsjahr 2016*17 wird vom Konsortium Deutsche Meeresforschung (KDM) als fachlichem Partner begleitet.

http://www.wissenschaftsjahr.de

Quelle: idw

(nach oben)


Halten Spiralwirbel und Bakterien Methan im Meerwasser zurück? Poseidon-Fahrt erfolgreich beendet

Friederike Balzereit Kieler Exzellenzcluster Ozean der Zukunft
Christian-Albrechts-Universität zu Kiel

Seit mehr als 25 Jahren beschäftigt Meeresforscher ein Gasfeld in der nördlichen Nordsee rund 200 Kilometer von Schottland entfernt. Nach einer Öl-Probebohrung kam es hier zu einem Gas-Blowout. Seitdem steigen große Mengen an klimaschädigendem Methangas vom Meeresboden in die Wassersäule auf. Trotz dieses massiven Eintrags werden jedoch nachweislich nur relativ geringe Mengen bis in die Atmosphäre transportiert. Zwei mögliche Ursachen dafür waren nun Forschungsgegenstand einer zweiwöchigen Expedition des Kieler Forschungsschiffs Poseidon unter Leitung der Christian-Albrechts-Universität zu Kiel (CAU) und in Kooperation mit dem Leibniz-Institut für Ostseeforschung Warnemünde (IOW).

Wissenschaftlerinnen und Wissenschaftler untersuchten, ob für diese „Abpufferung“ die besondere Form des Spiralwirbels verantwortlich sein kann, in der das Gas innerhalb der Wassersäule nach oben steigt. Eine weitere Hypothese geht davon aus, dass mit den aufsteigenden Gasblasen Methan-abbauende Mikroorganismen in die Wassersäule gelangen, die das Klimagas in unschädlichere Substanzen umwandeln.

Im Jahr 1990 kam es im englischen Sektor in der zentralen Nordsee nach Probebohrungen im Auftrag der Firma Mobil North Sea (heute ExxonMobil) zu einem unkontrollierten Gas-Blowout. Der anfangs extreme Strom an Methangas an die Wasseroberfläche schwächte sich zwar schnell ab, ein Versiegen der Quelle konnten die Forscher aber bis heute nicht feststellen: Nach wie vor zählt diese Stelle zu einer der aktivsten marinen Methangasquellen weltweit. Wissenschaftler des GEOMAR Helmholtz-Zentrums für Ozeanforschung Kiel hatten bereits im Jahr 2005 während einer Forschungsreise mit dem Forschungsschiff ALKOR anhaltende Austritte des Klimagases Methan aus einem 50 Meter breiten und 20 Meter tiefen Krater am Meeresboden bis an die Meeresoberfläche nachweisen können. Dank zahlreicher Folgefahrten konnten die Forscher belegen, dass dabei jedoch nur sehr geringe Mengen an Methan von der Quelle bis in die Atmosphäre transportiert werden.

Unter Fahrtleitung von Dr. Jens Schneider von Deimling, Geophysiker am Institut für Geowissenschaften an der Universität Kiel, hat das Forschungsteam der Uni Kiel und des Leibniz-Instituts für Ostseeforschung gemeinsam mit Kollegen der University of California (UCLA) und des GEOMAR nun den Krater in 95 Metern Wassertiefe mit einer Verknüpfung von hydroakustischen, biogeochemischen, mikrobiologischen und ozeanographischen Methoden untersucht. Dabei standen zum einen komplexe Gaswirbel und die Einschichtung unter der sommerlichen Sprungschicht in der Nordsee im Fokus. Bereits vorangegangene Untersuchungen gaben den Forschern deutliche Hinweise auf die Ausbildung von großen Gasblasen-Spiralwirbeln in der Wassersäule. Videoaufnahmen mit dem ROV PHOCA des GEOMAR und schiffsbasierte Fächerecholotstudien zum so genannten „Spiral Vortex“ in der durch Gasblasen beeinflussten Wassersäule zeigten, dass individuelle, vom Sediment freigesetzte Gasblasenströme sich zu einem spiralförmigen Wirbel vereinen. Im Rahmen der aktuellen Expedition wurden nun spezielle Sonargeräte eingesetzt, um derartige Spiralbewegung nachzuweisen und quantitativ zu erfassen. Die Wirbel befinden sich unterhalb der Temperatur-Sprungschicht in rund 50 Metern Wassertiefe, wo sich methanangereichertes Wasser befindet. Die Forscher vermuten, dass diese das Lösungsverhalten und die Verteilung des Methans im Wasser wesentlich beeinflussen.
„Anscheinend tragen die gasblasen-induzierten Verwirbelungen entscheidend dazu bei, dass sich Methanblasen deutlich stärker im Wasser lösen als wir es in Modellen zuvor angenommen haben“, sagt Fahrtleiter Dr. Jens Schneider von Deimling vom Institut für Geowissenschaften an der Uni Kiel. Mithilfe akustischer Spezialverfahren erhoffen sich die Forscher weitere Erkenntnisse darüber wie genau die Spiralbewegung der Gasaustritte den Transport des klimaschädlichen Methans beeinflusst. Die Ergebnisse könnten eine entscheidende Grundlage für die Aufschlüsselung von Prozessen auch an natürlichen Gasfeldern sein.

Einen weiteren Schwerpunkt der Expedition bildete die Frage, in welchem Maße aufsteigende Gasblasen als Transport-Vehikel für Bakterien dienen, die anschließend das gelöste Methan in der Wassersäule in unschädlichere Substanzen umwandeln. Diese so genannten methanotrophen Mikroorganismen kommen sowohl im Sediment als auch in der Wassersäule von methanreichen Gebieten vor. „Dass Methan-abbauende Bakterien einen solchen Transport nutzen, konnten wir bereits mithilfe unseres Bubble Catchers an einer weniger starken, natürlichen Methanquelle vor der Küste Kaliforniens zeigen. Nun wollten wir prüfen, wie sich diese Ergebnisse auf starke Gasaustritte, so genannte Mega-Seeps, übertragen lassen. Der lokal begrenzte Austritt von Gasblasen im Kraterinneren ermöglicht zudem eine bessere Abschätzung, wie groß der Anteil der mit den Blasen aufsteigenden Bakterien am Gesamt-Pool der Methan-verzehrenden Mikroorganismen in der den Krater umgebenden Wassersäule ist,“ sagt Dr. Oliver Schmale, Wissenschaftler am Leibniz-Institut für Ostseeforschung Warnemünde und Leiter des DFG-Projektes „Bubble shuttle – transport of methane-oxidizing microorganisms from the sediment into the water column through gas bubbles“. Oliver Schmale war an Bord der Poseidon für die Untersuchungen des mikrobiellen Gasblasen-Transportes zuständig. Der mit künstlichem, sterilem Meerwasser gefüllte Zylinder des Bubble Catchers fängt die vom Boden aufsteigenden Gasblasen samt der ihnen anheftenden Bakterien möglichst kontaminationsfrei auf, sodass durch anschließende mikroskopische Analysen (CARD-FISH) eine Bestimmung erfolgen kann. Auf der Poseidon kam ein neuer, handlicher Bubble Catcher zum Einsatz, der auch von einem ROV (Remote Operating Vehicle) bedient werden kann. „Der Einsatz eines solchen ferngesteuerten Unterwasser-Arbeitsgerätes, das dann auch noch ein hochspezialisiertes Probennahme- und Messgerät wie unseren Bubble Catcher bedienen muss, ist immer Nerven aufreibend. Zuviel kann schief gehen, was dann die Arbeit von Monaten zunichtemachen kann. Aber dank einer guten Vorbereitung und der reibungslosen Zusammenarbeit zwischen dem ROV-Team des GEOMAR, der Schiffsbesatzung und uns war der Einsatz ein voller Erfolg.“ Für Oliver Schmale und IOW-Doktorand Sebastian Jordan hat damit der riskanteste Teil der Projektarbeit seinen glücklichen Abschluss gefunden: die Proben sind genommen. Nun beginnen die Laborarbeiten in Warnemünde und Kiel.
„Die genauen Ergebnisse der Expedition, wann und in welcher Ausprägung sich Spiralwirbel ausbilden, werden erst in einigen Monaten feststehen. Bis dahin gilt es allein in Kiel, mehr als drei Terrabyte an Daten zu verarbeiten“, resümiert Fahrtleiter Dr. Jens Schneider von Deimling.

Publikationen zum Thema
Schneider von Deimling, J., P. Linke, M. Schmidt and G. Rehder (2015). Ongoing methane discharge at well site 22/4b (North Sea) and discovery of a spiral vortex bubble plume motion. Marine and Petroleum Geology, Vol 68, Part B: 718-730, doi: 10.1016/j.marpetgeo.2015.07.026 (open access)

Schmale O., Leifer I., Schneider v. Deimling J., Stolle C., Krause S., Kießlich K., Frahm A., and Treude T. (2015). Bubble Transport Mechanism: Indications for a gas bubble-mediated inoculation of benthic methanotrophs into the water column, Cont. Shelf Res., 103, 70-78.

Kontakt
Dr. Jens Schneider von Deimling, Institut für Geowissenschaften, Christian-Albrechts-Universität zu Kiel, Telefon (0431) 880-5792, jschneider@geophysik.uni-kiel.de
Dr. Oliver Schmale, Leibniz-Institut für Ostseeforschung Warnemünde (IOW), Sektion Meereschemie, Telefon (0381) 5197-305, oliver.schmale@io-warnemuende.de

Weitere Informationen:
http://www.futureocean.org
http://www.io-warnemünde.de

Quelle: idw

(nach oben)


Guter Schlaf schützt das Gehirn – schlechter Schlaf fördert Alzheimer und Parkinson

Deutsche Gesellschaft für Neurologie e.V., Pressesprecher: Prof. Dr. med. Hans-Christoph Diener, Essen Pressestelle der DGN
Deutsche Gesellschaft für Neurologie

Der Mensch verschläft rund ein Drittel seines Lebens. „Guter Schlaf erhöht die Chancen, bis ins hohe Alter geistig fit und gesund zu bleiben“, sagt der Neurologe und Schlafmediziner Professor Geert Mayer von der Deutschen Gesellschaft für Neurologie. In seinem Symposium „Schlafstörungen in der Neurologie“ werden auf dem Neurologenkongress in Mannheim aktuelle Forschungsergebnisse präsentiert, die zeigen, wie Schlaf das Gehirn vor neurodegenerativen Erkrankungen wie Alzheimer und Parkinson schützen kann. „Schlafstörungen und neurologische Erkrankungen hängen oft eng zusammen“, so Mayer weiter.

Wenn man Auffälligkeiten im Schlaf wahrnimmt und ernst nehme, lasse sich manchmal sogar ein Schlaganfall verhindern.

Schlaf entgiftet das Gehirn
Ausreichend erholsamer Schlaf ist für den Menschen überlebenswichtig. Während der Körper ruht, regenerieren die Muskeln, speichert das Gehirn Gelerntes ab und das Immunsystem arbeitet auf Hochtouren, um Krankheiten abzuwehren. Neue wissenschaftliche Untersuchungen zeigen, dass guter Schlaf auch vor neurologischen Altersleiden wie Parkinson schützen kann. „Schlaf ist für das Gehirn wie ein Spülprogramm, denn im Schlaf werden Abbaustoffe ausgewaschen“, erklärt Professor Geert Mayer, Chefarzt der Neurologie und des Schlafmedizinischen Zentrums der Hephata-Klinik in Schwalmstadt. „Fehlt die Nachtruhe, kann sich in den Nervenzellen Abfall des Gehirnstoffwechsels anhäufen und Schaden anrichten.“ Eine mögliche Folge von Schlafmangel ist z.B., dass fehlerhaft gefaltetes Alpha-Synuklein nicht ausreichend aus dem Zentralnervensystem entfernt wird. Das Eiweiß wird als Ursache der Parkinson-Krankheit diskutiert. Es lagert sich typischerweise im Gehirn der Erkrankten ab, wo es in den Nervenzellen sogenannte Lewy-Körperchen bildet. Je weiter die Krankheit fortschreitet, desto mehr dieser schädlichen Ablagerungen entstehen im Gehirn. „Abbaustoffe, die charakteristisch für die Alzheimer-Erkrankung sind, wie Tau-Proteine oder Beta-Amyloid, werden ebenfalls vorwiegend im Schlaf aus dem Gehirn gewaschen“, ergänzt Mayer.

Diagnose im Schlaflabor
Schlaf kennt viele Varianten des Normalen. Während Babys noch den halben Tag verschlafen, kommen Erwachsene oft mit wenigen Stunden Schlaf aus. Viele Menschen, vor allem ältere, wünschen sich mehr erholsame Nachtruhe. „Nicht jeder, der das Gefühl hat, schlecht zu schlafen, leidet unter einer behandlungsbedürftigen Schlafstörung“, betont der Schlafmediziner. „Aber Tagesschläfrigkeit, Ein- und Durchschlafstörungen, die länger als drei Monate anhalten, sehr unruhiger Schlaf, Atemaussetzer und andere auffällige motorische Phänomene im Schlaf sollten im Schlaflabor abgeklärt werden.“ Bei entsprechenden Symptomen könne der Hausarzt oder der behandelnde Neurologe den Patienten in eines der mindestens 34 neurologischen Schlaflaboratorien in Deutschland überweisen. Für eine exakte Diagnose wird der Patient dort verkabelt, um Vitalfunktionen zu kontrollieren, es wird ein EEG aufgezeichnet und der Schlaf via Videokamera überwacht.

Schlafstörung geht Parkinson voraus
Eine Störung, die im Schlaflabor aufgedeckt werden kann, ist die REM-Schlafverhaltensstörung (REM sleep behavior disorder, RBD). Im Traumschlaf ist die Muskulatur normalerweise inaktiv. Patienten mit RBD sind in dieser Schlafphase dagegen auffällig in Bewegung, wie Mayer in einem eindrucksvollen Video präsentiert. „Betroffen sind vorwiegend Männer über sechzig mit kardiovaskulären Erkrankungen. Sie haben aggressive Träume und schlagen und treten um sich, wobei sie nicht selten sich selbst oder ihre Bettpartner verletzen“, erklärt der Neurologie und ergänzt: „Wir wissen, dass etwa 90 Prozent der Betroffenen innerhalb weniger Jahre eine Parkinson-Erkrankung entwickeln.“ Auch bei REM-Schlafstörungen sind Ablagerungen von Alpha-Synuklein nachweisbar. Sie stehen derzeit im Fokus der Forschung, weil diese Patienten für eine Frühbehandlung der Parkinson-Erkrankung in Frage kommen.

Atemaussetzer erhöhen Schlagunfallrisiko
Der Zusammenhang zwischen Schlaf und einer anderen neurologischen Erkrankung ist seit einigen Jahren bekannt: Wenn die Atmung im Schlaf unbewusst aussetzt, steigt das Schlaganfallrisiko. „Mit einer gezielten Behandlung können wir das Schlaganfallrisiko und das langfristige kardiovaskuläre und Mortalitätsrisiko wirksam senken“, sagt Mayer. Deshalb sei es essenziell, schlafbezogene Atmungsstörungen (SBAS) frühzeitig zu erkennen.

Fachlicher Kontakt bei Rückfragen
Prof. Dr. Geert Mayer
Hephata-Klinik
Schimmelpfengstr. 6
34613 Schwalmstadt
E-Mail: geert.mayer@hephata.de

Die Deutsche Gesellschaft für Neurologie e.V. (DGN)
sieht sich als neurologische Fachgesellschaft in der gesellschaftlichen Verantwortung, mit ihren mehr als 8000 Mitgliedern die neurologische Krankenversorgung in Deutschland zu sichern. Dafür fördert die DGN Wissenschaft und Forschung sowie Lehre, Fort- und Weiterbildung in der Neurologie. Sie beteiligt sich an der gesundheitspolitischen Diskussion. Die DGN wurde im Jahr 1907 in Dresden gegründet. Sitz der Geschäftsstelle ist Berlin.
www.dgn.org

Präsident: Prof. Dr. med. Ralf Gold, Stellvertretender Präsident: Prof. Dr. med. Gereon R. Fink
Past-Präsident: Prof. Dr. med. Martin Grond
Geschäftsführer: Dr. rer. nat. Thomas Thiekötter, Geschäftsstelle: Reinhardtstr. 27 C, 10117 Berlin, Tel.: +49 (0) 30 531437930, E-Mail: info@dgn.org

Weitere Informationen:

http://www.dgn.org/presse/pressemitteilungen/51-pressemitteilung-2016/3310-guter…

Anhang

Pressemitteilung als PDF
https://idw-online.de/de/attachment50959

Quelle: idw

(nach oben)


Neues Autolicht revolutioniert Sicherheit im Verkehr

Tobias Steinhäußer Kommunikation
Fraunhofer-Gesellschaft

• Intelligenter Pixelscheinwerfer bringt mehr blendfreies Licht auf die Straße
• Blendung des Gegenverkehrs wird zuverlässig vermieden
• Vervielfachung der bis dato technisch möglichen Auflösung revolutioniert Lichtverteilung

Ein deutscher Forschungsverbund mit namhaften Mitgliedern aus Industrie und Forschung hat die Grundlagen für einen intelligenten LED-Fahrzeugscheinwerfer mit hoher Auflösung entwickelt, der so genanntes adaptives Fahrlicht in eine neue Dimension bringt. Das Demonstrationsmodell wurde vom Gesamtprojektleiter Osram gemeinsam mit den Projektpartnern Daimler, Fraunhofer, Hella und Infineon entwickelt. Jeder Scheinwerfer enthält drei neuartige LED-Lichtquellen mit jeweils 1 024 einzeln ansteuerbaren Punkten. Dadurch lässt sich das Scheinwerferlicht sehr genau an die jeweilige Verkehrssituation anpassen, so dass immer optimale Lichtverhältnisse herrschen, ohne andere Verkehrsteilnehmer zu blenden. Das Licht kann an jeden denkbaren Kurvenverlauf so angepasst werden, dass es keine dunklen Randbereiche gibt. Mithilfe von Sensoren im Fahrzeug kann zudem das Umfeld analysiert werden, um andere Verkehrsteilnehmer ausreichend anzuleuchten. Dies macht sie für den Fahrer deutlicher wahrnehmbar. Gleichzeitig können aber die Köpfe entgegenkommender Verkehrsteilnehmer vom Lichtstrahl ausgespart werden, um zuverlässig deren Blendung zu vermeiden. Solch ein variables Fernlicht bräuchte daher auf der Landstraße nie mehr abgeblendet zu werden.

LED-Chip mit 1 024 einzeln ansteuerbaren Lichtpunkten
Das vom Bundesministerium für Bildung und Forschung (BMBF) geförderte Projekt wurde mit der Herstellung und dem Feldtest von Scheinwerfer-Demonstratoren jetzt nach dreieinhalb Jahren erfolgreich abgeschlossen. Für die Umsetzung entwickelte Osram Opto Semi-conductors mit Infineon und dem Fraunhofer-Institut für Zuverlässigkeit und Mikrointegration (IZM) einen neuartigen LED-Chip mit 1 024 einzeln ansteuerbaren Lichtpunkten. Bisher wurden bei adaptiven Scheinwerfern mehrere LED-Komponenten neben- und übereinander eingesetzt. Um das Ein- und Ausschalten von Licht-Segmenten zu bewerkstelligen, waren zusätzliche elektronische Komponenten notwendig. Die Zahl der Segmente war infolge des begrenzten Platzes im Scheinwerfer limitiert. Im neuen Ansatz ist die Elektronikansteuerung der LED in den Chip integriert. Für das neuartige intelligente Autolicht entwickelte der Geschäftsbereich Osram Specialty Lighting in einem zweiten Schritt rund um den hochauflösenden LED-Chip ein LED-Modul, das mit seiner elektrischen und thermischen Schnittstelle die direkte Anbindung an die Fahrzeugelektronik ermöglicht.

Variable und adaptive Lichtverteilung
Beim Einsatz eines intelligenten und hochauflösenden Scheinwerfers, dessen Machbarkeit nun in dem Projekt erfolgreich demonstriert wurde, werden die Fahr- und Wettersituationen kontinuierlich analysiert: Wie ist der Straßenverlauf, wie hoch die Geschwindigkeit, kommt Gegenverkehr und wie ist der Abstand zu anderen Verkehrsteilnehmern? Darauf basierend sorgt die variable und adaptive Lichtverteilung in jeder Situation für eine passgenaue Beleuchtung. Bei höherer Geschwindigkeit vergrößert sich beispielsweise automatisch auch die Reichweite des Lichtkegels. Im Stadtverkehr bringt hingegen eine breitere Lichtverteilung mehr Sicherheit, die zusätzlich zur Straße auch den Bürgersteig und Randbereiche besser ausleuchtet. Diese Funktionen werden vollelektronisch ohne mechanische Stellmotoren realisiert. Beim blendfreien Fernlicht bekommt der Fahrer stets die bestmögliche Sicht bei Nacht – ohne andere Verkehrsteilnehmer zu beeinträchtigen. Das bedeutet für den Autofahrer ein deutliches Plus an Wahrnehmung und ist ein wichtiger Beitrag zur Verringerung des Unfallrisikos bei Nachtfahrten.

»Wir wollen diese neue Art hochauflösender LED-Lichtquellen nun zur Serienreife bringen und sehen großes Potenzial für die Anwendung im Fahrzeuglicht«, sagte Stefan Kampmann, Technikvorstand der OSRAM Licht AG.

Intelligente Treiberschaltung von Infineon
Die Infineon Technologies AG entwickelte die intelligente Treiberschaltung im neuartigen LED-Chip. Mit ihr lässt sich jeder einzelne der 1 024 Lichtpunkte individuell ansteuern. Dem Halbleiterhersteller ist es gelungen, sie so zu designen, dass sie im LED-Chip direkt mit dem über ihr liegenden lichtemittierenden LED-Array zu verbinden ist. Die speziellen Anforderungen der neuartigen Verbindungstechnik mussten dabei mit den Fertigungstechnologien für LED-Treiber in Einklang gebracht werden. Mit der intelligenten Treiberschaltung und seinem breiten Anwendungswissen für Automobilanwendungen unterstützt Infineon den Trend zu hochinnovativen, adaptiven Frontlichtsystemen.

Hella: technische Anforderungen an die Lichtquelle spezifiziert
Die HELLA KGaA Hueck & Co spezifizierte ausgehend von den funktionalen Anforderungen von Daimler die wesentlichen technischen Anforderungen an die Lichtquelle. Der Licht- und Elektronikspezialist entwickelte das gesamte optische System der Lichtmodule sowie deren Entwärmungskonzept und baute die Prototypenscheinwerfer auf. Diese erzielen eine sehr hohe Systemeffizienz und erzeugen ein ausgesprochen homogenes Lichtbild bei gleichzeitig guter Abbildungsqualität der einzelnen Lichtpunkte. Die unterschiedlichen Lichtbilder können damit rein elektronisch und somit ganz ohne mechanische Aktoren erzeugt werden. Dies ist ein Schritt in Richtung Digitalisierung im Lichtbereich. Mit der Entwicklung wird Hella dem eigenen Anspruch gerecht, innovative Lichtsysteme mit und für Kunden zu entwickeln und diese nicht nur in der geforderten Genauigkeit und Qualität in Serie zu bringen, sondern technologisch auch immer einen Schritt voraus zu denken.

Daimler hat Scheinwerfer-Gesamtsystem im Blick
Von der Daimler AG wurden im Forschungsprojekt die funktionalen Anforderungen und die zukünftigen Fahrzeugeigenschaften für das Scheinwerfer-Gesamtsystem spezifiziert. Daraus ergaben sich die Komponenten und die Moduleigenschaften für das Scheinwerfer-Gesamtsystem, das unter Berücksichtigung künftiger Sensoren und Fahrzeug-Architekturen die optimale Lichtverteilung berechnet und an die Pixel-Scheinwerfer weitergibt. Im Hinblick auf zukünftige Elektrofahrzeuge stellte auch das Thema Energieeffizienz eine wesentliche Anforderung an die neu entwickelte LED. Für die Erprobungstests im Realverkehr war ein Fahrzeug von Daimler mit den intelligenten LED-Scheinwerfern im Einsatz.

In der aktuellen Mercedes-Benz E-Klasse arbeiten MULTIBEAM LED Scheinwerfer von Hella mit je 84 einzeln ansteuerbaren Osram-Hochleistungs-LED. Daimler treibt die Entwicklung von LED-Scheinwerfern mit immer mehr und immer feineren Pixeln voran und baut seine Vorreiterrolle im Lichtsektor weiter aus.

Fraunhofer IZM: LED-Arrays auf aktive Treiberschaltung gebracht
Fraunhofer brachte in das Projekt seine Kompetenz zu Verbindungstechnik (LED & ICs) und Materialien sowie zur Erkennung und Isolation von Defekten ein. Die sehr hohe Auflösung gelang durch eine noch feinere Strukturierung mit einer außergewöhnlichen, miniaturisierten Anschlusstechnik. Hierzu wurden am Fraunhofer-Institut für Zuverlässigkeit und Mikrointegration IZM in Berlin LED-Arrays von Osram mit 1 024 Pixeln auf eine aktive Treiberschaltung von Infineon montiert, die jeden Pixel individuell ansteuert. Bei einer extrem guten Entwärmung wurden die Chips so aufgebaut, dass sie den Ausgleich einiger Mikrometer Höhenunterschied ermöglichen. Dabei wurden zwei Technologievarianten parallel untersucht: das Thermokompressions-Bonden mit nanoporösem Goldschwamm und das Reflowlöten mit hoch zuverlässigem Gold-Zinn. Beide Montagetechniken wurden erfolgreich mit hoher Ausbeute angewandt und bewiesen ein robustes Interface für nachfolgende LED-Prozesse.

Fraunhofer IAF: Reparatur von Defekten während der Herstellung
Zu den technologischen Herausforderungen des hochauflösenden LED-Scheinwerfers gehört der vergleichsweise große Chip mit 1 024 einzeln ansteuerbaren Pixeln. Denn mit zunehmender LED-Chipgröße steigt bei der Herstellung das Risiko für ein Versagen oder eine niedrigere Leuchtkraft einzelner Lichtpunkte innerhalb der Pixel-Matrix. Um dieser Problematik zu begegnen, hat das Fraunhofer-Institut für Angewandte Festkörperphysik IAF in Freiburg eine neue Technologie zur Reparatur von Defekten während des laufenden Herstellungsverfahrens entwickelt. Sie baut auf ultravioletter Laser-Mikrobearbeitung auf und ermöglicht die Reparatur von Defekten in LED-Chips im laufenden Herstellungsprozess. Und so funktioniert das Verfahren: Die mikroskopischen Defektbereiche werden identifiziert und mit einem UV-Laser durch behutsame Materialabtragung entfernt oder elektrisch isoliert, ohne dass der Laser versehentlich neue Defekte, sogenannte „Leckstrom-Pfade“, verursacht. Nach der Bearbeitung erstrahlen die reparierten Pixel wieder mit voller Leuchtkraft – das „Lumineszenzbild“ ist wieder homogen.

Der wirtschaftliche Nutzen der Laser-Mikrobearbeitung des Fraunhofer IAF liegt nicht nur in der Reduzierung der Defekte während der Produktion und in der Folge sinkendem Ausschuss, was niedrigere Herstellungskosten der großflächiger LED-Chips bedeutet: Das Verfahren kann die durchschnittliche Lebensdauer der LED erhöhen, was einen wichtigen Wettbewerbsvorteil darstellt und für mehr Kundenzufriedenheit sorgt.

Das Projekt μAFS wurde durch das BMBF unter dem Förderkennzeichen 13N12510 gefördert und lief von Februar 2013 bis September 2016. Die Projektpartner haben das Forschungsziel erreicht und eine intelligente Lichtlösung entwickelt, die als technische Grundlage für eine neue Klasse energieeffizienter LED-Frontscheinwerfer mit ergänzenden Verkehrssicherheitsfunktionen gelten kann. Auf dieser Basis können adaptive Frontbeleuchtungssysteme (AFS) entstehen, die Fahrern, Insassen sowie weiteren Verkehrsteilnehmern ein Plus an Sicherheit bringen.

Quelle: idw

(nach oben)


Meeresbiologin mit Weltruf erforscht die Ostsee

Ingrid Rieck Presse- und Kommunikationsstelle
Universität Rostock

Aktuelle Studie: wie interagieren Stressfaktoren im Meer miteinander

Heutzutage belasten die Meere gleich mehrere Stressfaktoren. Die steigenden Kohlendioxidwerte in der Luft lassen das Meereswasser immer saurer werden. Durch den Klimawandel erwärmt sich das Wasser, und durch Wasserverschmutzungen entsteht der Sauerstoffmangel oder sogar Toxizität. Das macht Korallen, Stachelhäuter, Weich- und Krebstiere sowie Fische das Leben schwer. „Das Problem ist unsichtbar aber sehr dringend“, sagt Prof. Inna Sokolova, die seit Juli 2016 an der Universität Rostock als Meeresbiologin forscht und jetzt die Ostsee unter die Lupe nimmt.

„Die Probleme, die die großen Weltmeere haben, sind in etwa alle ähnlich“, hat die 46-jährige Wissenschaftlerin mit internationalen Erfahrungen herausgefunden. „Allerdings treten die Stressfaktoren in der Ostsee wie beispielsweise Sauerstoffmangel oder Erwärmung viel stärker auf“, betont sie. Sokolova beobachtet, dass die Ostsee eines der Gebiete ist, die sich schneller erwärmen als viele andere Meere. Als Ursache macht sie unter anderem die geografische Lage der Ostsee und ihre Tiefe aus. Ihre Forschung erstreckt sich über die Ökosysteme von der Atlantik- und Pazifikküste der USA, der Nordsee, dem arktischen Weißmeer und jetzt besonders auf die Ostsee. Dass es auch hier den Muscheln schlecht geht, beunruhigt sie. „Diese Tiere sind im Ökosystem die Ingenieure“.

Die gebürtige Westukrainerin, die in St. Petersburg studierte, an der Russischen Akademie der Wissenschaften promovierte, sich in den USA habilitierte und auch an einer Universität in Kanada als Wissenschaftlerin arbeitete, sagt: „Im Vergleich zu vor 150 Jahren sind die Meere erwärmt und versauert, und in Küstengebieten mangelt es auch mehr an Sauerstoff“. Diese Prozesse gehen rasant weiter. Was mit der Ostsee passiert – darauf basieren jetzt ihre Forschungen an der Uni Rostock. Für sie ist es an der Alma Mater sehr interessant, wie hier neuzeitliche Forschung fächerübergreifend und in Kooperation zwischen verschiedenen Gebieten angegangen wird. „Hier habe ich auch direkt am Meer die Möglichkeiten zur Feldarbeit“, sagt die weltweit renommierte Forscherin.

Der Kohlendioxid-Anstieg in der Atmosphäre führt zur Erwärmung der Meere durch den Klimawandel und lässt sie saurer werden. Die ganze Artenzusammensetzung der Meere könnte sich in naher Zukunft tiefgreifend ändern. „Das Klima ändert sich über die ganze Erde hinweg“, sagt die Rostocker Forscherin. „Die Meeresorganismen wie eben Korallen oder Muscheln sowie Krebse leiden. Die sich zu bildenden Schalen drohen sich aufzulösen“. Ozeane nehmen nämlich gut ein Viertel des ausgestoßenen CO2 auf. Im Wasser reagiert das Kohlendioxid zu Kohlensäure. Das habe fatale Folgen für die Lebewesen im Meer, legt Sokolova den Finger in die Wunde.

In ihrer aktuellen Forschungsarbeit geht sie der Frage nach, wie mehrere Stressfaktoren, beispielsweise CO2, Temperaturschwankungen, Versauerung, Sauerstoffmangel und Wasserverschmutzung sich gegenseitig beeinflussen und welche Auswirkungen das für die Meerestiere hat. Wie diese Stressfaktoren miteinander interagieren, darüber gibt es noch keine umfangreicheren Forschungen.

Bisher ist das Ausmaß der Schäden für die Weltmeere insgesamt noch nicht hinreichend untersucht. „Das Verständnis der Wissenschaftler über die vom Menschen verursachten Belastungen der Ozeane und deren Folgen für Meeresorganismen ist allerdings deutlich gewachsen, die Gefahr ist erkannt, sagt Inna Sokolova. Die Politik sei sensibilisiert und bestrebt, die ökologische Verwundbarkeit zu verringern. Text: Wolfgang Thiel

Kontakt:
Universität Rostock
Prof. Dr. Inna Sokolova
Institut für Biowissenschaften
Meeresbiologie
Tel.: 0381 / 498 – 6050
inna.sokolova@uni-rostock.de
http://www.meeresbiologie.uni-rostock.de/

Quelle: idw

(nach oben)


„Wer glaubt, multiresistente Keime wären in Deutschland ein Problem, sollte mal ins Ausland gehen!“

Kay Gropp Pressestelle
Universität Witten/Herdecke

Priv.-Doz. Dr. Beniam Ghebremedhin hat in Krankenhäusern in Nigeria und Kenia Keime beschrieben, die kaum noch auf Antibiotika reagieren

Multiresistente Erreger sind in deutschen Krankenhäusern immer häufiger anzutreffen und verursachen schwere Infektionen. Schlagzeilen machen einzelne Todesfälle, geschätzt sterben 7000 Menschen jährlich an einer Infektion mit multiresistenten Keimen. Bis zum Jahr 2050 könnte sich diese Zahl sogar verzehnfachen, prognostizieren Experten. „Das ist alles nichts, verglichen mit der Bedrohung in afrikanischen Krankenhäusern. Aber wir wissen bis heute nur sehr wenig über die Verbreitung der verschiedenen Bakterien und welche Gefahr von ihnen ausgeht“, erklärt Priv.-Doz. Dr. Beniam Ghebremedhin, der in Nigeria und Kenia erstmals Daten dazu gesammelt hat. Ghebremedhin ist Facharzt für Medizinische Mikrobiologie und Virologie/Infektionsepidemiologie und Biochemiker am HEILOS-Universitätsklinikum Wuppertal und Dozent an der Universität Witten/Herdecke.

„Ich habe einen Erreger, den Escherichia coli Klon ST131isolieren können, der sehr, sehr schwere Harnwegsinfektionen auslöst. Der bleibt trotz Antibiotikagabe im Körper haften und kommt immer wieder. Die Patienten werden quasi Dauergäste im Krankenhaus“, beschreibt der gebürtige eritreische Mediziner ein Beispiel seiner Forschungen. Und weil es kaum Isolierstationen gibt und die Krankenhäuser oft überfüllt sind, werden solche Patienten gerne auch mal entlassen, ohne geheilt zu sein. Der Ausbreitung sind dann keine Grenzen mehr gesetzt. Die Relevanz von E. coli als Verursacher von Infektionen des Menschen ist schon seit 100 Jahren bekannt. E. coli spielt als häufigster Verursacher von bakteriellen Harnwegsinfektionen eine wichtige Rolle. Ghebremedhin hat sich mit solchen Isolaten aus west- sowie ostafrikanischen Ländern beschäftigt. Er hat sogenannte multi-resistente E.coli-Isolae (n>500 Isolate) aus fünf verschiedenen Krankenhäusern (insgesamt 3000 Betten) hinsichtlich deren Resistenzmechanismen und Virulenzeigenschaften untersucht. Er kam zu der Erkenntnis, dass der globale Klon ST131 auch in diesen Regionen zirkuliert und insbesondere eine hohe Infektionskraft aufweist, was unter -Umständen zu immer wiederkehrenden Harnwegsinfektionen bei Frauen führt, wie in seinen Studien gezeigt werden konnte.

„In vielen afrikanischen und asiatischen Ländern sind Antibiotika nicht verschreibungspflichtig, es gibt sie frei verkäuflich in jedem Laden, und sie werden auch einfach unter Patienten weiter gereicht“, erklärt Ghebremedhin die Ursache dafür, dass die Medikamente immer weniger wirken, weil die Erreger sich anpassen und resistent werden. „Wir kennen das ja auch von Malaria- und Tuberkulose-Medikamenten.“ Für ihn ist die Situation der Ärzte in den Ländern südlich der Sahara ziemlich aussichtslos. Denn nur wenn mehr Forschung betrieben würde, welche verschiedenen Stämme und Abwandlungen von Erregern in Umlauf sind, können seine Kollegen dort gezielter die Antibiotika auswählen, die helfen können. „Außerdem gibt es immer mehr Hinweise darüber, dass diese Erreger auch vom Menschen auf Tiere und umgekehrt übertragen werden können. Wir müssen also auch dringend mehr mit Tierärzten zusammen arbeiten, um die Verbreitung einzudämmen.“

Für seine bisherige Arbeit und seine wissenschaftlichen Veröffentlichungen ist er im Juni in Boston von der Interscience Conference on Antimicrobial Agents and Chemotherapy (ICAAC) mit dem ID Fellows Program Award ausgezeichnet worden. Das Wissenschaftskomitee würdigte die internationale Zusammenarbeit von Ghebremedhin mit Ländern der Subsahara Afrikas und in diesem Zusammenhang die molekulargenetische Charakterisierung von ESBL-produzierenden Erregern mit erhöhter Virulenz.

Weitere Informationen bei Priv.-Doz. Dr. med. Beniam Ghebremedhin, 0202/896-22 62, beniam.ghebremedhin@uni-wh.de

Über uns:
Die Universität Witten/Herdecke (UW/H) nimmt seit ihrer Gründung 1982 eine Vorreiterrolle in der deutschen Bildungslandschaft ein: Als Modelluniversität mit rund 2.300 Studierenden in den Bereichen Gesundheit, Wirtschaft und Kultur steht die UW/H für eine Reform der klassischen Alma Mater. Wissensvermittlung geht an der UW/H immer Hand in Hand mit Werteorientierung und Persönlichkeitsentwicklung.

Witten wirkt. In Forschung, Lehre und Gesellschaft.

Quelle: idw

(nach oben)


„Jeder ist seines Alters Schmied“

Kristina Logemann Brand Management, Marketing & Communications
Jacobs University Bremen gGmbH

Wie kann man älter werden und doch jung bleiben? Mit dieser Frage beschäftigt sich Sven Voelpel, Demographie-Experte und Professor für Betriebswirtschaftslehre an der Jacobs University in Bremen, schon seit mehr als einem Jahrzehnt. Nun hat er wissenschaftliche Erkenntnisse zu diesem Thema in einem Buch für ein breites Publikum zusammengetragen. Der Titel ist dabei Programm: „Entscheide selbst, wie alt du bist“. Auch privat hat sich der 42-Jährige fürs Jungbleiben entschieden.

Eine Schildkröte im kraftvollen Sprung, kurz davor eine Frisbeescheibe zu fangen. Schon das Titelbild spielt mit dem Klischee des Älterwerdens. Die Schildkröte, Sinnbild für gemächliche Langlebigkeit, wird auf dem Buchcover zur dynamischen Sportlerin. Wer rastet, der rostet – dass dieses Sprichwort tatsächlich stimmt, sei durch mehrere Studien belegt, sagt Voelpel. So unterstütze Sport nicht nur die körperliche Leistungsfähigkeit, sondern auch die geistige Fitness. „Interessant dabei ist, dass je nach Sportart auch unterschiedliche geistige Fähigkeiten trainiert werden: Tai Chi fördert zum Beispiel die Präzision beim Formulieren, Nordic Walking dagegen die Reaktionsfähigkeit.“

Es sind erstaunliche Forschungsergebnisse wie diese, die Voelpel in seinem neuen Buch zusammengetragen hat. Der Blick aufs Thema Alter wird dabei unterteilt in das kalendarische, das biologische, das gefühlte und das soziale Alter. Doch egal aus welchem Blickwinkel Voelpel das Thema betrachtet – eine Botschaft steht über allem: Alter hat weniger mit Lebensjahren und mehr mit der inneren Einstellung zu tun, als viele Menschen glauben.

Plastizität – dieses Wort nimmt Sven Voelpel immer wieder in den Mund, wenn er über die Chancen des Älterwerdens spricht. „Das menschliche Gehirn kann auch im hohen Alter noch neue Synapsen bilden, und unser Körper ist viel anpassungsfähiger als wir glauben.“ Die 60-Jährige, die Vierlingsmutter wird, der 80-Jährige, der den Mount Everest besteigt, der 90-Jährige, der im Bürgermeisteramt bestätigt wird, oder der 100-Jährige, der einen Marathon läuft – sie alle sind für den Forscher zwar Einzelfälle, die aber doch zeigen, dass viele Aktivitäten und Lebensstile heute längst nicht mehr problemlos bestimmten Altersgruppen zuzuordnen sind.“

Auch das berufliche Umfeld spiele dabei eine Rolle: „Wer sich in seinem Beruf immer wieder auf neue Menschen und andere Themen einstellen muss, bleibt geistig leichter fit als jemand, der nur wenig Abwechslung im Beruf habe. Umso wichtiger sei es dann, sich in der Freizeit immer wieder neuen Dingen zuzuwenden.“ Mit seinem Buch möchte Sven Voelpel Menschen Mut machen, die Angst vor dem Älterwerden haben. „Unsere Möglichkeiten, gesund und glücklich alt zu werden, sind größer als wir oft denken.“

Der Blick aufs Älterwerden sei jedoch immer noch von Vorbehalten belastet – auch und gerade in der Arbeitswelt. „Daran muss sich etwas ändern. Denn wir leben in einer alternden Gesellschaft“, sagt Voelpel und kommt auf sein Engagement für das WISE Demografie Netzwerk, kurz WDN, zu sprechen. Vor neun Jahren hat er das Netzwerk an der Jacobs University in Zusammenarbeit mit mehreren namhaften Unternehmen gegründet. Auf regelmäßigen Treffen tauschen sich Vertreter der Mitgliedsfirmen regelmäßig darüber aus, wie sich der demographische Wandel als Chance nutzen lässt. „Es ist wichtig, ältere Mitarbeiter nicht bloß mit einfachen Routineaufgaben zu betrauen, denn das führt dazu, dass sie sich abgeschoben fühlen und sich immer weniger zutrauen. Sie brauchen, wie alle Mitarbeiter, Aufgaben, die sie weder überfordern noch unterfordern“, sagt Voelpel. Eine Chance liege auch darin, die Potentiale altersgemischter Teams stärker als bisher zu nutzen: Ältere Mitarbeiter brächten häufig ein größeres Erfahrungswissen mit, das ihnen beim Lösen vieler Aufgaben zugute kommt, jüngere könnten sich oft schneller auf neue Aufgaben und Arbeitsbedingungen einstellen. „Wenn mehrere Generationen in einem Betrieb zusammen arbeiten, können sie viel voneinander lernen“, betont Voelpel.

Sich selbst hält der Vater zweier Kinder im Alter von zwei und vier Jahren mit kurzem, aber intensivem Krafttraining und gesunder Ernährung fit. Und wie sehr weicht sein gefühltes Alter von dem auf seinem Personalausweis ab? Sven Voelpel schmunzelt: „Von der Neugier her fühle ich mich manchmal noch wie ein 17-Jähriger“, sagt er. „Aber wenn ich daran denke, was ich meinem Beruf schon alles erleben, erfahren und erkunden könnte, dann fühle ich mich deutlich älter als 42. Diese Mischung fühlt sich ziemlich gut an.“

Weitere Informationen unter:
Weitere Informationen zum Buch sowie kostenfreies E-Mail-Coaching http://www.alter-ist-kopfsache.de
http://svoelpel.user.jacobs-university.de/
http://wdn.jacobs-university.de/
http://www.jacobs-university.de

Fragen beantwortet:
Prof. Dr. Sven Voelpel| Professor of Business Administration
S.Voelpel@jacobs-university.de | Tel.: +49 421 200-4773/3467

Über die Jacobs University:
Die Jacobs University ist eine private, unabhängige, englischsprachige Universität in Bremen. Hier studieren junge Menschen aus der ganzen Welt in Vorbereitungs-, Bachelor-, Master- und PhD-Programmen. Internationalität und Transdisziplinarität sind die besonderen Kennzeichen der Jacobs University: Forschung und Lehre folgen nicht einem einzigen Lösungsweg, sie gehen Fragestellungen aus der Perspektive verschiedener Disziplinen an. Dieses Prinzip macht Jacobs Absolventen zu begehrten Nachwuchskräften, die erfolgreich internationale Karrierewege einschlagen.

Kontakt:
Kristina Logemann | Brand Management, Marketing & Communications
k.logemann@jacobs-university.de | Tel.: +49 421 200- 4454

Quelle: idw

(nach oben)


Bäume erkennen Rehe am Speichel und wehren sich gegen Verbiss

Susann Huster Stabsstelle Universitätskommunikation/Medienredaktion
Universität Leipzig

Biologen der Universität Leipzig und des Deutschen Zentrums für integrative Biodiversitätsforschung (iDiv) haben in einer Studie herausgefunden, dass Bäume unterscheiden können, ob eine ihrer Knospen oder Triebe nur zufällig durch eine Sturmbö abgerissen wurde oder einem gefräßigen Reh zum Opfer gefallen ist. Bei Rehverbiss setzen sie Abwehrmechanismen in Gang. Ihre Forschungsergebnisse haben die Wissenschaftler kürzlich in dem Fachjournal „Functional Ecology“ veröffentlicht.

Hell und maigrün leuchten im Frühjahr die jungen, zarten Knospen und Triebe aus dem Wald. Sie sind die Zukunft der Wälder, lassen sie doch vor allem junge Baumzöglinge groß werden. Doch sie haben ein Problem: Rehe mögen sie zum Fressen gern. Und leider schmecken ihnen eben gerade die Knospen, die für die kleinen Bäume und ihr Wachstum so wichtig sind. Mit Glück braucht das angefressene Bäumchen nur ein paar Jahre länger zum Wachsen als seine nicht verbissenen Artgenossen, hat es Pech, wird aus ihm ein Krüppelbaum, oder es muss nach mehreren Jahren den Überlebenskampf aufgeben. So können Rehe schnell viel Schaden anrichten und die Verjüngung von Beständen vieler Laubbaumarten erschweren.

Um sich vor der Reh-Gefahr zu schützen, setzen Bäume sich gezielt zur Wehr. Biologen der Universität Leipzig und des Deutschen Zentrums für integrative Biodiversitätsforschung (iDiv) haben jetzt anhand von Studien an jungen Buchen und Bergahornen herausgefunden, dass Bäume dabei genau erkennen, ob ein Ast oder eine Knospe gezielt durch ein Reh abgeknabbert wurde – oder nur zufällig durch einen Sturm oder eine andere mechanische Störung abgerissen wurde. Das Signal dafür liefert ihnen der Speichel der Tiere.

Verköstigt sich ein Reh an einem Baum und hinterlässt dabei seine Spuren, fährt er seine Produktion an Salizylsäure hoch. Dieses Signal-Hormon veranlasst ihn wiederum, eine Extraportion bestimmter Gerbstoffe zu bilden. Von manchen dieser Stoffe weiß man, dass sie die Rehe in ihrem Fressverhalten beeinflussen, sodass diese den Appetit auf die Triebe und Knospen verlieren. Zusätzlich steigert das Bäumchen die Konzentration weiterer Pflanzenhormone, besonders der Wachstumshormone. Durch das zusätzliche Wachstum wird die verlorene Hauptknospe kompensiert.

„Bricht ein Ast oder eine Knospe dagegen ab, ohne dass ein Reh am Werk war, kurbelt der Baum weder seine Produktion des Signal-Hormons Salizylsäure noch die der Gerbstoffe an. Stattdessen bildet er vor allem Wund-Hormone“, erklärt Bettina Ohse, die Erstautorin der Studie. Sie ist Doktorandin am Institut für Spezielle Botanik und Funktionelle Biodiversität der Universität Leipzig. Zu ihren Erkenntnissen kamen die Wissenschaftler, indem sie Bäumchen im Leipziger Auwald austricksten: Sie simulierten, dass ein Reh an ihnen gefressen hat, indem sie die Schnittstelle mit echtem Rehspeichel aus der Pipette beträufelten. Kurz darauf erfassten sie die Konzentration der Hormone und der Gerbstoffe im Bäumchen.

„Im Anschluss an diese erste Grundlagenforschung wäre es interessant, auch weitere Baumarten auf ihre Abwehrstrategien gegenüber Rehen zu untersuchen“, so die Forscherin. „Würden sich hier einige als von Natur aus wehrhafter herausstellen, könnten diese möglicherweise in Zukunft in den Wäldern mehr gefördert werden.“

Originaltitel der Veröffentlichung in „Functional Ecology“:
„Salivary cues: simulated roe deer browsing induces systemic changes in phytohormones and defence chemistry in wild-grown maple and beech saplings“
Doi: 10.1111/1365-2435.12717

Verena Müller

Weitere Informationen:
Bettina Ohse
Institut für Biologie der Universität Leipzig
Telefon: +49 341 9738595
E-Mail: bettina.ohse@uni-leipzig.de

Weitere Informationen:
http://onlinelibrary.wiley.com/doi/10.1111/1365-2435.12717/abstract

Quelle: idw

(nach oben)


Pflanzenbetonte Ernährungsweise kann Entzündungen vorbeugen

Dr. Gisela Olias Presse- und Öffentlichkeitsarbeit
Deutsches Institut für Ernährungsforschung Potsdam-Rehbrücke

Übergewicht geht oft mit einer chronischen Entzündung einher, die das Risiko für Herz-Kreislauf-Erkrankungen, Diabetes und Krebs erhöht. Ein Forscherteam um Krasimira Aleksandrova und Fabian Eichelmann vom Deutschen Institut für Ernährungsforschung (DIfE) hat nun 29 wissenschaftliche Arbeiten ausgewertet, welche die Effekte einer pflanzenbetonten Kost auf die Entzündungsmarker-Spiegel übergewichtiger Menschen untersuchten. Wie die in Obesity Reviews publizierte Analyse* zeigt, sanken unter einer pflanzenreichen Ernährung im Vergleich zu einer Kontrolldiät die Werte des Entzündungsmarkers C-reaktives Protein (CRP) um durchschnittlich 0,55 mg/l und die Werte für Interleukin-6 um 0,25 ng/l.

„Unsere Ergebnisse weisen somit darauf hin, dass übergewichtige Menschen durch eine pflanzenbetonte Ernährung ihr Entzündungsmarker-Profil deutlich verbessern und hierdurch möglicherweise selbst viel dazu beitragen können, sogenannten Volksleiden wie Herzinfarkt und Diabetes vorzubeugen“, sagt Studienleiterin Aleksandrova. „Eine pflanzenbetonte Kost ist so definiert, dass sie hauptsächlich auf Lebensmitteln wie Gemüse, Getreide, Hülsenfrüchten und Obst basiert. Zudem enthält sie gar kein oder nur sehr wenig Fleisch, kann aber moderate Mengen an Eiern, Milchprodukten und Fisch mit einschließen“, erklärt Erstautor Eichelmann.

Warum fördert Übergewicht Entzündungsreaktionen?
Die körpereigenen Fettdepots speichern nicht nur Energie, sondern setzen auch Botenstoffe frei. Da einige dieser Substanzen entzündliche Prozesse im Körper fördern, sind die Entzündungsmarker-Werte im Blut übergewichtiger Menschen häufig erhöht. Ein Zustand, der wiederum mit einem deutlich erhöhten Risiko für Stoffwechselkrankheiten einhergeht. Da nicht nur in Deutschland, sondern auch weltweit die Zahl der krankhaft übergewichtigen (adipösen) Menschen beständig steigt, suchen Forscher und Mediziner auch nach wissenschaftlich basierten Ernährungsstrategien, die dabei helfen, trotz eines übermäßigen Körpergewichts gesund zu bleiben.

Warum eine Meta-Analyse?
Beobachtungs- und Interventionsstudien** weisen zwar seit Langem darauf hin, dass eine pflanzenbetonte Ernährung übergewichtsbedingten Entzündungsreaktionen entgegenwirkt. Oftmals sind in Interventionsstudien die Teilnehmerzahlen jedoch relativ gering, sodass die beobachteten Effekte manchmal nur schwach ausgeprägt sind. „Daher haben wir eine umfangreiche, systematische Literaturanalyse durchgeführt und die Einzelergebnisse entsprechender Interventionsstudien erstmals zu einem Gesamtergebnis zusammengefasst. Hierdurch lässt sich die Effektstärke einer solchen Ernährungsweise auf das Entstehen chronischer Entzündungen besser beurteilen. Eine wichtige Voraussetzung, um Empfehlungen abzuleiten“, sagt Erstautor Eichelmann.

Studiengrundlage
In der aktuellen Analyse untersuchten die Forscher alle in Frage kommenden Ernährungsstudien, die von Januar 1946 bis Januar 2016 in Medline, EMBASE sowie im Cochrane central register of Controlled Trials erschienen waren. Von ursprünglich 2.583 identifizierten Studien erfüllten nur 29 Publikationen, mit Daten von insgesamt 2.689 Studienteilnehmern im Alter zwischen 28 und 68 Jahren, die für die Meta-Analyse gestellten Auswahlkriterien. Zu den Einschlusskriterien gehörten:

• Es handelt sich um eine Interventionsstudie.
• Die Studienteilnehmer waren älter als 18 Jahre.
• Als Interventions-Diät wurde eine pflanzenbetonte Kost verzehrt, die aber auch kleine Mengen Fleisch, Fisch und Milchprodukte enthalten durfte.
• Vorhandensein einer ausreichend großen Datenmenge, die Unterschiede in den Entzündungsmarker-Spiegeln zwischen Interventions- und Kontrollgruppe erfassen lässt.

Quelle: F. Eichelmann, L. Schwingshackl, V. Fedirko and K. Aleksandrova: Effect of plant-based diets on obesity-related inflammatory profiles: a systematic review and meta-analysis of intervention trials; Obesity Reviews 2016;
DOI: 10.1111/obr.12439; http://onlinelibrary.wiley.com/doi/10.1111/obr.12439/epdf

Hintergrundinformationen
* Bei der aktuellen Analyse handelt es ich um eine sogenannte Meta-Analyse. In Meta-Analysen fassen Forscher die Einzelergebnisse mehrerer Studien zu einem Gesamtergebnis zusammen, um eine gemeinsame Aussage bezüglich einer Fragestellung zu finden.

** Bei einigen Interventionsstudien werden dieselben Teilnehmer vor und nach einer Intervention (Behandlung) untersucht, beispielsweise vor einer bestimmten Diät und hinterher. In anderen Interventionsstudien untersuchen Wissenschaftler die Studienteilnehmer im sogenannten cross-over design. Die möglichst per Zufallsprinzip ausgesuchten Studienteilnehmer werden dabei auf zwei Teilnehmergruppen aufgeteilt. Während eine Gruppe die zu untersuchende Diät (z. B. pflanzenbetonte Kost) erhält, muss die zweite Gruppe eine Kontrolldiät einhalten. Nach der Hälfte der Studiendauer wechseln die Gruppen. Die Interventionsgruppe erhält die Kontrolldiät und umgekehrt.

Übergewicht: Die Zahl der übergewichtigen und adipösen Erwachsenen ist weltweit auf mehr als 1,9 Milliarden angestiegen und nimmt weiterhin zu. Allein in Deutschland sind mehr als die Hälfte der Frauen und Männer übergewichtig, fast jeder vierte Erwachsene ist laut Robert Koch-Institut adipös. Aber nicht nur in Europa und den USA sind viele Menschen zu dick, auch Länder wie Afrika sind betroffen. Mit dem Übergewicht steigt auch die Zahl der Menschen, die unter chronischen Erkrankungen wie Typ-2-Diabetes leiden. Schätzungsweise 6 Millionen Menschen in Deutschland sind zuckerkrank. Effektive Gegenstrategien zu entwickeln, erscheint daher mehr als notwendig.

Quellen:
• World Health Organization: Obesity and overweight Fact sheet; Updated June 2016 http://www.who.int/mediacentre/factsheets/fs311/en/

• Global, regional, and national prevalence of overweight and obesity in children and adults during 1980-2013: a systematic analysis for the Global Burden of Disease Study 2013
http://www.thelancet.com/pdfs/journals/lancet/PIIS0140-6736(14)60460-8.pdf

Das Deutsche Institut für Ernährungsforschung Potsdam-Rehbrücke (DIfE) ist Mitglied der Leibniz-Gemeinschaft. Es erforscht die Ursachen ernährungsassoziierter Erkrankungen, um neue Strategien für Prävention, Therapie und Ernährungsempfehlungen zu entwickeln. Zu seinen Forschungsschwerpunkten gehören die Ursachen und Folgen des metabolischen Syndroms, einer Kombination aus Adipositas (Fettsucht), Hypertonie (Bluthochdruck), Insulinresistenz und Fettstoffwechselstörung, die Rolle der Ernährung für ein gesundes Altern sowie die biologischen Grundlagen von Nahrungsauswahl und Ernährungsverhalten. Das DIfE ist zudem ein Partner des 2009 vom BMBF geförderten Deutschen Zentrums für Diabetesforschung (DZD). Mehr Informationen unter http://www.dzd-ev.de.

Die Leibniz-Gemeinschaft verbindet 88 selbständige Forschungseinrichtungen. Ihre Ausrichtung reicht von den Natur-, Ingenieur- und Umweltwissenschaften über die Wirtschafts-, Raum- und Sozialwissenschaften bis zu den Geisteswissenschaften. Leibniz-Institute widmen sich gesellschaftlich, ökonomisch und ökologisch relevanten Fragen. Sie betreiben erkenntnis- und anwendungsorientierte Forschung, auch in den übergreifenden Leibniz-Forschungsverbünden, sind oder unterhalten wissenschaftliche Infrastrukturen und bieten forschungsbasierte Dienstleistungen an. Die Leibniz-Gemeinschaft setzt Schwerpunkte im Wissenstransfer, vor allem mit den Leibniz-Forschungsmuseen. Sie berät und informiert Politik, Wissenschaft, Wirtschaft und Öffentlichkeit. Leibniz-Einrichtungen pflegen enge Kooperationen mit den Hochschulen – u.a. in Form der Leibniz-WissenschaftsCampi, mit der Industrie und anderen Partnern im In- und Ausland. Sie unterliegen einem transparenten und unabhängigen Begutachtungsverfahren. Aufgrund ihrer gesamtstaatlichen Bedeutung fördern Bund und Länder die Institute der Leibniz-Gemeinschaft gemeinsam. Die Leibniz-Institute beschäftigen rund 18.100 Personen, darunter 9.200 Wissenschaftlerinnen und Wissenschaftler. Der Gesamtetat der Institute liegt bei mehr als 1,6 Milliarden Euro. Mehr Informationen unter http://www.leibniz-gemeinschaft.de.

Kontakt:
Dr. Krasimira Aleksandrova
Abteilung Epidemiologie
Leiterin des Start-up-Labs Ernährung, Immunität und Metabolismus
Deutsches Institut für Ernährungsforschung
Potsdam-Rehbrücke (DIfE)
Arthur-Scheunert-Allee 114-116
14558 Nuthetal/Deutschland
Tel.: +49 33200 88-2712
E-Mail: Krasimira.Aleksandrova@dife.de

Fabian Eichelmann
Abteilung Epidemiologie
Start-up-Lab Ernährung, Immunität und Metabolismus
Deutsches Institut für Ernährungsforschung
Potsdam-Rehbrücke (DIfE)
Arthur-Scheunert-Allee 114-116
14558 Nuthetal/Deutschland
Tel.: +49 33200 88-2717
E-Mail: Fabian.Eichelmann@dife.de

Weitere Informationen:
http://www.dife.de/forschung/abteilungen/kurzprofil.php?abt=EIM

Quelle: idw

(nach oben)


Neue Wege für den Umweltschutz durch Abgaskatalyse

Vanessa Dreibrodt Stabsstelle Presse und Kommunikation
Universität Paderborn

Arbeiten von Prof. Dr. Matthias Bauer zu neuen nachhaltigen Systemen für die Abgaskatalyse als Cover des ChemSusChem Journals ausgewählt – Auf dem Weg in ein neues Eisenzeitalter

Zum ersten Mal konnte die Arbeitsgruppe von Prof. Dr. Matthias Bauer, Fachbereich Anorganische Chemie und analytische Chemie im Department Chemie der Universität Paderborn, durch eine systematische Studie detaillierte Hinweise auf die katalytisch aktive Spezies in der eisenkatalysierten Oxidation von Kohlenmonoxid erhalten. Die Veröffentlichung „Pollution control meets sustainability: Structure-Activity studies on new iron-based CO oxidation catalysts“ wurde im renommierten Journal ChemSusChem für Arbeiten an der Grenzfläche von Nachhaltigkeit und Chemie aufgrund exzellenter Gutachten für ein Cover ausgewählt.

Kohlenmonoxid CO entsteht in nahezu allen Verbrennungsmotoren und wird zum Beispiel mit Autoabgasen ausgestoßen. Die akute Toxizität erfordert die vollständige Entfernung durch Umwandlung zu Kohlendioxid CO2 mittels Reaktion mit Luftsauerstoff O2. Diese Reaktion wird durch Katalysatoren ermöglicht. Aktuell werden zur oxidativen CO-Entfernung Edelmetallkatalysatoren auf Platin- oder Palladiumbasis eingesetzt. Diese Metalle spielen in sehr vielen Technologien eine zentrale Rolle. In naher Zukunft ist deshalb mit einer Verknappung und deutlichen Preissteigerung zu rechnen, die ein ökonomisches Risiko darstellen. Zudem ist nach wie vor nicht geklärt, ob Edelmetall-Nanopartikel, die aus Drei-Wege-Katalysatoren emittiert werden, ein gesundheitliches Risiko bedeuten. Ansätze, die den Ersatz von Edelmetallen durch Eisen verfolgen sind deshalb doppelt wichtig: Sie reduzieren gesundheitliche Risiken, da Eisen auch im menschlichen Körper vorkommt. Zudem sind Engpässe bei diesem Metall nicht zu erwarten, da es in nahezu unerschöpflichen Mengen auf der Erde vorkommt.
„Bis dorthin ist es jedoch noch ein langer Weg, der nur gegangen werden kann wenn die aktive Spezies eindeutig bekannt ist, um so gezielt effiziente Katalysatoren zu entwickeln“, sagt Prof. Dr. Matthias Bauer. Um diese Ziel zu erreichen werden hochmoderne Methoden an Teilchenbeschleunigern – sogenannten Synchrotrons – eingesetzt. Die dort zugängliche Röntgenstrahlung liefert einzigartige Einblicke in die untersuchten Katalysatoren.

Weitere Informationen:
http://onlinelibrary.wiley.com/doi/10.1002/cssc.201600508/abstract

Quelle: idw

(nach oben)


Neue Studien: Alkohol schützt das Herz doch nicht

Prof. Dr. Eckart Fleck Pressesprecher
Deutsche Gesellschaft für Kardiologie – Herz- und Kreislaufforschung e.V.

Pressemitteilung der Deutschen Gesellschaft für Kardiologie zum Europäischen Kardiologiekongress (ESC) 2016 in Rom

Niedriger bis moderater Alkoholkonsum hat offenbar doch keine herz- und gefäßschützende Funktion. Zu diesem Ergebnis kommen eine Reihe von Studien, die auf dem Europäischen Kardiologiekongress (ESC) in Rom vorgestellt wurden.

So lieferte eine über 20 Jahre laufende dänische Studie mit fast 19.000 Krankenschwestern („The danish nurses‘ cohort study“) nach der Bereinigung um Gesundheits-, Lebensstil- und psychosoziale Faktoren keine Hinweise auf einen signifikanten günstigen Zusammenhang zwischen niedrigem oder moderatem Alkoholkonsum und der Herz-Kreislauf-Sterblichkeit. Kombinierter Endpunkt war die Schlaganfall-, Herzinfarkt- und Herz-Kreislauf-Sterblichkeit. Die Studienautoren fanden auch keinen signifikanten Zusammenhang zwischen niedrigem bis mittlerem Alkoholkonsum mit den separaten Endpunkten Schlaganfall und Herzinfarkt.

Ausgewertet wurden Fragebögen zum individuellen Alkoholkonsum in Kombination mit dem dänischen Diagnose-spezifischen Krankenhausentlas-sungs-Register, Todesursachen und Gesundheitsstatus.Keine signifikante Wirkung auf Gesamt-Plaque-Volumen der Halsschlagader oder Gefäß-wand-Volumen.

Eine auf dem ESC-Kongress präsentierte Studie aus Israel und den USA untersuchte den Einfluss moderaten Alkoholkonsums auf das Fortschreiten der Atherosklerose der Halsschlagader (Karotis) bei Patienten mit gut kontrolliertem Diabetes Typ 2, die ansonsten keinen Alkohol zu sich nahmen.
Während der zweijährigen Untersuchungsdauer der CASCADE-Studie wurden die Probanden in drei Gruppen aufgeteilt und erhielten täglich entweder 150 Milliliter Mineralwasser, Weißwein oder Rotwein. Alle Studienteilnehmer hielten eine mediterrane Diät ohne Beschränkung der Kalorienzahl ein.
Zu Studienbeginn und nach zwei Jahren wurden das Gesamt-Plaque-Volumen der Halsschlagader und das Gefäßwandvolumen mittels 3D-Ultraschall gemessen. Es lagen verwertbare Ultraschall-Bilder von 174 Patienten vor, bei der Erstuntersuchung wurde bei 55 Prozent Plaque in der Halsschlagader gefunden. Das durchschnittliche Gesamt-Plaque-Volumen veränderte sich in der Gesamtgruppe nicht signifikant, ebenso wenig in den Kontrollgruppen. Allerdings ergab eine Detailanalyse der 78 Patienten mit zu Studienbeginn feststellbarer Plaque, dass im Drittel mit der stärksten Plaque der Weinkonsum mit einer etwas stärkeren Plaque-Reduktion assoziiert war. Bezüglich des Gefäßwand-Volumens zeigten sich keine signifikanten Veränderungen in den drei Gruppen.

„Wir konnten in unserer zweijährigen Studie keine signifikante Wirkung des Weinkonsums auf die Gesamt-Plaque-Volumen der Halsschlagader oder das Gefäßwand-Volumen in der Gesamtgruppe feststellen“, so die Studienautoren zusammenfassend. „Der schwache Hinweis auf die etwas stärkere Verringerung des Gesamt-Plaque-Volumens der Halsschlagader durch Weinkonsum bei den Patienten, die zu Studienbeginn das größte Plaque-Volumen aufwiesen, sollte in größeren Studien weiter untersucht werden.“

„Es gibt immer wieder Berichte über den positiven Einfluss eines moderaten Konsums von unterschiedlichen alkoholischen Getränken, insbesondere von Wein, auf die Herz- und Gefäßgesundheit. Andere Studien wiederum konnten diese günstige Wirkung nicht bestätigen. Eine mögliche schädliche Wirkung maßvollen Weintrinkens auf die Herzgesundheit ließ sich allerdings auch nicht stichhaltig und zweifelsfrei belegen. Unklar sind auch die vielfach behaupteten Mechanismen eines möglichen Herzschutzes“, so Prof. Dr. Eckart Fleck, Pressesprecher der Deutschen Gesellschaft für Kardiologie (DGK). „Wer also etwas für seine Herzgesundheit tun möchte, braucht dafür keinen Alkohol zu trinken. Starker Alkoholkonsum kann sich negativ auf viele Organe unseres Körpers auswirken, auch auf das Herz zum Beispiel durch Rhythmusstörungen oder Pumpschwäche, und sollte jedenfalls vermieden werden.“

Quellen: ESC 2016 Abstracts Heberg et al. Low to moderate alcohole consumption ist not associated with a reduction in cardiovascular events – The danish nurses‘ cohort study; Golan et al. The effect of moderate wine intake on carotid atherosclerosis in type 2 diabetes; a 2-jear intervention study

Informationen:
Deutsche Gesellschaft für Kardiologie
Pressesprecher: Prof. Dr. Eckart Fleck (Berlin)
Hauptstadtbüro der DGK: Leonie Nawrocki, Tel.: 030 206 444 82
Pressestelle: Kerstin Krug, Düsseldorf, Tel.: 0211 600692 43
presse@dgk.org
B&K – Bettschart&Kofler Kommunikationsberatung, Dr. Birgit Kofler, Berlin/Wien, Tel.: +49-172-7949286; +43-676-6368930; +43-1-31943780; kofler@bkkommunikation.com

Die Deutsche Gesellschaft für Kardiologie – Herz und Kreislaufforschung e.V. (DGK) mit Sitz in Düsseldorf ist eine wissenschaftlich medizinische Fachgesellschaft mit über 9.000 Mitgliedern. Ihr Ziel ist die Förderung der Wissenschaft auf dem Gebiet der kardiovaskulären Erkrankungen, die Ausrichtung von Tagungen und die Aus-, Weiter- und Fortbildung ihrer Mitglieder. 1927 in Bad Nauheim gegründet, ist die DGK die älteste und größte kardiologische Gesellschaft in Europa. Weitere Informationen unter www.dgk.org.

Weitere Informationen:
http://www.dgk.org
http://www.dgk.org/presse
http://www.kardiologie.org

Quelle: idw

(nach oben)


Offenes Wasser um den Nordpol: Arktisches Meereis auf dem Rückzug

Birgit Kruse Referat Medien- und Öffentlichkeitsarbeit
Universität Hamburg

In diesem September ist die Fläche des Arktischen Meereises auf eine Größe von knapp 4,1 Millionen Quadratkilometern (Mio km2) abgeschmolzen. Dies ist die zweitkleinste Fläche seit Beginn der Satellitenmessungen. Weniger Meereis gab es nur im Negativ-Rekord-Jahr 2012 mit 3,4 Mio km2. „Dies ist erneut ein massiver Eisverlust in der Arktis“, so Prof. Lars Kaleschke von der Universität Hamburg. Prof. Christian Haas vom Alfred-Wegener-Institut (AWI) bestätigt: „Der Trend setzt sich fort.“ Nordost- und Nordwestpassage sind jetzt gleichzeitig für Schiffe befahrbar.

Jeweils im September wird Bilanz gezogen. Die Schmelzsaison in der Arktis geht zu Ende, die Größe der übrig gebliebenen Eisfläche, das Septemberminimum, ist ein wichtiger Indikator für Klimaänderungen. „Im Winter 2015/2016 war die Luft über dem arktischen Ozean in weiten Teilen mehr als sechs Grad Celsius wärmer als im langjährigen Durchschnitt“, sagt Meereisphysiker Kaleschke vom Centrum für Erdsystemforschung und Nachhaltigkeit der Universität Hamburg. „Durch die höheren Temperaturen wächst das Eis im Winter weniger stark an.“

Auch die Eisdicke wurde untersucht. Hochauflösende Flugzeugmessungen in verschiedenen Gebieten der Arktis zeigen: „Besonders das neu gebildete, erstjährige Eis war in diesem Jahr sehr dünn, kaum dicker als einen Meter. Normalerweise ist es beinahe doppelt so dick“, sagt Christian Haas. „Das mehrjährige Eis war dagegen in etwa so dick wie in den Vorjahren, rund drei bis vier Meter. Dies hat den Eisverlust im Juni und Juli stark verzögert, bevor es im August aufgrund starker Winde doch noch schmolz.“ Für eine kontinuierliche Eisdickenbestimmung entwickelten die Universität Hamburg und das AWI gemeinsam ein neues Datenprodukt. Es kombiniert erstmals Messungen der zwei ESA-Satelliten CryoSat und SMOS und kann Trends aufzeigen. „So konnten wir schon am Ende des arktischen Winters sehen, dass das Eis zehn Zentimeter dünner war als in den Vorjahren, eine deutliche Verminderung“, sagt Lars Kaleschke.

Die jeweils aktuelle Fläche des Meereises wird mit Hilfe von Satellitendaten bestimmt. Ein vom Team um Kaleschke verbessertes Verfahren erlaubt jetzt eine Abbildung bis auf drei Kilometer genau. Üblich sind bisher Auflösungen von etwa mindesten zwölf Kilometern. In der Visualisierung werden dadurch Details wie Wirbel, Rinnen und Eiskanten besonders gut sichtbar – und geben wertvolle Hinweise auf die Dynamik im Eis und damit seine Stabilität. So lässt sich erkennen, wie nördlich von Alaska der so genannte Beaufort-Wirbel das Eis ungewöhnlich früh aufbricht, bereits im April. Im Mai und Juni war die Eisfläche im Vergleich dann tatsächlich kleiner als jemals zuvor. Ebenfalls ungewöhnlich: Auch ganz zentral in der Nähe des Nordpols zeigt das Meereis in diesem Jahr viele offene Wasserflächen.

Seit Ende August 2016 sind die Nordost- und die Nordwestpassage in der Arktis wieder offen. Die südliche Route der Nordwestpassage wurde in diesen Wochen von Yachten und einem Kreuzfahrtschiff durchfahren. Beide Schiffspassagen waren erstmals im Jahr 2008 gleichzeitig passierbar.

Das Meereis der Arktis gilt als kritisches Element im Klimageschehen und als Frühwarnsystem für die globale Erwärmung. In den 1970er und 1980er Jahren lagen die sommerlichen Minimumwerte noch bei durchschnittlich rund sieben Mio km2. „Der Rückzug des arktischen Meereises ist ein deutlicher Hinweis, dass die globale Erwärmung ungebremst fortschreitet“, sagt Lars Kaleschke.

Zusatzmaterial wie die Visualisierung, Grafiken und Bilder zum Download finden Sie hier:
https://www.cen.uni-hamburg.de/about-cen/news/2016-09-13-arctic-sea-ice-2016.htm…

Für Rückfragen:
Prof. Lars Kaleschke
Universität Hamburg
CEN – Centrum für Erdsystemforschung und Nachhaltigkeit
Tel.: +49 40 42838-6518
E-Mail: lars.kaleschke@uni-hamburg.de

Prof. Christian Haas
Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung
Tel.: +49 471 4831-2285
E-Mail: christian.haas@awi.de

Stephanie Janssen
Universität Hamburg
CEN – Centrum für Erdsystemforschung und Nachhaltigkeit
Öffentlichkeitsarbeit
Tel.: +49 40 42838-7596
E-Mail: stephanie.janssen@uni-hamburg.de

Sina Löschke
Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung
Pressereferentin, Kommunikation und Medien
Tel.: +49 471 4831-2008
E-Mail: sina.loeschke@awi.de

Quelle: idw

(nach oben)


Selbstbestimmte Arbeitszeiten:Männer verdienen mehr, Frauen nicht – selbst wenn sie länger arbeiten

Rainer Jung Abt. Öffentlichkeitsarbeit
Hans-Böckler-Stiftung

Männer, die im Rahmen von Gleitzeit oder Vertrauensarbeitszeit über ihre Arbeitszeit selbst bestimmen können, arbeiten länger und verdienen mehr. Frauen haben dagegen kaum finanzielle Vorteile – selbst wenn sie mehr Überstunden machen.

Immer mehr Erwerbstätige können selbst über Arbeitsbeginn und Feierabend bestimmen, so Dr. Yvonne Lott und Dr. Heejung Chung. Die Soziologinnen von der Hans-Böckler-Stiftung und der University of Kent haben empirisch untersucht, was diese Entwicklung für die Gleichstellung von Mann und Frau bedeutet. Überraschenderweise nicht nur Gutes: Ihrer Analyse zufolge besteht die Gefahr, dass selbstbestimmte Arbeitszeiten bestehende Geschlechterungleichheiten verstärken.*

Lott und Chung haben für ihre Untersuchung Daten des sozio-oekonomischen Panels (SOEP) aus den Jahren 2003 bis 2011 ausgewertet. Von den deutschen Beschäftigten haben demnach 45 Prozent feste Arbeitszeiten. Ein weiteres Fünftel hat wechselnde Arbeitszeiten, die der Arbeitgeber vorgibt. Knapp ein Viertel darf im Rahmen von Gleitzeit über Anfang und Ende des Arbeitstags bestimmen, ein Zehntel hat volle Autonomie über die Arbeitszeit. Gravierende Unterschiede zwischen Frauen und Männern gibt es hier kaum.

Dagegen unterscheiden sich die Auswirkungen der Arbeitszeitarrangements erheblich zwischen den Geschlechtern: Wenn Männer von festen Arbeitszeiten zu Gleitzeit wechseln, machen sie im Schnitt eine Überstunde pro Woche mehr, Frauen nur eine halbe Stunde. Wenn männliche Beschäftigte autonom über ihre Arbeitszeit bestimmen dürfen, wächst ihr Überstundenpensum um zwei Stunden, bei weiblichen um eine Stunde. Die Geschlechterdifferenzen gehen vor allem auf Frauen in Teilzeit zurück, Frauen in Vollzeit leisten die gleiche Mehrarbeit wie Männer.

Als Erklärung verweisen die Forscherinnen auf die ungleiche Verteilung unbezahlter Arbeit: Weil Haushalt und Kinderbetreuung nach wie vor überwiegend in der Verantwortung von Frauen liegen, nutzten viele Frauen flexible Arbeitszeiten in erster Linie, um ihren familiären Pflichten nachkommen zu können. Tatsächlich konnte Lott in einer früheren Studie zeigen, dass Frauen mit selbstbestimmten Arbeitszeiten weniger Schwierigkeiten mit der Vereinbarkeit von Beruf und Privatleben haben. Männer konzentrierten sich dagegen traditionell auf die Erwerbsarbeit und seien daher eher geneigt, länger zu arbeiten.

Auch bei den Einkommen gibt es geschlechtsspezifische Effekte: Bei männlichen Beschäftigten steigt der Jahresbruttolohn im Schnitt um 1.200 Euro bei Gleitzeit und um 2.400 Euro bei vollständiger Arbeitszeitautonomie. Wenn man die zusätzlichen Überstunden berücksichtigt, bleiben Zuwächse von 1.100 und 2.100 Euro. Das Lohnplus beruht also nicht nur auf der Vergütung der Mehrarbeit, sondern dürfte auch eine Belohnung für höheres Engagement und mehr Produktivität sein. Bei weiblichen Beschäftigten sind dagegen keine signifikanten Auswirkungen auf das Gehalt nachweisbar – auch dann nicht, wenn man nur die Vollzeit-Arbeitnehmerinnen betrachtet.

Die Differenz in den Einkommenszuwächsen erklären Lott und Chung zum einen damit, dass Frauen flexible Arbeitszeiten eher für familiäre Verpflichtungen nutzen als Männer. Dass Frauen in Vollzeit ihre Überstunden ebenso stark ausbauen wie Männer, ohne finanziell davon zu profitieren, deute zudem darauf hin, dass auch Diskriminierung durch Arbeitgeber eine Rolle spielt: Vorgesetzte scheinen Frauen weniger Engagement und Produktivität als Männern zuzuschreiben, selbst wenn sie ihre Leistung mit flexiblen Arbeitszeiten vergleichbar steigern.

*Yvonne Lott, Heejung Chung: Gender Discrepancies in the Outcomes of Schedule Control on Overtime Hours and Income in Germany, European Sociological Review (online), August 2016

Ansprechpartner in der Hans-Böckler-Stiftung
Dr. Yvonne Lott
Forschungsförderung
Tel.: 0211-7778-600
E-Mail: Yvonne-Lott@boeckler.de

Rainer Jung
Leiter Pressestelle
Tel.: 0211-7778-150
E-Mail: Rainer-Jung@boeckler.de

Quelle: idw

(nach oben)


Lässt Stress schneller altern oder hält er sogar geistig fit?

Verena Kemmler Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Arbeitsforschung an der TU Dortmund

Lebenslanges Lernen, höheres Renteneintrittsalter, demographischer Wandel – drei Schlagworte, die zeigen, wie wichtig es ist, auch im Alter noch fit zu sein. Das Leibniz-Institut für Arbeitsforschung an der TU Dortmund – IfADo will dem Thema gesundes Altern in einer breit angelegten Forschungsinitiative, der Dortmunder Vital-Studie, auf den Grund gehen.

Während der eine mit 70 Jahren bereits stark vergesslich ist, sitzt der andere im gleichen Alter noch im Aufsichtsrat eines Unternehmens. In keiner Lebensspanne sind die Unterschiede der menschlichen Leistungen so groß wie im Alter. Aber woran kann das liegen? In der „Dortmunder Vital-Studie“ wollen Forscherinnen und Forscher am IfADo interdisziplinär die Auswirkungen und Zusammenhänge von Alter, Lebensstil und Stress auf verschiedenen Ebenen untersuchen: von der Immunreaktion über die subjektive Empfindung und Gehirnaktivität bis hin zu Stoffwechselfunktionen.

Langfristig versprechen sich die Forscherinnen und Forscher Antworten auf die Frage, wie Lebensstil, Stress, Stoffwechsel, Immunsystem und geistige Leistungsfähigkeit über die Lebensspanne hinweg zusammenhängen. Dazu sucht das IfADo in den nächsten Jahren nach über 500 Teilnehmerinnen und Teilnehmern zwischen 20-70 Jahren. Besonders gefragt sind 30-50 jährige, berufstätige Personen.

Hat jemand, der positiv mit Druck umgehen kann, ein stärkeres Immunsystem? Leiden Menschen, die eine abwechslungsreiche Arbeit haben, seltener an Altersdemenz? Wie wirkt sich das zunehmende Alter auf Gehirnfunktionen, Immun- und Stoffwechselprozesse aus? Diesen Fragen werden die Forschenden am IfADo in den nächsten Jahren nachgehen. Die Versuchspersonen sollen dabei aus verschiedenen Altersgruppen kommen und unterschiedlichen Aktivitäten nachgehen. So wollen die Forscherinnen und Forscher Risikofaktoren für Beeinträchtigungen im Zusammenhang mit Depressivität, Burn-out oder Alterserkrankungen wie Altersdemenz ermitteln.

Damit mögliche Zusammenhänge von psychologischen und physiologischen Faktoren entdeckt werden können, sind verschiedene Untersuchungsmethoden notwendig: Die Forschenden messen unter anderem mittels Elektroenzephalogramm die Gehirnaktivitäten, ermitteln durch Fragebögen Persönlichkeitseigenschaften und erfassen aus geringen Blutmengen den Status des Immunsystems. Um auch Langzeitwirkungen von Umwelteinflüssen, Stress oder Lebensstil zu erforschen, sollen die Messungen alle fünf Jahre wiederholt werden.

Teilnahme-Bedingungen:
• Die Teilnehmenden sollten zwischen 20-70 Jahre alt sein, erwerbstätige Personen im Alter von 30 bis 50 Jahren sind besonders willkommen. Wichtig sind zudem gute Deutschkenntnisse und ein guter Gesundheitszustand.
• Aufwandsvergütung: Die Tests werden ca. neun Stunden (aufgeteilt auf zwei Tage) in Anspruch nehmen. Dafür erhalten alle Teilnehmenden 100 Euro für den ersten und 60 Euro für den zweiten Termin.
• Wer Interesse an einer Teilnahme hat, kann sich hier melden: www.ifado.de/vital-studie/anmeldung

Die Dortmunder Vital-Studie
Die Dortmunder Vital-Studie wird rund 500 Teilnehmerinnen und Teilnehmern untersuchen. Dazu werden die Teilnehmenden an zwei Terminen untersucht; fünf Stunden am ersten und vier Stunden am zweiten Termin. Es werden Fragebögen zu den Themen Stress und Lebensstil eingesetzt, diverse psychologische Tests zum Gedächtnis und zur Aufmerksamkeit durchgeführt, das Seh- und Hörvermögen erfasst sowie Blut-, Urin- und Haarproben gesammelt. Darüber hinaus werden Körpermaße genommen und es wird ein Sportcheck am Fahrradergometer mit EKG- Kontrolle durchgeführt. Aus diesen Daten wird ein umfassendes körperliches und mentales Profil erstellt. Nachuntersuchungen sollen alle 5 Jahre erfolgen. Alle Daten werden ausschließlich für wissenschaftliche Zwecke erhoben und anonymisiert ausgewertet.

Das IfADo – Leibniz-Institut für Arbeitsforschung an der TU Dortmund erforscht die Potenziale und Risiken moderner Arbeit auf lebens- und verhaltenswissenschaftlicher Grundlage. Aus den Ergebnissen werden Prinzipien der leistungs- und gesundheitsförderlichen Gestaltung der Arbeitswelt abgeleitet. Das IfADo hat mehr als 200 Mitarbeiter/innen aus naturwissenschaftlichen und technischen Disziplinen. Das Institut ist Mitglied der Leibniz-Gemeinschaft, die 88 selbstständige Einrichtungen umfasst. Die Leibniz-Institute beschäftigen rund 18.100 Personen, darunter 9.200 Wissenschaftlerinnen und Wissenschaftler. Der Gesamtetat der Institute liegt bei 1,64 Milliarden Euro.

Weitere Informationen:

http://www.ifado.de/vital-studie

Quelle: idw

(nach oben)


»Sweedhart«: Unkraut nicht bekämpfen, sondern als Biomasse nutzen

Dipl.-Chem. Iris Kumpmann Abteilung Public Relations
Fraunhofer-Institut für Umwelt-, Sicherheits- und Energietechnik UMSICHT

Der Zugang zu Lebensmitteln ist für westliche Gesellschaften problemlos möglich – aber auch selbstverständlich? Landwirte leiden schon heute unter zu geringen Mengen an Agrarerzeugnissen, weil Unkraut ihre Felder belastet. Da die wilden Pflanzen gegen Herbizide Resistenzen ausgebildet haben, können sie den Nutzpflanzen ungehindert schaden und so langfristig die Nahrungsmittelsicherheit bedrohen. Statt Unkraut nur zu bekämpfen, lässt sich aber auch davon profitieren: Im Projekt »Sweedhart« entwickelt Fraunhofer UMSICHT neue Methoden, um der Unkrautbelastung entgegenzuwirken und die Pflanzen gleichzeitig als Energieträger zu nutzen.

Unkraut ist längst nicht nur ein Problem von Hobbygärtnern, sondern eins für die gesamte Gesellschaft: Die wilden Pflanzen wachsen auf den Feldern von Landwirten und behindern somit die gesunde Entwicklung der dort angebauten Nutzpflanzen. Schon jetzt hat die Anwesenheit der ungebetenen Gäste einen negativen Einfluss auf den Ernteertrag der Landwirte und stellt somit eine Bedrohung für die weltweite Nahrungsmittelsicherheit dar. Um der Unkrautbelastung entgegenzuwirken, werden derzeit Herbizide eingesetzt. Doch die wilden Pflanzen haben in den letzten Jahren verstärkt Resistenzen gegen die Unkrautvernichtungsmittel entwickelt, weshalb deren Effektivität immer weiter zurückgeht. Gleichzeitig ist die Entwicklung neuer Herbizid-Sorten weitestgehend erschöpft oder wegen Risiken für die Umwelt durch EU-Richtlinien eingestellt worden.

Unkraut: Schädling und Energieträger
Es bedarf neuer Alternativen, um die weltweite Unkraut-Belastung auf agrarwirtschaftlich betriebenen Feldern zu reduzieren. Am Fraunhofer-Institut für Umwelt-, Sicherheits- und Energietechnik UMSICHT ist im Mai 2016 das Projekt »Sweedhart« gestartet, das genau an dieser Schnittstelle ansetzt. »Wir adressieren die Problematik, indem wir untersuchen, wie der Unkrautbefall der Felder auch ohne Herbizide gehemmt werden kann«, erzählt Dr. Christoph Glasner von Fraunhofer UMSICHT, der das Forschungsprojekt koordiniert. Gleichzeitig soll die Forschung einen Beitrag zur Biomasseproduktion leisten – und auch in diesem Rahmen spielt Unkraut eine große Rolle.

Während der Feldernte führt die Verarbeitung des Mähguts durch den Mähdrescher zu etwa 25 Prozent Häcksel, das aus kurz geschnittenem Heu, Stroh, aber auch energiereichen Unkrautsamen besteht. Ohne weitere Behandlung werden diese Überreste meist zurück auf die Felder geführt. Dadurch bleibt das in der Biomasse gespeicerhte Energiepotenzial nicht nur ungenutzt, sondern führt auch dazu, dass die nächste Unkrautgeneration auf den Feldern heranwachsen kann. »Ein Ziel von Sweedhart ist es deshalb, die Unkrautsamen bereits während der Ernte durch die Abwärme des Mähdreschers thermisch zu desinfizieren und so die Keimung des Unkrauts zu unterbinden«, erklärt Dr. Glasner.

Mehr Biomasse, weniger Kohlendioxid-Emission
In einem nächsten Schritt will die Forschergruppe untersuchen, wie sich die Häcksel weiter verwerten lassen: Beispielsweise als erneuerbare Energiequelle durch Verbrennung, aber auch als Ausgangsstoff für Materialien oder als neue Quelle für die Tierfütterung. Innerhalb der dreijährigen Projektlaufzeit soll die Realisierbarkeit des Konzepts eingehend geprüft werden. »Am Ende wollen wir einen Katalog an erfolgreichen sowie nachhaltigen Maßnahmen bereitstellen, die die Unkrautbelastung auf Feldern verhindern und dem wachsenden Problem der Herbizid-Resistenz und dem invasivem Unkrautwachstum entgegenwirken.« Durch den Einbezug des Unkrauts für die Biomasseproduktion birgt das Sweedhart-Konzept großes Potential, eine nachhaltige Agrarkultur mitzugestalten und einen wichtigen Beitrag auf dem Weg hin zu einer biobasierten Wirtschaft zu leisten.
Derzeit entwickelt das Projektteam ein Hygenisierungskonzept während der Ernte, erarbeitet mechanische Maßnahmen, damit weniger Unkraut auf dem Feld verstreut wird und evaluiert die Verwertungsmöglichkeiten von Nebenprodukten.

Über das Projekt
»Sweedhart« wird als eins von 14 europäischen Projekten im Rahmen von FACCE SURPLUS (Sustainable and Resilient agriculture for food and non-food systems) mit insgesamt 1,45 Millionen Euro gefördert. FACCE SURPLUS ist ein von der Europäischen Union gestartetes Vorhaben, das eine nachhaltige Biomasseproduktion und -konversion zur Verwendung als Lebensmittel und zur industriellen Nutzung anstrebt.

An »Sweedhart« sind neben Fraunhofer UMSICHT/der Fraunhofer Gesellschaft noch drei weitere Projektpartner beteiligt:
• Norwegian University of Science and Technology (NTNU), Norwegen
• University of Copenhagen, Dänemark
• CLAAS Selbstfahrende Erntemaschinen GmbH, Deutschland

Weitere Informationen:
http://faccesurplus.org/research-projects/sweedhart/ Projekt »Sweedhart«
http://faccesurplus.org/ EU-Vorhaben FACCE SURPLUS

Quelle: idw

(nach oben)


Die Zukunft der E-Mobilität: Intelligente Navis machen Autos grüner

Katja Bär Pressestelle: Kommunikation und Fundraising
Universität Mannheim

Ein interdisziplinäres Forscherteam der Universität Mannheim ist an der Entwicklung eines Navigationssystems für Elektrofahrzeuge beteiligt, das nicht nur die Lebensdauer der Fahrzeug-Batterien verlängert, sondern auch Instabilitäten im Stromnetz vorbeugt und die Nutzung erneuerbarer Energien fördert. Das auf drei Jahre angelegte Projekt wird im Rahmen des EU-Programms „Horizon 2020″ an der Universität Mannheim mit 630.000 Euro gefördert. Das Projekt ist am 1. September 2016 gestartet.

Eine Million Elektrofahrzeuge sollen laut Bundeskanzlerin Angela Merkel bis 2020 auf deutschen Straßen unterwegs sein. Doch noch haben E-Autos starke Absatzprobleme: Neben den Anschaffungskosten ist es vor allem die geringe Reichweite der Batterie, die potentielle Käufer abschreckt. Ein Forscherteam an der Universität Mannheim arbeitet nun daran, die Attraktivität von E-Fahrzeugen zu steigern, indem es die Lebensdauer der Batterien erhöht. Hierbei stehen nicht technologische Innovationen, sondern der Nutzer im Zentrum. Wissenschaftlerinnen und Wissenschaftler aus BWL, Psychologie und Informatik entwickeln zusammen mit zehn anderen europäischen Partnern im Rahmen des EU- Projekts „ELECTRIFIC“ ein hochkomplexes Navigationssystem. Dieses soll das Nutzerverhalten optimieren: „Wir geben den Fahrern ein Tool an die Hand, das es ihnen erlaubt, durch perfekte Fahrtrouten und Ladezeitpunkte Reichweite und Lebensdauer ihrer Batterie zu verlängern“, erklärt Sonja Klingert vom Lehrstuhl für Wirtschaftsinformatik II, Leiterin des Projekts an der Universität Mannheim.

„Weiß ich als Fahrer, dass ich am nächsten Tag die Kinder zur Schule fahre und danach zur Arbeit, zur Reinigung und zum Supermarkt muss, habe ich oft bereits einen bestimmten Ablauf im Kopf“, erklärt Sonja Klingert. In solchen Situationen neigen Nutzer dazu die Batterie vor Fahrtbeginn vollständig zu laden und gegebenenfalls auf dem Heimweg „schnell“ nachzuladen. „Beides – voller Ladezustand und schnelles Nachladen – wirkt sich aber langfristig negativ auf die Lebensdauer der Batterie aus“, so Klingert. Genau das soll das „Advanced Driver Assistance System“ (ADAS) – so heißt das Navigationssystem, an dem die Forscherinnen und Forscher der Universität Mannheim arbeiten – vermeiden: Es kennt den Ladezustand der Batterie und die geplante Route – durch manuelle Eingabe oder die Analyse vergangener Fahrten – und schlägt dem Fahrer basierend auf dem so genannten Electric Vehicle Smart Algorithm (ELSA) batteriefreundlichere Ladezeitpunkte und -orte vor.

Risikofaktor Elektrizitätsnetz
Damit allein ist es aber nicht getan. „Das System kann noch mehr: Es bezieht aktuelle Informationen aus dem Elektrizitätsnetz und schlägt dem Nutzer eine Route vor, mit der die Fahrer möglichst viel Strom aus erneuerbaren Energiequellen nutzen“, sagt Thomas Schulze vom Lehrstuhl für Softwaretechnik. Das ADAS soll außerdem den Ladeprozess so gut ins Netz integrieren, dass starke Spannungsschwankungen ausbleiben. Das sei für den Ausbau der E-Mobilität ein besonders wichtiger Faktor: „Mit der massiven Verbreitung von Elektrofahrzeugen stehen wir zukünftig nämlich vor einem Problem: Wenn alle gleichzeitig laden, könnte es zu Instabilitäten und Stromausfällen im Elektrizitätsnetz kommen“, so Schulze. Das ADAS passt deswegen die Verteilung der Ladezeitpunkte aller E-Fahrzeuge an die Lastkurve des örtlichen Elektrizitätsnetzes und die Wetterprognosen an. Denn es ist weniger wahrscheinlich, dass viele Fahrer gleichzeitig zum Nachladen fahren, wenn das System die optimalen Stationen auf Basis individueller Faktoren berechnet. Zum Beispiel könnte das ADAS Fahrern empfehlen, ihre Pläne aufgrund der Wetterdaten anzupassen: „Wenn mittags um 14 Uhr am Supermarkt die Sonne scheint, kann es unter Umständen sinnvoller sein, das Nachladen früher als geplant vorzunehmen.“ Das habe mehrere Vorteile: „Der Prozentsatz an Solarenergie an der Ladestation ist dann deutlich höher, das heißt, der Strom, der letztendlich in der Batterie landet, ist umweltfreundlicher. Weil der Einkauf ohnehin eine halbe Stunde dauert, kann die Batterie zudem ganz nebenbei nachgeladen werden“, erklärt Thomas Schulze, der die Projektaufgaben im Bereich der Softwaretechnik leitet.

Herausforderung „Big Data“
Die Entwicklung eines solchen Systems ist komplex. Das sei auch einer der Gründe, warum das Forscherteam über Fächergrenzen hinweg arbeite. So spielen psychologische Faktoren eine herausragende Rolle: „Damit der Fahrer die angebotenen Vorschläge annimmt, müssen sie für ihn attraktiv und transparent sein“, erklärt Prof. Dr. Michaela Wänke, Inhaberin des Lehrstuhls für Konsumentenpsychologie und Ökonomische Psychologie. „Wir arbeiten daher gemeinsam mit den Wirtschaftsinformatikern an psychologischen und ökonomischen Anreizmechanismen, um den Fahrer für vorbildliches Verhalten zu belohnen.“ Neben Boni und Preisrabatten an Ladestationen ist auch wichtig, wie und in welcher Reihenfolge der Fahrerin Alternativen präsentiert werden. Nicht zuletzt sind die Daten eine Herausforderung: „Wir haben es mit enormen Datenmengen und höchst sensiblen Daten zu tun“, so Dr. Florian Kutzner, Leiter der psychologischen Arbeitsaufträge im Projekt. Neben Wetterdaten und Batteriekapazität müsse das System auf historische Daten zum Fahrverhalten und Topographie zurückgreifen, um attraktive Vorschläge machen zu können und um den Energieverbrauch pro Fahrt korrekt zu berechnen. Gleichzeitig dürfe aber die Selbstbestimmung der Nutzer über ihre Daten nicht aus dem Blick geraten.

Das Projekt startet am 1. September 2016 und läuft über drei Jahre. Im ersten Projektjahr sollen zunächst die Anforderungen an das System ermittelt und gleichzeitig die Modellierung vorgenommen werden. Im zweiten und dritten Jahr erfolgen die Implementierung sowie zwei Testphasen, in denen das System in der Praxis überprüft wird. Im Anschluss an die Entwicklung soll ADAS der Automobilindustrie frei zur Verfügung gestellt werden.

Die Projektteilnehmer
An der Universität Mannheim ist das Gemeinschaftsprojekt fakultätsübergreifend an den drei Lehrstühlen Wirtschaftsinformatik II (BWL), Softwaretechnik (Wirtschaftsinformatik und Wirtschaftsmathematik) sowie Konsumentenpsychologie und Ökonomische Psychologie (Sozialwissenschaften) verortet. Externe Projektpartner sind unter anderem die französische IT-Consultingfirma GFI Informatique, die Universität Passau, das Deggendorf Institute of Technology und der E-Carsharing-Anbieter E-WALD GmbH.

Über Horizon 2020
Horizon 2020 ist das Rahmenprogramm der Europäischen Union für Forschung und Innovation. Ziel ist es, EU-weit eine wettbewerbsfähige Wirtschaft aufzubauen und zu einer nachhaltigen Entwicklung beizutragen. Das Projekt „ELECTRIFIC“ wird im Rahmen der Challenge „Smart, Green and Integrated Transport“ mit insgesamt 6,2 Million Euro gefördert, davon gehen 630.000 Euro an das Forscherteam der Universität Mannheim.

Kontakt:
Sonja Klingert
Projektleitung
Lehrstuhl für Wirtschaftsinformatik II
Universität Mannheim
Tel. +49 (0) 160 / 1066 942
E-Mail: klingert@uni-mannheim.de

Dr. Florian Kutzner
Lehrstuhl für Konsumentenpsychologie und Ökonomische Psychologie
Universität Mannheim
Tel. +49 (0) 621 / 181-1689
E-Mail: florian.kutzner@psychologie.uni-heidelberg.de

Thomas Schulze
Lehrstuhl für Softwaretechnik
Universität Mannheim
Tel. +49 (0) 621 / 181-3906
E-Mail: schulze@informatik.uni-mannheim.de

Quelle: idw

(nach oben)


Studie belegt erstmals: Autofahren mit Flip Flops ist gefährlich

Henning Zuehlsdorff Pressestelle
Leuphana Universität Lüneburg

An heißen Sommertagen ist die Verlockung groß, mal eben mit Flip Flops ins Auto zu springen und einfach loszufahren. Wie gefährlich das ist, haben jetzt Wissenschaftler der Leuphana Universität Lüneburg mit einer Untersuchung belegt. Professor Friedrich Müller und sein Team vom LüneLab, dem Institut für Experimentelle Wirtschaftspsychologie der Leuphana, werteten dazu an einem Fahrsimulator 5.400 Bremsmanöver aus.

Die Wissenschaftler untersuchten die Reaktionen von 34 Personen in sorgfältig ausbalancierten Versuchen an einem Fahrsimulator. Die Probanden trugen bei jeweils der Hälfte der Bremsvorgänge feste, gut sitzende Schuhe, in den anderen Situationen hatten sie Flip Flops an. Gemessen wurden unter anderem die Reaktionszeiten, die Zeit für die Bewegung vom Gas- zum Bremspedal (Umsetzzeit) und die Zeiten etwa vom Aufleuchten einer Ampel oder dem Erscheinen von Personen auf der Fahrbahn bis zum vollständigen Betätigen des Bremspedals (sog. Vorbremszeiten).

Die Wissenschaftler kamen zu einem eindeutigen Ergebnis: Unter allen Bedingungen sind die Vorbremszeiten mit Flip Flops deutlich länger als die mit festen Schuhen. In überraschend auftretenden Bremssituationen (ein Kind fährt plötzlich mit einem Skateboard auf die Straße) verlängert sich der Bremsweg – bei einer Geschwindigkeit von 100 km/h im Durchschnitt um etwa 2,5 m. Situationen, in denen die Fahrer bei Bremsmanövern vom Pedal abrutschten, an Pedalen hängen blieben oder sich zwischen den Pedalen verhakten, wurden ausschließlich bei Flip Flop-Fahrern beobachtet. Knapp die Hälfte der Fahrer mit Flip Flops verfehlte mindestens einmal das Bremspedal, ein knappes Drittel rutsche mindestens einmal vom Pedal ab.

80% der Fahrer berichten, dass sie sich beim Fahren mit Flip Flops deutlich unsicherer fühlten. Das Fahren mit ungeeignetem Schuhwerk erfordert also insgesamt eine deutlich höhere Aufmerksamkeit vom Fahrzeuglenker. Die Verkehrspsychologen nehmen deshalb an, dass sich die Bremszeiten weiter verlängern, wenn Fahrer durch ein komplexes Verkehrsgeschehen, weitere Mitfahrer oder andere Reize abgelenkt werden. Solchen Einflüssen wollen die Wissenschaftler mit einem am LüneLab neu konzipierten Fahrsimulator in einer weiteren Studie auf die Spur kommen.

Entstanden ist die vorliegende Untersuchung in Kooperation mit der Berufsgenossenschaft Verkehrswirtschaft Post-Logistik Telekommunikation. Eine Unfallverhütungsvorschrift verlangt von Berufskraftfahrern, bei der Ausübung ihres Berufes festes Schuhwerk zu tragen. Die Berufsgenossenschaft wollte wissen, ob es Belege für die vermutete Beeinträchtigung der Verkehrssicherheit gibt.

Quelle: idw

(nach oben)


Der Pinguin als Messstation: Symposium beleuchtet Perspektiven der Erdbeobachtung durch Tiere

Caroline Wichmann Presse- und Öffentlichkeitsarbeit
Nationale Akademie der Wissenschaften Leopoldina

Pinguine und See-Elefanten sammeln Messdaten im Meer, Vögel zeigen Wissenschaftlern die Ausbreitung von Infektionskrankheiten an, Huftierherden dienen als Indikatoren für den Zustand von Grasland-Ökosystemen. Die Erdbeobachtung durch Tiere verspricht vielfältige Möglichkeiten, das Gesundheitsmanagement zu verbessern, Ökosysteme zu erforschen und Naturkatastrophen früher zu erkennen. Welche Entwicklungen das Forschungsgebiet aktuell kennzeichnen und welche Perspektiven es bietet ist Thema des Leopoldina-Symposiums „Erdbeobachtung durch Tiere“ in Berlin.

Mit den Fortschritten der Satelliten gestützten Technologien hat sich das Forschungs- und Anwendungsfeld „Erdbeobachtung durch Tiere“ schnell weiterentwickelt. Immer kleinere Chips und Sensoren ermöglichen es den Forschern, immer mehr Tierarten per Telemetrie zu orten und Messwerte in Echtzeit auszuwerten. Bei dem Symposium in Berlin berichten Forscher unter anderem über „Vögel als Indikatoren für die Ausbreitung hochpathogener zoonotischer Krankheiten“ (Timm Harder, Friedrich-Loeffler-Institut Riems), über „Meeresvögel als Umweltindikatoren für die Meeres- und Umweltforschung“ (Petra Quillfeldt, Universität Gießen), über die „Veränderungen von Tierbewegungen durch globalen Wandel“ (Thomas Müller, Senckenberg Biodiversität und Klima Forschungszentrum, Frankfurt am Main) und über „Fernerkundung: Beobachtungsinstrumente für den Naturschutz“ (Aurélie Shapiro, World Wildlife Fund for Nature, Berlin).

Für das Symposium ist eine Anmeldung bis zum 28. September erforderlich.

Weitere Informationen:
http://www.leopoldina.org/de/veranstaltungen/veranstaltung/event/2418

Quelle: idw

(nach oben)


Unstatistik des Monats: Fußball-Fans haben die höchste Bildung

Jörg Schäfer Kommunikation
RWI – Leibniz-Institut für Wirtschaftsforschung

Wer es noch nicht gewusst hat – Fußball ist Bildungsland: „Auf Platz 1: der SC Freiburg. 73,4 Prozent seiner Fans haben laut „Xing“ einen Hochschulabschluss“, so berichtete der Südkurier. Die berichteten Prozent-Zahlen allerdings beziehen sich nicht auf die Mitglieder der Fußballvereine, sondern nur auf jene, die zugleich Mitglied bei Xing sind, und dort sind überdurchschnittlich viele Akademiker Mitglied.

Wer es noch nicht gewusst hat – Fußball ist Bildungsland: „Auf Platz 1: der SC Freiburg. 73,4 Prozent seiner Fans haben laut „Xing“ einen Hochschulabschluss“, so berichtete der Südkurier. Selbst der drittletzte in diesem neuesten Bildungs-Ranking der Bundesligavereine strotzt vor Intelligenz: „Mehr als die Hälfte (63,5 Prozent) der HSV-Fans hat einen Hochschulabschluss“, weiß das norddeutsche Zeitungsportal shz.de zu berichten. All das hat angeblich Xing bei einer Befragung seiner Nutzer herausgefunden.

Wie kann das sein? Die Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (OECD) hat Deutschland wiederholt wegen der geringen Akademikerrate gerügt. Im Jahr 2015 verfügten in Deutschland nur 16,3 Prozent der Bevölkerung über einen Hochschulabschluss (Bachelor, Master, Diplom oder Promotion, siehe www.destatis.de). Wenn aber selbst unter den HSV-Fans mehr als die Hälfte angeblich einen Hochschulabschluss haben, dann stimmt hier etwas nicht.

In der Tat. Die berichteten Prozent-Zahlen beziehen sich nicht auf die Mitglieder der Fußballvereine, sondern nur auf jene, die zugleich Mitglied bei Xing sind. Die Zahlen betreffen also die Schnittmenge. Da Xing, wie der Konkurrent Linkedin, überdurchschnittlich viele Akademiker als Mitglieder hat, gibt es dort auch viele Hochschulabschlüsse – bei Xing, nicht beim HSV. Mit anderen Worten: die Mitglieder von Xing sind weder repräsentativ für die Bevölkerung noch für alle Fußballfans in Deutschland. Hier ist Journalisten ein altbekannter Fehler unterlaufen: man berichtet eine korrekte Prozentzahl, aber die falsche Referenzklasse. Richtig wäre gewesen: 73,4 Prozent der Xing-Mitglieder, die zugleich Fan des FC Freiburg sind, haben einen Hochschulabschluss. Die Moral der Geschichte lautet: Frage immer „Prozent von was?“

Ansprechpartner:
Prof. Dr. Gerd Gigerenzer, Tel.: (030) 82406-0
Sabine Weiler (Pressestelle RWI), Tel.: (0201) 8149-213

Mit der „Unstatistik des Monats“ hinterfragen der Berliner Psychologe Gerd Gigerenzer, der Dortmunder Statistiker Walter Krämer und RWI-Vizepräsident Thomas Bauer jeden Monat sowohl jüngst publizierte Zahlen als auch deren Interpretationen. Alle „Unstatistiken“ finden Sie im Internet unter www.unstatistik.de.

Weitere Informationen:

http://www.unstatistik.de – Weitere Informationen, Kontakte & Archiv

Anhang

Pressemitteilung (pdf)
https://idw-online.de/de/attachment50730

Quelle: idw

(nach oben)


Handlungsempfehlungen zur Ernährung und Bewegung von Säuglingen und stillenden Frauen aktualisiert

Dr. Katharina Reiss Pressestelle
Gesund ins Leben – Netzwerk Junge Familie

Gesunder Ernährung und ausreichend Bewegung im Säuglingsalter kommt eine besondere Bedeutung zu, denn hier werden wichtige Weichen für eine lebenslange Gesundheit gestellt. Das Netzwerk Gesund ins Leben hat die bundesweit einheitlichen Handlungsempfehlungen für das erste Lebensjahr eines Kindes aktualisiert und erweitert. Die Themen „Bewegung“ und „Essen lernen“ sowie neue Ernährungstrends sind erstmals aufgegriffen. Die Handlungsempfehlungen sind in der Monatsschrift Kinderheilkunde erschienen und stehen unter http://www.gesund-ins-leben.de bereits online.

Wie lange stillen? Schützt ein früher Beikoststart vor Allergien? Vegane Ernährung für Säuglinge? Wie wichtig ist Bewegung für Babys? Dürfen stillende Frauen Sport treiben? Auf der Grundlage neuer wissenschaftlicher Erkenntnisse geben die aktualisierten „Handlungsempfehlungen zur Ernährung und Bewegung von Säuglingen und stillenden Frauen“ Fachkräften klare Antworten für die Beratung junger Eltern, z.B. im Rahmen von Vorsorgeuntersuchungen.

Neue Themen: Bewegung und Essen lernen im ersten Lebensjahr
Eine ausgewogene und bedarfsangepasste Ernährung fördert die Entwicklung des Kindes und wirkt sich kurz-, mittel- und langfristig auf seine Gesundheit aus. Eltern sollen dabei unterstützt werden, ein gesundheitsförderndes Essverhalten möglichst früh zur Gewohnheit werden zu lassen. Die Begleitung des Kindes während der Mahlzeiten, das Eingehen auf die kindlichen Signale und das gemeinsame Essen am Tisch können die Bindung zwischen Eltern und Kind stärken.
Neben der Ernährung spielt ausreichend Bewegung eine entscheidende Rolle. Sie ist nicht nur für die motorische Entwicklung elementar, sondern bleibt ein Leben lang für die Gesundheit und das Wohlbefinden von Bedeutung. Deshalb soll Eltern vermittelt werden, wie sie die Bewegung ihres Kindes bereits ab dem Säuglingsalter fördern können und auch der stillenden Mutter wird empfohlen, körperlich aktiv zu sein.
Diese neuen Empfehlungen zu den Themen „Bewegung“ und „Essen lernen“ ergänzen die aktuelle Ausgabe der „Handlungsempfehlungen zur Ernährung und Bewegung von Säuglingen und stillenden Frauen“ des Netzwerks Gesund ins Leben. Das Netzwerk Gesund ins Leben ist ein Teil von IN FORM, Deutschlands Initiative für gesunde Ernährung und mehr Bewegung der Bundesregierung.

Expertenkonsens als Basis für Handlungsempfehlungen
Die Verständigung auf bundesweit einheitliche Handlungsempfehlungen im Konsens mit allen relevanten Fachgesellschaften und Berufsverbänden ist ein zentrales Ziel des Netzwerks Gesund ins Leben. Die erstmals 2010 erschienenen Empfehlungen zur Ernährung im ersten Lebensjahr und in der Stillzeit wurden nun anhand der derzeitigen wissenschaftlichen Datenlage im Rahmen eines Revisionsprozesses überarbeitet. Dafür wurden die Empfehlungen aller relevanten Fachgesellschaften und Institutionen zu Ernährung, Gesundheit, Nahrungsmittelallergien und Bewegung von Schwangeren, Stillenden und Kindern im ersten Lebensjahr recherchiert und geprüft.
Ergänzend wurden Metaanalysen, systematische Übersichtsarbeiten, Leitlinien sowie weitere einschlägige Fachpublikationen miteinbezogen. Es wurde kein Anspruch auf eine systematische Recherche erhoben. Die vom wissenschaftlichen Beirat des Netzwerks Gesund ins Leben im Konsens formulierten Handlungsempfehlungen entsprechen dem Evidenzniveau einer Expertenempfehlung. Die Handlungsempfehlungen werden von den Berufsverbänden der Frauenärzte (BVF), der Hebammen (DHV) und der Kinder- und Jugendärzte (BVKJ) sowie den Deutschen Gesellschaften für Gynäkologie und Geburtshilfe (DGGG), für Hebammenwissenschaft (DGHWi) und für Kinder- und Jugendmedizin (DGKJ) unterstützt. Diese berufsgruppenübergreifende Verständigung auf bundesweit einheitliche Handlungsempfehlungen im Bereich Ernährung und Bewegung ist europaweit einzigartig.
Verbreitet werden die Inhalte der aktualisierten Handlungsempfehlungen über eine intensive Presse- und Öffentlichkeitsarbeit, Fortbildungsangebote für Fachkräfte sowie über Beratungs- und Informationsmedien für Fachkräfte und für junge Familien.

Die aktualisierten „Handlungsempfehlungen zur Ernährung und Bewegung von Säuglingen und stillenden Frauen“ sind über folgenden Link erhältlich:
http://www.gesund-ins-leben.de/fuer-fachkraefte/handlungsempfehlungen/erstes-lebensjahr

Über Gesund ins Leben:
Gesund ins Leben ist ein Netzwerk von Institutionen, Fachgesellschaften und Verbänden, die sich mit jungen Familien befassen. Das Ziel ist, Eltern einheitliche Botschaften zur Ernährung und Bewegung zu vermitteln, damit sie und ihre Kinder gesund leben und aufwachsen. Das Bundesministerium für Ernährung und Landwirtschaft fördert Gesund ins Leben als Teil des Nationalen Aktionsplans IN FORM: http://www.gesund-ins-leben.de

Über IN FORM:
IN FORM ist Deutschlands Initiative für gesunde Ernährung und mehr Bewegung. Sie wurde 2008 vom Bundesministerium für Ernährung und Landwirtschaft (BMEL) und vom Bundesministerium für Gesundheit (BMG) initiiert und ist seitdem bundesweit mit Projektpartnern in allen Lebensbereichen aktiv. Ziel ist, das Ernährungs- und Bewegungsverhalten der Menschen dauerhaft zu verbessern: http://www.in-form.de

Kontakt:
Dr. Katharina Reiss
Geschäftsstelle: Netzwerk Gesund ins Leben
aid infodienst Ernährung, Landwirtschaft, Verbraucherschutz e. V.
Heilsbachstraße 16
53123 Bonn
Tel.: 0228 8499-169 Fax: 0228 8499-177
E-Mail: k.reiss@aid-mail.de
Internet: www.gesund-ins-leben.de; www.aid.de

Quelle: idw

(nach oben)


Effiziente Wiederverwertung von Lithium-Ionen-Batterien – Forschungsprojekt gestartet

Marie-Luise Righi Marketing und Kommunikation
Fraunhofer-Institut für Silicatforschung ISC

Gefördert vom Bundesministerium für Bildung und Forschung (BMBF) wird ein innovatives und hocheffizientes Verfahren entwickelt, um wertvolle Batteriematerialien möglichst ressourcenschonend zurückzugewinnen und wieder für neue Batterien einzusetzen. Ziel des Projekts NEW-BAT ist es, einen robusten, energieeffizienten und kostengünstigen Prozess zu entwickeln, der breit eingesetzt werden kann.

Lithium-Ionen-Batterien sind eine Schlüsseltechnologie für die Energiewende und Elektromobilität. Die große Verbreitung dieser Energiespeicher führt zu einem hohen Aufkommen an ausgemusterten Batterien und Akkus, die eine wertvolle Rohstoffquelle sind. Aktuell werden für gebrauchte Batterien und Produktionsabfälle aus der Batteriefertigung energieintensive metallurgische Recyclingmethoden eingesetzt. Damit können allerdings nur elementare Metalle zurückgewonnen werden. Die Wertschöpfung beruht deshalb meist nur auf den Metallwerten von beispielsweise Nickel, Cobalt oder Mangan. Wertvoller wäre eine Rückgewinnung der eigentlichen Batteriematerialien, die bereits mit hohem Aufwand aus den Grundelementen hergestellt wurden, beispielsweise hochwertige Lithium-Metalloxide und bisher gar nicht recyclingfähige Kohlenstoffverbindungen. Das würde Energie und Kosten sparen und wertvolle Ressourcen wie Lithium nachhaltig sichern.

Hier setzt das Projekt NEW-BAT an, das mit rund 1,6 Millionen Euro im Rahmen der BMBF-Fördermaßnahme »r4- Forschung zur Bereitstellung wirtschaftsstrategischer Rohstoffe« gefördert wird. Unter der Leitung von Andreas Bittner von der Fraunhofer-Projektgruppe für Wertstoffkreisläufe und Ressourcenstrategie IWKS arbeiten Wissenschaftler und Ingenieure aus Forschung und Industrie an einem neuen Verfahren, mit dem genau diese wertvollen Batteriematerialien komplett aus den Altbatterien zurückgewonnen und so aufbereitet werden, dass sie direkt wieder in neuen Batterien eingesetzt werden können.

Intelligent zerkleinern statt ziellos zerschreddern
Das Kernstück des neuen Recyclingprozesses ist die elektrohydraulische Zerkleinerung mit Hilfe von Schockwellen. Bei diesem Verfahren wird das zu zerkleinernde Material in ein flüssiges Medium, zum Beispiel Wasser, eingebracht. Über elektrische Entladung werden Schockwellen freigesetzt, die durch das Medium Wasser sehr gleichmäßig an das Material weitergegeben werden.

Damit ist es möglich, Komposite quasi berührungsfrei an den Materialgrenzen aufzuspalten und so eine einfache und schonende Separation der Komponenten zu erreichen. Das Materialgemisch aus den verschiedenen Batteriekomponenten – Kathode, Anode, Elektrolyt, Separator sowie Zell- und Batteriegehäuse – kann danach effizienten Trennverfahren unterzogen werden. Um möglichst reines Batteriematerial zu erhalten, werden Verfahren eingesetzt, die sowohl physikalische Eigenschaften, wie unterschiedliche Korngröße und Dichte, als auch die unterschiedliche chemische Zusammensetzung der Materialien zur Separation nutzen.

Das Verfahren ist besonders energieeffizient, da im Gegensatz zu metallurgischen Prozessen keine hohen Temperaturen benötig werden, und kann für Produktionsausschüsse sowie für Altprodukte eingesetzt werden.

Aufbereiten mit funktionellen Beschichtungen
Da insbesondere die Elektrodenmaterialien der Batterien im Lauf der Batterienutzung altern, müssen die Recyclingmaterialien einer genauen Prüfung und Aufbereitung unterzogen werden, um ihre ursprüngliche Qualität wiederherzustellen. Mit speziellen Niedertemperaturverfahren können beim Projektpartner Fraunhofer ISC insbesondere Materialien von Lithium-Ionen-Batterien von unerwünschten Degradationsprodukten an den Oberflächen befreit und Defekte in den Kristallstrukturen behoben werden. Diese Aufbereitung kann mit einer Veredelung in Form einer Kern-Schale-Beschichtung verknüpft werden, die das recycelte Material hinsichtlich der Lebensdauer sowie der Lade- und Entladeeigenschaften deutlich verbessern.

Das Projektteam
Zwei Partner aus der Wissenschaft – die Fraunhofer-Projektgruppe für Wertstoffkreisläufe und Ressourcenstrategie IWKS in Alzenau/Hanau als Koordinator und ihr Mutterinstitut, das Fraunhofer-Institut für Silicatforschung ISC in Würzburg – bringen ihre Expertise auf den Gebieten Recycling, Substitution und Ressourcenstrategien sowie Materialentwicklung und elektrochemische Energiespeicher ein. Vervollständigt wird das Konsortium durch Industriepartner mit gebündelter Anwendungskompetenz aus Recycling, Batterien und Anlagenbau, die Lars Walch GmbH & Co. KG in Baudenbach, die GRS Service GmbH in Hamburg und die ImpulsTec GmbH in Dresden.

Weitere Informationen:
http://www.isc.fraunhofer.de
http://www.iwks.fraunhofer.de

Quelle: idw

(nach oben)


Gehirn räumt im Schlaf auf – und bleibt dadurch lernfähig

Benjamin Waschow Stabsstelle Unternehmenskommunikation
Universitätsklinikum Freiburg

Wesentliche Funktion von Schlaf geklärt / Schlaf reduziert die Übertragung zwischen Nervenzellen und schafft dadurch Platz für Neues und Wichtiges / Publikation in Nature Communications

Noch immer ist nicht eindeutig geklärt, weshalb Menschen und Tiere schlafen. Wissenschaftlerinnen und Wissenschaftler der Klinik für Psychiatrie und Psychotherapie des Universitätsklinikums Freiburg zeigen in einer am 23. August 2016 im Fachmagazin Nature Communications veröffentlichten Studie, dass im Schlaf die allgemeine Aktivität der als Synapsen bezeichneten Nervenzell-Verbindungen reduziert wird. Die meisten Verbindungen werden geschwächt, manche sogar ganz abgebaut. Nur wichtige Synapsen bleiben bestehen oder werden gestärkt. Dadurch schafft das Gehirn wieder Platz, um neue Informationen zu speichern. Diese als synaptische Plastizität bezeichnete Anpassungsfähigkeit ist eine wichtige Grundlage für Lernen und eine flexible Informationsverarbeitung. Der Abbau dürfte zudem Platz und Energie sparen, da beides im Gehirn zu einem Großteil von den Verbindungsstellen benötigt wird.

Nehmen wir tagsüber Informationen auf, werden im Gehirn Synapsen gestärkt oder neu angelegt. „Wir konnten jetzt erstmals beim Menschen zeigen, dass Schlaf die Synapsen wieder heruntergeregelt und damit Platz für neue Informationen schafft. Das Gehirn räumt also im Schlaf auf“, sagt Studienleiter Prof. Dr. Christoph Nissen, Ärztlicher Leiter des Schlaflabors an der Klinik für Psychiatrie und Psychotherapie des Universitätsklinikums Freiburg. „Wird dieser Prozess durch Schlafmangel unterbunden, gerät das Gehirn in einen Sättigungszustand. Synapsen können dann nicht mehr ausreichend verstärkt oder neu aufgebaut werden. Entsprechend schwer fallen auch Lernen und flexible Informationsverarbeitung.“

Schlaf senkt die tagsüber gestiegene Aktivität der Synapsen
Zunächst untersuchten die Forscher die allgemeine Aktivität der Synapsen im Gehirn, die auch als Gesamtverbindungsstärke bezeichnet wird. Mit Hilfe einer Magnetspule über dem Kopf der Probanden reizten sie einen Bereich im Gehirn, der für die Steuerung eines Daumenmuskels zuständig ist. Dieses Vorgehen wird als Transkranielle Magnetstimulation (TMS) bezeichnet. Nach Schlafentzug löste bereits ein deutlich schwächerer Reiz eine Kontraktion des Muskels aus, was ein Zeichen für eine hohe synaptische Verbindungsstärke ist.

Außerdem werteten die Forscher mittels Elektroenzephalografie-Messungen (EEG) die unterschiedlichen Frequenzen der Hirnströme aus. Schlafentzug führte dabei zu einem deutlichen Anstieg sogenannter Theta-Wellen. Vorangegangenen Tier- und Humanstudien zufolge ist dies ein weiteres Anzeichen erhöhter synaptischer Gesamtstärke. „Schlaf senkt die tagsüber gestiegene Gesamtstärke der Synapsen im Gehirn. Nach Schlafentzug bleibt die Aktivität dagegen auf einem hohen Niveau“, sagt Prof. Nissen.

Gehirn wehrt sich gegen Überladung
Außerdem fanden die Forscher erstmals beim Menschen Hinweise für ein Prinzip, das eine dauerhafte Reizverarbeitung gewährleistet, die sogenannte homöostatische Plastizität. Sind die Synapsen durch lange Wachphasen bereits maximal aktiv, führen neue Reize oder Informationen nicht zu einer Stärkung, sondern zu einer Schwächung der Nervenzell-Verbindungen. Neu ankommende Reize können dann wieder normal verarbeitet werden. „Es ist anzunehmen, dass praktisch alle Funktionen des Gehirns dadurch beeinflusst werden, wie etwa Emotionsregulation, Konzentration oder Lernen“, sagt Prof. Nissen.

Im Experiment kombinierten die Forscher wiederholt die Reizung des motorischen Gehirn-Areals mit einem elektrischen Reiz am Arm, der ins Gehirn weiter geleitet wird. Findet eine Stärkung der Verknüpfung von Nervenzellen statt, kontrahiert sich der Daumenmuskel stärker als zuvor. Dieser Effekt zeigte sich nach Nachtschlaf. Nach Schlafentzug dagegen war die Kontraktion des Daumenmuskels sogar schwächer. Auf Verhaltensebene beobachteten die Freiburger Forscher zudem ein schlechteres Neulernen von Wortpaaren nach Schlafentzug.

Möglicher Grund, warum Menschen Schlafmangel unterschiedlich gut vertragen
Weiterhin fanden sie Hinweise darauf, dass der Wachstumsfaktor BDNF (brain derived neurotrophic factor) bei der Regulation der synaptischen Aktivität eine wichtige Rolle spielt. Es ist bekannt, dass BDNF nach normalem Schlaf die Neuverknüpfung von Nervenzellen und damit Lernen fördert. Die Forscher konnten nun zeigen, dass eine anhaltend hohe BDNF-Konzentration im Blut unter Schlafentzug eher zu einer Sättigung von Synapsen führte. „Das könnte erklären, warum manche Menschen Schlafmangel besser verkraften als andere“, sagt Prof. Nissen.

Therapieansätze für Depression und Schlaganfall
Die Erkenntnisse könnten zur Entwicklung neuer Therapiemöglichkeiten beitragen, etwa nach Schlaganfall oder bei depressiven Störungen. Bei diesen Erkrankungen ist es wichtig, Verschaltungen im Gehirn zu verändern. Hierzu könnten eine gezielte Beeinflussung des Schlaf-Wach-Verhaltens, aber auch andere Verfahren wie die transkranielle Gleichstromstimulation oder Medikamente mit neuen Wirkmechanismen auf Plastizität genutzt werden.

Original-Titel der Arbeit: Sleep recalibrates homeostatic and associative synaptic plasticity in the human cortex

DOI: 10.1038/ncomms12455

Kontakt:
Prof. Dr. Christoph Nissen
Ärztlicher Leiter Schlaflabor
Klinik für Psychiatrie und Psychotherapie
Universitätsklinikum Freiburg
Telefon: 0761 270-65010
christoph.nissen@uniklinik-freiburg.de

Weitere Informationen:
http://www.uniklinik-freiburg.de/psych/forschung-research/research-groups/rg-nis…
Weitere Informationen zur Forschungsgruppe von Prof. Nissen

Quelle: idw

(nach oben)


Getränkeindustrie fördert Adipositas-Welle und Zivilisationskrankheiten

Julia Voormann Pressestelle
Deutsche Diabetes Gesellschaft

Berlin – Die Verbraucherorganisation „foodwatch“ hat eine Marktstudie veröffentlicht, wonach 60 Prozent von 463 getesteten Erfrischungsgetränken überzuckert sind. Demnach enthalten zuckergesüßte Limonaden, Schorlen & Co im Schnitt mehr als sechs Stück Würfelzucker pro 250 Milliliter. „Diese Ergebnisse sind erschreckend“, erklärt Professor Dr. med. Baptist Gallwitz, Präsident der Deutschen Diabetes Gesellschaft (DDG). „Sie demonstrieren wieder einmal, dass die Mehrheit der Hersteller am Übergewicht verdient und Krankheitsfolgen wie Diabetes, Herzkreislauf- und Krebserkrankungen in Kauf nimmt.“ Die Fachgesellschaft fordert eine Steuer oder Herstellerabgabe auf stark zuckerhaltige Getränke.

Foodwatch hatte alle Erfrischungsgetränke auf Zuckergehalt und Süßstoffe getestet, die in den drei größten deutschen Supermärkten angeboten werden – darunter Limonaden, Energydrinks, Saftschorlen, Brausen, Eistees, Fruchtsaft und sogenannte Near-Water-Getränke. Dabei gilt in der Foodwatch-Untersuchung als „überzuckert“, was einen Anteil von mehr als fünf Prozent Zucker je 100 Milliliter Flüssigkeit aufweist. Dieser Wert bemisst sich an der jüngst beschlossenen Softdrink-Steuer in Großbritannien. Dort müssen Hersteller ab 2018 eine gestaffelte Abgabe zahlen, sofern Getränke diese Fünf-Prozent-Grenze erreichen beziehungsweise überschreiten.

Großbritannien ist nicht das einzige Land, das Maßnahmen erlässt, um den Verbrauch von Zuckergetränken zu verringern. Auch Finnland, Frankreich, Belgien, China, Ungarn, Mexiko und einige US-amerikanische Städte erheben Steuern auf zugesetzten Zucker. Diese Nationen folgen der Auffassung von Margret Chan, Generaldirektorin der Weltgesundheitsorganisation (WHO), wonach das bisherige Scheitern beim Kampf gegen die Übergewichts-Epidemie nicht auf individuelle Willensschwäche zurückzuführen ist, sondern auf mangelnden politischen Willen.* „Jetzt sollte endlich auch die Bundesregierung aktiv werden, um die bedrohliche Adipositas-Welle zu stoppen“, fordert Dr. Dietrich Garlichs, Geschäftsführer der DDG. „Selbst die konservative britische Regierung hat sich dazu durchgerungen, wann wird die Bundesregierung endlich folgen?“

Der Vorschlag der DDG sieht vor, stark zuckerhaltige Getränke mit dem vollen Mehrwertsteuersatz von 19 Prozent zu besteuern, gesunde Lebensmittel hingegen durch Wegfall der Mehrwertsteuer zu entlasten. „Damit würde man eine Preisspreizung erreichen, die gesünderes Konsumverhalten belohnt und ein Umdenken bei den Herstellern anstößt“, meint Garlichs. „Das Instrument Mehrwertsteuer wäre transparent und nachvollziehbar“, fügt der DDG Geschäftsführer hinzu. Aber auch eine Herstellerabgabe, wie Großbritannien sie einführt, sei aus Sicht der DDG eine gute Lösung, um die zunehmende Übergewichtsdynamik einzudämmen. „Ob nun Abgabe oder Steuer“, resümiert Garlichs, „konkret bezogen auf die Foodwatch-Studie sollte das Ergebnis am Ende des Tages sein: mehr von Bad Liebenwerdas leichter Apfel-Schorle, weniger Pepsi & Co.“

* „Not one single country has managed to turn around its obesity epidemic…. This is not a failure of individual will-power. This is a failure of political will to take on big business…“ (siehe http://www.who.int/dg/speeches/2013/health_promotion_20130610/en)

Über die Deutsche Diabetes Gesellschaft:
Die Deutsche Diabetes Gesellschaft (DDG) ist mit fast 9.000 Mitgliedern eine der großen medizinisch-wissenschaftlichen Fachgesellschaften in Deutschland. Sie unterstützt Wissenschaft und Forschung, engagiert sich in Fort- und Weiterbildung, zertifiziert Behandlungseinrichtungen und entwickelt Leitlinien. Ziel ist eine wirksamere Prävention und Behandlung der Volkskrankheit Diabetes, von der mehr als sechs Millionen Menschen in Deutschland betroffen sind. Zu diesem Zweck unternimmt sie auch umfangreiche gesundheitspolitische Aktivitäten.

Deutsche Diabetes Gesellschaft (DDG)
Geschäftsstelle
Albrechtstr. 9, 10117 Berlin
Tel.: 030 3116937-0, Fax: 030 3116937-20
info@ddg.info
http://www.ddg.info

Quelle: idw

(nach oben)


Viel Regen, wenig Wespen

Eva Goris Kommunikation
Deutsche Wildtier Stiftung

Die Deutsche Wildtier Stiftung: Königinnen und ihre Brut sind oft ertrunken

Haben Sie sich über den vielen Regen in diesem Jahr geärgert? Jetzt können Sie sich freuen! Die Wespenplage bleibt im Spätsommer 2016 in den meisten Regionen Deutschland aus. Die heftigen Regenfälle im Frühjahr haben die Nester der Wespen einfach weggespült. Viele Königinnen sind samt Brut ertrunken.

„Wespen-Königinnen verbringen ihre Winter in geschützten Hohlräumen unter Steinen, in Baumhöhlen oder in Holzstapeln“, sagt Manuel Pützstück, Wildbienenexperte der Deutschen Wildtier Stiftung. „Der starke Regen im Frühjahr war für die schwarz-gelben Insekten verheerend.“ Betroffene Wespenvölker brauchen Zeit, sich wieder vollends von den Unwettern zu erholen.

Der Tod der Wespen hat für den Menschen nicht nur Vorteile: „Sie haben ihr schlechtes Image zu Unrecht, denn Wespen sind effektive Schädlingsbekämpfer. Sie verfüttern Fliegen, Blattläuse und Mücken, die sie als Nahrung für den Nachwuchs ins Wespennest bringen.“ Weitgehend unbekannt ist auch, dass Wespen bei der Bestäubung von Blüten helfen, sich häufig von Nektar ernähren und bei einigen Vögeln sogar auf der Speisekarte stehen. Deshalb bittet die Deutsche Wildtier Stiftung um mehr „Toleranz gegenüber den Insekten mit der Wespen-Taille.“ Ihr Lebensende naht ohnehin schon im Herbst.

Nur im Nordosten Deutschlands, dort wo es weniger geregnet hat, kann es jetzt vermehrt Wespen geben, die Sie bei frischem Pflaumenkuchen und Grillwürsten im Garten belästigen. Drei Tipps, wie Sie sich die Plagegeister vom Tisch fernhalten:

Wespe im Anflug – das können Sie tun
1/ Schokoladenkuchen servieren, denn Wespen mögen keine Schokolade! Auch gut: die Ablenkungsfütterung. Stellen Sie an einer entfernten Ecke des Gartens eine Schale mit Lebensmitteln auf, die Wespen anlocken. Zum Beispiel reife Bananen und Weintrauben.
2/ Ruhe bewahren und nicht pusten. Das Kohlendioxid in der Atemluft macht die hungrigen Insekten erst recht aggressiv.
3/ Nicht nach den Tieren schlagen. Keine hektischen Bewegungen machen, auch nicht mit den Fingern zerquetschen! Denn auch tote Wespen können stechen. Durch einen Reflex wird das Gift noch aus dem Stachel gepumpt.

Weitere Informationen:

Kostenloses Bildmaterial: www.Presse.DeutscheWildtierStiftung.de
E.Goris@DeutscheWildtierStiftung.de, www.DeutscheWildtierStiftung.de

Quelle: idw

(nach oben)


Wandel der Arbeitswelt – Soziale Medien steigern den Leistungsdruck

Luise Dirscherl Stabsstelle Kommunikation und Presse
Ludwig-Maximilians-Universität München

Facebook, Xing und andere Web-2.0-Anwendungen verschärfen die Aufforderung zur Eigenverantwortung im Job, auch die Tendenz zur Selbstvermarktung verstärkt sich, zeigen Untersuchungen der LMU-Soziologin Tanja Carstensen.

„Soziale Medien bringen eine neue Dynamik in den Wandel der Arbeitswelt, denn sie sind die perfekte technologische Unterstützung für selbstorganisiertes und eigenverantwortliches Arbeiten“, sagt Dr. Tanja Carstensen, wissenschaftliche Mitarbeiterin am Lehrstuhl für Soziologie und Gender Studies der LMU. Durch das Arbeiten in Projekten, wie es sich seit Jahren durchsetzt, steigt die Gestaltungsfreiheit, zugleich bleibt es aber allen selbst überlassen, wie sie ihre Ziele und ihr Arbeitspensum schaffen. „Damit gehen neue Freiräume einher, zugleich gibt es aber eine Tendenz zur Selbstausbeutung.“ Das verschärft sich mit Technologien wie sozialen Netzwerken und Smartphones, durch die Beschäftigte nun jederzeit erreichbar sind. Zudem geben Präsenzanzeigen darüber Auskunft, wer wann wie lange online ist. Ein Teil der Beschäftigten schätze die neuen Möglichkeiten, sich auszutauschen und zu profilieren. „Das steigert aber auch den Leistungsdruck“, sagt Carstensen.

Die Untersuchungen der LMU-Soziologin zeigen, welch zunehmende Bedeutung die sozialen Netzwerke mit ihren Möglichkeiten, sich digital zu präsentieren, heute für den Joballtag und beruflichen Erfolg haben. „Die Beschäftigten werden dazu aktiviert, sich mit all ihrer Leidenschaft, Kreativität und Motivation einzubringen und als ganze Persönlichkeit sichtbar zu werden.“

Mehr Transparenz und Austausch und dadurch mehr Effizienz erhoffen sich Unternehmen von internen sozialen Netzwerken. Bislang haben sich diese Hoffnungen Tanja Carstensen zufolge kaum erfüllt. Der Einsatz sozialer Medien bedeute den Wechsel von einer Bring- zur Holschuld. Man bekommt keine E-Mails mehr zugeschickt, sondern ist selbst verantwortlich dafür, sich zu informieren. „Das verschärft die Aufforderung zur Selbstorganisation und verlangt mehr Eigenverantwortung“, sagt Carstensen. „Soziale Netzwerke erleichtern es Unternehmen zudem, Arbeit auszulagern und ihre Strukturen weiter aufzulösen. Für die Festangestellten steigt damit der Wettbewerb, sie konkurrieren so auch mit den Externen.“

Interview zum Thema:
„Social Media steigert den Leistungsdruck“
LMU-Soziologin Tanja Carstensen über Facebook und andere Web-2.0-Anwendungen in der Arbeitswelt
http://www.uni-muenchen.de/aktuelles/medien/spotlight/2016_meldungen/carstensen_…

Kontakt:
Dr. Tanja Carstensen
Lehrstuhl für Soziologie und Gender Studies der LMU
E-Mail: Tanja.Carstensen@soziologie.uni-muenchen.de

Quelle: idw

(nach oben)


Fortschritt bei der Impfung gegen Wespengift

Sonja Opitz, Abteilung Kommunikation
Helmholtz Zentrum München – Deutsches Forschungszentrum für Gesundheit und Umwelt

Gerade im Spätsommer geht unter Allergikern die Angst vor Wespenstichen um. Die sogenannte Hyposensibilisierung kann helfen, ist allerdings mit erheblichem Aufwand für Patienten und Krankenkassen verbunden. Forscher am Helmholtz Zentrum und der Technischen Universität in München haben nun im Fachmagazin ‚Allergy‘ eine Methode vorgestellt, die ein personalisiertes Verfahren erlaubt.

Im Spätsommer ein Stück Kuchen im Freien zu genießen, das kann schnell zum Wagnis werden: Binnen weniger Augenblicke umschwirren einen meist die ersten Wespen. Die Tiere stellen im Spätsommer ihre Ernährung um und „fliegen“ besonders jetzt auf zuckerhaltige Produkte. Wer nicht aufpasst oder falsch reagiert, dem drohen Wespenstiche. Für Allergiker teilweise eine bedrohliche Situation.

Die Hyposensibilisierung ist eine gängige Therapie gegen Allergien. Der Patient bekommt dabei in bestimmten zeitlichen Abständen eine Impfung mit dem Allergen in steigender Konzentration. Dabei gewöhnt sich der Körper langsam an das Allergen, in diesem Fall das Insektengift. Die Prozedur kann sich aber über Jahre hinziehen. „Wichtig für den Erfolg ist, dass die Patienten mit genau dem Stoff behandelt werden, der die Allergie auslöst“, erklärt Dr. Simon Blank, Arbeitsgruppenleiter am Institut für Allergieforschung (IAF) am Helmholtz Zentrum München. Allerdings gibt es zahlreiche verschiedene Varianten des Wespengifts. „Die Gifte verschiedener Wespenarten waren bislang kaum diagnostisch zu unterscheiden“, so Blank weiter. „Dadurch ist es entsprechend schwer, den Patienten die optimale Behandlung anzubieten. Das führt dazu, dass sie häufig unnötigerweise gegen mehrere Gifte behandelt werden – mit Belastungen für Patienten und Krankenkassen.“

Bessere Diagnostik durch neue Testmethode
Dieses Problem konnten Blank und seine Kollegen um IAF-Direktor Prof. Carsten Schmidt-Weber mit einem neuen Test beheben: Dazu produzierten sie zunächst in umfunktionierten Insektenzellen gezielt die Allergenkomponenten der Gifte von insgesamt sieben verschiedenen Insektenarten.* Diese untersuchten sie dann auf deren Wechselwirkung mit den allergieauslösenden Antikörpern von 63 Patienten. „Eine Abfolge mehrerer Testmethoden ermöglicht uns, aus Blutproben exakt das Gift zu bestimmen, gegen das die Patienten allergisch reagieren“, so Erstautor und Doktorand Maximilian Schiener. „Auf diese Weise wäre es möglich, die jeweils optimale Impfung anzubieten.“ Allerdings, so die Forscher, sei eine Hyposensibilisierung noch nicht gegen alle Gifte verfügbar und daher weitere Arbeit nötig.

Die Ergebnisse kommen genau zur richtigen Zeit, denn der Klimawandel scheint auch neue Wespenarten nach Deutschland zu bringen, die wiederum eigene Gifte produzieren. „Kürzlich haben uns Kollegen aus Aachen berichtet, sie hätten die aus dem Mittelmeerraum bekannte Feldwespe gesichtet“, erläutert Studienleiter Blank. „Sollten sich diese neuen Bewohner hier weiter verbreiten, wäre es natürlich von Vorteil, wenn wir für Allergiker direkt die passenden Gegenmaßnahmen einleiten könnten – den Impfstoff gibt es bereits. Ein Test wie der Unsere könnte das auslösende Gift zuvor eindeutig identifizieren.“

Weitere Informationen
* Konkret handelte es sich um das Antigen5 genannte Allergen aus dem Wespengift.

Hintergrund:
Das Verfahren hatten die Wissenschaftler schon erprobt, um die Gifte von Bienen und Wespen unterscheiden zu können. „Die immer besser werdenden technischen Möglichkeiten erlauben uns jetzt im nächsten Schritt, noch einmal innerhalb der Wespengifte Unterscheidungen zu treffen“, so Studienleiter Blank.

Auch in anderen Bereichen der Allergologie hat die molekulare Diagnostik zu erheblichen Verbesserungen geführt. Wissenschaftlich beschrieben werden diese im ebenfalls aktuell publizierten Molecular Allergology User’s Guide der Europäischen Akademie für Allergie und klinische Immunologie (EAACI). Unter den über 50 Autoren aus 15 Ländern befindet sich auch Dr. Simon Blank vom Helmholtz Zentrum München.

Original-Publikation:
Schiener, M. et al. (2016): Application of recombinant antigen 5 allergens from 7 allergy-relevant Hymenoptera species in diagnostics. Allergy, DOI: 10.1111/all.13000

Übersichtsartikel zum Thema:
Ollert, M. & Blank, S. (2015): Anaphylaxis to insect venom allergens: role of molecular diagnostics. Current Allergy and Asthma Reports, DOI: 10.1007/s11882-015-0527-z

Das Helmholtz Zentrum München verfolgt als Deutsches Forschungszentrum für Gesundheit und Umwelt das Ziel, personalisierte Medizin für die Diagnose, Therapie und Prävention weit verbreiteter Volkskrankheiten wie Diabetes mellitus und Lungenerkrankungen zu entwickeln. Dafür untersucht es das Zusammenwirken von Genetik, Umweltfaktoren und Lebensstil. Der Hauptsitz des Zentrums liegt in Neuherberg im Norden Münchens. Das Helmholtz Zentrum München beschäftigt rund 2.300 Mitarbeiter und ist Mitglied der Helmholtz-Gemeinschaft, der 18 naturwissenschaftlich-technische und medizinisch-biologische Forschungszentren mit rund 37.000 Beschäftigten angehören. http://www.helmholtz-muenchen.de

Das Institut für Allergieforschung (IAF) erforscht molekulare Entstehungsmechanismen von Allergien, weltweit zunehmenden Erkrankungen. Das IAF will die epidemiologische Ausbreitung aufhalten, indem Wissenschaftler und Kliniker zusammen intensiv an individuellen Präventionsansätzen forschen. Im therapeutischen Bereich wollen Wissenschaftler des Instituts neue auf den Patienten abgestimmte Ansätze entwickeln. Das IAF kooperiert dabei mit der Technischen Universität München in der gemeinsamen Einrichtung Zentrum Allergie und Umwelt (ZAUM). Außerdem ist das IAF Mitglied des Cluster für Allergie und Immunität (CAI) und des Deutschen Zentrums für Lungenforschung (DZL). http://www.helmholtz-muenchen.de/iaf

Das Zentrum Allergie und Umwelt (Leitung: Prof. Dr. Carsten Schmidt-Weber) in München ist eine gemeinsame Einrichtung von Helmholtz Zentrum München und Technischer Universität München. Die in der deutschen Forschungslandschaft einzigartige Kooperation dient der fachübergreifenden Grundlagenforschung und Verknüpfung mit Klinik und klinischen Studien. Durch diesen translationalen Ansatz lassen sich Erkenntnisse über molekulare Entstehungsmechanismen von Allergien in Maßnahmen zu ihrer Vorbeugung und Therapie umsetzen. Die Entwicklung wirksamer, individuell zugeschnittener Therapien ermöglicht betroffenen Patienten eine bessere Versorgung. http://www.zaum-online.de

Die Technische Universität München (TUM) ist mit mehr als 500 Professorinnen und Professoren, rund 10.000 Mitarbeiterinnen und Mitarbeitern und 39.000 Studierenden eine der forschungsstärksten Technischen Universitäten Europas. Ihre Schwerpunkte sind die Ingenieurwissenschaften, Naturwissenschaften, Lebenswissenschaften und Medizin, ergänzt um Wirtschafts- und Bildungswissenschaften. Die TUM handelt als unternehmerische Universität, die Talente fördert und Mehrwert für die Gesellschaft schafft. Dabei profitiert sie von starken Partnern in Wissenschaft und Wirtschaft. Weltweit ist sie mit einem Campus in Singapur sowie Verbindungsbüros in Brüssel, Kairo, Mumbai, Peking, San Francisco und São Paulo vertreten. An der TUM haben Nobelpreisträger und Erfinder wie Rudolf Diesel, Carl von Linde und Rudolf Mößbauer geforscht. 2006 und 2012 wurde sie als Exzellenzuniversität ausgezeichnet. In internationalen Rankings gehört sie regelmäßig zu den besten Universitäten Deutschlands. http://www.tum.de

Fachlicher Ansprechpartner:
Dr. Simon Blank, Helmholtz Zentrum München – Deutsches Forschungszentrum für Gesundheit und Umwelt (GmbH), Institut für Allergieforschung & Zentrum Allergie und Umwelt, Ingolstädter Landstr. 1, 85764 Neuherberg – Tel. +49 89 4140 2625 – E-Mail: simon.blank@helmholtz-muenchen.de

Quelle: idw

(nach oben)


Umweltrat: Umweltprogramm 2030 ist ein wichtiger Meilenstein

Rainer Kintzel Pressestelle
Sachverständigenrat für Umweltfragen

Der Sachverständigenrat für Umweltfragen (SRU) begrüßt nachdrücklich das heute durch Bundesumweltministerin Dr. Barbara Hendricks vorgestellte Integrierte Umweltprogramm 2030. Das Programm ist ein Meilenstein in der Weiterentwicklung der deutschen Umweltpolitik und unterstützt die Ziele der deutschen Nachhaltigkeits-strategie.

„Das neue Programm zielt darauf, mit der Umwelt eine zentrale Grundlage unseres Wohlstandes zu sichern. Die ökologischen Belastungsgrenzen unseres Landes, aber auch der Erde insgesamt, sind in vielen Bereichen erreicht. Daher ist eine zukunftsorientierte Erneuerung nicht nur beim Klimaschutz, sondern in zahlreichen weiteren Bereichen notwendig. Dies reicht vom Verkehr zum Bauen, vom Naturschutz zur Landwirtschaft“, erklärt Ratsmitglied Prof. Dr. Wolfgang Lucht.

Das Integrierte Umweltprogramm zeigt auf, dass wichtige umweltpolitische Ziele auf ein Zusammenwirken der gesamten Bundesregierung angewiesen sind. Umweltpolitik wird zunehmend zu einem integralen Bestandteil auch der Wirtschafts-, Sozial- und Gesundheitspolitik. Energie, Mobilität und Konsum sind zentrale Themen, bei welchen Politik auf wissenschaftlicher Grundlage fachübergreifend koordiniert werden muss. Daher begrüßt der SRU das im Programm formulierte Bekenntnis zu einer sozial-ökologischen Marktwirtschaft.

„Nur mit einer wirksamen Umweltpolitik kann der notwendige Wandel erreicht und Wohlstand dauerhaft gesichert werden. Das vorgeschlagene Initiativrecht des Umweltministeriums würde die notwendige Integration von Umweltbelangen in andere Ressorts erheblich unterstützen. Am Ende wird sich die Wirksamkeit des Integrierten Umweltprogramms 2030 jedoch daran messen lassen, ob die formulierten Ziele in der Praxis erreicht worden sind“, betont die Ratsvorsitzende Prof. Dr. Claudia Hornberg.
Für weitere Informationen steht Ihnen Frau Dr. Julia Hertin zur Verfügung,
Tel.: +49 30 263696-0.

Der Sachverständigenrat für Umweltfragen (SRU) berät die Bundesregierung seit nahezu 45 Jahren in Fragen der Umweltpolitik. Die Zusammensetzung des Rates aus sieben Professorinnen und Professoren verschiedener Fachdisziplinen gewährleistet eine wissenschaftlich unabhängige und umfassende Begutachtung, sowohl aus naturwissenschaftlich-technischer als auch aus ökonomischer, rechtlicher und politikwissenschaftlicher Perspektive.

Der Rat besteht aus folgenden Mitgliedern:
Prof. Dr. Claudia Hornberg (Vorsitzende), Universität Bielefeld
Prof. Dr. Manfred Niekisch (stellv. Vorsitzender), Goethe-Universität und Zoologischer Garten Frankfurt
Prof. Dr. Christian Calliess, Freie Universität Berlin
Prof. Dr. Claudia Kemfert, Hertie School of Governance und Deutsches Institut für Wirtschaftsforschung
Prof. Dr. Wolfgang Lucht, Humboldt-Universität zu Berlin und Potsdam-Institut für Klimafolgenforschung
Prof. Dr.-Ing. Lamia Messari-Becker, Universität Siegen
Prof. Dr.-Ing. Vera Susanne Rotter, Technische Universität Berlin

Sachverständigenrat für Umweltfragen, Luisenstraße 46, 10117 Berlin
Telefon: +49 30 263696-0
Internet: http://www.umweltrat.de
E-Mail: info@umweltrat.de

Weitere Informationen:
http://www.umweltrat.de

Quelle: idw

(nach oben)


Allergieforschung: Reaktion auf Hausstaubmilben hängt vom Alter ab

Sonja Opitz, Abteilung Kommunikation
Helmholtz Zentrum München – Deutsches Forschungszentrum für Gesundheit und Umwelt

Bei erwachsenen Hausstaubmilben-Allergikern führt eine Kaskade von Entzündungssignalen auf der Oberfläche der Atemwege zum sogenannten Airway Remodeling. Dieser Prozess ist nicht durch die standardmäßige Cortisontherapie zu beeinflussen. Das berichten Forscher am Helmholtz Zentrum und der Technischen Universität München in der neuesten Ausgabe des ‚Journal of Allergy and Clinical Immunology‘.

Weltweit sind mehr als 300 Millionen Menschen von Asthma betroffen. Ein häufiges Symptom in diesem Zusammenhang ist das Airway Remodeling: ein krankhafter Umbau der Atemwegsstruktur, bedingt durch fehlgesteuerte Reparaturprozesse.* Je nach Alter der Patienten können als Leukotriene bekannte Botenstoffe dabei eine wichtige Rolle spielen, wie Forscher um Dr. Julia Esser-von Bieren nun herausfanden. „Es gibt zwar bereits Medikamente, die gegen Leukotriene gerichtet sind, über die genauen Krankheitsmechanismen wissen wir aber noch viel zu wenig“, so die Gruppenleiterin am Zentrum Allergie und Umwelt (ZAUM), einer gemeinsamen Forschungseinrichtung des Helmholtz Zentrums und der Technischen Universität München.

Die Forschenden interessierten sich in der aktuellen Arbeit vor allem dafür, ob es altersbedingte Unterschiede bei der Ausprägung einer Hausstaubmilben-Allergie gab. Sie untersuchten in Zusammenarbeit mit Prof. Benjamin Marsland vom Universitätsspital CHUV in Lausanne ein entsprechendes Versuchsmodell. Dabei stellte sich heraus, dass ein Extrakt aus Hausstaubmilben unterschiedliche Reaktionen hervorrief, je nachdem in welchem Zeitfenster er auf das Immunsystem trifft.

„Auffällig ist, dass Leukotriene vor allem dann eine wichtige Rolle zu spielen scheinen, wenn Erwachsene eine Allergie erwerben“, berichtet Katharina Dietz, die Erstautorin der Studie. „Sie sind Teil einer ganzen Kaskade von Signalen, die letztlich zur Reaktion auf den Hausstaubmilbenextrakt führt.“ Dabei involviert sind der Studie zufolge vor allem das Signalprotein Wnt5a, die Enzyme Transglutaminase 2 und Phospholipase A2 sowie die Leukotriene selbst. Diese Ergebnisse konnten die Wissenschaftler in menschlichen Zellen und Nasenpolypengewebe von Patienten bestätigen.

Durch Cortison nicht aufzuhalten
Interessant war für die Forscher auch, woher diese Moleküle stammen: so konnten sie zeigen, dass vor allem die Epithelzellen der Bronchien die Kaskade selber antreiben. „Bisher wurde angenommen, dass die Leukotriene bei Allergien hauptsächlich von bestimmten weißen Blutkörperchen, den sogenannten eosinophilen Granulozyten, produziert werden“, ordnet Studienleiterin Esser-von Bieren die Ergebnisse ein.

Aber die Ergebnisse dienen nicht nur dem Verständnis, sondern sind auch für die Therapie relevant, denn: „Diese Kaskade lässt sich durch eine Cortisonbehandlung, wie sie standardmäßig bei Allergikern durchgeführt wird, nicht aufhalten“, so Esser-von Bieren. Sie hält es daher für möglich auch, dass sich die Ergebnisse künftig auch therapeutisch auswirken könnten: „Die starke Präsenz der Leukotrienkaskade im entzündeten Atemwegsepithel widerlegt die verbreitete Annahme, dass strukturelle Zellen als Leukotrien-Produzenten zu vernachlässigen sind. Im Gegenteil: Bei einer chronischen, Kortison-resistenten Entzündung in Form von Asthma oder Nasenpolypen sollte je nach Alter und Allergiestatus des Patienten die Anwendung von Medikamenten erwogen werden, die auf die Leukotrienkaskade im Atemwegsepithel zielen.“

Weitere Informationen

Hintergrund:
Die aktuelle Studie führte Experten für unterschiedliche Teilbereiche in einer Kooperation zusammen: Die ZAUM-Forscher aus München sind bestens vertraut mit den Reaktionen des Atemwegepithels. Erst kürzlich konnten sie zeigen, wie Allergien die Oberfläche der Atemwege prägen http://www.helmholtz-muenchen.de/presse-medien/pressemitteilungen/2015/pressemit…. Die Schweizer Forscherinnen und Forscher aus Lausanne widmen sich der Entschlüsselung der zeitlichen Abfolge der Allergieprozesse. Unter anderem befassen sie sich mit der Entstehung von Asthma in der frühen Entwicklungsphase und welche Rolle beispielsweise Mikroben dabei spielen http://www.snf.ch/de/fokusForschung/newsroom/Seiten/news-140515-medienmitteilung….

* Dies beinhaltet beispielsweise die vermehrte Einlagerung von Bindegewebe in die Wand der Bronchien, eine Zunahme von schleimbildenden Drüsenzellen im Bronchialepithel oder ein verstärktes Wachstum von Muskelzellen in den Atemwegswänden. Ein wichtiger Auslöser für diesen fehlerhaften Umbau sind offenbar fortwährende Entzündungsprozesse in den Atemwegen.

Original-Publikation:
Dietz, K. et al. (2016): Age dictates a steroid resistant cascade of Wnt5a, transglutaminase-2 and leukotrienes in inflamed airways. Journal of Allergy and Clinical Immunology, doi: 10.1016/j.jaci.2016.07.014

Das Helmholtz Zentrum München verfolgt als Deutsches Forschungszentrum für Gesundheit und Umwelt das Ziel, personalisierte Medizin für die Diagnose, Therapie und Prävention weit verbreiteter Volkskrankheiten wie Diabetes mellitus und Lungenerkrankungen zu entwickeln. Dafür untersucht es das Zusammenwirken von Genetik, Umweltfaktoren und Lebensstil. Der Hauptsitz des Zentrums liegt in Neuherberg im Norden Münchens. Das Helmholtz Zentrum München beschäftigt rund 2.300 Mitarbeiter und ist Mitglied der Helmholtz-Gemeinschaft, der 18 naturwissenschaftlich-technische und medizinisch-biologische Forschungszentren mit rund 37.000 Beschäftigten angehören. http://www.helmholtz-muenchen.de

Das Zentrum Allergie und Umwelt (Leitung: Prof. Dr. Carsten Schmidt-Weber) in München ist eine gemeinsame Einrichtung von Helmholtz Zentrum München und Technischer Universität München. Die in der deutschen Forschungslandschaft einzigartige Kooperation dient der fachübergreifenden Grundlagenforschung und Verknüpfung mit Klinik und klinischen Studien. Durch diesen translationalen Ansatz lassen sich Erkenntnisse über molekulare Entstehungsmechanismen von Allergien in Maßnahmen zu ihrer Vorbeugung und Therapie umsetzen. Die Entwicklung wirksamer, individuell zugeschnittener Therapien ermöglicht betroffenen Patienten eine bessere Versorgung. http://www.zaum-online.de

Die Technische Universität München (TUM) ist mit mehr als 500 Professorinnen und Professoren, rund 10.000 Mitarbeiterinnen und Mitarbeitern und 39.000 Studierenden eine der forschungsstärksten Technischen Universitäten Europas. Ihre Schwerpunkte sind die Ingenieurwissenschaften, Naturwissenschaften, Lebenswissenschaften und Medizin, ergänzt um Wirtschafts- und Bildungswissenschaften. Die TUM handelt als unternehmerische Universität, die Talente fördert und Mehrwert für die Gesellschaft schafft. Dabei profitiert sie von starken Partnern in Wissenschaft und Wirtschaft. Weltweit ist sie mit einem Campus in Singapur sowie Verbindungsbüros in Brüssel, Kairo, Mumbai, Peking, San Francisco und São Paulo vertreten. An der TUM haben Nobelpreisträger und Erfinder wie Rudolf Diesel, Carl von Linde und Rudolf Mößbauer geforscht. 2006 und 2012 wurde sie als Exzellenzuniversität ausgezeichnet. In internationalen Rankings gehört sie regelmäßig zu den besten Universitäten Deutschlands. http://www.tum.de

Fachliche Ansprechpartnerin:
Dr. Julia Esser-von Bieren, Helmholtz Zentrum München – Deutsches Forschungszentrum für Gesundheit und Umwelt (GmbH), Institut für Allergieforschung & Zentrum Allergie und Umwelt, Ingolstädter Landstr. 1, 85764 Neuherberg – Tel. +49 89 4140 3464 – E-Mail: julia.esser-von-bieren@tum.de

Quelle: idw

(nach oben)


Hochschule Düsseldorf: Neue Studie – Kölsch versus Alt

Simone Fischer Informations- und Pressestelle
Hochschule Düsseldorf

Erkenntnisse aus konsumentenpsychologischen Experimenten :
„KÖLSCH versus ALT“: Kölner und Düsseldorfer können in einem Blindtest „ihr“ Bier nicht voneinander unterscheiden

Konsumentenpsychologische Experimente, die Prof. Dr. Helmut Quack am Fachbereich Wirtschaftswissenschaften der Hochschule Düsseldorf durchführte, zeigen auf, dass die Kölner und Düsseldorfer in einem Test mit verbundenen Augen (Blindtest) zwischen KÖLSCH und ALT nicht unterscheiden können, das heißt, sie können die beiden Biere vom Geschmack her nicht differenzieren und bevorzugen auch keines der beiden Biere. An der Studie haben jeweils 50 Kölner und 50 Düsseldorfer im Alter von 35 bis 65 Jahren teilgenommen.

„fremde“ Bier. Kölsch wird jetzt als mild und ALT als würzig beschrieben, obgleich im Blindtest keine Unterschiede geschmeckt wurden. Man bewertete offenbar so, wie man es angesichts der hellen oder dunklen Bierfarbe vermutete. Diese Erkenntnisse eröffnen dem Marketing viele Möglichkeiten, um die Wahrnehmung des Biers zu beeinflussen, da der Geschmack von vielen Faktoren wie Farben, Markenwissen und -emotionen sowie Bezugsgruppen beeinflusst wird. Die Studie ist im Internet abrufbar unter:

Weitere Informationen:
http://wiwi.hs-duesseldorf.de/forschung-transfer/publikationen/forschungsbericht…
http://www.hs-duesseldorf.de

Quelle: idw

(nach oben)


In einer der dunkelsten Regionen Deutschlands testen Forscher die Folgen der Lichtverschmutzung

Angelina Tittmann Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)

Am Stechlinsee im Norden Brandenburgs kann man noch Nächte fast so dunkel wie vor der Einführung der elektrischen Beleuchtung erleben. Zu diesem Schluss kommt eine eben erschienene Studie des Leibniz-Instituts für Gewässerökologie und Binnenfischerei (IGB). Von diesen guten Bedingungen profitieren nicht nur Sternengucker, sondern auch Forscher. Im IGB-Seelabor, einer im Stechlinsee schwimmenden Forschungsplattform, untersuchen sie die Auswirkungen der zunehmenden Lichtverschmutzung auf Seen und deren Organismen. Im Fokus des heute startenden Versuchs steht die diffuse Aufhellung des Nachthimmels durch Kunstlicht, das sogenannte Himmelsleuchten.

Himmelsleuchten (engl. skyglow) ist ein Phänomen, das über Gebieten mit künstlicher Beleuchtung (z.B. Städte, Gewächshäuser) auftritt und weltweit rasch an Bedeutung gewinnt. Das in den Nachthimmel abgestrahlte Licht wird von Aerosolen und Wolken in der Atmosphäre wieder in Richtung Erde zurückgestreut, so dass ein glühendes Gewölbe am Himmel erscheint. Untersuchungen des Leibniz-Instituts für Gewässerökologie und Binnenfischerei (IGB) haben jetzt gezeigt, dass der Stechlinsee im Norden Brandenburgs davon kaum betroffen ist. Der See liegt in einer der dunkelsten Regionen Deutschlands.

Motivation für die im Fachblatt Journal of Quantitative Spectroscopy and Radiative Transfer veröffentlichte Studie war die Idee, in einem Freilandexperiment zu erforschen, wie sich das Himmelsleuchten auf Seen auswirkt. Dafür braucht es aber ein Gewässer, das nicht bereits durch Lichtverschmutzung belastet ist. Prinzipiell schien den IGB-Forschern der Stechlinsee dafür geeignet. Darauf deuteten Modellrechnungen hin, die auf nächtlichen Satellitenaufnahmen aus den 1990er Jahren beruhten. Doch seither hat sich in puncto Beleuchtung viel getan. Aus diesem Grund untersuchten Dr. Andreas Jechow und Kollegen die Himmelshelligkeit über dem Stechlin erneut. Statt sich wieder auf Satellitenbilder zu stützen, die nur begrenzte Aussagekraft haben, arbeiteten sie diesmal mit einem auf dem See installierten Sensor. Sie kamen zu dem Ergebnis, dass der Nachthimmel über dem Stechlinsee heute noch nahezu so dunkel ist wie in klaren mondlosen Nächten vor Einführung der elektrischen Beleuchtung. «Besonders überrascht hat uns, dass trotz der Nähe zu Berlin die Himmelshelligkeit über dem Stechlinsee durch Wolken sogar noch weiter herabgesetzt wird. Eigentlich ist das normal, trifft aber heute nur noch auf ganz wenige Regionen der Welt zu», sagt der Physiker Andreas Jechow.

Der Stechlinsee bietet also beste Referenzbedingungen für das heute beginnende Freilandexperiment. Der Versuch, an dem 60 Wissenschaftler aus über 10 Ländern beteiligt sind, dauert bis Mitte Oktober und findet am Seelabor, der im Stechlinsee schwimmenden Forschungsplattform des IGB, statt. Die Versuchsanlage besteht aus 24 Zylindern, die Seebecken von jeweils neun Metern Durchmesser und zwanzig Metern Tiefe einschließen. Für die Versuche haben die IGB-Wissenschaftler ein spezielles System mit LED-Leuchten entwickelt und installiert, mit dem das diffuse Licht des Himmelsleuchtens im Seelabor simuliert wird. Um die Reaktionen im Ökosystem See zu verfolgen, werden in den nächsten Wochen am Tag und in der Nacht umfangreiche Proben genommen. Dabei kommt auch modernste Video- und Sonartechnik zum Einsatz, mit der die Forschenden das Wanderverhalten von Schlüsselarten wie den Wasserflöhen und Fischen beobachten. «Die Effekte dieser Art von Lichtverschmutzung auf das Ökosystem und die Biodiversität sind weitgehend unbekannt, könnten aber erheblich sein», erklärt Prof. Dr. Mark Gessner, der Co-Leiter des Forschungsprojekts «Seeökosysteme erleuchten». Die Ergebnisse des Versuchs versprechen sowohl grundlegend neue Erkenntnisse zur Wirkung nächtlicher Beleuchtung auf Seen als auch Hinweise, die für das Gewässermanagement bedeutsam sind.

Weitere Informationen unter http://www.seelabor.de

Originalstudie:
Jechow A., Hölker F., Kolláth Z., Gessner M.O., Kyba C.C.M. (2016) Evaluating the summer night sky brightness at a research field site on Lake Stechlin in northeastern Germany. Journal of Quantitative Spectroscopy and Radiative Transfer 181, 24-32.
http://www.sciencedirect.com/science/article/pii/S0022407315301825

Foto-Download:
http://www.seelabor.de/index.php/medieninfo-start-seelabor-experiment-2016.html

Kontakt:
Dr. Martina Bauchrowitz
Presse- und Öffentlichkeitsarbeit Seelabor
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Tel: 0151 4038 0962
martina.bauchrowitz@igb-berlin.de

Weitere Informationen zum IGB:
http://www.igb-berlin.de

Die Arbeiten des IGB verbinden Grundlagen- mit Vorsorgeforschung als Basis für die nachhaltige Bewirtschaftung der Gewässer. Das IGB untersucht dabei die Struktur und Funktion von aquatischen Ökosystemen unter naturnahen Bedingungen und unter der Wirkung multipler Stressoren. Forschungsschwerpunkte sind unter anderem die Langzeitentwicklung von Seen, Flüssen und Feuchtgebieten bei sich rasch ändernden globalen, regionalen und lokalen Umweltbedingungen, die Entwicklung gekoppelter ökologischer und sozioökonomischer Modelle, die Renaturierung von Ökosystemen und die Biodiversität aquatischer Lebensräume. Die Arbeiten erfolgen in enger Kooperation mit den Universitäten und Forschungsinstitutionen der Region Berlin/Brandenburg und weltweit. Das IGB gehört zum Forschungsverbund Berlin e. V., einem Zusammenschluss von acht natur-, lebens- und umweltwissenschaftlichen Instituten in Berlin. Die vielfach ausgezeichneten Einrichtungen sind Mitglieder der Leibniz-Gemeinschaft.

Quelle: idw

(nach oben)


Allergieforschung: Reaktion auf Hausstaubmilben hängt vom Alter ab

Sonja Opitz, Abteilung Kommunikation
Helmholtz Zentrum München – Deutsches Forschungszentrum für Gesundheit und Umwelt

Bei erwachsenen Hausstaubmilben-Allergikern führt eine Kaskade von Entzündungssignalen auf der Oberfläche der Atemwege zum sogenannten Airway Remodeling. Dieser Prozess ist nicht durch die standardmäßige Cortisontherapie zu beeinflussen. Das berichten Forscher am Helmholtz Zentrum und der Technischen Universität München in der neuesten Ausgabe des ‚Journal of Allergy and Clinical Immunology‘.

Weltweit sind mehr als 300 Millionen Menschen von Asthma betroffen. Ein häufiges Symptom in diesem Zusammenhang ist das Airway Remodeling: ein krankhafter Umbau der Atemwegsstruktur, bedingt durch fehlgesteuerte Reparaturprozesse.* Je nach Alter der Patienten können als Leukotriene bekannte Botenstoffe dabei eine wichtige Rolle spielen, wie Forscher um Dr. Julia Esser-von Bieren nun herausfanden. „Es gibt zwar bereits Medikamente, die gegen Leukotriene gerichtet sind, über die genauen Krankheitsmechanismen wissen wir aber noch viel zu wenig“, so die Gruppenleiterin am Zentrum Allergie und Umwelt (ZAUM), einer gemeinsamen Forschungseinrichtung des Helmholtz Zentrums und der Technischen Universität München.

Die Forschenden interessierten sich in der aktuellen Arbeit vor allem dafür, ob es altersbedingte Unterschiede bei der Ausprägung einer Hausstaubmilben-Allergie gab. Sie untersuchten in Zusammenarbeit mit Prof. Benjamin Marsland vom Universitätsspital CHUV in Lausanne ein entsprechendes Versuchsmodell. Dabei stellte sich heraus, dass ein Extrakt aus Hausstaubmilben unterschiedliche Reaktionen hervorrief, je nachdem in welchem Zeitfenster er auf das Immunsystem trifft.

„Auffällig ist, dass Leukotriene vor allem dann eine wichtige Rolle zu spielen scheinen, wenn Erwachsene eine Allergie erwerben“, berichtet Katharina Dietz, die Erstautorin der Studie. „Sie sind Teil einer ganzen Kaskade von Signalen, die letztlich zur Reaktion auf den Hausstaubmilbenextrakt führt.“ Dabei involviert sind der Studie zufolge vor allem das Signalprotein Wnt5a, die Enzyme Transglutaminase 2 und Phospholipase A2 sowie die Leukotriene selbst. Diese Ergebnisse konnten die Wissenschaftler in menschlichen Zellen und Nasenpolypengewebe von Patienten bestätigen.

Durch Cortison nicht aufzuhalten
Interessant war für die Forscher auch, woher diese Moleküle stammen: so konnten sie zeigen, dass vor allem die Epithelzellen der Bronchien die Kaskade selber antreiben. „Bisher wurde angenommen, dass die Leukotriene bei Allergien hauptsächlich von bestimmten weißen Blutkörperchen, den sogenannten eosinophilen Granulozyten, produziert werden“, ordnet Studienleiterin Esser-von Bieren die Ergebnisse ein.

Aber die Ergebnisse dienen nicht nur dem Verständnis, sondern sind auch für die Therapie relevant, denn: „Diese Kaskade lässt sich durch eine Cortisonbehandlung, wie sie standardmäßig bei Allergikern durchgeführt wird, nicht aufhalten“, so Esser-von Bieren. Sie hält es daher für möglich auch, dass sich die Ergebnisse künftig auch therapeutisch auswirken könnten: „Die starke Präsenz der Leukotrienkaskade im entzündeten Atemwegsepithel widerlegt die verbreitete Annahme, dass strukturelle Zellen als Leukotrien-Produzenten zu vernachlässigen sind. Im Gegenteil: Bei einer chronischen, Kortison-resistenten Entzündung in Form von Asthma oder Nasenpolypen sollte je nach Alter und Allergiestatus des Patienten die Anwendung von Medikamenten erwogen werden, die auf die Leukotrienkaskade im Atemwegsepithel zielen.“

Weitere Informationen

Hintergrund:
Die aktuelle Studie führte Experten für unterschiedliche Teilbereiche in einer Kooperation zusammen: Die ZAUM-Forscher aus München sind bestens vertraut mit den Reaktionen des Atemwegepithels. Erst kürzlich konnten sie zeigen, wie Allergien die Oberfläche der Atemwege prägen http://www.helmholtz-muenchen.de/presse-medien/pressemitteilungen/2015/pressemit…. Die Schweizer Forscherinnen und Forscher aus Lausanne widmen sich der Entschlüsselung der zeitlichen Abfolge der Allergieprozesse. Unter anderem befassen sie sich mit der Entstehung von Asthma in der frühen Entwicklungsphase und welche Rolle beispielsweise Mikroben dabei spielen http://www.snf.ch/de/fokusForschung/newsroom/Seiten/news-140515-medienmitteilung….

* Dies beinhaltet beispielsweise die vermehrte Einlagerung von Bindegewebe in die Wand der Bronchien, eine Zunahme von schleimbildenden Drüsenzellen im Bronchialepithel oder ein verstärktes Wachstum von Muskelzellen in den Atemwegswänden. Ein wichtiger Auslöser für diesen fehlerhaften Umbau sind offenbar fortwährende Entzündungsprozesse in den Atemwegen.

Original-Publikation:
Dietz, K. et al. (2016): Age dictates a steroid resistant cascade of Wnt5a, transglutaminase-2 and leukotrienes in inflamed airways. Journal of Allergy and Clinical Immunology, doi: 10.1016/j.jaci.2016.07.014

Das Helmholtz Zentrum München verfolgt als Deutsches Forschungszentrum für Gesundheit und Umwelt das Ziel, personalisierte Medizin für die Diagnose, Therapie und Prävention weit verbreiteter Volkskrankheiten wie Diabetes mellitus und Lungenerkrankungen zu entwickeln. Dafür untersucht es das Zusammenwirken von Genetik, Umweltfaktoren und Lebensstil. Der Hauptsitz des Zentrums liegt in Neuherberg im Norden Münchens. Das Helmholtz Zentrum München beschäftigt rund 2.300 Mitarbeiter und ist Mitglied der Helmholtz-Gemeinschaft, der 18 naturwissenschaftlich-technische und medizinisch-biologische Forschungszentren mit rund 37.000 Beschäftigten angehören. http://www.helmholtz-muenchen.de

Das Zentrum Allergie und Umwelt (Leitung: Prof. Dr. Carsten Schmidt-Weber) in München ist eine gemeinsame Einrichtung von Helmholtz Zentrum München und Technischer Universität München. Die in der deutschen Forschungslandschaft einzigartige Kooperation dient der fachübergreifenden Grundlagenforschung und Verknüpfung mit Klinik und klinischen Studien. Durch diesen translationalen Ansatz lassen sich Erkenntnisse über molekulare Entstehungsmechanismen von Allergien in Maßnahmen zu ihrer Vorbeugung und Therapie umsetzen. Die Entwicklung wirksamer, individuell zugeschnittener Therapien ermöglicht betroffenen Patienten eine bessere Versorgung. http://www.zaum-online.de

Die Technische Universität München (TUM) ist mit mehr als 500 Professorinnen und Professoren, rund 10.000 Mitarbeiterinnen und Mitarbeitern und 39.000 Studierenden eine der forschungsstärksten Technischen Universitäten Europas. Ihre Schwerpunkte sind die Ingenieurwissenschaften, Naturwissenschaften, Lebenswissenschaften und Medizin, ergänzt um Wirtschafts- und Bildungswissenschaften. Die TUM handelt als unternehmerische Universität, die Talente fördert und Mehrwert für die Gesellschaft schafft. Dabei profitiert sie von starken Partnern in Wissenschaft und Wirtschaft. Weltweit ist sie mit einem Campus in Singapur sowie Verbindungsbüros in Brüssel, Kairo, Mumbai, Peking, San Francisco und São Paulo vertreten. An der TUM haben Nobelpreisträger und Erfinder wie Rudolf Diesel, Carl von Linde und Rudolf Mößbauer geforscht. 2006 und 2012 wurde sie als Exzellenzuniversität ausgezeichnet. In internationalen Rankings gehört sie regelmäßig zu den besten Universitäten Deutschlands. http://www.tum.de

Fachliche Ansprechpartnerin:
Dr. Julia Esser-von Bieren, Helmholtz Zentrum München – Deutsches Forschungszentrum für Gesundheit und Umwelt (GmbH), Institut für Allergieforschung & Zentrum Allergie und Umwelt, Ingolstädter Landstr. 1, 85764 Neuherberg – Tel. +49 89 4140 3464 – E-Mail: julia.esser-von-bieren@tum.de

Quelle: idw

(nach oben)


Selenversorgung beeinflusst Risiko für Krebsentwicklung

Manuela Zingl GB Unternehmenskommunikation
Charité – Universitätsmedizin Berlin

Charité-Wissenschaftler untersuchen Zusammenhänge

Das Spurenelement Selen ist ein essentieller Nahrungsbestandteil. Wie Wissenschaftler der Charité – Universitätsmedizin Berlin in Zusammenarbeit mit der International Agency for Research on Cancer nun zeigen konnten, sorgt ein hoher Selenwert im Blut für ein vermindertes Risiko, an Leberkrebs zu erkranken. Die aktuelle Studie hat auch weitere Risikofaktoren einbezogen und den Einfluss der Selenversorgung auf die Entwicklung anderer Krebsarten betrachtet. Die Ergebnisse sind im Fachmagazin American Journal of Clinical Nutrition* veröffentlicht.

Das Spurenelement Selen (Se) ist unter anderem in Fisch, Meeresfrüchten, Fleisch, Milch und Ei enthalten, auch einige südamerikanische Nüsse wie die Paranuss sind gute Selenquellen. Das Element findet seinen Weg über den Boden und die Pflanzen im Zuge der Ernährung in Mensch und Tier. Im Gegensatz zu anderen Regionen der Erde sind die europäischen Böden eher selenarm, was sich in einem mehr oder weniger stark ausgeprägten Selenmangel der Bevölkerung niederschlägt. In Deutschland wird das Spurenelement daher bereits in der Tiermast ergänzend eingesetzt.

Durch eine selenreiche Ernährung oder eine angemessene Supplementation entstehen keine Nachteile. Selenmangel dagegen kann ein Risikofaktor für eine Reihe von Erkrankungen sein. „Wir konnten nachweisen, dass ein Mangel an Selen einen starken Risikofaktor für Leberkrebs darstellt“, sagt Prof. Dr. Lutz Schomburg vom Institut für Experimentelle Endokrinologie. „Das Drittel der Bevölkerung mit dem stärksten Selenmangel hat unseren Daten entsprechend ein fünf- bis zehnfach höheres Risiko für ein hepatozelluläres Karzinom, auch Leberkrebs genannt“, so der Wissenschaftler.

Bei der aktuellen Untersuchung handelt es sich um eine Fall-Kontroll-Studie. Aus einer Kohorte von 477.000 Probanden wurden diejenigen identifiziert, die in den folgenden zehn Jahren ein hepatozelluläres Karzinom entwickelt hatten. Die Analyse der Blutproben auf den Selenstatus erfolgte, als die Probanden noch gesund waren. „Unsere Studie zeigt nicht direkt, dass eine Supplementation mit Selen vor Leberkrebs schützt. Sie untermauert allerdings erneut die Wichtigkeit einer ausgewogenen Ernährung, in der das Spurenelement Selen nicht fehlen darf“, erklärt Prof. Schomburg. Vorangegangene Studien hatten bereits ähnliche Zusammenhänge von Selenstatus und Darmkrebsrisiko oder der Wahrscheinlichkeit von Schilddrüsenerkrankungen nahe gelegt.

*Hughes DJ, et al.. Prediagnostic selenium status and hepatobiliary cancer risk in the European Prospective Investigation into Cancer and Nutrition cohort. Am J Clin Nutr. 2016 Aug;104(2):406-14. doi: 10.3945/ajcn.116.131672.

Kontakt:
Prof. Dr. Lutz Schomburg
Institut für Experimentelle Endokrinologie
Charité – Universitätsmedizin Berlin
t: +49 30 450 524289 / 450 524105
E-Mail: lutz.schomburg@charite.de

Weitere Informationen:
http://www.charite.de
https://expendo.charite.de/

Quelle: idw

(nach oben)


Körperwärme als Stromquelle

Dr. Renate Hoer Abteilung Öffentlichkeitsarbeit
Gesellschaft Deutscher Chemiker e.V.

In Kleidung integrierbare Thermozellen auf Gel-Elektrolyt-Basis nutzen Körperwärme

In Textilien integrierte Elektronik liegt im Trend: Systeme wie das Smartphone-Display im Ärmel oder Sonden für Körperfunktionen in der Sportbekleidung wurden bereits realisiert. Woran es am meisten hapert, ist eine bequeme, ebenfalls „anziehbare“ Stromversorgung. Chinesische Wissenschaftler wollen die benötigte Energie jetzt aus überschüssiger Körperwärme beziehen. In der Zeitschrift Angewandte Chemie stellen sie eine flexible, am Körper tragbare Thermozelle vor, die auf zwei verschiedenen gelartigen Elektrolyten basiert.

Durch Muskelarbeit und Stoffwechsel erzeugt unser Körper ständig Wärme. Ein Teil davon wird einfach über die Haut an die Umgebung abgegeben. Aufgrund der relativ geringen Temperaturunterschiede zwischen den ungefähr 32 °C der Haut und der Umgebungstemperatur ist eine Nutzung der Körperwärme nicht so einfach zu realisieren. Bisherige thermoelektrische Generatoren, beispielsweise auf Halbleiterbasis, liefern zu wenig Energie, sind kostspielig oder zu zerbrechlich für Systeme, die am Körper getragen werden sollen. Und Thermozellen mit Elektrolytlösungen lassen sich nicht gut zu großflächigen „anziehbaren“ Systemen integrieren. Das Team um Jun Zhou von der Huazhong University of Science and Technology (Wuhan, China) hat eine Lösung für dieses Problem gefunden: Thermozellen mit Elektrolyten auf Gelbasis.

Die Forscher nutzen dabei einen thermogalvanischen Effekt: Werden zwei Elektroden, die sich im Kontakt mit einer Elektrolytlösung – oder einem Elektrolytgel – auf unterschiedlicher Temperatur gehalten, baut sich eine Potentialdifferenz auf. Die Ionen eines Redoxpaares im Elektrolyten können rasch zwischen zwei verschiedenen Ladungszuständen wechseln, indem sie an den Elektroden Elektronen aufnehmen bzw. abgeben. Um dies zur Gewinnung von Strom zu nutzen, kombinierten die Wissenschaftler zwei Typen von Zellen mit unterschiedlichen Redoxpaaren miteinander. Jede Zelle besteht aus zwei winzigen Metallplättchen als Elektroden, dazwischen befindet sich das Elektrolygel. Zelltyp 1 enthält das Redoxpaar Fe2+/Fe3+, Zelltyp 2 die Komplexionen [Fe(CN)6]3-/[Fe(CN)6]4-. Die Wahl der Redoxpaare bewirkt, dass bei einer Temperaturdifferenz auf der kalten Seite in Zelltyp 1 ein negatives Potential entsteht, in Typ 2 dagegen ein positives.

Die Forscher arrangierten eine Vielzahl der beiden Zelltypen zu einem Schachbrettmuster. Je zwei benachbarte Zellen wurden alternierend oben und unten von einem gemeinsamen Metallplättchen bedeckt und somit alle Zellen in Reihe geschaltet. Dieses „Schachbrett“ integrierten sie in einen Handschuh. Wird er angezogen, entsteht die erwünschte Temperaturdifferenz zwischen oberen und unteren Metallplättchen. Dadurch entsteht eine elektrische Spannung zwischen benachbarten Zellen, die sich aufsummiert. So ließe sich Strom zur Versorgung eines Geräts oder zur Aufladung eines Akkus gewinnen.

Bei einer Umgebungstemperatur von 5 °C konnten etwa 0,7 V Spannung sowie eine Leistung von etwa 0,3 µW erreicht werden. Eine Reihe von Optimierungen soll nun die Leistung auch bei geringeren Temperaturdifferenzen verbessern.

Angewandte Chemie: Presseinfo 30/2016

Autor:
Jun Zhou, Huazhong University of Science and Technology (China), mailto:jun.zhou@mail.hust.edu.cn

Link zum Originalbeitrag:
http://dx.doi.org/10.1002/ange.201606314

Angewandte Chemie, Postfach 101161, 69451 Weinheim, Germany.

Weitere Informationen:
http://presse.angewandte.de

Quelle: idw

(nach oben)


UDE: Frauen arbeiten konstant kürzer als Männer – Zurückstecken für die Familie

Katrin Koster Ressort Presse – Stabsstelle des Rektorats
Universität Duisburg-Essen

Immer mehr Frauen sind erwerbstätig, doch nach wie vor klafft bei Lohn und Arbeitszeit eine Lücke zwischen den Geschlechtern. Vor allem Mütter sind meist ausschließlich in Teilzeitjobs tätig. Mit durchschnittlich 30,1 Wochenstunden arbeiteten Frauen im Jahr 2015 hierzulande 8,2 Stunden kürzer als die Männer – und zahlen mit dieser sogenannten Gender Time Gap den Preis für ein funktionierendes Familienleben. Das zeigt eine aktuelle Auswertung des Instituts Arbeit und Qualifikation (IAQ) der Universität Duisburg-Essen (UDE), die jetzt im Informationsportal Sozialpolitik aktuell veröffentlicht wurde.

„Die Entwicklung in Deutschland verläuft gegen den europäischen Trend“, zeigt Arbeitszeitforscherin Dr. Angelika Kümmerling auf. In Europa betrug die Arbeitszeitlücke im Jahr 2015 5,8 Stunden und hat sich damit seit 2002 um 0,3 Stunden reduziert. Noch größer als in Deutschland und Österreich ist sie in Großbritannien und den Niederlanden. Dabei scheinen die Arbeitszeitunterschiede im Zeitverlauf „erstaunlich stabil“. „Vermutlich halten Frauen wie Männer unbeirrt an ihren konventionellen Erwerbsstrategien fest.“

Männer arbeiten nach wie vor nahezu ausschließlich in Vollzeit, während Frauen zumindest in der Familienphase auf Jobs mit weniger Stunden setzen, z.B. um sich verstärkt um die Kinder kümmern zu können. „Diese Teilzeitstrategie, mit den bekannten Auswirkungen eines geringeren Einkommens und schlechteren Karriereaussichten, führt zu einer nicht ausreichenden eigenständigen sozialen Absicherung der Frauen sowohl in der Erwerbsphase als auch bei Krankheit, Arbeitslosigkeit oder im Alter“, warnt Kümmerling.

Den Preis für eine bessere Vereinbarkeit und ein entspannteres Familienleben zahlen damit Frauen, indem sie nicht über die Rolle der Hinzuverdienerinnen im Haushalt hinaus kommen. Einen negativen Einfluss auf die Arbeitszeiten von Frauen können Steuersysteme wie das Ehegattensplitting haben, weil sie das Zweiteinkommen „bestrafen“ und mehr Stunden häufig nicht zu einem höheren Netto führen. In Schweden, Finnland, Dänemark oder und Litauen, wo dieses System nicht angewandt wird, liegt die Arbeitszeitlücke auch bei hoher weiblicher Erwerbstätigenquote unter dem EU-Durchschnitt.

Weitere Informationen:
http://www.sozialpolitik-aktuell.de/tl_files/sozialpolitik-aktuell/_Politikfelde…
Dr. Angelika Kümmerling, Institut Arbeit und Qualifikation, Tel. 0203/379-1825, angelika.kuemmerling@uni-due.de

Redaktion: Claudia Braczko, Tel. 0157/71283308, presse-iaq@uni-due.de

Quelle: idw

(nach oben)


Gewicht und BMI liefern keine Hinweise auf Blutfettwerte

Prof. Dr. Eckart Fleck Pressesprecher
Deutsche Gesellschaft für Kardiologie – Herz- und Kreislaufforschung e.V.

Pressemitteilung der Deutschen Gesellschaft für Kardiologie zum Europäischen Kardiologiekongress (ESC) 2016 in Rom

Übergewicht und ein hoher Body-Mass-Index (BMI) könnten Hinweise darauf sein, dass auch die Blutfettwerte eine ungesunde Entwicklung nehmen, so eine verbreitete Meinung. Dass dem allerdings nicht so ist, zeigt die internationale DYSIS-Studie, die auf dem Europäischen Kardiologiekongress in Rom präsentiert wurde.

Im Rahmen von DYSIS (Dyslipidemia International Study) wurden mehr als 50.000 Patienten in 30 Ländern untersucht. Die Autoren analysierten unter anderem den Zusammenhang zwischen Body-Mass-Index (BMI), LDL- sowie HDL-Cholesterin und Triglyceriden. „Wir konnten keinen Einfluss des Body Mass Index auf das LDL-Cholesterin finden“, berichtet Dr. Dominik Lautsch. Der Einfluss auf HDL-Cholesterin und Triglyceride sei zwar statistisch signifikant, aber bei 2 bis 3 Prozent in der Realität eher gering. „Der Body-Mass-Index sollte daher nicht als Basis für die Durchführung eines Lipidprofils bei einem individuellen Patienten dienen, da eine Schlussfolgerung von Körpergewicht oder BMI auf Cholesterin nicht möglich ist.“

Quelle: ESC 2016 Abstract Lautsch et al. Do blood lipids correlate to body mass index? Findings from 52.916 statin treated patients.

Informationen:
Deutsche Gesellschaft für Kardiologie
Pressesprecher: Prof. Dr. Eckart Fleck (Berlin)
Hauptstadtbüro der DGK: Leonie Nawrocki, Tel.: 030 206 444 82
Pressestelle: Kerstin Krug, Düsseldorf, Tel.: 0211 600692 43
presse@dgk.org
B&K – Bettschart&Kofler Kommunikationsberatung, Dr. Birgit Kofler, Berlin/Wien, Tel.: +49-172-7949286; +43-676-6368930; +43-1-31943780; kofler@bkkommunikation.com

Die Deutsche Gesellschaft für Kardiologie – Herz und Kreislaufforschung e.V. (DGK) mit Sitz in Düsseldorf ist eine wissenschaftlich medizinische Fachgesellschaft mit über 9500 Mitgliedern. Ihr Ziel ist die Förderung der Wissenschaft auf dem Gebiet der kardiovaskulären Erkrankungen, die Ausrichtung von Tagungen und die Aus-, Weiter- und Fortbildung ihrer Mitglieder. 1927 in Bad Nau-heim gegründet, ist die DGK die älteste und größte kardiologische Gesellschaft in Europa. Weitere Informationen unter www.dgk.org.

Weitere Informationen:
http://www.dgk.org
http://www.dgk.org/presse
http://www.kardiologie.org

Quelle: idw

(nach oben)


Startschuss für die wissenschaftliche Begleitforschung zur stofflichen CO2-Nutzung

Dr. Christine Dillmann Öffentlichkeitsarbeit
DECHEMA Gesellschaft für Chemische Technik und Biotechnologie e.V.

Die Unterstützung von Forschungsprojekten zur stofflichen Nutzung von CO2 bleibt weiterhin im Fokus der BMBF Technologieförderung: 15 Millionen Euro stellt das BMBF im Rahmen der BMBF Fördermaßnahme CO2Plus bereit. Mit den Schwerpunktthemen CO2-Abtrennung, CO2 als Baustein für chemische Grundstoffe sowie elektro- und photokatalytische Aktivierung von CO2 beschäftigen sich 13 Verbundprojekte, bestehend aus Industriepartnern, Forschungseinrichtungen und Universitäten.

Am 1. Juli 2016 startete das Projekt CO2Net+ das die Fördermaßnahme wissenschaftlich begleitet. Das Projekt mit einer Laufzeit von 3½ Jahren wird von der DECHEMA koordiniert und vom Institute for Advanced Sustainability Studies (IASS) Potsdam und der Universität Kassel unterstützt.

Im Fokus der Begleitforschung stehen unter Federführung der DECHEMA die Synthese und Aufbereitung von Ergebnissen der geförderten Projekte für die Öffentlichkeit, die Vernetzung der Projekte sowie die Bewertung und Potenzialabschätzung der Ergebnisse der Fördermaßnahme. Das Center for Environmental Systems Research an der Universität Kassel führt Stoffstromanalysen zur ökobilanziellen Bewertung der Quellen und technischen Nutzungspfade der stofflichen CO2-Nutzung durch, analysiert die ökonomisch wichtigen Einflussfaktoren und entwickelt zusammen mit relevanten Akteuren eine Roadmap, wie die chemische Industrie in Deutschland künftig verstärkt über das Recycling von CO2 versorgt werden kann. Das IASS Potsdam beleuchtet Fragestellungen zu wahrgenommenen Potenzialen und Risiken und zur Akzeptanz der CO2-Nutzung in der Gesellschaft und entwickelt Informationsmaterialien für unterschiedliche Zielgruppen.

Die Projekte zur stofflichen Nutzung von CO2 liefern einen wesentlichen Beitrag zur Verbreiterung der Rohstoffbasis der chemischen Industrie und eröffnen neue Wege, um CO2-Emissionen zu reduzieren. Das wissenschaftliche Begleitvorhaben CO2Net+ stellt wirksame Werkzeuge zur Unterstützung der Projekte zur Verfügung, die einen wesentlichen Beitrag zur Umsetzung und Verbreitung der entwickelten Technologien leisten.

Die Partner:
DECHEMA e.V. http://www.dechema.de
Universität Kassel http://www.uni-kassel.de/einrichtungen/cesr
IASS Potsdam http://www.iass-potsdam.de

Weitere Informationen:
http://www.chemieundco2.de

Quelle: idw

(nach oben)


Zukunft Altbau: Fraunhofer IFAM veröffentlicht Studie zur Nachdämmung bereits gedämmter Außenwände

Fraunhofer IFAM, Dipl.-Biol. Martina Ohle Kommunikation
Fraunhofer-Gesellschaft

Wärmedämmungen für Gebäude gibt es bereits seit Jahrzehnten. Viele Dämmungen der schon vor 20 oder 30 Jahren sanierten Häuser entsprechen allerdings nicht mehr dem Stand der Technik eines guten Wärmeschutzes. Gefördert durch die Forschungsinitiative »Zukunft Bau« des Bundesministeriums für Umwelt, Naturschutz, Bau und Reaktorsicherheit (BMUB) hat das Fraunhofer-Institut für Fertigungstechnik und Angewandte Materialforschung IFAM eine Studie durchgeführt, die technische Möglichkeiten, Potenziale, Erfahrungen und Wirtschaftlichkeit einer Aufdoppelung älterer Wärmedämmverbundsysteme für eine nachhaltige Entwicklung an Wohngebäuden aufzeigt.

Viele ältere Außenwanddämmungen entsprechen nicht mehr den heutigen klimaschutzbedingten Erfordernissen und sind erst recht nicht „fit für die Zukunft“. Solche unzureichend gedämmten Außenwände sollten daher noch ein weiteres Mal gedämmt werden. Wurde bisher ein so genanntes Wärmedämmverbundsystem (WDVS) verwendet, so kann diese Verbesserung durch eine so genannte Aufdoppelung erfolgen. Im Wesentlichen werden dabei eine zweite Dämmschicht und ein neuer Putz aufgebracht.

Zukunftsfähige Dämmqualität
Eine der Grundlagen zur Entscheidung für eine Aufdoppelung bildet der Wärmedurchgangskoeffizient des Alt-Systems, der sogenannte U-Wert, der den Wärmeschutz in eine Zahl fasst. Je niedriger der U-Wert, desto weniger Energie kann nach außen entweichen. Bei Gebäuden gelten Außenwände mit Dämmschichtdicken von weniger als 10 cm bei einer Wärmeleitfähigkeit von 0,040 W/(m*K) bzw. einem Wärmedurchgangskoeffizienten von mehr als 0,35 W/(m²*K) als nicht mehr zukunftsfähig. Damit ein zeitgemäßer U-Wert von höchstens 0,20 W/(m²*K) erreicht wird, können die Häuser problemlos mit einem zweiten Wärmedämmverbundsystem nachgerüstet werden. Ist beispielsweise ein Alt-WDVS mit einer Dämmschichtdicke von 6 cm auf einem üblichen Mauerwerk vorhanden, so wird die genannte U-Wert-Anforderung mit einer zweiten10 cm dicken Dämmschicht mit einer Wärmeleitfähigkeit von 0,035 W/(m*K) erreicht.

An vier Modellgebäuden wurde untersucht, dass in Bezug auf die Außenwandfläche durch die Aufdoppelung eine Endenergieeinsparung von 19,4 bis 27,2 kWh/(m²*a) erzielt werden kann. Im Durchschnitt können etwa 22,0 kWh/(m²Wand*a) erreicht werden. Das entspricht einer Kostensenkung von ca. 1,35 € bei Erdgas und 2,20 € bei Fernwärme pro Quadratmeter Wandfläche eines Hauses pro Jahr.

Gute Zeitpunkte für die Aufdoppelung ergeben sich, sobald an der Fassade gearbeitet wird, sei es eine Putzausbesserung, eine Neugestaltung oder auch ein frischer Anstrich. Bei einer Umfrage nach Erfahrungen mit Aufdoppelungen gaben die Hauseigentümer vor allem Schäden am Alt-System und die Verbesserung des Wärmeschutzes als Gründe für die Entscheidung zur Aufdoppelung an. Welche Systeme für diese spezifische Sanierungsweise zugelassen sind, regelt das Deutsche Institut für Bautechnik (DIBt) in Berlin.

Eine Abschätzung der Studie des Fraunhofer IFAM ergab, dass es in Deutschland ein Potenzial von ca. 417 Mio. m² aufdoppelbarer Wandfläche gibt. Wenn diese Fläche im Jahr 2030 nachgedämmt wäre, würde dann im Vergleich gegenüber dem Stand von 2015 eine Endenergieeinsparung von ca. 9,2 Terawattstunden (TWh) pro Jahr erzielbar sein. Dies entspricht dem jährlichen Endenergieverbrauch für Heizung und Warmwasser von ca. 400.000 Einfamilienhäusern.

Die Studie richtet sich an Entscheider, Energieberater, Hersteller sowie Verarbeiter und steht kostenlos als Download unter http://s.fhg.de/Xfv zur Verfügung.

Kontakt
Architekt Dr.-Ing. Klaus-Dieter Clausnitzer
Projektleiter Energiesystemanalyse
Telefon +49 421 2246-7021
Klaus-Dieter.Clausnitzer@ifam.fraunhofer.de

Weitere Informationen:
http://www.ifam.fraunhofer.de

Quelle: idw

(nach oben)


Spielfeld Arbeitsplatz: Was Manager von Profikickern lernen können

Kristina Logemann Brand Management, Marketing & Communications
Jacobs University Bremen gGmbH

Ein Spiel dauert neunzig Minuten, der Ball ist rund und natürlich muss das Runde in das Eckige – der Fußball steckt voller Lebensweisheiten. Dass sie sich auch auf die Wirtschaft übertragen lassen, dass Manager und Unternehmen von Erfolgen und Misserfolgen im Profifußball lernen können, belegt das soeben erschienene Buch „Spielfeld Arbeitsplatz. Managementwissen mit Kick“. Einer der Autoren ist Sven Voelpel, Professor für Betriebswirtschaftslehre an der internationalen Jacobs University.

Beim Fußball wie in der Wirtschaft komme es auf die Förderung von individuellen Fähigkeiten, auf Motivation, Zusammenspiel, Führung und Strategie an, meint Prof. Voelpel. Dabei geht es in dem Werk nicht um das Aufzeigen von Parallelen zwischen der Unternehmens- und der Fußballwelt. Es geht um das anschauliche, unterhaltsame und praxisorientierte Vermitteln von aktuellem Managementwissen.

„Die große Stärke des Buches ist zuallererst das äußerst solide fachliche Fundament“, schreibt Roland Berger, Gründer und Ehrenvorsitzender des Aufsichtsrats von Roland Berger Strategy Consultants in seinem Geleitwort. Den Autoren sei es gelungen, die „erhebliche Anspruchslücke zwischen den häufig beeindruckend langatmigen Lehrbüchern für Betriebswirtschaft und den oftmals unterhaltsameren, dafür aber wenig fundierten populärwissenschaftlichen Werken zu schließen“, lobt Berger.

Erstautor ist Ralf Lanwehr, Professor für Wirtschaftspsychologie an der Business & Information Technology School Iserlohn (BiTS), weiterer Co-Autor ist Prof. Dr. Henning Staar, Fachdozent für Unternehmenspsychologie an der BiTS. Zahlreiche Experten schildern in kurzen Gastbeiträgen ihre Erfahrungen, darunter Klaus Filbry, Vorsitzender der Geschäftsführung des SV Werder Bremen oder Henning Lühr, Staatsrat für Finanzen, Personal und IT in der Freien Hansestadt Bremen.

In Kapiteln mit Überschriften wie „Spieler“, „Mannschaft“, „Trainer“ oder „Verein“ nähern sich die Autoren ihrem Thema. Konkrete Handlungsempfehlungen und Tests vermitteln Mehrwert und helfen bei der Selbstreflexion, der Einschätzung von Führungskräften und der Organisationskultur. Anders als ein Fußballspiel dauert die Lektüre länger als 90 Minuten – dafür wirkt sie wie ein guter Kick nach.

Lanwehr, R., Staar, H. & Voelpel, S. C. (2016). Spielfeld Arbeitsplatz! Managementwissen mit Kick. Für Führungskräfte und engagierte Mitarbeiter. Erlangen – New York: Publicis, Preis: € 27.90

Weitere Informationen unter:
http://www.kickingleadership.de

Fragen beantwortet:
Prof. Dr. Sven Voelpel| Professor of Business Administration
S.Voelpel@jacobs-university.de | Tel.: +49 421 200-4773/3467

Über die Jacobs University:
Die Jacobs University ist eine private, unabhängige, englischsprachige Universität in Bremen. Hier studieren junge Menschen aus der ganzen Welt in Vorbereitungs-, Bachelor-, Master- und PhD-Programmen. Internationalität und Transdisziplinarität sind die besonderen Kennzeichen der Jacobs University: Forschung und Lehre folgen nicht einem einzigen Lösungsweg, sie gehen Fragestellungen aus der Perspektive verschiedener Disziplinen an. Dieses Prinzip macht Jacobs Absolventen zu begehrten Nachwuchskräften, die erfolgreich internationale Karrierewege einschlagen.

Kontakt:
Kristina Logemann | Brand Management, Marketing & Communications
k.logemann@jacobs-university.de | Tel.: +49 421 200- 4454

Quelle: idw

(nach oben)


Blühende Wiesen zum Wohl des Menschen

Judith Jördens Senckenberg Pressestelle
Senckenberg Forschungsinstitut und Naturmuseen

Je mehr es wimmelt, kreucht und fleucht, desto besser für den Menschen, der von den vielfältigen, kostenlos erbrachten Dienstleistungen der Natur profitiert. Das ist das Ergebnis einer Studie von über 300 Forschenden unter anderem des Instituts für Pflanzenwissenschaften der Universität Bern und des Senckenberg Biodiversität und Klima Forschungszentrums. Ein artenreiches Ökosystem erbringt demnach die umfangreichsten Ökosystemdienstleistungen, berichtet das Team heute im Fachjournal „Nature“. Besonders wichtig sei auch die Vielfalt der beim Menschen eher unbeliebter Insekten und die Vielfalt unscheinbarer Bodenorganismen.

Eine blühende Wiese – neben dem ästhetischen Wert dieser Ökosysteme erbringt die Natur auch jeden Tag handfeste, kostenlose Dienstleistungen für den Menschen. Dazu zählen unterstützende Leistungen wie beispielsweise die Bodenbildung, Versorgungsleistungen wie die Lebensmittelproduktion, Regulierungsleistungen wie Schädlingsbekämpfung und Klimaregulierung und kulturelle Leistungen wie beispielweise der Nutzen der Ökosysteme als Erholungsraum. Diese komplexen Ökosysteme setzen sich aus verschiedenen sogenannten trophischen Gruppen respektive Gliedern in der Nahrungskette zusammen. Welchen Einfluss die schwindende Artenvielfalt auf die Ökodienstleistungen hat, wurde bislang lediglich anhand einzelner leicht zu untersuchender trophischer Gruppen wie Pflanzen studiert.

Ein 300-köpfiges internationales Forscherteam um Dr. Santiago Soliveres von der Universität Bern hat daher erstmals alle Gruppen entlang einer Nahrungskette in einer natürlichen Graslandschaft untersucht. Sie sammelten dazu Daten zu insgesamt 4600 Tier- und Pflanzenarten aus neun Gruppen der Nahrungskette; darunter auch zu bislang eher vernachlässigten Arten wie Mikroorganismen, die den Boden zersetzen und Abfallfressern wie Regenwürmern. Erhoben wurden die Daten als Teil eines von der Deutsche Forschungsgemeinschaft geförderten Programms auf 150 Grünlandflächen quer durch Deutschland, den „Biodiversitätsexploratorien“, die die umfassendsten ökologischen Freilandversuchsflächen Europas darstellen.

Artenvielfalt innerhalb aller trophischer Gruppen notwendig
„Wie bei einem Puzzle haben wir uns ein zusammenhängendes Bild davon gemacht, wie bedeutsam einzelne trophische Gruppen für vierzehn von uns gemessene Ökosystemdienstleistungen sind. Jede Ökosystemdienstleistung ist demnach von mindestens drei Gruppen abhängig. Je vielfältiger die Arten innerhalb der Gruppe, desto zuverlässiger wird die Ökosystemdienstleistung erbracht. Außerdem beeinflusst jede einzelne Gruppe zumindest eine Ökosystemdienstleistung“, fasst Soliveres, Erstautor der Studie, die Ergebnisse zusammen.

Dr. Peter Manning vom Senckenberg Biodiversität und Klima Forschungszentrum ergänzt: „Wir müssen also Artenreichtum in mindestens drei der untersuchten Gruppen der Nahrungskette sicherstellen. Es sind aber nicht immer die gleichen drei Gruppen, die für das Funktionieren einer individuellen Ökosystemdienstleitung maßgeblich sind. Deshalb muss der Artenreichtum in allen Gruppen der Nahrungskette erhalten bleiben, damit die Natur zuverlässig weiter für uns im Verborgenen ‚arbeitet‘ wie wir es gewohnt sind.“ Hohe Artenvielfalt über alle Gruppen hinweg ist besonders wichtig für regulierende Prozesse sowie kulturelle Dienstleistungen.

Die Wichtigkeit von „Schädlingen“
Die Studie zeigt zudem, wie wichtig auch vermeintliche Schädlinge und unscheinbare Dienstleister sind. Viele Insekten und Bodenorganismen spielen nämlich, neben Pflanzen, so die Studie, eine zentrale Rolle bei den Leistungen, die Natur für uns erbringt. „Pflanzen liefern Biomasse, die den Anfang der Nahrungskette bildet, aber Insekten wirken als Bestäuber und Bodenorganismen erhöhen durch Zersetzung und Rückhalt von chemischen Elementen wie Phosphor die Bodenfruchtbarkeit. Je mehr und je unterschiedlichere Individuen es besonders innerhalb dieser drei Gruppen gibt, desto positiver wirkt sich das auf alle Dienstleistungen aus“, erklärt Soliveres.
Häufig wird der Boden gedüngt, um die Bodenfruchtbarkeit und damit das Wachstum von Pflanzen zu erhöhen. Kurzfristig hilft Dünger zwar, wenn dabei aber die Artenvielfalt verringert wird, überwiegen die Nachteile. Eine hohe Artenvielfalt entlang der gesamten Nahrungskette zu erhalten, ist langfristig gesehen daher preiswerter und sinnvoller, als sie zu zerstören.

Bedeutung biologischer Vielfalt für Ökosystemdienstleistungen bisher unterschätzt
„Wenn biologische Vielfalt rapide zerstört wird, welche Konsequenzen hat das für die Menschen? Welche Handlungsoptionen gibt es? Das ist bisher nicht umfassend genug erforscht und einer der Gründe, warum der internationale Biodiversitätsrat IPBES gegründet wurde“, führt Prof. Markus Fischer, Leiter des Forschungsprojektes vom Institut für Pflanzenwissenschaft der Universität Bern und Senckenberg Biodiversität und Klima Forschungszentrum aus. Die beispielhafte Studie zeige auch, dass in der bisherigen Forschung, die nur auf einzelne trophische Gruppen fokussierte, die Bedeutung biologischer Vielfalt über alle Gruppen einer Nahrungskette hinweg unterschätzt worden sei: „Unser umfassendes Forschungsprogramm demonstriert, wie wichtig es ist, den Gesamtzusammenhang zu untersuchen und dass Handlungsbedarf zum Schutz der Ökosysteme besteht“, resümiert Fischer.

Kontakt
Dr. Santiago Soliveres (nur Englisch), Institut für Pflanzenwissenschaften, Universität Bern
Tel. +41 31 631 49 23 / santiago.soliveres@ips.unibe.ch

Prof. Dr. Markus Fischer (Deutsch und Englisch), Institut für Pflanzenwissenschaften, Universität Bern, Tel. +41 31 631 49 43 / markus.fischer@ips.unibe.ch

Sabine Wendler
Pressestelle
Senckenberg Gesellschaft für Naturforschung
Tel. 069- 7542 1434
pressestelle@senckenberg.de

Publikation
Soliveres et al.: Biodiversity at multiple trophic levels is needed for ecosystem multifunctionality. Nature, 17. August 2016, in press.

Die Natur mit ihrer unendlichen Vielfalt an Lebensformen zu erforschen und zu verstehen, um sie als Lebensgrundlage für zukünftige Generationen erhalten und nachhaltig nutzen zu können – dafür arbeitet die Senckenberg Gesellschaft für Naturforschung seit nunmehr fast 200 Jahren. Diese integrative „Geobiodiversitätsforschung“ sowie die Vermittlung von Forschung und Wissenschaft sind die Aufgaben Senckenbergs. Drei Naturmuseen in Frankfurt, Görlitz und Dresden zeigen die Vielfalt des Lebens und die Entwicklung der Erde über Jahrmillionen. Die Senckenberg Gesellschaft für Naturforschung ist ein Mitglied der Leibniz-Gemeinschaft. Das Senckenberg Naturmuseum in Frankfurt am Main wird von der Stadt Frankfurt am Main sowie vielen weiteren Partnern gefördert. Mehr Informationen unter www.senckenberg.de.

2016 ist Leibniz-Jahr. Anlässlich des 370. Geburtstags und des 300. Todestags des Universalgelehrten Gottfried Wilhelm Leibniz (*1.7.1646 in Leipzig, † 14.11.1716 in Hannover) veranstaltet die Leibniz-Gemeinschaft ein großes Themenjahr. Unter dem Titel „die beste der möglichen Welten“ – einem Leibniz-Zitat – rückt sie die Vielfalt und die Aktualität der Themen in den Blick, denen sich die Wissenschaftlerinnen und Wissenschaftler der bundesweit 88 Leibniz-Einrichtungen widmen. www.bestewelten.de

Quelle: idw

(nach oben)


Studie: Weniger Lebenszufriedenheit nach Jobverlust, emotionales Wohlbefinden erholt sich

Dr. Nina Diezemann Stabsstelle für Presse und Kommunikation
Freie Universität Berlin

Wissenschaftler der Freien Universität Berlin und des DIW Berlin untersuchen differenziert die Gefühlslagen von Arbeitslosen: Auch lange Zeit nach einem Jobverlust erreichen Arbeitslose einer Studie zufolge nicht wieder das Niveau an Lebenszufriedenheit, auf dem sie sich vor der Arbeitslosigkeit befunden haben.

Die Untersuchung, die der Direktor des Sozio-oekonomischen Panel (SOEP) im DIW Berlin, Jürgen Schupp, und die Soziologen Christian von Scheve und Frederike Esche von der Freien Universität Berlin auf Basis der SOEP-Daten erstellt haben, zeigt jedoch, dass dies nicht so sehr auf die emotionale Befindlichkeit der Betroffenen zurückzuführen ist. Vielmehr spielt die kognitive Wahrnehmung des eigenen Wohlbefindens dabei eine wichtige Rolle. Die Ergebnisse wurden in der jüngsten Ausgabe der Fachzeitschrift Journal of Happiness Studies publiziert.

Auf Basis von Daten der Langzeitstudie Sozio-oekonomisches Panel (SOEP), die zwischen 2007 und 2014 erhobenen wurden, untersuchten die Wissenschaftlerinnen und Wissenschaftler mithilfe panelökonometrischer statistischer Verfahren Veränderungen in der Lebenszufriedenheit und im emotionalen Wohlbefinden vor und nach einem Verlust des Arbeitsplatzes. Mit der Lebenszufriedenheit werden die kognitiven Bestandteile des Wohlbefindens, also resümierende Bewertungen der jeweiligen derzeitigen Verfassung, erfasst, wohingegen die emotionalen Aspekte auf aktuelle Gefühlslagen verweisen. Anders als in früheren Studien nutzten die Forscher kein zusammengefasstes Maß für das emotionale Wohlbefinden, sondern betrachteten die vier im SOEP erhobenen Emotionen (Angst, Ärger, Traurigkeit, Glück) getrennt voneinander. So konnten sie erstmals differenzierte Aussagen über die durch Arbeitslosigkeit hervorgerufenen Veränderungen spezifischer Emotionen treffen.

Die Wissenschaftlerinnen und Wissenschaftler fanden heraus, dass mit dem Jobverlust die Lebenszufriedenheit nachhaltig abnimmt und Arbeitslose langfristig deutlich häufiger Traurigkeit und Freudlosigkeit empfinden. Der Verlust des Arbeitsplatzes geht jedoch nur kurzfristig mit einem häufigeren Erleben von Angst einher und steht in keinem bedeutenden Zusammenhang mit dem Empfinden von Ärger. Darüber hinaus zeigen die SOEP-Daten: Die Veränderungen im emotionalen Wohlbefinden sind unabhängig von der Persönlichkeit der Betroffenen. „In Phasen der Arbeitslosigkeit sind alle Menschen ängstlicher als zuvor oder danach – unabhängig davon, wie ängstlich sie sonst sind“, erklärt der SOEP-Direktor Jürgen Schupp.

„Einblicke in Emotionen, die mit Arbeitslosigkeit einhergehen, sind wichtig, weil sie nicht nur das Befinden, sondern auch das Denken und Handeln der Betroffenen beeinflussen“, sagt Christian von Scheve, Professor für Soziologie an der Freien Universität Berlin. „Daher ist es wichtig zu verstehen, welche Folgen sich für das emotionale Wohlbefinden der Betroffenen ergeben“, erklärt Frederike Esche, wissenschaftliche Mitarbeiterin am Institut für Soziologie der Freien Universität. Deshalb sei es sinnvoll, dass neben den wirtschaftlichen und sozialen Auswirkungen von Arbeitslosigkeit in jüngster Zeit auch die subjektiven Erfahrungen von Arbeitslosen verstärkt untersucht worden seien, sagt sie. Wenngleich Studien bereits die schädlichen Effekte von Arbeitslosigkeit auf das kognitive und affektive Wohlbefinden dokumentiert haben, gab es bislang keine Vergleiche dieser beiden Dimensionen. Die vorliegende Studie schließt diese Lücke.

Stichwort SOEP
Das Sozio-oekonomische Panel (SOEP) ist die größte und am längsten laufende multidisziplinäre Langzeitstudie in Deutschland. Das SOEP im DIW Berlin wird als Teil der Forschungsinfrastruktur in Deutschland unter dem Dach der Leibniz-Gemeinschaft vom Bundesministerium für Bildung und Forschung (BMBF) und den Ländern gefördert. Für das SOEP werden seit 1984 jedes Jahr vom Umfrageinstitut TNS Infratest Sozialforschung in mehreren tausend Haushalten statistische Daten erhoben. Zurzeit sind es etwa 30.000 Personen in etwa 15.000 Haushalten. Die Daten des SOEP geben unter anderem Auskunft über Einkommen, Erwerbstätigkeit, Bildung, Gesundheit und Lebenszufriedenheit. Weil jedes Jahr dieselben Personen befragt werden, können nicht nur langfristige gesellschaftliche Trends, sondern auch die gruppenspezifische Entwicklung von Lebensläufen besonders gut analysiert werden.

Publikation
Von Scheve, Christian, Esche, Frederike & Schupp, Jürgen (2016).: „The Emotional Timeline of Unemployment: Anticipation, Reaction, and Adaptation“, in: Journal of Happiness Studies (Online First). S.1-24. Doi: 10.1007/s10902-016-9773-6; URL: http://link.springer.com/article/10.1007/s10902-016-9773-6

Kontakt
Prof. Dr. Christian von Scheve, Institut für Soziologie der Freien Universität Berlin, Telefon: 030 / 838-57695, E-Mail: christian.von.scheve@fu-berlin.de

Weitere Informationen:
http://www.fu-berlin.de/presse/informationen/fup/2016/fup_16_281-studie-arbeitsl…
http://www.diw.de/de/diw_02.c.242689.de/pressemitteilungen.html?id=diw_01.c.5413…

Quelle: idw

(nach oben)


Neues im Netzwerk für Ausbilderinnen und Ausbilder

Andreas Pieper Presse- und Öffentlichkeitsarbeit
Bundesinstitut für Berufsbildung (BIBB)

BIBB-Internetportal „foraus.de“ mit Relaunch, Workshops und Online-Umfrage

Das Internetportal „foraus.de“ des Bundesinstituts für Berufsbildung (BIBB) präsentiert sich nach einem Relaunch nicht nur in neuem Design, sondern bietet Ausbilderinnen und Ausbildern auch vielfältige neue und aktuelle Angebote, Informationen und Workshops: So wird im Lernzentrum von foraus.de das Konzept „Kompetenzwerkstatt“ zur handlungsorientierten, lernortübergreifenden Ausbildung präsentiert und über Anwenderworkshops zur Nutzung digitaler Medien im Ausbildungsalltag informiert.

Ausbilderinnen und Ausbilder können zudem zum Thema „Einsatz digitaler Medien im Betrieb“ noch bis zum 30. September an einer Online-Befragung teilnehmen. Sie unterstützen so die Entwicklung geeigneter, praxisrelevanter Materialien zur Förderung der Medienkompetenz.

Im foraus.de-Netzwerk stehen Ausbilderinnen und Ausbildern zahlreiche Angebote zur Diskussion, Recherche und Unterstützung ihrer täglichen Ausbildungspraxis zur Verfügung. Das Portal bietet unter anderem ein Forum zum Erfahrungsaustausch, Lernbausteine zum Selbstlernen im Lernzentrum, Weiterbildungsangebote und hilfreiche Hinweise für das Ausbildungspersonal.

Eine Reihe von Features, mit deren Hilfe der online-gestützte Informationsaustausch übersichtlicher und strukturierter möglich ist, wurde überarbeitet oder neu in das Portal integriert:

• Das Konzept „Kompetenzwerkstatt“ richtet seinen Blick auf die Ausbildung in kleinen und mittleren Unternehmen (KMU). Es zeigt, wie die Herausforderungen einer digitalisierten Arbeitswelt didaktisch, methodisch und medial zeitgemäß aufgegriffen werden können. Mithilfe der Kompetenzwerkstatt lässt sich eine attraktive, qualitativ hochwertige und effektive Berufsausbildung im Betrieb und in der Berufsschule realisieren, die sich an beruflichen Arbeitsprozessen orientiert, zielgerichtet digitale Medien einsetzt und so die Kompetenzen der Auszubildenden fördert. Die Praxishandreichungen „Kompetenzwerkst@tt“ führen vom Curriculum zum softwaregestützten beruflichen Lernen. Für foraus.de entwickelte Erklärvideos erleichtern die Umsetzung im betrieblichen Ausbildungsalltag.

• Zentrales Anliegen der Online-Befragung zum Einsatz digitaler Medien im Betrieb ist, durch die Einschätzungen und Expertisen der Fachleute aus der Praxis Informationen darüber zu erhalten, wie grundlegende Anforderungen an eine medienpädagogische Kompetenz des Aubildungspersonals zu gestalten sind. Auf dieser Basis sollen anwendungsorientierte Angebote zur Unterstützung des Ausbildungspersonals entwickelt werden. Die Online-Befragung erfolgt im Rahmen des BIBB-Forschungsprojekts „Digitale Medien in der betrieblichen Berufsausbildung – Medienaneignung und Mediennutzung in der Alltagspraxis von betrieblichem Ausbildungspersonal“.

• Passend hierzu wird die Ausbildungspraxis in Anwenderworkshops über die Nutzung digitaler Medien im Ausbildungsalltag informiert. Der nächste Workshop findet am 21. September 2016 in Dresden statt, weitere folgen in Hamburg am 13. Oktober und in Saarbrücken am 2. November.

Zum Hintergrund:
foraus.de richtet sich mit seinen Angeboten an haupt- und nebenberufliche Ausbilderinnen und Ausbilder, an ausbildende Fachkräfte in Betrieben, an Multiplikatoren zur Qualifizierung des Berufsbildungspersonals sowie an Ausbildungsleiterinnen und Ausbildungsleiter im Bereich der betrieblichen, überbetrieblichen und außerbetrieblichen Aus- und Weiterbildung. Weiterhin werden mit den Informationen und Diensten von foraus.de leitendes Personal im beruflichen Bildungswesen, Verantwortliche im Bereich der Personal- und Organisationsentwicklung sowie Personen, die an pädagogischen Prozessen und innovativen Entwicklungen in der beruflichen Bildung interessiert sind, angesprochen. Mit den Online-Services von foraus.de leistet das BIBB einen Beitrag zur kontinuierlichen Weiterentwicklung der beruflichen Aus- und Weiterbildungspraxis.

Weitere Informationen unter http://www.foraus.de,
zur Online-Befragung unter http://www.foraus.de/html/foraus_1900.php
sowie zu den Workshops unter http://www.foraus.de/html/foraus_2827.php

Ansprechpartner/-in im BIBB:
Franziska Kupfer, E-Mail: kupfer@bibb.de
Thomas Neuhaus, E-Mail: neuhaus@bibb.de

Quelle: idw

(nach oben)


Nanopelz gegen die Ölpest

Monika Landgraf Presse, Kommunikation und Marketing
Karlsruher Institut für Technologie

Einige Schwimmfarne können in kurzer Zeit große Mengen Öl aufnehmen, denn ihre Blätter sind zugleich stark wasserabstoßend und in hohem Maße ölabsorbierend. Eine Forschergruppe des KIT hat gemeinsam mit Kollegen der Universität Bonn herausgefunden, dass die Wasserpflanze die ölbindende Eigenschaft der haarähnlichen Mikrostruktur ihrer Blattoberfläche verdankt. Sie dient nun als Vorbild, um das Material Nanofur weiterzuentwickeln, das Ölverschmutzungen umweltfreundlich beseitigen soll. (DOI: 10.1088/1748-3190/11/5/056003)

Beschädigte Pipelines, Tankerhavarien und Unfälle auf Förderplattformen können Wasserflächen mit Roh- oder Mineralöl verschmutzen. Herkömmliche Verfahren zum Entfernen der Ölpest haben spezifische Nachteile: Das Verbrennen von Öl sowie der Einsatz chemischer Mittel, die seine Zersetzung beschleunigen, belasten ihrerseits die Umwelt. Viele natürliche Materialien zum Aufsaugen des Öls – wie Sägemehl oder Pflanzenfasern – sind wenig effektiv, weil sie zugleich große Mengen Wasser aufsaugen. Auf der Suche nach einer umweltfreundlichen Möglichkeit, Ölteppiche zu entfernen, haben die Forscher verschiedene Schwimmfarn-Arten verglichen. „Dass die Blätter dieser Pflanzen wasserabstoßend sind, war bereits bekannt, wir haben erstmals ihre Eigenschaft Öl zu absorbieren untersucht“, sagt Claudia Zeiger, die die Studie am Institut für Mikrostrukturtechnik des KIT durchgeführt hat.

Die aus tropischen und subtropischen Regionen stammenden Schwimmfarne sind mittlerweile auch in Teilen Europas heimisch. Da sie sich stark vermehren, gelten sie mancherorts als lästiges Unkraut. Sie haben jedoch großes Potenzial als kostengünstige, schnelle und umweltfreundliche Ölabsorber, was eindrucksvoll in einer kurzen Videosequenz unter http://www.kit.edu/kit/pi_2016_115_nanopelz-gegen-die-oelpest.php zu sehen ist. „Die Pflanzen könnten zum Beispiel in Seen eingesetzt werden, um dort unbeabsichtigt eingetretenes Öl zu absorbieren“, so Zeiger. Bereits nach weniger als 30 Sekunden haben die Blätter die maximale Absorption erreicht und können zusammen mit dem aufgenommenen Öl abgeschöpft werden. Die Wasserpflanze mit dem biologischen Namen Salvinia besitzt an der Blattoberfläche Trichome – haarähnliche, zwischen 0,3 und 2,5 Millimeter lange Ausläufer. Beim Vergleich unterschiedlicher Salvinia-Arten zeigte sich, dass nicht etwa die Blätter mit den längsten Haaren besonders viel Öl absorbierten. „Ausschlaggebend für die Öl-Aufnahmefähigkeit ist die Form der Haarenden“, betont Zeiger. Das meiste Öl absorbieren die Blätter der Schwimmfarn-Art Salvinia molesta, deren Haarenden in der Form eines Schneebesens miteinander verbunden sind.

Das neue Wissen über den Zusammenhang der Oberflächenstruktur der Blätter und ihre Öl-Absorptionsfähigkeit nutzen die Forscher nun, um das an ihrem Institut entwickelte Material Nanofur zu verbessern. Dieser Nanopelz aus Kunststoff ahmt den wasserabstoßenden und ölanziehenden Effekt von Salvinia nach, um Öl und Wasser zu trennen. „Wir untersuchen in der Natur vorkommende Nano- und Mikrostrukturen, um sie für technische Entwicklungen zu übernehmen“, sagt Privatdozent Hendrik Hölscher, Leiter der Arbeitsgruppe Biomimetische Oberflächen am Institut für Mikrostrukturtechnik des KIT. Bei gleichem Material seien es häufig Unterschiede innerhalb dieser feinsten Strukturen, die zum Beispiel Pflanzen mit bestimmten Eigenschaften ausstatten.

Als Erstautorin stellt Claudia Zeiger die Untersuchungsergebnisse unter dem Titel „Microstructures of superhydrophobic plant leaves – inspiration for efficient oil spill cleanup materials“ im Fachmagazin Bioinspiration & Biomimetics vor. Die Arbeit entstand in Zusammenarbeit mit Wissenschaftlern des vom Bionik-Pionier Wilhelm Barthlott gegründeten Nees-Instituts für Biodiversität der Pflanzen an der Universität Bonn. Die Forschung wurde gefördert durch ein Promotionsstipendium der Carl-Zeiss-Stiftung, durch das brasilianische Forschungs- und Austauschprogramm Ciências sem Fronteiras sowie durch die Hochtechnologieplattform Karlsruhe Nano-Micro-Facility (KNMF) am KIT.

Claudia Zeiger, Isabelle C Rodrigues da Silva, Matthias Mail, Maryna N Kavalenka, Wilhelm Barthlott and Hendrik Hölscher: Microstructures of superhydrophobic plant leaves – inspiration for efficient oil spill cleanup materials. Bioinspiration & Biomimetics. DOI: 10.1088/1748-3190/11/5/056003

Die Veröffentlichung online:
http://iopscience.iop.org/article/10.1088/1748-3190/11/5/056003

Mehr Informationen zu Nanofur:
http://kit-neuland.de/2013/nanopelz
https://www.imt.kit.edu/1436.php

Weiterer Kontakt:
Kosta Schinarakis, PKM – Themenscout, Tel.: +49 721 608 41956, Fax: +49 721 608 43658, E-Mail: schinarakis@kit.edu

Das Karlsruher Institut für Technologie (KIT) verbindet seine drei Kernaufgaben Forschung, Lehre und Innovation zu einer Mission. Mit rund 9 300 Mitarbeiterinnen und Mitarbeitern sowie 25 000 Studierenden ist das KIT eine der großen natur- und ingenieurwissenschaftlichen Forschungs- und Lehreinrichtungen Europas.

KIT – Die Forschungsuniversität in der Helmholtz-Gemeinschaft

Das KIT ist seit 2010 als familiengerechte Hochschule zertifiziert.

Diese Presseinformation ist im Internet abrufbar unter:
http://www.kit.edu

Weitere Informationen:
http://www.kit.edu/kit/pi_2016_115_nanopelz-gegen-die-oelpest.php
http://iopscience.iop.org/article/10.1088/1748-3190/11/5/056003
http://kit-neuland.de/2013/nanopelz
https://www.imt.kit.edu/1436.php

Anhang

Nanopelz gegen die Ölpest
https://idw-online.de/de/attachment50646

Quelle: idw

(nach oben)


Wie uns Bakterien schützen oder schaden

Stefan Zorn Presse- und Öffentlichkeitsarbeit
Medizinische Hochschule Hannover

MHH-Wissenschaftler untersuchen das Leben im Darm. Für ihre Forschungen erhalten sie mehr als 1,3 Millionen Euro von der DFG

Hundert Billionen Bakterien leben im Darm eines Menschen – es handelt sich um ein äußerst komplexes mikrobielles Ökosystem, das die Gesundheit beeinflusst und bei zahlreichen Erkrankungen eine wichtige Rolle spielt – beispielsweise bei entzündlichen Darmkrankheiten wie Morbus Crohn. Die Wechselwirkungen zwischen diesen Mikroorganismen und Immunfunktionen sowie genetischer Veranlagung des Menschen stehen Mittelpunkt des Schwerpunktprogramms 1656 „Intestinale Mikrobiota“. Im Rahmen dieses Programms werden die Forscher der Medizinische Hochschule Hannover (MHH) nun mehr als 1,3 Millionen Euro von der Deutschen Forschungsgemeinschaft (DFG) weiter unterstützt. Das Programm fördert die DFG seit 2013. Es nehmen 22 Arbeitsgruppen aus 17 Standorten in Deutschland teil – koordiniert von der Technischen Universität München und der Eberhard Karls Universität Tübingen.

1,1 Million Euro erhält Professor André Bleich, PhD. „Bei der Vielzahl an Darmbakterien ist es schwer zu erkennen, welche Bakterien wie mit dem Darm interagieren. Deswegen brauchen wir Forscher keimfreie Mausmodelle, die mit einzelnen Bakterienarten kolonialisiert werden können“, sagt der Leiter des MHH-Instituts für Versuchstierkunde und des Zentralen Tierlaboratoriums. Sein Team züchtet solche Tiere für die Wissenschaftler des Schwerpunkprogramms, führt aber auch Experimente durch und bietet Kurse zum Umgang mit den Tieren an.

233.800 Euro bekommt Professor Dr. Guntram Graßl. „Wir untersuchen Wechselwirkungen der Mikrobiota mit darmpathogenen Krankheitserregern wie Salmonellen. Denn die Zusammensetzung der Mikrobiota ist entscheidend dafür, ob Salmonellen krank machen. „Wenn bestimmte Zucker auf der Oberfläche der Darmschleimhaut fehlen, verändert sich die Zusammensetzung der Darm-Mikrobiota und das führt zu erhöhter Resistenz des Wirts gegenüber Samonellen“, berichtet der Forscher des MHH-Instituts für Medizinische Mikrobiologie und Krankenhaushygiene. Die veränderte Mikrobiota und damit die Resistenz gegenüber der Infektion könne man mittels Stuhltransplantation auf andere Mäuse übertragen. Seine Professur wird über das Deutsche Zentrum für Infektionsforschung (DZIF) finanziert.

Ebenfalls weiter am Schwerpunktprogramm 1656 mitarbeiten werden die Arbeitsgruppen von Professor Dr. Sebastian Suerbaum und Profesorin Dr. Christine Josenhans vom Institut für Medizinische Mikrobiologie und Krankenhaushygiene mit Fördermitteln von 311.000 Euro. Ihr Projekt befasst sich mit den Wechselwirkungen zwischen der Mikrobiota des Darms und dem pathogenen Bakterium Helicobacter hepaticus. Dieser Verwandte des Magenkrebsbakteriums Helicobacter pylori löst bei Mäusen entzündliche Darmerkrankungen aus, deren Schwere entscheidend von der Zusammensetzung der Mikrobiota abhängt.

Weitere Informationen erhalten Sie im Internet unter www.intestinal-microbiota.de und bei Professor Dr. André Bleich, bleich.andre@mh-hannover.de, Telefon (0511) 532-6567, Professor Dr. Guntram Graßl, grassl.guntram@mh-hannover.de, Telefon (0511) 532-4540, Professor Dr. Sebastian Suerbaum, suerbaum.sebastian@mh-hannover.de, Telefon (0511) 532-6769 und Professorin Dr. Christine Josenhans, josenhans.christine@mh-hannover.de, Telefon (0511) 532-4348.

Quelle: idw

(nach oben)


Steigende Wassertemperaturen und Ozeanversauerung beeinträchtigen wichtigen Plankton-Organismus

Dr. Andreas Villwock Kommunikation und Medien
GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel

In einem Experiment mit Organismen aus der Kieler Förde zeigt ein Wissenschaftsteam des GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel erstmals, dass Ozeanversauerung und steigende Wassertemperaturen die Zusammensetzung der Fettsäuren von Ruderfußkrebsen in der natürlichen Planktongemeinschaft negativ beeinflussen. Dadurch steht beispielsweise Fischen qualitativ schlechtere Nahrung zur Verfügung, argumentieren die Forschenden in einer neuen Veröffentlichung im Fachmagazin PLOS ONE.

Ozeanversauerung, Temperaturanstieg, Nährstoffeintrag und Sauerstoffmangel: Tiere und Pflanzen im Meer müssen mit einer Vielzahl an Umweltfaktoren zurechtkommen. Wie werden sie reagieren, wenn sich die Lebensbedingungen im Zuge des globalen Klimawandels ändern? Labor- und Freiland-Experimente, Beobachtungen an natürlich-extremen Lebensräumen sowie Modellrechnungen helfen Forschenden, die Reaktionen des Ökosystems Ozean abzuschätzen.

Wissenschaftlerinnen und Wissenschaftler des GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel nutzten so genannte „Indoor Mesokosmen“, um den Ozean der Zukunft im Labor abzubilden. In zwölf je 1400 Liter großen Versuchstanks setzten sie im Herbst 2012 die natürliche Planktongemeinschaft aus der Kieler Förde zwei verschiedenen Temperaturstufen und zwei unterschiedlichen Kohlendioxid-Konzentrationen aus. Nach einem Monat untersuchten sie die Anzahl und Körpergröße sowie den Gehalt an für die Ernährung wichtigen Fettsäuren verschiedener Entwicklungsstadien von Ruderfußkrebsen. Die bis zu einem Millimeter großen Tiere machen etwa achtzig Prozent des Zooplanktons aus und sind eine wichtige Nahrungsquelle für Fische und Fischlarven. Das Fachmagazin PLOS ONE veröffentlichte die Ergebnisse der Studie, die im Rahmen des Deutschen Forschungsverbunds BIOACID (Biological Impacts of Ocean Acidification) stattfand.

„Aus verschiedenen Experimenten ist bekannt, dass sich die Auswirkungen verschiedener Umweltfaktoren auf Meeresorganismen entweder aufaddieren oder gegenseitig abschwächen können. Da die Körperfunktionen verschiedener Organismen sehr unterschiedlich auf die Kombination der Faktoren reagiert, ist es sehr schwierig, das Ergebnis in letzter Konsequenz abzuschätzen“, erklärt Dr. Jessica Garzke, Meeresbiologin am GEOMAR und Erst-Autorin der Veröffentlichung. „Für die Ruderfußkrebse haben wir gezeigt, dass steigende Wassertemperaturen insgesamt einen deutlich negativeren Einfluss als die Versauerung haben. Die Versauerung kann einige Reaktionen abmildern – beispielsweise, weil durch das zusätzlich im Meerwasser gelöste Kohlendioxid mehr Phytoplankton als Nahrung für die Krebstierchen heranwächst. Diese Vorteile sind jedoch nicht stark genug, um insgesamt einen positiven Effekt zu erzielen.“

Die Kieler Studie gibt erstmals Einblick in die Auswirkungen von Ozeanversauerung und Temperaturanstieg auf die Zusammensetzung der Fettsäuren einer natürlichen Gemeinschaft von Ruderfußkrebsen. „Nach unseren Beobachtungen wird die Fettsäure-Zusammensetzung eher negativ beeinflusst. Das heißt, dass die Futter-Qualität für übergeordnete Ebenen des Nahrungsnetzes sinkt“, hebt Garzke hervor. „Nahrungsnetze, die von der Futter-Qualität beeinflusst werden – nicht etwa von der puren Masse des Angebots – wären hiervon beeinträchtigt.“

Das Team um Dr. Garzke geht davon aus, dass ihre Ergebnisse auch auf andere küstennahe Regionen übertragen werden können, die der Kieler Förde ähneln. „Weil die Kohlendioxid-Konzentrationen aufgrund der Strömungsverhältnisse in der Förde stark schwanken, könnten Organismen an erhöhte Werte angepasst sein und weniger leiden als ihre Artgenossen in anderen Gewässern“, vermutet die Biologin. „Zudem ist zu bedenken, dass weitere Umweltfaktoren hinzukommen. Wir benötigen weitere Experimente, um diese Szenarien für ökologisch bedeutsame Arten untersuchen zu können.“

Originalveröffentlichung:
Garzke J., Hansen T., Ismar S.M.H., Sommer U. (2016): Combined Effects of Ocean Warming and
Acidification on Copepod Abundance, Body Size and Fatty Acid Content. PLoS ONE 11(5): e0155952. doi: 10.1371/journal.pone.0155952

BIOACID in Kürze:
Unter dem Dach von BIOACID (Biological Impacts of Ocean Acidification) untersuchen zehn Institute, wie marine Lebensgemeinschaften auf Ozeanversauerung reagieren und welche Konsequenzen dies für das Nahrungsnetz, die Stoff- und Energieumsätze im Meer sowie schließlich auch für Wirtschaft und Gesellschaft hat. Das Projekt begann 2009 und ging im Oktober 2015 in die dritte, finale Förderphase. BIOACID wird vom Bundesministerium für Bildung und Forschung (BMBF) gefördert. Die Koordination liegt beim GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel. Eine Liste der Mitglieds-Institutionen, Informationen zum wissenschaftlichen Programm und den BIOACID-Gremien sowie Fakten zur Ozeanversauerung sind auf der Website www.bioacid.de zu finden.

Bildmaterial:
Unter www.geomar.de/n4650 steht Bildmaterial zum Download bereit.

Weitere Informationen:
http://www.geomar.de Das GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel
http://www.bioacid.de Biological Impacts of Ocean Acidification

Quelle: idw

(nach oben)


Alles im Fluss: Wie der Flow unser Wohlbefinden bei der Arbeit fördert

Verena Kemmler Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Arbeitsforschung an der TU Dortmund

Es gibt diese Tage, da geht einem die Arbeit ganz leicht von der Hand: Der Vortrag im Meeting lief perfekt, alle wichtigen Aufgaben sind von der Liste gestrichen und die Arbeitszeit vergeht wie im Flug – kurz man erlebt einen Flow. Wie wichtig dieses Flowerleben für die Mitarbeitergesundheit ist, stellte nun ein Forscherteam vom Leibniz-Institut für Arbeitsforschung an der TU Dortmund fest.

Vorangegangene Studien belegen, dass eine starke Identifikation mit dem Unternehmen das psychische Wohlbefinden fördert und die negativen Auswirkungen von Stress abschwächt. Unklar ist dabei, welche Mechanismen für die gesundheitsförderlichen Effekte einer starken Organisationsbindung verantwortlich sind. Dr. Wladislaw Rivkin erforschte im Forschungsteam, inwiefern Mitarbeiteridentifikation den alltäglichen Flow bei der Arbeit fördert. Ein solcher Flow stellt eine Form der intrinsischen Motivation dar, also einen besonders starken inneren Antrieb. Daher war die Ausgangshypothese der Forscher, dass Menschen, die eine starke Identifikation mit ihrem Unternehmen haben, häufiger einen Flow bei der Arbeit erleben, was wiederum die schädlichen Auswirkungen von Stress auf das psychische Wohlbefinden reduziert.

Zehn Arbeitstage lang untersuchte das Team 90 Mitarbeiter der Dienstleistungsbranche, die täglich Fragen zu ihrem Arbeitserleben, insbesondere dem Flow bei der Arbeit, beantworteten. Dabei zeigte sich wie vermutet, dass Beschäftigte mit hoher Organisationsbindung an insgesamt mehr Arbeitstagen Flow erlebten. Gleichzeitig wirkte Arbeitsstress bei häufigem Flowerleben weniger schädlich auf das Wohlbefinden der Beschäftigten. Im Gegensatz dazu erlebten Mitarbeiter mit geringer Organisationsbindung seltener Flow und hatten ein geringeres Wohlbefinden als Folge von Arbeitsstress.

In Zeiten hoher Arbeitsplatzunsicherheit und befristeter Verträge mag es für Unternehmen mitunter schwierig sein, die Identifikation der Mitarbeiter mit dem eigenen Unternehmen zu fördern. Dennoch sollten Betriebe zur Prävention von Stress und zur Förderung der Mitarbeitergesundheit versuchen Arbeitsumgebungen zu schaffen, in denen das Erleben von Flow begünstigt wird, beispielsweise durch eine gute Passung von den Arbeitstätigkeiten und der Fähigkeiten der Mitarbeiter.

Weitere Informationen:
http://www.ifado.de

Quelle: idw

(nach oben)


Marine Organismen am Meeresboden überleben in saurer Umgebung

Dr. Boris Pawlowski Presse, Kommunikation und Marketing
Christian-Albrechts-Universität zu Kiel

Der Meeresboden ist ein besonders artenreicher Lebensraum für kalkbildende Arten. Seeigel, Seesterne, Kalkalgen und viele Schalentiere wie Muscheln sind hier zuhause. Diese kalkbildenden marinen Organismen spielen für das Ökosystem Ozean eine wichtige Rolle, denn sie erfüllen zahlreiche Funktionen. So sind sie Nahrungslieferant für andere Organismen oder speichern Kohlenstoff. Bereits heute nimmt der Ozean rund ein Viertel des vom Menschen ausgestoßenen Treibhausgases Kohlendioxid (CO2) aus der Atmosphäre auf – mit weitreichenden Folgen für die chemische Zusammensetzung des Meerwassers und die Lebenswelt vieler mariner Organismen.

In einer kürzlich im Fachmagazin Global Biogeochemical Cycles erschienenen Studie haben Wissenschaftlerinnen und Wissenschaftler der Christian-Albrechts-Universität zu Kiel (CAU) gemeinsam mit Kolleginnen und Kollegen vom GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel sowie weiteren internationalen Partnern aus den USA, Neuseeland und Großbritannien überraschende Erkenntnisse über am Meeresboden lebende (benthische), kalkbildende Organismen gewonnen. In die Studie sind die Daten von mehr als 100 marinen Benthos-Organismen, von der Küstenzone bis zur Tiefsee, von tropischen, gemäßigten und polaren Regionen, in die Untersuchungen eingeflossen.

Löst sich Kohlendioxid (CO2) im Meer, verändern sich die chemischen Parameter. Der pH-Wert sinkt und das Wasser wird saurer. Die Ozeanversauerung gehört damit zu den wichtigsten Forschungsbereichen, wenn es um die Auswirkungen des CO2-Ausstoßes auf benthische, kalkbildende Meeresorganismen und den Lebensraum Ozean geht. Viele Organismen nehmen Magnesium für den Bau ihrer Kalkskelette auf. Sie gelten dabei als besonders anfällig für die Auswirkungen von saurer werdendem Meerwasser. Im Gegensatz zu Kalzit oder Aragonit löst sich Magnesium in einer sauren Umgebung besonders schnell auf. Die Analyse der chemischen Lebensbedingungen der Organismen ergab jetzt, dass 24 Prozent und damit fast ein Viertel der analysierten Arten bereits heute in einer Umgebung leben, die sich ungünstig auf den Erhalt ihres Kalkskelettes auswirkt. Dieser Zustand wird Kalziumkarbonat (CaCO3)-Untersättigung genannt. „Das Ergebnis hat uns mehr als überrascht und ist für uns ein eindeutiges Zeichen dafür, dass sich viele marine Organismen sehr wohl im Laufe ihrer physiologischen und evolutionären Entwicklung an das saure Meerwasser anpassen und darin leben können“, ordnet der Erstautor der Studie Dr. Mario Lebrato vom Institut für Geowissenschaften an der CAU die Beobachtungen ein.

Für ihre Untersuchung hat das internationale Forscherteam einen verbesserten Indikator (ΩMg-x) bestimmt. Dieser beschreibt einen für verschiedene Meeresorganismen individuellen Sättigungsgrad von Magnesium im Meerwasser. Mit ihm kann der Sättigungsgrad des Meerwassers im Verhältnis zum Magnesiumgehalt verschiedener Organismen individuell bestimmt werden. Bisher konzentrieren sich die meisten Untersuchungen auf Kalzit oder Aragonit als Indikatoren für die Bildung von Kalkskeletten oder Kalkschalen unter bestimmten chemischen Verhältnissen. „Dadurch, dass wir den Sättigungsgrad des Meerwassers jetzt für jeden einzelnen Organismus mit Hilfe ihres Magnesiumgehaltes berechnen können, erschließt sich uns deren potentielle Gefährdung durch Ozeanversauerung. In unseren Berechnungen berücksichtigen wir Faktoren der natürlichen Lebensumgebung wie Tiefe und Temperatur“, so Lebrato weiter.

Trotzdem argumentieren die Forschenden, dass vorherige Schwellenwerte für risikobehaftete Organismen durchaus zutreffen könnten. Im Allgemeinen wird ein nominaler Wert von 1 als Anfangspunkt einer Auflösung, also „Risiko“ für den Organismus genutzt. Dieser Wert könnte aber für bestimmte Organismen nicht ausschlaggebend sein, da sie sich schon in dieser Umgebung entwickelt und an sie angepasst haben. Entsprechend sind weitere Forschungsarbeiten zur Löslichkeit von Magnesiumkalzit geplant, um zu verstehen, wie Organsimen mit bestimmten Bedingungen von Meereswasser umgehen. Der überraschend hohe Wert derjenigen Organismen am Meeresboden, die sich bereits an die veränderten, saureren Lebensbedingungen angepasst haben, scheint auf neuartige Anpassungsmechanismen von Arten hinzudeuten. So gab die Studie keine Einsichten in die allgemeine Anfälligkeit von Organismen in untersättigten Lebensbedingungen.

Offen ist auch die Frage, wie sich die übrigen 76 Prozent der Organismen, die sich noch nicht in saureren Bedingungen befinden, entwickeln werden, wenn die Folgen der Ozeanversauerung auch ihre Lebensräume erfassen. Weitere Aufschlüsse dazu erhoffen sich die Forschenden von der Untersuchung von Schwellenwerten aus Zeiten, als sich das Ozeanwasser entsprechend veränderte und sich Organismen allmählich daran anpassen mussten. Diese Untersuchungen sollen mit weiteren Feld- und Laborexperimenten kombiniert werden.

Diese Studie wurde im Rahmen des Exzellenzclusters „Ozean der Zukunft“ an der Christian-Albrechts-Universität zu Kiel durchgeführt.

Es stehen Fotos zum Download bereit:
www.uni-kiel.de/download/pm/2016/2016-268-1.jpg
Die am Meeresboden lebende Tiefseegarnele wurde von dem internationalen Forscherteam auf ihre Anpassungsfähigkeit an saures Meerwasser untersucht.
Foto: Serpent project
www.uni-kiel.de/download/pm/2016/2016-268-2.jpg
Schlangensterne am Meeresboden im Nordost-Atlantik.
Foto: Serpent project

Originalpublikation:
Lebrato, M., Andersson, A. J., Ries, J. B., Aronson, R. B., Lamare, M. D., Koeve, W., Oschlies, A., Iglesias-Rodriguez, M. D., Thatje, S., Amsler, M., Vos, S. C., Jones, D. O. B., Ruhl, H. A., Gates, A. R. and McClintock, J. B. (2016), Benthic marine calcifiers coexist with CaCO3-undersaturated seawater worldwide Global Biogeochemical Cycles . DOI 10.1002/2015GB005260

Kontakt:
Dr. Mario Lebrato
Christian-Albrechts-Universität zu Kiel
Institut für Geowissenschaften
E-Mail: mlebrato13@gmail.com

Weitere Informationen:
http://www.uni-kiel.de/pressemeldungen/index.php?pmid=2016-268-lebrato

Quelle: idw

(nach oben)


EU-Projekt will Jugendliche für Umweltveränderungen sensibilisieren

Verena Loos Presse & Kommunikation
Pädagogische Hochschule Heidelberg

Das EU-Projekt „Young Scientists as Change Explorers – Students Evaluating Environmental Change in Europe with Digital Space Technologies (YCHANGE)“ wird für zwei Jahre aus Mitteln des „Erasmus+“-Programms für allgemeine und berufliche Bildung, Jugend und Sport gefördert. Die Leitung haben Professor Dr. Alexander Siegmund und Dr. Thomas Kisser von der Abteilung Geographie der Pädagogischen Hochschule Heidelberg inne; die Forscher kooperieren mit der Karls-Universität Prag und der Universität Tallinn. Das Projekt will Schülerinnen und Schülern die Nutzung von Satellitenbildern im Unterricht nahebringen, um selbst Umweltveränderungen zu analysieren.

Das EU-Projekt „Young Scientists as Change Explorers – Students Evaluating Environmental Change in Europe with Digital Space Technologies (YCHANGE)“ wird für zwei Jahre aus Mitteln des „Erasmus+“-Programms für allgemeine und berufliche Bildung, Jugend und Sport gefördert. Die Leitung haben Professor Dr. Alexander Siegmund und Dr. Thomas Kisser von der Abteilung Geographie der Pädagogischen Hochschule Heidelberg inne; die Forscher kooperieren mit der Karls-Universität Prag (Tschechische Republik) und der Universität Tallinn (Estland). Das Projekt will Schülerinnen und Schülern die Nutzung von Satellitenbildern im Unterricht nahebringen, um selbst Umweltveränderungen zu analysieren.

In den neu konzipierten Workshops kommen laut Alexander Siegmund und Thomas Kisser didaktisch innovative Lehr-Lern-Module zum Einsatz, welche die Potenziale von Fernerkundungsdaten für die Bildungsarbeit eröffnen und individuelles, forschungsbasiertes Lernen fördern. Die Jugendlichen führen dabei auf Grundlage der Daten von modernen Erdbeobachtungssatelliten wie dem Copernicus-Programm der Europäischen Weltraumbehörde eigene Analysen der Satellitenbilder durch und stellen ihre Ergebnisse auf einer Web-Plattform online. „Durch das ‚YCHANGE‘-Projekt entsteht so ein Daten-Pool zu umweltrelevanten Fragestellungen für verschiedene Raumausschnitte Europas, der jedermann öffentlich zugänglich ist“, erklären Siegmund und Kisser.
Die ausgewählten Fallbeispiele orientieren sich dabei an Aspekten des Globalen Wandels, wie etwa Überschwemmungen oder der Suburbanisierung. „Auf diese Weise sollen die Schülerinnen und Schüler für die Folgen des menschlichen Einflusses auf die Umwelt sensibilisiert und durch den aktiven Umgang mit modernen Geotechnologien wie Satellitenbildern das Interesse an natur-, umwelt- und geowissenschaftlichen Themen gestärkt werden“, sagt Kisser. Im Sinne der Bildung für nachhaltige Entwicklung fördert die Arbeit mit Fernerkundungsdaten so das Verständnis von Jugendlichen für ökologische, ökonomische und soziale Zusammenhänge.

Laut Alexander Siegmund, der den Fachbereich Geographie leitet, erweitert das „YCHANGE“-Projekt das Profil der Abteilung im Bereich der Verknüpfung angewandter Fernerkundung und Fernerkundungsdidaktik um eine zusätzlich europäische Komponente. „Das Projekt fügt sich in eine Reihe solcher Bildungsvorhaben ein, wie die von der Deutschen Raumfahrtagentur geförderte Entwicklung einer adaptiven Lernplattform zum schulischen Einsatz von Satellitenbildern (‚Space4Geography‘), deren Nutzung auch maßgeblich durch die Kurs-Angebote der GIS-Station, dem Klaus-Tschira-Kompetenzzentrum für digitale Geomedien an der Pädagogischen Hochschule, gefördert wird.“ Für ihre innovativen Ansätze zur Nutzung und Vermittlung solcher modernen Geotechnologien wird die Abteilung Geographie von der UNESCO im Herbst als UNESCO-Chair ausgezeichnet.

Weitere Informationen:
http://www.ph-heidelberg.de/geographie

Quelle: idw

(nach oben)


Ausdauersport oder Krafttraining: Was bremst den Alterungsprozess am stärksten?

Michael Wichert Presse- und Öffentlichkeitsarbeit
Deutsche Herzstiftung e.V./Deutsche Stiftung für Herzforschung

Wilhelm P. Winterstein-Preis für Studie, die belegt: Moderater Ausdauersport und hochintensives Intervalltraining bremsen den Alterungsprozess stärker als Krafttraining

Wer moderat regelmäßig Ausdauersport wie Joggen betreibt, bremst den Alterungsprozess von Zellen und Organismus und schützt sich so besser vor Herz-Kreislauf-Erkrankungen wie Herzinfarkt, Herzschwäche und anderen altersbedingten Krankheiten wie Diabetes. Dass moderater Ausdauersport und hochintensives Intervalltraining in dieser Hinsicht dem reinen Krafttraining überlegen sind, haben nun erstmals der Kardiologe Dr. Christian Werner und Kollegen vom Universitätsklinikum des Saarlandes Homburg/Saar in einer Studie belegt, die mit dem Wilhelm P. Winterstein-Preis der Deutschen Herzstiftung (Dotation: 10.000 Euro) ausgezeichnet wurde*. „Die Studie liefert ein wichtiges Messverfahren zur genauen Bestimmung, wie effektiv eine spezielle Trainingsform auf die Zellalterung wirkt und so den Schutz vor Herz-Kreislauf-Erkrankungen erhöht. Ein großer Gewinn für die Prävention von Herzkrankheiten“, würdigt Prof. Dr. med. Thomas Meinertz, Vorstandsvorsitzender der Deutschen Herzstiftung, die (noch unveröffentlichte) Arbeit „Differentielle Effekte von Ausdauer-, Intervall- und Krafttraining auf die zelluläre Seneszenz“. (Tipps zur Ausdauerbewegung sind erreichbar unter www.herzstiftung.de/ausdauer-verbessern und unter www.herzstiftung.de/Herzschwaeche.html).

Zellalterung im Gefäßsystem gebremst
Das Alter ist der Hauptrisikofaktor für die Entstehung von Herz-Kreislauf-Erkrankungen. „Moderate und regelmäßige Ausdauerbewegung bremst den Alterungsprozess der Zellen im Gefäßsystem und erhöht so den Schutz vor Herz-Kreislauf-Erkrankungen. Joggen und Intervalltraining sind dabei dem Krafttraining anscheinend deutlich überlegen. Allerdings verbessern alle Trainingsformen die körperliche Fitness“, betont Dr. Werner. Ausschlaggebend für diesen Befund ist die Aktivierung des Enzyms Telomerase durch das Ausdauertraining sowie die Steigerung Telomer-erhaltender und -schützender Proteine (TRF2, POT1, Ku70) in den Blutzellen der Probanden. Telomere sind einsträngige Enden der Erbgutträger (Chromosomen) in den Zellen, die die Erbinformation schützen. Die Telomerase wirkt der Telomerverkürzung als Folge der Zellteilung während des Alterns entgegen, indem sie die Verkürzung verhindert oder gar eine Verlängerung bewirkt.

Neuer Biomarker für Vorbeugungsprogramme
Eine Trainingsstudie (randomisiert, kontrolliert) zeigte die erhöhte Telomeraseaktivität bei moderatem Ausdauertraining, intensivem Intervalltraining, aber nicht bei intensivem Krafttraining. Von 124 gesunden, nicht sportlich Aktiven (30-60 Jahre) haben 89 Personen in drei unterschiedlichen Trainingsgruppen (Ausdauer, Intervall, Kraft) sechs Monate lang 3 x 45 Minuten pro Woche trainiert. Die Personen der Kontrollgruppe trainierten nicht. In den Trainingsgruppen war die Telomeraseaktivität höher als in der Kontrollgruppe, am höchsten in der Ausdauertrainingsgruppe. Das Ausdauertraining bestand aus 45 Minuten Joggen im aeroben Bereich (bei 60 % der Herzfrequenzreserve, HRR). Das Intervalltraining erfolgte im Wechsel aus vierminütigen hohen Belastungsphasen (Rennen bei 80-90 % der HRR) und anschließender dreiminütiger Erholung bei niedriger Belastung (Rennen bei 65-70 % der HRR). Nach Aufwärmphase wurde diese Abfolge viermal durchgeführt, am Ende erfolgte ein Auslaufen. Das Krafttraining umfasste ein Zirkeltraining mit acht Übungen an Geräten. Die Telomeraseaktivität lässt sich messen. „Damit haben wir einen Biomarker, der es ermöglicht, Trainingsempfehlungen für gesunde Menschen (Primärprävention) und für Herzkranke (Sekundärprävention) abzuleiten. Gesunde Menschen können sich durch regelmäßige Ausdauerbewegung vor Herzkrankheiten schützen. Dabei sollte Krafttraining ergänzend zu Ausdauertraining durchgeführt werden, nicht aber als Ersatz dafür.“

*Der Wilhelm P. Winterstein-Preis wird alljährlich für eine wissenschaftlich herausragende Arbeit auf dem Gebiet der Herz-Kreislauf-Erkrankungen, bevorzugt aus einem patientennahen Forschungsbereich, vergeben. 2016 haben die Stifter Wilhelm P. und Ursula Winterstein den Preis für zwei ausgezeichnete Forschungsprojekte vergeben. Neben Dr. Werner wurde Dr. med. Hanna Fröhlich, Assistenzärztin der Abteilung für Kardiologie, Angiologie und Pulmologie am Universitätsklinikum Heidelberg, mit diesem Wissenschaftspreis ausgezeichnet (Presseinfo zu ihrer Forschungsarbeit folgt in Kürze).

Tipp: Wie sich die tägliche Dosis Ausdauerbewegung erhöhen lässt, erläutert der kostenfreie Ratgeber für mehr Bewegung „Jeder Schritt zählt!“ (20 Seiten), unter www.herzstiftung.de/ausdauer-verbessern oder telef. unter 069 955128400 erhältlich. Wichtige Informationen für Herzschwächepatienten bietet der Expertenbeitrag unter www.herzstiftung.de/Herzschwaeche.html

Download/Druckfähiges Bildmaterial (Bildunterschriften/-nachweise im Ansichts-PDF):
www.herzstiftung.de/presse/bildmaterial/forschung-dr-werner-23-2016.jpg
www.herzstiftung.de/presse/bildmaterial/forschung-winterstein-preis-23-2016.jpg
www.herzstiftung.de/presse/bildmaterial/forschung-dr-werner-klinik-23-2016.jpg
www.herzstiftung.de/presse/bildmaterial/sportratgeber-23-2016.jpg

23/2016
Informationen:
Deutsche Herzstiftung e.V.
Pressestelle:
Michael Wichert /Pierre König
Tel. 069/955128-114/-140
Fax: 069/955128-345
E-Mail: wichert@herzstiftung.de/
koenig@herzstiftung.de
www.herzstiftung.de

Weitere Informationen:
http://www.herzstiftung.de/ausdauer-verbessern
http://www.herzstiftung.de/Herzschwaeche.html
http://www.herzstiftung.de/presse/bildmaterial/forschung-dr-werner-23-2016.jpg
http://www.herzstiftung.de/presse/bildmaterial/forschung-winterstein-preis-23-20…
http://www.herzstiftung.de/presse/bildmaterial/forschung-dr-werner-klinik-23-201…
http://www.herzstiftung.de/presse/bildmaterial/sportratgeber-23-2016.jpg
Anhang
DHS_Dr. Werner_Sportstudie_Bildnachweise/Bildunterschriften
https://idw-online.de/de/attachment50573

Quelle: idw

(nach oben)


Leere Bäuche lernen gerne?

Anke Schlee Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Psychiatrie

Ein voller Bauch studiert nicht gern – dieses Credo kennen wir noch aus Schulzeiten. Aber wie steht es mit Phasen des Hungers? Seit mehr als einem Jahrzehnt ist bekannt, dass das Hunger-Hormon Ghrelin in Nagetiermodellen die Denkleistung verbessert, vor allem auf dem Feld des räumlichen Lernens. Forscher des Max-Planck-Instituts für Psychiatrie sahen sich die Wirkung des Peptids am Menschen an. Hier ist die Lage komplexer.

Nicht überall in der Natur ist der Akt der Nahrungsaufnahme so einfach, dass der Griff in den Kühlschrank genügt, um sich mit Energie und Nährstoffen zu versorgen. Nahrung in ausreichender Menge zu finden, zu horten, zu verteidigen und zu einem passenden Zeitpunkt zu konsumieren fällt im Tierreich in die Kategorie der kognitiven Höchstleistungen. Daher verwundert es nicht, dass zahlreiche Hormone, die den Energiehaushalt eines Organismus steuern, auch in Denkprozesse modulierend eingreifen und diese teils sogar positiv beeinflussen. So verhält es sich auch im Falle von Ghrelin – zumindest, wenn man den Blick auf Mäuse und Ratten richtet.

Seit mehr als einem Jahrzehnt ist dieser Sachverhalt mehrfach publiziert, nur sehr wenig war jedoch bislang darüber bekannt, ob und wie Ghrelin am Menschen kognitive Leistungen beeinflusst. Zum ersten Mal in dieser Form untersuchten Forscher der Arbeitsgruppe Prof. Axel Steiger am Max-Planck-Institut für Psychiatrie, welche Auswirkungen Ghrelin auf räumliches Lernen und eine ganze Reihe weiterer Hirnsport-Disziplinen am Menschen hat. Dazu mussten 21 gesunde, männliche Probanden zunächst einen virtuellen Spaziergang unternehmen: Die Forscher modifizierten ein Freeware-Computerspiel für ihre Zwecke, die Probanden „liefen“ durch eine digitale Vorstadt-Umgebung, während in Echtzeit mit einem hochmodernen 3T-Magnetresonanztomographie-Gerät die Aktivität verschiedener Hirnareale aufgezeichnet wurde (fMRT).

Auf der digitalen Route wurden Begriffe eingeblendet, die sich die Probanden merken sollten. Einmal wurde dabei Ghrelin verabreicht, bei einem weiteren Termin Placebo. Welche Substanz jeweils im Spiel war, wussten weder die Probanden noch die verabreichenden Forscher – nur die im Hintergrund agierenden Ärzte waren informiert. In diesem doppelblinden Modus wurden die Probanden tags darauf gefragt, welche Begriffe ihnen im Gedächtnis geblieben waren. Das Ergebnis wurde jüngst im renommierten Fachmagazin NeuroImage publiziert: Es gab keinerlei Unterschiede zwischen Ghrelin und Placebo.

Welche Schlussfolgerungen lassen sich also ziehen? Ghrelin scheint keine Wunderdroge für Menschen zu sein, die uns nach intravenöser Gabe zu wandelnden Gedächtniswundern werden lässt, so viel scheint festzustehen. Wie verhält es sich aber mit der langfristigen Gabe des Hormons? Wie werden kognitive Prozesse emotionalen Inhalts beeinflusst, zum Beispiel die Wahrnehmung einer Speise als attraktiv oder uninteressant? Welche Auswirkungen haben die endogenen, das heißt ohnehin vom menschlichen Organismus synthetisierten Mengen an Ghrelin auf unsere Gedächtnisleistung? Dieser Forschungsansatz hilft möglicherweise auch beim Verständnis von Entwicklung und Therapie von Krankheiten wie Anorexie, Diabetes und Parkinson sowie Alzheimer-Demenz.

Quelle: idw

(nach oben)


Wärmetechnische Komponenten mit Schaum verbessern

Rüdiger Mack Marketingkommunikation
FIZ Karlsruhe – Leibniz-Institut für Informationsinfrastruktur GmbH

Die Energieeffizienz von Wärmeübertragern, Konvektoren und Kühlelementen lässt sich noch verbessern. Hier bieten offenporige Strukturen aus Metallschaum, die über eine gute Wärmeleitfähigkeit verfügen und eine große Oberfläche bilden, interessante Möglichkeiten. Das BINE-Projektinfo „Metallschaum – ein Werkstoff für die Wärmetechnik“ (11/2016) stellt die Entwicklungsarbeiten an diesen Materialien vor. Ziele sind, die Herstellungsverfahren zu optimieren, die Kosten zu senken und die Werkstoffe auf Testständen zu erproben. Die Materialeigenschaften der verschiedenen Legierungen werden in einer Datenbank erfasst.

Offenporige Metallschäume bieten höhere Wärmeübertragung
In vielen Komponenten der Wärmetechnik zirkuliert im Inneren eine Flüssigkeit oder ein Gas als Wärmeträgermedium. Offenporige Metallschäume verfügen gegenüber den bisher in den Bauteilen meist üblichen mäandrierenden Rohrbündeln oder Lamellen über den Vorteil der größeren Oberfläche. Dies erleichtert die Übertragung großer Wärmemengen. Die Metallschäume können mit Zellenweiten zwischen 0,3 und 5 mm hergestellt werden. Die Produktion startet mit offenzelligen Polyurethanschäumen. Diese werden mit einer dünnflüssigen Keramiksuspension umgossen. Durch Erhitzen wird anschließend der Kunststoff im Inneren verbrannt. Die so entstandene Gussform kann mit verschiedenen Metalllegierungen in einem Feingussverfahren oder einem pulvermetallurgischen Verfahren befüllt werden.

Offenporige Metallschäume bieten sich beispielsweise für einen Einsatz in Autokühlern, Hochleistungsverdampfern und Latentwärmespeichern an. Das Fraunhofer-Institut für Fertigungstechnik und Angewandte Materialforschung in Dresden führt die Forschungsarbeiten gemeinsam mit industriellen Partnern durch.

Das BINE-Projektinfo ist kostenfrei beim BINE Informationsdienst von FIZ Karlsruhe erhältlich – unter www.bine.info oder 0228 – 92379-0.

BINE Informationsdienst ist ein Service von FIZ Karlsruhe und wird vom Bundesministerium für Wirtschaft und Energie (BMWi) gefördert.

FIZ Karlsruhe – Leibniz-Institut für Informationsinfrastruktur ist eine gemeinnützige Gesellschaft, die im öffentlichen Auftrag weltweit publizierte wissenschaftliche Information zugänglich macht und entsprechende Dienstleistungen zur Verfügung stellt. FIZ Karlsruhe
hat die Aufgabe, den nationalen und internationalen Wissenstransfer und die Innovationsförderung zu unterstützen.

Weitere Informationen:

http://www.bine.info/en – BINE Information Service – Energy research for practical applications
http://www.twitter.com/bineinfo – Folgen Sie BINE Informationsdienst aktuell auf Twitter
https://www.facebook.com/BINE.Informationsdienst – Auch auf Facebook mit mehr News und Infos rund um die Uhr

Quelle: idw

(nach oben)


Dem Alter kann man kein Schnippchen schlagen: Warum wir alt aussehen – oder eben nicht

Nina Meckel Presse- und Öffentlichkeitsarbeit
Deutsche Gesellschaft für Geriatrie (DGG)

Menschen altern unterschiedlich: Der eine bemerkte schon im Studium das erste graue Haar, der andere wirkt noch als Rentner jugendlich-sportlich. Doch was sind die Gründe dafür? Wie lässt sich das biologische Alter einer Person bestimmen und welche Rückschlüsse ergeben sich daraus für den weiteren Alterungsprozess? Um den Antworten auf diese Fragen näher zu kommen, hat Professor Dr. Alexander Bürkle fünf Jahre lang die Gesundheitsdaten von 3.300 Probanden im Alter von 35 bis 74 Jahren protokolliert. Ein Datenschatz, der noch unter vielen anderen Gesichtspunkten Erkenntnisse liefern wird. In drei Jahren wissen wir mehr – so hoffen die Wissenschaftler.

„Um wahrzunehmen, dass Menschen unterschiedlich altern, muss man kein Wissenschaftler sein“, so Professor Bürkle. Jeder kenne aus seinem Bekanntenkreis Männer oder Frauen, denen man ihr kalendarisches Alter nicht ansehe. „Kürzlich war ich beim Klassentreffen zur Feier von 40 Jahren Abitur. Dort traf ich einige Schulkameraden, die deutlich älter wirkten. Es gab aber auch eine Mitschülerin, die man für zehn bis 15 Jahre jünger gehalten hätte.“ Warum nur? Was ist der Jungbrunnen? Was lässt andersherum einen Menschen rasant altern? Diese Fragen beschäftigen Bürkle, der Molekulare Toxikologie im Fachbereich Biologie an der Universität Konstanz lehrt, seit vielen Jahren. Was er mit Sicherheit sagen kann: „Man kann dem Alter kein Schnippchen schlagen bezüglich Gesundheit und kognitiver Fähigkeiten!“

Rund 400 Biomarker auf Aussagekraft untersucht
Woran es aber liegt, dass einige bis ins hohe Alter rege und von gravierenden Krankheiten verschont bleiben, während andere schon in mittleren Jahren deutlich verbraucht wirken – hierauf hat die Forschung bisher keine eindeutigen Antworten gefunden. Einzelne Biomarker, die Auskunft über das tatsächliche biologische Alter einer Person und ihren weiteren Alterungsprozesses geben könnten, erwiesen sich in der Vergangenheit als nicht haltbar.

Dies könnte sich jetzt ändern! Gefördert von der EU-Kommission, haben sich 26 Arbeitsgruppen aus 14 Ländern an der multizentrischen Studie MARK-AGE beteiligt. Fünf Jahre lang wurden die Gesundheitsdaten von rund 3.300 Probanden im Alter von 35 bis 74 Jahren protokolliert.

Besonders spannend: Unter den Teilnehmern befanden sich die Nachkommen von Personen, die zuvor an dem so genannten GEHA-Projekt (Genetics of Healthy Aging) beteiligt waren. Damalige Probanden mussten mindestens 90 Jahre alt und überdurchschnittlich gesund sein sowie Geschwister vorweisen, die gleichermaßen langlebig und fit waren. „Uns interessierte, ob man bei diesen ‚genetisch begünstigten‘ Menschen schon im mittleren Lebensalter eine Verlangsamung des Alternsprozesses feststellen kann“, so Bürkle. „Denn es deutet alles darauf hin, dass Altern eine Mischung aus Genetik und Umwelteinflüssen ist.“

Knapp drei Jahre dauerte die Erstauswertung der Daten bisher. Rund 400 Biomarker wurden auf ihre Aussagekraft geprüft. Die zehn relevantesten wird Professor Bürkle auf dem größten deutschsprachigen Kongress für Altersmedizin in Stuttgart Anfang September vorstellen. Bis dahin will er noch nichts zu den Ergebnissen der Studie verraten. „Aber das ist nur der Anfang“, ist er überzeugt. „Das ist ein Datenschatz, der noch unter vielen anderen Gesichtspunkten Erkenntnisse liefern wird.“

Zur Person:
Prof. Dr. Alexander Bürkle studierte Medizin an der Albert-Ludwigs-Universität Freiburg, wo er auch promovierte. Von 1984 bis 2000 war er am Deutschen Krebsforschungszentrum Heidelberg tätig. Die Habilitation erfolgte 1995 an der Ruprecht-Karls-Universität Heidelberg. Von 2000 bis 2002 war er Senior Lecturer am Department of Gerontology an der University of Newcastle upon Tyne in Großbritannien. Seit 2002 lehrt er Molekulare Toxikologie im Fachbereich Biologie an der Universität Konstanz.
Bürkle ist unter anderem Vorstandsmitglied der Deutschen Gesellschaft für Toxikologie und Mitglied des Fachkollegiums Medizin der Deutschen Forschungsgemeinschaft. 2011 wurde er mit dem GT-Toxicology-Preis für seine Forschung zur biochemischen Wirkung des Enzyms „Poly[ADP-Ribose]Polymerase“ (PARP), das die Erbgutreparatur beeinflusst, ausgezeichnet.

Deutsche Gesellschaft für Geriatrie (DGG)
Die Deutsche Gesellschaft für Geriatrie (DGG) ist die wissenschaftliche Fachgesellschaft der Ärzte, die sich auf die Medizin der späten Lebensphase spezialisiert haben. Wichtige Schwerpunkte ihrer Arbeit sind neben vielen anderen Bewegungseinschränkungen und Stürze, Demenz, Inkontinenz, Depressionen und Ernährungsfragen im Alter. Häufig befassen Geriater sich auch mit Fragen der Arzneimitteltherapie von alten Menschen und den Wechselwirkungen, die verschiedene Medikamente haben. Bei der Versorgung geht es darum, den alten Menschen ganzheitlich zu betreuen und ihm dabei zu helfen, so lange wie möglich selbstständig und selbstbestimmt zu leben. Die DGG wurde 1985 gegründet und hat heute rund 1700 Mitglieder.

Deutsche Gesellschaft für Gerontologie und Geriatrie (DGGG)
Die Deutsche Gesellschaft für Gerontologie und Geriatrie ist bewusst interdisziplinär ausgerichtet. Sie unterstützt zum einen Gerontologen und Geriater aktiv in der Forschung und Lehre über das Altern. Daneben finden hier alle in diesem Arbeitsfeld tätigen Berufsgruppen die Möglichkeit, sich fachlich auszutauschen und zu diskutieren – z. B. Biologen, Psychologen, Sozial- und Pflegewissenschaftler sowie Alten- und Krankenpfleger. Darüber hinaus ist der die Förderung des Nachwuchses ein besonderes Anliegen der Fachgesellschaft. Die DGGG wurde 1990 gegründet und hat heute rund 1200 Mitglieder.

Weitere Informationen:
http://www.dggeriatrie.de/presse-469/1142-pm-dem-alter-kann-man-kein-schnippchen…

Anhang
Dem Alter kann man kein Schnippchen schlagen: Warum wir alt aussehen – oder eben nicht
https://idw-online.de/de/attachment50578

Quelle: idw

(nach oben)


„Roboter helfen uns, den Menschen besser zu verstehen“

Dr. Ulrich Marsch Corporate Communications Center
Technische Universität München

Es war in mehrfacher Hinsicht ein bewegendes Ereignis: Bei der Eröffnungszeremonie der Fußball-WM 2014 in Brasilien brachte ein querschnittsgelähmter Brasilianer mit einem Schuss den ersten Ball ins Rollen. Der junge Mann trug ein Exoskelett, dessen Bewegungen er mit der Kraft seiner Gedanken steuerte. Zwei Jahre später veröffentlichen die Forscher des Walk-Again-Projekts nun eine aufsehenerregende Studie: Das Training an der Mensch-Maschine-Schnittstelle hat die Genesung der Patienten gefördert. Prof. Gordon Cheng war maßgeblich an der Entwicklung des Exoskeletts beteiligt. Im Interview spricht er über die neuen Ergebnisse und darüber, wie unsere Zukunft mit den Robotern aussehen könnte.

Was begeistert Sie so an Robotern?
Ich war schon in meiner Kindheit von Robotern fasziniert. In den Zeichentricksendungen, mit denen ich aufgewachsen bin, ging es immer darum, dass Roboter den Menschen helfen. Ich hatte daher immer eine sehr positive Einstellung zu ihnen. Diese Faszination sowie das technische und wissenschaftliche Interesse für Roboter sind bis heute geblieben.

Haben Sie einen Lieblingsroboter?
Alle Roboter aus Star Wars, besonders R2D2 natürlich. Und Astro Boy ist einer meiner Favoriten. Das ist ein Roboter, der fortwährend den Menschen hilft, was mir sehr gefällt.

Auch beim Projekt Walk Again soll die Technik den Menschen unterstützen. Was war hier Ihr Ansatz?
Walk Again wurde 2008 ins Leben gerufen. Forschungsleiter ist mein guter Freund Prof. Miguel Nicolelis. Er ist einer der Top-Experten in den Neurowissenschaften, insbesondere im Bereich der Mensch-Maschine-Schnittstelle. Wir hatten das Ziel, ein robotergesteuertes System zu entwickeln, das gelähmten Menschen helfen kann, wieder zu fühlen und zu gehen.

Wie würden Sie den Moment beschreiben, in dem der junge Mann im Stadion in Brasilien gegen den Ball getreten hat?
Das war ein wundervoller Moment, ein Meilenstein. Wir haben viele Monate damit verbracht, Patienten beim Umgang mit dem Exoskelett zu trainieren. Wir wollten sehen, ob es möglich wäre, dass sie mit seiner Hilfe gehen und fühlen können. Viele Wissenschaftler aus verschiedenen Fachrichtungen haben zusammengearbeitet, um das zu erreichen. Für uns alle war es ein sehr wichtiger Augenblick.

Nun gibt es neue Ergebnisse aus dem Projekt. Könnten Sie diese kurz zusammenfassen?
In den vergangenen zwei Jahren hat das medizinische Team die klinischen Studien an den Patienten fortgeführt. Dabei stellte sich heraus, dass sich ihr physiologischer und mentaler Zustand verbessert hat. Sie konnten ein gewisses Maß an Kontrolle über die Bewegung ihrer Beine wiedererlangen. Das hat uns sehr überrascht.

Welche mögliche Erklärung könnte es dafür geben?
Die sogenannte neuronale Plastizität spielt eine Rolle. Das Gehirn kann sich mithilfe von Training über eine gewisse Zeit umorganisieren. Es gibt eine Menge Theorien über das Körperschema, eine Repräsentation unseres Körpers im Gehirn, mit dessen Hilfe wir Empfindungen und Bewegungen zuordnen können. Mit dem entsprechenden Training können wir aber neue Vernetzungen im Gehirn erzeugen, die es uns erlauben, das Körperschema neu zu organisieren und ein neues Element wie das Exoskelett zu integrieren.

Wie konnten die Patienten die Beinbewegungen des Exoskeletts überhaupt wahrnehmen?
Ein Schlüsselelement war die taktile Rückmeldung, die es den Patienten ermöglicht, das Aufsetzen bei jedem Schritt zu fühlen. Dafür haben wir hier an der TU München eine künstliche Haut entwickelt. Ihre Sensoren können Vibration, Temperatur, Druck und Annäherung messen. Die künstliche Haut wird unter den Füßen des Roboters angebracht. Mithilfe der Sensoren kann das Exoskelett jeden Schritt detektieren. Diese Information wird weitergeleitet und die Patienten erhalten über kleine Motoren an den Armen ein taktiles Feedback. Nach einer gewissen Zeit verbindet das Gehirn dieses Feedback mit den Schritten. Damals wussten wir nicht, ob das wirklich funktionieren würde. Aber nach sechs Monaten intensiven Trainings berichteten die Patienten, dass sie Bewegung des Exoskeletts tatsächlich als Schritte wahrnehmen konnten.

Was ist das Besondere an der künstlichen Haut?
Wir haben eine neue Generation künstlicher Haut entwickelt, die Annäherung und Berührung detektieren kann. Mit ihrer Hilfe ist es zum Beispiel möglich, einen Roboter sicher zu machen. Ein Standard-Industrieroboterarm würde normalerweise nicht bemerken, ob Sie sich ihm nähern. Wir haben eine künstliche Haut entwickelt, die sehr sensitiv ist. Man kann den Arm dann mit sehr leichten Berührungen kontrollieren. Eine der wichtigsten Besonderheiten dieser künstlichen Haut ist, dass sie ihr eigenes Körperschema organisieren kann. Der Roboter weiß automatisch, wo sich die Haut befindet und wo sie berührt wird. Das Konzept des Körperschemas, das in unserem Gehirn unseren Körper repräsentiert, haben wir auf den Roboter übertragen.

Können wir von Robotern lernen?
Die Arbeit an humanoiden Robotern hilft uns, bessere Roboter für Menschen zu konstruieren. Es ermöglicht uns gleichzeitig, die Menschen besser zu verstehen. Wenn wir einen humanoiden Roboter bauen, der wie ein Mensch laufen kann, wird uns das dabei helfen, ein besseres Exoskelett zu entwickeln. Der Algorithmus, den wir für den Lauf-Roboter programmieren, kann auch direkt auf das Exoskelett angewandt werden, das einem Menschen helfen kann, wieder mobil zu werden.

Wird es in der Zukunft normal sein, dass Menschen und Roboter zusammenleben?
Ich hoffe es. Es wird eine ähnliche Evolution wie bei der Mikrowelle und dem Handy stattfinden und sie werden Teil unseres Lebens werden. Und ich wette, ein positiver Teil.

Wie sind die Pläne für die Zukunft des Walk-Again-Projekts?
Ich hoffe, dass all die Technologie, die wir entwickeln wie die nächste Generation des Exoskeletts oder der künstlichen Haut den Menschen in Zufkunft noch unmittelbarer in ihrem Alltag helfen kann.

Weitere Informationen:
http://www.tum.de/die-tum/aktuelles/pressemitteilungen/kurz/article/33312/

Quelle: idw

(nach oben)


Nützlicher Appetit von Algen

Erhard Jakobs Pressestelle
Technische Hochschule Mittelhessen

Die Entwicklung technischer Lösungen für den Gewässerschutz gehört zu den fachlichen Schwerpunkten des Kompetenzzentrums für Energie- und Umweltsystemtechnik (ZEuUS) der TH Mittelhessen. Zurzeit arbeitet ein Team der Hochschule, das von Prof. Dr. Ulf Theilen geleitet wird, an einem hessischen Pilotprojekt zur „Phosphor-Elimination durch Mikroalgen“. Für dieses Forschungsvorhaben wurde ein Versuchsbetrieb auf der Kläranlage von Rotenburg an der Fulda eingerichtet.

Bei einer Fachtagung an der THM hatte Prof. Theilen vor einigen Jahren über die Phosphorbelastung hessischer Gewässer berichtet und aufgezeigt, dass 65 Prozent davon aus den kommunalen Kläranlagen stammen.

Vom Hessischen Ministerium für Umwelt, Klimaschutz, Landwirtschaft und Verbraucherschutz sowie den Stadtwerken Rotenburg mit 620.000 Euro gefördert kooperiert die Arbeitsgruppe der THM in dem laufenden Projekt mit der Phytolutions GmbH aus Bremen. Die Partner verfolgen mehrere Ziele. Sie wollen die Einleitung von Nährstoffen in die Fulda verringern, die Konzentrationen von Phosphor und Stickstoff im Ablaufwasser der Kläranlage senken und die entstehende Biomasse aus Algen für die Biogasgewinnung nutzen.

Dabei kommt ein „Photobioreaktor“ zum Einsatz, in dem die Mikroalgen unter Einwirkung von Sonnenlicht und Kohlenstoffdioxyd wachsen. Phosphate und Stickstoffe, die noch im Ablauf der Kläranlage enthalten sind, sollen von den Algen aufgenommen und durch Abtrennung der Biomasse daraus entfernt werden.

Nach rund einem Jahr – Projektstart war im Sommer 2015, die Laufzeit endet im Juni 2017 – zieht ZEuUS-Sprecher Ulf Theilen eine positive Zwischenbilanz. „Das Ziel ist absolut erreicht worden, die Alltagstauglichkeit damit bewiesen“, bewertet der Ingenieurwissenschaftler die bisherigen Resultate. Die Mikroalgen leisten also, was die Fachleute erwartet hatten.

In den entnommenen Abwasserproben seien nach dem Photobioreaktor Phosphate kaum noch nachweisbar. Auch den Stickstoffgehalt habe man gesenkt. Nach Ansicht des Professors für Siedlungswasserwirtschaft und anaerobe Verfahrenstechnik können diese Ergebnisse dazu führen, dass künftig in der Rotenburger Kläranlage deutlich weniger oder gar keine Fällmittel (Chemikalien) mehr anfallen, die üblicherweise zur Phosphorelimination genutzt werden.

In einem nächsten Schritt will man testen, ob es erfolgversprechend und wirtschaftlich ist, eine solche Algen-Anlage zur Abwasserreinigung in großem Maßstab zu bauen. Im Auftrag des hessischen Umweltministeriums soll abschließend ein Leitfaden zum Einsatz der neu entwickelten Technologie erarbeitet werden.

Weitere Informationen:
http://www.thm.de/site/forschung/forschung-an-der-thm/kompetenzzentren/zeuus.htm…

Quelle: idw

(nach oben)


Mit Twitter-Daten Grippewelle vorhersagen – Universität Osnabrück kooperiert mit Weltkonzern IBM

Dr. Utz Lederbogen Stabsstelle Kommunikation und Marketing
Universität Osnabrück

OSNABRÜCK. Die Osnabrücker Kognitionswissenschaftler und ihre Studierenden entwickeln neue und intelligente Expertensysteme, die im Alltag helfen, die Flut an täglichen Informationen effektiv zu nutzen. Um mit großen Datenmengen arbeiten zu können, ist das Institut für Kognitionswissenschaft der Universität Osnabrück eine Kooperation mit IBM eingegangen und erhält für seine Forschungsvorhaben zur computergestützten Intelligenz Zugriff auf das IBM Computersystem »Watson«. Die Universität Osnabrück gehört neben den amerikanischen Eliteuniversitäten Stanford und Berkeley zu den ersten Hochschulen in Europa, die das Computersystem »Watson« nicht nur nutzen, sondern auch weiterentwickeln.

Das Osnabrücker Team von Prof. Dr. Gordon Pipa und Prof. Dr. Kai-Uwe Kühnberger setzt den neuen intelligenten Kommilitonen zum Beispiel ein, um mit Twitter-Daten Grippewellen vorherzusagen. Zur Analyse nutzen die Wissenschaftler die etwa 500 Millionen Tweets, die täglich weltweit abgesetzt werden. »Watson ist ein kognitives System, und deshalb stellt es eine neue Generation von Suchmaschinen dar«, so Pipa. »Watson versteht den Inhalt von Nachrichten und geht damit weit über das Suchen von Schlüsselwörtern hinaus.«

Erste Forschungsergebnisse haben die Osnabrücker Masterstudierenden Pascal Nieters und Hendrik Berkemeyer in Boston mit Entwicklern von Watson diskutiert und weiterentwickelt. »Mit diesem Watson-System haben unsere Studierende innerhalb nur eines halben Jahres ein Projekt umgesetzt, das marktrelevant ist und bei IBM zu großer Begeisterung führte«, berichtet der Osnabrücker Kognitionswissenschaftler Prof. Pipa. Das Projekt zeige, dass die Qualität der Forschung am Institut für Kognitionswissenschaft in Osnabrück vergleichbar ist mit der an Eliteuniversitäten in den USA.

Neben der Forschung wird die Arbeitsgruppe »Watson« einsetzen, um die Studierenden mit Cognitive Computing praktisch vertraut zu machen. Dazu lernen die Studierenden in Projektteams Technologien an der Schnittstelle zwischen Informatik und Linguistik zu nutzen, um Anwendungen selbst zu entwickeln. »Im Kern geht es dabei um die statistische Modellierung der Bedeutung sprachlicher Ausrücke zur automatischen Analyse von Abhängigkeiten zwischen unseren Fragen und dem Überfluss von Wissen, das im Internet vorhanden ist«, erläutert Pipa. »So werden Maschinen intelligent und können riesige Mengen Text automatisch lesen und verstehen, um uns dann auf die entsprechenden Quellen im Internet hinzuweisen, die Antworten auf unseren Fragen beinhalten.«

Bezogen auf Twitter-Daten zu Grippewellen bedeutet dies: Es macht einen Unterschied ob jemand twittert, dass er sich gegen Grippe impfen lässt, oder ob er schreibt, dass er bereits an Symptomen leidet. Um diesen Unterschied zu erkennen, muss Watson den Satz verstehen. »Das gibt uns die Möglichkeit, die Entwicklung von Grippewellen vorherzusagen«, so der Osnabrücker Wissenschaftler.

»Die Kognitionswissenschaft repräsentiert den interdisziplinären Geist der Universität Osnabrück und ist ein wichtiger Baustein zu unserer internationalen Sichtbarkeit. Mit dem Cognitive Computing wird ein neues hoch relevantes und zukunftsträchtiges Forschungsfeld erschlossen«, so Prof. Dr. Wolfgang Lücke, Präsident der Universität Osnabrück.

Quelle: idw

(nach oben)


SmartEnCity – Auf dem Weg zu intelligenten und energieneutralen Städten in Europa

Anette Mack Presse- und Öffentlichkeitsarbeit
Steinbeis-Europa-Zentrum

SmartEnCity heißt ein neues europäisches Projekt, das vom Forschungs- und Innovationsprogramm Horizont 2020 der Europäischen Union gefördert wird. 35 Partner aus sechs Ländern arbeiten daran, intelligente und energieneutrale Städte in Europa Realität werden zu lassen. Nach dem Schneeballprinzip werden die Maßnahmen zunächst in den drei Demonstrationsstädten Vitoria-Gasteiz, Tartu und Sønderborg gestartet. Es folgen Lecce und Asenovgrad, die von den Praxiserfahrungen profitieren. Die guten Beispiele werde für weitere Nachahmer zur Verfügung gestellt. Interessierte Städte können sich im SmartEnCity-Netzwerk registrieren und erhalten Projektergebnisse und Hilfestellungen aus erster Hand.

SmartEnCity heißt ein neues europäisches Projekt, das durch das Forschungs- und Innovationsprogramm Horizont 2020 der Europäischen Union gefördert wird. 35 Partner aus sechs Ländern arbeiten unter der Koordination von TECNALIA Research & Innovation daran, intelligente und energieneutrale Städte in Europa Realität werden zu lassen. Nach dem Schneeballprinzip werden die Maßnahmen zunächst in den drei Demonstrationsstädten Vitoria-Gasteiz, Tartu und Sønderborg gestartet. Es folgen Lecce und Asenovgrad, die direkt von den Praxiserfahrungen profitieren werden. Die guten Beispiele werden zusammengefasst und für weitere Nachahmer zur Verfügung gestellt. Interessierte Städte können sich im neuen SmartEnCity-Netzwerk registrieren und erhalten Projektergebnisse und Hilfestellungen aus erster Hand.

SmartEnCity zielt darauf ab, Strategien zu entwickeln, die in weiteren europäischen Städten konkret und effektiv angewendet werden können. Ziel ist es, den Energieverbauch nachhaltig zu verringern und insgesamt die Energieversorgung aus erneuerbaren Quellen zu erhöhen. Dabei stehen besonders kleine und mittelgroße Städte im Fokus. Die Aktivitäten der Projektpartner umfassen neben der Sanierung von Gebäuden auch intelligente integrierte Infrastrukturen, nachhaltige Mobilität und die Nutzung von IKT (Informations- und Kommunikationstechnologien).

Dieser integrierte Ansatz wird zunächst in den drei Leuchtturm-Demonstrationsstädten Vitoria-Gasteiz in Spanien, Tartu in Estland und Sønderborg in Dänemark im Detail definiert, geplant und schließlich in die Tat umgesetzt. Die bewährten Maßnahmen werden dann in die beiden Städte Lecce (Italien) und Asenovgrad (Bulgarien) übertragen, um festzustellen, ob die Prozesse standardisiert und somit leichter von anderen Städten nachgeahmt werden können.

„Unsere Vision ist es, intelligente Städte zu schaffen, die nachhaltig und klimafreundlich sind und Inklusion berücksichtigen; Städte, die die Lebensqualität der Bürger verbessern, Arbeitsplätze, Wohlstand und Möglichkeiten des Wachstums schaffen, mit gleichen Chancen für alle,“ betont Francisco Rodríguez Pérez-Curiel, Projektkoordinator von SmartEnCity.

Um es möglichst vielen europäischen Städten zu ermöglichen, von den Erfahrungen des Projekts zu lernen, wird ein SmartEnCity-Netzwerk von interessierten Städten aufgebaut. Dieses Netzwerk wurde nun offiziell Anfang Juni 2016 in Tartu (Estland) ins Leben gerufen, wo die Leuchtturmstädte aus dem Projekt mit Städten aus der Ostseeregion zusammenkamen. Gemeinsam und über Ländergrenzen hinweg diskutierten sie über den Weg zu klimaneutralen Städten und das gegenseitige Interesse am SmartEnCity-Netzwerk.

„Ich bin sehr zufrieden mit der Resonanz, die wir auf der Eröffnungsveranstaltung des SmartEnCity-Netzwerks in Tartu erhalten haben. Die Städte scheinen ein großes Interesse daran zu haben, ihren CO2-Ausstoß zu verringern, innovative Ansätze zu testen und sich über die ehrgeizigen Ziele und bewährte Verfahren auszutauschen“, sagt Peter Rathje, verantwortlicher Projektpartner für das Netzwerk. Er richtet einen eindringlichen Appell an alle kleinen und mittleren Städte in Europa: „Treten Sie unserem SmartEnCity-Netzwerk bei – Sie müssen keine Hauptstadt sein, um eine Vorreiterrolle in Europa zu übernehmen!“.

Informationen über das SmartEnCity-Netzwerk:
http://smartencitynetwork.eu
www.smartencity.eu

Kontakt:
TECNALIA Research & Innovation
Francisco Rodríguez Pérez-Curiel / Silvia Urra Uriarte (Projektkoordinatoren)
E-Mail: francisco.rodriguez@tecnalia.com / silvia.urra@tecnalia.com
Telefon: +34 946 430 850

SmartEnCity wird durch das Forschungs- und Innovationsprogramm Horizont 2020 der Europäischen Union gefördert. Förderungsvertragsnummer: 691883
Laufzeit: 66 Monate (Februar 2016 – Juli 2021)
Koordinator: TECNALIA Research & Innovation
Konsortium: 35 Partner aus 6 Ländern (Bulgarien, Dänemark, Deutschland, Estland, Italien, Spanien)

Weitere Informationen:
http://smartencitynetwork.eu – Informationen über das SmartEnCity-Netzwerk:
http://www.smartencity.eu – Projektwebsite (momentan noch im Aufbau)

Quelle: idw

(nach oben)


Zuckerabhängigkeit: Schalter für Zuckertransport ins Gehirn entdeckt

Sonja Opitz, Abteilung Kommunikation
Helmholtz Zentrum München – Deutsches Forschungszentrum für Gesundheit und Umwelt

Unser Gehirn holt sich Zucker durch einen aktiven Prozess aus dem Blut. Das haben jetzt Diabetesforscher am Helmholtz Zentrum München, entdeckt. Bisher ging man davon aus, dass es sich dabei um einen rein passiven Vorgang handelte. Wissenschaftler um Professor Matthias Tschöp berichten im renommierten Fachmagazin ‚Cell‘, dass der Zuckertransport ins Gehirn durch sogenannte Stützzellen reguliert wird. Die Forscher konnten zudem zeigen, dass diese Zellen auf Hormone wie Insulin oder Leptin reagieren – dies hielt man bisher nur bei Nervenzellen für möglich.

Unsere Gesellschaft steht durch den rapiden Anstieg von Übergewicht und der damit verbundenen Verbreitung von Typ-2-Diabetes vor einer enormen Herausforderung. Immer noch fehlt es an effizienten und sicheren Medikamenten, um diese Entwicklung aufzuhalten. Dies liegt vor allem daran, dass die Mechanismen des Zucker- und Energiestoffwechsels immer noch völlig unzureichend erforscht sind.

Treibstoff für die Schaltzentrale
Ein Wissenschaftlerteam um Prof. Dr. Matthias Tschöp, Direktor des Helmholtz Diabetes Zentrums (HDC) und der Abteilung für Stoffwechselerkrankungen an der Technischen Universität München, erforscht, wie Schaltzentralen im Gehirn unseren Stoffwechsel fernsteuern, um ihn optimal auf unsere Umwelt einzustellen. Das Hirn ist das Organ mit dem höchsten Zuckerverbrauch im Körper und kontrolliert unser Hungergefühl. „Wir vermuteten deswegen, dass es bei so einem wichtigen Vorgang, wie der Versorgung des Gehirns mit ausreichend Zucker, nicht um einen zufälligen Prozess handeln konnte“, sagt Dr. Cristina García Cáceres, Neurobiologin am HDC und Erstautorin der Studie. „Lange Zeit ließen wir uns davon in die Irre führen, dass Nervenzellen diesen Prozess offensichtlich nicht kontrollieren. Dann hatten wir die Idee, dass Astrozyten*, die man bisher als weniger wichtige ‚Stützzellen‘ missverstanden hatte, vielleicht etwas mit Zuckertransport ins Gehirn zu tun haben könnten.“

Die Wissenschaftler untersuchten deshalb zunächst die Aktivität von Insulinrezeptoren auf der Oberfläche der Astrozyten, also jenen Strukturen, über die Insulin Einfluss auf Zellen nimmt. Dabei stellten sie fest, dass beispielsweise Mäuse, denen dieser Rezeptor auf bestimmten Astrozyten fehlte, eine deutlich geringere Aktivität in Nervenzellen aufwiesen, die die Nahrungsaufnahme zügeln (die sogenannten Proopiomelanocortin Neuronen). Gleichzeitig hatten solche Mäuse Schwierigkeiten, ihren Stoffwechsel anzupassen, wenn sich die Zuckerzufuhr änderte. Mit Hilfe bildgebender Methoden konnten die Wissenschaftler dann zeigen, dass Hormone wie Insulin und Leptin an Stützzellen wirken, um die Aufnahme von Zucker ins Gehirn zu regulieren. Ohne Insulinrezeptoren zeigten die Astrozyten vor allem im Bereich der Appetitzentralen im sogenannten Hypothalamus entsprechend schlechtere Transportraten von Glukose ins Gehirn.

Ein Paradigmenwechsel
„Unsere Ergebnisse zeigen erstmals, dass essentielle Stoffwechsel- und Verhaltensprozesse nicht nur über Nervenbahnen reguliert werden, sondern dass auch andere Zelltypen wie Astrozyten, hier eine entscheidende Rolle spielen“, so Studienleiter Matthias Tschöp, der auch die Entwicklung neuer Therapien am Deutschen Zentrums für Diabetesforschung (DZD) leitet. „Das stellt einen Paradigmenwechsel dar und könnte ein Grund dafür sein, dass sich die Entwicklung neuer Medikamente für Diabetes und Adipositas bisher so schwierig gestaltete.“ Um das alte Modell der Kontrolle von Nahrungsaufnahme und Körperstoffwechsel durch Nervenzellen im Gehirn jetzt durch ein Konzept zu ersetzen, bei dem auch Astrozyten und eventuell sogar Immunzellen des Gehirns eine wichtige Rolle spielen, müssen zahlreiche neue Studien auf den Weg gebracht werden, so die Wissenschaftler. Erst wenn das Zusammenspiel dieser verschiedenen Zellen etwas besser verstanden ist, gelte es dann, Wege und Stoffe zu finden, wie man in diese Signalketten eingreifen kann, um eventuell Zuckerabhängigkeit zu unterbinden und letztlich die wachsende Zahl an Zuckerkranken und Übergewichtigen besser behandeln zu können. „Da liegt sehr viel Arbeit vor uns,“ so Garcia-Caceres, „aber wenigstens wissen wir jetzt, in welchen Zellen wir suchen müssen.“

Weitere Informationen
Hintergrund:

* Astrozyten sind die häufigsten Zellen im Gehirn. Unter anderem bilden sie die Bluthirnschranke, indem sie die im Hirn verlaufenden Blutgefäße umschließen und nur bestimmte Stoffe gezielt zu den Nervenzellen durchlassen.

Erst vor kurzem hatten die Wissenschaftler bereits gezeigt, dass Astrozyten auch auf das Stoffwechselhormon Leptin reagieren (Kim et al., 2014). Dieses ist ein wichtiger Faktor für das Sättigungsgefühl. Da nun sowohl Leptin als auch Insulin nachweislich auf Astrozyten Einfluss haben, schlagen die Forscher vor, ein neues Modell zu entwickeln, was neben den Nervenzellen auch die Astrozyten als Stellschrauben des Stoffwechsels und des Hungergefühls berücksichtigt. Von dem dann detaillierteren Bild erhoffen sie sich neue Perspektiven für die Entwicklung von Medikamenten.

Original-Publikation:
Caceres, C. et al. (2016): Astrocytic insulin signaling couples brain glucose uptake with nutrient availability, Cell, DOI: 10.1016/j.cell.2016.07.028
http://www.cell.com/cell/fulltext/S0092-8674(16)30974-6

Das Helmholtz Zentrum München verfolgt als Deutsches Forschungszentrum für Gesundheit und Umwelt das Ziel, personalisierte Medizin für die Diagnose, Therapie und Prävention weit verbreiteter Volkskrankheiten wie Diabetes mellitus und Lungenerkrankungen zu entwickeln. Dafür untersucht es das Zusammenwirken von Genetik, Umweltfaktoren und Lebensstil. Der Hauptsitz des Zentrums liegt in Neuherberg im Norden Münchens. Das Helmholtz Zentrum München beschäftigt rund 2.300 Mitarbeiter und ist Mitglied der Helmholtz-Gemeinschaft, der 18 naturwissenschaftlich-technische und medizinisch-biologische Forschungszentren mit rund 37.000 Beschäftigten angehören. http://www.helmholtz-muenchen.de

Die Technische Universität München (TUM) ist mit mehr als 500 Professorinnen und Professoren, rund 10.000 Mitarbeiterinnen und Mitarbeitern und 39.000 Studierenden eine der forschungsstärksten Technischen Universitäten Europas. Ihre Schwerpunkte sind die Ingenieurwissenschaften, Naturwissenschaften, Lebenswissenschaften und Medizin, ergänzt um Wirtschafts- und Bildungswissenschaften. Die TUM handelt als unternehmerische Universität, die Talente fördert und Mehrwert für die Gesellschaft schafft. Dabei profitiert sie von starken Partnern in Wissenschaft und Wirtschaft. Weltweit ist sie mit einem Campus in Singapur sowie Verbindungsbüros in Brüssel, Kairo, Mumbai, Peking, San Francisco und São Paulo vertreten. An der TUM haben Nobelpreisträger und Erfinder wie Rudolf Diesel, Carl von Linde und Rudolf Mößbauer geforscht. 2006 und 2012 wurde sie als Exzellenzuniversität ausgezeichnet. In internationalen Rankings gehört sie regelmäßig zu den besten Universitäten Deutschlands. http://www.tum.de

Das Deutsche Zentrum für Diabetesforschung e.V. ist eines der sechs Deutschen Zentren der Gesundheitsforschung. Es bündelt Experten auf dem Gebiet der Diabetesforschung und verzahnt Grundlagenforschung, Epidemiologie und klinische Anwendung. Ziel des DZD ist es, über einen neuartigen, integrativen Forschungsansatz einen wesentlichen Beitrag zur erfolgreichen, maßgeschneiderten Prävention, Diagnose und Therapie des Diabetes mellitus zu leisten. Mitglieder des Verbunds sind das Helmholtz Zentrum München – Deutsches Forschungszentrum für Gesundheit und Umwelt, das Deutsche Diabetes-Zentrum DDZ in Düsseldorf, das Deutsche Institut für Ernährungsforschung DIfE in Potsdam-Rehbrücke, das Institut für Diabetesforschung und Metabolische Erkrankungen des Helmholtz Zentrum München an der Eberhard-Karls-Universität Tübingen und das Paul-Langerhans-Institut Dresden des Helmholtz Zentrum München am Universitätsklinikum Carl Gustav Carus der TU Dresden, assoziierte Partner an den Universitäten in Heidelberg, Köln, Leipzig, Lübeck und München sowie weitere Projektpartner. http://www.dzd-ev.de

Weitere Informationen:
https://www.helmholtz-muenchen.de/forschung/forschungsexzellenz/forscherportraet… – Portrait Matthias Tschöp
http://www.helmholtz-muenchen.de/hdc – das Helmholtz Diabetes Center

Quelle: idw

(nach oben)


Alarmierende Ergebnisse: Schadstoffbelastung durch Mikroplastik im Sediment höher als erwartet

Dr. Katharina Jeorgakopulos Presse und Kommunikation
Hochschule für Angewandte Wissenschaften Hamburg

Zu alarmierenden Ergebnissen kommt die Untersuchung von Mikroplastik im Sediment von Elbe, Weser, Trave, der Boddengewässer und der Nord- und Ostsee: Mikroplastik bindet deutlich mehr Schad- und Giftstoffe im Sediment als bisher vermutet. Die kleinen Plastikteilchen sind um das Drei- bis Vierfache stärker belastet als das ohnehin schon kontaminierte Sediment. Die größte Schadstoffbelastung wurde nahe der Kläranlage Lübeck gemessen.

Seit 2015 untersucht ein Forscher-Team um Prof. Dr. habil. Gesine Witt von der Hochschule für Angewandte Wissenschaften Hamburg (HAW Hamburg) im Rahmen eines vom Bundesministerium für Bildung und Forschung (BMBF) geförderten Forschungsprojektes neben der Schadstoffbelastung auch die Plastik-Vermüllung im Sediment von Gewässern. Auf zwei Expeditionen mit dem Forschungsschiff ALDEBARAN wurde die Kontaminierung im Sediment über drei Monate mit eigens von der HAW Hamburg entwickelten Plastik-Schadstoffsammlern gemessen. Anschließend wurden die Proben im Labor der HAW-Fakultät Life Sciences auf Schadstoffkonzentrationen untersucht.

Was man bis jetzt weiß ist, dass kleinste Plastikteile auf Schadstoffe wie Magnete wirken: Je länger sie sich im Wasser befinden, desto mehr Giftstoffe binden sie an sich und bilden eine Art Giftcocktail. Lagern sie sich im Sediment ab, können sie durch Würmer, Muscheln und Fische in die menschliche Nahrungskette gelangen.
Mikroplastik drei- bis vierfach stärker belastet als umliegendes Sediment
Bislang vermutete das Forscher-Team, dass die Belastung von Mikroplastik mit Schadstoffen im Vergleich zu dem umliegenden Sediment mindestens genauso hoch sei. Mit den aktuellen Messdaten haben die Forscher um Prof. Dr. habil. Gesine Witt nun ein erweitertes Schadensbild: „Mit 50 Probensammlern konnten wir nachweisen, wie stark Mikroplastikteile in Sedimenten tatsächlich belastet sind. Die kleinen Plastikteilchen sind um das Drei- bis Vierfache stärker belastet als das ohnehin schon kontaminierte Sediment. Zusätzlich wissen wir nun besser, wo sich die unterschiedlich großen Teile nach ihrem Gebrauch im Gewässer oder im Sediment aufhalten.“

Polyethylen: meistverwendeter Kunststoff der Industrie bindet noch mehr Schadstoffe
Zusätzlich beklemmend ist die weitere Erkenntnis: „Schlickhaltiges Sediment nimmt im Gegensatz zu sandhaltigem deutlich mehr Schadstoffe auf, was im Umkehrschluss auch mit einer höheren Belastung des Mikroplastiks einhergeht. Darüber hinaus können wir mit den Ergebnissen der untersuchten Silikon-Proben aus den Probensammlern und vergleichenden Labortests auf die schadstoffbindenden Eigenschaften von Polyethylen schließen. Demnach bindet Polyethylen noch einmal etwa doppelt so viele Schadstoffe wie Silikon“, warnt die Umweltchemikerin Prof. Dr. Gesine Witt. „Dies ist von besonderer Bedeutung, denn Polyethylen ist der in der Industrie meistverwendete Kunststoff.“
Die Ergebnisse der Untersuchungen zeigen, dass insbesondere Mikroplastik aus Weser- und Elbsedimenten erhöht mit Polychlorierten Biphenylen (PCB) belastet ist. Hier traten je nach Fettlöslichkeit der Schadstoffe Konzentrationen im Bereich von 1,5 bis 280 µg pro kg Polyethylen auf.

Die höchste Belastung durch polycyclische aromatische Kohlen¬wasserstoffe (PAK) wurde in den Hafensedimenten des Stralsunder Hafens und des Fischereihafens Marienehe (Rostock) ermittelt. Dies liegt vorwiegend daran, dass Öl- und Ölprodukte wie Dieselkraftstoffe PAK enthalten – einige davon sind krebserzeugend. Die maximale Schadstoffbelastung wurde mit bis zu 1400 µg Fluoranthen pro kg Silikon nahe der Kläranlage Lübeck gemessen. Weitere hohe Belastungswerte fand das Team ebenfalls in der Wesermündung und der Warnow bei Rostock.

Daten zur Expedition und zum Forschungsprojekt
Mit dem Hamburger Forschungsvorhaben verbunden waren Projekte der Universität Bayreuth und des Geoforschungszentrums Potsdam, bei denen Mikroplastikproben im Wasserkörper mit Spezialnetzen gesammelt wurden. Erstmals kamen Satellitenbeobachtungen für die Identifikation von Plastik in Gewässern zum Einsatz. Mit dem auf Flachwasser spezialisierten Forschungsschiff ALDEBARAN legten die Wissenschaftler/innen insgesamt 1.025 Seemeilen (etwa 2.000 km) auf norddeutschen Flüssen und Küsten zurück. Die Expeditionen auf der ALDEBARAN wurden vom Portal Deutsche Forschungsschiffe, der Deutschen Forschungsgemeinschaft (DFG) und dem BMBF gefördert. Das Forschungsprojekt hat ein Volumen von mehr als 200.000 Euro und finanziert sich aus Mitteln der Freien und Hansestadt Hamburg (FHH), der HAW Hamburg und weiteren Drittmitteln. Unterstützt wird es ebenfalls von ALDEBARAN Marine Research & Broadcast.

Die ALDEBARAN: ein segelndes Forschungsschiff
Um mit Forschungstaucheinsätzen, Bodengreifern und Wasserschöpfern bei geringem Tiefgang effektiv in der Elbe und den Küstengewässern Plastikmüll-Verunreinigungen aufzuspüren, nutzen die Wissenschaftler/innen das dafür bewährte und flachwassergängige Forschungsschiff ALDEBARAN. Das 14 Meter lange und privat betriebene Forschungs-Segelschiff ist seit knapp 25 Jahren im Dienste der Wissenschaft mit einem modern ausgestatteten Mini-Labor und mit einem kleinen Radio-Studio an Bord für eine aktuelle Wissenschaftskommunikation vor Ort unterwegs, um über Meeres- und Klimathemen zu informieren. Die Forschungsergebnisse und das Forschungsschiff ALDEBARAN werden auch auf dem Tag der offenen Tür der Bundesregierung vor dem Bundesverkehrsministerium Ende August in Berlin präsentiert.

Kontakte:
HAW Hamburg
Fakultät Life Sciences
Department Umwelttechnik
Prof. Dr. habil. Gesine Witt, Professorin für Umweltchemie
Tel.: +49 157 313 60 814
gesine.witt@haw-hamburg.de

Forschungsprofile von Gesine Witt:
http://bit.ly/Witt-DFG und http://bit.ly/Witt-Profil

ALDEBARAN Marine Research & Broadcast
Geschäftsführer
Dipl.-Biol. Frank Schweikert
Tel.: +49 40 325 721-13
frank.schweikert@aldebaran.org

Weitere Informationen:
http://bit.ly/2a1PwOx
http://bit.ly/2a5KhyA
http://www.haw-hamburg.de/uploads/tx_atlpressemappe/Impetus_24.pdf
http://www.aldebaran.org

Quelle: idw

(nach oben)


Zu wenig Kochsalz erhöht das Risiko für Herz-Kreislauf-Erkrankungen

Medizin – Kommunikation Medizinkommunikation
Arbeitsgemeinschaft der Wissenschaftlichen Medizinischen Fachgesellschaften

Mainz – Die Menge des Salzkonsums ist einer der beeinflussenden Faktoren für den Blutdruck. Bekannt ist: Hochdruckpatienten können ihr Risiko für Herz-Kreislauf-Erkrankungen positiv beeinflussen, wenn sie sich beim Salzverzehr zurückhalten. Für Menschen ohne Bluthochdruck gilt das jedoch nicht. Ihr Risiko für Herzinfarkt und Schlaganfall steigt nicht mit hohem Salzkonsum, sondern eher mit zu wenig Salz pro Tag. Darauf weist die Deutsche Gesellschaft für Endokrinologie (DGE) anlässlich einer aktuell in The Lancet erschienenen Metaanalyse.

Täglich höchstens sechs Gramm Kochsalz zu sich nehmen, so empfiehlt es die Deutsche Gesellschaft für Ernährung Erwachsenen. Die Realität sieht anders aus: Männer mögen es dabei noch salziger als Frauen, sie nehmen durchschnittlich 10,0 Gramm Salz am Tag zu sich, Frauen 8,4 Gramm. Das bedeutet, viele Menschen werden also wesentlich mehr Salz zuführen als diese Mittelwertzahlen anzeigen. Dass viel Kochsalz den Blutdruck erhöht und damit Organe und Gefäße schädigt, haben in der Vergangenheit zahlreiche Untersuchungen nahegelegt. Professor Dr. med. Dr. h. c. Helmut Schatz aus Bochum vom Vorstand der Deutschen Gesellschaft für Endokrinologie (DGE): „Das im Kochsalz enthaltene Natrium bindet Wasser und erhöht damit das Blutvolumen. Der Druck in den Gefäßen wird höher und damit auch der Blutdruck, so eine vereinfachte Erklärung eines komplexen Vorgangs“. Die Folge einer Hypertonie können lebensbedrohliche Krankheiten wie Herzinfarkt oder Schlaganfall sein, so der Experte. „Heute weiß man, dass Bluthochdruck viele Ursachen hat. Bluthochdruck einfach mit viel Natrium gleichzusetzen, trifft nicht zu.“ Lange Zeit galt in Bezug auf Salz die Devise „je weniger, desto besser“. „Das müssen wir nach den Ergebnissen der Lancet-Studie nun differenzierter betrachten“, erklärt Professor Schatz.

Die Forscher um Andrew Mente von der McMaster University in Hamilton, Kanada, verglichen in einer Metaanalyse von vier großen prospektiven Studien mit insgesamt 135.000 Menschen aus 49 Ländern die tägliche Urinausscheidung von Natrium und Herz-Kreislauf-Ereignisse sowie Gesamttodesfälle. An der Natriumausscheidung im Harn kann man die Aufnahme von Kochsalz beurteilen; dieses besteht nämlich aus Natrium und Chlor (NaCl), wobei fünf Gramm Kochsalz etwa 2,3 Gramm Natrium entsprechen. Andrew Mente und seine Mitarbeiter unterschieden in ihrer Metaanalyse zwischen Menschen mit und ohne Bluthochdruck. Bei Hochdruckpatienten stieg die Ereignisrate erwartungsgemäß bei einer Natriumaufnahme, die über vier bis fünf Gramm pro Tag hinausging. Dies war bei Menschen mit normalem Blutdruck jedoch nicht der Fall. Bei einer Zufuhr von Natrium unter drei Gramm pro Tag wurden Herz-Kreislauf-Ereignisse und Gesamttodesfälle hingegen sowohl bei Menschen mit als auch ohne Bluthochdruck erhöht.

Es ist nicht die erste Arbeit, die das Salz-Dogma infrage stellt: Bereits 2011 zeigte eine europäische Populationsstudie, dass bei niedrigem Salzkonsum eine erhöhte kardiovaskuläre Mortalität besteht, allerdings war es ein relativ kleine Studie mit nur etwa 3700 Teilnehmern.

Für Professor Dr. med. Matthias Weber, DGE-Mediensprecher von der Johannes Gutenberg-Universität Mainz, haben diese Erkenntnisse durchaus einen gesundheitspolitischen Einfluss. „Die Lancet-Arbeit zeigt uns, zu wenig Salz – unabhängig davon ob der Mensch einen erhöhten oder einen normalen Blutdruck hat – sollte man auch nicht zu sich nehmen. Aber das Problem stellt sich angesichts der Produktionsbedingungen und Ernährungsgewohnheiten in Deutschland nicht“, so Professor Weber. Fertiggerichte, Brot, Wurst, Käse und Milchprodukte enthalten alle reichlich Kochsalz. Professor Weber hält fest: „Bluthochdruckpatient sollten nach wie vor Salz meiden oder nur sparsam verwenden. Dies gilt auch für Patienten mit Herzinsuffizienz. Menschen mit normalem Blutdruck müssen weniger auf Ihren Salzkonsum achten.“

Literatur:
Mente A et al.: Associations of urinary sodium excretion with cardiovascular events in individuals with and without hypertension: a pooled analysis of data from four studies. Lancet 2016. 388:465 ff.
Stolarz-Skrzypek K et al.: European project on genes in hypertension (EPOGH). Fatal and nonfatal outcomes, incidence of hypertension, and blood pressure changes in relation to urinary sodium excretion. J. Amer. Med. Assoc. 2011. 305:1777 ff.

Endokrinologie ist die Lehre von den Hormonen, Stoffwechsel und den Erkrankungen auf diesem Gebiet. Hormone werden von endokrinen Drüsen, zum Beispiel Schilddrüse oder Hirnanhangdrüse, aber auch bestimmten Zellen in Hoden und Eierstöcken, „endokrin“ ausgeschüttet, das heißt nach „innen“ in das Blut abgegeben. Im Unterschied dazu geben „exokrine“ Drüsen, wie Speichel- oder Schweißdrüsen, ihre Sekrete nach „außen“ ab.

Weitere Informationen:
http://www.endokrinologie.net

Quelle: idw

(nach oben)


Neue Projektideen für die Bioenergie

Diana Pfeiffer Presse- und Öffentlichkeitsarbeit
Deutsches Biomasseforschungszentrum

Skizzeneinreichung im BMWi-Förderprogramm „Energetische Biomassenutzung“ vorerst zum letzten Mal noch bis zum 30. September 2016 möglich

Der vorerst letzte Stichtag zum Einreichen von Projektskizzen im Förderprogramm „Energetische Biomassenutzung“ ist der 30. September 2016. Das Bundesministerium für Wirtschaft und Energie (BMWi) unterstützt mit dieser Forschungsinitiative die Entwicklung effizienter und kostengünstiger Technologien der Bioenergiebereitstellung.

Ein systemrelevanter Baustein der Energiewende besteht darin erneuerbarem Strom und Wärme flexibel und bedarfsgerecht zu erzeugen, um die Versorgungssicherheit im gesamten Energie-system zu gewährleisten. Dies kann die Bioenergie grundsätzlich bieten. Um die ambitionierten Ziele der Bundesregierung jedoch zu erreichen, muss die Entwicklung zukunftsweisender und effizienter Technologien und das Zusammenspiel der erneuerbaren Energien weiter vorangetrieben werden.

Daher fördert das Bundesministerium für Wirtschaft und Energie (BMWi) im Programm „Energetische Biomassenutzung“ vor allem Forschungs- und Demonstrationsvorhaben, die sich u. a. mit der kosten- und umwelteffizienten Wärme- und Stromerzeugung, Kraft-Wärme-Kopplung, Reststoffverwertung oder der Flexibilisierung und Integration bioenergetischer Anwendungen in das Gesamtsystem erneuerbarer Energien befassen. Projektskizzen können im Elektronischen Formularsystem der Bundesregierung (easy-Online) noch bis zum
30. September 2016 zu folgenden Themenschwerpunkten eingereicht werden.

WÄRME: Entwicklung von Technologien zur effizienten Erzeugung von Wärme aus Biomasse

STROM: Forschung, Entwicklung und Innovation zur effizienten Erzeugung von Strom aus Biomasse und dessen Integration ins Stromsystem

BIOMASSEREST- UND ABFALLSTOFFE: Erschließung kostengünstiger Biomasserest- und Abfallstoffe außerhalb der Forst- und Landwirtschaft für die energetische Nutzung im Wärme- und Strombereich

KWK: Entwicklung und Demonstration neuer und fortschrittlicher Technologien zur effizienten Nutzung von Biomasse in Kraft-Wärme-Kopplungs-Anlagen

MARKTPOTENZIAL: Validierung des Marktpotenzials von Forschungsergebnissen

STUDIEN & KONZEPTE für die Energieerzeugung aus Biomasse

Folgende Ziele werden mit dem Förderprogramm verfolgt:

→ Effiziente Wärmenutzung bei hohen Verstromungswirkungsgraden
→ Kostengünstige Emissionsminderung
→ Erhöhung der Substratflexibilität
→ Hohe Energieeffizienz & Gesamtwirkungsgrade
→ Substitution fossiler Energieträger
→ Nachhaltige & flexible Energiebereitstellung

Skizzeneinreichung mit dem easy-Online-Tool:
https://foerderportal.bund.de/easyonline

Fragen zum Antragprozedere können an Lena Panning vom Projektträger Jülich gerichtet werden.

Ansprechpartner:
Lena Panning
Telefon: 030 20199-3132
E-Mail: l.panning@fz-juelich.de
Web: www.ptj.de/bioenergie

Weitere Informationen:
http://www.ptj.de/bioenergie
http://www.energetische-biomassenutzung.de

Quelle: idw

(nach oben)


Urologen warnen: Volksleiden Nykturie oft ein Alarmsignal

Bettina-Cathrin Wahlers Pressestelle der DGU
Deutsche Gesellschaft für Urologie e.V.

Nächtliche Toilettengänge sind nicht nur ein Männerproblem und mehr als lästig

Allnächtlich aufzuwachen, weil die Blase den Gang zur Toilette fordert, ist ein verbreitetes Leiden – und ein gefährliches zugleich: Zum einen werden die Folgen der regelmäßigen Unterbrechung des Nachtschlafes zum Wasserlassen, fachsprachlich Nykturie genannt, unterschätzt. Zum anderen sind die nächtlichen Toilettengänge häufig ein Alarmsignal, das auf eine behandlungsbedürftige Erkrankung hinweist.

„Fälschlicherweise wird Nykturie in der Bevölkerung vielfach als eine unvermeidbare Alterserscheinung, vorrangig des Mannes, abgetan, obwohl es der Abklärung der individuellen Ursachen bedarf“, sagt Prof. Dr. Kurt Miller, Präsident der Deutschen Gesellschaft für Urologie e.V. (DGU), die das Volksleiden auf dem 68. DGU-Kongress vom 28. September bis 1. Oktober 2016 in Leipzig thematisiert.

Tatsächlich ist die Nykturie die häufigste Ursache von Schlafstörungen, aus denen wiederum Risiken für Gesundheit und Lebenserwartung der Betroffenen resultieren. Anders als vielfach angenommen, sind Männer wie Frauen gleichermaßen betroffen. Zuverlässige aktuelle Zahlen zur Häufigkeit gibt es nicht, nach älteren Studien leiden aber mehr als 60 Prozent aller Menschen von 70 und mehr Jahren an einer behandlungsbedürftigen Nykturie, die die Betroffenen zwei Mal oder öfter pro Nacht zum Wasserlassen treibt. Fortgeschrittenes Alter ist zwar ein wesentlicher Faktor für Nykturie, bewahrt aber jüngere Menschen nicht davor. In der Altersgruppe der 20- bis 40-Jährigen ist etwa jeder fünfte bis sechste betroffen – hier öfter Frauen als Männer.

„Nykturie ist keine eigenständige chronische Erkrankung, sondern Symptom anderer körperlicher Störungen. Unterschiedliche Ursachen kommen für den Drang zum nächtlichen Wasserlassen in Betracht, die zunächst im Bereich der Urinproduktion sowie im System der Speicherung und Ableitung des Harns zu suchen sind“, sagt Prof. Dr. Stephan Roth. Bei zahlreichen Nykturie-Patienten liegt eine nächtliche Polyurie vor. Sie scheiden nachts mehr als den sonst üblichen Anteil der 24-Stunden-Urinmenge aus, der für jüngere Menschen bis 20 Prozent, jenseits der 65 bis 33 Prozent liegen sollte. Bei anderen Patienten wird eine reduzierte Kapazität der Harnblase festgestellt, die zur häufigeren Entleerung kleinerer Mengen nötigt. Besonders bei älteren Menschen fallen oft mehrere Faktoren zusammen, die für eine Nykturie ursächlich sein können: Dazu gehören die sinkende Fähigkeit, Urin zu halten, erhöhte Restharnvolumina, Veränderungen am Detrusormuskel, niedrige Konzentration des Antidiuretischen Hormons (ADH), chronische Infekte der unteren Harnwege, überaktive Blase und bei Männern auch eine vergrößerte Prostata.

„Bei einer Polyurie“, so der Direktor der Klinik für Urologie und Kinderurologie am Universitätsklinikum Wuppertal weiter, „ist es notwendig, die Ursachen der erhöhten nächtlichen Urinproduktion abzuklären“. Infrage kommen, laut Roth, eine Herzinsuffizienz, für die ein Übermaß an auszuscheidendem Gewebewasser ein Indiz wäre; auch ein Diabetes, ein erhöhter systolischer Blutdruck oder Störungen der Nierenfunktion können sich, ebenso wie Medikamente, auf die Urinproduktion auswirken.

Schnarchen, das mehr als die Hälfte aller Männer betrifft, und nächtliche Atemaussetzer (Schlafapnoe) sind eng verbunden mit der Nykturie, die sogar als ein Leitsymptom des obstruktiven Schlafapnoe-Syndroms gilt. Wird diese gefährliche Schlafstörung effektiv behandelt, so bessert sich auch der Drang zum nächtlichen Wasserlassen. Als weiterer Risikofaktor für Nykturie wird Übergewicht betrachtet.

Die Folgen der Nykturie können schwerwiegend sein: Schlafstörungen führen oft zu Tagesmüdigkeit, Konzentrationsschwächen, Verminderung der geistigen Leistung und Kopfschmerzen. In manchen Fällen können Depressionen die Folge sein. Dänische Forscher ermittelten, dass Nykturie die Arbeitsproduktivität um bis 24 Prozent senken kann. Besonders ältere Menschen haben erhöhte Risiken für Stürze und Knochenbrüche. Für herzkranke Patienten wird bei gleichzeitiger Nykturie von einem erhöhten Mortalitätsrisiko ausgegangen.

„Angesichts des hohen Leidensdrucks, möglicher Komplikationen und der zum Teil schwerwiegenden ursächlichen Erkrankungen wird die Notwendigkeit zur gründlichen medizinischen Abklärung einer Nykturie deutlich“, resümiert DGU-Präsident Prof. Dr. Kurt Miller und lädt die Medienvertreter ein, sich auf dem 68. DGU-Kongress in Leipzig über das unterschätzte Volksleiden zu informieren.

Weitere Informationen:
DGU-Pressestelle
Bettina-C. Wahlers
Sabine M. Glimm
Grandkuhlenweg 5-7
22549 Hamburg
Tel.: 040 – 79 14 05 60
Mobil: 0170 – 48 27 28 7
E-Mail: redaktion@bettina-wahlers.de

Weitere Informationen:
http://www.urologenportal.de
http://www.dgu-kongress.de

Quelle: idw

(nach oben)


Großer Handlungsbedarf beim Problem Gülle

Eberhard Scholz Pressestelle
Universität Bremen

Experten und Expertinnen aus Ministerien, Kammern, Agrar- und Energiewirtschaft sowie Wissenschaftler aus dem Ingenieur-, Logistik- und Agrarbereich trafen sich auf Einladung des Instituts für Umweltverfahrenstechnik (IUV) in der Universität Bremen zu einem Workshop, um Bewegung in das Thema „Nährstoffbioökonomie“ zu bringen. Hinter dem Begriff verbirgt sich das Agrarproblem, einen Nährstoffüberschuss aus Regionen der intensiven Viehhaltung in Regionen zu bringen, die aufgrund von intensivem Landbau einen hohen Nährstoffbedarf haben, denn Gülle, und ebenso Gärreste aus Biogasanlagen, stellen wertvolle organische Dünger dar.

Die Auswirkungen eines regionalen Nährstoffüberschusses durch Wirtschaftsdünger (Gülle) sind beim Eintrag in die Umwelt vielfältig und reichen von ökologischen Beeinträchtigungen von Grund- und Oberflächengewässern sowie Küstengebieten durch erhöhte Nährstoffeinträge (zum Beispiel im Raum Weser-Ems und Wattenmeer) bis hin zur Beeinträchtigung von Atmosphäre und Klima (zum Beispiel durch Feinstaub- und Klimagasemissionen). Diese Probleme sind seit Jahren bekannt, dennoch konnte trotz aller bisherigen Maßnahmen, beispielsweise im Weser-Ems-Gebiet, eine Verringerung der Kontamination von Wasserkörpern mit Nährstoffen nicht erreicht werden. Aufgrund des Verstoßes der Bundesrepublik Deutschland gegen die „Nitratrichtlinie“ führte dies bereits im April 2016 zu einer Klage vor dem Europäischen Gerichtshof. Hierdurch wird die Dringlichkeit einer „Transport-Lösung“ für Nährstoffe aus den Viehveredelungsregionen in Landbauregionen umso deutlicher. Derzeit werden laut aktuellem Nährstoffbericht des Niedersächsischen Ministeriums für Ernährung, Landwirtschaft und Verbraucherschutz allein aus der Region Weser-Ems 2,6 Mio. t Gülle und Gärreste exportiert; Tendenz steigend.

Die offensichtliche und einfache Lösung, Gülle, Dung und Gärreste – davon fallen allein in Niedersachsen jährlich 60 Millionen Tonnen an – dorthin zu transportieren, wo es Bedarf gibt, geht nicht auf: Die Kosten für Transport und Logistik von Wirtschaftsdünger und Gärresten aus Biogasanlagen in der natürlich anfallenden Form – mit einem überwiegendem Anteil von Wasser – sind zu hoch. Die Wirtschaftlichkeit des Gülletransports ist gegenwärtig nicht gegeben. Doch der Handlungsdruck auf die Viehwirtschaft ist enorm: Wie in einem Vortragsbeitrag während des Workshops plakativ veranschaulicht wurde, würden LKW aus der Weser-Ems-Region bis Hannover dicht an dicht im Stau stehen, wenn alle anfallenden Überschüsse der Wirtschaftsdünger und Gärreste in die Bedarfsregionen in Süd-Niedersachsen transportiert werden sollten. Vor dem Hintergrund der Prognosen, dass für das generelle Güterverkehrsaufkommen im Bundesgebiet, insbesondere auf der Straße, eine Verdopplung in den nächsten 10 bis 20 Jahren zu erwarten ist, wie seitens einiger Teilnehmer des Logistiksektors angeführt wurde, müssen hier dringend Lösungen gefunden werden.

Technologie zur Herstellung konzentrierter Düngeprodukte und Infrastruktur fehlen
Aber, darin stimmten die Fachleute beim Treffen in Bremen überein, derzeit stehen am Markt keine ausgereiften, wirtschaftlich arbeitenden und ökologisch sinnvollen Technologien zur Verfügung, um aus Gülle, Dung und Gärresten ein konzentriertes Düngeprodukt zu machen, bei dem sich dann aufgrund des geringen Wasseranteils und einer hohen Nährstoffdichte der Transport in Abnehmerregionen rechnet. Außerdem fehle noch die Infrastruktur und eine geeignete Logistik, um die Düngermengen ökonomisch und ökologisch bedarfsgerecht für die Landwirte zu bewegen.

Was muss also getan werden, um den Gülleüberschuss mit einer „Nährstoffbioökonomie“ sinnvoll in den Griff zu bekommen? Die Fachleute aus ganz unterschiedlichen Tätigkeitsbereichen waren sich einig: Zur Lösung des Problems müssen neue Technologien entwickelt werden, um hochkonzentrierte Nährstoffprodukte wirtschaftlich erzeugen zu können. Die vielfältigen Ergebnisse aus den Arbeitsgruppen des Workshops wurden von den Initiatoren und Organisatoren des Workshops, Dr.-Ing. Saskia John und den Mitarbeitern des IUV, ausgewertet und in einer Roadmap mit einem Zeitfenster von zehn Jahren zusammengefasst.

Anregungen für konkrete Entwicklungswege
Konkrete Entwicklungswege bei der Aufbereitung der Gülle zu konzentrierten organischen und mineralischen Düngern könnten hiernach zum Beispiel das Gewinnen von Phosphor und insbesondere das systematische Bewahren von pflanzenverfügbarem organischen Stickstoff sein, der mit den zurzeit bekannten Verfahren noch überwiegend in die Atmosphäre entweicht und dort in Form von Lachgas klimaschädigend wirkt oder gebunden in einer Fracht mit hohem Wasseranteil und entsprechend hohen Transportkosten anfällt. Überdies ließen sich auf diese Weise große Mengen von energieintensiv produzierten chemischen Stickstoffdüngern einsparen.

Neue Technologien, auch um eventuell eine Aufwertung zu anderen, höherwertigen Produkten zu schaffen, wurden daher als notwendig identifiziert. Bereits etablierte Technologien, wie sie beispielsweise aus den Bereich der Abwassertechnik bekannt sind, müssten hierfür gezielt weiterentwickelt werden, um wirtschaftlich zu arbeiten und die Produktpreise für den Verbraucher bezahlbar zu halten. Hierfür wäre neben anwendungsorientierter Entwicklungsarbeit auch Grundlagenforschung erforderlich, da die zu behandelnde Reststoffgruppe für moderne Aufbereitungstechnologien bisher nur wenig untersucht wurde.

Alle Beteiligten besser vernetzen
Darüber hinaus haben Logistik und Infrastruktur in der Wertschöpfungskette einen großen Einfluss, weil die Transportkosten die maximale wirtschaftliche Transportdistanz bestimmen. Diese müsste weiter als 300 km reichen, wenn eine Nährstoffbioökonomie umgesetzt werden soll. Weiterhin müssten Datenbanken erstellt und mit modernen Messtechniken sowie mit den Aufgabenbereichen der Düngerabnehmer, der Gülleverarbeitung und des Gülletransports vernetzt werden. Für den abnehmenden Landwirt sind genaueste Produktdaten und eine entsprechend gute Dosierbarkeit notwendig, um sinnvoll düngen zu können, andernfalls würden weiterhin chemisch produzierte Dünger bevorzugt verwendet werden. Auch die Gesetzgebung als entscheidende Regulationsgröße müsste die Anforderungen an eine funktionierende Nährstoffbioökonomie berücksichtigen. Allein am Beispiel der Düngerdeklaration ließen sich viele Fragen stellen, die derzeit in Bezug auf behandelte bzw. umgewandelte Gülle und Gärreste noch offen bleiben.

Abschließend heißt es, dass es angesichts der drängenden Problemlage zukünftig dringend erforderlich sei, noch deutlich systematischer in Forschungs- und Entwicklungsaufgaben, insbesondere im Bereich der Technologieentwicklung zu investieren, um die genannten Anforderungen technisch und infrastrukturell erfüllen zu können. Ökonomische und ökologisch verträgliche Konzepte für die regionale und überregionale Logistik und Infrastruktur seien innovativ voranzutreiben und zu erproben. Damit dies insgesamt zielgerichtet und reibungsfrei in einer ökonomischen Wertschöpfungskette münden kann, müssten alle technischen, strukturellen und informellen Entwicklungsprozesse sowie Pilotprojekte administrativ umfassend begleitet werden, zum Beispiel durch speziell ausgerichtete Zentren und Verbünde. Es wäre daher wünschenswert, diese Anstrengungen durch Politik und Wirtschaft befördert zu sehen.

Die am Institut für Umweltverfahrenstechnik durchgeführte Veranstaltung wurde gefördert durch das Bundesministerium für Bildung und Forschung, vertreten durch den Projektträger Jülich.

Weitere Informationen:
Universität Bremen
Fachbereich Produktionstechnik
Institut für Umweltverfahrenstechnik (IUV)
Dr. rer. nat. Stefan Kurtz
Tel. 0421 218 63340
E-Mail: kurtz@iuv.uni-bremen.de
Internet: http://www.iuv.uni-bremen.de/projekte/biotechnologie/226-kreativworkshop-naehrst…

Quelle: idw

(nach oben)


Warum Bioenergie Fluch und Segen zugleich ist

Axel Burchardt Stabsstelle Kommunikation/Pressestelle
Friedrich-Schiller-Universität Jena

Neue Nachwuchsgruppe der Universität Jena erforscht Bioökonomie und soziale Ungleichheiten aus einer länderübergreifenden Perspektive

Mit Rapsöl Auto fahren, Biogas aus Gülle gewinnen und Plastiktaschen auf Pflanzenbasis produzieren. Das klingt nach ökologischen und nachhaltigen Wirtschaftsformen und genießt ein positives Renommee. Aber ist das weltweit die geeignetste Wirtschaftsform oder gibt es auch kritische (Neben-)Wirkungen, die zu bedenken sind, wenn Staaten ihre Wirtschaftspolitik auf Bioenergie ausrichten?

Mit dem großen Fragenkomplex der Bioökonomie beschäftigt sich eine neue Forschungsgruppe am Institut für Soziologie der Friedrich-Schiller-Universität Jena, die jetzt ihre Arbeit aufgenommen hat. Unter der Leitung der Umweltsoziologin Dr. Maria Backhouse wird die sechsköpfige Nachwuchsgruppe in den nächsten fünf Jahren das Thema „Bioökonomie und soziale Ungleichheiten – Verflechtungen und Wechselbeziehungen im Bioenergie-Sektor aus transnationaler Perspektive“ (Bioinequalities) untersuchen. Das Bundesforschungsministerium (BMBF) fördert die Jenaer Gruppe im Rahmen des Programms „Bioökonomie als gesellschaftlicher Wandel“ mit rund 2,6 Millionen Euro.

Pflanzen zum Tanken statt für die Ernährung
In vielen Teilen Europas steht die Bioenergie im Mittelpunkt einer nachhaltigen Wirtschaftspolitik und weltweit wird ihre Erzeugung ausgebaut. In Deutschland wird dieser Ausbau vom Staat vor allem durch das Erneuerbare-Energien-Gesetz (EEG) gefördert. Doch die Gewinnung von Bioenergie aus nachwachsenden Rohstoffen, wie Holz, Palmöl oder Weizen, hat auch „Schattenseiten“. Pflanzen zum Tanken statt für die Ernährung einzusetzen, ist ein solcher Kritikpunkt, über den mittlerweile weltweit gestritten wird. „Deutschland hat nicht genug Flächen, um den eigenen wachsenden Biomassebedarf zu decken und ist auf Importe aus dem globalen Süden angewiesen. Dort entstehen nicht nur neue Einkommensmöglichkeiten, es ist auch mit negativen Entwicklungen zu rechnen: Landkonflikte, Verdrängung und Ausbeutung, die Minderheiten und Frauen besonders treffen“, weist Dr. Backhouse auf weitere Aspekte hin. Die sechs Jenaer Nachwuchskräfte werden der forschungsleitenden Frage nachgehen, wie sich die entstehende Bioökonomie auf transnationale soziale Ungleichheiten innerhalb und zwischen Westeuropa, Südamerika und Südostasien auswirkt.

Das Soziologie-Team, das mit Sozial-, Agrar- und Naturwissenschaften kooperieren wird, untersucht die sozialen und kulturellen Implikationen dieses Struktur- und Politikwandels. Fragen nach der Veränderung der sozialen Verhältnisse in den Ländern, aber auch zwischen den Staaten wollen sie exemplarisch durch Fallstudien in Brasilien, Indonesien und Deutschland beantworten. Diese werden mit übergreifenden Analysen transnationaler Verflechtungen verzahnt. Denn sog. Schwellenländer wie Brasilien und Malaysia gehören zu den großen „Playern“ in der Bioenergie. Wenn Bioenergie verstärkt genutzt wird, verändert dies auch die Bedeutung dieser Schwellenländer und damit die globalen Verhältnisse. Und so stellen sich die Soziologen auch wirtschaftspolitischen, -ethischen und politiktheoretischen Fragen, etwa zu veränderten Handelsbeziehungen und globalen Handelsregularien, zu Arbeits- und Landzugangsverhältnissen, zur politischen Mitbestimmung. Auch die Frage, wer die entsprechenden Technologien entwickelt, wird in den geplanten Studien untersucht. Diese empirischen Untersuchungen nehmen Akteure – aus Politik, Forschung, Wirtschaft und Zivilgesellschaft – sowie politische und normative Rahmensetzungen und nicht zuletzt polit-ökonomische Entwicklungen, wie Handel und Investitionen, in den Blick.

„Unser Ziel ist es, Zusammenhänge darzustellen, zum Beispiel die Energiesysteme nicht nur im deutschen Kontext zu betrachten“, erläutert Backhouse an einem Beispiel – und verweist auf aktuelle „grüne Strategien“ Chinas, also die internationale Perspektive, auf der das neue Forschungsprojekt basiert.

Kontakt:
Dr. Maria Backhouse
Institut für Soziologie der Friedrich-Schiller-Universität Jena
Humboldtstr. 34
07743 Jena
E-Mail: maria.backhouse@uni-jena.de

Weitere Informationen:
http://www.uni-jena.de

Quelle: idw

(nach oben)


Einkommen und Vermögen, Armut und Reichtum – die häufigsten Fragen auf den Punkt beantwortet

Rainer Jung Abt. Öffentlichkeitsarbeit
Hans-Böckler-Stiftung

Neues Angebot

Einkommen und Vermögen, Armut und Reichtum – die häufigsten Fragen auf den Punkt beantwortet
Öffnet sich die soziale Schere in Deutschland oder nicht? Das ist auch unter Fachleuten nicht unumstritten. Wo gibt es überhaupt aussagekräftige Zahlen zur Ungleichheit, wo fehlen sie und warum? Was kann man auf der Basis der vorliegenden Daten über die Entwicklung von Ungleichheit sagen? Stärkt oder schwächt Ungleichheit das Wirtschaftswachstum? Wohin geht der Trend angesichts von Flüchtlingszuwanderung auf der einen und Mindestlohn auf der anderen Seite? Und was sollten Politik und Wirtschaft tun?

Die häufigsten Fragen rund um Einkommen, Vermögen, Armut und Reichtum beantworten die „FAQs Ungleichheit“, ein neues Angebot der Hans-Böckler-Stiftung.

Für die Antworten haben Wissenschaftlerinnen und Wissenschaftler des Wirtschafts- und Sozialwissenschaftlichen Instituts (WSI) und des Instituts für Makroökonomie und Konjunkturforschung (IMK) der Stiftung die relevanten Quellen zusammengefasst. Sie sind auch für Laien verständlich, und sie beschränken sich auf eine Seite – inklusive einer zentralen Grafik, deren Daten heruntergeladen werden können. Das neue Angebot findet sich im Verteilungsmonitor des WSI der Hans-Böckler-Stiftung.

Kontakt in der Hans-Böckler-Stiftung
Dr. Dorothee Spannagel
WSI, Expertin für Verteilung
Tel.: 0211-7778-205
E-Mail: Dorothee-Spannagel@boeckler.de

Rainer Jung
Leiter Pressestelle
Tel.: 0211-7778-150
E-Mail: Rainer-Jung@boeckler.de

Weitere Informationen:
http://www.boeckler.de/wsi_66092.htm – Direkter Link
http://www.focus.de/finanzen/videos/brisante-neue-studie-die-ungleichheit-waechs… – Die Ungleichheit wächst – und bremst Deutschland Wachstum. Video auf FOCUS Online

Quelle: idw

(nach oben)


Universität Koblenz-Landau will Wasserqualität verbessern

Bernd Hegen Referat Öffentlichkeitsarbeit
Universität Koblenz-Landau

NachbarschafftInnovation: „Deutschland – Land der Ideen“ und Deutsche Bank prämieren „Wasser 3.0 – innovatives Verfahren zur Wasserreinigung“ – ein Projekt der Universität Koblenz-Landau – als ausgezeichnetes Beispiel für den Mehrwert gemeinschaftlichen Handelns.

Die AG Organische und Ökologische Chemie der Universität Koblenz-Landau ist mit dem Projekt „Wasser 3.0 – innovatives Verfahren zur Wasserreinigung“ Preisträger im bundesweiten Innovationswettbewerb „Ausgezeichnete Orte im Land der Ideen“ 2016. Zum Thema „NachbarschafftInnovation – Gemeinschaft als Erfolgsmodell“ liefert das Projekt in der Kategorie Umwelt eine Antwort auf die Frage, wie ein Forschungsverbund zur weltweiten Gewährleistung von sauberem Wasser beitragen kann.

Obwohl Wasser für die Menschheit unverzichtbare Lebensgrundlage ist, wird oft wenig schonend damit umgegangen. Kläranlagen haben heutzutage viel zu tun – und auf die Entfernung von Schadstoffen aus Pestiziden und Pharmazeutika sind sie gar nicht erst ausgelegt. Hier hilft das Verfahren Wasser 3.0, das die Universität Koblenz-Landau mit dem Chemikalien-Großhändler abcr entwickelt hat. Mit anpassbaren, anorganisch-organischen Hybridkieselgelen lassen sich Wirkstoffe und Abbauprodukte von Medikamenten aus dem Wasser entfernen. Die Gele sind komplett recycelbar, völlig ungiftig und überall anwendbar. So können sie auch in Entwicklungsländern unkompliziert zum Einsatz kommen.

Katrin Schuhen, Juniorprofessorin für Organische und Ökologische Chemie und Projektleiterin des Projekts Wasser 3.0 kommentierte die Auszeichnung: „Wir sind stolz, ein ‚Ausgezeichneter Ort‘ im Land der Ideen zu sein, und freuen uns, mit unserem Projekt den Mehrwert gemeinschaftlichen Handelns herausstellen zu können.“ Sie ist der Auffassung, dass immer noch zu wenig für das Wasser und dessen Schutz weltweit gemacht werde. Durch die Auszeichnung und das damit verbundene mediale Interesse erhoffen sich die Forscherinnen und Forscher nun endlich auch die dringend notwendigen Investoren zu finden, die das Projekt unterstützen, so dass das oberste Forschungsziel – weltweit sauberes Wasser zu ermöglichen – auch erreicht werden kann.

Die Initiative „Deutschland – Land der Ideen“ und die Deutsche Bank zeichnen im Rahmen des Wettbewerbs „Ausgezeichnete Orte im Land der Ideen“ 2016 Ideen und Projekte aus, die die Potenziale von Nachbarschaft im Sinne von Gemeinschaft, Kooperation und Vernetzung nutzen und dadurch zur Bewältigung gegenwärtiger oder künftiger gesellschaftlicher Herausforderungen beitragen. „Die Welt rückt – gefühlt und tatsächlich – immer enger zusammen. Das heißt gleichzeitig auch: Wir sind alle Nachbarn. Deshalb betrifft das diesjährige Wettbewerbsthema auch uns alle. Denn es geht um Engagement und damit um die Gemeinschaft als Erfolgsmodell“, begründete Caroline Schmieder von der Deutschen Bank das diesjährige Wettbewerbsthema.

Eine Expertenjury aus Wissenschaftlern, Wirtschaftsmanagern, Journalisten und Politikern wählte „Wasser 3.0 – innovatives Verfahren zur Wasserreinigung“ gemeinsam mit einem sechsköpfigen Fachbeirat aus über 1.000 Bewerbungen aus. Caroline Schmieder überreichte Frau Jun.-Prof. Dr. Katrin Schuhen stellvertretend für die AG Organische und Ökologische Chemie die Auszeichnung als „Ausgezeichneter Ort“ und betonte: „Wasser 3.0 schreibt die Erfolgsgeschichte einer Forschungskooperation zweier innovativ denkender Partner aus Wissenschaft und Wirtschaft – der Universität Koblenz-Landau und der abcr GmbH – und ist damit ein Vorbild für ganz Deutschland.“

Weitere Informationen:
http://www.wasserdreinull.de
http://www.ausgezeichnete-orte.de
http://www.facebook.com/deutschland.landderideen

Quelle: idw

(nach oben)


Erdbeobachtung durch Tiere

Julia Wandt Stabsstelle Kommunikation und Marketing
Universität Konstanz

Prof. Dr. Martin Wikelski ist Max-Planck-Forschungspreisträger 2016

Prof. Dr. Martin Wikelski, Honorarprofessor an der Universität Konstanz und Direktor am Max-Planck-Institut für Ornithologie, Radolfzell und Seewiesen, erhält den Max-Planck-Forschungspreis für seine Forschung zur Interaktion von Tieren mit ihrer Umwelt. Martin Wikelskis Arbeit, die als weltweit führend gilt, bedient sich eines grundsätzlich neuen Ansatzes – der Lebenszeitbeobachtung von Tieren im Freiland. Mithilfe des von ihm initiierten Satellitensystems ICARUS wird es ab 2017 möglich sein, das Verhalten auch kleiner Tiere weltweit durchgehend zu beobachten. Auch die globale Datenbank Movebank geht auf Initiative des Biologen zurück. Langfristiges Ziel dieser Forschung ist, durch das Verhalten der Tiere, insbesondere durch Wanderbewegungen auch kleiner Tiere, das Leben auf der Erde zu beobachten und dadurch Naturkatastrophen oder den Ausbruch von Krankheiten wie Ebola voraussagen zu können. Der gemeinsame Forschungspreis der Alexander von Humboldt-Stiftung und der Max-Planck-Gesellschaft ist mit 750.000 Euro dotiert.

„Martin Wikelski ist auf seinem Gebiet einer der kreativsten Forscher weltweit. Der Max-Planck-Forschungspreis ist eine hochverdiente Anerkennung seiner Leistung. Ich bin sehr glücklich über diesen exzellenten Wissenschaftler an der Universität Konstanz und gratuliere herzlich“, so Rektor Prof. Dr. Ulrich Rüdiger.

Anstatt unter Laborbedingungen forscht Martin Wikelski im Freiland. Nur so lässt sich untersuchen, wie ein Vogel von Europa nach Afrika navigiert oder nachts im Dunkeln durch einen bewölkten Himmel von Amerika nach Kanada findet. Der Biologe untersucht die Orientierungsmechanismen von Tieren, wie sie Informationen aus der Umwelt aufnehmen, verarbeiten und in Entscheidungen umsetzen. „Anhand ihrer besseren Messsysteme und überlegener Informationsverarbeitung können Tiere Vorhersagen machen, zu denen menschengemachte, technische Sensorik nicht in der Lage ist“, sagt Martin Wikelski. Wobei es hierbei nicht um das Verhalten von Einzeltieren geht, sondern von Tierkollektiven, verstanden als Netzwerke von intelligenten Sensoren, die sich über Milliarden von Jahren entwickelt haben. Seit 2015 wird Martin Wikelskis Forschung an der Universität Konstanz durch die Professur für Biodiversität und Kollektivverhalten von Prof. Iain D. Couzin ergänzt, der eine neu gegründete zweite Abteilung am Max-Planck-Institut für Ornithologie, Teilinstitut Radolfzell, leitet.

Martin Wikelski stattet einzelne Tiere mit Miniatursendern aus, die nicht nur Daten zum Tierverhalten, sondern auch zu den Umweltbedingungen aufzeichnen, in denen sich die Tiere bewegen. Bedeutenden Anteil am Bau der Sender haben die Wissenschaftlichen Werkstätten der Universität Konstanz. Die gesendeten Daten werden in der globalen Datenbank Movebank gespeichert, die Martin Wikelski in Kooperation mit dem Kommunikations-, Informations-, Medienzentrum (KIM) der Universität Konstanz weiterentwickelt. Erfasst werden die Daten bald durch das Satellitensystem ICARUS (International Cooperation for Animal Research Using Space), das der Biologe federführend auf den Weg gebracht hat und mit dessen Hilfe die Daten überall auf der Welt ausgelesen werden können. ICARUS wird von der Raumfahrtfirma SpaceTech in Immenstaad am Bodensee federführend gebaut und von einem internationalen Konsortium von Wissenschaftlern betrieben. Im Juni 2017 soll ICARUS auf der internationalen Raumstation ISS installiert werden.

Zur Analyse der Positions-, Körper- und Umgebungsdaten der Tiere nutzt Martin Wikelski eine weitere Konstanzer Expertise. Der Informatiker Prof. Dr. Daniel Keim ist spezialisiert auf die visuelle Analyse großer Datenmengen. Er verknüpft die multiplen Datensätze in ausgeklügelten Visualisierungen, wodurch sie erst interpretierbar werden. Martin Wikelski versteht sich als Teamplayer beim Aufbau eines „Powerhauses“, das weltweit einzigartig ist. Die Verleihung des Max-Planck-Forschungspreises sieht er entsprechend als „Auszeichnung dieser Entwicklung an der Universität Konstanz“.

Martin Wikelski ist wichtig, dass die Förderung durch den Max-Planck-Forschungspreis in einen größeren Zusammenhang gestellt wird, der konkrete Auswirkungen auf das Leben der Menschen hat. Die global gesammelten Daten werden es ermöglichen, Erkenntnisse zum Klimawandel zu sammeln, Erdbeben vorauszusagen oder beispielsweise den Ebola-Wirt zwischen zwei Epidemien zu identifizieren. Schließlich könnten in naher Zukunft Heuschreckenplagen der Vergangenheit angehören, weil es möglich sein wird, das Schwarmverhalten der Tiere zu verstehen. Die Idee dahinter ist, überall auf der Welt „Anzeigetiere“ zu haben, mit deren Hilfe ein globales Beobachtungssystem aufgebaut werden kann.

Über den Preisträger:
Martin Wikelski hatte von Juni 2008 bis April 2016 die Professur für Ornithologie an der Universität Konstanz inne und lehrt hier nun als Honorarprofessor. Als Direktor am Max-Planck-Institut für Ornithologie leitet er seit Dezember 2007 die Abteilung „Tierwanderungen und Immunökologie“ in Radolfzell. Nach seinem Studium der Zoologie an der Ludwig-Maximilians-Universität München und seiner Promotion in Verhaltensökologie an der Universität Bielefeld forschte Martin Wikelski von 1995 bis 2007 an verschiedenen Universitäten und Forschungseinrichtungen in den USA, zuletzt seit 2000 an der Princeton University. Er ist „Emerging Explorer“ der National Geographic Society. Seit 2011 ist Martin Wikelski Leiter der Migration Ecology Group der FAO Task Force for Wildlife and Ecosystem Health. Er ist Mitglied der Nationalen Akademie der Wissenschaften Leopoldina. Seine Forschung wurde mehrfach ausgezeichnet.

Kontakt:
Universität Konstanz
Kommunikation und Marketing
Telefon: + 49 7531 88-3603
E-Mail: kum@uni-konstanz.de

Quelle: idw

(nach oben)


Nicht einmal die Hälfte der Beschäftigten kann Arbeitszeitwünsche verwirklichen

Rainer Jung Abt. Öffentlichkeitsarbeit
Hans-Böckler-Stiftung

Aktuelle Untersuchung

Kürzer oder längerer arbeiten – nicht einmal die Hälfte der Beschäftigten kann Arbeitszeitwünsche verwirklichen

Millionen Beschäftigte würden gern kürzer oder länger arbeiten als ihre momentane Arbeitszeit vorsieht. Doch nur einer Minderheit gelingt es, diesen Wunsch umzusetzen, zeigt eine aktuelle Studie.

Gut die Hälfte der Beschäftigten ist mit ihrer aktuellen Wochenarbeitszeit unzufrieden. Das geht aus der Untersuchung einer Forschungsgruppe um den Arbeitszeitexperten Dr. Hartmut Seifert, Senior Research Fellow im Wirtschafts- und Sozialwissenschaftlichen Institut (WSI) der Hans-Böckler-Stiftung, hervor*. Die Wissenschaftlerinnen und Wissenschaftler haben im Rahmen eines von der Hans-Böckler-Stiftung geförderten Forschungsprojekts Daten des Sozio-oekonomischen Panels der Jahre 2011 bis 2014 ausgewertet. In jedem Beobachtungsjahr wurden mehr als 10.000 Beschäftigte befragt; die Ergebnisse sind repräsentativ für die Arbeitnehmerinnen und Arbeitnehmer in Deutschland.

– Kürzer arbeiten würden am liebsten rund 40 Prozent der Befragten in allen Beobachtungsjahren, wobei nur die gezählt wurden, deren Wunscharbeitszeiten um mehr als fünf Wochenstunden von den tatsächlichen Büro- oder Fabrikstunden abweichen (siehe auch die Infografik; Link unten). Darunter sind besonders viele Beschäftigte, meist Männer, die über 40 Stunden pro Woche arbeiten. Die Beschäftigten wären bereit, für eine Arbeitszeitreduzierung entsprechend auf Einkommen zu verzichten.

– Länger arbeiten würden gern 12 Prozent. Dies sind überwiegend Frauen, die bisher nur 20 Stunden in der Woche oder weniger berufstätig sind. Gezählt wurden wiederum nur Beschäftigte, bei denen Wunsch und Wirklichkeit um mindestens fünf Wochenstunden auseinanderliegen.

– Unabhängig vom Geschlecht am ehesten zufrieden mit ihrem zeitlichen Pensum sind Beschäftigte mit 34 bis 40 Stunden. Zwei Drittel von ihnen wollen gar keine Veränderung oder würden sich mit einer Anpassung von bis zu fünf Stunden pro Woche begnügen.

Diese Befunde bestätigen grundsätzlich die Ergebnisse früherer Untersuchungen. Neu ist, dass sich mit den gewählten Daten auch ermitteln lässt, inwieweit es Beschäftigten gelingt, ihre Arbeitszeitwünsche zu realisieren. Das kann grundsätzlich auf unterschiedlichen Wegen gelingen: Durch Veränderung der Arbeitszeit auf der bestehenden Stelle, durch einen Jobwechsel innerhalb des Betriebes oder durch Wechsel zu einem anderen Arbeitgeber.

Betrachtet man diejenigen, die 2011 angegeben haben, gern deutlich kürzer arbeiten zu wollen, zeigt sich: Bis 2014 ist es nur rund 40 Prozent von ihnen gelungen, die tatsächliche Arbeitszeit um mindestens drei Stunden zu reduzieren. Von denen, die im Jahr 2011 eine Verlängerung anstrebten, konnten 44 Prozent ihren Wunsch bis 2014 umsetzen oder ihre Arbeitszeit wenigstens um drei Stunden aufstocken.

Diese relativ geringen Quoten zeigen nach Auffassung der Forschungsgruppe, dass gesetzliche oder tarifliche Regelungen zu Wahlarbeitszeiten dringend nötig sind. Alle Beschäftigte sollten verbriefte Ansprüche erhalten, die Arbeitszeiten nach ihren persönlichen Lebensbedingungen zu gestalten und bei Bedarf auch wieder zu ändern, schreiben die Forscher in den WSI-Mitteilungen.

Kontakt in der Hans-Böckler-Stiftung
Rainer Jung
Leiter Pressestelle
Tel.: 0211-7778-150
E-Mail: Rainer-Jung@boeckler.de

Weitere Informationen:

http://media.boeckler.de/Sites/A/Online-Archiv/19052 – *Hartmut Seifert, Elke Holst, Wenzel Matiaske, Verena Tobsch: Arbeitszeitwünsche und ihre kurzfristige Realisierung. In: WSI-Mitteilungen, Heft 4/2016.
http://www.boeckler.de/hbs_showpicture.htm?id=66291&chunk=1 – Infografik zum Download im Böckler Impuls 12/2016

Quelle: idw

(nach oben)


Wann ist Nano sicher? Broschüre für jedermann zeigt Arbeit des Forschungsverbundes Nanosicherheit

Dr. Carola Jung Presse- und Öffentlichkeitsarbeit
INM – Leibniz-Institut für Neue Materialien gGmbH

Sechs Leibniz-Institute stellen in der neuen Broschüre ihre Forschung zum Thema Nanosicherheit vor. Als Forschungsverbund Nanosicherheit nähern sie sich diesem Thema aus unterschiedlichen Blickwinkeln: Unter der Leitung des INM widmen sie sich zum Beispiel den Fragen, wie Nanopartikel Zellen beeinflussen, wann Nanopartikel sicher sind, wie dazugehörige Testsysteme beschaffen sein müssen oder wie die Gesellschaft mit dem Begriff Nano umgeht. Seine Ziele und Projekte hat der Forschungsverbund nun in einer Broschüre zusammengefasst, die beim INM unter contact@leibniz-inm.de und bei den Partnerinstituten erhältlich ist.

Der Forschungsverbund Nanosicherheit wurde 2012 gegründet. Seitdem setzt er seine Arbeit auch mit Unterstützung der Leibniz-Gemeinschaft fort.

„Wir freuen uns sehr, dass die Leibniz-Gemeinschaft diesen Forschungsverbund fördert, weil die Erkenntnisse zu einer nachhaltigen Entwicklung der Nanotechnologie beitragen“, betont Eduard Arzt, Sprecher des Forschungsverbundes und Wissenschaftlicher Geschäftsführer des INM. Dies sei nötig, da sich Nanopartikel im Alltag und Arbeitsleben fast überall fänden. Sie werden zum Beispiel in Touchscreens verarbeitet und für Energiespeichermaterialien, medizinische Implantate oder in der medizinischen Diagnostik verwendet.

Mit 1 bis 100 Nanometer haben Nanopartikel ähnliche Größen wie manche Viren oder medizinische Wirkstoffmoleküle. Deshalb drängen sich viele Fragen auf: Welchen Einfluss haben Nanopartikel auf die Reaktionen in menschlichen Zellen und wie funktioniert der Wirkmechanismus auf molekularer Ebene? Welche Eigenschaften müssen Nanopartikel aufweisen, um sicher zu sein und welche Testsysteme kann man für die Überprüfung der Sicherheit heranziehen? Was verbinden Fachleute und Laien eigentlich mit den Begriffen „Nano“ und „Nanosicherheit“? Und wie gelingt es am besten, die wissenschaftlichen Daten dazu nutzbar und vergleichbar zu machen?

Diesen und anderen Fragen werden die Partner im Forschungsverbund weiter nachgehen. In ihm beteiligen sich Chemiker, Physiker, Materialwissenschaftler, Toxikologen, Mediziner, Biologen, Bildungswissenschaftler und Datenbankspezialisten mit ihren fachspezifischen Sicht- und Arbeitsweisen. „Diese Kompetenzen ergänzen sich und erlauben uns so, Antworten auf die drängenden Fragen zu finden“, fasst Annette Kraegeloh, Koordinatorin des Verbundes und Leiterin der Arbeitsgruppe Nano Zell Interaktionen am INM, die Vorteile des Verbundes zusammen.

Hintergrund:
Das INM koordiniert den 2012 gegründeten Forschungsverbund Nanosicherheit. Für seine Arbeit stellt die Leibniz-Gemeinschaft bisher 280.000 Euro bis 2020 zur Verfügung. Zum Forschungsverbund gehören neben dem INM das FIZ Karlsruhe – Leibniz-Institut für Informationsinfrastruktur, das Forschungszentrum Borstel – Leibniz-Zentrum für Medizin und Biowissenschaften, das IfADo – Leibniz-Institut für Arbeitsforschung an der TU Dortmund, das IUF – Leibniz-Institut für umweltmedizinische Forschung an der Heinrich-Heine-Universität Düsseldorf sowie das IWM – Leibniz-Institut für Wissensmedien Tübingen. Neben der Koordination des Forschungsverbundes Nanosicherheit ist das INM auch Verbundpartner im Leibniz-Forschungsverbund Medizintechnik.

Weitere Informationen zu den Leibniz-Forschungsverbünden unter http://www.leibniz-gemeinschaft.de/forschung/leibniz-forschungsverbuende/.

Download der Broschüre unter http://www.leibniz-inm.de/wp-content/uploads/Broschüre-Forschungsverbund-Nanosic….

Ihre Expertin:
Dr. Annette Kraegeloh
INM – Leibniz-Institut für Neue Materialien
Leiterin Nano Zell Interaktionen
Koordinatorin des Forschungsverbundes Nanosicherheit
Tel: 0681-9300-440
annette.kraegeloh@leibniz-inm.de

Das INM – Leibniz-Institut für Neue Materialien erforscht und entwickelt Materialien – für heute, morgen und übermorgen. Chemiker, Physiker, Biologen, Material- und Ingenieurwissenschaftler prägen die Arbeit am INM. Vom Molekül bis zur Pilotfertigung richten die Forscher ihren Blick auf drei wesentliche Fragen: Welche Materialeigenschaften sind neu, wie untersucht man sie und wie kann man sie zukünftig für industrielle und lebensnahe Anwendungen nutzen? Dabei bestimmen vier Leitthemen die aktuellen Entwicklungen am INM: Neue Materialien für Energieanwendungen, Neue Konzepte für medizinische Oberflächen, Neue Oberflächenmaterialien für tribologische Systeme sowie Nano-Sicherheit und Nano-Bio. Die Forschung am INM gliedert sich in die drei Felder Nanokomposit-Technologie, Grenzflächenmaterialien und Biogrenzflächen.

Weitere Informationen:
http://www.leibniz-gemeinschaft.de/forschung/leibniz-forschungsverbuende/
http://www.leibniz-inm.de
http://www.leibniz-gemeinschaft.de

Quelle: idw

(nach oben)


Ozeanversauerung und die gesellschaftlichen Folgen

Eberhard Scholz Pressestelle
Universität Bremen

Wissenschaftler der Uni Bremen entwickeln Ökosystemmodell in Zusammenarbeit mit Akteuren in Norwegen ein Ökosystemmodell, über das sie in der Fachzeitschrift „Frontiers in Marine Science“ berichten.

Der Klimawandel führt nicht nur zu einer Erwärmung der Erde und einer Verstärkung von Wetterextremen – auch die Ozeane sind vom fortschreitenden Eintrag von Kohlendioxid aus der Atmosphäre betroffen, was ihren pH-Wert stetig absenkt. Diese Versauerung der Meere geht derzeit ungebremst voran, und die möglichen Folgen für die marinen Ökosysteme und menschliche Gesellschaften sind nur sehr unvollständig verstanden.

Wissenschaftler der Universität Bremen haben jetzt erste Ergebnisse zu den erwarteten ökologischen Veränderungen und ihren Auswirkungen in Norwegen veröffentlicht. Sie haben in Zusammenarbeit mit potentiell betroffenen gesellschaftlichen Akteuren ein Ökosystemmodell entwickelt, das die relevanten Umweltprozesse integriert und die resultierenden ökologischen Veränderungen und deren sozioökonomische Auswirkungen untersucht. Diese partizipative Methode beschreiben sie in dem Artikel „Stakeholder-Informed Ecosystem Modeling of Ocean Warming and Acidification Impacts in the Barents Sea Region“ in der Open-Access-Zeitschrift „Frontiers in Marine Science“.
(doi:10.3389/fmars.2016.00093)

„Es bestehen noch große wissenschaftliche Unsicherheiten über die Folgen der Ozeanversauerung, dennoch müssen wir schon jetzt versuchen die möglichen Folgen für die Gesellschaft zu verstehen – denn wenn alle Unklarheiten ausgeräumt sind, könnte es zu spät zum Handeln sein“, beschreibt der Leiter der Studie, Professor Stefan Gößling-Reisemann vom artec Forschungszentrum Nachhaltigkeit der Universität Bremen, die Motivation hinter der Arbeit, die innerhalb des deutschen Forschungsnetzes BIOACID (Biological Impacts of Ocean ACIDification) stattfindet. „Es ist daher wichtig, unter Berücksichtigung aller Unsicherheiten zu untersuchen, welche Akteure potentiell betroffenen sind und welche vorbeugenden Anpassungsmöglichkeiten es gibt. Unser Forschungsansatz basiert auf der Kommunikation zwischen Wissenschaft und Gesellschaft. Dazu nutzen wir Computermodelle, die auf dem aktuellen Stand der Wissenschaft sind und gleichzeitig die Wahrnehmungen und Interessen der Akteure berücksichtigen.“

Vom Ökosystem zur Gesellschaft
Das erstellte Modell wurde mit den Akteuren aus der Fischerei, dem Tourismussektor und von Umweltschutzorganisationen in einem Workshop in Tromsø, Nordnorwegen diskutiert, und gemeinsam über gesellschaftliche Anpassungsoptionen an die prognostizierten Veränderungen beraten. Nach übereinstimmender Meinung der Akteure ist das norwegische Fischerei- und Küstenmanagement generell gut aufgestellt, um mit den ökologischen Veränderungen der Zukunft umgehen zu können, wie z.B. mit dem Einwandern neuer Arten durch die Erwärmung der Meere. Die zusätzlichen Auswirkungen der Ozeanversauerung könnten jedoch den Druck auf die marinen Arten und damit die von ihnen abhängigen Gruppen stark erhöhen. Einige Akteure, wie Küstenfischer und lokale Tourismusunternehmen, sind stark abhängig von bestimmten Arten wie dem Kabeljau, Pottwalen oder Seevögeln, die durch indirekte Auswirkungen im Nahrungsnetz von der Versauerung und Erwärmung der Ozeane betroffen sein können. Wenn die Bestände sich verringern oder in andere Regionen abwandern, bedeutet dies daher zusätzliches gesellschaftliches Konfliktpotenzial und eine Herausforderung für das Management der Meere und Küsten.

„Die Interaktionen zwischen den Arten im marinen Nahrungsnetz spielen eine wichtige Rolle in der Wahrnehmung von marinen Ökosystemen bei den gesellschaftlichen Akteuren. Dieses Wissen basiert auf jahrzehntelanger Erfahrung und Beobachtung. Diese Interaktionen sind daher eine Grundlage, um zukünftige Verschiebungen im Ökosystem zu verstehen und diese mit den betroffenen Gruppen zu diskutieren“ erklärt Stefan Königstein, Meeresbiologe an der Uni Bremen. „So hilft dieses Wissen uns, zu verstehen, welche Kompromisse in der Nutzung des Meeres notwendig werden können. Selbst in einem wirtschaftsstarken Land wie Norwegen gibt es Gesellschaftsgruppen, die stärker unter den vom Klimawandel verursachten Umweltveränderungen leiden werden. Diese Auswirkungen können durch gutes gesellschaftliches Management und faire Verteilung der Nutzungsrechte abgefedert werden.“

Das BIOACID-Forschungsprojekt
Biological Impacts of Ocean Acidification III (Biologische Auswirkungen der Ozeanversauerung, Phase III) ist ein Verbundprogramm, das vom GEOMAR Helmholtz-Zentrum für Ozeanforschung in Kiel koordiniert wird. Ziel von BIOACID III ist es, die biologischen Veränderungen in marinen Systemen zu integrieren und ihre Auswirkungen auf Gesellschaften besser zu verstehen. Das Themengebiet zu „Systemübergreifenden Auswirkungen der Ozeanversauerung für Ökosysteme und Gesellschaften“ wird dabei gemeinsam von Wissenschaftlern der Universität Bremen und dem Alfred-Wegener-Institut Helmholtz-Zentrum für Polar- und Meeresforschung (AWI) in Bremerhaven geleitet.

Weitere Informationen:
Universität Bremen
artec – Forschungszentrum Nachhaltigkeit
Prof. Dr. Stefan Gößling-Reisemann
Tel. 0421 218 64884
E-Mail: sgr@uni-bremen.de

Stefan Königstein
Tel. 0421 218 64894
E-Mail: koenigstein@uni-bremen.de
http://www.bioacid.de

Quelle: idw

(nach oben)


FluidSTORY: eine innovative Lösung zur Speicherung von Energie

Marie de Chalup Wissenschaftliche Abteilung
Wissenschaftliche Abteilung, Französische Botschaft in der Bundesrepublik Deutschland

Das Projekt FluidSTORY, gefördert von der nationalen Forschungsagentur Frankreichs (ANR), befasst sich seit 2016 mit der Untersuchung der Machbarkeit einer Zukunftslösung für die unterirdische Speicherung von Energie. Das Prinzip besteht darin, den Überschuss an Strom in Methan umzuwandeln und zu speichern, um ihn später bei Bedarf in Form von elektrischer Energie wieder abzugeben.

Erneuerbare Energien werden bis 2020 in Europa 20 % des Energiemixes ausmachen. Um ein Gleichgewicht zwischen Nachfrage und Energieproduktion zu finden und die Netzstabilität zu gewährleisten, ist es notwendig, Lösungen zu finden, um die Fluktuationen der erneuerbaren Energien auszugleichen und Energie im großen Maße zu speichern und freizugeben, wenn sie benötigt wird.

Einer der vielversprechendsten Ansätze zur Speicherung besteht darin, elektrische Energie in Flüssigkeiten zu transformieren. Das Elektrolyse-Methanisierungs-Oxyfuel-Verfahren (aus Oxy für Oxygen (Sauerstoff) und fuel für Brennstoff), kurz EMO, verwandelt den überschüssigen Strom in Methan. Der Prozess erfolgt in zwei Schritten: Erzeugung von Wasserstoff und Sauerstoff durch Elektrolyse von Wasser und Methan durch die Reaktion von Wasserstoff mit CO2. Das Methan treibt dann eine Turbine zur Stromerzeugung an. Dieses Verfahren ermöglicht die temporäre Speicherung in reversibler und fester Form von großen Mengen an Flüssigkeiten (Sauerstoff, CO2 und Methan).

Geplant ist, diese Flüssigkeiten in Hohlräumen in den tieferen Salzschichten der Erde zu speichern, so wie es heutzutage schon für die Lagerung von Kohlenwasserstoffen (strategischen Reserven, die saisonale Speicherung) angewandt wird. Das Hauptziel des Projektes FluidSTORY ist es, die Machbarkeit, Sicherheit und Integrität der Speicherung von Sauerstoff und CO2 für das EMO-Konzept in solchen Hohlräumen zu untersuchen. Ein wichtiger Teil des Projekts widmet sich der Bearbeitung von verschiedenen technischen und ökologischen Fragen, wie: Können verschiedene Flüssigkeiten in getrennten Hohlräumen oder im gleichem Volumen gespeichert werden? Wie reagiert das Gas mit dem Restwasser in diesen Hohlräumen? Was sind die Risiken in der Betriebsphase oder bei einer Standortschließung? Zudem sollen die erforderlichen Bedingungen definiert werden, die mittel- bis langfristig erfüllt sein müssen, um bis 2030-2050 der wirtschaftlichen Rentabilität dieser Speicherlösung in Frankreich gerecht zu werden. Das Projekt hat somit auch eine wirtschaftliche Komponente, um die Bedürfnisse in Bezug auf die Lagerung und den Energiekontext zu beurteilen, in dem das Verfahren eine Lösung bieten könnte.

Eine methodische Bestandsaufnahme der vorhandenen Hohlräume und potenzieller neuer Hohlräume ermöglicht die genaue Erfassung der Verfügbarkeit von Speicher-Volumen, die für den Einsatz dieser Technologie vorhanden sind.

Das Projekt wird mit 2,1 Millionen Euro über einen Zeitraum von 4 Jahren von der ANR gefördert und vereint 3 öffentliche und 4 private Partner mit folgenden Aufgabenbereichen:

BRGM (Forschungsbüro für Geologie und Bergbau): Koordination, geologische Untersuchungen und Sicherheitsrisiken
ARMINES: Thermodynamik und Geochemie, Oberflächenprozesse
X-LMS Polytechnic: Thermomechanik, Simulationen
Brouard Consulting: Thermomechanik
Geostock: Geotechnik, Expertise in Hohlräumen
Geogreen: Strategie und Wirtschaft
AREVA H2-GEN: Elektrolyse

Die Projektaktivitäten werden von einem externen Ausschuss der Industrie im Energiesektor überwacht, an denen Air Liquide und Engie teilnehmen. Das Projekt wird zudem von Avenia Cluster und S2E2 unterstützt.

Weitere Informationen:
Kontakt: Arthur De Pas, Tel.: +33 (0)2 38 64 46 65 – presse@brgm.fr

Quelle: „Projet FluidSTORY : une solution innovante pour stocker l’énergie“, Pressemitteilung des , französischen Forschungsbüros für Geologie und Bergbau (BRGM), 01.07.2016 – http://www.brgm.fr/publication-presse/projet-fluidstory-solution-innovante-stock…

Redakteurin: Daniela Niethammer, daniela.niethammer@diplomatie.gouv.fr

Quelle: idw

(nach oben)


UDE/UK Essen: Die meisten Schlaganfälle lassen sich vermeiden

Beate Kostka M.A. Ressort Presse – Stabsstelle des Rektorats
Universität Duisburg-Essen

Die meisten Schlaganfälle lassen sich vermeiden, wenn die Risikofaktoren rechtzeitig behandelt werden. Das ist das Ergebnis einer großen internationalen Studie mit knapp 27.000 Teilnehmern in 32 Ländern weltweit, die jetzt in der Fachzeitschrift Lancet veröffentlicht wurde. Beteiligt ist auch die Medizinische Fakultät der Universität Duisburg-Essen (UDE) am Universitätsklinikum Essen.

Die häufigste Ursache für Tod und schwere Behinderungen weltweit ist heutzutage der Schlaganfall; gefolgt von Krebserkrankungen und Herzinfarkt. Welche Rolle dabei den beeinflussbaren Risikofaktoren zukommt, war bislang noch nicht umfassend datengestützt untersucht worden. Der Neurologe Prof. Dr. Hans-Christoph Diener: „Unsere Studie zeigt auf, dass ca. 90 Prozent dieser Schlaganfälle vermeidbar gewesen wären, hätten die Betroffenen gesünder gelebt – sei es, dass sie weniger Nikotin oder Alkohol zu sich genommen oder auch mehr Sport getrieben hätten.“

Die Interstroke Studie wurde vom Population-Health-Research-Institut der McMaster University in Hamilton/Kanada geleitet. Die Deutschlandkoordination übernahm die Universitätsklinik für Neurologie der Medizinischen Fakultät der UDE am UK Essen unter der Leitung von Prof. Dr. Hans-Christoph Diener und Prof. Dr. Christian Weimar. Zwischen 2007 und 2015 wurden 26.919 Teilnehmer aus 32 Ländern untersucht. Erfasst wurden Patienten mit einem akuten Schlaganfall, denen jeweils eine Kontrollperson ohne Schlaganfall desselben Alters und Geschlechts zugeordnet wurde. Dann wurde nach Risikofaktoren für einen Schlaganfall geschaut.

Die Studie identifizierte wichtige behandelbare Risikofaktoren für den Schlaganfall wie Bluthochdruck, mangelnde körperliche Betätigung, erhöhte Blutfette, ungesunde Ernährung, Übergewicht, Rauchen, Herzerkrankungen, übermäßiger Alkoholkonsum und Diabetes mellitus. Prof. Diener: „Behandelt man diese relevanten Faktoren konsequent, gingen die Schlaganfälle drastisch zurück. Wichtig wäre deshalb, dass auch in Deutschland entsprechende Förderungsprogramme initiiert und umgesetzt werden.“

Weitere Informationen:
Global and regional effects of potentially modifiable risk factors associated with acute stroke in 32 countries (INTERSTROKE): a case-control study
Christine Harrell, Tel. 0201/723-1615, christine.harrell@uni-due.de

Weitere Informationen:
http://www.thelancet.com/pdfs/journals/lancet/PIIS0140-6736(16)30506-2.pdf

Quelle: idw

(nach oben)


Richtig Gärtnern für Wildbienen: Was schützt, was schadet

Eva Goris Kommunikation
Deutsche Wildtier Stiftung

Ratgeber der Deutschen Wildtier Stiftung zeigt auf, was man im Spätsommer für die nächste Wildbienen-Generation tun kann

Nur noch zwei Monate, dann hält der Altweibersommer bei uns Einzug. Die immer schwächer werdenden Wildbienen drehen ihre allerletzten Runden über duftende Stauden und Blumenwiesen. Das Leben der „Wildbienen-Eltern“ geht jetzt zu Ende; aber für den Nachkommen haben sie vorgesorgt. Die Wildbienenbrut schlummert in sorgsam angelegten Nestern. Wer einen Garten hat, übernimmt auch Verantwortung für die jungen Wildbienen. Wie sie sicher durchs Jahr kommen, zeigt der neue Ratgeber der Deutschen Wildtier Stiftung. Jeder der einen grünen Daumen hat, kann sich am Wildbienenschutz beteiligen.

1) Beete nicht mit Torfmulch abdecken
Wildbienen graben ihre Nester in lockeren Erdboden. Dicke Torfschichten meiden sie. Geeignete Böden sind offene Bodenstellen, z. B. zwischen Gehwegplatten.
2) Exotische Pflanzen nur bedingt pflanzen
Sträucher werden im Herbst gesetzt – aber bitte möglichst keine exotischen Pflanzen! Ein Beispiel: Die aus China stammende Forsythie liefert trotz ihrer leuchtend gelben Blüten weder Nahrung noch ist sie eine geeignete Nisthilfe.
3) Leere Schneckenhäuser nicht wegwerfen
Die zweifarbige Schneckenhaus-Mauerbiene legt ihre Eier ausschließlich in leere Schneckenhäuser. Das zerbrechliche Kalk-Häuschen tarnt sie mit Reisig und Laub.
4) Totholz liegenlassen
Manche Wildbienenarten nagen Gänge in morsches Holz und legen hier ihre Eier hinein. Oder sie nutzen alte Käfer-Bohrlöcher, um dort ihre Nester zu bauen.
5) Sonnige Ecken wählen
Alle Nisthilfen für Wildbienen nutzen nichts, wenn sie im Schatten liegen. Die Brut kann sich nur entwickeln, wenn sich der Ort, an dem sie ruht, immer wieder erwärmen kann.
6) Hohle Stängel über den Winter stehen lassen
Wildbienen, die oberirdisch nisten, bauen ihre Nester in stabilen Pflanzenstängeln. Holunderbusch- oder Brombeerstängel sind ideal. 50 bis 80 cm über dem Boden schneiden und über den Winter stehen lassen.
7) Nisthilfe selber bauen
Nutzen Sie dafür hohle Bambusstäbe, die ca. 10 cm lang sind. In eine saubere, leere Konservendose bis zur Mitte Gips gießen. Stäbe einsetzen, trocknen lassen, Nisthilfe waagerecht an einen sonnigen, regen- und windgeschützten Ort legen.
8) Natürliche Nischen entwickeln
Wildbienen brauchen Vielfalt. Je mehr Wildpflanzen, Laub und Totholz sie vorfinden, desto besser. Solche Nischen können auch in aufgeräumten Gärten integriert werden.
9) Trockenmauer aufbauen
In warmen Steinmauern suchen sich die Wildbienen Plätze in Ritzen oder kleben Nester aus Pflanzenharz und mineralischem Mörtel an die Steine.
10) Sandhaufen anlegen
Er sollte ca. 30 Zentimeter hoch sein und sonnig liegen. Im Sand bauen die Wildbienen ihre Nester. Auch mit Sand gefüllte Blumentöpfe stellen gute künstliche Nisthilfen dar.

Der aktuelle Praxis-Ratgeber der Deutschen Wildtier Stiftung „Wildbienen – schützen und fördern im Kleingarten“ bietet Anregungen, wie Garten oder Balkon zum Paradies für die fleißigen Bestäuber werden. Er wurde mit dem führenden deutschen Wildbienenexperten Dr. Christian Schmid-Egger entwickelt und kann kostenlos unter www.deutschewildtierstiftung.de/publikationen bestellt oder unter Telefon 040 970 786 90 angefordert werden. Bitte fordern Sie das Cover bei uns in der Pressestelle an.

www.DeutscheWildtierStiftung.de

Quelle: idw

(nach oben)


Die DGOU begrüßt gesetzliche Klarstellung zur Bildung der Rettungsgasse

Susanne Herda und Stefanie Becker Presse- und Öffentlichkeitsarbeit
Deutsche Gesellschaft für Orthopädie und Unfallchirurgie e. V.

Die Deutsche Gesellschaft für Orthopädie und Unfallchirurgie e.V. (DGOU) begrüßt die Initiative des Gesetzgebers, die Vorgaben zur Bildung einer Rettungsgasse in der Straßenverkehrsordnung (StVO) mittels einer verständlichen Verhaltensregel zu vereinfachen. Autofahrer müssen die Rettungsgasse künftig immer unabhängig von der Anzahl der Fahrbahnen zwischen dem äußerst linken und dem unmittelbar rechts daneben liegenden Fahrstreifen bilden (§11 Absatz 2 StVO).

„Das ist eine sinnvolle Maßnahme zur Verbesserung der Rettungskette, da die derzeitige Regelung von Autofahrern oft nicht zufriedenstellend umgesetzt wird“, sagt Professor Dr. Reinhard Hoffmann, Generalsekretär der DGOU. Die Folge: Der Weg für Notärzte und Rettungskräfte ist häufig blockiert. Hier sei auch das Verantwortungsbewusstsein der Autofahrer gefordert.

Sobald Fahrzeuge auf Autobahnen oder mehrspurigen Außerortsstraßen Schritt-Tempo fahren oder sich im Stillstand befinden, muss künftig die Rettungsgasse gebildet werden. Damit wird der Zeitpunkt für die Bildung der Rettungsgasse konkretisiert. Der Begriff „Stockender Verkehr“ wurde in der Vergangenheit oft missverständlich interpretiert. Leicht einprägen können sich Autofahrer die neue Vorgabe anhand der sogenannten „Rechte-Hand-Regel“: Dabei befindet sich die Rettungsgasse immer zwischen Daumen und Zeigefinger. Der Daumen markiert die linke Fahrspur und die anderen Finger eine beliebige Anzahl weiterer Fahrbahnen. Damit die vom Bundeskabinett beschlossene Novelle der Straßenverkehrsordnung für mehr Verkehrssicherheit in Kraft treten kann, muss noch der Bundesrat zustimmen. „Nach einem Unfall zählt für Ärzte und Rettungskräfte jede Sekunde, die schwerverletzten Verkehrsopfer schnellstmöglich zu erreichen und ihre Überlebenschancen zu verbessern“, unterstreicht Hoffmann die Notwendigkeit einer reibungslos funktionierenden Rettungsgasse.

Aus Sicht der Unfallchirurgen ist die gesetzliche Klarstellung zur Rettungsgasse ein wichtiger Mosaikstein für eine reibungslose Notfallmedizin: „Von der Rettung bis zum Eintreffen der schwerverletzten Patienten in eine Klinik darf keine unnötige Zeit verstreichen, denn Zeit ist Leben“, betont Hoffmann. Die präklinische Versorgung ist bei Mehrfachverletzten von entscheidender Bedeutung. Die ersten lebensrettenden Maßnahmen finden direkt am Unfallort durch Notarzt und Sanitäter statt: Aufgabe ist es, möglichst schnell die lebenswichtigen Körperfunktionen der Unfallopfer zu stabilisieren und sie in einen transportfähigen Zustand zu versetzen. Denn: Die besten Überlebenschancen hat der Patient in der sogenannten „Golden Hour of Shock“ – also innerhalb von 60 Minuten nach Eintreffen des Rettungsdienstes am Unfallort und der stationären Einlieferung in eine Klinik und den speziell für Schwerverletzte vorgesehenen Schockraum.

Durch die 2006 von der Deutschen Gesellschaft für Unfallchirurgie e.V. (DGU) gegründete Initiative TraumaNetzwerk DGU® garantieren mehr als 600 Traumazentren die Aufnahme von Schwerverletzten rund um die Uhr an 365 Tagen im Jahr. Alle Schwerverletzten werden entsprechend der S3-Leitlinie Polytrauma/Schwerverletztenversorgung der DGU behandelt. „Wir werden auch in der Zukunft unsere Kräfte auf allen medizinischen Ebenen bündeln, um die Überlebenschancen von Schwerverletzten weiter zu erhöhen“, betont Hoffmann. Doch auch die Autofahrer stehen in der Pflicht: Eine Rettungsgasse kann nur funktionieren, wenn alle Pkw-Fahrer an einem Strang ziehen, die Vorschriften einhalten und ein Bewusstsein für die Situation entwickeln.

Dazu raten Verkehrsexperten:
• Bereits bei Schrittgeschwindigkeit eine Rettungsgasse bilden – nicht erst bei Annäherung der Einsatzfahrzeuge, da unnötig Zeit verloren geht.
• Bei Blaulicht und Einsatzhorn: die Geschwindigkeit verringern und klären, aus welcher Richtung die Einsatzfahrzeuge kommen.
• Blinker setzen, um den Verkehrsteilnehmern und Rettungsfahrzeugen mitzuteilen, zu welcher Seite ausgewichen wird.
• Im Zweifelsfall anhalten oder den Pkw möglichst parallel zur Fahrtrichtung ausrichten, damit nicht das Heck des Fahrzeugs in die Rettungsgasse hineinragt.
• Ausreichend Abstand zum vorderen Fahrzeug halten, um die Rettungsgasse bilden zu können. Stehen die Autos im Stau bereits dicht auf dicht, ist das oft nicht mehr möglich.
• Vor der Weiterfahrt prüfen, ob noch weitere Einsatzfahrzeuge folgen.

„Halten sich alle Autofahrer konsequent an die Umsetzung der gesetzlich vorgeschriebenen Rettungsgasse, würde das unsere Arbeit vor Ort erheblich erleichtern“, so die Unfallchirurgen. Begrüßenswert wäre daher auch die Einführung einer einheitlichen Regelung innerhalb Europas. Nach Ansicht der DGOU machen länderspezifische Abweichungen keinen Sinn und führen innerhalb der EU-Nachbarländer zu unnötiger Verunsicherung bei den Autofahrern.

Hintergrund:
Um die Überlebenschancen Schwerstverletzter zu erhöhen, haben Unfallchirurgen im Jahr 2006 im Weißbuch Schwerverletztenversorgung die optimalen Bedingungen für die Versorgung von Schwerverletzten festgehalten und die Initiative TraumaNetzwerk DGU® (TNW) gegründet. Ziel ist es, durch diese Vernetzungsstruktur die Behandlungsqualität zu sichern und zugleich die schnelle Versorgung der Patienten zu optimieren. Gegenwärtig erfüllen bundesweit rund 600 Traumazentren die Qualitätsvorgaben der DGU und sind in 51 zertifizierten TraumaNetzwerken DGU® (TNW) zusammengeschlossen. Diese Zusammenarbeit hat sich in enger Abstimmung mit den Rettungsdiensten in der Vergangenheit bewährt. Insbesondere bei Massenunfällen auf Autobahnen können viele schwerverletzte Menschen somit schnell und effizient versorgt werden.

Referenzen:
www.bmvi.de

Kontakt für Rückfragen:
Susanne Herda und Stefanie Becker
Presse- und Öffentlichkeitsarbeit
Deutsche Gesellschaft für Orthopädie und Unfallchirurgie (DGOU) e.V.
Straße des 17. Juni 106-108, 10623 Berlin
Telefon: +49 (0)30 340 60 36 -06 oder -16
Telefax: +49 (0)30 340 60 36 01
E-Mail: presse@dgou.de

Weitere Informationen:
http://www.dgou.de
http://www.traumanetzwerk-dgu.de

Quelle: idw

(nach oben)


Für die deutsche Meeresforschung: 30 Jahre Forschungsschiff METEOR

Magdalena Schaeffer Presse- und Öffentlichkeitsarbeit
Deutsche Forschungsgemeinschaft (DFG)

DFG-Präsident Strohschneider: „Unverzichtbare Infrastruktur der Meeresforschung“ / Jubiläumsfahrt vor den Azoren

Die Deutsche Forschungsgemeinschaft (DFG) hat anlässlich des 30-jährigen Jubiläums des Forschungsschiffes METEOR die Bedeutung von Forschungsschiffen hervorgehoben. Auf einer Jubiläumsfahrt am 17. Juli 2016 vor der atlantischen Inselgruppe der Azoren sagte der Präsident der DFG, Professor Dr. Peter Strohschneider: „Die besondere Leistungskraft der deutschen Meeresforschung auch im internationalen Vergleich wäre ohne Forschungsschiffe undenkbar. Mit der umfangreichen Förderung von Forschungsschiffen als Hilfseinrichtungen sichert die DFG insbesondere auch der erkenntnisgeleiteten Forschung und zumal an den Universitäten den Zugang zu dieser unverzichtbaren Infrastruktur.“

Die METEOR ist das drittgrößte Forschungsschiff der deutschen Forschungsflotte. Sie ermöglicht Untersuchungen von Wasser, Organismen im Meer, Meeresboden und Atmosphäre und dient damit der Grundlagenforschung in allen relevanten Disziplinen der Meeresforschung. Die laufenden Kosten für den Schiffsbetrieb der METEOR wie auch der MARIA S. MERIAN, dem zweiten von der DFG geförderten Forschungsschiff, tragen zu 70 Prozent die DFG und zu 30 Prozent das Bundesministerium für Bildung und Forschung (BMBF), das auch der Eigentümer der METEOR ist. Die DFG-Senatskommission für Ozeanographie koordiniert die wissenschaftliche Fahrtplanung. Die Leitung des Schiffsbetriebs liegt bei der Leitstelle Deutsche Forschungsschiffe am Institut für Meereskunde der Universität Hamburg.

„Die Schiffe sind die zentralen Plattformen der Meeresforschung. Wichtige Erkenntnisse über die Rolle der Ozeane bei der Veränderung des Klimas oder auch faszinierende Entdeckungen wie die erstaunlichen Lebensgemeinschaften am mittelozeanischen Rücken, die ohne Sauerstoff auskommen, konnten nur mithilfe von Forschungsschiffen gewonnen werden“, sagte der Vorsitzende der DFG-Senatskommission für Ozeanographie, Professor Dr. Michael Schulz. „Zeit für die Forschung auf dem Schiff ist daher eine sehr wertvolle Ressource. Die Aufgabe der Senatskommission ist es, diese nach Kriterien der wissenschaftlichen Qualität zu verteilen.“

Das mit 30 Plätzen für wissenschaftliches Personal ausgestattete Forschungsschiff METEOR wurde am 15. März 1986 in Dienst gestellt. Die erste Bewilligung von Mitteln für die Hilfseinrichtung erfolgte am 15. Juli 1986. Es ist das dritte Forschungsschiff dieses Namens: In Anlehnung an das „graue“ Forschungsschiff METEOR (1925-1946) und das „weiße“ Forschungsschiff METEOR (1964-1985) wird das heutige Forschungsschiff nach seiner Farbe auch die „blaue“ METEOR genannt. Es hat rund 400 Forschungsfahrten in den Atlantischen, den Ostpazifischen und den Westindischen Ozean sowie das Mittelmeer und Nord- und Ostsee unternommen und dabei 1,3 Millionen Seemeilen zurückgelegt, was einer Strecke entspricht, die 60-mal um die Erde reicht. Die Fahrten, an denen 9800 Wissenschaftlerinnen und Wissenschaftler teilnahmen, wurden durch eine Gesamtbewilligungssumme für die Betriebskosten von fast 250 Millionen Euro ermöglicht.

Ziel der Jubiläumsfahrt unter der Leitung des Geologen Dr. Christoph Beier von der Universität Erlangen-Nürnberg ist es, mithilfe des Bremer Tauchroboters MARUM-QUEST Beobachtungen in den Unterwasservulkanen vor den Azoren durchzuführen, um das Phänomen des Vulkanismus besser zu verstehen. Die Forscherinnen und Forscher wollen so der Antwort auf die Frage näherkommen, wie die Azoren entstanden sind.

Die METEOR wurde stetig an die Bedürfnisse der Wissenschaft angepasst und ist aus wissenschaftlicher Sicht bis heute in sehr gutem Zustand. Sie soll noch bis Ende dieser Dekade eingesetzt werden, danach soll ein Neubau sowohl die METEOR als auch das Forschungsschiff POSEIDON ersetzen. „Es ist sehr erfreulich, dass der Bund die Weichen entsprechend gestellt hat und die Mittel für einen Neubau bereitstellen wird“, sagte DFG-Präsident Peter Strohschneider. „Die DFG wird den Betrieb des neuen Schiffes mit den ihr zur Verfügung stehenden Mitteln unterstützen, um der deutschen Meeresforschung auch in Zukunft eine bestmögliche Infrastruktur zu bieten.“

Die Erforschung der Meere und Ozeane steht auch im Mittelpunkt des vom BMBF ausgerufenen Wissenschaftsjahrs 2016*17. Unter dem Motto „Entdecken – Nutzen – Schützen“ zeigt das Jahr, welchen Beitrag die Forschung dazu leistet, die Meere besser zu verstehen und nachhaltig zu nutzen. Die DFG ist in diesem Jahr wieder mit zahlreichen Aktionen für interessierte Bürgerinnen und Bürger verschiedener Altersgruppen dabei: unter anderem mit dem multimedialen Webformat „KlimaTaucher“, das Fragen zum Klimawandel aufgreift, und mit dem Videowettbewerb „MeerWissen“ im Rahmen des Wettbewerbs „fast forward science“ von Wissenschaft im Dialog.

Weiterführende Informationen
Ausführliche Informationen zum Forschungsschiff METEOR:
www.dfg.de/gefoerderte_projekte/hilfseinrichtungen_forschung/meteor/index.html

Ausführliche Informationen zur DFG-Senatskommission für Ozeanographie:
www.dfg.de/dfg_profil/gremien/senat/ozeanographie/index.html

Weitere Auskünfte erteilt auch der Vorsitzende der DFG-Senatskommission für Ozeanographie:
Prof. Dr. Michael Schulz, Universität Bremen, MARUM – Zentrum für Marine Umweltwissenschaften, Tel. +49 421 218-65500, mschulz@marum.de

Ausführliche Informationen zu den Aktivitäten der DFG im Wissenschaftsjahr 2016*17: www.dfg.de/meere_ozeane

Quelle: idw

(nach oben)


Schwarzer Hautkrebs

Dr. med. Svenja Ludwig Pressestelle
Deutsche Krebshilfe

Entstehung von Metastasen vermeiden

Hannover (elf) – Die Bildung von Metastasen macht das maligne Melanom zu einer besonders gefährlichen Krebsart. Wissenschaftler der Medizinischen Hochschule in Hannover wollen nun einen Weg finden, um die Metastasierung beim schwarzen Hautkrebs zu drosseln. Die Deutsche Krebshilfe fördert das Projekt mit rund 245.000 €.

Krebszellen sind mitunter deutlich beweglicher und dynamischer als gesunde Zellen. Beim schwarzen Hautkrebs ist dieser Bewegungsdrang der Tumorzellen besonders ausgeprägt. Sie wandern dabei von der Haut ins Köperinnere und gelangen ins Blutsystem. Von dort können sie sich im Körper ausbreiten. Die Metastasen, die auf diesem Weg entstehen, machen den schwarzen Hautkrebs besonders gefährlich.

Wissenschaftler der Medizinischen Hochschule Hannover wollen nun einen Weg finden, um die Bildung von Metastasen beim schwarzen Hautkrebs zu drosseln. Ihr Ziel: die Melanomzellen in ihrer großen Wanderlust bremsen.

„Die Zellen unseres Körpers tragen in ihrer Hülle Sensoren, mit denen sie Signale aus ihrer Umgebung empfangen. Über diese Sensoren kann der sogenannte Ionenaustauscher NHE1 durch bestimmte Proteine und Zuckerketten den Befehl ‘Bewegung drosseln‘ erhalten“, erläutert die Projektleiterin Professor Dr. Daniela G. Seidler von der Klinik für Gastroenterologie, Hepatologie und Endokrinologie der Medizinischen Hochschule. Gemeinsam mit Professor Dr. Christian Stock möchte sie diesen zelleigenen Signalweg dafür nutzen, die Krebszellen zum Stillstand zu bringen.

In einem ersten Schritt arbeiten die Forscher nun daran, den Mechanismus der Signalübertragung genau zu verstehen. Damit wollen sie den Grundstein für eine effektivere Behandlung von schwarzem Hautkrebs legen. „Glykotherapeutika – das sind zuckerartige Wirkstoffe – könnten die Signal-gebenden Zuckerketten nachahmen und gezielt an der Oberfläche von Tumorzellen an NHE1 binden“, so Seidler. Den Krebszellen könne auf diese Art vermittelt werden, ihre Beweglichkeit und Dynamik herabzusetzen.

Gerd Nettekoven, Vorstandsvorsitzender der Deutschen Krebshilfe, betont: „Wenn die gefährliche Metastasierung beim malignen Melanom künftig verhindert werden könnte, wäre dies ein wichtiger und sehr großer Fortschritt in der Krebsmedizin und für die Versorgung der betroffenen Patienten.“

Hintergrundinformation: Schwarzer Hautkrebs
Derzeit erkranken nach Hochrechnungen des Krebsregisters Schleswig-Holstein in Deutschland rund 30.600 Menschen jedes Jahr an schwarzem Hautkrebs (malignes Melanom). Das durchschnittliche Erkrankungsalter liegt für Männer bei 64 Jahren und für Frauen bei 58 Jahren.

Die Anzahl der nach der Geburt erworbenen Pigmentmale stellt den höchsten Risikofaktor für das maligne Melanom dar. Menschen mit mehr als 100 Pigmentmalen tragen ein etwa siebenfach erhöhtes Risiko, an dieser Art des Hautkrebses zu erkranken. Sonnenbrände in der Kindheit und Jugend erhöhen das Hautkrebsrisiko um das Zwei- bis Dreifache.

Weitere Informationen finden Sie unter www.krebshilfe.de.

Quelle: idw

(nach oben)


Klimawandel: Hochwasser könnten noch größere Schäden verursachen als gedacht

Jonas Viering Presse- und Öffentlichkeitsarbeit
Potsdam-Institut für Klimafolgenforschung

Schäden durch Hochwasser nehmen in Deutschland mit dem Klimawandel voraussichtlich zu, wie eine neue Studie zeigt. In der Vergangenheit haben Überschwemmungen an der Elbe und ähnliche Extremereignisse bereits gezeigt, welche verheerenden Schäden entstehen können, wenn in Verbindung mit bestimmten Wetterlagen heftiger und lang anhaltender Regen nicht mehr vom Boden aufgenommen werden kann und die Pegel der Flüsse ansteigen. Ohne entsprechende Anpassungsmaßnahmen könnten sich in Deutschland die jährlichen Schadenskosten von derzeit etwa 500 Millionen Euro künftig vervielfachen, zeigt die umfassende Analyse der Fachleute im Journal Natural Hazards and Earth System Sciences.

„Hochwasser wie das Juni-Hochwasser 2013 sind zwar seltene Ereignisse, sie haben jedoch große Folgen für Mensch und Umwelt und verursachen immense finanzielle Schäden“, erklärt Leitautor Fred Hattermann vom Potsdam-Institut für Klimafolgenforschung (PIK). Eine Abschätzung dieser Schäden ist deshalb nicht nur wichtig für Kommunen vor Ort, sondern etwa für Versicherer. Aufbauend auf einer früheren Studie im Auftrag des Gesamtverbands der Deutschen Versicherer (GDV) haben die Wissenschaftler nun erneut einen Blick auf das Ausmaß möglicher Flutschäden geworfen und ihre ursprünglichen Ergebnisse mithilfe noch breiter aufgestellter Computersimulationen bestätigt. Doch nicht nur das: „Unsere jetzt noch viel aufwendigere Analyse illustriert nicht nur erneut, dass wir künftig wohl mit einer Zunahme der Schäden durch Hochwasser rechnen müssen – die Schadenskosten könnten sogar noch deutlich höher liegen als ursprünglich gedacht“, so Hattermann.

+++Rhein, Donau, Elbe, Weser und Ems: 5473 Flussabschnitte+++
„Wir haben für die fünf größten Flüsse Deutschlands in 35 verschiedenen Projektionen untersucht, wie sich der Klimawandel bis zum Ende des Jahrhunderts auswirken könnte, und dabei insgesamt 5473 Flussabschnitte von Rhein, Donau, Elbe, Weser und Ems berücksichtig“, sagt Hattermann. Diese Veränderungen wurden dann sozusagen „übersetzt“ in Flutrisiko und Schadenspotenzial. „Bemerkenswert ist, dass trotz der großen Unsicherheit, die mit jeder Szenarienanalyse verbunden ist, alle neueren Szenarien einen Anstieg der Schäden projizieren. Um so wichtiger ist es, sich konsequent an das sich ändernde Klima anzupassen. Und gerade bei Hochwasser gibt es dazu viele Möglichkeiten“, so der Ko-Autor Olaf Burghoff, Leiter Sachstatistik und Naturgefahrenmodellierung beim GDV.

„Forschung ist nie ein einzelner abgeschlossener Vorgang, sondern ein Prozess. Als Wissenschaftler stellen wir unsere Arbeit deshalb kontinuierlich selbst auf die Probe, mit dem Ziel noch robustere Ergebnisse zu erzielen“, sagt Ko-Autor Peter Hoffmann vom PIK. Hier war der zweite Blick gleich zweifach interessant, denn die Bestätigung der Ergebnisse zeigt auch, dass die ersten Abschätzungen noch zu konservativ waren.“ Berücksichtigt für das Schadenspotenzial wurden auch in dieser Studie jedoch nur Eigenheime und kleine Betriebe, nicht aber Großbetriebe oder etwa Kraftwerke, die fast immer in Flussnähe angesiedelt sind. In der Realität liegen die Schadenskosten deshalb meist noch höher.

Artikel: Hattermann, F.F.; Huang, S.; Burghoff, O.; Hoffmann, P.; Kundzewicz, Z. (2016): Brief Communication: An update of the article „Modelling flood damages under climate change conditions – a case study for Germany“. Nat. Hazards Earth Syst. Sci. [DOI:10.5194/nhess-16-1617-2016]

Weblink zum Artikel nachdem er veröffentlich ist:
http://www.natural-hazards-and-earth-system-sciences.net/index.html

Link zur vorherigen Studie im Auftrag des GDV:
Hattermann, F.F.; Huang, S.; Burghoff, O.; Willems, W.; Österle, H.; Büchener, M.; Kundzewicz, Z. (2014): Modelling flood damage under climate change conditions – a case study for Germany. Nat. Hazards Earth Syst. Sci., 14, 3151-3168. [DOI:10.5194/nhess-14-3151-2014]
http://www.nat-hazards-earth-syst-sci.net/14/3151/2014/

Kontakt für weitere Informationen:
Potsdam-Institut für Klimafolgenforschung, Pressestelle
Telefon: +49 (0)331 288 2507
E-Mail: presse@pik-potsdam.de
Twitter: @PIK_Klima
www.pik-potsdam.de

Quelle: idw

(nach oben)


„Pokémon Go“ aus wissenschaftlicher Perspektive

Benedikt Bieber Pressestelle
Frankfurt University of Applied Sciences

Prof. Dr. Claus-Peter H. Ernst von der Frankfurt UAS hat das Phänomen „Pokémon“ in einer empirischen Studie untersucht / Statement zu der Veröffentlichung von „Pokémon Go“

„Pokémon Go“ zählt bereits jetzt zu den erfolgreichsten mobilen Videospielen. Das Spiel ist in der Lage, generationsübergreifend zu begeistern: Die älteren Spieler/-innen kennen die Pokémon-Figuren noch aus ihrer Kindheit und Jugend durch Game Boy, Anime und Sammelkartenspiel; die jüngeren Spieler/-innen erleben das Phänomen gerade aktuell durch Nintendo 3DS, Netflix und eben „Pokémon Go“. Prof. Dr. Claus-Peter H. Ernst, Experte für Mediennutzung an der Frankfurt University of Applied Sciences (Frankfurt UAS), hat im letzten Jahr in einer empirischen Studie die Erfolgsfaktoren der Pokémon-Spiele untersucht. Die Studie „Why People Play Pokémon: The Role of Perceived Belonging“ ist eine der weltweit ersten Studien, die sich wissenschaftlich mit dem Phänomen „Pokémon“ auseinandersetzt. Die Ergebnisse wurden dem Fachpublikum bei der Americas Conference on Information Systems 2015 vorgestellt und der zugehörige Forschungsartikel im Rahmen des begleitenden Tagungsbands veröffentlicht.

Das neuste Spiel der Pokémon-Reihe konnte Millionen von Nutzerinnen und Nutzern in nur wenigen Tagen erreichen. Diesen großen Erfolg führt Ernst auf mehrere Faktoren zurück: „Das neuste Spiel der Reihe ermöglicht den Spielerinnen und Spielern, sich einen lang gehegten Traum zu erfüllen und zum ersten Mal wirklich auf ihre eigene Pokémon-Reise zu gehen. Während bei jüngeren Spielerinnen und Spielern Spaß und Wettkampf im Vordergrund stehen, spielt bei den älteren gleichzeitig das Schwelgen in Nostalgie eine entscheidende Rolle. Hinzu kommt der gefühlt große technologische Sprung durch die Umsetzung mittels Augmented Reality. Während dies bei jüngeren Menschen, welche die schwarz-weiße Game Boy-Ära nicht miterlebt haben und gestochen scharfe, farbenfrohe Videospielunterhaltung gewohnt sind, nur einen untergeordneten „Wow-Faktor“ hervorruft, sind die neuen technischen Möglichkeiten für die Älteren keine Selbstverständlichkeit und Grund genug, sich erneut für Pokémon begeistern zu können. Schließlich sind auch soziale Bedürfnisse Teil des aktuellen Phänomens. Spieler/-innen begegnen sich zufällig in der realen Welt beim Fangen von Pokémon oder treffen sich gezielt zur Eroberung von Arenen. Somit wird das gemeinsame Erleben und Spielen aus dem Internet wieder in die Realität transferiert und Menschen mit gleichen Interessen einander näher gebracht.“

Prof. Dr. Claus-Peter H. Ernst lehrt und forscht im Bereich der Mediennutzung an der Frankfurt University of Applied Sciences und beschäftigt sich u. a. mit dem Erfolg von Videospielen. So veröffentlichte er gemeinsam mit Alexander Ernst im letzten Jahr eine empirische Studie zu den Erfolgsfaktoren der Pokémon-Videospiele und präsentierte die Ergebnisse einem interessierten Fachpublikum bei der Americas Conference on Information Systems 2015.

Gerne steht Prof. Dr. Ernst für Interviews, Fragen und Statements bzgl. des aktuellen Erfolgs von „Pokémon Go“ zur Verfügung.

Kontakt: Frankfurt University of Applied Sciences, Fachbereich 3: Wirtschaft und Recht, Prof. Dr. Claus-Peter H. Ernst, Telefon: 0151/41900131, E-Mail: cernst@fb3.fra-uas.de

Weitere Informationen zu Prof. Dr. Ernst und seinen Forschungsthemen unter: https://www.frankfurt-university.de/?id=12862

Weitere Informationen:
https://www.frankfurt-university.de/?id=12862

Quelle: idw

(nach oben)


Wie das Schmelzwasser der Eisschilde das Klima durcheinanderbrachte

Meike Drießen Dezernat Hochschulkommunikation
Ruhr-Universität Bochum

Wie heute das Grönlandeis, so schmolz am Ende der letzten Eiszeit vor 10.000 Jahren ein großer Eispanzer in Nordamerika. Sein Schmelzwasser hat das Klima in Nordwest-Europa und Nordwestafrika tiefgreifend beeinflusst. Der zuvor entgegengesetzte Zusammenhang zwischen den Niederschlagsmengen in Nordwestafrika und Nordwesteuropa kehrte sich um. Ob und wie das Schmelzen des Grönlandeises unser Klima verändern wird, simulierten internationale Forscher. Sie nutzten dafür Tropfsteine aus Höhlen als Klimatagebücher der Vergangenheit.

Wie wird das Abschmelzen des Grönlandeises unser Klima beeinflussen? Um eine Vorstellung davon zu erlangen, blicken Forscher weit zurück in die Vergangenheit. Im frühen Holozän – vor etwa 11.700 bis 8.000 Jahren – schmolz ein großer Eispanzer in Nordamerika ab. Anhand von Tropfsteinen in Höhlen, sogenannten Speläothemen, und Computersimulationen rekonstruierte ein internationales Team um Dr. Jasper Wassenburg von der Ruhr-Universität Bochum die Folgen: Heute beobachtet man einen entgegengesetzten Zusammenhang zwischen den Niederschlagsmengen in Nordwestafrika und Nordwesteuropa. Wenn in Nordwesteuropa ein feuchtes Winterklima vorherrscht, ist das Klima in Nordwestafrika trocken. Dieser Zusammenhang kehrte sich im frühen Holozän infolge des Abschmelzens des Eispanzers um, so dass es an beiden Orten zeitgleich feucht beziehungsweise trocken war. Das Klima veränderte sich tiefgreifend. Die Forscher berichten in der aktuellen Ausgabe von Nature Geoscience.

Luftdruck-Gegensatz bestimmt das Klima
Maßgeblich für das Winterklima in Nordwesteuropa und im Mittelmeerraum ist die Nordatlantische Oszillation (NAO): die Schwankungen des Luftdruck-Gegensatzes zwischen dem Azorenhoch im Süden und dem Islandtief im Norden des Nordatlantiks. Die Forscher wollten wissen, wie sich die NAO verhält, wenn – wie zurzeit bedingt durch den Klimawandel – Eisschilde und Gletscher rund um den Nordatlantik abschmelzen.

Klimatagebuch aus der Höhle
Um das herauszufinden, nutzten sie Speläotheme als Klimaarchiv: Sie konnten zeigen, dass in Nordwestmarokko das Verhältnis der darin enthaltenen Sauerstoff-Isotope 18O und 16O unter anderem durch die Niederschlagsmengen beeinflusst ist. Somit konnten sie anhand von Speläothemen aus Nordwestmarokko und Westdeutschland auf das dortige Klima vom frühen bis zum späten Holozän vor etwa 11.700 bis 2.500 Jahren schließen.

Korrelation kehrt sich um
Es zeigte sich, dass über mehrere Jahrzehnte bis Jahrhunderte hinweg die Niederschlagsmenge an den beiden Orten im mittleren Holozän (vor 8.000 bis 5.900 Jahren) und im späten Holozän vor 4.700 bis 2.500 Jahren in negativer Korrelation zueinander standen. Es gab also an einem der beiden Orte weniger Niederschlag, wenn es am anderen viel Niederschlag gab, genau wie heute. Im frühen Holozän gab es jedoch eine positive Korrelation der Niederschläge zwischen beiden Regionen. Im Übergang zum mittleren Holozän hat sich der Zusammenhang umgekehrt.

Klimasimulationen verdeutlichen Reaktion des Klimas auf das Abschmelzen
Um die Gründe dafür herauszufinden, führte das Team Klimasimulationen mit einem gekoppelten Atmosphäre-Ozean-Modell durch. „Eine mögliche Erklärung für die umgekehrte Korrelation ist das endgültige Abschmelzen des Nordamerikanischen Eisschildes im frühen Holozän“, erklärt Jasper Wassenburg, der die Untersuchung in Zusammenarbeit mit Prof. Dr. Adrian Immenhauser am Lehrstuhl für Sediment- und Isotopengeologie der Ruhr-Universität Bochum durchführte und inzwischen ans Institut für Geowissenschaften der Johannes Gutenberg-Universität Mainz gewechselt ist. Dieser Eispanzer bedeckte während der letzten Eiszeit große Teile Kanadas. Gewaltige Mengen an Schmelzwasser flossen in den Nordatlantik und veränderten dessen Strömungsmuster. „Mit den Simulationen unseres Klimamodells konnten wir zeigen, dass nur ein kombinierter Effekt, bestehend aus der Wirkung des Nordamerikanischen Eisschildes auf die atmosphärische sowie seines Schmelzwassers auf die ozeanische Zirkulation, die positive Korrelation der Niederschläge in Marokko und Deutschland erklären kann“, erklärt Dr. Stephan Dietrich, der die Simulationen am Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung auswertete und mittlerweile an der Bundesanstalt für Gewässerkunde Koblenz beschäftigt ist.

Eisschild hatte einen stark kühlenden Effekt
Atmosphärische Zirkulationsmuster wie die NAO sind abhängig von Luftdruckmustern, die durch die Aufheizung und Abkühlung von Luft entstehen. Meeresströmungen spielen dabei eine wichtige Rolle, weil sie die Verteilung der Wärme und somit auch die Luftzirkulation beeinflussen. Der Nordamerikanische Eisschild hatte einen stark kühlenden Effekt: Schnee und Eis reflektieren viel Sonnenlicht, die Forscher nennen diesen Effekt Albedo. Er führte dazu, dass sich über dem Eisschild ein stabiles Hochdruckgebiet entwickelte.
Außerdem beeinflusste das Schmelzwasser die Stärke der Ozeanströme, insbesondere den Nordatlantikstrom. „Auch wenn die genauen Mechanismen noch unbekannt sind, ist es sehr wahrscheinlich, dass diese Effekte maßgeblich dafür sind, dass sich die positive Korrelation der Niederschläge in Marokko und Deutschland nach dem endgültigen Abschmelzen des Nordamerikanische Eisschildes in eine negative umgekehrt hat“, erklärt Jasper Wassenburg.

Ähnliches Szenario ist möglich
Wenn nun das Grönlandeis abschmilzt und sein Schmelzwasser in den Nordatlantik fließt, könnte sich ein ähnliches Szenario ergeben, in dem sich die NAO wie im frühen Holozän verändert, folgern die Forscher. „Allerdings gibt es entscheidende Unterschiede zwischen den klimatischen Gegebenheiten im frühen und im späten Holozän, so dass wir nur schwer voraussagen können, ob und wie die NAO beeinflusst werden wird“, so der Forscher.
„Wir nehmen an, dass es vor allem von der Geschwindigkeit, mit der das Grönlandeis schmilzt, und von der Menge des Schmelzwassers abhängt.“ Detailliertere Rekonstruktionen des Klimas und genaue Messungen der Veränderung des Grönlandeises seien notwendig, um die Mechanismen zu verstehen, die zur Veränderung der Korrelationsmuster beitragen.

Internationales Team der Studie
An der Studie beteiligt waren Forscher der Ruhr-Universität Bochum, der Johannes Gutenberg-Universität Mainz, des Alfred-Wegener-Instituts, des Helmholtz-Zentrums für Polar- und Meeresforschung Bremerhaven, der Bundesanstalt für Gewässerkunde Koblenz, des GEOMAR Helmholtz-Zentrums für Ozeanforschung Kiel, der Ruprecht-Karls-Universität Heidelberg, der Universität Innsbruck, der Faculty of Sciences Dhar Mahraz Fès und des Max-Planck-Instituts für Chemie, Mainz.

Förderung
Die Studie wurde gefördert durch die Deutsche Forschungsgemeinschaft (DFG IM44/1; WA3532/1-1) und die Max-Planck-Gesellschaft.

Originalpublikation
Jasper A. Wassenburg, Stephan Dietrich, Jan Fietzke, Jens Fohlmeister, Klaus Peter Jochum, Denis Scholz, Detlev K. Richter, Abdellah Sabaoui, Christoph Spötl, Gerrit Lohmann, Meinrat O. Andreae and Adrian Immenhauser. Reorganization of the North Atlantic Oscillation during early Holocene deglaciation, in: Nature Geoscience, 2016, DOI: 10.1038/ngeo2767

Quelle: idw

(nach oben)


Heftige Dosis Sonne: Bei der Arbeit im Freien bekommt die Haut einiges an UV-Strahlung ab

Stefan Boltz Pressestelle
Deutsche Gesetzliche Unfallversicherung – DGUV

Wer im Freien arbeitet, bekommt mehr Sonne und damit krebserzeugende ultraviolette Strahlung ab als andere Beschäftigte. Wie stark sonnenbelastet welche Berufe tatsächlich sind, darüber fehlten bislang präzise Angaben. Diese Wissenslücke hat das Institut für Arbeitsschutz der Deutschen Gesetzlichen Unfallversicherung (IFA) nun geschlossen. Im Rahmen eines Forschungsprojektes hat es detaillierte Belastungsdaten für die verschiedensten Tätigkeiten in Außenbereichen gesammelt und ausgewertet. Das Ergebnis: Über die Sommermonate ist die Belastung der betroffenen Berufsgruppen so verschieden wie ihre Arbeit. Maßgeschneiderte Prävention ist deshalb wichtig.

Seit 2015 kann weißer Hautkrebs durch Sonnenstrahlung als Berufskrankheit anerkannt werden. Das betrifft vor allem Menschen, die beruflich viel im Freien arbeiten. Im Fall einer Berufskrankheit leistet die gesetzliche Unfallversicherung. Sie nutzt aber auch alle geeigneten Mittel, um Berufskrankheiten erst gar nicht entstehen zu lassen. „Dafür brauchen wir sehr genaue Informationen darüber, für welche Beschäftigten die Belastung besonders hoch ist“, sagt Dr. Walter Eichendorf, stv. Hauptgeschäftsführer der Deutschen Gesetzlichen Unfallversicherung (DGUV). Eichendorf: „Nur dann können wir zielgerichtete und wirksame Präventionsmaßnahmen ergreifen.“
Diese Informationen hat das IFA als Ergebnis einer groß angelegten Untersuchung an bislang 600 Personen nun geliefert: Demnach sind beispielsweise Beschäftigte in Steinbrüchen oder im Kanalbau mehr als dreimal so stark UV-belastet wie Personen, die im Ackerbau oder zu Fuß in der Postzustellung tätig sind. Der Projektleiter und IFA-Strahlungsexperte Dr. Marc Wittlich: „Einige Ergebnisse haben uns wirklich überrascht. So ist zum Beispiel die Belastung auf dem Bau sehr verschieden, je nachdem ob Dächer gedeckt oder Gerüste gebaut werden.“ Die Gründe hierfür gälte es jetzt genau zu beleuchten. Wittlich: „Klar ist aber: Bei allen beobachteten Beschäftigten ist die Belastung so hoch, dass etwas getan werden muss.“

Bei den Schutzmaßnahmen, die Arbeitgeber ergreifen müssen, haben technische und organisatorische Lösungen laut Arbeitsschutzgesetz Vorrang. „Dazu zählen zum Beispiel der Einsatz von Sonnensegeln oder die Verlagerung der Arbeit in Zeiten mit geringerer UV-Belastung, wie am frühen Morgen oder späten Nachmittag“, sagt Bernhard Arenz, Präventionsleiter der Berufsgenossenschaft für die Bauwirtschaft (BG BAU). „Reicht das nicht aus, ist auf jeden Fall körperbedeckende Kleidung plus Kopfschutz notwendig“, erklärt Reinhold Knittel, Sprecher der Geschäftsführung der Sozialversicherung für Landwirtschaft Forsten und Gartenbau (SVLFG). „Sonnenschutzmittel sollten dann verwendet werden, wenn anderer Schutz nicht möglich ist, und sie müssen einen hohen Lichtschutzfaktor haben.“
Grundsätzlich gilt: Schon bei Aufenthaltszeiten von wenigen Minuten im Freien ist im Sommer Schutz notwendig. Denn langfristige Schäden können auch ohne Sonnenbrand entstehen. „Das sollte man nicht nur bei der Arbeit beachten, sondern auch in der Freizeit“, so Eichendorf.

Hintergrund
Hautkrebs durch UV-Strahlung stellt eine der zukünftigen Herausforderungen für die Prävention von Berufskrankheiten und arbeitsbedingten Gesundheitsgefahren dar. Gleichzeitig ist das Wissen über die Strahlungsdosis bei Tätigkeiten im Freien gering. Es liegen weltweit nur einige wenige, regional begrenzte Studien vor.
Das Forschungsprojekt GENESIS-UV (von GENeration and Extraction System for Individual expoSure) ist eine Untersuchung im Auftrag von Berufsgenossenschaften und Unfallkassen, Träger der gesetzlichen Unfallversicherung in Deutschland. Um die Strahlungsdosis an möglichst vielen verschiedenen Außenarbeitsplätzen ermitteln und bewerten zu können, hat das IFA ein Messsystem entwickelt, mit dem sich die UV-Belastung direkt an der Person über eine komplette Arbeitsschicht messen lässt, ohne dass Einschränkungen während der Tätigkeit entstehen.
Alle Testpersonen erhalten eine Einheit des GENESIS-UV-Systems. Sie besteht aus einem Datenlogger-Dosimeter und einem Tablet-PC. Das System erfasst UV-Belastungsdaten automatisch zwischen 07:30 Uhr und 17:30 Uhr. Das Auslesen der Daten und der Datentransfer an einen zentralen Datenbankserver geschieht am Ende jeder Arbeitswoche. Dazu wird das Messgerät an den Tablet-PC angeschlossen. Der weitere Prozess läuft automatisch ab. So erhält das IFA wochenaktuelle Messwerte aus allen Regionen Deutschlands. Die Auswertung der Daten geschieht anonym, nur mit Blick auf die untersuchte Tätigkeit. Ein Rückschluss auf einzelne Personen ist ausgeschlossen.
600 Probanden und Probandinnen wurden bislang mit dem System ausgestattet und sammelten seit 2014 an insgesamt 65 000 Messtagen bereits 2 300 000 000 Datensätze, die die Grundlage für die Projektergebnisse bilden. Weitere Details zu den Ergebnissen erscheinen in Kürze unter www.genesis-uv.eu.

Weitere Informationen:
http://www.genesis-uv.eu – Website des Projekts

Anhang
Infografiken – Messergebnisse UV-Dosis nach Berufsgruppen und Branchen
https://idw-online.de/de/attachment50369

Quelle: idw

(nach oben)


Gleichspannung revolutioniert die industrielle Energieversorgung

Jörg Walz Presse- und Öffentlichkeitsarbeit
Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA

Die Erhöhung der Energieeffizienz, der Umgang mit schwankenden Energieangeboten sowie mit einer geringeren Energiebereitstellungsqualität sind Aufgaben, denen sich Produktionen in naher Zukunft verstärkt stellen müssen. Das Fraunhofer IPA und das Institut für Energieeffizienz in der Produktion EEP der Universität Stuttgart entwickeln nun seit Anfang Juli gemeinsam mit Forschungspartnern und Industrieunternehmen im Forschungsprojekt »DC-INDUSTRIE« neue Formen der industriellen Energieversorgung, mit denen sich diese Aufgaben lösen lassen.

Im industriellen Umfeld ist heute die dreiphasige 400-V-AC-Stromversorgung Standard. Durch den Trend hin zu energieeffizienten, drehzahlveränderlichen elektrischen Antrieben werden in Anlagen immer häufiger Frequenzumrichter eingesetzt, die über einen Gleichspannungs- Zwischenkreis verfügen. Hier ist stets eine Wandlung der elektrischen Energie von Wechselspannung in Gleichspannung notwendig.

Die Idee des Forschungsprojekts
Die Abkehr von der Wechsel- hin zur Gleichspannung eröffnet enorme Effizienzvorteile und Energieeinsparungen bei der Versorgung von Maschinen und Anlagen. Dabei ist das Ziel die bedarfsorientierte Verteilung von Energie innerhalb von Produktionsanlagen mit einem Höchstmaß an Energiewiederverwendung und einer Minimierung von Wandlungsverlusten.

Zusätzlich bieten die technisch vereinfachte Integration von Energiespeichern und regenerativen Energiequellen sowie die systemimmanente Möglichkeit der Rekuperation, d. h. die Wiedergewinnung und -verwendung von Bremsenergie neue Chancen für ein intelligentes Energiemanagement. EEP und IPA entwickeln gemeinsam die notwendigen Methoden für die Planung, Einführung und Nutzung des industriellen Mikro DC Smart Grid.

Eine über das DC-Netz versorgte Produktion ist robust hinsichtlich schwankender Netzqualität und kann flexibel auf schwankende Energieangebote reagieren. Das trägt zu einer Stabilisierung des Energienetzes bei.

Das Projekt »DC-INDUSTRIE – Intelligentes offenes DC-Netz in der Industrie für hocheffiziente Systemlösungen mit elektrischen Antrieben« hat ein Gesamtvolumen von knapp zehn Millionen Euro. Es wird vom Bundesministerium für Wirtschaft und Energie (BMWi) gefördert und hat eine Laufzeit von drei Jahren.

Fachlicher Ansprechpartner
Timm Kuhlmann | Telefon +49 711 970-1903 | timm.kuhlmann@ipa.fraunhofer.de | Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA |

Weitere Informationen:
http://www.ipa.fraunhofer.de/projekt_dc-industrie.html
http://www.ipa.fraunhofer.de

Quelle: idw

(nach oben)


Krankheitserregende Bakterien per Anhalter durch Nord- und Ostsee?

Ralf Röchert Kommunikation und Medien
Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung

AWI-Forscher weisen erstmalig lebende, potentiell krankheitserregende Vibrionen auf Mikroplastikpartikeln nach

Mit steigender Wassertemperatur nimmt die Wahrscheinlichkeit zu, dass in Nord- und Ostsee potentiell krankheitserregende Bakterien auftreten. AWI-Wissenschaftler haben jetzt nachgewiesen, dass eine Gruppe dieser Bakterien, sogenannte Vibrionen, auch auf Mikroplastikpartikeln leben können. Sie wollen zukünftig die Rolle der Partikel für die Anreicherung und mögliche Verbreitung dieser Bakterien genauer untersuchen.

Sommerliche Hitzewellen können dazu führen, dass sich krankheitserregende Bakterien in Nord- und Ostsee stark vermehren. In den vergangenen Jahren waren darunter auch Bakterien der Gattung Vibrio, die Durchfallerkrankungen oder schwere Entzündungen hervorrufen können. „Vibrionen sind Klimawandel-Gewinner, weil ihre Anzahl bei hohen Temperaturen in die Höhe schnellt“, sagt Dr. Gunnar Gerdts, Mikrobiologe am Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI) auf Helgoland. Die Bakterien sind in gemäßigten Sommern nur vereinzelt im Meerwasser nachweisbar, können sich aber bei Hitzewellen explosionsartig vermehren, wenn die Wassertemperatur 22 Grad Celsius übersteigt. Gerade in küstennahen Gebieten der Ostsee kam es in der Vergangenheit bei solchen Hitzewellen immer wieder zu Krankheits- und auch Todesfällen, hervorgerufen durch das Bakterium Vibrio vulnificus.

Gerdts und sein Team haben Proben aus dem Meer genommen und untersucht, ob die Bakterien auch von einem neuen Lebensraum profitieren, der sogenannten „Plastisphäre“. In Biofilmen auf der Oberfläche von Plastikpartikeln leben Bakterien, Pilze und Kleinstalgen, die in einer Schleimschicht wachsen. Sie sind beispielsweise bekannt als Grundlage für den Bewuchs auf Schiffsrümpfen. Die Zusammensetzung dieser Biofilme variiert dabei abhängig von der Beschaffenheit der Oberfläche und den Lebewesen im umgebenden Wasser. Aufgrund von Gensequenzierungen lag die Vermutung nahe, dass auch Vibrionen Teil dieser Lebensgemeinschaft sein könnten.

Jetzt ist es den Helgoländer Mikrobiologen erstmalig gelungen, lebende, potentiell humanpathogene Vibrio-Spezies in Biofilmen auf Mikroplastikpartikeln nachzuweisen. „Das zeigt das Potential auf, dass die Krankheitserreger möglicherweise auf den Partikeln hitchhiken, sich also per Anhalter innerhalb eines Ökosystems verteilen und auch darüber hinaus verbreiten können“, ordnet Gunnar Gerdts die aktuellen Forschungsergebnisse ein.

Für ihre Studie, die jetzt online in der Fachzeitschrift Marine Environmental Research publiziert wurde, hatten die AWI-Wissenschaftler mit dem Forschungsschiff Heincke an 62 Stationen in Nord- und Ostsee Wasserproben genommen. Zusätzlich nutzten sie einen sogenannten Neuston-Katamaran (Foto), mit dessen Hilfe sie Mikroplastikpartikel direkt unterhalb der Wasseroberfläche abfischten und im Labor weiter untersuchten. Insgesamt hatten die Wissenschaftler 185 Partikel gesammelt. Davon wurden auf 19 Plastikpartikeln Vibrionen nachgewiesen, welche auch überwiegend in den Wasserproben an denselben Stationen vorhanden waren.

Die gute Nachricht: Im Rahmen ihrer Untersuchungen stießen die Helgoländer AWI-Forscher nicht auf krankheitserregende Genotypen. Mikrobiologe Gunnar Gerdts tauscht sich zu diesem Thema auch mit Behörden aus. „An der Nord- und Ostseeküste untersuchen die Landesuntersuchungsämter bereits exemplarisch Wasserproben hinsichtlich Vibrio-Spezies. Sollte sich in der Zukunft zeigen, dass mit Vibrionen „aufgeladene“ Mikroplastikpartikel regelmäßig vorkommen, gibt das Anlass zur Sorge, da Biofilme allgemein höhere Bakterien-Dichten aufweisen als das Freiwasser“, berichtet der AWI-Forscher.

Die in der Studie verwendete Untersuchungsmethode lässt übrigens derzeit keine Rückschlüsse darauf zu, ob sich Vibrionen an den Plastikpartikeln anhäufen. In dem genutzten Kulturansatz konnten die Wissenschaftler ausschließlich nachweisen, ob Vibrionen im Wasser oder an Mikroplastikpartikeln leben oder nicht. „In Zukunft wollen wir daher die Anzahl der Vibrionen auf den Plastikpartikeln zusätzlich mittels der sogenannten quantitativen Polymerase-Kettenreaktion bestimmen, die dann auch quantitative Vergleiche ermöglicht“, nennt Gunnar Gerdts die nächsten Forschungsziele.

Hintergrund:
Bei Vibrionen unterscheidet man neben Arten auch Genotypen, deren krankheitserregendes Potential unterschiedlich ist. Die in der Studie nachgewiesenen Genotypen wiesen aber nicht die Virulenzgene auf, wie sie z.B. in pandemischen Genotypen, wie z.B. Vibrio cholerae El-Tor, einem der Cholera-Erreger, vorhanden sind. Gleichwohl können aber auch solche nicht „klassisch virulenten“ Vibrionen durchaus zu ernsthaften Erkrankungen führen, wenn der Gesundheitszustand des infizierten Menschen eine Vorschädigung aufweist (z.B. Diabetes).

Originalstudie:
Inga V. Kirstein, Sidika Kirmizi, Antje Wichels, Alexa Garin-Fernandez, Rene Erler, Martin Löder, Gunnar Gerdts: Dangerous hitchhikers? Evidence for potentially pathogenic Vibrio spp. on microplastic particles. Marine Environmental Research (Volume 120, September 2016, Pages 1-8) http://dx.doi.org/10.1016/j.marenvres.2016.07.004

Das Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI) forscht in der Arktis, Antarktis und den Ozeanen der gemäßigten sowie hohen Breiten. Es koordiniert die Polarforschung in Deutschland und stellt wichtige Infrastruktur wie den Forschungseisbrecher Polarstern und Stationen in der Arktis und Antarktis für die internationale Wissenschaft zur Verfügung. Das Alfred-Wegener-Institut ist eines der 18 Forschungszentren der Helmholtz-Gemeinschaft, der größten Wissenschaftsorganisation Deutschlands.

Quelle: idw

(nach oben)


Lohn- und Arbeitskosten: Deutschland weiter auf Position acht

Rainer Jung Abt. Öffentlichkeitsarbeit
Hans-Böckler-Stiftung

EU-Vergleich des IMK

Lohn- und Arbeitskosten: Deutschland weiter auf Position acht – Normalisierung beim Zuwachs, Rückstand noch nicht aufgeholt

Deutschland rangiert bei den Lohn- und Arbeitskosten für die private Wirtschaft wie in den Vorjahren im westeuropäischen Mittelfeld – Ende 2015 lag die Bundesrepublik unverändert an achter Stelle unter den EU-Ländern.

Mit nominal 2,7 Prozent lag der Zuwachs der deutschen Arbeitskosten 2015 oberhalb des Durchschnitts von EU (2,2 Prozent) und über dem sehr niedrigen Mittel des Euroraums (1,6 Prozent). Effekte des gesetzlichen Mindestlohns auf die gesamtwirtschaftliche Arbeitskostenentwicklung sind zwar nicht eindeutig auszumachen, es zeigen sich aber in einigen Dienstleistungsbranchen positive Lohneffekte. Trotz des etwas stärkeren Anstiegs hat Deutschland seinen über Jahre aufgelaufenen Rückstand bei der Entwicklung von Löhnen, Arbeitskosten und Lohnstückkosten noch nicht wieder aufgeholt, was auch zum erneuten Rekordüberschuss der deutschen Leistungsbilanz von 8,5 Prozent des Bruttoinlandsprodukts beigetragen hat. Zu diesen Ergebnissen kommt der neue Arbeits- und Lohnstückkostenreport, den das Institut für Makroökonomie und Konjunkturforschung (IMK) der Hans-Böckler-Stiftung heute auf einer Pressekonferenz in Berlin vorstellt.*

„Nachdem sich die deutschen Arbeitskosten in der Privatwirtschaft in den gesamten 2000er Jahren deutlich geringer als der EU-Durchschnitt entwickelt haben, scheint sich die Entwicklung seit 2011 in Deutschland langsam zu normalisieren“, schreiben die Wissenschaftler. Die Arbeitskosten spiegelten die kräftigere Entwicklung bei den Löhnen wider, die zuletzt wesentlich dazu beitrug, die hartnäckige Nachfrageschwäche bei den privaten Haushalten zu überwinden. „Dass die deutsche Wirtschaft in einem schwierigen internationalen Umfeld noch ganz passabel wächst, ist vor allem dieser Normalisierung zu verdanken“, sagt Prof. Dr. Gustav A. Horn, der wissenschaftliche Direktor des IMK. „In Zeiten von Wachstumsschwäche in den Schwellenländern, von Brexit und nachwirkender Euroraum-Krise würden wir mit dem alten einseitig exportorientierten Wachstumsmodell Schiffbruch erleiden.“

Dabei konstatieren die Ökonomen in der längerfristigen Betrachtung allerdings noch einige Luft nach oben: Zwischen 2000 und 2015 nahmen die Arbeitskosten laut IMK in der Privatwirtschaft in der EU um durchschnittlich 2,8 Prozent pro Jahr zu, im Euroraum um 2,5 Prozent. Das Wachstum in Deutschland lag in diesem Zeitraum lediglich bei 2,0 Prozent im Jahresdurchschnitt – EU-weit der drittniedrigste Wert nach Griechenland (0,5 Prozent) und Portugal (1,8 Prozent), wo die Arbeitskosten im Zuge der Krise in den vergangenen Jahren zeitweise stagnierten oder sogar sanken.

In welchem Maße sich der Angleichungsprozess in diesem Jahr fortsetzt, ist nach Analyse des IMK noch offen. Zwar hat das Statistische Bundesamt für das 1. Quartal 2016 kürzlich einen Anstieg um 3,3 Prozent gemeldet. Da die Quartalswerte aber von Stichtagen abhängen, zu denen beispielsweise Tarifabschlüsse oder gesetzliche Änderungen wirksam werden, schwankten sie erfahrungsgemäß innerhalb eines Jahres sehr stark. Die Ökonomen haben die Quartalsentwicklung der vergangenen 15 Jahre unter die Lupe genommen. Ihr Ergebnis: In all den Jahren, in denen die Arbeitskosten im 1. Quartal um mindestens drei Prozent stiegen, lagen die endgültigen Jahresdurchschnittswerte unter dieser Marke – nicht selten deutlich. Das sei auch in diesem Jahr zu erwarten.

– Lohnstückkostenentwicklung: 12 Prozent unter dem Mittel des Euroraums ohne Deutschland – Auch bei den für die internationale Wettbewerbsfähigkeit wichtigeren Lohnstückkosten weist Deutschland für den Zeitraum von 2000 bis ins 1. Quartal 2016 weiterhin eine moderate Tendenz auf. Trotz einer ebenfalls etwas stärkeren Steigerung in den vergangenen Jahren sind die deutschen Lohnstückkosten seit Beginn der Währungsunion deutlich schwächer gestiegen als in allen anderen in der Studie betrachteten Mitgliedsstaaten des Euroraums mit Ausnahme Irlands und schwächer, als mit dem Inflationsziel der EZB vereinbar ist. Die deutsche Lohnstückkostenentwicklung lag zuletzt laut IMK immer noch um kumuliert gut 12 Prozent unter dem Durchschnitt des Euroraums ohne Deutschland. Das langjährige extrem schwache Wachstum der deutschen Lohnstückkosten trug zu den ausgeprägten wirtschaftlichen Ungleichgewichten im Euroraum bei.

Eine langfristig „stabilitätskonforme“ Wachstumsrate liegt nach Analyse des IMK bei zwei Prozent pro Jahr – nahe an der EZB-Zielinflationsrate. Dieser Wert sei 2015 in Deutschland zwar erreicht worden, während die Rate im Euroraum bei sehr niedrigen 1,2 Prozent lag. Im längerfristigen Durchschnitt seit 2000 nahmen die deutschen Lohnstückkosten aber nur um ein Prozent im Jahr zu. Das zeige, dass weiterhin Spielraum und erheblicher Nachholbedarf bei der Stärkung der inländischen Nachfrage bestehe, so die Forscher. „Die deutschen Exporte haben sich seit Anfang 2000 real mehr als verdoppelt, während die Binnennachfrage preisbereinigt gerade einmal um rund 11 Prozent zulegte“, schreiben die Studienautoren Dr. Alexander Herzog-Stein, Prof. Dr. Camille Logeay, Dr. Ulrike Stein und Dr. Rudolf Zwiener.

Um künftig gefährlichen Ungleichgewichten in der Währungsunion vorzubeugen, empfehlen die Ökonomen in Deutschland und europaweit eine makroökonomisch ausgerichtete Lohnpolitik, die sich an der Summe aus EZB-Zielinflation und dem längerfristigen Trend des Produktivitätszuwachses orientiert. Dabei sehen sie auch die Politik am Zuge: Unterstützung bei der Reichweite von Tarifverträgen helfe bei der Stabilisierung ebenso wie konsequente staatliche Investitionen. Halte sich der Staat fiskalpolitisch zu sehr zurück – wie beispielsweise in der Bundesrepublik – könne das die Lohnpolitik als dann einzige Stütze der Binnennachfrage überfordern, geben die Ökonomen zu bedenken.

– Arbeitskosten 2015: 32,70 Euro pro Stunde – Zu den Arbeitskosten zählen neben dem Bruttolohn die Arbeitgeberanteile an den Sozialbeiträgen, Aufwendungen für Aus- und Weiterbildung sowie als Arbeitskosten geltende Steuern. Das IMK nutzt für seine Studie die neuesten verfügbaren Zahlen der europäischen Statistikbehörde Eurostat.

2015 mussten deutsche Arbeitgeber in der Privatwirtschaft (Industrie und privater Dienstleistungsbereich) 32,70 Euro pro geleistete Arbeitsstunde aufwenden (siehe auch Tabelle 1 in der pdf-Version dieser PM; Link unten). Höher liegen die Arbeitskosten in sieben Ländern: In Dänemark, Belgien, Schweden, Luxemburg, Frankreich, Finnland und den Niederlanden müssen zwischen 43 und 33,30 Euro pro Stunde ausgegeben werden. Fast gleichauf mit den deutschen sind die Arbeitskosten in Österreich (32,60 Euro). Der Durchschnitt des Euroraums liegt bei 29,50 Euro. Etwas darunter folgen Großbritannien, das 2015 Arbeitskosten von 29,10 Euro auswies, Irland (28,70) und Italien (27,30 Euro). In den übrigen südeuropäischen EU-Staaten betragen sie zwischen 21,10 Euro (Spanien) und 12,50 Euro (Malta). Die „alten“ EU-Länder Griechenland und Portugal liegen mittlerweile hinter dem EU-Beitrittsland Slowenien, wo 15,80 Euro aufgewendet werden müssen. In Estland, der Slowakei, der Tschechischen Republik, Kroatien, Polen, Ungarn und Lettland betragen die Stundenwerte zwischen 10,80 und 7,50 Euro. In diesen Ländern waren die Steigerungsraten mit bis zu 7,4 Prozent im vergangenen Jahr überdurchschnittlich, während die Entwicklung in den meisten (ehemaligen) Krisenländern, aber auch in Belgien und den Niederlanden nahezu stagnierte. Schlusslichter sind Rumänien und Bulgarien mit Arbeitskosten von 5 bzw. 4,10 Euro pro Stunde.

– Nach Mindestlohn-Einführung wächst Abstand zwischen Industrie und Dienstleistungen erstmals nicht weiter – Im Verarbeitenden Gewerbe betrugen 2015 die Arbeitskosten in Deutschland 38 Euro pro Arbeitsstunde. Im EU-Vergleich steht die Bundesrepublik damit wie im Vorjahr an vierter Stelle als Teil einer größeren Gruppe von Industrieländern, die deutlich über dem Euroraum-Durchschnitt von 32 Euro liegen. Dazu zählen auch Belgien mit industriellen Arbeitskosten von 43,30 Euro, Dänemark (42,40 Euro), Schweden (41,10 Euro) sowie Frankreich (37 Euro), Finnland (36,80 Euro), die Niederlande (34,80 Euro), und Österreich (35,20 Euro). Dabei ist nicht berücksichtigt, dass das Verarbeitende Gewerbe in der Bundesrepublik stärker als in jedem anderen EU-Land von günstigeren Vorleistungen aus dem Dienstleistungsbereich profitiert (siehe folgenden Abschnitt). 2015 stiegen die industriellen Arbeitskosten in Deutschland um 2,7 Prozent. Im Durchschnitt von EU und Euroraum waren es 2,0 bzw. 1,8 Prozent.

Im privaten Dienstleistungssektor lagen die deutschen Arbeitskosten 2014 mit 29,90 Euro weiterhin an neunter Stelle nach den nordischen EU-Staaten, den Benelux-Ländern, Frankreich und Österreich. Den höchsten Wert wies Dänemark mit 43,60 Euro aus, der Durchschnitt im Euroraum beträgt 28,50 Euro, in der gesamten EU 25,60. 2015 stiegen die Arbeitskosten im deutschen Dienstleistungssektor um 2,7 Prozent. Damit lag der Zuwachs über dem Durchschnitt in EU (2,2 Prozent) und Euroraum (1,5 Prozent).

Dass der Anstieg bei den Dienstleistungen in Deutschland anders als in den meisten Vorjahren nicht hinter dem in der Industrie zurückgeblieben ist, erklären die Forscher des IMK auch mit der Einführung des gesetzlichen Mindestlohns. Dessen Wirkungen seien zwar auf Ebene der Gesamtwirtschaft nicht eindeutig zu identifizieren. In verschiedenen Dienstleistungsbranchen, in denen zuvor viele Beschäftigte für Stundenlöhne unter 8,50 Euro arbeiteten, ließen sich aber deutliche Lohneffekte ausmachen. „Somit kann davon ausgegangen werden, dass die Arbeitskostenentwicklung in der Privatwirtschaft und insbesondere dem Dienstleistungssektor im Jahr 2015 durch den Mindestlohn positiv beeinflusst wurde“, schreiben die Wissenschaftler.

– Industrie kann Vorleistungen günstiger einkaufen – Gleichwohl bleibt der Abstand der Arbeitskosten zwischen Verarbeitendem Gewerbe und Dienstleistungssektor weiterhin größer als in jedem anderen EU-Land, so das IMK. Er betrug Ende 2015 mehr als 21 Prozent. Vom vergleichsweise niedrigen Arbeitskostenniveau in den deutschen Dienstleistungsbranchen profitiert auch die Industrie, die dort Vorleistungen nachfragt. Dadurch entsteht eine Kosteneinsparung für die Industrie von acht bis zehn Prozent oder rund 3 Euro pro Stunde. Während der Dienstleistungssektor die Industrie hierzulande entlaste, sei es insbesondere in den mittel- und osteuropäischen EU-Ländern umgekehrt, so die Forscher.

Ansprechpartner in der Hans-Böckler-Stiftung
Prof. Dr. Gustav A. Horn
Wissenschaftlicher Direktor IMK
Tel.: 0211-7778-331
E-Mail: Gustav-Horn@boeckler.de

Ulrike Stein, PhD
IMK
Tel.: 0211-7778-339
E-Mail: Ulrike-Stein@boeckler.de

Alexander Herzog-Stein, PhD
IMK
Tel.: 0211-7778-235
E-Mail: Alexander-Herzog-Stein@boeckler.de

Rainer Jung
Leiter Pressestelle
Tel.: 0211-7778-150
E-Mail: Rainer-Jung@boeckler.de

Weitere Informationen:
http://www.boeckler.de/pdf/p_imk_report_116_2016.pdf – *Alexander Herzog-Stein, Camille Logeay, Ulrike Stein, Rudolf Zwiener: Deutsche Arbeitskosten auf Stabilitätskurs. Arbeits- und Lohnstückkostenentwicklung 2015 im europäischen Vergleich. IMK Report Nr. 116, Juli 2016.
http://www.boeckler.de/pdf/pm_imk_2016_07_11.pdf – Die PM mit Tabelle (pdf)
https://youtu.be/8hKOkQWD3mI – Videostatement von Dr. Alexander Herzog-Stein

Quelle: idw

(nach oben)


Der Urlaub kann eine Gefahr für die Leber sein: Jetzt gegen Virushepatitis impfen

Rita Wilp externe Pressestelle
Deutsche Leberstiftung

Jetzt startet die Reise-Hauptsaison. Die Freude ist groß, doch in vielen beliebten Urlaubsregionen gibt es auch ein häufig unterschätztes Gesundheitsrisiko: Die Ansteckung mit einem Hepatitis-Virus. Einen wirksamen Schutz bietet die Impfung gegen Hepatitis A und B. Anlässlich des 17. Deutschen Lebertages am 20. November 2016 weisen die Ausrichter Deutsche Leberstiftung, Deutsche Leberhilfe e. V. und Gastro-Liga e. V. auf die Ansteckungsgefahren und Vorsorgemöglichkeiten hin. Der Lebertag steht unter dem Motto: „Leber/wert/voll“. Das Motto unterstreicht die Wichtigkeit des zentralen Stoffwechselorgans Leber und betont gleichzeitig die Notwendigkeit, die Leberwerte bestimmen zu lassen.

Ferienzeit – Hauptsaison für Hepatitis A
„Jede Reise-Hauptsaison ist gleichzeitig eine Hepatitis-Hauptsaison. In Deutschland ist die Hepatitis A zu einer Reisekrankheit geworden. Über die Hälfte der auftretenden Hepatitis A-Virusinfektionen wurden auf Reisen erworben“, erläutert Prof. Dr. Michael P. Manns, Vorstandsvorsitzender der Deutschen Leberstiftung. Die Hepatitis A wird durch das Hepatitis-A-Virus (HAV) verursacht. Die Ausscheidung des Erregers erfolgt über den Darm. Das HAV ist stabil gegenüber vielen Umwelteinflüssen und resistent gegenüber vielen Desinfektionsmitteln.

Eine Hepatitis A klingt zwar bei gesunden Menschen in der Regel nach einer Weile von selbst ab, doch bei älteren oder kranken Menschen kann eine Hepatitis A auch zu einem akuten Leberversagen führen. Eine wirkungsvolle Impfung schützt vor Hepatitis A. Selbst kurz vor Antritt der Reise ist es nicht zu spät für die Impfung.

Ferienzeit – Hepatitis B-Risiko bei Sex, Tattoo und Piercing
Neben der Ansteckungsgefahr mit dem HAV besteht im Urlaub ein erhöhtes Risiko für eine Infektion mit dem Hepatitis B-Virus (HBV). Die Ansteckung erfolgt in erster Linie über Blut, Sperma oder Vaginalsekret. In einigen Fällen ist auch eine Übertragung durch Speichel möglich. Der häufigste Übertragungsweg ist ungeschützter Sex. Auch Tätowierungen, Ohrlochstechen oder Piercings, die nicht steril durchgeführt werden, sind riskant. Das Hepatitis B-Virus ist fünfzig- bis hundertmal infektiöser als HIV und schon eine kleine Menge Blut reichen aus, um sich zu infizieren. Sogar bei Kontakten mit der Gefahr kleinster Hautverletzungen wie beim Friseur (beispielsweise beim Nackenausrasieren), bei der Fußpflege oder bei unvorhergesehenen ärztlichen und zahnärztlichen Behandlungen besteht ein Infektionsrisiko, wenn keine hygienischen Bedingungen herrschen. Meist bemerken Infizierte nichts von ihrer Erkrankung. Kommt es jedoch zu einer chronischen Entzündung, besteht ein erhöhtes Risiko für bindegewebsartige Veränderungen der Leber (Fibrose) oder Zirrhose. Vor allem bei einer bestehenden Zirrhose ist das Risiko für einen Leberzellkrebs deutlich erhöht. Größtmöglichen Schutz vor einer Übertragung des Hepatitis B-Virus gewährleistet eine entsprechende Impfung.

Ferienzeit – Kombinationsimpfung bietet Schutz
Einen wirksamen Schutz vor einer Ansteckung mit Hepatitis A und B bietet eine Impfung. Beim Einsatz von Kombinations-Impfstoffen, die gegen Hepatitis A und B schützen, ist die Anzahl der notwendigen Injektionen vermindert und schützt für viele Jahre gegen eine Neuinfektion. Die Impfung erfolgt in drei Etappen: Die erste und zweite Spritze werden in einem Abstand von einem Monat gegeben; die dritte Spritze erfolgt nach weiteren fünf Monaten. Bei gesunden Erwachsenen besteht auch die Möglichkeit, durch ein beschleunigtes Schema an den Tagen 0, 7 und 21 den Impfschutz schneller zu erreichen. Die Impfungen sind im Allgemeinen gut verträglich.

Eine Impfung gegen Hepatitis B schützt auch vor Hepatitis D, da diese Erkrankung nur mit einer Hepatitis B gemeinsam vorkommen kann.

Ferienzeit – Restrisiko Hepatitis C
Eine Schutzimpfung gegen Hepatitis C steht bisher nicht zur Verfügung. Das Hepatitis C-Virus (HCV) wird fast ausschließlich über Blut-Kontakte übertragen. Unsterile Tätowiernadeln, Piercings oder Rasiermesser sind die Haupt-Infektionsquellen. Nach Angaben der Weltgesundheitsorganisation (WHO) infizieren sich jährlich mehrere Millionen Menschen mit dem Virus. In einigen Regionen Asiens oder Afrikas tragen mehr als fünf Prozent der Bevölkerung das Hepatitis C-Virus in sich. Es gibt heute sehr wirksame Therapien gegen Hepatitis C. Die Heilungsraten liegen in der Regel zwischen 90 und 100 Prozent. Allerdings wird die Erkrankung oft spät erkannt und kann unbehandelt in einer Leberzirrhose oder einem Leberzellkrebs münden. Auch hier ist die frühe Entdeckung der Erkrankung im Rahmen einer Untersuchung wichtig.

Auf die Bedeutung der Vorsorge-Untersuchungen und Schutzmöglichkeiten durch Impfungen weisen die Ausrichter des 17. Deutschen Lebertages am 20. November 2016 hin. Aufmerksamkeitsstark wird der bundesweite Aktionstag unter das Motto „Leber/wert/voll“ gestellt. Das Motto unterstreicht die Wichtigkeit des zentralen Stoffwechselorgans Leber und impliziert gleichzeitig die Notwendigkeit, die Leberwerte bestimmen zu lassen.

http://www.lebertag.org

Ansprechpartner
Deutsche Leberhilfe e. V.
Prof. Dr. Claus Niederau, Vorstandsvorsitzender
Krieler Straße 100, 50935 Köln
info@leberhilfe.org
http://www.leberhilfe.org

Deutsche Leberstiftung
Prof. Dr. Michael P. Manns, Vorstandsvorsitzender
Bianka Wiebner, Hauptgeschäftsführerin
Carl-Neuberg-Straße 1, 30625 Hannover
presse@deutsche-leberstiftung.de
http://www.deutsche-leberstiftung.de

Deutsche Gesellschaft zur Bekämpfung der Krankheiten
von Magen, Darm und Leber sowie von Störungen des
Stoffwechsels und der Ernährung (Gastro-Liga) e. V.
Prof. Dr. Peter R. Galle, Mitglied des Wissenschaftlichen Beirats
Friedrich-List-Straße 13, 35398 Gießen
geschaeftsstelle@gastro-liga.de
http://www.gastro-liga.de

Weitere Informationen:
http://www.lebertag.org 17. Deutscher Lebertag – Leber/wert/voll
http://www.leberhilfe.org Deutsche Leberhilfe e. V.
http://www.deutsche-leberstiftung.de Deutsche Leberstiftung
http://www.gastro-liga.de Deutsche Gesellschaft zur Bekämpfung der Krankheiten von Magen, Darm und Leber sowie von Störungen des Stoffwechsels und der Ernährung (Gastro-Liga) e. V.

Quelle: idw

(nach oben)


Sonnenhäuser wissenschaftlich bewertet

Rüdiger Mack Marketingkommunikation
FIZ Karlsruhe – Leibniz-Institut für Informationsinfrastruktur GmbH

Primärenergiebedarf und Kosten im Vergleich Nach der aktuellen Energieeinsparverordnung sollen neue Wohngebäude ein Viertel weniger Primärenergie benötigen. Sonnenhäuser mit großen Kollektorflächen erfüllen diesen Anspruch. In den gut gedämmten Gebäuden deckt eine Solaranlage mindestens 50 Prozent des Wärmebedarfs. Das BINE-Projektinfo „Sonnenhäuser energetisch und ökonomisch bewertet“ (09/2016) präsentiert Kosten und Energiebedarf verschiedener Solarhaus-Konzepte.

Primärenergiebedarf und Kosten im Vergleich
Um die Gebäude wissenschaftlich bewerten zu können, entwickelten die Wissenschaftler im Forschungsprojekt „HeizSolar“ ein neues Simulationsverfahren. Hiermit können Experten unterschiedliche Solarhaus-Konstellationen in Hinblick auf Primärenergiebedarf und Mehrkosten analysieren. Die Forscher variierten zum Beispiel den solaren Deckungsanteil von 50 bis 100 Prozent und kombinierten die Daten mit verschiedenen Effizienzhaus-Standards. Zusätzlich verglichen sie das Sonnenhaus-Konzept mit anderen CO2-armen Wärmeversorgungskonzepten, wie etwa der Deckung des Wärmebedarfs mit Pellets oder Scheitholz.

Die Basis für die Entwicklung des Simulationsverfahrens bildeten Auswertungen an drei Mehrfamilien- und sechs Einfamilienhäusern. Hierbei handelt es sich um konzeptionell unterschiedliche Solarhäuser, die über mehrere Heizperioden vermessen wurden. Aus den Monitoring-Ergebnissen und Betriebserfahrungen leiteten die Wissenschaftler Optimierungsvorschläge für Kollektoranordnung und Speichertechnologie ab.

Das Forschungsprojekt „HeizSolar“ fand unter Leitung des Fraunhofer-Instituts für Solare Energiesysteme statt. Beteiligte Institute waren außerdem das Sonnenhaus-Institut, die Technische Universität Ilmenau sowie Solar- und Wärmetechnik Stuttgart.

Das BINE-Projektinfo ist kostenfrei beim BINE Informationsdienst von FIZ Karlsruhe erhältlich – unter www.bine.info oder 0228 – 92379-0.

BINE Informationsdienst ist ein Service von FIZ Karlsruhe und wird vom Bundesministerium für Wirtschaft und Energie (BMWi) gefördert.

FIZ Karlsruhe – Leibniz-Institut für Informationsinfrastruktur ist eine gemeinnützige Gesellschaft, die im öffentlichen Auftrag weltweit publizierte wissenschaftliche Information zugänglich macht und entsprechende Dienstleistungen zur Verfügung stellt. FIZ Karlsruhe
hat die Aufgabe, den nationalen und internationalen Wissenstransfer und die Innovationsförderung zu unterstützen.

Weitere Informationen:
http://www.bine.info/en – BINE Information Service – Energy research for practical applications
http://www.twitter.com/bineinfo – Folgen Sie BINE Informationsdienst aktuell auf Twitter
https://www.facebook.com/BINE.Informationsdienst – Auch auf Facebook mit mehr News und Infos rund um die Uhr

Quelle: idw

(nach oben)


Sicherer, effizienter, dynamischer: Ulmer Ingenieure entwickeln Allradantrieb für Elektro-Zweiräder

Marieke Behnel Pressestelle
Universität Ulm

Verbesserte Fahrdynamik in kritischen Situationen und effektive Bremskraftnutzung für eine höhere Reichweite: Ulmer Ingenieure des Instituts für Mess-, Regel- und Mikrotechnik der Universität Ulm haben einen Allradantrieb für rein elektrisch betriebene Zweiräder entwickelt, der E-Krafträder nicht nur sicherer, sondern auch energieeffizienter macht. Nach drei Jahren haben die Wissenschaftler das Verbundprojekt „Sicherheitsfahrwerk mit Elektro-Allradantrieb für E-Bikes und E-Motorräder“ erfolgreich abgeschlossen – und präsentieren gemeinsam mit den Industriepartnern, dem Ulmer Unternehmen GIGATRONIK Technologies und den Stuttgarter Firmen ID-BIKE und ipdd, einen funktionsfähigen Prototypen.

Verbesserte Fahrdynamik in kritischen Situationen und effektive Bremskraftnutzung für eine höhere Reichweite: Ulmer Ingenieure des Instituts für Mess-, Regel- und Mikrotechnik (MRM) der Universität Ulm haben einen Allradantrieb für rein elektrisch betriebene Zweiräder entwickelt, der E-Motorräder nicht nur sicherer, sondern auch energieeffizienter macht. Nach drei Jahren haben die Wissenschaftler das Verbundprojekt „Sicherheitsfahrwerk mit Elektro-Allradantrieb für E-Bikes und E-Motorräder“ nun erfolgreich abgeschlossen – und präsentieren gemeinsam mit dem Unternehmen GIGATRONIK Technologies aus Ulm sowie den Stuttgarter Firmen ID-BIKE und ipdd einen funktionsfähigen Prototypen. Gefördert wurde das Projekt vom Ministerium für Wirtschaft, Arbeit und Wohnungsbau Baden-Württemberg sowie den Industriepartnern.

Im Automobilbereich schätzen Fahrer den Allradantrieb bereits seit längerem und besonders bei widrigen Straßenverhältnissen wie einer glatten, rutschigen Fahrbahn durch nasses Laub, Matsch oder Schnee. Obwohl auch Zweiräder enorme Vorteile durch das Antriebsprinzip haben, konnte sich ein zusätzlicher Motor am Vorderrad jedoch unter anderem aufgrund von Problemen bei der Konstruktion bisher nicht in der Serienproduktion durchsetzen. Ulmer Ingenieure haben nun einen Allradantrieb für E-Motorräder und andere rein elektrisch betriebene Zweiräder entwickelt, der die Fahrsicherheit in allen Fahrsituationen erhöht und das Energiemanagement optimiert. Als Prototyp diente ein Elektroleichtkraftrad mit Nabenmotor auf Basis des bis zu 45 km/h schnellen Elmoto-Kleinkraftrads vom Fahrzeughersteller ID-BIKE, der das „Krad“ für den Allradantrieb modifizierte. Der Entwicklungs- und Beratungsdienstleister im Bereich Elektronik, Embedded Systems und IT, GIGATRONIK, hat das Testgefährt mit einem hybriden Energiespeicher ausgestattet und eine neue Stromregelung für die Elektromotoren implementiert, damit beim Bremsen Energie zurückgewonnen werden kann. Für den Fall, dass der Speicher voll ist oder der Fahrer bei geringen Geschwindigkeiten bremsen muss, hat ein weiterer Partner, die Produktdesign- und -entwicklungs-Agentur ipdd, eine elektromechanische Bremseinheit bereitgestellt, mit der über eine elektrische Ansteuerung auch die klassische Reibbremse eingesetzt werden kann.

„Das Herzstück des Prototypen ist die Gesamtsteuerung, die den Fahrerwunsch für Antrieb oder Bremsen auf die Räder verteilt“ erklärt Dr. Michael Buchholz, der das Projekt am MRM (Leitung Prof. Klaus Dietmayer) koordiniert hat. „Über ein sensorgestütztes Verfahren erfasst die Steuerungseinheit zusätzlich den momentanen Fahrzustand und passt daraufhin gezielt die Verteilung von Brems- oder Antriebsmomenten auf Vorder- und Hinterrad an“, so Buchholz weiter. „Die Dynamik und insbesondere auch die Sicherheit verbessern sich beim Fahren hierdurch enorm.“ Ein weiterer Vorteil von zwei über den Elektromotor angetriebenen beziehungsweise gebremsten Rädern: Es kann deutlich mehr und effizienter Bremskraft gewonnen und als Energie gespeichert werden. Dadurch wird die Reichweite erhöht und es tritt kaum Verschleiß beim Bremsen auf. Der so entstehende zusätzliche Freiheitsgrad gegenüber Elektrokrafträdern mit Einzelmotoren wurde von den Ingenieuren weiter ausgenutzt, um die Energieeffizienz zu steigern: Sie haben einen intelligenten Algorithmus programmiert, der die optimale Ansteuerung der beiden Motoren in Echtzeit berechnet. Gleichzeitig berücksichtigt der Algorithmus nach wie vor auch vom Fahrer ausgeführtes Bremsen oder Gas geben. Die Ulmer Wissenschaftler konnten mit diesem System auch die Sicherheit während des Fahrens steigern: Zusätzlich haben sie ein Zweirad-ABS entwickelt, das ebenfalls über die Elektromotoren funktioniert. Hierdurch bietet sich eine einfache und kostengünstige Möglichkeit, diese Technik in allen Leistungsklassen zu realisieren, insbesondere auch bei Leicht- und Kleinkrafträdern, wo solche Systeme heutzutage noch nicht verfügbar sind.

Darüber hinaus untersuchten die Ingenieure im Zuge des Projekts beispielsweise auch das Bremslenkmoment, eine häufige Unfallursache bei Motorradunfällen. Bremst ein Fahrer in einer Kurve plötzlich, kann sich die Maschine durch die Einwirkung auf das Vorderrad überraschend aufrichten und fährt einen viel weiteren Bogen als erwartet. „Das Motorrad läuft dadurch Gefahr, von der Spur abzukommen und in den Graben zu fahren oder mit einem entgegenkommenden Auto zu kollidieren“, erklärt Projektkoordinator Buchholz. „Bislang konnte der Fahrer diese Situation nur kontrollieren, indem er die Bremse zur richtigen Zeit im richtigen Maße einsetzt – in einem Schreckmoment ist das jedoch selbst für geübte Motorradfahrer eine Herausforderung.“ In der funktionsintegrierten Gesamtsteuerung der Ulmer „Tüftler“ übernimmt der intelligente Algorithmus die richtige Dosierung von Bremskraft auf beide Räder in kritischen Situationen: Dem gefährlichen Bremslenkmoment wird also entgegengesteuert.

Die Ergebnisse des Verbundprojekts können auf alle Klassen von Zweirädern mit elektrischem Antriebsstrang übertragen werden. Und auch herkömmlich betriebene Motorräder könnten von den Erkenntnissen der Ulmer Ingenieure profitieren und deutlich sicherer werden. Sind diese mit sogenannten Brake-by-Wire-Systemen ausgestattet, lassen sich die in Ulm entwickelten Algorithmen auch bei diesen Zweirädern problemlos integrieren. Derzeit planen die Ingenieure bereits Folgeprojekte, die auch Chancen für Kooperationen mit weiteren Partnern aus Forschung und Industrie bieten.

Anhang
Flott unterwegs mit dem Prototypen des Allrad-Elektro-Leichtkraftrads: Doktorand Matthias Baumann
https://idw-online.de/de/attachment50407

Quelle: idw

(nach oben)


Mehr als nur der kleine Unterschied: Männer und Frauen variieren auffällig in punkto Blutfette

Konrad Kästner Presse- und Öffentlichkeitsarbeit
Universitätsklinikum Carl Gustav Carus Dresden

Ein Fünftel aller Deutschen weist Fettstoffwechselstörungen auf, an deren Folgen durch Herzinfarkt und andere Gefäßerkrankungen etwa die Hälfte aller Menschen stirbt. In einer Studie an jungen gesunden Männern und Frauen haben Forscher der Medizinischen Klinik und Poliklinik 3 des Universitätsklinikums Carl Gustav Carus und des Max-Planck-Instituts für Molekulare Zellbiologie und Genetik jetzt in Dresden herausgefunden, dass sich Männer und Frauen wesentlich stärker in ihren Blutfetten unterscheiden als bisher angenommen. Ihre Ergebnisse veröffentlichten die Wissenschaftler in der aktuellen Ausgabe der bei „nature“ erscheinenden Scientific Reports.

Bei einem Teil der Männer zeigten die Analysen darüber hinaus, dass bei noch normalen Blutfettwerten bereits frühe Anzeichen eines gestörten Fettstoffwechsels erkennbar waren, die die Gefahr einer späteren Gefäßschädigung in sich trugen. Dramatische Veränderungen der Blutlipidmuster wurden bei Frauen durch die Einnahme oraler Kontrazeptiva beobachtet, die auf eine Reizung der Leberzellen zurückzuführen war. Der Einsatz moderner Analysentechnik soll in Zukunft dazu dienen, Veränderungen des Blutlipidmusters frühzeitig zu erkennen, um Schäden an Gefäßen und Organen effizient vorbeugen zu können.

Reicht aber die Bestimmung von Cholesterol und Triglyceriden im Blut aus, um das individuelle Risiko zu erkennen? Was sind die molekularen Grundlagen von Fettstoffwechselstörungen? Das sind die Fragen, mit denen sich derzeit Professor Jürgen Gräßler, Leiter des Bereiches für Pathologische Biochemie der Medizinischen Klinik 3 an der TU Dresden, befasst. Er sagt: „Mittels moderner Analysemethoden wie der Massenspektrometrie lassen sich heute bereits schon mehr als 280 verschiedene Fettmoleküle im Blut bestimmen. Unklar ist allerdings noch, welche dieser Moleküle die wichtigen Informationen über Krankheitsentstehung und deren Verlauf liefern.“ Um diese Frage beantworten zu können, ist die Definition eines „gesunden Blutfettmusters (Lipidoms)“ von entscheidender Bedeutung.

Genau jener Problemstellung widmeten sich Forschungsgruppen der Medizinischen Klinik und Poliklinik III des Universitätsklinikums Dresden unter der Leitung von Klinikdirektor Professor Stefan R. Bornstein und Professor Jürgen Gräßler, in Zusammenarbeit mit Wissenschaftlerteams des Dresdener Max-Planck-Instituts für Molekulare Zellbiologie und Genetik unter der Leitung von Dr. Andrej Shevchenko, und der Firma „Zora Biosciences“ aus Finnland.

Umfangreiche klinische und klinisch-chemische Untersuchungen zum Ausschluss jeglicher Art von Begleiterkrankungen wurden durchgeführt, um eine homogene Population gesunder junger Frauen und Männer zu etablieren, die sich für die Bestimmung einer normalen biologischen Variabilität, der Untersuchung von Geschlechtsunterschieden und generellen Einflussfaktoren auf das Blutfettmuster eignete. Das erste und in diesem Umfang unerwartete Ergebnis war, dass sich 112 der 281 gemessenen Blutfettmoleküle hochsignifikant zwischen Frauen und Männern unterschieden. Für neu zu planende Untersuchungen des Blutfettmusters bedeutet das strikte separate Analysen für Frauen und Männer, die durch statistische Verfahren gemischtgeschlechtlicher Untersuchungsgruppen allein nicht realisiert werden können.

Eine weitere Überraschung, so Professor Gräßler: „Nach einer gesonderten Auswertung der Blutfettprofile von Frauen, die orale Kontrazeptiva einnahmen, haben wir plötzlich gesehen, dass die bisher stoffwechselmäßig als harmlos angesehenen Präparate doch eine Auswirkung auf den Fettstoffwechsel haben. Es kam zu auffälligen Veränderungen, die auf eine Reizung der Leberzellen und einer damit einhergehenden allgemein erhöhten Entzündungsaktivität schließen lassen.“ Persönliche Berichte von Frauen, die nach Beginn der Einnahme von Kontrazeptiva über eine Zunahme des Körperfetts klagten, stützen diesen Befund. Der gravierende Effekt der oralen Kontrazeption auf das Blutfettmuster ist ein zentrales Einflussmoment, das bei künftigen Studien unbedingt Beachtung finden muss.

Eine grundlegend neue Erkenntnis ergab sich aus der Charakterisierung einer Subpopulation von Männern, die sich nach komplexen mathematischen Analysen, die am Biotechnologischen Zentrum der TU Dresden (BIOTEC) durch die Gruppe für Biomedizinische Kybernetik unter Leitung von Dr. Carlo V. Cannistraci durchgeführt wurden, herauskristallisiert hatte. Diese Gruppe von Männern, die circa 20 Prozent aller untersuchten Männer ausmachte, zeichnete sich durch Veränderungen des Blutfettmusters aus, wie sie in wesentlich stärkerer Ausprägung bei Patienten mit metabolischem Syndrom beobachtet werden. Bemerkenswert dabei ist besonders, dass diese Männer zu diesem Zeitpunkt einen normalen Body-Mass-Index und normale (klinisch-chemische) Blutfettwerte hatten. Die biochemische Signatur für das metabolische Syndrom ist demzufolge lange vor dessen klinischer Ausprägung vorhanden. Auch bei den Frauen war diese Konstellation erkennbar, allerdings deutlich seltener.

Diese aktuelle Untersuchung belegt, dass durch die Kombination von systematischer, anspruchsvoller klinischer Arbeit mit ausgefeilter analytischer Technik im Rahmen einer internationalen Zusammenarbeit eine wesentliche Vertiefung unseres Wissens zum Fettstoffwechsel erreicht werden konnte, die eine weitreichende Wirkung für zukünftige Untersuchungen haben wird.

Ihre Ergebnisse veröffentlichten die Wissenschaftler in der aktuellen Ausgabe der bei „nature“ erscheinenden Scientific Reports:
Susanne Sales, Juergen Graessler, Sara Ciucci, Rania Al-Atrib, Terhi Vihervaara, Kai Schuhmann, Dimple Kauhanen, Marko Sysi-Aho, Stefan R. Bornstein, Marc Bickle, Carlo V. Cannistraci, Kim Ekroos & Andrej Shevchenko: Gender, Contraceptives and Individual Metabolic Predisposition Shape a Healthy Plasma Lipidome; in: Scientific Reports 6, Article number: 27710 (2016), doi:10.1038/srep27710

Kontakt:
Medizinische Fakultät Carl Gustav Carus
Technische Universität Dresden
Medizinische Klinik und Poliklinik 3
Prof. Dr. med. Jürgen Gräßler
Tel.: +49 0351 458 3691
Fax: +49 0351 458 5330
E-Mail: Juergen.Graessler@uniklinkum-dresden.de

Weitere Informationen:
http://www.uniklinikum-dresden.de/mk3

Quelle: idw

(nach oben)


Agile Arbeitswelt: Wunschdenken oder bereits Wirklichkeit?

Désirée Tschernatsch Hochschulkommunikation
ESCP Europe Business School Berlin

Die Studie „Smart Workforce“ der Haufe Akademie und der Wirtschaftshochschule ESCP Europe Berlin zeigt: Mitbestimmung, Gestaltungsfreiheit sowie die Möglichkeit individueller Karrierewege und flexibler Arbeitszeitmodelle kommen in Unternehmen bisher noch zu kurz.

Als Basis für die aktuelle Untersuchung dient der Haufe Quadrant, ein von Haufe entwickeltes Modell, das die Interaktion zwischen den Mitarbeitern und dem Organisationsdesign eines Unternehmens veranschaulicht. Im Zentrum der Forschung standen folgende Leitfragen: „Wie gestaltet sich das Organisationsdesign heute und wie sollte es zukünftig sein?“ und „Welche Rolle haben Mitarbeiter heute und welche sollen sie zukünftig einnehmen?“ Die Ergebnisse der Studie zeigen, dass Unternehmen und Mitarbeiter sich eine agile Arbeitswelt mit einem hohen Grad an Eigenverantwortung wünschen. Mitarbeiter fordern darüber hinaus mehr Gestaltungsfreiheit als Intrapreneure – als Unternehmer im Unternehmen. Die Rahmenbedingungen in Unternehmen hingegen lassen diese Art zu arbeiten bisher kaum zu. Damit wird klar: Für Unternehmen gibt es noch Einiges zu tun, um die an sie gestellten Herausforderungen zu meistern. Mit der Studie „Smart Workforce“ zeigen die Haufe Akademie und die ESCP Europe Wege auf, um diesen Gap zu schließen.

Das Organisationsdesign
Die Ergebnisse zum aktuellen Organisationsdesign, das sich gemäß des Haufe Quadranten zwischen den Extremen „gesteuert“ und „selbstorganisierend“ bewegt, zeigen deutlich: Der Wunsch nach selbstorganisierenden Unternehmen ist groß. 96 Prozent der Befragten nannten dies als Organisationsform ihrer Wahl – insbesondere Mitarbeiter, die in einer gesteuerten Unternehmensstruktur arbeiten, äußerten diesen Wunsch. Erfreulich: 77 Prozent der Studienteilnehmer haben aktuell das Gefühl, bereits in einer „Selbstorganisation“ zu arbeiten.
Trotz dieser an sich guten Ergebnisse konnten die Macher der Studie einige Punkte identifizieren, bei denen es durchaus Verbesserungsbedarf gibt. So wünschen sich bspw. die Mehrheit der Befragten mehr Möglichkeiten der Mitbestimmung und Gestaltungsfreiheit (rund 80%) sowie eine offene Unternehmenskultur, in der Leistung auch durch ein Mehr an Verantwortung honoriert wird (rund 70%). Insgesamt wünschen sich 90 Prozent der Befragten, dass Mitarbeiter stärker von ihren Vorgesetzten ermutigt werden, die Initiative zu ergreifen und Verantwortung zu übernehmen.

Die Rolle der Mitarbeiter
Die Rolle der Mitarbeiter wird im Haufe Quadranten mit den Extremen „Umsetzer“ und „Gestalter“ definiert. Die Ergebnisse zeigen: Den Mitarbeiter der Zukunft wünschen sich 96 Prozent der Befragten in der Rolle des Gestalters, der aktiv als Intrapreneur in Erscheinung tritt. Aktuell betrachten aber nur knapp 70 Prozent der Studienteilnehmer ihre Mitarbeiter als solchen. Denn: Bisher haben bspw. lediglich 26 Prozent der Befragten das Gefühl, dass sich ihre Mitarbeiter eigenverantwortlich schwierigen Angelegenheiten stellen oder Verantwortung für ihre Fehler übernehmen (28 Prozent). Auch bei der intrinsischen Motivation, die Gestaltern nachgesagt wird, gibt es laut Studienergebnissen noch Verbesserungspotenzial. Obwohl sich 93 Prozent motivierte und damit leistungsfähigere und engagiertere Mitarbeiter wünschen, sehen dies in der Realität nur weniger als die Hälfte der Befragten (45 Prozent).

„Auf Basis der Ergebnisse konnten wir klare Forderungen an Unternehmen ableiten“, so Torsten Bittlingmaier, Geschäftsführer Inhouse Training & Consulting der Haufe Akademie. „Sie müssen Kompetenz- und Laufbahnmodelle individualisieren und so Mitarbeitern Gestaltungsspielraum und Eigenverantwortung bieten. Auch die Erweiterung der Talent Programme um Jobcrafting-Elemente ist ein wichtiger Schritt. „Die Befähigung der Mitarbeiter zu eigenverantwortlichem und agilem Arbeiten sieht auch Prof. Dr. Marion Festing, Rektorin der ESCP Europe Berlin, als eine der wichtigsten Erkenntnisse: „In einer agilen Arbeitsumgebung wird HR zum Gestalter. Denn dort können Plattformen, Netzwerke und Instrumente etabliert werden, die auf Mitbestimmung und Austausch ausgelegt sind.“

Informationen zur Studie
Die Haufe Akademie beauftragte die ESCP Europe mit der Durchführung der Studie „Smart Workforce – Arbeitswelten der Zukunft“. Von September 2015 bis März 2016 wurde dafür die Einschätzung von Unternehmenseigentümern, Führungskräften und HR-Mitarbeitern in leitender und operativer Funktion erfasst. Insgesamt 237 Personen beteiligten sich an der Studie. Den Großteil der Teilnehmer machen mit 71% Mitarbeiter in Führungspositionen aus, darunter knapp 20% Mitglieder der Geschäftsführung. 22% der Studienteilnehmer sind Mitarbeiter ohne Personalverantwortung.

„Smart Workforce – Arbeitswelten der Zukunft“
Eine Kurzfassung der von der Haufe Akademie in Zusammenarbeit mit der ESCP Europe durchgeführten Befragung steht kostenlos zum Download zur Verfügung: http://www.escpeurope.eu/fileadmin/user_uploads/campus_Berlin_uploads/Campus/hau…
Die ausführliche Fassung erhalten Sie gerne auf Anfrage: https://docs.google.com/a/escpeurope.eu/forms/d/e/1FAIpQLSe8ok2F0a5wvtTqbri_SAmL…

Über die ESCP Europe
Die ESCP Europe, die weltweit älteste Wirtschaftshochschule (est. 1819), mit ihrem seit 1973 bestehenden Multi-Campus Modell in Berlin, London, Madrid, Paris, Turin und Warschau „lebt“ und fördert aktiv den europäischen Gedanken. Heute hat die ESCP Europe rund 4.000 Studierende und 5.000 Executives aus über 90 Nationen an ihren sechs europäischen Standorten.
Die ESCP Europe in Berlin ist als wissenschaftliche Hochschule staatlich anerkannt und bundesweit die erste Hochschule, die von allen drei wichtigen internationalen Akkreditierungsagenturen – AACSB, AMBA und EFMD (EQUIS) – anerkannt wurde und damit die so genannte „Triple Crown“ erhalten hat. Als solche kann sie Abschlüsse verleihen, inklusive Doktortitel. Ihr Erfolg spiegelt sich auch in Rankings wider – im FT European Business School Ranking belegt die ESCP Europe regelmäßig Spitzenplätze.

Über Haufe
„Menschen, die das Richtige tun“: Als Spezialist für HR-Themen steht Haufe für ein Management, das Mitarbeiter ins Zentrum unternehmerischen Denkens und Handelns stellt. Bereits seit mehreren Jahrzehnten ist Haufe ein bewährter Partner für Personalabteilungen und bietet innovative und verlässliche Lösungen für das HR-Management.
Darüber hinaus entwickelt Haufe digitale Arbeitsplatzlösungen, die Mitarbeiter bei ihrer täglichen Wissensarbeit optimal unterstützen. Denn es sind die Beschäftigten, die Unternehmen erfolgreich machen. Diese Überzeugung prägt alle Aktivitäten von Haufe und ist Grundphilosophie für ein einzigartiges integriertes Portfolio aus Software, Inhalten, Weiterbildung und Beratung.
Über fünf Millionen Nutzer in rund 100.000 Unternehmen und Organisationen aller Branchen und Größen arbeiten erfolgreich mit Lösungen von Haufe. Zu den Kunden zählen unter anderem Airbus, Allianz, BMW Group, Carl Zeiss, Deutsche Telekom, EDEKA, Infineon, PricewaterhouseCoopers und Siemens.
Haufe ist neben der Haufe Akademie und Lexware eine Marke der Haufe Gruppe. Das Unternehmen mit Hauptsitz in Freiburg wurde bereits 1951 gegründet und beschäftigt heute rund 1.500 Mitarbeiter im In- und Ausland. Die Unternehmensgruppe konnte im Geschäftsjahr 2015 (Juli 2014 bis Juni 2015) einen Umsatz von über 292 Mio. Euro erzielen (Vorjahr: über 266 Mio. Euro).

Quelle: idw

(nach oben)


Drohnen sollen Pflanzenwachstum erfassen

Johannes Seiler Dezernat 8 – Hochschulkommunikation
Rheinische Friedrich-Wilhelms-Universität Bonn

Wie gut wachsen die Kulturen auf dem Feld? Leiden die Pflanzen unter Krankheiten oder Stress? Wurde zu wenig oder zu viel gedüngt? Daten zu solchen Fragen sollen künftig automatisch erfasst werden – mit Kameras am Traktor und an einer Drohne. Das Projekt „Cropwatch – Informationssystem zur Prozesskontrolle und -analyse in der Pflanzenproduktion“ des Instituts für Geodäsie und des Instituts für Nutzpflanzenwissenschaften und Ressourcenschutz der Universität Bonn sowie der Firma terrestris wird in den nächsten drei Jahren mit fast 800.000 Euro gefördert. Peter Bleser, Staatssekretär im Bundeslandwirtschaftsministerium, übergab den Förderbescheid.

Das Wachstum der Pflanzen auf den Feldern lässt sich nur begrenzt steuern: Umweltbedingungen wie Kälte, Regen oder Schädlinge sind kaum vorauszusehen, außerdem wechseln sie fast täglich. „Wie viel Dünger zum Beispiel Landwirte zuführen müssen, hängt aber von solchen Umweltbedingungen ab“, sagt Prof. Dr. Jens Léon von der Professur für Pflanzenzüchtung der Universität Bonn. Um die Umwelt zu schonen und ein möglichst effizientes Pflanzenwachstum zu erzielen, soll die Bewirtschaftung der Felder deshalb noch präziser und gezielter erfolgen. „Außerdem geht es darum, Pflanzensorten zu züchten, die auch mit weniger Wasser oder Nährstoffen auskommen“, ergänzt Prof. Léon.

Kameras sollen Pflanzen aus unterschiedlicher Höhe aufnehmen
Ein Informationssystem zur Kontrolle und Analyse des Pflanzenproduktionsprozesses soll helfen, diese Ziele zu erreichen. Digitale Kameras an Traktoren und Drohnen sollen die Pflanzenbestände aus rund zwei und 20 Metern Höhe aufnehmen und damit ortsgenaue Informationen über die Vitalität der Kulturen liefern. „Computeralgorithmen werden dann aus diesen Rohdaten Informationen gewinnen, zum Beispiel wie stark die Pflanzen den Boden bedecken, wie groß sie sind, ob sie unter Krankheiten oder Stresssymptomen leiden und wann der optimale Erntezeitpunkt ist“, berichtet Prof. Dr.-Ing. Heiner Kuhlmann vom Institut für Geodäsie und Geoinformation der Universität Bonn.

Ein Mausklick zeigt die aktuelle Vitalität der Kulturen auf einer Karte
Mit einem Klick ins Internet sollen die Nutzer in die Lage versetzt werden, tagesaktuell auf farbigen Karten Informationen zum Gedeihen der Pflanzen auf dem Feld abzurufen. Landwirte können dann besser entscheiden, ob zum Beispiel bei ausreichend Regen weitere Nährstoffe zugeführt werden sollten oder ob eine Schädlingsplage abgewendet werden muss. „Darüber hinaus sollen Prognosen zum voraussichtlichen Ertrag und zur Effizienz des Ressourceneinsatzes gerechnet werden“, sagt Hinrich Paulsen, Geschäftsführer der Bonner Firma terrestris. Zu den Nutzern des künftigen Informationssystems zählen Landwirte, Lohnunternehmer, Beratungsfirmen und Pflanzenzüchter, die an ressourceneffizienteren Sorten arbeiten.

Prof. Dr.-Ing. Heiner Kuhlmann
Institut für Geodäsie und Geoinformation
Universität Bonn
Tel. 0228/732620
E-Mail: heiner.kuhlmann@uni-bonn.de

Quelle: idw

(nach oben)


Gewitter: Diese Regeln sollte Ihr Kind kennen

Giulia Roggenkamp Pressestelle
Stiftung Kindergesundheit

Die Wahrscheinlichkeit, im Lotto sechs richtige Zahlen zu tippen, liegt 20- bis 40-mal höher als die Gefahr, hierzulande von einem Blitz getötet zu werden. Aber das Risiko ist da und wird wegen der Klimaerwärmung von Jahr zu Jahr größer. In Deutschland wurden im Jahr 2014 mehr als 600.000 Blitzeinschläge registriert, besonders viele davon im Monat Juli. Da eine Gewitterfront sehr schnell und unerwartet aufziehen kann, sollten schon Kinder die Regeln des richtigen Verhaltens kennen, und zwar schon bevor es blitzt und donnert, betont die Stiftung Kindergesundheit in ihrer aktuellen Stellungnahme.

Blitze haben durch Strom, Hitze, Druckwellen und elektromagnetische Fernwirkung eine vierfache Zerstörungspotenz. Um die Gefährlichkeit eines Blitzes zu demonstrieren, hier einige Zahlen: Die elektrische Spannung eines Blitzes reicht von 50 bis 500 Millionen Volt. Die Spitzenwerte der Stromstärke liegen bei über 100.000 Ampere. Die Temperatur im Blitzkanal kann Werte um 30.000 Grad Celsius erreichen; das ist das Fünffache der Hitze auf der Oberfläche der Sonne. Die Geschwindigkeit eines Blitzes liegt bei rund 1.000 Kilometer pro Sekunde.

Jedes Jahr 130 Verletzte
Die unvorstellbare Gewalt der Blitzentladung macht deutlich, dass ein Blitzschlag nur überlebt werden kann, wenn die Blitzwirkung den menschlichen Körper nicht vollständig, sondern nur am Rande tangiert hat. Der extrem kurzzeitige Kontakt von einer tausendstel bis zehntausendstel Sekunde bietet eine weitere Überlebenschance. Pro Jahr sind etwa 800 Menschen in Deutschland direkt durch Blitze betroffen, davon gibt es durchschnittlich rund 130 Verletzte und drei bis sieben Todesfälle.

Im Haus, in einem Auto, in der Bahn und auch in einem Flugzeug ist man durch das so genannten Faraday’schen Schutzphänomen weitgehend geschützt. In Häusern ohne Blitzableiter kann ein Blitz allerdings alle Leitungen für Wasser, Strom, Heizung und Telefon unter Strom setzen. Bei Gewitter sollten solche Leitungen nicht berührt werden, hebt die Stiftung Kindergesundheit hervor. Sie empfiehlt, Stecker von Elektrogeräten und Antennenstecker von Radio- und Fernsehgeräten rechtzeitig herauszuziehen und auch Computer vom Netz zu nehmen. Auch sollte man bei Gewittern nicht duschen oder in die Badewanne steigen und nur Telefone ohne Kabel benutzen.

Risiko beim Baden und Zelten
Große Gefahr besteht beim Aufenthalt im Freien, besonders am Rand von Wäldern, im Wasser oder beim Zelten. Um die Gefahr möglichst gering zu halten, sollten Eltern und Kinder bei einem Gewitter unbedingt folgende Verhaltensregeln beherzigen:

• Runter vom Fahrrad, raus aus dem Wasser und Schutz in festen Gebäuden suchen. Falls mit einem Boot unterwegs: Schnell anlegen und sich mit einem Mindestsicherheitsabstand von 30 Metern vom Ufer entfernt aufhalten.
• Im Freien nicht stehenbleiben, aber sich auch nicht hinlegen. Weg mit dem Regenschirm! Am besten in die Hocke gehen, Kopf einziehen, Arme an die Brust, Füße eng schließen (nicht mit den Knien den Boden berühren!). Sind die Kinder mit einer Gruppe unterwegs, sollte jeder von ihnen einzeln in der Hocke bleiben und keine andere Personen oder Tiere mit den Händen berühren.

• Nicht unter einem freistehenden Baum aufhalten – die Baumart (Eiche oder Buche) spielt keine Rolle! Im Wald am besten in der Mitte zwischen den Bäumen bleiben. Optimal ist ein Abstand von etwa zehn Metern zu Bäumen und Ästen. Schutz besteht auch unter Hochspannungsdrähten, in der Mitte zwischen den Masten.

• Auf Hügelkuppen, an Hecken, Waldrändern und Wassergräben sollte man sich nicht aufhalten.

• Während eines Gewitters sollte man die Berührung von Metallgegenständen vermeiden. Sonst könnte man durch die so genannte elektromagnetische Induktion auch dann einen Schlag bekommen, wenn der Blitz ein paar hundert Meter entfernt niedergeht. Zu vermeiden sind auch Metallzäune und Weidezaunanlagen. Auch Drahtseile, nasse Kletterseile und eiserne Leitern im Gebirge sind tabu.

• Der Aufenthalt in einem Zelt ist bei Gewittern genauso gefährlich wie das Verweilen im Freien. Wohnwagen mit Metallgerüst sind dagegen sicher („Faradayscher Käfig“).

• Im geschlossenen Auto mit Metallkarosserie besteht keine Gefahr. Man sollte aber nicht unter Brücken parken. Zwar ist man unter Stahlbeton oder Stahlbrücken vor einem direkten Blitzeinschlag sicher. Aber auch hier besteht das Risiko einer so genannten Schrittspanne.

Die Stiftung Kindergesundheit empfiehlt allen Eltern das Merkblatt „Donner-Wetter! Comic für Kids zu Donner & Blitz“. Zielgruppe des Comics sind vor allem Kinder im Grundschulalter, es eignet sich aber auch noch für Kinder der 5. und 6. Klassen. Herausgeber des kindgerecht gestalteten Comics, das auch als App bei Google Play und im App Store von Apple angeboten wird, ist der „VDE Verband der Elektrotechnik Elektronik Informationstechnik“. Homepage: www.donner-wetter.info.

Unabhängige und wissenschaftlich basierte Berichterstattung braucht Förderer:
Fördern auch Sie die Gesundheit unserer Kinder durch Ihre Spende, die in voller
Höhe den Projekten der Stiftung Kindergesundheit zugute kommt.

Mit einem Beitritt zum Freundeskreis der Stiftung Kindergesundheit können Sie die Arbeit der
Stiftung regelmäßig fördern.
Mehr Informationen hierzu finden Sie unter: www.kindergesundheit.de
Spendenkonto: HypoVereinsbank München
IBAN: DE41 7002 0270 0052 0555 20
SWIFT (BIC): HYVEDEMMXXX

Vielen Dank!

Quelle: idw

(nach oben)


Mee(h)r Wissen über den Regen – Neue Methode ermöglicht genauere Rekonstruktion

Sabine Wendler Stab Wissenschaftskoordination
Senckenberg Forschungsinstitut und Naturmuseen

Mal viel zu viel, mal viel zu wenig Regen: so sieht die Klimabilanz des 20. Jahrhunderts für die afrikanische Sahelzone aus. Mit einer innovativen Methode, die ein Team um Senckenberg-Wissenschaftlerin Dr. Eva Niedermeyer, kürzlich im Fachjournal „Geochimica et Cosmochimica Acta“ publizierte, können diese Schwankungen nun rückblickend genauer rekonstruiert werden. Hierzu wurden die Regenmengen der Vergangenheit erstmals unter Berücksichtigung von Isotopenverhältnissen in Pflanzenwachsen berechnet. Die neue Methode treibt die Erforschung des Klimas in der Kurz- und Langzeitperspektive voran.

In der Sahelzone südlich der Sahara geht es heiß her – hier regnet es nur zwischen Juli und September; während des restlichen Jahres herrscht Trockenheit. Die Vegetation ist dem Klima angepasst: Weite Teile der Sahelzone bestehen aus Grasland und Savanne, in der vereinzelt Bäume und Sträucher stehen. Anhand von Resten dieser Pflanzen kann quantitativ berechnet werden, wieviel es hier in den letzten 100 Jahren geregnet hat. Der Vergleich mit Messdaten der Niederschlagsmenge in diesem Zeitraum zeigt, dass die neue Methode ein sehr genaues Abbild der Regenhistorie liefert.

Die Studie ist eine Pionierarbeit, denn „bisher ließ die Rekonstruktion von Niederschlagsmengen anhand von Isotopenverhältnissen in Pflanzenresten oft nur die relative Aussage zu, ‚Es hat mehr oder weniger geregnet‘.“ so die Leitautorin der Studie, Dr. Eva Niedermeyer vom Senckenberg Biodiversität und Klima Forschungszentrum in Frankfurt. „Grund hierfür ist, dass außer der reinen Niederschlagsmenge, ein hochkomplexes Zusammenspiel weiterer verschiedener Faktoren das finale Isotopensignal bestimmt.“ Einen davon haben die Wissenschaftlerinnen und Wissenschaflter als besonders bedeutsam berücksichtigt: die Zusammensetzung des Ökosystems; denn Savannengräser und Bäume unterscheiden sich maßgeblich darin, wie Wasserstoff und seine Isotope in der obersten Schicht der Pflanzen, den sogenannten Pflanzenwachsen, eingelagert wird.

Auf der Suche nach Regenspuren in der Sahelzone begaben sich die Forschenden aufs Meer vor Nordwestafrika. Dort findet man im Meeresboden in 323 Meter Tiefe Pflanzenwachse vom Kontinent. Sie wurden mit dem Wind verfrachtet oder durch den Senegal-Fluss ins Meer gespült und dann abgelagert. Der Gehalt stabiler Wasserstoff-Isotope in diesen Pflanzenwachsen hängt von der Menge an Niederschlag ab, dem die Pflanzen zur Zeit des Wachstums ausgesetzt waren. Außerdem berechnete das Team anhand von Kohlenstoff-Isotopen das Verhältnis von Gräsern zu Bäumen im Untersuchungsgebiet. Betrachtet man beide Ergebnisse zusammen unter Berücksichtigung des Zusammenspiels von Niederschlagsmenge und der Isotopenzusammensetzung des Wassers, lässt sich die quantitative Regenmenge für den Zeitraum 1910 bis 2006 berechnen.

Im 20. Jahrhunderten hatten die Menschen in der Sahelzone mit enormen Schwankungen der Niederschlagsmenge zu kämpfen. Auf Zeiträume mit besonders viel Niederschlag zwischen 1925 bis 1935 und 1950 bis 1965 folgten die großen Dürreperioden während der 70er und 80er Jahre. „In Gebieten mit solchen Extremen ist es besonders wichtig zu verstehen, inwieweit sie natürliche Ursachen haben und welche Mechanismen dahinter stecken.“, erläutert Niedermeyer. Das ist auch mit Blick auf den Klimawandel interessant, denn die Länder der Sahelzone sind von dessen negativen Auswirkungen besonders betroffen. Über die jüngste Vergangenheit hinaus liefert die Methode zudem wichtige Impulse zur Erforschung des Paläoklimas, um Klimaveränderungen in der Langzeitperspektive zu verstehen.

Kontakt

Dr. Eva M. Niedermeyer
Senckenberg Biodiversität und Klima Forschungszentrum
Tel. 069 7542 1882
eniedermeyer@senckenberg.de

Publikation
Niedermeyer, E. M., Forrest, M., Beckmann, B., Sessions, A. L., Mulch, M., Schefuß, E. (2016): The stable hydrogen isotopic composition of sedimentary plant waxes as quantitative proxy for rainfall in the West African Sahel. Geochimica et Cosmochimica Acta, 184, 55-57, doi:10.1016/j.gca.2016.03032

Die Natur mit ihrer unendlichen Vielfalt an Lebensformen zu erforschen und zu verstehen, um sie als Lebensgrundlage für zukünftige Generationen erhalten und nachhaltig nutzen zu können – dafür arbeitet die Senckenberg Gesellschaft für Naturforschung seit nunmehr fast 200 Jahren. Diese integrative „Geobiodiversitätsforschung“ sowie die Vermittlung von Forschung und Wissenschaft sind die Aufgaben Senckenbergs. Drei Naturmuseen in Frankfurt, Görlitz und Dresden zeigen die Vielfalt des Lebens und die Entwicklung der Erde über Jahrmillionen. Die Senckenberg Gesellschaft für Naturforschung ist ein Mitglied der Leibniz-Gemeinschaft. Das Senckenberg Naturmuseum in Frankfurt am Main wird von der Stadt Frankfurt am Main sowie vielen weiteren Partnern gefördert. Mehr Informationen unter www.senckenberg.de.

2016 ist Leibniz-Jahr. Anlässlich des 370. Geburtstags und des 300. Todestags des Universalgelehrten Gottfried Wilhelm Leibniz (*1.7.1646 in Leipzig, † 14.11.1716 in Hannover) veranstaltet die Leibniz-Gemeinschaft ein großes Themenjahr. Unter dem Titel „die beste der möglichen Welten“ – einem Leibniz-Zitat – rückt sie die Vielfalt und die Aktualität der Themen in den Blick, denen sich die Wissenschaftlerinnen und Wissenschaftler der bundesweit 88 Leibniz-Einrichtungen widmen. www.bestewelten.de

Anhang

Pressemitteilung zum Download
https://idw-online.de/de/attachment50245

Quelle: idw

(nach oben)


Tourismusbranche unter Druck – Terrorismus verschiebt Reisegewohnheiten

Daniel Lichtenstein Marketing & Communications
International School of Management (ISM)

Ganz gleich ob alleine, zu zweit oder mit der Familie: Die Sommerferien sind traditionell die beliebteste Zeit zum Reisen. Gewandelt haben sich allerdings die favorisierten Reiseziele der Urlauber, denn die gesellschaftlichen und politischen Entwicklungen der vergangenen Jahre haben auch Auswirkungen auf den Tourismus. Die Branche hat mit einem strukturellen Wandel zu kämpfen. Tourismusexperte Prof. Bernd Schabbing von der International School of Management (ISM) skizziert die aktuellen Entwicklungen und die möglichen langfristigen Folgen für Branche und Reiseländer.

Nicht erst seit dem weitgehenden Ausfall von Ägypten und Tunesien als Reiseziele und dem starken Rückgang für Reisen in die Türkei von bis zu 30 Prozent in den letzten Monaten ist klar: Der Reisemarkt ist nicht nur im Mittelmeer im Umbruch. Die politischen Unruhen in Nordafrika und Arabien sowie die Zunahme von terroristischen Angriffen auf Hotels und Urlaubsgebiete haben einen strukturellen Wandel ausgelöst. Die Urlauber orientieren sich um – und die Veranstalter müssen folgen.

So war das erste Halbjahr 2016 für Reiseveranstalter vor allem durch die Umplanung und den Umbau von großen Kapazitäten in kurzer Zeit geprägt: Statt Ägypten, Tunesien und der Türkei waren bei den Buchungen für den Sommer vor allem Spanien, Italien, Portugal und Kroatien gefragt. Die begrenzten Kapazitäten am Mittelmeer führen zudem dazu, dass mehr Urlauber Skandinavien, Nord- und Ostsee sowie Fernreiseziele ansteuern. Durch die hohe Nachfrage hat hier die Preisschraube deutlich angezogen und für Kapazitätsengpässe gesorgt.

„Über den Verlierern dieser Entwicklung – insbesondere arabischen und muslimisch geprägten Reisezielen, wie eine Umfrage von ISM-Studierenden ergab – schwebt das Damoklesschwert weiterer Anschläge, die sofort weitere Negativeffekte nach sich ziehen würden“, erklärt Experte Prof. Dr. Bernd Schabbing, Studiengangsleiter für den Bereich Tourismus und Eventmanagement an der ISM. Wie in Ägypten und Tunesien können derartige Ereignisse auch in anderen Reiseländern zu einem entsprechenden Preisverfall führen und sogar dazu, dass Urlauber diese Reiseziele längerfristig ganz aus ihrer Reiseplanung streichen. „Durch Anschläge, Irritationen und auch kritische Berichterstattung sinkt das subjektive Sicherheitsgefühl der Touristen, weshalb sie die entsprechenden Regionen meiden. Gerade der aktuelle Anschlag am Atatürk-Flughafen wird hier leider noch mal ein starker Dämpfer für den Türkei-Tourismus der nächsten Monate sein“, so Schabbing.

Allen Veränderungen zum Trotz zeigt sich der Tourismus auch in der Krise als eine der robustesten Branchen. Der Grund ist einfach: die Menschen machen nicht weniger Urlaub, sondern einfach woanders, sodass die Branche auch für 2016 vom üblichen Wachstum von drei bis vier Prozent weltweit ausgeht. Wie es 2017 weitergeht, bleibt abzuwarten. Abschreiben will Schabbing die in diesem Jahr gemiedenen Ziele aber nicht: „Bei einem einmaligen kritischen oder terroristischen Ereignis sind die Touristen oft schon nach etwa einem halben Jahr bereit, das Reiseziel wieder zu buchen – sofern der Preis stimmt.“

Hintergrund:
Die International School of Management (ISM) zählt zu den führenden privaten Wirtschaftshochschulen in Deutschland. In den einschlägigen Hochschulrankings firmiert die ISM regelmäßig an vorderster Stelle.
Die ISM hat Standorte in Dortmund, Frankfurt/Main, München, Hamburg, Köln und Stuttgart. An der staatlich anerkannten, privaten Hochschule in gemeinnütziger Trägerschaft wird der Führungsnachwuchs für international orientierte Wirtschaftsunternehmen in kompakten, anwendungsbezogenen Studiengängen ausgebildet. Alle Studiengänge der ISM zeichnen sich durch Internationalität und Praxisorientierung aus. Projekte in Kleingruppen gehören ebenso zum Hochschulalltag wie integrierte Auslandssemester und -module an einer der über 170 Partneruniversitäten der ISM.

Weitere Informationen:
http://www.ism.de – Ausführliche Informationen zum Studienangebot der ISM

Quelle: idw

(nach oben)


Lübecker Unterwasserroboter beteiligten sich an meereswissenschaftlicher Expedition „Uhrwerk Ozean“

Rüdiger Labahn Informations- und Pressestelle
Universität zu Lübeck

Die vermessenen Meereswirbel haben vermutlich einen großen Einfluss auf die Nahrungskette der Ozeane und unser Klima – Überwachung der Wasserqualität und Unterwasserinspektion von Windenergieanlagen als weitere Monitoring-Aufgaben für MONSUN

Mit seinen schwarmfähigen Unterwasserrobotern MONSUN hat sich das Institut für Technische Informatik der Universität zu Lübeck erfolgreich an der meereswissenschaftlichen Expedition „Uhrwerk Ozean“ beteiligt. Das unter Leitung des Helmholtz-Zentrums Geesthacht, Zentrum für Material- und Küstenforschung, am 16. Juni gestartete Experiment dient der Erforschung von Meereswirbeln in der Ostsee.

Die am Lübecker Institut für Technische Informatik (Direktor: Prof. Dr.-Ing. Erik Maehle) entwickelten Unterwasserroboter MONSUN konnten im Rahmen der Expedition erstmalig in einem realen Einsatz auf der Ostsee getestet werden. Bei MONSUN handelt es sich um einen circa 60 Zentimeter langen, zigarrenförmigen Roboter mit vier vertikalen und zwei horizontalen Propellern, der bis zu 20 Meter tief tauchen kann.

Das Besondere an MONSUN ist, dass nicht, wie heute üblich, ein einziger Roboter, sondern mehrere Roboter nach dem biologischen Vorbild eines Schwarms gemeinsam eine Aufgabe erledigen. Dazu kommunizieren die Roboter, ähnlich wie Delphine, über akustische Signale miteinander. Mittels optionaler Sonden werden unter anderem Temperatur, Salzgehalt und Druck des Wassers gemessen. Der Vorteil eines Schwarms ist dabei, dass die Messungen schneller, effizienter und zuverlässiger möglich sind als mit einem einzelnen Roboter. Fällt zum Beispiel einer der Roboter aus, können die übrigen die Mission trotzdem fortsetzen.

In dem zwölftägigen Experiment, bei dem erstmalig weltweit ein Zeppelin für die Meeresforschung zum Einsatz kam, suchten die beteiligten Wissenschaftlerinnen und Wissenschaftler im Gebiet zwischen Usedom und Bornholm nach Meereswirbeln, um diese zu vermessen. Die grundlegenden ozeanografischen Prozesse dieser kleinen Wirbel, die wie die Zahnräder eines großen Uhrwerks in einander greifen, sind nahezu unerforscht. Von dem Zeppelin und einem Motorsegelflugzeug aus wurden die Wirbel zunächst mit Infrarot-Kameras aufgespürt und ihre Position an die beteiligten Schiffe, die größtenteils auf Bornholm stationiert waren, per Funk durchgegeben. Drei der Schiffe waren unter anderem mit Schleppketten mit Messsonden ausgerüstet, um den Wirbel zu vermessen.

Von einem vierten, von der Universität zu Lübeck gecharterten Boot wurden zwei MONSUN-Unterwasserroboter ausgesetzt und ihnen ein Weg durch den Wirbel vorgegeben, den sie dann autonom abfuhren. Da unter Wasser das Satellitennavigationssystem GPS nicht funktioniert, mussten sich beide Roboter über akustische Signale untereinander abstimmen. Ein MONSUN blieb dabei an der Oberfläche und bestimmte seine Position per GPS. Ein weiterer MONSUN tauchte ab und fuhr den gleichen Kurs auf einer vorher festgelegten Tiefe synchron mit. Nach Ende der Mission wurden die Roboter vom Boot aus wieder eingeholt.

„Die Kommunikation zwischen den beiden Robotern hat gut funktioniert“, stellt Benjamin Meyer, M.Sc., fest, der MONSUN zusammen mit Cedric Isokeit, M.Sc., entwickelt hat. Prof. Maehle fügt hinzu: „Der nächste Schritt wird es sein, weitere MONSUN-Unterwasserroboter fertigzustellen und so einem Schwarm näher zu kommen. Wir hoffen damit, für die Meeresforschung, aber auch für andere Monitoring-Aufgaben wie zum Beispiel die Überwachung der Wasserqualität in Häfen oder der Unterwasserinspektion von Windrädern im Meer, eine neues, flexibel einsetzbares Instrument zu schaffen, das präzisere und kostengünstigere Messungen erlaubt als herkömmliche Methoden.“

Unter der Federführung von Prof. Dr. Burkard Baschek, Institutsleiter am Institut für Küstenforschung des Helmholtz-Zentrums Geesthacht, sind mehr als 40 weitere Ozeanografen an dem Experiment beteiligt – aus verschiedenen Gruppen des HZG, dem Leibniz-Institut für Ostseeforschung Warnemünde, der Universität zu Lübeck, der Fachhochschule Aachen, dem Havariekommando Cuxhaven, der Freien Universität Berlin und dem Alfred-Wegener-Institut Bremerhaven. Aus den USA nehmen das Naval Research Laboratory und die Woods Hole Oceanographic Institution an „Uhrwerk Ozean“ teil. Während der Expedition lieferten das Bundesamt für Seeschifffahrt und Hydrographie die Strömungs-vorhersagen und der Deutsche Wetterdienst die Wetterberichte.
Weitere Informationen:

http://www.uhrwerk-ozean.de/index.html.de

Anhang

Meereswissenschaftliche Messdaten für die Expedition „Uhrwerk Ozean“
https://idw-online.de/de/attachment50314

Quelle: idw

(nach oben)


Pneumokokken: Impfraten bei Senioren zu gering

Barbara Ritzert Pressestelle Versorgungsatlas – ProScience Communications
Versorgungsatlas

Ältere Menschen zwischen 60 und 64 Jahren werden – vor allem in den alten Bundesländern – zu selten gegen Pneumokokken geimpft. Die Ständige Impfkommission (STIKO) empfiehlt für Senioren ab 60 Jahren eine solche Standardimpfung. Eine neue Studie der Wissenschaftler vom Versorgungsatlas liefert eine Landkarte der Impflücken.

http://www.versorgungsatlas.de/themen/alle-analysen-nach-datum-sortiert/?tab=6&a…

»Das Präventionspotenzial der Pneumokokken-Impfung bei Senioren wird zu wenig genutzt, aber regional unterschiedlich.« So lautet das Fazit der Wissenschaftler vom Versorgungsatlas in einer jetzt veröffentlichten Studie. Bei ihrer Untersuchung haben die Forscher die Behandlungsdaten von mehr als 500.000 gesetzlich Versicherten ausgewertet, die 2010 60 Jahre alt geworden waren. Das Team überprüfte, ob diese Menschen zwischen 2010 und 2014 die empfohlene Impfung gegen Pneumokokken erhalten haben.

Nur zehn Prozent sind geschützt.
Die Auswertung zeigt, dass am Ende des Beobachtungszeitraums im Jahr 2014 insgesamt nur 10,2 Prozent der Senioren in der untersuchten Gruppe gegen Pneumokokken geimpft war, Frauen mit 10,9 Prozent etwas häufiger als Männer (9,3 Prozent).

Deutliches Ost-West-Gefälle.
Wie bei anderen Impfungen sind die Raten auch bei der Pneumokokken-Impfung in den neuen Bundesländern (mit 20 bis 25 Prozent) generell höher als die in den alten (knapp 5 bis 15 Prozent). Am geringsten sind die Impfquoten im Süden und Südwesten der Republik: Baden-Württemberg (4,6%), Rheinland-Pfalz (4,7%) und Bayern (5,7%). Durchgängig höher lagen die Impfraten bei jenen Versicherten, bei denen im Laufe des Beobachtungszeitraums eine »impfrelevante« Erkrankung diagnostiziert wurde, beispielsweise eine Lungenerkrankung.

Gender-Aspekt: höhere Impfraten bei Frauen.
Die Forscher fanden auch moderate Unterschiede bei der Impfhäufigkeit zwischen Männer und Frauen, die größtenteils signifikant waren. Auf Bundesebene hatten Frauen eine um knapp 20 Prozent höhere Chance, im Untersuchungszeitraum geimpft zu werden als Männer.

Chronische Krankheiten beeinflussen Impfhäufigkeit.
Tritt eine chronische Erkrankung auf, verdoppelt sich die Chance der betroffen Patienten, eine Impfung zu erhalten. Liegt eine impfrelevanten Erkrankung in dieser Altersgruppe vor wirkt sich diese »doppelte Impfindikation« positiv auf die Impfquote aus.
Mögliche Ursachen. Gründe für die geringen Impfquoten lassen sich aus der Datenanalyse nicht ableiten. Allerdings liefert die Analyse der Rahmenbedingungen einige Anhaltspunkte. Die eher niedrige Impfquote bei Menschen ohne impfrelevante Erkrankungen in dieser Altersgruppe, deutet darauf hin, dass das Alter für sich genommen eher als schwächerer „Risikofaktor“ eingeschätzt wird. Auch die komplexe Diskussion, welcher Impfstoff eingesetzt werden soll, könnte vielen Ärzte die Entscheidung erschweren. Nicht zuletzt geben in Einzelfällen auch die Leitlinien wissenschaftlicher Fachgesellschaften Empfehlungen zur Impfung, die teilweise von jenen der STIKO abweichen. »Hier könnte eine noch engere Abstimmung der STIKO mit den medizinischen Fachgesellschaften hilfreich sein«, erklärt Dr. Jörg Bätzing-Feigenbaum, der Leiter des Versorgungsatlas.

Impfraten verbessern.
»Um die Impfraten zu verbessern, müssen die Zielgruppen intensiver über die Bedeutung dieser Schutzimpfung aufgeklärt werden«, betont Dr. Bätzing-Feigenbaum. »Dies dürfte am ehesten über die Ärzte gelingen, die den Gesundheitszustand ihrer Patientinnen und Patienten sowie Notwendigkeit und Risiken einer Impfung am besten einschätzen können«. Ebenso empfehlen die Wissenschaftler vom Versorgungsatlas, aufgrund der nahezu identischen Indikationen bei älteren Erwachsenen, die eine Influenza-Impfung erhalten, auch gleichzeitig den Status der Pneumokokken-Impfung abzufragen und falls indiziert die Impfung zu empfehlen.

DIE STUDIE.
Die Wissenschaftler des Versorgungsatlas haben in ihre Studie alle GKV-Versicherten aufgenommen, die im Jahr 2010 das 60. Lebensjahr vollendet hatten (Jahrgang 1950) und die ab 2010 bis zum Jahr 2014 mindestens ein Arztkontakt pro Jahr gehabt hatten. Ausgeschlossen wurden Patienten, bei denen 2009 mindestens eine impfrelevante Erkrankung diagnostiziert worden war. Die übrigen Patienten (307.904 Frauen und 221.835 Männer) wurden in mehrere Gruppen aufgeteilt: eine Gruppe umfasste Personen ohne impfrelevante Erkrankungen; eine weitere Gruppe enthielt Personen die im Untersuchungszeitraum eine impfrelevante Erkrankung bekamen.
Braeter U, Schulz Mandy, Goffrier B, Schulz Maike, Ihle P, Bätzing-Feigenbaum J.
Pneumokokkenimpfung bei GKV-Versicherten im Altersbereich 60 bis 64 Jahre – Regionalisierte Analyse zur Umsetzung der Empfehlungen der Ständigen Impfkommission anhand bundesweiter vertragsärztlicher Abrechnungsdaten. | Zentralinstitut für die kassenärztliche Versorgung in Deutschland (Zi).
Versorgungsatlas-Bericht Nr. 16/04. | Berlin 2016 | DOI: 10.20364/VA-16.04

PNEUMOKOKKEN. Das Bakterium Streptococcus pneumoniae kann schwere Infektionen bis hin zu Todesfällen verursachen. Gefährdet sind vor allem Säuglinge und Kleinkinder sowie ältere Menschen. Die Erreger verursachen einerseits nicht invasive Erkrankungen wie Nasennebenhöhlen-, Mittelohr- und Lungenentzündungen. Gelangen die Bakterien ins Blut, können sie invasive Erkrankungen verursachen: Blutvergiftung (Sepsis), Hirnhautentzündung (Meningitis) oder schwere Lungenentzündungen mit Streuung der Bakterien. Die Weltgesundheitsorganisation schätzt, dass jährlich acht bis 34 von 100.000 Menschen an einer solchen invasiven Pneumokokken-Infektion erkranken. Die Sterblichkeitsraten liegen bei zehn Prozent, können bei Risikogruppen aber bis auf 30 Prozent steigen. Die ständige Impfkommission (STIKO) empfiehlt darum eine Grundimmunisierung für Säuglinge und Kleinkinder und für ältere Erwachsene ab 60 Jahren eine Standardimpfung sowie für Patienten mit »impfrelevanten Erkrankungen«, etwa bei bestimmten chronischen Krankheiten und geschwächtem Immunsystem unabhängig vom Alter eine Pneumokokken-Impfung.

DER VERSORGUNGSATLAS. www.versorgungsatlas.de ist eine Einrichtung des Zentralinstituts für die kassenärztliche Versorgung (Zi). Er wurde institutionalisiert als öffentlich zugängliche Informationsquelle mit Studien zur medizinischen Versorgung in Deutschland. Schwerpunkt der Studien sind regionale Unterschiede in der Versorgung sowie deren unterschiedliche Strukturen und Abläufe. Die Analysen sollen Anhaltspunkte liefern, wie die Versorgung verbessert werden kann. Die Studien der Wissenschaftler des Versorgungsatlas basieren auf den bundesweiten Abrechnungsdaten der vertragsärztlichen Versorgung in Deutschland. Zuschriften von Nutzern zu den Beiträgen sind ausdrücklich erwünscht. Die Internet-Plattform steht auch anderen Forschergruppen zur Verfügung, die vorzugsweise regionalisierte Untersuchungsergebnisse nach einem Peer-Review veröffentlichen wollen.

Weitere Informationen:
http://www.versorgungsatlas.de/themen/alle-analysen-nach-datum-sortiert/?tab=6&a…

Quelle: idw

(nach oben)


Phosphor-Dünger aus Klärschlamm: Pilotanlage erprobt Praxistauglichkeit des Hohenheimer Verfahrens

Florian Klebs Presse- und Öffentlichkeitsarbeit
Universität Hohenheim

Bioökonomie-Projekt der Universität Hohenheim nutzt Abfall aus Kläranlagen als Rohstoff / Gewonnene Klärschlammkohle ersetzt Braun- oder Steinkohle

Rohstoffe aus Abfall gewinnen: Kommunale Kläranlagen haben jährlich knapp zwei Millionen Tonnen trockenen Klärschlamm zu entsorgen. Er enthält lebensnotwendiges Phosphor, das sich mit dem neuen Verfahren der Hohenheimer Agrartechnologin Prof. Dr. Andrea Kruse schadstofffrei und kostengünstig aus dem Schlamm für Dünger gewinnen lässt. Eine AVA cleanphos-Pilotanlage, die das HTC-Verfahren (hydrothermale Carbonisierung) nun praxisähnlich erprobt, geht dieser Tage bei der AVA Green Chemistry Development GmbH in Karlsruhe in Betrieb. Die Deutsche Bundesstiftung Umwelt (DBU) fördert das Projekt.

Ein Durchbruch bei der Phosphor-Rückgewinnung, wie sie die Novelle der Klärschlammverordnung fordert – das erwartet die Industrie durch die erfolgreiche AVA cleanphos-Pilotierung. Das HTC-Verfahren wandelt Klärschlamm zuerst in CO2-neutrale Biokohle um. Dann wird das Phosphat isoliert und zurückgewonnen.

So entstehen gleich zwei wirtschaftlich interessante Produkte: Ein wertvolles Phosphor-Produkt und die phosphorfreie HTC-Klärschlammkohle. Diese lässt sich dank AVA cleanphos in Zukunft als Ersatz für Braun- oder Steinkohle in der Mitverbrennung einsetzen. Das führt zu beträchtlichen Einsparungen von CO2-Emissionen.

Erste Ergebnisse aus dem Betrieb der AVA cleanphos-Anlage werden der Öffentlichkeit bereits im 4. Quartal 2016 vorgestellt. Das HTC-Verfahren in Kombination mit der AVA cleanphos-Lösung macht den Weg frei für eine echte, langfristige Klärschlammverwertung.

Neue Möglichkeiten für die Landwirtschaft
Der gewonnene Phosphor kann in der Landwirtschaft zur Düngung Verwendung finden. Das war bisher nicht ohne Weiteres möglich. „Obwohl Klärschlamm viel wertvolles Phosphat enthält, sprach bis jetzt vieles gegen eine landwirtschaftliche Verwertung“, erklärt Prof. Dr. Andrea Kruse, Agrartechnologin der Universität Hohenheim. „Der Schlamm kann Krankheitserreger mit sich führen und enthält zusätzlich viele Schwermetalle.“

Bisherige Technologien für die Phosphor-Rückgewinnung setzten zudem vor allem auf die Entsorgung in Monoverbrennungsanlagen, um aus der Asche das Phosphat zu gewinnen und als Dünger zu verarbeiten. Diese Verfahren seien aber teurer und deutlich aufwendiger als die HTC.

Bisher stamme das Phosphat noch aus Mineralwerken in China, den USA und Marokko. „Diese Mineralwerke sind aber mittlerweile stark ausgebeutet“, so Prof. Dr. Kruse weiter. „Wir brauchen daher neue Phosphatquellen. Der Klärschlamm ist eine davon, und mit der HTC basierten AVA cleanphos Technologie kann er nutzbar gemacht werden.“

HTC günstige Alternative zur derzeitigen Klärschlamm-Verbrennung
Das wertvolle Phosphat von den giftigen Schwermetallen trennen – das ist der große Vorteil des HTC-Verfahrens. Über 80 Prozent des Phosphats aus dem Klärschlamm bleiben erhalten. Die Schwermetalle bleiben jedoch in der Kohle zurück und kommen so nicht auf das Feld.

In der Praxis seien noch ein paar mehr Schritte notwendig, so Prof. Dr. Kruse. „Diese untersuchen wir nun im Pilotbetrieb der AVA cleanphos-Anlage.“

Bioökonomie bietet Alternativen
Das Projekt von Prof. Dr. Kruse ist eine Kooperation mit dem Schweizer Biotechnologie-Unternehmen AVA-CO2. Ziel ist eine Produktion in großen Mengen zu ermöglichen. Dies ist ganz im Sinne der Bioökonomie, dem Schwerpunkt in Forschung und Lehre der Universität Hohenheim, betont die Agrartechnologin.

„Nahrungs- und Futtermittel, Energie, Chemikalien, Kunststoffe oder eben Dünger aus Abfällen und erneuerbaren Rohstoffen ist ein wichtiges Thema an der Universität Hohenheim. Um die Bioökonomie zu etablieren, müssen wir immer weiter forschen, Alternativen anbieten und erreichen so hoffentlich einen Wandel in der Wirtschaft und Gesellschaft.“

Quelle: idw

(nach oben)


Betriebe mit einer mitarbeiterorientierten Personalpolitik haben engagiertere Mitarbeiter

Wolfgang Braun Presse- und Öffentlichkeitsarbeit
Institut für Arbeitsmarkt- und Berufsforschung der Bundesagentur für Arbeit (IAB)

In Betrieben mit mitarbeiterorientierten Maßnahmen wie Angeboten zum Gesundheitsschutz, Qualifizierungsangeboten oder regelmäßigen Mitarbeitergesprächen sind die Beschäftigten zufriedener, engagierter und denken seltener über einen Arbeitgeberwechsel nach. Das geht aus einer am Donnerstag veröffentlichten Studie des Instituts für Arbeitsmarkt- und Berufsforschung (IAB) hervor. Sie beruht auf Befragungen von mehr als 7.000 Beschäftigten und rund 1.000 Betrieben mit mindestens 50 Mitarbeitern.

Acht von zehn Beschäftigten in Deutschland berichten von mindestens einer belastenden Arbeitsbedingung wie Termindruck, Informationsflut, körperlicher Anstrengung oder von unangenehmen Umgebungsbedingungen wie Hitze, Kälte oder Lärm. Am häufigsten werden Termindruck und Multitasking genannt: Sechs von zehn Beschäftigten sind davon nach eigenen Angaben betroffen. Von unangenehmen Umgebungsbedingungen berichten vier von zehn Beschäftigten, von einer schwer zu bewältigenden Menge an Informationen drei von zehn Beschäftigten.

Gleichzeitig steuern aber auch acht von zehn Betrieben dem entgegen, indem sie beispielsweise Maßnahmen zum Gesundheitsschutz und zur Gesundheitsförderung anbieten, die über die gesetzlich verpflichtenden Maßnahmen hinausgehen. So analysiert mehr als die Hälfte der Betriebe den Krankenstand im Betrieb. Je ein Drittel führt Mitarbeiterbefragungen zum Gesundheitsschutz am Arbeitsplatz durch oder hat innerbetriebliche Angebote wie etwa eine aktive Pausengestaltung, Betriebssport oder Gesundheitstage. Schulungen und Beratungen werden von mehr als einem Viertel der Betriebe angeboten, externe Gesundheitsangebote werden von einem Sechstel finanziell unterstützt.

„Auf Dauer können körperliche und psychische Belastungen am Arbeitsplatz ein Gesundheitsrisiko darstellen. Zwar sind Beschäftigte, die von Termindruck und Multitasking oder von einer schwer zu bewältigenden Menge an Information berichten, nicht häufiger krank als andere Beschäftigte; sie äußern aber zum Befragungszeitpunkt ein schlechteres allgemeines Wohlbefinden“, schreiben die IAB-Forscher in der Studie.

Betriebe können ihren Beschäftigten durch das Angebot von Gesundheitsmaßnahmen zeigen, dass sie sich der bestehenden Belastungen bewusst sind und auf diese reagieren, so die Arbeitsmarktforscher. Sie betonen: Beschäftigte in Betrieben, die das gesundheitsbewusste Verhalten ihrer Mitarbeiter fördern, sind im Durchschnitt zufriedener. Gesundheitsförderung sei allerdings nur ein Teilaspekt guter Personalführung und bestimme damit letztlich auch nur einen Teil der subjektiv empfundenen Arbeitsqualität von Beschäftigten. Neben dem richtigen Umgang mit potenziellen Belastungen bei der Arbeit hänge Arbeitsqualität maßgeblich mit Entwicklungsförderung und Wertschätzung durch den Betrieb zusammen. „Beschäftigte in Betrieben, die dies in ihren Personalmaßnahmen berücksichtigen, sind zufriedener und engagierter, fühlen sich stärker ihrem Arbeitgeber verbunden und denken deutlich seltener über einen Arbeitgeberwechsel nach“, erklären die Arbeitsmarktforscher.

Weitere Informationen:
http://doku.iab.de/kurzber/2016/kb1616.pdf

Quelle: idw

(nach oben)


Schnelltest identifiziert Krankheitserreger

Tobias Steinhäußer Kommunikation
Fraunhofer-Gesellschaft

Bakterien, Pilze oder Viren lassen sich heute in der Regel nur mit aufwendigen Labortests oder Tierversuchen sicher nachweisen. Die Lebensmittel- und Pharmaindustrie wünscht sich schnellere Tests, um ihre Produkte zu überprüfen. Fraunhofer-Forscher entwickeln deshalb einen Stick, der wie ein Schwangerschaftstest funktioniert und schnell ein Ergebnis liefert. Künftig sollen damit auch Allergene und Krankheitserreger im Blut nachgewiesen werden.

Forscherinnen und Forscher vom Stuttgarter Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik IGB entwickeln einen Test, der schnell und günstig Bakterien, Pilze oder Viren nachweist. Geringe Spuren wie Bestandteile ihrer Zellwände (Pyrogene) reichen für den Nachweis aus. Er lässt sich direkt vor Ort ohne Labortechnik und Spezialwissen durchführen. »Der ImmuStick kann Pyrogene bereits außerhalb des Körpers detektieren – zum Beispiel auf medizinischen Geräten oder in Krankenhauszimmern. Grundsätzlich wäre die Technologie aber auch interessant, um menschliches Blut auf Krankheitserreger oder Allergien zu testen«, sagt Dr. Anke Burger-Kentischer.

Einfach wie ein Schwangerschaftstest
Die Methode funktioniert so simpel wie ein Schwangerschaftstest: Der ImmuStick ist ein Teststreifen, auf den ein wenig Flüssigkeit geträufelt wird. Enthält die Flüssigkeit Pyrogene, Bruchstücke von Erregern, wird das durch einen Farbstreifen in einem Sichtfenster angezeigt. Auf der Oberfläche des Sticks werden zunächst Immunrezeptoren des Menschen befestigt, die für bestimmte Pyrogene empfindlich sind. Dabei handelt es sich um nach dem biologischen Vorbild synthetisierte, im Labor hergestellte Immunrezeptoren. An die Andockstelle der Immunrezeptoren, an der normalerweise die Pyrogene anbinden, wird bei der Herstellung zunächst eine Art Platzhalter montiert, der mit einem Farbstoff markiert ist. Tröpfelt man dann beim Test eine Flüssigkeit auf den Teststreifen, die Pyrogene enthält, drängen die Pyrogene an die Andockstelle am Immunrezeptor. Die mit dem Farbstoff markierten Platzhalter wandern mit der Flüssigkeit durch den Teststreifen, bis sie im Sichtfenster zu sehen sind. Das Farbsignal ist also der Hinweis darauf, dass Pyrogene enthalten sind, die sich an die Immunrezeptoren angedockt haben.

Das ImmuStick-Projekt wurde mit Geldern des Discover-Progamms gefördert. Damit unterstützt die Fraunhofer-Gesellschaft Projekte für die Dauer von einem Jahr, um die Machbarkeit einer Technologie zu zeigen. Diesen Test hat der ImmuStick bestanden. »Wir konnten zeigen, dass er für das Bakterien-Pyrogen LPS sehr gut funktioniert. Jetzt wollen wir ihn gemeinsam mit Industriepartnern zu einem Produkt weiterentwickeln«, sagt Projektleiterin Burger-Kentischer. »Derzeit testen wir weitere Immunrezeptoren, die spezifisch für andere Pyrogene sind.

Blutvergiftungen und Allergien aufspüren
Angedacht sind derzeit Anwendungen in der Lebensmittel- und Pharmabranche oder in der Medizintechnik, da es dort auf absolute Keim- beziehungsweise Pyrogenfreiheit ankommt. Grundsätzlich wäre der ImmuStick auch für die Untersuchung von Blut interessant. Pyrogene im Blut führen oft zu einer Blutvergiftung, einer Sepsis, an der auch heute noch viele Menschen sterben, insbesondere geschwächte Intensivpatienten. »Das Blut ist allerdings eine besondere Herausforderung, weil es komplex ist und viele Inhaltsstoffe enthält. Mittelfristig streben wir aber eine Blutanalyse an«, sagt Burger-Kentischer.

Da auch bestimmte Allergieauslöser zu den Pyrogenen zählen, wäre hier ebenfalls eine Anwendung denkbar. In der Lebensmittel- und Pharmaindustrie zum Beispiel ist es wichtig, dass die Produkte frei von Allergenen sind. Mit dem ImmuStick ließe sich dies in kürzester Zeit kostengünstig und einfach nachweisen. Aufwendige Labortests wären damit hinfällig oder könnten ergänzt werden. Derzeit suchen die IGB-Forscher Kooperationspartner, die den ImmuStick zur Marktreife weiterentwickeln wollen.

Pyrogene werden zum Problem, wenn es besonders auf Hygiene ankommt – zum Beispiel in der Lebensmittel- und Pharmaindustrie oder auf Intensivstationen im Krankenhaus. Vor allem Menschen, deren Immunsystem geschwächt ist, können schwer erkranken. Vielfach werden deshalb Tests durchgeführt und die Oberfläche von Maschinen oder medizinischen Gegenständen durch Abstriche auf Pyrogene getestet. Diese Tests sind bislang allerdings recht aufwendig, weil sich die Pyrogene nur mit Labortechnik nachweisen lassen. Ein weit verbreiteter Standardtest ist der Nachweis von LPS, einer Struktur, die in der Membran bestimmter Bakterien auftritt. Dieser Test nimmt bislang etwa zwei Stunden in Anspruch. Andere Pyrogene lassen sich sogar nur im Tierversuch nachweisen.

Weitere Informationen:
http://www.fraunhofer.de/de/presse/presseinformationen/2016/juli/schnelltest-ide…

Quelle: idw

(nach oben)


Bedarf an Bewässerungswasser stärker bestimmt durch Kulturpflanze als durch Klimaänderung

Dipl.-Ing. agr. Helene Foltan Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Agrartechnik Potsdam-Bornim e.V.

Erstmals haben Potsdamer Wissenschaftler den Bedarf an Bewässerungswasser der letzten 100 Jahre in Deutschland am Beispiel ausgewählter landwirtschaftlicher Kulturen (Sommergerste, Hafer, Winterweizen und Kartoffeln) retrospektiv und modellhaft errechnet. Die Ergebnisse zeigen, dass Anbaufläche und Pflanzenart einen stärkeren Einfluss auf den Bedarf an Bewässerungswasser hatten als die Klimaänderungen. Die Ergebnisse wurden soeben im Fachblatt „Science of the Total Environment“ veröffentlicht.

Weltweit steigt der Bedarf an Bewässerungswasser – auch in Regionen, wo, wie in Teilen Deutschlands, bei relativ geringen Niederschlagsmengen Kulturen mit hohen Wasseranspüchen wie Zuckerrüben und Kartoffeln angebaut werden.

Vor diesem Hintergrund haben Wissenschaftler der Potsdamer Leibniz-Institute für Agrartechnik (ATB) und Klimafolgenforschung (PIK) analysiert, wie sich der Bedarf an Zusatzwasser für die Bewässerung zwischen 1902 und 2010 in Deutschland räumlich und zeitlich verändert hat. Die Fragestellung erlaubte einen Blick in die Vergangenheit der landwirtschaftlichen Produktionsbedingungen von der Zeit des Deutschen Kaiserreichs bis in die Gegenwart. Die betrachteten Kulturen waren Winterweizen, Sommergerste, Kartoffeln und Hafer. Für die Modellierung kam das AgroHyd Farmmodell zum Einsatz, eine am ATB entwickelte datenbankgestützte Software, die in hoher regionaler Auflösung auf globale Boden-, Wetter- und Ertragsdaten zugreift.

Die Ergebnisse zeigen, dass die Fläche und die Art der darauf angebauten Kulturen einen deutlich stärkeren Einfluss auf den Bedarf an Bewässerungswasser hatte als die klimatischen Veränderungen. Während in Deutschland im Durchschnitt der letzten hundert Jahre die Temperatur jährlich um 0,01 K und der Niederschlag um 1 mm zunahmen, spiegelten sich diese klimatischen Trends nicht unmittelbar in einem veränderten Bedarf an Bewässerungswasser wider. Dies ist unter anderem darin begründet, dass die Verlagerung der Niederschläge von der Vegetationsperiode in die Wintermonate der mengenmäßigen Zunahme an Regenwasser entgegen wirkte. Verändert hat sich auch das Spektrum der angebauten Pflanzenarten. Deutschlandweit waren zu Beginn des 20. Jahrhunderts Hafer und Kartoffeln die in der Fläche dominierenden Kulturen. Heute ist die Kartoffelanbaufläche um bis zu 90 % zurückgegangen. Dagegen hat der Anbau von Weizen seitdem in der Fläche eine große Ausdehnung erfahren.

Im Durchschnitt der untersuchten 109 Jahre lag der Bedarf an Zusatzwasser auf dem Gebiet der heutigen „Bundesrepublik Deutschland“ bei jährlich 112 mm. Große Unterschiede zeigten sich jedoch regional hinsichtlich der Entwicklung des Zusatzwasserbedarfs – je nachdem welche Pflanzen auf welchen Flächenanteilen angebaut wurden.

Die Frage, wieviel Wasser künftig für die Bewässerung aufgewendet werden muss, hängt nach den Ergebnissen der Studie maßgeblich davon ab, in welchem Umfang Kulturpflanzen mit hohen Wasseransprüchen angebaut werden. Die Wahl der Pflanzenart ist für Anpassungsstrategien an die zu erwartenden lokalen und zeitlichen Wasserknappheiten von entscheidender Bedeutung. Der Anbau von Kulturen mit hohem Wasserbedarf, wie Zuckerrüben, Kartoffeln und Gemüse, muss mit Bedacht und unter Berücksichtigung des zur Verfügung stehenden Grund- und Oberflächenwassers geplant werden. Dies gilt insbesondere für den Anbau innerhalb eines sich vom Südwesten nach Nordosten Deutschlands erstreckenden Gürtels mit erhöhtem Bedarf an Bewässerungswasser.

Es ist zu erwarten, dass der Klimawandel auch in Deutschland zumindest lokal zu Wasserknappheit führen wird. Um Ertragseinbußen entgegenzuwirken, wird daher auch der Bedarf an Bewässerung steigen. Eine erhöhte Wassernutzung für die Bewässerung kann den Wasserhaushalt jedoch langfristig gefährden. Aus Sicht der Wissenschaftler ist in Anpassung an den Klimawandel ein strategisches Wassermanagement auf regionaler Ebene erforderlich, um Bewässerungsmaßnahmen auch begrenzend steuern zu können. Dies sollte auch eine Koordination des angebauten Kulturpflanzenspektrums und der Wasserrechte auf regionaler Ebene beinhalten.

Drastig, K., Prochnow, A., Libra,J., Koch, H., Rolinski, S.: Irrigation water demand of selected agricultural crops in Germany between 1902 and 2010. Science of the Total Environment. DOI:10.1016/j.scitotenv.2016.06.206
Online unter: http://www.sciencedirect.com/science/article/pii/S0048969716313961

Kontakt:
Dr. Katrin Drastig – Leiterin der Arbeitsgruppe „AgroHyd“ am ATB
Tel.: 0331 5699-218, E-Mail: kdrastig@artb-potsdam.de

Helene Foltan – Presse- und Öffentlichkeitsarbeit
Tel.: 0331 5699-820, E-Mail: hfoltan@atb-potsdam.de

Leibniz-Institut für Agrartechnik Potsdam-Bornim e.V. (ATB)
Max-Eyth-Allee 100, 14469 Potsdam

www.atb-potsdam.de

Quelle: idw

(nach oben)


Seetang statt Salz

Tobias Steinhäußer Kommunikation
Fraunhofer-Gesellschaft

Salz (Natriumchlorid) ist ein lebenswichtiges Nahrungsmittel. Es versteckt sich vor allem in industriell gefertigten Lebensmitteln. Zuviel Natrium schadet Herz, Magen und Nieren. Seetang hat von Natur aus einen salzigen Geschmack. Fraunhofer-Forscher zeigen, dass Algen das Potenzial aufweisen als Salzersatz zu dienen.

Ohne Salz erscheinen viele Speisen geschmacklos und fad. »Salz wirkt wie ein natürlicher Geschmacksverstärker, hat eine konservierende Wirkung und ist für den menschlichen Organismus essentiell«, erklärt Dominic Wimmer, Wissenschaftler am Fraunhofer-Institut für Verfahrenstechnik und Verpackung IVV in Freising. Die positive Wirkung verpufft jedoch, wenn wir zu viel Salz essen. Laut aktuellen Zahlen der Weltgesundheitsorganisation WHO konsumieren Europäer acht bis zwölf Gramm Salz pro Tag. Die Empfehlung liegt bei fünf Gramm. »Es ist nicht das Nachsalzen am Tisch«, sagt Wimmer: Etwa 77 Prozent der Salzaufnahme geschieht über industriell hergestellte Lebensmittel. Ganz vorne dabei sind Brot, Käse, Snacks, Fertiggerichte und Wurstwaren. Vor allem das im Salz enthaltende Natrium gilt als problematisch und kann mitverantwortlich für Bluthochdruck und Herzkrankheiten sein. Als weitere Folgen werden Nierenleiden, Osteoporose oder auch Magenkrebs beschrieben.

Forschung an Aroma, Geschmack und Verfahrenstechnik
Im von der Europäischen Union geförderten Projekt TASTE haben Forscher des IVV zusammen mit Partnern aus Island, Irland, Frankreich, Spanien, Slowenien und Deutschland untersucht, ob sich Seetang als Salzersatz eignet. Die Salzwasser-Algen schmecken von Natur aus salzig und enthalten Mineralien wie Kalium oder Magnesium sowie Spurenelemente. Das Ergebnis: Braunalgen könnten als Salzersatz verwendet werden und dazu beitragen, dass der Salzgehalt industriell erzeugter Lebensmittel sinkt. Die Freisinger Wissenschaftler erforschten das Aroma und den Geschmack der Algen und entwickelten wesentliche Bestandteile der Fertigungskette. Außerdem testete das Institut die gewonnene Algenzutat in Brot. Die Forschung bei TASTE konzentrierte sich auf die Salzwasser-Großalgen Ascophyllum nodosum, Saccharina latissima und Fucus vesiculosus – Braunalgen-Arten, die in Europa heimisch sind. Man kann sie an Küsten kultivieren oder wild ernten.

Die Forscher untersuchten welche Salzaustauschstoffe es aktuell am Markt gibt. Das reicht von Mineralsalzen über Aromen bis hin zu Geschmacksverstärkern. »Wir brauchten eine Benchmark, um zu wissen, wie der Seetang bearbeitet werden muss«, so Wimmer. Zu den Vorarbeiten gehörte es auch, eine gemeinsame Geschmackssprache zu entwerfen, die alle Projektpartner verstehen. »Die Geschmäcker unterscheiden sich von Land zu Land. Was wir hier in Bayern als fischig bezeichnen, muss für einen Isländer noch lange nicht gelten«, sagt Wimmer. In der »Flavour Language« ist dem Begriff »fischig« daher beispielsweise eine eindeutige Substanz zugeordnet: Trimethylamin.

Die IVV-Forscher ermittelten zusammen mit den Partnern welche Substanzen die Seetangarten enthalten. »Auf Basis der Daten entwickelten wir dann die Verfahrenstechnik. Ziel war ein Algenprodukt, das sich industriell als Salzersatz verarbeiten lässt«, erläutert Wimmer. Die Herausforderung dabei: Algen so zu zerkleinern, dass die darin enthaltenden Mineralstoffe erhalten bleiben und geruchsintensive Bestandteile abgeschieden werden.

Die Forscher mahlten, kochten, blanchierten und trockneten. Im Freisinger Institut stehen die dafür notwendigen Geräte in verschiedensten Größen im Lebensmitteltechnikum zur Verfügung. Zwei Partner kümmerten sich parallel um die enzymatische Behandlung der Algen. Es entstand ein braungrünliches Algenpulver, das zukünftig als Salzersatz industriell eingesetzt werden könnte. »Ergebnis der Arbeiten sind zwei Methoden für die Arten Ascophyllum nodosum und Saccharina latissima, die auch im Technikumsmaßstab bis 400 Liter funktionieren«, sagt Wimmer.

Doch wie salzig schmecken Brot, Wurst und Co. mit Seetang? Ändern sich Konsistenz und Aussehen der Lebensmittel? Lassen sie sich weiter in gleicher Qualität fertigen? Auch das testeten die Forscher in Wurst, Snacks, Suppen und Soßen. Die Experten nahmen sich Weißbrot vor. Es hat einen großen Anteil am überhöhten Salzkonsum der Gesellschaft. Das Fazit: Die braungrünliche Färbung des Algenpulvers ist nach dem Backen noch zu erkennen und der salzige Geschmack ist weniger stark als mit Salz. Aber: Die Zutat lässt sich gut verarbeiten und kann den Salzgehalt reduzieren. »Ganz ersetzen lässt sich Salz nicht: Als funktionelle Backzutat ist es nicht wegzudenken «, so Wimmer.

Weitere Informationen:
http://www.fraunhofer.de/de/presse/presseinformationen/2016/juli/seetang-statt-s…

Quelle: idw

(nach oben)


Wie Wasser seine außergewöhnlichen Eigenschaften erhält

Meike Drießen Dezernat Hochschulkommunikation
Ruhr-Universität Bochum

Mit einer neuen Simulationsmethode haben Chemiker einige ungewöhnliche Eigenschaften von Wasser erklärt, unter anderem den Schmelzpunkt von Eis und das Dichtemaximum bei vier Grad Celsius. Sie zeigten, dass Van-der-Waals-Wechselwirkungen entscheidend sind für die Geometrie und Flexibilität der Wasserstoffbrücken-Bindungen, die wiederum die Eigenschaften des Wassers bestimmen. Für die Simulationen nutzte das Team der Ruhr-Universität Bochum und der Universität Wien neuronale Netze. Das neue Verfahren ist ebenso präzise wie quantenmechanische Berechnungen, aber 100.000-mal schneller. Die Zeitschrift „Proceedings of the National Academy of Sciences“ berichtet über die Ergebnisse.

Mit künstlichen neuronalen Netzen haben Bochumer und Wiener Forscher die atomaren Wechselwirkungen von Wassermolekülen untersucht. Anhand der Ergebnisse erklären sie den Schmelzpunkt von Eis sowie das Dichtemaximum bei vier Grad Celsius – allein basierend auf Computersimulationen.

Die neu entwickelte Methode ist ebenso präzise wie quantenmechanische Berechnungen, aber 100.000-mal schneller. Das Team um Privatdozent Dr. Jörg Behler von der Ruhr-Universität Bochum und Prof. Dr. Christoph Dellago von der Universität Wien beschreibt die Arbeit in der Zeitschrift „Proceedings of the National Academy of Sciences“, kurz PNAS.

Ungewöhnliche Eigenschaften
Wasser hat eine Reihe von Eigenschaften, die nicht allein aufgrund seines chemischen Aufbaus zu verstehen sind. Seine höchste Dichte erreicht es bei vier Grad Celsius, sodass Eis auf flüssigem Wasser schwimmt. Auch ungewöhnlich ist, dass das kleine Molekül bei Raumtemperatur flüssig und nicht gasförmig ist. Eine wichtige Rolle für diese Phänomene spielen Wasserstoffbrücken-Bindungen.

Die Analysen ergaben, dass Van-der-Waals-Wechselwirkungen entscheidend für die Geometrie und Flexibilität der Wasserstoffbrücken sind. Auf diese Weise bestimmen sie die Eigenschaften von Wasser, obwohl sie nur sehr schwache Kräfte ausüben, schwächer zum Beispiel als elektrostatische Wechselwirkungen.

Methode aus der Hirnforschung
Jörg Behler entwickelte die Methode basierend auf einem Verfahren, das ursprünglich aus der Hirnforschung stammt. Seine neuronalen Netze erlernen die Kräfte zwischen einzelnen Atomen als Funktion ihrer geometrischen Anordnung. „Wir können damit Computersimulationen durchführen, die mit dem herkömmlichen quantenmechanischen Verfahren nicht möglich wären, weil der Rechenaufwand selbst für Supercomputer zu hoch wäre“, sagt der Nachwuchsgruppenleiter am Bochumer Lehrstuhl für Theoretische Chemie.

Dr. Tobias Morawietz wandte die Methode in seiner Doktorarbeit erstmals an, um die Eigenschaften von Wasser zu untersuchen. Die Simulationen fanden im Rahmen des Bochumer Exzellenzclusters Resolv statt, in enger Zusammenarbeit mit Andreas Singraber in der Gruppe von Christoph Dellago an der Universität Wien. Dort führte Tobias Morawietz auch Teile seiner Simulationen durch; heute setzt er seine Forschung als Postdoktorand in Wien fort.

Förderung
Die Deutsche Forschungsgemeinschaft förderte die Arbeiten im Rahmen des Exzellenzclusters Resolv (EXC 1069) und weiterer Projekte (Emmy-Noether-Projekt Be3264/3-1, Heisenberg-Stipendium Be3264/6-1 und Projekt Be3264/5-1). Zusätzliche Förderung kam von der Studienstiftung des Deutschen Volkes, der Ruhr-University Research School Plus (DFG GSC 98/3) sowie dem Österreichischen Wissenschaftsfonds FWF (P24681-N20, SFB Vicom, F41). Die Berechnungen erfolgten unter anderem am Vienna Scientific Cluster.

Originalveröffentlichung
Tobias Morawietz, Andreas Singraber, Christoph Dellago, Jörg Behler: How van der Waals interactions determine the unique properties of water, in: PNAS, 2016, DOI: 10.1073/pnas.1602375113

Pressekontakt
Privatdozent Dr. Jörg Behler, Lehrstuhl für Theoretische Chemie, Fakultät für Chemie und Biochemie, Ruhr-Universität Bochum, Tel. 0234 32 26749, E-Mail: joerg.behler@theochem.rub.de

Redaktion: Dr. Julia Weiler

Weitere Informationen:
http://www.ruhr-uni-bochum.de/solvation/ – Resolv-Webseite

Quelle: idw

(nach oben)


Mit Abgas das Klima retten

Anne-Kathrin Thran Pressereferat
Bundesministerium für Bildung und Forschung (BMBF)

Wie bleibt der Stahlstandort Deutschland wettbewerbsfähig? Das Projekt „Carbon2Chem“ soll darauf eine Antwort geben. Acht Industrieunternehmen entwickeln gemeinsam mit Max-Planck und Fraunhofer-Gesellschaft sowie Universitäten eine weltweit einsetzbare Lösung, um die Abgase der Hochöfen in Vorprodukte für Kraftstoffe, Kunststoffe oder Dünger umzuwandeln. Der dafür benötigte Wasserstoff wird mit Überschussstrom aus erneuerbaren Energien produziert. Mit dem „Carbon2Chem“-Ansatz sollen 20 Millionen Tonnen des jährlichen deutschen CO2-Ausstoßes der Stahlbranche künftig wirtschaftlich nutzbar gemacht werden.

17 Partner aus Industrie und Wissenschaft wollen Rohstoffe aus Hüttengasen gewinnen / Wanka: „Klimaschutz und Standortsicherung gehen Hand in Hand“

Wie bleibt der Stahlstandort Deutschland wettbewerbsfähig? Das Projekt „Carbon2Chem“ soll darauf eine Antwort geben. Acht Industrieunternehmen entwickeln gemeinsam mit Max-Planck und Fraunhofer-Gesellschaft sowie Universitäten eine weltweit einsetzbare Lösung, um die Abgase der Hochöfen in Vorprodukte für Kraftstoffe, Kunststoffe oder Dünger umzuwandeln. Der dafür benötigte Wasserstoff wird mit Überschussstrom aus erneuerbaren Energien produziert. Mit dem „Carbon2Chem“-Ansatz sollen 20 Millionen Tonnen des jährlichen deutschen CO2-Ausstoßes der Stahlbranche künftig wirtschaftlich nutzbar gemacht werden. Dies entspricht 10 Prozent der jährlichen CO2-Emissionen der deutschen Industrieprozesse und des verarbeitenden Gewerbes.

„Mit Carbon2Chem zeigen wir, wie Klimaschutz und eine wettbewerbsfähige Stahlproduktion dank Forschung und Innovation in Deutschland erfolgreich verbunden werden können. Damit sichern wir Arbeitsplätze in der Stahlbranche in unserem Land. Damit sichern wir den Industriestandort Deutschland.“, betonte Johanna Wanka, Bundesministerin für Bildung und Forschung.

Unser Wohlstand hängt maßgeblich von der hiesigen Stahlindustrie und ihren rund 90.000 Beschäftigten ab. Autos, Häuser und Maschinen entstehen aus den 43 Millionen Tonnen Stahl, die die Branche jährlich produziert. Noch ist Deutschland Europas größter Stahlerzeuger. Die internationale Konkurrenz gefährdet ihre Wettbewerbsfähigkeit.

Nach dem Pariser Klimaabkommen vom 12. Dezember 2015 soll die globale Erwärmung auf möglichst 1,5 Grad Celsius begrenzt werden. Um das gesteckte Ziel zu erreichen, haben sich die Vertragsparteien der Klimaneutralität verpflichtet. Ab der zweiten Hälfte dieses Jahrhunderts darf nicht mehr Treibhausgas ausgestoßen werden, als durch Senken gebunden werden kann. Demnach muss die Branche ihren Treibhausgasausstoß ganz erheblich reduzieren.

„Eine zukunftsfähige Industrieproduktion und engagierter Klimaschutz gehören zusammen. Mit Carbon2Chem zeigen wir dies glaubwürdig. So füllen wir das Abkommen von Paris mit Leben“, sagte Bundesforschungsministerin Wanka bei der Pressekonferenz zum Start des Vorhabens in Duisburg. Der Stahlstandort Duisburg ist der größte der Branche. „Carbon2Chem“ zielt darauf ab, den CO2-Ausstoß hier und an anderen Stahlstandorten wirtschaftlich nutzbar zu machen. Würde dies gelingen, wird erstmals ein klimarelevanter CO2-Einspareffekt erreicht.

Das Forschungsprojekt „Carbon2Chem“ entwickelt in den kommenden zehn Jahren eine nachhaltige Wertschöpfungskette, die verschiedene Sektoren miteinander verbindet – der Klimaschutz treibt die Innovationen branchenübergreifend voran. Denn von „Carbon2Chem“ profitiert nicht nur die Stahlindustrie. Chemieunternehmen erschließen eine neue, saubere Rohstoffquelle: „Innovationssprünge entstehen heute an den Grenzen zwischen den Branchen“, betonte Heinrich Hiesinger, Vorstandsvorsitzender der Thyssen Krupp AG. „Carbon2Chem bringt Akteure aus allen Bereichen des Innovationsgeschehens zusammen. Grundlagenforschung, Anwendungsforschung und industrielle Praxis – und das aus unterschiedlichen Sektoren.“

Gleichzeitig soll „Carbon2Chem“ zwei zentrale Fragen der Energiewende beantworten: Wie kann man elektrische Energie speichern und die Stromnetze stabilisieren?

Die Partner aus Wissenschaft und Industrie schlagen mit „Carbon2Chem“ eine Brücke von der Grundlagenforschung in den Markt. Das Bundesministerium für Bildung und Forschung fördert das Projekt mit mehr als 60 Millionen Euro. Die beteiligten Partner planen Investitionen von mehr als 100 Millionen Euro bis 2025. Für die kommerzielle Realisierung haben sie mehr als eine Milliarde Euro vorgesehen.

Weitere Informationen finden Sie unter:
https://www.bmbf.de/de/energiewende-und-nachhaltiges-wirtschaften-146.html

Quelle: idw

(nach oben)


Cloud-Dienst des KIT deutschlandweit verfügbar

Monika Landgraf Presse, Kommunikation und Marketing
Karlsruher Institut für Technologie

Online-Speicherdienste für die Wissenschaft unterliegen besonderen Anforderungen, die kommerzielle Produkte nicht bieten, etwa in Sachen Volumen, Verfügbarkeit, Datenschutz, Datensicherheit und Flexibilität. Der am KIT betriebene Dienst bwSync&Share kann nun deutschlandweit von allen wissenschaftlichen Einrichtungen im Deutschen Forschungsnetz DFN bezogen werden. Damit haben Einrichtungen außerhalb Baden-Württembergs erstmals die Möglichkeit, einen auf die Bedürfnisse von Forschung und Lehre in Deutschland zugeschnittenen Online-Speicherdienst zu nutzen. Die Universität Rostock ist der erste Nutzer im DFN-Rahmen.

Der Dienst bwSync&Share ermöglicht es den Beschäftigten und Studierenden der teilnehmenden Einrichtung, Daten auf den Systemen des KIT zu speichern und diese zwischen Desktop-Rechnern und mobilen Endgeräten zu synchronisieren. Darüber hinaus kann der Nutzer seine abgespeicherten Daten durch die Vergabe entsprechender Zugriffsrechte anderen Nutzern zugänglich machen. Dabei können auch Nutzern, die nicht der teilnehmenden Einrichtung angehören, Zugriffsrechte erteilt werden.

Die Universität Rostock ist als erste Hochschule außerhalb Baden-Württembergs Teil der größten deutschen Hochschul-Cloud „bwSync&Share“. Der Dienst wird über das Deutsche Forschungsnetz (DFN) eingebunden und vom Karlsruher Institut für Technologie (KIT) gehostet. Das Steinbuch Centre for Computing (SCC) des KIT hat diesen Dienst in Zusammenarbeit mit der Firma PowerFolder aufgebaut. Damit können nun rund 15.000 Studierende und 3.000 Mitarbeiter unter dem Dienstnamen „Uni Rostock Box“ und im eigenen Web- und App-Design ein Konto mit jeweils 10 Gigabyte Speicherkapazität in Karlsruhe anlegen.

Forschungsergebnisse, Hausarbeiten, Bilder oder Videos können gespeichert, geteilt und synchronisiert werden. Der Zugriff erfolgt dabei über Desktop-Systeme, Smartphones, Tablets oder plattformübergreifend über eine Web-Schnittstelle und bietet dem Nutzer so größtmöglichen Komfort. Der Zugriff erfolgt komfortabel mit den Anmeldedaten seiner eigenen, lokalen Einrichtung, zusätzliche Zugangsdaten sind nicht notwendig.

Im Gegensatz zu den meisten kommerziellen Anbietern werden die Daten nicht an ausländischen Serverstandorten, sondern am KIT und damit im deutschen Rechtsraum gespeichert. Die Kommunikation zwischen den Endgeräten der Nutzer und den zentralen Speichersystemen erfolgt verschlüsselt. Der Datenzugriff ist beschränkt auf den die Daten bereitstellenden Nutzer und von ihm autorisierte weitere (auch externe) Nutzer.

Der Speicherdienst wird teilweise vom Ministerium für Wissenschaft, Forschung und Kunst des Landes Baden-Württemberg getragen und ist dadurch für Mitglieder der Landesuniversitäten und -hochschulen kostenfrei. Die DFN-Einrichtungen außerhalb Baden-Württembergs können den Dienst kostenpflichtig beziehen.

Einrichtungen außerhalb Baden-Württembergs können sich hier über den Zugang informieren:
https://www.dfn.de/dfn-cloud/bwsyncshare-in-der-dfn-cloud/

Nutzer aus Baden-Württemberg finden hier Informationen:
https://www.scc.kit.edu/dienste/bwSyncAndShare.php

Weiterer Kontakt:
Kosta Schinarakis, PKM – Themenscout, Tel.: +49 721 608 41956, Fax: +49 721 608 43658, E-Mail: schinarakis@kit.edu

Das Karlsruher Institut für Technologie (KIT) verbindet seine drei Kernaufgaben Forschung, Lehre und Innovation zu einer Mission. Mit rund 9 300 Mitarbeiterinnen und Mitarbeitern sowie 25 000 Studierenden ist das KIT eine der großen natur- und ingenieurwissenschaftlichen Forschungs- und Lehreinrichtungen Europas.

KIT – Die Forschungsuniversität in der Helmholtz-Gemeinschaft

Das KIT ist seit 2010 als familiengerechte Hochschule zertifiziert.

Diese Presseinformation ist im Internet abrufbar unter: www.kit.edu

Weitere Informationen:
https://www.dfn.de/dfn-cloud/bwsyncshare-in-der-dfn-cloud/
https://www.scc.kit.edu/dienste/bwSyncAndShare.php

Anhang
Cloud-Dienst des KIT deutschlandweit verfügbar
https://idw-online.de/de/attachment50265

Quelle: idw

(nach oben)


Wo die Angst sitzt

Anke Schlee Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Psychiatrie

Stress kann Angst erhöhen. Der Glucocorticoidrezeptor für das Stresshormon Cortisol vermittelt verstärkte Angst. Spielen unterschiedliche Zelltypen, in denen er sich findet, dabei eine Rolle? Forscher des Max-Planck-Instituts für Psychiatrie konnten erstmals nachweisen, dass nicht nur die Hirnregion, sondern auch die Art der Neuronenpopulation eine entscheidende Rolle spielt. Diese Erkenntnis liefert einen neuen Ansatzpunkt zur Behandlung von Angststörungen.

Rund 20 Prozent der Bevölkerung erkranken irgendwann in ihrem Leben an einer Angststörung. Sehr häufig ist eine erhöhte Ängstlichkeit auch Begleiterscheinung anderer psychiatrischer Erkrankungen. So haben 60 bis 70 Prozent aller Menschen, die an einer Depression leiden, auch Probleme mit vermehrter Angst.

Forscher wissen, in welchen Hirnregionen die Angst sitzt, zum Beispiel in der Amygdala, dem sogenannten Mandelkern. Sie wissen auch, dass Stress Angst erhöhen kann. Eine wichtige Erkenntnis, denn viele der Grunderkrankungen, die mit verstärkter Angst gekoppelt sind, sind ebenfalls Stress-bedingt.

Was die Forscher bisher nicht wussten ist, ob ein bestimmter Zelltyp im Gehirn für verstärkte Ängstlichkeit verantwortlich ist. Der Hauptrezeptor für das Stresshormon Cortisol, der Glucocorticoidrezeptor, vermittelt verstärkte Angst. Doch welcher Typ von Nervenzellen vermittelt diesen Effekt? Wird der Botenstoff Glutamat von den Nervenzellen gebildet, agieren diese erregend, während Nervenzellen mit dem Botenstoff GABA neuronale Aktivität hemmen. Dieser Thematik gingen Wissenschaftler um Mathias Schmidt am Max-Planck-Institut für Psychiatrie nach.

Im Mausmodell schaltete Schmidt mit seinem Team den Glucocorticoidrezeptor entweder nur in der erregenden, glutamatergen Zellpopulation oder in hemmenden, GABAergen Nervenzellen aus. Die jetzt in der renommierten Zeitschrift „Molecular Psychiatry“ publizierten Ergebnisse zeigen: Nur Mäuse, in denen der Glucocorticoidrezeptor in glutamatergen Neuronen ausgeschaltet war, hatten weniger Angst. Die andere Gruppe mit einer Manipulation in GABAergen Neuronen zeigte keinen Effekt auf die Angst. Die Art der Zellpopulation scheint also entscheidend für die Entstehung von Stress-induzierter Angst.

In einem zweiten Schritt betrachteten die Forscher einen kleineren Bereich im Gehirn, nämlich ausschließlich die Amygdala. Hier konnten die Ergebnisse noch weiter aufgeschlüsselt werden und eine Funktion des Glucocorticoidrezeptors speziell auf das Furchtgedächtnis nachgewiesen werden.

Besonders interessant war es für die Forscher am Max-Planck-Institut für Psychiatrie, dass die Effekte von Stress-induzierter Angst und Furcht unterschiedlichen Hirnregionen zugeordnet werden können. Diese Erkenntnis liefert wertvolle Hinweise für eine differenzielle Behandlung von Angst und Furcht.

Noch wichtiger ist das gewonnene Verständnis, dass außer der Hirnregion auch der Typ der Zellen entscheidend ist. Auch das ist für die Behandlung von Angststörungen wichtig, liefert es doch einen Ansatzpunkt, welche Schaltkreise konkret für Angst zuständig sind, wo also medikamentös am besten angesetzt werden sollte.

Quelle: idw

(nach oben)


Gemeinsam für den Klimaschutz – Kohlendioxid sinnvoll nutzen

Christin Ernst Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Chemische Energiekonversion

Max-Planck-Institut für Chemische Energiekonversion (MPI CEC) bringt wissenschaftliche Kompetenz ins Verbundprojekt „Carbon2Chem“ ein.

17 Partner aus Industrie und Wissenschaft starten mit dem Verbundprojekt „Carbon2Chem“ eine groß angelegte Klimaschutz-Initiative.

Ziel des Projekts ist es, Hüttengase, die bei der Stahlproduktion aus den Hochöfen entweichen, für die Produktion von Chemikalien zu nutzen und Kohlenstoffdioxidausstoß anhaltend zu verringern. Dafür wird zusätzlich Wasserstoff benötigt, der mit Hilfe erneuerbarer Energien erzeugt werden soll. Der CO2-Ausstoß in der Region und auch an anderen Stahlstandorten soll auf diese Weise wirtschaftlich nutzbar gemacht und somit ein klimarelevanter CO2-Einspareffekt erreicht werden.

Die Besonderheit des Großprojekts, das in sieben Teilbereiche untergliedert ist, ist die enge Zusammenarbeit von Industrie, der Fraunhofer- und der Max-Planck-Gesellschaft sowie Universitäten. Entstehen soll ein Gesamtsystem aus Stahlwerk, elektrischer Energieerzeugung und chemischer Energieumwandlung. Das Projekt wird vom Bundesministerium für Bildung und Forschung (BMBF) gefördert.

Einer der Initiatoren von „Carbon2Chem“ ist Prof. Robert Schlögl, geschäftsführender Direktor des Max-Planck-Instituts für Chemische Energiekonversion in Mülheim an der Ruhr und des Fritz-Haber-Instituts der Max-Planck-Gesellschaft in Berlin. „Die Forschungsaufgaben, denen wir in diesem Projekt nachgehen, sind ganz wesentlich für ein System, das in Bezug auf CO2-Einsparung, betriebliche Stabilität und Wirtschaftlichkeit optimiert werden soll. ‚Carbon2Chem‘ ist ein gutes Beispiel dafür, dass Grundlagenforschung effektiv in die Anwendung überführt werden kann. Nämlich dann, wenn sich verschiedene Branchen und Institutionen zusammenschließen und ihr Wissen für die Schaffung eines Technologiesystems bündeln,“ so Schlögl.

Das MPI CEC kümmert sich in einem Teilprojekt mit weiteren Partnern um die Analyse, Reinigung und Aufbereitung der Abgase – der erste wichtige Schritt, um die entweichenden Gase (wie z.B. Kohlenmonoxid, Kohlendioxid oder Stickstoff) aus der Stahlproduktion nutzen zu können.

Zudem entwickelt das Institut ein zentrales Labor (PLANCK Labor), das allen Projektpartnern zur Verfügung stehen wird. Hier entsteht eine besondere Gasversorgung, die es ermöglichen soll, die komplexe Zusammensetzung der Gase aus dem Stahlwerk unter definierten Bedingungen nachzustellen.

Eine weitere zentrale Rolle kommt dem MPI CEC bei der Untersuchung von Katalysatoren zu. Denn um das CO2 in nutzbare Stoffe, wie. z.B. alternative Treibstoffe umzuwandeln, benötigt man zwingend Katalysatoren, also Reaktionsbeschleuniger.
In den nächsten zehn Jahren wird „Carbon2Chem“ eine nachhaltige Wertschöpfungskette und die enge Verzahnung von produzierenden Branchen, Grundlagen- und anwendungsbezogener Forschung vorantreiben.

Hintergrundinformationen:
Das Max-Planck-Institut für Chemische Energiekonversion (www.cec.mpg.de) in Mülheim an der Ruhr beschäftigt sich mit grundlegenden chemischen Prozessen, die bei der Speicherung und Umwandlung von Energie eine Rolle spielen. Das Ziel besteht darin, Sonnenlicht in kleinen, energiereichen Molekülen zu speichern und Energie so orts- und zeitunabhängig nutzbar zu machen.

In den drei Abteilungen Heterogene Reaktionen, Molekulare Theorie und Spektroskopie und Biophysikalische Chemie arbeiten rund 100 Forscher aus über 30 Ländern, und tragen mit ihrem Expertenwissen zur Vorbereitung einer nachhaltigen Energiewende bei.

Weitere Informationen:
http://www.cec.mpg.de/media/Presse/2016/16-06-27_Carbon2Chem_MPI_CEC.pdf

Anhang
Pressemitteilung des MPI für Chemische Energiekonversion
https://idw-online.de/de/attachment50239

Quelle: idw

(nach oben)


Neue App revolutioniert Arbeit der Fußballschiedsrichter

Sabine Ranke-Heinemann Pressestelle
Australisch-Neuseeländischer Hochschulverbund / Institut Ranke-Heinemann

Während der aktuellen UEFA Euro in Frankreich kann beobachtet werden, wie fleißige Schiedsrichter die ausgeteilten Karten und Auswechslungen auf Zetteln notieren. Um die Statistikführung zu vereinfachen, wurde nun in Australien eine App entwickelt, die diesen Prozess effizienter und zentraler gestaltet.

In jedem Fußballspiel müssen unzählige Daten und Statistiken dokumentiert werden. Von der Anzahl der gelben Karten bis hin zu den Auswechslungen der Spieler. Bisher wurde dies akribisch mit Stift und Papier vom Schiedsrichtergespann festgehalten. Doch Fußballer und Unternehmer Simon Murphy hat jetzt eine App auf den Markt gebracht, die den administrativen Prozess am Spieltag für Schiedsrichter vereinfachen soll. Die Idee dazu entwickelte er während seines Studiums an der Swinburne University of Technology in Melbourne.

Zum ersten erfolgreichen Einsatz kam die App RefLIVE Anfang Juni 2016 beim vor-olympischen Spiel zwischen der australischen und neuseeländischen Frauenfußballnationalmannschaft und die Rückmeldungen der teilnehmenden Schiedsrichter war durchweg positiv. Die App ist so entworfen, dass die Statistikführung effizienter und zentraler durchgeführt werden kann. Vor dem Spiel kann sich der Schiedsrichter die entsprechenden Teams, Spieler sowie das Stadion in der App abrufen und speichern. Während des Spiels können dann die Tore, Karten und Auswechslungen direkt in die App eingegeben werden und der Nachspielbericht im Anschluss online hochgeladen werden.

Die App wurde bereits ins Japanische übersetzt, und Murphys Ziel ist es, RefLIVE auf die verschiedenen Ligen anzupassen und sie so weltweit anbieten zu können, mit dem ultimativem Ziel, zukünftig auch bei Weltmeisterschaften eingesetzt zu werden.

Weitere Informationen:
Institut Ranke-Heinemann / Australisch-Neuseeländischer Hochschulverbund
Pressestelle Friedrichstr. 95
10117 Berlin
Email: berlin@ranke-heinemann.de
Tel.: 030-20 96 29 593

oder

Doseda Hetherington
Swinburne University of Technology
Email: dhetherington@swin.edu.au
Tel. +61 3 9214 5662

Das Institut ist die gemeinnützige Einrichtung zur Förderung des Austausches und der Auslandsstudien insbesondere mit allen Universitäten Australiens und Neuseelands sowie zur Förderung von Wissenschaft und Forschung. In seinen Förderprogrammen stellt es SchülerInnen und Studierenden Unterstützung in der Finanzierung durch Stipendien und Coaching in der Studienberatung und Studienplatzbewerbung zur Verfügung.

Weitere Informationen:
http://www.ranke-heinemann.de
http://www.ranke-heinemann.at
http://www.ranke-heinemann.tv

Quelle: idw

(nach oben)


Funktionsweise von Contergan aufgedeckt

Dr. Ulrich Marsch Corporate Communications Center
Technische Universität München

Mitte des 20. Jahrhunderts verursachte Contergan schwere Missbildungen bei Kindern, deren Mütter das Beruhigungsmittel eingenommen hatten. Erst jetzt steht fest, wie es zu den verheerenden Auswirkungen kommen konnte: Forscherinnen und Forscherer der Technischen Universität München (TUM) haben den Wirkungsmechanismus des Medikaments auf molekularer Ebene identifiziert. Diese Erkenntnis ist auch für aktuelle Anwendungen relevant, da verwandte Substanzen essentiell für einige Krebstherapien sind.

Vor 55 Jahren wurde bekannt, dass Thalidomid, das unter dem Markennamen Contergan als Beruhigungsmittel vertrieben wurde, zu schweren Missbildungen bei ungeborenen Kindern führt. Weltweit kamen zwischen 5.000 und 10.000 geschädigte Kinder auf die Welt. Mehr als 2000 Menschen in Deutschland und anderen Ländern leben bis heute mit den Folgen. Contergan wurde nach Bekanntwerden der Nebenwirkungen vom Markt genommen. Thalidomid erlebte jedoch in den letzten Jahren eine Renaissance, nachdem durch Zufall entdeckt worden war, dass der Wirkstoff das Wachstum einiger Tumore hemmt.

Mittlerweile sind mit Lenalidomid und Pomalidomid zwei Thalidomid-Nachfolgesubstanzen auf dem Markt. Beide werden, in Kombination mit anderen Maßnahmen, erfolgreich zur Therapie bestimmter Krebserkrankungen des Knochenmarks, zum Beispiel des Multiplen Myeloms, eingesetzt. Bei den Nachfolgesubstanzen wurden einige Nebenwirkungen verringert und die Anti-Tumorwirkung verstärkt. Nach wie vor können diese Medikamente aber schwere Missbildungen bei ungeborenen Kindern verursachen und dürfen deshalb nicht bei schwangeren Patientinnen eingesetzt werden.

Verschiedene Proteine im Fokus
Thalidomid und seine Nachfolgesubstanzen werden unter der Bezeichnung Immunomodulatory Drugs, kurz IMiDs, zusammengefasst. Der Name leitet sich von ihrer Fähigkeit, die Immunantwort des Körpers zu verändern, ab. Ein Team um Prof. Florian Bassermann von der III. Medizinischen Klinik am Klinikum rechts der Isar der TUM, hat jetzt die Funktionsweise der IMiDs auf molekularer Ebene untersucht. Die Studie ist in der Fachzeitschrift „Nature Medicine“ erschienen. Prof. Bassermann ist Principle Investigator des Deutschen Konsortiums für Translationale Krebsforschung (DKTK).

Aus Forschungsarbeiten anderer Teams war bereits bekannt, dass ein körpereigenes Protein namens Cereblon für die Funktion von IMiDs eine wichtige Rolle spielt. Den genauen Wirkmechanismus konnten aber erst Bassermann und sein Team herausarbeiten: Cereblon bindet in Zellen an die Proteine CD147 und MCT1. Diese beiden treten insbesondere in Zellen des blutbildenden Systems und in Immunzellen auf und spielen unter anderem eine Rolle bei der Gefäßneubildung und dem Stoffwechsel der Zelle. Bei Krebsarten wie dem Multiplen Myelom sind CD147 und MCT1 in den Tumorzellen in besonders großer Zahl vorhanden.

IMiDs „verdrängen“ Protein
Als sogenannter Proteinkomplex treten CD147 und MCT1 immer paarweise auf. Um zueinander zu finden und aktiv werden zu können, sind sie auf Cereblon angewiesen. Die Bindung an das Protein fördert ihre Ausreifung und Stabilität wodurch das Wachstum der Zelle gefördert wird und Stoffwechselprodukte wie Laktat ausgeschieden werden. Bei einer Erkrankung wie dem Multiplen Myelom führt das vermehrte Auftreten des Proteinkomplexes dazu, dass sich die Tumorzellen stark vermehren und ausbreiten können.

Wird eine Krebserkrankung mit IMiDs behandelt, verbinden diese sich mit Cereblon und verdrängen gewissermaßen den Proteinkomplex. Die beiden Proteine können dadurch nicht aktiviert werden und verschwinden. „Letztlich führt das dazu, dass die Tumorzelle abstirbt“, sagt Ruth Eichner, Erstautorin der Studie.

Das Verschwinden des Proteinkomplexes ist auch für Missbildungen bei Ungeborenen verantwortlich, wie die TUM-Wissenschaftler in Zusammenarbeit mit einem Team des Deutschen Zentrums für Neurodegenerative Erkrankungen (DZNE) zeigen konnten. „Hier gibt es einen gemeinsamen Mechanismus“, sagt Bassermann. „Wenn man den Proteinkomplex mit anderen Mitteln ausschaltet, führt das zu denselben Entwicklungsschäden wie eine Behandlung mit Thalidomid.“ Ohne die beiden Proteine können sich Blutgefäße nicht normal entwickeln. Das bestätigt die Vermutung, dass die typischen durch Contergan verursachten Fehlbildungen mit Problemen bei der Gefäßneubildung zusammenhängen.

Neue Therapieansätze
Eine direkte Konsequenz für die Praxis lässt sich aus dem Zusammenhang zwischen der klinischen Wirksamkeit einer IMiD-Therapie und den beobachteten Effekten auf molekularer Ebene ziehen. „Nur bei Patienten, bei denen eine Therapie anschlug, konnten wir auch einen Verlust des Proteinkomplexes feststellen“, sagt Florian Bassermann. Das lasse sich nutzen, um die Erfolgschancen einer Behandlung vorab abzuschätzen: Nur wenn der Proteinkomplex in vorab entnommenen Tumorzellen nach einer Behandlung mit IMiDs verschwinde, sei es auch sinnvoll, den Kranken eine Therapie mit IMiDs zuzumuten, sagt Bassermann.

Die Ergebnisse der aktuellen Studie könnten auch ein Ausgangspunkt für neue Krebstherapien ohne IMiDs sein. Als Ansatzpunkt für eine Behandlung von Tumorzellen ist der Proteinkomplex besonders geeignet, da er sich in an der Zelloberfläche befindet und gewissermaßen das Innere der Zelle mit dem Äußeren verbindet. Möglicherweise lässt er sich auch mit anderen Medikamenten oder mit eigens dafür geschaffenen Antikörpern deaktivieren. An letzteren forschen Bassermann und seine Mitarbeiter derzeit.

Kontakt:
Univ.-Prof. Dr. Florian Bassermann
III. Medizinische Klinik (Hämatologie/Onkologie)
Technische Universität München
Tel.: 089 4140 5038
Email: florian.bassermann@tum.de

Originalpublikation:
Eichner R., Heider M., Fernández-Sáiz V., v. Bebber F., Garz A.K., Lemeer S., Rudelius M., Targosz, B.S., Jacobs L., Knorn A.M., Slawska J., Platzbecker U., Germing U., Langer C., Knop S., Einsele H., Peschel C., Haass C., Keller U., Schmid B., Götze K.S., Kuster B., and Bassermann F. Immunomodulatory drugs disrupt the cereblon-CD147- MCT1 axis to exert antitumor activity and teratogenicity, Nature Medicine, 2016. DOI: 10.1038/nm.4128

Quelle: idw

(nach oben)


Mit Laserlicht dem Plastikmüll im Trinkwasser auf der Spur

Daniela Metz Laser- und Optikforschung
VDI Technologiezentrum GmbH

Das kürzlich gestartete Verbundprojekt „OPTIMUS“ entwickelt ein Analysegerät mit optischen Methoden wie der Ramanspektroskopie und der holografischen Mikroskopie zur ständigen Kontrolle von Wasserströmen.

Meldung des BMBF-Verbundprojekts „OPTIMUS“
Plastikmüll in Gewässern ist derzeit eines der wichtigsten und aktuellsten Forschungsthemen in der Wasseranalytik. Das kürzlich gestartete Forschungsprojekt OPTIMUS will Plastikmikropartikel in Trinkwasserströmen identifizieren und analysieren. Die insgesamt neun Partner des vom Bundesministerium für Bildung und Forschung (BMBF) geförderten Projekts haben vor, ein innovatives Messsystem zu entwickeln, das mit optischen Methoden wie der Ramanspektroskopie und der holografischen Mikroskopie arbeitet. Hierdurch soll eine ständige Kontrolle erstmals ermöglicht werden.

Plastikteilchen an sich gelten als ungefährlich und dürfen laut Gesetz auch in Kosmetika enthalten sein, wirken im Wasser aber wie Sammler für Schadstoffe. Diese können sowohl gefährliche und toxische organische Schadstoffe wie PCB, Dioxine und Insektizide als auch Schwermetalle (z.B. Arsen und Blei) sein. Mikroplastikpartikel und ihnen anhaftende Verunreinigungen sind mittlerweile in der Umwelt allgegenwärtig. Sie werden weltweit im Meerwasser genauso gefunden wie in Flüssen und Seen.

Auch im Trinkwasser und in trinkwasserbasierten Produkten wie Bier und Limonaden finden sich in zunehmend besorgniserregendem Maße Mikroplastikteilchen. Mikroplastik fasst dabei als Oberbegriff die Partikel unterschiedlichster Formen, Größen und Materialien zusammen. Dies macht Mikroplastik im Gegensatz zu natürlich auftretenden Sedimenten zu einer Herausforderung für etablierte Nachweis- und Reinigungsverfahren.

Die derzeitigen Verfahren zum Nachweis und zur Identifikation von Mikroplastik erlauben bisher nur Stichproben und sind zur ständigen Kontrolle des Wassers auf Mikroplastik eher ungeeignet. Die dem Mikroplastik anhaftenden ökotoxischen Spurenstoffe können aufgrund ihrer geringen Konzentrationen nur durch aufwändige chemische Laboruntersuchungen nachgewiesen werden.

Die Verbundpartner von OPTIMUS entwickeln ein Gerät, das eine ständige Kontrolle von Trinkwasserströmen auf Plastikmikropartikel ermöglicht. Die einzelnen Partner entwickeln Teile des Geräts, für die sie exzellentes spezielles Know-How haben. So muss die für die fortschrittliche Ramanspektroskopie benötigte Laserquelle entwickelt werden. Sie stellt technisch in ihren Leistungsdaten eine innovative und anspruchsvolle Erweiterung dar. Der Dauereinsatz des Geräts und die automatische Echtzeitanalyse der Mikroplastikteilchen sind wichtige Kriterien für das Gesamtsystem.

Das OPTIMUS-Projekt wurde am 1. März 2016 in den Räumen des Uni-Hauptgebäudes im Senatssaal des Welfenschloss gemeinsam mit allen beteiligten Partnern und dem Projektträger gestartet. Der Förderungszeitraum beträgt drei Jahre und wird mit insgesamt 1,26 Millionen Euro im Rahmen der Bekanntmachung „Vor-Ort-Analytik mit photonischen Verfahren für den Einsatz in den Lebenswissenschaften“ im Programm „Photonik Forschung Deutschland“ vom Bundesministerium für Bildung und Forschung (BMBF) gefördert. Zuständiger Projektträger im Auftrag des BMBF ist die VDI Technologiezentrum GmbH. Das Konsortium setzt sich aus einem Institut und einem Forschungszentrum der Leibniz Universität Hannover, drei assoziierten Partnern und vier privaten Firmen zusammen.

Das Konsortium

Universitäts-Institute und -Zentren
– Das Institut für Quantenoptik der Leibniz Universität Hannover deckt die Forschung an der für den Demonstrator notwendigen Laserquelle, einem nichtkollinear optisch-parametrischen Oszillator (NOPO), ab. Dieses Teilprojekt legt somit die experimentellen Grundlagen für den Nachweis von Mikroplastik mittels stimulierter Ramanspektroskopie, einer analytunabhängigen, hochsensitiven aber für die Anwendung noch nicht etablierten Methode.
– Das Hannoversche Zentrum für Optische Technologien der Leibniz Universität Hannover untersucht die Grundlagen für den Nachweis der Mikroplastiken mittels konfokaler und resonanter Ramanspektroskopie basierend auf einem optofluidischen System und erstellt eine Datenbank für die Online-Identifizierung der Mikroplastiken in der Anwendung.

Firmenpartner

– Die VENTEON Laser Technologies GmbH, Hannover, erforscht das neuartige NOPO-System mit dem Ziel, sehr hohe Ausgangsleistungen zu erzeugen und einen stabilen Langzeitbetrieb zu gewährleisten.
– Die TEM Messtechnik GmbH, Hannover, wird eine Methode erforschen, den NOPO elektronisch zu steuern und Möglichkeiten erproben, wie das komplexe Lasersystem für einfach bedienbar wird.
– Die Firma -4H- JENA engineering beschäftigt sich innerhalb des Projekts mit dem Thema Mikrofluidik, Antifouling und Separierung von Teilchen im Geräteflusssystem. -4H- JENA wird auch den ersten Modellaufbau (den Demonstrator) zusammenstellen.
– Die Firma bbe Moldaenke, Kiel übernimmt die Automatisierung der Objekterkennung durch Volumen-Mikroskopie und computergestützte Erkennung der mikroskopischen Bilder („digitale holografische Mikroskopie“). Die Projektkoordination des Verbundprojekts OPTIMUS liegt bei bbe Moldaenke.

OPTIMUS wird von drei assoziierten Firmen und Institutionen projektbegleitend unterstützt, die bei der Anwendung des zu entwickelnden Gerätes ihre praktischen Erfahrungen beitragen und Tests am und mit dem Demonstrator durchführen werden.

– INNOWATECH GmbH, Empfingen
– Brauhaus Ernst August GmbH & Co. KG, Hannover
– Institut für Hygiene und Umwelt, Hamburg

Weitere Informationen:
http://www.photonikforschung.de
Das Portal des BMBF für Photonik-Forschung in Deutschland

Anhang
https://idw-online.de/de/attachment50151
Projektsteckbrief als PDF mit Kurzbeschreibung, allen beteiligten Unternehmen und Instituten sowie Ansprechpartner

Quelle: idw

(nach oben)


Wer mit wem und wo am Ostseeboden? Biologen des IOW präsentieren Resultat einer umfassenden Inventur

Dr. Barbara Hentzsch Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Ostseeforschung Warnemünde

Im ICES Journal of Marine Science veröffentlichte kürzlich ein Team um die Wissenschaftler Mayya Gogina und Michael Zettler aus dem Leibniz-Institut für Ostseeforschung erstmalig einen Überblick über die Verbreitung der Gemeinschaften des so genannten Makrozoobenthos in der gesamten Ostsee. Anhand der Häufigkeit der Arten an über 7.000 Stationen identifizierten sie 10 Haupt-Gemeinschaften. Besonders häufig ist eine Gemeinschaft aus Monoporeia affinis (am Boden lebender Flohkrebs), Marenzelleria spp. (im Boden lebender Wurm) und Macoma balthica (Baltische Plattmuschel). Sie dominieren den Ostseeboden nördlich des Bornholm-Beckens – ein Areal, das circa 60 % des Gesamtgebietes ausmacht.

In Sauerstoffmangel-Gebieten, wie den tiefen Becken der zentralen Ostsee, waren erwartungsgemäß kaum benthische Gemeinschaften vorhanden. Wesentlich vielfältiger sieht das Bild mit steigendem Salzgehalt in der westlichen Ostsee aus. Die taxonomische Vielfalt steigt an und die Gemeinschaften grenzten sich kleinräumiger ab. Für die Gesamtanalyse wurden mehr als 1.000 taxonomische Einheiten einbezogen.

Ergänzend zu diesen Studien ermittelten Mayya Gogina und das Team, wie sich das Bild ändert, wenn man anstatt der Häufigkeit einzelner Arten ihren Anteil an der Gesamt-Biomasse einer Station berücksichtigt. Das Ergebnis ist etwas differenzierter: anstatt 10 finden sich anhand dieser Betrachtung 17 Hauptgemeinschaften in der Ostsee. Die nach dieser Charakterisierung ermittelte häufigste Gemeinschaft am Ostseeboden sieht etwas anders aus: neben Macoma balthica und Monoporeia affinis umfasst sie auch eine weitere Flohkrebs- sowie eine Priapswurm-Art und die Ostsee-Riesenassel (Saduria entomon). Mit einer Körpergröße von bis zu 9 cm wirkt sie sich neben den benachbarten kleineren Arten natürlich auf die Biomasse einer Probe aus, auch wenn von ihr nur wenige Individuen auftreten.

Das hier im Zentrum stehende Makrozoobenthos umfasst alle am Boden von Gewässern lebenden Tiere die größer als 1 Millimeter sind. Sie übernehmen für das Gesamtsystem wichtige Aufgaben: einige von ihnen durchwühlen den Meeresboden und vergraben dabei Ablagerungen. Sie können auf diese Art und Weise dem System Schadstoffe entziehen. Andere, die so genannten Filtrierer, entnehmen dem Wasser Schwebstoffe und sorgen so für mehr Licht. Mit 2.035 Arten nimmt das Makrozoobenthos im Artenspektrum der Ostsee auch Zahlen-mäßig eine wichtige Rolle ein. Durch offshore-Bautätigkeiten sind die benthischen Gemeinschaften immer besonders betroffen, deshalb ist es wichtig, einen Überblick über ihre Verteilung und Funktion zu bekommen. Mayya Gogina beschreibt die Nutzer ihrer Arbeit: „Mit unserer Studie bieten wir grundlegende Informationen zur Verteilung der Makrofauna in der gesamten Ostsee als Management-Werkzeug für die marine Raumplanung oder die Fischerei an.“

Für die Studie wurden Daten der Jahre 2000 – 2013 aus allen Ostsee-Staaten zu-sammengestellt und standardisiert. Mithilfe statistischer Methoden und Vorhersage-Modelle wurden aus den Punktförmigen Datenquellen flächige Karten. Allerdings macht Mayya Gogina auf drei Schwachstellen aufmerksam: die Mehrzahl der verwendeten Daten (70 %) wurden im Frühling und Sommer genommen. Die Aussagen gelten folglich aufgrund einer schlechten Datenlage im Winter und Herbst hauptsächlich für diese Periode. Innere Küstenfjorde, Flussmündungen und Lagunenregionen wurden aus der Analyse ausgeschlossen, da diese Gebiete einen großen Anteil an Süßwasserorganismen enthalten und daher nicht repräsentativ für die gesamte Ostsee sind. Auch in den tiefen Becken der zentralen Ostsee ist die Datenlage ungünstig. Interpolationen in diesen Gebieten sind daher mit Vorsicht zu betrachten.
Die vorgestellten Gemeinschaftskarten präsentieren jedoch erstmalig eine allge-meine Übersicht. Weitere Untersuchungen werden die Unsicherheiten beseitigen müssen.
Die hier beschriebenen Ergebnisse wurden veröffentlicht unter: Gogina, M., Nygård, H., Blomqvist, M., Daunys, D., Josefson, A.B., Kotta, J., Maximov, A., Warzocha, J., Yermakov, V., Gräwe, U., Zettler, M. L. 2016: The Baltic Sea scale inventory of benthic faunal communities. ICES Journal of Marine Science 73: 1196-1213. doi:10.1093/icesjms/fsv265
Der ICES Science Fund und das BMBF-Projekt „SECOS – The Service of Sediments in German Coastal Seas“ unterstützten die Arbeiten maßgeblich.

Expertenkontakt:
Dr. Mayya Gogina, Tel.: 0381 5197 393 | mayya.gogina@io-warnemuende.de
Dr. Michael L. Zettler, Tel.: 03815197236 | michael.zettler@io-warnemuende.de

Kontakt IOW-Presse- und Öffentlichkeitsarbeit:
Dr. Kristin Beck | Tel.: 0381 – 5197 135 | kristin.beck@io-warnemuende.de
Dr. Barbara Hentzsch | Tel.: 0381 – 5197 102 | barbara.hentzsch@io-warnemuende.de

Karten auf Anfrage

Das IOW ist Mitglied der Leibniz-Gemeinschaft, zu der zurzeit 88 Forschungsinstitu-te und wissenschaftliche Infrastruktureinrichtungen für die Forschung gehören. Die Ausrichtung der Leibniz-Institute reicht von den Natur-, Ingenieur- und Umweltwis-senschaften über die Wirtschafts-, Sozial- und Raumwissenschaften bis hin zu den Geisteswissenschaften. Bund und Länder fördern die Institute gemeinsam. Insge-samt beschäftigen die Leibniz-Institute etwa 18.100 MitarbeiterInnen, davon sind ca. 9.200 WissenschaftlerInnen. Der Gesamtetat der Institute liegt bei mehr als 1,64 Mrd. Euro. (www.leibniz-gemeinschaft.de)

Quelle: idw

(nach oben)


Bakterien im Darm als Spiegel der Gesundheit

Jacqueline Hirscher Öffentlichkeitsarbeit
Deutsches Rheuma-Forschungszentrum Berlin, ein Leibniz-Institut

Unsere Darmflora ist der Spiegel unserer Gesundheit. Ändert sich die Zusammensetzung der Darmflora, können Entzündungen des Darms die Folge sein, aber auch Rheuma oder Krebs. Wissenschaftler des Leibniz Instituts Deutsches Rheuma-Forschungszentrum Berlin, der Charité und des Helmholtz-Zentrums für Umweltforschung in Leipzig haben eine Methode zur einfachen und schnellen Bestimmung der Zusammensetzung der Darmflora aus Stuhlproben entwickelt. Mit der neuen Methode kann jetzt der Zusammenhang zwischen Darmbakterien und Krankheit genau untersucht werden. Es wird möglich, diese Krankheiten frühzeitig zu erkennen und gezielt zu behandeln.

In unserem Darm leben Billionen von Bakterien – 10mal mehr, als unser Körper Zellen hat. Mehr als 100 verschiedene Bakterienarten bilden diese Darmflora. Die Darmflora hilft uns, unsere Nahrung zu verdauen. Aber sie beeinflusst auch unser Immunsystem. Die Zusammensetzung unserer Darmflora hängt wesentlich von unserem Lebensstil ab, z.B. davon, was wir essen. Auch Krankheiten können unsere Darmflora verändern. Und eine veränderte Darmflora kann uns krank machen, insbesondere chronische Entzündungen des Darms verursachen, aber auch Rheuma und andere chronisch-entzündliche Erkrankungen. Bisher wissen wir nur wenig darüber, denn die Untersuchung der Darmflora ist schwierig. Ein Team aus Wissenschaftlern rund um Dr. Hyun-Dong Chang vom Deutschen Rheuma-Forschungszentrum Berlin, einem Institut der Leibniz Gemeinschaft, hat nun gemeinsam mit Wissenschaftlern der Charité – Universitätsmedizin Berlin und des Helmholtz-Instituts für Umweltforschung in Leipzig eine neue Methode entwickelt, die „Mikrobiota-Zytometrie“, mit der die Bakterien der Darmflora einzeln und ultraschnell optisch vermessen werden können. Mit der „Mikrobiota-Zytometrie“ kann die Zusammensetzung der Darmflora aus Stuhlproben genau bestimmt und einzelne Arten können gezielt isoliert werden. Die neue Methode ist ein Durchbruch bei der Erforschung der Frage, wie die Darmflora unsere Gesundheit bestimmt. Es wird möglich, Krankheiten, die durch Bakterien der Darmflora verursacht werden, früh zu erkennen und gezielt zu behandeln. Bakterien, die vor Krankheiten schützen, können mit der Methode identifiziert, isoliert, und zur Behandlung eingesetzt werden. Erste Ergebnisse mit der neuen Methode der „Mikrobiota-Zytometrie“ stellten die Wissenschaftler jetzt im European Journal of Immunology vor (1). Sie untersuchten die Veränderungen der Darmflora bei einer chronischen Darmentzündung. Dabei verschwinden viele Arten von Bakterien, andere breiten sich aus. Die Forscher konnten einige Arten identifizieren, die möglicherweise die Darmentzündung verursacht hatten. Sie werden jetzt genauer untersucht.

Veröffentlichung:
(1) Zimmermann J*, Hübschmann T*, Schattenberg F, Schumann J, Durek P, Riedel R, Friedrich M, Glauben R, Siegmund B, Radbruch A, Müller S**, Chang HD**. High-resolution microbiota flow cytometry reveals dynamic colitis-associated changes in fecal bacterial composition. Eur J Immunol. 2016 May;46(5):1300-3. doi: 10.1002/eji.201646297 */** equal contribution

Kontakt
Prof. Dr. Andreas Radbruch
Wissenschaftlicher Direktor
Deutsches Rheuma-Forschungszentrum Berlin, ein Leibniz Institut
Charitéplatz 1
10117 Berlin
Tel: 030 28460 601
raulfs@drfz.de

Quelle: idw

(nach oben)


Mehr Wildkatzen als gedacht – Studie zeigt Verbreitung von Wildkatzen in Deutschland

Judith Jördens Senckenberg Pressestelle
Senckenberg Forschungsinstitut und Naturmuseen

Senckenberg-Wissenschaftler zeigen in einer groß angelegten Studie, dass Wildkatzen in Deutschland weiter verbreitet sind als bisher vermutet. Das Forscherteam wertete über 6000 DNA-Proben der scheuen Wildtiere aus und zeigt in einer kürzlich im Fachjournal „Conservation Genetics“ erschienenen Studie, dass die Katzen in weiten Teilen der waldreichen Mittelgebirgsregion Deutschlands nahezu flächendeckend vorkommen. Eine genetische Vermischung mit Hauskatzen konnte nur bei knapp vier Prozent der untersuchten Tiere festgestellt werden. Die Ergebnisse helfen bei der Planung weiterer Schutzmaßnahmen für die scheuen Wildkatzen.

Eine Wildkatze zu beobachten ist angesichts deren scheuen Lebensweise kaum jemandem vergönnt – und dann gilt es auch noch die Tiere von getigerten Hauskatzen zu unterscheiden. „Die tatsächlichen Wildkatzenbestände in Wäldern zu erfassen ist demnach nicht einfach“, erklärt Katharina Steyer, Doktorandin am Senckenberg Forschungsinstitut und der Goethe-Universität Frankfurt. Solch eine umfassende, bundesweite Bestandsaufnahme hat sich das Wissenschaftler-Team rund um die Biologin aber in ihrer Studie zum Ziel gesetzt. „Wir haben über 6000 Proben genetisch untersucht, um herauszufinden in welchen Wäldern Deutschlands tatsächlich Wildkatzen leben“, erläutert Steyer.

Das überraschende Ergebnis: Wildkatzen sind häufiger und vor allem flächendeckender verbreitet, als noch vor wenigen Jahren angenommen wurde. Insgesamt 2220 Individuen von Felis silvestris konnten aus den DNA-Proben bestimmt werden; lediglich 86 Individuen wurden als Hybridformen zwischen Wild- und Hauskatze identifiziert.
„44 Prozent der von uns bestimmten Wildkatzen-Proben wurden außerhalb des vor Beginn der genetischen Analysen bekannten Verbreitungsgebiets gesammelt“, ergänzt Steyer. In einer Studie aus dem Jahr 2009 war man noch von einer eher zerfaserten Verbreitung der scheuen Wildtiere ausgegangen. „Diese Verbreitungskarte konnten wir nun ergänzen“, sagt Steyer und fährt fort: „Unsere Analysen deuten darauf hin, dass im zentralen Verbreitungsgebiet, das sich von Nordbayern bis nach Südniedersachsen und von Eifel, Hunsrück und Pfälzerwald im Westen bis zum Thüringer Wald im Osten erstreckt, kaum noch größere Waldgebiete von der Art unbesiedelt sind.“

Im Westerwald, Kellerwald und der Rhön – Gebiete von denen man noch vor 10 Jahren annahm, dass dort keine Wildkatzen dauerhaft leben – konnten klare Hinweise auf reproduzierende Populationen gefunden werden. Auch gänzlich neue Verbreitungsgebiete wie der Kottenforst bei Bonn oder der Arnsberger Wald wurden durch die zahlreichen Proben belegt.

„Ohne die Hilfe von mehr als 100 Projektpartnern und tausenden freiwilligen Helferinnen und Helfer würde es diese Studie nicht geben“, bedankt sich Steyer. Verschiedenste Institutionen wie Umweltbehörden, Forschungseinrichtungen und Naturschutzorganisationen, allen voran der Bund für Umwelt und Naturschutz (BUND), haben die Proben gesammelt. Hierbei kamen in vielen Projekten freiwillige Helfer wie Bürgerwissenschaftler oder Schulen zum Einsatz. „Nur die Bereitschaft von Bürgern, sich im Rahmen derartiger Citizen Science-Projekte in Forschung und Naturschutz zu engagieren, machen solch umfassende Aussagen zum Status einer bedrohten, derart scheuen Art möglich“, ergänzt Dr. Carsten Nowak, Leiter des Fachgebiets Naturschutzgenetik am Senckenberg Forschungsinstitut.

Bei der Probennahme wurde überwiegend die „Lockstock-Methode“ eingesetzt – hierzu werden Stöcke mit Baldrian eingerieben und im Wald aufgestellt. Der Baldrian wirkt auf die Wildkatzen wie ein Sexualpheromon: Die Katzen werden angelockt, reiben sich an den Lockstöcken und lassen so an der angerauten Oberfläche Haare zurück, die für genetische Analysen genutzt werden können. „Unsere Proben stammen größtenteils von solchen Lockstöcken und wurden im Zeitraum 2007 bis 2013, vor allem in der Paarungszeit der Wildkatzen von Januar bis April gesammelt. Weitere Proben stammen von überfahrenen Tieren.“, fügt Steyer hinzu.

Die Untersuchungen des Erbgutes zeigen, dass sich Haus-und Wildkatzen – trotz ähnlicher Optik – nur sehr selten gemeinsam fortpflanzen: „Nur bei knapp vier Prozent aller untersuchten Wildkatzen fanden wir Spuren von Hauskatzen-DNA, die von Hybridisierungsereignissen stammt.“ Hybridisierung mit Hauskatzen kommt demnach nur sehr selten vor und bedroht die heimischen Wildkatzen-Bestände nicht.

Trotz des großen Verbreitungsgebietes: die Wildkatze bleibt in Deutschland mit 5.000 – 10.000 Tieren eine seltene Art. „Unsere Daten fließen immer zeitnah in die offiziellen Verbreitungskarten ein und helfen so, ein effektives Schutzmanagement für die Wildkatze zu etablieren“, resümiert Steyer. „Gute Nachrichten sind im Naturschutz ja eigentlich selten, daher sollten wir uns über die erstaunliche Wiederausbreitung dieser faszinierenden Art besonders freuen“.
Laut den Wissenschaftlern haben insbesondere der strenge bundesweite Schutz, ein Umdenken im Waldbau sowie die starken Sturmereignisse in den vergangenen Jahren, die deckungs- und nahrungsreiche Offenlandstrukturen in den ansonsten eher monotonen deutschen Wirtschaftswäldern geschaffen haben, für günstige Bedingungen gesorgt. Ob es sich jedoch in allen Regionen wirklich um eine Ausbreitung handelt, oder die Art mangels geeigneter genetischer Analyseverfahren in der Vergangenheit vielerorts schlichtweg übersehen wurde, bleibt zunächst noch offen. „Dies wollen wir mit unserem weltweit wohl einmaligen Datensatz zukünftig ergründen. Wir möchten zudem verstehen, wie sich Wildkatzen in unserer Kulturlandschaft fortbewegen und ausbreiten und welche Effekte Barrieren wie Straßen und großräumige Agrarflächen haben“, gibt Nowak einen Ausblick.

Kontakt
Dipl.-Biol. Katharina Steyer
Abteilung Ökologie und Evolution
Johann Wolfgang Goethe-Universität
Biologicum
Max-von-Laue-Straße 13,
60438 Frankfurt am Main,
Katharina.Steyer@gmx.de

Dr. Carsten Nowak
Fachgebiet Naturschutzgenetik
Senckenberg Standort Gelnhausen
Clamecystraße 12
63571 Gelnhausen
Tel.: 06051-61954-3138
cnowak@senckenberg.de

Judith Jördens
Pressestelle
Senckenberg Gesellschaft für Naturforschung
Tel. 069- 7542 1434
pressestelle@senckenberg.de

Publikation
Katharina Steyer, Robert H. S. Kraus, Thomas Mölich, Ole Anders, Berardino Cocchiararo, Christiane Frosch, Alexander Geib, Malte Götz, Mathias Herrmann, Karsten Hupe, Annette Kohnen, Matthias Krüger, Franz Müller, Jacques B. Pir, Tobias E. Reiners, Susan Roch, Ulrike Schade, Philipp Schiefenhövel, Mascha Siemund, Olaf Simon, Sandra Steeb, Sabrina Streif, Bruno Streit, Jürgen Thein, Annika Tiesmeyer, Manfred Trinzen, Burkhard Vogel, Carsten Nowak (2016): Large-scale genetic census of an elusive carnivore, the European wildcat (Felis s. silvestris). Conservation Genetics, pp 1-17, DOI: 10.1007/s10592-016-0853-2

Die Natur mit ihrer unendlichen Vielfalt an Lebensformen zu erforschen und zu verstehen, um sie als Lebensgrundlage für zukünftige Generationen erhalten und nachhaltig nutzen zu können – dafür arbeitet die Senckenberg Gesellschaft für Naturforschung seit nunmehr fast 200 Jahren. Diese integrative „Geobiodiversitätsforschung“ sowie die Vermittlung von Forschung und Wissenschaft sind die Aufgaben Senckenbergs. Drei Naturmuseen in Frankfurt, Görlitz und Dresden zeigen die Vielfalt des Lebens und die Entwicklung der Erde über Jahrmillionen. Die Senckenberg Gesellschaft für Naturforschung ist ein Mitglied der Leibniz-Gemeinschaft. Das Senckenberg Naturmuseum in Frankfurt am Main wird von der Stadt Frankfurt am Main sowie vielen weiteren Partnern gefördert. Mehr Informationen unter www.senckenberg.de.

2016 ist Leibniz-Jahr. Anlässlich des 370. Geburtstags und des 300. Todestags des Universalgelehrten Gottfried Wilhelm Leibniz (*1.7.1646 in Leipzig, † 14.11.1716 in Hannover) veranstaltet die Leibniz-Gemeinschaft ein großes Themenjahr. Unter dem Titel „die beste der möglichen Welten“ – einem Leibniz-Zitat – rückt sie die Vielfalt und die Aktualität der Themen in den Blick, denen sich die Wissenschaftlerinnen und Wissenschaftler der bundesweit 88 Leibniz-Einrichtungen widmen. www.bestewelten.de

Quelle: idw

(nach oben)


Die Mikroben-Versteherin

Kristina Logemann Brand Management, Marketing & Communications
Jacobs University Bremen gGmbH

Es sind spannende Zeiten für Dr. Julia Busch. Ob an den Küsten der Nord- und Ostsee, ob an Weser, Elbe, Saale, Fulda oder Havel – überall haben Bürger am 21. Juni, der Sommersonnenwende, ein kleines Röhrchen mit Wasser gefüllt. Sie haben ihr Handy gezückt und Fotos von der Wasserfarbe gemact. Sie haben mit Thermometern die Wassertemperatur gemessen. All diese Proben, Aufnahmen und Daten werden in Bremen landen, bei der Meereswissenschaftlerin und ihren Kollegen, und sie werden Auskunft geben über den Zustand der deutschen Gewässer.

Dr. Julia Busch arbeitet für den „My Ocean Sampling Day“ (MyOSD), einem Gemeinschaftsprojekt der Jacobs University und des Max-Planck-Institutes für Marine Mikrobiologie in Bremen unter Leitung von Prof. Dr. Frank Oliver Glöckner. Erstmals in Deutschland sind Hobbywissenschaftler in einem großen Umfang an dem Sammeln von wissenschaftlichen Informationen zum maritimen Ökosystem beteiligt, seit 2014 findet der OSD jährlich statt. Das Ziel ist klar: „Wir wollen den Einfluss des Menschen auf die Flüsse und Küstengewässer dokumentieren“, sagt die 38-Jährige.

Dies geschieht mithilfe von Kleinstlebewesen, die einen äußerst zweifelhaften Ruf genießen: Mikroben. „Die meisten Menschen bringen sie mit Krankheiten, Seuchen und Verschmutzungen in Verbindung“, erzählt Dr. Julia Busch. Tatsächlich sind sie die „Guten“. Sie bauen totes biologisches Material ab und führen es dem Nährstoffkreislauf zu. Manche machen sich über Mikroplastik her, andere verspeisen Ölreste. Sie vertilgen Kohlendioxid und produzieren Sauerstoff. Rund die Hälfte des Sauerstoffs, den der Mensch an Land einatmet, stammt von Mikroorganismen aus dem Meer.

Das Projekt „My Ocean Sampling Day“ ist Teil des Wissenschaftsjahres 2016*17 – Meere und Ozeane, in dem es um die Ergründung der Gewässer, ihren Schutz und ihre nachhaltige Nutzung geht. Ausgerichtet wird es vom Bundesministerium für Bildung und Forschung (BMBF) und der Initiative Wissenschaft im Dialog (WiD).

In ihrem Team an der Jacobs University und dem Max-Planck-Institut gilt die Bremerin als Mikroben-Versteherin. Schon in ihrer Doktorarbeit hat sie sich mit Kleinstlebewesen beschäftigt, allerdings nicht mit Bakterien, sondern mit gefährlichen Algenblüten in Aquakulturen in Spanien. Das Meer, seine Ruhe, Weite und Vielfalt faszinieren sie, seitdem sie als Jugendliche zum Tauchen kam – und sie kennt es gut. Studien- und Forschungsaufenthalte führten sie an die Küsten Australiens, Mexikos, Perus und Indonesiens.

Trotz ihrer gewaltigen Bedeutung für das Leben ist das Wissen über die Verbreitung und Funktion der Mikroben gering, gerade in deutschen Flüssen und Küstengewässern. Der MyOSD soll das ändern helfen. Wie wirken sich Städte oder Industrie auf die Artenvielfalt aus? Wie verändert sich die Gemeinschaft der Mikroben von der Quelle eines Flusses bis zur Mündung? Das sind einige der Fragestellungen, die die Forscher interessieren.

Dabei ist Julia Busch die Beteiligung der Bürger besonders wichtig. „Beim Kontakt zwischen Wissenschaftlern, Entscheidern und Bürgern hapert es noch“, findet sie. „Citizen Science“ heißt der Ansatz, der die Bürger stärker einbeziehen will, nicht nur als Lieferanten von Daten. So hat MyOSD eigens einen Fragebogen entwickelt für alle, die mitmachen. „Wir wollen wissen, woran die Leute gerne forschen würden.“

Rund 800 so genannte Sampling Kits für die Probenentnahme hat MyOSD bereits verteilt. Wer sich beeilt, kann noch kurzfristig Mikroorganismen einsammeln. In Forschungseinrichtungen entlang der Küste, von Wilhelmshaven über Bremen, Tönning, Kiel und Warnemünde bis hin nach Stralsund stehen Materialien für die Entnahme zur Abholung bereit oder werden bis zum Mittag des 15. Juni versendet (Liste der Einrichtungen unter: http://www.my-osd.org/mitmachen/hubs).

Auch wer dazu keine Gelegenheit hat, kann sich beteiligen – mithilfe zweier kostenloser Apps für Android-Smartphones und iPhones. Die OSD Citizen App dient unter anderem dazu, die Wassertemperatur zu erfassen, die mit einem normalen Haushaltsthermometer gemessen werden kann. Mit der EyeOnWater-Colour App können Fotos von der Wasseroberfläche gemacht und verschickt werden. Die Färbung des Wassers ist Indikator für Stoffeinträge, je grüner das Wasser, desto mehr Mikroalgen enthält es. „Möglichst viele Wasserbilder zu haben wäre toll“, sagt Dr. Julia Busch. „Sie würden uns helfen, das Puzzle, mit dem wir es zu tun haben, zu vervollständigen.“

Weiter Informationen unter:
http://www.my-osd.org/mitmachen/
http://www.my-osd.org
http://www.wissenschaftsjahr.de/2016-17/
http://www.jacobs-university.de
http://www.mpi-bremen.de/en/Microbial_Genomics_Group.html

Fragen beantwortet:
Dr. Julia Busch | MPI for Marine Microbiology – Postdoctoral Fellow Microbial Genomics and Bioinformatics Group
myosd-contact@microb3.eu | Tel.: +49 421 2028 – 982

Über die Jacobs University:
Die Jacobs University ist eine private, unabhängige, englischsprachige Universität in Bremen. Hier studieren junge Menschen aus der ganzen Welt in Vorbereitungs-, Bachelor-, Master- und PhD-Programmen. Internationalität und Transdisziplinarität sind die besonderen Kennzeichen der Jacobs University: Forschung und Lehre folgen nicht einem einzigen Lösungsweg, sie gehen Fragestellungen aus der Perspektive verschiedener Disziplinen an. Dieses Prinzip macht Jacobs Absolventen zu begehrten Nachwuchskräften, die erfolgreich internationale Karrierewege einschlagen.

Kontakt:
Kristina Logemann | Brand Management, Marketing & Communications
k.logemann@jacobs-university.de | Tel.: +49 421 200- 4454

Quelle: idw

(nach oben)


Uni forscht für gesündere Gewässer

Ingrid Rieck Presse- und Kommunikationsstelle
Universität Rostock

Landwirtschaftsministerium fördert Projekt mit 650 000 Euro

Das Land Mecklenburg-Vorpommern fördert im Rahmen des Entwicklungsprogramms für den ländlichen Raum Mecklenburg-Vorpommern (EPLR MV 2014 – 2020) die Zusammenarbeit der operationellen Gruppe „DRAINFIT“ mit einem Gesamtvolumen von etwa 650 000 Euro.

Vor dem aktuellen Hintergrund der Belastung der Grundwasserkörper sowie der Fließ-, Stand- und Küstengewässer durch erhöhte Nährstoffeinträge (Nitrat, Phosphat) arbeiten die Partner aus Forschung (Universität Rostock, Agrar- und Umweltwissenschaftliche Fakultät sowie Landesforschungsanstalt für Landwirtschaft und Fischerei), Praxis (Landwirtschaftsbetrieb Müller & Mundt GbR) und Unternehmensberatung (LMS Agrarberatung GmbH) gemeinsam an neuen und innovativen Strategien zur Minderung der Nährstoffeinträge für drainierte landwirtschaftlich genutzte Flächen. Hierbei sollen während der insgesamt vierjährigen Projektlaufzeit sowohl wasserseitige (Kombination von kontrollierter Drainung und reaktivem Graben) als auch acker- und pflanzenbauliche Maßnahmen erprobt und ausgewertet werden. Die Uni hat dabei den Hut für den entscheidenden Versuch auf.

„Die Konzeption und Umsetzung eines reaktiven Grabens auf einer landwirtschaftlich genutzten, drainierten Fläche ist als neuartige und vielversprechende Maßnahme ein Schwerpunkt des Innovationsprojekts“, sagt Professor Bernd Lennartz. Durch sogenannte kontrollierte Drainung wird der Drainwasserabfluss reguliert, die Verweilzeit des Wassers im Boden und folglich der Abbau von Nährstoffen (Denitrifikation) erhöht. Dieser Denitrifikationsprozess wird durch Einleiten des Drainagewassers in den reaktiven Graben unterstützt. Durch mikrobielle Prozesse an organischem Füllmaterial (Holzhackschnitzel) erfolgt der Abbau von Nitrat und somit ein verminderter Nährstoffeintrag ins Oberflächenwasser.

Dazu Landwirtschaftsminister Till Backhaus: „Nährstoffausträge aus Agrarflächen spielen im landwirtschaftlich geprägten Mecklenburg-Vorpommern eine besondere Rolle“. Hier setze das Projekt „Drainfit“ an, in dem die Projektpartner in einem landwirtschaftlichen Unternehmen Strategien entwickeln, um die Austräge von dränierten Flächen zu reduzieren. „Ich erhoffe mir von diesem Projekt Ansätze, die dann auch in vielen anderen Landwirtschaftsbetrieben umgesetzt werden können“, sagt der Minister. „Auf diese Weise können wir flächendeckende Effekte erzielen und die Oberflächengewässer und das Grundwasser für nachfolgende Generationen schützen und verbessern“. Auch sei das Projekt Ausdruck für die enge Zusammenarbeit zwischen Land- und Wasserwirtschaft.“ Es zeigt, dass es möglich ist, Gewässer zu schützen und dabei den Anforderungen an eine nachhaltige wettbewerbsfähige Landwirtschaft gerecht zu werden“, so Backhaus.

Kontakt:
Prof. Dr. Bernd Lennartz
Universität Rostock
Agrar-und Umweltwissenschaftliche Fakultät
Telefon: ++49 (381) 498 3180
Fax: ++49 (381) 498 3122
e-mail: bernd.lennartz@uni-rostock

Quelle: idw

(nach oben)


Geflüchtete verbinden mit Deutschland Rechtsstaatlichkeit, Menschenwürde und Religionsfreiheit

Wolfgang Braun Presse- und Öffentlichkeitsarbeit
Institut für Arbeitsmarkt- und Berufsforschung der Bundesagentur für Arbeit (IAB)

Die meisten Geflüchteten verbinden mit Deutschland Rechtsstaatlichkeit, Achtung der Menschenwürde und Religionsfreiheit. Diese Werte werden von fast allen Befragten geteilt, zeigt eine Studie, die sich auf Interviews mit 123 Geflüchteten stützt. Erstellt wurde sie vom Institut für Arbeitsmarkt- und Berufsforschung (IAB), dem Forschungszentrum Migration, Integration und Asyl des Bundesamtes für Migration und Flüchtlinge (BAMF-FZ) und dem Sozio-oekonomischen Panel (SOEP) am DIW Berlin. Mit der Durchführung der Befragung war das Sozialforschungsinstitut QMR betraut.

Die meisten Befragten – mit Ausnahme derjenigen aus den Balkanländern – berichteten von persönlichen Bedrohungen durch Krieg und Verfolgung, oft auch von traumatischen Erlebnissen auf der Flucht. Viele Befragte betonten, wie sehr sie Toleranz und Religionsfreiheit in Deutschland schätzen, dass Menschen verschiedener Religionen problemlos zusammenleben können und dass Religion eine Privatsache ist.

Obwohl die meisten männlichen Befragten die Gleichstellung von Mann und Frau als abstraktes Prinzip durchaus unterstützen, stieß in vielen Interviews das in Deutschland gelebte Frauenbild beispielsweise im Hinblick auf Bekleidung, das Auftreten von Frauen in der Öffentlichkeit oder die Arbeitsteilung im Haushalt auf Vorbehalte. Insgesamt sind traditionelle Familienwerte und eine eher paternalistische Grundhaltung, in der dem Mann die Rolle des Schutzes von Ehefrau und Schwestern zukommt, in den Interviews weit verbreitet. Aber fast alle Befragten – Männer wie Frauen – zeigen in den Interviews eine ausgeprägte Erwerbs- und Bildungsorientierung.

Die Bildungsbiografien der Befragten variieren stark in Abhängigkeit von der Situation in den Herkunftsländern. Große Herausforderungen für die Arbeitsmarktintegration sind der Studie zufolge der Erwerb der notwendigen Sprachkompetenz und die Vermittlung realistischer Erwartungen bei den Geflüchteten, insbesondere vor dem Hintergrund fehlender oder nicht vergleichbarer Bildungsabschlüsse. Hinzu komme die Überwindung institutioneller Hürden, die sich beispielsweise durch die Regelungen zur Anerkennung ausländischer Abschlüsse oder die Vorrangprüfung bei der Arbeitsaufnahme von Asylbewerbern und Geduldeten ergeben.

Die Studie stützt sich auf eine Befragung von 123 Flüchtlingen aus 13 Herkunftsländern, die zwischen Mai 2013 und Dezember 2015 nach Deutschland eingereist sind. Befragt wurden Personen ab 18 Jahren. Die Befragung fand im Zeitraum vom Dezember 2015 bis März 2016 statt. Aufgrund der Fallzahlen können aus der Befragung allerdings keine verallgemeinerbaren Aussagen für alle in Deutschland lebenden Flüchtlinge abgeleitet werden. Erst eine derzeit laufende Befragung von mehr als 2000 Geflüchteten wird im statistischen Sinne repräsentative Ergebnisse liefern.

Weitere Informationen:
http://doku.iab.de/kurzber/2016/kb1516.pdf

Quelle: idw

(nach oben)


Gewichtsabnahme durch Aktivierung des braunen Fettgewebes möglich

Susann Huster Stabsstelle Universitätskommunikation/Medienredaktion
Universität Leipzig

Forscher des IFB AdipositasErkrankungen der Universität Leipzig haben einen vielversprechenden Ansatz zur Gewichtsreduktion und Verbesserung der Insulinresistenz im braunen Fettgewebe gefunden. Sie testeten ein Substrat, das den genetischen Pfad zur Aktivierung im Fettgewebe erstmals auch im Menschen positiv beeinflusst. Die Forschungsergebnisse wurden jetzt im renommierten Fachjournal „EMBO Molecular Medicine“ veröffentlicht.

Braunes Fettgewebe ist für die Wärmeentwicklung (Thermogenese) im Körper verantwortlich und verbraucht dazu große Mengen an Energie. Für Menschen mit Übergewicht und Adipositas ist die Erhöhung des Energieumsatzes ein wichtiges Ziel. Die Aktivierung des braunen Fettgewebes kann durch Kälteeinwirkung erreicht werden, aber auch durch medikamentöse Intervention, wie Forscher des IFB AdipositasErkrankungen von der Medizinischen Fakultät nun nachweisen konnten.

Lange Zeit ging man davon aus, dass braunes Fettgewebe nur in Kindern aktiv ist und
in Erwachsenen eine untergeordnete Rolle für die Energiebilanz spielt. In den vergangenen Jahren belegten verschiedene Forschungsstudien, dass braunes Fettgewebe auch im Erwachsenen aktivierbar ist. Darüber hinaus konnte gezeigt werden, dass weißes Fettgewebe, welches sonst nur als reiner Energiespeicher dient, teilweise in „beiges Fettgewebe“ umgewandelt werden kann.
Forscher der Arbeitsgruppe um Dr. Wiebke Fenske des IFB AdipositasErkrankungen identifizierten jetzt erstmalig im Menschen ein Enzym PDE10A (Phosphodiesterase 10A) im braunen Fettgewebe und in einem Teil des Großhirns, dem sogenannten Striatum. Die Aktivität des Striatums ist mit Übergewicht und Adipositas assoziiert. Die Forscher wendeten dabei unter anderem spezielle kombinierte Bildgebungstechniken (PET/MRT) an.

Die zielgerichtete Ausschaltung dieses Enzyms durch ein Substrat MP-10 führt zu einer deutlichen Gewichtsabnahme und Verbesserung der Insulinresistenz durch Aktivierung des braunen Fettgewebes. Den Effekt einer vermehrten Aktivierung des braunen Fettgewebes und einer Umwandlung von weißem in beiges Fettgewebe beobachten die Wissenschaftler in menschlichen Zelllinien.
Das Substrat MP-10 ist gut für den Menschen verträglich. Ein Vorteil des Substrats und des enzymatischen Angriffspunkts im Vergleich zu anderen Forschungsansätzen ist sein dualer Wirkansatz zur Gewichtsreduktion über einen zentralen Pfad im Gehirn und im Fettgewebe. Die Leipziger Forschergruppe um Wissenschaftlerin Fenske hofft, dadurch negative kardiologische Nebenwirkungen vermeiden und übergewichtigen Patienten eine sichere Gewichtsabnahme und eine Verbesserung des Diabetes ermöglichen zu können.

Das IFB AdipositasErkrankungen ist ein vom Bundesministerium für Bildung und Forschung gefördertes Zentrum, das Forschung und Behandlung zu Adipositas unter einem Dach vereint. In Leipzig steht Adipositas mit deren häufigen Begleiterkrankungen Typ-2-Diabetes, Atherosklerose, Fettgewebestörung und Fettleber im Mittelpunkt.
Originaltitel der Veröffentlichung im Fachjournal „EMBO Molecular Medicine“:
„A novel thermoregulatory role for PDE10A in mouse and human adipocytes“ doi: 10.15252/emmm.

Weitere Informationen:
Dr. Wiebke K. Fenske
IFB AdipositasErkrankungen
Telefon: +49 341 97-13306
E-Mail: wiebkekristin.fenske@medizin.uni-leipzig.de

Weitere Informationen:
http://www.ifb-adipositas.de
http://embomolmed.embopress.org/content/early/2016/05/31/emmm.201506085.long

Quelle: idw

(nach oben)


Glyphosat-Diskussion: Agrarwissenschaftler plädiert für gezielteren Einsatz statt Verbot

Florian Klebs Presse- und Öffentlichkeitsarbeit
Universität Hohenheim

Forscher der Universität Hohenheim für beschränkten und maßvollen Glyphosat-Einsatz / Anwender sollte Sachkunde nachweisen / Fruchtfolge beugt Schäden vor

Es ist effizient, kostengünstig, relativ umweltverträglich und verursacht kaum Unkrautresistenzen – und doch ist kein Pflanzenschutzmittel derzeit in der EU so umstritten wie Glyphosat. Die Kehrseite der Medaille: Es schmälert die Artenvielfalt, Rückstände finden sich zunehmend in Gewässern, Futter- und Nahrungsmitteln – und es steht im Verdacht, zu den krebserregenden Stoffen zu gehören. Prof. Dr. Günter Neumann von der Universität Hohenheim sieht mehr Sachverstand bei der Anwendung des Herbizids für dringend geboten. Er setzt sich für einen gezielteren Einsatz des Mittels ein. Doch ein komplettes Verbot hält er für kontraproduktiv – die Vorteile beim Einsatz in bodenschonenden Anbauverfahren seien derzeit nicht mit anderen Methoden zu erreichen.

Weltweit werden immer mehr glyphosathaltige Herbizide gegen Unkräuter eingesetzt – mit der Folge, dass sich auch zunehmend Rückstände in Gewässern und in der Nahrungskette finden. „In den vergangenen Jahren mehren sich Zweifel an der generellen Unbedenklichkeit von Glyphosat und der Zusatzstoffe im Spritzmittel“, berichtet Prof. Dr. Neumann, Agrarwissenschaftler an der Universität Hohenheim.

Die Fronten sind verhärtet: Bis Ende des Monats muss die EU-Kommission eine Entscheidung fällen, ob sie die Zulassung des Unkrautvernichters Glyphosat verlängert. „Da gibt es Pro und Contra auch jenseits der Diskussion, ob diese Substanz als wahrscheinlich krebserregend einzustufen ist oder nicht“, meint der Agrarwissenschaftler, „auch wenn die öffentliche Diskussion derzeit hauptsächlich darauf fokussiert.“

Er plädiert dafür den Einsatz von Glyphosat auf ein unbedingt nötiges Maß zu reduzieren.

Pro und Contra Glyphosat
„Glyphosat ist ein wichtiges und wertvolles ackerbauliches Werkzeug und sollte auch als solches behandelt werden. Es wirkt hocheffizient gerade bei Problemunkräutern und tötet auch die Wurzeln ab. Die Substanz ist vergleichsweise umweltverträglich und kostengünstig. Und im Gegensatz zu vielen anderen Wirkstoffen sind für Glyphosat zumindest in Europa bisher kaum Unkraut-Resistenzen bekannt.“

Allerdings setze man in anderen Ländern wie den USA, Brasilien und Argentinien besonders stark auf Anbausysteme mit Glyphosat-toleranten Kulturpflanzen, gibt der Experte zu bedenken. „Und dort treten aufgrund des langjährigen, intensiven Einsatzes von Glyphosat inzwischen vermehrt resistente Unkräuter auf. Hier wird also einer der wesentlichsten Vorteile des Wirkstoffs wissentlich verspielt.“

Auch negative Einflüsse von Glyphosat auf den Artenreichtum unserer Kulturlandschaften seien unumstritten, stellt Prof. Dr. Neumann fest: „Als Totalherbizid wirkt es schließlich auf alle Pflanzenarten.“

Beschränkungen und maßvoller Einsatz mit Sachverstand
Gerade vor diesem Hintergrund sei ein kritischer, bewusster Umgang mit der Substanz notwendig, betont Prof. Dr. Neumann. „Dass sie immer wieder in Oberflächengewässern zu finden ist, hängt oft mit unsachgemäßer Anwendung zusammen – vor allem auch außerhalb der Landwirtschaft. Glyphosat sollte daher nur noch von Personen mit Sachkundenachweis angewandt werden.“

Im Heimgartenbereich oder in Parks sollte es ganz verboten werden, und auch den unkontrollierten Verkauf über das Internet sieht der Experte kritisch: „Glyphosat galt viel zu lange als relativ unproblematisches Allheilmittel, und das muss sich ändern.“

In Heimgärten sei die Anwendung in Problembereichen wie Pflaster-Ritzen wegen der Abschwemmungsgefahr sowieso bereits strengstens verboten. In Beeten sei meist nur aufwendige Einzelpflanzenbehandlung möglich um benachbarte Zierpflanzen nicht zu gefährden. „Und die langsam dahinwelkenden, absterbenden Unkräuter ergeben für sehr lange Zeit auch ein recht unschönes Bild.“

Insgesamt sei es daher ein richtiger Schritt, meint Prof. Dr. Neumann, dass in Deutschland die Aufwandmengen in der Praxis begrenzt sind und Glyphosat nur noch im Notfall zur Beschleunigung der Abreife angewandt werden darf. „Im Einzelfall mag es aber sicherlich noch Anpassungsbedarf geben um flexibler auf Problemsituationen reagieren zu können.“

Zusatzstoffe und mögliche Wechselwirkungen berücksichtigen
Prof. Dr. Neumann lenkt das Augenmerk auf einen weiteren wunden Punkt: Die sogenannten Formulierungshilfsstoffe. Das sind Chemikalien, die zum Beispiel die Aufnahme der Substanz in die Pflanzen vermitteln.

„Die Sicherheitsbewertung bezieht sich bislang in erster Linie auf die Reinsubstanz. Und das ist realitätsfern, da die Möglichkeit von Wechselwirkungen mit den Zusatzstoffen besteht“, erklärt er.

Totalverbot würde Bodenschutz erschweren
Ein komplettes Verbot von Glyphosat sieht Prof. Dr. Neumann dagegen eher kritisch. Glyphosat spielt eine wichtige Rolle beim Resistenzmanagement und für den Anbau in Mulch- oder Direktsaat. Bei diesen Methoden erfolgt die Saat ohne vorheriges Pflügen, Pflanzenreste der Zwischen- oder Vorfrucht bedecken nach der Neuaussaat die Bodenoberfläche. Auf diese Weise bleibt der Boden vor Erosion geschützt und der Landwirt spart Zeit und Energie.

In eigenen Untersuchungen der Arbeitsgruppe konnten bisher in diesen Anbausystemen auch in keinem Fall Glyphosat-Rückstände in den oberirdischen Pflanzenteilen nachgewiesen werden, die eventuell später zur Kontamination von Ernteprodukten führen könnten.

„Ganz ohne das Totalherbizid, das den Unkrautbewuchs reguliert, wären diese wertvollen bodenschonenden Verfahren derzeit noch schwer umsetzbar – und Alternativen stecken, nicht zuletzt wegen des großen Erfolgs von Glyphosat, häufig noch in der Testphase.“

Alternativen zu Glyphosat noch nicht ausgereift
Deren Entwicklung voranzutreiben sei aber auf jeden Fall wichtig, betont Prof. Dr. Neumann. „Doch mechanische Verfahren zur Unkrautbekämpfung, etwa mit Messerwalzen, oder Neuentwicklungen wie der ‚Elektroherb‘ zur Unkrautbekämpfung mit Strom müssen erst noch ihre Wirtschaftlichkeit unter Beweis stellen.“

Ein Glyphosatverbot könne daher vom Regen in die Traufe führen: „Das würde wohl zunächst eher die Verwendung anderer herbizider Wirkstoffe begünstigen, die oft deutlich weniger untersucht und gegebenenfalls sogar problematischer sind als Glyphosat.“

Rückstandsprobleme kann Verbot in EU nicht lösen
Prof. Dr. Neumann geht auch davon aus, dass ein Totalverbot von Glyphosat das Problem der Rückstände in der Nahrungskette nicht grundlegend verändern würde. „Für die Futter- und Nahrungsmittelindustrie wird in großem Maßstab Soja importiert, und das stammt überwiegend von Glyphosat-resistenten Sorten.“

„Da in den Ursprungsländern aber auch immer mehr Unkräuter resistent sind, müssen die Felder häufiger und auch später in der Kulturperiode mit dem Herbizid behandelt werden“, warnt der Forscher. „Das erhöht das Risiko von Rückständen in den Ernteprodukten erheblich.“

Vielseitige Fruchtfolge gegen Glyphosat-Schäden
Doch auch im heimischen Ackerbau können selbst bei bestimmungsmäßigem Glyphosat-Gebrauch unerwartete Probleme auftreten: Verschiedene Landwirte, die mit Direktsaat arbeiten, haben beobachtet, dass der Ertrag bei langjähriger Anwendung über zehn und mehr Jahre immer weiter zurückging.

„Zunächst wurden vor allem die Wurzeln der Kulturpflanzen geschädigt. Die Herbizid-Rückstände im Boden und in den Resten der behandelten Unkräuter wurden erheblich langsamer abgebaut, die Aktivität der Mikroorganismen in den betreffenden Böden stark vermindert“, fasst Prof. Dr. Neumann die Ergebnisse zusammen. Die Symptome traten besonders bei langjährig engen Weizen/Raps-Fruchtfolgen oder Weizen-Monokulturen auf.

Um das zu vermeiden empfiehlt der Agrarwissenschaftler vielseitige Fruchtfolgen und den Anbau von Zwischenfrüchten. „Damit konnten die betroffenen Landwirte solche Schadeffekte inzwischen weitgehend vermeiden. Offenbar bedingt die höhere biologische Vielfalt im Anbausystem auch eine größere Vielfalt an Mikroorganismen im Wurzelraum – und damit auch einen beschleunigten Abbau der Herbizid-Rückstände. Und gleichzeitig leistet man damit auch ein Beitrag zur Artenvielfalt.“

Mehr Informationen: Expertenliste Glyphosat
Die Universität Hohenheim hat zur Diskussion um das Unkrautvernichtungsmittel Glyphosat eine Liste mit Experten zu diesem Thema herausgegeben – zu finden unter www.uni-hohenheim.de/expertenliste-glyphosat

Kontakt für Medien:
Prof. Dr. Günter Neumann, Universität Hohenheim, Fachgebiet Ernährungsphysiologie der Kulturpflanzen
T 0711 459 24273, E guenter.neumann@uni-hohenheim.de

Text: Elsner

Quelle: idw

(nach oben)


Immer mehr Menschen arbeiten auch im Ruhestand

Sylvia Nagel Presse- und Öffentlichkeitsarbeit
Deutsches Zentrum für Altersfragen

Die neuesten Ergebnisse des Deutschen Alterssurveys (DEAS) wurden Anfang Juni 2016 von Bundesfamilienministerin Manuela Schwesig und Prof. Dr. Clemens Tesch-Römer (Deutsches Zentrum für Altersfragen) vorgestellt. Im DEAS werden seit 1996 Menschen zu ihrer Lebenssituation in der zweiten Lebenshälfte befragt, er ist die wichtigste Langzeitstudie über das Altern in Deutschland.

Ältere Menschen sind immer länger erwerbstätig und arbeiten häufiger über den Rentenbeginn hinaus. Vor 20 Jahren waren 5 Prozent der Menschen im Ruhestand erwerbstätig, heute sind es 12 Prozent. Projektleiterin Dr. Katharina Mahne erläutert: „Dabei sind es selten nur materielle Gründe, die die Älteren dazu bewegen zu arbeiten. Gleichzeitig ist bedenklich, dass immer mehr Menschen kein direkter Übergang vom Erwerbsleben in die Rente gelingt, sondern sie vor dem Ruhestand eine Phase der Arbeitslosigkeit erleben.“

Das bisschen Haushalt… – Bei der Aufteilung der Hausarbeit hat sich wenig geändert
Obwohl die Erwerbsbeteiligung der Frauen steigt, hat sich wenig bei der Aufteilung der Hausarbeit getan. Für Frauen steigt somit auch die Mehrfachbelastung durch Erwerbsarbeit, Kindererziehung, Pflege von Angehörigen und Hausarbeit. Frauen sind selbst dann, wenn beide Partner in Vollzeit erwerbstätig sind, in fast der Hälfte der Fälle für die Hausarbeit zuständig.

Es gibt viele Verbesserungen im Alter, aber auch problematische Entwicklungen
Ältere Menschen sind heute aktiver als vor 20 Jahren: Sie engagieren sich häufiger ehrenamtlich, sie treiben mehr Sport und sind mehrheitlich sozial gut eingebunden. Trotz wachsender Wohnentfernungen zwischen Eltern und erwachsenen Kindern zeichnen sich die Beziehungen durch häufigen Kontakt aus und werden als eng beschrieben. Zudem wird das soziale Netzwerk zunehmend um Freundinnen und Freunde erweitert, die ebenfalls Rat und Trost spenden können. Kein Wunder also, dass die Vorstellungen über das eigene Älterwerden positiver geworden sind und ältere Menschen sich nicht einsamer fühlen als jüngere.
Bedenklich dagegen ist, neben den weiterhin bestehen Unterschieden zwischen den Geschlechtern, der Einfluss der Bildungsniveaus: „Menschen mit niedriger Bildung sind weniger gesund, neigen eher zu Depressionen und sind materiell schlechter gestellt als Menschen mit hoher Bildung. Die Bildungsungleichheit zieht sich bis ins hohe Alter: seit 1996 gibt es eine starke Zunahme der Einkommensarmut bei Personen mit niedrigem Bildungsniveau“, sagt Prof. Dr. Clemens Tesch-Römer, Leiter des Deutschen Zentrums für Altersfragen.

Die zukünftigen Alten: mit neuen Stärken – vor neuen Herausforderungen
Für die jüngeren Altersgruppen gilt: Sie sind höher gebildet als die Vorgängergenerationen und ihre Bereitschaft zur beruflichen Mobilität ist hoch. Jedoch sind ihre Erwerbsverläufe vielfältiger und brüchiger im Vergleich zu denen der Älteren – auch aufgrund des veränderten Arbeitsmarktes. Dies wird sich auch auf ihre Rentenhöhe im Alter auswirken.
Auch nimmt in den jüngeren Altersgruppen der Anteil der Menschen ohne Partnerin oder Partner zu, Partnerschaften sind weniger stabil und es gibt mehr Kinderlose. Inwieweit Freundschaften im Alter den Bedarf an Rat, Trost und Unterstützung auffangen können, bleibt abzuwarten.

Der Bericht ‚Altern im Wandel – Zwei Jahrzehnte Deutscher Alterssurvey (DEAS)‘ wurde vom Deutschen Zentrum für Altersfragen (DZA) im Auftrag des Bundesministeriums für Familie, Senioren, Frauen und Jugend (BMFSFJ) erstellt.

Vollständiger Bericht, Tabellenband und Kurzfassung: www.dza.de/forschung/deas

Weitere Informationen:
http://www.dza.de/forschung/deas

Quelle: idw

(nach oben)


Ein grüner Alleskönner aus Orangenschalen und Kohlendioxid: Grundlage für neue Kunststoffe

Christian Wißler Mediendienst Forschung
Universität Bayreuth

Man nehme Orangenschalen, entziehe ihnen den Naturstoff Limonen, oxidiere ihn und verbinde ihn mit Kohlendioxid: Und schon hat man einen biobasierten Kunststoff, aus dem sich ohne hohe Kosten umweltfreundliche Funktionsmaterialien für verschiedenste industrielle Anwendungen herstellen lassen. ‚PLimC‘ ist der Name dieses grünen Alleskönners, der es erstmals ermöglicht, allein auf der Basis nachwachsender Rohstoffe ein breites Spektrum leistungsstarker Kunststoffe herzustellen. Dies hat jetzt ein Forschungsteam an der Universität Bayreuth herausgefunden, das seine Ergebnisse im Wissenschaftsmagazin ‚Nature Communications‘ vorstellt.

PLimC ist ein Polycarbonat, das aus einer Synthese von Limonenoxid (Betonung: Limonénoxid) mit Kohlendioxid hervorgeht. So ist gewährleistet, dass es im Unterschied zu herkömmlichen Polycarbonaten nicht die gesundheitsschädliche Substanz Bisphenol A enthält. Zudem bringt der neue bio-basierte Kunststoff eine Reihe von Eigenschaften mit, die ihn für industrielle Anwendungen attraktiv machen: PLimC ist hart, äußerst hitzebeständig und durchsichtig und eignet sich deshalb besonders gut als Material für Beschichtungen. „Diese Erkenntnisse, die wir bereits im vorigen Jahr veröffentlicht haben, konnten wir jetzt mit unserer neuen Studie entscheidend erweitern“, erklärt Prof. Dr. Andreas Greiner, der Leiter des Bayreuther Forschungsteams. „Wir haben an einigen konkreten Beispielen gezeigt, dass sich PLimC hervorragend als Grundstoff eignet, aus dem sich vielseitige Kunststoffe mit sehr spezifischen Eigenschaften entwickeln lassen. PLimC besitzt nämlich eine Doppelbindung, die gezielt für weitere Synthesen genutzt werden kann.“

Ein Beispiel für solche neuen PLimC-basierten Kunststoffe sind antimikrobielle Polymere, die beispielsweise imstande sind, eine Anlagerung von E.Coli-Bakterien zu verhindern. Als Materialien für Behälter, die in der medizinischen Versorgung und Pflege zum Einsatz kommen, können sie das Infektionsrisiko nicht zuletzt in Krankenhäusern deutlich senken. Auch für die Herstellung von Kunststoff-Implantaten, von denen möglichst keine Entzündungsrisiken ausgehen sollen, können solche Polymere interessant sein. Ein anderes Beispiel sind meerwasserlösliche Polymere, die sich im salzigen Meerwasser in ökologisch unbedenkliche Bestandteile auflösen und anschließend zersetzen. Solche Kunststoffe könnten, wenn sie künftig für Flaschen, Tüten oder andere Behälter verwendet werden, der dramatisch ansteigenden Verschmutzung der Meere durch nicht-lösliche Plastik-Partikel entgegenwirken. PLimC ist ebenso ein Grundstoff für hydrophile Polymere. Diese wiederum haben den Vorteil, dass sie eine hohe Wechselwirkung mit Wasser aufweisen und dadurch vergleichsweise schnell von Mikroorganismen abgebaut werden können.

„Wenn wir gezielt neue Materialien auf der Grundlage von PLimC entwickeln wollen, sind der Phantasie fast keine Grenzen gesetzt“, erklärt Oliver Hauenstein M.Sc., der als Doktorand entscheidende Forschungsarbeiten zur Synthese und Anwendung dieses neuen Kunststoffs geleistet hat. „Die Herstellung von PLimC ist einfach zu handhaben und ausgesprochen umweltfreundlich. Die Schalenabfälle von Unternehmen, die Orangensäfte produzieren, können recycelt werden, und ebenso kann das Treibhausgas CO2 verwertet werden, bevor es in die Atmosphäre entweicht. Zudem sind die vielfältigen Kunststoffe, die auf Basis von PLimC ohne großen technischen oder finanziellen Aufwand synthetisiert werden können, ökologisch unbedenklich und recyclebar.“

Prof. Greiner fügt hinzu: „Die Kunststoff-Industrie steht ja häufig unter dem Verdacht, dass sie ihre technologischen Fortschritte nur mit ökologisch bedenklichen Materialien erzielen kann, was so natürlich nicht richtig ist. Unsere Forschungsergebnisse zeigen klar: Moderne Kunststoffe können umweltfreundlich sein und zugleich sehr hohen technologischen Anforderungen gerecht werden.“

Veröffentlichungen:
O. Hauenstein, S. Agarwal and A. Greiner, Bio-based polycarbonate as synthetic toolbox, Nature Communications 2016, DOI: 10.1038/ncomms11862
=> http://www.nature.com/ncomms/2016/160615/ncomms11862/full/ncomms11862.html

O. Hauenstein, M. Reiter, S. Agarwal, B. Rieger and A. Greiner, Bio-based polycarbonate from limonene oxide and CO2 with high molecular weight, excellent thermal resistance, hardness and transparency, Green Chem. 2016, 18, 760. DOI: 10.1039/c5gc01694k

Kontakt:
Prof. Dr. Andreas Greiner
Lehrstuhl Makromolekulare Chemie II
Universität Bayreuth
95447 Bayreuth
Telefon: +49 (0)921 55 3399
E-Mail: andreas.greiner@uni-bayreuth.de

Quelle: idw

(nach oben)


Was alles so drin ist im Muntermacher: Kaffee ist eine Herausforderung für die Risikobewertung

Dr. Suzan Fiack Presse- und Öffentlichkeitsarbeit
Bundesinstitut für Risikobewertung (BfR)

Gefahrenbasierte Einstufung von geringer Aussagekraft für Verbraucherinnen und Verbraucher

Nach der am 15. Juni 2016 veröffentlichten Gefahreneinstufung von Kaffee durch die bei der Weltgesundheitsorganisation (WHO) angesiedelte Internationale Krebsagentur (IARC) weist das Bundesinstitut für Risikobewertung (BfR) darauf hin, dass die Gefahreneinschätzung von komplexen Gemischen, wie sie Lebensmittel darstellen, für Verbraucherinnen und Verbraucher nur von begrenzter Aussagekraft sind. „Jedes Lebensmittel kann regelmäßig, aber meist nur in Spuren Stoffe enthalten, die ein krebserregendes Potential haben. Daneben sind allerdings oft auch gesundheitsfördernde Stoffe wirksam“, sagt BfR-Präsident Professor Dr. Dr. Andreas Hensel. „Lebensmittel wie Kaffee oder Fleisch sind in der Regel viel zu komplexe Gemische, um allgemeine Aussagen über ihr krebserregendes Potential ableiten zu können, die für Verbraucher von praktischem Nutzen wären.“ Die IARC stuft in ihrer heute vorab veröffentlichten Studie Kaffee als „nicht klassifizierbar bezüglich seiner Kanzerogenität für Menschen“ (Gruppe 3) ein.

Kaffee enthält neben verschiedenen die Gesundheit fördernden Stoffen auch solche Inhaltsstoffe, die isoliert beim Menschen krebserregende Wirkungen haben können. Dazu zählen u. a. Furan, Acrylamid und Polyzyklische Aromatische Kohlenwasserstoffe (PAK). Darüber hinaus kann Koffein gesundheitlich schädliche Wirkungen haben. Allerdings lässt sich bisher durch die Gesamtheit der verfügbaren Studien kein krebserregendes Potential durch Kaffee belegen. Wie auch bei anderen Lebensmitteln kann es zwei Ursachen für die unterschiedliche Wirkung der isolierten Inhaltsstoffe und des gesamten Lebensmittels geben. Zum einen ist es möglich, dass innerhalb des Lebensmittels einige Substanzen die potentiell schädlichen Wirkungen von anderen Substanzen mildern oder neutralisieren. Zum anderen ist es möglich, dass der Gehalt an unerwünschten Stoffen so niedrig ist, dass in verfügbaren Studien bei üblichem Konsum keine schädlichen Wirkungen zu beobachten sind.

Die IARC hat seit Beginn ihres Bestehens 989 Chemikalien, Substanzen, Lebensmittel oder Tätigkeiten auf ihr krebserregendes Potential untersucht (Stand laut IARC von Februar 2016). Darunter wurde bisher nur ein Stoff in die Gruppe 4 als „wahrscheinlich nicht kanzerogen bei Menschen“ eingestuft. Die Einstufungen der IARC werden unabhängig von Zulassungs- oder Genehmigungsverfahren durchgeführt. Im Unterschied zum BfR, das die möglichen gesundheitlichen Risiken bewertet, beurteilt die IARC ausschließlich das Gefahrenpotential eines Stoffes. Bei der Risikobewertung wird zusätzlich zum Gefahrenpotential auch die tatsächliche Aufnahmemenge (Exposition) berücksichtigt.

Die IARC veröffentlichte die Zusammenfassung ihrer Monographie zu Heißgetränken, Mate-Tee und Kaffee vorab. Darin stuft die IARC Kaffee als „nicht klassifizierbar bezüglich der Kanzerogenität beim Menschen“ (Gruppe 3) ein und ändert damit ihre Klassifizierung von Kaffee, den sie 1991 noch als „möglicherweise kanzerogen beim Menschen“ (Gruppe 2B) einstufte.

Unabhängig von der Einschätzung des krebserregenden Potentials bei Kaffee hat das BfR wiederholt auf das gesundheitliche Risiko durch Koffein hingewiesen. Koffein kann bei Erwachsenen zu Nervosität, Schlaflosigkeit, Herzrhythmusstörungen, erhöhtem Blutdruck und gastrointestinalen Störungen führen.

Für gesunde Erwachsene gilt die Aufnahme von bis zu 200 mg Koffein innerhalb kurzer Zeit als gesundheitlich unbedenklich. Dies entspricht etwa zwei Bechern Filterkaffee. Über den Tag verteilt können Erwachsene etwa das Doppelte trinken. Schwangere und Stillende sollten über den Tag verteilt nicht mehr als zwei Becher Kaffee trinken, Kinder sollten Kaffee meiden. Die Empfindlichkeit gegenüber Koffein kann individuell sehr verschieden sein. So führt bei manchen Personen schon eine Tasse Kaffee zu Schlafstörungen. Empfindliche Personen sollten auf den Konsum von Koffein, insbesondere in höheren Dosen, verzichten.

Über das BfR
Das Bundesinstitut für Risikobewertung (BfR) ist eine wissenschaftlich unabhängige Einrichtung im Geschäftsbereich des Bundesministeriums für Ernährung und Landwirtschaft (BMEL). Es berät die Bundesregierung und die Bundesländer zu Fragen der Lebensmittel-, Chemikalien- und Produktsicherheit. Das BfR betreibt eigene Forschung zu Themen, die in engem Zusammenhang mit seinen Bewertungsaufgaben stehen.

Weitere Informationen:
http://www.bfr.bund.de/de/mediathek.html
Ein Video zu gesundheitlichen Risiken durch Kaffee in der BfR-Mediathek

Quelle: idw

(nach oben)


Hochwasserschutz leicht gemacht

Dipl.-Ing. Mario Steinebach Pressestelle
Technische Universität Chemnitz

Wissenschaftler der TU Chemnitz haben ein temporäres Systems zum Schutz gegen Hochwasser entwickelt – Herzstück ist eine textile Membran, die das Wasser aufhält und die wirkenden Kräfte ableitet

Hochwasser kann innerhalb von Stunden aus Flüssen und Bächen reißende Wassermassen machen. Rettungskräfte sowie die Bewohner der betroffenen Städte und Dörfer haben oft nur wenig Zeit, auf die herannahende Bedrohung zu reagieren. Häufig reichen permanent angelegte Dammanlagen nicht aus. Wissenschaftler des Forschungsbereiches Leichtbau im Bauwesen der Professur Strukturleichtbau und Kunststoffverarbeitung der Technischen Universität Chemnitz haben gemeinsam mit Partnern ein temporäres System entwickelt, das schnell und mit geringem Personalbedarf installiert werden kann und sich durch geringe Anschaffungskosten, unkomplizierte Lagerung und eine hohe Lebensdauer auszeichnet. Dieses kann für die Dauer eines Hochwassers – in der Regel wenige Tage im Jahr – aufgebaut werden.

Basis des Systems ist eine Entwicklung der 3dtex GmbH aus Berlin. Das System besteht aus einem Fundament, aus Stützen und einer textilen Membran. Es kann am Ufer von stehenden oder fließenden Gewässern bodeneben installiert werden und lässt sich im Bedarfsfall mit wenig Aufwand zum Einsatz bringen. Das Fundament hat die Form einer Rinne und dient gleichzeitig für die Aufbewahrung des Systems. Die Stützen wirken während der Lagerung als Abdeckung dieser Rinne. Im Einsatzfall halten sie die textile Membran, die letztlich den Schutz gegen das Wasser bietet. Die Chemnitzer Wissenschaftler waren zuständig für Simulationen der Strömung und der Mechanik, für Tests im Strömungskanal, für die Entwicklung der Stützen und die Auslegung der Abspann- und Verankerungssysteme sowie für die Materialprüfung der Membran, der Stützen und der Abspannung. Das entstandene System genügt den Anforderungen, die der Bund der Ingenieure für Wasserwirtschaft, Abfallwirtschaft und Kulturbau (BWK) e. V. in seinem „Merkblatt – Mobile Hochwasserschutzsysteme“ festhält.

„Die Besonderheit bei diesem System liegt in der Ableitung der im Hochwasserfall wirkenden großen Lasten, die auf die Bauteile wirken“, sagt Dr. Sandra Gelbrich, Leiterin des Forschungsbereiches Leichtbau im Bauwesen, und erklärt: „Bei vielen bekannten temporären Stauwandsystemen resultieren aus dem Wasserdruck hohe Biegemomente, die insbesondere auf Stützen und Fundamente einwirken. Entsprechend groß ist der konstruktive und materielle Aufwand dieser Anlagen. Der konstruktive Vorteil des neuen Systems liegt in der Vermeidung dieser Biegemomente.“ Die Lösung der Chemnitzer Forscher ist eine flexible, wenig dehnbare Membran. Diese besteht aus PVC und ist mit Textilien verstärkt. Sie formt sich unter dem Wasserdruck definiert aus und reagiert ausschließlich mit Zugspannungen. Abgeleitet werden die Kräfte zum einen über die Membranverankerung in den Boden und zum anderen über die Membranrandverstärkungen in die Stützen.

Selbst wenn Treibgut gegen das System prallt, wirken nahezu ausschließlich Normalkräfte in den Stützen. „Diese können somit extrem schlank und leicht ausgeführt werden“, erklärt Gelbrich. Dies haben die Entwickler durch eine spezielle Geometrie der Membran und eine bestimmte Anordnung der Komponenten erreicht. Die Konstruktion lässt Stauhöhen bis 1,50 Meter zu. Treibgutanprall hält sie nachweislich bis 400 Kilogramm aus – getestet bei einem Aufprallwinkel von 90 Grad zur Fließrichtung und einer Geschwindigkeit von vier Metern pro Sekunde. „Die leichtbaugerechte Ausführung lässt den Aufbau selbst mehrerer hundert Meter Hochwasserschutz problemlos durch zwei Personen zu“, hebt Gelbrich hervor.

Das Projekt „Textiler Hochwasserschutz – Produktentwicklung eines effizient errichtbaren Hochwasserschutzsystems“ wurde von März 2013 bis September 2015 von der Arbeitsgemeinschaft industrieller Forschungsvereinigungen gefördert. Das Volumen des Teilprojektes an der TU Chemnitz lag bei rund 175.000 Euro. Partner der Chemnitzer Forscher waren neben der 3dtex GmbH die Karsten Daedler e.K. und das Ingenieurbüro Schulze & Rank.

Weitere Informationen erteilt Dr. Sandra Gelbrich, Leiterin des Forschungsbereiches Leichtbau im Bauwesen, Telefon 0371 531-32192, E-Mail sandra.gelbrich@mb.tu-chemnitz.de.

Quelle: idw

(nach oben)


Sommerurlaub 2016: Auf Reisen ist Impfschutz ebenso wichtig wie Sonnenschutz

Rita Wilp externe Pressestelle
Deutsche Leberstiftung

Der Sommer-Urlaub 2016 steht bei vielen Menschen an. Die Vorfreude auf unbeschwerte Tage ist groß. Eine Reise ans Mittelmeer oder in die Tropen ist bereits gebucht oder ein Last Minute-Schnäppchen wird noch gesucht. Auf den Checklisten fürs Kofferpacken ist „Sonnenschutz“ ganz selbstverständlich aufgeführt: Sonnenbrille, Sonnenhut und Sonnenschutzmittel – die Gefahren starker UV-Strahlung kennt heute jeder. Doch nicht nur die Sonne ist in vielen beliebten Reiseländern ein Gesundheitsrisiko: Die Deutsche Leberstiftung weist auf die Gefahr hin, sich im Urlaubsland mit einer gefährlichen Virushepatitis zu infizieren.

Urlaubsrisiko: Hepatitis A-Virus
In vielen beliebten Reisegebieten – wie beispielsweise in der Mittelmeer-Region und in den Tropen – sind Hepatitis A-Viren weit verbreitet. Deshalb zählt Hepatitis A zu den typischen „Reisekrankheiten“. Da das Virus sehr widerstandsfähig ist und auch ungünstige Umweltbedingungen wie hohe Temperaturen oder viele Desinfektionsmittel überlebt, ist die Ansteckungsgefahr groß. So kann es nach dem Verzehr von ungenügend gegartem Gemüse oder dem Trinken von belastetem oder verunreinigtem Trinkwasser (auch als Eiswürfel) zu einer Infektion mit dem Virus kommen. Sogar eine Schmierinfektion durch direkten Kontakt zwischen Menschen ist möglich. „Viele Urlauber glauben, wenn sie den ganzen Urlaub in einer separaten Hotelanlage verbringen, wären sie vor einer Ansteckung sicher. Doch das ist ein Irrglaube, auch hier können sie sich über kontaminierte Lebensmittel oder eine Schmierinfektion anstecken“, betont Prof. Dr. Michael P. Manns, Vorstandsvorsitzender der Deutschen Leberstiftung.

Eine Hepatitis A klingt zwar bei gesunden Menschen in der Regel nach einer Weile von selbst ab, doch bei älteren oder kranken Menschen kann eine Hepatitis A auch zu einem akuten Leberversagen führen. Eine wirkungsvolle Impfung schützt vor Hepatitis A. Selbst kurz vor Antritt der Reise ist es nicht zu spät für die Impfung.

Urlaubsrisiko: Hepatitis B-Virus
Ein weiteres Infektionsrisiko im Urlaub ist das Hepatitis B-Virus. Die Ansteckung erfolgt über Körpersekrete wie Blut, Sperma oder Speichel. Neben ungeschütztem Sex zählen Tätowierungen oder Piercings, die nicht steril durchgeführt werden, zu den häufigsten Übertragungswegen. Auch bei Kontakten mit der Gefahr kleinster Hautverletzungen wie beim Barbier, bei der Fußpflege oder bei unvorhergesehenen ärztlichen und zahnärztlichen Behandlungen besteht ein Infektionsrisiko, wenn unhygienische Bedingungen herrschen. Meist bemerken Infizierte nichts von ihrer Erkrankung. Kommt es jedoch zu einer chronischen Entzündung, besteht ein erhöhtes Risiko für bindegewebsartige Veränderungen der Leber (Fibrose) oder Zirrhose. Vor allem bei einer bestehenden Zirrhose ist das Risiko für einen Leberzellkrebs deutlich erhöht. Größtmöglichen Schutz vor einer Übertragung des Hepatitis B-Virus gewährleistet eine entsprechende Impfung.

Die Verwendung von Kombinations-Impfstoffen, die gegen Hepatitis A und B schützen, vermindert die Anzahl der notwendigen Injektionen. „Die Wichtigkeit von hohen Schutzfaktoren beim Sonnen in südlichen Ländern ist den meisten Menschen bekannt, ich hoffe, dass auch die Gefahren durch Hepatitis-Viren und die Schutzwirkung von Impfungen zukünftig ebenso ins öffentliche Bewusstsein gelangen“, sagt Prof. Manns.

Eine kombinierte Impfung gegen Hepatitis A und B schützt für mehrere Jahre gegen eine Neuinfektion. Die Impfung erfolgt in drei Etappen: Die erste und zweite Spritze werden in einem Abstand von einem Monat gegeben; die dritte Spritze erfolgt nach weiteren sechs Monaten. Bei gesunden Erwachsenen besteht die Möglichkeit, durch ein beschleunigtes Impfschema an den Tagen 0, 7 und 21 den Impfschutz schneller zu erreichen. Die Impfungen sind gut verträglich.

Eine Impfung gegen Hepatitis B schützt auch vor Hepatitis delta, da diese Erkrankung nur mit einer Hepatitis B gemeinsam vorkommen kann.

Urlaubsrisiko: Hepatitis C-Virus
Das Hepatitis C-Virus wird fast ausschließlich über Blut-Kontakte übertragen. Zu den Haupt-Infektionswegen zählen unsterile Tätowiernadeln, Piercings oder Rasiermesser. In einigen Regionen Asiens oder Afrikas tragen mehr als fünf Prozent der Bevölkerung das Hepatitis C-Virus in sich. Eine Impfung gibt es gegen Hepatitis C nicht. Es gibt heute sehr gut wirkende Therapien gegen eine Hepatitis C-Virusinfektion. Allerdings wird auch diese Erkrankung oft spät erkannt und kann unbehandelt in einer Leberzirrhose oder einem Leberzellkrebs münden.

„Auch wenn die Infektion mit einem Hepatitis-Virus in vielen Fällen schon gut behandelt werden kann – wenn sie denn entdeckt wird – ist natürlich die Vermeidung einer Infektion durch entsprechende Vorsichtsmaßnahmen immer noch der beste Schutz der Gesundheit“, ruft Prof. Manns zur Vorsorge, beispielsweise durch Impfungen auf.

10 Jahre Deutsche Leberstiftung
Die Deutsche Leberstiftung befasst sich mit der Leber, Lebererkrankungen und ihren Behandlungen. Sie hat das Ziel, die Patientenversorgung durch Forschungsförderung und eigene wissenschaftliche Projekte zu verbessern. Durch intensive Öffentlichkeitsarbeit steigert die Stiftung die öffentliche Wahrnehmung für Lebererkrankungen, damit diese früher erkannt und geheilt werden können. Die Deutsche Leberstiftung bietet außerdem Information und Beratung für Betroffene und Angehörige sowie für Ärzte und Apotheker in medizinischen Fragen. Diese Aufgaben erfüllt die Stiftung seit ihrer Gründung vor zehn Jahren sehr erfolgreich. Weitere Informationen: www.deutsche-leberstiftung.de.

BUCHTIPP: „Das Leber-Buch“ der Deutschen Leberstiftung informiert umfassend und allgemeinverständlich über die Leber, Lebererkrankungen, ihre Diagnosen und Therapien – jetzt in zweiter, aktualisierter Auflage! „Das Leber-Buch“ ist im Buchhandel erhältlich: ISBN 978-3-89993-642-1, € 16,95: www.deutsche-leberstiftung.de/Leber-Buch.

Kontakt:
Deutsche Leberstiftung
Bianka Wiebner
Carl-Neuberg-Straße 1
30625 Hannover
Tel 0511 – 532 6815
Fax 0511 – 532 6820
presse@deutsche-leberstiftung.de
www.deutsche-leberstiftung.de

Weitere Informationen:
http://www.deutsche-leberstiftung.de
presse@deutsche-leberstiftung.de

Quelle: idw

(nach oben)


Nach den Unwettern kommen die Mücken – Mückenatlas bittet um Zusendungen

Dipl.-Biologin Elke Reinking Presse- und Öffentlichkeitsarbeit
Friedrich-Loeffler-Institut, Bundesforschungsinstitut für Tiergesundheit

Die aktuelle Wetterlage mit starken Niederschlägen und sommerlichen Temperaturen bietet ideale Fortpflanzungsmöglichkeiten für Stechmücken. Potenzielle Brutplätze bilden sich auf Wiesen, in Parks und Wäldern und im Siedlungsbereich, z.B. in Regentonnen. In kürzester Zeit sind bis zu 300 Eier pro Mückenweibchen abgelegt, und die Brut benötigt bei den vorliegenden klimatischen Bedingungen nur ca. 2 Wochen bis zum Schlupf der neuen Generation. Nach den größtenteils niederschlagsarmen Jahren 2014 und 2015 mit eher geringen Populationsdichten der Stechmücken könnte die aktuelle Situation ein Startschuss für ein hohes Aufkommen in der Mückensaison 2016 sein.

Wann, wo und mit welchen Arten die Mücken in Deutschland vorkommen, kartiert mit Hilfe interessierter Bürger der Mückenatlas – ein Projekt, welches vom Leibniz-Zentrum für Agrarlandschaftsforschung (ZALF) und vom Friedrich-Loeffler-Institut, Bundesforschungsinstitut für Tiergesundheit (FLI), etabliert wurde.

Die Wissenschaftler konnten zuletzt mit Hilfe der Mückenatlas-Einsendungen Ansiedlungen der Asiatischen Buschmücke (Aedes japonicus) in Nordrhein-Westfalen, Rheinland-Pfalz, Niedersachsen, Baden-Württemberg, Bayern und Thüringen nachweisen. Die als potenzieller Überträger von Krankheitserregern ungleich gefährlicher einzuschätzende Asiatische Tigermücke (Aedes albopictus) wurde hingegen in Baden-Württemberg und Thüringen gefunden.

„Durch die in Europa in den letzten Jahren zunehmenden Ausbrüche von Stechmücken übertragenen Krankheiten, wie Dengue-, Westnil- oder Chikungunya-Fieber, sowie den jüngsten Zika-Virus-Ausbruch in Südamerika wurde die aktuelle Bedeutung von Stechmücken als Krankheitsüberträger unter Beweis gestellt. Zur Risikoabschätzung benötigen wir dringend Daten zur Verbreitung der in Deutschland vorkommenden invasiven und einheimischen Arten.“ sagt Dr. Doreen Walther vom ZALF und bittet um Mithilfe bei dem Projekt Mückenatlas.

Da es in Deutschland bisher kein Überwachungs- oder Meldesystem über das Vorkommen medizinisch relevanter Stechmückenarten gab, wurden vom Bundesministerium für Ernährung und Landwirtschaft zwei Verbundprojekte zur deutschlandweiten Überwachung und Erforschung von Stechmücken ins Leben gerufen, in die der Mückenatlas integriert ist.
Näheres zum Mückenatlas und zur Möglichkeit der Einsendung von Stechmücken finden sich unter www.mueckenatlas.de.

Kontakt:
Dr. Doreen Walther
Institut für Landnutzungssysteme
Leibniz-Zentrum für Agrarlandschaftsforschung (ZALF) e. V.
Telefon 033432 82-363
doreen.walther@zalf.de

Weitere Informationen:
http://www.mueckenatlas.de

Quelle: idw

(nach oben)


„Umweltschutz ist eine Aufgabe, die uns unser Leben lang begleitet“

Franz-Georg Elpers Pressestelle
Deutsche Bundesstiftung Umwelt (DBU)

Berlin. „Umweltschutz ist ein bedeutender zivilisatorischer Lernprozess, mühsam und langwierig. Diesen Lernprozess müssen wir mit Kreativität und Leidenschaft vorantreiben, bisweilen auch gegen kurzfristige Interessen – über alle Generationen hinweg, weil Jung und Alt gleichermaßen Ressourcen verbrauchen. Umweltschutz ist also eine Aufgabe, die uns unser Leben lang begleitet.“ – Mit diesen Worten eröffnete heute Bundespräsident Joachim Gauck mit der DBU-Kuratoriumsvorsitzenden Rita Schwarzelühr-Sutter im Park von Schloss Bellevue in Berlin die fünfte „Woche der Umwelt“ des Bundespräsidenten und der Deutschen Bundesstiftung Umwelt (DBU). Speziell begrüßte Gauck, dass bei dieser „Woche der Umwelt“ junge Menschen besonders engagiert seien. Gauck: „Viele der Jüngeren wollen dazu beitragen, den Zerstörungen, die wir unserem Planeten schon zugefügt haben, Einhalt zu gebieten. Wir brauchen viele, wir brauchen sehr viele, die mit Pioniergeist den Schutz unserer natürlichen Lebensgrundlagen weiter vorantreiben.“

Der Bundespräsident unterstrich, dass die Botschaft von Johannes Rau, Umweltfragen dürften nicht in den Hintergrund gedrängt werden, aktuell sei, auch wenn Rau das als Bundespräsident bereits bei der ersten „Woche der Umwelt“ vor 14 Jahren formuliert habe. Ob bei Produkt und Konsum, dem Abbau von Rohstoffen, der Energiever- und Abfallentsorgung, der Städte- und Verkehrsplanung und der Bildung – überall sei Umweltschutz gefragt. Zusammenhänge besser zu erkennen und dann vernetzend tätig zu werden, sei eine der großen Herausforderungen für den Umweltschutz. Schutz und Schonung natürlicher Lebensgrundlagen könne allerdings nur durch die Mobilisierung möglichst vieler Kräfte gelingen und bei der „Woche der Umwelt“ als Schaufenster umweltfreundlicher Initiativen und Technologien fänden sich dafür zahlreiche Mitstreiterinnen und Mitstreiter.

Zusätzlicher Schwung werde gerade jetzt gebraucht, wo international ehrgeizige Ziele für nachhaltige Entwicklung und Klimaschutz festgelegt worden seien. Zwar sei die Staatengemeinschaft von vielen ihrer Ziele weit entfernt. Und auch national müsse man sich in Deutschland erheblich anstrengen, die internationalen Versprechen zu Nachhaltigkeit und Klimaschutz einzulösen. Hoffnungsvoll stimmten aber Erfolge beim Klimaschutz. 2014 sei global das erste Jahr seit Jahrzehnten, in dem die Wirtschaft gewachsen, dennoch die Treibhausgasemissionen der Energiebranche gesunken seien. Und die klimaschädlichen Emissionen in Deutschland seien im vergangenen Vierteljahrhundert um 27 Prozent zurückgegangen.

Die Energiewende werde uns noch über Jahre fordern. Die Verluste in der Tier- und Pflanzenwelt seien mittlerweile so alarmierend, dass die Vereinten Nationen die gegenwärtige Dekade dem Schutz der biologischen Vielfalt gewidmet haben. Artensterben habe es zwar auch früher gegeben. Aber jetzt sei es vor allem der Mensch, der die Verluste verursache. Schon mehr als die Hälfte des tropischen Regenwaldes, wo die meisten Arten lebten, sei gerodet. Die Staatengemeinschaft zähle den Bestand von Tier- und Pflanzenarten inzwischen zu den sogenannten planetaren Leitplanken, ein Orientierungsrahmen, der helfen könne, die Stabilität der Erde zu bewahren, sofern bestimmte Grenzwerte zum Schutz von Boden, Wasser, Luft, Flora und Fauna beachtet werden. Gauck: „Was wir essen, wie wir uns kleiden, wie wir wohnen, wie wir wirtschaften und wie wir uns fortbewegen – all das spielt eine Rolle für den Zustand der Meere und Flüsse, der Wälder, Graslandschaften und Felder und der dort lebenden Tiere und Pflanzen – und damit für die Lebensqualität, die wir für uns und unsere Kinder erhalten wollen.“

DBU-Kuratoriumsvorsitzende Rita Schwarzelühr-Sutter lobte die Entschiedenheit des Bundespräsidenten, dem Anliegen des Umweltschutzes und damit einer der zentralen Grundlagen der gesellschaftlichen Vielfalt und zukünftigen Entwicklung mit der Veranstaltung Nachdruck zu verleihen. Umweltschutz brauche „möglichst viele Menschen, die sich in ganz unterschiedlichen Bereichen engagieren, die gesellschaftlich und unternehmerisch Verantwortung übernehmen, Menschen, die an morgen und auch an übermorgen denken“. Es liege „an uns, die Grundlagen dafür zu schaffen, dass die Welt für kommende Generationen lebenswert bleibt“. Die Situation vieler Ökosysteme auf der Welt, der Klimawandel, der Artenverlust – all das verlange ein Umsteuern hin zu einer Wirtschafts- und Lebensweise, die die ökologischen Grenzen unserer Welt respektiere.

Mit der Verabschiedung der Nachhaltigkeitsziele der Vereinten Nationen im Herbst des Vorjahres sei die Grundlage gelegt worden für einen überzeugenden Strukturwandel, der den ökologischen Fußabdruck, den Ressourcen- und Energiebedarf und bestehende soziale Ungleichheiten weltweit deutlich verringere. Erstmalig würden das Bekämpfen von Armut und das Bewahren der natürlichen Lebensgrundlagen auf unserem Planeten systematisch verbunden. Schwarzelühr-Sutter: „Es geht darum, jetzt und heute die richtigen Entscheidungen zu treffen, jetzt und heute zügig und entschlossen zu handeln.“ Dazu müssten Wirtschaft und Gesellschaften schlüssige Antworten auf die globalen Megatrends finden wie die fortschreitende Urbanisierung, die steigende Nachfrage nach Rohstoffen und Energie, die Änderung der Konsum- und Lebensgewohnheiten, besonders in den bevölkerungsreichen Schwellenländern, den Klimawandel, die Digitalisierung, Migration und Flucht und den demografischen Wandel.

Nachhaltigkeit dürfe kein Wohlstandsthema allein für das gute Gewissen der Einkommens-Eliten sein. Die Nachhaltigkeitsziele der Vereinten Nationen strebten nach mehr sozialer Balance und mehr Gerechtigkeit – innerhalb der Gesellschaften, zwischen den Gesellschaften, zwischen den Generationen, national und international. Gesucht und notwendig seien neue und kreative Lösungen, soziale Innovationen und eine breite gesellschaftliche Diskussion über die besten Wege – offen und unter breiter Beteiligung aller, vor allem der Generation, die zukünftig Verantwortung in unserer Gesellschaft übernehmen werde. Schulen komme für die Umsetzung eine wichtige Funktion zu, denn sie könnten „junge Menschen dazu befähigen, Ideen für eine nachhaltige Entwicklung einzubringen und Umsetzungsstrategien innerhalb der eigenen Lebenswelt zu entwickeln und zu verwirklichen“. Es liege in unserer Verantwortung, die geeigneten Lernumgebungen zu schaffen und diese für alle gleichermaßen zugänglich zu machen. Schwarzelühr-Sutter: „Bildung ist also auch der Schlüssel für eine nachhaltige Entwicklung.“

Knapp 200 Aussteller zeigen heute und morgen bei der „Woche der Umwelt“ von Bundespräsident Joachim Gauck und DBU, wie lösungsorientierte Innovationen entwickelt und Modellvorhaben praxisnah umgesetzt werden. Gesprächsforen widmen sich den Belastungsgrenzen des Planeten – Themen sind Ressourcen- und Bodenschutz, Energiewende, Digitalisierung, Urbanisierung, Mobilität und demografischer Wandel. Zum ersten Mal öffnet die große Umwelt-Schau am zweiten Veranstaltungstag, Mittwoch, ab 13 Uhr ihre Tore für alle Interessierten zu einem „Publikumsnachmittag“.

Weitere Informationen:
https://www.dbu.de/123artikel36785_2362.html

Quelle: idw

(nach oben)


Zukunftsmarkt Wasser – Chancen für die deutsche Wasserwirtschaft

Melanie Neugart Wissenskommunikation und Öffentlichkeitsarbeit
ISOE – Institut für sozial-ökologische Forschung

Um die weltweite Wasserversorgung zu sichern, muss zeitnah in großem Umfang in neue Trinkwasser- bzw. Abwasseranlagen sowie in den Bau sanitärer Einrichtungen investiert werden. Doch nicht nur die Länder des globalen Südens stehen vor erheblichen Herausforderungen im Wassersektor, auch die meisten Industrieländer kämpfen mit veralteten Infrastrukturen. Angesichts des globalen Investitionsbedarfes ist mit einem rasant wachsenden Markt für Wasser- und Abwassertechnologien zu rechnen, der auch der deutschen Industrie Absatzchancen bietet. Die AutorInnen von „Wasser 2050 – Mehr Nachhaltigkeit für Systemlösungen“ zeigen Wege in den Zukunftsmarkt auf.

Deutsche Anbieter von Wassertechnologien haben im Ländervergleich langfristig große Chancen auf dem Weltmarkt, wenn sie auf integrierte Systemlösungen setzen. Zu dieser Einschätzung kommen die AutorInnen des Buches „Wasser 2050″, die die Position deutscher Unternehmen im Zukunftsmarkt Wasser untersucht haben – ausgehend von den Zielen der Vereinten Nationen für nachhaltige Entwicklung. Danach soll der Anteil der Weltbevölkerung mit Zugang zu nachhaltigen Wasser- und Sanitärystemen langfristig deutlich erhöht werden. Technologien für die Abwasserwiederverwendung spielen dabei eine große Rolle.

Der Markt für nachhaltige Wasserbedarfslösungen zeichnet sich aber nicht nur in Schwellen- und Entwicklungsländern ab, sondern auch in Europa. Denn die zunehmende Verstädterung, der demographische Wandel, globale Klimaveränderungen und steigende Energiepreise erfordern hier Anpassungen an die veralteten und kaum flexiblen Wasserinfrastrukturen, wenn die Wasserqualität gehalten werden soll. Es wird deshalb darauf ankommen, auf den konkreten Bedarf abgestimmte Systemlösungen im Wassersektor zu entwickeln.

Integrierte Wassersystemlösungen – Nachhaltig für Infrastrukturen und Umwelt
Das Konzept der integrierten Systemlösungen geht weit über die herkömmliche Kombination einzelner Komponenten hinaus: Mit dem Ziel einer ressourcenschonenden Bereitstellung von Wasser werden sie flexibel an die jeweiligen Nutzungsbedürfnisse, soziale Situationen und ökonomische wie ökologische Bedingungen angepasst. So wird zum Beispiel nicht für alle Zwecke Trinkwasser verwendet, sondern für unterschiedliche Bedarfe werden verschiedene Qualitäten aufbereiteten Wassers zur Verfügung gestellt. Beispiel Hotelanlagen: Hier lässt sich etwa das „Grauwasser“ aus den Duschen für die Gartenbewässerung verwenden. Solarbetriebene Membranfilter können andernorts einwandfreies Frischwasser aus Abwasser herstellen, gleichzeitig können auf diese Weise landwirtschaftlich gut nutzbare Düngenährstoffe zurückgewonnen werden.

Raus aus der Nische: Systemisches Verständnis verbessert deutsche Exporterfolge
Die Marktszenarien im Buch „Wasser 2050″ zeigen, dass integrierte Systemlösungen nicht nur technisch ein beträchtliches Potenzial haben, die weltweiten Herausforderungen an Wasserbe-darf und Wasserqualität zu bewältigen. „Sie können die Position deutscher Unternehmen auf dem Weltmarkt stärken“, sagt Engelbert Schramm, Wasserforscher am ISOE – Institut für sozial-ökologische Forschung und Herausgeber des Buches. „Zwar gelten französische, britische und US-amerikanische Unternehmen im Wassersektor als Spitzenreiter, aber im Technologiebereich für Wassernutzungssuffizienz als wesentlichem Aspekt der Nachhaltigkeit als auch für Wasserverteilung und Kanalisation liegen große Exportpotenziale für deutsche Unternehmen.“

Das setze ein systemisches Verständnis dieser Technologie voraus, die zusammen gedacht werden müsse mit Innovations- und Managementstrategien. Auch gesellschaftliche, politische und wirtschaftliche Rahmenbedingungen seien zu überdenken und anzupassen. „Für die deutsche Außenwirtschaft empfehlen sich Änderungen der vorhandenen GovernanceStrukturen“, sagt Wasserforscher Schramm. „Ähnlich wie in der Energiepolitik, in der die Grundlagen für eine Veränderung mit dem Erneuerbare-Energien-Gesetz gelegt wurden, müssen auch für eine Was-serwende politische Regelungen für Orientierung und Planungssicherheit sorgen.“

Auch müssten die Investitionen in die Wasserinfrastruktur sowohl im Entwicklungszusammenhang als auch in den Industrienationen mit Maßnahmen des Capacity-Developments begleitet werden, folgern die AutorInnen von Wasser 2050. „Es erhöht die Exportchancen deutscher Wassertechnologien, wenn in den Zielländern das Verständnis und das Wissen von Bau, Betrieb und Wartung nachhaltiger Wasserbedarfslösungen sowohl beim Handwerk als auch in den politischen Institutionen verbessert wird“, sagt Schramm.

In dem Buch Wasser 2050 – Mehr Nachhaltigkeit durch Systemlösungen fassen die Autorinnen und Autoren zentrale Ergebnisse aus dem vom Bundesministerium für Bildung und Forschung (BMBF) geförderten Verbundvorhaben Wasser 2050 unter der Leitung des ISOE – Institut für sozial-ökologische Forschung mit dem Fraunhofer Institut für System- und Innovationsforschung (ISI) und dem Helmholtz-Zentrum für Umweltforschung (UFZ) zusammen. Zur Illustration dessen, was an nachhaltigen Lösungen im Wassersektor bereits möglich ist, stellen Fachleute aus der Wirtschaft und der Forschung einschlägige Beispiele aus anderen Forschungs- und Entwicklungs-Vorhaben (FuE-Vorhaben) des BMBF vor.

Thomas Kluge/Engelbert Schramm (Hrsg): Wasser 2050 – Chancen für die deutsche Wasserwirtschaft
oekom verlag 2016. ISBN 978-3-86581-218-6, ca. 320 S., gebunden.

Weitere Informationen:
http://www.isoe.de

Quelle: idw

(nach oben)


Wissenschaftler des Fraunhofer ISI präsentieren Forschungsergebnisse bei der „Woche der Umwelt“

Anne-Catherine Jung Pressestelle
Fraunhofer-Institut für System- und Innovationsforschung (ISI)

Drei Wissenschaftler des Fraunhofer-Instituts für System- und Innovationsforschung ISI beteiligten sich am 7. und 8. Juni 2016 an der „Woche der Umwelt“ in Berlin: Dr.-Ing. Thomas Hillenbrand wirkte bei einem Fachforum über Mikroschadstoffe in der Umwelt mit, Prof. Dr. Rainer Walz war bei einer Diskussionsrunde zu globalen Herausforderungen im Umweltbereich dabei. Prof. Dr.-Ing. Harald Bradke moderierte eine Diskussion darüber, wie sich unerwünschte Wirkungen höherer Energiepreise sozialpolitisch abfedern lassen und diskutierte auf der Hauptbühne in einer live vom Deutschlandfunk übertragenen Sendung zum Thema „Energiewende und Klimaschutz“.

Vom 7. bis zum 8. Juni 2016 fand die „Woche der Umwelt“ auf Einladung des Bundespräsidenten Joachim Gauck und der Deutschen Bundesstiftung Umwelt im Park von Schloss Bellevue in Berlin statt. Kernstück war eine Ausstellung mit knapp 200 Projekten aus dem Umweltbereich. Parallel dazu fanden auf der Hauptbühne moderierte Diskussionsrunden statt, für die vertiefende Diskussion wurden 80 Fachforen zu aktuellen Nachhaltigkeitsthemen angeboten. Bei einigen davon stellten Wissenschaftler des Fraunhofer ISI aktuelle Forschungsergebnisse vor.

Im Forum „Mikroschadstoffe in unserer Umwelt – Was tun?“ informierte Dr.-Ing. Thomas Hillenbrand über strategische Maßnahmen, um den Eintrag von Mikroschadstoffen in Gewässer zu verringern. Solche Chemikalien, beispielsweise Rückstände von Arzneimitteln oder Biozide aus Baumaterialien, haben selbst in sehr niedrigen Konzentrationen nachteilige Wirkungen auf aquatische Ökosysteme. Hillenbrand zeigte auf, wie verschieden die Emissionsmuster und Eintragspfade in die Gewässer sind – mit der Konsequenz, dass es unterschiedlicher und angepasster Emissionsminderungsmaßnahmen bedarf, um zukünftig eine ausreichende Minderung der Einträge zu erreichen. Kriterien für die Ableitung solcher Maßnahmen sind die Umsetzung des Verursacherprinzips, eine hohe Effizienz und eine ausreichende Effektivität. Für die künftig zu erarbeitende „Strategie Mikroschadstoffe“ wird deshalb ein Mix unterschiedlicher Einzelmaßnahmen erforderlich sein.

Um „Megatrends im Umweltbereich – Perspektiven für die Technologieentwicklung“ ging es in dem Forum, an dem Prof. Dr. Rainer Walz teilnahm. Hier wurde diskutiert, wie die globalen Herausforderungen im Umweltbereich gemeistert werden können und welche Perspektiven sich daraus für Gesellschaft und Unternehmen ergeben. Walz stellte in seinem Beitrag besonders heraus, dass sich der Markt für Umwelttechnologien erheblich verändert: Umwelttechnologien sind zwar nach wie vor eine überproportionale Stärke Deutschlands bei Patentierung und Außenhandel, aber die jüngsten Analysen zeigen, dass der Vorsprung Deutschland schmilzt. Starkes Marktwachstum in Schwellen- und Entwicklungsländer geht mit dem Auftreten neuer Wettbewerber einher. Die Adaption der Technologien an die Anforderungen in den schnell wachsenden Märkten wird zur neuen Herausforderung. Statt einzeltechnologischer Lösungen gewinnen Systeminnovationen an Bedeutung, für deren Umsetzung es immer stärker auch organisatorischer Innovationen und neuer Geschäftsmodelle bedarf. Schließlich werden die anstehenden Transformationen hin zu einer nachhaltigen Wirtschaft durch das Zusammenspiel von technologischen und sozialen Innovationen gekennzeichnet sein, was neue Akteurskonstellationen und Spielräume für das Ausprobieren ganz neuer Lösungen erfordert.

Energiethemen wurden auf der „Woche der Umwelt“ unter anderem in zwei Foren diskutiert, an denen Prof. Dr.-Ing. Harald Bradke teilnahm: Als Moderator leitete er die Runde „Wie lassen sich unerwünschte Wirkungen höherer Energiepreise sozialpolitisch abfedern?“, zudem diskutierte er in der live vom Deutschlandfunk übertragenen Sendung „Energiewende und Klimaschutz: Worauf kommt es jetzt an?“ mit. Hier betonte Bradke die besondere Bedeutung eines planvollen und sozial abgefederten langfristigen Ausstiegs aus der Kohleverstromung und die hohen noch brachliegenden Energieeffizienzpotenziale in vielen Bereichen der Industrie, die über Energieeffizienznetzwerke erschlossen werden können. Auch wies er auf die immensen Herausforderungen einer Reduktion der Treibhausgase um mehr als 80 Prozent hin, aber auch auf die hervorragenden Chancen der deutschen Industrie, die hierfür erforderlichen innovativen Technologien für den Weltmarkt bereitzustellen.

Weitere Informationen zu den Fachforen:
• Mikroschadstoffe in unserer Umwelt – Was tun? (https://www.woche-der-umwelt.de/index.php?menuecms=2708&programm_id=140)
• Megatrends im Umweltbereich – Perspektiven für die Technologieentwicklung (https://www.woche-der-umwelt.de/index.php?menuecms=2708&programm_id=219)
• Wie lassen sich unerwünschte Wirkungen höherer Energiepreise sozialpolitisch abfedern? (https://www.woche-der-umwelt.de/index.php?menuecms=2708&programm_id=162)
• Energiewende und Klimaschutz: Worauf kommt es jetzt an? (https://www.woche-der-umwelt.de/index.php?menuecms=2708&programm_id=126)
• Sendung „Länderzeit“ vom 08.06.2016 im Deutschlandfunk anhören (http://www.deutschlandfunk.de/woche-der-umwelt-worauf-kommt-es-jetzt-im-klimasch…)

Projekte:
• Wirksamkeit und Kosteneffizienz von produktbezogenen und nachgeschalteten Maßnahmen zur Verminderung des Eintrages von Mikroschadstoffen in die Gewässer (http://www.isi.fraunhofer.de/isi-de/n/projekte/uba-mikroschadstoffe.php)
• Implikationen des wirtschaftlichen Aufstiegs der Schwellenländer für die globalen Technologischen Innovationssysteme bei Umwelttechnologien (TITUS) (http://www.isi.fraunhofer.de/isi-de/n/projekte/TITUS.php)
• Erarbeitung der fachlichen Grundlagen für einen deutschen Öko-Innovationsplan (Eco-AP) (http://www.isi.fraunhofer.de/isi-de/n/projekte/Eco-AP.php)

Kontakt:
Anne-Catherine Jung MA
Telefon: +49 721 6809-100
E-Mail: presse@isi.fraunhofer.de

Das Fraunhofer-Institut für System- und Innovationsforschung ISI analysiert Entstehung und Auswirkungen von Innovationen. Wir erforschen die kurz- und langfristigen Entwicklungen von Innovationsprozessen und die gesellschaftlichen Auswirkungen neuer Technologien und Dienstleistungen. Auf dieser Grundlage stellen wir unseren Auftraggebern aus Wirtschaft, Politik und Wissenschaft Handlungsempfehlungen und Perspektiven für wichtige Entscheidungen zur Verfügung. Unsere Expertise liegt in der fundierten wissenschaftlichen Kompetenz sowie einem interdisziplinären und systemischen Forschungsansatz.

Quelle: idw

(nach oben)


Zinkmangelernährung ist für Mensch und Tier schädlich

Dr. Ulrich Marsch Corporate Communications Center
Technische Universität München

Zink beeinflusst die essentiellen Funktionen des Stoffwechsels der meisten Organismen. Dass schon ein minimaler Zinkmangel die Verdauungsleistung einschränkt, allerdings ohne typische Anzeichen wie Hautprobleme oder Erschöpfung, belegt eine Studie der Technischen Universität München (TUM). Selbst eine kurzfristige Zinkmangelernährung sei daher zu vermeiden, so der Rat der Wissenschaftler.

Die Versuchsreihe belegt, dass selbst ein leichter Zinkmangel die Verdauungsaktivität der Bauchspeicheldrüse (Pankreas) hemmt und sich die Verdauung bereits in diesem frühen Stadium signifikant verschlechtert. Die Studie von Daniel Brugger vom Lehrstuhl für Tierernährung der TUM ist gerade im British Journal of Nutrition erschienen.

Der Wissenschaftler hat einen neuen Weg eingeschlagen, denn zuvor gab es nur Untersuchungen, bei denen Tiere mit klinischem Zinkmangel mit Tieren verglichen wurden, die ausreichend mit diesem Spurenelement versorgt waren. „Dabei tritt ein klinischer Zinkmangel in der Natur weder bei Tieren noch bei Menschen wirklich auf“, erklärt Erstautor Daniel Brugger. Seine Studie hat er deshalb an Tieren mit einem kurzfristigen Zinkmangel durchgeführt. Weil das Spurenelement nur in geringen Mengen im Körper vorkommt, muss es über die Nahrung dem Körper zugeführt werden. Zu einem klinischen Zinkmangel kommt es wiederum bei Ferkeln unter praktischen Fütterungsbedingungen erst nach rund zehn Tagen, erklärt der TUM-Wissenschaftler. Deshalb endete seine Studienreihe bereits nach acht Tagen.

Wie reagiert der Stoffwechsel auf ein schwindendes Zinkdepot?
Der Beginn eines Zinkmangels geht nicht mit sichtbaren Symptomen einher. Es lassen sich jedoch in Leber oder Blut minimale Veränderungen ablesen. So wurden gerade abgestillte (abgesetzte) Ferkel in dieses frühe Zinkmangelstadium gefüttert: Ihr Futter war mit unterschiedlichen Anteilen von Zink versetzt. Nur so konnten die Wissenschaftler nachvollziehen, wie sich ein schwindendes Zinkdepot im Körper auf den Stoffwechsel auswirkt. Zu beobachten war einerseits, wie der Körper versucht, effizienter das Zink aufzunehmen und andererseits, wie er die Zinkausscheidung über die Bauchspeicheldrüse reduziert.

„Da ein klinischer Zinkmangel die Fresslust der Versuchstiere verringert, gab es die verschiedensten Thesen darüber wie etwa, dass der Zinkmangel den Vagusnerv (Anm.: Nerv, welcher die Arbeit aller inneren Organe wie etwa der Bauchorgane regelt) direkt beeinflusst“, sagt Brugger. „Doch die Wahrheit ist möglicherweise einfacher: Nicht verdaute Nahrung im Magen-Darm-Trakt aufgrund des Zinkmangels führt zu weniger Hunger.“

Bauchspeicheldrüse braucht Zink zur Verdauung
Die Bauchspeicheldrüse ist die Schaltzentrale für die Nahrungsverdauung und eine ausgeglichene Energiebilanz im Körper. Von ihr wird bei gesunden Lebewesen Zink in den Magen-Darm-Trakt gepumpt, um dort ein gleichbleibendes Niveau des Spurenelements zu halten. Im Gegensatz dazu reduziert der Organismus bei Zinkmangel seine Zinkausscheidung über die Bauchspeicheldrüse auf ein Minimum. Da die Futterverdauung für heranwachsende Nutztiere von enormer Bedeutung ist und gerade die ersten Wochen nach dem Absetzen von der Mutter die entscheidenden sind, ist das Wohlbefinden eines Tieres in dieser Zeit ein für Landwirte nicht zu unterschätzender Faktor. „Wir belegen nun, dass der Gehalt an Verdauungsenzymen in der Bauchspeicheldrüse in direktem Zusammenhang mit dem Zinkstatus des gesamten Organismus steht“, erläutert Brugger seine Studie – „selbst kurze Phasen der Zinkmangelernährung sollten deshalb bei Nutztieren wie Schweinen nicht eintreten.“

Der Wissenschaftler fügt hinzu: „Wenn wir aufgrund der Nähe der Organismen dieses Ergebnis ebenso auf den menschlichen Körper übertragen, müssen wir schlussfolgern: Öfter mal ein Ei kann nicht schaden!“ Er empfiehlt Veganern oder Vegetariern sowie älteren Menschen deshalb besonders auf ihre Versorgung mit Zink zu achten, weil ein subklinischer Zinkmangel beim Menschen unter anderem mit erhöhten Entzündungswerten im Blut und einer reduzierten Immunabwehr in Verbindung gebracht wurde.

Publikation:
Daniel Brugger and Wilhelm M. Windisch: Subclinical zinc deficiency impairs pancreatic digestive enzyme activity and digestive capacity of weaned piglets; British Journal of Nutrition 27.05.2016. DOI: http://dx.doi.org/10.1017/S0007114516002105

http://journals.cambridge.org/action/displayAbstract?fromPage=online&aid=103…

Kontakt:
Daniel Brugger
Lehrstuhl für Tierernährung
Technische Universität München (TUM)
Zentralinstitut Hans-Eisenmann-Zentrum für Agrarwissenschaften
Liesel-Beckmann-Straße 2
85354 Freising-Weihenstephan
Tel. +49 (0) 8161 – 714009
Daniel.Brugger@wzw.tum.de
http://www.wzw.tum.de/lte

Weitere Informationen:
http://go.tum.de/698564

Quelle: idw

(nach oben)


Schutz vor den Wassermassen

André Zeppenfeld Presse- und Kommunikationsstelle
Universität Siegen

Siegener Professoren Dr. Jürgen Jensen und Dr. Richard Herrmann erklären in einem neuen Buch, wie moderne Sicherungsanlagen aussehen müssen.

Welche Folgen Sturmfluten, Starkregen und Unwetter haben können, haben jüngst tausende Menschen in Deutschland im Mai und Juni 2016 erlebt. Um zu verhindern, dass Straßen und Häuser überschwemmt werden und Menschenleben in Gefahr geraten, sind moderne Sicherungsanlagen nötig. Wie diese aussehen sollten, haben Prof. Dr. Jürgen Jensen und Prof. Dr. Richard Herrmann in ihrem Werk „Sicherung von Dämmen, Deichen und Stauanlagen“ dargestellt. Das Buch ist als 5. Band erschienen und hat sich längst als Standardwerk etabliert, das aktuellste Forschungsergebnisse aufbereitet.

„Die Sicherheit von Siedlungs- und Lebensräumen zu gewährleisten, ist eine Dienstleistung an der Gesellschaft. Der Schutz vor Hochwasserkatastrophen spielt hier eine große Rolle. Seit Jahren wird an der Uni Siegen an diesem Thema gearbeitet, das Buch bündelt dieses Wissen und verknüpft es mit aktuellen Entwicklungen und Ereignissen“, erklärt. Prof. Jensen, Leiter des Forschungsinstituts Wasser und Umwelt an der Universität Siegen.

Der interdisziplinäre Hochwasserschutz stellt in Siegen ein Alleinstellungsmerkmal dar, Forscherinnen und Forscher aus den Lehrgebieten des Wasserbaus und der Geotechnik arbeiten erfolgreich vernetzt zusammen. Diese Vernetzung spiegelt sich im Buch wider. „Wir bilden das gesamte Spektrum ab: Vom auslösenden Ereignis wie einer Sturmflut, einem Hurrikan oder einem Tsunami über die Bemessung eines Bauwerks und der Risikoanalyse bis hin zur Organisation eines Evakuierungsplans“, verdeutlicht Jensen.

Wie sollen nun Dämme, Deiche und Stauanlagen aussehen, um Menschen optimal zu schützen? Die neueste Forschung hat ergeben, dass überlastbare Konstruktionen gefragt sind. „Wir müssen Deiche bauen, die längerfristig überströmt werden können, ohne geschädigt zu werden“, sagt Prof. Jensen. Ein Bauwerk soll also nicht bei einer Überschwemmung zusammenbrechen, sondern diese aushalten, um die verbliebene Wassermenge weiterhin zu kontrollieren.

Berücksichtigt werden müssen außerdem Faktoren wie der ansteigende Meeresspiegel, der als sogenannter „Klimazuschlag“ berücksichtigt wird. „Ideal ist deshalb, dass die Dämme anpassbar sind. Ein Bauwerk, das nach Bedarf erweitert werden kann, ist zukunftssicher. Die Lebensdauer eines Deiches darf nicht wie bei einer Straße auf 30 oder 40 Jahren bemessen sein“, sagt Prof. Jensen. Das Buch sammelt Anforderungen wie diese, um politischen Entscheidungsträgern eine Hilfestellung zu geben, wenn es um die strategische Planung des Deichbaus geht.

Weitere Entwicklungen gibt es auf dem Gebiet der genutzten Baustoffe. „Es gibt Geo-Kunststoffe, die den Boden bewähren, einen Bruch verhindern und den Deich stabiler, leistungsfähiger und sicherer machen. Auch Geo-Textilien sind mit ihren Eigenschaften als Filter und Schutz inzwischen wichtige Bestandteile. Ein Deich ist heute ein hochwertiger Ingenieurbau“, sagt Prof. Herrmann, Leiter des Instituts für Geotechnik an der Uni Siegen.

Das Buch setzt auf dem renommierten gleichnamigen Symposium auf, das eine Plattform für Wissenschaftlerinnen und Wissenschaftler bietet, um sich auszutauschen und neue Ideen sowie vielfältige Sichtweisen zu erhalten – und in der Buchform wiedergegeben. „Die Symbiose von Praxis, Theorie und viel Erfahrung hat in Siegen einen historischen Hintergrund, das ist unsere Tradition, unsere Marke. Seither haben wir exzellente Kontakte zur Berufspraxis“, erklärt Prof. Herrmann. Das zeigte sich auch im Hochschulranking des CHE, in dem die Bauingenieure den Spitzenplatz in der Kategorie „Berufspraxis“ belegen.

In der neuen Ausgabe verfolgen die beiden Professoren das Ziel, weitere Länder zu beteiligen. Hintergrund: Die Standards im Damm- und Deichbau haben sich wesentlich erhöht, das Risiko eines Hochwassers hat sich in der Folge auch geografisch nach Osteuropa verschoben. Durch die breitere Aufstellung soll das Wissen vermehrt geteilt werden. Die Haupt-Vorträge hielten Carlo Sörensen (Dänemark) und Heinz Brandl (Österreich).

„Die aktuellen Ereignisse in Baden-Württemberg und Bayern zeigen, dass zukünftig auch kleine Wasser-Einzugsgebiete zu betrachten sind und dass dort negative bauliche Veränderungen aus der Vergangenheit korrigiert und zukünftig zu vermeiden sind, um Schäden an Menschen und Gütern, d.h. zumindest große Schäden zu vermeiden. Dies wird auch Thema unseres nächsten Symposiums sein“, so Prof. Herrmann.

Quelle: idw

(nach oben)


Problem trotz guter Konjunktur: Langzeitarbeitslosigkeit belastet Ältere und Geringqualifizierte

Benjamin Stappenbeck Pressestelle
Bertelsmann Stiftung

Langzeitarbeitslosigkeit ist eine der größten Herausforderungen für jeden Arbeitsmarkt: Je länger eine Person ohne Arbeit bleibt, desto schwerer wird es, in einem neuen Job Fuß zu fassen.
Eine Studie zeigt: Im EU-Vergleich ist die Quote von langfristig Erwerbslosen in Deutschland niedrig. Für deutsche Langzeitarbeitslose ist der Wiedereinstieg aber oft besonders schwer.

Während viele EU-Staaten noch unter den Auswirkungen der Finanz- und Schuldenkrise leiden, eilt die deutsche Wirtschaft von einem Beschäftigungsrekord zum nächsten. Die gute Wirtschaftslage lässt sich auch an der sinkenden Quote der langfristig Erwerbslosen ablesen: Betrug die Langzeitarbeitslosenquote im Jahr 2008 noch 3,7 Prozent, ist sie 2015 auf 1,9 Prozent gefallen. Damit ist Deutschland das einzige EU-Land, in dem die Langzeitarbeitslosigkeit seit dem Beginn der Finanz- und Wirtschaftskrise deutlich gesunken ist. Das geht aus einer Studie der Bertelsmann Stiftung hervor, für die Daten der Europäischen Arbeitskräfteerhebung (AKE) ausgewertet wurden. Trotz der guten Ergebnisse für Deutschland gibt es keinen Grund zur Entwarnung: Deutsche Langzeitarbeitslose profitieren kaum vom Beschäftigungsaufschwung und sind im EU-Vergleich älter und besonders lange ohne Arbeit.

2015 waren EU-weit mehr als 10 Millionen Personen länger als 12 Monate erwerbslos. Das entspricht 4,3 Prozent der Erwerbsbevölkerung. Dabei offenbart die Studie ein deutliches Nord-Süd-Gefälle: Am höchsten ist die Langzeitarbeitslosigkeit in Griechenland (17,7 Prozent), Spanien (10,8 Prozent) und Kroatien (10,4 Prozent). Anders als in Deutschland bleibt Langzeitarbeitslosigkeit in diesen Ländern nicht auf sogenannte Risikogruppen wie Geringqualifizierte beschränkt, sondern zieht sich quer durch die gesamte Erwerbsbevölkerung. Niedriger als hierzulande ist die Langzeitarbeitslosigkeit nur in Großbritannien und Schweden (1,5 Prozent) sowie Luxemburg, Dänemark und Österreich (1,6 Prozent). „Viele südeuropäische Länder leiden unter der Abhängigkeit von einzelnen Wirtschaftsbereichen, die in den Krisenjahren massiv eingebrochen sind. Deutschlands Wirtschaft steht auf mehreren festen Säulen und konnte, zügig vom Krisen- in den Produktionsmodus umschalten“, sagte Aart De Geus, Vorstandsvorsitzender der Bertelsmann Stiftung.

Alt und abgehängt: Langzeitarbeitslose in Deutschland
Obwohl die allgemeine Arbeitslosenquote hierzulande auf einem historischen Tief verharrt, können viele langfristig Erwerbslose nicht von der guten Konjunkturlage profitieren. So ist der relative Rückgang der Langzeitarbeitslosenquote seit 2012 vor allem auf die steigende Beschäftigung in Deutschland zurückzuführen. Doch gerade der Anteil Langzeitarbeitsloser an allen Arbeitslosen ist in Deutschland noch immer hoch: Mehr als jeder dritte Arbeitslose in Deutschland ist langzeitarbeitslos (Anteil: 43,1 Prozent, 796.000 Personen).

Auch in Bezug auf das Alter der Betroffenen und die Dauer der Langzeiterwerbslosigkeit schneidet Deutschland schlecht ab. Mehr als ein Viertel der deutschen Langzeitarbeitslosen (26 Prozent) ist älter als 55 Jahre. Im EU-Schnitt sind nur 13 Prozent in dieser Altersklasse. Besonders gravierend: Die langfristig Erwerbslosen in Deutschland bleiben auffallend lange ohne neue Beschäftigung. Zwei Drittel der deutschen Langzeitarbeitslosen sind bereits seit mehr als zwei Jahren ohne Arbeit. Zum Vergleich: In Schweden und Österreich sind es nur etwa 40 Prozent. Zurückzuführen ist dies auch auf unterschiedliche sozialrechtliche Regelungen in den EU-Staaten. So beziehen in vergleichbaren Ländern wie Dänemark, Schweden oder Österreich deutlich mehr nichterwerbstätige Personen Früh- oder Erwerbsminderungsrenten und verschwinden so aus den Arbeitslosenstatistiken. In Deutschland wurde diese Praxis der vorzeitigen Verrentung Arbeitsloser weitgehend zugunsten der Wiedereingliederung in den Arbeitsmarkt aufgegeben. Diese gestaltet sich allerdings oft schwierig. „Jobverlust im Alter wird in Deutschland zunehmend zu einer Falle, aus der sich die Betroffenen nicht befreien können“, sagte Aart De Geus, Vorstandsvorsitzender der Bertelsmann Stiftung. „Angesichts des demografischen Wandels und des steigenden Renteneintrittsalters müssen Politik und Unternehmen gemeinsam daran arbeiten, auch älteren Arbeitslosen neue Beschäftigungschancen zu eröffnen.“

Soziale Teilhabe und Erwerbsintegration ermöglichen
Wie schwierig sich die Vermittlung der deutschen Langzeitarbeitslosen gestaltet, zeigt sich nicht nur an der Alters- sondern auch an der Qualifikationsstruktur dieser Gruppe. Fast jeder dritte Langzeitarbeitslose ist geringqualifiziert. Hinzu kommen weitere persönliche Vermittlungshemmnisse wie gesundheitliche und soziale Einschränkungen. Joscha Schwarzwälder, Arbeitsmarktexperte der Bertelsmann Stiftung, schlussfolgert daher, dass sich die Langzeitar-beitslosigkeit hierzulande nicht allein mit den herkömmlichen Aktivierungsmaßnahmen beheben lässt.

Die auf eine rasche Vermittlung ausgerichtete Politik des Förderns und Forderns stößt beim „harten Kern“ der Langzeitarbeitslosigkeit in Deutschland an ihre Grenzen. Trotzdem sei es laut Schwarzwälder falsch, ALG-II-Empfänger bereits mit 63 zum vorzeitigen Renteneintritt zu zwingen. Neben einer intensiven persönlichen Betreuung durch entsprechend qualifizierte Fachkräfte in den Jobcentern, brauche es mehr Möglichkeiten, schwer vermittelbare Langzeitarbeitslose durch öffentlich geförderte Beschäftigung wieder an den Arbeitsmarkt heranzuführen. Dabei müsse außer der Erwerbsintegration auch das Ziel der sozialen Teilhabe im Vordergrund stehen. Statt längeren Förderdauern für Ein-Euro-Jobs, ließen sich diese Ziele besser durch die Schaffung sozialversicherungspflichtiger und betriebsnaher Beschäftigungsverhältnisse im Rahmen eines „sozialen Arbeitsmarkts“ erreichen.

Zusatzinformationen
Die vorliegende Studie wurde im Auftrag der Bertelsmann Stiftung von Economix Research & Consulting erstellt. Datengrundlage bildet die Europäische Arbeitskräfteerhebung (AKE) sowie weitere europaweit vergleichbare Datensätze. Die harmonisierten Arbeitslosenquoten für die Mitgliedstaaten der EU basieren auf dem Erwerbslosenkonzept der ILO und können von den nationalen Statistiken zu registrierten Arbeitslosen abweichen. Die Studie untersucht für alle 28 EU-Mitgliedsstaaten die Entwicklung von Langzeitarbeitslosigkeit und Inaktivität seit 2008, deren Struktur und Ursachen sowie Ansätze der aktiven Arbeitsmarktpolitik zur Bekämpfung von Langzeitarbeitslosigkeit.

Unsere Experten: Joscha Schwarzwälder, Telefon: 0 52 41 81 81 530
E-Mail: joscha.schwarzwaelder@bertelsmann-stiftung.de

Dr. Daniel Schraad-Tischler, Telefon: 0 52 41 81 81 240
E-Mail: daniel.schraad-tischler@bertelsmann-stiftung.de

Weitere Informationen:
http://www.bertelsmann-stiftung.de

Quelle: idw

(nach oben)


Internationales Projekt zur Wasseraufbereitung im Gebiet des Viktoriasees startet

Holger Gust M. A. Pressestelle
Hochschule Karlsruhe – Technik und Wirtschaft

3 Mio. Euro Förderung durch das EU-Programm „Horizon 2020″: Unter Leitung der Hochschule Karlsruhe – Technik und Wirtschaft starten zehn europäische und afrikanische Partner ein Projekt zur Wasseraufbereitung im Gebiet des Viktoriasees

Am Dienstag, 7. Juni 2016, startete mit einem gemeinsamen Treffen in Karlsruhe das internationale Forschungsprojekt „Integrated aquaculture based on sustainable water recirculating system for the Victoria Lake Basin (VicInAqua)“. Unter der Projektleitung von Prof. Dr. Jan Hoinkis, Geschäftsführender Direktor des Instituts für Angewandte Forschung der Hochschule Karlsruhe – Technik und Wirtschaft (HsKA), haben sich insgesamt zehn Partner aus Europa und Afrika zusammengeschlossen, um ein nachhaltiges, kombiniertes Wasserreinigungssystem für die Fischzucht in der Region des Viktoriasees zu entwickeln. Am Projekt sind aus Deutschland neben der HsKA, das Steinbeis Europazentrum und das Unternehmen BPE International beteiligt. Europäische Partnerorganisationen sind das Institute on Membrane Technology (Italien), die University of Calabria, die Firmen AquaBioTech (Malta) und OxyGuard International (Dänemark). Aus Afrika sind die Jomo Kenyatta University of Agriculture and Technology (Kenia), das Department of Agriculture, Fisheries and Livestock Development (Kenia) sowie die National Agricultural Research Organisation (Uganda) am Projekt beteiligt.

Ziel des Projekts ist die Entwicklung und der Test eines kombinierten, nachhaltigen Wasserbehandlungsystems für Kreislaufsysteme in der Fischzucht und zur Abwasserbehandlung von industriellem und häuslichem Abwasser. Das dreijährige Projekt wird über das EU-Rahmenprogramm „Horizon 2020″ mit 3 Mio. Euro gefördert.

Der Viktoriasee ist das größte Binnengewässer Afrikas und der zweitgrößte Süßwassersee der Welt. Er hat große Bedeutung für seine Anrainerstaaten Kenya, Uganda und Tansania; sein Süßwasserreservoir bildet die wesentliche Grundlage für Fischerei, Wirtschaft und Tourismus. Die Region des Viktoriasees ist allerdings aktuell durch Überfischung, Überdüngung durch das Abwasser der am See angesiedelten Industrie und die steigende Zahl an Siedlungen sowie eine wachsende Verarmung der am See lebenden Bevölkerung bedroht. Aufgrund des Überangebots an Nährstoffen ist der See in weiten Gebieten durch Wasserhyazinthen überwuchert, durch deren rasantes Wachstum heimische Wasserpflanzen verdrängt werden.

Ziel des Projekts ist daher die Entwicklung eines Systems für eine nachhaltige und umweltfreundliche Fischzucht in Verbindung mit einer effektiven Abwasserreinigung. Die Grundlage bildet ein Mehrzweck-Filtrationssystem basierend auf einem Membranbioreaktor, das sowohl als Rezirkulationssystem für Fischtanks und zur Abwasserbehandlung genutzt werden kann. Wesentlich ist dabei die Entwicklung eines effizienten und robusten Reinigungssystems sowie einer nachhaltigen dezentralen Energieversorgung – nur so lässt sich das neue System im Einklang mit den lokalen sozio-ökonomischen Bedingungen einsetzen.

Bei den derzeitigen kommerziellen Membranbioreaktoren besteht das Problem, dass sich Deckschichten (Fouling) auf den Membranen bilden, die den Wasserdurchfluss und damit die Reinigungsleistung reduzieren. Deshalb müssen sie in kurzen Zeitabständen mit Chemikalien gereinigt werden. Die Projektpartner haben sich daher das Ziel gesetzt, ein neuartiges Membranmaterial für den Einsatz in Membranbioreaktoren zu entwickeln, das sich durch Nanokatalysatoren komplett selbst reinigt. Dies ist insbesondere in afrikanischen Entwicklungsländern von großer Bedeutung, da hier die Verwendung von Chemikalien (Logistik, Sicherheit) schwierig ist.

Das internationale Forscherteam kann dabei auf den Ergebnissen eines früheren von der EU über das Programm FP7 geförderten Projekts „BioNexGen“ aufbauen, in dem unter Federführung des IAF-Direktors der Hochschule Karlsruhe Prof. Dr. Jan Hoinkis mit feinporigen Membranen eine Bioreaktortechnik zur Filtration und damit zur biologischen Reinigung des zu behandelnden Abwassers entwickelt werden konnte. Diese Anlagen lassen sich mit geringen Abmaßen realisieren und erzeugen eine vergleichsweise hohe Wasserqualität – die Systeme lassen sich dadurch sehr variabel einsetzen.

Im neuen Projekt „VicInAqua“ soll das behandelte Wasser zur Rezirkulation in Fischtanks und zur landwirtschaftlichen Bewässerung verwendet werden. Nach den vorgelagerten Forschungs- und Entwicklungsarbeiten soll das Konzept vor Ort am Viktoriasee innerhalb einer Pilotanlage getestet werden.

Neben der Entwicklung des innovativen Filtrationssystems wird sich VicInAqua auch mit einem neuartigen sensorkontrollierten Energieversorgungssystem für einen energieautarken Betrieb befassen. Hierbei soll ein Hybridsystem aus Photovoltaik, biogasbasierter Prozesswärme und thermoelektrischem Generator zur Steigerung des Energieertrags entstehen. Mit einem thermoelektrischen Generator lässt sich elektrische Energie direkt aus der Umgebungswärme gewinnen. Durch die hohen Temperaturen in tropischen Ländern lässt sich so der Wirkungsgrad von Photovoltaikelementen steigern. Mithilfe eines thermoelektrischen Generators kann auch auf einem höheren Temperaturniveau Wärme durch Verbrennung von Biogas zur Erzeugung von elektrischer Energie genutzt werden. Dieses Gas kann unter anderem durch Vergärung von Abfallbiomasse – beispielsweise von den am Viktoriasee reichlich vorhandenen Wasserhyazinthen – erzeugt werden.

Eine der wesentlichen Herausforderungen des Projekts liegt in der Entwicklung von robusten Verfahren, die sich optimal an die sozio-ökonomischen Bedingungen in Entwicklungsländern anpassen lassen. Daher sind im Projekt auch Ausbildungs- und Trainingskurse für lokale Experten und der Austausch von Studierenden zwischen den europäischen und afrikanischen Partnern vorgesehen.

Weitere Informationen:
http://www.hs-karlsruhe.de/hochschule/aktuelles/presse/eu-foerdert-projekt-zur-w…

Quelle: idw

(nach oben)


Dresdner Riechforscher: Das Geheimnis eines erfüllten Liebeslebens ist der passende Geruch

Konrad Kästner Presse- und Öffentlichkeitsarbeit
Universitätsklinikum Carl Gustav Carus Dresden

Dass die Schönheit allein im Auge des Betrachters liegt, ist heute hinlänglich widerlegt. Menschen suchen bei der Partnerwahl nicht nur die visuellen Reize – sie sind auch recht versiert, was die olfaktorische Kommunikation angeht. Dabei ist weniger entscheidend, welcher Designerduft dem Heer an Paarungswilligen unter die Nase gehalten wird, viel wichtiger ist bei der Partnerwahl der natürliche Duft von Mann und Frau. Und dieses „Parfum naturel“ ist quasi ein Spiegelbild unseres Genpools. Das unterstreichen auch die Ergebnisse der Forschungsarbeit von Jana Kromer an der Medizinischen Fakultät Carl Gustav Carus, TU Dresden.

Es ist mehr als nur eine Laune der Natur, dass wir alle ganz unterschiedliche Duftstoffe ausdünsten. Die sind nicht jedermanns oder jederfraus Sache, aber in aller Regel findet sich zu jeder speziellen Variante ein sinnlicher Genießer. Dabei finden wir die Note am besten, die uns relativ große genetische Unterschiede signalisiert. Jana Kromer hat dieses Wissen jetzt genauer aus einer wissenschaftlichen Perspektive beleuchtet, und dabei sind ganz interessante Ergebnisse offenkundig geworden – die man vielleicht immer wieder beobachtet hat, aber nie richtig beschreiben konnte. „Es zeigte sich die Tendenz, dass Paare, die in den HLA-Allelen Klasse I nicht übereinstimmen, den Körpergeruch, die Sexualität besser bewerten als Paare, die gleiche HLA-Allele besitzen. Auf den Punkt gebracht heißt das nichts anderes als ‚opposites attract‘“, sagt die junge Wissenschaftlerin, die diese Erkenntnisse unlängst in einer Doktorarbeit zusammengefasst und publiziert hat. Betreut wurde sie dabei von Experten für Riechen und Schmecken, Dr. Ilona Croy und Prof. Thomas Hummel an der Klinik für Psychosomatik beziehungsweise dem interdisziplinären Zentrum „Riechen und Schmecken“ am Universitätsklinikum Carl Gustav Carus.

„Auch ich bin davon ausgegangen“, sagt Jana Kromer, „dass das Sozialverhalten und die Liebe ganz einfach nach einem Zufallsprinzip funktionieren, dann finden zwei Menschen sich interessant und es passt oder eben nicht.“ Dass die Natur wenig dem Zufall überlässt, wird bei derartigen Untersuchungen nur allzu deutlich. Und die Doktorandin sagt weiter: „Selten habe ich so einen Spaß bei der Arbeit gehabt. Umso mehr Fragen gestellt wurden, desto klarer wurden die Antworten. Ich bin in den letzten Jahren immer wieder von Teilnehmern der Studie gefragt worden, ob zwei Menschen gut zusammenpassen, ob sie sich auch in einigen Jahren noch attraktiv finden und ob es sinnvoll ist zu heiraten. Aber ich sehe mich nicht unbedingt als Partnervermittlerin – auch wenn es schön ist zu sehen, warum manche Paare über viele Jahre miteinander harmonieren.“

Besonders standen die HLA-Allele der Klasse I und II im Focus der Untersuchungen. Diese Immunrezeptoren findet man an den Zelloberflächen, und sie können vom Menschen wahrgenommen werden. . „Der Geruchssinn arbeitet hier im Unterbewusstsein und übernimmt teilweise die Steuerung bei der Partnersuche“, erklärt Jana Kromer. Mann und Frau erschnüffeln sich so, ohne einen Gedanken daran zu verlieren, ihren idealen Liebhaber oder Liebhaberin, mit dem es evolutionstechnisch perfekt wäre, die Reproduktion zu starten, weil beide sehr unterschiedlich in bestimmten Erbanlagen sind.

Der Vorteil liegt klar auf der Hand, eine größere Vielfalt heißt auch bessere Chancen, sich auf Krankheiten einzustellen, körpereigene Heilungsprozesse zu organisieren und ein besserer Schutz vor Mutationen. „Als Erklärung hierfür wird der evolutionäre Vorteil für die Nachkommen gesehen. Durch die kodominante Expression der HLA-Allele werden die Nachkommen heterozygote HLA-Allelträger, wenn die Eltern unterschiedliche HLA-Allele besitzen. So ergibt sich für die Nachkommen ein breiteres Spektrum, um spezifisch gegen pathogene Antigene zu agieren.“ Konkret heißt das: weniger Infekte, weniger Autoimmunerkrankungen, weniger Allergien.

Insgesamt wurden über 250 Paare zwischen 18 und 60 Jahren befragt, wie zufrieden sie mit ihrer Beziehung sind, ob sie einen Kinderwunsch haben und wie aufregend sie ihr gemeinsames Sexualleben finden. Den Versuchspersonen wurde dann eine Speichelprobe entnommen und die fraglichen Gene miteinander verglichen. Je nachdem, wie unterschiedlich ihre untersuchten Gene waren, desto mehr Anziehungskraft hatten die Partner aufeinander. Allerdings veränderte sich diese Wirkung bisweilen, beispielsweise durch die Einnahme der Pille.

Die vorliegende Promotion ist damit die erste wissenschaftliche Erhebung, die eine große Probandengruppe untersucht und erstmals den Kinderwunsch mit einbezogen hat. „Zudem konnten wir eine hohe Genauflösung im Labor durchführen“, sagt Jana Kromer und ist erstaunt über die vielfältige Resonanz, die es bereits heute auf die Forschungsarbeit gibt. Interesse an dieser Arbeit hat auch bereits die Industrie, die heute die wissenschaftlichen Daten wahrscheinlich gern dazu verwenden würde, um ein ganz individuelles Parfüm zu kreieren – einen Duft, der zu dem eigenen Genpool passt.

Infokasten
Die Gene für nahezu alle HLA-Proteine befinden sich auf dem Chromosom 6. Sie sind Teil des angeborenen Immunsystems. Sie erkennen den Unterschied von pathogenen Eindringlingen und sind wichtig für die Differenzierung von Eigen- und Fremdmaterial, beispielsweise bei einer Organtransplantation. Ihre Eigenschaften werden codominant vererbt und als Duftstoffe über die Nase unterbewusst wahrgenommen. Bei vielen unterschiedlichen HLA-Allelen besitzt der Mensch ein entsprechend breites Spektrum an Immunrezeptoren, der Organismus erkennt so viele Parasiten und Viren.

Kontakt
Universitätsklinikum Carl Gustav Carus
Klinik und Poliklinik für Hals-, Nasen- und Ohrenheilkunde
Interdisziplinäres Zentrum für Riechen und Schmecken
+49 (0) 351 458 4189
+49 (0) 351 458 7370
Institut/Klinik
Prof. Dr. med. Thomas Hummel
Tel.: +49 351 458 4189
E-Mail: thummel@mail.zih.tu-dresden.de
Internet: https://www.uniklinikum-dresden.de/de/das-klinikum/kliniken-polikliniken-institu…

Quelle: idw

(nach oben)


Keimfreies Wasser ohne Chemie

Eva Tritschler Presse- und Öffentlichkeitsarbeit
Hochschule Bonn-Rhein-Sieg

Die 10. Bonner Wissenschaftsnacht am Donnerstag und Freitag, 2./3. Juni 2016, stand unter dem Motto „WasserWelten“. Die Hochschule Bonn-Rhein-Sieg (H-BRS), genauer gesagt der Fachbereich Angewandte Naturwissenschaften ist bei der Bonner Wissenschaftsnacht zusammen mit rund 20 weiteren Einrichtungen der Wissenschaftsregion mit einer Präsentation vertreten. Im Wissenschaftszelt auf dem Münsterplatz zeigt das Team um Prof. Dr. Steffen Witzleben ein Mikrodesinfektionssystem zur dezentralen Entkeimung von Wasser.

Trinkwasser ist unser wichtigstes Lebensmittel. Um Wasser in der erforderlichen Qualität bereitstellen zu können, ist es in der Regel notwendig, dieses vorher zu desinfizieren. Als moderne Alternative zur Chlorierung von Wasser gewinnt die Ozonierung von Wasser zunehmend an Bedeutung. Das gereinigte und keimfreie Wasser findet dann Verwendung als Trinkwasser und ist auch für die Nutzung in der Lebensmittel- und Pharmaindustrie geeignet. In sehr kleinen Trinkwasseraufbereitungsanlagen oder dünn besiedelten Regionen ist eine konventionelle Desinfektion sehr aufwendig, weshalb die Verwendung von Ozon eine optimale Alternative sein kann.

Um das Wasser im notwendigen Umfang zu desinfizieren und die Ozonmenge optimal zu dosieren, erfolgt die Erzeugung von Ozon direkt im zu behandelnden Wasser. Das Ozon wird mittels Elektrolyse hergestellt, was bedeutet, dass das Wasser gleichzeitig auch Betriebsmittel ist (sogenannte in-situ-Erzeugung). Eine Zugabe von Chemikalien ist nicht notwendig. Nach der Desinfektion baut sich das Ozon selbstständig zu Sauerstoff ab, wie er auch in der Luft vorkommt.

Die aktuellen Forschungsarbeiten befassen sich unter anderem mit der analytischen Untersuchung von Nebenprodukten und weiteren Anwendungsmöglichkeiten von Elektrolysezellen (Mikrozellen).

Mitmachaktion auf der Wissenschaftsnacht
Die Besucher können sich vor Ort von der Wirksamkeit der Methode selbst überzeugen. Es werden experimentelle Aufbauten installiert, welche Rohwasser zu genussfähigem Trinkwasser aufarbeiten. Hierbei übernimmt eingefärbtes Wasser die Rolle eines künstlichen Rohwassers. Die Besucher können eigenständig die Produktionsrate von Ozon regeln und die Entfärbung des Wassers beschleunigen oder verlangsamen.

Bei der 10. Bonner Wissenschaftsnacht stellt eine unglaubliche Vielfalt an Vorträgen und Präsentationen die faszinierenden Aspekte des Lebenselixiers Wasser aus ganz unterschiedlichen Blickwinkeln in den Mittelpunkt.

Kontakt:
Hochschule Bonn-Rhein-Sieg
Prof. Dr. Steffen Witzleben
E-Mail: steffen.witzleben@h-brs.de
Tel. 02241/865-494

Quelle: idw

(nach oben)


Starre Wasserrohre, fit für die Zukunft

Britta Widmann Kommunikation
Fraunhofer-Gesellschaft

Wasserinfrastrukturen – zum Beispiel Leitungen, Rohre, Kanäle oder Wasserspeicher – sind starre Systeme. Sie werden in bestimmten Sanierungszyklen erneuert. Für kommunale Kanalsysteme kann das bis zu 70 Jahre dauern, für Bäder in Mietwohnungen bis zu 30 Jahre. »Das muss man berücksichtigen, wenn man Konzepte für die Zukunft der Wasserinfrastruktur erstellt«, sagt Dr.-Ing. Thomas Hillenbrand, Wissenschaftler am Fraunhofer-Institut für System- und Innovationsforschung ISI in Karlsruhe.

Im Bestand modernisieren
Das Institut entwickelte im Verbundprojekt Transitionswege Wasserinfrastruktursysteme TWIST++ das integrierte WasserEnergieTransitionskonzept i.WET. Das Konzept zeigt anhand realer Szenarien, wie eine moderne und intelligente Wasserversorgung und Abwasserentsorgung im städtischen Raum Schritt für Schritt im Bestand umgesetzt werden kann. Es berücksichtigt Sanierungszyklen bestehender Systeme, kann flexibel modular umgesetzt werden und kombiniert neue Wasser- und Abwassertechnologien auf intelligente Weise. i.WET enthält Lösungen für die drei großen Herausforderungen der Wasserinfrastruktur in Deutschland: den demographischen Wandel, den Klimawandel und die Energiewende. In Lünen, Stadt und Einzugsgebiet von 90 000 Menschen im westlichen Westfalen, sollen die Ergebnisse von i.WET in den nächsten Jahren in einem Pilotprojekt umgesetzt werden.

i.WET sieht einzelne Maßnahmen für Gebäude, Kanalsystem und Kläranlage vor. Entscheidender Punkt dabei ist die Trennung von weniger und stark belastetem Abwasser bereits im Haushalt (Grau-/Schwarzwasser). Die Forscher wollen dafür eigene Leitungen für das Wasser aus Dusche und Waschbecken einerseits, und den Rest des Abwassers aus Toilette, Wasch- und Spülmaschine andererseits, in Gebäude einbauen. Etwa 110 Liter Wasser verbraucht jeder Deutsche pro Tag im Haushalt. »Bis zur Hälfte dieses Wassers wird zum Duschen und Baden verbraucht. Dieses Wasser ist gut geeignet zur Wiederverwertung – zum Beispiel für die Toilettenspülung«, beschreibt Hillenbrand das Verfahren.

Energieallee als grüne Wasseraufbereitung
Das Wasser, das nicht im Haushalt wiederverwertet wird, fließt in die »Energieallee« – einem Grünstreifen mit feuchtigkeitsliebenden Pflanzen. Sie stehen mit den Wurzeln im Wasser, nehmen restliche Nährstoffe auf und haben optimale Wachstumsbedingungen. »Es entsteht Biomasse, die Städte werden grüner und die Überflutungsgefahr wird reduziert – durch die Wasserspeicher unter den Pflanzen. Ein Quadratmeter pro Einwohner reicht aus. Langfristig ist so ein System günstiger als das heutige Standardkanalsystem«, ist Hillenbrand überzeugt. Die Kanäle wollen die Wissenschaftler anfangs durch regelmäßige Schwallspülungen mit Restwasser der Haushalte und langfristig mit einer Unterdruckentwässerung betriebsfähig halten.

Die Kläranlage erreicht dann nur noch sehr konzentriertes Abwasser. Es läuft direkt zur Methangewinnung in die Faulung. So kann der Energieaufwand für die Behandlung reduziert werden. »Der Energiegewinn ist deutlich. Außerdem können wir Stickstoff und Phosphor zurückgewinnen«, sagt Hillenbrand.

Pilotprojekt in Westfalen
In Lünen ist vorgesehen, dass eine Wohnungsbaugesellschaft die getrennten Leitungen für Grau- und Schwarzwasser in den Gebäuden des Modellquartiers einbaut. Der Abwasserentsorger saniert das Kanalsystem. »Die Zeit ist günstig. Die Sanierungszyklen laufen jeweils gerade ab«, berichtet Hillenbrand. Innerhalb der nächsten drei Jahre sollen die Maßnahmen umgesetzt sein.

Weitere Informationen:
http://www.fraunhofer.de/de/presse/presseinformationen/2016/Mai/starre-wasserroh…

Quelle: idw

(nach oben)


Betriebsvereinbarungen: Digitales, Arbeitszeit u. Schutz vor psychischen Belastungen sind TopThemem

Rainer Jung Abt. Öffentlichkeitsarbeit
Hans-Böckler-Stiftung

Aktuelle Auswertung
Betriebsvereinbarungen: Digitales, Arbeitszeit und Schutz vor psychischen Belastungen sind Top-Themen

In Betriebsvereinbarungen können Arbeitnehmerinnen und Arbeitnehmer den Wandel der Arbeitswelt im eigenen Betrieb mit gestalten – wenn sie denn einen Betriebsrat gewählt haben. Eine aktuelle Auswertung der Hans-Böckler-Stiftung zeigt: Datenschutz, Arbeitszeit und psychische Belastungen zählen derzeit zu den Top-Themen bei solchen Vereinbarungen zwischen Arbeitnehmervertretung und Management.*

Arbeit 4.0, digitale Wirtschaft, Sharing Economy – für den Wandel der Arbeitswelt gibt es viele Schlagworte. Doch nur die Wenigsten können sich darunter etwas vorstellen. Wer konkret wissen will, wie die Zukunft der Arbeit aussieht, sollte einen Blick auf die Themen werfen, mit denen sich Betriebsräte aktuell beschäftigen. Diese haben zuletzt vermehrt Vereinbarungen zu Themen wie Datenschutz und flexibler Arbeitszeitgestaltung ausgehandelt. Auch psychische Belastungen am Arbeitsplatz spielen eine größere Rolle. Das geht aus Daten des Archivs Betriebliche Vereinbarungen und der Betriebsrätebefragung 2015 hervor, die Helge Baumann vom Wirtschafts- und Sozialwissenschaftlichen Institut (WSI) und Manuela Maschke aus der Mitbestimmungsförderung der Hans-Böckler-Stiftung ausgewertet haben. Ihre Analyse ist in der aktuellen Ausgabe der WSI-Mitteilungen erschienen.

In fast jedem mitbestimmten Betrieb ab 20 Beschäftigten gibt es mindestens eine Betriebsvereinbarung. Dabei gilt: Je größer der Betrieb, desto mehr Regelungen existieren. Kleinbetriebe mit bis zu 50 Beschäftigten haben im Schnitt zehn, große Betriebe mit mehr als 2.000 Beschäftigten rund 60 Vereinbarungen.

Das meistverbreitete Thema ist inzwischen der Datenschutz – knapp zwei Drittel der Betriebe haben dazu ein gültiges Abkommen. Davon sind fast 30 Prozent erst seit 2014 abgeschlossen worden (siehe auch die Infografik; Link unten). Notwendig werden solche Regelungen, weil moderne Informations- und Kommunikationstechnologien stärker zum Einsatz kommen – verbunden mit neuen Möglichkeiten der Überwachung durch den Arbeitgeber. Aufgabe der Betriebsräte ist es, den Einsatz der Technik so zu gestalten, dass Arbeitnehmern keine Nachteile entstehen. „Es geht vor allem darum, Leistungs- und Verhaltenskontrolle zu begrenzen, Datenschutz für Beschäftigte zu gewährleisten, Auswertung von Protokollen zu regulieren“, schreiben Baumann und Maschke.

Doch nicht nur beim Datenschutz, auch in anderen Bereichen schlagen sich die Themen Digitalisierung und Vernetzung nieder, etwa in Betriebsvereinbarungen, in denen es um die Nutzung von Internet und E-Mail, Social Media oder mobilen Endgeräten geht. Betriebsräte seien dabei häufig in einer Zwickmühle: Einerseits müssten die Regelungen ein Mindestmaß an Schutz vor Leistungsverdichtung und überzogener Flexibilität bieten. Andererseits sollten sie auch denjenigen ¬gerecht werden, die sich Freiräume durch individuelle Arbeitszeiten und eigenständige Arbeitsorganisation wünschen.

– Psyche zunehmend auf der Agenda –
Viele Möglichkeiten zur Verbesserung von Arbeitsbedingungen birgt nach wie vor das klassische Feld der Arbeitszeitgestaltung: Seit Jahren gehören flexible Arbeitszeitmodelle – Arbeitszeitkonten, Arbeitszeitkorridore, Gleitzeit, Rufbereitschaften, Wochenendarbeit, Vertrauensarbeitszeit – zu den wichtigsten Themen in Betriebsvereinbarungen. Aktuell haben beispielsweise rund 63 Prozent der Betriebe eine Regelung zu Arbeitszeitkonten. „Vor allem der Ausgleich von Überstunden, die Rücksichtnahme auf private und der nicht ausschließliche Vorrang betrieblicher Belange sind regelmäßig umkämpftes Terrain im Betrieb“, schreiben Baumann und Maschke.

In etwa der Hälfte der Betriebe sind Vereinbarungen zu ¬Urlaub und Mehrarbeit vorhanden. Dahinter folgen Regelungen zum Arbeits- und Gesundheitsschutz, die es in etwa 42 Prozent der Betriebe gibt. Dass diese Themen weit oben auf der Agenda von Betriebsräten stehen, sei nicht verwunderlich. Schließlich handele es sich um Themen, so die Autoren, für die bereits gute Mitbestimmungsmöglichkeiten existieren.

Die viel diskutierte Tele- und Heimarbeit ist in rund 12 Prozent der Betriebe mittels Betriebsvereinbarung geregelt. Wobei es in Großbetrieben etwa 2,5-mal so häufig eine Homeoffice-Regelung gibt wie in Kleinbetrieben. Außerdem werden in jüngeren Vereinbarungen die Themen Homeoffice und mobiles Arbeiten sehr oft vermischt. Schließlich gestatten Laptop und Smartphone die Arbeit an jedem Ort, auch zu Hause.

Erst in jüngster Zeit werden Gefährdungsbeurteilungen zu psychischen Belastungen stärker beachtet. Dazu gibt es zwar nur in 11,5 Prozent der Betriebe eine Vereinbarung, mehr als 40 Prozent davon wurden aber erst seit 2014 abgeschlossen. „An diesem Thema wird deutlich, dass – wenngleich es noch nicht in jedem Betrieb angekommen ist – die psychischen Gefährdungsbeurteilungen zunehmend auf die Agenda von Betriebsräten rücken“, schreiben die Forscher.

Kontakt in der Hans-Böckler-Stiftung
Dr. Manuela Maschke
Leiterin Archiv Betriebliche Vereinbarungen
Tel.: 0211-7778-224
E-Mail: Manuela-Maschke@boeckler.de

Helge Baumann
WSI
Tel.: 0211-7778-603
E-Mail: Helge-Baumann@boeckler.de

Rainer Jung
Leiter Pressestelle
Tel.: 0211-7778-150
E-Mail: Rainer-Jung@boeckler.de

Weitere Informationen:
http://media.boeckler.de/Sites/A/Online-Archiv/18566 – Helge Baumann, Manuela Maschke: Betriebsvereinbarungen 2015 – Verbreitung und Themen, in: WSI-Mitteilungen 3/2016.

Quelle: idw

(nach oben)


Gewürze und Kräuter: Zutaten, die ein gesundheitliches Risiko bergen können

Dr. Suzan Fiack Presse- und Öffentlichkeitsarbeit
Bundesinstitut für Risikobewertung (BfR)

Gewürze und Kräuter können natürlicherweise oder zufällig mit Krankheitserregern oder fremden Stoffen verunreinigt werden. Letztere werden, wie zum Beispiel bestimmte unerlaubte Farbstoffe, nicht selten auch vorsätzlich hinzugefügt. Um die Sicherheit der Warenketten in Europa weiter zu erhöhen, wurde im Jahr 2013 das EU-Projekt SPICED initiiert. Zum Abschluss des Projekts fand am 1. und 2. Juni 2016 im Bundesinstitut für Risikobewertung (BfR) das internationale Symposium „Spices and Herbs – A Risk-free Taste Experience?“ statt. Dort werden die Ergebnisse der Forschungsarbeiten präsentiert und mit Akteuren aus Wissenschaft, Politik und Wirtschaft diskutiert. Das BfR koordiniert das Forschungsprojekt, das mit Mitteln des 7. EU-Rahmenprogramms gefördert wird. „Im Projekt SPICED haben wir mit Partnern aus sieben europäischen Ländern erfolgreich zusammengearbeitet“, so BfR-Präsident Prof. Dr. Dr. Andreas Hensel. „Unser Fokus im BfR war darauf gerichtet, neue Analyseverfahren zum Nachweis von Verunreinigungen in Gewürzen und Kräutern zu entwickeln und bestehende Verfahren zu verbessern. Damit haben wir eine wichtige Grundlage geschaffen, um mögliche Gesundheitsrisiken für Verbraucher zu verringern.“

Die Europäische Union (EU) ist weltweit einer der größten Märkte für Gewürze und Kräuter. Die Waren werden als getrocknete Rohstoffe meist aus Regionen außerhalb der EU importiert. Verunreinigungen können an zahlreichen Stellen in der Produktions- und Lieferkette auftreten und möglicherweise ein Gesundheitsrisiko für Verbraucherinnen und Verbraucher darstellen. Gewürze und Kräuter werden zwar nur in sehr geringen Mengen, aber dafür in sehr vielen Lebensmitteln eingesetzt. In sechs Arbeitspaketen wurde im SPICED-Projekt u. a. zu den Produktions- und Handelsketten von Gewürzen und Kräutern geforscht, um mögliche Schwachstellen für den Eintrag von Kontaminanten zu identifizieren und um neue Erkenntnisse über das Verbraucherverhalten zu gewinnen.

Verunreinigungen von Gewürzen und Kräutern z. B. durch Mikroorganismen können weitreichende Auswirkungen haben, da über eine einzelne Produktcharge infolge des Einsatzes in zahlreichen Folgeprodukten der Lebensmittelkette und bei der Speisenzubereitung im Haushalt viele Konsumenten erreicht werden. Außerdem können einige Mikroorganismen sogar in getrockneten Kräutern und Gewürzen über Wochen oder Monate überdauern, dazu gehören vor allem sporenbildende Bakterien. Ein besonderer Fokus im SPICED-Projekt lag daher auf der zuverlässigen und standardisierten Analyse von biologischen Verunreinigungen in Gewürzen und Kräutern. Bei der Optimierung der Nachweismethoden für verschiedene Mikroorganismen, wie z. B. dem Sporenbildner Bacillus cereus oder Salmonellen, wurden auch antimikrobielle Eigenschaften der verschiedenen Produkte berücksichtigt.

Gewürze und Trockenkräuter werden im internationalen Handel häufig verfälscht. Je nach Art der Verfälschung kann sich diese auch nachteilig auf die Gesundheit der Konsumenten auswirken. So wurden z. B. in der Vergangenheit qualitativ minderwertigen Paprika- oder Currygewürzen von einigen Produzenten illegale und potenziell gesundheitsgefährdende Farbstoffe zugesetzt. Für sogenannte Authentizitätsprüfungen haben die Wissenschaftlerinnen und Wissenschaftler im SPICED-Projekt spektrometrische und spektroskopische Analysemethoden zum Nachweis von verschiedenen Verfälschungen von Gewürzen und Kräutern entwickelt.

Die Analyse der gesamten Warenkette vom Erzeuger, über Verarbeitung, Handel, Transport etc. bis hin zum Verbraucher diente der Identifizierung von Schwachstellen, an denen mikrobielle oder chemische Verunreinigungen eingetragen werden könnten. Dieses Wissen hilft, Präventionsmaßnahmen zu optimieren. Um potentiellen Gesundheitsgefährdungen des Konsumenten durch kontaminierte Gewürze und Kräuter vorzubeugen und bei Gefährdungslagen schnell reagieren zu können, wurden außerdem verschiedene Berichts-, Warn- und Monitoring-Systeme geprüft und Verbesserungsvorschläge erarbeitet.

Kontaminierte Gewürze und Kräuter als Ursache einer lebensmittelbedingten Infektion oder Vergiftung zu identifizieren ist oft schwierig, da sich Verbraucher, Forscher, Ärzte und Behörden bei der Ursachenforschung in erster Linie auf die Hauptlebensmittelzutaten konzentrieren. Ein Ziel des Projekts ist daher, das Bewusstsein für mögliche Gesundheitsrisiken durch verunreinigte Kräuter und Gewürze zu schärfen. Das SPICED-Projekt wurde daher beispielsweise auf einer Verbrauchermesse in Ungarn und bei der Langen Nacht der Wissenschaft in Österreich vorgestellt. Zudem haben das BfR und die Projektpartner eine Wanderausstellung zum Thema entwickelt, die in sogenannten „Science Centers“ insbesondere für die Zielgruppe Familien mit Kindern präsentiert wird.

Das SPICED-Symposium soll den wissenschaftlichen Austausch von Vertretern aus Wirtschaft, Politik und Wissenschaft fördern. Langfristiges Ziel ist es, die Forschungsaktivitäten und die Zusammenarbeit im Netzwerk, das im Rahmen des Projekts aufgebaut wurde, fortzusetzen. Die Forschungsergebnisse des SPICED-Projekts wurden und werden zudem in internationalen Fachzeitschriften sowie einer Sonderausgabe des wissenschaftlichen Journals „Food Control“ veröffentlicht.

Weitere Informationen über das EU-Projekt SPICED stehen auf der Projekt-Website zur Verfügung: http://www.spiced.eu

Über das BfR
Das Bundesinstitut für Risikobewertung (BfR) ist eine wissenschaftliche Einrichtung im Geschäftsbereich des Bundesministeriums für Ernährung und Landwirtschaft (BMEL). Es berät die Bundesregierung und die Bundesländer zu Fragen der Lebensmittel-, Chemikalien- und Produktsicherheit. Das BfR betreibt eigene Forschung zu Themen, die in engem Zusammenhang mit seinen Bewertungsaufgaben stehen.

Weitere Informationen:
http://www.bfr.bund.de/de/securing_the_spices_and_herbs_commodity_chains_in_euro… Weitere Informationen zum Forschungsprojekt

Quelle: idw

(nach oben)


Thermooptische Messanlagen könnten Millionen Tonnen CO2 in Kohlekraftwerken einsparen

Marie-Luise Righi Marketing und Kommunikation
Fraunhofer-Institut für Silicatforschung ISC

Kohlekraftwerke als konventionelle Energiequellen sind essenziell zur Sicherstellung der Energieversorgung. Doch aufgrund ihres hohen CO2-Austoßes gibt es großen Handlungsbedarf, um die Energiegewinnung effizienter und umweltverträglicher zu gestalten. Das Center of Device Development CeDeD des Fraunhofer-Instituts für Silicatforschung ISC konnte nun in verschiedenen Projekten durch eine Verbesserung der Verbrennungsprozesse nachweisen, dass in großem Umfang der CO2-Ausstoß erheblich minimiert und primäre Energie eingespart werden kann.

Mit der Energiewende und der Abkehr von Atomkraft werden erneuerbare
Energiequellen wichtiger denn je. Doch bislang kann die Energieversorgung – insbesondere die Stromerzeugung für die Grundlast – nicht allein durch saubere Sonnen-, Wind- oder Wasserkraft sichergestellt werden. Herkömmliche Energiequellen wie Mineralöl, Gas und Kohle erleben daher einen großen Aufschwung. Sie belasten jedoch aufgrund ihrer Emissionen die Umwelt und den Menschen.

Mit dem Klimaabkommen von Paris Ende 2015 beschlossen 195 Staaten, den Klimaschutz weiter voranzutreiben und die weltweiten Treibhausgasemissionen drastisch zu reduzieren. Ziel soll die Begrenzung des globalen Temperaturanstiegs auf höchstens 2 °C, wenn möglich sogar nur 1,5 °C, über dem vorindustriellen Niveau sein. Insbesondere Kohlekraftwerke erzeugen einen hohen Ausstoß an CO2-Gas und haben große Auswirkungen auf das Klima. In verschiedenen Projekten konnten Dr. Andreas Diegeler, Leiter des CeDeD, und sein Team eine enorme Reduzierung an CO2-Ausstoß in Kohlekraftanlagen aufzeigen.

Zunächst mussten die Wissenschaftler die Prozesse bei der Verbrennung von Kohle und die Entstehung von Abfallschlacke oder Gasen genau analysieren. Dafür setzten sie thermooptische Messanlagen (TOM) ein, die im Fraunhofer ISC entwickelt werden. Die Anlagen charakterisieren die Veränderungen von Materialien unter kontrollierter Atmosphäre bei unterschiedlichen Bedingungen, angefangen bei Raumtemperatur bis hin zu extrem hohen Temperaturen von bis zu 2400 °C.

Die TOM-Anlage besteht aus einem zentral gelegenen Hochtemperaturofen mit Fenstern auf beiden Seiten. Mit einer starken Lichtquelle auf der linken Seite, die das Innere des Ofens erleuchtet, und einer CMOS-Kamera mit speziellen Linsen und Filtern auf der rechten Seite ist eine exakte Beobachtung des zu verbrennenden Materials – in diesem Fall Kohle – möglich. Eine Analyse der Kamerabilder mit einer Genauigkeit von bis zu 0,3 µm erlaubt es, die Änderung der Konturen des Kohlestücks während der Verbrennung im Ofen zu messen. Zusätzlich werden durch IR-Spektroskopie und Gaschromatographie die Verbrennungsgase bestimmt und wenn erforderlich, kontrolliert Gase zugeführt. Die Reaktion der Gase und ihre Auswirkung auf den Verbrennungsprozess werden ebenfalls direkt in situ erfasst.

Mit diesen Daten gelang es dem Team von CeDeD die Verbrennungsprozesse zu optimieren und unerwünschte Abfallprodukte zu reduzieren. Bei der Verbrennung von Braunkohle konnte durch eine Absenkung der Temperatur um 50 °C im Hochofen und durch die Zuführung von Gasen eine enorme Verbesserung des Reinigungsprozesses erreicht werden und die CO2-Emission um rund 10 Prozent reduziert werden. In einem Standardverbrennungsprozess könnten somit 1000 Gramm CO2 pro Kilowattstunde (kWh) auf rund 900 Gramm gesenkt werden. Welche Auswirkungen das hat, lässt sich anhand eines modernen Braunkohlekraftwerks errechnen. Ein Kohlekraftwerk mit einer Leistung von 4 Gigawatt benötigt jährlich mehr als 30 Millionen Tonnen Kohle, um rund 30 Terawattstunden (also 30 Milliarden kWh) Energie zu erzeugen. In einem Kohlekraftwerk dieser Größe können also rund 3 Millionen Tonnen CO2 im Jahr eingespart werden.

Das Center of Device Development CeDeD hat sich auf die Fertigung von Pilot- und Spezialanlagen für die Charakterisierung von Materialien spezialisiert und setzt TOM bereits erfolgreich für verschiedene Projekte in der Energieindustrie ein.

Weitere Informationen:
http://www.isc.fraunhofer.de
http://www.ceded.de

Quelle: idw

(nach oben)


TU Berlin: Damit das Wasser der Ozeane trinkbar wird

Stefanie Terp Stabsstelle Presse, Öffentlichkeitsarbeit und Alumni
Technische Universität Berlin

Aus Meerwasser soll mit Hilfe des Sonnenlichts Trinkwasser, Wasserstoff und Strom gewonnen werden. Ein neues DFG-Verbundprojekt untersucht die Grundlagen

Die trockensten Wüsten der Erde grenzen häufig an Ozeane. Gleichzeitig sind sie diejenigen Regionen mit einem großen Trinkwasserproblem. Sonnenlicht wiederum gibt es im Überfluss, mit dessen Hilfe aus dem salzigen Meerwasser zunächst Wasserstoff als solarer Energiespeicher erzeugt werden kann, aus dem dann „on demand“ Trinkwasser und nutzbarer Strom gewonnen wird. Für diese chemische Reaktionskaskade aber braucht man maßgeschneiderte Funktionsmaterialien, sogenannte Selektivkatalysatoren.

Mit ihrer Erforschung beschäftigt sich ein neues Verbundprojekt („Selective bifunctional catalysts for regenerative seawater splitting“) am Fachgebiet Elektrochemische Katalyse und Materialien. Unter Leitung von Prof. Dr. Peter Strasser sollen die chemischen Grundlagen der Herstellung, Struktur, Lebensdauer und Leistungsfähigkeit solch neuartiger reversibler Katalysatormaterialien für gekoppelte katalytische Reaktionskaskaden untersucht werden.

Salzhaltiges Meerwasser mit Hilfe von Sonnenlicht in Trinkwasser zu verwandeln, beruht auf der elektrolytischen Spaltung von Wasser in Wasserstoff und Sauerstoff durch elektrischen Strom. Die elektrolytische Spaltung wurde im Jahre 1800 entdeckt. Seitdem wurden die wissenschaftlichen Grundlagen dieses katalytischen Prozesses in vielen Einzelheiten erforscht. Die Verwendung von Reinstwasser war dabei eine wichtige Voraussetzung, da sonst störende katalytische Nebenreaktionen stattfinden können. Reinstwasser ist aber eine kostbare Ressource und in den sonnenreichen Gegenden meist nicht ausreichend verfügbar.

Durch die Entwicklung von sogenannten Selektivkatalysatoren für die elektrochemische Wasserelektrolyse könnte es jedoch möglich werden, selbst stark salzhaltiges Meerwasser für die Spaltung von Wasser mit Hilfe von Sonnenlicht einzusetzen. Der dabei entstehende gasförmige Wasserstoff kann anschließend elektrokatalytisch mit Luftsauerstoff in der Umkehrreaktion zur Reaktion gebracht werden, woraus Reinstwasser und Strom erzeugt werden. Bisher sind die chemischen Grundlagen solch hoch selektiver Katalysatoren für die Meerwasserelektrolyse nicht erforscht. Darüber hinaus wäre es wünschenswert, wenn ein einziger elektrochemischer Reaktor beide Funktionen, also die Meerwasserspaltung und die Umwandlung des molekularen Wasserstoffes in Strom und Reinstwasser, in sich vereinen könnte. Dazu müssen jedoch Katalysatoren entwickelt werden, die zugleich sehr flexibel und spezialisiert sind. Denn neben der Spaltung des salzhaltigen Meerwassers in Wasserstoff sollen sie auch über die Fähigkeit verfügen, diesen in Strom und Reinstwasser umzuwandeln. „Das stellt besonders hohe Anforderungen an die zu untersuchenden Nanomaterialien“, sagt Prof. Dr. Peter Strasser, „aber wenn es gelänge, solche Katalysatoren zu entwickeln und alle katalytischen Prozesse der Spaltung und Umwandlung in einem einzigen elektrochemischen Reaktor ablaufen zu lassen, wäre das eine sehr elegante Lösung für Energie- und Wasserprobleme“.

Das Vorhaben wird von der Deutschen Forschungsgemeinschaft mit 300.000 Euro für drei Jahre gefördert. Die TU-Chemiker arbeiten mit Partnern der Max-Planck-Gesellschaft und der FU Berlin zusammen.

Weitere Informationen erteilt Ihnen gern:
Prof. Dr. Peter Strasser
TU Berlin
Fachgebiet Elektrochemische Katalyse und Materialien
Tel.: 030/314-29542
E-Mail: pstrasser@tu-berlin.de

Quelle: idw

(nach oben)


Warum schon Kinder über Kreuzweh klagen

Giulia Roggenkamp Pressestelle
Stiftung Kindergesundheit

Dass Kinder häufig unter Bauchschmerzen leiden, wissen alle Eltern aus Erfahrung. Rückenschmerzen vermutet man dagegen eher bei Erwachsenen. Leider ein Irrtum: Mittlerweile gehören auch Rückenschmerzen zu den häufigsten Beschwerden bei Kindern und Jugendlichen, berichtet die Stiftung Kindergesundheit in einer aktuellen Stellungnahme.

Warum schon Kinder über Kreuzweh klagen
Stiftung Kindergesundheit informiert über ein zunehmendes Gesundheitsproblem

Dass Kinder häufig unter Bauchschmerzen leiden, wissen alle Eltern aus Erfahrung. Rückenschmerzen vermutet man dagegen eher bei Erwachsenen. Leider ein Irrtum: Mittlerweile gehören auch Rückenschmerzen zu den häufigsten Beschwerden bei Kindern und Jugendlichen, berichtet die Stiftung Kindergesundheit in einer aktuellen Stellungnahme.

„Noch in den 1980er Jahren war es eine weitverbreitete Lehrmeinung, dass Rückenschmerzen bei Kindern selten auftreten und wenn doch, dann seien sie fast immer Symptome einer ernstzunehmenden Erkrankung“, berichtet Kinder- und Jugendarzt Professor Dr. Berthold Koletzko, Vorsitzender der Stiftung Kindergesundheit. „Inzwischen haben jedoch mehrere große Untersuchungen ergeben, dass Rückenschmerzen auch bei Kindern und Jugendlichen ein weit verbreitetes Phänomen sind und in den letzten Jahren massiv zugenommen haben“.

An der europaweit größten Kinderstudie KiGGS des Robert-Koch-Instituts Berlin – KiGGS steht für „Kinder und Jugendgesundheitssurvey“ – haben 17.641 Kinder und Jugendliche gemeinsam mit ihren Eltern teilgenommen. Mehr als drei Viertel aller 11- bis 17jährigen Kinder gaben in dieser Studie an, in den letzten drei Monaten Schmerzen gehabt zu haben. Fast die Hälfte von diesen Kindern klagte über Rückenschmerzen.

Klagt ein Kind oder ein Heranwachsender häufig und regelmäßig über Rückenschmerzen, sollte selbstverständlich auch heute der Kinder- und Jugendarzt oder ein Kinderorthopäde konsultiert werden, um eine organische Ursache der Beschwerden auszuschließen, betont Professor Koletzko und verweist als Beispiel auf zwei Störungsbilder, die gerade im Jugendlichenalter besonders häufig Probleme machen.

Skoliose. Bei ca. jedem 200. Kind in Deutschland muss damit gerechnet werden, dass es später eine Skoliose, also eine seitlich verkrümmte, starre Wirbelsäule bekommt. Mädchen sind viermal häufiger und zumeist auch schwerer betroffen als Jungen. Die Ursache der Skoliose ist in der Mehrzahl der Fälle nicht geklärt.
Eltern sollten wissen: Die Skoliosebehandlung hat in den letzten Jahren enorme Fortschritte gemacht. Diese können aber nur dann genutzt werden, wenn die Krankheit rechtzeitig erkannt und früh genug behandelt wird. Je früher Eltern die Entwicklung einer Fehlstellung der Wirbelsäule erkennen, desto weniger aufwändig und belastend sind die notwendigen Maßnahmen zur Behandlung der Skoliose und desto größer sind die Erfolgsaussichten. Heute werden rund 90 Prozent aller Skoliosen konservativ, also mit Krankengymnastik und gegebenenfalls mit Korsetten behandelt und bedürfen keiner Operation.

Scheuermann. Die häufigste Veränderung der Wirbelsäule bei Jugendlichen ist die Scheuermann-Krankheit, eine Verknöcherungsstörung der Wirbelsäule. Dabei krümmt sich die Wirbelsäule nach vorne, es entsteht ein runder Rücken. Die Krankheit tritt typischerweise im Alter zwischen 8 und 14 Jahren auf. Vom Morbus Scheuermann sind nach unterschiedlichen Schätzungen bis zu 30 Prozent aller Jugendlichen betroffen, Jungen doppelt so häufig wie Mädchen. Die Ursache der Erkrankung ist unbekannt. Die Therapie ist vom Ausmaß der Krümmung abhängig.
Diese und andere organische Erkrankungen finden die Ärzte allerdings bei höchstens 15 Prozent von Kindern und Jugendlichen, die über „Rücken“ klagen. Was also steckt hinter dem so rasant zunehmenden Problem?
Auf der Suche nach den Ursachen führte vor kurzem das Forsa-Institut Berlin im Auftrag der DAK eine bundesweite Umfrage unter 100 Kinder- und Jugendärzten durch. Diese Ärzte sind ja die ersten, die mit den Gesundheitsproblemen der Altersgruppe konfrontiert werden. Die Studie ergab: Die Zahl der Jungen und Mädchen mit Rückenschmerzen hat in den vergangenen zehn Jahren spürbar zugenommen. Die Probleme beginnen meist schon bei der Einschulung und treten besonders oft bei den 11- bis 14-Jährigen auf.

Als häufigste Ursachen für die Zunahme von Rückenschmerzen vermuteten die befragten Pädiater vor allem folgende:
• Die Kinder und Jugendlichen bewegen sich zu wenig in der Freizeit (98 Prozent);
• sie verbringen zu viel Zeit mit Medien und PC (95 Prozent);
• die Eltern regen die motorische Entwicklung ihrer Kinder nicht genug an (91 Prozent);
• die Kinder erhalten zu wenig oder schlechten Schulsportunterricht (60 Prozent).

Leider gibt es für diese Vermutungen handfeste Beweise, bestätigt die Stiftung Kindergesundheit.

Nicht mal eine Stunde am Tag aktiv
Die Weltgesundheitsorganisation WHO empfiehlt für Kinder und Jugendliche eine moderate bis starke Bewegungsaktivität, mindestens eine Stunde pro Tag und das an fünf Tagen in der Woche. Dieser Richtwert wird in Deutschland gegenwärtig nur von 27,5 Prozent der 3- bis 17-jährigen Kinder und Jugendlichen erreicht, ergab die erste Folgebefragung von 12.368 Teilnehmern der KiGGS-Studie (KiGGS Welle 1). Je älter die Kinder werden, umso stärker lassen ihre Alltagsaktivitäten nach. Von den Jungen zwischen 14 und 17 Jahren sind nur noch 15 Prozent in dem von der WHO empfohlenen Maß aktiv – immerhin noch doppelt so viele wie die Mädchen mit lediglich acht Prozent.

Dabei hätten viele Kinder gute Möglichkeiten, sich ausreichend zu bewegen, betont die Stiftung Kindergesundheit. Schließlich sind nach den gleichen Erhebungen 59,7 Prozent der Kinder und Jugendlichen in einem Sportverein organisiert, mehr als je zuvor. So ergibt sich die paradoxe Situation, dass zwar der Organisationsgrad der Kinder ansteigt, ihre Aktivität in der Freizeit jedoch abnimmt. Die Aktivität in Sportvereinen kann offenbar den Bewegungs- und Fitnessmangel im Alltag nicht kompensieren.

Unterwegs in „Mamas Taxi“
In den vergangenen 20 Jahren hat sich die Leistungsfähigkeit der Schülerinnen und Schüler um rund zehn Prozent verschlechtert. Ihr Leben spielt sich im Sitzen ab: Nach einer Untersuchung von Professor Dr. Klaus Bös am Institut für Sport und Sportwissenschaft der Universität Karlsruhe bei über 1000 Grundschülern verbringen die Kinder etwa neun Stunden am Tag im Sitzen, ebenfalls neun Stunden im Liegen, fünf Stunden stehend und lediglich eine Stunde in Bewegung.

Legten anfangs der 70er Jahre noch 91 Prozent der Erstklässler den Schulweg allein oder mit anderen Kindern zurück, waren es im Jahr 2012 nur noch 50 Prozent. Zugenommen haben dagegen Fahrten im „Mamas Taxi“. Nach Erhebungen des Bundesverkehrsministeriums legen heute Kinder und Jugendliche 58 Prozent ihrer täglichen Wege passiv sitzend in Transportmitteln zurück.
Die Folgen sind besorgniserregend:

• 43 Prozent der Kinder und Jugendlichen können beim Rumpfbeugen das Fußsohlenniveau nicht erreichen.
• 35 Prozent schaffen es nicht, zwei oder mehr Schritte auf einem drei Zentimeter breiten Balken rückwärts zu balancieren.
• Ihre Leistungen beim Weitsprung aus dem Stand haben sich im Laufe von zwanzig Jahren um 14 Prozent verschlechtert.
• Nach Ansicht Kölner Sportmediziner benötigen 30 bis 50 Prozent aller Grundschulkinder eine motorische Förderung.

Medien als Freizeit-Diebe
Die Nutzung von Medien beansprucht einen immer höheren Anteil der Zeit von Kindern und Jugendlichen. Über 70 Prozent der Jugendlichen zwischen 14 und 19 Jahren können ein Leben ohne Handy nicht mehr vorstellen. Bereits 2013 besaßen 96 Prozent von ihnen ein eigenes Mobiltelefon. Ein Jahr später verfügten 94 Prozent über ein eigenes Smartphone, mit dem sie mehr können als nur telefonieren: 78 Prozent hören Musik, 70 Prozent surfen im Internet und über 90 Prozent nutzen Apps, allen voran WhatsApp, Facebook, Instagram und Snapchat. Diese Apps werden im durchschnitt hundertmal am Tag, etwa alle zehn Minuten aufgerufen. Manche Heranwachsende können das Gerät auch am Abend und während der Nacht nicht loslassen.
Acht von zehn Jugendlichen sehen regelmäßig fern, nach eigenen Angaben durchschnittlich 113 Minuten am Tag. Fernsehzeit stellt naturgemäß keine Bewegungszeit dar, geht jedoch häufig mit einem erhöhten Kalorienkonsum einher.
Die von Professor Dr. Wolfgang Ahrens vom Leibniz-Institut für Präventionsforschung und Epidemiologie in Bremen koordinierte IDEFICS-Studie untersuchte bei über 11.000 Kindern in acht europäischen Ländern die Zusammenhänge zwischen Ernährung, Lebensstil und sozialen Determinanten und der Entwicklung von Übergewicht bei zwei- bis neunjährigen Kindern. Mit jeder zusätzlichen Stunde, die ein Kind am Tag vor dem Fernseher verbrachte, erhöhte sich die Wahrscheinlichkeit um 22 Prozent, zur Gruppe mit dem größten Zuwachs des Body-Mass-Index zu gehören. Diese Gefahr wächst um 33 Prozent, wenn das Fernsehgerät im Kinderzimmer steht und um 22 Prozent, wenn während des Essens ferngesehen wird.

Damit beginnt jedoch oft eine besorgniserregende Spirale, so die Stiftung Kindergesundheit: Dicke Kinder bewegen sich weniger wegen ihres Körpergewichts. Ihre Inaktivität führt zu einem ständig schlechteren Abschneiden in sportlichen Leistungen. Die so entstehende Frustration führt dann oft zu noch mehr Essen, noch mehr Sitzen, noch mehr Rückenschmerzen.

Eltern sollten bessere Vorbilder sein
Wissenschaftliche Gremien in Europa empfehlen, mindestens an drei, besser jedoch an allen Tagen der Woche eine halbe Stunde körperlich aktiv zu sein, wobei Puls und Atemfrequenz zunehmen und ein leichtes Schwitzen auftreten sollten. Als günstig gelten beispielsweise Ausdauersportarten wie Dauerlauf, Schwimmen, Radfahren, Rudern und Skilanglauf, doch selbst eine halbe Stunde zügiges Gehen am Tag kann bei Ungeübten einen positiven gesundheitlichen Effekt erzielen.

Leider halten sich lediglich 13 Prozent der erwachsenen Bevölkerung an diese Empfehlung. Laut Robert-Koch-Institut Berlin (RKI) treiben ab 18 Jahren 37,4 Prozent der Männer und 38,4 Prozent der Frauen in Deutschland überhaupt keinen Sport. Weitere 20,9 Prozent der Männer und 28,4 Prozent der Frauen sind weniger als zwei Stunden pro Woche sportlich aktiv. Die übrigen 41,7 Prozent der Männer und 33,2 Prozent der Frauen geben an, sich zwei oder mehr Stunden in der Woche zu bewegen.

Die Stiftung Kindergesundheit appelliert an die Eltern, bewegte Vorbilder für ihre Kinder zu sein. Sie sollten von klein auf mit ihren Kindern gemeinsame Aktivitäten entfalten:
Gemeinsam Sport treiben, lieber mit dem Rad fahren oder zu Fuß gehen, anstatt das Auto zu benutzen. Ihr gutes Beispiel wirkt ansteckend auf die Kinder und nutzt auch den Eltern selbst.

Mehr Platz für Kinder
Um die Bewegungsdefizite von Kindern und Jugendlichen auszugleichen, sind viele Maßnahmen nötig, betont die Stiftung Kindergesundheit und nennt Beispiele:
• Sport- und Gesundheitsunterricht für Kindergarten- und Schulkinder so oft wie möglich, am besten täglich.
• Eine konsequente Verkehrsberuhigung in Wohngebieten und die verstärkte Ausweisung von Spielstraßen.
• Die Schaffung von attraktiven Bewegungsräumen, wo Kinder gefahrlos und weitgehend unbeaufsichtigt spielen können. Dadurch hätten sie die Chance, dort auch ungeplant andere Kinder zu treffen, die als Spielpartner bei allen Bewegungsaktivitäten benötigt werden. Wer allein spielt, bewegt sich wenig.
• Das Schaffen von bewegungsfreundlichen Rahmenbedingungen in Ausbildungsstätten.
• Rigorose Kontrolle des Medienkonsums durch die Eltern.
• Intensive Nutzung der Bewegungsangebote von Sportvereinen.

„TigerKids“ haben Spaß an der Bewegung
Als einen eigenen Beitrag zur Bewegungs- und Ernährungserziehung entwickelte die Stiftung Kindergesundheit gemeinsam mit der Kinderklinik der Universität München und verschiedenen weiteren Partnern das Präventionsprojekt „TigerKids – Kindergarten aktiv“. Das bundesweit erfolgreich eingeführte Programm wird derzeit in etwa 4.000 KiTas durchgeführt. Die Ziele des Projekts für eine bewegte Kinderwelt:

• Verhaltensänderung der ganz Kleinen, um ein gesundes, aktives Erwachsenwerden zu ermöglichen
• Förderung regelmäßiger Bewegung, die Spaß macht
• Gesundheitsfördernde Auswahl von Speisen und Getränken
• Erleben und Einüben eines gesunden Lebensstils.

Fördern auch Sie die Gesundheit unserer Kinder durch Ihre Spende, die in voller Höhe den Projekten der Stiftung Kindergesundheit zugute kommt.

Mit einem Beitritt zum Freundeskreis der Stiftung Kindergesundheit können Sie die Arbeit der
Stiftung regelmäßig fördern.

Mehr Informationen hierzu finden Sie unter: www.kindergesundheit.de
Spendenkonto: HypoVereinsbank München
IBAN: DE41 7002 0270 0052 0555 20
SWIFT (BIC): HYVEDEMMXXX
Vielen Dank!

Quelle: idw

(nach oben)


Göttinger Studie: Verbraucher wollen faire Preise für Milch, Fleisch und Backwaren

Romas Bielke Öffentlichkeitsarbeit
Georg-August-Universität Göttingen

Viele Verbraucher sind der Meinung, dass die Leistungen der Landwirte in der Lebensmittelproduktion unfair entlohnt werden. In einer Studie des Lehrstuhls „Marketing für Lebensmittel und Agrarprodukte“ der Universität Göttingen sollten sie einschätzen, wieviel ein Landwirt bei den heutigen Preisen im Einzelhandel für Backwaren, Fleisch und Milch verdient. Zugleich sollten die Verbraucher angeben, welche Preise sie für angemessen halten würden. „Die Ergebnisse zeigen, dass viele Verbraucher in einer fairen Welt den Landwirten einen höheren Anteil zusprechen würden als den, der heute gezahlt wird“, so Hauptautorin Gesa Busch. Die Studie ist jetzt im Journal of Economic Psychology erschienen.

Verbraucher wollen faire Preise für Milch, Fleisch und Backwaren
Göttinger Studie zeigt grundsätzliches Wohlwollen der Gesellschaft für die Arbeit von Landwirten

(pug) Viele Verbraucher sind der Meinung, dass die Leistungen der Landwirte in der Lebensmittelproduktion unfair entlohnt werden. In einer Studie des Lehrstuhls „Marketing für Lebensmittel und Agrarprodukte“ der Universität Göttingen sollten sie einschätzen, wieviel ein Landwirt bei den heutigen Preisen im Einzelhandel für Backwaren, Fleisch und Milch verdient. Zugleich sollten die Verbraucher angeben, welche Preise sie für angemessen halten würden. „Die Ergebnisse zeigen klar, dass viele Verbraucher in einer fairen Welt den Landwirten einen höheren Anteil zusprechen würden als den, der heute gezahlt wird“, so Gesa Busch, Hauptautorin der Studie. Das gilt vor allem für die Milchpreise. Der Lebensmitteleinzelhandel hingegen sollte nach Verbrauchermeinung bei allen Produkten Anteile abgeben.

Beeinflusst wird die Höhe des erwünschten fairen Anteils unter anderem dadurch, wie die Verbraucher das Verhältnis von Erlös zu Arbeitsaufwand der Landwirte und deren Investitionen einschätzen. Je mehr die Verbraucher hier ein Missverhältnis vermuten, desto höhere Erlösanteile würden sie den Landwirten in einer gerechten Welt zuteilen. Auch nicht-monetäre Werte, wie eine gerechte Behandlung der Landwirte durch die Gesellschaft und die Abnehmer haben aus Sicht der Verbraucher einen Einfluss auf eine faire Verteilung. Ebenso spielt eine Rolle, dass die Landwirtschaft als relativ machtlos wahrgenommen wird.

Die Ergebnisse der Studie zeigen, dass viele Verbraucher die Position der Landwirte gestärkt sehen möch-ten. Co- Autor Prof. Dr. Achim Spiller weist darauf hin, dass die Befragung bereits vor der aktuellen Preiskri-se für Milch und Fleisch durchgeführt wurde. „Auch wenn eine Stärkung der Landwirte aus politischer Sicht schwierig umzusetzen ist, so verdeutlicht die Studie doch ein grundsätzliches Wohlwollen der Gesellschaft für die Landwirtschaft“, sagt er. „Es gibt wahrscheinlich keine andere Warengruppe, bei der die Verbraucher ein so deutliches Störgefühl bei den heutigen Preisen haben.“ Mit höheren Erzeugeranteilen würde sowohl den Landwirten in Zeiten niedriger Weltmarktpreise geholfen, als auch den Anforderungen vieler Verbraucher besser entsprochen. So können Verbraucher in Schweden zum Beispiel im Geschäft entscheiden, ob sie einen freiwilligen Aufschlag von etwa 10 Cent für die Bauern bezahlen möchten: Zwei Drittel der Verbraucher zahlen den Aufschlag.

Originalveröffentlichung: Busch, Gesa & Spiller, Achim (2016). Farmer share and fair distribution in food chains from a consumer’s perspective. In: Journal of Economic Psychology. doi: 10.1016/j.joep.2016.03.007.

Kontaktadresse:
Petra Geile
Georg-August-Universität Göttingen
Fakultät für Agrarwissenschaften
Department für Agrarökonomie und Rurale Entwicklung
Platz der Göttinger Sieben 5, 37073 Göttingen
Telefon (0551) 39-9897
E-Mail: lehrstuhl.marketing@agr.uni-goettingen.de
Internet: www.agrarmarketing.uni-goettingen.de

Quelle: idw

(nach oben)


Aufbruch in die unbekannte Welt der Brackwasser-Bakterien

Dr. Barbara Hentzsch Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Ostseeforschung Warnemünde

Am 3. Juni startete eine Gruppe von Warnemünder Mikrobiologen von Rostock aus zu einer Forschungsfahrt mit FS Alkor in die Ostsee. Sie untersuchen entlang ihrer Fahrtroute, die von West nach Ost durch sehr unterschiedlich salzhaltiges Wasser führt, wie sich die Zusammensetzung der Bakterien-Gemeinschaften sowie die Häufigkeit und Aktivität einzelner Bakterien entlang dieses „Salzgradienten“ unterscheiden. In einem zweiten Fahrtabschnitt, der zu den tiefsten Stellen der Ostsee führt, stehen die Auswirkungen des Salzwassereinbruchs vom Dezember 2014 auf die Zusammensetzung der mikrobiellen Gemeinschaften im Fokus.

Wenn es um Brackwasser geht, so verkünden schon die Schulbücher, dass die Biodiversität hier gegenüber dem Salzwasser- oder dem Süßwasser-Milieu am niedrigsten ist. Für Bakterien, die an nahezu allen wichtigen Prozessen im Meer beteiligt sind, trifft diese Lehrmeinung allerdings nicht zu, das konnte Daniel Herlemann, Wissenschaftler am Leibniz-Institut für Ostseeforschung Warnemünde, bereits vor vier Jahren nachweisen. Verglichen mit den Verhältnissen im Salzwasser, sind im Brackwasser Bakterien in gleicher, wenn nicht sogar größerer Vielfalt vertreten. Trotz dieses „starken Auftritts“ sind die Informationen über Brackwasser-Bakterien erst sehr spärlich. „Wir haben bereits sehr viele unterschiedliche taxonomische Einheiten im Brackwasser nachgewiesen, aber im Gegensatz zu den marinen Arten wissen wir noch nicht, was diese Arten auszeichnet, was ihre Funktion ist und was sie, allgemein gesprochen, alles können.“

Daniel Herlemann wird auf dem ersten Fahrtabschnitt von Rostock in den Skagerrak und von dort nach Saßnitz die Fahrtleitung übernehmen. Gemeinsam mit seinen Kolleg*innen an Bord wird er das Sediment sowie die Wassersäule von den tiefsten Bereichen bis in die obersten, Licht durchfluteten 10 m des Oberflächenwassers beproben. Auch wenn die Fahrt zuerst ins Skagerrak, in ein annähernd vollmarines Milieu, führt, so liegt das Hauptaugenmerk des ersten Fahrtabschnittes doch auf dem Brackwasserbereich der deutschen Ostsee. Die Verhältnisse im salzigeren Wasser des Übergangsbereiches zwischen Ostsee und Nordsee werden jedoch zu Vergleichszwecken mitunte-sucht.

„Kein anderes Seegebiet als die Ostsee bietet derart gute Möglichkeiten, Brackwasser-Bakterien zu untersuchen. Wir können sie vor unserer Haustür beproben und dann beobachten, wie sie mit den unterschiedlichen Klimabedingungen und Salzgehalten der Ostsee zurechtkommen.“ Ein wichtiger erster Schritt für solche Untersuchungen ist die Isolierung einzelner Bakterien-Arten. Erst wenn es nach der Probennahme auf See im heimischen Labor gelungen ist, die Mikroorganismen zu vereinzeln, kann die Erforschung von Funktionen beginnen und dem „Heer“ an unterschiedlichen Bakterien auch unterschiedliche Eigenschaften zugewiesen werden.

Eine weitere Fragestellung, die auf dem ersten Fahrabschnitt verfolgt wird, widmet sich dem so genannten Oberflächenfilm – den obersten Millimetern des Meeres. In dem Projekt MarParCloud wird die Wechselwirkung zwischen Meer und Atmosphäre untersucht und der Frage nachgegangen, welche Rolle Mikroorganismen dabei spielen. Die Beprobung des dünnen Oberflächenfilms und der darüber lagernden Luftschicht erfordert spezielle Probennahmetechnik. MarParCloud wird im Rahmen des Leibniz-Wettbewerbs gefördert.

Im zweiten Fahrtabschnitt, der von Sassnitz aus in das Gotland-Becken und Landsort-Tief führen wird, übernimmt Klaus Jürgens, Leiter der Arbeitsgruppe Mikrobielle Ökologie am IOW, die Fahrtleitung auf FS Alkor. Dort, wo die Ostsee am tiefsten ist und meist unter Sauerstoff leidet, sucht er nach den Folgen des großen Salzwassereinbruchs vom Dezember 2014. „Im Zuge des Klimawandels nehmen die Seegebiete mit Sauerstoff-mangel weltweit zu. In der Ostsee können wir sehr gut untersuchen, was an der Grenz-schicht zwischen Sauerstoffhaltigem und Sauerstoffarmem Wasser passiert und welche Organismen die Ausbreitung dieser Zonen kontrollieren.“ Klaus Jürgens wird in den tiefen Becken untersuchen, wie es nach dem letzten Salzwassereinbruch, der große Mengen an Sauerstoff in das Tiefenwasser der Ostsee eingetragen hat, zu erneuter Sauerstoffnot kommt. Die Alkor-Fahrt endet am 17. Juni in Rostock.

Fragen zur ALKOR-Expedition beantwortet
Dr. Daniel Herlemann, Tel.: 0381 5197 367, daniel.herlemann@io-warnemuende.de
Prof. Dr. Klaus Jürgens, Tel.: 0381 5197 250, klaus.juergens@io-warnemuende.de

Das IOW ist Mitglied der Leibniz-Gemeinschaft, zu der zurzeit 88 Forschungsinstitute und wissenschaftliche Infrastruktureinrichtungen für die Forschung gehören. Die Ausrichtung der Leibniz-Institute reicht von den Natur-, Ingenieur- und Umweltwissenschaften über die Wirtschafts-, Sozial- und Raumwissenschaften bis hin zu den Geisteswis-senschaften. Bund und Länder fördern die Institute gemeinsam. Insgesamt beschäftigen die Leibniz-Institute etwa 18.100 MitarbeiterInnen, davon sind ca. 9.200 Wissen-schaftlerInnen. Der Gesamtetat der Institute liegt bei mehr als 1,64 Mrd. Euro. (www.leibniz-gemeinschaft.de)

Quelle: idw

(nach oben)


Risiko Ausdauersport? Mediziner finden keine Hinweise für Herzschäden durch langjährigen Sport

Thorsten Mohr Pressestelle der Universität des Saarlandes
Universität des Saarlandes

Belgische Wissenschaftler haben 2012 eine Studie veröffentlicht, die in die These mündet, dass wiederholte intensive Ausdauerbelastungen auf Leistungssport-Niveau zu einer krankhaften Vergrößerung der rechten Herzkammer führen können. Damit entstünden Gefahren bis hin zum plötzlichen Herztod. In der Fachwelt hat diese Arbeit für viel Aufsehen gesorgt. Sportmediziner der Universität des Saarlandes haben sie nun erstmals an sogenannten Masterathleten, älteren Leistungssportlern, gezielt überprüft. Ihr Ergebnis widerlegt die Annahmen ihrer belgischen Kollegen. Die Studie wurde im renommierten Fachmagazin „Circulation“ veröffentlicht.

Ausdauersportler, die an einem plötzlichen Herztod versterben, sind in trauriger Regelmäßigkeit Teil der medialen Aufmerksamkeit. Auch vor einigen Wochen ging eine Nachricht durch Fernsehen, Zeitungen und Internet: Der niederländische Radprofi Gijs Verdick erlag im Krankenhaus zwei Herzattacken, die er eine Woche zuvor bei einem Rennen erlitten hatte.

Mögliche Gefahren des Ausdauersports für das Herz werden bereits seit über hundert Jahren in der medizinischen Fachwelt diskutiert. Obwohl mittlerweile weitgehend Konsens besteht, dass es sich beim vergrößerten Sportherz um eine gesunde Anpassungsreaktion an regelmäßig betriebenen Ausdauersport handelt, lassen manche Studien auch sportbedingte krankhafte Veränderungen vermuten. So auch eine Arbeit belgischer Kardiologen und Sportmediziner, die 2012 publiziert wurde und weltweite Beachtung fand (http://www.ncbi.nlm.nih.gov/pubmed/22160404). Die Forscher stellten darin einen Zusammenhang zwischen Extrem-Ausdauersport und der akuten Vergrößerung und Funktionseinschränkung der rechten Herzkammer unmittelbar nach Belastung her. Genauer gesagt, beobachteten sie eine Vergrößerung und Funktionseinschränkung der rechten Herzkammer nach mehrstündigen Ausdauerwettkämpfen. Allerdings wurde die daraus abgeleitete Hypothese einer langfristigen Schädigung der rechten Herzkammer durch Ausdauersport, zwischenzeitlich auch als „belastungsinduzierte Arrhythmogene Rechtsventrikuläre Cardiomyopathie (ARVC)“ bezeichnet, bislang nicht durch längsschnittliche Untersuchungen bestätigt. Deshalb war noch unklar, ob die von den Belgiern festgestellte und in der Fachwelt häufig diskutierte akute Vergrößerung der rechten Herzkammer nach Extrem-Ausdauersport tatsächlich in einen gefährlichen Dauerzustand mündet.

Für die Saarbrücker Forscher um Prof. Dr. Jürgen Scharhag, Kardiologe und Sportmediziner, und Dr. Philipp Bohm war die Hypothese: „Ausdauersport führt zu krankhafter Vergrößerung der rechten Herzkammer“, nicht unmittelbar einleuchtend. Am Saarbrücker Institut für Sport- und Präventivmedizin untersuchen die Wissenschaftler seit Jahrzehnten Spitzensportler aus vielen Disziplinen, darunter Triathleten, Schwimmer und Profi-Fußballer. Anzeichen, die die belgische These untermauerten, fanden die Saar-Forscher dabei nie. Daher beschlossen sie, die Hypothese zu überprüfen.

Dafür untersuchten sie 33 sogenannte Elite-Masterathleten (im Schnitt 47 Jahre alt) und verglichen sie mit einer Kontrollgruppe (ebenfalls 33 Männer), die ihnen in Alter, Größe und Gewicht ähnelte, aber keinerlei Ausdauersport betrieben hat. Die Athleten, unter denen ehemalige Olympia-Teilnehmer ebenso wie ehemalige professionelle Ironman-Sieger und Teilnehmer zu finden waren, sind seit rund 30 Jahren leistungssportlich aktiv und trainieren nach wie vor rund 17 Stunden pro Woche.

Die saarländischen Wissenschaftler konnten zwar feststellen, dass die Herzen der langjährigen Spitzensportler erwartungsgemäß deutlich größer und kräftiger waren als die der Kontrollgruppe. „Aber wir fanden keine Hinweise für eine dauerhafte Schädigung, krankhafte Vergrößerung oder Funktionseinschränkung der rechten oder linken Herzkammer durch langjährig betriebenen intensiven Ausdauersport“, erläutert Philipp Bohm, der inzwischen am universitären Herzzentrum Zürich arbeitet.

Der Rückgriff auf hochtrainierte und leistungssportlich aktive Masterathleten ist ein Kniff, den die Saarbrücker Forscher angewendet haben: Da die beste Methode, das Herz und insbesondere die rechte Herzkammer zu untersuchen, die kardiale Magnetresonanztomographie (MRT) ist, diese jedoch noch nicht lange genug zur Verfügung steht und auch kein Routineverfahren zur Untersuchung von Sportlern darstellt, wird es auf absehbare Zeit keine systematischen kernspintomographischen Verlaufsstudien zum Sportherzen geben können. Eine Längsschnitt-Studie, bei der die Probanden vielleicht sogar über mehrere Jahrzehnte begleitet werden, wäre demnach mittels MRT noch gar nicht möglich. „Diese sogenannten Mastersportler repräsentieren derzeit also am besten den Langzeitverlauf langjährig betriebenen Ausdauerwettkampfsports“, erklärt Jürgen Scharhag.

Hintergrund:
Die Saarbrücker Sportmedizin hat eine lange Tradition in der Erforschung medizinischer Aspekte des Spitzensports und der Sportkardiologie. So erforschen die saarländischen Mediziner beispielsweise mit dem Weltfußballverband FIFA den plötzlichen Herztod bei Fußballern. Institutsdirektor Professor Tim Meyer ist als Mannschaftsarzt der deutschen Fußball-Nationalmannschaft tätig wie bereits sein Vorgänger Professor Wilfried Kindermann. Jürgen Scharhag betreut in derselben Funktion die U-21-Auswahl des DFB. Darüber hinaus betreuen und betreuten die Mediziner des Instituts diverse deutsche Olympiamannschaften und Nationalteams sowie die Athleten des hiesigen Olympiastützpunktes.

Die Studie im Internet:
„Right and Left Ventricular Function and Mass in Male Elite Master Athletes“ (12. April 2016): http://www.ncbi.nlm.nih.gov/pubmed/27073129

Weitere Informationen bei:
Prof. Dr. Jürgen Scharhag
Tel.: (0681) 30270400
E-Mail: juergen.scharhag@uni-saarland.de

Dr. med. Philipp Bohm
E-Mail: philipp.bohm@usz.ch

Weitere Informationen:
http://www.ncbi.nlm.nih.gov/pubmed/27073129

Quelle: idw

(nach oben)


Wie Bakterien lernen, ihre Feinde zu lieben

Dr. Manfred Schloesser Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für marine Mikrobiologie

Tag ein, Tag aus, auf engstem Raum mit deinem größten Feind. Klingt unvorstellbar? In der Welt der Mikroben ist dies seit Jahrmilliarden Alltag. Diese Nähe kann zu ungewöhnlichen Partnerschaften führen, wie eine Studie von Forschern des Max-Planck-Instituts für Marine Mikrobiologie und der Universität Calgary zeigt.

Mit Mikroben auf Zeitreise
Möchte man wissen, wie unsere urzeitlichen Vorfahren aussahen, hilft ein Blick durchs Mikroskop. Mit etwas Glück entdeckt man sie: kleine, einzellige Eukaryoten – auch Protisten genannt. Protisten sind direkte Verwandte von Tieren, Pflanzen und Pilzen. Doch diese Einzeller haben sich im Laufe der Evolution kaum weiterentwickelt. Viele Protisten machen noch heute genau das, was schon ihre Vorfahren vor Urzeiten taten: Sie jagen und verspeisen andere Mikroorganismen. Zu diesen räuberischen Protisten zählen beispielsweise die Breviaten. Diese Gruppe tauchte das erste mal vor etwa einer Milliarde Jahren auf – zu einer Zeit, in der in den Tiefen des Ozeans noch kaum Sauerstoff vorhanden war.

Als Anpassung an den Sauerstoffmangel nutzen Breviaten einen recht einfachen Stoffwechsel: die sogenannte Fermentation, eine Form der Gärung. Dieser Prozess liefert deutlich weniger Energie als beispielsweise die bakterielle Nitratatmung. Wäre es da nicht sinnvoll für die Breviaten, mit Bakterien zusammenzuarbeiten um ihren Stoffwechsel effizienter zu machen? Klingt logisch. Doch es gibt ein Problem: Bakterien sind die bevorzugte Beute von Breviaten.

Eine internationale Forschergruppe um Emmo Hamann, Harald Gruber-Vodicka und Marc Strous wollte trotzdem wissen, ob solche Partnerschaften möglich sind – und liefert spannende Antworten, die nun in der Fachzeitschrift Nature veröffentlicht wurden.

Breviaten und Arcobacter – ziemlich beste Freunde
Zunächst fuhren Hamann und seine Kollegen ins Wattenmeer, um dort Sedimentproben, also Proben des Meeresbodens, zu sammeln. Mit etwas Geduld und dem richtigen Nährstoffcocktail gelang es ihnen, anschließend im Labor sowohl einen Breviaten als auch nitratatmende Bakterien aus diesen Proben zum Wachsen zu bringen. „Der Breviat war eine bislang unbekannt Art“, berichtet Hamann. „Wir gaben ihm den Namen Lenisia limosa.“ Bei den Nitratatmern handelte es sich um Bakterien der Gattung Arcobacter. Arcobacter hat einen schlechten Ruf. Einige Vertreter besiedeln die Darmschleimhaut von Mensch und Tier und verursachen unangenehme Infektionen. Nun haben Breviaten zwar keinen Darm, aber dennoch ließen sich die Bakterien direkt auf deren Oberfläche nieder.

„Die interessante Frage war nun: Warum besiedelt ein Bakterium, dessen Verwandte normalerweise mit Tieren zusammenleben, einen räuberischen Breviaten?“ erklärt Harald Gruber-Vodicka vom Bremer Max-Planck-Institut. Um diese Frage zu beantworten, warfen die Forscher einen genauen Blick auf die Stoffwechsel beider Organismen. Sie erlebten eine Überraschung: Die beiden lebten freundschaftlich zusammen. Arcobacter half sogar, das Wachstum des Breviaten anzukurbeln. „Lenisia wuchs etwa doppelt so gut in Anwesenheit von Arcobacter“, so Gruber-Vodicka.

Ein Blick hinter die Kulissen
„Mit Hilfe von Wachstumsexperimenten und Proteinanalysen konnten wir genau nachvollziehen, was passiert, wenn die Bakterien auf die Breviaten treffen“, erläutert Hamann. „Die Breviaten geben beim Stoffwechsel Wasserstoff ab. Dieser Wasserstoff wird dann von den Bakterien entfernt. Beim Zusammentreffen der beiden Organismen werden ihre Stoffwechsel sozusagen kurzgeschlossen.“ Für die Breviaten erleichtert das die Fermentation und sorgt dafür, dass sie deutlich mehr Energie gewinnen. „Wir fanden mehrere Enzyme, die für den Energiegewinn notwendig waren. Diese Enzyme wurden nur dann gebildet, wenn Arcobacter in der Nähe war.“

Beide Organismen können auch alleine leben, die Symbiose ist also nicht zwingend. Ein großer Vorteil für das Bakterium liegt allerdings darin, dass es den freiwerdenden Wasserstoff zur Nitratatmung nutzen kann. „Die beobachtete Verbindung ist also eine klare Win-win-Situation“, fasst Hamann zusammen.

Wie finden die Partner zusammen?
Die Forscher fanden erstaunliche Gemeinsamkeiten mit Fällen, in denen Bakterien als Parasiten in Tieren leben. „Um ihren Wirt zu besiedeln, nutzen viele Bakterien sogenannte Virulenzfaktoren“, sagt Gruber-Vodicka. Das sind Proteine, die dabei helfen, sich an die Oberfläche der Wirtszelle zu heften. „Und genau diese Proteine waren auch in der Symbiose zwischen Breviaten und Arcobacter aktiv. Virulenzfaktoren sind also nicht nur bei Krankheiten wichtig, sondern ermöglichen scheinbar auch vorteilhafte Partnerschaften zwischen räuberischen Protisten und Bakterien. Wenn sich diese Vermutung bestätigt, wirft das ein völlig neues Licht auf die Rolle von Virulenzfaktoren.“

„Es wäre möglich, dass Bakterien ihre Fähigkeit zur Symbiose sehr früh in der Evolution an Protisten entwickelt haben“, erklärt Marc Strous, der mittlerweile an der Universität Calgary arbeitet. „An diesen Partnern lernten sie, wie man das Gewebe eines Wirts erkennt und sich dann auf ihm fortpflanzt. Später haben sie dann Tiere besiedelt.“ Doch um diese Vermutung zu bestätigen, muss weiter geforscht werden. „Wir suchen nach weiteren ähnlichen Symbiosen, um diesen Fragen nachzugehen“, so Hamann. Den Forschern des Max-Planck-Instituts und der Universität Calgary stehen also spannende Zeiten bevor. „Und wer weiß? Vielleicht werden Protisten dann bald als kleine Zeitmaschinen genutzt um einen Blick auf die Ursprünge heutiger Symbiosen zu werfen.“

Originalveröffentlichung
Environmental Breviatea harbor mutualistic Arcobacter epibionts
Emmo Hamann, Harald Gruber-Vodicka, Manuel Kleiner, Halina E. Tegetmeyer, Dietmar Riedel, Sten Littmann, Jianwei Chen, Jana Milucka, Bernhard Viehweger, Kevin W. Becker, Xiaoli Dong, Courtney W. Stairs, Kai-Uwe Hinrichs, Matthew W. Brown, Andrew J. Roger und Marc Strous. Nature. DOI: 10.1038/nature18297

Beteiligte Institute
Max-Planck-Institut für Marine Mikrobiologie, Bremen
Max-Planck-Institut für Biophysikalische Chemie, Göttingen
Universität Calgary, Kanada
MARUM, Universität Bremen
Mississippi State University, USA
South St Dalhousie University, Halifax, Kanada

Rückfragen an
Emmo Hamann
E-Mail: emmohamann@gmail.com

Weitere Informationen:
http://dx.doi.org/10.1038/nature18297
http://www.mpi-bremen.de

Quelle: idw

(nach oben)


Schuppenflechte: Neue Details entschlüsselt

Gunnar Bartsch Presse- und Öffentlichkeitsarbeit
Julius-Maximilians-Universität Würzburg

Spezielle Zellen des Immunsystems – sogenannte B-Lymphozyten – spielen im Krankheitsgeschehen der Schuppenflechte eine wichtige Rolle. Das haben Würzburger Wissenschaftler jetzt in einer neuen Studie gezeigt. Die Zellen eignen sich damit möglicherweise als Ansatz für eine neue Therapie.

„Eine krankhafte und sehr komplexe Immunreaktion der Haut“: So beschreiben Ärzte und Wissenschaftler eine Krankheit, von der zwischen ein und drei Prozent der Bevölkerung betroffen sind – die Schuppenflechte (Psoriasis). Zu ihren charakteristischen Merkmalen gehören eine beschleunigte Zellteilung in den oberen Hautschichten mit einer Vermehrung von Hautzellen und einer Entzündung der darunterliegenden Haut. In dem komplexen Geschehen spielen viele unterschiedliche Zellen eine Rolle: Hautzellen (Keratinozyten) und Zellen des Immunsystems, unter anderem T-Lymphozyten, Makrophagen, Mastzellen und andere mehr.

Einfluss auf einen entzündungshemmenden Botenstoff
Jetzt haben Wissenschaftler der Universität und des Universitätsklinikums Würzburg ihren Blick auf eine Zellart geworfen, die bisher im Zusammenhang mit der Schuppenflechte nur wenig Beachtung gefunden hatte: die sogenannten B-Lymphozyten. Sie konnten zeigen, dass diese Zellen über die Regulation des entzündungshemmenden Botenstoffs Interleukin-10 (IL-10) die Hautkrankheit beeinflussen können. Damit bieten sie sich möglicherweise als Angriffspunkt für eine neue Therapie gegen diese Krankheit an, die nach dem derzeitigen Stand der Forschung nicht heilbar ist. Die Ergebnisse ihrer Studie haben die Wissenschaftler jetzt in der aktuellen Ausgabe der Fachzeitschrift Nature Communications veröffentlicht.

An der Studie federführend beteiligt waren die Professoren Matthias Goebeler, Direktor der Universitätsklinik und Poliklinik für Dermatologie, Venerologie und Allergologie Würzburg, und Edgar Serfling, aktiver Seniorprofessor in der Abteilung für Molekulare Pathologie am Pathologischen Institut der Universität Würzburg, der die Studie initiiert hatte. „Wichtig war die neue Erkenntnis, dass die Produktion des entzündungshemmenden Botenstoffs IL-10 durch die B-Lymphozyten über eine Wechselwirkung mit dem Protein „Nuclear Factor of Activated T cells“ (NFATc1), einem Transkriptionsfaktor, vermindert wurde“, schildert Matthias Goebeler das zentrale Ergebnis der Arbeit. NFATc1 hemme die Ablesung des IL-10-Gens in B-Zellen und führe schließlich zu einer schlechteren Kontrolle des entzündlichen Geschehens in der Haut. „Die weitere Aufschlüsselung der Wechselwirkung könnte zukünftig zur Entwicklung von Medikamenten führen, die noch spezifischer die entzündlichen Prozesse bei der Psoriasis unterdrücken“, so die Wissenschaftler.

Stichwort Schuppenflechte (Psoriasis)
Die Psoriasis ist eine chronisch-entzündliche Hauterkrankung, die bei ein bis drei Prozent der Bevölkerung vorkommt. Die Ausprägung der Psoriasis kann zwischen einzelnen entzündeten und schuppenden Stellen, sogenannten Plaques, an den Ellenbogen oder Knien in leichten Fällen bis hin zu einem sehr schweren Krankheitsbild, bei dem die gesamte Haut betroffen ist, schwanken. Bei etwa 20 Prozent der Psoriasis-Patienten treten zusätzlich schmerzhafte Gelenkentzündungen auf.

Typischerweise erleben Psoriasis-Patienten in ihrem Leben wiederkehrende Schübe verschieden starker Ausprägung. Je nach Ausmaß und Verlauf sind individuell verschiedene Therapieformen von äußerlichen Salben- und/oder Lichtbehandlungen bis hin zu Therapien durch Tabletten oder Injektionen möglich.

NFATc1 supports imiquimod-induced skin inflammation by suppressing IL-10 synthesis in B cells. Hani Alrefai, Khalid Muhammad, Ronald Rudolf, Duong Anh Thuy Pham, Stefan Klein-Hessling, Amiya K. Patra, Andris Avots, Valesca Bukur, Ugur Sahin, Stefan Tenzer, Matthias Goebeler, Andreas Kerstan & Edgar Serfling. DOI: 10.1038/ncomms11724

Kontakt
Prof. Dr. Matthias Goebeler, T: (0931) 201 26351, E-Mail: Goebeler_M1@ukw.de
Prof. Dr. Edgar Serfling, T: (0931) 31-81207, E-Mail: serfling.e@uni-wuerzburg.de

Quelle: idw

(nach oben)


Du bist, was Du isst!

Samira Rosenbaum Dezernat Kommunikation
Otto-Friedrich-Universität Bamberg

Zusammenschau verschiedener Studien bestätigt Zusammenhang zwischen Übergewicht und Persönlichkeit

Es gibt einen Zusammenhang zwischen verschiedenen Persönlichkeitseigenschaften und Übergewicht. Diese Erkenntnis liefert eine umfassende Übersicht über publizierte Studien, die von den Universitäten Bamberg und Bochum durchgeführt wurde. Die Schlussfolgerungen gehen aus einer Zusammenstellung von mehr als 70 fragebogenbasierten Studien aus der Zeitspanne von 1993 bis 2013 hervor. „Die Ergebnisse zeigen, dass bestimmte individuelle Merkmale das Risiko von starkem Übergewicht, auch als Adipositas oder Fettleibigkeit bekannt, erhöhen können. Ebenso verhält es sich mit Essanfällen, dem sogenannten Binge-Eating“, erklärt Prof. Dr. Sabine Löber, Professorin für Klinische Psychologie und Psychotherapie an der Universität Bamberg.

Jeder der 70 untersuchten Fallstudien liegt das Fünf-Faktoren-Modell der Persönlichkeitspsychologie, auch „Big Five“ genannt, zu Grunde. Es kategorisiert die Persönlichkeitseigenschaften eines Menschen in fünf verschieden Dimensionen. Die erste Kategorie ist der Neurotizismus, gekennzeichnet durch Ängstlichkeit, Impulsivität und Verletzlichkeit. Die zweite ist Extraversion, die mit Geselligkeit, Selbstsicherheit und Abenteuerlust einhergeht. Die dritte Dimension umfasst Gewissenhaftigkeit und ist charakterisiert durch Kompetenz, Pflichtbewusstsein und Ehrgeiz. Verträglichkeit wird an vierter Stelle angeführt und enthält die Merkmale Vertrauen, Geradlinigkeit und Empfindsamkeit. Die letzte der „Big Five“ ist Offenheit, beschrieben durch Fantasie, ästhetisches Empfinden und Ideenreichtum.

Was sich ergibt, wenn man dieses Fünf-Faktoren-Modell auf Essstörungen bezieht, erklärt Sabine Löber: „Die vorliegenden Studien sprechen dafür, dass übergewichtige Menschen gehäuft neurotische und impulsive Persönlichkeitszüge zeigen. Insbesondere bei Frauen ist Neurotizismus ein Risikofaktor für Übergewicht.“ Zudem seien übergewichtige oder adipöse Menschen mit und ohne Binge-Eating-Störung extravertierter und belohnungssensitiver, also empfänglicher für Belohnungen. Belohnungssensitivität und Impulsivität seien bei Männern mit Binge-Eating-Störung besonders ausgeprägt. Gewissenhaftigkeit und Selbstkontrolle erweisen sich hingegen für beide Geschlechter als Schutzfaktor vor Übergewicht. Keinen Zusammenhang mit Übergewicht scheint es hingegen bei Verträglichkeit und Offenheit zu geben.

Diese Erkenntnisse liefern wichtige Impulse für die therapeutische Praxis. „Durch den festgestellten Zusammenhang zwischen Persönlichkeitsmerkmalen und Übergewicht lassen sich individuelle Strategien für Therapien erarbeiten“, erklärt die Forscherin. Eine der Methoden, die auf der Basis der Ergebnisse effektiv sein könnte, sind computergestützte Trainings, in denen die Patienten lernen, ihre Reaktionen auf Bilder von hochkalorischen Nahrungsmitteln zu hemmen oder diese zu vermeiden. „Im Suchtbereich werden ähnliche Trainings bereits mit gutem Erfolg eingesetzt“, erklärt Löber. Solche computergestützten Trainings könnten Patienten mit impulsiven Zügen helfen, ihren Heißhunger besser zu kontrollieren und so die Eigenschaft der Selbstkontrolle zu erhöhen, die sich als so wichtiger Schutzfaktor vor Übergewicht erwiesen hatte.

Weitere Informationen:
http://www.uni-bamberg.de/klinpsych

Quelle: idw

(nach oben)


Wasserstoff – wichtiger Baustein der Energiewende

Karin Schneider Presse und Public Relations
Fraunhofer-Institut für Solare Energiesysteme ISE

Fraunhofer ISE bietet Lösungen für Wasserstofftechnologien in der Mobilität

Im Rahmen ihrer Mobilitäts- und Kraftstoffstrategie (MKS) verweist die Bundesregierung auf die zunehmend engere Verbindung des Ausbaus der erneuerbaren Energien im Stromsektor und des Straßen- und Schienenverkehrs, aber auch des Schiffs- und Flugverkehrs, um die klimapolitischen Ziele erreichen zu können.

Hierfür ist es notwendig, die Energiebasis des Verkehrs insbesondere hinsichtlich strombasierter Kraftstoffe aus erneuerbaren Energien zu erweitern, und im Fall von Brennstoffzellen- und batterieelektrischen Antrieben die erforderliche Infrastruktur aufzubauen. Synthetische Flüssigkraftstoffe, erzeugt aus nachhaltigem Elektrolysewasserstoff, und CO2 aus vorhandenen Industrie- oder Biomasseanlagen können die bestehende globale Infrastruktur natürlich direkt nutzen. Am Fraunhofer ISE durchgeführte Analysen des deutschen Energiesystems wie die Studie »Was kostet die Energiewende?« zeigen, dass die klimapolitischen Ziele der Bundesregierung, die Treibhausgasemissionen um mindestens 80 Prozent zu reduzieren, nicht nur technologisch möglich sind, sondern je nach regulatorischen Randbedingungen im Endzustand auch keine Mehrkosten gegenüber dem heutigen Status verursachen. Diese modellbasierten Untersuchungen erstrecken sich über alle Sektoren und Energieträger, also auch den Verkehrssektor und weisen auf Basis unterschiedlicher Szenarien verschiedene, kostenoptimierte Transformationspfade auf. Der stark wachsende Anteil fluktuierender, erneuerbarer Energien macht eine zunehmend flexibel reagierende, komplementäre Residuallast ebenso notwendig wie eine Flexibilisierung der Stromnachfrage. Diese Flexibilisierung gelingt nur, wenn neue Stromanwendungen insbesondere auch für den Verkehr hinzukommen.

Die Modelle haben gezeigt, dass in den kostenoptimierten Szenarien bereits im kommenden Jahrzehnt regional verteilte Elektrolyseure im Gigawatt-Leistungsmaßstab nötig sein werden, um die Kopplung zwischen Energiewirtschaft und Mobilität zu realisieren. »Das Erreichen der Ziele der Energiewende erfordert die Wasserstofferzeugung über die Wasserelektrolyse und die Verwendung des Wasserstoffs als Kraftstoff in Brennstoffzellenfahrzeugen sowie die Herstellung von synthetischen Kraftstoffen aus Wasserstoff und Kohlendioxid (Power-to-Liquid, PtL)«, ist Dr. Christopher Hebling, Bereichsleiter Wasserstofftechnologien am Fraunhofer ISE, überzeugt. Folgerichtig hat das Fraunhofer ISE zur Weiterentwicklung der PEM-Elektrolyse im letzten Jahr ein hochmodernes Testzentrum eingeweiht, in dem die Freiburger Forscher Elektrolysestapel bis 1 MWel charakterisieren können. Die PEM-Elektrolyse ist ideal geeignet, um nicht bedarfsgerecht erzeugten, regenerativen Strom zu verwenden und in Form des chemischen Energieträgers Wasserstoff zu speichern.

Idealerweise wird dieser regenerativ erzeugte Wasserstoff in der Mobilität mit Brennstoffzellen-Autos genutzt. Seit nunmehr vier Jahren erproben die Forscher am Fraunhofer ISE erfolgreich die Brennstoffzellenmobilität in Freiburg mit drei Daimler B-Klasse F-CELL Fahrzeugen in der Praxis, neuerdings aber auch mit weiteren Generationen von Brennstoffzellen-PKWs von Hyundai (ix35 fuel cell) sowie dem »Mirai« von Toyota. Zusammen mit der ebenfalls seit vier Jahren betriebenen, öffentlichen Solaren Wasserstoff-Tankstelle des Fraunhofer ISE demonstriert das Institut die künftige, emissionsfreie Individualmobilität basierend auf vor Ort produziertem, solarem Wasserstoff mittels Solarzellen und Leitungswasser. »Vom Photon zur Traktion« – ohne jegliche Kohlenwasserstoffe in der Wandlungs- und Transportkette.

Für die leistungsintensivere sowie die Langstrecken-Mobilität im Schwerlast-, Schiffs- und Flugverkehr sind jedoch auch künftig flüssige Kraftstoffe mit hoher volumetrischer Energiedichte notwendig. Dahingehend entwickelt das Fraunhofer ISE Technologien zur Erzeugung synthetischer, flüssiger Kraftstoffe (z. B. Oxymethylenether, OMEs) und Basischemikalien (z. B. Methanol) basierend auf erneuerbarem Wasserstoff und Kohlendioxid und evaluiert diese ökonomisch und ökologisch (Life-Cycle-Assessment, LCA). Diese flüssigen synthetischen Kraftstoffe haben ein hohes Anwendungspotenzial und können bereits jetzt in beliebigen Mengen konventionellen Kraftstoffen beigefügt werden.

Dr. Christopher Hebling blickt optimistisch in die Zukunft: »Wir freuen uns, dass Politik und Wirtschaft ein deutliches Zeichen für die Wasserstofftechnologien als Teil der Energiewende, insbesondere als Kraftstoff und Speichermedium, setzen. Elektrolyse-, Brennstoffzellen- und Power-to-Liquid-Technologien werden uns in unseren Klimazielen unterstützen und uns zunehmend von fossilen Energieträgern unabhängig machen. Das Fraunhofer ISE bietet seinen Kunden und Partnern eine 25jährige Erfahrung in der marktgerechten Entwicklung dieser Technologien«.

Weitere Informationen:
http://www.ise.fraunhofer.de

Anhang
Presseinformation im PDF-Format
https://idw-online.de/de/attachment49971

Quelle: idw

(nach oben)


Menschenaffen kommunizieren kooperativ

Dr. Stefan Leitner Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Ornithologie

Menschliche Sprache ist ein kooperatives Zusammenspiel und beinhaltet schnelle Rollenwechsel. Diese Art der kooperativen Kommunikation könnte als Teil genereller kooperativer Fähigkeiten entstanden sein, die für den Menschen einzigartig sind. In einer artübergreifenden Studie an Bonobos und Schimpansen im Freiland haben Forscher der Humboldt Forschungsgruppe am Max-Planck-Institut für Ornithologie in Seewiesen jetzt jedoch gezeigt, dass die gestische Kommunikation von Menschenaffen ähnliche kooperative Grundelemente und Rollenwechsel aufweist wie unsere menschliche Sprache. Trotzdem unterscheiden sich Bonobos und Schimpansen gravierend in ihren Kommunikationsstilen voneinander.

Menschliche Sprache ist ein hoch kooperatives Unterfangen, welches schnelle Rollenwechsel beinhaltet. Eine Hypothese besagt, dass sich kooperative Kommunikation als Teil genereller kooperativer Fähigkeiten entwickelte, die für den Menschen einzigartig sind. Der erste Schritt auf dem Weg zur Sprache beginnt bereits vor der Verwendung erster Wörter, wenn Kleinkinder anfangen, Gesten zu verwenden, um mit ihrem Gegenüber zu kommunizieren. Folglich wurde lange angenommen, dass sich gesprochene Sprache stammesgeschichtlich aus Gestik und nicht aus Lauten oder einer Kombination aus Gestik und Lauten entwickelte.

Die Max-Planck-Forscher haben nun herausgefunden, dass die gestische Kommunikation unserer nächsten lebenden Verwandten, der Menschenaffen, ähnliche kooperative Grundelemente und Rollenwechsel aufweist wie die menschliche Sprache. Das Forscherteam um Marlen Fröhlich und Simone Pika der Humboldt-Forschungsgruppe am Max-Planck-Institut für Ornithologie in Seewiesen hat zusammen mit Kollegen vom Max-Planck-Institut für evolutionäre Anthropologie in Leipzig, der Ludwig-Maximilians-Universität in München und der Kyoto Universität in Japan erstmalig die kommunikativen Interaktionen von Bonobos und Schimpansen in vier verschiedenen Populationen und Feldstationen miteinander verglichen. Zwei Jahre lang beobachteten sie Bonobos im Salonga-Nationalpark und Luo Scientific Reserve in der Demokratischen Republik Kongo und Schimpansen im Taï-Nationalpark an der Elfenbeinküste und Kibale-Nationalpark in Uganda.

Die Auswertung förderte zwei erstaunliche Erkenntnisse zu Tage: Zum einen ist die Kommunikation von Menschenaffen zwischen Mutter-Kind-Paaren der des Menschen ähnlicher als bisher angenommen, zum anderen unterscheiden sich Bonobos und Schimpansen gravierend in ihren Kommunikationsstilen: „Für Bonobos spielt das Blickverhalten eine größere Rolle, und sie reagieren auf Signale schneller als Schimpansen“, sagt Marlen Fröhlich, Erstautorin der Studie. Schimpansen verwenden dagegen klarer unterscheidbarere Kommunikationselemente und verbringen mehr Zeit mit ausgedehnten Verhandlungen.

Die Kommunikation von Bonobos scheint der des Menschen mehr zu ähneln als die Kommunikation von Schimpansen. „Kommunikative Interaktionen von Menschenaffen weisen folglich viele der Grundelemente auf, die auch menschliche Konversation charakterisieren und lassen den Schluss zu, dass sich kooperative Kommunikation entwickelte, um gemeinsame Aktionen effizienter zu koordinieren“, fasst Simone Pika, Leiterin der Studie, zusammen.

Weitere Informationen:
http://orn.iwww.mpg.de/3702149/news_publication_10529676?c=2162

Quelle: idw

(nach oben)


Legionellen schwächen Abwehr durch Voraus-Kommando

Johannes Scholten Pressestelle
Philipps-Universität Marburg

Der Erreger der Legionärskrankheit vermehrt sich besonders gut in den Fresszellen des menschlichen Immunsystems, wenn er Transportbläschen als Vorhut eingesetzt hat, die krankmachende Stoffe enthalten. Das haben Marburger Wissenschaftlerinnen und Wissenschaftler um Professor Dr. Bernd Schmeck herausgefunden. Das Team des Forschungsverbundes „Universites of Giessen and Marburg Lung Center“ (UGMLC) veröffentlicht seine Ergebnisse in der aktuellen Ausgabe des Fachblatts „PLoS Pathogens“.

Eine Infektion mit Legionellen-Bakterien kann eine lebensbedrohliche Lungenentzündung hervorrufen. Die stäbchenförmigen Erreger tricksen die körpereigene Abwehr aus, indem sie sich in Zellen des Immunsystems verstecken, den Makrophagen. Wie geht das zu? „Wir haben erstmals untersucht, wie sich eine Vorbehandlung mit Transportbläschen auf eine anschließende Legionellen-Infektion auswirkt“, erklärt Mitverfasser Bernd Schmeck, der die zugrunde liegende Forschungsarbeit leitete.

Legionellen und andere Bakterien schnüren Bläschen aus ihrer Zellhülle ab, so genannte Vesikel. Diese enthalten krankmachende Substanzen, zum Beispiel Enzyme, aber auch Lipopolysaccharide aus der äußeren Hüllmembran der Bakterien. Mit Vesikeln können die Erreger auch entfernte Ziele infizieren.

Schmecks Team behandelte Zellen von Mensch und Maus mit Legionellen-Vesikeln. Das Ergebnis: Zunächst ruft die Behandlung eine Immunreaktion hervor, nämlich eine Freisetzung von Entzündungsstoffen, so genannten Zytokinen. Wenn aber die Infektion mit Vesikeln anhält, so führt sie zu einer stärkeren Vermehrung von Legionellen in den betroffenen Makrophagen. Die Wirtszellen weisen eine erhöhte Anzahl von Hohlräumen auf, in denen sich Bakterien befinden, während die Zytokinproduktion abnimmt. „Die Bakterienlast liegt um das Doppelte höher als ohne Vorbehandlung“, erläutert die Erstautorin Anna Lena Jung.

Die Vesikel bewirken also, dass Fresszellen des Immunsystems sich zu einer Brutstätte für Legionellen wandeln, ohne sich effizient gegen die Krankheitserreger wehren zu können. „Unsere Ergebnisse deuten darauf hin, dass die Vesikel die Ausbreitung von Legionellen im Wirtsgewebe fördern“, resümiert Schmeck.

Professor Dr. Bernd Schmeck leitet das Institut für Lungenforschung an der Philipps-Universität. Er ist Mitglied im Deutschen Zentrum für Lungenforschung. Die Arbeit an der aktuellen Veröffentlichung wurde durch den transregionalen Sonderforschungsbereich TR84 der Deutschen Forschungsgemeinschaft finanziell gefördert.

Originalveröffentlichung: Anna Lena Jung & al.: Legionella pneumophila-derived outer membrane vesicles promote bacterial replication in macrophages,
PLoS Pathogens 22. 4. 2016

Weitere Informationen:
Ansprechpartner: Professor Dr. Bernd Schmeck,
Direktor des Instituts für Lungenforschung
Telefon: 06421 28-65713
E-Mail: bernd.schmeck@uni-marburg.de

Pressemitteilung zum UGMLC: http://www.uni-marburg.de/aktuelles/news/2012d/1130b

Quelle: idw

(nach oben)


Große Pumpen für die Fische

Sabine Johnson Presse- und Öffentlichkeitsarbeit
Bundesanstalt für Wasserbau (BAW)

BAW und BfG starten Laboruntersuchungen zum Fischaufstieg in einer neuen Versuchsanlage der BAW.

Das Verhalten von Fischen in unterschiedlichen Strömungsmustern zu verstehen, ist das Ziel der Untersuchungen in einer neuen Versuchsanlage an der Bundesanstalt für Wasserbau (BAW) in Karlsruhe. Anfang April setzten Fischexperten der Bundesanstalt für Gewässerkunde (BfG) die ersten Fische in die Versuchsrinne, um ihr Schwimmverhalten unter definierten Laborbedingungen genau zu beobachten. Zuvor hatten die Ingenieure der BAW in einer wasserbaulichen Versuchsrinne baulich und hydraulisch vergleichbare Bedingungen zu einer realen Fischaufstiegsanlage geschaffen.

Um diese realen Bedingungen zu erreichen, waren umfangreiche Anpassungen an einer bestehenden Versuchsanlage erforderlich. Denn während im klassischen wasserbaulichen Versuchswesen Strömungen im verkleinerten Maßstab analysiert werden können, erfordern Untersuchungen mit Fischen andere Bedingungen. Reale Strömungsgeschwindigkeiten sowie eine für den Fisch ausreichende Fließtiefe machen vergleichsweise große Durchflüsse in der Versuchsanlage notwendig, sodass als wesentlicher Baustein der Umbauarbeiten neue Pumpen installiert wurden. Diese sind in der Lage, die für die Versuche erforderliche Wassermenge von 1.000 l/s zu fördern. Weiterhin wurden 11 Kameras an der Rinnenwand installiert. Mit diesen Kameras ist es nicht nur möglich, die Fischbewegungen zu dokumentieren, sondern auch den Pfad aufzuzeichnen, den die Fische gewählt haben, um durch die Versuchsanlage zu schwimmen. Die dreidimensionalen, zeitaufgelösten Fischpfade werden im Anschluss an die Versuche am Computer ausgewertet. Diese Daten stellen eine wertvolle Basis dar, um das Zusammenspiel zwischen Strömung und Fischverhalten besser zu verstehen.

Aber wozu dieser große Aufwand?
Durchwanderbare Flüsse sind eine wesentliche Voraussetzung für intakte Fischpopulationen und damit für den guten Zustand der Fließgewässer. Diese langfristig in einem guten ökologischen Zustand bzw. einem guten ökologischen Potenzial zu erhalten, ist das Ziel der Europäischen Wasserrahmenrichtlinie (WRRL) zu dem sich die Mitgliedsstaaten der EU vor über 15 Jahren verpflichtet haben. Ein wesentlicher Schritt hierzu ist der Bau von Fischaufstiegsanlagen an den Stauanlagen der Flüsse, die Fischen, wie z. B. Nasen, Brachsen und Gründlingen, Wanderungen zu ihren Laich-, Aufzucht- und Nahrungsgebieten ermöglichen.

Derzeit plant die zuständige Wasser- und Schifffahrtsverwaltung des Bundes (WSV) an über 40 Stauanlagen neue Fischaufstiegsanlagen. Diese Planungen stellen Ingenieure und Biologen häufig vor große Herausforderungen. Den Einstieg in eine Fischaufstiegsanlage zu finden, ist für Fische oftmals schwierig. Zum einen ist die Einstiegsöffnung der Fischaufstiegsanlage im Vergleich zur Breite der gesamten Stauanlage, insbesondere an den großen Flüssen, sehr klein. Zum anderen erzeugen Turbinen in den Wasserkraftanlagen oder der Überfallstrahl an großen Wehranlagen große Verwirbelungen, die die Fische irritieren können.

Damit Fische den Einstieg einer Fischaufstiegsanlage finden können, ist nach derzeitigem Kenntnisstand die Ausbildung einer Leitströmung entscheidend. Diese muss sich von der turbulenten Strömung im Unterwasser einer Stauanlage unterscheiden und den Fischen den Weg zum Einstieg weisen. Insbesondere an den großen Flüssen reicht hierfür der Abfluss in der Fischaufstiegsanlage nicht aus. In Folge dessen ist es erforderlich, kurz oberhalb des Einstiegs zusätzliches Wasser in die Fischaufstiegsanlage hinzuzugeben. Doch stellen sich konkrete Fragen: Wieviel Wasser braucht man, um für Fische eindeutige hydraulische Signale zur Auffindbarkeit zu senden? Wie kann das Wasser in eine Fischaufstiegsanlage zugegeben werden, ohne dass die Fische eine Anlage schlechter passieren?

Hier setzen nun die gemeinsamen Versuche der Fischexperten der BfG und der Wasserbau-Experten der BAW an. Denn nur im Labor können Fische gleichzeitig beobachtet und die hydraulischen Größen hochauflösend aufgenommen werden.

Weitere Informationen:
http://www.baw.de
http://www.bafg.de

Quelle: idw

(nach oben)


Weisse Liste veröffentlicht neue Auswertung des Pflege-TÜV

Jochen Lange Pressestelle
Bertelsmann Stiftung

Die sogenannten Pflegenoten des medizinischen Dienstes der Krankenkassen (MDK) in Deutschland haben in ihrer derzeitigen Form kaum Aussagekraft. Eine neue Auswertung der Ergebnisse aus dem „Pflege-TÜV“ macht Qualitätsunterschiede von Pflegeeinrichtungen transparenter.

Welcher Pflegedienst passt zu mir, welches Pflegeheim ist gut für mich? Ab sofort bietet das unabhängige Vergleichsportal www.weisse-liste.de, ein gemeinsames Projekt der Bertelsmann Stiftung und der Dachverbände der größten Patienten- und Verbraucherorganisationen, mehr Orientierung bei der schwierigen Entscheidung für eine geeignete Pflegeeinrichtung.

Neue Auswertung schafft mehr Transparenz
Für jede der rund 26.000 Einrichtungen in Deutschland zeigt das Portal an, inwieweit diese die fachlichen Mindestanforderungen an die Qualität der Pflege erfüllt. Die Weisse Liste wertet dazu die Ergebnisse aus dem sogenannten „Pflege-TÜV“ neu aus. Die Methode macht Unterschiede sichtbar, die bei der Entscheidung eines Nutzers für die Auswahl einer Einrichtung in seiner Region relevant sein können. Die Weisse Liste zeigt für jede Pflegeeinrichtung in Form eines Prozentwerts für „Pflegequalität“ an, wie viele der überprüften Kriterien voll erfüllt werden. Zudem wird der Wert immer ins Verhältnis zum Bundesdurchschnitt gesetzt.

Die neuen Ergebnisse zeigen den Verbrauchern somit Unterschiede und negative Ausreißer zwischen den Pflegeheimen und Pflegediensten, die aus den Pflegenoten bislang nicht hervorgehen. Es werden keine Durchschnittsnoten gebildet. „Die neue Auswertung der Prüfergebnisse kann zwar die grundsätzlichen Schwächen des Bewertungssystems nicht kurieren, sie bietet aber mehr Transparenz und Orientierung für Verbraucher“, sagt Uwe Schwenk, Programmleiter bei der Bertelsmann Stiftung. Grundsätzlich sei es ratsam, Pflegeeinrichtungen vor Ort zu besuchen und den Anbietern Fragen zu stellen. „Schneidet eine Einrichtung vergleichsweise schlecht ab, lohnt ein noch genauerer und kritischerer Blick“, so Schwenk.

Kritik an bisherigen Pflegenoten
Die Pflegenoten stehen seit langem in der Kritik. Durch das bisherige System mit durchweg sehr gut ausfallenden Durchschnittswerten in Form von Noten für die Einrichtungen werden Unterschiede in den Prüfergebnissen für die Verbraucher nicht deutlich. Der Grund: Die Werte werden über alle geprüften Kriterien und alle überprüften Pflegebedürftigen hinweg berechnet. Aufgrund dieser Berechnungsmethodik können Mängel in einem relevanten Bereich durch ein anderes – vielleicht weniger relevantes – Kriterium ausgeglichen werden. Das führt dazu, dass die Pflegeanbieter fast durchweg „sehr gut“ abschneiden, obwohl ihre Prüfergebnisse sich teils deutlich unterscheiden.

Bei der Auswertung in Form von Pflegenoten liegt der bundesweite Durchschnitt bei Pflegediensten und -heimen bei jeweils 1,3. 26 Prozent der Heime und 40 Prozent der Dienste erhalten eine glatte 1,0. Nach der neuen Auswertungsmethode der Weissen Liste erfüllen nur 11 Prozent der Heime beziehungsweise 29 Prozent der Dienste die bei ihnen geprüften Kriterien zu 100 Prozent. Rund zwei Prozent der Pflegeheime (rund 180 bei 11.600 Einrichtungen) und vier Prozent der Pflegedienste (rund 530 bei 14.000) schneiden nach der neuen Auswertung besonders schlecht ab – und haben lediglich ein Drittel oder weniger der bewerteten Kriterien bei allen überprüften Pflegebedürftigen in der Stichprobe voll erfüllt.

„Pflege-TÜV“ wird überarbeitet
Die Politik hat inzwischen einen Qualitätsausschuss ins Leben gerufen, der ein neues Qualitätsprüfungs- und Veröffentlichungssystem für Pflegeeinrichtungen entwickeln soll. Dieser Ausschuss konstituiert sich aktuell. Aber frühestens 2019 ist mit den neuen Prüfergebnissen zu rechnen. Bis dahin werden die Pflegenoten weiter in der bisherigen Form veröffentlicht. „In der Übergangszeit wollen wir mit der neuen Auswertungsmethode der Pflege-Prüfergebnisse den Verbrauchern mehr Orientierung bieten“, so Uwe Schwenk von der Bertelsmann Stiftung. Parallel arbeite die Stiftung derzeit an eigenen Vorschlägen für das neue Veröffentlichungssystem. Heute hat sie dazu ein erstes Eckpunktepapier herausgegeben.

Tipps für Verbraucher
Die Weisse Liste empfiehlt Verbrauchern, sich bei der Suche nach dem passenden Pflegeanbieter ein eigenes Bild über die Unterschiede und die Qualität der Einrichtungen zu machen und mit den Fachkräften vor Ort zu sprechen. Das Vergleichsportal bietet dafür auf seiner Website Checklisten an, anhand derer sich Verbraucher orientieren können. Zudem zeigt das Portal an, welche Pflegeberatungsstelle sich in der Nähe des jeweiligen Nutzers befindet.

Zusatzinformationen
Die zugrundliegenden Daten für die neue Berechnungsmethode beruhen auf Prüfungen des medizinischen Dienstes der Krankenkassen (MDK) der Pflegedienste und Pflegeheime. Die Prüfungen erfolgen unangemeldet (Pflegeheime) beziehungsweise mit einer Anmeldung einen Tag vorher (Pflegedienste). Die aus den Prüfungen veröffentlichten Informationen beziehen sich vor allem auf die Dokumentation der erbrachten Leistungen. Geprüft wird streng genommen die „Dokumentationsqualität“, weniger das, was die Arbeit der Pflegekräfte bewirkt (also die „Ergebnisqualität“).

Diese Schwäche kann die neue Auswertungsmethode der Weissen Liste nicht „kurieren“, sie greift an der zweiten zentralen Schwäche an: den Durchschnittswerten. Jedoch kann grundsätzlich davon ausgegangen werden, dass die Qualität und Sorgfalt der Dokumentation Rückschlüsse auf die tatsächliche Pflegequalität zulässt. Und: Geprüft werden auch „harte“ Kriterien wie die Korrektheit der Medikamentengabe und das Vorliegen von Genehmigungen für freiheitseinschränkende Maßnahmen.

Bei der Auswertung der Weissen Liste werden nur pflegerische Kriterien herangezogen, die an den Pflegebedürftigen überprüft werden. Andere Prüfkriterien, etwa die durchweg sehr gut bewerten Kriterien zur Organisation, Einrichtungsmerkmale oder Befragungsergebnisse werden nicht in die Auswertung einbezogen.

Unser Experte: Stefan Etgeton, Telefon: 030 31987050-16
E-Mail: stefan.etgeton@bertelsmann-stiftung.de

Weitere Informationen:
http://www.bertelsmann-stiftung.de und unter
http://www.weisse-liste.de/pflege.

Quelle: idw

(nach oben)


Die Sulfatbelastung der Spree – Ursachen, Wirkungen und aktuelle Erkenntnisse

Johannes Graupner Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)

IGB veröffentlicht frei zugängliches Dossier mit allgemeinverständlichem Überblick
Vermehrt strömt Sulfat über das Grundwasser und die Nebenflüsse in die Spree. Dieses Phänomen ist Gegenstand intensiver öffentlicher Debatten, in denen mitunter wissenschaftlich begründete Argumente fehlen. Das Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB) hat daher ein kostenloses und frei zugängliches Dossier erstellt, das die Ursachen, Wirkungen und aktuellen Erkenntnisse der Sulfatbelastung allgemeinverständlich für die Öffentlichkeit zusammenfasst.

„Wie unsere eigenen IGB-Messdaten und auch die der Landesbehörden zeigen, liegen die Sulfatwerte in einigen Spreeabschnitten mittlerweile deutlich über dem Trinkwassergrenzwert von 250 Milligramm pro Liter“, erklärt IGB-Wissenschaftler Dr. Jörg Gelbrecht, Leiter der Abteilung Chemische Analytik und Biogeochemie und einer der Autoren des IGB Dossiers.

Die erhöhte Konzentration in der Spree hat auch Folgen für den Müggelsee, aus dem durch Uferfiltration Trinkwasser gewonnen wird – und dessen Sulfatkonzentrationen seit Sommer 2015 dauerhaft den Grenzwert überschreiten. Steigen die Werte noch weiter an, könnte das die Trinkwasseraufbereitung deutlich erschweren.
Auch Folgen für die Artenvielfalt in den Gewässern können nicht ausgeschlossen werden: „Erste Studien legen nahe, dass bereits Sulfatkonzentrationen von 200 Milligramm pro Liter die aquatischen Lebensgemeinschaften empfindlich stören können“, merkt Gelbrecht an. Auch sei bekannt, dass der Klimawandel und die damit verbundene Häufung extremer Wetterereignisse die Problematik verschärfen könnten.

Das IGB Dossier erklärt Ursachen und bisher bekannte Auswirkungen der steigenden Sulfatkonzentration, lenkt den Blick aber auch auf bisherige Wissenslücken: Nach wie vor gibt es Unsicherheiten bei der Modellierung und Prognose der Sulfatkonzentrationen. Welche langfristigen Folgen diese Steigerungen für Mensch und Umwelt haben und wie lange sie anhalten werden, ist noch nicht abschließend erforscht.

Dies gilt auch für geeignete Gegenmaßnahmen: „Viele der bisher getesteten Verfahren führen nur zu geringen oder kurzfristigen Effekten, ganzheitliche sowie wirtschaftlich vertretbare Konzepte fehlen bislang“, fasst Gelbrecht zusammen. Ein neuer Ansatz könnte sein, die Sulfatbelastung der Gewässerökosysteme durch künstliche Feuchtgebiete einzudämmen. Aktuell werden dazu am IGB Experimente im Labormaßstab vorbereitet.

Das IGB Dossier zur Sulfatbelastung der Spree ist als elektronisches Dokument verfügbar und kann unter folgendem Link kostenfrei heruntergeladen werden:
http://bit.ly/IGB_Dossier_Sulfat

„‘Forschen für die Zukunft unserer Gewässer‘ ist der Leitspruch des IGB. Deshalb möchten wir den gesellschaftlichen Akteuren und der Öffentlichkeit objektive wissenschaftliche Einschätzungen bereitstellen und so unter anderem über unsere IGB Dossiers sachliche Entscheidungshilfen liefern“, erklärt Institutsdirektor Prof. Dr. Klement Tockner anlässlich der Veröffentlichung.

Erstellt wurde das IGB Dossier im Nachgang des 5. Dialog am Müggelsee im November 2015, bei dem sich IGB-Wissenschaftler mit Akteuren aus Forschung, Politik, Behörden, Verwaltung, Umweltverbänden und Wirtschaft über Auswirkungen, mögliche Handlungsoptionen und den aktuellen Forschungsstand ausgetauscht haben. Die Veranstaltung bildete den thematischen Auftakt des vom IGB, der BTU Cottbus-Senftenberg sowie des GFZ Potsdam gegründeten Zentrums für Nachhaltige Landschaftsentwicklung. Das IGB dankt allen Kolleginnen und Kollegen, die sich bei der Zusammenstellung mit hilfreichen inhaltlichen Hinweisen eingebracht haben.

Kontakt:
Dr. Jörg Gelbrecht
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Tel.: 030 64 181 730
E-Mail: gelbr@igb-berlin.de

Dr. Dominik Zak
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Tel. 030 64 181 730
E-Mail: zak@igb-berlin.de

Öffentlichkeitsarbeit und Wissenstransfer: Angelina Tittmann/Johannes Graupner
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Tel.: 030 64 181 -703/-631
E-Mail: ssi@igb-berlin.de

Weitere Informationen zum IGB:
www.igb-berlin.de

Die Arbeiten des IGB verbinden Grundlagen- mit Vorsorgeforschung als Basis für die nachhaltige Bewirtschaftung der Gewässer. Das IGB untersucht dabei die Struktur und Funktion von aquatischen Ökosystemen unter naturnahen Bedingungen und unter der Wirkung multipler Stressoren.
Forschungsschwerpunkte sind unter anderem die Langzeitentwicklung von Seen, Flüssen und Feuchtgebieten bei sich rasch ändernden globalen, regionalen und lokalen Umweltbedingungen, die Entwicklung gekoppelter ökologischer und sozioökonomischer Modelle, die Renaturierung von Ökosystemen und die Biodiversität aquatischer Lebensräume.
Die Arbeiten erfolgen in enger Kooperation mit den Universitäten und Forschungsinstitutionen der Region Berlin/Brandenburg und weltweit. Das IGB gehört zum Forschungsverbund Berlin e. V., einem Zusammenschluss von acht natur-, lebens- und umweltwissenschaftlichen Instituten in Berlin. Die vielfach ausgezeichneten Einrichtungen sind Mitglieder der Leibniz-Gemeinschaft.

Weitere Informationen:
http://bit.ly/IGB_Dossier_Sulfat Download-Link zum IGB Dossier
http://www.igb-berlin.de/chemische_analytik_und_biogeochemie.html IGB-Abteilung Chemische Analytik und Biogeochemie

Quelle: idw

(nach oben)


Schlafprobleme am Wochenende? Grübeleien über unerledigte Aufgaben könnten der Grund sein

Dr. Anne Klostermann Presse- und Öffentlichkeitsarbeit
Deutsche Gesellschaft für Psychologie (DGPs)

Berufstätige die am Wochenende über unerledigte Arbeitsaufgaben sorgenvoll grübeln, schlafen schlechter. Wer dagegen auch kreativ und problemlösend über die liegengebliebenen Aufgaben nachdenkt, kann davon profitieren. Zu diesem Schluss kommen Psychologen von der Universität Trier und der Fernuniversität Hagen in einer dreimonatigen Tagebuchstudie mit 59 Arbeitnehmern. Die Ergebnisse wurden jetzt im „Journal of Occupational Health Psychology“ veröffentlicht.

Freitags kurz vor Feierabend ist die Freude auf das Wochenende groß – endlich Zeit für Erholung von der anstrengenden Arbeitswoche. Viele Menschen fühlen sich aber auch an den freien Tagen von der Arbeit gestresst und schlafen dadurch schlechter. „Uns hat interessiert, ob das Grübeln über unerledigte Aufgaben ein Bindeglied zwischen Arbeitsstress und Schlafproblemen sein könnte“, sagt Conny Antoni, Professor für Arbeits- und Organisationspsychologie an der Universität Trier und Vizepräsident der Deutschen Gesellschaft für Psychologie. „Wir unterscheiden zwischen zwei Arten des Grübelns über unerledigte Aufgaben: sorgenvolles Grübeln ist ein Zustand, in dem negative, wiederkehrende Gedanken über die Arbeit auftreten, ohne dass nach Lösungen gesucht wird. Problemlösendes Grübeln hingegen beschreibt das kreative, von der Arbeit losgelöste Nachdenken über Probleme. Mit unserer aktuellen Studie zeigen wir, dass beide Arten die Beziehung zwischen Arbeitsstress und Schlafproblemen unterschiedlich beeinflussen.“

Online Tagebuchstudie über drei Monate hinweg
An der Tagebuchstudie nahmen 59 Beschäftigte (76% Frauen) unterschiedlicher Branchen teil, die zugleich im Fernstudium Psychologie studierten. Die Beschäftigten wurden über 12 Wochen hinweg per Online-Fragebögen immer am Freitagnachmittag zu ihrem Arbeitsstress befragt, gemessen an erlebtem Zeitdruck und unerledigten Aufgaben am Ende der Woche. Montags direkt vor Arbeitsbeginn machten sie jeweils Angaben zu ihrer Schlafqualität, zu sorgenvollem Grübeln einerseits („An diesem Wochenende war ich angespannt, wenn ich über arbeitsbezogene Themen nachgedacht habe“) und zu problemlösendem Grübeln andererseits („An diesem Wochenende habe ich in meiner Freizeit Lösungen für arbeitsbezogene Probleme gefunden“).

Sorgenvolles Grübeln führt zu Schlafproblemen
Die Analysen zeigen: wer mehr unerledigte Aufgaben hat, ist stärker von Schlafstörungen betroffen. Der Zusammenhang zwischen sorgenvollem Grübeln und Schlafstörungen ist ebenfalls ein positiver: Beschäftigte, die viel sorgenvoll Grübeln, haben mehr Schlafstörungen. Der Zusammenhang zwischen problemlösendem Denken und Schlafstörungen ist entgegengesetzt, wenn auch nur schwach ausgeprägt. Beschäftigte, die problemlösend über unerledigte Aufgaben nachdenken, berichten weniger von Schlafstörungen.
Unerledigte Aufgaben regen sowohl sorgenvolles als auch problemlösendes Grübeln an. Eine Vermittlerrolle zwischen unerledigten Aufgaben und Schlafqualität zeigt sich aber nur für sorgenvolles Grübeln. „Unerledigtes führt so zu schlaflosen Nächten – denn gedanklich lässt es uns auch in der Freizeit nicht los“, folgert Christine Syrek, Psychologin und Hauptautorin der Studie.
Problemlösendes Grübeln erweist sich als besonders hilfreich für die Schlafqualität von Beschäftigten, die viel sorgevoll grübeln. „Problemlösendes Grübeln wirkt hier als eine Art Puffer. Die negative Wirkung des sorgenvollen Grübelns kann dadurch etwas aufgefangen werden“, erklärt Christine Syrek.

Zeitdruck, unerledigte Aufgaben und Schlafqualität
Der Zeitdruck am Ende einer Arbeitswoche hängt nicht direkt mit der Schlafqualität am Wochenende zusammen. Betrachtet man hingegen das Ausmaß an Zeitdruck über die drei Monate hinweg, zeigen sich Zusammenhänge zwischen Menge an Zeitdruck und Schlafstörungen.
Auch das Gesamtlevel an unerledigten Aufgaben über den Dreimonatszeitraum hinweg beeinflusst den Wochenendschlaf. Beschäftigte, die über drei Monate hinweg am häufigsten über unerledigte Aufgaben berichteten, schliefen an den Wochenenden schlechter – unabhängig von den unerledigten Aufgaben der jeweiligen Woche.

Die Originalpublikation finden Sie hier:
Syrek, C. J., Weigelt, O., Peifer, C., & Antoni, C. (2016). Zeigarnik’s sleepless nights: How unfinished tasks at the end of the week impair employee sleep on the weekend through rumination. Journal of Occpuational Health Psychology, 2016 Apr 21. [Epub ahead of print].

Kontakt bei Rückfragen:
Dr. Christine Syrek
Arbeits-, Betriebs- und Organisationspsychologie
Universität Trier
54286 Trier,
Tel: 0651 201 2032
Email: syrek@uni-trier.de

Über die DGPs:
Die Deutsche Gesellschaft für Psychologie (DGPs e.V.) ist eine Vereinigung der in Forschung und Lehre tätigen Psychologinnen und Psychologen. Die über 3900 Mitglieder erforschen das Erleben und Verhalten des Menschen. Sie publizieren, lehren und beziehen Stellung in der Welt der Universitäten, in der Forschung, der Politik und im Alltag.
Die Pressestelle der DGPs informiert die Öffentlichkeit über Beiträge der Psychologie zu gesellschaftlich relevanten Themen. Darüber hinaus stellt die DGPs Journalisten eine Datenbank von Experten für unterschiedliche Fachgebiete zur Verfügung, die Auskunft zu spezifischen Fragestellungen geben können.
Wollen Sie mehr über uns erfahren? Besuchen Sie die DGPs im Internet: www.dgps.de

Quelle: idw

(nach oben)


Gute Beispiele für Synergien zwischen Umweltschutz und sozialer Gerechtigkeit gesucht!

Sybille Wenke-Thiem Stabsstelle Presse- und Öffentlichkeitsarbeit
Deutsches Institut für Urbanistik

Im Auftrag des UBA führt das Difu in Kooperation mit dem IfS Institut für Stadtforschung und Strukturpolitik sowie sociodimensions ein Forschungs- und Entwicklungsvorhaben zu Möglichkeiten der verstärkten Nutzung von Synergien zwischen Umweltschutz und sozialer Gerechtigkeit in Programmen wie der „Sozialen Stadt“ durch.

Es werden Projekte von Kommunen oder lokalen Initiativen gesucht, die Maßnahmen zur sozialen und ökologischen Gerechtigkeit im Rahmen der Städtebauförderung oder auch darüber hinaus erfolgreich miteinander verknüpft haben.

Das Programm Soziale Stadt ist wie auch andere Programme der Städtebauförderung durch einen integrierten, partizipativen und quartiersbezogenen Ansatz gekennzeichnet, der Möglichkeiten zur Verknüpfung von Strategien und Maßnahmen zur sozialen Gerechtigkeit und zur Verbesserung der Umweltsituation bietet. Mittels eines Methodenmixes aus Dokumentenanalyse, Durchführung von vier Fallstudien mit Experteninterviews und teilnehmender Beobachtung einschließlich narrativer Interviews mit Quartiersbewohner/innen sowie Dokumentation von best practices wird auf verschiedenen Ebenen der Frage nachgegangen, ob und wie umweltpolitische Anliegen und sozioökonomische Herausforderungen auf Quartiersebene – insbesondere im Hinblick auf Verteilungs- und Zugangsgerech-tigkeit, Verfahrensgerechtigkeit, nachhaltige Lebensstile und Konsummuster sowie lokale Innovationen – im Rahmen von Programmen wie der Sozialen Stadt implementiert und umgesetzt werden können.

Der Schwerpunkt des Vorhabens liegt auf den Städtebauförderprogrammen und insbe-sondere auf dem Programm Soziale Stadt. Zur Identifizierung von weiteren best practices wird der Fokus darüber hinaus auf lokale Beispiele für „gelebte“ Synergien zwischen Verbesserung von Umweltqualität und sozialer (nachhaltiger) Gerechtigkeit in benachteiligten Stadtteilen erweitert.

Hierzu werden Projekte von Kommunen oder lokalen Initiativen gesucht, die Maßnahmen zur sozialen und ökologischen Gerechtigkeit im Rahmen der Städtebauförderung oder auch darüber hinaus erfolgreich miteinander verknüpft haben. Von besonderem Interesse sind Ansätze, die auf eine Stärkung von nachhaltigen Lebensstilen und Konsummustern abzielen und diese mit Maßnahmen zum Empowerment von benachteiligten Zielgruppen verbinden.

Die Ergebnisse der best practice Projekte werden im Rahmen des Forschungs- und Entwicklungsvorhabens aufbereitet, diskutiert und dokumentiert. Auf Basis dieser sowie der Untersuchungsergebnisse aus den Fallkommunen/-gebieten werden erste Handlungsempfehlungen für eine nachhaltige Umwelt- und Stadtentwicklungspolitik im Rahmen der Städtebauförderung sowie für sozialpolitische und zivilgesellschaftliche Akteure auf Bundes-, Länder- und kommunaler Ebene abgeleitet. Diese (Zwischen-)Ergebnisse werden im Rahmen von Fachgesprächen mit Expert/innen aus verschiedenen Bereichen diskutiert, ergänzt und weiterentwickelt.

Hinweise und Projektvorschläge bitte per eMail an winkler-kuehlken@ifsberlin.de oder schriftlich an das IfS Institut für Stadtforschung und Strukturpolitik GmbH, Lützowstr. 93, 10785 Berlin bis spätestens Ende Juni 2016

Weitere Informationen:
http://www.difu.de/projekte/2015/moeglichkeiten-der-verstaerkten-nutzung-von-syn…

Quelle: idw

(nach oben)


Ernährung beeinflusst Stresshormonspiegel bei Kindern

Caroline Link Referat für Presse- und Öffentlichkeitsarbeit
Justus-Liebig-Universität Gießen

Forscherteam der Universitäten Gießen und Bonn entdeckt hormonellen Mechanismus zum Zusammenhang von Ernährungsqualität und Gesundheit

Eine mineralstoffarme Ernährung kann bei Kindern zu einem erhöhten Stresshormonspiegel führen. Grund für die gesteigerte Produktion des Stresshormons Cortisol ist die ernährungsbedingte Säurebelastung. Dies haben Wissenschaftlerinnen und Wissenschaftler der Justus-Liebig-Universität Gießen (JLU) und der Universität Bonn herausgefunden. Die Ergebnisse der von der Deutschen Forschungsgemeinschaft (DFG) geförderten Untersuchung hat das das Forscherteam nun in der renommierten Fachzeitschrift „Kidney International“ veröffentlicht.

Die Wissenschaftlerinnen und Wissenschaftler hatten bereits zuvor beobachtet, dass eine regelmäßig erhöhte Säurebelastung durch die Ernährung nicht nur mit einer verringerten Knochenstabilität, sondern auch mit höheren Blutdruckwerten bei Kindern einhergeht. Die aktuellen Studienergebnisse zeigen erstmals einen hormonellen Mechanismus auf, über den die Qualität der Ernährung langfristig auf unsere Gesundheit wirkt.

In die Hormonstudie wurden 200 gesunde Kinder eingeschlossen, die ohne Vorgaben zu ihrer Ernährung jeweils über 24 Stunden Urin gesammelt hatten. In den Urinproben von 100 dieser Kinder hatten die Wissenschaftlerinnen und Wissenschaftler vor Beginn der Hormonmessungen eine niedrige Säureausscheidung über die Nieren gemessen (Net Acid Excretion, NAE), in den anderen 100 Urinproben eine hohe NAE. Die NAE gilt als ein verlässlicher Biomarker zur Beurteilung der Nettosäurebelastung des Gesamtorganismus.

Bei den Kindern mit hoher NAE fanden die Forscherinnen und Forscher – nach Ausschluss aller Störeinflüsse wie unterschiedlicher Urinmenge oder Eiweißzufuhr – nicht nur eine höhere Sekretion des Stresshormons Cortisol. Es war auch die Ausscheidung an spezifischen zellulären Cortisol-Umbauprodukten, etwa des 6-beta-Hydroxycortisols oder des Cortisons signifikant gegenüber den Kindern der Niedrig-NAE-Gruppe gesteigert.

„Diese Ergebnisse legen nahe, dass Cortisol auch bereits unter einer weniger stark ausgeprägten, lediglich durch die Ernährung beeinflussten Säurebelastung in Zielgeweben wie der Niere oder den Knochenzellen wirkt“, sagt der Bonner Wissenschaftler Prof. Dr. Thomas Remer. „Wir gehen davon aus, dass den Glucocorticoid-Hormonen, also dem Cortisol und Cortison, eine wichtige Rolle bei der Vermittlung von langfristigen ungünstigen Ernährungseinflüssen auf das Skelettsystem und auf andere relevante Gesundheits-Parameter zukommt. Auffällig bei unseren Untersuchungen war, dass sich die signifikanten Zusammenhänge in keiner Weise abschwächten, als wir die sogenannte potenzielle renale Säurelast (PRAL) im Urin bestimmten und mit den Hormonmesswerten verglichen.“ Die PRAL stellt einen noch spezifischeren Säure-Biomarker der nahrungsabhängigen Mineralstoffzufuhr und des Eiweißabbaus dar als die NAE.

Die von der DFG geförderte Untersuchung erfolgte als Kooperationsprojekt zwischen dem Dortmunder Außenlabor „DONALD Studie“ (DOrtmund Nutritional and Anthropometric Longitudinally Designed) der Universität Bonn und dem international renommierten Steroidhormonforschungslabor an der Kinderklinik der Universität Gießen. Dieses Labor zählt zu den wenigen Einrichtungen weltweit, in denen mittels massenspektrometrischer Verfahren diffizile Bestimmungen von Hormonen durchgeführt werden können. „Wir mussten für diese Studie eigens eine neue Hormonmessmethode auf der Basis der Tandem-Massenspektrometrie entwickeln“, sagt Laborleiter und Ko-Autor Prof. Dr. Stefan Wudy, der den laboranalytischen Teil der Studie leitet.

„Wir sind gespannt, ob sich die Ergebnisse im Wesentlichen bestätigen lassen, wenn wir nun gezielt das Hormonsystem von gesunden Kindern der DONALD Studie analysieren, die spezifisch danach ausgewählt wurden, ob sie besonders reichlich Obst und Gemüse verzehrten oder nur sehr wenig“, so Wudy. Nach Auffassung der an der Untersuchung beteiligten Wissenschaftlerinnen und Wissenschaftler sind Obst und Gemüse diejenigen Lebensmittel, die vor allem aufgrund ihres Kalium- und Magnesiumgehaltes in besonders günstiger Weise die täglich im Stoffwechsel entstehende Säurebelastung neutralisieren.

Publikation:
Jonas Esche, Lijie Shi, Alberto Sánchez-Guijo, Michaela F. Hartmann, Stefan A. Wudy, Thomas Remer: Higher diet-dependent renal acid load associates with higher glucocorticoid secretion and potentially bioactive free glucocorticoids in healthy children; Kidney International; online veröffentlicht am 8. Mai 2016
DOI: 10.1016/j.kint.2016.02.033

Kontakt:
Prof. Dr. Stefan A. Wudy
Zentrum für Kinderheilkunde und Jugendmedizin
Pädiatrische Endokrinologie & Diabetologie
Steroid Research & Mass Spectrometry Unit
Telefon: 0641 985-43451

Weitere Informationen:
http://dx.doi.org/10.1016/j.kint.2016.02.033 (Publikation)
http://www.ernaehrungsepidemiologie.uni-bonn.de/forschung/donald-1 (DONALD Studie)

Quelle: idw

(nach oben)


Was ändert sich in meinem Job, wenn alles digitalisiert ist?

Sandra Sieraad Pressestelle
Universität Bielefeld

Forschende der Universität Bielefeld untersuchen in ostwestfälischen Unternehmen Lösungen für die Arbeitswelt der Zukunft

Wie wird sich mein Job in den nächsten Jahren verändern, wenn die Digitalisierung immer mehr zunimmt? Was wird leichter? Und wie kann ich mich in diesen Veränderungsprozessen weiterentwickeln? Das untersuchen die Arbeitsgruppe Arbeits- und Organisationspsychologie und das Research Institute for Cognition and Robotics (CoR-Lab) der Universität Bielefeld in Unternehmen der Region Ostwestfalen-Lippe. Im Verbundprojekt „Arbeit 4.0 – Lösungen für die Arbeitswelt der Zukunft“ arbeiten sie mit Partnern aus Wissenschaft, Bildung, Regionalmarketing und Wirtschaft zusammen.

Die Forschenden untersuchen, wie Arbeit in kleinen und mittleren Unternehmen (KMU) in Ostwestfalen-Lippe gestaltet ist. Darauf aufbauend wollen sie gezielt Unterstützungsinstrumente für den digitalen Wandel entwickeln und testen. Das können zum Beispiel Checklisten, Ablaufpläne oder Screening-Instrumente zur Identifikation von Schwachstellen sein. Wenn neue Technologien eingeführt werden, dann ändert sich oft der Arbeitsalltag der Beschäftigten. Das Team um Professor Dr. Günter Maier untersucht Belastungsfaktoren und Chancen dieser Veränderungen. „Die beste Technologie bringt keine Erfolge, wenn es keine Beschäftigten gibt, die ihr Potenzial damit ausschöpfen können“, sagt er.

In einem ersten Schritt machen die Forschenden eine Bestandsaufnahme: Wo wird in OWL bereits in welchem Maße digital gearbeitet? Wie ändern sich derzeit die Arbeitsprozesse durch Vernetzung, Individualisierbarkeit, in Echtzeit auf Kundenwünsche reagieren zu können? Sind die Beschäftigten damit zufrieden? Wie belastet, wie motiviert oder demotiviert sind sie? Die Wissenschaftler entwickeln Methoden und Instrumente, damit Arbeitgeber den digitalen Wandel so gestalten können, dass Arbeitnehmer weiterhin motiviert bleiben. Danach ermitteln die Forschenden in ausgewählten Bereichen, welche Kompetenzen ein Arbeitnehmer für eine bestimmte Stelle haben muss. Daraus leiten sie die Zukunftsfähigkeit der derzeitigen Berufsbilder und den nötigen Qualifizierungsbedarf ab. Ziel ist es, die KMU in der Region für Chancen und Risiken des digitalen Wandels zu sensibilisieren und sie darin zu unterstützen, ihre Wettbewerbsfähigkeit zu erhalten.

Das Projekt ist ein Teilprojekt des integrierten Handlungskonzepts „OWL 4.0 – Industrie, Arbeit, Gesellschaft“, das vom Europäischen Fonds für regionale Entwicklung NRW bis Dezember 2018 gefördert wird.

Zu den Partnern des Verbundprojekts gehören neben der Universität Bielefeld die Universität Paderborn, das Innovationszentrum Fennel, die ScMI AG und die OstWestfalenLippe GmbH; koordiniert wird das Projekt von OWL Maschinenbau e.V. Assoziierte Partner sind die Wirtschaftsförderungseinrichtungen der Kreise und der Stadt Bielefeld, die Unternehmer/innenverbände der Metallindustrie sowie weiterer Branchen, die Technologieberatungsstelle des DGB (TBS NRW), die IG Metall, der DGB OWL, die IHK Ostwestfalen zu Bielefeld, die IHK Lippe zu Detmold, die Handwerkskammer Ostwestfalen-Lippe zu Bielefeld und das Kompetenzzentrum Frau und Beruf OWL. Als überregionale Transferpartner sind Produktion.NRW, Südwestfalen Agentur und In|Die Region RheinRuhr beteiligt.

Weitere Informationen:
http://www.uni-bielefeld.de/psychologie/ae/AE10/

Quelle: idw

(nach oben)


Vitamin C-reiche Ernährung und Sport schützen vor Grauem Star

Anna Julia Voormann Pressestelle
Deutsche Ophthalmologische Gesellschaft

Fast zehn Millionen Menschen sind hierzulande von der Augenkrankheit „Grauer Star“ betroffen. Gesunde Ernährung mit viel Vitamin C kann das Risiko für die Trübung der Augenlinse um rund ein Drittel senken. Zu diesem Ergebnis kommt eine Londoner Zwillings-Studie, die kürzlich im Fachblatt „Ophthalmology“ erschien. Die DOG rät zu einer ausgewogenen Ernährung und regelmäßiger Bewegung, um der Trübung der Augenlinse vorzubeugen. Vor allem Senioren sollten zu Lebensmitteln greifen, die reich an Vitamin C sind. Nahrungsergänzungsmittel zeigten allerdings keinen zusätzlichen schützenden Effekt.

Die Londoner Wissenschaftler beobachteten die Linsentrübung und die Ernährungsgewohnheiten bei 324 weiblichen Zwillingspärchen über einen Zeitraum von zehn Jahren. „Genetische Untersuchungen an den Schwestern zeigten außerdem, dass das Erbgut nur zu einem Drittel für Fortschritt und Schweregrad des Grauen Stars verantwortlich ist“, sagt DOG-Präsident Professor Dr. med. Horst Helbig. „Umweltfaktoren, Alter und Lebensstil spielen eine deutlich größere Rolle.“ Eine gesunde Ernährung mit ausreichend Vitamin C schützt die Augenlinse. Die Forscher gehen davon aus, dass Vitamin C sich in der Augenflüssigkeit ansammelt und dort die Trübung der Linse verhindert.

Die Studienergebnisse seien aber keine Aufforderung, zu Nahrungsergänzungsmitteln zu greifen, so Helbig, der die Klinik für Augenheilkunde am Universitätsklinikum Regensburg leitet. „Die meisten Menschen in Deutschland können sich mit Vitaminen ausreichend über Lebensmittel versorgen, sodass Nahrungsergänzungsmittel keinen zusätzlichen Effekt bringen. Nicht nur Orangen, Grapefruit und Mandarinen sind reich an Vitamin C – Brokkoli, Rosenkohl und Grünkohl übertreffen die Zitrusfrüchte in dieser Hinsicht sogar. Vor allem Senioren sollten darauf achten, dass sie täglich ausreichend Vitamine über Obst und Gemüse zu sich nehmen.

Grauer Star ist der häufigste Grund für Sehbehinderungen und Erblindung weltweit. Medikamente gibt es dagegen bisher nicht. Nach Schätzung der DOG müssen Augenärzte in Deutschland bei mindestens 800 000 Augen pro Jahr die getrübte Linse durch eine Kunstlinse ersetzen, um das Augenlicht der Betroffenen wieder herzustellen.

„Die Londoner Studie ist eine weitere Arbeit, die verdeutlich, wie sehr der Lebensstil auch die Gesundheit der Augen beeinflusst“, sagt DOG-Mediensprecher Professor Dr. med. Christian Ohrloff. Frühere Studien wiesen bereits darauf hin, dass auch regelmäßige Bewegung und Sport die Augen gesund halten: So können 60 Minuten tägliches Laufen oder Radfahren das Risiko für einen Grauen Star um 16 Prozent senken. Gleichzeitig kann ein gesunder Lebensstil auch vor anderen Augenleiden schützen: Der Verzicht auf Zigaretten etwa mindert das Risiko, an altersabhängiger Makuladegeneration (AMD) zu erkranken. Die Netzhauterkrankung kann das Sehen nach und nach bis zur Blindheit einschränken. Deshalb ist Vorbeugen hier besonders wichtig.

Quellen:
E. Yonova-Doing et al.: Genetic and dietary factors influencing the progression of nuclear cataract, 2016, Ophthalmology , Vol. 0, Issue 0

J. Z. Selzin et al.: Long-term physical activity and risk of age-related cataract: a population-based prospective study of male and female cohorts, 2015, Ophthalmology; 122: 274-280

Weitere Informationen:
http://www.dog.org/

Quelle: idw

(nach oben)


Auf dem Weg zu einer besseren Wasserqualität

Susanne Hufe Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum für Umweltforschung – UFZ

Im Auftrag der Weltumweltorganisation UNEP haben Wissenschaftlerinnen und Wissenschaftler des Helmholtz-Zentrums für Umweltforschung (UFZ) und der Universität Kassel in den letzten zwei Jahren Wissen zusammengetragen und analysiert, das einen ersten Einblick gibt, wie es um die Qualität der Fließgewässer und Seen weltweit bestellt ist und welche Folgen das hat. Die Vorstudie zu einem World Water Quality Assessment (WWQA), an der weltweit mehr als 40 Autorinnen und Autoren mitgewirkt haben, wurde am 19. Mai 2016, anlässlich eines Science-Policy Forums in Nairobi der Öffentlichkeit vorgestellt.

Hunderttausende Datensätze zur weltweiten Wasserqualität gibt es bereits – nur: Sie beinhalten völlig unterschiedliche Messgrößen und lassen auf der Weltkarte etliche weiße Flecken erkennen. Das hierzu verfügbare Material zu analysieren und aufzubereiten, war eines der wichtigen Ziele für die Vorstudie zum World Water Quality Assessment (WWQA), an der im Auftrag der Umweltorganisation der Vereinten Nationen (UNEP) Forscher vom UFZ gemeinsam mit Kollegen vom Center for Environmental Systems Research (CESR) der Universität Kassel gearbeitet haben. Schon während dieser Studie konnten sie dank aufwendiger daten- und modellbasierter Analysen neue Rückschlüsse auf die weltweite Wasserqualität ziehen.
„Bei allen internationalen Studien stand bislang vor allem die Wasserquantität im Mittelpunkt“, erläutert Prof. Dr. Dietrich Borchardt, der als Leiter des UFZ-Departments Aquatische Ökosystemanalyse für die Studie verantwortlich ist. Wie schnell sich die Schere zwischen der Menge an verfügbarem Süßwasser und dem Bevölkerungswachstum öffnet – das ist die Leitfrage, an der sich bislang die Wissenschaftler orientiert haben. Beim WWQA wurde eine weiterreichende Perspektive eingenommen: „Wir lenken den Blick auf die Wasserqualität, die Ursachen nachteiliger Veränderungen und stellen die Verbindung zur menschlichen Gesundheit, der Nahrungssicherheit sowie zum Einfluss auf die Ökosysteme her. Und wir benennen wirksame Maßnahmen. Ein so angelegtes, weltweites Assessment hat es bisher noch nicht gegeben“, sagt Borchardt.

Die Studie, die in mehr als zweijähriger Arbeit entstanden ist, wird jetzt auf dem Science-Policy Forum in der kenianischen Hauptstadt Nairobi vorgestellt. Auf dieser Tagung, die ein wichtiger Bestandteil der United Nations Environment Assembly ist, kommen bis zum 27. Mai Wissenschaftler, Politiker und Akteure aus der Zivilgesellschaft zusammen, um die ökologische Dimension von nachhaltiger Entwicklung zu debattieren. Das Forum soll unter anderem aufzeigen, wie wissenschaftliche Ergebnisse besser für künftige politische Entscheidungen innerhalb der 2030 Agenda für Nachhaltige Entwicklung berücksichtigt werden können.
Gerade die Informationen zur Wasserqualität sind hochgradig relevant, um eine sinnvolle Wasserpolitik zu gestalten. „Schon heute leben mehr Menschen mit einem Mobiltelefon als mit einer sicheren Wasserversorgung“, so Dietrich Borchardt. Im nächsten Schritt sollen deshalb auch Sozialwissenschaftler eingebunden werden, um den Bereich der Politikberatung mit abzudecken. „Viele der betroffenen Länder bekommen Geld von internationalen Gebern, um ihre Wasserinfrastruktur aufzubauen. Da geht es also konkret um die Frage, wie internationale Programme gestaltet sein müssen, um Fehler zu vermeiden – und beispielsweise auch darum, wie sich Nachbarstaaten am selben Flusslauf absprechen sollten“, erläutert Borchardt.

Das WWQA soll eine Brückenfunktion übernehmen: Bei den Vereinten Nationen sind eine ganze Reihe von Organisationen für ihre Arbeit auf Informationen zur Wasserqualität angewiesen, von der Weltgesundheitsorganisation bis zur Ernährungs- und Landwirtschaftsorganisation. Sie alle benötigen indes spezifische Daten. Bei der Vorstudie, die nun präsentiert wird, war es deshalb eines der wichtigen Ziele, in der Fülle des vorhandenen Datenmaterials jene Parameter ausfindig zu machen, die für die anschließende konkrete Arbeit am dringendsten benötigt werden. Denn im Global Environmental Monitoring System (GEMS) der Vereinten Nationen laufen Umweltinformationen aus vielen tausend Messstationen weltweit zusammen, aber enthalten sind häufig unterschiedliche Messgrößen und Zeitreihen.

Bei der Arbeit zur jetzt vorgelegten Studie haben sich die Wissenschaftlerinnen und Wissenschaftler zunächst auf Lateinamerika, Afrika und Asien konzentriert, weil die Probleme hier besonders groß sind. Das sind ausgerechnet aber die Regionen, in denen vielfach die größten Lücken in den verfügbaren Messdaten bestehen. „Es gibt noch echte weiße Flecken“, sagt Dr. Ilona Bärlund, die als Managerin an dem Projekt mitarbeitet. Um dennoch eine flächendeckende Aussage treffen zu können, haben die Forscher eine Methodenkombination gewählt: Wo Daten vorliegen, haben sie analytisch-statistische Auswertungsmethoden eingesetzt. Zugleich haben sie ein integriertes globales Modellierungssystem verwendet, das die Oberflächenwassersysteme mit hoher räumlicher Auflösung abbildet. Mithilfe der Modellberechnungen können so Aussagen dann auch für Regionen abgeleitet werden, aus denen keine konkreten Messdaten verfügbar sind.

Neben den methodischen Klärungen hat die Vorstudie aber auch greifbare Ergebnisse zutage gefördert. In Lateinamerika ist etwa ein Viertel aller Flusskilometer durch Abwasser verschmutzt, also etwa 300.000 Kilometer. In Afrika sind es zwischen zehn und 25 Prozent und in Asien fast die Hälfte, was etwa 800.000 Kilometern entspricht. Gewaltig groß ist auch die Zahl der Menschen, die dadurch gefährdet sind: Zwischen 8 und 25 Millionen sind es in Lateinamerika, 32 bis 164 Millionen in Afrika und 31 bis 134 Millionen in Asien – „wobei die große Spannweite der Schätzungen zeigt, dass es noch eine Rechnung mit vielen Unbekannten ist“, wie es in der Vorstudie heißt.
Mit diesen methodischen und inhaltlichen Ergebnissen der Vorstudie sind alle Weichen für eine Hauptstudie gestellt, die sich jetzt anschließen und zum Erreichen der Nachhaltigkeitsziele unter der 2030 Agenda für Nachhaltige Entwicklung beitragen soll.

Publikation:
UNEP 2016. A Snapshot of the World’s Water Quality: Towards a global assessment. United Nations Environment Programme, Nairobi, Kenya.162pp.
Report: http://www.wwqa-documentation.info/report.html
Policy-Brief: http://www.wwqa-documentation.info/assets/policy_brief_unep_wwqa_web.pdf

Weiterführende Informationen:
Prof. Dr. Dietrich Borchardt
Leiter des UFZ-Departments Aquatische Ökosystemanalyse
E-mail: dietrich.borchardt@ufz.de

Dr. Ilona Bärlund
UFZ-Departments Aquatische Ökosystemanalyse
Telefon: +49 (0)391 8109 102
E-Mail: ilona.baerlund@ufz.de

Weitere Informationen:
http://www.ufz.de/index.php?de=36336&webc_pm=21/2016

Quelle: idw

(nach oben)


Unterdrückung unliebsamer Testergebnisse? Blutzucker-Messgeräte-Hersteller geht gegen Prüflabor vor

Julia Voormann Pressestelle
Deutsche Diabetes Gesellschaft

Berlin – Ein Hersteller von Blutzucker-Messgeräten hat dem Institut für Diabetes-Technologie Forschungs- und Entwicklungsgesellschaft mbH an der Universität Ulm (IDT) per einstweiliger Verfügung untersagt, Testergebnisse seiner Produkte unter Nennung des Herstellernamens, des Produktes oder des Vertriebsweges auf dem Diabetes Kongress 2016 zu veröffentlichen. Hintergrund der Auseinandersetzung: Die Testung einer Charge von Blutzuckerstreifen durch das IDT hatte ergeben, dass die Messungenauigkeit der Produkte dieses Herstellers erheblich war und die Sicherheit der Diabetespatienten gefährden könnte.

Besonders pikant: Die Messstreifen wurden in einem führenden Discounter vertrieben. „Hier geht es unserer Auffassung nach um Geld und Marktmacht versus Sicherheit der Patienten und Freiheit der Wissenschaft“, erklärt Professor Dr. med. Baptist Gallwitz, Präsident der Deutschen Diabetes Gesellschaft (DDG). Die Fachgesellschaft fordert den Hersteller auf, umgehend eine Rückrufaktion der bemängelten Charge einzuleiten.

Der Medizinproduktehersteller hat im Mai 2016 eine einstweilige Verfügung beim Landgericht Berlin erwirkt (AZ.: 27 O 200/16), wonach die „namentliche Nennung unserer Mandantin (…) und/oder des Vertriebsweges (…)“ auf dem angekündigten Poster untersagt ist. „Wir haben aufgrund dieses rechtlichen Vorgehens die Namensnennungen auf dem Poster entfernt, das die Testergebnisse auf dem Diabetes Kongress 2016 in wissenschaftlich korrekter Form darstellte“, berichtet Dr. med. Guido Freckmann, Geschäftsführer des IDT. Sein Institut will jetzt Widerspruch gegen die einstweilige Verfügung einlegen, die Zuwiderhandlungen mit einem Ordnungsgeld von 250.000 Euro oder einer Ordnungshaft von bis zu sechs Monaten ahndet.

Hintergrund der rechtlichen Auseinandersetzung: Das IDT hatte zu Jahresbeginn auf eigene Initiative hin eine Charge von Blutzucker-Messstreifen einer Blutzucker-Messgeräte- und Teststreifen-Firma geprüft, die über einen großen Discounter vertrieben wurden. „Wir haben eine Teststreifencharge des Messsystems nach der zutreffenden Norm ISO 15197 getestet“, berichtet Freckmann. „Das IDT ist ein akkreditiertes Prüflabor, das alle Messungen nach höchsten wissenschaftlichen Standards durchführt.“

Doch die Tests mit den Blutzucker-Messstreifen aus dem Discounter fielen in Bezug auf die erforderliche Genauigkeit mangelhaft aus. „Besonders im niedrigen Blutzuckerbereich lagen die Messwerte deutlich zu hoch und waren geeignet, eine drohende Unterzuckerung zu verschleiern“, erläutert Professor Dr. Lutz Heinemann, Vorsitzender der Arbeitsgemeinschaft Diabetes und Technologie der DDG. Die Produkte hatten Werte angegeben, die im Durchschnitt um 16 Prozent überhöht waren. „Dies stellt eine Patientengefährdung dar, beispielsweise wenn der Patient eine Autofahrt beginnen möchte“, erläutert der DDG Experte.

Die Testergebnisse meldete das IDT pflichtgemäß an den Hersteller, Ende März 2016 auch an das Bundesinstitut für Arzneimittel und Medizinprodukte (BfArM). Eine Information der betroffenen Patienten erfolgte bislang nicht. „Leider hat der Hersteller nicht die Konsequenz gezogen, einen Rückruf zu starten“, bedauert Dr. Dietrich Garlichs, Geschäftsführer der DDG. Das müsste nach Ansicht der DDG Experten jedoch umgehend passieren. Stattdessen hat der Hersteller rechtliche Mittel eingelegt – mit der Begründung, die Testung nur einer Charge sei nicht ausreichend, es müssten drei Chargen überprüft werden. „Das ist nicht korrekt“, erklärt Heinemann. „Nach derzeit noch geltender ISO-Norm der Europäischen Union reicht eine Charge, um die auf dem Markt deklarierte Leistung zu überprüfen.“

„Hier geht es offenbar um Marktmacht“, bilanziert DDG Präsident Gallwitz. „Das ist insofern skandalös, als die Sicherheit der Patienten dem Kommerz geopfert wird.“ Besonders bedauerlich in diesem Zusammenhang sei, dass das BfArM bislang nicht eingeschritten ist. „Das BfArM muss als Aufsichtsbehörde seine Kontrollfunktion wahrnehmen“, betont Garlichs. „Auf die Selbstkontrolle der Medizinproduktehersteller ist nicht immer Verlass, wie dieser Fall einmal mehr zeigt.“ Die DDG hofft, dass der Discounter ein größeres Interesse hat, die gesundheitliche Sicherheit seiner Kunden zu schützen.

Über das IDT:
Das IDT führt Testungen zur Prüfung von Medizinprodukten im Auftrag verschiedener Hersteller, aber auch auf eigene Initiative durch. Ein Schwerpunkt ist dabei die Leistungsbewertungsprüfung von Blutzuckermesssystemen zur Eigenanwendung nach der internationalen Norm ISO 15197. Für die Durchführung der Testung ist das IDT seit 2015 von der Deutschen Akkreditierungsstelle (DAkkS) akkreditiert und von der Zentralstelle der Länder für Gesundheitsschutz bei Arzneimitteln und Medizinprodukten (ZLG) anerkannt.

Über die Deutsche Diabetes Gesellschaft (DDG):
Die Deutsche Diabetes Gesellschaft (DDG) ist mit fast 9.000 Mitgliedern eine der großen medizinisch-wissenschaftlichen Fachgesellschaften in Deutschland. Sie unterstützt Wissenschaft und Forschung, engagiert sich in Fort- und Weiterbildung, zertifiziert Behandlungseinrichtungen und entwickelt Leitlinien. Ziel ist eine wirksamere Prävention und Behandlung der Volkskrankheit Diabetes, von der mehr als sechs Millionen Menschen in Deutschland betroffen sind. Zu diesem Zweck unternimmt sie auch umfangreiche gesundheitspolitische Aktivitäten.

Deutsche Diabetes Gesellschaft (DDG)
Geschäftsstelle
Albrechtstraße 9, 10117 Berlin
Tel.: 030 3116937-0, Fax: 030 3116937-20
info@ddg.info
http://www.ddg.info

Quelle: idw

(nach oben)


Neues Design für das Fahrradportal

Sybille Wenke-Thiem Stabsstelle Presse- und Öffentlichkeitsarbeit
Deutsches Institut für Urbanistik

Das Fahrradportal, die Online-Informationsplattform zur Radverkehrsförderung in Deutschland, hat ein neues Design bekommen

Auf der Website des vom Bundesministerium für Verkehr und digitale Infrastruktur (BMVI) geförderten Angebots finden Interessierte Praxisbeispiele, Ausschreibungen und diverse Neuigkeiten rund um den Nationalen Radverkehrsplan und zur Radverkehrsförderung in Deutschland.

Die Online-Plattform richtet sich an die Mitarbeiter aus Politik und Verwaltung des Bundes, der Länder und Kommunen, an die Fachcommunity, Forschung, Verbände und Medien. Diese können sich auf dem Portal über aktuelle Forschung und gelungene Praxisbeispiele im In- und Ausland informieren und sich besser vernetzen. Zusammengetragen werden die Informationen durch das Deutsche Institut für Urbanistik (Difu).

Neben dem neuen Design wurde das Portal zugleich auch nutzerfreundlicher und bietet erweiterte Suchmöglichkeiten. Interessierte finden so einen schnellen Zugang zu Neuigkeiten, Projekten, Finanzierungsmöglichkeiten, Veranstaltungen, Seminarangeboten, Praxisbeispielen und Wettbewerbsausschreibungen.

Dazu Prof. Dipl.-Ing. Martin zur Nedden, Wissenschaftlicher Direktor und Geschäftsführer des Deutschen Instituts für Urbanistik (Difu): „Der Radverkehr hat sich in Deutschland in der letzten Dekade zum ‚Mainstream-Verkehrsmittel‘ gewandelt. Das ist gut so, denn er ist umweltfreundlich, kostensparend und gesundheitsfördernd. Die Kommunen müssen und wollen sich darauf einstellen. Dabei sind Wissensvermittlung und Vernetzung wesentlich, um Akteure auf lokaler, regionaler und auf Bundesebene in die Lage zu versetzen, den Radverkehr wirkungsvoll zu fördern. Als größtes Stadtforschungsinstitut im deutschsprachigen Raum unterstützt das Difu daher Kommunen und Kommunalverbände intensiv durch Forschung, Fortbildung, Beratung und Information bei der Verkehrsentwicklung und Radverkehrsförderung.“

Weitere Informationen:
Doris Reichel
Telefon: 030/39001-233
E-Mail: reichel@difu.de
https://nationaler-radverkehrsplan.de

Kurzinfo: Deutsches Institut für Urbanistik
Das Deutsche Institut für Urbanistik (Difu) ist als größtes Stadtforschungsinstitut im deutschsprachigen Raum die Forschungs-, Fortbildungs- und Informationseinrichtung für Kommunen, Kommunalverbände und Planungsgemeinschaften. Ob Stadt- und Regionalentwicklung, kommunale Wirtschaft, Städtebau, soziale Themen, Umwelt, Verkehr, Kultur, Recht, Verwaltungsthemen oder Kommunalfinanzen: Das 1973 gegründete unabhängige Berliner Institut – mit einem weiteren Standort in Köln (Bereich Umwelt) – bearbeitet ein umfangreiches Themenspektrum und beschäftigt sich auf wissenschaftlicher Ebene praxisnah mit allen Aufgaben, die Kommunen heute und in Zukunft zu bewältigen haben. Der Verein für Kommunalwissenschaften e.V. ist alleiniger Gesellschafter des in der Form einer gemeinnützigen GmbH geführten Forschungsinstituts.

Deutsches Institut für Urbanistik gGmbH
Sitz Berlin, AG Charlottenburg, HRB 114959 B
Geschäftsführer: Prof. Dipl.-Ing. Martin zur Nedden, Dr. Busso Grabow

Weitere Informationen:
http://www.difu.de
https://nationaler-radverkehrsplan.de

Quelle: idw

(nach oben)


Wie Schwangerschaft die Wahrnehmung verändert

Dr. Stefanie Merker Presse und Öffentlichkeitsarbeit
Max-Planck-Institut für Neurobiologie

In der Schwangerschaft verändern sich die Wahrnehmung und Reaktionen auf bestimmte Gerüche und Geschmäcker mitunter drastisch. Das ist auch bei Fliegen so. Was die Veränderung in der Wahrnehmung jedoch auslöst, ist weder bei Säugetieren noch bei Insekten verstanden. Wissenschaftler des Max-Planck-Instituts für Neurobiologie in Martinsried zeigen nun in Fruchtfliegen, dass die Konzentration eines bestimmten Rezeptors in den Sinnesorganen befruchteter Fliegenweibchen steigt. Dadurch wird der Geschmack und Geruch von wichtigen Nährstoffen, den Polyaminen, anders im Gehirn verarbeitet: Befruchtete Fliegen entscheiden sich für polyaminreiche Nahrung und steigern so ihren Reproduktionserfolg.

Eine Schwangerschaft bedeutet eine enorme Herausforderung für den Organismus der Mutter. Um die heranwachsenden Nachkommen optimal zu versorgen und gleichzeitig die eigenen, gesteigerten Körperfunktionen aufrecht zu erhalten, muss sich die Ernährung auf die geänderten Anforderungen umstellen. „Wir wollten wissen, ob und wie eine werdende Mutter die benötigten Nährstoffe wahrnimmt“, erklärt Ilona Grunwald Kadow, Forschungsgruppenleiterin am Max-Planck-Institut für Neurobiologie.

Polyamine sind Nährstoffe, die der Körper selbst und auch die Darmbakterien herstellen können. Ein Teil der benötigten Polyamine muss jedoch über die Nahrung aufgenommen werden. Mit fortschreitendem Alter wird die Aufnahme von Polyaminen mit der Nahrung immer wichtiger, da die körpereigene Produktion zurückgeht. Polyamine spielen in unzähligen Zellprozessen eine Rolle, sodass sich eine Polyamin-Unterversorgung negativ auf die Gesundheit, kognitiven Fähigkeiten, Reproduktion und Lebenserwartung auswirken kann. Doch auch zu viele Polyamine können schädlich sein. Die Polyaminaufnahme sollte daher an die aktuellen Bedürfnisse des Körpers angepasst sein.

Die Martinsrieder Neurobiologen konnten nun zeigen, dass Fruchtfliegenweibchen nach der Paarung Nahrung mit einem höheren Polyaminanteil bevorzugen. Eine Kombination aus Verhaltensstudien und physiologischen Untersuchungen ergab, dass die veränderte Anziehungskraft von Polyaminen auf Fliegen vor und nach der Paarung durch einen Neuropeptid-Rezeptor, den sogenannten Sex Peptid Rezeptor (SPR) und seine Neuropeptid-Bindungspartner ausgelöst wird. „Es war bekannt, dass der SPR die Eiproduktion in verpaarten Fliegen ankurbelt“, erklärt Ashiq Hussain, einer der beiden Erstautoren der Studie. „Dass der SPR auch die Aktivität der Nervenzellen reguliert, die den Geschmack und Geruch von Polyaminen erkennen, hat uns überrascht.“

In trächtigen Weibchen werden deutlich mehr SPR-Rezeptoren in die Oberflächen der chemosensorischen Nervenzellen eingebaut. Polyamine werden so bereits sehr früh in der Verarbeitungskette von Gerüchen und Geschmäckern verstärkt wahrgenommen. Die Bedeutung des Rezeptors zeigte sich, als die Forscher durch eine genetische Modifikation das SPR-Vorkommen in Geruchs- und Geschmacksneuronen nicht-trächtiger Weibchen steigerten: Diese Veränderung reichte aus, um die Nervenzellen von jungfräulichen Fliegen deutlich stärker auf Polyamine reagieren zu lassen. Letztendlich führte dies dazu, dass die Weibchen ihre Vorlieben änderten und wie ihre verpaarten Artgenossinnen die polyaminreiche Nahrungsquelle anflogen.

Die Studie zeigt erstmals einen Mechanismus, über den Trächtigkeit (oder Schwangerschaft) die chemosensorischen Nervenzellen modifizieren und so die Wahrnehmung wichtiger Nährstoffe und das Verhalten darauf verändern können. „Da Geruch und Geschmack in Insekten und Säugetieren ähnlich verarbeitet werden, könnte ein entsprechender Mechanismus auch bei uns Menschen dafür sorgen, dass das heranwachsende Leben optimal versorgt ist“, vermutet Habibe Üc̗punar, die zweite Erstautorin der Studie. In einer parallel erscheinenden Studie konnten die Wissenschaftler zudem zeigen, wie die wichtigen Polyamine von den Fruchtfliegen überhaupt wahrgenommen werden.

ORIGINALVERÖFFENTLICHUNG:
Ashiq Hussain, Habibe K. Üc̗punar, Mo Zhang, Laura F. Loschek, Ilona C. Grunwald Kadow
Neuropeptides modulate female chemosensory processing upon mating in Drosophila
PLOS Biology, online am 4. Mai 2016

KONTAKT:
Dr. Stefanie Merker
Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Neurobiologie, Martinsried
Tel.: 089 8578 – 3514
E-Mail: merker@neuro.mpg.de
www.neuro.mpg.de

Dr. Ilona Grunwald Kadow
Chemosensorische Kodierung
Max-Planck-Institut für Neurobiologie, Martinsried
Tel.: 089 8578 3159
Email: ikadow@neuro.mpg.de

Weitere Informationen:
http://www.neuro.mpg.de/kadow/de – Webseite der Forschungsgruppe von Dr. Grunwald Kadow

Quelle: idw

(nach oben)


Nutzung von Klärschlamm für Biogas wird erforscht

Dr. Margareta Bögelein Pressestelle
Hochschule Coburg

Die Verstromung von Biogas aus nachwachsenden Rohstoffen wird durch das Erneuerbare-Energien-Gesetz von 2014 stark eingeschränkt. Das stellt die Betreiber dieser Anlagen vor Herausforderungen. An einer Lösung arbeitet die Hochschule Coburg mit mehreren bayerischen Hochschulen und Industriepartnern im Verbundprojekt FOR10‘000. Ziel ist es, ein Energienutzungskonzept zu entwickeln, das organische Abfälle wirtschaftlich nutzbar macht.

Die Biogasbranche muss sich neuen Herausforderungen stellen. Das Erneuerbare-Energien-Gesetz 2014 brachte eine weitgehende Streichung der Subventionen für die Biogasproduktion. Die Anlagen sollen in Zukunft verstärkt auf organische Reststoffe anstelle der nachwachsenden Rohstoffe setzen. Organischer Abfall wie Klärschlamm birgt ein großes Potenzial für die Biogasproduktion. Bereits etablierte technische Verfahren erlauben jedoch keine wirtschaftlich rentable Nutzung im kommunalen Maßstab. Das Verbundprojekt FOR 10‘000 arbeitet an einem Energie- und Abfallkonzept, das biologische Reststoffe für kleinere Biogasanlagen nutzbar macht.

Prof. Dr. Matthias Noll von der Hochschule Coburg forscht gemeinsam mit einem wissenschaftlichen Mitarbeiter im Bereich der Substratvorbereitung für die Biogasproduktion. Sie nehmen molekular- und mikrobiologische Analysen von Biomasseproben vor und untersuchen den Einfluss verschiedener Vorbehandlungsmethoden und variierender Rahmenbedingungen auf die mikrobielle Gemeinschaft der Biomasse. Das Verständnis der Stoffwechselaktivitäten ist entscheidend, denn sie bilden die Grundlage aller Prozesse während der Gärung von Biomasse.

Das Projekt wird von der bayerischen Forschungsstiftung gefördert und läuft zwei Jahre. Koordinator ist die Universität Bayreuth. Die Forscher möchten die Biogasproduktion in der Region Oberfranken stärken. Damit ist nicht nur der Wirtschaft geholfen. Der Region wird auf lange Sicht eine dezentrale Versorgung mit erneuerbarer Energie ermöglicht.

Weitere Informationen:

https://www.hs-coburg.de/news-detailseite/news/News/detail/nutzung-von-klaerschl…

Quelle: idw

(nach oben)


Plasma-Kamm gegen Läuse – Technologie erobert Medizin und Haushalt

Sabine zu Klampen Presse- und Öffentlichkeitsarbeit
HAWK Hochschule für angewandte Wissenschaft und Kunst, Fachhochschule Hildesheim/Holzminden/Göttingen

Die HAWK-Forschung ist auf dem Weg, Volkskrankheiten wie Neurodermitis oder Schuppenflechte mit Hilfe von Plasma-Behandlungen signifikant zu lindern. Plasma-Anwendungen wie Handgeräte zur Wundheilung oder der Plasma-Läusekamm werden in den nächsten Jahren womöglich zur Selbstverständlichkeit in Haushalt und Handwerk.

Gezähmte Blitze
Plasma ist der vierte Aggregatzustand der Materie. Nach fest, flüssig, gasförmig folgt ein weiterer energiereicher Zustand, das Plasma. Bekannt ist dieser Zustand vom Gewitterblitz. „Wir haben die Möglichkeiten, diese großartige Energie ganz klein zu machen, zu zähmen, kalt zu lassen, so dass man sogar solche Gewitterblitze auf die Haut einwirken lassen kann, ohne dass etwas zu spüren ist“, sagt der Leiter und Initiator der entsprechenden Forschungsgruppe, Prof. apl. Prof. Dr. Wolfgang Viöl, Vizepräsident für Forschung und Transfer der HAWK und Leiter des Anwendungszentrums für Plasma und Photonik des Fraunhofer IST im niedersächsischen Göttingen. Viöl ist für seine Entwicklungen vielfach ausgezeichnet worden. Die HAWK-Plasma-Forschung ist auch in den Medien aufgegriffen worden. N-TV, arte, NDR, MDR, Heise.de, Süddeutsche Zeitung oder die Deutsche Apotheker Zeitung haben berichtet.

Schlüsseltechnologie
Plasma ist eine Schlüsseltechnologie, die industriell schon in vielen Bereichen eingesetzt wird. Die HAWK-Wissenschaftler untersuchen jedoch als weltweit erste die Behandlung menschlicher Haut mit Atmosphärendruck-Plasma. Es ist im Verhältnis zu anderen Plasmen, die sich etwa zur Bearbeitung von Metallen oder Kunststoffen nutzen lassen, vergleichsweise kühl und sein Druck entspricht etwa dem normalen Luftdruck. Die weltweit ersten klinischen Studien zur plasmaunterstützten Wundheilung liefen am Klinikum Schwabing (München) und an der Universitätsmedizin Göttingen.

PlasmaDerm gegen Hautkrankheiten
Entwickelt wurde schon das PlasmaDerm, mit dem man Wunden heilen kann. Hautkrankheiten wie Neurodermitis, die Schuppenflechte oder das sogenannte Offene Bein gelten als Volkskrankheiten. Um Hautwunden zu behandeln, müssen unter anderem der gestörte Sauerstoffzufluss wiederhergestellt und Keime bekämpft werden. „Bislang wurde Plasma hauptsächlich unter Vakuum-Bedingungen erzeugt oder bei atmosphärischen Bedingungen mit so hohen Energiedichten, dass es am Menschen nicht anwendbar war. Die Herausforderung für die Forschergruppe bestand also darin, ein gewebekompatibles Plasma bei atmosphärischem Druck bereitzustellen. Und natürlich mussten eine schmerzfreie Behandlung und die Einhaltung der hohen Sicherheitsanforderungen der Medizintechnik gewährleistet sein. Den Wissenschaftlern gelang dies mit nicht thermischem, also kaltem Plasma, das in etwa Körpertemperatur besitzt“, erläutert Dr. Andreas Helmke, Gruppenleiter für Plasmamedizin.

Klinische Studien
Prof. Dr. Steffen Emmert konnte an der Hautklinik der Universitätsmedizin Göttingen (UMG) in einer klinischen Studie die positive Wirkung der Behandlung nachweisen. Weit über hundert PlasmaDerm-Geräte sind bereits im Einsatz und deutlich über 10.000 Behandlungen wurden durchgeführt. Emmert: „In einer älter werdenden Gesellschaft nehmen gerade Hauterkrankungen immer weiter zu. Und das geht natürlich mit zunehmenden Kosten für das Gesundheitswesen einher. Es werden dringend genau in diesem Bereich deshalb neue, effektive Behandlungsmethoden gesucht. Wir konnten in unserer Zulassungsstudie für PlasmaDerm zeigen, dass Plasma die Keime auf Wunden reduzieren und die Wundheilung fördern kann.“

Läusekamm
Kurz vor der Markteinführung ist der Läusekamm auf Plasmabasis, mit dem man Läuse auf den Haaren töten kann – aber auch zusätzlich die Nissen, was andere Produkte nicht können. Der Läusekamm wird voraussichtlich in etwa ein bis zwei Jahren auf dem Markt erhältlich sein. Die Plasma-Technologie macht hier Schluss mit Chemie auf dem Kopf unzähliger Kita- oder Schulkinder oder Bettwäsche im Gefrierschrank. Professor Viöl: „Wir erzeugen ein Hochspannungsfeld auf dem Kopf. In der Luft zündet dann so etwas wie ein ganz kleiner Gewitterblitz. Das hört sich sehr gefährlich an, aber wir benutzen Hochspannungspulse, die man gar nicht spürt, die absolut ungefährlich sind, weil sie ganz bestimmte Frequenzen besitzen. So ist das Plasma kalt. Das Besondere an diesem Kamm ist, dass es mit einem rein physikalischen Verfahren funktioniert – eben ohne Chemikalien.“

Milbenstaubsauger und Handdesinfektion
Zudem wurde ein Staubsauer entwickelt, der die Milben in einem Teppich tötet. Oder DesiHand – ein Plasmasystem zur Trocknung und Desinfektion der Handoberfläche, das in großen Sanitäranlagen installiert werden kann.

Elektronen unter Hochspannung
Plasma ist ein Zustand, den jedes beliebige Gas, zum Beispiel Luft, unter elektrischer Ladung annimmt. Die Elektronen gewinnen unter Hochspannung so viel Energie, als wären sie bis zu 80.000 Grad heiß. So heiß wird es normalerweise noch nicht mal auf der Sonne. Alle anderen Bestandteile des Plasmas bleiben aber kalt. Und deswegen ist es für Mensch und Haustiere völlig ungefährlich, nicht aber für kleinere Lebewesen, wie zum Beispiel Läuse. Die stille elektrische Entladung ist eine Wechselspannungs-Gasentladung, bei der mindestens eine der Elektroden vom Gasraum durch galvanische Trennung mittels eines Dielektrikums elektrisch isoliert ist.

In Zukunft mit Plasma-Stick
„Die Zukunft stelle ich mir so vor: Die Mutter greift zu einen Plasma-Stick und nicht mehr nach Jod, um das aufgeschlagene Knie ihres Kindes zu heilen, der Allergiker ‚saugt‘ Milben mit dem Plasma-Staubsauger weg und in Arztpraxen ist die Behandlung von Hautproblemen mit Plasma ein gängiges Verfahren“, sagt Viöl.

Weitere Informationen:
http://www.hawk-hhg.de/aktuell/default_211593.php
http://www.hawk-hhg.de/naturwissenschaften/179220.php

Anhang
Preise und Auszeichnungen für die Pasma-Forschung
https://idw-online.de/de/attachment49662

Quelle: idw

(nach oben)


Wirtschaftsfaktor RB Leipzig: Erstligist spühlt über 16 Millionen Euro pro Saison in die Stadt

MBA Volker Stößel Media Relations
HHL Leipzig Graduate School of Management

RB Leipzig und die wirtschaftliche Bedeutung eines Erstligisten für die Region. Ein Interview mit Prof. Dr. Henning Zülch, Inhaber des Lehrstuhls Accounting and Auditing an der HHL Leipzig Graduate School of Management. In seiner Forschung beschäftigt sich der gebürtige Dortmunder neben der Finanzmarktkommunikation mit der Übertragbarkeit betriebswirtschaftlicher Grundprinzipien auf die erfolgreiche Führung von Sportvereinen.

RB Leipzig hat mit dem Sieg gegen den Karlsruher SC am vergangenen Sonntag alles klar gemacht. Die erste Fußballbundesliga kann kommen. Der viel geschmähte Verein soll nunmehr seine wirtschaftliche Strahlkraft für die Region Leipzig und gar den gesamten ostdeutschen Raum entfalten. Was bedeutet dies konkret?
ZÜLCH: Zunächst muss man schauen, was eigentlich die wesentlichen Faktoren sind, die die Strahlkraft von RB Leipzig ausmachen können. Mir fallen spontan zwei relevante Faktoren ein, und zwar die Zuschauerentwicklung und der Imagegewinn für die Stadt und die gesamte Region.

Lassen sie uns zunächst bei der Zuschauerentwicklung bleiben. Was bedeutet der Erstligaaufstieg in diesem Zusammenhang?
ZÜLCH: Schaut man sich die Zuschauerentwicklung an, so ist festzustellen, dass RB Leipzig in der zweiten Liga durchschnittlich 27.800 Zuschauer pro Spiel ins Stadion gelockt hat. Das bedeutet Platz drei in der Zuschauertabelle der 2. Bundesliga hinter Nürnberg und St. Pauli. Bemerkenswert für einen Club, dem Seelenlosigkeit vorgeworfen wird. Die große Frage ist nun: Wie geht es weiter in Liga 1? Betrachtet man genau die seit 2013 aufgestiegenen Vereine Frankfurt, Berlin, Köln, Ingolstadt und Darmstadt, so fällt auf, dass die Zuschauerzahlen dieser Vereine im Jahr nach dem Aufstieg um 26,8% angestiegen sind und auf diesem Niveau grundsätzlich verharrten. Wird dies auf RB Leipzig und die kommende Saison übertragen und unterstellt man eine Wachstumsrate von 35% aufgrund des besonderen Umfeldes und der bisherigen Erfahrung, so ist für die kommende Saison eine Steigerung der Zuschauerzahlen auf 165.500 Zuschauer zu kalkulieren. Das bedeutet, dass durchschnittlich 37.500 Zuschauer ein Heimspiel von RB Leipzig besuchen werden. Auch die Gästefans werden über kurz oder lang ihre Boykotthaltung aufgeben und zu weiter steigenden Zuschauerzahlen führen. Der Erfolg wird sich durchsetzen und die Erkenntnis, dass RB Leipzig nicht wirklich anders ist als Leverkusen und Bayern.

Was bedeutet diese Entwicklung nun finanziell für Leipzig?
ZÜLCH: Laut einschlägiger Studien in den vergangenen Jahren lässt ein Stadionbesucher in Leverkusen ungefähr 25 EUR im Stadion selbst und zusätzliches Einkommen außerhalb des Stadion wird in Höhe von ebenso 25 EUR generiert. In Wolfsburg sieht dies ähnlich aus: 14 EUR im Stadion und 23 EUR außerhalb des Stadions. Hinzu kommt der Steuergewinn der Stadt.

… Was heißt das nun konkret für Leipzig?
ZÜLCH: Übertragen auf Leipzig bedeutet dies, dass bei einem Zugewinn von 165.500 Zuschauern in der Saison 2016/2017 bei 25 EUR Ausgaben pro Besucher ca. 4.14 Mio. EUR zusätzliche Einnahmen außerhalb des Stadions generiert werden. In der Summe ergibt sich über alle 17 Heimspiele von RB Leipzig bei einer durchschnittlichen Zuschauerzahl von 37.500 Zuschauern pro Heimspiel eine Gesamtzuschauerzahl von 637.500 Zuschauern (Platz 12 der aktuellen Zuschauertabelle) für die kommende Saison, was Einnahmen i.H.v. ca. 16 Mio. EUR außerhalb des Stadions für die gesamte Saison bedeuten würde. Und dies ist eine meines Erachtens eine noch eher pessimistische Schätzung. Geht man auf realistische 30 EUR pro Besucher hoch, erreicht man Gesamteinnahmen von gar 19,13 Mio. EUR.

Sie sprachen zuvor die Stadtkasse Leipzig an. Wie profitiert diese denn von den Einnahmen?
ZÜLCH: Von den Ausgaben der Stadionbesucher in Leipzig profitiert selbstverständlich auch die Leipziger Stadtkasse durch Steuereinnahmen. Die zusätzlichen Zuschauer verursachen auch Kosten für zusätzliche Transportmöglichkeiten und Sicherheitskonzepte. Zieht man von den Einnahmen in der Stadtkasse die zusätzlichen Ausgaben ab, so kommt man in Leverkusen bspw. auf 7,65 Euro pro Stadionbesucher. Legt man diese Maßgröße der Leipziger Berechnung zugrunde, wären es ca. 1,27 Mio. EUR zusätzlich für die Stadtkasse durch den Zuschaueranstieg um 165.500 Besucher in Leipzig pro Jahr. Insgesamt würde die Stadtkasse Leipzig bei dieser Berechnung über die gesamte Saison 2016/2017 bei einer Zuschauerzahl von 637.500 Zuschauern ein Ergebnis von 4,88 Mio. EUR verbuchen. Das ist schon nicht unwesentlich.

Durch den Erstligaaufstieg wird auch für die Stadt Leipzig ein zusätzlicher Imagegewinn einhergehen. Können Sie uns erklären, was damit alles – auch finanziell – verbunden ist?
ZÜLCH: Hält sich RB Leipzig in der ersten Bundesliga – wovon ja auszugehen ist, so macht der Verein unzweifelhaft Werbung für die Stadt Leipzig. In Leverkusen müsste die Stadt bspw. 2,2 Mio. EUR, in Wolfsburg 1,2 Mio. EUR zusätzlich an Werbeausgaben tätigen, um denselben Effekt zu erzielen. Wird unterstellt, dass die mediale Aufmerksamkeit von RB Leipzig auf das Niveau vom VfL Wolfsburg steigt – auch oder gerade deshalb, weil Leipzig dann der einzige ostdeutsche Verein der ersten Bundesliga ist, so ergäbe sich ein Äquivalent von 1,2 Mio. EUR Werbeausgaben im Jahr, die für die Stadt Leipzig gratis getätigt würden. Hinzu kommt, dass Leipzig nicht mehr nur als eine Kulturhauptstadt, sondern auch als Fußballstadt wahrgenommen würde, was den Tourismus zusätzlich ankurbeln würde.

Können Sie diesen Tourismuseffekt auch finanziell beziffern?
ZÜLCH: Ausgangspunkt sind die sogenannten Ankünfte in Leipzig. Im Zeitraum zwischen 2010 und 2014 ist die Zahl der Ankünfte in Leipzig jährlich um 7,7% gewachsen (2010: 1.121.257 bzw. 2014: 1.510.374). Wenn man dieselbe Wachstumsrate für die Folgejahre ansetzt sowie zusätzlich von einem konservativ geschätzten RB-Sondereffekt von 5% ausgeht, würden sich zusätzliche Ankünfte, die nur auf den Aufstieg zurückzuführen sind, von 95.000 ergeben. Unterstellt man, dass diese zusätzlichen Besucher ebenfalls wie die restlichen Besucher durchschnittlich rund 50 EUR ausgeben, ergeben sich Zusatzerlöse von 4,75 Mio. EUR als indirekter Effekt der zusätzlichen Werbung für Leipzig durch RB pro Jahr. Von diesen Zusatzerlösen würde wiederum der eine oder andere Euro sicherlich auch in die Stadtkasse fließen. Sie sehen, da ist ordentlich Bewegung drin.

Welche Auswirkungen hat der Aufstieg für den Arbeitsmarkt in Leipzig?
ZÜLCH: Das ist ganz schwierig zu sagen. Zurzeit kursieren ja die wildesten Zahlen. Die zusätzlichen Zuschauerzahlen, die zusätzlichen Einnahmen der Stadtkasse Leipzig und die Werbewirkung für die Region Leipzig lassen mittel- bis langfristig vermuten, dass bis zu 1.500 neue Arbeitsplätze in den flankierenden Sektoren (Hotel- und Gastgewerbe, Sicherheitsgewerbe, Einzelhandel etc.) geschaffen werden, um den gestiegenen Bedürfnissen gerecht zu werden. Dieser hohe Arbeitsplatzeffekt mag überraschen, beruht aber auf der Tatsache, dass Arbeitsplätze in den erwähnten Gewerben meist durch Teilzeit und relativ geringe Stundenlöhne charakterisiert sind.

Zum Abschluss noch einige Sätze zum Erstligisten RB Leipzig. Was sind die kommenden Herausforderungen des Vereins?
ZÜLCH: Der Verein selbst steht jetzt m.E. vor immensen Herausforderungen. Neben der sportlichen Herausforderung „1. Bundesliga“, die die Verpflichtung neuer Stammkräfte bedeuten wird und die Integration des Trainers Hasenhüttl, sind in einem weiteren Schritt zusammen mit der Stadt Leipzig wichtige infrastrukturelle Fragen zu lösen, um die prognostizierten Zuschauermassen zu kanalisieren und Fankrawalle zu vermeiden. Hier stellt sich also eine zunehmend logistische Herausforderung. Ferner muss der Verein beweisen, dass er kein Fremdkörper in der Region ist. Er muss aktiv Gemeinwohl stiften und zeigen, dass er über den Sport hinaus einen gesellschaftlichen Beitrag für die Region leistet, wie dies bereits andere Bundesligisten mit großem Erfolg tun. Seine unternehmerischen Wurzeln hat RB sicherlich in Österreich, der Sport wird aber in Leipzig betrieben. Dies ist eine gesellschaftspolitische Herausforderung. Zu guter Letzt hat sich das Unternehmen „RB Leipzig“ so aufzustellen, dass es mit solider Basis auch wirtschaftliche und sportliche Tiefschläge auszuhalten vermag. Die Organisationsstruktur muss Kontinuität und Stabilität ausdrücken. Dies ist eine unternehmerische Herausforderung. Also, alles in allem vier Herausforderungen auf einmal. Manche sind schon mit einer überfordert.

Weitere Informationen:
http://www.hhl.de/accounting
http://www.dierotenbullen.com/

Quelle: idw

(nach oben)


21. Mai 2016 World Fish Migration Day: Der millionste Stör wurde in die Oder entlassen

Nadja Neumann Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)

Wanderfische wie Lachs, Aal und Stör wandern oft tausende von gefahrvollen Kilometern im Meer oder zwischen Salz- und Süßwasser hin und her. Der „World Fish Migration Day“ (WFMD) am 21. Mai wurde auf die Probleme von Fischen auf ihren Wanderungen aufmerksam gemacht. Zu diesem Anlass laden das Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB), der Nationalpark Unteres Odertal, die Gesellschaft zur Rettung des Störs e.V., der NABU Deutschland e.V. und die Landesforschungsanstalt für Landwirtschaft und Fischerei MV mit Unterstützung des Deutschen Angelfischerverbandes zu einem Symposium ein. Dabei wird der millionste Stör in die Oder entlassen, Besucher können Störpaten werden.

Im Fokus der Veranstaltung stehen die aktuellen Ausbaupläne der Oder. An der Oder liegt Deutschlands einziger und Polens größter Auen-Nationalpark. Viele Bereiche im Odereinzugsgebiet werden durch Schutzgebietsverordnungen vor Eingriffen weitgehend bewahrt, um sie als möglichst unveränderten Naturraum zu erhalten und das darin lebende einzigartige Artenaufkommen zu sichern.

Dr. Jörn Gessner vom Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB) sieht die Ausbaupläne der Oder kritisch. Der Wissenschaftler koordiniert am IGB das Projekt zur Wiederansiedlung des Baltischen Störs (Acipenser oxyrinchus). Der Stör war einst in der Oder und den Nebenflüssen heimisch. Dort, in Gewässerabschnitten mit Kies- oder Steinboden, befinden sich seine ursprünglichen Laichgründe und damit auch die Kinderstube des Stör-Nachwuchses. „Das gesamte Entwicklungskonzept und die vielfältigen Maßnahmen zur Erhaltung und zum Aufbau funktionaler Wanderfischgemeinschaften des Lachses, der Meerforelle, des Schnäpels, des Aals oder des Störes werden durch diese Prozesse erschwert, wenn nicht sogar rückgängig gemacht“, so Jörn Gessner. Ende der 1960er Jahre wurde in der Oder der letzte Baltische Stör gefangen. Fischerei, Gewässerverschmutzung und die Verbauung der Flüsse hatten die einst reichen Bestände ausgelöscht. Seit 1994 versucht das Team aus Fischereibiologen des IGB und Naturschützern der Gesellschaft zur Rettung des Störs (GRS) den wohl ursprünglichsten aller Knochenfische mit viel Aufwand zurückzubringen. Freisetzungen von Jungfischen, die seit 2006 durchgeführt werden, sollen langfristig den Grundstock einer neuen, sich selbst erhaltenden Population in Deutschland bilden. Jörn Gessner ist schon gespannt: „Am 21. Mai ist es soweit; wir freuen uns sehr, den millionsten kleinen Stör in der Oder aussetzen zu können, immer in der Hoffnung, dass die Lebensbedingungen, die er dort antrifft, sich verbessern werden“.

Hintergrundinformation zum geplanten Ausbau der Oder:
Die Oder ist in Deutschland als Nebenwasserstraße des Bundes klassifiziert, spielt also für die Verkehrsinfrastruktur nur eine sehr untergeordnete Rolle. Aktuell steht jedoch erneut die Verbesserung der Schiffbarkeit zur Diskussion. Polen und Deutschland unterzeichneten 2015 einen Staatsvertrag zum Ausbau der Grenzoder für die Sicherung von Eisbrecher-Einsätzen, der eine Vertiefung der Flusssohle um bis zu 40 Zentimeter vorsieht. Dies bedeutet, dass der an vielen Stellen naturnahe Fluss auf einer Länge von mehr als 150 Kilometern um etwa 25 bis 30 Prozent vertieft werden soll. Dieser Eingriff hätte zur Folge, dass wichtige ökologische Funktionsräume wie Kolke, Sand- und Kiesbänke verschwinden. Dieser Staatsvertrag fällt zusammen mit der Ankündigung weiterer Ausbaupläne der Oder; unter anderem durch den Bau neuer Stauhaltungen in Polen. Weitere Einschränkungen für Fauna und Flora könnten aktuell aus der geplanten „Ertüchtigung und Verbesserung des hydrologischen Regimes im polnischen Zwischenoderland“ folgen, die „in ihrem Umfang und ihren Folgen bislang noch nicht abzuschätzen sind“, so Dr. Michael Tautenhahn, Stellvertretender Leiter des Nationalparks Unteres Odertal.

Ansprechpartner:
Nationalpark Unteres Odertal:
Dr. Michael Tautenhahn, Am Park 2, 16303 Schwedt/Oder, OT Criewen, Tel: 033322677207
IGB:
Dr. Jörn Geßner, Müggelseedamm 310, 12587 Berlin, Tel: 03064181626
Landesforschungsanstalt für Landwirtschaft und Fischerei MV:
Gerd-Michael Arndt, Fischerweg 408, 18069 Rostock, Tel: 038120260532

Weitere Informationen:
http://www.igb-berlin.de/veranstaltungen_details/events/world-fish-migration-day…

Quelle: idw

(nach oben)


Gradmesser für die Fettverbrennung

Johannes Seiler Dezernat 8 – Hochschulkommunikation
Rheinische Friedrich-Wilhelms-Universität Bonn

Braune Fettzellen können überflüssige Pfunde abschmelzen lassen. Das haben Forscher der Universität Bonn an Mäusen mehrfach gezeigt. Nun haben sie eine neue Methode entwickelt, wie sich die Aktivität von braunem Fett ohne großen Aufwand auch am Menschen nachweisen lässt. Die microRNA miR-92a ist ein indirektes Maß für die Aktivität der energiezehrenden braunen Zellen. Sie lässt sich auf vergleichsweise einfache Weise aus dem Blut gewinnen. Die Wissenschaftler stellen ihre Ergebnisse im renommierten Fachjournal „Nature Communications“ vor.

Wer starkes Übergewicht hat, stößt beim Abnehmen häufig schnell an seine Grenzen: Trotz aller Diäten und Zurückhaltung beim Essen wollen die überflüssigen Pfunde nicht so richtig verschwinden. Das hat meist auch Konsequenzen für die Gesundheit der Betroffenen, da übergewichtige Menschen ein höheres Risiko zum Beispiel für Diabetes oder Herzkreislauferkrankungen haben. Prof. Dr. Alexander Pfeifer vom Institut für Pharmakologie und Toxikologie der Universität Bonn erforscht seit Jahren an Mäusen, wie sich unerwünschte weiße Fettzellen in energiezehrende braune Fettzellen umwandeln lassen. Die braunen Zellen „verbrennen“ überschüssige Energie und wandeln in Wärme um, was sich sonst als Röllchen vor allem an Hüften und Bauch ansetzt.

Prof. Pfeifer hat inzwischen modellhaft an Nagern zahlreiche Signalketten im Stoffwechsel entschlüsselt und Ansatzpunkte gefunden, wie sich die unerwünschten weißen Fettzellen in die Fettverbrenner umwandeln lassen. Die Ergebnisse aus der Grundlagenforschung lassen sich aber nicht ohne weiteres auf den Menschen übertragen. „Es müsste deshalb an Probanden getestet werden, welche der inzwischen gefundenen Wirkstoffe besonders effizient und schonend weiße in braune Fettzellen verwandeln“, sagt Prof. Pfeifer. Doch gibt es derzeit keine Methode, die mit geringem Aufwand, kostengünstig und ohne gesundheitliche Risiken die Aktivität der braunen Fettzellen misst.

Braune Fettzellen verschicken miR-92a-Päckchen im Blut
Zusammen mit Wissenschaftlern der Universitäten Maastricht (Niederlande) und Turku (Finnland) sowie der Universitätsklinik Hamburg-Eppendorf hat das Forscherteam um Prof. Pfeifer einen Marker gefunden, der auf vergleichsweise einfache Art und Weise die Aktivität der braunen Fettzellen anzeigt: die exosomale microRNA miR-92a. Von solchen microRNAs ist bekannt, dass sie bei der Genregulation eine Rolle spielen. Das Team um Prof. Pfeifer hat nun erstmals gefunden, dass braune Fettzellen microRNAs in sogenannte Exosomen verpacken und ins Blut abgeben. „Bei den Exosomen handelt es sich um eine Art Päckchen, die von den braunen Fettzellen im Blut verschickt werden – den Päckchen-Inhalt, die mircoRNAs, konnten wir aufklären, aber der Adressat ist uns noch nicht bekannt“, berichtet der Pharmakologe der Universität Bonn.

Das Forscherteam hat ganz verschiedene microRNAs untersucht. Davon kommt miR-92a sowohl in Mäusen als auch in Menschen vor und steht mit der Aktivität von braunen Fettzellen in Zusammenhang. Immer dann, wenn sehr wenig miR-92a im Blut vorhanden ist, verbrennen die braunen Fettzellen besonders viel Energie. Dass dies auch im Menschen funktioniert, haben die Wissenschaftler an insgesamt 41 Probanden aus den Niederlanden und Finnland nachgewiesen. „Es ergibt sich ein signifikanter statistischer Zusammenhang, der jedoch noch mit einer größeren Stichprobe unterfüttert werden müsste“, berichtet Erstautor Joschka Johannes Buyel aus dem Team von Prof. Pfeifer. Dann ließe sich die Aktivität der braunen Fettzellen mit miR-92a noch genauer einschätzen. Doch solche Paralleluntersuchungen mit verschiedenen Methoden sind teuer und aufwendig.

Biomarker ermöglicht Wirksamkeitsprüfung neuer Pharmaka
„Nichtsdestotrotz erscheint miR-92a als ein vielversprechender Biomarker, mit dem neuartige Wirkstoffe zur Gewichtsreduktion durch Umwandlung von weißen in braunen Fettzellen am Menschen überprüft werden könnten“, sagt Prof. Pfeifer. Ein einfacher Bluttest könne dies absehbar leisten. Diese Methode könnte in Zukunft möglicherweise neue Behandlungsverfahren im Kampf gegen Fettleibigkeit und viele Folgeerkrankungen vorantreiben.

Publikation: Exosomal microRNA miR-92a concentration in serum reflects human brown fat activity, Fachjournal „Nature Communications“, DOI: 10.1038/ncomms11420

Quelle: idw

(nach oben)


Wie verhalten sich Fische in Fischtreppen?

Dipl.-Met. Alfred Hommes Referat Öffentlichkeitsarbeit
Bundesanstalt für Gewässerkunde

BfG und BAW starten ethohydraulische Versuche

Die großen Flüsse in Deutschland sollen wieder durchgängig werden, insbesondere für Fische. Ein Schritt dorthin sind Fischaufstiegsanlagen an Querbauwerken wie Wehren und Staustufen. Wie jedoch muss eine solche Anlage konstruiert sein, damit Fische den Einstieg in diese Fischtreppe finden und passieren können? In ethohydraulischen Versuchen werden nun die Bedürfnisse von Fischen erforscht, um diese später beim Bau der Fischaufstiegsanlagen zu berücksichtigen.

Das Verhalten von Fischen in unterschiedlichen Strömungsmustern zu verstehen, ist das Ziel der Untersuchungen in einer neuen Versuchsanlage an der Bundesanstalt für Wasserbau (BAW) in Karlsruhe. Fischexperten der Bundesanstalt für Gewässerkunde (BfG) setzten Anfang April die ersten Fische in die Versuchsrinne, um das Aufstiegsverhalten zu beobachten. Vorher hatten die Ingenieure der BAW in der Versuchsrinne vergleichbare Bedingungen wie in einer realen Fischaufstiegsanlage geschaffen. Die gemeinsame Analyse dieser sogenannten ethohydraulischen Versuche durch die Experten der BfG und BAW bildet einen wesentlichen Baustein für die Bemessung von Fischaufstiegsanlagen.

Durchwanderbare Flüsse sind eine wesentliche Voraussetzung für intakte Fischpopulationen und damit für den guten Zustand der Fließgewässer. Diese langfristig in einen guten ökologischen Zustand zu bringen, ist das Ziel der Europäischen Wasserrahmenrichtlinie (WRRL). Ein wesentlicher Schritt hierzu ist der Bau von Fischaufstiegsanlagen an den Stauanlagen der Flüsse, die den Fischen Wanderungen zu ihren Laich-, Aufzucht- und Nahrungsgebieten ermöglichen.

Derzeit plant die zuständige Wasser- und Schifffahrtsverwaltung (WSV) an über 40 Stauanlagen neue Fischaufstiegsanlagen. Diese Planungen stellen Ingenieure und Biologen häufig vor große Herausforderungen, denn den Einstieg in eine Fischaufstiegsanlage zu finden, ist für Fische oft schwierig. Zum einen ist die Einstiegsöffnung der Fischaufstiegsanlage im Vergleich zur Breite der gesamten Stauanlage sehr klein, insbesondere an den großen Flüssen. Zum anderen erzeugen Turbinen in den Wasserkraftanlagen oder der Überfall an großen Wehren starke Turbulenzen, die Fische irritieren können.

Dazu erläutert der Leiter der Projektgruppe Ökologische Durchgängigkeit im Referat Tierökologie, Dr. Matthias Scholten: „Damit Fische den Einstieg einer Fischaufstiegsanlage finden können, ist nach derzeitigem Kenntnisstand die Ausbildung einer Leitströmung entscheidend. Diese muss sich von der turbulenten Strömung im Unterwasser einer Stauanlage absetzen und den Fischen den Weg zum Einstieg weisen.“ Insbesondere an den großen Flüssen reicht hierfür der Durchfluss in der Fischaufstiegsanlage nicht immer aus. In Folge dessen kann es erforderlich werden, kurz oberhalb des Einstiegs zusätzliches Wasser in die Fischaufstiegsanlage hinzuzugeben. Doch wieviel Wasser braucht man, um für Fische eindeutige hydraulische Signale zur Auffindbarkeit zu senden? Wie kann das Wasser in eine Fischaufstiegsanlage zugegeben werden, ohne die Passierbarkeit für Fische zu verschlechtern?

Hier setzen nun die gemeinsamen Versuche der Fischexperten der Bundesanstalt für Gewässerkunde (BfG) und der Experten für Hydraulik der Bundesanstalt für Wasserbau (BAW) an: Denn nur im Labor können Fische in ihrem Verhalten im Zusammenhang mit den erzeugten Strömungen beobachtet werden.

Weitere fachliche Informationen: Dr. Matthias Scholten, Bundesanstalt für Gewässerkunde, Referat Tierökologie, Fon: 0261/1306 5937, Mail: scholten@bafg.de

Quelle: idw

(nach oben)


Fettreiche Ernährung lässt Gehirn hungern

Dr. Maren Berghoff Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Stoffwechselforschung

Eine fettreiche Ernährung führt in Mäusen nach nur drei Tagen zu einer geringeren Zuckerversorgung des Gehirns, berichtet eine Forschungsgruppe um Jens Brüning, Direktor am Max-Planck-Institut für Stoffwechselforschung in Köln. Das Mäusegehirn hat nach vier Wochen seinen Zuckerspiegel wieder hergestellt, allerdings auf Kosten des restlichen Körpers.

Fettreiche Ernährung bringt unseren Körper durcheinander. Übergewicht und Erkrankungen wie Diabetes Typ 2 können die Folge sein. Aber was macht eine fettreiche Ernährung eigentlich mit unserem Gehirn? Forscher vom Max-Planck-Institut für Stoffwechselforschung in Köln haben jetzt in einer Studie Mäusen ins Gehirn geschaut, um zu verstehen, wie sich Übergewicht und Diabetes entwickeln.

Schlechter Glukose-Transport an der Blut-Hirn-Schranke
„Eine fettreiche Diät senkt schon nach drei Tagen die Aufnahme des Blutzuckers Glukose in das Gehirn. Das Gehirn hungert also, obwohl die Mäuse täglich viele Kalorien zu sich nehmen. Verantwortlich dafür ist das Protein GLUT-1, welches der wichtigste Glukose-Transporter an der Blut-Hirn-Schranke ist“, erklärt Alexander Jais, Autor der Studie. Mögliche Auslöser für die Rückbildung des GLUT-1 Transporters sind freie gesättigte Fettsäuren, die toxisch an der Blut-Hirn-Schranke wirken. Die Glukose fehlt dem Gehirn in wichtigen Regionen: im Hypothalamus, der den Stoffwechsel steuert und in der Hirnrinde, die für Lernen und Erinnerung zuständig ist.

Das Gehirn wirkt seinem Energiemangel entgegen. Makrophagen, spezialisierte Zellen des Immunsystems, produzieren den Wachstumsfaktor VEGF, welcher die Bildung von GLUT-1 steigert, und setzen ihn direkt an den Gefäßzellen der Blut-Hirn-Schranke frei. So lassen sich nach vier Wochen wieder normale Glukosespiegel im Gehirn messen, obwohl die Mäuse weiterhin fettreich essen. Fehlt den Mäusen VEGF, bleibt die Glukoseaufnahme in das Gehirn verringert. „Das hat zur Folge, dass die Mäuse langsamer lernen und ein schlechteres Erinnerungsvermögen haben“, sagt Jais.

Das egoistische Gehirn
Der Ausgleich des Zuckerbedarfs des Gehirns bei weiterhin fettreicher Ernährung funktioniert nur auf Kosten des restlichen Körpers. „Man spricht von dem egoistischen Gehirn, da es seinen Zucker dadurch bekommt, dass es den Appetit auf süße Nahrungsmittel anregt und die Zuckeraufnahme in Muskeln und Fett verhindert. Die Zellen in der Muskulatur werden dann resistent gegen das körpereigene Hormon Insulin, welches normalerweise den Zucker in die Zellen schleust. Dadurch kann dann im schlimmsten Fall Diabetes entstehen“, so Jais.

Weitere Informationen:
http://www.sf.mpg.de
http://www.mpg.de

Quelle: idw

(nach oben)


Tägliches Auf und Ab der Plankton-Tiere im Meer

Dr. Michael Welling Presse- und Öffentlichkeitsarbeit
Johann Heinrich von Thünen-Institut, Bundesforschungsinstitut für Ländliche Räume, Wald und Fischerei

Eine einzigartige mehrjährige Messreihe aus dem Südpolarmeer bringt neue Erkenntnisse über die tägliche Vertikalwanderung von Zooplanktongemeinschaften: Wissenschaftler des Thünen-Instituts für Seefischerei in Hamburg und des Alfred-Wegener-Instituts in Bremerhaven beobachten Änderungen im Jahresverlauf und zwischen den Jahren. Das antarktische Zooplankton ist die wichtigste Nahrungsquelle für viele Fische und Walarten, u.a. dem größten Säugetier der Welt, dem Blauwal.

Erstmals ist es Wissenschaftlern gelungen, den Jahresgang von Zooplanktongemeinschaften im Südpolarmeer zu dokumentieren. Anhand von Daten aus verankerten akustischen Doppler-Strömungsmessern (ADCP) konnten Dr. Boris Cisewski vom Thünen-Institut für Seefischerei und Dr. Volker Strass vom Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung die tägliche Vertikalwanderung des Zooplanktons durchgehend über drei Jahre aufzeichnen. Außerdem untersuchten sie, wie einzelne Umweltparameter wie Licht, Meereisbedeckung, Nahrungsverfügbarkeit, Zirkulation und Temperatur sowie Salzgehalt das Wanderverhalten beeinflussen.

Die tägliche Vertikalwanderung von Zooplankton – vielfach Krebstiere mit Körperlängen zwischen Millimetern und Zentimetern – wird im Wesentlichen vom Tag-Nacht-Zyklus ausgelöst. Um möglichen Fressfeinden zu entkommen, tauchen sie bei Sonnenaufgang in dunkle Tiefen ab und verweilen dort tagsüber. Nach Sonnenuntergang steigen sie wieder in die oberen Schichten auf, um zu fressen, wo das Sonnenlicht pflanzliches Plankton hat wachsen lassen. Bislang existierten nur kleine zeitliche Ausschnitte über die Wanderungsbewegungen des Zooplanktons im Südpolarmeer. Wegen seiner saisonalen Meereisbedeckung sind viele Gebiete während des Südwinters nicht mit dem Schiff zu erreichen. Eine biologische Netzbeprobung ist zu dieser Jahreszeit daher nur lückenhaft möglich.

Die aktuelle Studie beruht auf Daten, die während drei Polarstern-Expeditionen und mit Hilfe von Tiefsee-Verankerungen in den Jahren 2005 bis 2008 im Südpolarmeer im Rahmen des LAKRIS-Projektes (Lazarev Sea Krill Study) erhoben wurden. Dazu wurden an drei verschiedenen geographischen Positionen entlang des Greenwich-Meridians ADCP-Geräte verankert, die in festen Zeitintervallen Schallwellen aussenden und damit eine bis zu 500 Meter tiefe Wasserschicht unter der Oberfläche erfassen. Dabei gibt die Stärke des Echos Auskunft über die Konzentration des Zooplanktons, während sich aus der Dopplerverschiebung der Schallfrequenz die Wanderungsgeschwindigkeit errechnen lässt.

Auf Basis dieser Langzeitmessungen untersuchten die Wissenschaftler nicht nur tägliche, sondern auch saisonale Vertikalwanderungsmuster einzelner Zooplanktongemeinschaften. Dabei stellten sie zum Beispiel fest, dass das Zooplankton zu Beginn des Südsommers von Ende November bis in den Januar sein Wanderverhalten für einige Wochen einstellt. „Das große Nahrungsangebot im Oberflächenwasser scheint so attraktiv für die Tiere zu sein, dass sie zu seinen Gunsten darauf verzichten, sich tagsüber vor Fressfeinden in größere Tiefen zurückzuziehen“, folgern die beiden Ozeanographen. Weitere Indizien für diese Hypothese liefern Messungen der Meereisbedeckung und der Chlorophyllverteilung. Mit Beginn der Eisschmelze bilden sich sogenannte Eisrand-Algenblüten, die die Hauptnahrungsquelle für Antarktisches Zooplankton zu dieser Jahreszeit bilden.

Überraschend waren die großen Unterschiede im Zooplanktonbestand zwischen den drei untersuchten Jahren. „Welche Ursachen das hat, ist abschließend noch nicht geklärt. Daher sind weitere physikalische und biologische Messungen erforderlich, damit zukünftige durch den Klimawandel bedingte Änderungen im Ökosystem des Südpolarmeers abgeschätzt werden können“, so Cisewski und Strass. Mit dem bevorstehenden Umzug des Thünen-Instituts von Hamburg nach Bremerhaven verbinden die beiden Autoren die Hoffnung auf eine intensivere Zusammenarbeit der beiden wissenschaftlichen Einrichtungen.

Die vollständigen Ergebnisse der Langzeitstudie sind in Volume 144 der Fachzeitschrift Progress in Oceanography unter http://www.sciencedirect.com/science/journal/00796611 veröffentlicht.

Kontakt:
Dr. Boris Cisewski
Thünen-Institut für Seefischerei, Hamburg
Tel.: 040 38905-224 o. 0152 32014946
Mail: boris.cisewski@thuenen.de

Dr. Volker Strass
Alfred-Wegener-Institut Bremerhaven
Tel.: 0471 4831-1822
Mail: Volker.Strass@awi.de

Dr. Folke Mehrtens
Alfred-Wegener-Institut Bremerhaven
Tel.: 0471 4831-2007
Mail: Folke.Mehrtens@awi.de

Quelle: idw

(nach oben)


Arbeitsfähigkeit wird durch Arbeitsängste beeinträchtigt

Dr. Anne Klostermann Presse- und Öffentlichkeitsarbeit
Deutsche Gesellschaft für Psychologie (DGPs)

Arbeitsängste sind spezielle Ängste, und unterscheidbar von klassischen Angsterkrankungen. Arbeitsängste beeinträchtigen die Arbeitsfähigkeit in besonderer Weise. Je nach Art der Arbeitsangst unterscheiden sich Betroffene im Ausmaß und im Muster ihrer Beeinträchtigungen. Das zeigt eine Studie mit 244 Reha-Patienten, die in der Fachzeitschrift „International Archives of Occupational and Environmental Health“ veröffentlicht wurde. Die Erkenntnisse bieten neue Ansatzpunkte für eine optimierte Wiedereingliederung von Arbeitnehmern nach längeren Krankschreibungszeiten.

Arbeitsängste sind Ängste, die sich auf Gegebenheiten oder Personen am Arbeitsplatz oder auf den Arbeitsplatz als Ganzes beziehen. Das können zum Beispiel arbeitsbezogene soziale Ängste sein, arbeitsbezogene Sorgen, oder phobische Ängste und Vermeidungsverhalten. „Aus der Rehabilitationsforschung wissen wir, dass Menschen mit Arbeitsängsten besonders häufig in eine Langzeitarbeitsunfähigkeit geraten, oder gar auf eine Frühberentung hinsteuern“, sagt Beate Muschalla. Die Rehabilitationspsychologin und Verhaltenstherapeutin erforscht seit langem, wie Arbeitsängste die Arbeitsfähigkeit beeinträchtigen, und was man dagegen tun kann.

Studie mit 244 Reha-Patienten
In einer neuen Studie untersuchte sie 1610 Patienten einer Rehabilitationsklinik im arbeitsfähigen Alter (18-65 Jahre). Mit einem diagnostischen Interview identifizierte sie zunächst 244 Patienten mit Arbeitsangst und erfragte deren spezifische Ängste. Die von Arbeitsangst betroffenen Patienten wurden dann hinsichtlich der Beeinträchtigungen ihrer Arbeitsfähigkeit beurteilt. Grundlage hierfür war das international evaluierte Fremdbeurteilungsrating Mini-ICF-APP für psychisch bedingte Fähigkeitsbeeinträchtigungen. Mit diesem können 13 relevante (Arbeits-) Fähigkeitsdimensionen von Menschen beurteilt werden (u.a. Entscheidungs- und Urteilsfähigkeit, Durchhaltefähigkeit, Selbstbehauptungsfähigkeit, Gruppenfähigkeit). Die Autorin analysierte den Zusammenhang zwischen Arbeitsängsten, Art der Fähigkeitsbeeinträchtigungen und den Arbeitsunfähigkeitszeiten im Zeitraum sechs Monate nach der Reha.

Spezifische Arbeitsängste gehen mit unterschiedlichen Beeinträchtigungen einher
Die Analysen zeigen, dass sich verschiedene Arbeitsängste im Ausmaß und Muster ihrer Fähigkeitsbeeinträchtigungen unterscheiden: Arbeitsbezogene soziale Ängste sind vor allem bei sozialen Kontakten am Arbeitsplatz beeinträchtigend, jedoch nicht hinsichtlich der generellen Anwendung von Wissen und Kompetenzen. Die Angst davor, die Arbeit unzureichend auszuführen oder nicht zu schaffen (Insuffizienzangst) geht einher mit einer schwächeren Durchhaltefähigkeit. Menschen mit ausgeprägtem arbeitsbezogenen Sorgenverhalten haben oft Probleme mit der Entscheidungs- und Urteilsfähigkeit. Patienten mit Arbeitsplatzphobie zeigen eine erhöhte Beeinträchtigung ihrer Mobilität, speziell in der Fähigkeit, den Arbeitsplatz zu erreichen.

Mehr „Toleranzarbeitsplätze“
„Die moderne Arbeitswelt per se ‚macht‘ nicht ‚krank‘, sondern stellt zunehmend Anforderungen an kognitive und interpersonelle Leistungsfähigkeit, die Menschen mit psychischen Erkrankungen teilweise nicht erfüllen können. Immer mehr Beschäftigte mit psychischen Erkrankungen – epidemiologisch gesehen sind es 30% der Normalbevölkerung – laufen bei immer enger werdenden Anforderungen und Controlling Gefahr, aus der Arbeitswelt herauszufallen. Die Person-Umwelt-Passung muss wieder mehr beachtet werden. Nicht jeder Mensch muss alles können. Unsere Arbeitswelt braucht ‚Toleranzarbeitsplätze‘, damit auch zukünftig Menschen mit unterschiedlichen Fähigkeitsprofilen arbeitsfähig bleiben“ sagt Beate Muschalla. „Die Erkenntnisse unserer Studie liefern uns auch wichtige Ansatzpunkte für Interventionen bei Arbeitsängsten, wie zum Beispiel Wiedereingliederungsmaßnahmen. Je nach Art der Arbeitsangst können gezielte Maßnahmen eingesetzt werden: Bei sozialen Ängsten kann zum einen ein soziales Kompetenztraining versucht werden, andererseits können auch Arbeitsplatzanpassungen hilfreich sein, wie die Versetzung aus einer reinen Verkaufstätigkeit in eine Tätigkeit mit mehr Büroarbeit.“

Die Originalstudie finden Sie hier:
Muschalla, B. (2015). Different work capacity impairments in patients with different work-anxieties. International Archives of Occupational and Environmental Health, online published.
DOI 10.1007/s00420-015-1099-x

Weitere Informationen:
Dr. Beate Muschalla
Psychologische Psychotherapeutin VT
Freie Universität Berlin
Klinische Psychologie und Psychotherapie JK 26 / 320 Habelschwerdter Allee 45
14195 Berlin
Email: beate.muschalla@fu-berlin.de

und

Leitende Psychologin in der Zusammenarbeit mit Rehabilitationseinrichtungen
Abteilung Rehabilitation
Deutsche Rentenversicherung Bund
Postanschrift: 10704 Berlin
E-Mail: dr.beate.muschalla@drv-bund.de

Über die DGPs:
Die Deutsche Gesellschaft für Psychologie (DGPs e.V.) ist eine Vereinigung der in Forschung und Lehre tätigen Psychologinnen und Psychologen. Die über 3800 Mitglieder erforschen das Erleben und Verhalten des Menschen. Sie publizieren, lehren und beziehen Stellung in der Welt der Universitäten, in der Forschung, der Politik und im Alltag.
Die Pressestelle der DGPs informiert die Öffentlichkeit über Beiträge der Psychologie zu gesellschaftlich relevanten Themen. Darüber hinaus stellt die DGPs Journalisten eine Datenbank von Experten für unterschiedliche Fachgebiete zur Verfügung, die Auskunft zu spezifischen Fragestellungen geben können.
Wollen Sie mehr über uns erfahren? Besuchen Sie die DGPs im Internet: www.dgps.de

Quelle: idw

(nach oben)


Ségolène Royal startet die Initiative „100 Projekte für das Klima“

Marie de Chalup Wissenschaftliche Abteilung
Wissenschaftliche Abteilung, Französische Botschaft in der Bundesrepublik Deutschland

Die Ministerin für Umwelt, Energie und Meeresangelegenheiten, zuständig für die internationale Klimapolitik, Ségolène Royal, startete im Rahmen der Umweltkonferenz in Paris am 25. April 2016 eine neue Internet-Plattform, mit der die weltweit 100 innovativsten Bürgerinitiativen für das Klima gefördert werden sollen.

Die Ministerin für Umwelt, Energie und Meeresangelegenheiten, zuständig für die internationale Klimapolitik, Ségolène Royal, startete im Rahmen der Umweltkonferenz in Paris am 25. April 2016 eine neue Internet-Plattform, mit der die weltweit 100 innovativsten Bürgerinitiativen für das Klima gefördert werden sollen.

Die dreisprachige Plattform 100projetspourleclimat.gouv.fr stellt die Initiativen, Engagements und Lösungen vor, die von Bürgern aus der ganzen Welt zum Thema Kampf gegen den Klimawandel eingereicht wurden.

Die auf dieser Plattform veröffentlichten Lösungen umfassen alle Bereiche des Kampfes gegen den Klimawandel: Projekte zur Verringerung der Treibhausgasemissionen und zur Anpassung an den Klimawandel, zum Schutz der Gesundheit, zum Erhalt der Biodiversität, zur Entwicklung von Frühwarnsystemen etc.

Die Bürger sind weltweit dazu aufgerufen, ihre Projekte in einer der drei Sprachen (Französisch, Englisch und Spanisch) bis zum 6. Juni 2016 einzureichen. Vom 6. Juni bis zum 6. Juli 2016 können die Bürger dann ihre Favoriten auswählen. Nach der Abstimmung der Internetnutzer werden die 100 Projekte mit den meisten Stimmen von Ségolène Royal zum Sieger gekürt. Diese werden bis zur COP22 im November in Marrakesch betreut und gefördert.

Quellen:
„Ségolène Royal lance l’opération 100 projets pour le climat“, Pressemitteilung des Umweltministeriums, 25.04.2016 – http://www.developpement-durable.gouv.fr/Segolene-Royal-lance-l-operation.html

„100 projets pour le climat“, Pressemitteilung des Umweltministeriums, 25.04.2016, http://100projetspourleclimat.gouv.fr/fr/

Übersetzerin:
Jana Ulbricht, jana.ulbricht@diplomatie.gouv.fr

Weitere Informationen:
http://www.wissenschaft-frankreich.de/de/umwelt-klima-agronomie/segolene-royal-s…

Quelle: idw

(nach oben)


Statistiker: Deutschland wird Fußball-Europameister

Dr. Dirk Frank Public Relations und Kommunikation
Goethe-Universität Frankfurt am Main

Der Mathematiker Matthias Ludwig hat mit fussballmathe.de den Ausgang der EM 2016 in Frankreich simuliert.

Die deutsche Nationalmannschaft tritt als amtierender Weltmeister an. Doch welche Chancen haben die Mannen von Jogi Löw auf den begehrten Titel Europameister? Matthias Ludwig, Professor für Didaktik der Mathematik an der Goethe-Universität, und sein Mitarbeiter Iwan Gurjanow können bereits mit einer wissenschaftlich fundierten Prognose aufwarten: Statistisch betrachtet hat Deutschland die größten Chancen, Fußball-Europameister zu werden. Laut dem verwendeten Prognosemodell, das drei Faktoren berücksichtigt – historische Ergebnisse inklusive des Torverhältnisses zwischen den Mannschaften, die derzeitig erreichten FIFA-Punkte sowie den aktuellen Mannschaftswert -, gewinnt Deutschland mit einer Wahrscheinlichkeit von 15,84 Prozent den Titel. Spanien kommt knapp dahinter auf 15,57 Prozent, England auf 10,15 Prozent.

„Beim Prognosemodell im Web kann der Benutzer die Gewichtung der drei Faktoren aber auch individuell ändern“, erläutert Ludwig. Wer beispielsweise die Gewichtung des Mannschaftswerts deutlich erhöht, erhält als Ergebnis Spanien als wahrscheinlichen Europameister. Ebenfalls kann der Benutzer in einer Simulation eine ganz persönliche EM durchspielen. Die einzelnen Spielausgänge werden über das jeweilige Torverhältnis, den aktuellen Fifa-Rang und den Mannschaftswert berechnet. „Da kann es schon mal vorkommen, dass Island Weltmeister wird. Aber eben nur in einem von 1000 Fällen“, sagt Matthias Ludwig.

Zur Prognose und Simulation der Fußball-EM auf fussballmathe.de:
http://fussballmathe.de/2015/12/wer-wird-europameister-2016/

fussballmathe.de zur EURO 2016 ist ein Projekt der Arbeitsgruppe MATIS I des Instituts für Didaktik der Mathematik und Informatik (Goethe-Universität Frankfurt a.M.) in Kooperation mit der Stiftung Rechnen. Auf der Website finden Mathematiklehrkräfte kostenfrei weiteres interessantes Material und Aufgaben für ihren Unterricht zum Download.

Weitere Informationen: Prof. Dr. Matthias Ludwig, Institut für Didaktik der Mathematik und Informatik (IDMI), Goethe-Universität Frankfurt am Main, Tel. (069) 798-28695; ludwig@math.uni-frankfurt.de

Quelle: idw

(nach oben)


Innovativ und energieeffizient: Sauberes Wasser ohne Chemie

Monika Landgraf Presse, Kommunikation und Marketing
Karlsruher Institut für Technologie

Ob als Rohstoff, Kühl- oder Lösemittel: Wasser ist auch aus der industriellen Produktion nicht wegzudenken. Die umweltschonende Aufbereitung dieses Prozesswassers ist Gegenstand des Forschungsprojekts „Eco-UV“, welches die Europäische Union mit 3,9 Millionen Euro im Programm „Horizon 2020″ fördert. Ingenieure des Karlsruher Instituts für Technologie (KIT) entwickeln dafür effiziente UV-Strahler und langlebige Betriebselektronik.

Ultraviolette (UV) Strahlung wird unter anderem bereits in der Trinkwasseraufbereitung eingesetzt: Die kurzwellige Strahlung kann die Keimzahl in kurzer Zeit deutlich reduzieren – ganz ohne chemische Zusatzstoffe. Ziel des EU-Projekts „Eco-UV“ mit Partner aus Industrie und Wissenschaft ist es, eine innovative UV-Technologie zur Wasseraufbereitung – von der Entkeimung von Trinkwasser bis zur Entgiftung von Prozesswasser aus der Industrie – zu entwickeln. Das Verfahren soll zudem den Ausstoß an Kohlendioxid (CO2) sowie die Umweltbelastung insgesamt reduzieren. „Hohe Energieeffizienz und lange Lebensdauer werden wesentliche Merkmale des neuen Systems sein“, sagt Dr. Rainer Kling vom Lichttechnischen Institut des KIT, der den Karlsruher Teil des Projektes leitet. „Am KIT entwickeln wir dafür das ‚Herzstück‘: einen neuen, quecksilberfreien UV-Strahler.“ Die Ingenieure des KIT liefern außerdem das Vorschaltgerät für diese Lampe. „Hier erreichen wir mit Siliziumkarbid als Halbleitermaterial eine sehr hohe Leistungsdichte. Wir erhöhen damit nicht nur den Wirkungsgrad, sondern sparen gleichzeitig Energie und CO2 ein.“

Das Projekt wird die neue UV-Strahler-Technologie unter realen Anwendungen und vollständig erproben – mit Blick auf langfristige Stabilität, Alterungseffekte und Dosis-Wirkungs-Beziehung. Dazu führt „Eco-UV“ Industrie und Wissenschaft in diesem gemeinsamen Projekt zusammen: Die am KIT entwickelten Strahler werden in eine Anlage des britischen UV-Systemherstellers Hanovia (Gesamtkoordinator) integriert. Die DVGW-Forschungsstelle am Engler-Bunte-Institut des KIT übernimmt das Monitoring und die Zertifizierung der Systeme, das schwedische Umweltforschungsinstitut IVL erstellt eine vollständige Lebenszyklus-Bewertung von Kosten und Nutzen für die Umwelt im Vergleich zu herkömmlichen UV-Technologien. So sollen für verschiedene Endbenutzer-Anwendungen Testprotokolle abgeleitet werden, die als Grundlage für eine zukünftige standardisierte Validierung für UV-Anwendungen in der EU dienen können.

Eco-UV wird mit Mitteln aus der Europäischen Union Horizont 2020 Forschungs- und Innovationsprogramm unter Grant Nr 641.702 gefördert.

Weiterer Kontakt:
Margarete Lehné, Pressereferentin, Tel.: +49 721 608-48121, Fax: +49 721 608-43658, E-Mail: margarete.lehne@kit.edu

Das Karlsruher Institut für Technologie (KIT) verbindet seine drei Kernaufgaben Forschung, Lehre und Innovation zu einer Mission. Mit rund 9 300 Mitarbeiterinnen und Mitarbeitern sowie 25 000 Studierenden ist das KIT eine der großen natur- und ingenieurwissenschaftlichen Forschungs- und Lehreinrichtungen Europas.

KIT – Die Forschungsuniversität in der Helmholtz-Gemeinschaft

Das KIT ist seit 2010 als familiengerechte Hochschule zertifiziert.
Anhang
Innovativ und energieeffizient: Sauberes Wasser ohne Chemie
https://idw-online.de/de/attachment49560

Quelle: idw

(nach oben)


Welt Hypertonie Tag 2016 „Blutdruck in Bewegung“ – Hochdruckliga: Richtig Messen und Bewegen

Stephanie Priester Geschäftsstelle
Deutsche Hochdruckliga

Berlin/Heidelberg – Unter dem Motto „Blutdruck in Bewegung“ fand am 17. Mai der Welt Hypertonie Tag statt. Der Aktionstag rückt in den Fokus, wie wichtig es ist, vorbeugend gegen die Risikofaktoren für eine Hypertonie anzugehen: Neben bewusster Ernährung, einem normalen Gewicht und Entspannung ist Bewegung ein wichtiges Mittel, um gesund zu bleiben und eine Hochdruckerkrankung zu bekämpfen. Vertreter der Deutschen Hochdruckliga e.V. DHL® – Deutsche Gesellschaft für Hypertonie und Prävention informieren darüber auf einer Pressekonferenz im Vorfeld des Welt Hypertonie Tag 2016. Sie diskutieren auch, wie Betroffene richtig messen und mit welchen Geräten.

Bewegen, bewegen, bewegen – dies gilt nicht nur für Erwachsene, von denen in Deutschland rund 20 bis 30 Millionen an Bluthochdruck leiden, sondern auch für Kinder und Jugendliche: Nach Schätzungen haben 700.000 zu hohe Blutdruckwerte. Das Gefährliche daran: Bluthochdruck macht lange Zeit keine Beschwerden, Betroffene erfahren oft erst davon, wenn es zu spät ist: durch Folgeschäden wie Schlaganfall, Herzerkrankungen, Gefäßerkrankungen oder Nierenversagen. Dabei ließe sich die Hälfte der Schlaganfälle mit einem gut eingestellten Blutdruck verhindern. Aber: Jeder fünfte betroffene Erwachsene weiß nichts von seiner Erkrankung, bei den erkrankten Kindern und Jugendlichen bleibt Bluthochdruck meist unentdeckt – nur bei maximal 0,5 Prozent wird er diagnostiziert.

„Die Diagnostik ist sehr wichtig und jeder sollte seinen Blutdruck kennen.“ sagt Professor Dr. med. Martin Hausberg, Vorstandsvorsitzender der Deutschen Hochdruckliga. „Denn rechtzeitig erkannt, lässt sich zu hoher Blutdruck gut regulieren, und Folgeschäden vermeiden.“ Vor allem die Zahl der Schlaganfälle kann durch eine konsequente Behandlung des Bluthochdrucks dramatisch verändert werden. Oft senken bereits gezielt veränderte Lebensgewohnheiten den Blutdruck: Normales Gewicht, regelmäßige Bewegung und salzarme ausgewogene gesunde Ernährung bieten Kindern und Erwachsenen Schutz vor den Folgen des Bluthochdruck und senken den Blutdruck. „Wenn diese Lebensstiländerungen nicht die gewünschten Ziel-Werte bringen, ist eine medikamentöse Behandlung erforderlich“, betont Professor Hausberg.

Zu hoch ist ein Blutdruck nach der aktuell gültigen Leitlinie, wenn bei Erwachsenen in der Arztpraxis wiederholt Blutdruckwerte von 140/90 mmHg und mehr gemessen werden. Auch wenn nur einer der beiden Werte erhöht ist, handelt es sich um Bluthochdruck. „Bei Kindern gibt es keine festen Grenzwerte“, erklärt Professor Hauberg. Bei ihnen spricht man von einem zu hohen Blutdruck, wenn nur noch fünf Prozent der Altersgenossen höhere Werte aufweisen.

Da der Blutdruck im Tagesverlauf schwankt, ist eine einzelne Messung wenig aussagekräftig. „Die beste Möglichkeit, Bluthochdruck festzustellen, ist für Erwachsene die Blutdruckselbstmessung“, sagt Professor Hausberg. Neben der richtigen Messmethodik, über die der Hausarzt informiert, sei auch darauf zu achten, dass das Gerät ein Prüfsiegel der Deutschen Hochdruckliga trägt. „Blutdruckmessgeräte müssen Medizinprodukt eine bestimmte Messgenauigkeit aufweisen“, sagt der Experte. „Sie liefern aber nicht immer verlässliche Werte.“ Die Anforderung des Prüfsiegels der Deutschen Hochdruckliga gehe daher über die Kriterien der Prüfung als Medizinprodukt hinaus. Gerätetests werden in unregelmäßigen Abständen beispielsweise auch durch die Stiftung Warentest durchgeführt. Der wesentliche Unterschied im Vorgehen liegt darin, dass die Stiftung Warentest die Messgenauigkeit nur an 32 statt an 96 Probanden testet. Die Deutsche Hochdruckliga setzt bei ihren Messungen eine deutlich größere Probandenanzahl von 96 Personen ein, um nicht ausschließbare Messschwankungen bei Probanden mit Herzunregelmäßigkeiten (Arrhythmien) auszuschließen. Falls Blutdruckmessgeräte öfters aussetzen, könnte das auf Herzunregelmäßigkeiten und Vorhofflimmern hinweisen. Andere Geräte haben eine entsprechende Warnfunktion. In beiden Fällen sollte das unbedingt vom Arzt abgeklärt werden, so Professor Hausberg, um das Herz bzw. Gehirn rechtzeitig zu schützen und auch Schlaganfälle zu vermeiden.

In Zusammenhang mit der Blutdruckmessung fragen in letzter Zeit viele Patienten, ob sich Smartphone-Apps für die Blutdruckmessung eignen. Das Gesundheitsministerium hat am 25. April eine Studie veröffentlicht, die vor möglichen Gefahren von Gesundheits-Apps warnt. Bundesgesundheitsminister Herrmann Gröhe fordert klare Qualitäts- und Sicherheitsstandards für Patienten, medizinisches Personal und App-Hersteller. Die Hochdruckliga sieht derzeit vor allem Gefahren bei blutdruckmessenden APPs über die Smartphone-Camera oder Smart-Watches: „Diese Geräte müssten als Medizinprodukt der Klasse I m deklariert sein, sind es derzeit aber nicht und dürften nicht angeboten werdenDie Hochdruckliga fordert daher, dass APP Storeanbieter sich verpflichten sollten, bei APPs die Einhaltung des Medizinproduktegesetzes zu prüfen. APPs die gegen das Medizinproduktegesetz verstoßen, dürfen nicht angeboten werden. Die APPs zum Blutdruckmessen müssen aus dem APP Store entfernt werden. Bei fehlender Deklaration sollte bei entsprechender Meldung von Amts wegen vorgegangen werden. Die Speicherung der Blutdruckdaten in APPs ist zu begrüßen, falls auf den Datenschutz geachtet wird. Die Werte selbst sollten Patienten aber mit einem konventionellen Messgerät erheben“, sagt Professor Hausberg.

Über die Diagnostik von Bluthochdruck, seine Folgen und Behandlungswege informieren Experten der DHL bundesweit am Welt Hypertonie Tag am 17. Mai. Schon am 9. Mai diskutieren sie darüber auf einer Pressekonferenz in Berlin. Dabei geht es vor allem auch um die Rolle von Bewegung bei Bluthochdruck und die richtige Blutdruckmessung. Dann kommt auch zur Sprache, welche Bedeutung die Art des Messverfahrens im Vergleich der so wichtigen Studien SPRINT und Accord spielt.

Weitere Informationen:
http://www.hypertonietag.de
http://www.hochdruckliga.de

Quelle: idw

(nach oben)


Winzige Mikroroboter, die Wasser reinigen können

Annette Stumpf Public Relations – Standort Stuttgart
Max-Planck-Institut für Intelligente Systeme

Forscher des Max-Planck-Institutes Stuttgart haben winzige „Mikroroboter“ mit Eigenantrieb entwickelt, die Blei aus kontaminiertem Wasser entfernen oder organische Verschmutzungen abbauen können.

In Zusammenarbeit mit Kollegen in Barcelona und Singapur verwendete die Gruppe von Samuel Sánchez Graphenoxid zur Herstellung ihrer Motoren im Mikromaßstab. Diese können Blei aus Industrieabwasser adsorbieren und so in nur einer Stunde von einem Niveau von 1000 Teile pro Milliarde bis auf unter 50 Teile pro Milliarde reduzieren. Das Blei kann später zum Recycling entnommen und die Mikromotoren können immer wieder verwendet werden.

„Die Außenhülle des Mikroroboters, welche aus Graphen besteht, fängt das Blei ein“, sagt Sanchez, Gruppenleiter am Max-Planck-Institut für Intelligente Systeme in Stuttgart und am Institute for Bio-Engineering of Catalonia (IBEC) in Barcelona. „Die innere Platinschicht funktioniert als Antrieb und zerfallendes Wasserstoffperoxid als Treibstoff, sodass der Roboter sich selbst antreiben kann.“ Wenn Wasserstoffperoxid dem Abwasser zugesetzt wird, zersetzt das Platin es zu harmlosem Wasser und Sauerstoffblasen, welche von der Rückseite des Mikroroboters zu dessen Antrieb ausgestoßen wer-den. „Es ist wichtig, ein System zur Schadstoffbeseitigung zu verwenden, welches keine zusätzliche Verschmutzung erzeugt“, erklärt Sanchez.

Zwischen dem Graphenoxid und den Platinschichten befindet sich eine Nickel-Schicht, welche es den Forschern ermöglicht, die Bewegung und Richtung des Mikroroboters magnetisch von außen zu steuern. „Ein Magnetfeld kann verwendet werden, um sie alle aus dem Wasser zu sammeln, wenn sie fertig sind“, sagt Sanchez. „Zukünftig könnten unsere Mikroroboter-Schwärme durch ein automatisiertes System gesteuert werden, welches sie mittels Magneten dazu bringt, verschiedene Aufgaben zu erfüllen.“

Schwermetall-Kontaminierungen im Wasser – durch Blei, Arsen, Quecksilber und andere Metalle – entstehen durch Aktivitäten der Industrie und stellen ein großes Risiko für die öffentliche Gesundheit sowie für die Tierwelt dar. Diese neuen Mikroroboter – jeder davon ist kleiner als ein menschliches Haar breit ist – bieten eine Lösung, die potenziell schneller und günstiger als aktuelle Methoden der Wasserreinigung sind. Zudem sind sie umweltfreundlich: Sie ermöglichen den verantwortungsvollen Umgang mit den gesammelten Schadstoffen, da das Blei danach zum Recycling genutzt werden kann. Außerdem sind sie selbst wiederverwendbar.

Neben dem Abfangen von Schwermetallverunreinigungen studierten die Forscher auch selbst-angetriebene Microbots, die in der Lage sind organische Verschmutzungen abzubauen. Diese Microbots können nach deren Einsatz wiederhergestellt und ohne Wirkverlust für wiederholte Anwendungen für einen Zeitraum von bis zu 5 Wochen eingesetzt werden.

„Wir planen nun, unsere Mikroroboter weiterzuentwickeln, sodass sie auch andere Schadstoffe sammeln können. Auch werden wir an der Senkung der Kosten für ihre Herstellung sowie daran arbeiten, sie in großen Mengen herstellen zu können“, sagt Sanchez, der auch an Mikro- und Nanorobotern mit Eigenantrieb für Anwendungen wie etwa der Verabreichung von Medikamenten arbeitet.

Weitere Informationen:
http://pubs.acs.org/doi/abs/10.1021/acs.nanolett.6b00768
http://onlinelibrary.wiley.com/doi/10.1002/adfm.201600381/epdf
http://pubs.acs.org/doi/suppl/10.1021/acs.nanolett.6b00768

Quelle: idw

(nach oben)


SPRINT-Studie: Wie tief soll der Blutdruck gesenkt werden?

Michael Wichert Presse- und Öffentlichkeitsarbeit
Deutsche Herzstiftung e.V./Deutsche Stiftung für Herzforschung

Experten-Interview der Herzstiftung mit wichtigen Hinweisen für Betroffene und Ärzte zur viel diskutierten Blutdrucktherapie-Studie

In Deutschland leben nach Schätzungen ca. 20 Millionen Erwachsene mit einem zu hohen Blutdruck. Ein nicht oder nicht ausreichend behandelter Bluthochdruck erhöht das Risiko für Herzinfarkt, Schlaganfall, Nierenversagen und Herzschwäche deutlich. „Dennoch wissen etwa 20 Prozent der Betroffenen nichts von ihrem Bluthochdruck und riskieren damit eine schleichende Schädigung ihrer Gefäße und Organe wie Herz und Gehirn sowie eine Verkürzung ihrer Lebenszeit. Weniger als die Hälfte aller Bluthochdruckpatienten erreicht heute den angestrebten Blutdruck von unter 140/90 mmHg, der zur Senkung dieses Herz-Kreislauf-Risikos notwendig ist“, warnt Herzspezialist Prof. Dr. med. Heribert Schunkert vom Wissenschaftlichen Beirat der Deutschen Herzstiftung und Ärztlicher Direktor des Deutschen Herzzentrums München im Rahmen eines umfangreichen Interviews in der Zeitschrift HERZ HEUTE zur viel beachteten Blutdrucktherapie-Studie SPRINT*. Das Interview kann in voller Länge auf der Seite www.herzstiftung.de/sprint-studie mit vielen weiteren Tipps für Betroffene zum richtigen Umgang mit Bluthochdruck und zur Therapie heruntergeladen oder telefonisch unter 069 955128-400 bei der Herzstiftung angefordert werden.

Trotz SPRINT-Ergebnissen: Für die meisten bleibt es beim Zielwert unter 140/90 mmHg
Die SPRINT-Studie hat gezeigt, dass viele Patienten mit mäßigem Herz-Kreislauf-Risiko von Blutdruckwerten unter 130 mmHg systolisch deutlich profitieren. Den Blutdruck von Patienten, der schon bei 140 mmHg liegt, auf 120 mmHg weiter zu senken, wie es die SPRINT-Studie nahelegt, bringt nach den Ergebnissen der Studie bei geeigneten Patienten beeindruckende Erfolge. „Allerdings muss eine solche Blutdrucksenkung immer von der individuellen Situation des Patienten abhängig gemacht werden“, fordert Prof. Schunkert. Der Herzspezialist sieht es als die „große Aufgabe, die vor uns liegt“, zunächst das Gros der Patienten auf den heute geltenden Zielwert von unter 140 mmHg des oberen (systolischen) und unter 90 mmHg des unteren (diastolischen) Blutdruckwerts zu bringen (bei Patienten über 80 Jahren toleriert man auch Blutdruckwerte bis zu 150 mmHg). Risikofaktoren für Bluthochdruck sind neben einer erblichen Vorbelastung insbesondere Übergewicht, Bewegungsmangel, Rauchen, Alter (Männer ab 55 Jahren, Frauen ab 65 Jahren), zu viel Alkohol und hormonelle Störungen. Entscheidend ist: Wie der einzelne Patient behandelt werden sollte, hängt von seinem Gesamtrisiko, d. h. der Anzahl der Risikofaktoren und seinen Begleiterkrankungen (z. B. Nierenerkrankung, koronare Herzkrankheit (KHK), Diabetes) ab: „Je höher das Gesamtrisiko, umso dringlicher die Notwendigkeit einer Behandlung“, betont Prof. Schunkert. „Wichtig bei jeder Behandlung des Bluthochdrucks ist, darauf zu achten, dass die Therapie auf Dauer von den Patienten gut vertragen wird.“

Besondere Vorsicht bei Bluthochdruckpatienten mit KHK
Die in Fachkreisen im Zuge der SPRINT-Studie viel diskutierte Senkung des Blutdruckwertes auf 120 mmHg ist besonders bei Hochdruckpatienten mit Begleiterkrankungen mit gewisser Vorsicht anzustreben: „Besonders mit Hochdruckpatienten, die zugleich an koronarer Herzkrankheit leiden, sollte man vorsichtig umgehen, besonders wenn sie älter sind“, warnt Prof. Schunkert. Nach Einschätzung des Herzstiftungs-Experten sollte für Patienten mit Bluthochdruck und KHK der alte systolische Zielwert gelten: unter 140 mmHg. „Eine zu drastische Senkung mit diastolischen Werten unter 60 mmHg kann für Patienten mit KHK problematisch werden, weil die Durchblutung der Herzkranzgefäße, besonders wenn noch Engstellen vorliegen, gefährdet werden kann.“

Intensive Senkung: Für wen kommt sie in Frage?
Wie Prof. Schunkert erläutert, kommt nach den Ergebnissen der SPRINT-Studie eine intensive Senkung auf 120 mmHg für bestimmte Patienten über 50 Jahre, wie sie an der Studie teilnahmen, in Frage, deren Herz-Kreislauf-Risiko von ärztlicher Seite als nicht zu hoch eingestuft wird. „Allerdings darf dies nicht unkritisch erfolgen, enge Kontrollen sind hier wegen möglicher Nebenwirkungen angebracht“, unterstreicht der Herzspezialist. „Je jünger und gesünder ein Hochdruckpatient ist, desto näher sollte er an 120 mmHg herangeführt werden: Kommt eine junge Frau oder ein junger Mann mit einem Blutdruck von 140 mmHg zu mir, sage ich: ,Da ist mehr drin‘.“ Der Kardiologe begründet dies damit, dass sich bei jungen Menschen im Lauf der Jahre der Schaden, den der Bluthochdruck in den Organen anrichtet, akkumuliert – „das lässt sich durch eine intensivierte Blutdrucktherapie vermeiden“. Wichtig dafür ist eine Veränderung des Lebensstils durch gesunde Ernährung, körperliche Aktivität, wenig Salz, wenig Alkohol. Dadurch kann der Blutdruck um 10 mmHg gesenkt werden.

*Randomized Trial of Intensive versus Standard Blood-Pressure Control, NEJM, Nov. 2015

Das umfangreiche Interview „SPRINT: Wie tief soll der Blutdruck gesenkt werden?“ (6. S.) mit Prof. Dr. Heribert Schunkert aus der aktuellen Ausgabe der Herzstiftungs-Zeitschrift HERZ HEUTE kann in voller Länge kostenfrei auf der Seite www.herzstiftung.de/sprint-studie mit vielen weiteren Tipps für Betroffene zum richtigen Umgang mit Bluthochdruck und zur Therapie heruntergeladen oder telefonisch unter 069 955128-400 angefordert werden.

Informationen:
Deutsche Herzstiftung e.V.
Pressestelle:
Michael Wichert/Pierre König
Tel. 069/955128-114/-140
Fax: 069/955128-345
E-Mail: wichert@herzstiftung.de/
koenig@herzstiftung.de
www.herzstiftung.de

Weitere Informationen:
http://www.herzstiftung.de/sprint-studie

Anhang
SPRINT-Studie

Quelle: idw

(nach oben)


Riesige Einzeller sind die heimlichen Stars des Ozeans

Andreas Villwock Kommunikation und Medien
GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel

– Französisch-deutsches Forscherteam veröffentlicht in Nature neue Erkenntnisse zur Zusammensetzung des Zooplanktons –

Einzellige Planktontierchen spielen im Ökosystem Ozean eine größere Rolle als bisher angenommen. Das zeigt eine Studie, die Meeresforscherinnen und Meeresforscher aus Frankreich und vom GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel heute in der internationalen Fachzeitschrift Nature veröffentlichen. Die Entdeckung hat Einfluss auf das Verständnis des marinen Nahrungsnetzes und wichtiger Stoffkreisläufe im Ozean.

Von mikroskopisch kleinen Bakterien bis zur meterlangen Qualle – der Begriff Plankton, um 1880 vom Kieler Meeresbiologen Victor Hensen für frei im Wasser treibende Organismen geprägt, umfasst eine riesige Gruppe verschiedener Lebensformen. Trotz der geringen Größe vieler Planktonarten spielen sie aufgrund ihrer Häufigkeit zentrale Rollen für das Nahrungsnetz und die Stoffkreisläufe im Ozean. So produzieren photosynthetisch aktive Arten beispielsweis Sauerstoff und binden Kohlenstoff aus der Atmosphäre, größere räuberische Arten bilden die Nahrungsgrundlage für Fische, Seevögel und Wale. Gleichzeitig stellen die geringe Größe und die große Empfindlichkeit vieler Organismen die Wissenschaft auch vor technische Herausforderungen bei der Erforschung des Planktons.

Jetzt veröffentlichen Wissenschaftlerinnen und Wissenschaftler der Universität Pierre und Marie Curie (UPMC) Paris und des französischen Centre national de la recherche scientifique (CNRS) sowie des GEOMAR Helmholtz-Zentrums für Ozeanforschung Kiel in der internationalen Fachzeitschrift Nature eine Studie, nach der einzellige Planktontierchen aus der Gruppe der Rhizaria einen viel größeren Anteil am tierischen Plankton haben als bisher angenommen. „Bisher wurde tierisches Plankton vor allem mit kleinen Ruderfußkrebsen gleichgesetzt. Dieses Bild muss nun revidiert werden“, sagt Dr. Rainer Kiko vom GEOMAR, einer der Ko-Autoren der Studie.

Die Studie beruht auf Daten, die während 20 Expeditionen in den vergangenen acht Jahren im Mittelmeer, im Atlantischen, Pazifischen und Indischen Ozean erhoben wurden. Dabei kamen neu entwickelte sogenannte „Underwater Vision Profiler“ (UVP) zum Einsatz. Die Geräte bestehen aus einer Lichtquelle, die ein genau definiertes Wasservolumen ausleuchtet, und einer integrierten Kamera, welche pro Sekunde mehrere Bilder des ausgeleuchteten Wasservolumens aufnimmt. Lässt man das Gerät vom Schiff aus in die Tiefe, kann man somit Planktonorganismen ablichten, diese anschließend bestimmen und ihre Häufigkeit ermitteln.

Auf diese Weise lassen sich Organismen erfassen, die einen halben Millimeter und größer sind, ohne sie aus ihrem Lebensraum entfernen zu müssen oder sonst wie störend in den Lebensraum einzugreifen. Das ist ein bedeutender Vorteil gegenüber bisherigen Methoden. „Plankton wird bisher mit besonders feinmaschigen Netzen gefangen, an Bord geholt, fixiert und dann im Labor ausgezählt. Dabei gehen aber viele der einzelligen Rhizarier verloren, da sie im Laufe der Probenahme zerstört werden“, sagt Dr. Helena Hauss vom GEOMAR, ebenfalls Ko-Autorin der Nature-Studie.

Wie die UVP-Zählungen ergaben, ist der Anteil der einzelligen Rhizaria in allen Ozeanen weit größer als auf Grundlage älterer Netzfänge vermutet – im Durchschnitt machen sie ein Drittel des tierischen Planktons aus. Vor allem in den nährstoffarmen tropischen Ozeanen sind sie stark vertreten. „In Biogeochemischen Modellen zu Nahrungsnetzen oder zum Einfluss des Planktons auf den Kohlenstoffkreislauf und damit das Klima kamen diese Rhizaria bisher kaum vor – das muss sich jetzt ändern. In den offenen tropischen Ozeanen könnten sie eine ähnlich wichtige Funktion wie die Korallen der Küstenregionen einnehmen, da sich auch viele Rhizarier als Räuber von anderen Planktontieren ernähren und mit Hilfe photosynthese-betreibender Symbionten Energie gewinnen“, betont Dr. Kiko. Damit ist die neue Studie auch ein wichtiges Ergebnis des Kieler Sonderforschungsbereichs 754, der seit 2008 die Interaktion zwischen Ozean und Klima in den tropischen Regionen erforscht und die aktuelle Studie mitfinanziert hat.

Diese erste globale Erfassung des Zooplanktons mit optischen Methoden eröffnet neue Wege zur Beurteilung der Rolle des Planktons bei vielen Prozessen, aber sie ist natürlich nur der Anfang. „Die Datenerhebung geht weiter, und wir hoffen bald besser zu verstehen, ob Rhizarier auch in hochproduktiven Küstengebieten des Altantiks und Pazifiks eine besondere Rolle spielen“, sagt Dr. Kiko.

Originalarbeit:
Biard, T, L. Stemmann, M. Picheral, N. Mayot, P. Vandromme, H. Hauss, G. Gorsky, L. Guidi, R. Kiko, F. Not (2016): In situ imaging reveals the biomass of giant protists in the global ocean. Nature, Advance Online Publication, http://dx.doi.org/10.1038/nature17652

Weitere Informationen:
http://www.geomar.de Das GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel
http://www.upmc.fr Die Universität Pierre und Marie Curie
http://www.cnrs.fr Das Centre national de la recherche scientifique
http://www.sfb754.de Der Sonderforschungsbereich 754 „Klima – Biogeochemische Wechselwirkungen im tropischen Ozean“

Quelle: idw

(nach oben)


Wasserver- und -entsorgung zukunftsfest ausrichten

Sybille Wenke-Thiem Stabsstelle Presse- und Öffentlichkeitsarbeit
Deutsches Institut für Urbanistik

Ergebnisse aus 13 Forschungsprojekten veröffentlicht: Für den Erhalt der gewohnt hohen Leistungen der Trinkwasserver- und Abwasserentsorgung sind Umdenken und die Umsetzung von Innovationen erforderlich

Berlin. Die Versorgung mit Trinkwasser und Entsorgung von Abwasser werden in Deutschland von den meisten Menschen als selbstverständlich angesehen. Doch demografische Veränderungen, die Auswirkungen des Klimawandels, die Anforderungen der Energiewende und weitere aktuelle Tendenzen stellen die Wasserinfrastrukturen in Deutschland vor erhebliche Herausforderungen. Die Anpassungsfähigkeit der teilweise veralteten Systeme muss verbessert werden. Damit die gewohnt hohen Leistungen der Trinkwasserversorgung und Abwasserentsorgung erhalten bleiben, sind ein Umdenken und die Umsetzung von Innovationen erforderlich.

Um den Handlungsbedarf in diesem wichtigen Zukunftsfeld zu erkennen und darauf frühzeitig reagieren zu können, wurde vom Bundesministerium für Bildung und Forschung (BMBF) die Fördermaßnahme „Intelligente und multifunktionelle Infrastruktursysteme für eine zukunftsfähige Wasserversorgung und Abwasserentsorgung“ (INIS) mit insgesamt 33 Millionen Euro finanziert. Die Fördermaßnahme INIS ist im Förderschwerpunkt „Nachhaltiges Wassermanagement“ (NaWaM) verankert. In 13 Forschungsprojekten wurden innovative technische Systemlösungen zur Optimierung bestehender Anlagen und deren Betrieb sowie zur sektorübergreifenden Erschließung von Energie- und Ressourcenpotenzialen entwickelt. Darüber hinaus wurden Management- und Planungsansätze sowie Modelle zur Organisation, Struktur und Steuerung künftiger Infrastrukturplanung erarbeitet, die eine langfristige Transformation der Systeme möglich machen.

Begleitet wird die Fördermaßnahme durch das Vernetzungs- und Transfervorhaben INISnet. INISnet wird vom Deutschen Institut für Urbanistik (Difu), von der DVGW-Forschungsstelle TUHH, Technischen Universität Hamburg-Harburg, und von der Deutschen Vereinigung für Wasserwirtschaft, Abwasser und Abfall e.V. (DWA) gemeinsam durchgeführt.

Auf der Abschlusskonferenz zur INIS-Fördermaßnahme am 20. und 21. April 2016 in Berlin werden die Ergebnisse aus den 13 Forschungsprojekten den Teilnehmenden aus Wasserwirtschaft, Stadtentwicklung, Politik und Forschung vorgestellt. Die Ergebnisse sollen Impulse für eine zukunftsfähige Gestaltung der Wasserversorgung und Abwasserentsorgung geben.

In der vom BMBF angestoßenen Forschung sind anwendungsreife Lösungen für die Zukunftsfähigkeit der deutschen Wasserversorgung und Abwasserentsorgung entwickelt worden. Allerdings reicht der Erkenntnisgewinn allein nicht aus, um die gegenwärtigen und zukünftigen Herausforderungen zu bewältigen. Der Abstand zwischen den vorliegenden Erkenntnissen und der tatsächlichen Umsetzung muss deutlich verringert werden. Gesellschaft, Medien und insbesondere die Politik sind gefordert, nun auch die Umsetzung voranzutreiben.

Aus der Gesamtschau der INIS-Ergebnisse lässt sich folgender Status quo-Bericht mit zehn daraus folgenden Botschaften ableiten:

Wasserversorgung und Abwasserentsorgung unter Veränderungsdruck
Die Wasserwirtschaft ist in einem hoch urbanisierten und industrialisierten Land wie Deutschland ein essenzieller Teil der Daseinsvorsorge. Die Infrastrukturen der Wasserwirtschaft sorgen im Spannungsfeld zwischen Umwelteinflüssen und anthropogenen Eingriffen für die sichere Versorgung mit Trinkwasser, für hygienische Verhältnisse in Siedlungen, für Überflutungsschutz und für den Schutz der Umwelt. Sie ermöglichen erst eine Vielzahl von wirtschaftlichen und gesellschaftlichen Aktivitäten und sind dadurch eine Säule unseres Wohlstands.

Die deutsche Wasserversorgung und Abwasserentsorgung befinden sich europa- und weltweit im Vergleich aktuell auf einem hohen Stand. Die dazu gehörigen Infrastrukturen stellen ein großes Anlagenvermögen dar, deren Erhalt und Erneuerung erheblicher Aufwendungen bedarf. Laut den Aussagen der großen Fachverbände der Wasserwirtschaft werden jährlich sechs bis sieben Milliarden Euro in Anlagen und Netze investiert. Mit Blick auf die aktuellen Netzerneuerungsraten wird vielfach argumentiert, dass der eigentliche Investitionsbedarf rund zweimal so hoch liegt. Parallelen zum Investitionsstau bei Straßen, Brücken und Schienennetzen liegen auf der Hand, sind allerdings nur selten sichtbar, denn die Infrastrukturen liegen größtenteils wortwörtlich im Sand vergraben.

Zum hohen Investitionsbedarf hinzu kommt ein wachsender Veränderungsdruck auf die Infrastrukturen der Wasserver- und Abwasserentsorgung. Einige der zentralen Stichworte sind hier: Klimawandel, demografische Veränderungen, Spurenstoffe und Energiewende. Innerstädtische Überflutungen und gewässerschädliche Mischwasserüberläufe infolge von überlasteten Kanälen bei Starkregen sind heute bereits weitverbreitete und ernsthafte Probleme. Wasserarme Regionen hingegen kämpfen mit saisonalen Knappheitsproblemen und Qualitätsbeeinträchtigungen und suchen die Lösung, etwa im Ausbau teurer Regional- und Fernversorgungssysteme. Andernorts führt eine sinkende Wassernachfrage, zum Beispiel aufgrund abnehmender Bevölkerungszahlen, zu Unterauslastungen von Netzen und Anlagen. Die zunehmende und flächendeckende Belastung von Gewässern mit anthropogenen Spurenstoffen wie Arzneimitteln, Industriechemikalien oder Pflanzenschutzmitteln stellt gesteigerte Anforderungen an die Behandlungsverfahren für Trinkwasser und Abwasser zugleich. Und nicht zuletzt ist die ressourcenintensive Wasserwirtschaft dazu aufgefordert, ihren Beitrag zum Gelingen der Energiewende zu leisten.

Die Anpassung der Wasserver- und Abwasserentsorgungssysteme an diese sich überlagernden und zum Teil widerstreitenden Herausforderungen erfordern Innovationen und Umdenken auf allen Ebenen: von neuen technischen Lösungen und ihrer Integration in der Stadtentwicklung über Management – und Finanzierungsansätze bis hin zum regulativen Rahmen und Verbraucherverhalten. Nur so können die hohen Leistungen der Wasserwirtschaft bei weiterhin bezahlbaren Preisen in Zukunft gesichert werden.

Zukunftsfähige Wasserversorgung und Abwasserentsorgung – zehn Botschaften an Politik und Praxis:

Technische Systeme: Anlagen und Betrieb optimieren
1. Der Weg in die Zukunft führt über eine Optimierung des Bestands. Herkömmliche Planungsprozesse mit langen Zeithorizonten haben statische Lösungen und vielfach überdimensionierte Anlagen hervorgebracht. Die Systeme verursachen hohe Fixkosten für Unterhalt und Betrieb und weisen deshalb große Optimierungspotentiale auf. Die Herausforderung liegt darin, die Leistungsfähigkeit des Systems unter verschiedenen Belastungssituationen zu sichern.

2. Robuste und flexible Lösungen ermöglichen eine zukunftsfähige Gestaltung des urbanen Wasserhaushalts. Vor dem Hintergrund zu erwartender Prognoseunsicherheiten werden robuste Systeme benötigt, die auch bei unerwarteten Extremereignissen nicht vollständig versagen und zugleich kosteneffizient sowie rückbau- und erweiterungsfähig konstruiert sind. Dezentrale Komponenten können die Anpassungsfähigkeit der Systeme erhöhen. Flexible Planungsprozesse und Betriebsweisen sind erforderlich, um kurz- und mittelfristig bzw. stufenweise auf unvorhersehbare Entwicklungen reagieren zu können.

3. Ein Schlüssel für die Optimierung liegt im intelligenten Betrieb. Während in allen wesentlichen Infrastrukturbereichen die intelligente, IT-basierte Steuerung bereits Standard ist, sind die städtischen Wasserinfrastrukturen größtenteils immer noch auf dem Stand der Technik des 19. und 20. Jahrhunderts. Durch den Einsatz von Mess-, Steuer- und Datentechnik lassen sich Kontaminationen schneller erkennen und erhebliche Reserven in den bestehenden Entwässerungssystemen aktivieren.

Sektorübergreifende Lösungen: Erschließung ungenutzter Potenziale

4. Abwasser ist eine Ressource, kein Abfall. Technologien und Konzepte zur energetischen und stofflichen Wiederverwendung bzw. Nutzung von Abwasser sind erarbeitet und können umgesetzt werden. Mehr noch: alternative dezentrale Wasseraufbereitungstechnologien können zu innovativen Lebensmittelanbaumethoden beitragen, bedürfen in dieser Hinsicht allerdings noch der Weiterentwicklung.

5.„Energieeffizienz“ der Wasserinfrastrukturen muss begrifflich weiterentwickelt werden. Die Erweiterung der Wasserinfrastruktursysteme um Funktionen der Energieerzeugung als Beitrag zur Energiewende schlägt sich bislang nicht in der Bewertung der „Energieeffizienz“ solcher Anlagen nieder. Eine alleinige Quantifizierung über den Bedarf an Jahreskilowattstunden (kWh/a) pro Leistungseinheit (m3 Trinkwasserversorgung bzw. gereinigtes Abwasser) erfasst den Beitrag der Wasserinfrastrukturen zur Energiewende nicht sachgerecht.

Wasser in der Stadt: Integration von Stadt- und Infrastrukturentwicklung

6. Wassersensitive Stadtentwicklung setzt integrierende Planungsprozesse voraus. Die Hauptaufgaben der Siedlungsentwässerung, der Schutz von Menschen und deren Eigentum einerseits und der Gewässerschutz andererseits, lassen sich allein durch konventionelle unterirdische Systeme nur begrenzt erfüllen. Optimale Lösungen, die z.B. auch einen positiven Beitrag zur Stadtklima- oder Freiraumqualität leisten können, lassen sich nur durch eine verbesserte räumliche Organisation der Stadt erzielen. Dazu müssen verstärkt multifunktionale Flächennutzungen für den Rückhalt, die Versickerung und die Verdunstung von Niederschlagswasser in den Stadtraum integriert werden.

Entscheiden und Kommunizieren: zum Umgang mit Komplexität

7. Eine Unsicherheitsbetrachtung muss zum Standardwerkzeug der Planer werden. Das Konzept der Unsicherheitsbetrachtung muss fest in den Köpfen von Planern, Betreibern und Entscheidungsträgern verankert werden. Die Auswirkungen der erheblichen Ungewissheiten zukünftiger Entwicklungen können über die fundierte Erstellung von Szenarien und deren Bewertung, z.B. durch Simulationsmodelle, aufgezeigt und so die Komplexität und Ungewissheit reduziert werden. Nur über eine interdisziplinäre und ressortübergreifende Bearbeitung können Wasserinfrastrukturen sicher und zukunftsfähig geplant werden.

8. Multifunktionelle Infrastrukturen erfordern eine ganzheitliche Bewertung. Die angestrebte Multifunktionalität neuartiger Infrastrukturen, aber auch die vielfältigen Wechselwirkungen von Teilsystemen und -prozessen, erfordern zwingend eine integrierte Bewertung der Ziele und Wirkungen von Maßnahmen und Entscheidungen. Auch die indirekten Wirkungen von Infrastruktursystemen sind entlang ihrer gesamten Wertschöpfungskette zu berücksichtigen.

Transformation: Akteure, Strategien und Institutionen

9. Es liegt im Interesse der Kommunen, den Transformationsprozess zu koordinieren. Bei der Implementierung von multifunktionellen und differenzierten Systemlösungen für Wasser-, Energie- und Ressourcenmanagement auf Stadt-, Quartiers- und Gebäudeebene werden Leistungen und Anlagen teilweise dezentralisiert oder in den privaten Raum verlagert. Es Bedarf neuer Kooperationsformen zwischen Ver- und Entsorgungsträgern und mit den Bürgern. Der Kommune obliegt die kommunale Daseinsvorsorge. Sie ist dem örtlichen Gemeinwohl verpflichtet und prädestiniert, diesen Transformationsprozess im Gemeinwohlinteresse zu koordinieren. In der operativen Umsetzung und im Betrieb können dabei vielfältige unternehmerische Strategieoptionen sinnvoll sein.

10. Demonstrationsprojekte sind der notwendige nächste Schritt, um Umsetzungshemmnisse zu erkennen und abzubauen. Die Transformation bestehender Wasserinfrastrukturen auf Gebäude- wie auch Quartiersebene ist technisch und organisatorisch möglich und wird zur Verbesserung der Zukunftsfähigkeit bestehender Systeme als sinnvoll und erforderlich erachtet. In Hinblick auf den rechtlichen Regulierungsrahmen und finanzielle Anreizsysteme sind derzeit viele Fragen offen. Diese wirken sich als Umsetzungshemmnisse aus. Vor diesem Hintergrund sollten Demonstrationsprojekte forciert werden.

Kontakt:
Dr. Jens Libbe
Deutsches Institut für Urbanistik (Difu)
Vernetzungs- und Transfervorhaben INISnet
E-Mail: libbe@difu.de
Telefon: 030/39001-115

Weitere Informationen:
http://www.bmbf.nawam-inis.de

Veröffentlichung (PDF): http://www.bmbf.nawam-inis.de/sites/default/files/dokumente/publikationen/2016-n… (oder als Short-Link: http://bit.ly/20QFaRV)

Kurzinfo: Deutsches Institut für Urbanistik
Das Deutsche Institut für Urbanistik (Difu) ist als größtes Stadtforschungsinstitut im deutschsprachigen Raum die Forschungs-, Fortbildungs-, Beratungs- und Informationseinrichtung für Städte, Kommunalverbände und Planungsgemeinschaften. Ob Stadt- und Regionalentwicklung, kommunale Wirtschaft, Städtebau, soziale Themen, Umwelt, Verkehr, Kultur, Recht, Verwaltungsthemen oder Kommunalfinanzen: Das 1973 gegründete unabhängige Berliner Institut – mit einem weiteren Standort in Köln (Bereich Umwelt) – bearbeitet ein umfangreiches Themenspektrum und beschäftigt sich auf wissenschaftlicher Ebene praxisnah mit allen Aufgaben, die Kommunen heute und in Zukunft zu bewältigen haben. Der Verein für Kommunalwissenschaften e.V. ist alleiniger Gesellschafter des in der Form einer gemeinnützigen GmbH geführten Forschungsinstituts.

Deutsches Institut für Urbanistik gGmbH
Sitz Berlin, AG Charlottenburg, HRB 114959 B
Geschäftsführer: Prof. Dipl.-Ing. Martin zur Nedden, Dr. Busso Grabow

Weitere Informationen:
http://www.difu.de
http://www.bmbf.nawam-inis.de
http://www.bmbf.nawam-inis.de/sites/default/files/dokumente/publikationen/2016-n… (Veröffentlichung PDF)
http://www.difu.de/presse/2016-04-20/zukunftsfeste-wasserver-und-entsorgung-erge… (Medieninfo)

Quelle: idw

(nach oben)


Sturm und Drang in der Jugend, Eremit im Alter

Sandra Sieraad Pressestelle
Universität Bielefeld

Psychologen der Universität Bielefeld erforschen, was Individuen einzigartig macht

In der Jugend ein Draufgänger, als Erwachsener auf Sicherheit bedacht, und introvertiert im Rentenalter: Die Persönlichkeit ändert sich im Laufe des Lebens gleich mehrfach. Warum das so ist und welchen Einfluss die Gene auf solche Veränderungen haben, untersuchen Persönlichkeitspsychologen der Universität Bielefeld in der Längsschnittstudie „SPeADy“. Dafür bitten sie Studienteilnehmerinnen und -teilnehmer verschiedener Altersgruppen und deren Freunde sowie Zwillingspaare und deren Familien zur Befragung.

So wollen die Forschenden herausfinden, was Individuen einzigartig macht. Das Projekt wird von der Deutschen Forschungsgemeinschaft gefördert und ist für eine Dauer von sechs Jahren geplant.

SPeADy steht für „Study of Personality Architecture and Dynamics“, ist also eine Studie der Persönlichkeitsarchitektur und -dynamiken. Dabei geht es Projektleiter Dr. Christian Kandler vor allem um Muster und Einflüsse darauf, wie sich die Persönlichkeit entwickelt. „Bestimmte Persönlichkeitsmerkmale“, erklärt der Psychologe, „entwickeln sich bei den meisten Menschen in eine ganz bestimmte Richtung, die es Ihnen ermöglicht, effektiver im Austausch mit anderen zu sein. Da es diese Entwicklungstrends auch bei Primaten gibt, vermuten wir, dass die Ursachen dafür zu einem gewissen Grad in den Genen liegen.“ So haben Kandler und sein Team in den vergangenen Jahren herausgefunden, dass sich die Persönlichkeit nach einer Sturm-und-Drang-Phase während der Pubertät im Erwachsenenalter in eine Richtung entwickelt, die sich günstig auf die Beziehungen zu anderen Menschen und im Beruf auswirkt. „In der Jugend hat man viele Lebensziele, die man sich erfüllen möchte, als junger Mensch sucht man sich die Umwelt, die zu einem passt. Später dagegen wollen Menschen das Erreichte bewahren, sie passen sich eher den Umwelten an“, sagt Christian Kandler. Vor allem im hohen Alter finden sich wieder deutliche Veränderungen. Ältere werden emotional wieder weniger stabil, introvertierter und weniger gewissenhaft. „Vielleicht ist das eine sinnvolle, funktionale Entwicklung, dass ältere Menschen furchtsamer sind im Hinblick auf Gefahren des Alltags. Sie kompensieren körperliche wie kognitive Einschränkungen durch einen Fokus auf das Wesentliche und die wichtigen Menschen im Leben, um eine hohe Lebensqualität zu bewahren.“

Wie sich solche Muster im Laufe des Lebens entwickeln, wollen Kandler und sein Team untersuchen. Insgesamt befragen sie ihre Probanden drei Mal innerhalb von sechs Jahren. Themen sind dann nicht nur typische Eigenschaften, Interessen oder Einstellungen, sondern auch Lebensziele. Auch die subjektiv wahrgenommene Attraktivität einer Person bei sich selbst, moralische Grundvorstellungen und wie Menschen auf ihre Umwelt wirken, spielen mit in die Studie hinein. Etwa eine Stunde schätzen sich die Probanden selbst mittels eines Online-Fragebogens ein. Anschließend bewerten Freunde und Bekannte die Studienteilnehmer. „Für eine möglichst hohe Objektivität ist es uns wichtig, sowohl die Selbst- als auch die Bekanntenperspektive zu erfassen“, sagt Kandler, und zwar in allen Altersgruppen.

In einem zweiten Teil der Studie stehen Zwillingspaare und deren Familien im Fokus. „Nur so können wir feststellen, was genetisch oder über die Umwelt vermittelt weitergegeben wird“, sagt Studienleiter Kandler. Bereits jetzt weiß sein Team, dass sich Zwillingspaare mit der Zeit immer unähnlicher werden und nur Umweltunterschiede und Unterschiede in den individuellen Erfahrungen der Zwillinge kann dies erklären. Um ihre Thesen zu überprüfen, untersuchen die Persönlichkeitspsychologen neben eineiigen Zwillingen auch zweieiige Zwillinge. „Diese Paare sind genetisch betrachtet so ähnlich wie normale Geschwister, sind aber exakt gleich alt“, erklärt Kandler. „Das was eineiige Zwillinge ähnlicher macht als zweieiige Zwillinge kann auf genetische Einflüsse zurückgeführt werden.“

Für das Projekt sucht Kandler noch Teilnehmerinnen und Teilnehmer unterschiedlicher Altersgruppen, „gern auch im hohen Lebensalter mit viel Lebenserfahrung.“ Interessierte für die Altersgruppenstudie melden sich bitte per E-Mail: altersgruppen@speady.de oder telefonisch: 0521 – 106-4449. Interessierte für die Zwillingsfamilienstudie melden sich bitte per E-Mail: zwillinge@speady.de oder telefonisch: 0521 – 106-4468.

Weitere Informationen im Internet:
www.uni-bielefeld.de/psychologie/ae/AE04/Forschung/index.html

Kontakt
Dr. Christian Kandler, Universität Bielefeld
Fakultät für Psychologie und Sportwissenschaft, Abteilung für Psychologie
Abteilung für Psychologie
Telefon: 0521 106-4540
E-Mail: christian.kandler@uni-bielefeld.de

Weitere Informationen:
http://www.uni-bielefeld.de/psychologie/ae/AE04/Forschung/index.html

Quelle: idw

(nach oben)


Tinnitus durch Lärm: Wenn es rauscht im Ohr

Andrea Reisener Geschäftsbereich Unternehmenskommunikation
Universitätsklinikum Münster

Weltweiter Tag gegen Lärm sensibilisiert für Gefahren konstanter Lärmbelastung / In Münster entwickeln Mediziner auf Basis neurowissenschaftlicher Studien eine App gegen das Störgeräusch

Ob laute Musik über In-Ohr-Kopfhörer oder eine Geräuschkulisse am Arbeitsplatz: Lärm ist ein ständiger Begleiter. Beinahe überall ist man einer konstanten Lärmbelastung ausgesetzt – teilweise bis zu 100 dB. „Das ist eine immense Belastung für das Ohr“, weiß Prof. Dr. Christo Pantev, Direktor des Instituts für Biomagnetismus und Biosignalanalyse an der Medizinischen Fakultät Münster. Gemeinsam mit Prof. Dr. Claudia Rudack, Direktorin der Klinik für Hals-, Nasen- und Ohrenheilkunde des UKM (Universitätsklinikum Münster), forscht er seit Langem über die Gefahren konstanter Lärmbelastung, die in diesem Jahr Motto des weltweiten Tags gegen Lärm sind.

Die Folgen von Lärm können von Unkonzentriertheit und erhöhtem Stressempfinden bis zum belastenden Tinnitus (Ohrensausen) führen. Letzterer beginnt im Innenohr und führt erst zu einer partiellen Hörminderung, die durch das Gehirn ausgeglichen wird. „Mit der Zeit kommt es zu einer komplett unabhängig vom Ohr gesteuerten Schallempfindung“, erklärt Pantev. „Die hyperaktiven Neuronen im Gehirn senden permanent Signale, die nur die Betroffenen hören können.“ Für sie stellt die Tinnitus-Wahrnehmung eine enorme Einschränkung ihrer Lebensqualität dar. Um diesen Menschen zu helfen, entwickelten die Wissenschaftler in Münster eine elektrophysiologische Musiktherapie.

Auf der Basis von neurowissenschaftlichen Studien mit über 250 Teilnehmern fanden die Forscher eine positiv-lindernde Wirkung des sogenannten physiologischen Effekts der seitlichen Hemmung heraus. „Wir setzen quasi eine Kerbe im Musikspektrum rund um die Frequenz des Tinnitus und passen so die Musik individuell an“, macht Pantev den Prozess deutlich. Durch das Auslassen der jeweiligen Frequenzen im Musikspektrum werden die für den Tinnitus verantwortlichen Neuronen nicht weiter gereizt. Durch die Mobilisierung der Nachbarneuronen kann der Tinnitus dauerhaft gelindert werden. Im Laufe der münsterschen Studien konnte die durchschnittliche Tinnituslautheit um etwa 25 Prozent reduziert werden. Momentan entwickeln die Wissenschaftler in Kooperation mit einem australischen Unternehmen eine App, mit der Betroffene zuerst ihre Tinnitusfrequenz zuverlässig bestimmen und dementsprechend ihre Lieblingsmusik individuell anpassen können. So kann eine ausreichend lange Nutzung zu einer nachhaltigen Minderung führen. Die App wird voraussichtlich im Sommer 2016 erhältlich sein.

Generell gilt, dass zu lautes Musik hören über Kopfhörer das Ohr auf Dauer schädigt – wenn der Sitznachbar im Zug mithören kann, ist es zu laut. Ist man am Arbeitsplatz von einer starken Lärmbelastung betroffen, hilft das konsequente Tragen von Ohrenschützern. In seltenen Fällen ist ein Tinnitus eine Nebenwirkung von Medikamenten wie beispielsweise Antidepressiva oder Blutdrucksenkern. Hier hilft eine Rücksprache mit dem behandelnden Arzt.

Weitere Informationen:

http://campus.uni-muenster.de/biomag/startseite/

Quelle: idw

(nach oben)


Superstar auf Sendung: Schalten Sie um auf Adler-TV

Eva Goris Kommunikation
Deutsche Wildtier Stiftung

Deutsche Wildtier Stiftung: Verfolgen Sie das Brutgeschehen der Schreiadler in den kommenden Wochen unter www.Schreiadler.org

Die letzten Tage waren spannend, denn die Reise war gefährlich: 10.000 Kilometer hat das Schreiadlerpärchen zurückgelegt. Nach überstandenem Powerflug sind die Thermikflieger wohlbehalten aus dem südlichen Afrika im heimischen Nest gelandet. Noch ist der Horst nicht fertig und wird jetzt renoviert: Die „Eheleute Schreiadler“ sind dabei, das Nest mit Zweigen und Tannengrün auszupolstern, damit der Nachwuchs es später schön gemütlich hat.

Die Web-Cam läuft: Serien-Junkies können das Pärchen von Sonnenauf- bis Sonnenuntergang live beobachten. „Wenn alles klappt, können wir mit der versteckten Kamera Familie Schreiadler perfekt studieren. Natürlich warten alle gespannt darauf, dass das Adlerweibchen zwei Eier legt und etwa 40 Tage später der Nachwuchs schlüpft“, sagt Dr. Andreas Kinser von der Deutschen Wildtier Stiftung. Spätestens dann werden die Adler weltweit zu Superstars!

Die versteckte Kamera in gut zehn Metern Höhe dokumentiert wie aus einem seltenen Greifvogel-Küken ein stolzer Adler wird. Doch es geht nicht nur um schöne Bilder, sondern um handfeste Forschung. „Die Übertragung ist Teil eines Projektes der Staatlichen Forstverwaltung in Lettland, bei dem die Nahrungszusammensetzung für Schreiadler-Küken untersucht wird“, sagt Dr. Andreas Kinser. Ugis Bergmanis, lettischer Schreiadler-Experte und Kooperationspartner der Deutschen Wildtier Stiftung, hat die Technik an den Schreiadler-Horsten versteckt. Dabei muss der Forscher extrem vorsichtig sein: Schreiadler, die sich ein Leben lang treu bleiben, sind sehr sensibel. Werden sie gestört, suchen sie sich ein neues Plätzchen. Und das ist schwer zu finden: In Deutschland sind die Schreiadler bereits vom Aussterben bedroht.

Die letzten 110 Brutpaare aus Deutschland leben in Mecklenburg-Vorpommern und Brandenburg. „Die Bedrohung hängt mit der Intensivierung der Land- und Forstwirtschaft zusammen“, sagt Kinser. In einem Modellprojekt, das durch das Bundesamt für Naturschutz (BfN) mit Mitteln des Bundesumweltministeriums gefördert wird, erprobt die Deutsche Wildtier Stiftung derzeit, wie eine schreiadlerfreundliche Landbewirtschaftung aussehen könnte.

Kostenloses Bildmaterial: www.Presse.DeutscheWildtierStiftung.de

Weitere Informationen:
http://Eva Goris, Pressesprecherin, Christoph-Probst-Weg 4, 20251 Hamburg,
http://Telefon 040 9707869-13, Fax 040 9707869-19,
http://E.Goris@DeutscheWildtierStiftung.de, www.DeutscheWildtierStiftung.de

Quelle: idw

(nach oben)


Auswirkungen von Bewässerungslandwirtschaft auf das Klima

Dr. Annette Kirk Kommunikation
Max-Planck-Institut für Meteorologie

Forscher des Max-Planck-Instituts für Meteorologie (MPI-M) zeigen in einer neuen Studie, dass künstliche Bewässerung nicht nur lokale Auswirkungen auf das Klima hat, sondern auch entfernt liegende Regionen beeinflusst. Ihre Ergebnisse wurden gerade in Geophysical Research Letters veröffentlicht.

Während in trockenen Regionen die künstliche Bewässerung oft die einzige Möglichkeit darstellt, um Landwirtschaft zu betreiben, werden in feuchtgemäßigten Klimabereichen die landwirtschaftlichen Flächen zusätzlich bewässert, um die Erträge zu steigern. Je nach vorherrschendem Klima variieren die Techniken und Methoden zur Bewässerung: von der Anstauung des Wassers auf Flächen (wie beispielsweise im Reisanbau) bis hin zur punktgenauen Ausbringung des Wassers durch Schläuche und Düsen.

Der Einfluss von Bewässerungsanlagen auf das lokale Klima wurde bereits in vielen Studien untersucht. Die große Menge an Wasser, die durch Verdunstungsprozesse in die Atmosphäre abgegeben wird, weist bereits darauf hin, dass Bewässerung auch auf das globale Klima einen Einfluss haben muss. Allerdings haben bisher nur wenige Studien die Folgen auf einer globalen Skala untersucht. Dr. Philipp de Vrese, Dr. Stefan Hagemann und Prof. Martin Claußen, alle Wissenschaftler in der Abteilung „Land im Erdsystem“ am MPI-M, untersuchten nun zum ersten Mal, welche Auswirkungen die in Asien genutzte künstliche Bewässerung auf andere Regionen hat. Sie nutzten hierfür das Zirkulationsmodell des MPI-M, das mit dem Landmodell JSBACH gekoppelt wurde. Für die Simulationen wurde in das Landmodell ein Bewässerungsschema integriert. Die Autoren legten ihren Fokus vor allem auf die Bewässerungslandwirtschaft in Südasien, weil sich dort, u.a. durch den Reisanbau, der weltweit größte Anteil an Bewässerungsanlagen befindet.

Sie fanden heraus, dass Bewässerung unmittelbar das Klima in Entfernungen von mehreren tausend Kilometern beeinflussen kann. Die Auswirkungen der Bewässerung in Asien treten nicht nur lokal auf, sondern schaffen sogar den interkontinentalen Sprung über das Meer nach Afrika. Bis zu 40 % des heutigen Niederschlags in bestimmten ariden Gebieten Ostafrikas stehen in Zusammenhang mit der Bewässerungslandwirtschaft in Asien.

Zugrundeliegende Mechanismen – Wie kann Bewässerung in Asien den Regen in Ostafrika beeinflussen?
Die Autoren untersuchten die hierfür verantwortlichen Mechanismen und konnten die Advektion von Wasserdampf sowie die Veränderung des Asiatischen Monsuns durch die Bewässerung als Schlüsselmechanismen ausmachen. Der Wasserdampf stammt von der durch Bewässerung erhöhten Evapotranspiration. Der Begriff bezeichnet die Summe aus Transpiration von Wasser über die Blattflächen der Pflanzen und Evaporation, also die Verdunstung von Wasser über Wasseroberflächen und Böden.

Zu Beginn des Frühlings auf der nördlichen Halbkugel (Februar – März) ist der Feuchtestrom, der von der Verdunstung aus Bewässerungsanlagen in Südasien hervorgerufen wird, bereits hoch. Durch die daraus entstehende Evapotranspiration steigt die Luftfeuchtigkeit an. Während dieser Zeit bewegen sich die bodennahen Winde des Arabischen Meeres in südwestliche Richtung. Daher strömt ein großer Teil des atmosphärischen Wasserdampfes, der aus Bewässerungsanlagen in Südasien stammt, über das Arabische Meer zu Afrikas Ostküste, wo er die Luftfeuchtigkeit deutlich erhöht. Zum Ende des Frühlings (April-Mai) versiegt aufgrund drehender Winde der Feuchtestrom aus Asien. Dafür wird Wasserdampf von Gebieten im Mittleren Osten vermehrt nach Ostafrika transportiert. Der Anstieg an Wasserdampf in der Atmosphäre führt zu vermehrtem Niederschlag. In manchen der trockneren Gebiete Ostafrikas entspricht dieser Anstieg des Niederschlags mehr als einem Drittel des simulierten Jahresniederschlags.

Darüber hinaus resultiert aus der Bewässerung in Asien eine Abschwächung des Monsuns, welcher im Sommer für einen Großteil des Niederschlages in Südostasien verantwortlich ist. So kann Bewässerung nicht nur zu einer Erhöhung des Niederschlages in entfernten Regionen führen, sondern diesen auch reduzieren.

Auswirkungen
Der vermehrte Niederschlag führt zu verstärkter Evapotranspiration und einer damit verbundenen Kühlung der Landoberfläche: Der zusätzliche Wasserdampf in der Atmosphäre beeinflusst die Wolkenbildung. Teilweise erhöht sich die mittlere Wolkenbedeckung in der unteren Troposphäre um mehr als 7,5 %, was die einfallende Sonnenstrahlung auf der Landoberfläche reduziert. Zusammen führen diese zwei Effekte in den betroffenen Gebieten zu einer Abkühlung der Landoberfläche von bis zu 0,5 Grad Celsius.

Die Abschwächung des Monsuns reduziert den Niederschlag in einigen Gebieten Südostasiens, was zu verringerter Evapotranspiration und der damit verbundenen Abkühlung der Erdoberfläche führt. Dies kann in einigen Fällen den Niederschlag im Sommer um bis zu 2 mm pro Tag verringern und zu einem Temperaturanstieg von bis zu 2° C führen.

Fazit
Die Autoren haben ihre Untersuchung der Auswirkungen auf Gebiete in Ostafrika, Südostasien und das südliche China eingeschränkt, da die zugrundeliegenden Mechanismen hier am deutlichsten sichtbar sind. Allerdings deuten die durchgeführten Simulationen darauf hin, dass die Effekte auch in anderen Regionen auftreten können. Zum Beispiel gelangt Wasserdampf von Bewässerungsgebieten durch Advektion nach Russland, wo es das bodennahe Klima beeinflusst, und die Bewässerung in Südeuropa hat vermutlich starke Auswirkungen auf den Feuchtegehalt der Atmosphäre und die Temperaturen in Westeuropa und Skandinavien.

Selbst wenn die Bewässerungstechniken in Zukunft wesentlich effizienter gestaltet werden, steigt der für die künstliche Bewässerung benötigte Wasserbedarf bis 2050 (im Vergleich zum Jahr 2000) vermutlich um 50 % an, da sich die Bewässerungslandwirtschaft dem steigenden Lebensmittelbedarf einer wachsenden Weltbevölkerung anpassen muss.

Während die künstliche Bewässerung, durch die Umverteilung von Wasser, ihrerseits Auswirkungen auf den Wasserkreislauf und den Energiehaushalt der Landoberfläche hat, wird sie selbst durch Klimaänderungen und abnehmende Frischwasserressourcen beeinflusst. Es ist wahrscheinlich, dass ein zukünftiger Ausbau oder ein Rückgang der bewässerten Gebiete – durch die steigende Lebensmittelnachfrage oder abnehmende Trinkwasserressourcen – auch den Niederschlag und die Temperaturen anderer Gebiete, die vom Verursachungsort entfernt liegen, beeinflussen wird.

Originalveröffentlichung
Philipp de Vrese, Stefan Hagemann, Martin Claussen (2016). Asian Irrigation, African Rain: Remote Impacts of Irrigation. Geophysical Research Letters. doi: 10.1002/2016GL068146

Kontakt

Dr. Philipp de Vrese
Tel.: 040 41173 138
E-Mail: philipp.de-vrese@mpimet.mpg.de

Dr. Stefan Hagemann
Tel.: 040 41173 101
E-Mail: stefan.hagemann@mpimet.mpg.de

Prof. Dr. Martin Claußen
Tel.: 040 41173 226 (Assistentin Sylvia Houston)
E-Mail: martin.claussen@mpimet.mpg.de

Weitere Informationen:
http://mpimet.mpg.de/kommunikation/aktuelles/single-news/?no_cache=1&tx_ttne… MPI-M Homepage
http://onlinelibrary.wiley.com/doi/10.1002/2016GL068146/abstract Link zur Veröffentlichung

Quelle: idw

(nach oben)


Fließgewässer effizienter renaturieren

Angelina Tittmann Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)

Der Renaturierungsbedarf bei Fließgewässern ist groß: Verschiedene Maßnahmen sollen helfen, den Verlust der Artenvielfalt zu bremsen und wertvolle Funktionen für uns Menschen zu erhalten. Der gewünschte Erfolg nach Renaturierungen bleibt aber oftmals aus. Forscher des Leibniz-Instituts für Gewässerökologie und Binnenfischerei (IGB) haben deshalb einen neuen Ansatz getestet, der Renaturierungen effizienter macht: Sie verknüpfen systematische Planung mit lokalem Expertenwissen. – Eine Pilotstudie an Spree und Havel ist vielversprechend. Veröffentlicht wurden die Ergebnisse kürzlich in der Fachzeitschrift „Science of the Total Environment“.

Fließgewässer gehören zu den am stärksten gefährdeten Ökosystemen der Welt. Die intensive Nutzung und die damit verbundenen Veränderungen wie Kanalisierung oder Wasserentnahme beeinträchtigen ihre Artenvielfalt und werden auch für den Menschen zum Problem: Die Trinkwassergewinnung, der Hochwasserschutz durch natürliche Auen oder der Nährstoffrückhalt werden zunehmend eingeschränkt. Durch Renaturierungen sollen Fließgewässer in einen besseren Zustand überführt werden – zum Wohl von Mensch und Natur.

Bessere Planung dank Priorisierung und Einbindung lokaler Experten
Die gewählten Maßnahmen sollen dabei nicht nur die Umweltziele erreichen, sondern auch möglichst kosteneffizient sein. „Einer der Gründe für den oft ausbleibenden Erfolg von Renaturierungsmaßnahmen ist, dass sie meist ad hoc, das heißt zum Beispiel an Stellen, an denen gerade Ufergebiet verfügbar ist, umgesetzt werden“, erklärt Dr. Simone Langhans, die das Projekt am Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB) leitet. Um die Erfolgsquote von Renaturierungen zu erhöhen, helfe eine systematische Planung: Unter Berücksichtigung von Kosteneffizienz und Biodiversitätszielen werden dabei geeignete Renaturierungsstellen und potenzielle Maßnahmen priorisiert. Noch effizienter lassen sich Renaturierungen planen und umsetzen, wenn zudem lokale Experten eingebunden werden. Eine Pilotstudie an Spree und Havel zeigt: Werden systematische Planungen mit lokalem Expertenwissen kombiniert, wirkt sich das positiv auf den ökologischen Gewinn, die Kosteneffizienz sowie auf die Praktikabilität eines solchen Vorhabens aus.

Neuer Ansatz an Spree und Havel getestet
Entlang der Spree und der Havel identifizierten die Forscher gemeinsam mit lokalen Fischökologen Flussstellen, an denen die Wiederherstellung von Laichplätzen für typische Flussfischarten sinnvoll wäre. Anschließend schätzten sie für jede Stelle die individuellen Maßnahmenkosten ab. Beide Informationen flossen dann in Berechnungen mit der Software Marxan ein. „Die Software wählt mit einem mathematischen Algorithmus jene Flussstellen aus, in denen die ökologischen Ziele mit dem geringsten finanziellen Aufwand erreicht werden können“, erklärt Langhans. Als ökologische Zielgröße nutzten die Forscher dabei die Jungfischpopulationen von elf wichtigen Flussarten, darunter auch Wanderfische wie Stör, Lachs, Meerforelle, Fluss- und Meerneunauge.

Neue Methode auch auf andere Fließgewässer übertragbar
„Es ist uns wichtig, möglichst anwendungsorientiert zu arbeiten. Unsere Ergebnisse sollen den örtlichen Entscheidungsträgern konkret weiterhelfen“, betont Langhans. Mit der entwickelten Methode könnten Renaturierungen von Laichplätzen auch in anderen Fließgewässern optimal geplant werden, ist sie sich sicher. Die Methode soll nun so weiterentwickelt werden, dass auch zusätzliche ökologische Kenngrößen wie zum Beispiel das Vorkommen aquatischer oder terrestrischer Wirbeltiere bei der systematischen Planung berücksichtigt werden können.

Die Studie wurden im Rahmen des durch die Alexander von Humboldt-Stiftung finanzierten Projekts „Money for rivers: a new framework to optimize rehabilitation funds“ durchgeführt.

Vertonte Flussrenaturierung:
Gemeinsam mit der Schweizer Band „Knuts Koffer“ vertonte Simone Langhans ihre Arbeit an Havel und Spree. Das Musikvideo ist online verfügbar: http://bit.ly/Musikclip-Flussfisch

Ansprechpartner:
Dr. Simone D. Langhans
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
E-Mail: langhans@igb-berlin.de
Tel.: + 49(0)30 64181 943

Dr. Jörn Geßner
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
E-Mail: sturgeon@igb-berlin.de
Tel.: + 49(0)30 64181 626

Presse- und Öffentlichkeitsarbeit: Angelina Tittmann/Nadja Neumann
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
E-Mail: pr@igb-berlin.de
Tel.: +49 (0) 30 64181 -631/-975

Publikation:
Langhans SD, Gessner J, Hermoso V, Wolter C (2016) Coupling expert judgement and systematic planning enhances the efficiency of river restoration, Science of the Total Environment 560-561: 266-273.

http://www.sciencedirect.com/science/article/pii/S0048969716306696

Weitere Informationen zum Leibniz-IGB:
http://www.igb-berlin.de

Die Arbeiten des Leibniz-IGB verbinden Grundlagen- mit Vorsorgeforschung als Basis für die nachhaltige Bewirtschaftung der Gewässer. Das Leibniz-IGB untersucht dabei die Struktur und Funktion von aquatischen Ökosystemen unter naturnahen Bedingungen und unter der Wirkung multipler Stressoren. Forschungsschwerpunkte sind unter anderem die Langzeitentwicklung von Seen, Flüssen und Feuchtgebieten bei sich rasch ändernden globalen, regionalen und lokalen Umweltbedingungen, die Entwicklung gekoppelter ökologischer und sozioökonomischer Modelle, die Renaturierung von Ökosystemen und die Biodiversität aquatischer Lebensräume. Die Arbeiten erfolgen in enger Kooperation mit den Universitäten und Forschungsinstitutionen der Region Berlin/Brandenburg und weltweit. Das Leibniz-IGB gehört zum Forschungsverbund Berlin e. V., einem Zusammenschluss von acht natur-, lebens- und umweltwissenschaftlichen Instituten in Berlin. Die vielfach ausgezeichneten Einrichtungen sind Mitglieder der Leibniz-Gemeinschaft.

Weitere Informationen:
http://www.igb-berlin.de

Quelle: idw

(nach oben)


Bakterien im Urin: Keine Symptome, kein Antibiotikum

Medizin – Kommunikation Medizinkommunikation
Arbeitsgemeinschaft der Wissenschaftlichen Medizinischen Fachgesellschaften

Schmerzen beim Wasserlassen und häufiger Harndrang sind typische Symptome einer Blasenentzündung. Meist verursachen Bakterien die Infektion. Bei einer schmerzhaften Blasenentzündung ist der Einsatz eines Antibiotikums oft sinnvoll – aber erst dann. Der alleinige Nachweis von Bakterien im Urin ohne Symptome dagegen erfordert bis auf wenige Ausnahmen keine Behandlung. Dennoch verschreiben Ärzte häufig ein Antibiotikum. Im Rahmen der Initiative „Klug entscheiden“ hat die Deutsche Gesellschaft für Infektiologie (DGI) medizinische Leistungen benannt, die zu häufig oder aber zu selten fachgerecht erbracht werden.

Mit den nun veröffentlichten, konkreten Handlungsempfehlungen zielt die Fachgesellschaft darauf ab, Über- und Unterversorgung in der Infektiologie zu reduzieren, die Entwicklung von Resistenzen einzudämmen und die Patientenversorgung zu verbessern.

Routineuntersuchungen weisen mitunter Bakterien im Urin nach. „Dies kann unterschiedliche Ursachen haben und kommt bei Frauen häufiger vor als bei Männern“, sagt Privatdozentin Dr. med. Norma Jung, Oberärztin an der Klinik für Innere Medizin der Universitätsklinik Köln und Beiratsmitglied der Deutschen Gesellschaft für Infektiologie. „Behandlungsbedürftig sind Bakterien im Urin nicht. Erst wenn typische Beschwerden einer Harnwegsinfektion, also einer Blasenentzündung, bestehen, sollte eine Therapie eingeleitet werden.“ Eine vorsorgliche Antibiotikabehandlung verhindere nicht, dass sich aus dem symptomlosen Auftreten von Bakterien eine symptomatische Harnwegsinfektion entwickle, so Jung. Von dieser Regel gibt es nur wenige, definierte Ausnahmen: Wenn sich während einer Schwangerschaft oder vor einem urologischen Eingriff Bakterien im Urin nachweisen lassen, sollten Ärzte auch ohne konkrete Krankheitszeichen eine Antibiotikatherapie einleiten.

Der fachgerechte Umgang mit dem asymptomatischen Auftreten von Bakterien im Urin ist ein Aspekt, mit dem sich die DGI im Rahmen der Initiative „Klug entscheiden in der Infektiologie“ befasst. Die Initiative „Klug entscheiden“ wurde 2014 von der Deutschen Gesellschaft für Innere Medizin (DGIM) ins Leben gerufen. Ihr Ziel ist es, Über- und Unterversorgung in der Medizin zu identifizieren. „Für die Infektiologie, eine der Subspezialisierungen der Inneren Medizin, hat die DGI in einem mehrstufigen Verfahren fünf Positiv- und fünf Negativ-Empfehlung formuliert“, erklärt Professor Dr. med. Gerd Fätkenheuer, Vorsitzender der DGI und Leiter der Infektiologie an der Klinik I für Innere Medizin am Universitätsklinikum Köln. „Diese richten sich in der ersten Stufe an Ärzte, liefern aber auch Patienten hilfreiche Informationen – etwa wenn es darum geht, eine bestimmte Behandlung zu beginnen oder eben nicht.“

Zu den Negativ-Empfehlungen, also den unnötigen Therapiemaßnahmen, zählt auch die Behandlung von unkomplizierten oberen Atemwegsinfektionen mit Antibiotika: Bei akuten Infektionen der oberen Atemwege und bei Bronchitis verursachen diese eher Schaden als Nutzen. Sie helfen gegen die überwiegend durch Viren verursachten Erkrankungen nicht, bergen aber das Risiko, Nebenwirkungen auszulösen und befeuern die Resistenzentwicklung. „Obere Atemwegsinfektionen gehören zu jenen Erkrankungen, bei denen am häufigsten unnötigerweise Antibiotika verordnet werden“, sagt Jung. „Für die USA existieren Daten, wonach zwischen 70 und 80 Prozent der Patienten, die sich in einer Praxis oder Ambulanz mit einer akuten Atemwegsinfektion vorstellen, Antibiotika verschrieben bekommen.“

Bei den Positiv-Empfehlungen, also den Maßnahmen, die sinnvoll sind, aber zu selten durchgeführt werden, liegt das Augenmerk vor allem auf der Prävention, etwa dem Durchführen von Impfungen gemäß der Vorgaben der Ständigen Impfkommission am Robert Koch-Institut (STIKO).

Die fünf Positiv- und Negativ-Empfehlungen, die die DGI im Rahmen der Initiative „Klug entscheiden in der Infektiologie“ erarbeitet hat, sind jetzt im Deutschen Ärzteblatt erschienen: http://www.aerzteblatt.de/archiv/175621

Literatur:
Jung, Norma, Klug entscheiden: ….in der Infektiologie
Dtsch Arztebl 2016; 113(13): A-608 / B-514 / C-510

Weitere Informationen:
http://www.dgi-net.de

Quelle: idw

(nach oben)


Der frühe Vogel hat Probleme

Susanne Hufe Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum für Umweltforschung – UFZ

Auch Zugvögel reagieren auf den Klimawandel und kehren früher aus ihren Winterquartieren zurück als noch vor wenigen Jahren. Das hat den Vorteil, dass sie eher mit dem Eierlegen beginnen können. Trotzdem profitieren die Tiere davon kaum, zeigt eine von Wissenschaftlern des Helmholtz-Zentrums für Umweltforschung (UFZ), der Universität Leipzig und des Max-Planck-Instituts für evolutionäre Anthropologie Leipzig kürzlich im Fachjournal „Ecology and Evolution“ veröffentlichte Studie.

Rauchschwalben gelten als klassische Frühlingboten. Nach dem langen Rückflug aus dem Süden Afrikas treffen sie typischerweise im April wieder in Europa ein und beginnen dann innerhalb weniger Tage mit dem Eierlegen. Nach etwa zwei Wochen Brutzeit schlüpfen die Küken, die anschließend noch rund drei Wochen von den Eltern gefüttert werden. Wenn der erste Nachwuchs der Saison das Nest verlassen hat, schließen die Tiere im Sommer noch eine zweite Brut an.

UFZ-Forscherin Annegret Grimm und ihre Kolleginnen und Kollegen des Max-Planck-Instituts für evolutionäre Anthropologie und der Universität in Leipzig sowie weiterer Forschungseinrichtungen haben nun untersucht, ob sich die Termine dieser Bruten vor dem Hintergrund des sich ändernden Klimas verändert haben. Dazu haben sie Daten der Jahre 1997 bis 2010 für Ostdeutschland ausgewertet, die von der beim Landesamt für Umwelt, Naturschutz und Geologie (LUNG) Mecklenburg-Vorpommern angesiedelten Beringungszentrale Hiddensee erhoben wurden. Dieser Datensatz enthält beispielsweise, wann und wo Ornithologen Küken beringt haben, um später ihre Zugrouten verfolgen zu können. „Junge Rauchschwalben werden im Alter zwischen zehn und 15 Tagen beringt“, erklärt Annegret Grimm. „Deshalb können wir aus diesem Datum auch schließen, wann die Eltern mit der Brut begonnen haben müssen.“

Bei den 7.256 Bruten, die das Team auf diese Weise analysiert hat, zeichnet sich eine deutliche Tendenz zu einem immer früheren Beginn ab. „Im Durchschnitt haben die Tiere den Termin für ihre erste Brut um mehr als einen halben Tag pro Jahr nach vorn verlegt. Das sind von 1997 bis 2010 immerhin 6,5 Tage“, berichtet die Forscherin. Dieser zeitliche Vorsprung schlägt sich jedoch nicht im Bruterfolg nieder. Die Biologen vermuteten ein für die Rauchschwalben negatives Zusammenspiel des Klimas auf verschiedenen Skalenebenen. Deshalb haben sie die Bruttermine bzw. Gelegegrößen und verschiedene Wetterdaten in Computermodelle eingespeist und nach statistischen Zusammenhängen gesucht.

Wann die Vögel aus dem Süden zurückkehren und mit dem Eierlegen beginnen, hängt demnach vor allem von der sogenannten Nordatlantischen Oszillation (NAO) ab – jener Schwankungen des Luftdrucks, die über dem Nordatlantik zwischen dem Islandtief und dem Azorenhoch auftreten. Sind beide Druckgebilde stark ausgebildet, sprechen Experten von einem positiven NAO-Index. Der führt in Europa normalerweise zu starken Westwind-Lagen und einer milden, feuchten Witterung. Bei einem negativen NAO-Index mit schwachem Azorenhoch und Islandtief schwächen dagegen die Westwinde ab, es wird trockener und kälter. Die Auswirkungen dieses großräumigen Wetterphänomens treffen allerdings nicht nur Europa, sondern reichen auch bis in den Süden Afrikas. Offenbar liefern sie den Schwalben dort Anhaltspunkte dafür, wann es in Europa warm genug für die Reise Richtung Norden ist.

„Das lokale Wetter im Brutgebiet ist für den Zeitpunkt des Brutbeginns weniger wichtig“, sagt Annegret Grimm. Dafür bestimmen die dortigen Temperaturen und Niederschläge ganz allein darüber, wie erfolgreich die Vogeleltern ihren Nachwuchs aufziehen können. Und diese Bilanz ist schlecht: Der Bruterfolg der Rauchschwalben im Untersuchungsgebiet ist in den letzten Jahren kontinuierlich zurückgegangen, immer weniger Jungvögel erreichen das Erwachsenenalter.
Dabei ist ein früher Bruttermin eigentlich von Vorteil: Paare, die zeitig im Jahr mit der Brut beginnen, legen oft mehr Eier, bringen mehr Jungvögel durch als die Spätstarter unter ihren Artgenossen – und haben vielleicht sogar Zeit für eine zusätzliche Brut. So ziehen Deutschlands Rauchschwalben in warmen Jahren oft dreimal statt nur zweimal Junge auf – ein Trend, der sich noch verstärken und auch irgendwann positiv auf die Bestandsentwicklung auswirken könnte.

„Bisher aber scheinen die Nachteile des Klimawandels die Vorteile des frühen Brutbeginns zu überwiegen“, sagt Annegret Grimm. Das Problem besteht offenbar darin, dass die Vögel bisher noch nicht das richtige Timing gefunden haben, um ihrem Nachwuchs gute Startchancen zu verschaffen. Zwar sind die April-Temperaturen in den ostdeutschen Brutgebieten in den letzten Jahren gestiegen, dafür ist es im Mai aber kühler geworden – ausgerechnet dann, wenn die Schwalben-Eltern reichlich Insekten für ihre geschlüpften Küken bräuchten. „Dieses Versorgungsproblem steckt wahrscheinlich hinter dem sinkenden Bruterfolg“, sagt Annegret Grimm. Und dieser wiederum könnte den Rückgang der europäischen Schwalbenbestände erklären, den Vogelschützer seit etwa 20 Jahren beobachten.

Ob sich dieser Trend fortsetzt, sei derzeit schwer zu sagen. Zum einen müsse die kühle und insektenarme Phase im Mai keineswegs von Dauer sein. Zum anderen werden vielleicht künftig auch so viele Paare ein drittes Mal im Jahr Eier legen, dass sie die geringere Zahl von Küken pro Brut kompensieren können. In jedem Fall unterstreiche die vorliegende Studie einmal mehr, so Grimm, wie wichtig es sei, mehrere ökologische Prozesse parallel zu betrachten und mit den Daten der Klima- und Wetterphänomene auf regionaler und überregionaler Skala zu verknüpfen.

Publikation:
Annegret Grimm, et al. (2015): Earlier breeding, lower success: does the spatial scale of climatic conditions matter in a migratory passerine bird?
Ecology and Evolution, Band 5, Ausgabe 23, Seite 5722-5734, Dezember 2015
http://onlinelibrary.wiley.com/doi/10.1002/ece3.1824/full

Die Studie wurde unterstützt durch das EU-FP 7-Projekt SCALES, das EU-FP-7-Projekt EU BON, die Universität Leipzig und das Beringungszentrum Hiddensee.

Weiterführende Links:
http://www.beringungszentrale-hiddensee.de/cms2/BZH_prod/BZH/index.jsp,
http://www.eva.mpg.de/pks/staff/schloegl/
http://www.scales-project.net/
http://www.eubon.eu/show/project_2731/

Weiterführende Informationen:
Annegret Grimm
UFZ-Department Naturschutzforschung
Telefon: 0341 235 1652
http://www.ufz.de/index.php?de=31232

Dr. Brigitte Schlögl (ehem. Weiß)
Universität Leipzig und Max-Planck-Institut für evolutionäre Anthropologie Leipzig
Telefon: 0341 97-36754
E-Mail: brigitte.schloegl@uni-leipzig.de

Weitere Informationen:
http://www.ufz.de/index.php?de=36336&webc_pm=15/2016

Quelle: idw

(nach oben)


Innovative Therapien gegen hohen Blutfettspiegel

Prof. Dr. Eckart Fleck Pressesprecher
Deutsche Gesellschaft für Kardiologie – Herz- und Kreislaufforschung e.V.

Neue Medikamente erleichtern die Behandlung eines erhöhten LDL-Cholesterin-Spiegels. Davon profitieren Menschen mit einem hohen kardiovaskulären Risiko, bei denen die maximal tolerierte Statin-Therapie alleine nicht ausreicht, um das LDL-Cholesterin ausreichend zu senken, oder die unter einer Statin-Unverträglichkeit leiden. Das berichten Experten auf der Jahrestagung der Deutschen Gesellschaft für Kardiologie in Mannheim.

„Erhöhte Blutfettspiegel, und hier besonders das LDL-Cholesterin, stellen einen wichtigen Risikofaktor für Arteriosklerose und damit auch kardiovaskuläre Erkrankungen dar und müssen daher konsequent behandelt werden“, sagt Prof. Dr. Ulrich Laufs (Universitätsklinikum des Saarlandes, Homburg) auf der 82. Jahrestagung der Deutschen Gesellschaft für Kardiologie (DGK). Vom 30. März bis 2. April 2016 treffen auf diesem Kongress in Mannheim rund 8.500 aktive Teilnehmer aus 25 Ländern zusammen. „Können Patienten mit der maximalen verträglichen Statindosis nicht auf den angestrebten Zielwert gebracht werden oder werden Statine nicht vertragen, gibt es heute mit Ezetimib und den PCSK9-Hemmern zwei ergänzende Therapien, welche die erforderlichen Präventionsbemühungen unterstützen.“

Vielfach nachgewiesen ist, dass Menschen mit erhöhten Blutfetten von einer LDL-Senkung profitieren. Dies gilt insbesondere dann, wenn es bereits zu kardiovaskulären Ereignissen wie zum Beispiel einem Herzinfarkt gekommen ist. Eine weitere Patientengruppe, deren Cholesterinspiegel auf jeden Fall behandelt werden muss, sind Menschen mit familiärer Hypercholesterinämie.

Für die Behandlung der Hyperlipidämie wurden von den medizinischen Fachgesellschaften Zielwerte definiert. Prof. Laufs: „Bei Personen mit sehr hohem kardiovaskulären Risiko sollte der Europäischen Gesellschaft für Kardiologie ESC zufolge ein LDL-Ziel von weniger als 70 mg/dl angestrebt werden.“ In diese Gruppe gehören unter anderem Menschen, die schon einmal einen Herzinfarkt hatten oder unter Typ II-Diabetes mellitus in Kombination mit koronarer Herzkrankheit leiden. Auch eine fortschreitende koronare Herzkrankheit bedeutet ein sehr hohes Risiko.

Wenn Statine unverträglich sind
Mittel der Wahl zur Behandlung überhöhter Cholesterinspiegel sind Statine. Diese sind wirksam und für die meisten Behandelten gut verträglich. Allerdings stößt die Behandlung in der Praxis an zwei Grenzen, so Prof. Laufs: „Zum einen reicht die Wirkung nicht immer aus, um bei Hochrisikopatienten die Zielwerte zu erreichen. Zum anderen werden Statine nicht von allen Menschen gut vertragen. Diese Statinintoleranz äußert sich in der Regel in sehr unangenehmen Muskelschmerzen.“

Besteht eine Statinintoleranz oder können Patienten mit der maximalen verträglichen Statindosis nicht auf den angestrebten Zielwert gebracht werden, gibt es zwei Alternativen bzw. ergänzende Therapien.

Kombination mit Ezetimib bringt stärkere Cholesterin-Senkung
Ezetimib hemmt die Aufnahme von Cholesterin aus dem Darm und senkt nachweislich den LDL-Spiegel im Blut. „Im Rahmen der IMPROVE-IT Studie wurde nachgewiesen, dass es zu weniger Herzinfarkten kommt, wenn bei Hochrisikopatienten die Statin-Therapie mit Ezetimib ergänzt wird“, berichtet Prof. Laufs. „Ezetimib eignet sich also für Patienten, die mit einem Statin alleine ihren Zielwert nicht erreichen.“

Neue Option: Stärkerer LDL-Cholesterinabbau über die Leber
Mit der neuen Gruppe der PCSK9-Inhibitoren steht seit kurzem eine neue Option zur Verfügung, um ungünstige Cholesterinspiegel zu behandeln. Die Verabreichung eines PCSK9-Inhibitors führt dazu, dass an der Zellmembran von Leberzellen mehr LDL-Rezeptoren aktiv sind und daher auch mehr LDL-Cholesterin abgebaut wird. Wie alle anderen therapeutisch eingesetzten Antikörper müssen die PCSK9-Inhibitoren regelmäßig injiziert werden.

„Die ersten zugelassenen Vertreter dieser Gruppe haben sich in Studien in allen problematischen Patientengruppen mit hohen LDL-Spiegeln bewährt“, so Prof. Laufs. „Sie führen in Kombination mit Statinen zu einer massiven Reduktion des LDL-Spiegels, in der Regel um 50 bis 60 Prozent, sind bei Patienten mit familiärer Hypercholesterinämie wirksam und können auch bei Menschen eingesetzt werden, die keine Statine vertragen.“

Was allerdings noch fehlt, sind Endpunktstudien, in denen gezeigt wird, dass Patienten, die einen PCSK9-Inhibitor erhalten, nicht nur niedrigere Cholesterinspiegel, sondern tatsächlich ein geringeres Herzinfarktrisiko haben. Prof. Laufs: „Viele Experten nehmen an, dass das so sein wird. Denn PCSK9-Inhibitoren senken das LDL-Cholesterin deutlich und wir wissen, dass die LDL-Senkung mit Statinen alleine oder Statinen und Ezetimib auch das kardiovaskuläre Risiko reduziert. Mit Sicherheit wird man das erst wissen, wenn die entsprechenden Studien, die gerade laufen, publiziert sind.“

Nicht zuletzt bleibe dann noch die Frage der Kosten, so der Experte: „PCSK9-Inhibitoren sind teure Medikamente. Es sollte also sichergestellt sein, dass sie jenen Patienten verschrieben werden, die sie auch tatsächlich benötigen und die nicht ebenso gut mit einem Statin behandelt werden können. Das sind also Personen mit sehr hohem Risiko und hohem LDL-Cholesterin, bei denen die Behandlung mit Statin und Ezetimib nicht zu einer Cholesterinsenkung führt, die ihrem kardiovaskulären Risiko angemessen wäre.“

Informationen:
Deutsche Gesellschaft für Kardiologie, Presse/Kommunikation
Prof. Dr. Eckart Fleck, Pressesprecher
Pressebüro während des Kongresses in Mannheim
Tel.: 0621 4106-5002; 0621 4106-5005
Hauptstadtbüro Berlin
Leonie Nawrocki
Tel.: 030 206 444 82
Geschäftsstelle Düsseldorf
Kerstin Krug
Tel.: 0211 600692-43,
presse@dgk.org
B&K-Bettschart&Kofler Kommunikationsberatung
Dr. Birgit Kofler
Tel.: 0172 7949286
kofler@bkkommunikation.com

Die Deutsche Gesellschaft für Kardiologie – Herz und Kreislaufforschung e.V. (DGK) mit Sitz in Düsseldorf ist eine wissenschaftlich medizinische Fachgesellschaft mit über 9500 Mitgliedern. Ihr Ziel ist die Förderung der Wissenschaft auf dem Gebiet der kardiovaskulären Erkrankungen, die Ausrichtung von Tagungen und die Aus-, Weiter- und Fortbildung ihrer Mitglieder. 1927 in Bad Nau-heim gegründet, ist die DGK die älteste und größte kardiologische Gesellschaft in Europa. Weitere Informationen unter www.dgk.org.

Weitere Informationen:
http://www.dgk.org
http://www.dgk.org/presse
http://www.kardiologie.org

Quelle: idw

(nach oben)


Trinkwasser: CO2-Steuer kann weltweit Versorgungslücken schließen

Fabian Löhe Presse- und Öffentlichkeitsarbeit
Mercator Research Institute on Global Commons and Climate Change (MCC) gGmbH

Über 700 Millionen Menschen haben kein fließendes Wasser. Eine Steuer auf Kohlendioxid könnte Abhilfe schaffen und gleichzeitig viel zum Klimaschutz beitragen. Das zeigt heute eine neue Studie.

„Bis 2030 könnte man in den meisten Ländern weltweit eine flächendeckende Versorgung mit Trinkwasser finanzieren“, sagt Dr. Michael Jakob, Leitautor der Studie vom Mercator Research Institute on Global Commons and Climate Change (MCC) in Berlin. Allein in Indien würde eine CO₂-Steuer rund 115 Milliarden US-Dollar im Jahr einbringen „und nur einen Bruchteil davon bräuchte man für sauberes Wasser – zusätzlich bliebe genug Geld für sanitäre Anlagen und Strom“, so der Wissenschaftler. Tatsächlich würde die benötigte Infrastruktur im zweitgrößten Land der Welt jeweils nur etwa vier Prozent der Einnahmen kosten.

Nicht reichen würden die Mittel in wenigen Nationen, vor allem in Afrika südlich der Sahara (siehe Abbildung im Anhang). Hier sind die CO₂-Emissionen sehr niedrig und eine Steuer brächte wenig ein. „Doch diese finanzielle Lücke könnte geschlossen werden, wenn man berücksichtigt, dass Entwicklungsländer ihr Nutzungsrecht an der Atmosphäre noch nicht ausgeschöpft haben“, erklärt Jakob. „Vermeidung von Emissionen würde dann zu Ausgleichszahlungen von Seiten der Industriestaaten führen.“

Die MCC-Studie, die neben Wasser, Sanitäranlagen und Strom auch die Entwicklungsmöglichkeiten bei Telekommunikation und Straßen untersucht, wurde heute unter dem Titel „Carbon pricing revenues could close infrastructure gaps“ in der Zeitschrift World Development veröffentlicht. Für ihre Berechnungen gehen die Forscher davon aus, dass weltweit jedes Land ab sofort eine wachsende CO₂-Steuer einführt. Im Jahr 2020 müsste sie 40 US-Dollar pro Tonne CO₂ betragen und bis 2030 auf 175 Dollar ansteigen.

„Neben den Einnahmen für Infrastruktur würde man so zum internationalen Ziel beitragen, die Klimaerwärmung auf zwei Grad zu begrenzen“, erklärt Dr. Sabine Fuss, MCC-Mitautorin der Studie und Gastwissenschaftlerin am International Institute for Applied Systems Analysis (IIASA) in Laxenburg, Österreich. „Denn die Steuer bestraft die Nutzung fossiler Energien und schafft Anreize für CO₂-freie Technologien.“ Mit Geld, das nicht für die Versorgung gebraucht wird, könnten Folgen des Klimawandels abgefedert werden. Davon seien gerade Entwicklungsländer betroffen, etwa durch den steigenden Meeresspiegel.

Doch die steigenden Kosten für Kohle, Öl und Gas führen auch zu Problemen: „Mehr zahlen möchte niemand gerne – aber gerade hier liegt die Stärke der Idee, direkt aus den CO₂-Einnahmen lebenswichtige Infrastrukturen zu finanzieren“, sagt MCC-Kollege Jakob. Die Zweckbindung erhöhe die Akzeptanz in der Bevölkerung und die Gefahr von Unterschlagungen sinke. Ergänzend könnte man mit den Einnahmen Belastungen verringern, die gerade ärmere Bevölkerungsteile treffen – etwa die Mehrwertsteuer. „Klar ist: Wirklichen Klimaschutz gibt es nur, wenn er Teil einer nachhaltigen Gesamtentwicklung wird – und umgekehrt“, betont Jakob. „Mehr Geld alleine reicht nicht. Entscheidend sind auch ein funktionierender Staat, demokratische Entscheidungsprozesse und entsprechende Institutionen.“

Link zur zitierten Studie:
Jakob, M.; Chen, C.; Fuss, S.; Marxen, A.; Rao, N.; Edenhofer, O. (2016): Carbon pricing revenues could close infrastructure gaps. World Development, http://dx.doi.org/10.1016/j.worlddev.2016.03.001 (online nach Speerfrist)

Über das MCC:
Das MCC erforscht nachhaltiges Wirtschaften sowie die Nutzung von Gemeinschaftsgütern wie globalen Umweltsystemen und sozialen Infrastrukturen vor dem Hintergrund des Klimawandels. Sieben Arbeitsgruppen forschen zu den Themen Wirtschaftswachstum und -entwicklung, Ressourcen und Internationaler Handel, Städte und Infrastrukturen, Governance sowie wissenschaftliche Politikberatung. Das MCC ist eine gemeinsame Gründung der Stiftung Mercator und des Potsdam-Instituts für Klimafolgenforschung (PIK).

Quelle: idw

(nach oben)


Arbeitszeugnisse: Machen sie noch Sinn?

Sigrid Neef Presse- und Öffentlichkeitsarbeit
Ernst-Abbe-Hochschule Jena

Empirische Studie der Ernst-Abbe-Hochschule Jena zur Zeugnispraxis in Deutschland

Jeder Beschäftigte hat in Deutschland bei Beendigung seines Arbeitsverhältnisses einen Rechtsanspruch auf die Ausstellung eines einfachen Arbeitszeugnisses. Dieses enthält Aussagen zur Art und Zeitdauer der ausgeübten Tätigkeit.

Auf Verlangen des Beschäftigten sind auch Aussagen über seine Leistungen und sein Verhalten aufzunehmen. Durch diesen Bewertungsteil wird aus dem einfachen Arbeitszeugnis ein qualifiziertes Arbeitszeugnis. Häufig stellen Unternehmen ohne explizite Anforderung der Beschäftigten ein qualifiziertes Zeugnis aus. Die Rechtsprechung hat die Direktive aufgestellt, dass Arbeitszeugnisse einerseits wahr, andererseits aber auch wohlwollend formuliert sein müssen, um den Arbeitnehmer in seinem weiteren beruflichen Fortkommen nicht zu stark zu behindern.

Die Frage ist, ob diese beiden Vorgaben überhaupt zu vereinbaren sind. Punktuelle Gespräche mit Personalverantwortlichen lassen vermuten, dass sich die Unternehmen zur Umgehung rechtlicher Probleme bei schwacher Leistung oder negativem Verhalten des Mitarbeiters aus dieser Formulierungszwickmühle zwischen Wahrheit und Wohlwollen herauswinden, indem Negatives überhaupt nicht angesprochen wird oder in positiven Formulierungen versteckt wird. Vielfach wird also die Existenz eines „Zeugniscodes“ behauptet, den man beim Lesen eines Arbeitszeugnisses entschlüsseln muss.

Aber wie rational ist es eigentlich, dass der Zeugnisersteller zunächst Wahrheiten versteckt, die der Zeugnisleser dann mühsam enttarnen soll? Und funktioniert das überhaupt mit hinreichender Präzision? Diese Frage ist höchst relevant, da Arbeitszeugnisse bei der Erstellung (Bürokratie-)Kosten verursachen und nach wie vor ein Standardbaustein jeder Bewerbungsunterlage sind, also im Rahmen der Personalauswahl für eine neue Stelle potenziell eine wichtige Funktion wahrnehmen.

Wenn aber nun viele Unternehmen einerseits Bedenken wegen möglicher Zeugnisstreitigkeiten mit dem scheidenden Arbeitnehmer haben und andererseits ahnen (wissen?), dass man im Zeugnis nur höchst eingeschränkt Wahrheiten findet, wie wahrscheinlich ist es dann, dass Zeugnisse zum einen sorgfältig und aussagekräftig formuliert und zum anderen systematisch ausgewertet werden? Beides ist aber Voraussetzung dafür, dass das Dokument „Arbeitszeugnis“ Sinn macht. Sind diese Voraussetzung nicht gegeben, dann könnte man sich den Zeit- und Kostenaufwand für Zeugnisse auch komplett sparen.

Diese Grundskepsis gegenüber Arbeitszeugnissen war für die beiden Forscher am Fachbereich Betriebswirtschaft der Ernst-Abbe-Hochschule Jena, Steffi Grau und Prof. Dr. Klaus Watzka, Anlass für eine explorative empirische Fragebogenuntersuchung zur Erstellung und zur Nutzung von Arbeitszeugnissen in deutschen Unternehmen.

Es wurden dazu Mitte des Jahres 2015 zwei getrennte Fragebögen für Zeugnisersteller und Zeugnisauswerter erstellt und in einer Auflage von jeweils 500 Exemplaren an Unternehmen aller Größenklassen in Deutschland versandt. Es konnte ein guter Rücklauf von fast 20% erzielt werden. Konkret lagen von Zeugniserstellern 97 und von Zeugnisauswertern 89 auswertbare Fragebögen vor. In der Datenanalyse wurde differenziert nach kleinen (bis 49 Mitarbeiter), mittleren (bis 249) und großen Unternehmen (ab 250 Mitarbeiter).

Die Ergebnisanalyse zeigte ernüchternde Ergebnisse und legt den Schluss nahe, dass die Anfertigung von Arbeitszeugnissen in Deutschland über weite Strecken zu einem relativ sinnfreien Ritual mutiert ist. Es frisst Zeit und Kosten, an einem hinreichenden Nutzen in der Personalauswahl müssen dagegen erhebliche Zweifel angemeldet werden. So zeigte sich unter anderem:

• Nur noch 7,3% der Zeugnisse werden wirklich individuell angefertigt. Dominierende Hilfsmittel sind PC-gestützte Zeugnisgeneratoren (41,7%), selbst erstellte Textbausteine (27,1%) und Textbausteine aus Literatur/Internet (24%). Viel spricht also für eine „schablonenhafte Erstarrung“ des Arbeitszeugnisses, die der Individualität des einzelnen Mitarbeiters nur sehr eingeschränkt gerecht wird.

• 49,5% der Zeugnisersteller haben keinerlei Schulung für ihre Tätigkeit erhalten (in kleinen Unternehmen sogar 80%). Zeugnisabfassung als „gottgegebene Gabe“?

• Als gravierendste Probleme geben Zeugnisersteller selbst den „Konflikt zwischen Wahrheit und Wohlwollen“ (18,3%) und die mangelnde „Individualität des Zeugnisses“ (18,3%) an. Überraschenderweise stellt sich das zentrale Problem aber bei der „Rekonstruktion des Werdegangs des Mitarbeiters“ im Unternehmen (28,3%)! Dies wirft kein gutes Licht auf die Führung der Personalakte als wichtige Zeugnisgrundlage.

• Nur ein Drittel der Unternehmen führt im Vorfeld der Zeugniserstellung ein Vorgespräch mit dem Vorgesetzten (durchschnittliche Länge: ca. 15 Minuten). Die wichtigste Quelle für eine valide Einschätzung von Leistung und Verhalten wird also nur unzureichend genutzt.

• Die Spannweite für die Anzahl der im Bewertungsteil zugrunde gelegten Bewertungskriterien differiert im Sample zwischen 2 und 17 (Mittelwert: 6,9). Arbeitszeugnisse fallen also hinsichtlich der Differenziertheit der vorgenommenen Leistungs- und Verhaltensbewertung extrem unterschiedlich aus.

• Lediglich die Hälfte der Unternehmen schätzt die Aussagekraft der von ihnen selbst erstellten Zeugnisse als „hoch“ oder „sehr hoch“ ein. Das ist entlarvend. Man entledigt sich also vielfach nur einer Pflichtaufgabe und hat dabei den „Kunden“, also den späteren Zeugnisleser nicht im Blick.

• Es gibt keine einheitliche Zeugnissprache und auch keine einheitliche Notenskala für die Gesamtbewertung eines Mitarbeiters! Dieser Schluss muss aus einer Mini-Fallstudie im Fragebogen gezogen werden. Die Teilnehmer sollten dabei für die Verhaltens- und Leistungsbeschreibung eines fiktiven Mitarbeiters eine Zeugnispassage entwerfen. Es zeigte sich eine extreme Formulierungsvielfalt. Wenn aber schon die Chiffrierung nicht einheitlich gelingt, wie sollte dann die Dechiffrierung auf Seiten des Zeugnislesers einheitlich sein?

• Die häufigste Reaktion auf die Fallstudie zeigte, dass viele Unternehmen schwache Leistungen oder negatives Verhalten im Zeugnis überhaupt nicht thematisieren. „Weg mit Schaden“ scheint oftmals die Grundhaltung zu sein. Die Angst vor (rechtlichen) Auseinandersetzungen dominiert also oftmals die Pflicht zur Wahrheit. Welchen Nutzen haben Zeugnisse dann aber für die Personalauswahl?

• In großen Unternehmen sind durchschnittlich mehr als fünf Mitarbeiter im Personalbereich mit Analyse und Erstellung von Zeugnissen befasst. Die Prozesse sind also wenig spezialisiert – mit negativen Folgen für die Expertise.

• 53,9% aller Zeugnisauswerter haben keinerlei Schulung für diese Tätigkeit erhalten (in kleinen Unternehmen sogar 90%). Auch hier offenbar die Grundhaltung „Zeugnis kann jeder.“ Beherrschen diese Mitarbeiter dann wirklich die behauptete „Zeugnissprache“? Trotzdem fühlen sich 68,2% bei der Zeugnisanalyse „sicher“ – eine trügerische Sicherheit?

• Die Hälfte der Unternehmen nutzt bei der Personalauswahl Arbeitszeugnisse nur „weniger intensiv“ (41,4%) oder sogar „kaum“/„gar nicht“ (9,1%).

• Bei der Analyse einer Bewerbungsmappe sind Arbeitszeugnisse mit großem Abstand auf Lebenslauf und Anschreiben nur das drittwichtigste Dokument für die Personalauswahl.

• Für die Analyse von Arbeitszeugnissen wenden die meisten Unternehmen (48,8% als Modalwert) nur eine Zeitspanne von 0-3 Minuten auf. Ist damit wirklich eine fundierte Zeugnisanalyse möglich?

• 54% der Zeugnisauswerter lesen ein Zeugnis nicht komplett durch (sog. „Selektivleser“). Selektivleser interessieren sich vor allem für die Tätigkeitsbeschreibung (85%), die Schlussformel (61%) und die zusammenfassende Leistungsaussage (54%). Auch in einer anderen Frage stellt sich eine „ausführliche Tätigkeitsbeschreibung“ als „wichtigster Vorteil“ von Arbeitszeugnissen heraus.

• Nur 27% der befragten Zeugnisanalytiker schätzen die Aussagekraft von Arbeitszeugnissen für die Personalauswahl als „hoch“ ein (kein einziger als „sehr hoch“!).

• In einer Testsituation sollten die Befragten fünf vorgegebenen, typischen Zeugnisformulierungen auf einer Viererskala die richtige Bewertung zuordnen. Es zeigte sich u.a., dass

– nur bei drei von fünf Zeugnisaussagen mehr als 50 % der Befragten richtig antworteten,
– nur ein einziger Befragter (von 88) alle Aussagen korrekt bewertete,
– die Streuung der Antworten mit einer Standardabweichung von 0,94
(bei einer Viererskala) sehr hoch ist.

Der Test zeigt klar, dass es eine einheitliche und eindeutige Zeugnissprache nicht gibt. Dies gilt auch für die zusammenfassende Leistungsbewertung. Der kommunikative Zeichensatz auf Sender- und Empfängerseite stimmt oftmals nicht überein. Wie soll so präziser Informationsaustausch gelingen?

In einem provokant zugespitzten Fazit könnte man für Arbeitszeugnisse in Deutschland auf Basis der Untersuchungsergebnisse festhalten:

„Oftmals von ungeschultem Personal lieblos zusammengeschustert – auf der anderen Seite oft nur oberflächlich zur Kenntnis genommen. Es existiert eher babylonische Sprachverwirrung als eine einheitliche, eindeutige Zeugnissprache – sie gehört ins Reich der gut gepflegten Mythen und Legenden.“

Für vertieft interessierte Leser wurde noch eine ausgeweitete Ergebniszusammenstellung beigefügt (Tabellen 1 und 2).

Die beiden Forscher ziehen vor dem Hintergrund dieser Daten den Schluss, dass die Zeugnispraxis samt ihrer gesetzlichen Grundlagen in Deutschland dringend veränderungsbedürftig ist, wenn das Dokument einen hohen Nutzen in der Personalauswahl entfalten soll.

Der dürftige Aussagewert ist eigentlich allen mit Arbeitszeugnissen befassten Personen bewusst. Trotzdem wird dieses sinnentleerte Spiel tapfer weiter mitgespielt. Veränderungsinitiativen sind nicht zu sehen. Für eine auf hohe Effizienz bedachte Wirtschaft ist das erstaunlich. Zum Thema „Arbeitszeugnisse“ scheint es fast schon eine Art Omertà aller Beteiligten zu geben.

Den größten Nutzen stiften Arbeitszeugnisse derzeit noch dadurch, dass sie dem Arbeitnehmer eine Bestätigung von dritter Seite über die ausgeübten Tätigkeiten an die Hand geben und damit den Angaben eines Arbeitnehmers über seine vorhandenen Qualifikationen/Erfahrungen im Bewerbungsprozess eine größere Glaubwürdigkeit verleihen. Aber selbst hier muss fraglich bleiben, ob die Angaben im Zeugnis nicht auch zum Teil „um des lieben Friedens“ willen geschönt sind. Die Aussagen zu Leistung und Verhalten jedoch haben keinen Selektionswert, wenn man nicht weiß, ob und zu welchem Teil sie wahre Aussagen enthalten oder lediglich streitvermeidende Gefälligkeitsaussagen sind. Ein solch unsinniges Ritual gehört abgeschafft.

Die Autoren der Studie sehen folgende grundsätzlichen Handlungsoptionen:
1. Komplettabschaffung der Zeugnispflicht als radikalste Lösung. Es müsste dann allerdings auf anderem Wege sichergestellt sein, dass ein ausscheidender Arbeitnehmer eine Bestätigung über seine ausgeübten Tätigkeiten und wahrgenommenen Funktionen erhält.

2. Beschränkung der gesetzlichen Zeugnispflicht auf eine aussagekräftige Darstellung der ausgeübten Tätigkeiten. Aus ihr muss auch hervorgehen, wie lange (z.B. 15 Monate) und mit welchem relativen Zeitanteil an der Gesamtbeschäftigung (z.B. 50%) die Tätigkeit wahrgenommen wurde. Es entsteht dann ein Dokument, das einer Stellenbeschreibung ähnelt. Informationen über ausgeübte Tätigkeiten sind laut unserer Studienergebnisse für einstellende Unternehmen auch die eindeutig wichtigste Information. Dies würde einen kompletten Verzicht auf wertende Aussagen, also auf das qualifizierte Zeugnis bedeuten. Aus Sicht der Autoren wäre das der zu favorisierende Weg.

3. Will man auf wertende Aussagen zu Leistung und Verhalten nicht gänzlich verzichten, dann sollten sie anhand eines vom Gesetzgeber vorgegebenen Kriterienkatalogs getroffen werden. Diese Standardisierung bewirkt eine stärkere Vereinheitlichung und damit eine bessere Vergleichbarkeit von Arbeitszeugnissen. Eine Bewertungsskala sollte ebenfalls standardisiert vorgegeben werden und nur drei Stufen umfassen: sehr deutlich über der betriebsüblichen Leistung  betriebsübliche Leistung  sehr deutlich unter der betriebsüblichen Leistung. Die Regeleinstufung wäre eine weit verstandene „betriebsübliche Leistung“. Die Spitzeneinstufung ist den wirklichen Leistungsträgern vorbehalten und darf nicht justitiabel sein, sondern muss allein der Einschätzung des Arbeitgebers vorbehalten sein. Die schlechteste Einstufung sollte im Ausnahmefall dann eingesetzt werden, wenn Leistung und/oder Verhalten des Mitarbeiters auch Überlegungen zu einer personen- oder verhaltensbedingten Kündigung rechtfertigen würden.

Bei diesen Handlungsvorschlägen ist zu sehen, dass es dem Arbeitgeber selbstverständlich völlig freisteht, einem geschätzten Mitarbeiter auf freiwilliger Basis jedwedes wertende Schreiben an die Hand zu geben; er ist nur nicht dazu verpflichtet.

Die einzelnen Handlungsoptionen sind im Rahmen der Studie detailliert ausgeführt und begründet, bis hin zu einem Vorschlag für eine gesetzliche Neufassung der Zeugnispflicht.

Veröffentlichung: Die Studie wird in ausführlicher Form im 3. oder 4. Quartal 2016 in Buchform beim SpringerGabler-Verlag/Wiesbaden unter dem Titel „Arbeitszeugnisse in Deutschland – Kritische Analysen zur Erstellung und zur Nutzung in der Personalauswahl“ veröffentlicht werden.

Steffi Grau, Klaus Watzka

Kontakt:
• Steffi Grau (Master of General Management): st.grau91@gmx.de
• Dr. Klaus Watzka (Professor für Allgemeine Betriebswirtschaft, insbesondere Personalwirtschaft): klaus.watzka@t-online.de, 03641/440120

ANLAGEN

Tab. 1: Ausführliche Ergebniszusammenfassung zur Zeugniserstellung

ZEUGNISERSTELLUNG
• In großen Unternehmen dominieren eindeutig qualifizierte Arbeitszeugnisse; in kleinen Unternehmen ist dagegen der Anteil einfacher Arbeitszeugnisse höher.

• 62,9 % aller Unternehmen erstellen bei Ausscheiden eines Mitarbeiters auch ohne explizite Anforderung ein qualifiziertes Zeugnis.

• Der durchschnittliche Zeitaufwand für ein einfaches Arbeitszeugnis beträgt 0,5 Stunden.

• Der durchschnittliche Zeitaufwand für ein qualifiziertes Arbeitszeugnis beträgt 1,2 Stunden. Kleine Unternehmen benötigen länger und weisen stärkere Schwankungen auf. Es bestehen Zweifel, ob die Unternehmen alle Vorbereitungsarbeiten einkalkuliert haben.

• Drei Viertel der Unternehmen halten den Aufwand für Arbeitszeugnisse für „angemessen“, ein Viertel für zu hoch.

• Arbeitszeugnisse werden im Durchschnitt 16,4 Tage nach Ausscheiden des Mitarbeiters übergeben. Kleine Unternehmen benötigen am längsten.

• Personalabteilungen sind bei 90 % der Unternehmen die wichtigsten beteiligten Akteure bei der Zeugniserstellung; bei 60 % agieren sie sogar allein. Vorgesetzte sind in 31 % der Fälle beteiligt, aber nie Alleinakteur. In kleinen und mittleren Unternehmen spielt die Geschäftsleitung eine wichtige Rolle. Komplettes Outsourcing gab es nur in einem Fall.

• Nur noch 7,3 % der Zeugnisse werden individuell angefertigt.

• Dominierendes Hilfsmittel sind bei 41,7 % Zeugnisgeneratoren vor selbst erstellten Textbausteinen (27,1 %) und Textbausteinen aus der Literatur oder dem Internet (24 %). Arbeitszeugnisse werden so immer stärker zu einem standardisierten Dokument.

• Als wichtigste unterstützende Unterlagen verwenden Unternehmen Formblätter für Zuarbeiten von Führungskräften (86,5 %), Anforderungsprofile (83,3 %), Personalakte (79,2 %), Stellenbeschreibungen (71,9 %) und frei formulierte Zuarbeiten von Führungskräften (54,2 %). Fast alle setzen mehr als eine unterstützende Unterlage ein.

• 49,5 % aller Zeugnisersteller haben keinerlei Schulung für diese Tätigkeit erhalten. Bei kleinen Unternehmen sind es sogar über 80 %.

• Nur etwa die Hälfte der durchgeführten Schulungen stellen ausführlichere Präsenzseminare dar. Die andere Hälfte hat eher informalen Charakter (z.B. Einarbeitung on the job, Kenntnisse aus Ausbildung oder Studium).

• Nahezu alle Teilnehmer (95,8 %) einer Schulung haben die Maßnahmen als „hilfreich“ eingestuft.

• Befragte ohne Schulungsmaßnahmen sehen nur zu 36,2 % Schulungsbedarf und wünschen sich dann mit einem Anteil von 46,7 % hauptsächlich Seminare/Weiterbildungen zum Thema.

• 85,3 % der Befragten haben sich schon selbständig mit Literatur zur Zeugniserstellung beschäftigt.

• 80 % fühlen sich bei der Erstellung von Zeugnissen „sicher“. Bei kleinen Unternehmen liegt der Wert nur bei 30 %.

• Befragte mit Schulungsmaßnahmen fühlten sich um 14,3 % sicherer bei der Zeugniserstellung als ungeschulte Personen.

• Die gravierendsten Probleme bei der Zeugniserstellung: Rekonstruktion des Lebenslaufs (28,3 %), Konflikt zwischen Wahrheit und Wohlwollen (18,3 %), Individualität des Zeugnisses (18,3 %).

• Nur ein Drittel der Unternehmen führt im Vorfeld der Zeugniserstellung ein Vorgespräch von etwa einer Viertelstunde mit dem Vorgesetzten. Vorgespräche mit dem Mitarbeiter selbst kommen nahezu nicht vor. Die wenigsten und kürzesten Gespräche finden in Großunternehmen statt.

• 38,5 % der Unternehmen lassen sich „manchmal“ einen Zeugnisentwurf vom Mitarbeiter selbst anfertigen; 2,1 % sogar „immer“.

• Nahezu alle Zeugnisse werden nach Erstellung Korrektur gelesen. Wichtigste Korrekturleser sind mit 70 % die Vorgesetzten des Mitarbeiters. Mitarbeiter selbst werden mit 16 % kaum als Korrekturleser eingesetzt.

• Die Spannweite der im qualifizierten Zeugnis zugrunde gelegten Bewertungskriterien liegt zwischen 2 und 17. Der Mittelwert im Gesamtsample beträgt 6,9 Beurteilungskriterien. Zeugnisse fallen damit sehr uneinheitlich aus.

• Beanstandungen des Mitarbeiters nach Zeugnisübergabe kommen bei 68 % der Unternehmen gar nicht oder in maximal 3 % der Fälle vor. 28 % der Unternehmen haben Beanstandungsquoten zwischen 3 % und 10 %. In großen Unternehmen kommen Beanstandungen häufiger vor.

• Zeugnisbesprechungen mit dem Mitarbeiter vor der Zeugnisübergabe erhöhen die Beanstandungsquote in kleinem Umfang.

• Beanstandungen des Mitarbeiters führen in 95 % der Unternehmen „immer“ (39,8 %) oder zumindest „manchmal“ (55,4 %) zu Zeugniskorrekturen.

• 86,7 % der Unternehmen hatten in den letzten fünf Jahren keine Arbeitsgerichtsprozesse wegen Zeugnissen. Der arithmetische Mittelwert für die Anzahl der Prozesse in fünf Jahren liegt bei 0,29 Prozessen.

• Nur die Hälfte der Unternehmen schätzt die Aussagekraft der von ihnen selbst erstellten Zeugnisse als „hoch“ oder „sehr hoch“ ein.
Kleine Unternehmen sind skeptischer als große Unternehmen.

• Geschulte Zeugnisersteller attestieren dem eigenen Zeugnis eine um etwa 17 % höhere Aussagekraft.

• Zeugniserstellung ist vielfach eine unbeliebte Tätigkeit. 45 % der Befragten fertigen „eher ungern“ (39,8 %) oder sogar „sehr ungern“ (5,4 %) Zeugnisse an. Bei großen Unternehmen ist die Tätigkeit am beliebtesten.

• Die Aufforderung an die Befragten zur Formulierung einer Zeugnispassage auf Basis einer Verhaltens- und Leistungsbeschreibung eines fiktiven Mitarbeiters (= Fallstudie) zeigte eine extreme Formulierungsvielfalt und wies nach, dass es eine einheitliche Zeugnissprache nicht gibt und auch eine einheitliche Notenskala für die Gesamtbewertung nicht existiert.

• Die häufigste Reaktion auf die Fallstudie zeigte, dass viele Unternehmen schwache Leistungen und negatives Verhalten im Arbeitszeugnis grundsätzlich nicht thematisieren. Damit wird die Umsetzung der Wahrheitspflicht problematisch.

Tab. 2: Ausführliche Ergebniszusammenfassung zur Zeugnisanalyse

ZEUGNISANALYSE

• Wichtigster beteiligter Akteur bei der Zeugnisanalyse ist mit 88,6 % der Personalbereich. Allerdings agiert er viel weniger allein als bei der Zeugniserstellung, sondern in 59,1 % der Fälle mit der Fachabteilung als Kooperationspartner, die ihrerseits nie allein agiert. In kleinen Unternehmen dominieren die Geschäftsleitungen mit 45,5 % als Alleinakteure.

• In großen Unternehmen sind durchschnittlich mehr als fünf Mitarbeiter im Personalbereich mit Analyse und Erstellung von Zeugnissen befasst. Die Prozesse sind also wenig spezialisiert.

• Die Hälfte der Unternehmen (50,5 %) nutzt bei der Personalauswahl die Arbeitszeugnisse nur „weniger intensiv“ (41,4 %) oder sogar „kaum“ oder „gar nicht“.

• Die komplette Bewerbungsunterlage wird von 47 % der Unternehmen innerhalb von maximal zehn Minuten analysiert; 22 % geben sich mehr als 26 Minuten Zeit. Die Standardabweichung liegt bei 4,4 Minuten.

• Die Analyse von Arbeitszeugnissen erfolgt bei 48,8 % der Unternehmen (= Modalwert) in einer Zeit zwischen 0-3 Minuten.

Große Unternehmen sind sowohl bei der Analyse der Bewerbungsunterlage, als auch von Zeugnissen am schnellsten.

• Arbeitszeugnisse sind in einer Bewerbungsmappe mit sehr deutlichem Abstand auf Lebenslauf und Anschreiben nur das drittwichtigste Dokument für die Personalauswahl.

• 54 % der Unternehmen lesen ein Arbeitszeugnis nicht komplett durch (Selektivleser).

• Die wichtigsten Bestandteile eines Zeugnisses sind für Selektivleser die Tätigkeitsbeschreibung (85 %), die Schlussformel (61 %) und die zusammenfassende Leistungsbewertung (54 %).

Auch für Komplettleser ist die Tätigkeitsbeschreibung mit Abstand das wichtigste Element.

• 54,5 % der Unternehmen (Modalwert) lehnen „manchmal“ Bewerber wegen schlechter Zeugnisse ab; 30,6 % tun das „selten“ oder „nie“.

• Den mit Abstand wichtigsten Vorteil von Arbeitszeugnissen sehen Unternehmen in der ausführlichen Tätigkeitsbeschreibung.

• Die Nachteile des Arbeitszeugnisses werden in der eingeschränkten Wahrheit und Aussagenpräzision aufgrund der Zeugnissprache gesehen.

• Nur 27 % der Befragten schätzen die Aussagekraft von Zeugnissen für die Personalauswahl als „hoch“ ein, niemand als „sehr hoch“. Der Modalwert liegt mit 56,2 % bei „mittelmäßiger“ Aussagekraft.

• 40 % sehen den Nutzen von Zeugnissen in Relation zum Aufwand nur „teilweise“ oder „nicht“ gerechtfertigt; 60 % votieren mit „eher ja“, im seltenen Einzelfall auch „eindeutig ja“.

• 40 % verrichten die Tätigkeit der Zeugnisanalyse „eher ungern“, 60 % mindestens „überwiegend gern“.

• 53,9 % aller Zeugnisanalytiker haben keinerlei Schulung für diese Tätigkeit erhalten. Bei kleinen Unternehmen sind es sogar über 90 %.

• Nur knapp die Hälfte der durchgeführten Schulungen (44,7 %) finden als ausführlichere Präsenzseminare statt. Zweitwichtigste Qualifikationsquelle sind „Kenntnisse aus Ausbildung oder Studium“ (28, 9%).

• Nahezu alle Teilnehmer (95,1 %) einer Schulung haben die Maßnahmen als „hilfreich“ eingestuft.

• Befragte ohne Schulungsmaßnahmen sehen nur zu 33,3 % Schulungsbedarf und wünschen sich dann mit einem Anteil von 61,5 % hauptsächlich Seminare/Weiterbildungen zum Thema.

• 68,2 % der Befragten fühlen sich bei der Zeugnisinterpretation mindestens „sicher“; 28,5 % „mittelmäßig sicher“. Die größte Unsicherheit ist bei kleinen Unternehmen zu finden.

• Befragte mit Schulungsmaßnahmen fühlten sich um 28 % sicherer bei der Zeugnisanalyse als ungeschulte Personen.

• Nur 46 % der Befragten bestätigen mit mindestens „eher ja“, dass es eine „einheitliche und eindeutige“ Zeugnissprache gibt.

• In einer Testsituation sollten die Befragten fünf vorgegebenen typischen Zeugnisaussagen auf einer Viererskala die richtige Bewertung zuordnen. Es zeigte sich u.a., dass

– nur bei drei von fünf Zeugnisaussagen mehr als 50 % der Befragten
richtig antworteten,
– nur ein einziger Befragter (von 88) alle Aussagen korrekt bewertete,
– die Streuung der Antworten mit einer Standardabweichung von 0,94
(bei einer Viererskala) sehr hoch ist.

Der Test zeigt, dass es eine einheitliche und eindeutige Zeugnissprache nicht gibt. Dies gilt auch für die zusammenfassende Leistungsbewertung.

• Referenzschreiben werden von 64,7 % nicht als aussagekräftiger als Arbeitszeugnisse angesehen. Als wichtigste Vorteile werden die größere Individualität, die Freiwilligkeit der Erstellung und die gute Personenkenntnis des Referenzgebers genannt. Als wichtigste Nachteile werden die starke Subjektivität und die generell positive Bewertung gesehen.

• Striktere gesetzliche Vorgaben für das Arbeitszeugnis werden mit einer großen Mehrheit von 85,2 % abgelehnt. Es zeigte sich bei der Auswertung, dass die Befragten gedanklich unzureichend zwischen Gesetz und Rechtsprechung trennen.

• Ein Viertel der Befragten machte Vorschläge zur Veränderung der Zeugnispraxis. Die häufigsten Vorschläge zielten auf

– Einführung von Standardkriterien zur Beurteilung,
– Schaffung einer einheitlichen Zeugnissprache,
– gänzliche Abschaffung von qualifizierten Zeugnissen und Beschränkung auf einfache Zeugnisse,
– Verzicht auf verbale Ausführungen und Einführung eines reinen Noten- oder Punktesystems.

Weitere Informationen:
http://www.eah-jena.de

Quelle: idw

(nach oben)


Messung der Luftverschmutzung durch Tauben

Marie de Chalup Wissenschaftliche Abteilung
Wissenschaftliche Abteilung, Französische Botschaft in der Bundesrepublik Deutschland

In Zusammenarbeit mit DigitasLbi [1] hat das französische Start-up Plume Lab die Aktion „Pigeon Air Patrol“ in London durchgeführt. Zehn abgerichtete Tauben wurden mit einem Sensor von 25 Gramm und einen Standortbestimmungsgerät GPS ausgerüstet, um die Ozonkonzentration, Stickstoffdioxide und flüchtige organische Verbindungen zu messen. Ziel diese Erprobung ist es, über drei Tage den Grad der Luftverschmutzung in London in der Hauptverkehrszeit zu quantifizieren.

In Zusammenarbeit mit DigitasLbi [1] hat das französische Start-up Plume Lab die Aktion „Pigeon Air Patrol“ in London durchgeführt. Zehn abgerichtete Tauben wurden mit einem Sensor von 25 Gramm und einen Standortbestimmungsgerät GPS ausgerüstet, um die Ozonkonzentration, Stickstoffdioxide und flüchtige organische Verbindungen zu messen. Ziel diese Erprobung ist es, über drei Tage den Grad der Luftverschmutzung in London in der Hauptverkehrszeit zu quantifizieren.

Das Start-up hat schon eine Internet- und eine Smartphone-App entwickelt, mit denen der Grad der Luftverschmutzung in ungefähr sechzig Städten weltweit im Stundentakt angezeigt wird. Plume Lab stützt sich dabei auf Daten, die von verschiedenen Einrichtungen veröffentlicht werden, wie z.B. AirParif [2] in Paris.

In Zusammenarbeit mit dem französischen Zentrum für wissenschaftliche Forschung (CNRS) werden in einem nächsten Schritt Menschen mit einem personengebundenen mobilen Sensor ausgerüstet, mit dem in Echtzeit der Grad der Luftverschmutzung gemessen wird, dem die Person draußen, in Verkehrsmitteln und zu Hause ausgesetzt ist (Quantified Environment). Mit der Unterstützung des London Imperial College werden hundert Beta-Tester in London mit solchen Sensoren ausgestattet. Um die Initiative auf die gesamte Hauptstadt ausweiten zu können, wirbt das Projekt derzeit in einer Förderkampagne auf der Online-Plattform Crowdfunder.co um finanzielle Unterstützung.

Mittelfristiges Ziel dieses Projektes ist der Aufbau eines „sozialen Netzwerks“ zur Luftverschmutzung auf der Grundlage der Daten, die von den Nutzern gesammelt wurden.

[1] DigitasLbi ist eine internationale Behörde im Bereich Digitales.

[2] Agentur zur Überwachung der Luftqualität in der Region Île-de-France

Quelle: „Des pigeons connectés pour surveiller la pollution“, Artikel aus Industrie&Technologies, 17.03.2016 – http://www.industrie-techno.com/des-pigeons-connectes-pour-surveiller-la-polluti…

Redakteur: Aurélien Gaufrès, aurelien.gaufres@diplomatie.gouv.fr

Weitere Informationen:
http://www.wissenschaft-frankreich.de/de/start-ups/messung-der-luftverschmutzung…

Quelle: idw

(nach oben)


Nach dem Infarkt: Schrittzähler motivieren zur Bewegung

Prof. Dr. Eckart Fleck Pressesprecher
Deutsche Gesellschaft für Kardiologie – Herz- und Kreislaufforschung e.V.

Schrittzähler und die regelmäßige Online-Dokumentation der zurückgelegten Strecke können Herz-infarkt-Patienten dabei unterstützen, auch längerfristig aktiv zu bleiben und ihre täglichen Gehstrecken sogar zu steigern. Sie können sinnvolle Instrumente in der Sekundärprävention darstellen, zeigt eine neue Studie, die auf der Jahrestagung der Deutschen Gesellschaft für Kardiologie in Mannheim präsentiert wurde.

„Schrittzähler in Kombination mit einer Online-Dokumentation der absolvierten Schrittzahlen sind hilfreiche Instrumente in der Sekundärprävention nach Myokardinfarkt, um Patienten langfristig zu körperlicher Aktivität zu motivieren“, sagt Dr. Harm Wienbergen (Klinikum Links der Weser, Bremen) auf der 82. Jahrestagung der Deutschen Gesellschaft für Kardiolo-gie (DGK). Vom 30. März bis 2. April 2016 treffen in Mannheim auf diesem Kongress rund 8.500 aktive Teilnehmer aus 25 Ländern zusammen.

Körperliche Inaktivität ist ein wichtiger modifizierbarer Risikofaktor in der Sekundärprävention nach Myokardinfarkt. „Erfahrungsgemäß ist es allerdings eine durchaus herausfordernde Aufgabe, Patientinnen und Patienten nach einem Herzinfarkt auch langfristig zu motivieren, körperlich aktiv zu werden und zu bleiben“, so Dr. Wienbergen.

Im Rahmen der randomisierten IPP-Präventions-Studie („Intensive Prevention Program after Myocardial Infarction in Northwest Germany“), an der das Bremer Institut für Herz- und Kreislaufforschung, das Institut für Informatik Oldenburg (OFFIS), das Klinikum Oldenburg und das Herz- und Gefäßzentrum Bad Bevensen beteiligt sind , wurde untersucht, ob Schrittzähler und eine Online-Dokumentation der Schrittzahlen hilfreiche Instrumente in der Langzeit-Prävention darstellen können.

Den Patienten wurden nach einem akuten Myokardinfarkt und im Anschluss an die Rehabilitation Schrittzähler zur Erfassung ihrer körperlichen Aktivität angeboten und sie wurden eingeladen, ihre Schrittzahlen auf einer Internet-Seite zu dokumentieren. Es erfolgte ein Feedback durch das Studienzentrum. Alle Patienten dieser Studiengruppe nahmen an einem Präventionsprogramm mit Gruppenfortbildungen und Telefonvisiten teil.

Schrittzähler sind populär, Schrittzahlen nehmen zu
„Der Anteil der Patienten, die die Schrittzähler regelmäßig nutzten und die Daten online dokumentierten, lag bei 75 Prozent der 122 untersuchten Patienten“, so Dr. Wienbergen. Die Zahl der Online-Dokumentationen pro Patient und Monat nahm im zeitlichen Verlauf zu.
Bei den Patienten, die mindestens sechs Monate lang ihre Schrittzahlen dokumentierten, kam es im Beobachtungszeitraum zu einer signifikanten Zunahme der täglichen Schrittzahlen von 7.453 auf 9.044 Schritte. Dr. Wienbergen: „Es war also jedenfalls in dieser Studiengruppe nicht so, dass mit zunehmendem zeitlichen Abstand vom Myokardinfarkt die körperliche Aktivität wieder vernachlässigt wurde.“

Mehr Schritte, bessere klinische Werte
Bei den Patienten, bei denen eine Steigerung der Schrittzahlen um mehr als 30 Prozent dokumentiert wurde, kam es im Vergleich zur gesamten Studiengruppe auch zu einer stärkeren Verbesserung der klinischen Parameter LDL-Cholesterin, HDL-Cholesterin und Body Mass Index. Ebenso schnitt diese Gruppe bei der körperlichen Aktivität, gemessen anhand des IPAQ-Fragebogens (International Physical Activity Questionnaire), deutlich besser ab.

Informationen:
Deutsche Gesellschaft für Kardiologie, Presse/Kommunikation
Prof. Dr. Eckart Fleck, Pressesprecher
Pressebüro während des Kongresses in Mannheim
Tel.: 0621 4106-5002; 0621 4106-5005
Hauptstadtbüro Berlin
Leonie Nawrocki
Tel.: 030 206 444 82
Geschäftsstelle Düsseldorf
Kerstin Krug
Tel.: 0211 600692-43,
presse@dgk.org
B&K-Bettschart&Kofler Kommunikationsberatung
Dr. Birgit Kofler
Tel.: 0172 7949286
kofler@bkkommunikation.com

Die Deutsche Gesellschaft für Kardiologie – Herz und Kreislaufforschung e.V. (DGK) mit Sitz in Düsseldorf ist eine wissenschaftlich medizinische Fachgesellschaft mit über 9500 Mitgliedern. Ihr Ziel ist die Förderung der Wissenschaft auf dem Gebiet der kardiovaskulären Erkrankungen, die Ausrichtung von Tagungen und die Aus-, Weiter- und Fortbildung ihrer Mitglieder. 1927 in Bad Nau-heim gegründet, ist die DGK die älteste und größte kardiologische Gesellschaft in Europa. Weitere Informationen unter www.dgk.org.

Weitere Informationen:
http://www.dgk.org
http://www.dgk.org/presse
http://www.kardiologie.org

Quelle: idw

(nach oben)


Neue Plattform zur Erforschung der Abwasserreinigung durch Pflanzen in Bordeaux

Marie de Chalup Wissenschaftliche Abteilung
Wissenschaftliche Abteilung, Französische Botschaft in der Bundesrepublik Deutschland

Die Biostation wurde neben dem existierenden Klärwerk „Clos-de-Hilde“ aufgebaut. Dort werden auf einem Gelände von 6 000 m2 mehrere Projekte zur Reinigung von Abwasser getestet: sechs Becken wurden ausgebaggert, um drei Arten von pflanzlichen Abwasserbehandlungszonen kombiniert mit zwei Arten von verunreinigtem Wasser zu untersuchen. In einem Teil der Becken wurde der vor Ort natürlich vorkommende Boden genutzt, bei den anderen gemischte Böden aus importierten Rohstoffen.

Die Biostation wurde neben dem existierenden Klärwerk „Clos-de-Hilde“ aufgebaut. Dort werden auf einem Gelände von 6 000 m2 mehrere Projekte zur Reinigung von Abwasser getestet: sechs Becken wurden ausgebaggert, um drei Arten von pflanzlichen Abwasserbehandlungszonen kombiniert mit zwei Arten von verunreinigtem Wasser zu untersuchen. In einem Teil der Becken wurde der vor Ort natürlich vorkommende Boden genutzt, bei den anderen gemischte Böden aus importierten Rohstoffen.

In diesen Becken sollen Phänomene wie Evaporation, Evapotranspiration, Bodeninfiltration usw. nachgestellt und optimiert werden. Ziel ist der biologische Abbau der Schadstoffe durch, unter anderem, Ansammlungen in den Wurzeln der Pflanzen. Solche biologischen Kläranlagen existieren bereits [1]. An diesem neuen Standort sollen nun mehrere Methoden gleichzeitig verglichen werden, um die besten Lösungen auszuwählen und sie anschließend an das zu behandelnde Wasser anzupassen.

Die erste Testphase geht über drei Jahre – bis 2018. Dann sollen Becken in industrieller Größe für die kommunale Abwasserbehandlung gebaut werden. Das Projekt Biotrytis wurde 2013 unter der Leitung des IRSTEA gestartet. Die Kosten von 2 Mio. € werden von der Stadt Bordeaux, der Wasserbehörde Adour-Garonne und dem nationalen Amt zum Schutz der Gewässer (ONEMA) getragen.

[1] Siehe : „Eine biologische Kläranlage zur Reinigung industrieller Abwässer“, Wissenschaft Frankreich, 18.02.2016 – http://www.wissenschaft-frankreich.de/de/umwelt-klima-agronomie/eine-biologische…

Weitere Informationen:
Webseite des IRSTEA (auf Englisch und Französisch): irstea.fr
Webseite des ONEMA (auf Englisch und Französisch): onema.fr

Quelle: „Epuration des eaux. Inauguration d’une biostation expérimentale inédite“, Pressemitteilung des IRSTEA, http://www.irstea.fr/toutes-les-actualites/departement-eaux/epuration-pollution-…

Redakteur: Sean Vavasseur, sean.vavasseur@diplomatie.gouv.fr

Weitere Informationen:
http://www.wissenschaft-frankreich.de/de/umwelt-klima-agronomie/neue-plattform-z…

Quelle: idw

(nach oben)


Die dunkle Seite der Religion – Wie Menschenopfer halfen, hierarchische Gesellschaften aufzubauen

Petra Mader Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Menschheitsgeschichte / Max Planck Institute for the Science of Human History

Rituelle Menschenopfer spielten eine wichtige Rolle beim Aufbau hierarchischer Gesellschaften. Denn sie trugen entscheidend dazu bei, dass die sozialen Eliten ihre Macht über die unteren sozialen Schichten festigen und weiter ausbauen konnten. Das zeigt eine neue in Nature veröffentlichte Studie. Wissenschaftler des Max-Planck-Instituts für Menschheitsgeschichte in Jena, der Universität Auckland und der Viktoria Universität Wellington untersuchten dabei den Zusammenhang zwischen der Tötung von Menschen und wie ungleich oder hierarchisch eine Gesellschaft strukturiert war.

„Religion wird traditionell als ein Schlüsselfaktor für Moral und Kooperation in Ge-sellschaften gesehen, aber unsere Studie zeigt, dass religiöse Rituale noch eine andere, dunkle Rolle bei der Entwicklung moderner Gesellschaften spielen“, sagt Joseph Watts von den Universität Auckland, Hauptautor der Studie.

Das Forschungsteam verwendete computerbasierte Methoden aus der Evolutions-biologie, um die Daten von 93 historischen Kulturen des sogenannten austronesi-schen Raums zu analysieren. Menschenopfer waren in den analysierten Gesellschaften weit verbreitet: 40 von ihnen praktizierten in der einen oder anderen Form ritualisierte Tötungen. Der Begriff „austronesisch“ bezieht sich auf eine große Sprachfamilie, deren Ursprungsland Taiwan ist und deren Verbreitungsgebiet, sich über weite Teile des indischen und Teile des pazifischen Ozeans erstreckt. Austronesische Kulturen bilden eine Art natürliches Labor für interkulturelle Studien, da sie eine riesige Bandbreite an Religionen, Sprachen, Gesellschaftsgrößen und -formen aufweisen und in unterschiedlichsten klimatischen und geografischen Regionen angesiedelt sind.

Die Methoden der rituellen Tötungen in diesen Kulturen waren vielfältig und teilweise extrem grausam. Anlass für die Tötung konnte zum Beispiel das Begräbnis eines Anführers, die Einweihung eines neuen Bootes oder Hauses oder die Bestrafung für die Verletzung von Traditionen oder Tabus sein. Die Opfer hatten typischerweise einen niedrigen sozialen Status, sie waren beispielsweise Sklaven, während die Initiatoren der Menschenopfer normalerweise zu den gesellschaftlichen Eliten gehörten, wie zum Beispiel Priester oder Häuptlinge.

Für die Studie unterteilten die Wissenschaftler die 93 unterschiedlichen Kulturen in drei Kategorien mit geringer, moderater oder starker soziale Schichtung. Dabei zeigte sich, dass die Kulturen mit den am stärksten ausgeprägten Hierarchien am ehesten Menschenopfer praktizierten(67 Prozent). Bei den Kulturen mit moderater sozialer Schichtung lag der Anteil bei 37 Prozent und bei den am wenigsten hierarchisch gegliederten Gesellschaften war dieser Anteil mit 25 Prozent am geringsten.

„Die Machthaber benutzten Menschenopfer dazu, Tabubrüche zu bestrafen, die Angehörigen der unteren sozialen Schichten zu entmutigen und ihnen Angst einzuflößen. Dadurch waren sie in der Lage, soziale Kontrolle aufzubauen und zu verstärken“, sagt Joseph Watts.

Russell Gray, Direktor der Abteilung Sprach- und Kulturevolution am Max-Planck-Institut für Menschheitsgeschichte und Co-Autor der Studie, erläutert: „Menschenopfer boten ein besonders effektives Mittel der sozialen Kontrolle, da sie eine übernatürliche Rechtfertigung für die Bestrafung lieferten. Herrscher, wie Priester und Häuptlinge, galten oft als Gesandte der Götter, und die rituelle Tötung eines Menschen war die ultimative Demonstration ihrer Macht.“

Ein besonderes Merkmal der Studie ist, dass das Team durch die Anwendung computerbasierter evolutionärer Methoden rekonstruieren konnte, wie sich in der Geschichte des pazifischen Raums das Ritual des Menschenopfers und die sozialen Unterschiede innerhalb der jeweiligen Gesellschaft verändert haben. Auf diese Weise konnten die Wissenschaftler untersuchen, ob die Praxis der Menschenopfer eine Folge der Hierarchien oder der Auslöser für weitere Veränderungen in der sozialen Schichtung der Gesellschaften war.

Laut Quentin Atkinson von der Universität Auckland, einem weiteren Co-Autor der Studie, waren Menschenopfer ein wesentlicher Faktor für die Etablierung sozialer Differenzen: „Wie unsere Ergebnisse zeigen, führten solche Tötungsrituale dazu, dass Gesellschaften mit hoher Wahrscheinlichkeit eine starke Hierarchie entwickelten und eher nicht zu einer egalitären Gesellschaftsform zurückkehrten.“

Orginalveröffentlichung
Watts, J., Sheehan, O., Atkinson, Q.D., Bulbulia, J., & Gray, R.D.: Ritual human sacri-fice promoted and sustained the evolution of stratified societies, Nature (2016),

Weitere Informationen
Prof. (Univ. Auckland) Russell Gray, Ph.D. (Univ. Auckland)
Direktor Abteilung Sprach- und Kulturevolution
Max-Planck-Institut für Menschheitsgeschichte, Kahlaische Str. 10,
07745 Jena, Germany, +49 3641 686-800,
E-Mail: gray@shh.mpg.de

Das Max-Planck-Institut für Menschheitsgeschichte
Das Max-Planck-Institut für Menschheitsgeschichte hat sich zum Ziel gesetzt, die Geschichte der Menschheit unter Verwendung modernster analytischer und genetischer Methoden umfassend zu erforschen. Um grundlegende Fragen zur biologischen und kulturellen Entwicklung des Menschen von der Steinzeit bis heute zu beantworten, arbeiten Wissenschaftlerinnen und Wissenschaftler unterschiedlicher Disziplinen, wie Genetik, Linguistik, Archäologie, Anthropologie und Geschichte zusammen, und entwickeln gemeinsam innovative Methoden insbesondere in den Bereichen Gensequenzierung, Sprachdokumentation, Bioinformatik und Phylogeographie.

Weitere Informationen:

http://www.shh.mpg.de

Anhang

FAQs und weitere Materialien_PDF
https://idw-online.de/de/attachment49273

Quelle: idw

(nach oben)


Hygienische Wasseruntersuchung ab sofort einfach und kostengünstig möglich

Dr. Claudia Vorbeck Presse und Öffentlichkeitsarbeit
Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik IGB

Wasser muss für den menschlichen Gebrauch frei von Krankheitserregern, ge-nusstauglich und rein sein. Dafür hat nicht nur die öffentliche Trinkwasserver-sorgung, sondern auch der Haus- und Wohnungsbesitzer selbst zu sorgen. Ab sofort kann – neben wesentlichen chemisch/physikalischen Qualitätsparametern – auch der hygienische Zustand des häuslichen Trinkwassers selbst überprüft werden.

Verunreinigungen des Trinkwassers durch beispielsweise Blei aus Hausleitungen, Nickel aus Armaturen oder Nitrat vor allem bei Hausbrunnen sind bekannte chemisch-physikalische Probleme, die die Wasserqualität negativ beeinflussen. Weniger bekannt ist, dass das Trinkwasser am Entnahmepunkt im Haushalt derart bakteriologisch belastet sein kann, dass es als »genussuntauglich« eingestuft werden muss. Die Ursachen kön-nen vielfältig sein.

Belastete Hausleitungen
In Wasserleitungen können sich Krankheitserreger ansiedeln, wenn es von außen zu Verunreinigungen kommt, z. B. durch Bau- oder Sanitärarbeiten, defekte Leitungen oder die Nähe zu landwirtschaftlichen Anlagen, insbesondere bei Hausbrunnen. Ein gehäuftes Auftreten von Fäkal- oder Darmkeimen wie Escherichia coli und coliformen Keimen, welche zu Durchfallerkrankungen führen können, deuten auf Hygienemängel hin. Pseudomonas aeruginosa gilt selbst in geringen Keimzahlen als gesundheitlich bedenklich, vor allem bei älteren Menschen und Säuglingen. In wenig genutzten Leitungen mit ste-hendem Wasser, etwa in Zweitwohnsitzen, können Biofilme in Leitungen zu vermehrtem Auftreten von Bakterien im Trinkwasser führen.

Hausbrunnen
Über eine Million Menschen in Deutschland versorgen sich über einen eigenen Hausbrunnen mit Trinkwasser. Neben Problemen mit erhöhten Nitratwerten haben diese oft mit unzureichender Hygiene zu kämpfen. Ursachen können beispielsweise bauliche Mängel an den Hausbrunnen selbst sein (Niederschläge, Blätter oder Kleintiere gelangen in den Brunnen) oder das Grundwasser selbst ist hygienisch nicht in Ordnung.

Eingeschränkte Nutzung
Da bakteriologisch verunreinigtes Wasser die Gesundheit wesentlich beeinflussen kann, sollte dieses – sofern eine Belastung festgestellt wurde – nur eingeschränkt genutzt werden. So ist beispielsweise das Abkochen des Wassers eine einfache Methode für eine kurzfristige Desinfektion. Dies empfiehlt sich für die Zubereitung von Speisen und zum Zähneputzen. Für die Zubereitung von Speisen muss das Wasser dabei die Siedetemperatur für mindestens drei Minuten halten (wallend kochen). Das Wasser darf von gesunden Personen grundsätzlich für die Körperpflege, etwa zum Hände waschen, verwendet werden. Besteht aber eine Kontamination mit Pseudomonas aeruginosa, sollte man damit nicht duschen. Es besteht die Gefahr von Infektionen der Atemwege, da diese Bakterien durch feinste Wassertröpfchen eingeatmet werden können.

Test bringt Sicherheit
AQA bietet nun einen unabhängigen und zuverlässigen WasserCheck für die bakteriolo-gische Qualitätsüberprüfung für private Haushalte an. Dabei entnimmt der Konsument selbst die Wasserprobe nach genauer Anleitung mittels eines Testkits und schickt die Probe an das Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik IGB. Das Wasser wird auf die in der Trinkwasserverordnung festgelegten bakteriologischen Werte wie coliforme Bakterien, Escherichia coli, Enterokokken und Pseudomonas aeruginosa analysiert. Der WasserCheck Bakteriologie unterliegt höchsten Qualitätsanforderungen und beinhaltet eine leicht verständliche Anleitung zur Probenentnahme. Das Ergebnis wird den Grenzwerten aus der Trinkwasserverordnung gegenübergestellt und Über-schreitungen werden gesondert ausgewiesen. Damit kann jeder Haushalt die Qualität des Trinkwassers überprüfen lassen – seriös und sicher. Der WasserCheck Bakteriologie ist online unter www.wassercheck.com verfügbar und kostet Euro 89,90 zzgl. Versand-kosten.

Weitere Informationen:
http://www.igb.fraunhofer.de/de/presse-medien/presseinformationen/2016/pi-wasser…

Anhang

Presseinformation zum Download
https://idw-online.de/de/attachment49257

Quelle: idw

(nach oben)


Die üblichen Verdächtigen: Eine eingeschworene Bakteriengemeinschaft räumt in der Nordsee auf

Dr. Manfred Schloesser Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für marine Mikrobiologie

Jedes Frühjahr blühen in der Nordsee die Algen. Dabei können von Jahr zu Jahr unterschiedliche Algenarten die Überhand gewinnen. Bei den Bakterien, welche die Algen wieder abbauen, herrschen dennoch alljährlich dieselben spezialisierten Gruppen vor.

Kleine Algen, die zu Abertausenden in jedem Milliliter Meerwasser leben, haben große Auswirkungen. Zusammen sind sie ebenso wichtig wie die Landpflanzen, um Sauerstoff zu produzieren und Kohlendioxid aus der Atmosphäre zu entfernen. Doch die Algen sind kurzlebig. Nach ihrem Tod werden sie von Bakterien zersetzt. Dadurch wird das aufgenommene Kohlendioxid zum Großteil wieder frei.

Über 5 Millionen Bakteriengene erlauben einen Einblick in mikrobielle Prozesse in der Deutschen Bucht
Um diesen Teil des marinen Kohlenstoffkreislaufs zu verstehen, muss man also erforschen, wie genau die Bakteriengemeinschaft des Meeres die Algen abbaut. Deshalb haben Wissenschaftler des Max-Planck-Instituts für Marine Mikrobiologie in Zusammenarbeit mit der Biologischen Anstalt Helgoland des Alfred-Wegener-Instituts in einer umfassenden Studie die Dynamik von Bakterien und Algen vor der Insel Helgoland während der alljährlichen Frühjahrsblüte untersucht. Die Forscher um Hanno Teeling, Bernhard Fuchs und Rudolf Amann vom Bremer Max-Planck-Institut analysierten über einen Zeitraum von vier Jahren mehr als 11.000 Datenpunkte. Sie sequenzierten fast 450 Milliarden Basenpaare aus dem Erbgut der ansässigen bakteriellen Gemeinschaften. So erhielten sie Informationen über mehr als 5 Millionen Bakteriengene – das entspricht etwa dem 200-fachen der Gene des menschlichen Erbguts. Es sind so viele Daten, dass die online frei zugängliche Veröffentlichung anstelle herkömmlicher Abbildungen ganze Poster enthält.

Spezialisierte Bakterien zersetzen Algenbiomasse
„Aus einer früheren Studie wissen wir, dass sich die Bakteriengemeinschaft verändert, während sie die Algen einer Frühjahrsblüte abbaut „, sagt Hanno Teeling. Spezialisierte Bakteriengruppen begleiten verschiedene Phasen der Blüte und bauen nach und nach einen Großteil der Algenbiomasse ab. „Die nun vorliegende Studie zeigt: Es scheint dabei weit weniger bedeutsam zu sein als wir dachten, welche Algen gerade ihre Blütezeit haben. In verschiedenen Jahren können unterschiedliche Algenarten die Frühjahrsblüte dominieren“, erklärt Bernhard Fuchs. „Aber trotzdem haben wir stets eine ähnliche Abfolge der vorherrschenden Bakteriengruppen beobachtet.“

Offensichtlich sind also nicht die Algen selbst, sondern vor allem deren Bestandteile – allen voran die sogenannten Mehrfachzucker oder Polysaccharide – entscheidend dafür, welche Bakterien sich vorrangig vermehren. „So ist es möglich, dass Jahr für Jahr die gleichen Bakterien auftauchen, auch wenn die Frühjahrsblüte der Algen ganz unterschiedlich ausfällt“, so Fuchs. Ein Beispiel: Zwischen 2009 und 2011 waren Kieselalgen die häufigsten Algen in der Frühjahrsblüte, während 2012 Silikoflagellaten der Gattung Chattonella vorherrschten. Trotzdem war die während der Blüten auftretende Bakteriengemeinschaft sehr ähnlich, insbesondere innerhalb der Gruppe der sogenannten Flavobakterien, denen vermutlich eine Schlüsselrolle beim Abbau von Algenpolysacchariden zukommt. So dominierten beispielsweise während aller vier Studienjahre Flavobakterien der Gattungen Polaribacter und Formosa.

Und nicht nur die Bakteriengruppen zeigen immer gleiche Muster. „Als wir einen genauen Blick darauf warfen, wofür die untersuchen Gene eigentlich verantwortlich sind, wurde deutlich: Es ist immer eine ähnliche zeitliche Abfolge von Genen, die den Abbau bestimmter Polysaccharide regeln“, sagt Hanno Teeling. „Das deutet darauf hin, dass unterschiedliche Algen in der Frühjahrsblüte ähnliche oder sogar die gleichen Polysaccharide haben.“

Neue Teile im Kohlenstoffpuzzle
Im nächsten Schritt wollen die Bremer Forscher denjenigen bakteriellen Enzymen auf den Zahn fühlen, die diese Polysaccharide abbauen. Welche Enzyme greifen welche Algenpolysaccharide an? Wie machen sie das? „Daraus können wir ableiten, welche die wichtigsten Algenpolysaccharide sind“, erläutert Rudolf Amann. „Und mit dieser Information können wir dann einen weiteren Puzzlestein in unserem Verständnis des Kohlenstoffkreislaufs des Meeres ergänzen.“

Originalveröffentlichung (open access)
Recurring patterns in bacterioplankton dynamics during coastal spring algae blooms
Hanno Teeling, Bernhard Fuchs, Christin Bennke, Karen Krüger, Meghan Chafee, Lennart Kappelmann, Greta Reintjes, Jost Waldmann, Christian Quast, Frank Oliver Glöckner, Judith Lucas, Antje Wichels, Gunnar Gerdts, Karen Wiltshire, Rudolf Amann

Rückfragen bitte an
Dr. Hanno Teeling / 0421 2028 976 / hteeling@mpi-bremen.de
PD Dr. Bernhard Fuchs / 0421 2028 935 / bfuchs@mpi-bremen.de
Prof. Dr. Rudolf Amann / 0421 2028 930 / ramann@mpi-bremen.de

Beteiligte Institute
Max-Planck-Institut für Marine Mikrobiology, Bremen
Alfred-Wegener-Institut für Polar- und Meeresforschung, Helgoland und List auf Sylt

Weitere Informationen:
http://www.mpi-bremen.de
Veröffentlichung: http://elifesciences.org/content/5/e11888v1

Anhang
Blick auf Helgoland
https://idw-online.de/de/attachment49451

Quelle: idw

(nach oben)


Aktuelle Studie: Zecken fast ganzjährig und selbst in waldfernen Gärten aktiv

Florian Klebs Presse- und Öffentlichkeitsarbeit
Universität Hohenheim

Der Lebensraum der Zecken beginnt vor der Haustür – so lautet das wichtigste Ergebnis einer aktuellen Studie der Universität Hohenheim in rund 100 Gärten aus dem Großraum Stuttgart. Dank Klimawandel sind die Spinnentiere auch nicht mehr nur im Sommer, sondern fast ganzjährig aktiv, so Prof. Dr. Ute Mackenstedt auf einer Pressekonferenz am heutigen Dienstag.

Insgesamt ca. 221 Menschen erkrankten in Deutschland im vergangenen Jahr an der Hirnhautentzündung FSME, die durch Zecken übertragen wird, eine verhältnismäßig geringe Zahl. Auch 2014 war die Zahl mit 265 gemeldeten Fällen unterdurchschnittlich: 2013 waren es noch 420.

Doch der Trend ist trügerisch, kommentiert Prof. Dr. Mackenstedt von der Universität Hohenheim. „Grund für die rückläufigen Zahlen sind zwei besonders heiße und trockene Sommer“, vermutet die Zecken-Expertin. „Bei solchen Temperaturen sind weder Mensch noch Ixodes ricinus, der Gemeine Holzbock, sonderlich aktiv, so dass beide nicht zusammen kommen.“

Neue Erkenntnis 1: Zecke wird zum quasi ganzjährig aktiven Tier
Gleichzeitig bewirke das veränderte Wetter jedoch, dass Zecken bereits ab Februar und bis in den Dezember hinein aktiv seien. Die Gefahr: „Wir sind es nicht gewohnt, in den ehemals kalten Monaten mit Zeckenstichen zu rechnen und schützen uns nicht entsprechend.“
Auch Ärzte seien noch nicht unbedingt gewohnt bei FSME-Symptomen außerhalb des Sommers gleich an Hirnhautentzündung zu denken. Doch: „Der Klimawandel hat die Zecke in Deutschland zu einem quasi ganzjährig aktiven Tier gemacht.“

Erstmals Zeckenaktivität an Weihnachten
Bestätigt wurden diese Ausführungen von Dr. Olaf Kahl, Geschäftsführer der Berliner Firma tick-radar. Dabei handelt es sich um einen Informations-Dienstleister mit eigenem Forschungsansatz zum Thema Zecken mit Schwerpunkt auf Zeckenaktivität (Homepage zeckenwetter.de).
„In diesem Winter haben wir in unseren Zeckenstationen sogar an den Weihnachtsfeiertagen aktive Zecken gefunden“, berichtete Dr. Kahl.

Neue Erkenntnis 2: Gärten werden als Lebensraum von Zecken unterschätzt
Auch in anderer Hinsicht würden sich viele Menschen in trügerischer Sicherheit wähnen: Nämlich im eigenen Garten. Zu Unrecht: „Wer aus der Haustür tritt, steht im Lebensraum der Zecken“, fasst Prof. Dr. Mackenstedt die Ergebnisse einer laufenden Studie zusammen.
Seit 2014 kontrolliert die Parasitologin rund 100 Gärten im Großraum Stuttgart regelmäßig auf Zecken. Ergebnis: „Inzwischen können wir in 60 Prozent aller Gärten Zecken nachweisen – in Einzelfällen fanden wir in einer halben Stunde bis zu 800 Tiere.“
Bislang beschränken sich die Untersuchungen auf den Raum Stuttgart. „Wir können jedoch davon ausgehen, dass sich die Ergebnisse auf andere Städte übertragen lassen.

Eingeschleppt durch Vögel, Haus- und Wildtiere
Zur Überraschung der Studienleiterin scheinen sich die Blutsauger in ganz unterschiedlichen Umgebungen wohlzufühlen: vom verwilderten Garten am Waldrand bis zum akkurat gepflegten Stadtgarten. Faktoren wie ein naher Wald, Unterholz und hohes Gras begünstigen zwar große Zeckenpopulationen, sind aber keinesfalls Voraussetzung. „Selbst in kleinen und gepflegten Gärten in den Stadtaußengebieten waren die Zecken noch anzutreffen.“
Ein Grund für die große Verbreitung sind Haus-, Wild- und Nagetiere: „Wir haben insgesamt drei verschiedene Arten von Zecken gefunden. Eine davon wird vor allem durch Vögel verbreitet.“ Andere seien typisch für Wild- und Haustiere. „Man kann einen Garten nicht zeckenfrei halten“, schlussfolgert Prof. Mackenstedt. „Einmal eingeschleppt, bilden sie stabile Populationen.“
Ein weiterer Befund der Studie: Die Tiere breiten sich nicht gleichmäßig in den Gärten aus, sondern beschränken sich mitunter auf extrem kleine Stellen. „In einem Garten fanden wir Zecken nur in einem kleinen Rosmarinstrauch.“
Laut Zecken-Expertin Prof. Dr. Mackenstedt zeigten die Ergebnisse, dass der Mensch lernen müsse, mit Zecken zu leben: „Wir müssen akzeptieren, dass wir die Zecken nicht vollständig vermeiden können. Umso wichtiger ist es, sich entsprechend zu schützen.“

Verbreitungsgebiete in Deutschland weiten sich aus
Nicht nur im Jahresverlauf, auch geografisch dehne sich die Aktivität der Zecken aus, berichtet PD Dr. Gerhard Dobler auf der Pressekonferenz. Der Mediziner leitet das Institut für Mikrobiologie der Bundeswehr und ist Leiter des Deutschen Konsiliarlabors für Frühsommer-Meningoenzephalitis (FSME).
Die Gebiete mit FSME-Vorkommen lägen überwiegend in Baden-Württemberg und Bayern und in kleineren Teilen von Thüringen, Hessen, Sachsen und Rheinland-Pfalz. In den letzten Jahren mehrten sich allerdings auch Berichte von FSME-Fällen außerhalb dieser bekannten Verbreitungsgebiete, u.a. in Mecklenburg-Vorpommern und in Sachsen-Anhalt.
In Baden-Württemberg gelten 44 Landkreise als endemisch für die FSME. Davon haben im Jahr 2015 insgesamt 28 Landkreise Erkrankungsfälle gemeldet. Darunter lag der Landkreis Ravensburg mit elf gemeldeten Erkrankungsfällen an der Spitze in Baden-Württemberg.

Bandbreite der übertragenen Krankheiten ist groß
Gleichzeitig sei die Bandbreite der Krankheiten, die durch Zecken übertragen würden, größer als oft bekannt, führte Dr. Rainer Oehme vom Landesgesundheitsamt Stuttgart aus. So können die Spinnentiere Viren, Bakterien und auch Parasiten übertragen.
Die bisher wichtigsten Pathogene in Deutschland seien das FSME-Virus und das die Lyme-Borreliose auslösende Bakterium Borrelia burgdorferi sensu lato. Aber auch in Zellen lebende Bakterien, wie Rickettsien, Anaplasmen, Ehrlichien und Coxiella burnetii (der Erreger des Q-Fiebers) seien nachgewiesen worden. Für den Erreger der Hasenpest (Francisella tularensis) sei auch die Übertragung durch einen Zeckenstich beschrieben worden.

Die Liste der Pathogen sei sicher noch nicht abgeschlossen, denn in jüngster Vergangenheit seien zwei neue Pathogene gefunden worden (Candidatus Neoehrlichia mikurensis und Borrelia miyamotoi, eine Rückfallfieberborrelie). Bei den Parasiten seien in Deutschland die Babesien zu nennen.

HINTERGRUND: Gartenstudie
In ihrer Gartenstudie zählt Prof. Dr. Mackenstedt seit 2014 Zecken in 100 Gärten im Raum Stuttgart und erfasst die Merkmale der verschiedenen Gärten (Waldnähe, naturbelassener Garten/gepflegter Garten). Darunter sind sowohl Haus- als auch Obst- und Schrebergärten, die meisten davon mit einer Fläche von 400 Quadratmetern oder mehr. Viele der Gartenbesitzer beteiligen sich an der sogenannten „Beflaggung“. Dabei ziehen die Forscher weiße Stoffbahnen über Rasen und Büsche hinter sich her. Die Zecken wechseln auf die Zeckenfahnen und werden anschließend abgesammelt und gezählt. Diese Methode erfasst nicht alle in einem Garten lebenden Zecken, sondern nur die Tiere, die sich auf Wirtssuche befinden und deshalb an Pflanzen emporklettern.
Text: D. Barsch / Klebs

Weitere Informationen:
http://www.zeckenkongress.de

Quelle: idw

(nach oben)


Grundwasser: weltweit wichtigste Trinkwasserressource

Monika Landgraf Presse, Kommunikation und Marketing
Karlsruher Institut für Technologie

Grundwasser ist weltweit die wichtigste Süßwasserressource, allein in Deutschland stammen 75 Prozent des Trinkwassers aus Quellen und Brunnen. In vielen Teilen der Erde übersteigt die Wasserentnahme jedoch die Grundwasserneubildung.

„Grundwasser ist nicht nur unsere wichtigste Trinkwasserressource. Als Teil des globalen, unterirdischen Wasserkreislaufs spielt es auch in Ökosystemen wie Niedermooren oder Auenwäldern, in der Landwirtschaft oder für die Energiegewinnung durch oberflächennahe Geothermie eine wichtige Rolle“, sagt Professor Nico Goldscheider vom Institut für Angewandte Geowissenschaften des KIT und einer der Organisatoren der Tagung. „Die Wassernutzung für Energie und Ernährung unter den Bedingungen des globalen Wandels mit dem Erhalt der Ökosysteme in Einklang zu bringen, gehört zu den großen Herausforderungen der Menschheit.“ Es gebe aber auch eine ganze Reihe positiver Entwicklungen, neue Ansätze und Technologien, die eine ökologisch verträglichere Nutzung der Wasserressourcen ermöglichen.

Um verschiedene Aspekte dieser Thematik geht es in 14 Sessions der Tagung. Das Spektrum reicht dabei von der Hydrogeologie alpiner Räume bis hin zu Grundwasserfragen im Zusammenhang mit Bauvorhaben oder Endlagern. Ebenso wird es um Grundwasserbiologie, thermische Grundwassernutzung, die Hydrogeologie in Städten und viele weitere Themen gehen. Zu den Höhepunkten im Programm zählt neben den drei eingeladenen Plenarvorträgen auch ein öffentlicher Abendvortrag.

Referent Michael Kühn, Mitglied der Arge Blautopf, gibt seinem Publikum Einblick in die Blauhöhle, die mit knapp 13 Kilometern Länge eines der längsten Höhlensysteme Deutschland ist. Der Vortrag zeigt die Geschichte der Blauhöhlenforschung und legt den Fokus auf die neuesten Erkenntnisse sowie Entdeckungen. Der Abendvortrag ist öffentlich, eine Registrierung für die Konferenz ist daher nicht erforderlich.

Trinkwasser, Klimawandel und mehr
Neben den 14 Sessions setzen sich auch drei Plenarvorträge mit wesentlichen Aspekten der Grundwasserforschung auseinander. Veranstaltungsort ist jeweils das Audimax A am KIT-Campus Süd (Gebäude 30.95, Straße am Forum 1).

Hydrogeologie am KIT
Hydrogeologie ist die Wissenschaft vom Grundwasser und seinen Wechselwirkungen mit den Gesteinen. In den meisten Teilen der Welt ist Grundwasser die quantitativ wichtigste und qualitativ beste Trinkwasserressource. Die Hydrogeologie befasst sich mit dem Vorkommen, der Bewegung, der Qualität, der Nutzung und dem Schutz des Grundwassers. Die Forscherinnen und Forscher des Instituts für Angewandte Geowissenschaften am KIT decken die gesamte Bandbreite der Grundwasserforschung ab. Besondere Schwerpunkte sind die alpine und Karst-Hydrogeologie, grundwasserabhängige Ökosysteme, integriertes Wasserressourcen-Management (IWRM), Markierungs- und Pumpversuche, sowie urbane Hydrogeologie und thermische Grundwassernutzung.

Satelliten finden nachhaltige Energie in Städten:
https://www.kit.edu/kit/pi_2015_156_satelliten-finden-nachhaltige-energie-in-sta…

Nachhaltiges Wassermanagement für das Jordantal:
https://www.kit.edu/kit/pi_2014_15315.php

Schadensfälle durch Erdwärmesonden sind sehr selten:
https://www.kit.edu/kit/pi_2014_15907.php

Details zum KIT-Zentrum Klima und Umwelt: http://www.klima-umwelt.kit.edu

Weiterer Kontakt:
Margarete Lehné, Pressereferentin, Tel.: +49 721 608-48121, Fax: +49 721 608-43658, E-Mail: margarete.lehne@kit.edu

Das Karlsruher Institut für Technologie (KIT) verbindet seine drei Kernaufgaben Forschung, Lehre und Innovation zu einer Mission. Mit rund 9 300 Mitarbeiterinnen und Mitarbeitern sowie 25 000 Studierenden ist das KIT eine der großen natur- und ingenieurwissenschaftlichen Forschungs- und Lehreinrichtungen Europas.

KIT – Die Forschungsuniversität in der Helmholtz-Gemeinschaft

Das KIT ist seit 2010 als familiengerechte Hochschule zertifiziert.

Weitere Informationen:
https://www.bayceer.uni-bayreuth.de/fhdgg2016/?lang=de
https://www.kit.edu/kit/pi_2015_156_satelliten-finden-nachhaltige-energie-in-sta…
https://www.kit.edu/kit/pi_2014_15315.php
https://www.kit.edu/kit/pi_2014_15907.php
http://www.klima-umwelt.kit.edu

Anhang
Grundwasser: weltweit wichtigste Trinkwasserressource
https://idw-online.de/de/attachment49331

Quelle: idw

(nach oben)


Bio-Sprit auf dem Prüfstand

André Zeppenfeld Presse- und Kommunikationsstelle
Universität Siegen

Ergänzung vom 31.03.2016
Forschungsprojekt der Universität Siegen und des Fraunhofer Instituts untersucht die Auswirkungen von Biokraftstoffen auf Filtersysteme in Fahrzeugen mit Ottomotor.

Wer einen Benziner fährt, kann sein Auto seit 2011 auch mit E10 tanken. Der Biokraftstoff enthält zwischen fünf und zehn Prozent Bioethanol, die Beimischung soll den Verbrauch fossiler Energie und die CO2-Emissionen reduzieren. Wie bei anderen Spritsorten auch, entweichen aus den Tanks von Wagen mit Ottomotoren Kraftstoffdämpfe. Um so wenig wie möglich davon in die Umwelt zu entlassen, gibt es seit Jahren sogenannte Kraftstoffdampfrückhaltesysteme (KDRS), die mit Aktivkohlefiltern arbeiten. In einem neuen Forschungsprojekt untersuchen Forscherinnen und Forscher der Universität Siegen und des Fraunhofer Instituts für Umwelt-, Sicherheits- und Energietechnik (UMSICHT) in Oberhausen nun die Auswirkungen des Einsatzes von Biokraftstoffen auf solche Filtersysteme.

Wie funktioniert ein KDRS?
Ein KDRS besteht im Wesentlichen aus einem mit Aktivkohle gefüllten Kunststoffbehälter (Polizeifilter), in dem die Benzindämpfe (flüchtige Kohlenwasserstoffe/VOCs) in den Poren der Aktivkohle (AK) adsorbieren. Wenn die Aktivkohle fast vollständig beladen ist und eine Abgabe der Dämpfe an die Umgebung bevorsteht, wird die Anlage umgeschaltet. Der Aktivkohlefilter wird mit feuchter Umgebungsluft regeneriert, da die Luft die Benzindämpfe von der Kohle desorbiert. Die mit VOCs angereicherte Spülluft wird somit vom Motor angesaugt und dort verbrannt. Das Wechselspiel zwischen Adsorption (Beladung) sowie Desorption (Regenerierung) des AK-Filters läuft zyklisch während der gesamten Betriebsstunden des PKW-Motors.

Was steht bereits fest?
Ein durch die Fachagentur Nachwachsende Rohstoffe (FNR) gefördertes Vorläuferprojekt (Finanzvolumen etwa 580.000 Euro) der Forschergruppen UMSICHT und der Arbeitsgruppe Technische Thermodynamik der Universität Siegen (TTS-USi) belegte, dass die Funktionsfähigkeit von AK-Filtern, die mit den Dämpfen von Normalbenzin beladen sind, durch Spülen mit feuchter Umgebungsluft nicht beeinträchtigt wird.

Was wird nun erforscht?
Offen ist, ob diese Funktionsfähigkeit auch für Filter gilt, die mit bioethanolhaltigen Kraftstoffdämpfen wie E10 beladen sind. Deshalb soll im Rahmen des aktuellen Projekts der AK-Filter für verschieden lange Betriebszeiten unter realitätsnahen Bedingungen wissenschaftlich untersucht werden. Die hierfür notwendige Kenntnis über die genaue Zusammensetzung der Gasphase (Spülluft und VOCs) liefert eine moderne optische Messmethode (RAMAN-Streuung). Diese Messmethode ist von Prof. Dr.-Ing. Thomas Seeger (Institut für Fluid- und Thermodynamik der Universität Siegen) entwickelt und für zahlreiche industrielle Anwendungen erweitert worden. Für die Anwendung wie auch Bewertung des komplexen Adsorptionsprozesses der Bioethanolkraftstoffdämpfe an der Aktivkohle werden die langjährigen Erfahrungen des ehemaligen Lehrstuhlinhabers, Prof. Dr. sc. techn. Jürgen U. Keller, von großem Nutzen sein.

Was sind die Rahmendaten des Projekts?
Das Forschungsvorhaben wird in Kooperation zwischen der Universität Siegen und dem Fraunhofer Institut UMSICHT in Oberhausen durchgeführt. Es wird von einem ständig beratenden Ausschuss begleitet, in dem etwa 15 Vertreter der Automobilindustrie, der Filterhersteller und Aktivkohleproduzenten ehrenamtlich mitarbeiten. In diesem Ausschuss werden die erzielten Ergebnisse zeitnah präsentiert und diskutiert. Nach Abschluss der Forschungsarbeiten sollen alle Ergebnisse der Öffentlichkeit zur Verfügung gestellt werden. Die Fördersumme für dieses Drittmittelverbundprojekt beträgt 800.000 Euro.

Hintergrund:
Nicht nur aus den Tanks von Autos entweichen Kraftstoffdämpfe, sondern auch aus denen von LKWs und Bussen. Bei einem Bestand von rund 30 Millionen Fahrzeugen in Deutschland ergibt dies eine jährliche Umweltbelastung von 330.000 Tonnen an flüchtigen Kohlenwasserstoffen (VOCs). Diese Verluste an Kraftstoff sollten aus energetischen und sicherheitstechnischen Gründen vermieden werden, da diese Kraftstoffdämpfe z.B. bei Anreicherung in schlecht belüfteten Tiefgaragen zur Explosionsgefahr führen können. Darum gibt es die Kraftstoffdampfrückhaltesysteme (KDRS).

Im Zuge verschärfter Emissionsvorschriften (EURO 6), Diskussionen über die CO2-Emissionen sowie im Hinblick auf langfristig steigende Rohölpreise wird verstärkt der Einsatz von Biokraftstoffen (z.B. E10) favorisiert. Bis zum Jahr 2020 sollen entsprechend einer von der Bundesregierung bereits übernommenen EU-Biokraftstoffrichtlinie nahezu 10 Prozent aller fossilen Kraftstoffe durch Biokraftstoffe ersetzt werden. Ein Beitrag hierzu ist in Deutschland das Beimischen von Bioethanol zum Ottokraftstoff (Benzin). Das Bioethanol wird aus nachwachsenden pflanzlichen Materialien durch Vergärung gewonnen.

Ergänzung vom 31.03.2016
Die Fördersumme für dieses Drittmittelverbundprojekt beträgt ca. 800.000 Euro und wird vom Bundesministerium für Ernährung und Landwirtschaft (BMEL) durch die FNR unter dem Förderkennzeichen 22403115 bereitgestellt.

Quelle: idw

(nach oben)


Wer sich sozial engagiert, lebt und stirbt zufriedener

Hans-Christoph Keller Stabsstelle Presse- und Öffentlichkeitsarbeit
Humboldt-Universität zu Berlin

Neue Studie zum Wohlbefinden am Ende des Lebens von Wissenschaftlern der Humboldt-Universität zu Berlin zusammen mit einem internationalen Team veröffentlicht

In den letzten Jahren vor dem Tod nimmt das Wohlbefinden häufig stark ab. Doch wer mit mehr sozialen Werten in die letzte Phase des Lebens geht und auch bei einem schlechten Gesundheitszustand sozial aktiv bleibt, dem geht es besser, besagt eine neue Studie. Häufig beginnt das Wohlbefinden von Menschen bereits einige Jahre vor ihrem Tod rapide abzunehmen. Warum hierbei jedoch große Unterschiede zwischen den Betroffenen bestehen, ist bislang wissenschaftlich nicht genau geklärt. Dass der Gesundheitszustand für das Wohlbefinden gerade am Ende des Lebens zentral ist, ist offensichtlich. Weniger klar war bisher jedoch, welche Rolle psychosoziale Faktoren spielen. Wissenschaftler des Instituts für Psychologie der Humboldt-Universität zu Berlin (HU) untersuchten in einer Studie, die in Kooperation mit der Längsschnittstudie Sozio-ökonomisches Panel (SOEP) entstand, den Zusammenhang zwischen sozialem Engagement und Wohlbefinden im letzten Lebensabschnitt. Die Ergebnisse wurden nun in der Fachzeitschrift Psychology and Aging veröffentlicht.

Für die Studie „Terminal decline in well-being: The role of social orientation“ wertete die Forschergruppe Daten der Längsschnittuntersuchung SOEP aus, die unter dem Dach der Leibniz-Gemeinschaft am DIW Berlin durchgeführt wird. Untersucht wurden die Daten von 2.910 verstorbenen Personen, die vor ihrem Tod bis zu 27-mal an der jährlich durchgeführten Erhebung teilgenommen hatten. Das Durchschnittsalter zum Zeitpunkt ihres Todes betrug 74 Jahre und das Verhältnis von Männern und Frauen war ausgeglichen. An der Auswertung der Daten waren auch nordamerikanische Wissenschaftlerinnen der Arizona State University, der Cornell University, der Pennsylvania State University und der University of British Columbia beteiligt.

Die Ergebnisse zeigen, dass sowohl ein sozial aktives Leben als auch das Verfolgen von sozialen Zielen unabhängig voneinander mit einem höheren Wohlbefinden in dieser letzten Lebensphase in Verbindung stehen. Der Zusammenhang ist unabhängig von anderen bereits bekannten Faktoren wie dem Gesundheitszustand, Behinderungen oder Krankenhausaufenthalten sowie beispielsweise dem Geschlecht, dem sozio-ökonomischen Status und dem Bildungsstand zu beobachten. Die Stärke des Effektes liegt bei annähernd zehn Prozent im Hinblick auf die Höhe des Wohlbefindens und bei beinahe zwanzig Prozent in Bezug auf dessen Abnahme kurz vor dem Tod. „Wir fanden es erstaunlich zu sehen, dass die Zusammenhänge von sozialer Teilhabe und Wertschätzung mit dem Wohlbefinden – also wie zufrieden Menschen mit ihrem Leben sind – auch am Ende des Lebens so ausgeprägt sind. Das hätten wir so nicht erwartet“, sagt Denis Gerstorf von der Humboldt-Universität zu Berlin, einer der Autoren der Studie. „Menschen mit sozialer Orientierung sind daran interessiert, anderen zu helfen und engagieren sich in sozialen und politischen Initiativen. Offensichtlich ist dies auch und gerade am Ende des Lebens für das eigene Wohlbefinden von Bedeutung“, ergänzt Gerstorf.

Besonders interessant: Wenn die untersuchten Personen sowohl weniger sozial aktiv waren als auch soziale Ziele weniger wichtig fanden, verstärkten sich die an sich schon einzeln vorhandenen Effekte erheblich. Diese Menschen schätzten ihre Lebenszufriedenheit ein Jahr vor ihrem Tod besonders niedrig ein. Außerdem konnte gezeigt werden, dass soziale Teilhabe nicht nur an sich wichtig ist, sondern dass es auch darauf ankommt, sozial aktiv zu bleiben. So war die Abnahme des Wohlbefindens vor dem Tod weniger ausgeprägt bei Menschen, deren hohes Niveau an sozialen Aktivitäten – trotz Krankheit und Behinderung – kaum abnahm. „Sozial aktive ältere Menschen fühlen sich gut, wahrscheinlich weil sie etwas machen, was ihnen Freude bringt. Indirekt kann die allgemeine Lebenszufriedenheit dadurch gestärkt werden, weil das Selbstwertgefühl steigt ebenso wie das Gefühl, noch etwas bewegen zu können“, erklärt Gert G. Wagner (DIW Berlin), einer der Koautoren der Studie.

Publikation
Gerstorf, D., Hoppmann, C. A., Löckenhoff, C. E., Infurna, F. J., Schupp, J., Wagner, G. G., & Ram, N. (2016). Terminal decline in well-being: The role of social orientation. Psychology and Aging. doi: 10.1037/pag0000072

Link zur Studie
http://psycnet.apa.org/journals/pag/31/2/149/

Kontakt
Dr. Katrin Schaar
Humboldt-Universität zu Berlin
Tel.: 030 2093-9421
schaar@mpib-berlin.mpg.de

Quelle: idw

(nach oben)


Magenschleimhaut in Gefahr: Helicobacter-Beseitigung beugt Magenkrebs vor

Medizin – Kommunikation Medizinkommunikation
Arbeitsgemeinschaft der Wissenschaftlichen Medizinischen Fachgesellschaften

Berlin – Etwa die Hälfte der erwachsenen Menschen in Deutschland ist mit dem Magenbakterium Helicobacter pylori infiziert. Bei jedem Fünften kommt es im Verlauf des Lebens zu Magenbeschwerden oder zur Ausbildung von Magen- oder Zwölffingerdarmgeschwüren. Doch auch wenn der Keim keine Beschwerden verursacht, erhöht er langfristig das Risiko, an Magenkrebs zu erkranken. Die neu überarbeitete Leitlinie der Deutschen Gesellschaft für Gastroenterologie, Verdauungs- und Stoffwechselkrankheiten (DGVS) empfiehlt eine „Eradikationstherapie“ daher auch für bestimmte Risikogruppen.

Das erste Zeichen einer Helicobacter-Infektion ist häufig eine Entzündung der Magenschleimhaut: die akute Gastritis. Geht diese – meist in der Kindheit unbemerkt – in eine chronische Entzündung über, kann es zu einer Reihe von Komplikationen kommen. Auf dem Boden der chronischen Gastritis entstehen bei jedem fünften Patienten Magenbeschwerden bis hin zu Geschwüren im Magen- und Zwölffingerdarm. Langfristig erhöht der Keim das Magenkrebsrisiko, und er ist auch für das MALT-Lymphom, einen seltenen Lymphdrüsenkrebs, verantwortlich.

„Eine Eradikationstherapie, also die Beseitigung von Helicobacter pylori, lindert nicht nur die akuten Beschwerden bei einer Magenschleimhautentzündung, einem Magen- oder einem Zwöffingerdarmgeschwür“, sagt Professor Dr. med. Peter Malfertheiner, Direktor der Universitätsklinik für Gastroenterologie, Hepatologie und Infektiologie in Magdeburg und einer der beiden Leitlinienkoordinatoren. „Sie hat auch das Potential, das Widerauftreten von Geschwüren und die Entstehung eines Magenkarzinoms zu verhindern.“ Bei nahen Verwandten von Magenkrebspatienten oder bei Menschen, die bereits eine Krebserkrankung in der Frühphase durchgemacht haben, rät die DGVS daher zu einer Behandlung – auch dann, wenn die Patienten keine Beschwerden haben.

Auch Menschen, die länger als ein Jahr sogenannte Protonenpumpeninhibitoren einnehmen, sollten den Magenkeim entfernen lassen. „Denn die Behandlung mit diesen Säureregulatoren führt auf Dauer zu einer Atrophie oder zu einer Intestinalen Metaplasie der Magenschleimhaut. Diese nicht mehr rückbildungsfähigen Veränderungen erhöhen wiederum das Magenkrebsrisiko“, erläutert Malfertheiner. Protonenpumpeninhibitoren, kurz „PPI“, hemmen die Bildung von Magensäure. Ärzte verschreiben sie häufig zur Behandlung der Refluxkrankheit, also bei Sodbrennen.

Auch bei Patienten, die ein erhöhtes Risiko für Magenblutungen mitbringen, sollten Ärzte eine Helicobacter-Behandlung erwägen. „Die dauerhafte Einnahme von ASS oder bestimmten Rheumamedikamenten, den nicht-steroidalen Antirheumatika, sollte Anlass sein, über eine vorsorgliche Beseitigung des Keims nachzudenken“, erklärt Leitlinienkoordinator Professor Dr. med. Wolfgang Fischbach, Chefarzt der Medizinischen Klinik II am Klinikum Aschaffenburg-Alzenau. Denn die Beseitigung des Keims kann das Risiko für Magenblutungen senken.

Voraussetzung für eine Behandlung sei der Nachweis des Keims, betont der Experte. Da kein Testverfahren hundertprozentig sicher ist, sollten zwei Tests positiv ausfallen. Die neue Version der Leitlinie lässt jedoch auch eine Ausnahme zu: Wird der Keim bei einer Magenschleimhautentzündung in einer Gewebeprobe nachgewiesen, sind weitere Tests nicht mehr nötig.

Die Eradikationstherapie ist heute in der Regel erfolgreich. Sie erfordert jedoch die Mitarbeit und die Geduld des Patienten, der mehrere Medikamente gleichzeitig einnehmen muss. Standard ist eine Tripeltherapie aus zwei Antibiotika und einem Protonenpumpeninhibitor. Ist der Keim gegen eines der Antibiotika resistent, sollten Ärzte zu einer Therapie mit vier Wirkstoffen wie der Bismut-basierten Quadrupeltherapie greifen. „Dies betrifft häufig Menschen mit Migrationshintergrund oder Patienten, die zuvor schon mit Clarithromycin oder einem verwandten Antibiotikum behandelt wurden“, erklärt Fischbach: „In diesen Fällen ist das Risiko hoch, dass die klassische Tripeltherapie nicht anschlägt.“

„Mit der neuen Leitlinie liegt uns ein gut funktionierendes Konzept zum Umgang mit Helicobacter vor, das sich an den aktuellen Erkenntnissen orientiert“, so die beiden Experten.

Die Deutsche Gesellschaft für Gastroenterologie, Verdauungs- und Stoffwechselkrankheiten (DGVS) wurde 1913 als wissenschaftliche Fachgesellschaft zur Erforschung der Verdauungsorgane gegründet. Heute vereint sie mehr als 5000 Ärzte und Wissenschaftler aus der Gastroenterologie unter einem Dach. Die DGVS fördert sehr erfolgreich wissenschaftliche Projekte und Studien, veranstaltet Kongresse und Fortbildungen und unterstützt aktiv den wissenschaftlichen Nachwuchs. Ein besonderes Anliegen ist der DGVS die Entwicklung von Standards und Behandlungsleitlinien für die Diagnostik und Therapie von Erkrankungen der Verdauungsorgane – zum Wohle des Patienten. Mehr unter www.dgvs.de

Weitere Informationen:
http://www.dgvs.de

Quelle: idw

(nach oben)


Umweltschonend und kostensparend: Messsystem überwacht Ölqualität in Blockheizkraftwerken

Claudia Ehrlich Pressestelle der Universität des Saarlandes
Universität des Saarlandes

Ein Messsystem, das eingebaut in Blockheizkraftwerk-Motoren die Ölqualität während des laufenden Betriebs permanent überwacht und voraussagt, wann genau das Öl gewechselt werden muss, entwickelt das Forscherteam von Professor Andreas Schütze von der Universität des Saarlandes gemeinsam mit Partner-Unternehmen aus Thüringen. Das Öl fließt durch eine kleine Messzelle, in der es durchleuchtet und auf seinen chemischen Zustand hin geprüft wird. Für Betreiber der Anlagen sind Wartungseinsätze auf diese Weise planbar. Verfrühte, teure und umweltbelastende turnusmäßige Ölwechsel entfallen.

Das Bundeswirtschaftsministerium fördert das Projekt mit insgesamt 440.000 Euro im Zentralen Innovationsprogramm Mittelstand (ZIM), 175.000 Euro davon fließen ins Saarland.

Blockheizkraftwerke liefern Strom und Wärme direkt am Ort, an dem sie verbraucht werden. Verlustreiche lange Transportwege der Energie entfallen bei diesen Mini-Kraftwerken, die einen hohen Wirkungsgrad erreichen. Nicht nur für die Industrie bieten sie eine unabhängige Stromversorgung. Auch für Schulen, Krankenhäuser und sogar das private Heim kann sich die Investition in solche Anlagen lohnen, denn nicht selbst genutzter Strom kann ins öffentliche Netz eingespeist werden. Auf die ökonomische wie ökologische Bilanz der Anlagen wirken sich allerdings die Ölwechsel negativ aus, die turnusmäßig anfallen. „Das Öl, das im Motor Reibung und Verschleiß verringert und ein Heißlaufen verhindert, wird im Betrieb stark belastet. Dabei oxidiert es und Zusätze, die seine Schmiereigenschaften optimieren, sind irgendwann verbraucht. Außerdem kann sich Wasser im Öl anreichern. Durch späten Ölwechsel kann es zu Schäden kommen“, erläutert der Sensorik-Experte Professor Andreas Schütze von der Saar-Universität.

Wann genau der Ölwechsel ansteht, ist bislang schwer zu beurteilen. Das Öl regelmäßig im Labor untersuchen zu lassen, ist teuer und für Betreiber solcher Kleinanlagen häufig nicht praktikabel. „Meist wird bei erdgasbetriebenen Blockheizkraftwerken das Öl etwa alle 1.500 Betriebsstunden gewechselt, ob es nötig ist oder nicht. Das ist schlecht für die Umwelt, weil noch gutes Öl vorzeitig entsorgt und so mehr Öl verbraucht wird. Das erhöht zugleich die Betriebskosten der Anlagen“, erläutert Schütze.

Ein Messsystem, das die Qualität des Schmieröls während des laufenden Betriebs des Mini-Kraftwerks permanent überwacht und genau zum richtigen Zeitpunkt anzeigt, wann der Ölwechsel fällig ist, entwickelt Schützes Forschergruppe an der Universität des Saarlandes und am Saarbrücker Zentrum für Mechatronik und Automatisierungstechnik (ZeMA) gemeinsam mit den auf Anlagenbau und Blockheizkraftwerke spezialisierten Unternehmen WEGRA Anlagenbau GmbH und EAW Energieanlagenbau GmbH (assoziierter Partner) in Römhild (Thüringen), sowie der Sensorikfirma ZILA GmbH aus dem thüringischen Suhl.

Die Forscher optimieren dabei ein Verfahren, das Schützes Team gemeinsam mit weiteren Partnern entwickelt hat, um es serienmäßig in Mini-Kraftwerke mit einer Leistung von 40 bis zu 200 Kilowatt einzubauen. Bei dem Saarbrücker Verfahren misst eine kleine Messzelle fortwährend auf optische Weise den chemischen Zustand des Öls. Das Öl wird in der Messzelle mit einer Infrarot-Quelle durchleuchtet und die Strahlen aufgefangen, die es durchdringen. „Hierdurch können wir Rückschlüsse auf den chemischen Zustand des Öls, insbesondere den Oxidationsgrad, ziehen, denn wenn sich das Öl chemisch verändert, verändert sich auch das empfangene Lichtspektrum“, erklärt Ingenieur Eliseo Pignanelli, der das System mitentwickelt hat und jetzt daran mitarbeitet, es für Blockheizkraftwerke zu optimieren. So kann etwa auch ermittelt werden, ob Wasser in das System eingedrungen ist.

Die Daten aus dem Messsystem werden ins Steuerungs- und Fernüberwachungssystem der Anlage eingebunden, so dass die Auswertung unabhängig vom Standort der Anlage erfolgen kann. Die Saarbrücker Messzelle kann auch mobil zum Einsatz kommen und außer in Blockheizkraftwerken auch in sonstige Industrie-, Windkraftanlagen und Maschinen eingebaut werden. Auch zur Überwachung anderer Flüssigkeiten eignet sich das Verfahren.

Die Saarbrücker Ingenieure entwickelten das Verfahren in mehreren Forschungsprojekten, an denen Partner aus Wissenschaft und Wirtschaft beteiligt waren. Das Bundesforschungsministerium, das saarländische Wirtschaftsministerium und der europäische Fond für regionale Entwicklung förderten diese Forschungen. Das aktuelle Projekt fördert das Bundeswirtschaftsministerium jetzt mit weiteren 440.000 Euro.

Kontakt:
Prof. Dr. Andreas Schütze, Tel.: 0681/302 4663, E-Mail: schuetze@lmt.uni-saarland.de, http://www.lmt.uni-saarland.de
Dipl.-Ing. Eliseo Pignanelli: Tel.: 0681 – 8578744, E-Mail: e.pignanelli@lmt.uni-saarland.de

Hintergrund:
Am Zentrum für Mechatronik und Automatisierungstechnik ZeMA in Saarbrücken arbeiten Saar-Uni, Hochschule für Technik und Wirtschaft sowie Industriepartner zusammen, um Mechatronik und Automatisierungstechnik im Saarland zu stärken sowie den Technologietransfer zu fördern. In zahlreichen Projekten wird industrienah entwickelt und neue Methoden aus der Forschung in die industrielle Praxis umgesetzt. http://www.zema.de/

Quelle: idw

(nach oben)


Rückengesundheit: Orthopäden und Unfallchirurgen geben Tipps gegen den Handynacken

Susanne Herda Presse- und Öffentlichkeitsarbeit
Deutsche Gesellschaft für Orthopädie und Unfallchirurgie e. V.

Viele Menschen verbringen immer mehr Zeit am Smartphone, Tablet oder E-Book. Doch der Rücken leidet, übertreibt der Nutzer mit dem Gebrauch seines Mobilgerätes. Ein ständig geneigter Kopf führt zur Überlastung der Halswirbelsäule. Muskelverspannungen sowie Schmerzen im Nacken- und Schulterbereich sind die Folge – seit kurzem bekannt als Handynacken. Das Krankheitsbild ist nicht ganz neu. Auch Menschen, die während ihrer täglich mehrstündigen Schreibtischarbeit in einer dauerhaft falschen Sitzposition verharren, bekommen Rückenprobleme.

Darauf weist die Deutsche Gesellschaft für Orthopädie und Unfallchirurgie e.V. (DGOU) zum „Tag der Rückengesundheit“ am 15. März 2016 hin. Orthopäden und Unfallchirurgen raten zu regelmäßigem Sport und mehr körperlicher Bewegung im Alltag und geben Tipps für eine starke Rückenmuskulatur.

Mit dem Begriff Handynacken wird die Überlastung der Wirbelsäule dem verursachenden Gegenstand zugeordnet. Die Krankheit entsteht erst, wenn der Mobile-Nutzer stundenlang mit herabhängendem Kopf und damit in einer unnatürlichen Haltung auf das Display blickt – nicht aber, weil er etwa kurz seine E-Mails abruft. Eine untrainierte Rückenmuskulatur begünstigt den Handynacken.

Professor Bernd Kladny, stellvertretender DGOU-Generalsekretär, sagt zum Thema Rückengesundheit: „Der Mensch ist eigentlich ein Lauf- und Bewegungstier. Aber heutzutage sitzen wir viel zu viel – und falsch. Viele Rückenleiden könnten verhindert werden, wenn wir durch regelmäßigen Sport und Ausgleich mehr in unsere Muskulatur investieren würden. Da kann jeder sehr viel für sich tun!“

In einer Beugung der Halswirbelsäule von circa 15 Grad nach vorn wirken statt der 4 bis 6 Kilogramm Kopfgewicht zusätzlich 13 Kilogramm auf den Rücken. Je weiter der Kopf nach vorn geneigt wird, desto stärker ist die Belastung. Beim Blick auf das Handy senkt der Nutzer sein Haupt meist um über 45 Grad – dann wirken Kräfte von über 20 Kilogramm. Das entspricht mehr als einem Kasten Wasser. Hält diese Haltung oft und lange an – etwa durch mehrstündiges Lesen eines E-Books oder das Arbeiten am Tablet bzw. Smartphone – werden Muskeln, Sehnen und Bandscheiben erheblich strapaziert und die Halswirbelsäule überlastet. Dies kann zu dauerhaften Muskelverhärtungen und einer Schonhaltung führen. Schmerzen im Schulter-Nacken-Bereich, Kopfschmerzen und Verschleißerscheinungen sind die Folge.

Ob vor dem Smartphone, am Schreibtisch oder über den Büchern: Orthopäden und Unfallchirurgen geben folgende Tipps, um eine Überlastung der Halswirbelsäule zu vermeiden:

• Regelmäßig Pausen einlegen und zwischendurch Lockerungsübungen machen: Den Kopf von rechts nach links bewegen und das Ohr zur jeweiligen Schulter senken, bis ein Zug in der Halswirbelsäule spürbar wird. Den Kopf nach oben strecken und die Schultern nach unten ziehen.
• Mobile Geräte näher vor das Gesicht bringen und lieber die Augen senken als Kopf und Nacken. Immer wieder die Haltung überprüfen und diese gegebenenfalls korrigieren.
• Auf die richtige Sitzposition am Schreibtisch achten: Wer im Berufsalltag viele Stunden am Computerbildschirm arbeiten muss, sollte eine rückenfreundliche Grundhaltung einnehmen. Denn nach Stunden vor dem PC sacken viele in sich zusammen, was zu Rückenschmerzen führen kann. Deshalb ist es besser, mit entspannten Schultern gerade zu sitzen und dabei die Füße am Boden nebeneinander zu stellen. Zwei- bis dreimaliges Aufstehen in der Stunde fördert dynamisches, rückenfreundliches Sitzen. Da im Idealfall die oberste Bildschirmzeile unterhalb der Augenhöhe liegen sollte, sind höhenverstellbare Stühle und Bildschirme sinnvoll.
• Zur Stärkung der Muskulatur mindestens ein- bis zweimal in der Woche Sport treiben: Ideal sind Schwimmen, Pilates, Walking oder Yoga.
• Den Rücken stärken durch Rückengymnastik: Übungen zur Stärkung der Rückenmuskulatur sollten in den täglichen Tagesablauf eingebaut werden. Die Rückenschulen-Angebote der Krankenkassen bieten Anregungen.
• Bewegung im Alltag fördern: Viele Menschen unterschätzen, dass schon leicht umzusetzende Aktivitäten die Rückenmuskulatur stärken. Wer also viel sitzt, sollte jede Gelegenheit nutzen, um sich zu bewegen, beispielsweise die Rolltreppe meiden und Treppen steigen, kurze Strecken zu Fuß oder mit dem Rad zurücklegen anstatt mit dem Auto zu fahren.
• Falsche Bewegungen vermeiden: Beim Heben schwerer Gegenstände in die Knie gehen und dabei den Rücken gerade halten. Das schont den Rücken und die Bandscheiben.

Rückenerkrankungen sind ein zentrales Thema im Fach Orthopädie und Unfallchirurgie. „80 bis 85 Prozent der Menschen in Deutschland leiden mindestens einmal in ihrem Leben an Rückenschmerzen. Daher ist der chronische Rückenschmerz auch dieses Jahr wieder einer der Schwerpunktthemen auf dem Deutschen Kongress für Orthopädie und Unfallchirurgie“, sagt DGOU- und Kongresspräsident Professor Heiko Reichel. Der DKOU findet vom 25. bis zum 28. Oktober 2016 in Berlin statt.

Kontakt für Rückfragen:
Susanne Herda
Presse- und Öffentlichkeitsarbeit
Deutsche Gesellschaft für Orthopädie und Unfallchirurgie (DGOU) e.V.
Straße des 17. Juni 106-108, 10623 Berlin
Telefon: +49 (0)30 340 60 36 -06 oder -00
Telefax: +49 (0)30 340 60 36 01
E-Mail: presse@dgou.de

Weitere Informationen:
http://www.dgou.de
http://www.dkou.de

Quelle: idw

(nach oben)


Meeresspiegelanstieg: Zu groß zum Wegpumpen

Jonas Viering Presse- und Öffentlichkeitsarbeit
Potsdam-Institut für Klimafolgenforschung

Der Anstieg des Meeresspiegels könnte in Zukunft so massiv werden, dass ihn sogar ein noch nie dagewesener technischer Eingriff ins Erdsystem nicht lösen könnte – nämlich Wassermassen auf den Antarktischen Kontinent zu pumpen. Diese Idee von Geo-Engineering haben jetzt Wissenschaftler des Potsdam-Instituts für Klimafolgenforschung durchgerechnet. Zwar würde das auf die Antarktis gepumpte Wasser dort gefrieren, sein Gewicht würde aber das Eis verstärkt in Richtung der antarktischen Küste drücken, wo dann Eismassen in den Ozean abbrechen. Damit das Wasser für ein Jahrtausend auf der Antarktis gespeichert werden kann, müsste es deshalb mindestens 700 Kilometer ins Landesinnere gepumpt werden.

Dabei müsste ein Zehntel der aktuellen weltweiten Energieversorgung aufgewendet werden, um die derzeitige Anstiegsrate des Meeresspiegels auszugleichen.

„Wir haben nach einem Weg gesucht, wie der selbst mit strengem Klimaschutz nicht mehr vermeidbare Meeresspiegelanstieg zumindest verzögert werden könnte – bis Ende des Jahrhunderts reden wir dabei wenigstens über 40 Zentimeter im globalen Mittel“, sagt Leitautorin Katja Frieler. „Unser Ansatz ist zwar extrem, aber extrem ist eben auch die Herausforderung durch den Meeresspiegelanstieg.“ Durch das Verbrennen von Kohle, Gas und Öl entstehen Treibhausgasemissionen, diese treiben die globalen Temperaturen in die Höhe. In der Folge lässt die thermische Ausdehnung der Ozeane und das Schmelzen von Gletschern und Eisschilden langsam aber unaufhörlich den Meeresspiegel steigen – auf Jahrtausende hin. Ohne Klimaschutz könnte der Meeresspiegel bis zum Jahr 2100 bereits mehr als 130 Zentimeter ansteigen.

+++Die Antarktis opfern, um Bangladesch zu retten?+++
„Das ist enorm. Anpassung vor Ort, etwa durch Deichbau, wird nicht überall auf der Welt möglich sein, denn nicht überall gibt es die nötigen technischen Voraussetzungen und finanziellen Mittel“, sagt Frieler. „Wie gut eine Region geschützt wird, kann von ihrer wirtschaftlichen Situation abhängen – New York würde vielleicht gerettet, aber Bangladesch nicht. Es geht also auch um Gerechtigkeitsfragen.“

„Das ist der Grund für unser Interesse an einer universellen Schutzlösung“, so Frieler. „Wir wollten prüfen, ob es theoretisch möglich ist, unbewohnte Regionen der Antarktis zu opfern, um stark bevölkerte Küstenregionen auf der ganzen Welt zu schützen.“ Schon heute verstärkt der steigende Meeresspiegel das Risiko von Sturmfluten, mit möglichen Folgen für Millionen von Menschen auf der Welt. Langfristig wird der Anstieg die Küstenlinien unseres Planeten neu zeichnen.

Die Wissenschaftler haben das Problem unter dem Gesichtspunkt der Eis-Dynamik betrachtet, gestützt auf ausgeklügelte Computer-Simulationen der Antarktis. Weil das Eis sich ständig bewegt, kann das Heraufpumpen und Festfrieren von Ozeanwasser auf dem Eis der Antarktis den Anstieg des Meeresspiegels nur verzögern – und wenn es zu dicht am Rand des Kontinents abgelagert wird, kann es durch sein Gewicht den Eisverlust an der Küste und damit den Anstieg des Meeresspiegels sogar verstärken, wie die Studie zeigt. Deshalb müsste das Wasser weit ins Landesinnere gepumpt werden.

+++„Sogar wenn es machbar wäre, würde es uns nur einen Aufschub bringen“+++
Der Eispanzer der Antarktis ist bis zu 4000 Meter hoch, und das würde einen unvorstellbaren technischen Aufwand bedeutet. So viel Wasser so hoch zu pumpen, erfordert eine ungeheure Menge Energie. Die Antarktis ist sehr windig, daher könnte der Strom für die Pumpen grundsätzlich von Windturbinen erzeugt werden. Allerdings müssten hierfür etwa 850.000 Windräder auf den Eiskontinent gebaut werden. Die Kosten wären voraussichtlich deutlich höher als die in anderen Studien für örtliche Anpassung errechneten Kosten, wobei diese örtlichen Maßnahmen naturgemäß begrenzt in Ziel und Umfang sind, so die Forscher.

„Die Größenordnung des Meeresspiegel-Anstiegs ist so gewaltig, dass ein kaum vorstellbarer technischer Ansatz nötig wäre ihn in den Griff zu bekommen“, erklärt Ko-Autor Anders Levermann, Leiter der Forschung zu globalen Anpassungsstrategien am PIK und Wissenschaftler an der Columbia Universität in New York. „Selbst wenn es machbar wäre, würde es uns nur einen Aufschub bringen – wenn wir eines Tages mit dem Pumpen aufhören, würde zusätzlicher Masseverlust der Antarktis den Meeresspiegel-Anstieg beschleunigen. Solch eine Maßnahme würde künftigen Generationen eine zusätzliche Last aufbürden.“ Zudem würden die besonders empfindlichen Ökosysteme an den Küsten der Antarktis von solchem Geo-Engineering schwer getroffen.

+++Treibhausgas-Reduktionen, lokaler Küstenschutz, Rückzug+++
Wenn überhaupt, dann würde ein Verzögern des Meeresspiegel-Anstiegs durch das Pumpen von Wasser auf die Antarktis nur in einem Szenario ehrgeiziger Klimapolitik Wirkung zeigen, also im Falle einer strikten Begrenzung der globalen Erwärmung. „Wenn wir mit den Treibhausgasausstoß weitermachen wie bisher“, so Levermann, „dann würde nicht einmal ein solch riesiges Makro-Anpassungsprojekt genügen, um den Anstieg des Meeresspiegels substanziell zu begrenzen. Deshalb ist eine rasche Reduktionen unseres Ausstoßes von Treibhausgasen unverzichtbar, wenn der Anstieg des Meeresspiegels handhabbar bleiben soll. In jedem Fall werden starke Investitionen in örtlichen Küstenschutz notwendig, wenn ein schrittweiser Rückzug von Siedlungen verhindert werden soll.“

Artikel: Frieler, K., Mengel, M., Levermann, A. (2016): Delaying future sea-level rise by storing water in
Antarctica. Earth System Dynamics

Weblink zum Artikel sobald er veröffentlicht ist: http://www.earth-syst-dynam.net/

Kontakt für weitere Informationen:
Potsdam-Institut für Klimafolgenforschung, Pressestelle
Telefon: +49 (0)331 288 2507
E-Mail: presse@pik-potsdam.de
Twitter: @PIK_Klima
www.pik-potsdam.de

Quelle: idw

(nach oben)


Rechte Wutbürger untergraben die Demokratie

Christoph Sachs Öffentlichkeitsarbeit
Hochschule für Philosophie München

Wer rechtspopulistische Parteien wählt, untergräbt nach Ansicht von Philosophie-Professor Michael Reder Grundwerte unserer Gesellschaft. „‚Wir sind das Volk‘ zu rufen alleine, ist noch kein Zeugnis einer demokratischen Grundhaltung“, kritisiert der Inhaber des Lehrstuhls für Praktische Philosophie mit Schwerpunkt Völkerverständigung der Hochschule für Philosophie München die rechten Wutbürger. „Populistische Vereinfachungen ignorieren die Vielschichtigkeit der Realität.“ Wer nicht konstruktiv, sondern nur mit solchen Parolen in den Diskurs eingreife oder Populisten unterstütze, schade deshalb der Demokratie, betont Reder.

Die Grundlage der Demokratie ist Reder zufolge der Wille der Bürger, sich komplexen gesellschaftlichen Herausforderungen zu stellen, diese konstruktiv zu meistern und aus Erfahrungen zu lernen. „Diesen Willen lassen AfD, Pegida und ihre Anhänger mit ihrem realitätsfernen und häufig fremdenfeindlichen Gebaren vermissen“, sagt er. Gleichzeitig nähmen sie aber die demokratischen Grundrechte wie das Recht auf freie Meinungsäußerung für sich in Anspruch und behaupteten, die Demokratie zu verteidigen. „Das Gegenteil ist der Fall“, stellt der Sozialphilosoph klar. „Den Rechtpopulisten geht es in erster Linie um Macht – nicht um die Probleme der Gesellschaft.“

Gerade angesichts dessen hält Reder eine offensive argumentative Auseinandersetzung mit Rechtspopulisten und rechten Wutbürgern für zentral. Bezug nehmend auf eine aktuelle Debatte in der politischen Philosophie fordert er mehr Streit. „Populisten schwächt man am besten, wenn man Ihre Anhänger wieder in den demokratischen Diskurs zurückholt“, ist er überzeugt. „Nur wenn wir diesen Menschen zuhören und mit ihnen und ihren Wortführern offen, leidenschaftlich und kontrovers diskutieren, haben wir die Chance, sie vom Wert der Demokratie zu überzeugen – und davon, wie haltlos und gefährlich ihre Parolen sind.“ Das sei Aufgabe aller Bürgerinnen und Bürger. „Demokratie bedeutet auch, dass unsere Verantwortung nicht an der Wahlurne endet“, erklärt Reder. Gerade in Auseinandersetzungen wie diesen sei die Haltung aller gefragt.

** Michael Reder steht gerne für Interviews zur Verfügung. Anfragen richten Sie bitte direkt an: michael.reder@hfph.de.

Anhang

Pressemitteilung als PDF
https://idw-online.de/de/attachment48948

Quelle: idw

(nach oben)


Effizienz der Wasserelektrolyse verdoppelt

Dr. Julia Weiler Dezernat Hochschulkommunikation
Ruhr-Universität Bochum

Forscher haben die Effizienz der Wasserelektrolyse gesteigert. Sie brachten eine Schicht aus Kupferatomen in eine herkömmliche Platinelektrode ein. Dadurch können sich die Reaktionszwischenprodukte etwas leichter von der Katalysatoroberfläche lösen. Das so modifizierte System erzeugt doppelt so viel Wasserstoff wie eine Platinelektrode ohne Kupferschicht. In der Zeitschrift „Nature Communications“ berichtet das Team der Ruhr-Universität Bochum, der Technischen Universität München und der Universität Leiden über die Ergebnisse.

Die Wasserelektrolyse hat sich als Verfahren für die Produktion von Wasserstoff bislang nicht durchgesetzt. Zu viel Energie geht in dem Prozess verloren. Forscher haben die Effizienz der Reaktion nun verdoppelt.

In der Zeitschrift „Nature Communications“ berichten Wissenschaftler der Ruhr-Universität Bochum, der Technischen Universität München und der Universität Leiden, wie sich die Effizienz der Elektroden für die Wasserelektrolyse steigern lässt. Diese enthalten üblicherweise Platin als Katalysator, um die Umsetzung von Wasser zu Wasserstoff und Sauerstoff zu beschleunigen. Damit die Reaktion möglichst effizient abläuft, dürfen Zwischenprodukte weder zu stark noch zu schwach an der Katalysatoroberfläche haften.

Herkömmliche Elektroden binden Zwischenprodukte zu stark
Das Team um Prof. Dr. Aliaksandr Bandarenka vom Münchener Lehrstuhl für Physik der Energieumwandlung und -speicherung und Prof. Dr. Wolfgang Schuhmann vom Bochumer Zentrum für Elektrochemie berechnete, wie stark die Zwischenprodukte an den Elektroden haften sollten, um eine möglichst effiziente Reaktion zu erlauben. Die Analyse ergab, dass herkömmlichen Elektroden aus Platin, Rhodium und Palladium die Zwischenprodukte etwas zu stark binden.

Die Forscher modifizierten die Eigenschaften der Platin-Katalysatoroberfläche, indem sie eine Schicht aus Kupferatomen einfügten. Mit dieser Zusatzschicht erzeugte das System doppelt so viel Wasserstoff wie mit einer reinen Platinelektrode. Allerdings nur, wenn die Forscher die Kupferschicht direkt unter der obersten Lage der Platinatome einbrachten. Die Gruppe beobachtete zudem, dass die Elektroden mit der Kupferschicht langlebiger waren, zum Beispiel widerstandsfähiger gegen Korrosion.

Wasserelektrolyse hat sich bislang nicht großflächig durchgesetzt
Nur vier Prozent des weltweit produzierten Wasserstoffs entstehen bislang durch Wasserelektrolyse. Weil die verwendeten Elektroden nicht effizient genug sind, lohnt sich eine großflächige Anwendung nicht. „Bisher wird Wasserstoff überwiegend aus fossilen Brennstoffen gewonnen, wobei eine hohe Menge CO2 freigesetzt wird“, sagt Wolfgang Schuhmann. „Es wäre ein großer Schritt in Richtung klimaschonender Energieumwandlung, wenn wir Wasserstoff stattdessen mittels Elektrolyse gewinnen würden. Dafür könnten wir den Überschussstrom zum Beispiel aus der Windkraft nutzen.“

„Darüber hinaus ermöglicht uns die Forschung an dieser Reaktion zu testen, wie gut wir Katalysatoroberflächen designen können, indem wir unterschiedliche Metallatome präzise positionieren,“ ergänzt Aliaksandr Bandarenka. „Dieses Wissen könnte auch vielen anderen katalytischen Prozessen zugute kommen.“

Förderung
Die Deutsche Forschungsgemeinschaft förderte die Arbeiten im Rahmen der Exzellenzcluster RESOLV (EXC 1069) und Nanosystems Initiative Munich (NIM). Weitere Unterstützung kam von der Helmholtz-Energie-Allianz „Stationäre elektrochemische Speicher und Wandler“ (HA-E-0002).

Originalveröffentlichung
J. Tymoczko, F. Calle-Vallejo, W. Schuhmann, A. S. Bandarenka (2016): Making the hydrogen evolution reaction in polymer electrolyte membrane electrolyzers even faster, Nature Communications, DOI: 10.1038/NCOMMS10990

Weitere Informationen
Prof. Dr. Wolfgang Schuhmann, Analytische Chemie, Zentrum für Elektrochemie, Fakultät für Chemie und Biochemie der Ruhr-Universität Bochum, 44780 Bochum, Tel.: 0234 32 26200, E-Mail: wolfgang.schuhmann@rub.de

Quelle: idw

(nach oben)


Potenzmittel Sildenafil kann Wachstum von Hauttumoren verstärken

Dr. Karl Guido Rijkhoek Hochschulkommunikation
Eberhard Karls Universität Tübingen

Tübinger Biochemiker entdecken Signalweg in Zellen des malignen Melanoms, der von dem Medikament beeinflusst wird

Tübinger Wissenschaftler haben neue Hinweise gefunden, dass die Einnahme des Wirkstoffs Sildenafil das Wachstum von Hauttumoren anregen kann. Sildenafil wird häufig bei Männern zur Behandlung von Erektionsproblemen eingesetzt. Professor Robert Feil und seine Arbeitsgruppe vom Interfakultären Institut für Biochemie der Universität Tübingen konnten im Tierversuch und an menschlichen Zellkulturen nun nachweisen, dass Sildenafil offenbar stimulierend in die Wirkung des Botenstoffes cyclisches Guanosinmonophosphat (cGMP) eingreift, was wiederum das Wachstum von bereits bestehenden bösartigen Melanomen anregt. Ein Angriff auf den cGMP-Signalweg in Melanomzellen könnte im Gegenzug möglicherweise für die Behandlung von Hautkrebs genutzt werden. Die Forschungsergebnisse wurden jetzt in der Fachzeitschrift Cell Reports veröffentlicht.

Der Signalstoff cGMP spielt in vielen komplexen Stoffwechselwegen eine wichtige Rolle, von den Zellen der Blutgefäße und des Herzens bis hin zu Nerven- und Sinneszellen. Seine genaue Wirkung auf erwünschte und unerwünschte Wachstumsprozesse im Körper ist noch weitgehend unbekannt. Die Deutsche Forschungsgemeinschaft (DFG) richtete 2013 zum Thema „cGMP-Signalwege beim Zellwachstum und Überleben“ eine Forschergruppe an der Universität Tübingen ein.

„Wir haben entdeckt, dass auch Zellen des malignen Melanoms den cGMP-Signalweg für ihr Wachstum nutzen“, sagte Feil. Normalerweise sorge in der Zelle ein Enzym, die Phosphodiesterase 5 (PDE5), dafür, dass neu gebildetes cGMP kontinuierlich abgebaut werde. Sildenafil wiederum hemme die Wirkung von PDE5. „PDE5 wirkt in der Zelle wie eine Bremse auf das cGMP“, sagte Feil: „Die Einnahme von Sildenafil schaltet diese Bremse gewissermaßen aus.“ Die Folge sei, dass die Melanome stärker zu wachsen beginnen. Dieser biochemische Mechanismus könnte erklären, warum Sildenafil das Melanomrisiko bei Männern erhöht.

Ein möglicher Zusammenhang zwischen der Einnahme von Sildenafil und Krebs wird in der For-schung seit mehreren Jahren diskutiert. Bei der Auswertung einer Langzeitstudie an rund 15.000 Männern in den USA hatte sich 2014 der Verdacht ergeben, dass die Einnahme von Sildenafil mit einem erhöhten Risiko für bösartige Melanome verbunden ist. Dieser Verdacht erhärtete sich 2015 durch eine weitere Studie an etwa 24.000 Männern aus Schweden. Die beiden Untersuchungen konnten jedoch nicht abschließend klären, ob das erhöhte Melanomrisiko tatsächlich auf eine biolo-gische Wirkung des Arzneimittels auf die Tumorzellen zurückzuführen ist. Nicht ausgeschlossen wurde, dass das vermehrte Auftreten von Hautkrebs bei Männern, die Sildenafil einnehmen, auch eine Folge ihres Lebensstils sein könnte, der durch zahlreiche Urlaube mit intensiven Sonnenbädern oder Besuche in Solarien geprägt war.

Der Tübinger Biochemiker betonte, auch vor dem Hintergrund der neuen Ergebnisse bestehe kein Anlass, Männern generell von der gelegentlichen Einnahme von PDE5-Hemmern zur Behandlung von Erektionsstörungen abzuraten. Zunächst seien weitere Untersuchungen notwendig, um die Übertragbarkeit der Ergebnisse auf den Menschen abzuschätzen. Es sei aber eher unwahrscheinlich, dass der Wirkstoff bereits die Entstehung von Melanomzellen begünstige. „Wir gehen davon aus, dass Sildenafil und möglicherweise auch andere PDE5-Hemmer in erster Linie das Fortschreiten bereits vorhandener Melanome verstärken könnten, vor allem wenn diese Medikamente dauerhaft in hohen Dosen eingenommen werden“, sagte Feil.

Die Ergebnisse anderer Forschungsgruppen deuteten zudem darauf hin, dass der Wirkstoff auf weitere Tumorarten möglicherweise positive Effekte hat, so etwa das Wachstum bestimmter Darmtumore hemmen könnte. Melanompatienten allerdings sollten die Verwendung solcher Medikamente mit ihren Ärzten abklären. „Letztlich sollten wir alle daran denken, unser Melanomrisiko zu reduzieren, indem wir unsere Sonnenexposition vermindern und wirksamen UV-Schutz verwenden“, sagte Feil.

Publikation:
Sandeep Dhayade, Susanne Kaesler, Tobias Sinnberg, Hyazinth Dobrowinski, Stefanie Peters, Ulrike Naumann, He Liu, Robert E. Hunger, Martin Thunemann, Tilo Biedermann, Birgit Schittek, Hans-Uwe Simon, Susanne Feil, and Robert Feil: Sildenafil Potentiates a cGMP-Dependent Pathway to Promote Melanoma Growth. Cell Reports (2016), http://dx.doi.org/10.1016/j.celrep.2016.02.028

Kontakt:
Prof. Dr. Robert Feil
Universität Tübingen
Interfakultäres Institut für Biochemie
Telefon +49 7071 29-73350
robert.feil@uni-tuebingen.de

Quelle: idw

(nach oben)


Brutto-Stundenverdienste in Frauenberufen 2014 um acht Euro niedriger als in Männerberufen

Renate Bogdanovic Pressestelle
Deutsches Institut für Wirtschaftsforschung DIW Berlin

Typische Männerberufe oftmals mit höherem Akademisierungsgrad – doch auch akademisierte Frauenberufe werden häufig schlechter bezahlt – Aufwertung weiblich konnotierter Berufe durch bessere Bezahlung

Berufe, in denen überwiegend Frauen arbeiten, sind im Jahr 2014 um rund acht Euro brutto in der Stunde geringer entlohnt worden als männlich dominierte Berufe. In typischen Frauenberufen wurden durchschnittlich zwölf Euro pro Stunde verdient, in typischen Männerberufen 20 Euro. Die Differenz beträgt damit fast 40 Prozent. Dies zeigt eine Sonderauswertung des Deutschen Instituts für Wirtschaftsforschung (DIW Berlin) auf Basis von Daten der Langzeitstudie Sozio-oekonomisches Panel (SOEP) anlässlich des Equal Pay Day am 19. März 2016. Die Analyse berücksichtigt Erwerbstätige in der Privatwirtschaft in typischen Frauen- und Männerberufen. Hierbei handelt es sich um Berufe, in denen die Anteile von Frauen beziehungsweise Männern jeweils bei 70 Prozent und mehr liegen. Der Unterschied zwischen den Brutto-Stundenlöhnen in typischen Frauen- und Männerberufen bewegt sich seit 2001 auf hohem Niveau und hat sich im Untersuchungszeitraum nur leicht verringert.

Akademisierungsgrad beinflusst die Verdienstlücke – aber nicht nur
Eine ökonomische Erklärung für die bessere Bezahlung in Männerberufen ist der höhere Anteil akademischer Abschlüsse in dieser Gruppe. Ein Vergleich der zehn am häufigsten ausgeübten Frauen- und Männerberufe auf Basis des SOEP zeigt, dass drei der häufigsten Männerberufe – nämlich SoftwareentwicklerIn, UnternehmerIn und IngenieurIn – eine langjährige Qualifikation erfordern, während dies bei den häufigsten Frauenberufen nur für die SozialpädagogInnen zutrifft. „Eine weitere Akademisierung der Frauenberufe vor allem im Bereich Gesundheit und Pflege wäre daher ein Schritt in die richtige Richtung zu mehr Entgeltgleichheit zwischen Frauen und Männer“, argumentiert die DIW-Forschungsdirektorin für Gender Studies Elke Holst.

Dies dürfte jedoch als Erklärung für die Verdienstlücke noch nicht ausreichen. Ein weiterer Faktor bei der Entgeltungleichheit ist neben dem niedrigen Akademisierungsgrad die Tatsache, dass selbst akademisierte Frauenberufe deutlich schlechter bezahlt werden als Männerberufe. Beispielsweise erhielten SozialarbeiterInnen 2014 für eine Stunde Erwerbsarbeit im Schnitt 16 Euro brutto, wohingegen der männlich dominierte Beruf der IngenieurInnen mit durchschnittlich 29 Euro vergütet wurde. Da die Bildungsdauer in beiden Berufen mit 15 Jahren gleich lang ist, kann man daraus schließen, dass Erwerbstätige in diesen Männerberufen finanziell stärker von ihrer Investition in Bildung profitieren.

Männlich konnotierte Tätigkeiten erfahren höhere Wertschätzung
Eine häufig in der Sozialwissenschaft angeführte Erklärung ist, dass männlich konnotierte Tätigkeiten gesellschaftlich eine höhere Wertschätzung erfahren als weiblich konnotierte. Holst verweist auf Studien, die dies belegen: „Da typische Frauenberufe meist im Bereich Pflege, Erziehung und Soziales angesiedelt sind, wird auch von der gesellschaftlichen Abwertung der Care-Arbeit gesprochen.“ In der Tat verdienten AltenpflegerInnen im Jahr 2014 durchschnittlich zwölf Euro brutto pro Stunde. Demgegenüber wurde der von Männern dominierte Beruf der TechnikerInnen mit 18 Euro pro Stunde vergütet, obwohl Erwerbstätige in beiden Berufen im Durchschnitt gleichermaßen zwölf Jahre in ihre Bildung investiert hatten. „Dieses Muster dürfte auf die Vorstellung zurückgehen, dass Care-Arbeit keine spezifische Qualifikation erfordert, da sie in der Vergangenheit vor allem in den Bereichen Kinderbetreuung und Altenpflege unbezahlt von Frauen in Familien geleistet wurde“, so Gender-Expertin Holst. Durch die stark gestiegene Erwerbsbeteiligung der Frauen wächst jedoch die Nachfrage nach institutionellen Angeboten für Kinderbetreuung und Altenpflege. Dadurch wird Care-Arbeit zunehmend marktmäßig organisiert – jedoch vergleichsweise gering entlohnt.

Die geringere monetäre Bewertung von typischen Frauenberufen trägt maßgeblich zur Verdienstlücke zwischen Frauen und Männer (Gender Pay Gap) bei. „Um diese zu schließen, bedarf es auch einer Aufwertung der Care-Arbeit durch höheren Löhne in typischen Frauenberufen“, so Holst.

Equal Pay Day
Der Equal Pay Day soll auf die schlechtere Bezahlung von Frauen aufmerksam machen. Um das Einkommen zu erzielen, das Männer bereits am 31. Dezember des Vorjahres hatten, müssen Frauen bis zum sogenannten Equal Pay Day des Folgejahres arbeiten.
Weitere Informationen:
http://diw.de/documents/dokumentenarchiv/17/diw_01.c.528913.de/20160311_pm_equal… – Abbildungen zur Pressemitteilung
http://diw.de/documents/dokumentenarchiv/17/diw_01.c.528915.de/20160311_pm_equal… – Tabelle zur Pressemitteilung

Quelle: idw

(nach oben)


Biogas repowered – Umfassende Maßnahmen zur effizienteren Biogasgewinnung

Angela Gröber Presse- und Öffentlichkeitsarbeit
Deutsches Biomasseforschungszentrum

Die technische Entwicklung schreitet voran. Ein Repowering der Bestandsbiogasanlagen für die Energiewende ist notwendig. Das vom BMWi geförderte Projekt „Repowering – Maßnahmen zur Effizienzsteigerung für den vorhandenen Anlagenbestand“ hat auf Basis einer umfassenden Datenanlyse von über 1.800 Biogasanlagen die Möglichkeiten zur Optimierung und die Kosten eines Repowerings zusammengetragen.

Im Zuge der Energiewende sieht sich Biogas ungeachtet seiner Vielzahl positiver Eigenschaften – Ende 2015 erzeugten allein ungefähr 8.000 Anlagen Strom und Wärme aus regenerativen Quellen – vielen Herausforderungen gegenüber: So ergeben sich neue Anforderungen durch die notwendige flexible Energiebereitstellung, die alte Bestandsanlagen (20 % sind älter als 10 Jahre) ohne technische Nachrüstung nicht leisten können. Heute steht ein breites Angebot an neuen Technologien (z. B. Gaseinspeisung) bereit, um die Effizienz der einzelnen Biogasanlage signifikant zu erhöhen. Darüber hinaus wissen die Betreiber heute besser, was im Biogasprozess vor sich geht und können die Prozessbiologie positiv beeinflussen.

„Unsere Analysen bestätigen, dass es große Unterschiede in der technischen Ausgestaltung und Prozessführung der Biogasanlagen gibt und teilweise signifikante Verbesserungen und Ertragssteigerungen realisiert werden könnten“, erklärt Joachim Krassowski vom Fraunhofer Institut für Umwelt-, Sicherheits- und Energietechnik UMSICHT. Zusammen mit den Partnern der Bioreact GmbH, der gewitra mbH und der bonalytic GmbH wurde im Projekt „Repowering“ (03KB071) eine Strategie und Maßnahmen zur effizienteren Biogasgewinnung entwickelt. Ziel ist es, dass Bestandsanlagen zur Stromerzeugung auf Grundlage neuester Erkenntnisse und Technologien optimiert werden.

Als Repowering-Maßnahmen wurden technische Optionen zur Weiterentwicklung des Biogasanlagen-bestands identifiziert. Dazu gehören verfahrenstechnische und biologische Optimierungen, der Anlagenneubau, der Zusammenschluss einzelner Biogasanlagen sowie die Erweiterung bestehender Anlagen. Ebenso wurden verschiedene Gasverwertungskonzepte, wie die Vorortverstromung, die Gaseinspeisung und die direkte Nutzung von Biogas als Fahrzeugkraftstoff, betrachtet.

Insgesamt wurden die Daten von 1.809 Biogasanlagen ausgewertet. Grundsätzlich zeigte sich, dass ein großes Potenzial für das Repowering und damit auch für eine bessere Integration in ein regeneratives Energiesystem besteht. Unter Berücksichtigung des aktuellen regulatorischen Rahmens sind ins¬be¬sondere die Vermeidung von Methanverlusten und eine Optimierung der Gärbiologie die am ehesten wirtschaftlichen Maßnahmen.

Technische Maßnahmen
„Leckagen können nicht zwangsläufig über den Geruchssinn wahrgenommen werden Regelmäßige Wartung durch Leckage- und Dichtheitsuntersuchungen verringert die Methan-Emissionen der Anlagen. Denn Gas, das nutzlos aus der Anlage entweicht, liefert keinen Strom und schadet dem Klima“, fasst Projektleiter Joachim Krassowski die erste und einfache Maßnahme im Repowering-Paket zusammen.

Prozessrelevante Maßnahmen
Die Forscher entwickelten ein Konzept zur enzymatischen Vorhydrolyse als mögliche Alternative zu kostenintensiven technisch-physikalischen Aufschlussverfahren für faserhaltige Substrate mit geringerem Energiebedarf. In der Praxis kann dieses Konzept in verfahrenstechnischer Hinsicht auf alle bestehenden, anaeroben Vergärungsverfahren aufgesetzt werden.
Ferner untersuchten die Forscher auch die Flexibilisierung der Biogasbeschickung. Mit dem Einsatz einer Hydrolysestufe kann ein Umstieg von einer überwiegend auf Maissilage basierenden Substratmischung zu vorwiegend Reststoffen ermöglicht werden.

Flexibilisierungsmaßnahmen und Anlagenkonzept
Den höheren Kosten durch Nachrüstung an der Biogasanalage (z. B. durch zusätzliche Gasspeicher und BHKWs, Gaseinspeisung) stehen deutliche Vorteile bei der Anlagenflexibilität, der Energieeffizienz und beim Treibhausgasminderungspotenzial gegenüber.

Flexibilität ist vor allem im Hinblick auf Wärmenutzungskonzepte das Gebot der Stunde. Mögliche Konzepte betreffen Nahwärmenetze, Satelliten-BHKWs aber auch ein Mikrogassystem, in dem das Biogas zum potenziellen Nutzer mittels Gasleitung transportiert wird. Flexibilisierung vor Ort ist immer dann vorteilhaft, wenn ein ausreichende Gasspeicherkapazitäten, und eine sinnvolle Wärmenutzung gewährleistet werden. In Planbeispielen zeigten die Forscher, dass ein Verbund von verschiedenen Biogasanlagen und einer gemeinsamen Gaseinspeisung sinnvoll sein kann, um eine höhere Flexibilität und bessere Wärmekonzepte realisieren zu können.

Resümee
Die Erkenntnisse des Repowering-Projektes wurden anschaulich in übersichtlichen Factsheets zusammengefasst und in einer Datenbank zugänglich gemacht, die einzelne Repowering-Optionen und ggf. vorhandene Umsetzungshemmnisse enthält.

Koordination
Fraunhofer-Institut für Umwelt-, Sicherheits- und Energietechnik UMSICHT
Osterfelder Straße 3, 46047 Oberhausen
Joachim Krassowski – Projektleiter
Telefon: +49 (0)208 8598-1162
E-Mail: joachim.krassowski@umsicht.fraunhofer.de

https://www.energetische-biomassenutzung.de/de/vorhaben/liste-aller-vorhaben/pro…
http://maps4use.de/2015/09/bioenergie/

Anhang
Sheets zum Repowering von Biogasanlagen
https://idw-online.de/de/attachment48947

Quelle: idw

(nach oben)


Bluttest zur Diagnose von Alzheimer entwickelt

Raffaela Römer Dezernat Hochschulkommunikation
Ruhr-Universität Bochum

Die Alzheimerkrankheit wird heute zu spät diagnostiziert. Forscher der Ruhr-Universität Bochum (RUB) haben jetzt zusammen mit Wissenschaftlern der Universität Göttingen und des dortigen Deutschen Zentrums für Neurodegenerative Erkrankungen (DZNE) einen Alzheimer-Bluttest entwickelt, der potenziell auch eine Früherkennung ermöglicht. Er basiert auf einem immuno-chemischen Verfahren in Form eines Infrarotsensors.

Titelgeschichte in renommierter Fachzeitschrift
Die Oberfläche des Sensors ist mit hochspezifischen Antikörpern belegt. Sie fischen Biomarker für die Alzheimerkrankheit aus dem Blut oder dem Nervenwasser, das im unteren Bereich des Rückens entnommen werden kann, heraus. Der Infrarotsensor misst, ob die Biomarker bereits krankhaft verändert sind, was schon mehr als 15 Jahre vor dem Auftreten klinischer Symptome der Fall sein kann. Die Methode wurde jetzt als Titelgeschichte in der international renommierten Fachzeitschrift „Biophotonics“ vorgestellt und die klinischen Studienergebnisse in der „Analytical Chemistry“ veröffentlicht.

Diagnose kommt heute meist zu spät
Ein großes Problem der Diagnose von Morbus Alzheimer ist die Tatsache, dass beim Auftreten erster klinischer Symptome bereits massive irreversible Schäden des Gehirns vorliegen. Zu diesem Zeitpunkt ist nur noch eine symptomatische Behandlung möglich. „Wenn wir in Zukunft über ein Medikament verfügen wollen, dass den weiteren Krankheits-Verlauf deutlich verlangsamen kann, benötigen wir dringend Bluttests, die die Alzheimerkrankheit bereits in prädemenziellen Phasen entdecken können“, sagt Prof. Dr. Klaus Gerwert, Leiter des Lehrstuhls für Biophysik der RUB. „Ein frühzeitiger Einsatz derartiger Medikamente könnte die drohende Demenz entweder aufhalten oder zumindest den Zeitraum verlängern, bis sie auftritt“, ergänzt Prof. Dr. med. Jens Wiltfang, Direktor der Klinik für Psychiatrie und Psychotherapie der Universitätsmedizin Göttingen und Koordinator der Klinischen Forschung des dortigen Standorts des DZNE.

Morbus Alzheimer und die Fehlfaltung des Amyloid-beta-Peptids
Als Biomarker dient bei dem neu entwickelten Test die Struktur der sogenannten Amyloid-beta-Peptide. Sie verändert sich bei der Alzheimererkrankung. In der fehlgefalteten, krankhaften Struktur können sich immer mehr Amyloid-beta-Peptide aneinander lagern und nach einiger Zeit die für Alzheimer typischen sichtbaren Plaque-Ablagerungen im Gehirn bilden. Dies geschieht schon mehr als 15 Jahre bevor klinische Symptome bei den Patienten sichtbar werden. Zwischenzeitlich kann man die krankhaften Beta-Amyloid-Plaques zwar auch durch die Positronen-Emissions-Tomografie, kurz Amyloid-PET, sichtbar machen, dieses Verfahren ist aber vergleichsweise teuer und mit einer Strahlenbelastung verbunden.

Patentiertes Verfahren zur Diagnose von Alzheimer
Die Gruppe um Prof. Dr. Klaus Gerwert hat gemeinsam mit Prof. Dr. med. Jens Wiltfang aus Göttingen im Rahmen der Doktorarbeiten von Andreas Nabers und Jonas Schartner nun ein Verfahren entwickelt, das genau diese Fehlfaltung der Amyloid-beta-Peptide nachweist. Ihr infrarotbasierter Sensor extrahiert das Amyloid-beta-Peptid gezielt aus Körperflüssigkeiten. Das Verfahren ist zum Patent angemeldet. Anfangs arbeiteten die Wissenschaftler mit Proben von Nervenwasser, erweiterten das Verfahren dann aber auch auf die Analyse von Blut. „Dabei selektieren wir nicht nur eine einzelne mögliche Faltung des Peptids, sondern detektieren erstmals die Verteilung aller vorliegenden Amyloid-beta-Strukturen, also der gesunden und der kranken Formen gleichzeitig“, so Gerwert. Erst die Summe aller Sekundärstrukturen erlaube eine präzise Diagnostik. Tests, die das Amyloid-beta-Peptid analysieren, gibt es bereits mit den sogenannten Enzyme-Linked-Immunosorbent-Assays (ELISA). Sie bestimmen die Gesamtkonzentration, Verhältnisse verschieden langer Formen oder auch die Konzentration einzelner Konformationen in Körperflüssigkeiten, bisher aber nicht die diagnostisch wichtige Verteilung aller Formen gleichzeitig. „Daher zeigen die bisherigen ELISA-Tests in der Praxis nur einen mäßigen Erfolg bei Anwendung auf Blutproben“, erklärt Klaus Gerwert.

Erste klinische Studien sind gelaufen
Mit dem in Bochum und Göttingen neu entwickelten Verfahren haben die Wissenschaftler bereits Proben von 141 Patienten untersucht. Dabei haben sie eine diagnostische Genauigkeit von 84 Prozent in Blut und 90 Prozent in Nervenwasser im Vergleich zum klinischen Goldstandard erzielt. Im Test zeigt sich eine Zunahme fehlgefalteter Biomarker als spektrale Verschiebung der Amyloid-beta-Bande unterhalb eines Schwellwertes und diagnostiziert dadurch Alzheimer. „Das Besondere ist dabei, dass es sich hier um einen einzigen robusten markerfreien Test mit einem einzigen Grenzwert handelt“, beschreibt Andreas Nabers das Ergebnis seiner Dissertation.

Ein potenzieller Sensor für die Früherkennung
Im Rahmen der veröffentlichten Studie haben die Forscher bereits an einer kleinen Gruppe von Patienten auch das wichtige Potenzial zur Früherkennung von Morbus Alzheimer getestet. Die Ergebnisse deuten an, dass auch in prädemenziellen Stadien ein erhöhter Anteil an fehlgefalteten Amyloid-beta-Peptiden in Körperflüssigkeiten detektiert werden kann. Damit könnte künftig die Diagnose von Morbus Alzheimer in präklinischen Stadien möglich sein. „Je früher man Alzheimer erkennt, desto größer sind die Chancen auf eine mögliche Therapie. Dieser Sensor ist ein wichtiger Meilenstein in diese Richtung“, ergänzt Prof. Dr. Jens Wiltfang. Derzeit laufen Messungen an Proben zur Früherkennung von 800 Probanden, um die statische Signifikanz weiter zu verbessern.

Projektförderung
Fördermittel für das Projekt stammen aus PURE (Protein Research Unit Ruhr within Europe), dessen Sprecher Prof. Dr. Klaus Gerwert ist.

Originalveröffentlichungen
A. Nabers, J. Ollesch, J. Schartner, C. Kötting, J. Genius, U. Haußmann, H. Klafki, J. Wiltfang, and K. Gerwert (2016): An infrared sensor analysing label-free the secondary structure of the Abeta peptide in presence of complex fluids, Journal of Biophotonics, DOI: 10.1002/jbio.201400145
http://onlinelibrary.wiley.com/doi/10.1002/jbio.201400145/abstract

A. Nabers, J. Ollesch, J. Schartner, C. Kötting, J. Genius, H. Hafermann, H. Klafki, K. Gerwert, and J. Wiltfang (2016): The Amyloid-beta seconday structure distribution in CSF and blood measured by an immuno-IR-sensor: a novel biomarker candidate for Alzheimer’s disease, Analytical Chemistry, Doi:10.1021/acs.analchem.5b04286.

Angeklickt
Frühere Presseinformation zu dem Thema
http://aktuell.ruhr-uni-bochum.de/pm2013/pm00067.html.de

Weitere Informationen
Prof. Dr. Klaus Gerwert, Lehrstuhl für Biophysik, Fakultät für Biologie und Biotechnologie der Ruhr-Universität, 44780 Bochum, Tel.: 0234 32 24461, E-Mail: gerwert@rub.de

Prof. Dr. med. Jens Wiltfang, Direktor der Klinik für Psychiatrie und Psychotherapie, Universitätsmedizin Göttingen und DZNE – Deutsches Zentrum für Neurodegenerative Erkrankungen e.V., Koordinator der Klinischen Forschung am Standort Göttingen, von-Siebold-Str. 5, 37075 Göttingen, Tel.: 0551-39 66601, E-Mail: jens.wiltfang@med.uni-goettingen.de

Weitere Informationen:
http://aktuell.ruhr-uni-bochum.de/pm2016/pm00034.html.de

Quelle: idw

(nach oben)


Industrielle Abwärme als Energieträger: Mit neuen Wärmespeichern zur konstanten Stromversorgung

Christian Wißler Mediendienst Forschung
Universität Bayreuth

Ein neuartiger Wärmespeicher, wie er jetzt zu Forschungszwecken auf dem Campus der Universität Bayreuth installiert wurde, ermöglicht in Verbindung mit einer ORC-Anlage eine konstante Stromerzeugung auf der Basis von Abwärme. Daraus ergeben sich interessante Perspektiven für die Energiewende – nicht zuletzt deshalb, weil sich auf diesem Weg wetterbedingte Schwankungen von Photovoltaik- und Windkraftanlagen ausgleichen lassen.

Große Kernreaktoren und Kohlekraftwerke durch kleinere umweltfreundlichere Anlagen zu ersetzen, ist eine zentrale Herausforderung der Energiewende. Neue Technologien der Energiegewinnung sind gefragt, um auch künftig eine zuverlässige und flächendeckende Stromversorgung gewährleisten zu können. Dabei richtet sich das Interesse zunehmend auf die in Industrieanlagen entstehende Abwärme. Sie wird bisher in den meisten Fällen ungenutzt über Kamine oder Kühlsysteme an die Umgebung abgegeben. Eine besonders aussichtsreiche Technologie, mit der aus dieser Abwärme Strom erzeugt werden kann, beruht auf dem Organic Rankine Cycle (ORC). Dies ist ein Dampfkraftprozess, der im Prinzip schon vor rund 150 Jahren von dem schottischen Ingenieur William Rankine entwickelt wurde. In ORC-Anlagen, die Abwärme zur Stromerzeugung nutzen, kommen allerdings anstelle von Wasser organische Fluide, wie beispielsweise Kältemittel, zum Einsatz. Sie haben den Vorteil, dass sie bereits bei verhältnismäßig niedrigen Temperaturen verdampfen und hierbei einen für die Verstromung ausreichend hohen Druck aufbauen.

Industrielle Abwärme: ein vielversprechender Energieträger
Wie können kleine ORC-Anlagen optimal für die Stromerzeugung genutzt werden? Diese Frage bildet seit mehreren Jahren einen Forschungsschwerpunkt am Lehrstuhl für Technische Thermodynamik und Transportprozesse (LTTT), der dem Zentrum für Energietechnik (ZET) der Universität Bayreuth angehört. Unter der Leitung von Prof. Dr.-Ing. Dieter Brüggemann wurde hier ein ORC-Minikraftwerk entwickelt, das im Mai 2015 auf dem Bayreuther Campus in Betrieb ging. Partner in diesem Projekt waren die Ostbayerische Technische Hochschule Amberg-Weiden und die DEPRAG Schulz GmbH u. Co in Amberg. Während der Forschungsarbeiten bestätigte sich, dass industrielle Abwärme grundsätzlich ein sehr vielversprechender Energieträger ist. Doch um sie für eine verlässliche Stromversorgung von Unternehmen oder Privathaushalten nutzen zu können, muss eine entscheidende Hürde genommen werden: Industrielle Abwärme unterliegt oft starken Temperaturänderungen, so dass auch die aus der Abwärme gewonnene elektrische Energie erheblich schwankt. Wie können die Schwankungen ausgeglichen werden?

Konstante Stromerzeugung dank eines neuartigen Zwischenspeichers
Bei der Lösung des Problems ist das Bayreuther Forschungsteam um Prof. Brüggemann jetzt einen wesentlichen Schritt vorangekommen. Grundlage hierfür war eine enge Zusammenarbeit mit zwei baden-württembergischen Industriepartnern, der enolcon GmbH und der STORASOL GmbH in Bietigheim-Bissingen. Im Rahmen dieser Kooperation wurde zu Forschungszwecken auf dem Bayreuther Campus ein neuartiger Wärmespeicher errichtet. Dieser Speicher besteht aus mehreren Modulen, die sich einzeln und voneinander unabhängig zum Be- und Entladen von insgesamt bis zu 1,5 Megawattstunden Wärme nutzen lassen. Ebenso ist aber auch ein paralleler Betrieb dieser Module und eine Serienschaltung von zwei oder mehr Modulen möglich. Hauptsächliches Speichermaterial ist Sand, der in mehreren Schichten („Speichermaterial-Wänden“) angeordnet ist. Diese werden vom gasförmigen, bis zu 600 Grad Celsius heißen Wärmeträgermedium – also von Luft oder Rauchgas – durchströmt.

Der von der Firma enolcon entwickelte Speicher wurde mit dem ORC-Minikraftwerk auf dem Bayreuther Campus gekoppelt und vor wenigen Tagen im Rahmen einer energietechnischen Fachtagung offiziell in Betrieb genommen. Überschüssige Abwärme, die nicht unmittelbar für die Stromerzeugung benötigt wird, kann jetzt im Wärmespeicher aufgefangen werden. Sobald der Abwärmestrom schwächer wird, kann zusätzliche Wärme aus dem Speicher in die ORC-Anlage eingespeist werden. So lassen sich ‚Spitzen‘ und ‚Täler‘ des Abwärmestroms wechselseitig ausgleichen – mit dem Ergebnis, dass die Stromerzeugung durch die ORC-Technologien im Wesentlichen konstant bleibt. „Diese Kombination einer ORC-Anlage mit einem leistungsstarken Wärmespeicher macht die Nutzung industrieller Abwärme für die Stromgewinnung deutlich attraktiver“, freut sich Prof. Brüggemann.

Weitere Perspektiven: Vernetzungen mit Photovoltaik- und Windkraftanlagen
Der Bayreuther Ingenieurwissenschaftler hat zugleich weiterreichende Anwendungen im Blick. Da ORC-Anlagen in Kombination mit Wärmespeichern die Möglichkeit bieten, die aus industrieller Abwärme erzeugte elektrische Leistung nach Bedarf zu regulieren, können sie gezielt eingesetzt werden, um wetterbedingte Schwankungen von Photovoltaik- und Windkraftanlagen auszugleichen. Sobald diese nicht genügend Strom liefern, können ORC-Anlagen einspringen und zusätzlich benötigten Strom in die Versorgungsnetze einspeisen.

„Die Kombination von ORC- und Speichertechnologien, wie wir sie zu Forschungszwecken auf dem Bayreuther Campus realisiert haben, eröffnet spannende Perspektiven für Vernetzungen unterschiedlicher dezentraler Energiesysteme. Solche Vernetzungen sind technologisch anspruchsvoll und eine wesentliche Bedingung für das Gelingen der Energiewende“, meint Prof. Brüggemann.

Kontakt:
Prof. Dr.-Ing. Dieter Brüggemann
Lehrstuhl für Technische Thermodynamik und Transportprozesse (LTTT)
Zentrum für Energietechnik (ZET)
Universität Bayreuth
D-95440 Bayreuth
Tel.: +49 (0) 921 55 -7160 / -7161
E-Mail: brueggemann@uni-bayreuth.de

Quelle: idw

(nach oben)


Omega-3-Fettsäuren wirken nachweislich positiv auf das alternde Gehirn

Manuela Zingl GB Unternehmenskommunikation
Charité – Universitätsmedizin Berlin

Natürliche Nahrungsergänzung zur Vorbeugung von Alzheimer Demenz

Wissenschaftler der Charité – Universitätsmedizin konnten nachweisen, dass sich die menschliche Gedächtnisleistung bei einer Einnahme von Omega-3-Fettsäuren verbessert. Über einen sechsmonatigen Studienzeitraum haben die Forscher den Einfluss dieser natürlichen Nahrungsergänzung bei gesunden, älteren Personen überprüft. Die Erinnerungsfähigkeit der Teilnehmer hat sich während dieser Zeit signifikant gesteigert, berichten die Forscher in der aktuellen Ausgabe der Fachzeitschrift Journal of Alzheimer‘s Disease*.

Gedächtnisveränderungen und Gedächtnisverluste gehören zum Alterungsprozess. Im Fall von neurodegenerativen Erkrankungen, wie der Alzheimer Demenz oder ihrem Vorstadium, einer leichten kognitiven Beeinträchtigung, verläuft dieser Prozess allerdings beschleunigt. Derzeit gibt es keine effektiven Behandlungsmöglichkeiten für diese Erkrankungen. Um die Leistungsfähigkeit und damit auch Selbstständigkeit der Patienten möglichst lange aufrechtzuerhalten, suchen Mediziner und Wissenschaftler beständig nach neuen Ansätzen. Eine gezielte Vorbeugung ist für den möglichst langen Erhalt der Gehirnleistung ebenfalls entscheidend.

„Es sollte sich idealerweise um Maßnahmen handeln, die sich langfristig und präventiv bereits bei gesunden älteren Probanden anwenden lassen und leicht in den Alltag integrierbar sind“, sagt Dr. Nadine Külzow, von der Klinik und Hochschulambulanz für Neurologie der Charité. Die Einnahme von Nahrungsergänzungsmitteln ist eine solche Möglichkeit. „Für verschiedene Nahrungsinhaltsstoffe, darunter Omega-3-Fettsäuren, wird eine direkte Wirkung auf die Funktion von Nervenzellen diskutiert. Daher haben wir die Effekte einer Einnahme von 2.200 Milligramm pro Tag auf das Gedächtnis über sechs Monate hinweg untersucht“, so Dr. Külzow.

Probanden, die Omega-3-Fettsäure erhalten hatten, verbesserten sich in der Bewältigung einer Gedächtnisaufgabe stärker als Menschen, die ein Placebo in Form von Sonnenblumenöl einnahmen. Für eine bessere Sprachlernfähigkeit konnten die Wissenschaftler allerdings keinen Beleg finden. „Die Ergebnisse der Studie verweisen auf eine möglichst langfristige Strategie, um die kognitive Leistungsfähigkeit im Alter zu erhalten. Gezielte Ernährungsinterventionen können dabei zentrales Element sein“, resümieren die Wissenschaftler. Ob sich die nachgewiesenen Verbesserungen im Alltag bemerkbar machen, muss an weiteren, größeren klinischen Studien geprüft werden. In einem nächsten Schritt soll vorerst die Wirksamkeit einer kombinierten Gabe von Omega-3-Fettsäuren mit Vitamin B geprüft werden. Studien aus Oxford legen nahe, dass sich hierbei synergistische Effekte ergeben könnten.

*Nadine Külzow, Veronica Witte, Lucia Kerti, Ulrike Grittner, Jan Philipp Schuchardt, Andreas Hahn and Agnes Flöel. Impact of Omega-3 Fatty Acid Supplementation on Memory Functions in Healthy Older Adults. Journ. Alzheimers Dis. 2016 Feb 10. doi: 10.3233/JAD-150886.

Teilnehmer gesucht:
Für weitere Untersuchungen zur Wirksamkeit einer regelmäßigen Nahrungsergänzung auf kognitive Fähigkeiten wie Lernen und Gedächtnis werden derzeit noch Teilnehmer zwischen 60 und 80 Jahren gesucht, die an einer Verschlechterung der Gedächtnisfunktion leiden. Informationen hierzu stehen im Internet bereit: http://www.neurocure.de/ag-kognitive-neurologie.html

Kontakt:
Dr. Nadine Külzow
Klinik und Hochschulambulanz für Neurologie
Neurocure Clinical Research Center
Charité – Universitätsmedizin Berlin
t: +49 30 450 560 365
E-Mail: nadine.kuelzow@charite.de

Weitere Informationen:
http://www.charite.de
http://neurologie.charite.de/forschung/

Quelle: idw

(nach oben)


Die Kraniche kommen – vielleicht ein letztes Mal

Eva Goris Kommunikation
Deutsche Wildtier Stiftung

Industrielle Windenergieanlage gefährdet ein Wildtier-Paradies in Mecklenburg-Vorpommern

Die Kraniche kommen. Viele Tausend der majestätischen Vögel sind nach ihrem kräftezehrenden Nonstop-Flug aus dem Süden Europas jetzt im Anflug auf Mecklenburg-Vorpommern. Die ersten sind bereits gelandet, um ihre Brutplätze zu besetzen und ihre spektakulären Balztänze aufzuführen. Der Galenbecker See ist seit Jahrhunderten ihre Heimat. Hier rasten die eleganten Vögel, hier ziehen sie ihren Nachwuchs auf. Die nahegelegene Friedländer Große Wiese ist für die „Vögel des Glücks“ – so die japanische Mythologie – ein wichtiges Nahrungshabitat. Die Kraniche können nicht ahnen, dass die 4. Änderung des Flächennutzungsplanes der kleinen Gemeinde Ferdinandshof sie in naher Zukunft zu heimatlosen „Pechvögeln“ machen wird. Denn genau in diesem wertvollen EU-Vogelschutzgebiet nahe der Stadt Neubrandenburg soll eine Windkraftanlage gebaut werden! Die Großanlage würde im Abstand von 3,5 bis 8 Kilometern von drei wichtigen Kranichschlafplätzen gebaut und würde den Fortbestand der Rastplätze gefährden.
Die ausgewiesene Fläche für den Bau der Windkraftanlage befindet sich direkt im Hauptflugkorridor zwischen den Schlafplätzen und den Nahrungsgewässern für Kraniche. Aber auch Grau-, Bläss- und Saatgänse sowie Höcker- und Singschwäne brauchen die Friedländer Große Wiese, die mit rund 20.000 Hektar Moorboden etwa so groß wie 25.000 Fußballfelder ist. Damit ist das Gebiet das größte und wichtigste Niedermoor in Norddeutschland!
„Die Auswirkungen einer industriellen Windenergieanlage auf dieses wertvolle Biotop sind immens“, sagt Prof. Dr. Fritz Vahrenholt, Alleinvorstand der Deutschen Wildtier Stiftung. „Die negativen Folgen auf die Vogelwelt sind beträchtlich und in vergleichbaren Lebensräumen nachgewiesen.“ Am Ende wird ein Wildtier-Paradies einem umstrittenen Energie-Projekt geopfert.
Der Lebensraum des größten geschlossenen Niedermoorgebietes liest sich wie das „Who is who“ bedrohter Arten: Schreiadler brüten hier, Kornweihen und Raufußbussarde, Sumpfohreulen sowie viele Tausend Buch- und Bergfinken, Rot- und Wacholderdrosseln, Wiesenpieper und Goldammern nutzen das Nahrungshabitat. Die Friedländer Große Wiese ist für Laub-, Moor- und Grasfrösche, Erdkröten und Ringelnattern ein überlebenswichtiger Lebensraum. „Allesamt sind Rote-Listen-Arten und verdienen besonderen Schutz“, sagt der Alleinvorstand der Deutschen Wildtier Stiftung. „Seltene Wildtiere sollen hier einer unausgegorenen Energiepolitik geopfert werden“, kritisiert Prof. Vahrenholt. „Das rasante Artensterben und der Schwund der Biodiversität werden heruntergespielt, ignoriert und einer fragwürdigen Klimapolitik gegen den Willen der Bürger geopfert.“
Auf die Frage: „Wohin mit der vielen Windenergie, falls der Wind bläst?“, bleibt die Landespolitik ohnehin eine Antwort schuldig. Denn bei mäßigem bis starkem Wind sind die Stromleitungen im Norden nicht in der Lage, den Strom abzutransportieren. „Dann müssen ganze Windparks abgestellt werden – doch der nicht produzierte Strom wird dem Windparkbetreiber trotzdem vergütet.“ Für Prof. Fritz Vahrenholt erhöht „jeder neue Windpark in Mecklenburg-Vorpommern die Wahrscheinlichkeit dieser unsinnigen Nullsummenpolitik“. Einige Wenige profitieren von der Schildbürgerei: „Es sind die Projektentwickler und Betreiber der Windenergieanlagen! Die Rechnung zahlt hinterher der private Haushaltstromkunde und die Natur bleibt auf der Strecke.“

Weitere Informationen:
http://Kostenloses Bildmaterial: www.Presse.DeutscheWildtierStiftung.de
http://Pressekontakt
http://Eva Goris, Pressesprecherin, Christoph-Probst-Weg 4, 20251 Hamburg,
http://Telefon 040 9707869-13, Fax 040 9707869-19,
http://E.Goris@DeutscheWildtierStiftung.de, www.DeutscheWildtierStiftung.de

Quelle: idw

(nach oben)


Forscher entdecken Feenkreise in Australien

Susanne Hufe Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum für Umweltforschung – UFZ

Die kreisrunden, kahlen Stellen, die in einem sehr regelmäßigen Muster das trockene Grasland Namibias überziehen, galten bisher als weltweit einmalig. Sind sie aber nicht, zeigt eine neue Studie im Fachjournal PNAS: Gemeinsam mit israelischen und australischen Kollegen haben Wissenschaftler vom Helmholtz-Zentrum für Umweltforschung (UFZ) in Leipzig die rätselhaften Strukturen nun auch im menschenleeren Outback Australiens entdeckt. Die dortigen Untersuchungen liefern auch neue Indizien dafür, dass solche Feenkreise bei Wassermangel durch eine Selbstorganisation der Pflanzen entstehen.

Aufmerksam geworden sind die Forscher auf das Naturphänomen in Australien durch das Foto einer australischen Kollegin in Newman. Diese hatte ihnen ein Luftbild aus der Umgebung der Stadt geschickt. Darauf waren Pflanzenformationen zu sehen, die den Feenkreisen, die sonst nur im südlichen Afrika zu finden sind, sehr ähnlich schienen.

In der Fachwelt gibt es verschiedene Theorien darüber, wie diese kahlen, von Gras gesäumten Kreise entstehen: Einige Forscher haben dabei vor allem Termiten oder Ameisen in Verdacht. Diese Insekten sollen der Theorie zufolge an den Wurzeln der Gräser knabbern und sie dadurch zum Absterben bringen. Andere Wissenschaftler vermuten dagegen, dass unter den Kreisen Kohlenmonoxid als giftiges Gas aus dem Erdinneren aufsteigt und die Vegetation abtötet. Und eine dritte Fraktion geht davon aus, dass die kahlen Stellen unter bestimmten Bedingungen ganz von selbst entstehen. Am Übergang zwischen Wüste und Grasland reicht das Wasserangebot demnach nicht für eine geschlossene Vegetationsdecke aus. Also konkurrieren die einzelnen Gewächse um die kostbare Flüssigkeit und bilden dabei durch Selbstorganisation den charakteristischen, löchrigen Grasteppich.

Feenkreis-Experte Dr. Stephan Getzin vom UFZ favorisiert seit Jahren die dritte Theorie. Vor allem Luftbilder von den entsprechenden Landschaften haben ihn davon überzeugt. Darauf hat er in früheren Studien die genaue Lage der kahlen Stellen analysiert. „Das Besondere an Feenkreisen ist, dass sie sich auch über größere Gebiete erstaunlich regelmäßig und homogen verteilen, aber nur innerhalb eines engen Niederschlagsbereichs“, erläutert der Forscher. Ein solches Muster, das an die sechseckige Struktur von Bienenwaben erinnert, kann seiner Ansicht nach am ehesten durch die Konkurrenz um Wasser entstehen. Diese Einschätzung haben er und seine Co-Autoren Hezi Yizhaq und Ehud Meron von der Ben-Gurion-Universität des Negev in Israel auch mit Computer-Simulationen bestätigt. „Lange hatten Ökologen die Selbstorganisation von Pflanzen in Trockengebieten nicht so recht wahrgenommen, da die theoretischen Grundlagen für diese Prozesse ursprünglich in der Physik zu finden sind“, sagt Stephan Getzin und verweist auf die langwierigen Vorarbeiten seiner beiden israelischen Kollegen. „Inzwischen aber wird immer klarer, wie wichtig dieser Prozess ist.“
Trotzdem sind etliche Kollegen skeptisch geblieben. Wenn ein solcher Mechanismus dahinterstecke, müsse es ähnliche Strukturen auch in anderen Trockengebieten der Erde geben, laute ein gängiger Einwand. Schließlich sei das Grasland Namibias keineswegs die einzige Region, in der Pflanzen um Wasser konkurrieren. Und tatsächlich ist bekannt, dass Trockenheit auch anderenorts interessante Vegetationsmuster schafft. Nirgends aber schienen sich kahle Flecken in einer so regelmäßigen Sechseck-Struktur anzuordnen wie in Namibia.

Umso elektrisierter war Stephan Getzin von dem Luftbild, das er 2014 aus Australien geschickt bekam. Um das Phänomen genauer zu untersuchen, reiste Getzin gemeinsam mit seinem israelischen Kollegen Hezi Yizhaq nach Australien. In vier Gebieten der kaum besiedelten Region haben die Wissenschaftler die kahlen Kreise vermessen, ihre Oberflächen-Temperaturen mit denen von bewachsenen Bereichen verglichen und die Spuren von Ameisen und Termiten kartiert. Sie haben beobachtet, wie an diesen Stellen das Wasser versickert und Bodenproben genommen, um sie später im Labor zu analysieren. Das alles haben sie mit Luftbild-Auswertungen, statistischen Analysen der Landschaftsmuster und Computersimulationen ergänzt. Seitdem sind sie sicher, dass es sich tatsächlich um echte Feenkreise handelt, die das gleiche Muster bilden wie ihre 10.000 Kilometer entfernten Pendants in Namibia.

Auch für ihre Theorie zur Entstehung der kahlen Flecken haben die Forscher neue Bestätigung gefunden. Wo in Namibia in oder an den Feenkreisen meist zwei bis drei Termiten- oder Ameisenarten herumkrabbeln und Raum für Spekulation eröffnen, ist die Situation in Australien eindeutiger. „Dort haben wir in den Kreisen überwiegend keine Nester von ihnen gefunden und verborgene Sandtermiten wie in Namibia gibt es nicht in Australien“, berichtet Stephan Getzin. „Und die vorhandenen Nester haben ein komplett anderes Verteilungsmuster als die Feenkreise.“ Für ihn sei das ein deutlicher Hinweis darauf, dass die kahlen Flecken nicht durch tierische Aktivitäten, sondern durch die Selbstorganisation der Pflanzen entstehen. Dafür spreche auch, dass die in der Region dominierenden Gräser der Gattung Triodia in unmittelbarer Nachbarschaft zu den Feenkreisen auch noch andere typische Trockenheitsmuster wie Streifen, Labyrinthe oder von kahlem Boden umgebene Einzelpflanzen bilden. Insbesondere die Streifen- und Labyrinthmuster bilden sich bevorzugt auf harten Bodenoberflächen mit oberirdischem Wasserabfluss und sind vor allem bekannt von Gehölzen an Berghängen.

Nach ihren Untersuchungen vor Ort haben die Forscher auch eine Vorstellung davon, wie das Wechselspiel zwischen Boden und Vegetation in dieser Region funktioniert. Wo keine Vegetation den australischen Lehmboden schützt, wird seine Oberfläche nicht nur extrem heiß. Sie verbackt auch zu einer harten Kruste, in der kaum Wasser versickern kann. Das Wasser der wenigen Regenfälle fließt dort oberirdisch ab. Das aber sind extrem schlechte Bedingungen für keimende Pflanzen – die unbewachsenen Bereiche bleiben weiter kahl. Anders ist die Lage an Stellen, auf denen bereits erste Gräser gedeihen. Die Pflanzen sorgen dort für eine kühlere Oberfläche und einen lockereren Boden, in dem die Niederschläge besser versickern. Daher können sich lokal weitere Pflanzen ansiedeln und die Bedingungen wieder ein wenig verbessern – ein selbstverstärkender, kleinskaliger Prozess, der auf großer Landschaftsskala zu dem beobachteten Grasteppich mit Lückenmuster führt.
„In Namibia ist der sandige Boden der Feenkreise dagegen viel durchlässiger, so dass die Niederschläge problemlos versickern können“, sagt Stephan Getzin. Daher bilden sich dort unter den kahlen Flecken Wasserreservoirs, die das umliegende Gras über Diffusionsprozesse im Boden mit Feuchtigkeit versorgen. „Das ist im Detail zwar ein anderer Mechanismus als in Australien“, erläutert er. „Er führt aber zum gleichen Vegetationsmuster, da beide Lückensysteme von der gleichen Instabilität ausgelöst werden“.
Der UFZ-Mitarbeiter will dem Phänomen nun weiter nachgehen. Er hält es durchaus für wahrscheinlich, dass es auch noch in anderen trockenen und dünn besiedelten Regionen der Erde bisher unbekannte Feenkreise gibt. Die Zeit für Entdeckungen ist wohl noch nicht vorbei.

Publikation:
Stephan Getzin, Hezi Yizhaq, Bronwyn Bell, Todd E. Erickson, Anthony C. Postle, Itzhak Katra, Omer Tzuk, Yuval R. Zelnik, Kerstin Wiegand, Thorsten Wiegand, Ehud Meron: Discovery of fairy circles in Australia supports self-organization theory. PNAS http://dx.doi.org/10.1073/pnas.1522130113

Weitere Informationen:
Dr. Stephan Getzin
UFZ-Department Ökosystemanalyse
Phone: ++49 341 235 1719
http://www.ufz.de/index.php?en=36 656
stephan.getzin@ufz.de

Weitere Informationen:
http://www.ufz.de/index.php?de=36336&webc_pm=11/2016

Quelle: idw

(nach oben)


Tiefe Kluft zwischen Frauen und Männern bei der Rente

Rainer Jung Abt. Öffentlichkeitsarbeit
Hans-Böckler-Stiftung

Frauen von eigenständiger Sicherung im Alter weit entfernt

Tiefe Kluft zwischen Frauen und Männern bei der Rente

Der Lohnrückstand von Frauen ist in Deutschland mit konstant 22 Prozent sehr groß im europäischen Vergleich. Doch schaut man auf die Renten, fällt der Abstand noch weitaus gravierender aus. Das konstatieren Dr. Christina Klenner, Gender-Expertin des Wirtschafts- und Sozialwissenschaftlichen Instituts (WSI) der Hans-Böckler-Stiftung, sowie Dr. Peter Sopp und Dr. Alexandra Wagner vom Forschungsteam Internationaler Arbeitsmarkt in Berlin.

In einer neuen Auswertung aktueller Daten aus dem WSI GenderDatenPortal haben sie dokumentiert, welche Unterschiede es bei der Alterssicherung zwischen Frauen und Männern gibt. Nach ihrer Analyse sind Frauen sowohl bei der gesetzlichen Rente als auch bei der betrieblichen Altersversorgung klar im Nachteil. Gleichzeitig profitieren sie stärker von Elementen des sozialen Ausgleichs im Rentenrecht, vor allem bei der Hinterbliebenenversorgung.

Die Rente sei damit ein „Spiegelbild der geschlechtsspezifischen Ungleichheiten bei der Erwerbsbeteiligung“, heißt es in der Studie, die heute als WSI-Report erscheint. Dass Arbeitnehmerinnen schlechter bezahlt werden als ihre männlichen Kollegen, häufiger in Minijobs oder Teilzeit beschäftigt sind und oft Auszeiten für die Kindererziehung oder Pflege von Angehörigen nehmen müssen, weil Männer hier weniger Zeit investieren, habe Folgen für die finanzielle Situation im Alter. Ausgleichsmechanismen wie die Anrechnung von Erziehungszeiten könnten diese Schieflage nur zum Teil korrigieren.

Betrachtet man alle eigenen Alterssicherungseinkommen aus gesetzlicher Rente, privater Vorsorge und Betriebsrenten, zeigt sich eine erhebliche Lücke zulasten von Frauen. Klenner, Sopp und Wagner zitieren Berechnungen der Rentenexpertin Brigitte Loose, denen zufolge der „Gender Pension Gap“ 2011 bei 57 Prozent lag. Im Osten, wo Frauen traditionell häufiger berufstätig sind, war die Kluft mit 35 Prozent deutlich kleiner als im Westen mit 61 Prozent. Langfristig zeigt sich ein Trend zur Angleichung zwischen den Geschlechtern: 1992 betrug der Unterschied in Deutschland noch 69 Prozent.

Als gesetzliche Altersrente erhielten Frauen 2014 durchschnittlich 618 Euro, Männer 1.037 Euro. Das entspricht einer Differenz von über 40 Prozent. Wesentlich besser schneiden Frauen bei den Hinterbliebenenrenten ab: Witwen bekommen mit 592 Euro im Schnitt etwa doppelt so viel ausbezahlt wie Witwer. Der Grund: Die Rente des verstorbenen Ehepartners war bei den Witwen in der Regel höher als bei den Witwern, die eigenen Altersbezüge, die auf die Hinterbliebenenrente angerechnet werden, fallen bei den Frauen geringer aus.

Erheblich zurück liegen die Frauen bei der betrieblichen Altersvorsorge: 2011 bezogen 25 Prozent der männlichen und sechs Prozent der weiblichen Ruheständler eine Betriebsrente der Privatwirtschaft. Die Zahlungen waren mit 574 Euro bei den Männern im Schnitt fast dreimal so hoch wie bei den Frauen. Zumindest bei der Reichweite zeichnet sich aber eine Änderung ab: Aktuell erwerben 46 Prozent der Arbeitnehmerinnen und 51 Prozent der Arbeitnehmer Ansprüche in der betrieblichen Altersvorsorge der Privatwirtschaft. Im öffentlichen Dienst geht es schon jetzt ausgeglichener zu. Männer und Frauen erhalten hier ähnlich oft Leistungen aus einer Zusatzversicherung. Allerdings beziehen die männlichen Rentner durchschnittlich 392 Euro, die weiblichen nur 250 Euro. Bei den staatlichen Zulagen für die Riester-Rente haben die weiblichen Sparer die Nase vorn, was vor allem mit der Kinderzulage zusammenhängen dürfte.

Angesichts der Unwucht bei den Rentenbezügen überrascht es nicht, dass Frauen etwas häufiger als Männer auf Grundsicherung im Alter angewiesen sind. 2014 waren 314.000 oder 3,2 Prozent der Frauen über 64 und 201.000 oder 2,7 Prozent der Männer betroffen. Ausschlagegebend für die seit Jahren kontinuierlich steigende Zahl ist der Analyse zufolge das sinkende Niveau der gesetzlichen Rente – bei gleichzeitig steigendem Grundsicherungsniveau.

Zumindest in einer Hinsicht stehen Frauen deutlich besser da als Männer: Sie beziehen wegen der höheren Lebenserwartung im Schnitt fünf Jahre länger Rente. Bei den Hinterbliebenenrenten ist die Zahl der weiblichen Leistungsberechtigten auch deshalb ungleich höher, weil viele Frauen jünger als ihre Ehepartner sind.

Alles in allem sei die Rentenlücke angesichts steigender Frauenerwerbstätigkeit und stärkerer Anerkennung von Erziehungszeiten zuletzt zwar kleiner geworden, resümieren Klenner, Sopp und Wagner. Es sei aber noch viel zu tun. Notwendig für eine eigenständige Alterssicherung wären Verbesserungen bei den Erwerbschancen im Allgemeinen und bei der Vereinbarkeit von Beruf und Familie im Besonderen. Zudem gehörten die Rentenreformen des vergangenen Jahrzehnts auf den Prüfstand: Die Kürzungen bei der gesetzlichen Rente hätten das Risiko der Altersarmut erhöht, das Drei-Säulen-Modell sei insgesamt gescheitert und habe die Geschlechterunterschiede zum Teil sogar verstärkt. Empfohlen wird die Rückbesinnung auf eine gesetzliche Rente, die sich an der Sicherung des Lebensstandards orientiert.

Kontakt in der Hans-Böckler-Stiftung
Rainer Jung
Leiter Pressestelle
Tel.: 0211-7778-150
E-Mail: Rainer-Jung@boeckler.de

Weitere Informationen:
http://www.boeckler.de/pdf/p_wsi_report_29_2016.pdf – Christina Klenner, Peter Sopp, Alexandra Wagner: Große Rentenlücke zwischen Männern und Frauen, WSI Report 29, März 2016.
http://www.boeckler.de/pdf/p_wsi_report_29-1_2016.pdf – Tabellenband mit allen Daten zum Report

Quelle: idw

(nach oben)


Spielen im Freien schützt vor Kurzsichtigkeit: Schon 40 Minuten täglich können helfen

Anna Julia Voormann Pressestelle
Deutsche Ophthalmologische Gesellschaft

München – Schon 40 Minuten tägliches Toben auf dem Spielplatz oder Pausenhof können Kinder im Grundschulalter vor Kurzsichtigkeit schützen. Zu diesem Ergebnis kommt eine chinesische Studie, die den Zusammenhang zwischen Freiluftaktivität und Kurzsichtigkeit bei Kindern in einer randomisierten Clusterstudie untersuchte. Die Deutsche Ophthalmologische Gesellschaft (DOG) sieht einen Mangel an Tageslicht als mögliche Erklärung für die weltweit steigende Zahl kurzsichtiger junger Menschen. Die Fachgesellschaft rät Eltern, ihre Kinder möglichst viel bei Tageslicht draußen spielen zu lassen.

Die chinesische Forschergruppe untersuchte die Sehkraft bei Erstklässlern ohne Sehschwäche an zwölf Grundschulen. Die Hälfte der Schüler verbrachte über einen Zeitraum von drei Jahren täglich 40 Minuten draußen bei Sport und Spiel. Zusätzlich sollten ihre Eltern sie nachdrücklich ermutigen, draußen zu spielen. Nach drei Jahren stellten die Untersucher bei rund 30 Prozent der Schüler eine Kurzsichtigkeit fest. In der Kontrollgruppe – deren Spielverhalten während der Studie unverändert blieb – waren es 40 Prozent. Die vorliegenden Ergebnisse zeigen, wie schon andere Studien zuvor, dass Spielen im Freien tatsächlich das Risiko für Kurzsichtigkeit mindert, sagt DOG-Experte Professor Dr. med. Wolf Lagrèze von der Klinik für Augenheilkunde des Universitätsklinikums Freiburg: „Vermutlich wären die Unterschiede zwischen den Gruppen bei einer täglichen Spielzeit von zwei Stunden draußen noch deutlicher.“ Es bleibt aber abzuwarten, ob der Effekt auch über einen längeren Zeitraum bestehen bleibt. Die chinesischen Forscher planen bereits Langzeitstudien, um diese Frage zu untersuchen.

Das Phänomen lässt sich erklären: „Normalerweise hemmt helles Tageslicht das Längenwachstum des Augapfels im Kindesalter“ erklärt Professor Dr. rer. nat. Frank Schaeffel vom Forschungsinstitut für Augenheilkunde am Universitätsklinikum Tübingen. Bei Lichtmangel wächst der Augapfel zu sehr in die Länge, sodass durch die Linse einfallendes Licht schon vor der Netzhaut gebündelt wird. „Um das zu verhindern, sollten die Augen täglich Beleuchtungsstärken von rund 10 000 Lux ausgesetzt sein“, so Schaeffel. Dies entspricht ungefähr den Werten eines leicht bewölkten Sommertags. Zum Vergleich: Ein durchschnittliches Klassenzimmer bringt es auf etwa 500 Lux. Starke Fehlsichtigkeit von -6 Dioptrien oder mehr erhöht das Risiko für schwere Augenerkrankungen wie eine Netzhautablösung, Grünen Star oder Makuladegeneration.

Experten beobachten weltweit eine Zunahme der Kurzsichtigkeit. In China sind bis zu 90 Prozent der jungen Erwachsenen kurzsichtig. In Deutschland beträgt der Anteil derzeit 35 bis 40 Prozent. Schon seit einiger Zeit steht die Naharbeit an Bildschirmen unter Verdacht, die Sehkraft zu mindern. In jedem Fall nimmt die Zeit vor dem Bildschirm vielen Kindern die Zeit für das Spielen im Freien.

Literatur:
Mingguang et al., Effect of Time Spent Outdoors at School on the Development of Myopia Among Children in China – A Randomized Clinical Trial, JAMA. 2015;314(11):1142-1148. doi:10.1001/jama.2015.10803

Weitere Informationen:
http://www.dog.org

Quelle: idw

(nach oben)


Energetische Sanierungen bei Wohngebäuden rückläufig

Christian Schlag Stab Direktor
Bundesinstitut für Bau-, Stadt- und Raumforschung (BBSR)

Über 170 Mrd. Euro sind 2014 in die Modernisierung und Instandsetzung von Gebäuden in Deutschland geflossen. Mehr als zwei Drittel aller im Baubereich investierten Mittel wurden damit für Bestandsmaßnahmen aufgewandt. Allerdings sind die Investitionen in die energetische Sanierung von Wohngebäuden zwischen 2010 und 2014 deutlich zurückgegangen. Zu diesem Ergebnis kommt eine Studie des Bundesinstituts für Bau-, Stadt- und Raumforschung (BBSR).

Die Studie stützt sich auf eine empirische Erhebung der Investitionen in den gesamten deutschen Gebäudebestand im Jahr 2014. In einer repräsentativen Umfrage haben die Forscher zudem Privathaushalte nach ihren Motiven für eine Modernisierung befragt.

2014 flossen demnach 34,8 Mrd. Euro in die energetische Verbesserung von Wohngebäuden. Vier Jahre zuvor waren es noch 40,9 Mrd. Euro. Auch der Anteil der energetischen Sanierung an den Modernisierungsmaßnahmen im Wohnungsbestand insgesamt ist geschrumpft. Der Zuwachs bei energetisch bedingten Investitionen im Geschosswohnungsbau konnte das deutliche Minus bei den Ein- und Zweifamilienhäusern nicht wettmachen.

94 Prozent aller Modernisierungen betrafen der Studie zufolge einzelne Maßnahmen wie den Austausch von Fenstern, Türen oder Heizungen. Stark rückläufig waren hingegen große Einzelmaßnahmen ab 10.000 Euro. Dazu zählt insbesondere die Gebäudedämmung. Einen besonders starken Rückgang (-33 Prozent) gab es bei der energetischen Komplettmodernisierung. Die Investitionen sanken von 2,9 Mrd. Euro im Jahr 2010 auf 1,9 Mrd. Euro im Jahr 2014.

Zurückhaltung bei älteren Wohnungseigentümern
Verantwortlich für das Minus sind der Studie zufolge sowohl einzelne Effekte als auch generelle Trends. „Seit dem Jahr 2012 gibt es weniger Förderung für die Photovoltaik. Folglich brachen die Investitionen in diesem Bereich ein“, sagt der Leiter der Studie Stefan Rein. „Durch die stark gesunkenen Energiepreise rentieren sich Modernisierungsmaßnahmen viel weniger als noch in der Phase mit sehr hohen Energiepreisen. Eigentümer müssen länger warten, bis sich Maßnahmen zur energetischen Verbesserung amortisieren. Deshalb zögern besonders Ältere zu investieren“, erläutert Rein.

Nur gut ein Fünftel der von Privathaushalten angestoßenen Investitionen entfällt laut Studie auf über 60-jährige Wohnungseigentümer. 2010 lag der Anteil dieser Altersgruppe noch bei einem Drittel. Lediglich bei den unter 40-Jährigen blieb der Anteil mit gut einem Drittel des Sanierungsvolumens konstant.

Nur wenige rufen Fördermittel ab
Die Privateigentümer, die Geld in eine Modernisierung ihrer Immobilie steckten, ließen sich von pragmatischen Erwägungen leiten: Über zwei Fünftel der befragten Privateigentümer nannten als Motiv die Beseitigung von Schäden. Für ein Viertel der Befragten gab die Wert- bzw. Komforterhöhung der Wohnung den Ausschlag für die Investition. Die Energieeinsparung spielt bei den Befragten hingegen kaum eine Rolle. Nur zwei Prozent der Befragten, die 2014 mindestens eine Maßnahme an ihrem Wohngebäude ausführten, nutzten Fördermittel für die Maßnahmen, für lediglich ein Drittel war die Förderung der tatsächliche Anlass zur Sanierung.

Die Studie „Struktur der Bestandsmaßnahmen im Hochbau“ können Interessierte beim BBSR (stefan.rein@bbr.bund.de) anfordern. Eine PDF-Version ist unter http://www.bbsr.bund.de abrufbar.

Download der Studie
http://www.bbsr.bund.de/BBSR/DE/Home/Topthemen/Downloads/analysen_kompakt_1_2016.pdf?__blob=publicationFile&v=1

Kontakt
Christian Schlag
Stab Direktor und Professor
Tel.: +49 22899 401-1484
christian.schlag@bbr.bund.de

Stefan Rein
Referat II 4 – Bauwesen, Bauwirtschaft, GAEB
Tel. +49 22899 401-1349
stefan.rein@bbr.bund.de
Folgen Sie dem BBSR auf Twitter: twitter.com/bbsr_bund

***
Das Bundesinstitut für Bau-, Stadt- und Raumforschung (BBSR) im Bundesamt für Bauwesen und Raumordnung (BBR) ist eine Ressortforschungseinrichtung im Geschäftsbereich des Bundesministeriums für Umwelt, Naturschutz, Bau und Reaktorsicherheit (BMUB). Es berät die Bundesregierung bei Aufgaben der Stadt- und Raumentwicklung sowie des Wohnungs-, Immobilien- und Bauwesens.

Quelle: idw

(nach oben)


Das Bild vom Migranten als sexuelle Gefahr

Dr. Paul Stoop Informations- und Kommunikationsreferat
Wissenschaftszentrum Berlin für Sozialforschung gGmbH

Rechtspopulistische Kampagnen haben vor allem dort Erfolg, wo sie an ein traditionelles Frauenbild anknüpfen können

Wer Männer für das starke und Frauen für das zu beschützende Geschlecht hält, ist besonders empfänglich für rechte Propaganda über angeblich sexuell bedrohliche Fremde. Bei Betrachtern mit progressiveren Einstellungen zum Verhältnis von Mann und Frau hingegen können entsprechende Plakate zu entgegengesetzten Reaktionen führen: Sie nehmen Migranten vor der Unterstellung in Schutz. Den Resonanzboden für Rechtspopulismus haben Marc Helbling vom Wissenschaftszentrum Berlin für Sozialforschung (WZB), Oriane Sarrasin und Eva G.T. Green von der Universität Lausanne und Nicole Fasel (Universität Lissabon) untersucht.

In Online-Umfrageexperimenten in Deutschland und der Schweiz konfrontierte das Team 181 (D) bzw. 142 (CH) Probanden mit fiktiven Darstellungen krimineller Migranten, wie sie in der Schweiz tatsächlich im Vorfeld der Abstimmung über die Ausweisung straffällig gewordener Ausländer plakatiert worden waren. Es zeigten sich Unterschiede in der Reaktion je nach vorhandener Einstellung der Betrachterinnen und Betrachter: Wurden Migranten als gewalttätig oder als Drogendealer dargestellt, löste dies vor allem bei jenen negative Gefühle aus, die generell ihr Umfeld als unsicher wahrnehmen. Bei der Darstellung von Migranten als Sexualstraftätern spielen solche Ängste keine verstärkende Rolle. Hier beeinflusst das Frauenbild die Wahrnehmung: Sind Menschen der Meinung, dass Frauen von Männern geschützt werden müssen, führen solche Plakate zu deutlich negativeren Einstellungen gegenüber Migranten, als wenn ihnen keine kriminellen Migranten präsentiert werden.

Die Studie zeigt, dass rechtspopulistische Kampagnen von einem vorfindlichen Resonanzboden profitieren: Erfolg haben sie vor allem, wo sie an ein traditionelles Frauenbild anknüpfen können.

Präsentation der Ergebnisse in den WZB-Mitteilungen 1/2016: „Ivan S., der Vergewaltiger“. Wie wirken rechtspopulistische Kampagnen, die Migranten als sexuelle Bedrohung darstellen? (pdf)

Zur wissenschaftlichen Studie in Frontiers in Psychology 6/2015: When Sexual Threat Cues Shape Attitudes toward Immigrants: The Role of Insecurity and Benevolent Sexism

Lesen Sie weiter! Das neue Heft der WZB-Mitteilungen präsentiert unter dem Titel „Flucht Aufnahme, Abwehr“ eine breite Palette von Analysen zu Mustern des Rechtspopulismus, der Diskriminierung auf dem Arbeitsmarkt, zu unterschiedlichen Bewertungen von Fluchtgründen und europäischen Diskussionslagen.

Weitere Informationen:
http://www.wzb.eu/sites/default/files/publikationen/wzb_mitteilungen/greenfasels… Präsentation der Ergebnisse
http://journal.frontiersin.org/article/10.3389/fpsyg.2015.01033/abstract wissenschaftliche Studie
https://www.wzb.eu/de/publikationen/wzb-mitteilungen/wzb-mitteilung/151

Quelle: idw

(nach oben)


„Alice, der Klimawandel und die Katze Zeta“: Ein Märchen über die Wahrheit

Jonas Viering Presse- und Öffentlichkeitsarbeit
Potsdam-Institut für Klimafolgenforschung

Beim Schulausflug auf den Potsdamer Telegrafenberg läuft Alice einem weißen Kaninchen hinterher – und rutscht in den Lüftungsschacht des Supercomputers eines Klimaforschungs-Instituts. Es folgt eine Reise durch die virtuelle Welt der Rechenmodelle, vom tropischen Regenwald bis ins stille Eis der Antarktis. So ungewöhnlich beginnt eine neue Veröffentlichung des Potsdam-Instituts für Klimafolgenforschung, frei nach Lewis Carrolls philosophischem Kinderbuchklassiker „Alice im Wunderland“. Mehr als 50 Wissenschaftler des Hauses lieferten Hintergründe und Expertisen für das jetzt auf der Buchmesse Leipzig vorgestellte und im Buchhandel erhältliche Werk von Margret Boysen.

„Dieses Buch erzählt das Abenteuer der Klimaforschung als ‚Märchen über die Wahrheit‘“, so Lord Martin Rees, vormaliger Präsident der Royal Society Großbritanniens und Master des Trinity College in Cambridge. „Ich wünsche der unterhaltsamen und unverwechselbaren Erzählung eine große Leserschaft“.

Die Geschichte beginnt mit kleinen Rechenschritten im Schnee, gipfelt in einem chaotischen Klimakongress, der zu einem Gerichtsprozess mutiert, und führt sogar ins Gefängnis, wo zum Glück die Graviationsphysik zur richtigen Zeit eine befreiende Formel zur Verfügung stellt. Nie zuvor ist die Wissenschaft von der menschgemachten Erwärmung der Erde und deren Folgen, von neuartigen Wetterextremen bis zum Meeresspiegelanstieg, in einer solchen literarischen Form dargestellt worden. „‚Alice, der Klimawandel und die Katze Zeta‘ ist eine gelungene, höchst kreative und sprachlich großartige allegorische Bereicherung der Wissenschaftskommunikation“, bestätigt Joachim Müller-Jung von der Frankfurter Allgemeinen Zeitung.

Logik und Lyrik alleine reichen nicht aus – es braucht Mitgefühl
Die Autorin ist gelernte Geologin und leitet am PIK ein Programm, das regelmäßig Schriftsteller oder bildende Künstler für einige Monate zum Austausch zwischen Kunst und Wissenschaft ans Institut holt. „Es war ein Vergnügen, die absurde Geschichte ‚Alice im Wunderland‘ abermals auf den Kopf zu stellen, und dabei auch noch die Brücke zu einigen der spannendsten wissenschaftlichen Erkenntnissen unserer Zeit zu schlagen“, kommentiert Boysen ihr Buch. „Carrolls Katze erklärte Alice nur, dass rechts und links egal sind: Wohin das Mädchen auch geht, wird sie auf Verrückte treffen. Die mathematisch-metaphorische Katze Zeta hingegen verrät Alice auch Wege, die aus der Katastrophe herausführen“, erläutert Boysen weiter und spielt auf die Gabe der Katze an, jeden wissenschaftlichen Sachverhalt mit einer bildhaften Geschichte verständlich zu machen.

„Weil Logik und Lyrik allein jedoch nicht ausreichen, eine gefährliche Erderwärmung zu verhindern, sondern sie nur beschreiben, geht es in meinem Buch auch um Mitgefühl bzw. Gleichgültigkeit. Wir Menschen werden uns nur dann für das Richtige entscheiden, wenn wir uns auf das Schicksal anderer einlassen – so wie meine Protagonistin.“ Ob es um den in einer Datenflut ertrunkenen Professor Glazival, ein entführtes Walross oder die „Terrarismus-verdächtige“ Albatros-Dame Molly Mauk geht – Alice entscheidet sich, Farbe zu bekennen.

Buch: Boysen, M. (2016): Alice, der Klimawandel und die Katze Zeta. Edition Rugerup (ISBN 978-3-942955-52-2, 21,90 Euro)

Weblink zum Buch: https://www.edition-rugerup.de/?product=alice-der-klimawandel-und-die-katze-zeta

Kontakt für weitere Informationen:
Potsdam-Institut für Klimafolgenforschung, Pressestelle
Telefon: +49 (0)331 288 2507
E-Mail: presse@pik-potsdam.de
Twitter: @PIK_Klima
www.pik-potsdam.de

Quelle: idw

(nach oben)


Ökologisch erzeugte Rohmilch enthält weniger antibiotikaresistente Keime als konventionell erzeugte

Nina Banspach Pressestelle
Bundesamt für Verbraucherschutz und Lebensmittelsicherheit (BVL)

BVL veröffentlicht Bericht zum Zoonosen-Monitoring 2014

Die Ergebnisse der repräsentativen Untersuchungen zum Zoonosen-Monitoring 2014, die das Bundesamt für Verbraucherschutz und Lebensmittelsicherheit (BVL) heute veröffentlicht hat, zeigen, dass in Rohmilchproben aus ökologischen Milchrinderbetrieben Zoonosenerreger und insbesondere die multiresistente MRSA-Keime seltener auftreten als in den entsprechenden Proben aus konventionellen Betrieben. Eine mögliche Ursache hierfür könnten Unterschiede in der Wirtschaftsweise bei konventionell und ökologisch gehaltenen Milchkühen sein.

Die Ergebnisse bestätigen weiterhin, dass Geflügelfleisch häufig mit Campylobacter spp. kontaminiert ist. Angesichts der hohen Zahl an Erkrankungen des Menschen an einer Campylobacter-Infektion besteht Handlungsbedarf, um die Belastung von Lebensmitteln mit diesen Keimen zu reduzieren. Die Ergebnisse der Resistenzuntersuchungen zeigen gegenüber den Vorjahren insgesamt eher einen Rückgang der Resistenzraten. Die zu beobachtende Entwicklung bei den Resistenzraten von Bakterien-Isolaten gegenüber den in der Humanmedizin wichtigen Fluorchinolonen bedarf jedoch der weiteren Beobachtung.

Insgesamt haben die Bundesländer im Rahmen des Zoonosen-Monitorings 6.865 Proben auf allen Ebenen der Lebensmittelkette genommen und in ihren Untersuchungseinrichtungen auf das Vorkommen der wichtigsten über Lebensmittel übertragbaren Erreger untersucht. Dabei wurden 3.515 Bakterien-Isolate gewonnen und in den Nationalen Referenzlaboratorien am Bundesinstitut für Risikobewertung (BfR) weitergehend charakterisiert und auf ihre Resistenz gegen ausgewählte Antibiotika untersucht. Die wichtigsten Ergebnisse sind:

MRSA
Methicillin-resistente Staphylococcus aureus (MRSA) wurden in Rohmilch aus konventionellen Milchviehbetrieben mit 9,7 % positiver Proben signifikant häufiger nachgewiesen als in Rohmilch aus ökologischen Betrieben (1,7 % positive Proben). Weitere gezielte Untersuchungen sind notwendig, um mögliche Unterschiede in der Belastung von Tieren und Lebensmitteln mit humanpathogenen Keimen zwischen ökologischer und konventioneller Erzeugung zu ermitteln. Nach dem gegenwärtigen Stand der Wissenschaft ist der Verzehr oder die Handhabung von mit MRSA kontaminierten Lebensmitteln zwar nicht mit einem erhöhten Risiko verbunden, durch diese Bakterien besiedelt oder infiziert zu werden. Ein solches Risiko besteht aber für Menschen, die einen häufigen Kontakt zu positiven Tierbeständen haben, wie Landwirte und Tierärzte.

Campylobacter
Die Ergebnisse des Zoonosen-Monitorings 2014 zeigen, dass bei der Verringerung von Campylobacter spp. in den Lebensmittelketten Mastpute und Masthähnchen in den letzten Jahren keine Fortschritte erzielt wurden. 26,5 % der Proben von frischem Putenfleisch und sogar über die Hälfte (54 %) der Proben von frischen Hähnchenschenkeln waren mit Campylobacter kontaminiert. Damit verdeutlichen die Ergebnisse, dass die Anstrengungen, das Vorkommen von Campylobacter in der Geflügelfleischkette zu verringern, weiterhin intensiviert werden müssen.

Salmonellen
Die Ergebnisse des Zoonosen-Monitorings 2014 zeigen, dass sich die Erfolge der EU-weiten Salmonellen-Bekämpfungsmaßnahmen in den Geflügelbeständen auch weiterhin in der Lebensmittelkette niederschlagen. Bei Mastputen und Masthähnchen ist im Zoonosen-Monitoring 2014 die Kontaminationsrate sowohl der Schlachtkörper als auch des frischen Fleisches mit Salmonellen weiter gesunken. Während in den Jahren 2010 und 2011 noch rund 18 % der Schlachtkörper von Mastputen und Masthähnchen mit Salmonellen kontaminiert waren, waren 2014 nur noch jeweils etwa 7 % der entsprechenden (Hals)hautproben Salmonella-positiv. Frisches Putenfleisch war zu 1,7 % und frisches Hähnchenfleisch zu 4,7 % mit Salmonellen kontaminiert.

Listeria monocytogenes
Listeria monocytogenes wurden in Proben von Rohmilch aus konventionellen Milcherzeugerbetrieben zu 3,5 % und damit tendenziell häufiger nachgewiesen als in den entsprechenden Proben aus ökologischen Betrieben, die zu 1,3 % mit dem Erreger kontaminiert waren. Proben von Schnittkäse aus Rohmilch vom Rind waren zu 0,3 % positiv für Listeria mononcytogenes. Da Konsummilch in Deutschland vor der Abgabe an Verbraucher grundsätzlich wärmebehandelt wird, stellen Zoonoseerreger in der Tankmilch keine Gefahr für den Verbraucher dar. Eine gesundheitliche Gefahr geht aber dann von der Rohmilch aus, wenn die Erhitzung ausbleibt, wie bei der Herstellung von Rohmilchkäse. Empfindlichen Verbrauchergruppen wie Kleinkindern, älteren und immungeschwächte Menschen sowie Schwangeren wird deshalb vom Konsum von Rohmilchprodukten abgeraten. Rohmilch sollte vor dem Verzehr grundsätzlich durcherhitzt werden.

ESBL/AmpC-bildende E. coli
ESBL/AmpC-bildende E. coli wurden in Erzeugerbetrieben von Zuchthühnern der Legerichtung und Legehennen häufig nachgewiesen (etwa 40 % positive Kotproben). Auf der Schale von Konsumeiern wurden ESBL/AmpC-bildende E. coli mit 0,5 % positiver Proben deutlich seltener gefunden. Die Kontaminationsrate der Proben von frischen Kräutern mit ESBL/AmpC-bildenden E. coli betrug 2,2 %. Der Nachweis von ESBL/AmpC-bildenden E. coli in Proben von frischen Kräutern ist im Hinblick auf den gesundheitlichen Verbraucherschutz insofern von besonderer Bedeutung, weil diese häufig roh verzehrt werden und somit resistente Keime vom Menschen unmittelbar aufgenommen werden können. Dies unterstreicht die Empfehlung, frische Kräuter vor dem Verzehr gründlich zu waschen.

Resistenzlage
Im Rahmen des Zoonosen-Monitorings wird ein allmählicher Anstieg der Resistenzrate von Salmonella-Isolaten aus der Mastputenkette gegen das Fluorchinolon Ciprofloxacin beobachtet, der bedeutsam ist, weil dieser Wirkstoff als besonders wichtig für die antibiotische Behandlung beim Menschen gilt. Dabei wiesen Isolate von Mastputenschlachtkörpern die höchste Resistenzrate (74,2 %) gegen Ciprofloxacin auf. Gegenüber den getesteten Cephalosporinen der 3. Generation war dagegen keines der untersuchten Isolate resistent.

Die Resistenzraten von kommensalen E. coli-Isolaten wiesen insgesamt im Vergleich zu den Vorjahren eine rückläufige Tendenz auf. Der Anteil resistenter Isolate war im Zoonosen-Monitoring 2014 in den Lebensmittelketten Mastpute und Masthähnchen mit jeweils etwa 80 % niedriger als in den Vorjahren, in denen jeweils etwa 87 % der Isolate resistent waren E. coli-Isolate aus Rohmilch und aus frischen Kräutern waren überwiegend sensibel. Der Anteil sensibler Isolate war bei E. coli-Isolaten aus ökologisch erzeugter Tankmilch (95,9 % sensible Isolate) noch etwas höher als bei Isolaten aus konventioneller Tankmilch (89,5 % sensible Isolate). E. coli-Isolate aus der Masthähnchenkette waren gegenüber den in der Humanmedizin wichtigen Substanzklassen der Cephalosporine der 3. Generation und Fluorchinolone seltener resistent als in der Vergangenheit.

Bei der Interpretation der Ergebnisse der Resistenzuntersuchungen muss beachtet werden, dass die minimalen Hemmkonzentrationen (MHK) anhand der epidemiologischen Cut-Off-Werte bewertet wurden. Diese bestimmen den Anteil mikrobiologisch resistenter Isolate und geben frühzeitig Hinweise auf eine beginnende Resistenzentwicklung, erlauben aber keine unmittelbare Aussage über die Wahrscheinlichkeit eines Therapieerfolges mit einem Antibiotikum.

Hintergrund
Zoonosen sind Krankheiten bzw. Infektionen, die auf natürlichem Weg direkt oder indirekt zwischen Tieren und Menschen übertragen werden können. Zoonoseerreger können von Nutztieren zum Beispiel während der Schlachtung und Weiterverarbeitung auf das Fleisch übertragen werden. Mit Zoonoseerregern kontaminierte Lebensmittel stellen eine wichtige Infektionsquelle für den Menschen dar. Häufige Erreger lebensmittelbedingter Infektionen sind Campylobacter spp. und Salmonella spp. Infektionen mit Listeria monocytogenes oder verotoxinbildende E. coli (VTEC) treten seltener auf. Methicillin-resistente Staphylococcus aureus (MRSA) und ESBL/AmpC-bildende E. coli sind weltweit verbreitete Erreger von zum Teil schwerwiegenden Krankenhausinfektionen. Bei Nutztieren hat sich ein spezifischer Typ von MRSA ausgebreitet. Eine Besiedlung des Menschen mit diesen „Nutztier-assoziierten“ MRSA-Stämmen scheint jedoch nur in seltenen Fällen zu schweren Krankheitserscheinungen führen.

Basierend auf der Richtlinie 2003/99/EG zur Überwachung von Zoonosen und Zoonoseerregern, sind alle EU-Mitgliedstaaten verpflichtet, repräsentative und vergleichbare Daten über das Auftreten von Zoonosen und Zoonoseerregern sowie diesbezüglicher Antibiotikaresistenzen in Lebensmitteln, Futtermitteln und lebenden Tieren zu erfassen, auszuwerten und zu veröffentlichen, um so Aufschluss über Entwicklungstendenzen und Quellen von Zoonosen und Zoonoseerregern zu erhalten. Dabei werden vor allem diejenigen Zoonoseerreger überwacht, die eine besondere Gefahr für die menschliche Gesundheit darstellen. Das Zoonosen-Monitoring wird von den Ländern seit dem Jahr 2009 auf Grundlage einer Verwaltungsvorschrift bundesweit einheitlich jährlich im Rahmen der amtlichen Lebensmittel- und Veterinärüberwachung durchgeführt. Die von den Ländern erhobenen Untersuchungsergebnisse werden vom Bundesamt für Verbraucherschutz und Lebensmittelsicherheit (BVL) gesammelt, ausgewertet und zusammen mit den Ergebnissen der Typisierung und Resistenztestung sowie der Bewertung des Bundesinstituts für Risikobewertung (BfR) im Bericht über die Ergebnisse des jährlichen Zoonosen-Monitorings veröffentlicht. Das BfR übermittelt die Ergebnisse gemäß den Bestimmungen des Artikels 9 der Richtlinie 2003/99/EG an die Europäische Behörde für Lebensmittelsicherheit (EFSA).

Im Zoonosen-Monitoring werden repräsentative Daten zum Vorkommen von Zoonoseerregern bei den wichtigsten Lebensmittel liefernden Tierarten und ihren Produkten sowie anderen Lebensmitteln und Futtermitteln gewonnen. Diese ermöglichen es, die Exposition der Verbraucher gegenüber den Zoonoseerregern abzuschätzen. Die Resistenzuntersuchungen tragen dazu bei, Beziehungen zwischen dem Antibiotikaeinsatz in der Tierproduktion und der Entwicklung von Antibiotikaresistenzen besser analysieren zu können.

Weitere Informationen:
http://www.bvl.bund.de/ZoonosenMonitoring Vollständiger Bericht zum Zoonosen-Monitoring 2014
http://www.bvl.bund.de/lebensmittelhygiene Verbrauchertipps zum Schutz gegen lebensmittelbedingte Infektionen
http://www.bfr.bund.de/de/presseinformation/2014/11/rohmilch__abkochen_schuetzt_… Empfehlung zum Umgang mit Rohmilch und Rohmilchprodukten

Anhang
Presseinformation Zoonosen-Monitoring 2014
https://idw-online.de/de/attachment49017

Quelle: idw

(nach oben)


Aktive Reduzierung der Feinstaubbelastung mit Moosen

Andrea Mayer-Grenu Abteilung Hochschulkommunikation
Universität Stuttgart

Feinstaub hat eine Vielzahl von negativen Auswirkungen auf die Gesundheit. In Ballungsgebieten ist Straßenverkehr die dominierende Staubquelle. Eine biologische Methode, Feinstaub aktiv zu reduzieren, testet die Universität Stuttgart jetzt mit einer Modellanlage beim Neckartor in Stuttgart: Eine Mooswand reinigt die Luft.

Feinstaub hat eine Vielzahl von negativen Auswirkungen auf die Atemwege und das Herz-Kreislaufsystem des Menschen. In Ballungsgebieten ist der Straßenverkehr die dominierende Staubquelle. Dabei gelangt Feinstaub nicht nur aus Motoren in die Luft, sondern auch durch Bremsen- und Reifenabrieb sowie durch die Aufwirbelung des Staubes von der Straßenoberfläche.

Moose können die Feinstaubbelastung durch verschiedene Mechanismen reduzieren. Die extrem große Oberfläche der Moose (bis zu 0,17 m²/cm³), die durch spezielle Strukturierung erreicht wird, hält den Feinstaub elektrostatisch fest. Ammoniumnitrate, die am Feinstaub einen Anteil von bis zu 50 Prozent haben, werden von den Moosen aufgenommen und in Pflanzenmasse umgewandelt. In der Summe können bis zu 75 Prozent des Feinstaubs beseitigt werden. Die Wirksamkeit dieser Mechanismen wurde im Labormaßstab nachgewiesen. Was derzeit fehlt, ist eine Messung der Auswirkung auf die Luftqualität unter realen Umgebungsbedingungen.

Das Amt für Umweltschutz der Stadt Stuttgart hat daher die Vorbereitung und wissenschaftliche Begleitung eines Modellversuchs am Neckartor, der Straße mit der höchsten Feinstaubbelastung in Deutschland, beauftragt. Initiiert wurde das Projekt durch das Institut für Tragkonstruktionen und Konstruktives Entwerfen (ITKE) unter der Leitung von Prof. Jan Knippers. Weitere Partner sind das Institut für Feuerungs- und Kraftwerkstechnik (Dr. Ulrich Vogt) für die Messungen der Luftqualität sowie das Staatliche Museum für Naturkunde Stuttgart (Dr. Martin Nebel) für die botanischen Aspekte des Projektes. Neben den Messungen der Feinstaubbelastung stehen die Entwicklung einer beispielhaften baulichen Umsetzung im innerstädtischen Raum sowie die langfristige Pflanzenpflege im Mittelpunkt des Projektes.

Anhang
Die Presseinformation als PDF
https://idw-online.de/de/attachment49030

Quelle: idw

(nach oben)


Hochschule Koblenz und Bundesanstalt für Gewässerkunde richteten „Tag der Hydrologie 2016″ aus

Dipl.-Ing. (FH) Melanie Dargel-Feils RheinAhrCampus Remagen Pressestelle
Hochschule Koblenz – University of Applied Sciences

Weit mehr als 300 Hydrologinnen und Hydrologen aus sechs Nationen nahmen am „Tag der Hydrologie 2016″ an der Hochschule Koblenz teil, der diesmal unter dem Motto „Wasserressourcen – Wissen in Flussgebieten vernetzen“ stand. Der inzwischen 18. „Tag der Hydrologie“ findet jährlich an einer anderen Hochschule im deutschsprachigen Raum statt. Angesichts der regionalen Nähe und der passenden Kompetenzen veranstalteten die Hochschule Koblenz und die Bundesanstalt für Gewässerkunde die Hydrologentagung in diesem Jahr gemeinsam am RheinMoselCampus.

KOBLENZ. Weit mehr als 300 Hydrologinnen und Hydrologen aus sechs Nationen nahmen am „Tag der Hydrologie 2016″ an der Hochschule Koblenz teil, der diesmal unter dem Motto „Wasserressourcen – Wissen in Flussgebieten vernetzen“ stand. Der inzwischen 18. „Tag der Hydrologie“ findet jährlich an einer anderen Hochschule im deutschsprachigen Raum statt. Angesichts der regionalen Nähe und der passenden Kompetenzen veranstalteten die Hochschule Koblenz und die Bundesanstalt für Gewässerkunde die Hydrologentagung in diesem Jahr gemeinsam am RheinMoselCampus.
Die Teilnehmer aus Deutschland, Frankreich, Luxemburg, Österreich und der Schweiz erwartete an dieser zweitägigen Veranstaltung ein umfangreiches Tagungsprogramm. Fast 50 Beiträge zu den Themenfeldern „Wasser- und Stoffkreisläufe – grenzüberschreitend verstehen“, „Hydrologische Extreme beschreiben und bewältigen“ und „Aus der Forschung für die Praxis, aus der Praxis in die Forschung – hydrologisches Wissen vernetzen“ standen auf der Agenda.
Eröffnet wurde der „Tag der Hydrologie 2016″ durch Prof. Dr. Kristian Bosselmann-Cyran, Präsident der Hochschule Koblenz, und Dipl.-Ing. Michael Behrendt, Leiter der Bundesanstalt für Gewässerkunde. Im Eröffnungsprogramm standen zwei Vorträge im Zentrum des Interesses: Andreas Meuser vom rheinland-pfälzischen Landesamt für Umwelt referierte über Hydrologische Extreme. Er stellte Methoden der Erfassung vor und gab einen informativen Überblick über Maßnahmen, mit denen diesen Extremen begegnet werden könne. Der bekannte Autor und Kabarettist Konrad Beikircher betrachtete die hydrologischen Wissenschaften aus seinem sehr speziellen Blickwinkel. In seinem ausgesprochen amüsanten Beitrag hob er unter anderem auf die Mentalität des Rheinländers ab, der selbst Hochwasser mit Gelassenheit zu nehmen, sogar zu feiern wisse. Natürlich durfte auch die internationale Bedeutung des Rheins nicht zu kurz kommen, der alle Kontinente miteinander verbinde, „außer Australien, das liegt rechtsrheinisch.“
Die umfangreiche Posterausstellung mit 65 hydrologischen Themen bot den Hydrologinnen und Hydrologen weiterhin eine gute Möglichkeit, sich über aktuelle Forschungsprojekte und Themenstellungen auszutauschen. Abgerundet wurde die Veranstaltung durch eine Begleitausstellung, die größtenteils überregionale Firmen und Institutionen wie der Deutsche Wetterdienst oder Fachbuchverlage gestalteten. Zudem nutzten viele lokale Firmen wie Ingenieurbüros die Veranstaltung, um sich der hydrologischen Fachgemeinschaft und potentiellen zukünftigen Mitarbeitern zu präsentieren.
Im Vordergrund der Veranstaltung stand die interdisziplinäre wissenschaftliche Arbeit in den Flussgebieten, die zusammen mit den Akteuren in Gesellschaft und Wasserwirtschaft erfolgt – auch über politische und Verwaltungsgrenzen hinweg. Hierzu Michael Behrendt: „Die Bundesanstalt für Gewässerkunde als Ressortforschungseinrichtung und die Hochschule Koblenz möchten mit der Veranstaltung ihren Beitrag leisten, um nachhaltige Lösungen, die die Hydrologie für Wasserwirtschaft und Wasserstraßen bietet, in den Fokus zu rücken. Der Tag der Hydrologie bietet vielen jungen Menschen die Gelegenheit, Kontakte zu knüpfen und Wege in die praxisorientierte wissenschaftliche Community zu finden.“
Prof. Dr. Kristian Bosselmann-Cyran verwies auf das Studienangebot der Hochschule Koblenz, das nicht zuletzt im Hinblick auf ökologische Themen besonders zukunftsorientiert sei: „Studiengänge wie ‚Wasser- und Infrastrukturmanagement‘ oder unser neuer Studiengang ‚Wasserbau/Bauingenieurwesen dual‘ vermitteln auf hohem Niveau unter anderem hydrologische Kenntnisse und tragen so zum Schutz der für uns alle besonders wertvollen Ressource Wasser bei.“

Weitere Informationen:
http://www.hs-koblenz.de

Quelle: idw

(nach oben)


Kasseler Biologin erforscht die innere Uhr

Sebastian Mense Kommunikation, Presse- und Öffentlichkeitsarbeit
Universität Kassel

Die Zeitumstellung steht kurz bevor und damit eine Art kollektiver Jetlag. Viele Menschen müssen ihre innere Zeit schnellstmöglich wieder mit der Armbanduhr synchronisieren – aber auch Haus- und Nutztiere geraten aus dem Takt. Eine Biologin der Uni Kassel erforscht mit ihrem Team am Beispiel der Madeira-Schabe und des Tabakschwärmers die Grundlagen von inneren Uhren. Die Ergebnisse können biologische Uhren bei anderen Tieren und beim Menschen erklären helfen.

Biologische Uhren steuern viele lebenswichtige Prozesse in Menschen und Tieren. Sie entscheiden beispielsweise über Ess- und Schlafrhythmen. Dabei sind im Körper viele kleine Uhren verteilt, die sich etwa im Gehirn, im Auge, der Leber oder der Niere befinden. Hier laufen bestimmte chemische Prozesse in sehr regelmäßigen Kreisläufen ab. Geraten diese Uhren aus dem Takt, werden Mensch und Tier müde, weniger leistungsfähig oder sogar krank. Biologinnen und Biologen der Uni Kassel untersuchen am Beispiel der Madeira-Schabe und des Tabakschwärmers, wie die Vernetzung und das Zusammenspiel der vielen inneren Uhren im Insekt durch Neuropeptide gesteuert wird. Prof. Dr. Monika Stengl, Leiterin des Fachgebiets Tierphysiologie / Neuroethologie an der Uni Kassel, erklärt: „Ob Schabe oder Mensch – auf der molekularen Ebene unterscheiden sich die Prozesse, die sich in den sogenannten inneren Uhren im 24 Stunden-Takt abspielen, kaum. Natürlich gibt es kleine Unterschiede – die generelle Logik ist aber die gleiche.“

Einen Teil des Mechanismus von inneren Uhren bei Madeira-Schaben hat Prof. Stengl bereits erforscht. Sie erläutert: „Eine zentrale innere Uhr befindet sich im Gehirn der Schabe und besteht aus einzelnen Neuronen, die miteinander über Neuropeptide kommunizieren. Durch diese Kommunikation werden Rhythmen im Verhalten und in der Physiologie der Tiere gesteuert – die Schabe schläft beispielsweise immer am Tag und wird zu Beginn der Nacht aktiv. Diese Verhaltensrhythmen wiederum werden durch äußere Rhythmen, sogenannte Zeitgeber beeinflusst. So ein externer Zeitgeber ist zum Beispiel der 24-Stunden-Rhythmus von Tag und Nacht.“ Prof. Stengl weiter: „Die vielen inneren Uhren koppeln sich untereinander und werden durch den Wechsel von Tag und Nacht mit der Umwelt synchronisiert. Lichtimpulse finden also Eingang in innere Uhren und beschleunigen sie, oder bremsen sie ab, abhängig von der Tageszeit.“ So synchronisiert sich auch der 24-Stunden-Rhythmus des Menschen mit dem externen 24-Stunden-Rhythmus von Tag und Nacht. Durch den Eingang von Licht in den Mechanismus der inneren Uhr wird laut Stengl ein Uhr-Protein erzeugt, das wiederum seine eigene Produktion hemmt. Der Rhythmus, in dem dieser Prozess sich vollzieht, dauert in etwa 24 Stunden. Laut Prof. Stengl könne man die inneren Uhren anhand des Spiegels von Uhr-Proteinen in den Schrittmacherzellen ablesen, oder an elektrischen Rhythmen ihrer Zellmembran.

Bereits vor 13 Jahren konnte die Biologin die Schrittmacherneurone ausfindig machen, die im Gehirn der Madeira-Schabe eine zentrale innere Uhr bilden – diese Uhr-Neurone enthalten das Neuropeptid PDF (pigment-dispersing factor), welches andere biologische Uhren synchronisiert. Prof. Stengl erklärt: „Zerstört man dieses Peptid im Körper der Schabe, so wird diese a-rhythmisch – das heißt, dass sie beispielsweise nicht mehr regelmäßig schläft und isst.“ Auch beim Menschen gebe es ein dem PDF entsprechendes Peptid im Gehirn. Dieses trägt als wichtigstes Kopplungssignal unter anderem dazu bei, dass ein Zeitgefühl (z.B. „heute – gestern – morgen“) ausgebildet wird.

Aktuell versuchen die Kasseler Forscherinnen und Forscher weitere Substanzen wie Neuropeptide und Neurotransmitter, die ebenfalls zum inneren Uhrwerk gehören, ausfindig zu machen. Sie wollen das Netzwerk der Uhr-Neurone verstehen, wie genau die zentrale Uhr im Gehirn der Schabe mit vielen weiteren inneren Uhren im Körper der Schabe verknüpft ist. Auch die Auswirkung von einzelnen Neuropeptiden auf das rhythmische Fressverhalten der Schaben interessiert das Forscherteam. Zudem wollen die Biologinnen und Biologen den Zusammenhang zwischen den elektrischen Rhythmen in der Zellmembran der Schrittmacherneurone und den Rhythmen in ihrer Genregulation in den Schaben erforschen. Die Ergebnisse der Grundlagen-Forschung könnten laut Prof. Stengl später zum Beispiel in der Medizin Anwendung finden als Grundlage für Forscherteams, die sich mit dem Einfluss von nicht zeitlich synchronisierten Körperfunktionen auf die menschliche Psyche beschäftigen.

Auch die Auswirkungen von Jetlags und Zeitumstellungen beim Menschen können durch solche Grundlagen-Forschungen langfristig noch besser erklärbar werden.

Tipp von der Biologin bei Jetlags
Zu wissen, wie innere Uhren ticken, hilft auch dabei ein bekanntes Phänomen zu erklären: Es ist sehr viel einfacher, die innere Uhr zu verzögern, als sie zu beschleunigen. Wer seinen Körper auf die Winterzeit einstellen möchte oder nach Westen fliegt, sollte sich zu Beginn der Nacht viel Licht aussetzen und sich außerdem sofort dem neuen Schlaf- und Essregime anpassen. Bei einem Flug nach Osten oder der Einstellung auf die Sommerzeit haben wir es weitaus schwerer. Prof. Stengl berichtet: „Man muss über mehrere Tage in der späten Nacht Licht geben, um innere Uhren zu beschleunigen.“

Ein Foto von einer Madeira-Schabe (Foto: Achim Werckenthin, Uni Kassel) unter: http://www.uni-kassel.de/uni/fileadmin/datas/uni/presse/Rhyparobia_maderae_male_…

Ein Foto von Prof. Dr. Monika Stengl (Foto: Sonja Rode) unter: https://www.uni-kassel.de/uni/fileadmin/datas/uni/presse/Prof._Dr._Stengl__Monik…

Kontakt:
Prof. Dr. Monika Stengl
Universität Kassel
Professur für Tierphysiologie
Tel.: +49 561 804 4564
E-Mail: stengl@uni-kassel.de

Weitere Informationen:
http://www.uni-kassel.de

Quelle: idw

(nach oben)


Grundwasser, Trinkwasser, Abwasser und mehr – Wasserchemiker tagen an der Regnitz in Bamberg

Dr. Renate Hoer Abteilung Öffentlichkeitsarbeit
Gesellschaft Deutscher Chemiker e.V.

Im 90. Jahr ihres Bestehens lädt die Wasserchemische Gesellschaft, eine Fachgruppe in der Gesellschaft Deutscher Chemiker (GDCh), zu ihrer Jahrestagung nach Bamberg ein. Zur „Wasser 2016″, die vom 2. bis 4. Mai stattfindet, werden rund 250 Teilnehmer erwartet – natürlich Wasserchemiker, aber auch viele andere im Wasserfach tätige Experten aus Deutschland, Österreich und der Schweiz. Neben den für die Jahrestagung charakteristischen Themenblöcken, zu denen beispielsweise Spurenstoffe und Abwasser, Gewässer und Grundwasser oder Trinkwasser und Hygiene gehören, beschäftigt sich das diesjährige Spezialthema mit dem regionalen Aspekt der Nutzung von Wasserressourcen in Süddeutschland.

Im 90. Jahr ihres Bestehens lädt die Wasserchemische Gesellschaft, eine Fachgruppe in der Gesellschaft Deutscher Chemiker (GDCh), zum zweiten Mal nach 1966 zu ihrer Jahrestagung nach Bamberg ein. Zur „Wasser 2016″, die vom 2. bis 4. Mai stattfindet, werden rund 250 Teilnehmer erwartet – natürlich Wasserchemiker, aber auch viele andere im Wasserfach tätige Experten aus Deutschland, Österreich und der Schweiz. Neben den für die Jahrestagung charakteristischen Themenblöcken, zu denen beispielsweise Spurenstoffe und Abwasser, Gewässer und Grundwasser oder Trinkwasser und Hygiene gehören, beschäftigt sich das diesjährige Spezialthema mit dem regionalen Aspekt der Nutzung von Wasserressourcen in Süddeutschland.

In Bamberg, auch Hauptstadt des Bieres genannt, erwartet die Tagungsteilnehmer unter anderem der Vortrag „Mythos Brauwasser“. Dr.-Ing. Karl Glas, Leiter der Abteilung Wassertechnologie der Technischen Universität München in Weihenstephan, wird die besonderen Anforderungen an das Wasser für den Bierbrauprozess darlegen. Über Trockenheit, Niedrigwasser und die Auswirkungen auf die bayerischen Gewässer berichtet Dr. Michael Altmayer vom Bayerischen Staatsministerium für Umwelt und Verbraucherschutz in seinem Vortrag „Trockenheit 2015 – das kommt jetzt öfter, was können wir tun?“ Und Thomas Keller, Behördenleiter des Wasserwirtschaftsamtes Ansbach, wird in seinem Vortrag „Wasser für Franken – die Überleitung Donau-Main“ verdeutlichen, warum der wasserwirtschaftliche Ausgleich zwischen Donau- und Maingebiet erforderlich ist, um wasserbedingte Hemmnisse in Franken abzubauen.

Ein weiterer bayernbezogener Vortrag findet sich im Themenblock „Gewässer und Grundwasser“: „Wasserwirtschaftliche Auswirkungen des zunehmenden Maisanbaus in Bayern“. Hier geht es um erhöhte Konzentrationen an Pflanzenschutzmitteln und Nitrat vor allem in kleinen Fließgewässern und im Grundwasser in Gebieten mit intensivem Maisanbau. Am Helmholtz-Zentrum für Umweltforschung in Leipzig befasst man sich mit einer ähnlichen Thematik und stellt in Bamberg den „Einfluss von Hydrologie und Landnutzung auf die molekulare Zusammensetzung von gelöstem organischen Kohlenstoff“ vor, der in der Wasseraufbereitung durch Flockung entfernt werden muss.

Weitere aktuelle Themen sind, um einige Beispiele herauszugreifen, die Transformationswege von Diclofenac in der biologischen Abwasserbehandlung, die Untersuchung von Krankenhausabwasser auf östrogene und androgene Effekte und deren Elimination mittels Ozon sowie die Charakterisierung von Mikroplastik-Partikeln aus Umweltproben. Ferner tragen der diesjährige Willy-Hager-Preisträger, Dr.-Ing. Timo Pittmann, Stuttgart, und der Empfänger des diesjährigen Promotionspreises, Dr. Thorsten Hüffer, Wien, über ihre Arbeiten vor: „Herstellung von Biokunststoffen aus Stoffströmen einer kommunalen Kläranlage“ bzw. „Sorption organischer Verbindungen an kohlenstoff-basierten Nanomaterialien – Systematische Charakterisierung, Modelliierung und Anwendung“. Die Ehrennadel der Fachgruppe wird in diesem Jahr an Professor Dr. Heinz-Jürgen Brauch für sein langjähriges Engagement in der Wasserchemischen Gesellschaft vergeben. Brauch ist seit 1984 Mitglied der Fachgruppe und hat als Beisitzer des Vorstands, als Mitglied des Programmausschusses und als Beirat im Normenausschuss Wasserwesen (NAW) über viele Jahre die Arbeit der Wasserchemischen Gesellschaft sehr maßgeblich unterstützt.

Als öffentlichen Abendvortrag bietet die Wasserchemische Gesellschaft in Kooperation mit dem Verlag Wiley-VCH im Rahmen der ChiuZ-Roadshow am 2. Mai um 19 Uhr das Thema „H2O – abgezapft und original verkorkst“ an. Der für seine kurzweiligen Vorträge bekannte Berliner Chemieprofessor Klaus Roth wird die bunte und manchmal auch schrille Welt des Wassers diesseits und jenseits der Grenze exakter Naturwissenschaften mit Wohlwollen, kritischer Distanz und einer großen Portion Galgenhumor beleuchten. Im Anschluss an den Abendvortrag im Welcome Kongresshotel Bamberg lädt Wiley-VCH zum Sektempfang, um den 50. Geburtstag der Zeitschrift Chemie in unserer Zeit, die Roth zu ihren wichtigsten Autoren zählt, zu feiern.

Weitere Informationen unter www.gdch.de/wasser2016.

Die Gesellschaft Deutscher Chemiker (GDCh) gehört mit über 31.000 Mitgliedern zu den größten chemiewissenschaftlichen Gesellschaften weltweit. Sie hat 28 Fachgruppen und Sektionen, darunter die Wasserchemische Gesellschaft, 1926 als „Fachgruppe für Wasserchemie“ im Verein Deutscher Chemiker gegründet. 1948 erfolgte die Neugründung als „Fachgruppe Wasserchemie“ in der GDCh, seit 2000 heißt sie „Wasserchemische Gesellschaft – Fachgruppe in der GDCh“. Ihre rund 950 Mitglieder sind tätig für den wirksamen Schutz, die sinnvolle Nutzung, die zweckmäßige Aufbereitung und Reinigung sowie die sachgemäße Untersuchung und Beurteilung des Wassers.

Weitere Informationen:
http://www.gdch.de

Quelle: idw

(nach oben)


Arzneimittelrückstände im Wasserkreislauf: Technische Lösungen stoßen an ihre Grenzen

Melanie Neugart Wissenskommunikation und Öffentlichkeitsarbeit
ISOE – Institut für sozial-ökologische Forschung

Pharmazeutische Rückstände, wie sie in Deutschland in nahezu allen Gewässern nachgewiesen werden können, beschäftigen Wissenschaft und Wasserbetriebe schon seit Jahren. Denn selbst aufwendige technische Verfahren in den Kläranlagen können die Spurenstoffe aus Medikamenten nicht vollständig entfernen. Wasserexpertinnen und -experten des ISOE – Institut für sozial-ökologische Forschung empfehlen jetzt einen Lösungsansatz für den Gewässerschutz, der technische Maßnahmen der Abwasserbehandlung und präventive Maßnahmen verbindet.

Durch unsachgemäße Entsorgung und durch Ausscheidung von Medikamenten gelangen Arzneimittelrückstände in das Abwasser. Selbst modernste Reinigungstechnologien können nicht alle chemischen Verbindungen vollständig entfernen. Über den Ablauf aus den Kläranlagen in Flüsse, Seen und Bäche verbleiben sie im Wasserkreislauf. „Eine akute Gefährdung für den Menschen besteht nach bisherigem Wissensstand zwar nicht“, sagt Martina Winker, Leiterin des Forschungsschwerpunkts Wasserinfrastruktur und Risikoanalysen am ISOE. Tier- und Pflanzenwelt werden jedoch nachweislich gestört, bekannt sind etwa Nierenschäden bei Fischen und die Verweiblichung männlicher Regenbogenforellen.
Es sei daher nachvollziehbar, meint Winker, wenn Verbraucherinnen und Verbraucher in Deutschland solche Wirkstoffe nicht in ihrem Trinkwasser haben wollten. Auch die Verantwortlichen in der Wasserwirtschaft sehen Handlungsbedarf. „Verantwortung und Lösungen können aber nicht allein bei den Entsorgern liegen“, sagt Winker. Vielmehr sei die Konzentration auf Vermeidung und Vorsorge erforderlich. „Denn gerade da, wo die Probleme entstehen – bei der Medikamentenentwicklung und -einnahme – wird die Umweltproblematik bislang kaum berücksichtigt.“

Technische Aufrüstung von Kläranlagen mit Präventionsmaßnahmen bündeln
In mehreren Forschungsprojekten hat das ISOE wirksame Strategien entwickelt, die verschiedene präventive Maßnahmen bündeln. Dazu gehören Richtlinien zur Arzneimittelinnovation, zum Arzneimitteleinsatz und zum Emissionsmanagement in der Siedlungswasserwirtschaft. „Deutlich geworden ist, dass das Problembewusstsein für den Gewässerschutz sowohl in der Bevölkerung als auch bei den Multiplikatoren im Gesundheitswesen noch nicht stark genug ausgeprägt ist“, beobachtet Winker. Das zeige aber auch, wie viel Potenzial für Vermeidung und Reduzierung von Medikamenteneinträgen in die aquatische Umwelt vorhanden sei, etwa durch zielgruppenspezifische Aufklärung.
In einer Umfrage unter Medizinern und Klinikpflegepersonal im Forschungsverbund SAUBER+ hat mehr als ein Viertel der Befragten erklärt, keinerlei Kenntnisse über die Umweltauswirkungen der Medikamente, die sie verschreiben bzw. verabreichen, zu besitzen. Für die Reduzierung und Verhinderung pharmazeutischer Einträge in die aquatische Umwelt sei die Sensibilisierung und Wissensvermittlung daher von großer Bedeutung. „Denn ohne Problembewusstsein für den Gewässerschutz werden alternative Therapiemöglichkeiten von vornherein gar nicht in Erwägung gezogen“, sagt Winker.

Früh in der Wirkungskette ansetzten, um Umweltprobleme zu vermeiden
Die Wasserexpertin empfiehlt deshalb einen Lösungsansatz, der die bereits erprobten Maßnahmen zur Verhaltensänderung im Umgang mit Medikamenteneinnahme und -entsorgung mit der Weiterentwicklung der Reinigungsstufen in Kläranlagen verbindet. „Die kosten- und energie¬intensive Aufrüstung der Kläranlagen in Deutschland kann nur im Zuge eines ganzheitlichen Ansatzes erfolgversprechend sein“, sagt Winker. Konsumenten und Schlüsselakteure in Pharmaindustrie und Gesundheitswesen müssten strategisch miteinbezogen werden. Wichtig sei, weit vorne in der Wirkungskette anzusetzen, möglichst schon bei der umweltfreundlichen Entwicklung von Arzneimitteln.
„Wir haben gesehen, dass die verschiedenen Maßnahmen auf die einzelnen Wirkstoffe ganz unterschiedliche Effekte haben“, sagt Martina Winker. „Das heißt, es gibt nicht die eine Maßnahme, die das Problem der Arzneimittelrückstände in den Gewässern löst.“ Deshalb sei es so wichtig, einen Ansatz zu verfolgen, der umwelttechnische und gesundheitspolitische Maßnahmen bündelt, um so den Eintrag der Chemikalien in die Umwelt gezielt zu reduzieren und im besten Falle sogar ganz zu vermeiden.

ISOE-Publikation zur Wirkungsabschätzung der Reduzierung von Arzneimitteleinträgen
in Gewässer

Im Projekt SAUBER+ hat das ISOE die drei Handlungsfelder „umwelttechnische Maßnahmen“, „gesundheitspolitische Maßnahmen“ sowie „innovative Ansätze in der Arzneimittelentwicklung“ hinsichtlich ihrer Wirkung für eine Minderung der Arzneimitteleinträge in die Gewässer untersucht. Die sozial-ökologische Wirkungsabschätzung mithilfe von Bayes’schen Netzen ist in der Zeitschrift Total Science of the Environment erschienen.

Caterina Brandmayer, Heide Kerber, Martina Winker, Engelbert Schramm (2015): Impact assessment of emission management strategies of the pharmaceuticals Metformin and Metoprolol to the aquatic environment using Bayesian networks. Science of the Total Environment 532: 605-616

ISOE-Projektübersicht zur Entwicklung nachhaltiger Strategien gegen Medikamentenrückstände im Wasserkreislauf
■ SAUBER+ – Innovative Konzepte für Abwasser aus Einrichtungen des Gesundheitswesens
■ TransRisk – Schadstoffe als Risiko im Wasserkreislauf
■ DSADS – Den Spurenstoffen auf der Spur
■ Arznei für Mensch und Umwelt?
■ Pharmas – Risikoabschätzung für Medikamente in der Umwelt
■ Elimination von Spurenstoffen in Kläranlagen
■ Kommunikationsstrategien zum nachhaltigen Umgang mit Arzneimitteln
■ start – Strategien zum Umgang mit Arzneimittelwirkstoffen im Trinkwasser

ISOE – Institut für sozial-ökologische Forschung, Frankfurt am Main
Das ISOE gehört zu den führenden unabhängigen Instituten der Nachhaltigkeitsforschung. Seit mehr als 25 Jahren entwickelt das Institut wissenschaftliche Grundlagen und zukunftsfähige Konzepte für Politik, Zivilgesellschaft und Wirtschaft – regional, national und international. Zu den Forschungsthemen gehören Wasser, Energie, Klimaschutz, Mobilität, Urbane Räume, Biodiversität und sozial-ökologische Systeme.

Weitere Informationen:
http://www.isoe.de/fileadmin/redaktion/Presse-Aktuelles/Pressemitteilungen/2016/…

Quelle: idw

(nach oben)


Strom aus Abwärme – Keramik macht‘s möglich

Dipl.-Chem. Katrin Schwarz Presse- und Öffentlichkeitsarbeit
Fraunhofer-Institut für Keramische Technologien und Systeme IKTS

Dort, wo konventionelle Werkstoffe an ihre Grenzen stoßen, kann Keramik ihre hervorragenden Eigenschaften ausspielen. Funktionale Keramiken – so genannte Thermoelektrika – können beispielsweise in Hochtemperaturprozessen Abwärme direkt in Strom umwandeln. Auf der Hannover Messe 2016 präsentiert Europas größtes Keramikforschungsinstitut erstmalig ein System, mit dem die zuverlässige Funktionalität der am IKTS entwickelten thermoelektrischen Keramikmodule demonstriert wird.

Gegenwärtig wird weniger als die Hälfte der eingesetzten Energie in Industrieprozessen, Verkehr oder Haushalten tatsächlich genutzt. Der Großteil der Primärenergie entweicht trotz zahlreicher Energiesparmaßnahmen immer noch als Abwärme in die Umwelt. Thermoelektrische Generatoren (TEG) können helfen, diese ungenutzte Wärmeenergie in Elektrizität umzuwandeln. Allerdings gibt es bisher noch Hürden hinsichtlich Kosteneffizienz, Rohstoffverfügbarkeit, Verarbeitbarkeit und Umweltverträglichkeit der eingesetzten thermoelektrischen Werkstoffe.

Keramische Werkstoffe bieten hier mit ihrem außergewöhnlich flexiblen Eigenschaftsspektrum eine Lösung. Sie lassen sich umweltfreundlich und aus leicht verfügbaren Rohstoffen fertigen. Bislang konnten allerdings nur keramische TEGs für begrenzte Aufgaben und mit niedriger Energiewandlungseffizienz realisiert werden.

Das Fraunhofer IKTS verfügt über ein umfassendes Know-how zur Herstellung von keramischen Thermoelektrika. Als erste deutsche Forschungseinrichtung ist es dem IKTS gelungen, voll funktionsfähige keramische TEGs kosteneffizient herzustellen, die über eine lange Lebensdauer verfügen und bei hohen Temperaturen einsetzbar sind, was sie energetisch interessant macht. »Wir bieten unseren Kunden wirtschaftlich attraktive keramische TEG-Module, mit denen wertvolle Abwärme autark und zuverlässig verstromt werden kann – und das bei Temperaturen bis zu 1000 °C. Solche robusten, wartungsfreien und vor allem langlebigen TEGs sind für eine Vielzahl von Anwendungen attraktiv, z. B. in metallurgischen Prozessen oder in den heißen Zonen von Verbrennungsmotoren.« erläutert Hans-Peter Martin, Leiter der Gruppe »Nitridkeramik und elektrisch funktionelle Strukturkeramik« am Fraunhofer IKTS.

Die Wissenschaftler des Fraunhofer IKTS bieten die kundenspezifische Entwicklung keramischer TEG-Module an – adaptiert für die jeweiligen Bedingungen des Wirtsprozesses. Dafür werden die keramischen Komponenten hinsichtlich elektrischer Parameter, chemischer Wechselwirkungen und geometrischer Anforderungen optimiert und – auf Wunsch – in das individuelle thermische System integriert.

Mit dem in Hannover gezeigten Systemaufbau erleben Besucher live, wie die anfallende Abwärme eines bei 800 °C arbeitenden vollkeramischen Heizleiters in den keramischen TEG-Modulen umgewandelt und für die Ansteuerung eines Displays genutzt wird.

Die Kompetenz zum Aufbau solcher TEGs am Fraunhofer IKTS leitet sich ab aus der jahrzehntelangen Erfahrung des Instituts mit elektrisch funktionalisierten Hochtemperatur-Werkstoffen, wie zum Beispiel Heizleitern, Verdampfern und Schaumkeramiken. Auch über diese Technologieangebote können sich Gäste und Partner auf der Hannover Messe 2016 informieren.

Weitere Informationen:
http://www.ikts.fraunhofer.de/de/pressemedien/pressemitteilungen/teg.html

Quelle: idw

(nach oben)


Tsunamigefahr am Ätna?

Andreas Villwock Kommunikation und Medien
GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel

Auf Satellitennavigation gestützte Messungen an Land zeigen, dass die Ostflanke des Ätnas langsam Richtung Meer rutscht. Bisher beschränken sich diese Messungen allerdings auf den an Land gelegenen Teil des Vulkans, obwohl sich die Vulkanflanke weit in das Ionische Meer fortsetzt. Kieler Meeresforscher bringen jetzt ein neuartiges Vermessungsnetz vor der Küste Siziliens aus, um durch entsprechende Messungen unter Wasser diese Lücke zu schließen. Das Forschungsschiff POSEIDON verlässt dafür heute den Hafen von Malaga und nimmt Kurs auf Süditalien.

Alleine sieben Ausbrüche seit der Jahrtausendwende – der Ätna auf Sizilien wird seinem Ruf als aktivster Vulkan Europas gerecht. Lavaströme zerstören immer wieder Häuser, Straßen und andere Infrastruktur in der näheren Umgebung. Da die Küstenregion am Fuß des Ätnas mit der Inselhauptstadt Catania etwa eine Millionen Einwohner hat und zu den wichtigsten Industriezentren Süditaliens gehört, überwachen Wissenschaftler und Behörden den Vulkan sehr intensiv. An Land kommen dabei zum Beispiel Stationen zum Einsatz, die jede Bewegung des Berges mit Hilfe von Satellitennavigation genau registrieren.

Kieler Meeresforscher werden jetzt diese Messnetze vor der Küste Siziliens unter Wasser erweitern. Dabei kommen neuartige Systeme zum Einsatz, die in ähnlicher Form seit einigen Monaten auch in den erdbebengefährdeten Regionen vor Istanbul und vor Nordchile am Meeresboden installiert sind. „Signale von Navigationssatelliten dringen nicht ins Wasser ein. Bisher war es daher schwierig, Bewegungen und Verformungen des Bodens unter Wasser zu messen. Wir nutzen jetzt eine schallbasierte Variante, die ganz neue Wege für die Erforschung von Naturgefahren im Meer eröffnet“, erklärt die Projektleiterin Dr. Morelia Urlaub vom GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel.

Während der Expedition POS496 des Kieler Forschungsschiffes POSEIDON legen die Forscherinnern und Forscher insgesamt sechs dieser Geodäsie-Stationen in Wassertiefen um 700 Meter vor der Ostküste Siziliens aus. „Wir stellen sie sozusagen auf dem von Wasser bedeckten Osthang des Ätnas ab“, erklärt Professor Dr. Sebastian Krastel vom Institut für Geowissenschaften der Christian-Albrechts-Universität zu Kiel, der die Fahrtleitung an Bord inne hat.

Von den Messstationen an Land ist bekannt, dass diese Flanke des Vulkans instabil ist und sich Richtung Meer bewegt. „Bisher weiß aber niemand, ob und wie sich diese Bewegung unter Wasser auswirkt. Das wollen wir ermitteln“, ergänzt Dr. Urlaub. Die sechs Geodäsie-Geräte messen per Schall den Abstand zueinander auf Bruchteile von Zentimetern genau. Drei Boden-Neigungsmesser und sechs klassische Ozeanbodenseismometer, die auch kleinste Schwingungen im Untergrund erkennen können, vervollständigen das Messnetz.

Gerade die Bewegung der Vulkanflanken stellt neben den eigentlichen Eruptionen eine potenzielle Gefahrenquelle für die gesamte Region dar. Eine schnelle Hangrutschung unter Wasser kann einen Tsunami auslösen. Er würde rund um das Mittelmeer auf dicht besiedelte Küsten treffen, die in den Sommermonaten zusätzlich von Millionen von Touristen frequentiert werden. „Die Vorstellung eines Tsunamis im Mittelmeer ist nicht aus der Luft gegriffen. So hat ein Erdbeben in der Straße von Messina 1908 eine Flutwelle ausgelöst, die etwa zweitausend Menschen getötet hat“, sagt Professor Krastel.

Die marine Geodäsie, also die schallbasierte Vermessung unter Wasser, ist noch eine sehr junge Methode bei der Erforschung von Naturgefahren. „Wir hoffen, dass wir so das Wissen über die Bewegungen des Ätnas deutlich erweitern können“, betont Dr. Urlaub.

Expedition auf einen Blick:
POSEIDON-Expedition POS496
Forschungsthema: Naturgefahren am Ätna
Wissenschaftlicher Fahrtleiter: Prof. Dr. Sebastian Krastel (Universität Kiel)
Projektleitung: Dr. Morelia Urlaub (GEOMAR)
Start: 24.03.2016, Malaga (Spanien)
Ende: 04.04.2016, Catania (Italien)

Weitere Informationen:
http://www.geomar.de Das GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel
http://www.ifg.uni-kiel.de Das Institut für Geowissenschaften der Universität Kiel

Quelle: idw

(nach oben)


Neue Wege in der Schwerhörendenversorung

Exzellenzcluster Hearing4all Öffentlichkeitsarbeit und Presse
HörTech, Kompetenzzentrum für Hörgeräte-Systemtechnik

Geschirrklappern, Musik, Stimmengewirr – Schwerhörige haben große Schwierigkeiten in solchen Situationen einem Gespräch zu folgen oder auch Geräusche zu lokalisieren. Normalhörende haben deutlich weniger Probleme mit Hintergrundgeräuschen und der Ortung von einzelnen Klangquellen. Hauptgrund dafür ist, dass sie beidohrig (binaural) hören können. Forscher des Exzellenzclusters Hearing4all sind nun maßgeblich daran beteiligt, das Prinzip des binauralen Hörens auf die Cochlea Implantat-Technologie zu übertragen.

Die Einführung von Cochlea-Implantaten bedeutete eine wegweisende Veränderung bei der Versorgung von hochgradig schwerhörenden und ertaubten Menschen. Ein Cochlea Implantat kann bei Taubheit oder hochgradiger Schwerhörigkeit helfen wieder Geräusche zu hören und Stimmen zu verstehen. Im Unterschied zum Hörgerät, das die Lautstärke des Schalls verstärkt, wandelt das Cochlea-Implantat Schall in elektrische Impulse um, durch die der Hörnerv im Innenohr (Cochlea) stimuliert wird. Obwohl eine beidseitige Implantation (d.h. unabhängige Implantate in jedem Ohr) binaurales Hören bis zu einem gewissen Grad ermöglicht, fehlt hier jedoch die zeitliche Information völlig, die für ein echtes binaurales Hören notwendig ist. Denn die Signale, die die Ohren erhalten, werden vom Hörsystem im Gehirn so verarbeitet und miteinander verrechnet, dass die Differenzen zwischen links und rechts ausgewertet werden können. Die Ohren kommunizieren also miteinander und sind so in der Lage, Sprachsignale hervorzuheben bzw. Hintergrundgeräusche zu unterdrücken.

Um die Vorteile dieses natürlichen Prinzips auch für CI-Patienten nutzbar zu machen, wurden im Rahmen des EU-geförderten Forschungsprojekts Advancing Binaural Cochlear Implant Technology (ABCIT) Technologien für binaurale Implantate entwickelt, die einen einzelnen, gemeinsamen Prozessor benutzen und daher koordiniert zusammenarbeiten. Dadurch wird den Anforderungen der binauralen Hörverarbeitung im Gehirn Rechnung getragen, um effektives Hören wieder herzustellen. Umfangreiche Studien zeigten, dass Methoden der binauralen Vorverarbeitung, die in modernen Hörgeräten bereits verwendet werden, auf CIs übertragbar sind und für CI-Hörer oft sogar noch einen größeren Vorteil bieten, als dies bei Hörgeräteträgern der Fall ist. Dieser Forschungsfortschritt wurde nur durch die enge interdisziplinäre Zusammenarbeit zwischen den beteiligten Wissenschaftlern in Deutschland, Frankreich und England möglich. Durch ihre unterschiedlichen Kompetenzen aus den Bereichen Grundlagenforschung, Audiologie und Algorithmenentwicklung für Cochlea-Implantate und Hörgeräte konnten die Wissenschaftler in enger Zusammenarbeit mit der Industrie den Grundstein für eine neue Generation von CIs legen. Die CIs der Zukunft sollen es ermöglichen, deutlich leichter Sprache bei Hintergrundgeräuschen zu verstehen, wie z.B. auf einer Party oder im Restaurant, und Geräusche besser zu lokalisieren und sich so z.B. in Verkehrssituationen besser zu orientieren.

Die Zeitschrift „Trends in Hearing“ würdigte diese Forschungsleistung mit einem Sonderband, in dem insgesamt 13 Publikationen des ABCIT-Projekts versammelt sind, davon 8 mit Beteiligung von Forschern des Exzellenzclusters.

Über ABCIT
Im September 2012 startete das Forschungsprojekt „Advancing Binaural Cochlear Implant Technology“, kurz: ABCIT, das von der Europäischen Union über einen Zeitraum von 3 Jahren in einer Höhe von 4 Mio. € gefördert wurde. Koordiniert wurde das Projekt vom Ear Institute am University College in London (UCL). Weitere Partner des Projekts waren der dänisch/französische Cochlea-Implantat-Hersteller Oticon Medical/Neurelec, die Universität Oldenburg sowie HörTech. Ziel des Projekts war die Verbesserung des räumlichen Hörvermögen von Cochlea -Implantat -Nutzern, speziell derer, die das binaurale Neurelec-Gerät verwenden, welches beide implantierten Ohren synchron stimuliert. Binaurales Hören ist notwendig, um Schallquellen zu lokalisieren sowie für das Hören in lärmbehafteten Umgebungen.

Über Hearing4all
Ziel des Exzellenzclusters „Hearing4all“ ist buchstäblich das „Hören für alle“. Durch eine Verbesserung der individualisierten Hördiagnostik und der darauf angepassten Versorgung mit persönlichen Hörhilfen wollen die WissenschaftlerInnen die Kommunikationssituation von Betroffenen entscheidend verbessern. Hierbei werden grundlegende, auf Modellen basierende Arbeiten zur Diagnose und zum auditorischen Profil von Normal- bis schwerhörenden Menschen durchgeführt, um zu einem besseren Verständnis des individuellen Gehörs zu gelangen. Darüber hinaus werden diese Modelle benutzt, um die individuelle Versorgung mit technischen Hörhilfen zu verbessern und an die jeweilige Situation angepasst zu optimieren. Die Federführung des Konsortiums liegt bei der Carl von Ossietzky Universität Oldenburg. Neben der Medizinischen Hochschule Hannover und der Leibniz Universität Hannover sind auch das Kompetenzzentrum HörTech, die Jade Hochschule, die Hörzentren Hannover und Oldenburg, die Projektgruppe Hör-, Sprach- und Audiotechnologie des Fraunhofer IDMT, das Laser Zentrum Hannover e.V. und das Hanse-Wissenschaftskolleg Delmenhorst am Exzellenzcluster beteiligt. Der Cluster ist eingebettet in das Netzwerk „Auditory Valley“, das weitere öffentliche und private Einrichtungen, die im Bereich der Hörforschung im Nordwesten Deutschlands aktiv sind, verbindet.

Weitere Informationen:
http://tia.sagepub.com/content/19
http://www.hearing4all.eu

Quelle: idw

(nach oben)


Stromkunden sind bereit für Ökostrom von Stadtwerken und Genossenschaften mehr zu zahlen

Ibou Diop Stabsstelle Presse- und Öffentlichkeitsarbeit
Humboldt-Universität zu Berlin

Stromkunden sind bereit für Ökostrom von Stadtwerken und Genossenschaften mehr zu zahlen. Zu diesem Ergebnis kommt eine aktuelle Befragung von mehr als 2.000 Verbraucher/innen in Deutschland. An Stadtwerke würden die Befragten für Ökostrom über vier Cent und an Genossenschaften 2,7 Cent pro Kilowattstunde mehr zahlen als an Privatunternehmen. Die Studie führten Wissenschaftler der Humboldt-Universität zu Berlin (HU), des Instituts für ökologische Wirtschaftsforschung (IÖW), des Leibniz-Zentrums für Agrarlandschaftsforschung (ZALF) und der Universität Erfurt zusammen mit forsa.omninet durch. Projektleiter war Agrarökonom Prof. Dr. Markus Hanisch von der Humboldt-Universität zu Berlin.

Zahlungsbereitschaft der Kunden von Unternehmensform abhängig
Im Jahr 2011 wechselten nach der Reaktorkatastrophe von Fukushima viele Stromkunden in Deutschland zu einem Ökostromanbieter. Unter den Ökostromanbietern konnten sich auch viele Genossenschaften etablieren. Doch gibt es verschiedene Arten von Ökostrom und es ist für Endverbraucher nicht immer leicht, sich auf dem Markt zu orientieren. Es stellt sich darum die Frage, ob Kunden auf dem Ökostrommarkt Unterschiede zwischen den Unternehmen wahrnehmen. Die repräsentative Befragung hat nun gezeigt, dass die Unternehmensform einen wichtigen Unterschied macht hinsichtlich der Zahlungsbereitschaft für Ökostrom.
„Da die Verbraucher die Herkunft von Ökostrom nur schwer nachvollziehen können, wird die Glaubwürdigkeit des Anbieters wichtiger“, so Jens Rommel von der HU, Co-Autor der Studie. „Stadtwerken und Genossenschaften gelingt es besser als privaten Anbietern, das Vertrauen der Kunden zu gewinnen.“

Die Autoren der Studie plädieren darum dafür, den Wettbewerb durch Akteursvielfalt auf dem Ökostrommarkt zu erhalten. „Unsere Ergebnisse zeigen, dass die Identität von Verbraucher und Produzent bei Ökostrom zusätzlichen Nutzen schafft und somit die gesamtwirtschaftlichen Kosten der Energiewende sinken.“

Die Ergebnisse verdeutlichen, dass die Energiewende am Strommarkt davon abhängt, welche Wahl die Verbraucher treffen. „Um diese Entscheidungen auf einer guten Grundlage zu treffen, brauchen die Kunden vor allem einen guten Zugang zu Informationen“, so Markus Hanisch, Projektleiter sowie Professor an der HU am Institut für Agrarwissenschaften. „Die Politik könnte dazu beitragen, dass mehr Transparenz geschaffen und Informationsunterschiede behoben werden.“

Die Autoren der Studie schlagen darum ein europäisches Ökostrom-Label vor, das das Vertrauen, die Glaubwürdigkeit und die Akzeptanz der Verbraucher in Strom aus erneuerbaren Energien europaweit stärken könnte.

Publikation
J. Rommel, et al., Quality uncertainty and the market for renewable energy. Evidence from German consumers, Renewable Energy (2016)
Die Studie kann auf Anfrage abgefordert werden.

Projekt Energeno
Das Projekt Energeno ist der Frage nachgegangen, warum Menschen Strom von Genossenschaften beziehen oder sogar Eigentümer/innen ihres Elektrizitätsversorgers werden wollen. Die Befragung wurde von der DZ Bank-Stiftung gefördert.
https://www.agrar.hu-berlin.de/de/institut/departments/daoe/koopwiss/forschung/e…

Kontakt (Projektleitung)
Prof. Dr. Markus Hanisch
Tel.: 030 2093-6500
hanischm@hu-berlin.de

Quelle: idw

(nach oben)


Bei Sommerhitze komfortabel arbeiten

Rüdiger Mack Marketingkommunikation
FIZ Karlsruhe – Leibniz-Institut für Informationsinfrastruktur GmbH

Viele Büro- und Verwaltungsgebäude im Bestand sind nicht klimatisiert. Dies erschwert bei steigenden Temperaturen konzentriertes Arbeiten. Wissenschaftler haben analysiert, mit welchen Maßnahmen die Nutzerzufriedenheit verbessert werden kann. Das BINE-Projektinfo „Kühler Kopf trotz Sommerhitze“ (04/2016) stellt Untersuchungen sowie Modelle zur Bewertung der thermischen Behaglichkeit vor.

Thermische Behaglichkeit in nicht-klimatisierten Gebäuden verbessern
Das persönliche Empfinden der Nutzer beeinflusst die Beurteilung des thermischen Komforts. Diese kann je nach Jahreszeit unterschiedlich sein. Beispielsweise werden im Sommer höhere Raumtemperaturen toleriert als im Winter. Es zeigte sich in Versuchen, dass die Probanden mit dem thermischen Komfort zufriedener sind, wenn sie das Raumklima selbst beeinflussen können, zum Beispiel indem sie Fenster öffnen und den Sonnenschutz oder Deckenventilatoren individuell bedienen können. Die Wissenschaftler führten in sechs Bürogebäuden in Karlsruhe und Stuttgart Felduntersuchungen durch. Zusätzlich fanden Versuchsreihen auf verschiedenen Testständen statt.

Als ein Ergebnis ihrer Untersuchungen kombinierten die Forscher die beiden gängigen Komfortmodelle, PMV-(Predictive Mean Vote) – Modell und adaptives Modell, zum so genannten adaptiven Bilanzmodell (ATHB). Jetzt können neben den Standardfaktoren wie zum Beispiel Lufttemperatur, Luftgeschwindigkeit und gleitender Mittelwert der Außentemperatur auch psychologische oder gebäudebezogene Faktoren (z.B. Art der Klimatisierung) berücksichtig werden. Komfortmodelle dienen dazu, die thermische Behaglichkeit in Gebäuden objektiv beurteilen und modellieren zu können. Sie sind unter anderem Bestandteil von Normen.

Das Projekt „Passiv Kühl“ wird von Wissenschaftlern des Karlsruher Instituts für Technologie (KIT) und der Bergischen Universität Wuppertal gemeinsam durchgeführt.

Das BINE-Projektinfo ist kostenfrei beim BINE Informationsdienst von FIZ Karlsruhe erhältlich – unter www.bine.info oder 0228 – 92379-0.

http://www.bine.info

BINE Informationsdienst ist ein Service von FIZ Karlsruhe und wird vom Bundesministerium für Wirtschaft und Energie (BMWi) gefördert.

FIZ Karlsruhe – Leibniz-Institut für Informationsinfrastruktur ist eine gemeinnützige Gesellschaft, die im öffentlichen Auftrag weltweit publizierte wissenschaftliche Information zugänglich macht und entsprechende Dienstleistungen zur Verfügung stellt. FIZ Karlsruhe
hat die Aufgabe, den nationalen und internationalen Wissenstransfer und die Innovationsförderung zu unterstützen.

Weitere Informationen:
http://www.bine.info/en – BINE Information Service – Energy research for practical applications
http://www.twitter.com/bineinfo – Folgen Sie BINE Informationsdienst aktuell auf Twitter
https://www.facebook.com/BINE.Informationsdienst – Auch als Social Media mehr News und Infos rund um die Uhr

Quelle: idw

(nach oben)


Forschung zur saisonalen Wärmespeicherung im Untergrund

Dipl.Met. Franz Ossing Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum Potsdam – Deutsches GeoForschungsZentrum GFZ

Deutsches GeoForschungsZentrum GFZ beginnt Forschungsbohrung auf dem Campus der TU Berlin
Am heutigen Tag beginnt das Deutsche GeoForschungsZentrum GFZ mit einer Forschungsbohrung auf dem Campus der TU Berlin in Charlottenburg. Die Bohrung liefert Daten für wissenschaftliche Untersuchungen des Berliner Untergrundes auf seine Eignung als Wärme- und Kältespeicher. Sie wird von umfangreichen Bohrlochmessungen und Laboruntersuchungen begleitet.

Poröse, wasserführende Gesteinsschichten, sogenannte Aquifere, bieten ein großes Potenzial für die jahreszeitliche Speicherung von Wärme oder Kälte. Beispielsweise kann im Sommer Wärme in diesen tiefen Gesteinsschichten gespeichert werden, um sie dann im Winter zur Wärmeversorgung zu nutzen. Ernst Huenges, Leiter der Geothermieforschung am GFZ und Professor an der TU Berlin: „Berlins Wärmeversorgung beruht derzeit fast vollständig auf fossilen Brennstoffen. Die saisonale Wärmespeicherung im Untergrund hat großes Potenzial, Metropolen wie Berlin mit heimischer Energie zu versorgen.“ Projektleiter Ali Saadat vom GFZ ergänzt: „Wenn wir an zukünftige Energieversorgungskonzepte für Quartiere wie zum Beispiel den TU Campus Berlin denken, sind Aquiferspeicher unverzichtbar. Mit verlässlichen Nutzungskonzepten wollen wir zum Ausbau dieser umweltfreundlichen Technologie beitragen.“

Bisher gibt es nur wenige Daten aus dem tiefen Untergrund von Berlin. Die Ergebnisse der Bohrung und die begleitenden Untersuchungen in Feld und Labor werden das geologische Verständnis über den Aufbau des tieferen Untergrundes Berlins deutlich verbessern. Die Erkundungsbohrung wird als Vertikalbohrung bis in eine Tiefe von ca. 530 Metern abgeteuft, also bis weit unterhalb der Trinkwasserschichten. Für die wissenschaftlichen Untersuchungen werden Gesteinsproben und bis zu 100 Meter Bohrkerne entnommen, die vor Ort und in den Spezial-Laboren des GFZ untersucht werden.

Die Bohrung ist Teil eines gemeinsamen Forschungsprojektes des Deutschen GeoForschungsZentrums, der Technischen Universität Berlin und der Universität der Künste Berlin. Darin wird das Wissen der Fachdisziplinen Energietechnik, Geochemie und Geologie, Architektur und Städtebau zusammengeführt, um saisonale Speicherkonzepte für die Wärmeversorgung von Stadtquartieren und Gebäudekomplexen zu entwickeln. Bereits seit dem Jahr 2000 versorgen saisonale Wärme- und Kältespeicher unterhalb des Platzes der Republik die Berliner Parlamentsbauten.

Das Projekt wird durch das Bundesministerium für Wirtschaft und Energie (BMWi) gefördert. Informationen über die Bohrung und den aktuellen Stand finden sich unter:
http://www.gfz-potsdam.de/ates

Bilder finden sich hier:
http://www.gfz-potsdam.de/medien-kommunikation/mediathek/bildarchiv/geothermie/t…

Quelle: idw

(nach oben)


Erhöhte Feinstaubbildung in küstennahen Gebieten

Dr. Torsten Fischer Pressestelle
Helmholtz-Zentrum Geesthacht – Zentrum für Material- und Küstenforschung

Das größtenteils in der Landwirtschaft emittierte Ammoniak verstärkt die Bildung bestimmter Feinstaubpartikel in der Luft und fördert damit Verschmutzung im Küstenraum. In Kombination mit Schiffsemissionen ist die Partikelbildung besonders effizient. Eine der Hauptquellen der Ammoniak-Emissionen ist die Tierhaltung. Anna M. Backes und ihre Kollegen der Abteilung Chemietransportmodellierung des Instituts für Küstenforschung am Helmholtz-Zentrum Geesthacht (HZG) haben in einer Modellstudie gezeigt, dass durch eine Halbierung der Ammoniak-Emissionen die Konzentration besonders der kleinen Feinstaubpartikel in Teilen Europas im Winter um etwa ein Viertel reduziert wird.

Die Emissionen von Ammoniak (NH3) folgen einem Jahresgang und sind zwischen April und Juni sowie im September am intensivsten. Ursache ist die in dieser Zeit zumeist weit verbreitete Felddüngung. Die Wissenschaftler der Abteilung Chemietransportmodellierung im Bereich Biogeochemie im Küstenmeer zeigten in einer Simulation einen Zusammenhang zwischen NH3-Emissionen aus der Landwirtschaft und vorwiegend durch die Schifffahrt im Küstenraum der Nordsee emittierten Stickoxiden (NOx) und Schwefeldioxiden (SO2).

Demnach wird durch das Zusammentreffen beider Emissionen die Bildung insbesondere kleinster Feinstaubpartikel (PM2.5) deutlich verstärkt. Partikel mit einer maximalen Größe von 2,5 Mikrometern können beim Menschen bis weit in die Lungen gelangen und dort gesundheitsschädigend wirken.

Entwicklung verschiedener Szenarien
Die Forscher entwickelten drei Szenarien, deren Schwerpunkte als „politisch“ (NEC2020), „technisch“ (MTFR) und „verhaltensbezogen“ (RCAP) definiert wurden. NEC2020 zeigt den politisch anvisierten Zustand im Jahr 2020 und fußt auf den National Emission Ceilings (NEC).

Das MTFR-Szenario beinhaltet eine technisch machbare maximale Reduktion der Emissionen, während im RCAP-Szenario eine Reduktion des Konsums tierischer Produkte angenommen wurde. „Mit letzterer Simulation konnten wir für alle Jahreszeiten die deutlichste Reduktion der NH3-Emissionen und damit auch der Feinstaubpartikelbildung nachweisen“, erklärt Anna M. Backes, Umweltwissenschaftlerin am HZG.

Effekte in Wintermonaten am größten
Am markantesten zeigten sich die Differenzen in den Herbst- und Wintermonaten. Mit NEC2020 betrug die Reduktion der PM2.5-Partikel im Winter lediglich zwei Prozent, während mit RCAP knapp ein Viertel (minus 24 Prozent) weniger Feinstaubpartikel der Größe PM2.5 simuliert wurde.

Die kälteren Jahreszeiten bilden die Effekte besser ab, da durch andere Emissionsquellen wie vermehrtes Heizen und durch typische meteorologische Situationen mit mehr Feuchtigkeit und reduzierter Vermischung der Luft die Partikelbildung verstärkt ist. Außerdem spielt die Tierhaltung bei der Betrachtung der Ursachen der NH3-Emissionen eine größere Rolle, da die Felddüngung als Emissionsquelle in den Wintermonaten weitgehend wegfällt.

Weitere Informationen:
http://www.hzg.de/public_relations_media/news/061206/index.php.de

Quelle: idw

(nach oben)


Borreliose: Übertragung durch Mückenstich?

Judith Jördens Senckenberg Pressestelle
Senckenberg Forschungsinstitut und Naturmuseen

Senckenberg-Wissenschaftler haben erstmalig Borrelien in deutschen Stechmücken nachgewiesen. Die drei identifizierten Arten der Bakterien können beim Menschen die Multisystemerkrankung Lyme-Borreliose auslösen. In ihrer kürzlich im Fachjournal „Ticks and Tick-borne Diseases“ veröffentlichten Studie zeigen die Forschenden außerdem, dass die Krankheitserreger die Umwandlung der Mückenlarve zur Puppe und schließlich zum erwachsenen Tier überleben. Auch wenn die Mücken potentielle Borreliose-Vektoren sein können, spielen sie nach derzeitigem Erkenntnisstand höchstens eine untergeordnete Rolle bei der Übertragung der Krankheitserreger.

Kreisrunde, rote Verfärbungen um einen Zeckenstich – da schrillen bei den meisten Menschen die Alarmglocken. Die sogenannte „Wanderröte“ ist eines der wenigen klaren Anzeichen für eine Borreliose-Infektion. „Obwohl die Lyme-Borreliose in Europa als die häufigste vektorübertragene Krankheit gilt und schwere Schäden verursachen kann, sind Daten bezüglich ihrer Verbreitung sowie den Ursachen und Folgen nur unzureichend vorhanden“, erklärt Prof. Dr. Sven Klimpel vom Senckenberg Biodiversität und Klima Forschungszentrum und der Goethe Universität Frankfurt und fährt fort: „Dies liegt vor allem daran, dass eine Meldepflicht von Borreliose nur in wenigen Staaten besteht und die Grundlagen der Meldepflichten nicht einheitlich sind.“
Die geschätzten Neuerkrankungen an Lyme-Borreliose schwanken entsprechend stark: In Deutschland bewegen sich die jährlichen Zahlen zwischen 40.000 und 214.000 Personen, die sich mit den Erregern der Multisystemerkrankung anstecken.

Als allgemein bekannter Überträger (Vektor) des Borreliose-Erregers fungiert in Deutschland der Gemeine Holzbock (Ixodes ricinus) aus der Familie der Schildzecken und als sogenannte Reservoirwirte werden Nagetiere (Wildmäuse) und Vögel genutzt. Vor dem Hintergrund, dass auch in weiteren Arthropoden wie Bremsen, Flöhen oder Kriebelmücken vereinzelt Borrelien-Erreger gefunden wurden, hat das Wissenschaftlerteam rund um Klimpel nun auch Mücken auf ihr Übertragungspotential untersucht. Der Frankfurter Parasitologe hierzu: „Mücken sind bekannte Überträger zahlreicher Infektionserreger wie beispielsweise Malaria, dem Dengue-Virus oder auch dem aktuell grassierenden Zika-Virus. Wir wollten überprüfen, ob die Insekten theoretisch auch Borreliose-auslösende Borrelien übertragen können.“

An 42 Fangstandorten über das gesamte Bundesgebiet verteilt haben die Wissenschaftler im Jahr 2013 von April bis Oktober Stechmücken gefangen – von den insgesamt 3615 gefangenen Mücken wurden 682 Pools gebildet und auf Borrelien getestet, wobei 28 positive Pools identifiziert wurden. Dies bedeutet, dass zehn verschiedene Stechmückenarten aus vier Gattungen an 11 Standorten Borrelien in sich trugen. „Wir haben bestimmte Borrelien-spezifische Gene mit molekularbiologischen Methoden nachgewiesen und konnten so die Borrelien-Arten Borrelia afzelii, Borrelia bavariensis und Borrelia garinii identifizieren“, ergänzt Klimpel. Alle drei Borrelien-Arten sind humanpathogen und gelten in Deutschland sowie Europa als die bedeutendsten Erreger der Lyme-Borreliose.

In ihrer Studie konnten die Parasitologen zudem erstmalig in wild-gefangenen und unter Laborbedingungen geschlüpften und aufgezogenen Stechmücken Borrelien-DNA nachweisen. „Dass wir die DNA der Erreger auch in den aufgezogenen Mücken gefunden haben, ist erstaunlich und zeigt, dass die Borrelien die Umwandlung der Larve zur Puppe und schließlich zum ausgewachsenen Tier überdauern können“, erläutert Klimpel.

Bei den untersuchten Mücken lagen die Befallshäufigkeiten mit den Borrelien-Erregern zwischen 0,13 und 8,33 Prozent – bei der Rheinschnake (Aedes vexans) zum Beispiel bei 0,3 Prozent, bei der häufigen Stechmückenart Aedes cataphylla bei 11,1 Prozent.

„Es besteht aber kein Grund zur Panik“, beruhigt Klimpel und fährt fort: „Nach unserem derzeitigen Erkenntnisstand sind Stechmücken als Überträger der Lyme-Borreliose auslösenden Erreger nur bedingt geeignet. Wenn überhaupt spielen sie eine eher untergeordnete Rolle.“

Kontakt
Prof. Dr. Sven Klimpel
Senckenberg Biodiversität und
Klima Forschungszentrum
Goethe-Universität Frankfurt
Tel. 069- 7542 1895
sven.klimpel@senckenberg.de

Judith Jördens
Pressestelle
Senckenberg Gesellschaft für Naturforschung
Tel. 069- 7542 1434
pressestelle@senckenberg.de

Publikation
Christian Melaun, Sina Zotzmann, Vanesa Garcia Santaella, Antje Werblow, Helga Zumkowski-Xylander, Peter Kraiczy, Sven Klimpel, Occurrence of Borrelia burgdorferi s.l. in different genera of mosquitoes (Culicidae) in Central Europe, Ticks and Tick-borne Diseases, Volume 7, Issue 2, March 2016, Pages 256-263, ISSN 1877-959X, http://dx.doi.org/10.1016/j.ttbdis.2015.10.018.

Die Natur mit ihrer unendlichen Vielfalt an Lebensformen zu erforschen und zu verstehen, um sie als Lebensgrundlage für zukünftige Generationen erhalten und nachhaltig nutzen zu können – dafür arbeitet die Senckenberg Gesellschaft für Naturforschung seit nunmehr fast 200 Jahren. Diese integrative „Geobiodiversitätsforschung“ sowie die Vermittlung von Forschung und Wissenschaft sind die Aufgaben Senckenbergs. Drei Naturmuseen in Frankfurt, Görlitz und Dresden zeigen die Vielfalt des Lebens und die Entwicklung der Erde über Jahrmillionen. Die Senckenberg Gesellschaft für Naturforschung ist ein Mitglied der Leibniz-Gemeinschaft. Das Senckenberg Naturmuseum in Frankfurt am Main wird von der Stadt Frankfurt am Main sowie vielen weiteren Partnern gefördert. Mehr Informationen unter www.senckenberg.de.

2016 ist Leibniz-Jahr. Anlässlich des 370. Geburtstags und des 300. Todestags des Universalgelehrten Gottfried Wilhelm Leibniz (*1.7.1646 in Leipzig, † 14.11.1716 in Hannover) veranstaltet die Leibniz-Gemeinschaft ein großes Themenjahr. Unter dem Titel „die beste der möglichen Welten“ – einem Leibniz-Zitat – rückt sie die Vielfalt und die Aktualität der Themen in den Blick, denen sich die Wissenschaftlerinnen und Wissenschaftler der bundesweit 88 Leibniz-Einrichtungen widmen. www.bestewelten.de

Quelle: idw

(nach oben)


Sodbrennen: Echtzeit-MRT macht Ursachen sichtbar

Stefan Weller Stabsstelle Unternehmenskommunikation, Presse- und Öffentlichkeitsarbeit
Universitätsmedizin Göttingen – Georg-August-Universität

Weltweit einzigartig: Ärzte der Universitätsmedizin Göttingen und Forscher des Max-Planck-Instituts für biophysikalische Chemie entwickeln neue Methode zur Darstellung und Entdeckung der Ursachen von Sodbrennen. Veröffentlicht in Scientific Reports.

(umg) Den Vorgang des Schluckens mit bildgebenden Verfahren darstellen – das war bisher nicht möglich. Göttinger Ärzten und Forschern ist dies zum ersten Mal weltweit gelungen. Sie haben einen Weg für eine filmische Darstellung des Schluckens gefunden. Die neue Methode zur Darstellung des Schluckvorgangs hat eine interdisziplinäre Arbeitsgruppe von Ärzten der Universitätsmedizin Göttingen (UMG) und Forschern des Max-Planck-Instituts (MPI) für biophysikalische Chemie, Göttingen, erarbeitet. Das Göttinger Forscherteam nutzt dafür das Verfahren der Magnetresonanz-Tomografie (MRT) in Echtzeit. Mit Hilfe dieser Technik, der sogenannten „Echtzeit-MRT“, kann der Schluckakt mit 25 Bildern pro Sekunde dokumentiert und untersucht werden. Das Echtzeit-MRT liefert Bilder, die für diagnostische Zwecke in der Klinik und für die Behandlung nutzbar sind. Ursachen von Sodbrennen oder Schluckstörungen lassen sich genauer erkennen und untersuchen. Für eine individuelle und gezielte Behandlung der Volkskrankheit Sodbrennen eröffnen sich damit neue Wege.

Leiter des interdisziplinären Teams sind Prof. Dr. Jens Frahm, Biomedizinische NMR Forschungs GmbH im MPI für biophysikalische Chemie Göttingen, und Priv.-Doz. Dr. Alexander Beham, Klinik für Allgemein-, Viszeral- und Kinderchirurgie der UMG (Direktor: Prof. Dr. Michael Ghadimi). Die Ergebnisse der Arbeitsgruppe mit einer Untersuchung an 24 Patienten wurden im Juli 2015 in der wissenschaftlichen Fachzeitschrift Scientific Reports veröffentlicht.

Originalpublikation: Diagnosis of Gastroesophageal Reflux Disease Using Real-time Magnetic Resonance Imaging. Zhang S, Joseph AA, Gross L, Ghadimi M, Frahm J, Beham AW. Sci Rep. 2015 Jul 15;5:12112.
doi: 10.1038/srep12112. PMID: 26175205

„Bilder vom Schluckakt in Echtzeit liefern uns völlig neue Grundlagen für detaillierte Analysen von krankhaften Zuständen. Wir können Ursachen von Sodbrennen oder verschiedene Formen von Schluckstörungen genauer erkennen und die Behandlung gezielt darauf ausrichten“, sagt Priv.-Doz. Dr. Alexander Beham, Experte für die Behandlung von Sodbrennen in der Klinik für Allgemein-, Viszeral- und Kinderchirurgie der UMG.

Die Echtzeit-MRT liefert Bilder, mit denen der Schluckvorgang vom Mundraum durch die Speiseröhre bis zum Mageneingang verfolgt werden kann. Auch der Reflux, der entscheidende Akt für Sodbrennen, lässt sich unmittelbar beobachten: Um den Eintritt von Magensäure in die Speiseröhre auszulösen, reicht eine einfache Pressung auf den Bauch des Patienten. „Auf diese Weise lässt sich Sodbrennen diagnostizieren. Gleichzeitig können wir auch die anatomische oder funktionelle Veränderung entdecken, die dem Sodbrennen zugrunde liegt. Wir können jetzt ganz genau sehen, was die Ursache ist: Das kann eine verzögerte Muskelbeweglichkeit (Peristaltik) der Speiseröhre sein oder eine Störung des Übergangs von der Speiseröhre in den Magen oder eine Entleerungsstörung des Magens in den Darm“, so Priv.-Doz. Dr. Beham.

Zurzeit untersuchen die Göttinger Forscher gemeinsam mit Kollegen aus dem Institut für Diagnostische und Interventionelle Radiologie (Direktor: Prof. Dr. Joachim Lotz) der UMG und aus der Klinik für Gastroenterologie und gastrointestinale Onkologie (Direktor: Prof. Dr. Volker Ellenrieder) der UMG eine größere Patientengruppe mit 100 Patienten. Ziel ist es herauszufinden, inwieweit die bisher verwendeten, invasiveren Techniken zur Abklärung von Refluxerkrankungen und Schluckstörungen durch die Echtzeit-MRT ersetzt werden können.

HINTERGRUNDINFORMATIONEN
Rund zehn Prozent der westlichen Bevölkerung leiden an Sodbrennen, auch als „Reflux-Erkrankung“ bekannt. Verschiedene Gründe können für den Eintritt von Magensäure in die Speiseröhre verantwortlich sein. Häufige Ursachen sind die unvollständige Entleerung der Speiseröhre. Die Gründe dafür können eine verminderte Beweglichkeit (Peristaltik) sein oder eine Störung in der Funktion des Schließmechanismus zwischen Speiseröhre und Magen. Auch Magenentleerungsstörungen können zum Aufstau von Magensäure und in der Folge zu Reflux führen. Wegen der vielen verschiedenen Ursachen von Reflux sind auch die therapeutischen Maßnahmen entsprechend vielfältig. Daher ist eine genaue Diagnostik die wichtigste Voraussetzung für die Entscheidung zur richtigen Therapie. Diese basiert derzeit auf einer invasiven Messung der Säure in der Speiseröhre und einer endoskopischen Untersuchung (Gastroskopie). Eine direkte Darstellung des Schluckaktes war bis jetzt nicht möglich.

WEITERE INFORMATIONEN:
Universitätsmedizin Göttingen, Georg-August-Universität
Klinik für Allgemein-, Viszeral- und Kinderchirurgie
Priv.-Doz. Alexander Beham
Telefon 0551 / 39-22952
abeham@chirurgie-goettingen.de

Quelle: idw

(nach oben)


Wieso altern Batterien?

Marie-Luise Righi Marketing und Kommunikation
Fraunhofer-Institut für Silicatforschung ISC

Drei Jahre lange untersuchte das Zentrum für Angewandte Elektrochemie ZfAE, Teil des Fraunhofer-Instituts für Silicatforschung ISC in Würzburg, im EU-Projekt ABattReLife die Ursachen für Batteriealterung. Dafür standen dem Zentrum Altbatterien aus Elektroautos zur Verfügung, die ausführlich getestet und analysiert wurden. Im »Journal of Energy Storage« stellt das ZfAE seine Analyseergebnisse im Detail vor.

In Deutschland stieg in den letzten Jahren die Nutzung von Elektrofahrzeugen wie Elektroautos oder E-Bikes kontinuierlich an. Umso größer ist der Bedarf nach sicheren, langlebigen und zuverlässigen Energiespeichern, die den Ausbau der Elektromobilität weiter vorantreiben. Hersteller fokussieren sich daher auf die Entwicklung von Batterien mit längerer Lebensdauer und größeren Reichweiten. Doch dafür müssen zunächst die Ursachen für Alterung und nachlassende Leistung von Batterien geklärt werden, um mögliche Gegenmaßnahmen ergreifen zu können.

Ab einer Restkapazität von 80% zeigen die meisten Batterien eine Änderung ihres Verhaltens: Ihre Leistungskurve erfährt einen deutlichen Knick und die nichtlineare, rapide Alterung beginnt. Um die Gründe für diesen Alterungsprozess herauszufinden, untersuchte das Zentrum für Angewandte Elektrochemie im Projekt ABattReLife Altbatterien aus der ersten Elektrofahrzeuggeneration und mit eigens gefertigten Laborzellen gleicher Bauweise verglichen. Sowohl die gebrauchten Batterien als auch die laborgefertigten Zellen – die einer kontrollierten, schnellen Alterung unterzogen wurden – durchliefen verschiedene mechanische, thermische und chemische Tests, deren Ergebnisse das ZfAE anschließend für die Analysen der Zellveränderungen nutzte. Um eine ortsaufgelöste Untersuchung zu ermöglichen, wurden die kleinen Laborzellen aus verschiedenen Teilen der Elektroden gebaut.

Die Wissenschaftler stellten fest, dass kurz vor dem Leistungsknick kleine Bereiche der Kathode starke Beeinträchtigungen in Form eines metallischen Lithiumschleiers – das sogenannte Lithium-Plating – aufwiesen. Während die positive Elektrode kaum Veränderungen zeigte, war die negative Graphitelektrode durch Mikrorisse, Ablagerungen und das Lithium-Plating beeinträchtigt. Da das Plating teils irreversibel ist, griff der Vorgang im weiteren Verlauf auf benachbarte Bereiche über und die Batterie erreichte ihr Lebensende.

Für das Abscheiden von Lithium an der Kathode und den damit verbundenen Leistungsknick sind insbesondere zwei Faktoren entscheidend: Zu schnelles Laden führt zur Abscheidung von Lithium-Metall, sodass für weitere Ladezyklen immer weniger Lithium zur Verfügung steht. Zum Zweiten konnten die Wissenschaftler des Fraunhofer ISC mittels Computertomographie außerdem feststellen, dass die anfänglich betroffenen Bereiche durch einen Ableiter stärker komprimiert wurden als der Rest der Batterie. Daraus ließ sich schließen, dass der mechanische Druck eine lokale Überladung erzeugt, die zu massivem Lithiumverlust führt und diesen Bereich zerstört. Somit verstärkt oder verzögert ein entsprechendes Zelldesign den Alterungsprozess. Solche mechanisch nicht ausgereiften Batterien sind für eine mögliche Zweitverwendung – beispielsweise als stationäre Energiespeicher – ungeeignet.

Um das Lithium-Plating zu verhindern, können beispielsweise Batteriezellen gebaut werden, deren Ableiter so angebracht wird, dass lokale Verspannungen bzw. Druckspitzen vermieden werden können. Da auch zu hohe Laderaten, zu hohe Entladetiefen und zu niedrige Temperaturen den Alterungsvorgang beschleunigen, sollte darüber hinaus der Ladevorgang genau gesteuert werden, sodass Ladetemperatur, -geschwindigkeit und -spannung kontrolliert ablaufen.

Neben der Durchführung von Analysen und Tests zu bestimmten Batterietypen forscht das ZfAE an neuen Materialien und Zellkomponenten für leistungsfähigere und langlebigere Batterien. Dazu gehören funktionelle Schutzbeschichtungen für moderne Elektrodenmaterialien und Materialien für zukünftige Festkörperbatterien aus organisch-anorganischen Hybridpolymeren bis hin zu reinen Glaskeramiken, die eine hohe chemische Stabilität und damit eine längere Haltbarkeit gewährleisten.

Mehr Informationen zum Thema Batteriealterung liefert der frei zugängliche Artikel »Nonlinear aging of cylindrical lithium-ion cells linked to heterogeneous compression« (Tobias Bach, Simon Schuster, Elena Fleder, Jana Müller, Martin J. Brand, Henning Lorrmann, Andreas Jossen und Gerhard Sextl) in »Journal of Energy Storage«.

Weitere Informationen:
http://www.isc.fraunhofer.de

Quelle: idw

(nach oben)


TU Darmstadt eröffnet ETA-Modellfabrik – Energieeffizienz im großen Maßstab begreifen

Bettina Bastian Kommunikation
Technische Universität Darmstadt

An der TU Darmstadt ist heute im Beisein von Staatssekretärin Brigitte Zypries und des Hessischen Wirtschaftsministers Tarek Al-Wazir die ETA-Modellfabrik eröffnet worden. Hier wird unter Realbedingungen und im Originalmaßstab erforscht und vermittelt, wie sich durch intelligente Vernetzung aller Gebäude- und Produktionskomponenten Energie in der Industrie noch effizienter nutzen lässt – mit großem Einsparpotenzial.

Das jüngste und wohl größte „Forschungsgerät“ der TU Darmstadt ist ein Fabrikgebäude mit einer Grundfläche von etwa 810 Quadratmetern. Glas dominiert die Fassade, das Innere mit seinem Maschinenpark und den Büroräumen ist hell und luftig. Das Besondere: Das Gebäude der ETA-Fabrik ist nicht bloß Hülle für die Produktionsanlagen, sondern integraler Teil davon. Maschinen und Gebäude arbeiten zusammen und ermöglichen so eine besonders effiziente Energienutzung. Dass dieses Konzept funktioniert, lässt sich auf dem Campus Lichtwiese der TU Darmstadt seit heute anschaulich im Originalmaßstab verfolgen. Am Ende einer realen, im allgemeinen Maschinenbau typischen Produktionsprozesskette laufen Steuerscheiben für Hydraulikaxialkolbenpumpen vom Band.

Die ETA-Fabrik umfasst die Stufen der industriellen Fertigung vom Roh- bis zum Fertigteil. Von den Maschinen bis zur Gebäudeausrüstung und Gebäudehülle ist alles darauf ausgerichtet, Energie optimal zu nutzen und den Energiebedarf zu senken. Dafür sind die einzelnen Elemente vernetzt. So dient beispielsweise die Abwärme der Werkzeugmaschinen, die eigentlich verloren wäre, in der 550 Quadratmeter großen Maschinenhalle dazu, weitere Anlagen mit Wärme zu versorgen oder die Halle zu beheizen. Die ausgeklügelten Werkstoffe in der mit Kapillarmatten durchzogenen Fassade interagieren gleichsam mit der Außenwelt, so dass möglichst energiearm geheizt oder gekühlt werden kann. Auch die Teilsysteme Maschine, technische Infrastruktur und Gebäude sind hinsichtlich der Energieeffizienz optimiert, die Gebäudekonstruktion ist nahezu vollständig recyclebar.

Dahinter steckt die Idee, verborgene Einsparmöglichkeiten zu erschließen. Energieeffizienz in der Industrie bietet ein bisher kaum beachtetes Potenzial, das aber bei steigenden Energiepreisen und zunehmendem Kostendruck zum entscheidenden Wettbewerbsfaktor wird. Zusätzlich 15 bis 20 Prozent lassen sich mit dem integrierenden, ganzheitlichen Ansatz der ETA-Fabrik gegenüber der Optimierung einzelner Komponenten an Energie einsparen. Die Erkenntnisse und Erfahrungen, wie man eine solche Fabrik gestaltet, wird die TU in die Wirtschaft zurückspielen.

Da es sich bei der ETA-Fabrik um eine Forschungsumgebung handelt, können hier zudem im Maßstab 1:1 Erkenntnisse gewonnen werden. Maschinen können jederzeit angehalten, Gebäudedetails angepasst werden, um das optimale Zusammenspiel zu finden.

Die ETA-Fabrik generiert Innovation an der Schnittstelle zwischen den Disziplinen und zwischen Forschung und Praxis: Beteiligt sind Wissenschaftlerinnen und Wissenschaftler aus den Bereichen Maschinenbau, Bauingenieurwesen und Architektur. Dazu kommen mehr als 30 Partnerunternehmen aus der Industrie. Die Federführung des Projektes liegt beim Institut für Produktionsmanagement, Technologie und Werkzeugmaschinen (PTW) der TU Darmstadt.

Die Bauphase der ETA-Fabrik dauerte etwa 16 Monate. Rund 15 Millionen Euro kostete das Gesamtprojekt. Davon kamen 8 Millionen Euro vom Bund, 1,2 Millionen Euro vom Land Hessen und rund 2 Millionen Euro aus dem Budget der TU Darmstadt. Mit etwa 4 Millionen Euro beteiligten sich Partner aus der Industrie.

Technische Universität mit Energie
Die ETA-Fabrik fügt sich hervorragend ins Forschungsprofil der TU Darmstadt. Dem zukunftsweisenden Thema Energieforschung widmet sich ein eigener, interdisziplinär angelegter Profilbereich der Universität: Der Profilbereich „Energiesysteme der Zukunft“ vernetzt und koordiniert die Energieforschung der für dieses Querschnittsthema relevanten Fachdisziplinen vom technologischen bis hin zum gesellschaftswissenschaftlichen Bereich und ermöglicht eine fachübergreifende und ganzheitliche Sichtweise auf die komplexe Transformation unseres Energiesystems. Die beteiligten Wissenschaftlerinnen und Wissenschaftler forschen sowohl an den Grundlagen für die notwendigen Basistechnologien (zum Beispiel chemische Energiespeicher, CO2-Speicherung) als auch in den Bereichen Integration von Technologien (zum Beispiel intelligente Energienetze, energieeffiziente Fabrik) sowie der Betrachtung auf Ebene des Gesamtsystems „Energie“ (Systemintegration), inklusive gesellschaftlicher und wirtschaftlicher Aspekte (Akzeptanz, Finanzierbarkeit).

Statements zur ETA-Fabrik
Brigitte Zypries,
Parlamentarische Staatssekretärin beim Bundesminister für Wirtschaft und Energie

„Die Steigerung der Energieeffizienz ist der Schlüssel für die erfolgreiche Umsetzung der Energiewende. Besonderes Potenzial gibt es hierfür bei der industriellen Produktion. Auf die Erforschung genau dieser Potenziale zielt das Verbundprojekt ,ETA-Fabrik‘. Denn hier wird erstmals eine industrielle Fertigung in ihrer Gesamtheit betrachtet und die energetische Optimierung des Gesamtsystems im Zusammenspiel von Produktionskette und Gebäude untersucht. Ich freue mich, dass das Projekt mit den rund 35 Industriepartnern und Forschungsinstituten hervorragend in Industrie, Forschung und Lehre eingebunden ist und damit auch helfen wird, die Ergebnisse in die Praxis umzusetzen.“

Tarek Al-Wazir,
Hessischer Minister für Wirtschaft, Energie, Verkehr und Landesentwicklung

„In der ETA-Fabrik wird die Zukunft der energie- und ressourcensparenden, hoch-effizienten und hoch-vernetzten Produktionstechnik für Hessen, Deutschland und weit darüber hinaus sichtbar. Sie zeigt, wie wichtig digitale Technologien für die Energiewende sind. Mich freut besonders, dass sich 36 Firmen an diesem Modellprojekt beteiligen, und ich hoffe, dass sich möglichst viele Unternehmen hier Anregungen holen.“

Prof. Dr. Hans Jürgen Prömel,
Präsident der TU Darmstadt

„Die Senkung des Energiebedarfs stellt nicht nur einen relevanten Wettbewerbsfaktor für Unternehmen dar, sondern trägt auch zu einem verantwortungsvollen Umgang mit Ressourcen und so zu einem entscheidenden Beitrag für unsere Zukunft bei. Deshalb freue ich mich, dass wir an der TU Darmstadt die ETA-Fabrik als energieeffiziente Modellfabrik realisieren konnten. Das gesamte Projekt hat nicht nur die in dieser Form weltweit einzigartige Fabrik zum Ergebnis, sondern besticht durch den Mut und die Idee der Ganzheitlichkeit, die ihm zugrunde liegen.
Das Projekt konnte gelingen, weil wir an der TU Darmstadt exzellente Forschung in den relevanten Einzeldisziplinen betreiben, mit der gelebten Interdisziplinarität fruchtbare Synergien schaffen und mit verlässlichen Partnern aus Wissenschaft und Industrie zusammenarbeiten dürfen.“

Prof. Dr.-Ing. Eberhard Abele,
TU Darmstadt, Institut für Produktionsmanagement, Technologie und Werkzeugmaschinen, Fachbereich Maschinenbau:

„Die Vision, eine Energieeffizienzfabrik auf dem Campus zu bauen, wurde inspiriert durch die positiven Erfahrungen der früher schon auf dem Campus Lichtwiese realisierten Lernfabrik für Produktionsmanagement. Produktionstechnische Forschung muss anfassbar sein. Wir blicken heute mit Stolz auf die hervorragende Teamarbeit bei diesem Projekt, in dessen Rahmen bereits neue, weitertragende Ideen entstanden sind.“

Prof. Dr.-Ing. Jens Schneider,
TU Darmstadt, Institut für Statik und Konstruktion,
Fachbereich Bau- und Umweltingenieurwissenschaften:

„Innovationen entstehen häufig an Schnittstellen der Fachdisziplinen. Maschinenbauer, Bauingenieure und Architekten zeigen, dass die Stärke der Technischen Universität Darmstadt in der interdisziplinären Zusammenarbeit zu realen Ergebnissen führt – die ETA-Fabrik kann ab sofort als Forschungsgroßgerät in Forschung, Lehre und Weiterbildung genutzt werden. Die in ungewöhnlich kurzer Zeit umgesetzten Innovationen waren möglich, weil das gesamte Forscherteam mit den vielen Partnern aus Planung, Bau, Industrie, Fördergebern und dem Dezernat Baumanagement der TU außerordentlich gut zusammengearbeitet hat.“

Video:
Ein Video, das Idee und Entstehung der ETA-Fabrik von der Grundsteinlegung bis zur fertigen Fabrik nachzeichnet, gibt es unter
https://youtu.be/eY2kjUZB1oM

Zahlen, Daten, Fakten zur ETA-Fabrik
unter
http://www.tu-darmstadt.de/vorbeischauen/aktuell/einzelansicht_142720.de.jsp

Weitere Informationen:
http://www.eta-fabrik.tu-darmstadt.de/eta/index.de.jsp
https://youtu.be/eY2kjUZB1oM
http://www.tu-darmstadt.de/vorbeischauen/aktuell/einzelansicht_142720.de.jsp

Quelle: idw

(nach oben)


Auch in Doppelverdiensthaushalten: Vollzeiterwerbstätige Frauen leisten mehr Hausarbeit als Männer

Renate Bogdanovic Pressestelle
Deutsches Institut für Wirtschaftsforschung DIW Berlin

SOEP-Sonderauswertung anlässlich des Weltfrauentags am 8. März: Tradierte Aufgabenteilung im Haushalt besteht fort – DIW-Forschungsdirektorin Elke Holst spricht sich für stärkere partnerschaftliche Aufgabenteilung im Haushalt aus – Familienarbeitszeit und Kita-Ausbau würden dies unterstützen

Erwerbstätige Frauen, die mit ihrem ebenfalls erwerbstätigen Partner in einem Haushalt leben, leisten in Deutschland im Durchschnitt mehr Hausarbeit und kümmern sich länger um die Kinder als ihre Partner. Das ist selbst dann der Fall, wenn die Frau einen Vollzeitjob hat, wie aus einer aktuellen Analyse des Deutschen Instituts für Wirtschaftsforschung (DIW Berlin) anlässlich des internationalen Frauentags am 8. März hervorgeht. Auf Basis von Daten der Langzeitstudie Sozio-oekonomisches Panel (SOEP) hat die DIW-Forschungsdirektorin für Gender Studies Elke Holst herausgefunden, dass geschlechtsspezifische Unterschiede in der Hausarbeit und Kinderbetreuung zwar leicht zurückgehen, Frauen in Paarhaushalten aber durchschnittlich noch immer deutlich mehr leisten als ihre Partner. So kümmerten sich vollzeiterwerbstätige Frauen in sogenannten Doppelverdiensthaushalten im Jahr 2014 an einem Werktag gut eineinhalb Stunden um den Haushalt und fast fünf Stunden um die Betreuung der Kinder. Vollzeiterwerbstätige Männer investierten im Durchschnitt gut eine Stunde beziehungsweise rund zweieinhalb Stunden in diese Aufgaben. Die Frauen wendeten damit an einem Werktag durchschnittlich gut drei Stunden mehr Zeit für Hausarbeit und Kinderbetreuung auf. „Mehrbelastungen bei der unbezahlten Arbeit schränken die Zeitsouveränität und damit die Flexibilität ein – das ist ein Nachteil auf dem Arbeitsmarkt, der vor allem Frauen trifft“, erklärt Holst.

Mehr Männer als noch vor zehn Jahren beteiligen sich an Hausarbeit und Kinderbetreuung
Im Jahr 2014 leisteten in Doppelverdiensthaushalten unter allen erwerbstätigen Frauen – neben vollzeiterwerbstätigen also auch teilzeiterwerbstätige – 98 Prozent Hausarbeit an einem Werktag. Ihre erwerbstätigen Partner beteiligten sich daran zu einem Anteil von 65 Prozent – sechs Prozentpunkte mehr als zehn Jahre zuvor. Ihr Arbeitseinsatz in Höhe von gut einer Stunde an einem Werktag veränderte sich über die Zeit nicht und lag weiterhin deutlich unter dem der Frauen (rund zwei Stunden pro Tag). Lebten Kinder in einem Alter bis einschließlich sechs Jahre im Haushalt, beteiligten sich fast alle erwerbstätigen Frauen und Männer an der Kinderbetreuung. Unterschiede gab es jedoch beim zeitlichen Umfang: Während erwerbstätige Frauen ihre Kinder im Jahr 2014 fast sechseinhalb Stunden pro Werktag betreuten, taten Männer dies nur zweieinhalb Stunden – kaum mehr als im Jahr 2004. „Die Entlastung der Frauen bei der Kinderbetreuung um nahezu eineinhalb Stunden geht also weniger auf die Männer zurück, sondern dürfte eher am Ausbau der Kindertagesstätten seit dem Jahr 2010 liegen“, so Holst.

Auch wenn man Erwerbs- und Hausarbeit sowie Kinderbetreuung zusammen betrachtet, sind Frauen im Durchschnitt stärker belastet als Männer: Zwar sind sie werktags gut zweieinhalb Stunden weniger erwerbstätig, kümmern sich dafür aber gut viereinhalb Stunden mehr um den Haushalt und die Kinder. „Soll die Chancenungleichheit auf dem Arbeitsmarkt weiter abgebaut werden, führt kein Weg daran vorbei, dass sich Männer und Frauen die Arbeit im Haushalt und bei der Kinderbetreuung gleichmäßiger aufteilen“, betont Holst. „Die vom DIW Berlin erarbeiten Vorschläge zur Familienarbeitszeit und zum Ausbau qualitativer Kita-Plätze sind richtige Schritte auf dem Weg zu diesem Ziel.“

Weitere Informationen:

http://diw.de/de/diw_01.c.528162.de/themen_nachrichten/auch_in_doppelverdienstha…

Quelle: idw

(nach oben)


Wenn Patienten googlen, fühlen sie sich gesünder

Dr. Evamarie Blattner Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Wissensmedien

Forscherinnen und Forscher des Leibniz-WissenschaftsCampus Tübingen „Bildung in Informationsumwelten“ haben herausgefunden, dass das Suchen und Lesen von medizinischer Information im Internet zu einer positiveren Wahrnehmung der eigenen Gesundheit führen kann – und zwar dann, wenn Patienten nach einer Diagnose gesundheitliche Bedrohung erleben.

Plötzliche Kälte, wechselhafte Temperaturen und Regen – bei diesem Wetter haben Viren ein leichtes Spiel. Patienten suchen bei vielen Erkrankungen das Gespräch mit Ihrem Arzt, doch dies wird häufig als zu kurz oder oberflächlich empfunden. Erkrankte nutzen daher das Internet, um ihre Diagnose besser zu verstehen und Informationen über das Heilungsverfahren oder den Krankheitsverlauf zu erfahren.

Psychologen des Leibniz-WissenschaftsCampus Tübingen „Bildung in Informationsumwelten“ haben herausgefunden, dass Patienten nach medizinischen Diagnosen und im Falle eines von Krankheit ausgehenden Gefühls der Bedrohung Informationen über ihre Krankheit bei der Internetsuche einseitig aufnehmen. Dabei ist überraschend: Je schwerer die Erkrankung, desto zuversichtlicher fühlen sich Menschen nach intensiver Internetrecherche in Bezug auf ihre eigene Gesundheit.

Den Grund vermuten die Wissenschaftler darin, dass das Gefühl von Einschränkung und persönlicher Bedrohung, wie es häufig durch eine medizinische Diagnose ausgelöst wird, zu einer einseitigen Informationsauswahl und Verarbeitung führt. Das bedeutet, dass sich viele Menschen unter Bedrohung bei ihrer Internetrecherche unbewusst auf die positiven Informationen konzentrieren und negative ausblenden, wie der Psychologe Prof. Dr. Kai Sassenberg erklärt: „Um das Gefühl der Bedrohung zu reduzieren, wählen Patienten bei der Informationssuche im Internet mehr positive Links aus und erinnern sich öfter an positive Informationen aus gelesenen Texten.“ Erkrankte formen sich so einen verfälschten Eindruck von ihrer eigenen Situation, denn sie übersehen potentielle negative Verläufe ihrer Krankheit.

Da Patienten nach der Internetsuche häufig mit diesem einseitigen Bild zum Arzt zurückkehren, sehen sich Ärzte neuen Herausforderungen gegenüber. In einer Zusammenarbeit mit Dozenten des Universitätsklinikums Tübingen arbeiten die Forscherinnen und Forscher des Leibniz-Instituts für Wissensmedien derzeit im Rahmen des Leibniz-WissenschaftsCampus Tübingen an Unterrichtseinheiten für zukünftige Ärzte. Darin lernen Medizinstudierende den angemessenen Umgang mit (fehl-)informierten Patienten.

Studie:
http://dx.doi.org/10.2196/jmir.5140

Weitere Informationen:
Prof. Dr. Kai Sassenberg
Leibniz-Institut für Wissensmedien
Schleichstraße 6, 72076 Tübingen
k.sassenberg@iwm-tuebingen.de
07071/979-220.

Weitere Informationen zum Leibniz-WissenschaftsCampus:
Leibniz-WissenschaftsCampus Tübingen
Meike Romppel M.A. (Koordination)
Leibniz-Institut für Wissensmedien
Schleichstraße 6, 72076 Tübingen
m.romppel@iwm-tuebingen.de
07071/979-213.

Der Leibniz-WissenschaftsCampus Tübingen „Bildung in Informationsumwelten“
Der Leibniz-WissenschaftsCampus Tübingen ist ein interdisziplinärer Forschungsverbund des Leibniz-Instituts für Wissensmedien Tübingen und der Eberhard Karls Universität Tübingen. Weitere Partner sind das Zentrum für Europäische Wirtschaftsforschung in Mannheim, die Albert-Ludwigs-Universität und die Pädagogische Hochschule Freiburg, das Deutsche Institut für Erwachsenenbildung Bonn und die Hochschule der Medien in Stuttgart. Die Grundidee des Leibniz-WissenschaftsCampus ist es, außeruniversitäre und universitäre Forschung zu vernetzen, um ein Maximum an Grundlagenforschung und Anwendungsrelevanz zu generieren.
Die Forschung im Verbund widmet sich Bildungsprozessen in modernen Wissens- und Informationsgesellschaften und betreibt fachübergreifende Bildungsforschung. Die Expertise der 60 beteiligten Wissenschaftler erstreckt sich von Psychologie, Informatik, Erziehungswissenschaft, Soziologie, Wirtschaftswissenschaft, Medienwissenschaft bis hin zu Medizin.
Bildung und Lernen – zwei Begriffe, die hauptsächlich mit realen Orten wie Schule oder Hochschule verbunden sind. Das digitale Zeitalter schafft jedoch neue Lernorte, erweitert die Quellen für Informationen und lässt Nutzer auch zu Produzenten von Wissen werden. Medien, allen voran das Internet verändern den Wissenserwerb und Bildung nachhaltig. Aus der Fülle der Informationen stellen sich Lernende nach ihren Interessen, Bedürfnissen und Fähigkeiten ihre bildungsrelevanten Informationen zusammen und schaffen so ihre persönliche Informationsumwelt. Der Leibniz-WissenschaftsCampus Tübingen geht der Frage nach, wie Informationsumwelten den Wissenserwerb bereichern, aber auch wie Technologien gestaltet sein müssen, um Barrieren und Verzerrungen beim Lernen entgegenzuwirken.

Das Leibniz-Institut für Wissensmedien
Das Leibniz-Institut für Wissensmedien (IWM) in Tübingen erforscht das Lehren und Lernen mit digitalen Technologien. Rund 80 Wissenschaftlerinnen und Wissenschaftler aus Kognitions-, Verhaltens- und Sozialwissenschaften arbeiten multidisziplinär an Forschungsfragen zum individuellen und kooperativen Wissenserwerb in medialen Umgebungen.

Quelle: idw

(nach oben)


Neue Plattform für die Herstellung von Biomethan

Marie de Chalup Wissenschaftliche Abteilung
Wissenschaftliche Abteilung, Französische Botschaft in der Bundesrepublik Deutschland

Im März 2016 wird die neue Plattform für Biomethanherstellung Gaya in Saint-Fons, im sogenannten Vallée de la Chimie in Lyon [1], eingeweiht. Das Projekt wird vom Unternehmen Engie und der französischen Behörde für Atom- und alternative Energien (CEA) getragen. In der Anlage wird Biomethan aus Biomasse der zweiten Generation hergestellt, das heißt aus non-Food-Biomasse wie Holz, Stroh und Pappe.

Gaya ist eine Demonstrationsanlage, in der Technologien im industriellen Maßstab getestet werden sollen. Zu diesem Zweck wird eine Lieferkette mit lokalen Partnern aus der Papierindustrie sowie der Land- und Forstwirtschaft aufgebaut. Die trockene Biomasse wird dann in einem Vergaser auf mehr als 800 °C erhitzt, um Kohlenstoffe, Sauerstoff und Wasserstoff zu synthetisieren. Dieses Synthesegas wird anschließend durch Methanisierung mit Katalysatoren in reines (Bio-)Methan umgewandelt. Das erzeugte Biomethan steht dann für Erdgasfahrzeuge zur Verfügung. Das Synthesegas kann aber auch ins Netz eingespeist werden und somit Haushalte und die Industrie versorgen.

Die Plattform ist modular aufgebaut, so dass später neue Technologien einbezogen werden können. Ziel ist es, die regionale Branche optimaler zu organisieren, um den kritischen industriellen Maßstab zu erreichen. Aus diesem Grund steht das Projekt auch neuen Partnern offen. Angestrebt wird ein 24 Stunden-Betrieb, 23 Wochen pro Jahr, mit einem energetischen Wirkungsgrad von 65%. Nach einer dreijährigen Testphase ist für 2020 der Bau einer industriellen Anlage geplant.

Neben Engie und der CEA nehmen 9 weitere Partner an diesem Projekt teil, darunter Forschungslabore und Unternehmen. Die Finanzierung wird zum größten Teil von Engie (38 Millionen €) und der französischen Organisation für Umwelt- und Energiewirtschaft (ADEME) (17 Millionen €) getragen.

[1] Siehe „Über 300 Millionen Euro für das „Vallée de la Chimie“ von 2012 bis 2016″, Wissenschaft Frankreich, 03/02/2016 – http://www.wissenschaft-frankreich.de/de/forschungspolitik-und-innovation/ueber-…

Weitere Informationen:
Webseite des Projektes (auf Englisch und Französisch): projetgaya.com

Quelle: „Un procédé de production de gaz vert à l’essai“, Presseartikel aus Les Echos, 01.02.2016

Redakteur: Sean Vavasseur, sean.vavasseur@diplomatie.gouv.fr

Weitere Informationen:
http://www.wissenschaft-frankreich.de/de/umwelt-klima-agronomie/neue-plattform-f…

Quelle: idw

(nach oben)


Europa um eine Schlange reicher – Neue Ringelnatter-Art entdeckt

Judith Jördens Senckenberg Pressestelle
Senckenberg Forschungsinstitut und Naturmuseen

Wissenschaftler der Senckenberg Naturhistorischen Sammlungen in Dresden haben mit einem internationalen Team eine neue Schlangenart in Europa entdeckt. Die Forscher konnten in einer heute im Fachjournal „Biological Journal of the Linnean Society“ veröffentlichten integrativen Studie zeigen, dass die „Iberische Ringelnatter“ keine Unterart der weit verbreiteten eurasiatischen Ringelnatter, sondern eine eigene Art ist.

Die Ringelnatter ist in Europa weit verbreitet; in Deutschland zählt das für den Menschen harmlose Reptil mit dem charakteristischen hellen Halsring zu den am häufigsten auftretenden Schlangenarten. „Vielleicht liegt es an dieser Häufigkeit, dass es auch bezüglich ihrer Taxonomie eine Vielfalt an Meinungen gibt“, sagt Prof. Dr. Uwe Fritz, Direktor der Senckenberg Naturhistorischen Sammlungen in Dresden und fährt fort: „Die Spanne reicht je nach Autor von 4 bis 14 Unterarten.“

Fritz hat nun gemeinsam mit der Doktorandin Carolin Kindler, Kollegen vom Zoologischen Forschungsmuseum Alexander Koenig in Bonn und weiteren internationalen Partnern herausgefunden, dass die bisher als Unterart geführte „Iberische Ringelnatter“ eine eigene Art ist. „Europas Wirbeltiere gelten als gut erforscht – da ist die Entdeckung einer neuen Art schon etwas ganz Besonderes“, freut sich Kindler.

Das Wissenschaftlerteam hat mehr als 300 Schlangen aus verschiedenen Sammlungen mit unterschiedlichen Methoden untersucht und diese Daten mit genetischen Mustern von 85 Ringelnattern kombiniert: „Wir haben die externe Morphologie, wie beispielsweise die Zahl der Schuppen, mit Eigenschaften des Knochenbaus und genetischen Merkmalen verknüpft und konnten anhand dessen zeigen, dass die Iberische Ringelnatter – Natrix astreptophora – eine eigene Art ist“, erläutert Fritz.

Die genetischen Untersuchungen zeigen auch, dass die neu entdeckte Art ihren Lebensraum nicht mit der in Europa und Asien weit verbreiteten Ringelnatter-Art Natrix natrix und deren Unterarten teilt. Natrix astreptophora kommt in der nordafrikanischen Maghreb-Region, auf der Iberischen Halbinsel und im Süden Frankreichs vor. Kindler hierzu: „Die beiden Arten treffen nur in Südfrankreich nahe der Pyrenäen aufeinander.“ Dennoch wurden in diesem Gebiet fast keine Hybride der Arten gefunden – „ein weiterer Beleg, dass es sich bei Natrix astreptophora um eine eigene Art handelt“, ergänzt Fritz.

Als Jäger von Amphibien und anderen Kleintieren sind die bis zu 150 Zentimeter langen Ringelnattern an feuchte Lebensräume gebunden. Durch Entwässerung von Feuchtgebieten, der Regulierung von Flussläufen und der Intensivierung der Teichwirtschaft ist ihr Lebensraum jedoch bedroht. Die Iberische Ringelnatter ist allerdings vom Wasser wesentlich unabhängiger als die weiter verbreitete Art. Zahlreiche Ringelnattern werden Opfer des Straßenverkehrs; an großen Seen führt Tourismus zu einer weiteren Bedrohung der Ringelnattern. „Zu wissen, mit welcher Art wir es zu tun haben, hilft uns ihre Gefährdung besser einzuschätzen und rechtzeitig Schutzmaßnahmen zu ergreifen. Dies ist umso wichtiger, weil die Iberische Ringelnatter andere Lebensräume bevorzugt“, fasst Kindler zusammen.

Kontakt
Frau Carolin Kindler
Senckenberg Naturhistorische Sammlungen Dresden
Tel. 0351 795841 4362
carolin.kindler@senckenberg.de

Prof. Dr. Uwe Fritz
Senckenberg Naturhistorische Sammlungen Dresden
Tel. 0351 – 795841 4326
Uwe.Fritz@senckenberg.de

Judith Jördens
Pressestelle
Senckenberg Gesellschaft für Naturforschung
Tel. 069- 7542 1434
pressestelle@senckenberg.de

Publikation
Felix Pokrant, Carolin Kindler, Martin Ivanov, Marc Cheylan,
Philippe Geniez, Wolfgang Böhme & Uwe Fritz (2015): Integrative taxonomy provides evidence for the species
status of the Ibero-Maghrebian grass snake Natrix
astreptophora. Biological Journal of the Linnean Society

Die Natur mit ihrer unendlichen Vielfalt an Lebensformen zu erforschen und zu verstehen, um sie als Lebensgrundlage für zukünftige Generationen erhalten und nachhaltig nutzen zu können – dafür arbeitet die Senckenberg Gesellschaft für Naturforschung seit nunmehr fast 200 Jahren. Diese integrative „Geobiodiversitätsforschung“ sowie die Vermittlung von Forschung und Wissenschaft sind die Aufgaben Senckenbergs. Drei Naturmuseen in Frankfurt, Görlitz und Dresden zeigen die Vielfalt des Lebens und die Entwicklung der Erde über Jahrmillionen. Die Senckenberg Gesellschaft für Naturforschung ist ein Mitglied der Leibniz-Gemeinschaft. Das Senckenberg Naturmuseum in Frankfurt am Main wird von der Stadt Frankfurt am Main sowie vielen weiteren Partnern gefördert. Mehr Informationen unter www.senckenberg.de.

2016 ist Leibniz-Jahr. Anlässlich des 370. Geburtstags und des 300. Todestags des Universalgelehrten Gottfried Wilhelm Leibniz (*1.7.1646 in Leipzig, † 14.11.1716 in Hannover) veranstaltet die Leibniz-Gemeinschaft ein großes Themenjahr. Unter dem Titel „die beste der möglichen Welten“ – einem Leibniz-Zitat – rückt sie die Vielfalt und die Aktualität der Themen in den Blick, denen sich die Wissenschaftlerinnen und Wissenschaftler der bundesweit 88 Leibniz-Einrichtungen widmen. www.bestewelten.de

Quelle: idw

(nach oben)


Unterirdische CO2-Speicherung: Risiken für Stoffkreisläufe im Boden

Axel Burchardt Stabsstelle Kommunikation/Pressestelle
Friedrich-Schiller-Universität Jena

Hohe Konzentration von Kohlendioxidgas in Böden kann die Gemeinschaften von Bodenlebewesen langfristig stark verändern – und damit auch Prozesse im Ökosystem wie den unterirdischen Kohlenstoffkreislauf und die Kohlenstoffspeicherung. Zu diesem Ergebnis kommt ein internationales Team. Für ihre Studie hatten die Forschenden Bodenorganismen und Stoffkreisläufe an einer natürlichen Kohlendioxidquelle (Mofette) und in einem Vergleichsboden untersucht. Die Ergebnisse erlauben Rückschlüsse auf die Auswirkungen möglicher Lecks bei der Kohlendioxid-Einlagerung im Untergrund, die langfristig das Nahrungsnetz und den Stoffwechsel im Boden verändern könnten.

Je deutlicher die Dimensionen der globalen Erwärmung werden, umso größer wird auch der Druck, Möglichkeiten zu finden, um einen weiteren Anstieg der Konzentration von Kohlendioxid (CO2) in der Atmosphäre zu vermeiden. Dabei wird auch die Abscheidung und unterirdische Speicherung dieses Treibhausgases diskutiert. Doch welche Auswirkungen und Risiken hätten solche Speicher?

Was passieren würde, wenn ein solcher Speicher undicht würde, lässt sich kaum durch praktische Versuche herausfinden. In den letzten Jahren ist daher ein kleines Tal im tschechischen Bäderdreieck zu einer Art Freilandlabor geworden. Denn hier strömt in sogenannten Mofetten Kohlendioxid in großen Mengen natürlich aus der Tiefe. An diesen Spätfolgen des Vulkanismus lassen sich die Auswirkungen hoher Kohlendioxid-Konzentrationen studieren, ohne dass der Mensch in die Natur eingreifen muss. Heilbäder wie Karlovy Vary (Karlsbad), Mariánské Lázne (Marienbad) oder Františkovy Lázně (Franzensbad), aber auch die Kurorte Bad Elster und Bad Brambach in Sachsen verdanken ihre Existenz den vulkanischen Aktivitäten in früheren Zeiten.

Kohlendioxid im Boden bewirkt, dass Bodentiere ausgeschlossen werden
Das Team unter der Leitung von Prof. Dr. Kirsten Küsel vom Lehrstuhl für Aquatische Geomikrobiologie der Friedrich-Schiller-Universität Jena (FSU) nahm rund um eine Mofette den Boden unter die Lupe, in dem die Luft durch beinahe reines Kohlendioxid geprägt war. Von 2012 bis 2014 sammelten die Forschenden dreimal pro Jahr Proben. Diese verglichen sie anschließend mit Proben von einem Vergleichsboden ohne erhöhte Kohlendioxid-Konzentration, der nur wenige Meter entfernt war. „In dem Boden von der Mofette fanden wir deutlich mehr organisches Material, also Reste von abgestorbenen Pflanzen und Tieren, die normalerweise von kleinen Bodentieren und von Einzellern, Bakterien und Pilzen abgebaut werden“, berichtet Dr. Felix Beulig von der Friedrich-Schiller-Universität Jena, der inzwischen an der Universität Aarhus in Dänemark forscht. Durch moderne chemische und molekularbiologische Methoden konnten die Forschenden den Mechanismus aufdecken, der diese Veränderung bewirkt hatte: Das Kohlendioxid hatte die Lebensbedingungen im Boden so verändert, dass Bodentiere ausgeschlossen wurden und sich die Gemeinschaft der Mikroorganismen hin zu weniger vielfältigen, dafür aber höher spezialisierten Arten verschoben hatte. Dadurch wurde das Nahrungsnetz im Boden weniger effizient beim Abbau von organischem Material, das sich daraufhin im Boden angereichert hatte. Zudem konnte durch Isotopenmessungen gezeigt werden, dass im organischen Bodenmaterial große Mengen an Kohlenstoff aus dem Erdmantel gebunden war. Diesen hatten zuvor Pflanzen und Mikroorganismen über das ausströmende Kohlendioxid aufgenommen.

Sogenannte „omics“-Methoden hatten es den Forschenden erlaubt, gleichzeitig die gesamte in allen Bodenlebewesen vorhandene Erbinformation (DNA und RNA) bei ihrer Analyse zu berücksichtigen. Zudem konnte das Team feststellen, welche Erbinformation gerade aktiv genutzt wurde. Dadurch ließen sich Rückschlüsse auf jene Stoffkreisläufe im Boden ziehen, die Bindung und Abbau von Kohlenstoff beeinflussen. „Unsere Ergebnisse lassen darauf schließen, dass extrem hohe Konzentrationen von Kohlendioxid langfristig das Nahrungsnetz und den Stoffwechsel im Boden verändern“, erklärt Prof. Kirsten Küsel von der Friedrich-Schiller-Universität Jena und dem iDiv. Die umfassende Analyse mit einer Kombination von „omics“- und biogeochemischen Methoden wurde auch von Prof. Dr. Joshua Schimel von der University of California in einem Kommentar hervorgehoben, der in der gleichen Ausgabe von „Nature Microbiology“ erschienen ist.

Die untersuchte Mofette ist ein extremes Habitat, das lange als lebensfeindlicher Ort galt. Dass stark angepasste Organismen sich dort aber durchaus wohl fühlen, konnte das Forscherteam bereits im vorigen Jahr zeigen. Die aktuelle Studie brachte nun Einblicke in die komplexen Zusammenhänge zwischen Organismengemeinschaften und der Kohlenstoffdynamik im Boden. Die Ergebnisse werden helfen, die Umweltrisiken der unterirdischen Kohlendioxid-Speicherung besser beurteilen zu können. [Tilo Arnhold, Tabea Turrini]

Publikationen:
Felix Beulig, Tim Urich, Martin Nowak, Susan E. Trumbore, Gerd Gleixner, Gregor D. Gilfillan, Kristine E. Fjelland and Kirsten Küsel (2016): Altered carbon turnover processes and microbiomes in soils under long-term extremely high CO2 exposure. Nature Microbiology Vol. 1, Article number: 15025. 27 January 2016. doi:10.1038/nmicrobiol.2015.25
http://www.nature.com/articles/nmicrobiol201525

Kommentar („News and Views“) dazu:
Joshua Schimmel (2016): Microbial ecology: Linking omics to biogeochemistry. Nature Microbiology Vol. 1, Article number: 15028. 27 January 2016. doi:10.1038/nmicrobiol.2015.28
http://www.nature.com/articles/nmicrobiol201528

Weitere Informationen:
Prof. Dr. Kirsten Küsel
Lehrstuhl für Aquatische Geomikrobiologie der Friedrich-Schiller-Universität Jena und stellvertretende Direktorin des Deutschen Zentrums für integrative Biodiversitätsforschung (iDiv)
Tel.: 03641-949461
http://www.geomicrobiology.de/
https://www.idiv.de/de/das_zentrum/mitarbeiterinnen/mitarbeiterdetails/eshow/kue…
und
Dr. Felix Beulig
Friedrich-Schiller-Universität Jena
derzeit
Aarhus University (Dänemark)
http://bios.au.dk/en/
http://pure.au.dk/portal/en/persons/id%288b62ba4d-0479-4df2-9cf9-8d4c16cba6ec%29…
sowie
Axel Burchardt, Pressestelle der FSU Jena
Tel.: 03641-931030
http://www.uni-jena.de/pressestelle.html
und
Tilo Arnhold/Tabea Turrini, Pressestelle iDiv
Tel.: 0341-9733-197, -106
http://www.idiv.de/de/presse/mitarbeiterinnen.html

Weitere Informationen:
https://www.uni-jena.de/Forschungsmeldungen/FM150401_Mofetten.html – Leben für Spezialisten: im giftigen Atem schlafender Vulkane (Pressemitteilung der Friedrich-Schiller-Universität Jena vom 01.04.2015)
https://www.ufz.de/index.php?de=6141 – Wissenschaftler finden neue Erklärung für Schwarmbeben im Vogtland (Pressemitteilung des UFZ vom 22.09.2005)

Quelle: idw

(nach oben)


Chemische Substanzen in Verpackungen, Cremes oder Nahrung stören das Hormonsystem

Medizin – Kommunikation Medizinkommunikation
Arbeitsgemeinschaft der Wissenschaftlichen Medizinischen Fachgesellschaften

Mainz – Das menschliche Hormonsystem ist ein fein austariertes System, das Stoffwechsel, Wachstum, Reproduktion, Schlaf und Stimmung reguliert. Hormone binden an spezielle Rezeptoren, die dann die biologischen Wirkungen vermitteln. Substanzen, welche die Hormonbindung beeinträchtigen, können beispielsweise zu Störungen im Blutzuckerhaushalt oder im Kalziumstoffwechsel führen und damit Diabetes oder Osteoporose begünstigen. Diese Endokrine Disruptoren genannten Chemikalien finden sich in Plastikverpackungen, Fertignahrung und in Kosmetika. Die Deutsche Gesellschaft für Endokrinologie (DGE) mahnt zu einem bewussten Umgang mit diesen im Alltag weit verbreiteten Stoffen.

Seit längerer Zeit wissen Experten, dass Endokrine Disruptoren starke Auswirkungen auf die Gesundheit haben können. Von den über 800 chemischen Substanzen, die überall im Alltag zu finden sind, wirken manche wie Hormone und binden im Körper an einen Hormonrezeptor. Andere wiederum blockieren Hormonrezeptoren und verhindern so, dass körpereigene Hormone andocken und wirksam werden können. Wieder andere stören die Produktion oder die Umwandlung körpereigener Hormone und bringen so das fein austarierte Hormonsystem aus der Balance.

Endokrine Disruptoren (engl.: endocrine disrupting chemicals, EDC) finden sich in Kunststoffverpackungen, Fertignahrung, Kosmetika und elektronischen Geräten. „Wir wissen nicht, ob alle diese Stoffe das Hormonsystem nachhaltig beeinflussen. In letzter Zeit mehren sich aber die Hinweise, dass auch zunächst unverdächtige und scheinbar nützliche Chemikalien wie Weichmacher für Plastik, Flammschutzmittel, Beschichtungen für Pfannen und Verpackungen als EDC auf Menschen wirken“, erläutert Professor Dr. rer. nat. Ulrich Schweizer vom Institut für Biochemie und Molekularbiologie an der Rheinischen Friedrich-Wilhelms-Universität Bonn. Zur Wirkungsweise der EDC erklärt der Wissenschaftler und Hormonexperte, dass diese durch die Bindung an Hormonrezeptoren deren Wirkung entweder übertreiben oder blockieren. „So können Xenoöstrogene das Eintrittsalter in die Pubertät senken und Antiandrogene zu vermehrten Penismissbildungen sowie zu einer seit Jahrzehnten beobachteten Verminderung der Samenqualität führen“, sagt Professor Schweizer. Auch nähmen hormonabhängige Krebsarten wie Brust- und Prostatakrebs beständig zu und korrelierten mit der Anreicherung bestimmter EDC im Körper, so der DGE-Experte.

Fünf Jahre nach einer ersten systematischen Studie hat die US-amerikanische Endocrine Society ein Papier (EDC-2) vorgelegt, in dem die gesamte neue Literatur systematisch analysiert wurde. Professor Schweizer erläutert: „Die Auswertung zeigt deutlich, dass EDC auch zur Erhöhung chronischer Erkrankungen wie Übergewicht und Diabetes beitragen.“ Für einige Stoffe liegen bereits belastbare Daten vor. Dazu gehören Bisphenol A (BPA), das in vielen Beschichtungen für Lebensmittelverpackungen enthalten ist, Phthalsäureester (Phthalate), die als Weichmacher für Plastik dienen, Pestizide und Herbizide wie DDT und Atrazin sowie Industriechemikalien wie polychlorierte Biphenyle (PCB) und polybromierte Diether. Letztere werden als Flammschutzmittel in Matratzen und Elektrogeräten verarbeitet. All diese Produkte werden jährlich im Tonnenmaßstab produziert und wirken schon in geringsten Konzentrationen auf Mensch und Tier.

Die Deutsche Gesellschaft für Endokrinologie (DGE) weist schon seit Jahren auf die Gefahren durch Endokrine Disruptoren hin. Sie unterstützt die Schlussfolgerungen des internationalen Expertenteams, welches neben einer intensivierten und international koordinierten Forschung eine verstärkte Information der Öffentlichkeit, der Politik und der regulatorischen Behörden fordert, um dem länderübergreifenden Problem einer zunehmenden Belastung von Nahrungsmitteln und Umwelt mit EDC entgegenzuwirken.
Problematisch ist aus Sicht von Professor Dr. med. Matthias Weber, Mediensprecher der DGE und Leiter der Abteilung für Endokrinologie und Stoffwechselkrankheiten an der Universitätsmedizin der Johannes Gutenberg-Universität in Mainz, dass neue Chemikalien auf den Markt kommen, nachdem sie zwar auf akute Giftigkeit hin getestet wurden, aber ohne dass ihre Unbedenklichkeit als EDC geprüft wäre. „Zur Sicherheit gehört eben auch zu klären, ob sie bereits in niedrigen Dosen in das Hormonsystem eingreifen.“ Professor Schweizer ergänzt: „So wurde das in Verruf geratene BPA durch Bisphenol S ersetzt, das sich im Nachhinein als genauso wirksame EDC entpuppt hat wie die Substanz, die es ersetzen sollte.“

Den Verbrauchern rät Professor Schweizer, ihre Macht als Kunden zu nutzen und gegebenenfalls das Kaufverhalten zu ändern. „Jeder kann selbst entscheiden, ob er die Wurst oder den Käse scheibenweise in Folie verpackt kaufen möchte, ob Äpfel einzeln eingeschweißt sein müssen und ob man seinen Kaffee im Gehen aus beschichteten Pappbechern trinken möchte.“

Literatur:
Gore, A. C. , Chappell, V. A., Fenton, S. E. et al.: Executive Summary to EDC-2: The Endocrine Society’s Second Scientific Statement on Endocrine-Disrupting Chemicals. Endocr. Rev. 2015 Dec;36(6):593-602. doi: 10.1210/er.2015-1093.
Abstract: http://www.ncbi.nlm.nih.gov/pubmed/26414233

Endokrinologie ist die Lehre von den Hormonen, Stoffwechsel und den Erkrankungen auf diesem Gebiet. Hormone werden von endokrinen Drüsen, zum Beispiel Schilddrüse oder Hirnanhangdrüse, aber auch bestimmten Zellen in Hoden und Eierstöcken, „endokrin“ ausgeschüttet, das heißt nach „innen“ in das Blut abgegeben. Im Unterschied dazu geben „exokrine“ Drüsen, wie Speichel- oder Schweißdrüsen, ihre Sekrete nach „außen“ ab.

http://www.endokrinologie.net

Quelle: idw

(nach oben)


Wissenschaftler schlagen Alarm: Bedeutung der Versalzung von Gewässern wird weltweit unterschätzt

Bernd Hegen Referat Öffentlichkeitsarbeit
Universität Koblenz-Landau

Zu viel Salz ist nicht nur für den Menschen schlecht, es schadet auch Gewässern. Die Versalzung von Gewässern wird allerdings laut einer aktuellen internationalen Studie unter Beteiligung der Universität Koblenz-Landau weltweit unterschätzt und die Folgen zu wenig beachtet.

Zu viel Salz ist nicht nur für den Menschen schlecht, es schadet auch Gewässern. Die Versalzung von Gewässern wird allerdings laut einer aktuellen internationalen Studie unter Beteiligung der Universität Koblenz-Landau weltweit unterschätzt und die Folgen zu wenig beachtet. Die Wissenschaftler fordern daher Politik und Behörden in einem in der Fachzeitschrift „Science“ gerade veröffentlichen Artikel auf, die Versalzung künftig in ihrem Gewässermanagement zu berücksichtigen. Die Forscher haben Ursachen und Lösungen für verschiedene Versalzungsphänomene zusammengetragen und schlagen ein Konzept vor, wie die Versalzung reguliert werden sollte.

Weltweit gibt es viele Ursachen, die dazu führen, dass Gewässer versalzen: Landwirtschaft, Abwässer aus der Gewinnung von Ressourcen wie Berg- und Salzabbau oder das Ausbringen von Salz auf Straßen können eine erhöhte Salzkonzentration bewirken. In Deutschland liegen die Gründe für die Gewässerversalzung hauptsächlich in den Abwässern aus der chemischen und Kali-Industrie. Regional gibt es in Gewässern auch hohe Salzgehalte aufgrund der geologischen Bedingungen. „Künftig könnte auch Fracking zu einem erheblichen Anstieg an salzbelasteten Abwässern führen“, so Ralf Schäfer, Juniorprofessor für Landschaftsökologie am Institut für Umweltwissenschaften Landau der Universität Koblenz-Landau. Auch der Klimawandel und die zunehmende Nachfrage nach Trinkwasser sind Treiber der weltweiten Gewässerversalzung.

Versalzen Gewässer, sterben gewässertypische salzempfindliche Arten wie Eintags-, Stein- und Köcherfliegen. Dadurch nehmen Ökosystemdienstleistungen wie das Bereitstellen von Trinkwasser und Biodiversität ab. Begünstigt wird dagegen eine massenhafte Entwicklung salzrobuster Tierarten, Algen und Wasserpflanzen. Auch die Einwanderung gebietsfremder Arten wird begünstigt. Die Gewässerqualität nimmt ab. „Das könnte bedeuten, dass durch die Versalzung von Gewässern in Europa die Zielstellung des guten Zustandes, wie ihn die EU-Wasserrahmenrichtlinie vorgibt, nicht erreicht werden kann“, gibt Schäfer zu bedenken. Bei gravierender Versalzung, wie sie insbesondere in Südost-Asien auch von Trinkwasserreserven und auf landwirtschaftlichen Flächen vorkommt, entstehen bedeutende wirtschaftliche Schäden und die Kosten für die Trinkwasserbehandlung steigen. Regional sind sogar Überlebensfragen mit der Umweltbelastung verbunden.

Die Versalzung von Gewässern ist nicht neu. „Das Phänomen ist bekannt, es wird bisher allerdings kaum beachtet“, so Schäfer. Dies liegt einerseits daran, dass die Zunahme an Leitfähigkeit oder Ionen-Konzentration, die Versalzung anzeigt, typischerweise als Ausdruck von anderen Problemen betrachtet wurde wie Abwasserreinigung oder landwirtschaftliche Nährstoffeinträge. Andererseits sind sowohl Landwirtschaft als auch Ressourcenabbau wichtige wirtschaftliche Bereiche. „Deren starke Akteure dürften an einer strikten Regulierung allerdings kaum ein Interesse haben“, so Oliver Frör, Professor für Umweltökonomie am Institut für Umweltwissenschaften Landau der Universität Koblenz-Landau.

Die 23 Ko-Autoren der Studie, die alle bewohnten Kontinente abdecken, haben auf Basis ihrer Erfahrungen, wie in den jeweiligen Ländern und Regionen Versalzung gemanagt wird, ein Konzept entwickelt, wie die Belastung durch Salz reguliert werden könnte. Wie bei anderen Schadstoffen auch, sollen dafür in Experimenten zunächst für unterschiedliche Salzbelastungen Schwellenwerte abgeleitet werden, deren Einhaltung Ökosysteme nicht gefährdet.

„Es müssen dringend Umweltstandards entwickelt werden, um eine voranschreitende Versalzung von Gewässern aufzuhalten“, so Schäfer. Die Wissenschaftler sehen hierbei die Politiker über gesetzliche Regeln sowie Behörden und Ämter der Wasserwirtschaft gefordert. Auch sollten Forschung und Umweltverwaltung in enger Kooperation zusammenarbeiten, damit wissenschaftliche Erkenntnisse in Verwaltungshandeln umgesetzt werden können. „In unserem Konzept spielt die Zusammenarbeit von Wissenschaftlern verschiedener Disziplinen, Politik und Verwaltung eine wesentliche Rolle“, so Frör. Dabei gelte es auch, Umweltschäden in ökonomische Rechnungen aufzunehmen, die bislang keine Beachtung gefunden haben. Wichtig sei außerdem der Erfahrungsaustausch mit Ländern, die bereits stark betroffen sind und schon Sanierungsmaßnahmen getroffen haben.

In ihrem Artikel stellen die Autoren verschiedene Lösungsansätze vor, wie sie teilweise schon praktiziert werden. Die Belastung von Gewässern ließe sich bereits durch einen reduzierteren Wassereinsatz in der Landwirtschaft sowie durch Alternativen zum Streusalz minimieren. Salzhaltige Abwässer, wie sie durch den Kali-Abbau entstehen, müssten beispielsweise mittels Eindampfen entsprechend behandelt und in Kläranlagen ein Verfahren zur Entsalzung eingesetzt werden, um die Salzfracht aus städtischen Gebieten zu reduzieren. „In Forschung und Entwicklung zur Wertstoffrückgewinnung müsste investiert werden“, so Ralf Schäfer.

Kurzprofil Institut für Umweltwissenschaften Landau
Das Institut für Umweltwissenschaften Landau betreibt grundlagen- und anwendungsorientierte Forschung, in deren Fokus die vielfältigen Interaktionen zwischen Mensch und Umwelt stehen. Das Institut vereint die Expertisen von neun interdisziplinären Arbeitsgruppen und damit aktuelle Forschung vom Molekül über Ökosysteme bis zur menschlichen Gesellschaft. Das Institut für Umweltwissenschaften Landau wurde 2004 an der Universität Koblenz-Landau, Campus Landau gegründet. Weitere Informationen: http://www.umwelt.uni-landau.de

Die Studie:
„Saving freshwater from salts: Ion-specific standards are needed to protect biodiversity“, Cañedo-Argüelles M., Hawkins C.P., Kefford B.J., Schäfer R.B., Dyack B.J., Brucet S., Buchwalter, D. B., Dunlop, J.E., Frör, O. et al. Die Studie wurde am 25.02.2016 in der Fachzeitschrift „Science“ veröffentlicht:
http://science.sciencemag.org/content/351/6276/914

Kontakt:
Universität Koblenz-Landau
Institut für Umweltwissenschaften Landau
Jun.-Prof. Dr. Ralf Schäfer
Fortstraße 7
76829 Landau
Tel.: (06341) 280-31536
E-Mail: schaefer-ralf@uni-landau.de

Universität Koblenz-Landau
Institut für Umweltwissenschaften Landau
Prof. Dr. Oliver Frör
Fortstraße 7
76829 Landau
Tel.: (06341) 280-31534
E-Mail: froer@uni-landau.de

Weitere Informationen:
http://science.sciencemag.org/content/351/6276/914 Studie
http://www.umwelt.uni-landau.de Homepage des Instituts

Quelle: idw

(nach oben)


Grippe trifft besonders Menschen mittleren Alters

Susanne Thiele Presse und Kommunikation
Helmholtz-Zentrum für Infektionsforschung

Experten des HZI geben eine Einschätzung der Lage und erklären die Ursachen

Die Grippewelle ist da. Wie üblich zu dieser Jahreszeit, nehmen in den letzten Wochen die Influenzafälle in Deutschland zu. Prof Klaus Schughart, Leiter der Abteilung Infektionsgenetik, Prof. Gérard Krause, Leiter der Abteilung Epidemiologie, und Prof. Carlos A. Guzmán, Leiter der Abteilung Vakzinologie, am Helmholtz-Zentrum für Infektionsforschung (HZI) in Braunschweig äußern sich zur aktuellen Lage und den Hintergründen.

„Wir können aktuell einen Anstieg beobachten, der nicht ungewöhnlich für diese Jahreszeit ist. Nach dem bisherigen Verlauf zu urteilen, erwarten wir den Höhepunkt in etwa zwei bis drei Wochen“, sagt Klaus Schughart. Wie schlimm die Grippewelle in diesem Jahr wird und ob der Höhepunkt wirklich wie erwartet auftritt, lässt sich hingegen noch nicht sagen.

Einen entscheidenden Unterschied zu vergangenen Grippewellen gibt es allerdings, denn die Grippe trifft in diesem Jahr eine Bevölkerungsgruppe besonders schlimm, die normalerweise kaum unter ihr zu leiden hat. „Die aktuelle Grippewelle trifft nach ersten Erkenntnissen Menschen mittlerer Altersgruppen, also Menschen zwischen 15 und 59 Jahren, häufiger und schwerer, als bei Grippewellen, die von anderen Virusstämmen dominiert werden. Normalerweise sind vor allem Kinder und ältere Menschen, also Menschen mit einem noch nicht ausgereiften oder bereits geschwächten Immunsystem betroffen“, sagt Krause.

Dominant ist in diesem Jahr der Virusstamm A(H1N1)pdm09. „Etwa 70 Prozent der bisherigen Erkrankungen sind auf diesen Virusstamm zurückzuführen. Im letzten Jahr waren es nur etwa 15 Prozent. Damals dominierte der H3N2-Stamm“, sagt Guzmán. Die derzeit dominierende Variante des H1N1-Stammes ist noch sehr jung und trat erstmals 2009 auf. Da die Variante zunächst bei Schweinen zirkulierte, erhielt sie damals den Beinamen „Schweinegrippe“. „Inzwischen ist diese Bezeichnung aber nicht mehr sinnvoll, denn der Virusstamm wird mittlerweile hauptsächlich von Mensch zu Mensch übertagen. Die Übertragung von Schwein zu Mensch spielt hier inzwischen epidemiologisch keine Rolle mehr“, sagt Krause.

Identisch ist aber, dass auch im Jahr 2009 vergleichsweise häufig schwere Erkrankungen in der mittleren Altersgruppe zu beobachten waren. „Ein Grund dafür ist vermutlich, dass diese Altersgruppe noch nicht so häufig Gelegenheit hatte, eine Immunität gegen den Virusstamm aufzubauen. Das liegt daran, dass wir es mit einer relativ neuen Variante zu tun haben“, sagt Krause. Normalerweise entwickelt der Körper eine Immunität gegen Viren, mit denen er bereits in Kontakt war, beziehungsweise die er erfolgreich bekämpft hat. Diese Immunität kann entweder durch eine Impfung zustande kommen oder durch eine natürliche Infektion. „Personen mittleren Alters hatten vielleicht einfach noch keinen Kontakt mit einem Virusstamm, der dem aktuellen ähnlich ist. Deshalb sind sie schlechter geschützt, als ältere Menschen, die einer ähnlichen Variante des Virus bereits begegnet sind“, sagt Guzmán.

Ob der aktuell empfohlene Grippeimpfstoff die Grippewelle verhindern kann, lässt sich dahingegen kaum voraussagen. „Vorläufige Daten aus der Saison 2013/2014 hatten gezeigt, dass der Influenza-Impfstoff gegen den aktuell dominierenden Virusstamm A(H1N1)pdm09 nur eine mäßige Wirksamkeit hatte. Wie sich das in dieser Saison verhält, kann jetzt noch nicht abgeschätzt werden“, sagt Krause. Im Winter 2014/2015 zeigte der Impfstoff eher eine schlechte Wirkung. „Der Grund war vor allem, dass sich das Virus während der Saison verändert hat. Gegen den Virustyp vom letzten Jahr wirkt der aktuelle Impfstoff sehr gut. Wie er gegen den aktuell dominierenden Stamm wirkt, lässt sich noch nicht sagen“, sagt Guzmán.

Weitere Informationen:
http://www.helmholtz-hzi.de – Webseite des Helmholtz-Zentrums für Infektionsforschung

Quelle: idw

(nach oben)


BHKW´s könnten effizienter und wirtschaftlicher werden

Michael Ehring Presse- und Öffentlichkeitsarbeit
Oel-Waerme-Institut GmbH

Neue Reformgasmotortechnik erhöht elektrischen Wirkungsgrad um mindestens 10 %

Kleine Blockheizkraftwerke (BHKW) im Leistungsbereich von 50 kW elektrisch könnten künftig deutlich wirtschaftlicher betrieben werden. Möglich wird dies durch die Reformertechnologie, die parallel zum Betrieb des Verbrennungsmotors aus Erdgas und Wasserdampf ein energetisch höherwertiges Brenngas herstellt. Das erzeugte Brenngas (Reformat) besteht aus Wasserstoff, Methan, Kohlendioxid und Kohlenmonoxid und wird direkt in den Motor geleitet. Dadurch wird weniger Brennstoff benötigt und der elektrische Gesamtwirkungsgrad des Systems erhöht sich signifikant.

Der Clou des Reformgasmotor-Konzepts ist, dass keine zusätzliche Hilfsenergie von außen erforderlich ist, da die für die Reformierung erforderliche Wärme aus dem heißen Motorabgas entnommen wird. Das Prinzip stammt aus der Dampfreformierung von Diesel und wurde auf den Reformgasmotor übertragen.

Die ECC Automotive GmbH und die OWI Oel-Waerme-Institut GmbH haben nun zum Abschluss ihres gemeinsamen Forschungsprojektes an einer Versuchsanlage gezeigt, dass das gekoppelte System am Beispiel eines innovativen Gasmotors und eines Dampfreformers funktioniert. Am Motorenprüfstand wurde die thermische Energie des Abgases direkt für die Reformierung und Verdampfung genutzt. In den Versuchen mit einem auf hohe Abgastemperaturen optimierten Motor konnten durch die Reformierung mehr als 10 % der im Brennstoff enthaltenen Energie im System zurückgewonnen werden. Durch die Steigerung der erzeugten Strommenge kann bei einer Netzeinspeisung mit einer erhöhten Wirtschaftlichkeit von BHKW´s gerechnet werden. Gleichzeitig sind Einsparungen fossiler Ressourcen beziehungsweise bei den CO2-Emissionen im Vergleich zu konventionellen Systemen zu erwarten. Darüber hinaus kann eine integrierte Abgasnachbehandlung im Reformer umweltschädliche Emissionen von Kohlenwasserstoffen (Formaldehyd, Methan) sowie Kohlenmonoxid deutlich reduzieren.

Das Gesamtsystem besteht aus einem Erdgas-Verbrennungsmotor zur Stromerzeugung mit einer Leistung von 20 bis zu 40 kW elektrisch, einem Dampfreformer mit einem katalytisch beschichteten Plattenwärmetauscher und den benötigten Nebenaggregaten. Dieses Konzept wurde vom OWI bereits in ähnlicher Form für die Dampfreformierung von Dieselkraftstoff im Forschungsprojekt „MÖWE“ erfolgreich zum Betrieb von Brennstoffzellen eingesetzt. Um eine maximale Wirkungsgradsteigerung im gekoppelten Betrieb zu erzielen, wurden der Verbrennungsmotor (ECC) und Reformer (OWI) aufeinander abgestimmt. Der Betrieb unter Bedingungen im Hochtemperaturbereich oberhalb von 700 °C erforderte Neuentwicklungen von Komponenten. Um den Motor mit dem energiereicheren „Reformgas“ zu betreiben und die Reformgaserzeugung mit hoch wasserstoffhaltigen Brenngasen gefahrlos einzusetzen, war ein spezielles Saugrohr zu entwickeln. Zudem wurde der Motor hinsichtlich der Wärmeverluste so optimiert, dass eine möglichst hohe Abgastemperatur für die Reformierung zur Verfügung stand. In weiteren Entwicklungsschritten ist das Fernziel, die Technik auch auf mobile Anwendungsbereiche und alternative Kraftstoffe zu übertragen.

Weitere Informationen:
http://www.owi-aachen.de/mehr-strom-und-laengere-laufzeiten/ – Hintergrundinformationen

Quelle: idw

(nach oben)


Dem Rebound-Effekt auf der Spur: Wenn sparsame Technik nicht zu weniger Energieverbrauch führt

Sebastian Mense Kommunikation, Presse- und Öffentlichkeitsarbeit
Universität Kassel

Moderne Technik wird immer energie-effizienter, dennoch kann der Energieverbrauch steigen – Wirtschaftswissenschaftler nennen das den Rebound-Effekt. Um auf globaler Ebene gegensteuern zu können, muss man diesen Effekt zunächst verstehen. Diese Aufgabe geht ein Team von Volkswissenschaftlern aus Kassel, Pisa und Canberra an.

Ist es möglich, den Klimawandel durch energiesparende Technologie noch zu verhindern? Dieser Frage geht Dr. Stephan Bruns vom Fachgebiet Allgemeine Wirtschaftspolitik von Prof. Guido Bünstorf im wissenschaftlichen Projekt „Energy Efficiency Innovation: Diffusion, Policy and the Rebound Effect“ nach. Das Vorhaben, das 2016 startet und über drei Jahre durchgeführt wird, ist eine Kooperation zwischen Bruns, Prof. David Stern von der Australian National University in Canberra und Prof. Alessio Moneta von der Scuola Superiore Sant‘ Anna in Pisa. Das Australian Research Council unterstützt das Projekt mit umgerechnet etwa 180.000 Euro.

„In diesem Projekt werden wir zwei Forschungsfragen nachgehen“, erklärt Stephan Bruns: „Einmal wollen wir herausfinden, wie sich technische Innovationen wie beispielsweise ein Kühlschrank mit der besten Energieeffizienzklasse, erst national und dann global ausbreiten; wir betrachten also die Diffusion dieser Energieeffizienz-Innovation. Vor allem aber ist es unser Ziel, dem Rebound-Effekt auf die Schliche zu kommen, ihn auf der Ebene einer ganzen Volkswirtschaft besser zu verstehen und durch statistische Analysen erkenntlich machen zu können.“

Der „Rebound-Effekt“ beschreibt den Umstand, dass energieeffiziente Innovationen durch ein angepasstes Verhalten der Konsumenten letztendlich nicht zu den Energieeinsparungen führen, die durch die effizientere Energienutzung möglich wären. Im Beispiel: Da ein modernes Gerät weniger Energie benötigt als der alte Kühlschrank, kann der Verbraucher geneigt sein sich einfach einen zweiten Kühlschrank in den Keller zu stellen. Ein anderes, häufig zitiertes Beispiel ist Licht: Die Einführung von energieeffizienteren Lichtquellen führte historisch vor allem zu mehr Beleuchtung. Es kann sogar zu einem sogenannten „Backfire“ kommen, erklärt Bruns. Dies ist der Fall, wenn durch die Verhaltensanpassung des Konsumenten der Energieverbrauch sogar steigt.

Das Interesse an dieser Fragestellung entwickelte Bruns mit seinen Kollegen vor dem Hintergrund des Klimawandels. Die International Energy Agency geht davon aus, dass energieeffiziente Technik maßgeblich helfen kann, den Temperaturanstieg auf 2°C zu begrenzen. „Bislang aber gibt es keine umfassenden Studien, die den Rebound-Effekt für eine ganze Volkswirtschaft untersuchen, sondern überwiegend Studien zu spezifischen technischen Innovationen und ihrem Rebound-Effekt oder Studien, die sich auf Simulationen aber nicht auf Daten stützen“, sagt Bruns. Daher will er empirisch untersuchen, wie sich Energieeffizienzinnovationen auf den Energieverbrauch in ein bzw. mehreren Ländern auswirken. Die Untersuchung erfordert relativ komplizierte ökonometrische Modelle: Mit Hilfe von so genannten „causal discovery-Algorithmen“, die aus dem Bereich der künstlichen Intelligenz stammen, wird das Wechselverhältnis zwischen Energiekonsum und Energieeffizienz über eine längere Zeitspanne betrachtet.

Kontakt:
Dr. Stephan Bruns
Universität Kassel
Fachgebiet Allgemeine Wirtschaftspolitik
Tel: 0561 804-3681
Email: bruns@uni-kassel.de

Weitere Informationen:
http://uni-kassel.de

Quelle: idw

(nach oben)


Bessere Wassernutzung könnte globale Ernährungslücke halbieren

Jonas Viering Presse- und Öffentlichkeitsarbeit
Potsdam-Institut für Klimafolgenforschung

Verbessertes landwirtschaftliches Wassermanagement könnte helfen, die globale Ernährungslücke bis 2050 zu halbieren und einige schädliche Folgen von Klimaveränderungen auf Ernteerträge abzufedern. Zum ersten Mal haben Wissenschaftler systematisch das weltweite Potential untersucht, mehr Nahrung mit der gleichen Menge Wasser zu produzieren, indem Regennutzung und Bewässerung optimiert werden. Sie fanden heraus, dass die Möglichkeiten bislang unterschätzt wurden. Investitionen in eine kluge Bewässerung von Agrarflächen könnten den globalen Hunger erheblich verringern und gleichzeitig Bevölkerungszuwächse ausgleichen.

Allerdings bedarf die Umsetzung der Ergebnisse in die Praxis spezifischer lokaler Lösungen, was eine Herausforderung bleibt.

„Intelligente Wassernutzung kann die landwirtschaftliche Produktion ankurbeln – wir waren erstaunt, auf globaler Ebene solch beträchtliche Effekte zu sehen“, sagt Leitautor Jonas Jägermeyr vom Potsdam-Institut für Klimafolgenforschung (PIK). In einem Szenario mit ambitioniertem Wassermanagement könnte die globale Kilokalorien-Produktion um 40 Prozent steigen; laut UN-Schätzungen sind etwa 80 Prozent nötig, um Unterernährung bis Mitte des Jahrhunderts auszurotten. Aber selbst bei weniger ambitionierten Szenarien zeigen die Ergebnisse, dass ganzheitliches Management landwirtschaftlicher Wasserverfügbarkeit einen wesentlichen Beitrag leisten könnte, die Teller der Armen zu füllen, so Jägermeyr. „Es zeigt sich, dass landwirtschaftliches Wassermanagement ein bislang vielfach unterbewerteter Ansatz zur Minderung von Unterernährung in kleinbäuerlichen Betrieben ist, und zur Steigerung ihrer Widerstandsfähigkeit gegen Auswirkungen des Klimawandels.“

+++Großes Potential zur Steigerung von Ernteerträgen in China, Mexiko, Australien+++
Die Wissenschaftler haben umfassende biophysikalische Computersimulationen durchgeführt. Dabei haben sie für die Berechnungen festgelegt, dass sich Agrarflächen nicht in Wälder ausdehnen dürfen und keine zusätzlichen Wasserressourcen gebraucht werden. Da es sich um eine globale Studie handelt, zeigt sie detaillierte Vegetationsdynamiken und Wassernutzungseffekte in Flussgebieten zwar zu grobkörnig, um die Bedingungen auf der Ebene einzelner landwirtschaftlicher Betriebe zu simulieren, aber durchaus geeignet zum Identifizieren regionaler Brennpunkte. Das Potential zur Steigerung der Ernteerträge durch landwirtschaftliches Wassermanagement ist demnach besonders groß zum Beispiel in wasserarmen Regionen wie in China, Australien, dem Westen der USA, Mexiko und Südafrika.

„Die Abschätzung des Potentials ist oft verzwickt: Wenn Landwirte flussaufwärts Wasser, das sonst nicht genutzt würde, für eine verbesserte Bewässerung und Produktion einsetzen, erreicht weniger Wasser die Nutzer flussabwärts – und das kann dann ihre Ernten verringern“, erklärt Ko-Autor und Teamleiter Dieter Gerten vom PIK. „Wir fanden heraus, dass die Produktion aber unter dem Strich steigt. Trotzdem gibt es natürlich einige Herausforderungen bei der Verteilung. Zudem braucht es vielerlei gesetzliche Regulierung vor Ort und Anreize wie etwa Mikrokredite, um landwirtschaftliches Wassermanagement großflächig zu verwirklichen.“

+++Mulchen und Tröpfchenbewässerung als Mittel gegen Klimafolgen+++
Die Wissenschaftler bezogen eine Vielzahl sehr verschiedener konkreter Möglichkeiten des Wassermanagements mit ein, von Low-Tech-Lösungen für bäuerliche Kleinbetriebe bis hin zu industrieller Bewässerung. Wasser sammeln durch das Auffangen von überschüssigem Regenwasser in Zisternen – für zusätzliche Bewässerung während Trockenperioden – ist zum Beispiel ein in manchen Regionen weit verbreiteter traditioneller Ansatz, etwa in der Sahelzone Afrikas, wird allerdings kaum genutzt in vielen anderen halbtrockenen Regionen etwa in Asien oder Nordamerika. Mulchen ist eine weitere Möglichkeit – Böden werden mit den Ernteresten vom Feld bedeckt, um die Verdunstung zu verringern, manchmal auch mit Plastikplanen. Nicht zuletzt die Verbesserung von Bewässerung durch Tropfensysteme ist ein großer Beitrag zum weltweiten Potential.

Gerade bei anhaltendem Klimawandel wird Wassermanagement immer wichtiger, um Nahrungsrisiken zu mindern. Durch die globale Erwärmung treten wahrscheinlich vermehrt Dürren auf und Niederschlagsmuster verändern sich, so dass die Verfügbarkeit von Wasser noch wichtiger wird als bisher. Unter der Voraussetzung eines moderaten CO2-Düngungseffekts – Pflanzen nehmen CO2 auf und können so von höheren Konzentrationen in der Luft profitieren, wobei die Größenordnung noch diskutiert wird – zeigt die Studie, dass in den meisten klimapolitischen Szenarien Wassermanagement einen großen Teil der regionalen Klimafolgen auf die Landwirtschaft aufwiegen kann. Wenn jedoch in einem Business-as-usual-Szenario die Treibhausgasemissionen aus dem Verfeuern fossiler Brennstoffe nicht reduziert werden, wird solches Wassermanagement ganz klar nicht ausreichen, um die negativen Klimafolgen aufzuwiegen.

+++Planetare Grenzen bald erreicht – Entscheider sollten sich mit Wassernutzung befassen+++
„Wassermanagement ist zentral, um die große Herausforderung der Nachhaltigkeit anzupacken“, sagt Ko-Autor Wolfgang Lucht, PIK-Forschungsbereichsleiter. „Es wurde in vielen lokalen und regionalen Studien erforscht und seine Effekte im Feld gut dargelegt, aber die globale Ebene wurde bisher vernachlässigt. Die erneuerten Nachhaltigen Entwicklungsziele der Vereinten Nationen, die eine nachhaltige Landwirtschaft einfordern, brauchen Belege, wie die Ziele tatsächlich zu erreichen sind. Da wir aber sehr rasch an planetare Grenzen stoßen, sollte unsere Studie die Aufmerksamkeit von Entscheidungsträgern auf allen Ebenen auf das Potential von verbessertem landwirtschaftlichen Wassermanagement lenken.“

Artikel: Jaegermeyr, J., Gerten, D., Schaphoff, S., Heinke, J., Lucht, W., Rockström, J. (2016): Integrated crop water management might sustainably halve the global food gap. Environmental Research Letters 11, 025002 [doi: 10.1088/1748-9326/11/2/025002]

Weblink zum Artikel, sobald er veröffentlicht ist: http://iopscience.iop.org/article/10.1088/1748-9326/11/2/025002

Kontakt für weitere Informationen:
Potsdam-Institut für Klimafolgenforschung, Pressestelle
Telefon: +49 (0)331 288 2507
E-Mail: presse@pik-potsdam.de
Twitter: @PIK_Klima
www.pik-potsdam.de

Quelle: idw

(nach oben)


MYTHOS MÜNDIGER VERBRAUCHER – DER KONSUMENT AUS SICHT DER VERHALTENS- UND HIRNFORSCHUNG

Dr. Johannes Schnurr Presse- und Öffentlichkeitsarbeit, Publikationen
Daimler und Benz Stiftung

Das Bild eines rationalen Entscheiders bestimmt nach wie vor unsere Vorstellung vom Verbraucher: Er kennt seine Bedürfnisse, vergleicht Angebote, wägt Kosten und Nutzen ab. Doch die Verhaltensforschung konnte in den letzten Jahren aufzeigen, dass dieses Bild leider nicht stimmt. Signale wie Verpackungsdesign, Siegel und Auszeichnungen oder wohlklingende Markennamen lenken die Wahrnehmung, verändern die Bewertung von Produkten und verführen zum Kauf.

Weshalb schmeckt vielen ein teurer Wein besser? Warum lassen sich Menschen von Vorgaben beeinflussen und welche Rolle spielt Selbstkontrolle bei externen Einflüssen? Moderne Methoden der Hirnforschung erlauben einen Blick in die Köpfe der Verbraucher und helfen Entscheidungsverzerrungen besser zu verstehen, ja sogar Produkt- und Kampagnenerfolge vorherzusagen. Der Vortrag gibt einen Überblick über die neuronalen Prozesse, welche unseren Entscheidungen als Konsumenten zugrunde liegen, und wie diese sowohl von äußeren Reizen als auch durch individuelle Faktoren beeinflusst werden.

Zur Person:
Prof. Dr. BERND WEBER leitet seit 2005 die Abteilung für strukturelle und funktionelle Bildgebung des Gehirns am Life & Brain Center in Bonn. Seit Juli 2010 hat er eine Professur für Neuroökonomie an der Universität Bonn inne und ist Direktor des Center for Economics and Neuroscience. Weber ist zudem Vorsitzender der Neuromarketing Business Association in Deutschland sowie Herausgeber mehrerer Fachzeitschriften, die sich mit der interdisziplinären Erforschung der biologischen Ursachen ökonomischen Entscheidungsverhaltens beschäftigen.

Rückfragen bitte an:
Dr. Johannes Schnurr
Presse und Medien
Tel.: 0 62 03-10 92 0
mobil: 0176-216 446 92
E-Mail: schnurr@daimler-benz-stiftung.de

Daimler und Benz Stiftung
Impulse für Wissen – die Daimler und Benz Stiftung verstärkt Prozesse der Wissensgenerierung. Ihr Fokus richtet sich dabei auf die Förderung junger Wissenschaftler, fachübergreifende Kooperationen sowie Forschungsprojekte aus sämtlichen wissenschaftlichen Disziplinen. Die operativ tätige und gemeinnützige Stiftung zählt zu den großen wissenschaftsfördernden Stiftungen Deutschlands.

Weitere Informationen:
http://www.daimler-benz-stiftung.de

Quelle: idw

(nach oben)


Rheinzufluss mit tropischen Parasiten

Judith Jördens Senckenberg Pressestelle
Senckenberg Forschungsinstitut und Naturmuseen

Wissenschaftler der Senckenberg Gesellschaft für Naturforschung und der Goethe-Universität Frankfurt haben eingewanderte tropische Fische in einem nordrheinwestfälischen Bach untersucht. Sie zeigen in ihrer kürzlich im Fachjournal „Parasitology Research“ erschienenen Studie, dass sich in dem künstlich erschaffenen Warmwasserlebensraum eine tropische Fauna etabliert hat. Auch nicht-heimische Parasiten, die eine potentielle Gefahr für die heimische Fischwelt darstellen, fühlen sich in dem von einem Braunkohlewerk aufgeheizten Gewässer wohl.

Der Gillbach nahe Köln erinnert nicht gerade an das tropische Flair Guatemalas – dennoch hat sich in dem etwa 3 Meter breiten und 30 bis 90 Zentimeter tiefen Fließgewässer eine exotische Fischfauna ausgebildet. „Wir haben im Gillbach neben Guppys und Antennenwelsen die Buntbarschart Amatitlania nigrofasciata gefangen und untersucht. Diese ist ursprünglich in Mittelamerika heimisch“, erklärt Prof. Dr. Sven Klimpel vom Senckenberg Biodiversität und Klima Forschungszentrum und der Goethe Universität Frankfurt und fährt fort: „Die Fische wurden wohl von Aquariumsbesitzern im Gewässer ausgesetzt und haben sich dort vermehrt. Weltweit wurden so 115 Süßwasserfischarten verschleppt – in Deutschland sind es immerhin 5 von 15 nicht-heimischen Arten.“
Das die Fische in dem deutschen Fließgewässer überleben und sich sogar fortpflanzen, liegt an der Besonderheit des Gillbaches: das Gewässer, das über die Erft in den Rhein mündet, ist sogar im Winter durchschnittlich 19 Grad Celsius warm. Grund ist das Braunkohlekraftwerk Niederaußem, dessen etwa 30 Grad Celsius warmes Kühlwasser in den Gillbach eingeleitet wird.

„Limnische Gewässersysteme gehören zu den am stärksten anthropogen beeinflussten und bedrohten Ökosystemen weltweit. Uns hat daher interessiert, wie sich so ein künstlich geschaffener Warmwasserlebensraum auf die Flora und Fauna auswirkt und welche Risiken hiermit verbunden sind“, erläutert Klimpel. Insgesamt 77 Fische hat das Wissenschaftlerteam rund um den Frankfurter Parasitologen an zwei Probennahmestellen – in Quellnähe und in etwa 3 Kilometer Entfernung zum warmen Zufluss – auf Parasiten und ihre Nahrungsökologie untersucht. In ihrer Studie konnten sie so erstmalig den tropischen Zebrabuntbarsch Amatitlania nigrofasciata als häufig befallenen End- und Zwischenwirt für heimische, aber auch nicht-heimische subtropische und tropische Parasitenarten definieren. Besonders häufig fanden die Forschenden den ursprünglich aus Asien stammenden Fadenwurm Camallanus cotti in den untersuchten Fischen. Dieser Parasit ist aus der Aquaristik bekannt und kann bei befallenen Fischen zum Tod führen. „Beunruhigender Weise zeigen unsere Stichproben, dass auch heimische Fische wie Döbel oder Gründling bereits von dem tropischen Parasiten befallen werden. Ob der Wurm auch beispielsweise die kühleren Wassertemperaturen des Rheins übersteht, können wir zu diesem Zeitpunkt aber noch nicht sagen“, ergänzt Klimpel.

In den Mägen der eingeschleppten Buntbarsche fanden sich neben Insekten- und Pflanzenresten auch auffallend viele Schuppen heimischer Fischarten. „Wir führen das auf die aggressive Brutpflege von Amatitlania nigrofasciata zurück“, sagt Klimpel. Die tropischen Fische verteidigen ihren Nachwuchs in dem sie andere Fische durch Rammstöße vertreiben und anschließend deren Schuppen fressen.

„Der Gillbach bildet mit seinem stets warmen Wasser ein Reservoir für nicht heimische Krankheitserreger und damit ein Einfallstor in weitere Fließgewässer. Insgesamt hat unsere Studie gezeigt, dass sich in langjährigen, künstlich erschaffenen Warmwasserhabitaten nicht nur eine tropische Fauna etablieren kann, sondern dass sich dort gleichzeitig auch das Gefüge von Krankheitserregern, wie beispielsweise Parasiten, verändert“, fasst Klimpel zusammen.

Zukünftig könnte der Gillbach auch als Modellsystem für die Veränderung von Faunengemeinschaften im Kontext des globalen Klimawandels dienen – dort kann „live“ beobachtet werden, wie sich höhere Temperaturen und invasive Arten auf die heimische Artenvielfalt auswirkt.

Kontakt
Prof. Dr. Sven Klimpel
Senckenberg Biodiversität und
Klima Forschungszentrum
Goethe-Universität Frankfurt
Tel. 069- 7542 1895
sven.klimpel@senckenberg.de

Publikation
Sebastian Emde, Judith Kochmann, Thomas Kuhn, Dorian D. Dörge, Martin Plath, Friedrich W. Miesen & Sven Klimpel (2015): Cooling water of power plant creates „hot spots“ for tropical fishes and parasites. Parasitology Research January 2016, Volume 115, Issue 1, pp 85-98
DOI 10.1007/s00436-015-4724-4

Die Natur mit ihrer unendlichen Vielfalt an Lebensformen zu erforschen und zu verstehen, um sie als Lebensgrundlage für zukünftige Generationen erhalten und nachhaltig nutzen zu können – dafür arbeitet die Senckenberg Gesellschaft für Naturforschung seit nunmehr fast 200 Jahren. Diese integrative „Geobiodiversitätsforschung“ sowie die Vermittlung von Forschung und Wissenschaft sind die Aufgaben Senckenbergs. Drei Naturmuseen in Frankfurt, Görlitz und Dresden zeigen die Vielfalt des Lebens und die Entwicklung der Erde über Jahrmillionen. Die Senckenberg Gesellschaft für Naturforschung ist ein Mitglied der Leibniz-Gemeinschaft. Das Senckenberg Naturmuseum in Frankfurt am Main wird von der Stadt Frankfurt am Main sowie vielen weiteren Partnern gefördert. Mehr Informationen unter www.senckenberg.de.

2016 ist Leibniz-Jahr. Anlässlich des 370. Geburtstags und des 300. Todestags des Universalgelehrten Gottfried Wilhelm Leibniz (*1.7.1646 in Leipzig, † 14.11.1716 in Hannover) veranstaltet die Leibniz-Gemeinschaft ein großes Themenjahr. Unter dem Titel „die beste der möglichen Welten“ – einem Leibniz-Zitat – rückt sie die Vielfalt und die Aktualität der Themen in den Blick, denen sich die Wissenschaftlerinnen und Wissenschaftler der bundesweit 88 Leibniz-Einrichtungen widmen. www.bestewelten.de

Quelle: idw

(nach oben)


Unstatistik des Monats: 337 Prozent zu warm!

Katharina Fischer Kommunikation
Rheinisch-Westfälisches Institut für Wirtschaftsforschung e.V.

Schneekanonen funktionieren nicht mehr. Sonnenbaden im T-Shirt im Wiener Burggarten – die Unstatistik des Monats Februar ist die Berichterstattung der Tageszeitung „Österreich“ und des Wetter-Portals „wetter.at“ vom 7. Februar über den „wärmsten Winter aller Zeiten“.

Ein Klimaexperte erklärte, jedes Kind wisse, dass der Ausstoß von Treibhausgasen daran schuld sei. Und die Journalisten hatten eine innovative Idee, die Erwärmung zu messen. Nicht in Celsius, sondern in Prozent: Im Jänner 337 Prozent zu warm!

Wie fühlen sich 337 Prozent wärmer an? wetter.at berichtete, dass die übliche Durchschnittstemperatur in Wien im Jänner (deutsch: Januar) 0,8 Grad Celsius sei, während sie in diesem Jahr bei 3,5 Grad lag. Das ist ein Anstieg um 2,7 Grad. Aber auch um 337 Prozent – was dramatischer klingt. Dazu muss man nur 2,7 durch 0,8 teilen.

Beschreibt man Veränderungen (egal, ob Anstiege oder Abfälle) in relativen statt absoluten Zahlen, so kann man damit rechnen, dass mehr Menschen beeindruckt sind. Dies haben wir wiederholt im Rahmen der „Unstatistik des Monats“ veranschaulicht, zuletzt anlässlich der Wursthysterie („18% höheres Darmkrebsrisiko“). Aber ein relativer Anstieg ist immer relativ zum Ausgangspunkt. Wenn man in Wien nicht mit Celsius, sondern mit Fahrenheit rechnen würde, wären relative Angaben weniger beeindruckend: Der Anstieg entspräche dem von 33,4 auf 38,3 Grad Fahrenheit, also einem absoluten Unterschied von 4,9 Grad. Das ergibt aber nur noch 15 Prozent wärmer. In Vienna (Ohio, USA) – ja, diesen Ort gibt es – würde also der Trick mit den 337 Prozent nicht glücken…

Laut dem befragten Klimaexperten wird es in Zukunft mit Sicherheit noch viel wärmer werden. Also können wir im Januar nächsten Jahres vielleicht auf 500 Prozent mehr Wärme hoffen und das T-Shirt hundertprozentig durch Bikini und Badehose ersetzen.

———-
Ansprechpartner:
Prof. Dr. Gerd Gigerenzer (Max-Planck-Institut für Bildungsforschung), Tel.: (030) 82406-0

Mit der „Unstatistik des Monats“ hinterfragen der Berliner Psychologe Gerd Gigerenzer, der Dortmunder Statistiker Walter Krämer und RWI-Vizepräsident Thomas Bauer jeden Monat sowohl jüngst publizierte Zahlen als auch deren Interpretationen. Alle „Unstatistiken“ finden Sie im Internet unter www.unstatistik.de

Weitere Informationen:

http://www.unstatistik.de – Weitere Informationen, Kontakte & Archiv
http://www.wetter.at/wetter/oesterreich-wetter/Waermster-Winter-aller-Zeiten/223… – wetter.at: „Wärmster Winter aller Zeiten“

Anhang
Pressemitteilung im PDF-Format

Quelle: idw

(nach oben)


Einige Vögel sind genauso schlau wie Affen: Forscher ergründen Gemeinsamkeiten in Hirnarchitektur

Dr. Julia Weiler Dezernat Hochschulkommunikation
Ruhr-Universität Bochum

Einige Vogelgruppen sind mental ebenso schlau wie Menschenaffen. Zu dieser Schlussfolgerung kommen Prof. Dr. Onur Güntürkün von der Ruhr-Universität Bochum und Prof. Dr. Thomas Bugnyar von der Universität Wien in einem Übersichtsartikel in der Zeitschrift „Trends in Cognitive Sciences“. Die Forscher trugen zahlreiche neuroanatomische Studien zusammen, die eine Reihe von Ähnlichkeiten in den Gehirnen von Vögeln und Säugetieren offenbaren. Diese könnten dem komplexen kognitiven Verhalten zugrunde liegen.

Die Gehirne von Vögeln und Säugetieren sind auf den ersten Blick sehr verschieden. Trotzdem sind die kognitiven Fähigkeiten einiger Vogelgruppen denen von Menschenaffen ebenbürtig.

Forschungsergebnisse der vergangenen Jahrzehnte legen nahe, dass Vögel ausgeklügelte kognitive Fähigkeiten besitzen. Eine Theorie besagt, dass sie diese nur in speziellen Bereichen, zum Beispiel beim Verstecken von Futter, anwenden können. Dass dies nicht der Fall ist, belegen Prof. Dr. Onur Güntürkün von der Ruhr-Universität Bochum und Prof. Dr. Thomas Bugnyar von der Universität Wien in einem Übersichtsartikel in der Zeitschrift „Trends in Cognitive Sciences“.

Die beiden Forscher trugen Studien zusammen, die diverse kognitive Fähigkeiten bei Vögeln nachgewiesen haben. „Das mentale Geschick von Rabenvögeln und Papageien ist ebenso ausgeprägt und vielfältig wie das der Menschenaffen“, sagt Onur Güntürkün, Leiter der Abteilung Biopsychologie in Bochum. Sie können unter anderem logisch denken, sich selbst im Spiegel erkennen und sich in andere hineinversetzen.

Komplexe Kognition braucht keinen Kortex
Bei Säugetieren ist die mehrschichtige Großhirnrinde, auch Neocortex genannt, für das kognitive Können verantwortlich. Diese Hirnstruktur besitzen Vögel nicht; bei ihnen meistert stattdessen das sogenannte Pallium die komplexen mentalen Aufgaben. Zudem haben Vögel erheblich kleinere Gehirne als Menschenaffen. „Wie können Vögel trotzdem die gleichen kognitiven Leistungen erbringen?“, fragt Güntürkün. „Ist es möglich, dass sich in den 300 Millionen Jahren unabhängiger Entwicklung von Vögeln und Säugetieren sehr unterschiedliche Hirnmechanismen für komplexe Denkprozesse entwickelt haben?“

Im Hinblick auf diese Frage wertete er gemeinsam mit seinem Kollegen zahlreiche neuroanatomische Studien aus. Fazit: Im Großen und Ganzen sind die Gehirne der beiden Tiergruppen tatsächlich sehr verschieden aufgebaut. Schaut man aber ins Detail, ergeben sich Gemeinsamkeiten. Einzelne Module der Gehirne sind zum Beispiel auf ähnliche Weise verschaltet, und beide Tiergruppen besitzen eine präfrontale Hirnstruktur, die ähnliche exekutive Funktionen steuert.

Ursprung der Gemeinsamkeiten unklar
Unklar ist, wie diese Gemeinsamkeiten zustande kamen. Entweder hat der letzte gemeinsame Vorfahre Vögeln und Säugetieren die neuronale Basis dafür vererbt. Oder – und das halten die Autoren für wahrscheinlicher – sie sind unabhängig voneinander in der Evolution entstanden, weil die beiden Tiergruppen vor den gleichen Herausforderungen standen. Das würde bedeuten, so die Forscher, dass bestimmte Verschaltungsmuster im Gehirn notwendig sind, um höhere Denkleistungen zu erbringen.

„Klar ist, dass der mehrschichtige Kortex der Säugetiere für komplexe Kognition nicht erforderlich ist“, schlussfolgert Güntürkün. „Auch das absolute Hirngewicht spielt für die mentalen Fähigkeiten keine Rolle.“ Während die Gehirne von Menschenaffen durchschnittlich 275 bis 500 Gramm auf die Waage bringen, schaffen es die kognitiv ebenso geschickten Vögel ohne Kortex gerade einmal auf 5 bis 20 Gramm.

Originalveröffentlichung
O. Güntürkün, T. Bugnyar (2016): Cognition without Cortex , Trends in Cognitive Sciences, DOI: 10.1016/j.tics.2016.02.001

Weitere Informationen
Prof. Dr. Onur Güntürkün, Abteilung Biopsychologie, Institut für Kognitive Neurowissenschaft, Fakultät für Psychologie, Ruhr-Universität Bochum, 44780 Bochum, Tel.: 0234 32 26213, E-Mail: Onur.Guentuerkuen@rub.de

Bild im Netz
Ein Foto zu dieser Presseinformation finden Sie im Internet unter: http://aktuell.ruhr-uni-bochum.de/pm2016/pm00026.html.de

Quelle: idw

(nach oben)


Künstliche Biofilme für ressourcenschonende Biotechnologie

Christian Wißler Mediendienst Forschung
Universität Bayreuth

Im neuen bayerischen Projektverbund BayBiotech kooperieren Bioprozesstechnik und Makromolekulare Chemie an der Universität Bayreuth, um ein innovatives Konzept für künstliche Biofilme zu entwickeln. Deren Potenziale sollen in unterschiedlichen Bereichen der Industrie systematisch genutzt werden können – zum Beispiel in der Energietechnik, der Umwelttechnik oder der Pharmazie.

Welche Chancen bietet die Biotechnologie für eine innovative, in wirtschaftlicher Hinsicht effiziente und zugleich umweltfreundliche Nutzung von Rohstoffen? Um diese Frage geht es in dem neuen Projektverbund Ressourcenschonende Biotechnologie (BayBiotech), der vom Bayerischen Staatsministerium für Umwelt und Verbraucherschutz mit insgesamt rund zwei Mio. Euro gefördert wird. An der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU), die den Verbund koordiniert, fand am 3. Februar 2016 die Auftaktveranstaltung statt. Dabei stellten sich sechs anwendungsorientierte Forschungsprojekte vor, die künftig an BayBiotech mitwirken. Dazu zählt auch ein Vorhaben der Universität Bayreuth zum Thema „Biofilme für die Prozessintensivierung“, in dem Forschungsteams aus der Bioprozesstechnik und der Makromolekularen Chemie unter der Leitung von Prof. Dr. Ruth Freitag und Prof. Dr. Andreas Greiner kooperieren.

Von der Natur zur industriellen Nutzung
Das Projekt zielt darauf ab, ein neues Konzept für künstliche Biofilme zu entwickeln und im Industriemaßstab umzusetzen. In der Natur gibt es vielfältige Beispiele für Biofilme. Sie entstehen überall dort, wo sich Bakterien, Pilze oder Algen an feuchte Oberflächen anheften und sich hier aufgrund günstiger Lebensbedingungen vermehren, wie etwa an Brückenpfeilern, Rohrleitungen oder Schiffsturbinen. In manchen Bereichen der Industrie werden bereits heute großflächige Biofilme eingesetzt. Biofilme kommen insbesondere bei der Abwasserbehandlung, in Bio-Filtern für die Luftreinhaltung, in Biogasanlagen oder auch bei der Produktion von Essigsäure zum Einsatz, die für die Lebensmittel- und für die Kunststoffindustrie ein unentbehrlicher Rohstoff ist.

In diesen Fällen arbeitet man mit natürlichen Biofilmen, die meist mehrere Arten von Mikroorganismen enthalten. Für viele weitere Anwendungen in der industriellen Biotechnologie gibt es jedoch keine geeigneten natürlichen Biofilme, oder sie sind aus hygienischen Gründen nicht erwünscht. Hier setzt das neue Bayreuther Konzept der „Biokomposite“ an: Dies sind Biofilme, bei denen die Mikroorganismen nicht nur gezielt ausgewählt, sondern auch in ein maßgeschneidertes Substrat aus Polymeren eingebettet werden.

Vielfältige Anwendungspotenziale maßgeschneiderter Biofilme
Die an BayBiotech beteiligten Forscher an der Universität Bayreuth sind überzeugt, dass das Potenzial derartiger künstlicher Biofilme groß ist. Dies gilt vor allem für „Single Species“-Biofilme, die ausschließlich eine einzige Art von Mikroorganismen enthalten, so dass sich deren Stoffwechselfunktionen gezielt steuern und kontrollieren lassen. „Für einen sparsamen Umgang mit Rohstoffen wird es immer wichtiger, dass die in Abfällen enthaltenen Wertstoffe erneut genutzt werden“, erklärt Prof. Freitag, Inhaberin der Lehrstuhls für Bioprozesstechnik. „Dies gilt für Abfälle aus der Industrie und der Landwirtschaft ebenso wie für den Müll von Privathaushalten. Phosphat, Schwefel und Metalle sind Rohstoffe, die viel zu wertvoll sind, um verbrannt zu werden. Mithilfe spezieller Mikroorganismen können sie isoliert und zurückgewonnen werden.“

Ein weiteres zukunftsweisendes Anwendungsgebiet ist die Energietechnik. So können Mikroorganismen in Brennstoffzellen zur Stromerzeugung genutzt werden. Als Katalysatoren können sie hier Elektronen freisetzen, die – wenn sie direkt auf die Anode der Brennstoffzelle geleitet werden – einen Stromkreislauf in Gang setzen. Nicht zuletzt sind Biofilme auch für die Chemieindustrie zunehmend interessant, beispielsweise wenn es um strukturspezifische Synthesen, natürliche Schädlingsbekämpfung und -schadstoffabreicherung oder die Förderung des Pflanzenwachstums geht.

Bis heute fehlt der Industrie jedoch ein universell einsetzbares Konzept für die Produktion von „Single Species“-Biofilmen, die passgenau auf bestimmte biotechnologische Funktionen hin zugeschnitten sind. Das Bayreuther Forschungsprojekt unter dem Dach von BayBiotech will in den nächsten Jahren wichtige Eckpunkte eines solchen Konzepts erarbeiten. Auf diese Weise sollen industrielle biotechnologische Prozesse intensiviert und die Potenziale von Biofilmen in unterschiedlichen Branchen systematisch genutzt werden können.

Biokomposite – eine vielversprechende Materialklasse für die Biotechnologie
Von zentraler Bedeutung für dieses Vorhaben ist die interdisziplinäre Zusammenarbeit von Bioprozesstechnik und Makromolekularer Chemie auf dem Bayreuther Campus. Unter der Leitung von Prof. Greiner, der an der Universität Bayreuth einen Lehrstuhl für Makromolekulare Chemie innehat, sollen neue Biokomposite entwickelt werden. Hierbei handelt es sich um eine neuartige Materialklasse, bei der Bakterien oder andere Mikroorganismen gezielt in einer Polymer-Matrix platziert werden. Diese Verbundmaterialien haben, wenn sie als Biofilme eingesetzt werden, zahlreiche Vorteile. Die Mikroorganismen sind innerhalb der Matrix an ausgewählten Punkten fixiert und können sich nicht frei bewegen, so dass sich das Zusammenspiel ihrer Stoffwechselprozesse und somit auch die Funktionen der Materialien präzise kontrollieren lassen.

„Wir verfügen an der Universität Bayreuth über modernste Technologien, die für das Design und die Produktion von Biokompositen im Labor erforderlich sind“, erklärt Prof. Greiner. „So haben wir zum Beispiel Anlagen für das Elektro- und das Nass-Spinnen, mit denen sich feinstrukturierte Vliese und Gewebe aus Polymeren herstellen lassen. Dies sind Trägermaterialien, deren hochinteressante Eigenschaften auf dem Gebiet der Biofilme bisher noch viel zu wenig genutzt worden sind.“

BayBiotech – ein Beitrag zum „Mega-Projekt Rohstoffwende Bayern“
Anlässlich der Auftaktveranstaltung in Erlangen betonte die Bayerische Umweltministerin Ulrike Scharf die Bedeutung des neuen Projektverbunds für einen schonenden Umgang mit Ressourcen: „Es ist für die Zukunft unseres Landes von enormer Bedeutung, dass wir mit unseren endlichen Ressourcen sparsam und intelligent umgehen. Deshalb brauchen wir die Rohstoffwende – aus ökonomischen und ökologischen Gründen. Mit dem neuen Projektverbund erschließen wir innovative Möglichkeiten der Biotechnologie, um Ressourcen zu schonen. BayBiotech ist neben dem Projektverbund ForCycle ein weiterer starker Baustein im Handlungsfeld Forschung und Entwicklung unseres Mega-Projekts Rohstoffwende Bayern.“

Kontakte:

Prof. Dr. Ruth Freitag
Lehrstuhl für Bioprozesstechnik
Fakultät für Ingenieurwissenschaften
Universität Bayreuth
95447 Bayreuth
Tel.: +49 (0)921 55-7371
E-Mail: ruth.freitag@uni-bayreuth.de

Prof. Dr. Andreas Greiner
Lehrstuhl für Makromolekulare Chemie II
Universität Bayreuth
D-95448 Bayreuth
Telefon: +49 (0)921 55 3399
E-Mail: andreas.greiner@uni-bayreuth.de

Quelle: idw

(nach oben)


Biomasseforschungszentrum zeigt innovative Katalysatoren auf der Woche der Umwelt

Paul Trainer M.A. Presse- und Öffentlichkeitsarbeit
Deutsches Biomasseforschungszentrum

Die katalytische Minderung von schadhaften Emissionen zählt zu den wesentlichen Forschungsaufgaben im Bereich der energetischen Biomassenutzung und stellt einen der fünf wissenschaftlichen Schwerpunkte am Deutschen Biomasseforschungszentrum dar. Auf der Woche der Umwelt in Berlin präsentiert sich das DBFZ vom 7.-8. Juni 2016 mit dem Forschungsprojekt „REMISBIO – Maßnahmen zur Reduzierung von Emissionen von Biogasanlagen“ und stellt mit Exponaten den Stand der Forschung im Bereich der Bioenergie und der innovativen Katalysatorentechnik für Biogasanlagen vor.

Rund 8.000 Biogasanlagen sind derzeit in Deutschland in Betrieb und erzeugten im Jahr 2014 eine Leistung von ca. 9 Mrd. m3 Biogas (DBFZ, Bereich Biochemische Konversion, AG Systemoptimierung). Bei der Verbrennung von Biogas können durch „Methanschlupf“ jedoch nennenswerte Mengen von unverbranntem Methan das Blockheizkraftwerk (BHKW) verlassen und als Treibhausgasemissionen in die Atmosphäre gelangen. Die Methankonzentrationen im Abgas sind dabei abhängig vom BHKW-Typ und liegen ungefähr im Bereich von 1.000 bis 5.000 ppm.

Im Forschungsvorhaben REMISBIO, das federführend vom Deutschen Biomasseforschungszentrum gemeinsam mit den Partnern, Caterpillar Energy Solutions GmbH und Heraeus Deutschland GmbH & Co. KG, betreut wird, stellt das DBFZ ein innovatives Konzept vor, das die Emissionsminderung an Biogasanlagen unterstützt. Dabei werden geeignete Katalysatormaterialien hergestellt und getestet sowie anschließend in großtechnische Anlagen eingebaut, um deren Wirksamkeit zu testen. Hierfür wurde am DBFZ eine mobile Anlage entwickelt, die es erlaubt, Katalysatoren für die katalytische Nachverbrennung von Abgasen aus mit Biogas betriebenen Blockheizkraftwerken (BHKW) mit realem Abgas hinsichtlich der Aktivität und Stabilität zu testen. Damit sind Untersuchungen möglich, ohne dass dabei der Betrieb des BHKW gestört wird. Neu entwickelte Katalysatoren müssen mit der entwickelten Testanlage nicht mehr direkt in den Abgastrakt des BHKW ein- und ausgebaut werden, was mit dem Abschalten des BHKW verbunden wäre, sondern können extern mit dem Abgas der bestehenden Anlage getestet werden.

Das Projekt REMISBIO wurde im BMWi-Förderprogramm „Energetische Biomassenutzung“ gefördert und im Rahmen des DBFZ-Forschungsschwerpunkts „Katalytische Emissionsminderung“ von Dr. Ingo Hartmann (DBFZ/ETE EmTechEngineering) koordiniert.

Mit weiteren Exponaten, Postern sowie Vorträgen zum Thema „Smart Bioenergy“ werden Experten des DBFZ im Rahmen der Woche der Umwelt für Informationen und Fragen persönlich zur Verfügung stehen. Weitere Informationen zur Woche der Umwelt unter: www.woche-der-umwelt.de

Hintergrund: Woche der Umwelt
Bereits zum fünften Mal seit 2002 findet die große Umwelt-Schau im Park des Berliner Amtssitzes des Bundespräsidenten statt. Für zwei Tage stehen das Thema Umweltschutz und die damit verbundenen wirtschaftlichen und gesellschaftlichen Chancen im Fokus der Öffentlichkeit. Rund 200 Aussteller aus Deutschland und der Schweiz werden sich auf fast 4.000 Quadratmetern zu den Themen Klimaschutz, Energie, Ressourcen, Boden und Biodiversität, Mobilität und Verkehr, Bauen und Wohnen präsentieren. Parallel zur Ausstellung wird es ein hochkarätiges und vielfältiges Vortrags- und Diskussionsangebot geben. Spitzenvertreter aus Politik, Wirtschaft, Wissenschaft und Gesellschaft werden in moderierten Diskussionsrunden zu den Schwerpunktthemen diskutieren und neue Entwicklungen aufzeigen.

Smart Bioenergy – Innovationen für eine nachhaltige Zukunft
Das Deutsche Biomasseforschungszentrum arbeitet als zentraler und unabhängiger Vordenker im Bereich der energetischen und stofflichen Biomassenutzung an der Frage, wie die begrenzt verfügbaren Biomasseressourcen nachhaltig und mit höchster Effizienz zum bestehenden und zukünftigen Energiesystem beitragen können. Im Rahmen der Forschungstätigkeit identifiziert, entwickelt, begleitet, evaluiert und demonstriert das DBFZ die vielversprechendsten Anwendungsfelder für Bioenergie und die besonders positiv herausragenden Beispiele gemeinsam mit Partnern aus Forschung, Wirtschaft und Öffentlichkeit. Mit der Arbeit des DBFZ soll das Wissen über die Möglichkeiten und Grenzen einer energetischen und integrierten stofflichen Nutzung nachwachsender Rohstoffe in einer biobasierten Wirtschaft insgesamt erweitert und die herausragende Stellung des Industriestandortes Deutschland in diesem Sektor dauerhaft abgesichert werden – www.dbfz.de.

Wissenschaftlicher Kontakt:
Dr. rer. nat. Ingo Hartmann
Tel. +49 (0)341 2434-541
E-Mail: ingo.hartmann@dbfz.de

Weitere Informationen:
https://www.dbfz.de/presse/pressemitteilungen-2016/biomasseforschungszentrum-zei…

Quelle: idw

(nach oben)



Norovirus: Nach der Erkrankung noch zwei Tage zu Hause bleiben

Medizin – Kommunikation Medizinkommunikation
Arbeitsgemeinschaft der Wissenschaftlichen Medizinischen Fachgesellschaften

Der Winter ist Hochsaison für Durchfallerreger

Wenn es kalt ist, haben Noroviren Hochsaison: Fast die Hälfte der im vergangenen Jahr in Deutschland registrierten 89 000 Infektionen fiel auf die Monate Januar bis März. Dabei umfasst die Zahl nur Fälle, bei denen das Magen-Darm-Virus durch eine Laboruntersuchung nachgewiesen wurde. Die tatsächliche Fallzahl liegt um ein Vielfaches höher. Der wirksamste Schutz besteht in häufigem und sorgfältigem Händewaschen, so die Deutsche Gesellschaft für Gastroenterologie, Verdauungs- und Stoffwechselkrankheiten (DGVS). Erkrankte sollten zudem zwei Tage über das Abklingen der Symptome hinaus zu Hause bleiben.

„Wenn Erkrankte zu früh wieder in Kontakt mit anderen Menschen treten, besteht ansonsten das Risiko, dass sich die Noroviren weiter ausbreiten“, erklärt Professor Dr. med. Andreas Stallmach, Direktor der Klinik für Innere Medizin IV am Universitätsklinikum Jena. Zudem gelte es, auch im Anschluss an eine Erkrankung auf sorgfältige Hygiene zu achten. „Der Körper scheidet die Viren noch über ein bis zwei Wochen aus“, so der Experte.

In den meisten Fällen sei es sinnvoll, zu Hause abzuwarten, bis Durchfall und Erbrechen vorbei sind. Da die Krankheit dem Körper Wasser und Elektrolyte entzieht, sollten Patienten viel trinken: verdünnte Säfte, Brühe oder gezuckerter Tee können die Verluste ausgleichen. Selten müssen Betroffene eine Infusion bekommen, um den Flüssigkeitshaushalt auszugleichen. „Kinder unter fünf und ältere Menschen über 70 Jahren erkranken nicht nur häufiger, sondern oft auch schwerer als andere Altersgruppen“, betont Stallmach. Wenn Angehörige oder Pflegende feststellen, dass sich der Allgemeinzustand eines Patienten verschlechtert, sollten sie medizinische Hilfe suchen. Wichtig dabei: die Voranmeldung in der Klinik oder der Praxis. Denn dort breitet sich das Virus weiter aus und gefährdet andere. 2014 kam es laut Robert Koch-Institut in deutschen Kliniken zu 850 Norovirus-Ausbrüchen mit über 9000 Infektionen. „Für schwerkranke Patienten in Kliniken kann eine Norovirus-Infektion lebensbedrohlich sein. Deshalb müssen Erkrankte soweit möglich isoliert werden.“

Der Experte erklärt, welche Möglichkeiten es gibt, sich vor Noroviren zu schützen: „Das Wichtigste ist, sich möglichst von Erkrankten fern zu halten und separate Toiletten zu benutzen“, so Stallmach. Denn Noroviren sind hochansteckend. Stallmach: „Pflegende und Angehörige sollten beim Waschen von Kleidungsstücken und Handtüchern oder beim Toilettenputzen unbedingt Einmalhandschuhe nutzen.“ Damit beim Ausziehen der Handschuhe keine Erreger an die Hände gelangen, wenden Profis folgende Technik an: Zunächst zieht die eine Hand den Handschuh der anderen ab und hält diesen Locker in der Hand. Dann krempelt die freie Hand vom Arm her vorsichtig den zweiten Handschuh über den ersten. Anschließend wandern beide in den Müll.

Da Noroviren gegenüber vielen Desinfektionsmitteln unempfindlich sind, bleiben sie auch nach sorgfältigen Putzaktionen meist noch im Umlauf. Sie überstehen Temperaturen von minus 20 bis plus 60 Grad Celsius und halten sich nicht nur im Privathaushalt, sondern auch in Kitas, Senioreneinrichtungen und Kreuzfahrtschiffen äußerst hartnäckig. „Wir hoffen sehr auf die Impfstoffe, die derzeit in der Entwicklung sind und die zum Teil bereits in klinischen Studien getestet werden“, sagt DGVS-Experte Stallmach. Die Krankheitslast und die wirtschaftlichen Kosten, die das Norovirus verursacht, seien enorm und könnten durch einen wirksamen Impfstoff drastisch gesenkt werden.

Die Deutsche Gesellschaft für Gastroenterologie, Verdauungs- und Stoffwechselkrankheiten (DGVS) wurde 1913 als wissenschaftliche Fachgesellschaft zur Erforschung der Verdauungsorgane gegründet. Heute vereint sie mehr als 5000 Ärzte und Wissenschaftler aus der Gastroenterologie unter einem Dach. Die DGVS fördert sehr erfolgreich wissenschaftliche Projekte und Studien, veranstaltet Kongresse und Fortbildungen und unterstützt aktiv den wissenschaftlichen Nachwuchs. Ein besonderes Anliegen ist der DGVS die Entwicklung von Standards und Behandlungsleitlinien für die Diagnostik und Therapie von Erkrankungen der Verdauungsorgane – zum Wohle des Patienten.

Weitere Informationen:

http://www.dgvs.de

Quelle: idw

(nach oben)


Spinströme aus Abwärme: Forscherteam legt neue Erkenntnisse über magnetische Spinwellen vor

Petra Giegerich Kommunikation und Presse
Johannes Gutenberg-Universität Mainz

Grundlagen der Umwandlung von Wärmeströmen in magnonische Spinströme verstanden – Untersuchung an komplexen magnetischen Materialien

Einem internationalen Forscherteam ist es gelungen, neue Erkenntnisse über magnetische Spinwellen zu erhalten. Die Spinwellen können in elektrisch nichtleitenden Materialien durch ein Temperaturgefälle entstehen und dann in einer benachbarten metallischen Schicht in elektrische Ströme umgewandelt werden. Aus Wärme kann somit elektrische Energie entstehen. Das Prinzip, das erst vor kurzer Zeit entschlüsselt wurde, bietet für die Zukunft neue Möglichkeiten, Abwärme rückzugewinnen und damit Prozesse energieeffizienter und umweltfreundlicher zu gestalten. An dem gemeinsamen Forschungsprojekt sind Wissenschaftler der Johannes Gutenberg-Universität Mainz (JGU), des Walther-Meißner-Instituts (WMI) in Garching, der Tohoku University, Japan, und der Delft University of Technology, Niederlande, beteiligt. Die Forschungsarbeit wurde im Fachmagazin Nature Communications publiziert.

Magnetische Spinwellen, auch Magnonen genannt, sind elementare magnetische Anregungen, durch die der Drehimpuls und Energie und damit Informationen innerhalb von magnetischen Festkörpern transportiert werden können. Weil die Existenz der magnetischen Wellen an den Festkörper gekoppelten ist, lassen sich diese jedoch nur schwer nachweisen. In dem gemeinsamen Projekt konnten die Forscher zeigen, dass auch in komplexen, aus mehreren magnetischen Atomsorten aufgebauten Materialien Magnonen durch Wärmetransport angeregt werden. Grundlage für den Nachweis bildet der Spin-Seebeck-Effekt, dessen Ursprung ebenfalls erst vor Kurzem verstanden wurde. Die neuen Ergebnisse zeigen außerdem, dass es durch den Spin-Seebeck-Effekt möglich ist, fundamentale Eigenschaften des Systems auf einfache Weise zu erfassen und das komplexe Wechselspiel der einzelnen magnetischen Unterstrukturen zu bestimmen.

Der Spin-Seebeck-Effekt stellt einen sogenannten Spin-thermoelektrischen Effekt dar, der es möglich macht, sogar in elektrisch nichtleitenden Materialien thermische Energie in elektrische Energie umzuwandeln. Im Gegensatz zu konventionellen thermoelektrischen Effekten kann damit in magnetischen Isolatoren, die mit einer dünnen Metallschicht kombiniert werden, Wärmeenergie rückgewonnen werden. Forschern der JGU war es vor kurzer Zeit gelungen, den Ursprung des Effekts auf die thermisch angeregten magnetischen Wellen in Festkörpern, also die Magnonen, zurückzuführen.

Basierend auf dieser Erkenntnis haben die beteiligten Wissenschaftler nun neue Untersuchungen an komplexeren magnetischen Materialien, sogenannten kompensierten Ferrimagneten, durchgeführt. Temperaturabhängige Untersuchungen dieser Materialien mittels des Spin-Seebeck-Effekts offenbarten ein einzigartiges und somit charakteristisches Signalverhalten, das neue Erkenntnisse über die dem Effekt zugrundeliegenden Magnonen und deren Verteilung liefert.

„Als ich zum ersten Mal unsere komplexen Messdaten gesehen habe, hätte ich nicht für möglich gehalten, wie viele Informationen wir über das umfassende Wechselspiel innerhalb des Materials gewinnen können. All dies war nur durch die gute Zusammenarbeit mit unseren nationalen und internationalen Kollegen möglich“, betont Andreas Kehlberger, Mitarbeiter in der Forschergruppe von Univ.-Prof. Dr. Mathias Kläui, der kürzlich seine Promotion als Stipendiat der Exzellenz-Graduiertenschule „Materials Science in Mainz“ (MAINZ) an der JGU abgeschlossen hat.

„Ich freue mich, dass dieses spannende Ergebnis in Zusammenarbeit zwischen einem Doktoranden der Exzellenz-Graduiertenschule Materials Science in Mainz in meiner Gruppe und Kollegen aus Garching, mit denen wir im Rahmen des DFG-Schwerpunktprogramms ‚Spin Caloric Transport‘ kollaborieren, entstanden ist“, so Mathias Kläui, Direktor der Exzellenz-Graduiertenschule MAINZ. „Es zeigt, dass komplexe Forschung erst in Teams möglich wird – bestenfalls gefördert, wie in diesem Fall durch das DAAD SpinNet-Austauschprogramm mit der Tohoku Universität.“

Die Graduiertenschule MAINZ wurde in der Exzellenzinitiative des Bundes und der Länder im Jahr 2007 bewilligt und erhielt in der zweiten Runde 2012 eine Verlängerung. Sie besteht aus Arbeitsgruppen der Johannes Gutenberg-Universität Mainz, der Technischen Universität Kaiserslautern und des Max-Planck-Instituts für Polymerforschung. Einer der Forschungsschwerpunkte ist die Spintronik, wobei die Zusammenarbeit mit führenden internationalen Partnern eine wichtige Rolle spielt.

Veröffentlichung:
Stephan Geprägs et al.
Origin of the spin Seebeck effect in compensated ferrimagnets
Nature Communications, 4. Februar 2016
DOI: 10.1038/ncomms10452

Weitere Informationen:
Univ.-Prof. Dr. Mathias Kläui
Theorie der kondensierten Materie
Institut für Physik
Johannes Gutenberg-Universität Mainz
55099 Mainz
Tel. +49 6131 39-23633
E-Mail: klaeui@uni-mainz.de
http://www.klaeui-lab.physik.uni-mainz.de/308.php

Exzellenz Graduiertenschule Materials Science in Mainz
Johannes Gutenberg-Universität Mainz
55099 Mainz
Tel. +49 6131 39-26984
Fax +49 6131 39-26983
E-Mail: mainz@uni-mainz.de
http://www.mainz.uni-mainz.de/

Weitere Links:
http://www.nature.com/ncomms/2016/160204/ncomms10452/full/ncomms10452.html (Article)
http://www.phmi.uni-mainz.de/9955.php (Pressemitteilung „Hinweise auf Ursprung des Spin-Seebeck-Effekts entdeckt“)
http://www.spinnet.uni-mainz.de (Homepage des SpinNet-Projektes zwischen JGU, Tohoku University, Stanford University und IBM)

Quelle: idw

(nach oben)


Energie aus der Luft und dem Wasser

André Zeppenfeld Presse- und Kommunikationsstelle
Universität Siegen

In drei neuen Projekten erforscht die Uni Siegen, wie erneuerbare Energien optimal nutzbar sind.

Maschinen für erneuerbare Energien – das ist die neue Ausrichtung der Forschung von Prof. Dr. Thomas Carolus an der Uni Siegen. „Wir erleben einen Boom der erneuerbaren Energien, das wird sehr spannend“, sagt Prof. Carolus. Wie spannend, das zeigen drei neue Projekte, am Institut für Fluid- und Thermodynamik aktuell bearbeitet werden. Es geht um leise Großwindturbinen, Gezeitenenergie der Weltmeere und kleine Windräder, z.B. auf dem Dach von Hochhäusern. Rund 1 Million Euro fließen an Fördermitteln durch das Bundesministerium für Wirtschaft und Energie (BMWi) nach Siegen.

Seit November 2015 wird an der Entwicklung eines leisen Rotorblatts für große Windturbinen geforscht. Im Blick steht die Steigerung des Energieertrags von guten Windkraftstandorten. „Windturbinen werden trotz erheblicher Fortschritte oft als Quellen von unzumutbarem Umgebungslärm angesehen“, sagt Prof. Carolus. Ein Ziel ist daher eine weitere Schallminderung von Windenergieanlagen. Die Wissenschaftler der Uni Siegen entwickeln wissenschaftliche Methoden der Strömungsakustik, um daraus Erkenntnisse für lärmarme Konstruktionen zu gewinnen. Ein weiteres Ziel ist aber auch die Entwicklung eines fortschrittlichen Verfahrens zur Schallprognose. Damit kann prognostiziert werden, wie viel Schall beispielsweise ein ganzer Windpark verursachen wird. Die Ergebnisse der Vorarbeit im Labor fließen in die Konstruktion einer Großwindturbine der nächsten Generation ein. Das Projekt mit dem Titel „RENEW“ wird vom BMWi mit 660.000 Euro für drei Jahre gefördert, Sachbearbeiter sind Farhan Manegar und Leonard Schorle. Am Projekt beteiligt ist die Senvion GmbH, ein Unternehmen der Windenergiebranche mit Hauptsitz in Hamburg.

Im zweiten Forschungsprojekt stehen die Gezeiten der Weltmeere im Mittelpunkt. Die Nutzung der Gezeitenenergie beruht auf großräumigen Meeresströmungen, die durch Tidenhub entstehen. Der Tidenhub ist der Unterschied zwischen dem höchsten und dem tiefsten Pegelstand des Meerwassers. „Im Gegensatz zu Wind-, Wellen- und Solarenergie ist der Tidenhub genau vorhersagbar. Turbinen unter Wasser an Standorten mit starken Gezeitenströmungen können kosteneffizient und klimafreundlich elektrische Energie erzeugen“, sagt Prof. Carolus und erklärt weiter: „Das ist eine attraktive Möglichkeit, erneuerbare Energien zu nutzen und gleichzeitig zur Stabilisierung des zukünftigen Stromnetzes beizutragen.“ Das Projekt „TidalPower“ beschäftigt sich deshalb mit der Entwicklung eines kompletten Systems zur kosteneffizienten Nutzung von Gezeitenströmungsenergie. Aufgabe der Universität Siegen ist die hydrodynamische Optimierung von Unterwasserturbinen mit Blick auf hohe abgegebene Leistung und niedrige Installationskosten. Unter der Federführung der Firma Schottel Hydro GmbH mit Sitz in Spay am Rhein sind deutschlandweit weitere vier Verbundpartner an dem Projekt beteiligt. Das BMWi fördert das Projekt mit mehren Millionen Euro, der Anteil für die Universität Siegen beträgt 280.000 Euro für drei Jahre, Sachbearbeiter ist Nicholas Kaufmann.

Forschungsprojekt Nummer 3 verfolgt eine Vision: kleine Windturbinen für die dezentrale Energieversorgung. Denkbar sind Windturbinen auf hohen Gebäuden. „Das lohnt sich natürlich nur in windreichen Gegenden. Auch hier ist wichtig, dass die Turbinen leise sind und so effizient wie möglich“, sagt Prof. Carolus. Ein Test-Objekt steht bereits auf dem Dach des Paul-Bonatz-Gebäudes in Siegen. Hier werden beispielsweise kontinuierlich Windgeschwindigkeit, Windrichtung, Energieertrag sowie Schallemission erfasst. Sogar die Kräfte auf die Rotorblätter werden gemessen. Das Projekt vereint Forscherinnen und Forscher verschiedenster Fachrichtungen der Uni Siegen. Beteiligt sind Turbinen-, Strömungs- und Akustikexperten wie Prof. Carolus und Prof. Dr. Holger Foysi, Experten der Schadensfrüherkennung wie Prof. Dr. Claus-Peter Fritzen, Informatiker wie Prof. Dr. Madjid Fathi und Wirtschaftsexperten wie Prof. Dr. Ulrich Seidenberg. „Wir alle möchten Windenergie noch umweltfreundlicher und kostengünstiger machen“, sagt Prof. Carolus. Sachbearbeiter des Projekts am Lehrstuhl von Professor Carolus ist Kevin Volkmer.

Weitere Informationen:

https://www.uni-siegen.de/start/news/oeffentlichkeit/656769.html

Quelle: idw

(nach oben)


Angeln mal ganz wissenschaftlich und trotzdem unterhaltsam

Angelina Tittmann Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)

Forscher planen nationale Informationsveranstaltungen für Angelpraxis:

Wer meint, dass Wissenschaft und Anglerpraxis nichts miteinander gemein haben, der kennt das Projekt Besatzfisch nicht. Hier forschten in den vergangenen sechs Jahren junge Wissenschaftler aus Berlin zusammen mit 18 Angelvereinen aus Niedersachsen zum Sinn und Unsinn von Fischbesatz. Nun will das Projekt mit seinen praxisrelevanten Ergebnissen auf Deutschlandtournee gehen. Für die Planung von insgesamt sechs Großveranstaltungen im Herbst diesen Jahres möchten die Mitarbeiter des Leibniz-Instituts für Gewässerökologie und Binnenfischerei (IGB) möglichst alle Landesanglerverbände und Angelvereine mit ins Boot holen.

„Komm, lass uns Neues zur Bewirtschaftung von Angelgewässern erfahren“, so könnte bald ein Gespräch zwischen Gewässerwarten, Angelvereinsvorständen und interessierte Petrijüngern in Deutschlands klingen. Doch nur nicht nur Zuhören, sondern auch Schauen, Diskutieren, Netzwerken und Schmunzeln stehen auf der Agenda der geplanten Informationsveranstaltungen des Projekts Besatzfisch. Projektleiter Prof. Dr. Robert Arlinghaus, Professor für Integratives Fischereimanagement an der Humboldt-Universität zu Berlin und Wissenschaftler am IGB, verspricht: „Die Ergebnisse geben wertvolle Impulse für die anglerische Hege und Pflege.“ Im Fokus stehen der Fischbesatz und alternative Vorgehen bei der Bewirtschaftung von Angelgewässern. Geplant sind im Jahr 2016 sechs Großveranstaltungen über ganz Deutschland verteilt. Alle Landesanglerverbände sind herzlich eingeladen, Mitveranstalter zu werden. Entsprechende Einladungsschreiben sind kürzlich versandt worden. Vereine und Privatpersonen, die die Chance zur kostenlosen Teilnahme nutzen wollen, können sich zudem unter http://www.besatz-fisch.de über die neuesten Entwicklungen informieren.

„Hand in Hand für nachhaltige Angelfischerei“, diesen Leitsatz schrieben sich die Nachwuchsforscher um Prof. Dr. Robert Arlinghaus auf die Fahnen, als sie im Jahr 2010 das Projekt Besatzfisch starteten. Gemeinsam mit 18 niedersächsischen Angelvereinen forschte das Team fünf Jahre zu den zu ökologischen, ökonomischen und sozialen Aspekten von Fischbesatz. Die wissenschaftlichen Ergebnisse wurden in einer Broschüre, einem Handbuch, zahlreichen Aufsätzen, einem Film sowie diversen Presse-, Hörfunk-, und Fernsehbeiträgen für die Öffentlichkeit aufbereitet. „Aufgrund zeitlicher Beschränkungen konnten wir unsere Ergebnisse aber persönlich bisher nur an unsere kooperierenden Vereine in Niedersachsen herantragen“, bedauert Arlinghaus. „Darum haben wir nun ein Folgeprojekt namens Besatzfisch2.0 gestartet, das allen Angelvereinen und darin organsierten Gewässerwarten und Anglern deutschlandweit die Chance geben soll, die praxisrelevanten Ergebnisse aus erster Hand zu erfahren.“ Ein weiteres Ziel von Besatzfisch2.0 ist die Entwicklung einer Hegeplanungs-Software für Gewässerwarte.

Ansprechpartner:

Tobias Rapp, Ph.D.
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Abteilung für Biologie und Ökologie der Fische
Müggelseedamm 310
12587 Berlin
Tel: 030 – 64181-657
E-Mail: rapp@igb-berlin.de

Weitere Informationen zum IGB:
http://www.igb-berlin.de

Die Arbeiten des IGB verbinden Grundlagen- mit Vorsorgeforschung als Basis für die nachhaltige Bewirtschaftung der Gewässer. Das IGB untersucht dabei die Struktur und Funktion von aquatischen Ökosystemen unter naturnahen Bedingungen und unter der Wirkung multipler Stressoren. Forschungsschwerpunkte sind unter anderem die Langzeitentwicklung von Seen, Flüssen und Feuchtgebieten bei sich rasch ändernden globalen, regionalen und lokalen Umweltbedingungen, die Entwicklung gekoppelter ökologischer und sozioökonomischer Modelle, die Renaturierung von Ökosystemen und die Biodiversität aquatischer Lebensräume. Die Arbeiten erfolgen in enger Kooperation mit den Universitäten und Forschungsinstitutionen der Region Berlin/Brandenburg und weltweit. Das IGB gehört zum Forschungsverbund Berlin e. V., einem Zusammenschluss von acht natur-, lebens- und umweltwissenschaftlichen Instituten in Berlin. Die vielfach ausgezeichneten Einrichtungen sind Mitglieder der Leibniz-Gemeinschaft.

Weitere Informationen:

http://www.besatz-fisch.de
http://www.igb-berlin.de
http://www.facebook.com/ifishman.science

Anhang

Mögliche Veranstaltungsorte für eine nationale Tournee könnten diese sein. Die finale Auswahl richtet sich nach den nun anstehenden Absprachen mit den Landesangelverbänden.
https://idw-online.de/de/attachment48613

Quelle: idw

(nach oben)


Einzeller mit Durchblick: Wie Bakterien „sehen“

Monika Landgraf Presse, Kommunikation und Marketing
Karlsruher Institut für Technologie

Ein 300 Jahre altes Rätsel der Biologie ist geknackt. Wie eine internationale Forschergruppe aus Deutschland, Großbritannien und Portugal herausgefunden hat, nutzen Cyanobakterien – weltweit vorkommende mikroskopisch kleine Einzeller – das Funktionsprinzip des Linsenauges, um Licht wahrzunehmen und sich darauf zuzubewegen. Der Schlüssel zu des Rätsels Lösung war eine Idee aus Karlsruhe: Jan Gerrit Korvink, Professor am KIT und Leiter des Instituts für Mikrostrukturtechnik (IMT) am KIT, nutzte Siliziumplatten und UV-Licht, um den Brechungsindex der Einzeller zu messen.

Cyanobakterien bevölkern die Erde schon seit mehr als 2,5 Milliarden Jahren und kommen überall dort vor, wo es Licht gibt: im Eis, in Wüsten, Flüssen und Seen, aber auch an Hauswänden und in Aquarien. Sie betreiben Fotosynthese und gewinnen mithilfe von Licht ihre Energie. In den Ozeanen, die etwa 70 Prozent der Erdoberfläche bedecken, gehören sauerstoffproduzierende Cyanobakterien zu den wichtigsten fotosynthetisch aktiven Organismen und bilden somit einen Grundpfeiler der Biosphäre.

Licht ist als zentrale Energiequelle für Cyanobakterien überlebenswichtig. Obwohl sie nur aus einer einzigen Zelle bestehen, sind sie in der Lage, direkt und präzise auf eine Lichtquelle zuzuströmen. Doch wie genau diese Lichtwahrnehmung funktioniert, war seit 300 Jahren – also seit es Mikroskope gibt – ein Rätsel. Bis heute. Wie Forscherinnen und Forscher des KIT, der Universität Freiburg, der Queen Mary University London (QMUL) und weiterer Institutionen aus Großbritannien und Portugal herausgefunden haben, funktionieren Cyanobakterien wie winzige Linsenaugen, können so die Lichtrichtung wahrnehmen und darauf reagieren. Die Studie wurde nun in der wissenschaftlichen Zeitschrift „eLIFE“ veröffentlicht.

Eine ungewöhnliche Idee
„Die Zusammenarbeit begann bei einem Mittagessen in Freiburg“, sagt Jan Gerrit Korvink, Leiter des Instituts für Mikrostrukturtechnik (IMT) am KIT. „Conrad Mullinieux, Professor an der QMUL, besuchte gerade die Freiburger Arbeitsgruppe um Professor Annegret Wilde und fragte mich, ob ich einen Weg wüsste, den Brechungsindex eines winzigen Bakteriums zu messen. Der Brechungsindex beschreibt eine wesentliche optische Eigenschaft von Linsen, die das Licht brechen.“

„Zunächst musste ich Conrad Mullinieux enttäuschen: Bakterien mit einem Durchmesser von 3 Mikrometern – also 3 Millionsteln eines Meters – sind so klein, dass schlicht geeignete Geräte fehlen, um so eine Messung vorzunehmen. Doch die Frage ließ mir keine Ruhe. Und schließlich kam mir eine Idee“, erklärt der Professor.

Korvink und die Wissenschaftlerinnen und Wissenschaftler seines Teams am KIT beschichteten eine flache, etwa 10 Zentimeter durchmessende Scheibe aus Silizium mit einer extrem dünnen Schicht eines Photo-Polymers, das aushärtet, wenn es ultraviolettem Licht ausgesetzt wird. Dann platzierten sie einige Cyanobakterien auf dem Polymer und ließen UV-Licht auf die Platte fallen.

„Überall, wo keine Bakterien platziert waren, fiel das Licht gleichmäßig auf die Scheibe und auch das Polymer härtete gleichmäßig aus. Aber in Bereichen mit Bakterien, wurde das Licht gebündelt. Es formte einen konzentrierten Nanojet aus Photonen, so dass das Polymer unterhalb der Bakterien in einem bestimmten Muster aushärtete“, erläutert Jan Gerrit Korvink.

Im nächsten Schritt fixierten die Forscherinnen und Forscher des KIT das Photopolymer chemisch und bestimmten die Oberflächenstruktur mit einem Rasterkraftmikroskop. So konnten sie genau nachvollziehen, wie die Bakterien das Licht gebrochen haben. „Schließlich konnten wir mithilfe einer Simulation die genauen Lichtbündelungseigenschaften von Cyanobakterien bestimmen und vorhersagen.“

Das erste „Auge“ der Evolutionsgeschichte?
In weiteren Untersuchungen konnte das internationale Forscherteam bestätigen, dass ein einzelnes Cyanobakterium tatsächlich wie ein winziger Augapfel funktioniert. Das Licht trifft auf die Oberfläche der runden Einzeller, wo es wie durch eine mikroskopisch kleine Linse gebrochen wird. Dadurch entsteht ein Brennpunkt auf der gegenüberliegenden Seite der Zelle. Dies aktiviert im Bereich des Lichtpunkts winzige, fadenförmige Fortsätze außerhalb der Zelle, die das Bakterium in Lichtrichtung vorwärtstreiben.

„Cyanobakterien sind die ersten bekannten Organismen, die wir aus fossilen Funden kennen“, sagt Jan Gerrit Korvink. „In einer – zugegeben – sehr primitiven Form funktionieren die Bakterienzellen wie winzige Augäpfel. Möglicherweise war es also das erste Mal in der Evolutionsgeschichte, dass sich mit der Entstehung der frühen Cyanobakterien ein mit dem Linsenauge vergleichbarer Mechanismus zur Lichtwahrnehmung entwickelt hat. Ein spannender Gedanke!“

Originalveröffentlichung:
„Cyanobacteria use micro-optics to sense light direction“; Nils Schuergers, Tchern, Ronald Kampmann, Markus V. Meissner, Tiago Esteves, Maja Temerinac-Ott, Jan G. Korvink, Alan R. Lowe, Conrad W. Mullineaux, Annegret Wilde;

DOI: http://dx.doi.org/10.7554/eLife.12620

Weiterer Kontakt:
Nils Ehrenberg, Presse, Pressereferent, Tel.: +49 721 608-48122, Fax: +49 721 608-45681, E-Mail: nils.ehrenberg@kit.edu

Das Karlsruher Institut für Technologie (KIT) verbindet seine drei Kernaufgaben Forschung, Lehre und Innovation zu einer Mission. Mit rund 9 400 Mitarbeiterinnen und Mitarbeitern sowie 25 000 Studierenden ist das KIT eine der großen natur- und ingenieurwissenschaftlichen Forschungs- und Lehreinrichtungen Europas.

KIT – Die Forschungsuniversität in der Helmholtz-Gemeinschaft

Das KIT ist seit 2010 als familiengerechte Hochschule zertifiziert.

Diese Presseinformation ist im Internet abrufbar unter: http://www.kit.edu

Weitere Informationen:
http://dx.doi.org/10.7554/eLife.12620

Anhang
Einzeller mit Durchblick: Wie Bakterien „sehen“
https://idw-online.de/de/attachment48638

Quelle: idw

(nach oben)


Bioökonomie als Motor des nächsten Wirtschaftszyklus

Anette Schober-Knitz Referat für Presse- und Öffentlichkeitsarbeit
HBC Hochschule Biberach

Nachhaltiges Wirtschaften lautet die Lösung für das fortschreitende Wachstum der Weltbevölkerung – und stand im Mittelpunkt des diesjährigen Neujahrsempfanges der Fakultät Biotechnologie an der Hochschule Biberach, an dem rund 60 Professoren, Mitarbeiter aus Lehre und Forschung sowie Vertreter von Unternehmen aus der Region sowie der Politik teilnahmen. Referent des Empfanges war Dr. Holger Zinke, Gründer eines auf die sogenannte Weiße Biotechnologie spezialisierten Unternehmens, der Brain AG (Zwingenberg/Darmstadt).

Zinke ist ein Netzwerk-Partner der Hochschule Biberach und hat zahlreiche wichtige Funktionen innerhalb der Branche inne, beispielsweise als stellvertretender Aufsichtsratsvorsitzender der Brain AG sowie als Mitglied des Bioökonomierates, einem unabhängigen Beratungsgremium der Bundesregierung.

In seinem Vortrag „Biökonomie, Biologisierung und Transformation“ machte er die Bedeutung der Biologisierung der Industrie deutlich. Gerade in der Weißen Biotechnologie würden darin viele Experten aus Politik, Wirtschaft und Wissenschaft schon heute den Motor des nächsten, innovationsgetragenen Wirtschaftszyklus sehen. Mehr noch: Das fortschreitende Wachstum der Weltbevölkerung, die Verknappung der Ressourcen und der globale Klimawandel fordern laut Dr. Zinke ein großräumiges Umdenken. „Bioökonomie bietet innovative Lösungen und neue Perspektiven für diese drängenden Zukunftsfragen“. Die Abhängigkeit von Rohstoffen zu Gunsten von mehr Nachhaltigkeit, Natur- und Klimaschutz könne damit beendet werden.
Die Weiße – auch Industrielle Biotechnologie genannte – Sparte sieht der Experte als Grundpfeiler dieser Entwicklung. Aufbauend auf einem „Werkzeugkasten der Natur“ ermögliche sie die Konstruktion von Mikroorganismen und Synthesewegen, mit denen sich neuartige Produkte und Materialien aus Naturstoffen entwickeln lassen. „Diese Aufnahme von biotechnischen Methoden in die industrielle Produktion nutzt die biologische Kreativität aus 3,5 Milliarden Jahren Evolution“, so Zinke. „Zahlreiche industrielle Prozesse können so effektiver, umweltfreundlicher und nachhaltiger gestaltet werden“.
Damit ist laut Zinke klar, welche Chancen die Biotechnologie bietet – gerade jungen Menschen, die berufliche Perspektiven suchen und sich gleichzeitig an der Lösung gesellschaftlicher Zukunftsfragen beteiligen möchten. Die Studienangebote der Hochschule Biberach im Bereich der industriellen wie pharmazeutischen Biotechnologie seien zur rechten Zeit gekommen und würden als Sprungbrett in eine spannende und innovative Branche dienen. „Die Biberacher Fakultät Biotechnologie hat den Luxus, in einem Bereich tätig sein zu können, der für die Zukunft der Menschheit von entscheidender Bedeutung sein wird“, so Dr. Holger Zinke.
Für dieses breit gefächerte Potenzial steht auch die Brain AG, die in diesen Tagen erfolgreich in den Börsenhandel gestartet ist. Wie das Unternehmen mitteilte, ist es aus dem Bereich der Bioökonomie als erstes Unternehmen dieser Branche im Prime Standard der Frankfurter Wertpapierbörse notiert. Die Brain AG gehört in Europa zu den technologisch führenden Unternehmen auf dem Gebiet der industriellen Biotechnologie. Die Gesellschaft zielt darauf ab, die Nutzung von biotechnologischen Lösungen und biologischen Produkten zu vereinfachen bzw. auszuweiten. Besondere Wachstumspotenziale sieht das Unternehmen in großen Teilen der Chemiebranche, die in den kommenden Jahren laut Experten einen steigenden Anteil von biotechnologischen Produkten und Verfahren verzeichnen wird.

Weitere Informationen:

http://www.hochschule-biberach.de

Quelle: idw

(nach oben)


Aktuelle Gefühlszustände beeinflussen Tinnitus: Forscherteam nutzt Tinnitus-App für neue Studie

Alexander Schlaak Referat II/2, Kommunikation
Universität Regensburg

Der aktuelle Gefühlszustand hat Einfluss auf das Belastungsempfinden von Tinnitus-Patienten. Dies hat jetzt ein Forscherteam der Universitäten Regensburg, Ulm und Witten/Herdecke nachgewiesen. Bislang war lediglich bekannt, dass Stress mit Tinnitus zusammenhängt. Für ihre neuen Untersuchungen nutzten die Wissenschaftler die Smartphone-App „TrackYourTinnitus“ (www.trackyourtinnitus.org). Die Ergebnisse ihrer Studie wurden in der renommierten Fachzeitschrift „Scientific Reports“ veröffentlicht (DOI: 10.1038/srep20382).

Unter Tinnitus versteht man die Wahrnehmung von Geräuschen ohne eine entsprechende äußere Schallquelle. Die hohe Prävalenz – bzw. Häufigkeit der Erkrankung – von Tinnitus mit bis zu 15 % und die enormen gesellschaftlichen Kosten, die sich gemäß Schätzungen wissenschaftlicher Studien auf über 5 000 Euro pro Patient im Jahr belaufen, verdeutlichen die Relevanz effektiver Therapien gegen diese Störung. Von zentraler Bedeutung ist dabei die Identifikation der Prozesse, die einen Einfluss darauf haben, wie die Tinnitus-Lautstärke zu mehr oder weniger Belastung durch den Tinnitus führt. Dafür eignet sich der Einsatz von Techniken und Methoden des sogenannten „Ecological Momentary Assessment“ (EMA) – einer Form des ambulanten Assessments bzw. der Datenerfassung im Alltag der Betroffenen.

Für eine solche tagebuchartige Erfassung aktueller Selbstberichte eignet sich die Smartphone-App „TrackYourTinnitus“, die von Forschern um Dr. Winfried Schlee (Klinik und Poliklinik für Psychiatrie und Psychotherapie, Universität Regensburg) entwickelt wurde. Ein Team von Forscherinnen und Forschern aus Regensburg, Ulm und Witten/Herdecke untersuchte mit Hilfe der App im Alltag von Betroffenen, ob aktuelle emotionale Zustände dazu beitragen, dass die Tinnitus-Lautstärke mit mehr oder weniger Belastung durch den Tinnitus verknüpft ist. Als aktueller emotionaler Zustand wurde das Ausmaß von zwei Komponenten von aktuellen emotionalen Zuständen einbezogen: „Arousal“ und „Valenz“. Unter „Arousal“ versteht man das Ausmaß der inneren Aktivierung des Nervensystems und unter „Valenz“ die mehr positive oder mehr negative Färbung der aktuellen Stimmungslage. Für ihre Untersuchung analysierten die Forscher die Daten aus dem Alltag von 658 Tinnitus Patienten.

Die Analysen zeigten, dass die Tinnitus-Lautstärke bei höherem „Arousal“ und verstärkt negativer „Valenz“ ebenso wie bei höherem aktuellen Stresserleben mit einer stärkeren Belastung durch Tinnitus verbunden ist. Diese Beobachtung hat Konsequenzen für die therapeutische Praxis: So dürften gerade solche Therapieansätze, die auf eine Veränderung von Emotionen und Stress abzielen, dazu führen, dass die Belastung durch den Tinnituston sinkt und sich der Zustand der Patientinnen und Patienten verbessert.

Titel des Original-Aufsatzes:
Probst, T., Pryss, R., Langguth, B., & Schlee, W. (2016). Emotional states as mediators between tinnitus loudness and tinnitus distress in daily life: Results from the „TrackYourTinnitus“ application. Scientific Reports, 6, 20382.

Der Aufsatz im Internet unter:
http://www.nature.com/articles/srep20382
http://epub.uni-regensburg.de/33298/1/srep20382.pdf

Quelle: idw

(nach oben)


Nachhaltige Kommunalentwicklung: Vor allem kleinen Gemeinden fehlt ein Gesamtkonzept

Florian Klebs Presse- und Öffentlichkeitsarbeit
Universität Hohenheim

Experte der Universität Hohenheim: Gemeinden setzen Nachhaltigkeit oft punktuell um. Aber das Querschnittsdenken kommt noch zu kurz.

Nachhaltigkeit ist bereits in vielen Städten und Gemeinden ein Thema – doch ein Gesamtkonzept dazu eher die Ausnahme. Insbesondere kleinere Gemeinden hätten hier noch Nachholbedarf, meint Prof. Dr. Frank Brettschneider, Kommunikationswissenschaftler an der Universität Hohenheim. Auch die Beteiligung der Bürger an solchen Entscheidungsprozessen zur nachhaltigen Kommunalentwicklung lässt mancherorts noch zu wünschen übrig. Die Wissenschaftler befragten für ihre Studie alle 1.101 Kommunen in Baden-Württemberg.

Die drei Säulen der Nachhaltigkeit – gesunde Umwelt, sozialer Ausgleich und wirtschaftliche Entwicklung – spielen auch bei der Kommunalentwicklung zunehmend eine Rolle. Das Land Baden-Württemberg hat es sich in seiner Nachhaltigkeitsstrategie auf die Fahnen geschrieben, diese Grundlagen auch langfristig zu sichern – gemeinsam mit den Bürgern des Landes.

Ob und wie weit nachhaltige Kommunalentwicklung unter Mitwirkung der Bürger bereits bei den Städten und Gemeinden des Landes gelebte Realität ist, hat nun Prof. Dr. Frank Brettschneider, Kommunikationswissenschaftler an der Universität Hohenheim, gemeinsam mit seinem Team untersucht. Das Pilotprojekt wurde vom Ministerium für Umwelt, Klima und Energiewirtschaft in Baden-Württemberg gefördert.

Defizite beim Konzept und bei der Bürgerbeteiligung
Die Forscher befragten dazu alle 1.101 Kommunen in Baden-Württemberg – von denen 419 (38 %) an der Umfrage teilnahmen. „Nachhaltigkeit ist vor allem für die kleinen Kommunen noch eine punktuelle Angelegenheit – eine Biogasanlage hier oder ein Mehrgenerationenhaus dort“, schildert Prof. Dr. Brettschneider. „Das lässt sich alles natürlich in den Bereich Nachhaltigkeit einordnen, aber der Querschnittsgedanke, ein Gesamtkonzept ist dann noch nicht realisiert.“

Hinzu kommt, dass auch die Beteiligung der Bürger an diesen Prozessen oft noch zu wünschen übrig ließe, sagt Prof. Dr. Brettschneider. Er hält dies jedoch für essenziell zum Gelingen der Entscheidungsprozesse: „Nachhaltigkeit lässt sich nicht verordnen. Ein Klimaschutzkonzept oder ein Mobilitätskonzept für eine Gemeinde muss letztendlich von den Menschen umgesetzt werden. Daher ist es sinnvoll, sie von Anfang an einzubeziehen.“ Außerdem würden, gerade im kommunalen Bereich, die Einwohner über sehr wertvolles Wissen verfügen.

Erfolgsfaktoren für nachhaltige Kommunalentwicklung mit Bürgerbeteiligung
Damit nachhaltige Kommunalentwicklung mit Bürgerbeteiligung in einer Gemeinde von Erfolg gekrönt ist, identifizierten die Wissenschaftler vier Faktoren:

• Erfolgsfaktor Struktur
In der Kommunalverwaltung muss es eine Einheit geben, die sich mit dem Thema beschäftigt. Nachhaltige Kommunalentwicklung und Bürgerbeteiligung müssen als Querschnittsaufgaben wahrgenommen werden. Dafür sollen personelle und finanzielle Ressourcen zur Verfügung stehen. „Nachhaltige Kommunalentwicklung ist kein kurzfristiges Projekt, Verlässlichkeit ist daher oberstes Gebot“, betont Prof. Dr. Brettschneider. „Insbesondere kleinen Gemeinden fehlt das dafür notwendige Geld.

• Erfolgsfaktor Person
Die Person, die nachhaltige Kommunalentwicklung erfolgreich umsetzen soll, muss ein geeignetes Persönlichkeitsprofil aufweisen. Prof. Dr. Brettschneider fasst zusammen: „Sie sollte kommunikativ, offen und empathisch sein, die Verwaltungsabläufe kennen und idealerweise Erfahrung mit Öffentlichkeitsarbeit und Bürgerbeteiligungsverfahren haben.“

• Erfolgsfaktor Kultur
Wichtig ist, dass die Kommunalverwaltung nicht abteilungsweise denkt, sondern aufgabenbezogen. „Schließlich können etwa Veränderungen im Bereich Soziales Auswirkungen auf die Umwelt haben“, erklärt der Experte. Bürgermeister und Gemeinderat müssen hinter dem Prozess stehen und den Mitarbeitern der Verwaltung Rückendeckung geben. Dabei sollen alle Teile der Verwaltung in den Prozess einbezogen werden und bereit sein, ergebnisoffen zu arbeiten.

• Erfolgsfaktor Handwerkzeug
Bevor man einen Prozess mit Bürgerbeteiligung startet, sind Fokus und Ziel dieser Beteiligung klar festzulegen und zu kommunizieren. „Es macht einen Unterschied, ob die Bürger informiert oder konsultiert werden sollen, oder ob eine Entscheidung zu fällen ist. In diesem Fall müssen auch Handlungsoptionen vorhanden sein“, rät Prof. Dr. Brettschneider.

Vor diesem Hintergrund sind die passenden Beteiligungsformate auszuwählen, wie etwa Bürger-Foren, moderierte Bürgerversammlungen, oder ein World Café, ein Runder Tisch oder Online-Foren. Dabei stellt sich die Frage welche Personengruppen einbezogen werden. Sie sollten unterschiedliche Interessen vertreten und können verfasste oder nicht verfasste Akteure sein – also zum Beispiel Handwerkerverbände, Verkehrsbetriebe und Anwohner. Auch Zufalls-Bürger können beteiligt sein.

Im nächsten Schritt sind die Themenfelder zu analysieren. „Welche Themen stehen überhaupt zur Diskussion? Welche hängen miteinander zusammen? Und welche Lösungen sind möglich?“, umreißt Prof. Dr. Brettschneider die Fragen.

Kommunen müssen Ziele definieren
Zunächst sind also die Kommunen selbst gefragt. Sie müssen klare Ziele definieren, die sich jedoch von Gemeinde zu Gemeinde stark unterscheiden können. „Die Situationen sind sehr spezifisch, hängen von der Größe und der Struktur der Gemeinde ab. Die Probleme liegen daher in unterschiedlichen Bereichen – das kann eine Überalterung der Bevölkerung sein, der mangelnde Breitbandanschluss oder ökonomische Schwierigkeiten“, veranschaulicht Prof. Dr. Brettschneider.

Unterstützung durch das Land Baden-Württemberg
Um anschließend einen Prozess in Gang zu setzen, benötigen viele Kommunen Unterstützung, so die Erkenntnisse der Wissenschaftler. Diese erhalten sie in Baden-Württemberg durch das Land und durch die kommunalen Spitzenverbände.

Im Rahmen von Landesnetzwerken des Städte-, des Gemeinde- und des Landkreistages können Erfahrungen ausgetauscht werden. Schulungen für Verwaltungsmitarbeiter bietet vor allem die Landesanstalt für Umwelt, Messungen und Naturschutz Baden-Württemberg (LUBW). Sie vermittelt Kenntnisse etwa zum fairen kommunalen Beschaffungswesen oder zu der Frage, wie man Nachhaltigkeitsberichte erstellt. „Auch eine Gemeinde, die zum ersten Mal einen solchen Prozess beginnen möchte, kann vom Land Starthilfe erhalten“, empfiehlt Prof. Dr. Brettschneider. „Das kann eine Erstberatung sein, Unterstützung bei der Wahl der Beteiligungsformate oder auch die Finanzierung eines Moderators für die erste Veranstaltung.“

Kein Patentrezept für nachhaltige Kommunalentwicklung
Ein Patentrezept gebe es nicht, meint der Forscher. Doch könnten Kommunen aus den Erfahrungen anderer Gemeinden lernen. Und wenn sie dabei die allgemeinen Regeln beachten, dann sei es sehr wahrscheinlich, gesellschaftlich tragfähige Lösungen zu finden.

„Unsere Befragung hat gezeigt: Am meisten motiviert die Kommunen die eigene positive Erfahrung, ersatzweise auch die anderer Gemeinden. Dann ist die Chance groß, dass die nächsten Male der Prozess ebenfalls erfolgreich ist.“

Hintergrund: Pilotprojekt „Nachhaltige Kommunalentwicklung – Gemeinsam auf dem Weg in die Zukunft“
Das kürzlich abgeschlossene Pilotprojekt „Nachhaltige Kommunalentwicklung – gemeinsam auf dem Weg in die Zukunft“ hat das Ministerium für Umwelt, Klima und Energiewirtschaft in Baden-Württemberg geplant und gefördert. Ziel war es, ein Unterstützungsangebot für Kommunen bei ihrem Weg zu einer nachhaltigen Kommunalentwicklung mit Bürgerbeteiligung zu entwickeln und zu erproben. Beteiligt waren neben dem Ministerium die für Bürgerschaftliches Engagement zuständigen Netzwerke der Kommunalen Landesverbände als dezentrale Beratungsstellen und das Zukunftsbüro Ludwigsburg als zentrale Beratungsstelle.

Die wissenschaftliche Begleitforschung erfolgte durch das Fachgebiet für Kommunikationswissenschaft, insbesondere Kommunikationstheorie an der Universität Hohenheim. Sie hatte zum Ziel mehr über die Unterstützungsangebote herauszufinden, die geeignet sind nachhaltige Entwicklungsprozesse auf kommunaler Ebene anzustoßen und zu verstetigen.

Weitere Informationen:
http://uhoh.de/abschlussberichtnk
„Abschlussbericht Nachhaltige Kommunalentwicklung“

Quelle: idw

(nach oben)


Kraftstoffe, die keine schädlichen Abgase produzieren

Monika Landgraf Presse, Kommunikation und Marketing
Karlsruher Institut für Technologie

Moderne Verbrennungsmotoren werden immer sparsamer und sauberer. Die Motorenentwickler stehen nun jedoch vor dem schwer lösbaren technischen Zielkonflikt, ob Kraftstoffverbrauch oder Abgasemission weiter gesenkt werden. Diesen Gordischen Knoten könnten Chemiker und Ingenieure mit ausgefeilten Kraftstoffen zerschlagen, die helfen, die Verbrennung im Motor zu optimieren. Die Entwicklung im Projekt OME wird vom Bundesministerium für Ernährung und Landwirtschaft (BMEL) über den Projektträger Fachagentur Nachwachsende Rohstoffe e.V. (FNR) nun für drei Jahre mit 800.000 Euro gefördert.

Gleichzeitig Kraftstoffverbrauch, Abgasemission und Nutzerkomfort zu optimieren, führt zu einem technischen Zielkonflikt. Auch die anspruchsvollen Anforderungen an die Abgas-Qualität haben Motoren und Abgas-Nachbehandlung immer komplexer werden lassen. „Die Weiterentwicklung von Diesel- oder Benzin-Kraftstoffen bietet nun eine Chance, die Bildung schädlicher Abgase direkt am Ursprung, nämlich bereits bei der Verbrennung im Motor, zu vermeiden“, erklärt Jörg Sauer, Leiter des Instituts für Katalyseforschung und -technologie am KIT. „Ein vielversprechendes Konzept für Dieselkraftstoffe ist die Verwendung von Oxymethylenethern.“

Oxymethylenether (OME) sind synthetische Verbindungen aus Kohlenstoff, Sauerstoff und Wasserstoff (CH3O(CH2O)nCH3). Aufgrund ihres hohen Sauerstoffgehalts wird die Schadstoffbildung bereits im Verbrennungsstadium unterbunden. Als Dieselkraftstoffe senken sie den Ausstoß von Ruß und Stickoxiden. Allerdings stellt die wirtschaftliche Produktion der OMEs im technischen Maßstab noch eine Herausforderung dar. Das Projekt OME wird an neuen und effizienten Verfahren zur Herstellung des chemischen Produkts OME arbeiten.

OME könnten aus nachwachsenden Rohstoffen, wie am KIT-Projekt bioliq gezeigt, hergestellt werden. So trügen sie nicht nur zur Schadstoffminderung bei, sondern leisten auch einen Beitrag zur Minderung von Kohlendioxidausstoß durch den Verkehr. OME haben ein Verhältnis von Kohlenstoff, Sauerstoff und Wasserstoff, welches stark dem von Biomasse ähnelt, sodass eine Herstellung mit hoher Energie- und Atomeffizienz möglich ist. „Neben der systematischen Variation von Reaktionsparametern wie Druck, Temperatur und Konzentration, müssen auch effiziente Verfahren für die Aufarbeitung der OME entwickelt werden, um eine hohe Kraftstoffqualität zu garantieren“, erläutert Jakob Burger vom Lehrstuhl für Thermodynamik an der TU Kaiserslautern.

Über die Wirkungsweise der OME bei der motorischen Verbrennung und weitere Aspekte der Anwendung von OME im Fahrzeug ist heute noch zu wenig bekannt. Umfangreiche Untersuchungen in Motorentests werden diese Anwendungsaspekte beleuchten und dazu beitragen, Potenziale für die Effizienzsteigerung bei der Anwendung der OME zu verdeutlichen. Diese Untersuchungen sollen einen detaillierten Einblick in die Zusammenhänge zwischen chemischer Struktur der OME und Verbrennungseigenschaften ermöglichen. Ziel ist die Demonstration einer stark vereinfachten Abgasnachbehandlung, die auf Partikelfilter und katalytische Nachbehandlung verzichtet. „Mit dem Einsatz von OME können wir den Kraftstoff als Wirkstoff betrachten. Dies eröffnet uns ein großes Potenzial, den trade-off zwischen Verbrauch und Emissionen zu entschärfen und damit eine nachhaltige Mobilität zu sichern“, so Georg Wachtmeister, Leiter des Lehrstuhls für Verbrennungskraftmaschinen an der TU München.

Im OME-Projekt arbeiten die TU Kaiserslautern, die TU München und der Koordinator KIT zusammen. Das Projekt mit einem Fördervolumen von insgesamt rund 800.000 € ist für die Dauer von drei Jahren angelegt und wird über die Fachagentur Nachwachsende Rohstoffe e.V. als Projektträger des Bundesministeriums für Ernährung und Landwirtschaft (BMEL) gefördert.

Weiterer Kontakt:
Kosta Schinarakis, PKM – Themenscout, Tel.: +49 721 608 41956, Fax: +49 721 608 43658, E-Mail: schinarakis@kit.edu

Kontakt: Monika Landgraf, Pressesprecherin, Leiterin Presse, Tel: +49 721 608-47414, Fax: +49 721 608-43658, E-Mail: presse@kit.edu

Details zum KIT-Zentrum Energie: http://www.energie.kit.edu

Das Karlsruher Institut für Technologie (KIT) verbindet seine drei Kernaufgaben Forschung, Lehre und Innovation zu einer Mission. Mit rund 9 300 Mitarbeiterinnen und Mitarbeitern sowie 25 000 Studierenden ist das KIT eine der großen natur- und ingenieurwissenschaftlichen Forschungs- und Lehreinrichtungen Europas.

KIT – Die Forschungsuniversität in der Helmholtz-Gemeinschaft

Das KIT ist seit 2010 als familiengerechte Hochschule zertifiziert.

Diese Presseinformation ist im Internet abrufbar unter: http://www.kit.edu

Anhang

Kraftstoffe, die keine schädlichen Abgase produzieren
https://idw-online.de/de/attachment48646

Quelle: idw

(nach oben)


Demonstration von intelligenter Energiespeicherung und Energiemanagement auf der Insel Borkum

Anette Mack Presse- und Öffentlichkeitsarbeit
Steinbeis-Europa-Zentrum

Das Leuchtturm-Projekt NETfficient stellt sich einer der größten Herausforderungen des Energiemarktes, verfügbare erneuerbare Energien effizienter nutzen zu können und somit die Abhängigkeit von fossilen Brennstoffen zu reduzieren. Ziel ist die Entwicklung und Demonstration von intelligenter Energiespeicherung und leistungsfähigem Energiemanagement im Pilotbetrieb durch die Einbindung in das reale Netz der Nordseeinsel Borkum (Deutschland).

Nach einem erfolgreichen ersten Jahr stehen im Projekt NETfficient für 2016 der Start des Pilotbetriebs auf der Insel und die Entwicklung der Energie-Management-Plattform im Vordergrund. Bisher konnten rund 46 Endverbraucher für die praktische Anwendung gewonnen werden.

In NETfficient arbeiten 13 renommierte Forschungseinrichtungen, Großunternehmen, KMU und Stadtverwaltungen aus sieben europäischen Ländern an der Umsetzung der Projektziele. Der besondere Schwerpunkt liegt auf der Entwicklung und Demonstration von intelligenter Energiespeicherung und leistungsfähigem Energiemanagement im Pilotbetrieb auf Borkum. Die Projektarbeit ist ferner auf die Verwertung und Verbreitung der Demonstrationsergebnisse ausgerichtet, zur Entwicklung valider und auf andere „Smarte“ Städte und Kommunen übertragbarer Geschäftsmodelle sowie einem erleichterten Markteintritt für innovative Speicher- und Verteilertechnologien. Gefördert wird das Projekt von der Europäischen Kommission durch das Programm Horizont 2020, unter der gesellschaftlichen Herausforderung „Kohlenstoffarme Energien“ mit fast neun Millionen Euro.

Für die Demonstration auf Borkum werden innovative, lokale Speichertechnologien, wie zum Beispiel gebrauchte Batterien von Elektrofahrzeugen und hybride Heimtechnologien im Stromnetz der Insel installiert und analysiert. Die verschiedenen Anwendungsfälle, u.a. Wohnhäuser, öffentliche Gebäude und Straßenbeleuchtung und binden die gesamte Energie-Wertschöpfungskette – von dem Energieerzeuger bis zum Endverbraucher – als aktive „Prosumenten“ (Konsumenten, die gleichzeitig auch Stromproduzenten sind) ein. Die Analyse dieser marktnahen Energiebedarfsszenarien liefern wertvolle Daten zur Bewertung der Wirtschaftlichkeit und Vorhersage der Lebenserwartung.

Zur Vorbereitung der für 2016 geplanten Implementierung lag der Fokus im vergangenen Jahr insbesondere auf der Konzeption und Präzisierung der Anwendungsfälle hinsichtlich der Anforderungen des Endverbrauchers.
Zur Gewinnung von Endverbrauchern für diese Anwendungsfälle und zur Bewerbung der innovativen Technologien präsentierte sich NETfficient in seinem ersten Jahr erfolgreich auf Fach- und Verbrauchermessen. Insgesamt interessieren sich bisher ca. 46 Endverbraucher für die Anwendungsfälle „Wohnhäuser“ (40) und „Öffentliche Gebäude“ (6).

Zur erfolgreichen Bewerbung des Projekts trägt auch die eigene Webseite (http://netfficient-project.eu) bei. Inzwischen dient sie als umfangreiche Informationsplattform. Printmaterialien, wie die Projektbroschüre, der erste Projektnewsletter (Download: http://netfficient-project.eu/downloads) und Aktivitäten in den Sozialen Medien ergänzen die Öffentlichkeitsarbeit für das Projekt.

Das nächste Projekttreffen ist für Juni 2016 in Cagliari, Hauptstadt von Sardinien, geplant. Die Stadt beheimatet nicht nur zwei der Forschungspartner, sondern ist als potenzieller frühzeitiger Anwender auch sehr an den Projektergebnissen interessiert. Mitarbeiter der Stadt sind im Beratungsausschuss des Projektes vertreten.

Kontakt: NETfficient-Büro für Kommunikation
Dr. Annette C. Hurst, Steinbeis-Europa-Zentrum
E-Mail: hurst@steinbeis-europa.de, Phone: +49 (0)721 935 19126

NETfficient wird koordiniert von Ayesa Advanced Technologies S.A. in Kooperation mit zwölf weiteren Partnern: Williams Advanced Engineering, Fraunhofer Institute for Solar Energy Systems ISE; Win Inertia; Center for Advanced Studies, Research and Development in Sardinia (CRS4); Steinbeis-Europa-Zentrum; Department of Electrical and Electronic Engineering (DIEE) of the University of Cagliari; Ayuntamiento de Santander, City Council’s Information and Communications Department; Swerea IVF; PowerTech Systems; Wirtschaftsbetriebe der Stadt NSHB Borkum GmbH; Schneider Electric GmbH und Vandenborre Energy Systems NV und wird von dem Forschungs- und Innovationsprogramm Horizont 2020 mitfinanziert, Projekt Nr. 646463.

Weitere Informationen:
http://www.netfficient-project.eu – Über das Projekt NETfficient

Quelle: idw

(nach oben)


Thermoelektrik: Abwärme direkt in Strom wandeln

Rüdiger Mack Marketingkommunikation
FIZ Karlsruhe – Leibniz-Institut für Informationsinfrastruktur GmbH

Beim Automotor, bei der Beheizung des Hauses und in industriellen Prozessen, überall wird ein Teil der eingesetzten Energie als Abwärme an die Umgebung abgegeben. Thermoelektrische Generatoren können dieses bisher größenteils ungenutzte Energiereservoir erschließen. Das neue BINE-Themeninfo „Thermoelektrik: Strom aus Abwärme“ (I/2016) stellt auf 24 Seiten die technischen Grundlagen, laufende Forschungsprojekte und aussichtsreiche Anwendungsgebiete vor.

Thermoelektrische Generatoren können kleinste Temperaturdifferenzen nutzen
Thermoelektrik funktioniert in zwei Richtungen: Sie kann Wärme direkt in Strom umwandeln oder, als sogenanntes Peltierelement, mit elektrischer Energie Kälte erzeugen. Vereinfacht bestehen thermoelektrische Elemente aus zwei verschieden leitfähigen Materialien, deren elektrische Kontakte sich in unterschiedlichen Temperaturbereichen befinden. Durch die Differenz zwischen beiden Temperaturen entsteht eine elektrische Spannung und damit Strom. Mittlerweile sind die Elemente in der Lage bis zu 1.000 Watt zu erzeugen. Neue Materialien werden größere Temperaturdifferenzen verarbeiten können und damit noch höhere Leistungen erzeugen. Großer Vorteil von thermoelektrischen Elementen ist, dass sie vibrationsfrei, geräuschlos und ohne bewegliche Teile arbeiten. Damit sind sie vergleichsweise wartungsarm und langlebig.

Bisher werden thermoelektrische Elemente insbesondere in der Raumfahrt, z. B. im Marsrover Curiosity, für energieautarke und wartungsfreie Sensoren, für die Kühlung von elektrischen Geräten sowie in lautlosen Hotelkühlschränken und Campingkühlboxen eingesetzt. Zukünftig könnten die Elemente eine stärkere Rolle im Automobilbau, z. B. für eine Unterstützung der Bordstromversorgung, und in der industriellen Abwärmenutzung spielen. Dr. Jan König, vom Fraunhofer-Institut für physikalische Messtechnik, koordinierte für dieses BINE-Themeninfo eine Gruppe von Autoren, die in deutschen Forschungsinstituten und Firmen zu diesem Thema arbeiten.

Das BINE-Themeninfo ist kostenfrei beim BINE Informationsdienst von FIZ Karlsruhe erhältlich – unter www.bine.info oder 0228 – 92379-0.

BINE Informationsdienst ist ein Service von FIZ Karlsruhe und wird vom Bundesministerium für Wirtschaft und Energie (BMWi) gefördert.

FIZ Karlsruhe – Leibniz-Institut für Informationsinfrastruktur ist eine gemeinnützige Gesellschaft, die im öffentlichen Auftrag weltweit publizierte wissenschaftliche Information zugänglich macht und entsprechende Dienstleistungen zur Verfügung stellt. FIZ Karlsruhe hat die Aufgabe, den nationalen und internationalen Wissenstransfer und die Innovationsförderung zu unterstützen.

Weitere Informationen:

http://www.bine.info/en – BINE Information Service – Energy research for practical applications
http://www.twitter.com/bineinfo – Folgen Sie BINE Informationsdienst aktuell auf Twitter
https://www.facebook.com/BINE.Informationsdienst – Auch auf Facebook mit aktuellen News und Infos rund um die Uhr

Quelle: idw

(nach oben)


Erneuerbare Energien aus organischen Abfällen

Christian Wißler Mediendienst Forschung
Universität Bayreuth

Die Universität Bayreuth koordiniert ein neues Verbundprojekt zur optimierten kommunalen Energieversorgung.

Organische Abfälle sind eine Ressource für die Energiegewinnung, die im Zuge der ‚Energiewende‘ weiter an Bedeutung gewinnen wird. Bisher werden sie jedoch nur im Umkreis größerer Städte zur Energieversorgung genutzt. Denn erst ab 200.000 Einwohnern entstehen pro Jahr so große Mengen organischer Abfälle, dass diese für die Energieerzeugung in Biogasanlagen wirtschaftlich genutzt werden können. Hier setzt das neue bayerische Forschungsprojekt FOR10‘000 an. Es wird vom Lehrstuhl für Bioprozesstechnik an der Universität Bayreuth unter der Leitung von Prof. Dr. Ruth Freitag koordiniert und von der Bayerischen Forschungsstiftung für die nächsten zwei Jahre mit 600.000 Euro gefördert. Die Projektpartner aus Wissenschaft und Industrie wollen gemeinsam ausloten, wie organische Abfälle auch in kleineren Städten und ländlichen Regionen optimal im Sinne einer Kreislaufwirtschaft verwertet werden können.

Eine Beispielregion bilden dabei die Stadt und der Landkreis Bayreuth, in denen jährlich rund 10.000 Tonnen Biomüll anfallen. Das Ziel ist es, für die Energiegewinnung und -nutzung aus diesen Abfällen ein realistisches, langfristig angelegtes Konzept zu erarbeiten. Es soll neueste technologische Entwicklungen einbeziehen, in wirtschaftlicher Hinsicht attraktiv sein und auf kommunaler Ebene umgesetzt werden können. Ein wichtiger Aspekt sind dezentrale Formen der Energiegewinnung, die es kleineren Betrieben oder Privathaushalten ermöglichen, vergleichsweise geringe jährliche Abfallmengen zur Eigenversorgung mit Energie zu nutzen. Damit würde die Unabhängigkeit von großen Stromnetzen steigen.

Ein Verbund von Kompetenzen aus Wissenschaft und Praxis
Seitens der Universität Bayreuth bringen zahlreiche Lehrstühle der Fakultät für Ingenieurwissenschaften ihre speziellen Kompetenzen in der Energieforschung und Energietechnik in das Projekt ein. Darüber hinaus sind auch Partner an der Ostbayerischen Technischen Hochschule Amberg-Weiden sowie an den Hochschulen für Angewandte Wissenschaften in Coburg und Hof beteiligt. „Mit diesen beiden Hochschulen ist die Universität Bayreuth bereits im Rahmen der TechnologieAllianzOberfranken (TAO) vernetzt, und wir begrüßen es sehr, dass diese Kooperation durch FOR10‘000 weiter gestärkt wird“, freut sich Prof. Freitag. „Bei aller wissenschaftlichen Begeisterung ist auch die konkrete technische Umsetzbarkeit gewährleistet. Dafür sorgen kleine und mittlere Unternehmen aus dem nordbayerischen Raum – sei es aus dem Anlagenbau oder der Energie- Gas- und Materialtechnik – sowie einige Betreiber von Biogas-, Klär- und Kompostieranlagen in Oberfranken, die gleichfalls am Projekt beteiligt sind.“ Die Bayreuther Projektleiterin verweist zudem auf die enge Zusammenarbeit mit der Bioenergieregion Bayreuth und dem Fachverband Biogas: „Beide Partner haben uns bei der Vorbereitung des Projekts nachdrücklich unterstützt.“

In FOR10‘000 werden insgesamt sechs Nachwuchswissenschaftler an ihren Dissertationsvorhaben arbeiten und auf diese Weise wichtige Kontakte für ihre weitere berufliche Entwicklung knüpfen können. Drei dieser Projekte werden direkt an der Universität Bayreuth angesiedelt sein, die drei anderen werden im Rahmen von koordinierten Promotionsvor-haben gemeinsam mit den beteiligten Fachhochschulen durchgeführt.

Biogas aus Abfällen – ein vielversprechender Energieträger
Die Projektpartner stimmen in der Einschätzung überein, dass das bei der Verarbeitung organischer Abfälle entstehende Biogas einen stofflichen Energieträger darstellt, dessen Potenziale noch längst nicht ausgeschöpft sind. So produziert beispielsweise ein in Bayreuth angesiedeltes Biomasseheizkraftwerk, das jährlich rund 4.000 Tonnen Biomasse verbraucht, täglich rund 2.600 Kubikmeter Biogas; hiermit können mehr als 18.000 Kilowattstunden Strom erzeugt werden. In solchen ‚klassischen‘ NaWaRo-Anlagen wird das Biogas allerdings aus nachwachsenden Rohstoffen wie Mais oder Zuckerrüben gewonnen. „Die gegenwärtige energiepolitische Entwicklung läuft darauf hinaus, dass man solche landwirtschaftlichen Produkte – die ja auch Nahrungsmittel sind – mit Recht nicht länger im bisherigen Umfang für die Energieerzeugung einsetzen will“, meint Prof. Freitag und fügt hinzu: „Bio-Abfälle sind ein viel interessanterer Rohstoff, zumal die Frage der Entsorgung für zahlreiche Kommunen immer drängender wird.“

Die Zusammensetzung organischer Abfälle ist allerdings sehr vielfältig und schwankt mit den Jahreszeiten erheblich. Ein wichtiger Aspekt von FOR10‘000 ist daher die sogenannte ‚Substratvorbehandlung‘. Hierbei geht es um die Entwicklung von Technologien, mit denen verschiedenste Arten von Bio-Müll so zusammengeführt und aufbereitet werden, dass sie in ein und derselben Biogasanlage weiterverarbeitet werden können. Der in Biotonnen gesammelte organische Müll aus Privathaushalten und landwirtschaftliche Abfälle wie beispielsweise Gülle sollen gleichermaßen verwertbar sein. Damit wird der Betrieb von Biogasanlagen erheblich flexibler, weil sie nicht länger von einem einzigen Substrat abhängig sind.

Veredelung von Biogas und regenerative Stromerzeugung
Ein weiterer innovativer Schwerpunkt des Projekts ist die Veredelung von Biogas zu Methan. Das aus organischen Abfällen erzeugte Biogas setzt sich ungefähr jeweils zur Hälfte aus Methan und Kohlendioxid (CO2) zusammen. Für das Methan gibt es vielfältige Verwendungsmöglichkeiten: Es kann in das Erdgasnetz eingespeist werden oder auch an Gas-Tankstellen weitergeleitet und hier beispielsweise für Fahrzeuge des öffentlichen Nahverkehrs genutzt werden. Zudem lässt sich das Methan in mobilen Gasflaschen speichern und je nach Bedarf einsetzen. Was aber geschieht mit dem Kohlendioxid? Durch eine – nach dem Chemiker Paul Sabatier benannte – katalytische Reaktion können CO2 und Wasserstoff zu Methan und Wasser umgewandelt werden. So kann der Methangehalt des Biogases auf mehr als 90 Prozent gesteigert werden, das auf diese Weise die Qualität von Erdgas gewinnt.

Es ist eine ökologische Pointe dieses Verfahrens, dass sich damit eine Chance für die optimale Nutzung von Solar- und Windkraftanlagen eröffnet. Hier wird zu Spitzenzeiten oftmals Strom produziert, der von den Stromkunden nicht unmittelbar abgerufen wird und die Stromnetze überlastet. Diese überschüssige Energie kann zur Elektrolyse von Wasser genutzt werden: So entsteht genau der Wasserstoff, der für die Biogas-Veredlung benötigt wird.

Rückgewinnung von Wertstoffen
Organische Abfälle enthalten häufig Wertstoffe, die wesentlich zur Fruchtbarkeit von Böden oder zur Qualität pflanzlicher Lebensmittel beitragen – wie etwa Phosphat, Stickstoff, Mineralien oder organische Fasern. Die Partner in FOR10‘000 wollen darauf hinarbeiten, dass diese Wertstoffe bei der Biogas-Produktion nicht verlorengehen, sondern der Landwirtschaft wieder zur Verfügung gestellt werden können. Dafür sollen, dem aktuellen Stand der Technik entsprechend, möglichst kostengünstige Verfahren der Rückgewinnung etabliert werden.

Auf dem Weg zu neuen kommunalen Dienstleistungen
Auch wenn das Forschungsprojekt sich an vielen Stellen mit Detailfragen der technologischen und wirtschaftlichen Optimierung befassen wird, wollen die Projektverantwortlichen dabei nicht stehen bleiben. Sie betonen vielmehr, dass es letztlich darum geht, leistungsstarke kleine und mittlere Biogas-Anlagen in kommunale Gesamtsysteme der Energieversorgung und Abfallverwertung zu integrieren. FOR10‘000 versteht sich daher nicht nur als wissenschaftliches Vorhaben, sondern will überdies einen Weg zu innovativen öffentlichen Dienstleistungen bahnen, die konkret zur Energiewende beitragen. „Wir freuen uns daher besonders über die politische Unterstützung, die wir bei der Vorbereitung des Projekts erfahren haben – sei es von der Oberbürgermeisterin der Stadt Bayreuth, dem Landrat des Landkreises Bayreuth oder dem Bayerischen Staatsminister der Finanzen, für Landesentwicklung und Heimat. Auch der Bayerischen Forschungsstiftung möchten wir noch einmal ausdrücklich für die großzügige Förderung danken“, so Prof. Freitag.

Kontakt:
Prof. Dr. Ruth Freitag
Lehrstuhl für Bioprozesstechnik
Fakultät für Ingenieurwissenschaften
Universität Bayreuth
95447 Bayreuth
Tel.: +49 (0)921 55-7371
E-Mail: ruth.freitag@uni-bayreuth.de

Quelle: idw

(nach oben)


Gewässerschutz als Thema auf der Woche der Umwelt 2016

Nadja Neumann Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)

Nun stehen die Aussteller für die „Woche der Umwelt“ 2016 fest. Die Umweltschau des Bundespräsidenten und der Deutschen Bundesstiftung Umwelt (DBU) findet am 7. und 8. Juni im Park von Schloss Bellevue in Berlin statt. Aus über 600 Bewerbungen wählte die Jury 190 Projekte aus. Das IGB ist mit dabei und präsentiert das Seelabor, eine große Versuchsanlage, um die Auswirkungen des Klimawandels auf Seen zu erforschen. Außerdem stellt das IGB das Projekt Moneris vor, welches die Nährstoffbelastungen von Flüssen im Fokus hat.

Bundespräsident Joachim Gauck lädt am 7. und 8. Juni 2016 gemeinsam mit der Deutschen Bundesstiftung Umwelt (DBU) zur „5. Woche der Umwelt“ in den Park von Schloss Bellevue ein. Rund 190 Partner und Institutionen aus Wirtschaft, Wissenschaft, Zivilgesellschaft, Politik und Medien werden im Juni ihre innovativen Vorhaben zu den Umwelt- und Nachhaltigkeitsthemen Klimaschutz, Energie, Ressourcen, Boden und Biodiversität, Mobilität und Verkehr, Bauen und Wohnen am Amtssitz des Bundespräsidenten ausstellen.
Vielfältig sind die Einflüsse des globalen Umweltwandels auf Flüsse und Seen. So untersucht das Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB), wie sich eine veränderte Landnutzung, intensivere Landwirtschaft und der fortschreitende Klimawandel auf Gewässer weltweit auswirken und entwickelt Maßnahmen für den Schutz aquatischer Ökosysteme. Exemplarisch dafür stehen die Projekte Moneris und Seelabor, die u.a. vom Bundesministerium für Bildung und Forschung (BMBF) gefördert werden. Das prozessorientierte mathematische Modell Moneris quantifiziert die Einträge und den Verbleib von Nährstoffen in Flüssen und Flusseinzugsgebieten. Es umfasst auch einen Szenariomanager, der Management-Alternativen zur Verbesserung der Wasserqualität hinsichtlich Wirtschaftlichkeit und Nachhaltigkeit vergleicht. Moneris wird bereits in 27 Ländern in Europa, Asien, Afrika, Nord- und Südamerika angewandt. Das Seelabor ist eine große Feldversuchsanlage im brandenburgischen Stechlinsee. Hier wird erforscht, wie sich der Klimawandel auf Seen auswirkt. Die weltweit einzigartige Forschungsplattform besteht aus 24, vom umgebenden Wasser bis zum Gewässergrund abgetrennten Versuchszylindern von je 9 m Durchmesser und 20 m Tiefe. Dort werden zukünftige Klimaszenarien wie extreme Wetterereignisse simuliert und analysiert.
Klement Tockner, Direktor des IGB, betont die Bedeutung von Grundlagenforschung und lösungsorientierter Forschung, um effiziente Konzepte zum Gewässerschutz zu entwickeln: „Eine fundierte Datenbasis zum Zustand und zur Veränderung der Gewässer und ihrer Lebensgemeinschaften ist zentral für alle Entscheidungen. Nur mit einem flächendeckenden Gewässer-Monitoring, umfassenden Freilandexperimenten und aussagekräftigen Vorhersagemodellen können wirksame Vorsorgemaßnahmen getroffen werden. Exemplarisch für diesen Ansatz stehen die beiden Projekte Moneris und Seelabor.“
„Anders als bei Laborexperimenten finden die Versuche im Seelabor in der natürlichen Umwelt statt und berücksichtigen die Komplexität des Ökosystems. Diese Forschung unter realitätsnahen Bedingungen ist das Besondere am weltweit einzigartigen Seelabor. So können wir Ursache und Wirkung in einen direkten Zusammenhang bringen“, ergänzt Mark Gessner, Leiter der IGB-Abteilung Experimentelle Limnologie und des Seelabors.

Kontakt:
Nadja Neumann/ Angelina Tittmann
Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Müggelseedamm 310
12587 Berlin
Tel: 030 64181-975/-631
E-Mail: pr@igb-berlin.de

Dr. Martina Bauchrowitz
Öffentlichkeitsarbeit Seelabor
Tel.: 0151 40 38 09 62
E-Mail: seelabor@igb-berlin.de

Weitere Informationen zum IGB:
Die Arbeiten des IGB verbinden Grundlagen- mit Vorsorgeforschung als Basis für die nachhaltige Bewirtschaftung der Gewässer. Das IGB untersucht dabei die Struktur und Funktion von aquatischen Ökosystemen unter naturnahen Bedingungen und unter der Wirkung multipler Stressoren. Forschungsschwerpunkte sind unter anderem die Langzeitentwicklung von Seen, Flüssen und Feuchtgebieten bei sich rasch ändernden globalen, regionalen und lokalen Umweltbedingungen, die Entwicklung gekoppelter ökologischer und sozioökonomischer Modelle, die Renaturierung von Ökosystemen und die Biodiversität aquatischer Lebensräume. Die Arbeiten erfolgen in enger Kooperation mit den Universitäten und Forschungsinstitutionen der Region Berlin/Brandenburg und weltweit. Das IGB gehört zum Forschungsverbund Berlin e. V., einem Zusammenschluss von acht natur-, lebens- und umweltwissenschaftlichen Instituten in Berlin. Die vielfach ausgezeichneten Einrichtungen sind Mitglieder der Leibniz-Gemeinschaft.

Weitere Informationen:
http://www.igb-berlin.de
http://www.seelabor.de
http://www.moneris.igb-berlin.de
https://www.woche-der-umwelt.de

Quelle: idw

(nach oben)


Nicht die Ungleichheit ist das Neue, sondern die Unsicherheit

Dr. Jennifer Villarama Presse- und Öffentlichkeitsarbeit
Soziologisches Forschungsinstitut Göttingen (SOFI)

Die Oxfam-Studie „An economy for the 1%“ hat auch in Deutschland eine neue Debatte um die Verteilung von Reichtum ausgelöst. Ihre Ergebnisse lassen sich aber nicht eins zu eins auf die hiesige, aktuelle Lage übertragen. Der dritte Bericht zur sozioökonomischen Entwicklung in Deutschland (soeb 3) zeigt, dass die Ungleichheit seit den 1980er-Jahren deutlich zugenommen hat, aber dass sich für den Moment dieser langjährige Trend in Deutschland abschwächt. Von neuer, besorgniserregender Qualität sind aus Sicht des Forschungsverbunds jedoch makroökonomische Unsicherheiten, die hinter der relativ guten konjunkturellen Lage verdeckt sind und in der Öffentlichkeit zu wenig wahrgenommen werden.

Die Oxfam-Studie „An economy for the 1%“ hat auch in Deutschland eine neue Debatte um die Verteilung von Reichtum ausgelöst. Die Ergebnisse einer globalen Langzeitstudie lassen sich aber nicht eins zu eins auf die Lage in einzelnen Ländern übertragen. Der dritte Bericht zur sozioökonomischen Entwicklung in Deutschland (soeb 3), der im August 2016 erscheint, wird zeigen, dass die Ungleichheit seit den 1980er-Jahren deutlich zugenommen hat. Zwar hat sich für den Moment dieser langjährige Trend in Deutschland abgeschwächt. Von neuer, besorgniserregender Qualität sind aus Sicht des Forschungsverbunds jedoch makroökonomische Unsicherheiten, die hinter der relativ guten konjunkturellen Lage verdeckt sind und in der Öffentlichkeit zu wenig wahrgenommen werden – auch hinsichtlich ihrer Konsequenzen für die Verteilungsentwicklung. Im Falle potenzieller Verschlechterungen der Rahmenbedingungen oder gesamtwirtschaftlicher Schocks muss mit einer wieder zunehmenden Ungleichheit von Ressourcen und Teilhabe gerechnet werden.

Die Ursachen für die Fragilität der makroökonomischen Erfolge liegen erstens in Risiken im Finanzsystem, die seit Beginn der Krise im Jahr 2008 zugenommen haben: Da Unternehmen seither weniger Außenfinanzierung in Anspruch nehmen, beobachten wir eine Verschiebung der Kreditvergabe durch Banken weg von Unternehmen und hin zu privaten Haushalten, häufig auch als Immobilienkredite. Wie schon im Vorfeld der Subprime-Krise in den USA – die am Anfang der Verwerfungen in 2007 stand – birgt dies die Gefahr, dass sich eine Überschuldungsproblematik bei Privathaushalten aufbaut, wenn die Niedrigzinsphase ausläuft und Immobilienpreise nachgeben. Dies könnte negative Rückwirkungen auf die kreditvergebenden Finanzinstitutionen und damit das Finanzsystem haben. Zweitens liegen in dem für Deutschland so wichtigen Außenhandel Unsicherheiten im Zusammenhang mit der geopolitischen und finanziellen Situation der Handelspartner: Seit Beginn des 21. Jahrhunderts haben sowohl die Risiken als auch die Erfolgschancen aufgrund der deutschen Exporte erheblich zugenommen. Durch Abhängigkeiten im Außenhandel sind gleichzeitig über Kapitalexporte deutsche Vermögen im Ausland angehäuft worden, die von Ausfall bedroht sind.

Im selben Zeitraum verlangsamte sich der langjährige Trend der immer weiteren Abkoppelung ärmerer Bevölkerungsschichten. Während die Krise von 2008 viele europäische Länder vor Herausforderungen wie hochschnellende Arbeitslosenquoten stellte, kam Deutschland relativ gut mit den Problemen zurecht: das Wachstum des Niedriglohnsektors wurde gestoppt, die Lohnquote stieg, die Arbeitslosigkeit ging bis heute auf historische Tiefstände zurück und sozialversicherungspflichtige Beschäftigung nahm wieder zu. Allerdings hat die günstige Wirtschaftslage nicht zu einer Umkehr der Verteilungsentwicklung geführt. Vielmehr verharren Ungleichheits- und Armutsindikatoren auf hohem Niveau. Wenn aber – wie schon mehrfach seit den 1980er Jahren – makroökonomisch gegebene Verteilungsspielräume nicht zu einem Aufholprozess für Verlierer früherer Episoden führen, muss damit gerechnet werden, dass der Trend zunehmender Armut und Ausgrenzung nur unterbrochen wurde und sich in der nächsten Krise fortsetzt – ganz abgesehen von den Effekten der jüngsten Flüchtlingswelle. Dass die skizzierten makroökonomischen Risiken gegebenenfalls zu einem neuerlichen Abwärts für untere Einkommensschichten führen, ist auch vor dem Hintergrund anzunehmen, dass die Schutzfunktion sowohl des Haushaltskontextes als auch sozialstaatlicher Netze vor relativer Einkommensarmut seit der Jahrtausendwende abgenommen hat (verbundinterne Analysen).

Auch in Deutschland scheint die von Oxfam ausgelöste Ungleichheitsdebatte daher seit langem schon mehr als angebracht. Es sollten jedoch auch aktuelle Entwicklungen und zukünftige Risiken in den Blick genommen werden: Es muss darüber nachgedacht werden, welche makroökonomischen Stellschrauben neu zu justieren sind, um die derzeit vergleichsweise günstige Lage vor einem drohenden Einbruch zu bewahren. Gleichzeitig sollte geprüft werden, welche steuer- und sozialpolitischen Maßnahmen zur Korrektur der Ungleichheit und zur Vermeidung einer erneut zunehmenden Spreizung der Teilhabechancen geeignet sind.

Kontakt:
Dr. René Lehweß-Litzmann
Soziologisches Forschungsinstitut Göttingen (SOFI) e.V.
Friedländer Weg 31
D-37085 Göttingen
Fon: ++49 (0)551 52205-26
E-Mail: rene.lehwess@sofi.uni-goettingen.de

Der Forschungsverbund soeb wird seit 2000 vom Bundesministerium für Bildung und Forschung (BMBF) gefördert.

Weitere Informationen unter www.soeb.de

Anmeldung soeb-Newsletter an: Sarah Cronjäger (sarah.cronjaeger@sofi.uni-goettingen.de)

Weitere Informationen:

http://www.soeb.de
http://www.sofi.uni-goettingen.de

Quelle: idw

(nach oben)


Eine kompakte Biogasanlage für alle Arten von Substraten

Marie de Chalup Wissenschaftliche Abteilung
Wissenschaftliche Abteilung, Französische Botschaft in der Bundesrepublik Deutschland

Das Start-up Mini-Green Power aus Hyères (Provence-Alpes-Côte-d’Azur) hat eine neuartige Biogasanlage entwickelt, die sich für kleine und ländliche Gemeinden eignet. Das Konzept ist ein Alleskönner, der eine Vielzahl von unterschiedlichen Substraten verwerten kann: Abfälle aus der Agrarindustrie (z.B. Schalen und Kerne), Holz, Stroh, Bioabfälle aus Haushalten etc. Grundsätzlich kann die Anlage alle Arten von Biomasse verwerten, solange sie einen Feuchtigkeitsgrad von unter 60% aufweisen.

Das Start-up Mini-Green Power aus Hyères (Provence-Alpes-Côte-d’Azur) hat eine neuartige Biogasanlage entwickelt, die sich für kleine und ländliche Gemeinden eignet. Das Konzept ist ein Alleskönner, der eine Vielzahl von unterschiedlichen Substraten verwerten kann: Abfälle aus der Agrarindustrie (z.B. Schalen und Kerne), Holz, Stroh, Bioabfälle aus Haushalten etc. Grundsätzlich kann die Anlage alle Arten von Biomasse verwerten, solange sie einen Feuchtigkeitsgrad von unter 60% aufweisen.

Die Anlage ist in drei Module untergliedert: in einen Biomasse-Speicher mit einer Trocknungsfunktion, um die Feuchtigkeit der Anlage anzupassen (der Biomasseverbrauch pro Jahr beträgt zwischen 2 000 und 2 500 Tonnen), einen Vergaser, mit dem die Biomasse in Synthesegas umgewandelt wird und einen Kessel, in dem das aufbereitete Gas unmittelbar danach verfeuert wird. Für den Einsatz der Anlage gibt es zwei Möglichkeiten: Entweder wird die erzeugte Wärme direkt zu einer Turbine mit einer Kraft-Wärme-Kopplung geleitet oder die Wärme wird für die Beheizung von Gebäuden und für die Trocknung von Holz oder Klärschlämmen genutzt. Die Leistung der ersten Option beträgt 36 kW elektrisch und 120 kW thermisch. Bei der zweiten Option können mit der Anlage ungefähr 12 000 m3 Gebäude beheizt (ca. 50 Wohnungen von 100 m2) oder zwischen 600 und 1 000 kg Biomasse pro Stunde getrocknet werden. Das Gewicht der getrockneten Klärschlämme wird auf ein Drittel reduziert und kann somit einfacher transportiert werden. Beim Holz wird das Gewicht ebenfalls reduziert, wobei der Brennwert, und somit der Handelswert, verdoppelt wird. Insgesamt wurden drei Patente für das grüne Mini-Kraftwerk eingereicht.

Das Konzept von Mini-Green Power wurde gemeinsam mit der französischen Behörde für Atomenergie und alternative Energien (CEA) entwickelt. Das Unternehmen wurde bei der Gründung (2014) vom Start-up Inkubator Incubateur Paca-Est (IPE) unterstützt und erhielt einen rückzahlbaren Vorschuss von 400.000 € von der öffentlichen Investitionsbank BPIfrance.

Weitere Informationen:
Webseite von Mini-Green Power (auf Englisch und Französisch): minigreenpower.com

Quelle: „La start-up provençale Mini-Green Power présente à la Cop21“, Pressemitteilung von Mini-Green Power, 13.10.2015 – http://media.wix.com/ugd/5465da_a5e4b010c1a34e50a4997437d79e96fa.pdf

Redakteur: Sean Vavasseur, sean.vavasseur@diplomatie.gouv.fr

Weitere Informationen:
http://www.wissenschaft-frankreich.de/de/umwelt-klima-agronomie/eine-kompakte-bi…

Quelle: idw

(nach oben)


Forscher der Uni Rostock wollen Meinung der Bürger zu „ihren“ Gewässern

Ingrid Rieck Presse- und Kommunikationsstelle
Universität Rostock

Rostock wird zur Modell-Region für Deutschland

Was sind den Rostockern ihre kleinen städtischen Gewässer und Feuchtgebiete wert? „Klimawandel, Hochwasserschutz, aber auch Gewässerentwicklung, das sind Themen, um die länger kein Bogen mehr gemacht werden kann und sollte“, sagt Professor Jens Tränckner von der Universität Rostock, der eine Stiftungsprofessur von Eurawasser innehat. Ein wichtiger Aspekt seiner aktuellen Forschung ist eine anonyme Internetumfrage (https://www.kogge.auf.uni-rostock.de/).

Auf der Plattform sollen sich Rostocker, Bewohner des Landkreises, aber auch Besucher der Stadt darüber äußern, welchen Stellenwert sie den kommunalen Gewässern beimessen und welche Erwartungen sie mit diesen Gewässern verbinden. Bei der Umfrage soll auch herausgefunden werden, wie groß die Bereitschaft der Menschen ist, einen eigenen Beitrag für den Gewässerschutz zu leisten.

Tränckner leitet das Forschungs-Verbund-Projekt „KOGGE“ der Universität Rostock, das der Bund in den nächsten drei Jahren mit 1,5 Millionen Euro fördert. Ziel: Kommunale Gewässer, kurz „KOGGE“ sollen gemeinschaftlich gefördert werden. Rostock ist damit Modell-Region für Deutschland. Das sei bisher einzigartig für eine „kleinere“ Großstadt. So wird es möglich, den Zustand kleiner Fließgewässer zu erfassen und zu verbessern.

Nach den verheerenden Überschwemmungen durch Starkregen im Sommer 2011 haben die Rostocker Akteure bereits ein integrales Entwässerungskonzept (INTEK) erarbeitet. Mit dem Verbundprojekt KOGGE solle jetzt, so Professor Tränckner, ein strategisches, stadtübergreifendes Gewässerentwicklungskonzept nachgelegt und auf den Weg gebracht werden.

Über 200 Kilometer so genannte Fließ-und Standgewässer wie beispielsweise Bäche, Gräben und auch die Warnow ziehen sich durch Rostock. Nur ein Bruchteil davon wird regelmäßig gepflegt, so wie die Europäische Wasserrahmenrichtlinie es fordert. Wie es um die Gewässer ganz konkret bestellt ist, das soll jetzt mit dem stadtübergreifenden Gewässerentwicklungskonzept herausgefunden werden. „Wir nehmen die Gewässer unter die Lupe, vor allem mit Blick auf ihren ökologischen Aspekt, aber ebenso auf den Hochwasserschutz und die Siedlungsentwässerung“, sagt Prof. Tränckner. Wichtige Aspekte für den Wissenschaftler sind sowohl die Zustandsanalyse aber auch die Pflege der Gewässer.

Das Konzept trägt die verschiedensten Handschriften von Akteuren der Rostocker Wasserwirtschaft. Mit im Boot sind neben der Universität Rostock der Wasser-und Bodenverband Untere Warnow-Küste, Eurawasser Nord sowie das Institut für ökologische Forschung und Planung GmbH (biota). Praxispartner sind das Staatliche Amt für Landwirtschaft und Umwelt Mittleres Mecklenburg sowie das Landesamt für Umwelt, Naturschutz und Geologie MV.

So wird es möglich, eine gemeinsame web-basierte Geodatenstruktur aufzubauen. Um zuverlässige Analysen und Daten zu bekommen, werden auch Drohnen eingesetzt. So können Geländemodelle in Zentimeterqualität erstellt werden. „Alle Partner werden dann Zugriff auf die Daten haben“, sagt Prof. Tränckner. Für ihn sei das ein entscheidender Aspekt, um frühzeitig mögliche Hochwasserrisiken bewerten zu können. Für den Forscher ist es „äußerst wichtig“, wie er mehrfach betont, „die Bürger frühzeitig in die Entwicklung des Gewässerkonzeptes einzubeziehen“.

Die Hansestadt ist zwar nicht projektfinanzierter Partner, jedoch u.a. mit der Bereitstellung von Daten, insbesondere den Ergebnissen aus dem Projekt Integriertes Entwässerungskonzept (INTEK) sowie dessen Fortschreibung- und aktiver Mitwirkung in der Projektgruppe KOGGE beteiligt. Das Gewässermonitoring des Amtes für Umweltschutz am Schmarler Bach passe sich in die gleichartige Zielsetzung des großräumig angelegten Forschungsvorhabens KOGGE ein. Das Konzept für das Monitoring des Schmarler Bachs ist beispielsweise gerichtet auf kontinuierliche Durchflusserfassung, Bestimmung der Sedimentfracht, des Wirkungsgrades des Schöpfwerks, kontinuierliche Messung stofflicher Leitparameter zur Bestimmung der Gewässercharakteristik aus hydrologischen und stofflichen Parametern sowie der Optimierung der Wehrsteuerung am Schöpfwerk Schmarler Bach.
Im Haushalt des Amtes für Umweltschutz für die Jahre 2015/2016 sind Gelder in Höhe von 20000 Euro eingeplant. Sie werden für die Planung, Beschaffung und Inbetriebnahme einer Durchflussmessstelle entsprechend des KOGGE-Pegelkonzeptes der Universität Rostock am Schmarler Bach eingesetzt. Text: Wolfgang Thiel

Stadt unterstützt Forschung der Uni
Das Forschungsprojekt findet großes Interesse im Rostocker Rathaus. „Der mit KOGGE verfolgte Ansatz, Hochwasserschutz, Flächennutzung und ökologische Gewässerentwicklung zu einem funktionsfähigen Gesamtkonzept zu vereinen, entspricht in vollem Umfang den Interessen der Hansestadt“, sagt Sven Schmeil, Abteilungsleiter im Umweltamt. Gerade die Anpassung an Klimaänderungen und die Verbesserung des Ökologischen Zustandes bzw. des ökologischen Potenzials der Gewässer zweiter Ordnung stünden im Fokus der kommunalen Nachhaltigkeitspolitik und des Verwaltungshandelns. „Der Senatsbereich Bau und Umwelt befindet die zu erwartenden Resultate als förderlich für die Verbesserung der Gewässerqualität und sieht zukünftig potenzielle Einsatzbereiche für das zu entwickelnde innovative Messsystem zur Schadstoffdetektion in städtischen Gewässern“, betont Schmeil.

Kontakt:
Universität Rostock
Agrar-und Umweltwissenschaftliche Fakultät
Professor Jens Tränckner
Tel: 0381/ 498 3461
Mail: jens.traenckner@uni-rostock.de

Quelle: idw

(nach oben)


„Moment, hier war ich doch schon!“ – Wie das Gehirn Ortserinnerungen bildet

Antje Karbe Hochschulkommunikation
Eberhard Karls Universität Tübingen

Tübinger Forscher aktivieren im Experiment vormals ruhende Gedächtniszellen

Tübinger Neurowissenschaftlern ist es gelungen, ruhende Gedächtniszellen von Ratten zu aktivieren. Durch gezielte schwachelektrische Impulse konnten sie vormals inaktive Zellen im Hippocampus dazu bringen, den Ort der Impulsverabreichung wiederzuerkennen. Der Hippocampus ist bei Nagetieren wie auch dem Menschen für das Gedächtnis zuständig. Die Studie des Forscherteams am Werner Reichardt Centrum für Integrative Neurowissenschaften (CIN) der Universität Tübingen gibt daher Hinweise darauf, wie in unserem Gehirn Erinnerungen gebildet werden. Die Ergebnisse wurden nun im Fachmagazin Current Biology veröffentlicht.

Das Gedächtnis ist eine der wichtigsten Funktionen unseres Gehirns. Mit seiner Hilfe können wir nicht nur unseren Enkelkindern eines Tages aus unserer Jugend erzählen. Gerade für ganz alltägliche Abläufe ist es unverzichtbar. Es ist ständig und sofort aktiv, wenn wir etwas erleben: Wenn wir jemanden kennenlernen, erkennen wir sie oder ihn auch nach Stunden oder Tagen wieder. Und auch wer zum ersten Mal die Parfümabteilung, das Personalbüro oder die Toilette in einem fremden Gebäude aufsucht, findet den Ausgang gewöhnlich ohne Schwierigkeiten wieder.

Das Gedächtnis „denkt“ also nicht nur ständig „mit“, es bildet neue Erinnerungen auch besonders schnell, meist schon bei der ersten Interaktion. Das liegt daran, dass für jede Person, für jeden Ort und wohl auch für viele andere Konzepte bestimmte Gedächtniszellen direkt zuständig sind. Ein Typ dieser Neuronen, die Körnerzellen, sitzt im Hippocampus, einer zentralen Hirnregion. Wenn Gedächtniskonzepte wie „mein Wohnzimmer“ oder „Angela Merkel“ aktiviert werden – zum Beispiel durch das Betreten des Wohnzimmers oder das Betrachten einer Fotografie der Bundeskanzlerin – reagiert eine kleine Anzahl zuständiger Körnerzellen mit elektrischen Impulsen. Die weit überwiegende Mehrzahl der Körnerzellen bleibt dagegen untätig.

Bisher war unklar, durch welchen Mechanismus einzelne Gedächtniszellen einer bestimmten Erinnerung zugewiesen werden – zumal die allermeisten Körnerzellen normalerweise ruhen und keine Funktion zu haben scheinen. Das Tübinger Forscherteam unter Leitung von Dr. Andrea Burgalossi ging nun der Frage nach, ob ruhende Körnerzellen unter bestimmten Umständen „aufgeweckt“ werden können. Ihre Vermutung: Körnerzellen können durch elektrische Impulse zu aktiven Gedächtniszellen werden. Um die Hypothese zu überprüfen, legten sie haarfeine Mikroelektroden in den Gyrus dentatus – einen Bereich im Hippocampus, der das Ortsgedächtnis enthält – von Ratten, durch die sie schwache elektrische Impulse in einzelne Körnerzellen senden konnten.

Die Ratten liefen frei durch ein einfaches Labyrinth. An einem bestimmten Ort innerhalb des Labyrinths wurden einzelne Körnerzellen per Mikroelektrode mit schwachen elektrischen Impulsen (im Nanoamperebereich) angeregt. Mithilfe derselben Elektrode maßen die Forscher anschließend die Aktivität der behandelten Körnerzellen. Das Ergebnis: Kamen die Ratten erneut an den Ort im Labyrinth, wo der Impuls zuvor verabreicht worden war, feuerten die stimulierten Körnerzellen nun von sich aus. Der Impuls hatte den Gyrus dentatus angeregt, in den betroffenen Körnerzellen eine Erinnerung an den Ort zu bilden.

Burgalossi und seine Forschergruppe fanden zudem heraus, dass Dauer und Art der verabreichten Impulse eine große Rolle spielen. Sie führten zu einer stabileren Ortserinnerung, wenn sie in Übereinstimmung mit der natürlichen Thetaschwingung des Gehirns erfolgten, einem Auf- und Abbau elektrischen Potenzials, der etwa vier- bis zwölfmal in der Sekunde stattfindet. Ebenso bedeutsam könnte ein anderer Befund sein: Ratten, die den Impuls beim ersten Betreten des Labyrinths erhielten, reagierten deutlich stärker auf die induzierte Ortserinnerung als Ratten, die sich im Labyrinth vorher bereits auskannten. Offenbar werden Gedächtniszellen leichter aktiviert, wenn das Gehirn neue Informationen verarbeiten muss.

Die neuen Einsichten in die Gedächtnisbildung erhellen eine der wichtigsten Hirnfunktionen. Zwar ist noch viel zu tun, bevor so grundlegende Erkenntnisse wie die nun vorliegenden zur Entwicklung von Behandlungsmethoden für Gedächtnisstörungen (etwa bei Alzheimer, Parkinson oder Demenz) beitragen können – aber sie sind ein unverzichtbarer erster Schritt auf dem Weg dorthin.

Publikation:
Maria Diamantaki, Markus Frey, Patricia Preston-Ferrer, Andrea Burgalossi: Priming Spatial Activity by Single-Cell Stimulation in the Dentate Gyrus of Freely-Moving Rats. Current Biology (im Druck). 4. Februar 2016.

Autor:
Dr. Andrea Burgalossi
Werner Reichardt Centrum für Integrative Neurowissenschaften (CIN)
andrea.burgalossi@cin.uni-tuebingen.de

Weitere Informationen:
http://www.cin.uni-tuebingen.de

Quelle: idw

(nach oben)


Körpergröße beeinflusst Risiko für Herz-Kreislauf-Erkrankungen, Diabetes, und Krebs

Dr. Astrid Glaser Presse- und Öffentlichkeitsarbeit
Deutsches Zentrum für Diabetesforschung

Wissenschaftler des Deutschen Zentrums für Diabetesforschung (DZD) und der Harvard School of Public Health haben im Journal Lancet Diabetes & Endocrinology* die Erkenntnisse über den Zusammenhang von Körpergröße mit den bedeutsamsten Volkskrankheiten zusammengefasst. Große Menschen haben zwar ein erniedrigtes Risiko für Herz-Kreislauf-Erkrankungen und Typ-2-Diabetes, aber ein höheres Risiko für Krebs. Eine kalorienreiche Ernährung mit einem erhöhten Anteil an Milch und Milchprodukten in schnellen Wachstumsphasen, wie z.B. in der Schwangerschaft, ist wahrscheinlich für das weltweit zunehmende Größenwachstum und seine Zusammenhänge mit diesen Erkrankungen verantwortlich.

Die Körpergröße ist weitgehend genetisch festgelegt, dennoch beobachtet man in den vergangenen Jahrzehnten weltweit eine stete Zunahme bei Kindern und Erwachsenen: Die Kinder sind im Erwachsenenalter fast immer deutlich größer als ihre Eltern. Die größte Zunahme der Körpergröße über die letzten Jahrzehnte findet man in den Niederlanden. Holländische Männer sind mittlerweile 20 cm größer als sie es vor 150 Jahren waren. Interessanterweise ist in den Niederlanden auch der Pro-Kopf-Konsum von Milch und Milchprodukten weltweit am höchsten.

Diese Beobachtungen nahmen die Wissenschaftler des DZD, Prof. Norbert Stefan und Prof. Hans-Ulrich Häring von der Medizinischen Klinik IV in Tübingen und dem Institut für Diabetesforschung und Metabolische Erkrankungen des Helmholtz Zentrums München an der Universität Tübingen (IDM) und Prof. Matthias Schulze vom Deutschen Institut für Ernährungsforschung in Potsdam (DIfE), in Zusammenarbeit mit Prof. Frank Hu von der Harvard School of Public Health und Medical School in Boston, USA, zum Anlass, die Ursachen und medizinischen Auswirkungen dieser Zunahme im Größenwachstum zu analysieren.

Körpergröße beeinflusst Erkrankungsrisiko wichtiger Volkskrankheiten
Die Untersuchung zeigt, dass die Körpergröße einen wichtigen Einfluss auf die Sterblichkeitsrate bestimmter Volkskrankheiten hat, und zwar unabhängig von Körperfettmasse und anderen modulierenden Faktoren. Bisherige Studien belegen anschaulich, dass große im Vergleich zu kleinen Menschen ein erniedrigtes Risiko für Herz-Kreislauf-Erkrankungen und Typ-2-Diabetes haben, aber ein erhöhtes Risiko haben, an Krebs zu erkranken. „Epidemiologische Daten zeigen, dass pro 6,5 cm Körpergröße das Risiko für kardiovaskuläre Sterblichkeit um 6 Prozent sinkt, dafür aber die Krebsmortalität um 4 Prozent steigt“, erläutert Prof. Schulze.

Mehrere Ursachen werden vermutet
Die Autoren gehen davon aus, dass eine zunehmende Körpergröße Ausdruck eines Überangebots von hochkalorischer Nahrung reich an tierischem Eiweiß in verschiedenen Stadien des Wachstums ist. Dadurch könnte bereits im Mutterleib eine lebenslange Programmierung stattfinden, die bislang vor allem für das insulin like growth factor 1 und 2 sowie das IGF-1/2-System belegt werden konnte. Eine Aktivierung dieses Systems führt u.a. dazu, dass der Körper empfindlicher wird für die Wirkung des Insulins und, dass der Fettstoffwechsel günstig beeinflusst wird. „Entsprechend zeigen unsere neuen Daten, dass große Menschen insulinempfindlicher sind und einen geringeren Fettgehalt in der Leber haben, was ihr niedriges Risiko für Herz-Kreislauf-Erkrankungen und Typ-2-Diabetes mit erklären kann“, schlussfolgert Prof. Stefan. Diese Erkenntnisse passen zu publizierten Daten, die nahelegen, dass große Menschen einen relativen Schutz vor Fettstoffwechselstörungen haben. Aber gerade diese Aktivierung des IGF-1/2-System und anderer Signalwege könnte zu einem erhöhten Risiko für bestimmte Krebsarten,vor allem Brustkrebs, Dickdarmkrebs, schwarzer Hautkrebs, führen, indem das Zellwachstum dauerhaft gefördert wird vermuten die Autoren. Es resultieren somit zwar positive Auswirkung für die Entstehung von Herz-Kreislauf-Erkrankungen und Typ-2-Diabetes, aber negative Auswirkungen für die Entstehung von Krebs.

Fazit: Körpergröße bei Prävention stärker berücksichtigen
Die Wissenschaftler plädieren dafür, den Faktor Größenwachstum und Körpergröße mehr als bislang bei der Prävention der genannten Volkskrankheiten einzubeziehen. Diesbezüglich sollten Ärzte besonders dafür sensibilisiert werden, dass große Menschen, obwohl sie weniger häufig mit Herz-Kreislauf-Erkrankungen oder Typ-2-Diabetes auffallen, ein erhöhtes Risiko für Krebskrankheiten haben. Schließlich kommt der Ernährung, vor allem in der Schwangerschaft und im Kindes- und Jugendalter, eine bislang unterschätzte Bedeutung zu.

Deutsches Zentrum für Diabetesforschung (DZD)
Das Deutsche Zentrum für Diabetesforschung (DZD) e.V. ist eines der sechs Deutschen Zentren der Gesundheitsforschung. Es vernetzt Experten auf dem Gebiet der Diabetesforschung und verbindet durch seinen integrativen Forschungsansatz Grundlagenforschung, Epidemiologie und klinische Anwendung. Ziel des DZD ist es, einen wesentlichen Beitrag zur erfolgreichen Prävention, Diagnose und Therapie des Diabetes mellitus zu leisten.
Mitglieder des Verbunds sind das Helmholtz Zentrum München – Deutsches Forschungszentrum für Gesundheit und Umwelt, das Deutsche Diabetes-Zentrum DDZ in Düsseldorf, das Deutsche Institut für Ernährungsforschung DIfE in Potsdam-Rehbrücke, das Institut für Diabetesforschung und Metabolische Erkrankungen des Helmholtz Zentrum München an der Eberhard-Karls-Universität Tübingen und das Paul-Langerhans-Institut Dresden des Helmholtz Zentrum München am Universitätsklinikum Carl Gustav Carus der TU Dresden, assoziierte Partner an den Universitäten in Heidelberg, Köln, Leipzig, Lübeck und München sowie weitere Projektpartner. www.dzd-ev.de

Quelle
Norbert Stefan, Hans-Ulrich Häring, Frank B Hu, Matthias B Schulze. Divergent associations of height with cardiometabolic disease and cancer: epidemiology, pathophysiology, and global implications. Lancet Diabetes & Endocrinology 2016 [epub ahead of print] http://dx.doi.org/10.1016/S2213-8587(15)00474-X

Weitere Informationen:
http://www.dzd-ev.de

Quelle: idw

(nach oben)


Biogas-Fachgespräch diskutiert effektive Maßnahmen zum Fortbestand von Biogasanlagen

Paul Trainer M.A. Presse- und Öffentlichkeitsarbeit
Deutsches Biomasseforschungszentrum

Mit der Neuausrichtung des Erneuerbare-Energien-Gesetzes 2014 liegt der Schwerpunkt im Biogasbereich heute weniger auf dem Bau von neuen Anlagen als vielmehr auf der Frage, wie der Fortbestand vorhandener Biogasanlagen in Zukunft sinnvoll abgesichert werden kann. Beim Biogas-Fachgespräch am 23. Februar in Nossen wird unter dem Titel „Zukunft für Biogasbestandsanlagen – ein Widerspruch?“ diskutiert, wie die Wertigkeit des erzeugten Biogas erkannt und richtig dargestellt werden kann.

Die Mehrzahl des aktuellen Biogasanlagenbestands hat die Hälfte der ehemals zugesicherten Vergütungsdauer von 20 Jahren bereits heute erreicht bzw. überschritten. Um die bestehenden Anlagen für die Zukunft fit zu machen, gilt es für die Betriebe, ihre Anlage zu ertüchtigen, sie entsprechenden Repoweringmaßnahmen zu unterziehen oder sinnvolle Alternativen zu entwickeln. Das kann heißen, den Ausbau des Wärmenetzes vorzunehmen, durch geeignete Maßnahmen Methanemissionen zu verringern, im Rahmen der Flexibilisierung ein weiteres BHKW zuzubauen oder ein BHKW mit höherem Wirkungsgrad zu ersetzen und ggf. den Gasspeicher zu erweitern. In diesem Zusammenhang sind jedoch immer auch ökonomisch tragfähige Konzepte gefragt. So können größere Investitionserfordernisse, wie bspw. ein zusätzliches Gärproduktlager, insbesondere bei Anlagen mit kurzen Restlaufzeiten, im Einzelfall auch die Entscheidung einer vorfristigen Anlagenstilllegung beeinflussen.

Im Rahmen des Biogas-Fachgespräches wird Frau Dr. Claudia Brückner (LfULG) zunächst Kurzinformationen zum Förderprogramm „Richtlinie zur Förderung von Maßnahmen zur Steigerung der Energieeffizienz in der Landwirtschaft und im Gartenbau“ vom 6. Oktober 2015 präsentieren. Im Anschluss erläutert Dipl.-Volkswirt Martin Lohrmann (Coach für Energie- und Umweltprojekte) den Nutzen der Biogasanlagen für die Energiewende. Unter dem Titel „Flexibilisierung – jetzt oder nie?“ wirft Martin Dotzauer vom Deutschen Biomasseforschungszentrum in seinem Vortrag die Frage auf, in welchem Zeitfenster eine Flexibilisierung von Biogasanlagen (noch) sinnvoll umsetzbar ist. Nach einer Pause spricht Torsten Reinelt vom DBFZ zum Thema „Methanemissionen aus Bestandsbiogasanlagen – Minderung und Betriebsoptimierung“, den Abschluss bildet ein Exkurs in die Finanzierung von landwirtschaftlichen Biogasanlagen. Frau Lore Schöffel, Prokuristin der Volksbank Pirna eG und Dr. Danilo Stephan, Abt.-Direktor Strukturierte Finanzierungen Agrarwirtschaft der DZ Bank AG Leipzig, stellen anhand verschiedener Beispiele konkrete Handlungsmöglichkeiten dar und zeigen auf, wie die Bank in der jetzigen Situation ein wichtiger Partner sein kann. Im Anschluss an die Vorträge bietet sich die Möglichkeit für einen gemeinsamen Austausch sowie Diskussion der Ergebnisse. Die Moderation der Veranstaltung übernimmt Frau Dr. Claudia Brückner (LfULG).

Der Termin noch einmal zusammengefasst:

Datum: 23. Februar 2016, 13:00 bis 16:00 Uhr
Adresse: Landesamt für Umwelt, Landwirtschaft und Geologie (LfULG),
Landwirtschafts- und Umweltzentrum Nossen (LUZ)
Waldheimer Straße 219 / Haus 3, Julius-Kühn-Haus, 01683 Nossen
Teilnahme: Die Teilnahme an der Veranstaltung ist kostenfrei.
Anmeldung: per E-Mail über eveline.zschoche@smul.sachsen.de
oder per Fax: + 49 (0)351 451 2610 009

Weitere Informationen unter: www.dbfz.de/fachgespraeche

Hintergrund:
Die Leipziger Fachgespräche zum Thema Biogas richten sich insbesondere an ein Fachpublikum, das sich mit den verschiedensten Aspekten der Energieerzeugung aus Biogas beschäftigt. Dazu zählen landwirtschaftliche Unternehmen und Genossenschaften, die Biogasanlagen betreiben oder dies planen. Aber auch Mitarbeiter von Kommunen sowie der lebensmittelbe- und -verarbeitenden Industrie, bei denen eine Biogaserzeugung zur Lösung des Abfallproblems beitragen kann, sind angesprochen. Neben Herstellern von Biogasanlagen bzw. Anlagenkomponenten sind auch Händler und Planer von Biogasanlagen, Mitarbeiter von Forschungseinrichtungen, Ministerien, Behörden und Verbänden zum Leipziger Biogas-Fachgespräch eingeladen.

Smart Bioenergy – Innovationen für eine nachhaltige Zukunft
Das Deutsche Biomasseforschungszentrum arbeitet als zentraler und unabhängiger Vordenker im Bereich der energetischen und stofflichen Biomassenutzung an der Frage, wie die begrenzt verfügbaren Biomasseressourcen nachhaltig und mit höchster Effizienz zum bestehenden und zukünftigen Energiesystem beitragen können. Im Rahmen der Forschungstätigkeit identifiziert, entwickelt, begleitet, evaluiert und demonstriert das DBFZ die vielversprechendsten Anwendungsfelder für Bioenergie und die besonders positiv herausragenden Beispiele gemeinsam mit Partnern aus Forschung, Wirtschaft und Öffentlichkeit. Mit der Arbeit des DBFZ soll das Wissen über die Möglichkeiten und Grenzen einer energetischen und integrierten stofflichen Nutzung nachwachsender Rohstoffe in einer biobasierten Wirtschaft insgesamt erweitert und die herausragende Stellung des Industriestandortes Deutschland in diesem Sektor dauerhaft abgesichert werden – www.dbfz.de.

Weitere Informationen:
http://www.dbfz.de/fachgespraeche
https://www.dbfz.de/presse/pressemitteilungen-2016/biogas-fachgespraech-diskutie…
Anhang
Veranstaltungsflyer Biogas-Fachgespräch
https://idw-online.de/de/attachment48477

Quelle: idw

(nach oben)


Dünger aus Biogasanlagen: Forschungsprojekt soll Einsatzmöglichkeiten verbessern

Florian Klebs Presse- und Öffentlichkeitsarbeit
Universität Hohenheim

Universität Hohenheim untersucht wie verschiedene Ausgangsstoffe unterschiedlich verwendbaren Dünger produzieren / Ein Werkstattbericht

Gärreste aus Biogasanlagen stellen einen wertvollen Dünger dar. Doch um diesen gezielt einsetzen zu können, muss der Landwirt wissen, welche Nährstoffe in welchen Mengen enthalten sind und wie sie nach Ausbringung im Boden wirken. Und das hängt stark davon ab aus welchem Ausgangsmaterial das Biogas produziert wurde. Mit Laboranalysen, Feldversuchen und Isotopenanalysen nehmen Wissenschaftler der Universität Hohenheim nun verschiedene Gärreste unter die Lupe. Die Fachagentur Nachwachsende Rohstoffe (FNR) fördert das Forschungsprojekt an der Universität Hohenheim mit knapp 480.000 Euro. Damit zählt es zu den Schwergewichten der Forschung an der Hochschule.

Die Rückstände einer Biogasanlage, die Gärreste, gelten als hochwertiger organischer Dünger. Ihre Nutzung stellt die Landwirte allerdings vor ein Problem: Sie kennen nicht die genaue Düngewirkung, die vor allem vom Ausgangsubstrat abhängt. Wissenschaftler der Universität Hohenheim und der Landesanstalt für Agrartechnik und Bioenergie erforschen diese Frage nun gemeinsam mit Kollegen der Universität Rostock.

„Wir untersuchen die Stickstoff- und Humuswirkung verschiedener Gärreste, also welche Nährstoffe und Kohlenstoffverbindungen in welchen Mengen enthalten sind und wie sich diese nach der Feldapplikation verhalten“, skizziert PD Dr. Kurt Möller vom Fachgebiet Düngung und Bodenstoffhaushalt an der Universität Hohenheim das Forschungsprojekt.

Mit diesen Kenntnissen, so der Experte, kann der Landwirt die Dünge- und Humuswirkung der jeweiligen Gärreste besser einschätzen. Er kann sie in Mineraldüngeräquivalente umrechnen und den Dünger bedarfsgerecht und gezielter ausbringen. Das schont nicht nur die Umwelt, sondern auch den Geldbeutel des Landwirts.

Versuche mit unterschiedlichen Ausgangssubstraten
An der Landesanstalt für Agrartechnik und Bioenergie betreiben die Forscher zu diesem Zweck 40 kleine Versuchs-Biogasanlagen mit unterschiedlichen Substraten, die teilweise gezielt mit Stickstoffisotopen angereichert werden. Dazu gehören unter anderem Mais, Kleegras, Zuckerrüben, Schweinegülle oder Gülle aus der Milchviehhaltung.

Die Forscher an der Universität Hohenheim haben ihr Augenmerk vor allem auf die Inhaltsstoffe der Gärreste wie Stickstoff, Phosphor, Kalium und andere Nährsalze gerichtet. Die Bodenkundler an der Universität Rostock dagegen nehmen die organischen Bestandteile und die Humuswirkungen ins Visier.

Inkubationsversuche zur Humuswirkung
Zunächst geben sogenannte Inkubationsversuche den Forschern Aufschluss darüber, wie stark die organische Masse der jeweiligen Gärreste abbaubar ist. Dafür mischen sie in Glasgefäßen Erdboden und Gärrest, inkubieren die Mischung unter konstanten Bedingungen und messen über zwei Monate die Menge des Kohlendioxids, das beim Abbauprozess entsteht. „Die Humuswirkung ist umso größer, je weniger das Material abbaubar ist“, erklärt PD Dr. Möller.

Versuche im Gewächshaus und auf dem Feld
Parallel dazu simulieren die Wissenschaftler im Gewächshaus eine Fruchtfolge mit Weidelgras und Mais, bei der sie sechs Mal ernten, den Boden wieder umbrechen und dabei mit dem jeweiligen Gärrest düngen. „Wir können aus diesen Versuchen die kurzfristige Stickstoff-Düngewirkung und die Stickstoff-Nachwirkung abschätzen“, so der Experte. Und über Kohlenstoffgehalt und Humusform könnten zudem die Rostocker Kollegen den Einfluss auf die Bodeneigenschaften beurteilen.

Um die Ergebnisse schließlich auch unter realen Bedingungen zu erproben, ergänzen Feldversuche mit Gärresten aus Praxisanlagen das Programm. In diesen Biogasfermentern werden überwiegend Mais, Kleegras, Geflügelmist, Bioabfälle oder Milchviehgülle vergoren. Die Forscher analysieren jeweils die Gehalte an Stickstoff und zahlreicher weiterer Nährstoffe und schätzen die Düngewirkung der Gärreste im Feld ab.

Vergärungsversuche mit isotopisch markiertem Substrat

Interessant ist für Forscher und Bauern jedoch nicht nur wie viel Stickstoff insgesamt im Gärrest enthalten ist, sondern auch aus welcher Fraktion er stammt. „Die feste und die flüssige Fraktion des Gärrestes werden bisweilen getrennt ausgebracht, so dass wir sie auch jeweils einzeln beschreiben müssen“, erläutert PD Dr. Möller den Hintergrund.

Um das herauszufinden, hat die Landesanstalt für Agrartechnik und Bioenergie an der Universität Hohenheim einen Teil der Ausgangssubstrate mit isotopisch markiertem Stickstoff hergestellt. Dazu ziehen sie Mais, Gras und Zuckerrüben heran, denen Stickstoff in Form eines Isotops zugeführt wird, um es gegenüber den natürlichen Gegebenheiten damit anzureichern. Es weist ein Neutron mehr im Atomkern auf und ermöglicht durch diese Kennzeichnung den Weg dieses Nährstoffs nachzuvollziehen.

„Wenn wir im nächsten Schritt nur jeweils eine Fraktion mit dieser Markierung verwenden, können wir unter anderem erklären, ob der Stickstoff aus der festen oder der flüssigen Fraktion stammt“, erklärt PD Dr. Möller das Ziel.

Basis-Arbeit für bessere Düngung
Am Ende des Projektes in knapp zwei Jahren wollen die Forscher nicht nur die verschiedenen Gärreste so genau charakterisieren können, dass die Landwirte sie bedarfsgerechter einsetzen können. „Wir möchten auch Grundlagen dafür erarbeiten, dass die Biogasproduzenten über das Substratmanagement ihres Fermenters gezielt die Düngewirkung der Gärreste beeinflussen können“, resümiert PD Dr. Möller.“

Hintergrund des Projekts

Das Forschungsprojekt „Optimiertes Substratmanagement und Einfluss von Gärrestzusammensetzung auf den Boden-Stickstoff- und Boden-Humushaushalt“ startete am 1. November 2014 und ist auf drei Jahre ausgelegt. Die Fachagentur Nachwachsende Rohstoffe fördert die Arbeit an der Universität Hohenheim mit rund 479.429 Euro. Beteiligt sind außer dem Fachgebiet Düngung und Bodenstoffhaushalt auch die Landesanstalt für Agrartechnik und Bioenergie an der Universität Hohenheim sowie die Professur für Bodenkunde an der Universität Roststock.

Hintergrund: Schwergewichte der Forschung
Rund 30 Millionen Euro an Drittmitteln akquirierten Wissenschaftler der Universität Hohenheim 2014 für Forschung und Lehre. In loser Folge präsentiert die Reihe „Schwergewichte der Forschung“ herausragende Forschungsprojekte mit einem finanziellen Volumen von mindestens 250.000 Euro bei den Experimental- bzw. 125.000 Euro bei den Sozial- und Gesellschaftswissenschaften.

Quelle: idw

(nach oben)


Deutscher Fachkongress für kommunales Energiemanagement

Sybille Wenke-Thiem Stabsstelle Presse- und Öffentlichkeitsarbeit
Deutsches Institut für Urbanistik

Einladung/Terminhinweis:
In Kiel steht am 25. und 26. April 2016 die „Kommunale Energiewende“ im Fokus

Köln/Berlin. Die Mitwirkung von Kommunen ist eine wichtige Voraussetzung für eine erfolgreiche Umsetzung der Energiewende in Deutschland. Mit gezieltem Energiemanagement und umfangreichen Klimaschutzmaßnahmen leisten sie hier wertvolle Beiträge. Der diesjährige Kongress wird sich daher intensiv mit der „Kommunalen Energiewende“ befassen. Darüber hinaus stehen 16 Workshops zu den Themenschwerpunkten: Energieeffizienz, erneuerbare Energien, Energie im Gebäudemanagement, Kooperation, Beratung und Öffentlichkeitsarbeit zur Auswahl.

Veranstaltet wird der Fachkongress vom Deutschen Institut für Urbanistik (Difu) gemeinsam mit der Landeshauptstadt Kiel als Gastgeberin. Kooperationspartner sind der Deutsche Städtetag, der Deutsche Städte- und Gemeindebund und der Deutsche Landkreistag sowie das Ministerium für Energiewende, Landwirtschaft, Umwelt und ländliche Räume des Landes Schleswig-Holstein.

Das Programm richtet sich an Führungs- und Fachpersonal aus den Bereichen Stadtentwicklung und Stadtplanung, Wirtschaftsförderung, Liegenschaften sowie an Ratsmitglieder. Veranstaltungsort ist das Wissenschaftszentrum Kiel, Fraunhoferstraße 13, 24118 Kiel.

Weitere Informationen, Konditionen und Anmeldung unter:
www.difu.de/21_fachkongress_energiemanagement.html
http://www.staedtetag.de/fachinformationen/energie/061541/index.html

Teilnehmerkreis:
Führungs- und Fachpersonal aus den Bereichen Stadtentwicklung und Stadtplanung, Wirtschaftsförderung, Liegenschaften sowie Ratsmitglieder

Veranstalter:
Deutsches Institut für Urbanistik gGmbH (Difu)
Landeshauptstadt Kiel

Veranstaltungsort:
Wissenschaftszentrum Kiel
Fraunhoferstraße 13
24118 Kiel

Ansprechpartnerin:
Sigrid Künzel
Telefon: 0221/340308-0
Telefax: 0221/340308-28
E-Mail: kuenzel@difu.de

Kurzinfo: Deutsches Institut für Urbanistik
Das Deutsche Institut für Urbanistik (Difu) ist als größtes Stadtforschungsinstitut im deutschsprachigen Raum die Forschungs-, Fortbildungs-, Beratungs- und Informationseinrichtung für Städte, Kommunalverbände und Planungsgemeinschaften. Ob Stadt- und Regionalentwicklung, kommunale Wirtschaft, Städtebau, soziale Themen, Umwelt, Verkehr, Kultur, Recht, Verwaltungsthemen oder Kommunalfinanzen: Das 1973 gegründete unabhängige Berliner Institut – mit einem weiteren Standort in Köln (Bereich Umwelt) – bearbeitet ein umfangreiches Themenspektrum und beschäftigt sich auf wissenschaftlicher Ebene praxisnah mit allen Aufgaben, die Kommunen heute und in Zukunft zu bewältigen haben. Der Verein für Kommunalwissenschaften e.V. ist alleiniger Gesellschafter des in der Form einer gemeinnützigen GmbH geführten Forschungsinstituts.

Deutsches Institut für Urbanistik gGmbH
Sitz Berlin, AG Charlottenburg, HRB 114959 B
Geschäftsführer: Prof. Dipl.-Ing. Martin zur Nedden, Dr. Busso Grabow

Weitere Informationen:
http://www.difu.de/21_fachkongress_energiemanagement.html
http://www.staedtetag.de/fachinformationen/energie/061541/index.html

Quelle: idw

(nach oben)


Stellenwert des erholsamen Schlafes wird gesellschaftlich nicht hinreichend erkannt

Wolfgang Müller M.A. AWMF Presse- und Öffentlichkeitsarbeit
Arbeitsgemeinschaft der Wissenschaftlichen Medizinischen Fachgesellschaften

Die Deutsche Gesellschaft für Schlafforschung und Schlafmedizin (DGSM) will schlafmedizinische Versorgungsstrukturen in unserem Gesundheitssystem optimieren.
Über 1900 Teilnehmer fanden vom 3. – 5. Dezember den Weg nach Mainz, um an der 23. Jahrestagung der Deutschen Gesellschaft für Schlafforschung und Schlafmedizin (DGSM) teilzunehmen. Das Kongressthema „Die schlaflose Gesellschaft“ beschäftigte nicht nur die Fachbesucher, die sich interdisziplinär aus Neurologen, Psychologen, Psychiatern, Internisten, Kinder- und Jugendärzten, HNO-Ärzten, Hausärzten, Arbeits- und Verkehrsmedizinern sowie Naturwissenschaftlern zusammensetzten.

Ein breites Medienecho und ein gut besuchtes Patientenforum stehen dafür, dass auch die Öffentlichkeit sich von diesem Thema stark angesprochen fühlte. Der thematische Schwerpunkt des Kongresses beschäftigte sich mit der Frage, inwieweit die 24-Stunden-Non-Stop-Gesellschaft negative Auswirkungen auf Schlaf und Gesundheit ausübt und andererseits Schlaf und Schlafstörungen die Gesellschaft beeinflussen. Gesunder und ausreichender Schlaf fördert hingegen das Leistungsvermögen, die Aufmerksamkeit sowie Lern- und Gedächtnisprozesse. Weiterhin wird unser emotionales Befinden gefördert und über positive Auswirkungen auf die Gesundheit die Lebenserwartung erhöht.

„Lange hat die Gesellschaft das Thema Schlaf verschlafen“, betonte der diesjährige Tagungspräsident Dr. Hans-Günter Weeß. Sechs Prozent der Deutschen weisen behandlungsbedürftige Ein- und Durchschlafstörungen auf. Diese haben eine hohe Chronifizierungsneigung und können Herz-Kreislauf Erkrankungen, Diabetes und vor allem psychische Störungen, wie Depressionen, Angststörungen und Suchterkrankungen begünstigen. Ungefähr 1 Mio. Bundesbürger nehmen aus diesem Grunde regelhaft Schlafmittel ein. „Deutschland benötigt eine neue Schlafkultur“ so der Kongresspräsident Dr. Hans-Günter Weeß. „Die Deutschen stehen zu früh auf und schlafen häufig zu wenig“. Über 80 Prozent der Bundesbürger würden gern später aufstehen. Die gesellschaftlich festgelegten Zeiten für den frühen Arbeits- und Schulbeginn sind nicht in Übereinstimmung mit der inneren Uhr der meisten Menschen. Jugendliche kommen durch den auch im europäischen Vergleich sehr frühen Schulbeginn in Deutschland in ein chronisches Schlafdefizit. Die Folge sind Übermüdung und Lernschwierigkeiten. Aktuelle Forderungen nach einem späteren Schulbeginn sind die logische Konsequenz dieser wissenschaftlichen Erkenntnisse. „Wenn die Schule nur eine Stunde später beginnen würde“, so Weeß, „dann würden die Schüler bessere Leistungen erbringen. Im Speziellen, sollte man in den höheren Klassen Klausuren erst ab 11 Uhr schreiben, da dann das Gehirn am leistungsfähigsten ist“. Ungefähr 20 Prozent der Manager, Führungskräfte und Politiker schlafen weniger als 5 Stunden, mehr als die Hälfte der Spitzenkräfte in unserem Land fühle sich laut einer aktuellen Studie chronisch übermüdet und trifft doch in diesem kritischen Zustand wichtige Entscheidungen für Unternehmen und Gesellschaft. Internet, Smartphones und PCs rauben insbesondere den Jugendlichen den Schlaf und führen zu weiterer Übermüdung in Schule und Unterricht. Dieses Thema traf den Nerv der Zeit und rief ein breites mediales Interesse hervor. Die Schlafexperten wiesen u.a. auf das blaue Licht der Displays hin, welches Melatonin-unterdrückende Wirkung hat, d.h. im Klartext wach hält.
Dr. Alfred Wiater, der Vorsitzende der DGSM, brachte noch weitere wichtige Punkte zur Sprache: „Schlafmangel führt zu einer Störung des Sättigungsgefühls und erhöht somit das Adipositasrisiko. Bei zu wenig Schlaf entstehen hormonelle Imbalancen, die das Essverhalten beeinflussen.“ Schlafmangel und Adipositas sind oft vergesellschaftet mit übermäßigem und nicht altersgemäßem Medienkonsum im Kindes- und Jugendalter. Nach neuesten Erkenntnissen seien fast fünf Prozent aller Kinder und Jugendlichen im Alter von 12 bis 17 Jahren durch inadäquate Internetnutzung gesundheitlich beeinträchtigt. Beispielhaft nannte er die sehr bedenkliche Entwicklung beim Umgang mit Videospielen. Oft fordern diese zu aggressiven Handlungen auf, welche im Anschluss, etwa durch das Erreichen des nächsthöheren Levels, belohnt werden. Im Unterbewusstsein kann dadurch eine falsche Prägung entstehen, durch die aggressive Verhaltensweisen als positiv empfunden werden. Besonders problematisch ist die Entwicklung, wenn die Grenze zwischen der virtuellen Welt und der Realität nicht mehr wahrgenommen wird.

Die Schichtarbeit stand ebenfalls im Fokus der Jahrestagung. Geschichtlich leitete Dr. Weeß sehr anschaulich her, dass Schichtarbeit gegen die menschliche Natur verstößt. Mehr als 30 Prozent der Schichtarbeiter klagen über Schlafstörungen. Darüber hinaus haben sie ein höheres Risiko für Magen-Darm und Herz-Kreislauf Erkrankungen. Zudem ist bei Schichtarbeitern das Unfallrisiko auf dem Nachhauseweg auf das bis zu 8-fache erhöht. Prof. Thomas Erren, ein anerkannter Arbeitsmediziner, erläuterte, dass in der Arbeitsmedizin dringend Studien benötigt werden, die die Chronotypen bei der Erfassung möglicher schichtbedingter Gesundheitsrisiken berücksichtigen, um belastbare epidemiologische Aussagen treffen zu können.

Prof. Hagen Malberg verwies auf die Bedeutung der modernen schlafmedizinischen Erkenntnisse für wichtige gesellschaftliche Bereiche, wie die IT- und die Automobilbranche. „Künftig ist mit einem Wandel zu rechnen. Die technischen Innovationen werden in der Zukunft dafür sorgen, dass die Schlafmedizin immer weiter in den außerklinischen Bereich dringt“, gibt Malberg eine Prognose ab. Als Beispiele dafür nannte er die Zunahme der Krankenversorgung im häuslichen Bereich, die rasante Entwicklung von technischen Systemen zum Stress- und Belastungsmonitoring. „Es müssen sich daher technische Innovationen zur besseren Nutzbarkeit im außerklinischen Bereich etablieren. Wenn die Medizintechnik in die Häuser, in die Autos geht, dann muss sie tragbarer und angenehmer sein, ja sie muss sogar Spaß machen und „in“ werden.“ Die DGSM unterstütze diese Entwicklung und werde dazu beitragen, diese strategische Entwicklung zu sichern, so Malberg. Als Signal dafür stehe u.a., dass mit ihm erstmals ein Medizintechnik-Ingenieur gemeinsam mit etablierten Schlafmedizinern die Jahrestagung 2016 in Dresden leitet. Er hofft dabei auf eine interdisziplinär-stimulierende Diskussion.

Den Bedarf an qualifizierter Medizintechnik insbesondere für den Bereich der Geriatrie unterstützte PD Dr. Helmut Frohnhofen. Aktuell sind Schlafstörungen neben der Inkontinenz der Hauptgrund dafür, dass die familiäre Pflege von Patienten mit Demenz aufgegeben wird, weil sich die Angehörigen stark damit überfordert fühlen. Technische Innovationen könnten diesen Negativtrend möglicherweise stoppen. Überdies könnten auch im Bereich der schlafbezogenen Atmungsstörungen bei Frauen, wo sich bei betroffenen Patientinnen innerhalb von 3 bis 4 Jahren die Gefahr eine Hirnleistungsstörung zu entwickeln verdoppelt, medizintechnische Neuerungen eine Entlastung bringen. Jüngere schlafmedizinische Studien würden darauf hindeuten, dass Schlafstörungen neurodegenerative Erkrankungen im Alter, wie z.B. die Alzheimer Demenz fördern könnten. Aus diesem Grunde komme der rechtzeitigen Erkennung und erfolgreichen Behandlung von Schlafstörungen eine weitere wichtige Bedeutung zu.

Die Deutsche Gesellschaft für Schlafforschung und Schlafmedizin hat es sich zum Ziel gesetzt, die schlafmedizinischen Versorgungsstrukturen in unserem Gesundheitssystem zu optimieren. „Die schlafmedizinische Versorgung in Deutschland wird dem breiten Spektrum schlafmedizinischer Erkrankungen derzeit bei weitem nicht gerecht“, stellt der Vorsitzende der Gesellschaft Dr. Alfred Wiater klar. Ein Grund dafür sei, dass in die Problematik der Schlafstörungen nahezu alle medizinischen Fachdisziplinen einbezogen werden müssen, unser Gesundheitssystem jedoch wenig ausgerichtet sei auf Interdisziplinarität. Dazu komme, dass schlafmedizinische Leistungen in den Gebührenordnungen nicht hinreichend abgebildet seien und die Vergütungsspirale abwärts gerichtet sei, sodass qualitätsorientierte schlafmedizinische Leistungen nicht mehr kostendeckend erbracht werden könnten. „Das führt dazu, dass diese Leistungen nicht mehr angeboten werden, seitens potenzieller Leistungserbringer das Interesse an der Thematik schwindet und die Patientenversorgung schlechter wird“, erklärt Wiater. Ein weiterer Grund ist die konkrete Patientenversorgung. So benötigen viele Schlafapnoepatienten im Schlaf atmungsunterstützende Geräte. Leider wird seitens der Kostenträger vielerorts versucht, die apparative Versorgung der Patientinnen und Patienten einem so hohen Kostenruck auszusetzen, dass die medizinisch gebotenen Minimalstandards der Versorgung in den Hintergrund geraten.
Dr. Wiater: „Die bisherigen Erfahrungen zeigen, dass der Stellenwert des erholsamen Schlafes in unserer Gesellschaft nach wie vor nicht hinreichend erkannt wird.“ Um die Patientenversorgung zu verbessern und auch die Folgen von Schlafstörungen für unsere Gesellschaft zu reduzieren, beabsichtigt die DGSM die hausärztlich tätigen Kolleginnen und Kollegen intensiver als bisher in die schlafmedizinische Thematik einzubeziehen. So kann gleich beim ersten Arzt-Patient-Kontakt auf Schlafstörungen adäquat reagiert werden. Darüber hinaus sollen in unterschiedlichen Versorgungsebenen Patientinnen und Patienten mit schlafmedizinischen Erkrankungen, im Bedarfsfall auch interdisziplinär, behandelt werden können.
Zusammenfassend kann festgestellt werden, dass die fächerübergreifenden und auch teilweise bis in den öffentlichen Bereich geführten Diskussionen der Jahrestagung wichtige Impulse geliefert haben, um gesellschaftliche Gegebenheiten in Frage zu stellen und aufzubrechen. Jedoch: „Der gesellschaftliche Wandel ist ein langer Prozess des Umdenkens“, so Dr. Alfred Wiater.

Die nächste DGSM-Jahrestagung findet vom 1. bis 3. Dezember 2016 in Dresden statt. Das Thema dann: „Schlafmedizin – grenzüberschreitend und innovativ“.

Kontakt für Rückfragen:
Conventus Congressmanagement
Presse- und Öffentlichkeitsarbeit
Romy Held
Tel. 03641/ 3116280
romy.held@conventus.de

Anhang
PDF-Version der Pressemitteilung
https://idw-online.de/de/attachment48379

Quelle: idw

(nach oben)


Nachhaltige Wasserwirtschaft: Uni Osnabrück erwartet erste Ergebnisse des Projekts „WaterNeeds“

Dr. Oliver Schmidt Stabsstelle Kommunikation und Marketing
Universität Osnabrück

Die Universität Osnabrück erwartet erste Ergebnisse des Projekts „WaterNeeds“. Dabei geht es um eine tiefgreifende Untersuchung, inwieweit verschiedene Länder nachhaltig mit ihren Wasserressourcen umgehen.

Die nachhaltige Bewirtschaftung von Wasserressourcen ist eine der größten globalen Herausforderungen. Klimawandel, Bevölkerungswachstum, wirtschaftliche Entwicklung, Verlust an Biodiversität erhöhen den Druck auf die bereits übernutzen Wasserressourcen weltweit. Oft werden die gesellschaftlichen Bedürfnisse, zum Beispiel nach Trink- und Brauchwasser, auf Kosten der Umwelt befriedigt. Dies erscheint kurzfristig profitabel, ist jedoch langfristig keine nachhaltige Strategie. Das Forschungsprojekt „WaterNeeds“, unter der Leitung von Prof. Dr. Claudia Pahl-Wostl am Institut für Umweltsystemforschung der Universität Osnabrück, befasst sich mit dieser Thematik.

Das von der Deutschen Forschungsgemeinschaft (DFG) finanzierte Projekt startete im Januar 2013 und befindet sich aktuell auf der Zielgeraden. Im Sommer dieses Jahres soll es erfolgreich abgeschlossen werden. Dr. Kathrin Knüppe, Mitarbeiterin im Projekt: »Anhand verschiedener Fallstudien in Europa, Südafrika, China und Australien geht es um die Frage, inwieweit verschiedene Nutzungsansprüche zwischen natürlichen und menschlichen Belangen gerecht reguliert werden können und was die Voraussetzungen für eine nachhaltige Bewirtschaftung von Wasserressourcen sind.«

Inzwischen wurden alle Zielländer bereist und mehr als 70 Experteninterviews durchgeführt. Unter anderem haben die Projektmitarbeiter mit Landesbehörden, Wasserverbänden, Landwirten, Umweltorganisationen und Wissenschaftlern gesprochen, um zu erfahren, wie Wasserressourcen in der jeweiligen Fallstudie bewirtschaftet und geschützt werden. Nach ersten Analysen, können folgende Zwischenergebnisse zusammengefasst werden, wie Dr. Knüppe berichtet: »Die Konkurrenz um Wasserressourcen wird in den kommenden Jahren in allen Fallstudien weiter steigen, da das Angebot an Flächen knapp ist, um Wasser- und Naturschutzgebiet auszuweisen und um Flüssen ihren natürlichen Raum wiederzugeben.« Vor allem Konflikte und Nutzungskonkurrenzen zwischen landwirtschaftlichen Nutzflächen oder industrieller Nutzung des Flusses, wie beispielsweise Schifffahrt, Wasserkraft, und dem Schutz wichtiger ökologischer Prozesse und Funktionen seien in fast allen Ländern zu beobachten.

Knüppe erklärt, dass fast alle Experten in den bereisten Ländern auf bereits existierende ausreichende Gesetze hinwiesen, die den nachhaltigen Umgang mit Wasser regeln würden. Allerdings mangelt es vor allem an einer schnellen und effektiven Umsetzung dieser Gesetze. »Die Gründe dafür sind vielfältig und lassen sich nicht pauschalisieren. Es sind politische, wirtschaftliche und soziale Umstände und Entwicklungen eines Landes, die großen Einfluss auf die Umsetzung nachhaltiger Managementstrategien haben.« Weiterhin werde der Klimawandel einen negativen Effekt in Form von Hochwasserereignissen, zum Beispiel Deutschland und Ungarn, und Dürreperioden wie in Südafrika und Australien haben und die Problematik zusätzlich verschärfen. »Um Wasser in ausreichender Qualität und Quantität für Mensch und Umwelt in Zukunft zu sichern, zählt vor allem der politische Wille, um Gesetze zu implementieren und Maßnahmen in enger Zusammenarbeit mit Städten und Kommunen sowie Landwirten, Industrie, Umweltverbänden und der allgemeinen Bevölkerung umzusetzen.«

In den kommenden sieben Monaten werden die Ergebnisse aus Experteninterviews und Literatur zusammengetragen, um im Anschluss die untersuchten Regionen vergleichend zu analysieren. Dabei steht weniger im Vordergrund, welches Land besser oder schlechter mit seinen Wasserressourcen umgeht. Vielmehr sollen Unterschiede und Gemeinsamkeiten im Bereich der Bewirtschaftung identifiziert werden. Dadurch können die Wissenschaftler Handlungsempfehlungen für Politik und Wirtschaft ableiten und Best-Practices von einer auf eine andere Region übertragen.

Im Rahmen des Projekts wurde bereits eine Vielzahl von studentischen Abschlussarbeiten verfasst. »Dabei war es besonders schön zu beobachten, dass die Studierenden Einblicke in die komplexen Zusammenhänge der Wasserbewirtschaftung erhalten und selbständig nachhaltige Lösungsstrategien entwickelten«, berichtet Knüppe. Ebenfalls wurde zwischen dem Institut für Umweltsystemforschung und nationalen und internationalen Akteuren die Zusammenarbeit gestärkt und für zukünftige Forschungsvorhaben Netzwerke aufgebaut.

Quelle: idw

(nach oben)


Angegriffene Meerestiere – Was wir von Schnecken über den Klimawandel lernen können

Dr. Johannes Schnurr Presse- und Öffentlichkeitsarbeit, Publikationen
Daimler und Benz Stiftung

Die Versauerung und Erwärmung der Weltmeere sind bedrohliche Begleiter des globalen Klimawandels. Unsere Ozeane nehmen seit Beginn der Industrialisierung etwa die Hälfte des anthropogen verursachten Kohlenstoffdioxids auf. Durch Untersuchungen säureempfindlicher Meeresbewohner lassen sich die Auswirkungen der Ozeanversauerung quantifizieren. Flügelschnecken sind dabei hilfreiche Klimaindikatoren.

Seit Mitte des vergangenen Jahrhunderts hat sich die Erde um 0,7 Grad Celsius erwärmt – diesen Wert haben selbst Skeptiker inzwischen anerkannt. Während desselben Zeitraums ist die Kohlen-dioxidkonzentration in unserer Atmosphäre von 315 auf 400 ppm (parts per million) angestiegen. Das Meerwasser absorbiert etwa ein Drittel des Treibhausgases und verändert sich in seiner che-mischen Zusammensetzung, was zu einer Herabsenkung des pH-Werts führt. Dadurch sind Mee-reslebewesen wie Korallen, Muscheln oder Flügelschnecken, sogenannte Pteropoden, bedroht.

„Die sukzessive Versauerung stellt nicht nur kalkbildende Lebewesen vor Probleme, sondern zu-gleich die gesamte Nahrungskette und damit unser Ökosystem“, erklärt die Biologin Dr. Nina Keul vom Institut für Geowissenschaften der Christian-Albrechts-Universität zu Kiel. Gefördert von der Daimler und Benz Stiftung sowie der Reinhard Frank-Stiftung erforscht sie die Auswirkungen von anthropogen verursachtem Kohlendioxid und Klimawandel auf Meerestiere.

Die Pteropoden haben ein zartes Kalkgehäuse, das aus leicht löslichem Aragonit besteht und emp-findlich auf korrosives Wasser reagiert. Keul untersucht die Schale von Flügelschnecken aus Oze-ansedimenten, sie stellen eine Art Klimaarchiv dar. Dadurch lassen sich Kohlendioxid- und Tempe-raturwerte aus vergangenen Epochen ohne anthropogene Einflüsse rekonstruieren und quantifi-zieren.

Keuls wissenschaftliches Ziel ist es, verlässliche Prognosen über den zu erwartenden Klimawandel und die damit verbundenen Gefahren für die Meerestiere zu liefern. Untersuchungen weisen da-rauf hin, dass kalkbildende Lebewesen wie Pteropoden bei einem weiter sinkenden pH-Wert der Ozeane massive Probleme bekommen werden und die Artenvielfalt insgesamt abnehmen wird. Um die gefährlichen Auswirkungen des Klimawandels zu verhindern, muss der Kohlenstoffdioxid-ausstoß erheblich reduziert und die anthropogen verursachte Erwärmung auf deutlich unter zwei Grad Celsius begrenzt werden.

Stipendienprogramm für Postdoktoranden
Die Daimler und Benz Stiftung vergibt jährlich zwölf Stipendien von jeweils 40.000 Euro für die Dauer von zwei Jahren. Postdoktoranden, Juniorprofessoren oder Leiter junger Forschungsgruppen können die Mittel frei verwenden – etwa zur Finanzierung wissenschaftlicher Hilfskräfte oder technischer Ausrüstung, für Forschungsreisen oder zur Teilnahme an Tagungen.

Daimler und Benz Stiftung
Impulse für Wissen – die Daimler und Benz Stiftung verstärkt Prozesse der Wissensgenerierung. Ihr Fokus richtet sich dabei auf die Förderung junger Wissenschaftler, fachübergreifende Kooperationen sowie Forschungsprojekte aus sämtlichen wissenschaftlichen Disziplinen. Die operativ tätige und gemeinnützige Stiftung zählt zu den großen wissenschaftsfördernden Stiftungen Deutschlands.

Ansprechpartner:
Dr. Johannes Schnurr, +49 176-216 446 92
Patricia Piekenbrock, +49 152-289 093 77

Weitere Informationen:
http://www.daimler-benz-stiftung.de

Quelle: idw

(nach oben)


Mit biologischen Abfällen zu nachhaltigen Batterien

Monika Landgraf Presse, Kommunikation und Marketing
Karlsruher Institut für Technologie

Ein kohlenstoffbasiertes Aktivmaterial, das aus Apfelresten gewonnen wird, und ein Material aus Schichtoxiden könnten helfen die Kosten für zukünftige Energiespeicher zu senken. Beide zeigen exzellente elektrochemische Eigenschaften und stehen für umweltfreundliche und nachhaltige Nutzung von Ressourcen. In den Zeitschriften „ChemElectroChem“ und „Advanced Energy Materials“ stellen Forscher des Helmholtz-Instituts Ulm des Karlsruher Instituts für Technologie die neuen Materialien vor.

Natrium-Ionen-Batterien sind nicht nur deutlich leistungsstärker als Systeme wie Nickel-Metallhydrid- oder Bleisäure-Akkumulatoren, sondern repräsentieren auch eine Alternative zur Lithium-Ionen-Technologie, da ihre Ausgangsrohstoffe weit verbreitet, einfach zugänglich und kostengünstig sind. Daher sind Natrium-Ionen-Batterien eine äußerst vielversprechende Technologie für stationäre Energiespeicher, welche eine zentrale Rolle in der Energiewende einnehmen und damit einen äußerst attraktiven Markt in der Zukunft darstellen.

In der Entwicklung von Aktivmaterialien für Natrium-basierte Energiespeichersysteme ist dem Team um Professor Stefano Passerini und Dr. Daniel Buchholz am Helmholtz-Institut Ulm des Karlsruher Instituts für Technologie nun ein bedeutender Schritt gelungen. Für die negative Elektrode wurde ein kohlenstoffbasiertes Material entwickelt, welches aus Apfelabfällen gewonnen werden kann und exzellente elektrochemische Eigenschaften besitzt. Über 1000 Lade- und Entladezyklen mit hoher Zyklenstabilität und hoher Kapazität konnten bisher demonstriert werden. Diese Entdeckung stellt einen wichtigen Schritt zur nachhaltigen Nutzung und Verwertung von Ressourcen wie beispielsweise biologischer Abfälle dar.

Für die positive Elektrode wurde ein Material entwickelt, welches aus verschiedenen Schichten von Natriumoxiden besteht. Dieses Aktivmaterial kommt völlig ohne das teure und umweltschädliche Element Cobalt aus, welches heutzutage häufig noch immer ein wichtiger Bestandteil in Aktivmaterialien von kommerziellen Lithium-Ionen-Batterien ist. Das neue Aktivmaterial, in dem die eigentliche elektrochemische Speicherung von Energie stattfindet, kann im Labor ohne Kobalt über Hunderte Zyklen die gleichen Leistungsdaten erreichen, wenn es um Effizienz, Zyklenstabilität, Kapazität sowie Spannung geht.

Mit diesen Materialien ist nun ein wichtiger Schritt hin zur Entwicklung kostengünstiger und umweltfreundlicher Natrium-Ionen-Batterien gemacht worden. Die Ergebnisse werden nun in zwei Fachmagazinen vorgestellt:

„Apple Biowaste-Derived Hard Carbon as a Powerful Anode Material for Na-Ion Batteries“ ChemElectroChem, doi: 10.1002/celc.201500437;

„Layered Na-Ion Cathodes with Outstanding Performance Resulting from the Synergetic Effect of Mixed P- and O-type Phases“ Advanced Energy Materials, doi: 10.1002/aenm.201501555.

Über das Helmholtz-Institut Ulm (HIU)
Das HIU wurde im Januar 2011 vom KIT als Mitglied der Helmholtz-Gemeinschaft in Kooperation mit der Universität Ulm gegründet. Mit dem Deutschen Zentrum für Luft- und Raumfahrt (DLR) sowie dem Zentrum für Sonnenenergie- und Wasserstoff-Forschung Baden-Württemberg (ZSW) sind zwei weitere renommierte Einrichtungen als assoziierte Partner in das HIU eingebunden. Das internationale Team aus rund 125 Wissenschaftlerinnen und Wissenschaftlern forscht im HIU an der Weiterentwicklung der Grundlagen von zukunftsfähigen Energiespeichern für den stationären und mobilen Einsatz.

Mehr Informationen zum KIT-Zentrum Energie: http://www.energie.kit.edu

Weiterer Kontakt:
Daniel Messling, HIU Presse- und Öffentlichkeitsarbeit, Tel.: +49 731 50 34013, E-Mail: Daniel.Messling@kit.edu

Das Karlsruher Institut für Technologie (KIT) verbindet seine drei Kernaufgaben Forschung, Lehre und Innovation zu einer Mission. Mit rund 9 400 Mitarbeiterinnen und Mitarbeitern sowie 25 000 Studierenden ist das KIT eine der großen natur- und ingenieurwissenschaftlichen Forschungs- und Lehreinrichtungen Europas.

KIT – Die Forschungsuniversität in der Helmholtz-Gemeinschaft

Das KIT ist seit 2010 als familiengerechte Hochschule zertifiziert.

Diese Presseinformation ist im Internet abrufbar unter: http://www.kit.edu

Anhang
Mit biologischen Abfällen zu nachhaltigen Batterien

Quelle: idw

(nach oben)


Mammographie-Screening: Neues G-BA-Merkblatt veröffentlicht

Corinna Heinrich Presse- und Öffentlichkeitsarbeit
Kooperationsgemeinschaft Mammographie

Jede Frau zwischen 50 und 69 Jahren erhält alle zwei Jahre mit ihrer Einladung zum Mammographie-Screening-Programm eine Informationsbroschüre des Gemeinsamen Bundesauschusses (G-BA). Das nun überarbeitete Merkblatt soll Frauen dabei unterstützen, Vor- und Nachteile des Programms für sich abzuwägen.Verständliche Zahlen können eine Orientierung geben und die informierte Entscheidung unterstützen. Doch sollte auch berücksichtigt werden, dass Frauen Vor- und Nachteile unterschiedlich gewichten.

Jede Frau zwischen 50 und 69 Jahren erhält alle zwei Jahre mit ihrer Einladung zum Mammographie-Screening-Programm eine Informationsbroschüre des Gemeinsamen Bundesauschusses (G-BA). Das nun überarbeitete Merkblatt soll Frauen dabei unterstützen, Vor- und Nachteile des Programms für sich abzuwägen.

„Das Merkblatt ist aus unserer Sicht ein weiterer Schritt in Richtung informierte Entscheidung“, sagt Dr. Vanessa Kääb-Sanyal, Leiterin der Geschäftsstelle Kooperationsgemeinschaft Mammographie. „Wir begrüßen, dass Begriffe wie falsch-positive Befunde und Überdiagnosen ausführlicher und verständlich erklärt werden.“ Vor allem wenn über Überdiagnosen gesprochen wurde, führte das bislang häufig zu einem Missverständnis. Es entstand der Eindruck, Frauen erhalten im Mammographie-Screening eine Brustkrebsdiagnose und anschließende Behandlung, obwohl sie nicht an Brustkrebs erkrankt sind.“ Überdiagnosen sind jedoch Karzinome und Brustkrebsvorstufen, die durch die Früherkennung entdeckt werden, aber ohne diese Früherkennung zu Lebzeiten der Frau nicht aufgefallen wären. „Also werden auch Frauen behandelt, bei denen es nicht notwendig gewesen wäre. Überdiagnosen kommen in jeder Krebsfrüherkennung vor. Sie gehören zu den unerwünschten Effekten, lassen sich aber nicht vermeiden“, betont Kääb-Sanyal.

Nach Meinung von Kääb-Sanyal kann das neue Merkblatt auch ein Signal in der öffentlichen Diskussion über die Vor- und Nachteile des Brustkrebsfrüherkennungsprogramms setzen. „Das Merkblatt stellt klar, dass Frauen durch eine Teilnahme am Screening vor dem Brustkrebstod bewahrt werden können.“ Für diesen wichtigsten Vorteil gibt die Infobroschüre des G-BA neue Zahlen an. Von 1000 Frauen, die über 10 Jahre lang zum Mammographie-Screening eingeladen werden, können 1 bis 2 Frauen vor dem Brustkrebstod bewahrt werden. Als wichtigsten Nachteil nennt das Merkblatt nun die Überdiagnosen: Von 1000 Frauen erhalten demnach 5 bis 7 Frauen eine Überdiagnose.

Kääb-Sanyal sagt aber, dass auch die vom Institut für Qualität und Wirtschaftlichkeit im Gesundheitswesen (IQWiG) ermittelten Zahlen zur Brustkrebsmortalität und zu Überdiagnosen Schätzungen sind. „Vor allem bei den Schätzungen zu den Überdiagnosen gibt es bislang keine international konsentierte Methodik zur Quantifizierung, wie das IQWIG selbst betont.“ Hochrechnungen dazu sind mit großen Unsicherheiten verbunden.

„Verständliche Zahlen sind als Basis hilfreich. Sie können eine Orientierung geben und die informierte Entscheidung unterstützen. Doch wir sollten auch berücksichtigen, dass Frauen Vor- und Nachteile für sich unterschiedlich gewichten.“ Auch sollte in der Diskussion nach Auffassung von Kääb-Sanyal ein wichtiger Aspekt nicht vergessen werden: „Wenn eine Frau zwischen 50 und 69 Jahren eine Maßnahme zur Brustkrebsfrüherkennung in Anspruch nehmen will, dann ist das Mammographie-Screening die einzige wirksame Methode. Das ist durch Studien belegt.“

Kooperationsgemeinschaft Mammographie
2002 beschließt der Deutsche Bundestag parteiübergreifend, das Mammographie-Screening-Programm in Deutschland einzuführen. Im August 2003 wird in gemeinsamer Trägerschaft von den gesetzlichen Krankenkassen und der Kassenärztlichen Bundesvereinigung (KBV) die Kooperationsgemeinschaft Mammographie gegründet. Ihre Aufgabe ist die Koordination, Qualitätssicherung und Evaluation des Mammographie-Screening-Programms. Im Jahr 2005 gehen die ersten Screening-Einheiten an den Start. Seit 2009 ist das Programm in Deutschland flächendeckend umgesetzt. Heute wird das Mammographie-Screening von 95 Screening-Einheiten an rund 400 Standorten angeboten.

Kontakt:
Pressestelle Kooperationsgemeinschaft Mammographie
Corinna Heinrich
Telefon: 030/319985130
E-Mail: cheinrich@koop-mammo.de

Weitere Informationen:
http://www.mammo-programm.de Informationen für Frauen zu Vor- und Nachteilen des Mammographie-Screenings
http://bit.ly/1P880JH Link zum Merkblatt

Quelle: idw

(nach oben)


Biogas flexibler und schneller produzieren

Uwe Krengel Pressestelle
Fraunhofer Institut für Windenergie und Energiesystemtechnik IWES

Im Energiemix der Zukunft werden Biogasanlagen als regelbare Erzeuger und Ausgleich für die fluktuierende Energieerzeugung aus Windkraft und Photovoltaik zunehmend wichtiger. Zugleich steigen die Anforderungen an ihre Flexibilität. Im Rahmen des Projektes „ReBi 2.0″ entwickeln Wissenschaftler des Fraunhofer-Instituts für Windenergie und Energiesystemtechnik in Kassel (IWES) und der Hochschule für angewandte Wissenschaft und Kunst (HAWK) in Göttingen ein innovatives Anlagenkonzept für eine gezielte und bedarfsorientierte Verstromung von Biogas.

„Wir müssen mit Blick auf den zunehmenden Anteil erneuerbarer Energien an der Energieversorgung auch unsere Biogasanlagen zukunftsfähig machen und intelligent mit anderen Energieerzeugern verknüpfen“, betont Dr.-Ing. Bernd Krautkremer, am Fraunhofer IWES Abteilungsleiter für Bioenergie-Systemtechnik. Schon jetzt haben die Bestandsanlagen den Vorteil, dass sie sowohl Biomasse als auch bereits produziertes Biogas für eine begrenzte Zeit zwischenspeichern können, um es bei Bedarf zu verstromen, wenn die Energieproduktion aus Sonne und Wind Schwankungen unterliegt. Allerdings stoßen dabei die Biogasspeicher schnell an ihre Kapazitätsgrenze. „Deswegen versuchen wir die zeitliche Flexibilität der Gasbildung zu erhöhen“, erklärt Krautkremer.

Im Rahmen des Projektes „ReBi 2.0″ (Regelung der Gasproduktion von Biogasanlagen für eine am Bedarf orientierte, gesteuerte Biogasverstromung) erproben die Experten des Fraunhofer IWES und der HAWK ein Anlagenkonzept im Demonstrationsmaßstab, das die für die Biogasproduktion zuständigen Prozessschritte intelligent entkoppelt. In herkömmlichen Biogasanlagen finden diese Prozessschritte alle in einem oder maximal zwei Behältern, sogenannten Fermentern, statt. Dadurch ist es nicht möglich, optimale Bedingungen für alle am Prozess beteiligten Mikroorganismen zu schaffen. Das organische Material muss zudem für mehr als 100 Tage in den Fermentern verbleiben. „Hierdurch arbeiten zum einen die verschiedenen für die Biogasbildung nötigen Mikroorganismen unter nicht optimalen Bedingungen. Zum anderen dauert der Prozess sehr lange. Dies macht es deutlich schwieriger, flexibel und bedarfsorientiert Biogas zu produzieren“, erläutert Dr. Henning Hahn, Projektleiter des Forschungsvorhabens „ReBi 2.0″.

In dem neuen System wird die Biogasproduktion nun auf drei Fermenter verteilt. Im ersten wird die zugeführte Organik durch Hydrolyse für die an den nachfolgenden Prozessschritten beteiligten Mikroorganismen leichter zugänglich gemacht, verbleibt dort aber nur wenige Tage. Danach erfolgt eine Trennung in festes und flüssiges Material. Das feste Material kommt in einen konventionellen Fermenter und wird dort kontinuierlich zu Biogas vergoren. Das flüssige Material wird in einem Pufferspeicher zwischengespeichert, bis es zur gezielten Gasproduktion einem Hochleistungs-Fermenter zugeführt wird. Dort kann es innerhalb von Stunden zu Biogas umgesetzt werden. Dabei können rund zwei Drittel durch die flexible Vergärung der Flüssigphase bereit gestellt werden. Das neue Anlagenkonzept bietet zudem den Vorteil, dass nun auch schwerer abbaubare Substrate wie ligninhaltiges Stroh und – aufgrund der kurzen Verweilzeiten im ersten Prozessschritt – auch schnell wechselnde Substrattypen verarbeitet werden können. Dies bietet die Möglichkeit, das Substratspektrum für die Biogasproduktion zu erhöhen.

Das Verfahren wurde im Fachgebiet Nachhaltige Energie- und Umwelttechnik an der HAWK in Göttingen unter der Leitung von Prof. Dr.-Ing. Achim Loewen erprobt: „In unserem Technikum haben wir mit dem neuen ReBi-System bereits vielversprechende Ergebnisse erzielt. Ab Dezember 2015 wollen wir nun zusammen mit Fraunhofer in den großtechnischen Maßstab gehen und eine Demonstrationsanlage am Hessischen Biogasforschungszentrum (HBFZ) in Bad Hersfeld aufbauen.“ Hierbei begleiten die Ingenieure der FLEXBIO Technologie UG, die sich auf die Vergärung von Prozessabwässern in Hochleistungsfermentern spezialisiert haben, den Aufbau der Pilotanlage. Ihre Inbetriebnahme ist für Herbst 2016 vorgesehen. „Mit einem Konzept wie diesem werden wir die zweite Generation von Biogasanlagen auf den Weg bringen“, sind sich die Projektpartner sicher.

Das HBFZ, welches gemeinsam vom IWES und dem Landesbetrieb Landwirtschaft Hessen (LLH) betrieben wird, bietet mit seiner in den landwirtschaftlichen Betrieb eingebundenen Forschungsbiogasanlage und seiner Nähe zu den Biogaslaboren des Landesbetriebs hessischer Landeslabore (LHL) ideale Voraussetzungen für den Feldtest. Erste Ergebnisse erwarten die Wissenschaftler für den Winter 2016.

Das Projekt ist auf zwei Jahre angelegt und wird über die Fachagentur Nachwachsende Rohstoffe e.V. als Projektträger des Bundesministeriums für Ernährung und Landwirtschaft (BMEL) gefördert.

Fachansprechpartner:
Dr. Henning Hahn
Fraunhofer IWES, Abteilung Bioenergie-Systemtechnik
Tel. +49 561 7294261
E-Mail: Henning.Hahn@iwes.fraunhofer.de

Prof. Dr. Achim Loewen
Fachgebiet NEUTec, Nachhaltige Energie- und Umwelttechnik
HAWK Hochschule für angewandte Wissenschaft und Kunst
Fakultät Ressourcenmanagement
Telefon: +49 551 5032-257
E-Mail: achim.loewen@hawk-hhg.de

Weitere Informationen:
http://s.fhg.de/rebi2016

Anhang
Pressemitteilung als Download
https://idw-online.de/de/attachment48433

Quelle: idw

(nach oben)


Wann ist ein Vitamin-D-Präparat noch ein Nahrungsergänzungsmittel?

Nina Banspach Pressestelle
Bundesamt für Verbraucherschutz und Lebensmittelsicherheit (BVL)

Stellungnahme der Gemeinsamen Expertenkommission von BVL und BfArM

Gerade in den dunklen Wintermonaten greifen viele Menschen verstärkt zu Vitamin-D-haltigen Produkten. Doch bei welchen Vitamin-D-Mengen handelt es sich um ein Nahrungsergänzungsmittel und bei welchen Mengen ist von einem Arzneimittel auszugehen? Diese Frage stellt sich auch, da zunehmend Nahrungsergänzungsmittel mit Vitamin-D-Konzentrationen auf den Markt kommen, die bislang nur zur Behandlung von Mangelerkrankungen in Arzneimitteln üblich waren. Die Gemeinsame Expertenkommission des Bundesamtes für Verbraucherschutz und Lebensmittelsicherheit (BVL) und des Bundesinstituts für Arzneimittel und Medizinprodukte (BfArM) hat jetzt in einer Stellungnahme festgestellt, dass ein Produkt, das maximal 20 Mikrogramm (800 I.E.) Vitamin D zur Deckung des täglichen Bedarfs enthält, als Nahrungsergänzungsmittel eingestuft werden kann.

Vitamin D unterscheidet sich von den meisten anderen Vitaminen dadurch, dass es bei entsprechender Sonneneinstrahlung vom Körper selbst gebildet werden kann und nur in geringem Maße über das Essen aufgenommen werden muss. Unter normalen Umständen kann ein gesunder Erwachsener seinen Vitamin-D-Bedarf in unseren Breitengraden (37 – 60° N) durch eine regelmäßige Zufuhr von Sonnenlicht zu 80 – 90 Prozent abdecken, in den Sommermonaten sogar bis zu 100 Prozent.
In den Monaten Oktober bis März ist eine Vitamin-D-Bildung durch direkte Sonnenbestrahlung nur eingeschränkt möglich. Jedoch kann der menschliche Körper Vitamin D, das in den Sommermonaten gebildet wurde, im Fettgewebe und in der Skelettmuskulatur speichern, so dass auch in Wintermonaten in der Regel eine ausreichende Versorgung sichergestellt ist.

Über das Essen werden nur 10 – 20 Prozent des täglichen Vitamin-D-Bedarfs abgedeckt. Lebensmittel mit einem hohen Vitamin-D-Gehalt sind vor allem Fisch und Fischerzeugnisse (insbesondere fettreiche Sorten wie Hering, Wildlachs und Sardinen). Auch Leber, Eigelb und einige Speisepilze enthalten zu geringeren Teilen Vitamin D. Einige Margarinen sind ebenfalls mit dem Vitamin angereichert.

Gesundheitliche Bedeutung
Vitamin D trägt wesentlich dazu bei, die Knochen im menschlichen Körper zu härten. Ein Mangel an Vitamin D kann die Knochen weich werden lassen (Osteomalazie) und zu Knochenschwund (Osteoporose) führen.

Bei der Mehrheit der Bevölkerung in Deutschland liegt kein Vitamin-D-Mangel vor. Neuste Studien zeigen, dass dennoch mehr als die Hälfte der Deutschen in den dunklen Wintermonaten nicht optimal mit dem Vitamin versorgt ist. Eine Folge daraus kann eine höhere Anfälligkeit für Stürze und Knochenbrüche im Alter sein.

Risikogruppen
Zu den Bevölkerungsgruppen, die häufig zu wenig Vitamin D in der Haut bilden, zählen:
– Menschen, die sich nur selten im Freien aufhalten (insbesondere chronisch kranke und pflegebedürftige Menschen)
– Menschen, die aus kulturellen Gründen nur mit vollständig bedecktem Körper ins Freie gehen
– Dunkelhäutige Menschen (durch den hohen Melamingehalt der Haut, wird die UV-B- Strahlung stärker abgeschirmt)
– Ältere Menschen (die Fähigkeit der Haut, Vitamin D zu bilden, nimmt mit steigendem Alter ab)

Bei den genannten Bevölkerungsgruppen kann eine zusätzliche Aufnahme von Vitamin D, z. B. in Form von Nahrungsergänzungsmitteln, sinnvoll sein. Wenn bereits ein Vitamin-D-Mangel besteht, ist dieser in Rücksprache mit dem Arzt mit Arzneimitteln zu behandeln. Auch zur Rachitisprophylaxe bei Säuglingen werden Vitamin-D-haltige Arzneimittel eingesetzt.

Empfehlung der Kommission
Die Empfehlung beruht auf den rechtlichen Regelungen für Nahrungsergänzungsmittel: Sie sind dazu bestimmt, die allgemeine Ernährung zu ergänzen. Die enthaltenen Nährstoffe müssen eine ernährungsspezifische oder physiologische Wirkung entfalten. Gesetzliche Höchstmengen für Vitamin D gibt es bisher nicht.

Nach Ansicht der Expertenkommission von BVL und BfArM wird von einer solchen Wirkung ausgegangen, wenn das Lebensmittel den täglichen Bedarf des Nährstoffes ganz oder teilweise deckt. Der Richtwert von Vitamin D, der von der Deutschen Gesellschaft für Ernährung (DGE) festgelegt wurde, liegt bei bis zu 20 Mikrogramm (800 I.E.) pro Tag für Erwachsene. Dieser kann als angemessene Zufuhr von Vitamin D für alle Personen angesehen werden, die ihren Vitamin-D-Bedarf nicht auf die herkömmliche Weise (Sonnenlichtzufuhr) decken.

Vitamin-D-Präparate bis zu einer Tagesdosis von 20 Mikrogramm Vitamin D werden daher von der Expertenkommission aufgrund ihrer ernährungsspezifischen und physiologischen Wirkung als Nahrungsergänzungsmittel eingestuft.
Im Fall einer echten Mangelerkrankung kann eine Behandlung mit einem höher dosierten Vitamin-D-Präparat sinnvoll sein. Ein solches Produkt ist demzufolge als Arzneimittel zu bewerten und entsprechend zu kennzeichnen.

Hintergrund
Die Gemeinsame Expertenkommission wurde 2013 ressortübergreifend im Bundesamt für Verbraucherschutz und Lebensmittelsicherheit (BVL) und im Bundesinstitut für Arzneimittel und Medizinprodukte (BfArM) eingerichtet.

Hintergrund war, dass Stoffe, die bislang vorwiegend oder ausschließlich in Arzneimitteln verwendet wurden, vermehrt als Lebensmittel oder Lebensmittelzutaten in Verkehr gebracht werden. Seitens der Behörden bestehen jedoch häufig Bedenken hinsichtlich der Sicherheit und der Verkehrsfähigkeit dieser Erzeugnisse als Lebensmittel.

Ziel dieser Gemeinsamen Expertenkommission ist es, als unabhängiges Gremium unter Berücksichtigung wissenschaftlicher Erkenntnisse und rechtlicher Vorgaben Kriterienkataloge, Entscheidungsbäume und Stellungnahmen zu erarbeiten, um mögliche Gesundheitsgefahren besser erkennen oder die Einstufung eines Stoffes als Arzneimittel erleichtern zu können.

Weitere Informationen:
http://www.bvl.bund.de/SharedDocs/Downloads/01_Lebensmittel/expertenkommission/Z… – Stellungnahme der Gemeinsamen Expertenkommission zur Bewertung von Vitamin-D-haltigen Produkten
http://www.bfr.bund.de/de/ausgewaehlte_fragen_und_antworten_zu_vitamin_d-131898…. – Gemeinsame FAQ des BfR, der DGE und des MRI zu Vitamin D
http://www.bvl.bund.de/nahrungsergaenzungsmittel – Flyer des BVL zu Nahrungsergänzungsmitteln

Anhang
Presseinformation Vitamin D
https://idw-online.de/de/attachment48418

Quelle: idw

(nach oben)


Biogas als Stromspeicher: „Künftige Anlagen müssen auch Wind- & Sonnenenergie speichern“

Florian Klebs Presse- und Öffentlichkeitsarbeit
Universität Hohenheim

Will Deutschland erneuerbare Energien ausbauen, darf auf den weiteren Ausbau der Biogaserzeugung nicht verzichtet werden

Biogasanlagen produzieren Gas für Wärme, Strom und Fahrzeugantrieb und nebenbei noch Chemikalien, Designer-Dünger. Künftige Anlagen müssen auch noch überschüssigen Strom aus der Wind- und Sonnenenergie in das speicherbare Biomethan umformen, so die Forderung von Dr. Hans Oechsner von der Universität Hohenheim. Insgesamt sei die Branche in einem starken technischen Umbruch.

Schon heute sind Biogasanlagen regelrechte Allrounder: Gefüttert werden sie mit organischen Abfällen wie Gemüse- und Obstreste oder Stroh, tierischen Exkrementen und vor allem mit Energiepflanzen wie beispielsweise Mais, Ganzpflanzensilage von Getreide, Hirse, Sonnenblume und Wiesengras.
Daraus produzieren sie nicht nur Biogas für die Wärme- und Stromnetze kleiner Blockheizkraftwerke und gereinigtes Bio-Erdgas für das Erdgas-Netz und Fahrzeugantriebe. In Kombination mit Biogas können auch Plattformchemikalien wie zum Beispiel Milchsäure und Designer-Dünger erzeugt werden.

Optimierung und Potenziale: alternative Substrate, bessere Technik und Biogas
„Die Anforderungen an Biogasanlagen sind in den letzten Jahren gestiegen“, erklärt Dr. Hans Oechsner, Leiter der Landesanstalt für Agrartechnik und Bioenergie der Universität Hohenheim. Dazu gehörten vor allem 3 Bereiche
• Flexible Stromproduktion aus Biogas sowie die Pufferung von überschüssigem Strom in Form des chemischen Energiespeichers „Methan“: Stromspitzen von Wind- und Sonnenenergie können als Biomethan zwischengespeichert werden.
• Größere Bandbreite bei den Ausgangsstoffen: Die Anbaufläche für Energiepflanzen ist ausgereizt. Hier gilt es, Alternativen zu erschließen.
• Mehr Effizienz von der Aufbereitung bis zur Anlagentechnik: Durch bessere Vorbehandlung und die Optimierung der Anlagentechnik lässt sich die Biogas-Ausbeute weiter erhöhen.

Biogasanlagen als Puffer für überschüssigen Strom
Wind und Sonne sind fluktuierende Energiequellen, das heißt, sie erzeugen nur dann Energie, wenn die Sonne scheint oder Wind weht. Dabei entstehen auch Stromspitzen an überschüssigem Strom, der nicht gespeichert werden kann. Bei Biogasanlagen kann dagegen die Stromproduktion flexibel und an den Bedarf angepasst werden.
Eine weitere Lösung ist das System „Power to Gas“ direkt im Bereich der Biogasanlage. Hierbei wird überschüssig produzierte Energie von Sonne und Wind dazu verwendet, Wasser in Wasserstoff und Sauerstoff elektrolytisch zu trennen. Der Wasserstoff wird in die Biogasanlage eingespeist. Dort nutzen ihn spezielle Methanbakterien zusammen mit Kohlendioxyd und produzieren zusätzliches Methan. Damit wird die Gasproduktion erhöht. Das entstehende Biogas enthält zudem einen höheren Methananteil, was dessen Aufbereitung zu Biomethan erheblich erleichtert.
„Dieses Biogas lässt sich je nach Bedarf direkt zur Stromproduktion verwenden oder zu Bio-Erdgas reinigen, in das Gasnetz einspeisen und dort für längere Zeit speichern oder als regenerativer Kraftstoff Erdgas-Autos antreiben“, erklärt Dr. Oechsner. Der Prototyp einer solchen Anlange soll im Zuge eines Forschungsprojekts an der Universität Hohenheim entwickelt werden.

Größere Bandbreite bei den Ausgangsstoffen
Der Hauptanteil der Biomasse für Biogasanlagen komme aktuell von Energiepflanzen, so Dr. Oechsner. Mehr von ihnen für die Biogasanlagen anzubauen, sei jedoch derzeit nicht möglich. „Wir nutzen in Deutschland bereits 11 Prozent der Ackerflächen, um Pflanzen für Biogasanlagen zu erzeugen. Diese Fläche kann nicht beliebig gesteigert werden, da wir die anderen Flächen für die Erzeugung von Nahrung und Futtermitteln benötigen.“
Derzeit gibt es eine Reihe von Forschungsprojekten zu alternativen Ausgangsstoffen für Biogas. Dazu gehören Reststoffe wie Bioabfälle, Pferdemist, Stroh oder Landschaftspflegegras. Ein hohes Potenzial sieht Dr. Oechsner bei den Kommunen und Landkreisen: „Derzeit werden Bioabfälle meist nur kompostiert, wobei keine Energie entsteht. Es gibt in Deutschland über 1.000 kommunale Kompostierungsanlagen aber nur 100 kommunale Biogasanlagen für die Behandlung von Bioabfällen. Dies muss sich schnell ändern. In Stuttgart wird derzeit eine solche Anlage geplant.“

Mehr Effizienz von der Aufbereitung bis zur Anlagentechnik
Außerdem ließe sich der gesamte Prozess der Biogasproduktion noch effizienter gestalten. Das beginne bei Lagerung und Aufbereitung von Substrat. „Eine schlechte Lagerung kann zu einem Ertragsverlust führen. Damit verlieren wir jährlich ca. 10 bis 20 % der Energiepflanzenmasse.“
Neue Ausgangsstoffe wie Pferdemist oder Landschaftspflegegras seien oft sehr faserreich. „Die Biogasanlage kann diese langen Fasern nicht optimal zu Biogas verarbeiten. Hier müssen die Anlagen verbessert werden. Ein Ansatz ist es, wie beispielsweise in einem Forschungsprojekt an der Forschungsbiogasanlage am Unteren Lindenhof untersucht, die Fasern vor Zugabe in den Fermenter mit dem sogenannten Querstromzerspaner zu zerkleinern. Schon nach 30 Sekunden Vorbehandlung steigt die Gasproduktion bei Pferdemist sogar um bis zu 24%.“
Auch die Anlagen selbst seien verbesserungsfähig: „Durch verbesserte Homogenisierungstechnik, optimalem Einsatz von Spurennährstoffen, anaeroben Pilzen oder verbesserte Prozessüberwachung und -regelung können wir eine noch höhere Ausbeute erreichen“, so Dr. Oechsner.

Quelle: idw

(nach oben)


„Clichy-Batignolles“: ein neues Ökoviertel im Herzen von Paris

Marie de Chalup Wissenschaftliche Abteilung
Wissenschaftliche Abteilung, Französische Botschaft in der Bundesrepublik Deutschland

Im Nordosten von Paris, im 17ten Arrondissement an der Ringstraße (die sogenannte „Périphérique“), entsteht das neues Ökoviertel „Clichy-Batignolles“ auf einem ehemaligen Industriegelände. Das Projekt wurde vom Pariser Stadtrat 2002 initiiert. Ziel ist es, 3 400 Wohnungen und 12 700 Arbeitsplätze in einer umweltschonenden Umgebung zu schaffen.

Das neue Viertel erstreckt sich über eine Fläche von 54 ha, davon 10 ha Park in der Mitte, und wird CO2-neutral sein. Entgegen der in Paris geltenden Vorschrift einer maximal zulässigen Gebäudehöhe von 37m dürfen in Clichy-Batignolles 50m hohe Gebäude entstehen. Zudem werden alle Gebäude einen niedrigen Energieverbrauch aufweisen: Es wurde ein Zielwert von maximal 50 kWh/m2 pro Jahr festgelegt, der der aktuellen Wärmeverordnung in Frankreich entspricht (die sogenannte „RT2012“). Für den Heizungsverbrauch wurde sogar der Zielwert von 15 kWh/m2 pro Jahr festgelegt (wie bei der deutschen „Passivhaus“-Zertifizierung). Der Pariser Justizpalast wird dort ein 160m hohes Gebäude beziehen. Es wird einen neuen Rekordwert für Hochhäuser mit einem maximalen Energieverbrauch von 75 kWh/m2 pro Jahr erreichen (zum Vergleich: die neuesten Hochhäuser des Pariser Geschäftsviertels La Défense verbrauchen circa 150 kWh/m2 pro Jahr).

Die Energieversorgung wird teilweise über Solaranlagen gewährleistet: 2020 sollen auf insgesamt 35 000 m2 Fläche (Dächer und Fassaden) Solarpanele installiert werden, die 3 500 MWh pro Jahr erzeugen. Mit der Solarenergie sollen ungefähr 40% des gesamten Stromverbrauchs abgedeckt werden. Die Energie für die Heizung und die Warmwasserbereitung wird über Geothermie gewonnen. Zu diesem Zweck wird Clichy-Batignolles mit dem bereits vorhandenen Pariser Wärmenetz verbunden.

Um den Auto- und LKW-Verkehr im Viertel zu umgehen, werden zwei neue Metrohaltestellen gebaut, die die vollautomatisierte Linie 14 verlängern. Existierende Bus-, Straßenbahn- und Metro-Haltestellen liegen auch in der Nähe und ermöglichen es den Einwohnern von Clichy-Batignolles, in nur 20 Minuten die wichtigsten Bahnhöfe im Zentrum von Paris zu erreichen (Gare de Lyon, Gare Saint-Lazare, Châtelet-les-Halles).

Der Müll wird über eine automatisierte pneumatische Anlage entsorgt. Hierfür werden an öffentlichen Plätzen und in allen Gebäuden Anschlusspunkte installiert, sogenannte im Boden verankerte Müllsäulen. Der Müll wird angesaugt, verdichtet und drei Mal pro Woche per LKW entsorgt.

Ein großer Teil des Projekts ist schon fertiggestellt: der Park, die pneumatische Anlage, der Ostflügel etc. und die ersten Bewohner sind bereits 2012 eingezogen. 2020 sollen die letzten Gebäude eingeweiht werden. Das Projekt wurde durch öffentliche und private Investoren finanziert.

Weitere Informationen:
Webseite des Projekts (auf Englisch und Französisch): clichy-batignolles.fr
Ein Projekthaus kann vor Ort besichtigt werden; Fachbesuche können ebenfalls organisiert werden (155 bis rue Cardinet, Paris – contact@parisbatignolles.fr).

Redakteur: Sean Vavasseur, sean.vavasseur@diplomatie.gouv.fr

Weitere Informationen:
http://www.wissenschaft-frankreich.de/de/

Quelle: idw

(nach oben)


Durchbruch in der Messtechnik: Neuer Hochleistungslaser könnte Wettervorhersage revolutionieren

Florian Klebs Presse- und Öffentlichkeitsarbeit
Universität Hohenheim

Wetter- und Klimaforscher der Universität Hohenheim entwickeln Fernerkundungssysteme einer neuen Generation / Paper in Reviews of Geophysics

Wetterprognosen und Klimasimulationen könnten künftig wesentlich genauer werden. Möglich macht das die Lidar-Methode, die weltweit präziseste Technik zur Fernerkundung der Luftfeuchtigkeit und der Temperatur. Mit neuartigen Geräten haben Wetter- und Klimaforscher der Universität Hohenheim der Lidar-Technik zu einem entscheidenden Durchbruch verholfen. In den Hohenheimer Systemen kommt die neueste Hochleistungslaser-Technologie zur Anwendung. Ein internationales Forscherteam hat jetzt verschiedene Methoden zur Fernerkundung miteinander verglichen. Das Ergebnis: Die Hohenheimer Lidar-Systeme messen Wasserdampf und Temperatur in den unteren Atmosphärenschichten genauer und mit höherer Auflösung als alle anderen Systeme. Auch die Klimaforschung kann von der neuen Technik profitieren. Veröffentlicht ist die Studie in Reviews of Geophysics unter http://dx.doi.org/10.1002/2014RG000476

Diese Studie zeigt, dass noch heute dramatische Lücken in der Messung der Verteilung der Luftfeuchtigkeit und der Temperaturen in den unteren Atmosphärenschichten (bis zu 2-3 km Höhe) herrschen und damit die Qualität von Wettervorhersagen und Klimasimulationen deutlich beschränken.
Doch ganze Branchen sind von ihm abhängig: Der Wetterbericht entscheidet, ob der Bauer aufs Feld fährt, die Baustelle pausiert oder das Open-Air-Konzert stattfindet. Leider kann das öfters unliebsame Überraschungen geben.
Das soll sich künftig ändern – mit den neuen Lidar (Light Detection and Ranging)-Systemen, entwickelt von Wetter- und Klimaexperten der Universität Hohenheim. „Lidar wird die Wettervorhersage revolutionieren“, ist Prof. Dr. Volker Wulfmeyer, Leiter des Instituts für Physik und Meteorologie, überzeugt. „Vor allem bezüglich Genauigkeit und Vorhersagezeitraum kann diese Fernerkundungsmethode entscheidende Verbesserungen bringen.“
Ein internationales Forscherteam hat verschiedene Messtechniken miteinander verglichen. „Die Lidar-Systeme der Universität Hohenheim zur Wasserdampf- und Temperaturmessung zählen weltweit zu den am höchsten entwickelten bodengebundenen Systemen zur Erstellung von thermodynamischen Profilen“, bestätigt Dr. David D. Turner vom National Severe Storms Laboratory in den USA als einer der Koautoren der Studie.
Die Ergebnisse haben die Forscher jetzt in Reviews of Geophysics veröffentlicht. Diese Zeitschrift hatte im Jahr 2014 den höchsten Impact Factor aller Zeitschriften in den Geowissenschaften noch vor Nature Geoscience. Der Impact-Faktor gibt an, wie häufig im Jahresdurchschnitt ein in diesem Journal veröffentlichter Artikel zitiert wird.

Lidar-System schließt Daten-Lücken
Will man den Wasser- und Energiekreislauf im Erdsystem besser verstehen, sind möglichst genaue Darstellungen von Wasserdampf- und Temperaturprofilen in der unteren Troposphäre elementar. Fernerkundung liefert bereits heute wichtige Daten. „Diese sind jedoch noch recht ungenau“, bemängelt Prof. Dr. Wulfmeyer. „Besonders die Daten in Bodennähe lassen sehr zu wünschen übrig, Profile können praktisch noch nicht erstellt werden.“
„Es ist kaum zu glauben, wie lückenhaft unser Wissen über die Temperatur- und Feuchteverteilung in der Region ist“, so der Experte. „Man muss diesen Bereich noch heute als Terra Incognita bezeichnen. Dieses mangelhafte Wissen behindert elementar Fortschritte in der Qualität von Wettervorhersagen und Klimasimulationen.“
Diese Lücken konnten die Forscher mit Lidar schließen. Der Laser sendet einen kurzen Impuls in die Atmosphäre aus und analysiert dann das zurückgestreute Licht. Um Informationen über die Temperatur zu erhalten, arbeiten die Forscher im nicht sichtbaren UV-Bereich, zur Wasserdampf-Messung schickt Lidar einen infraroten Laserstrahl gen Himmel. Die Laufzeit der Signale lässt auf die Entfernung schließen. Die Signale sind so stark, dass innerhalb von Sekunden genaue Profile bis zu einer Höhe von mehreren Kilometern gemessen werden können.

Lidar-System bringt auch der Klimaforschung Vorteile
Eine Besonderheit der Hohenheimer Methode besteht darin, dass sie auch dreidimensionale Darstellungen ermöglicht. „Dafür wird der Laser wie ein Radar während des Messvorgangs gekippt“, erläutert Prof. Dr. Wulfmeyer. „Ohne diese Technik erhält man nur Informationen aus dem Teil der Atmosphäre, der senkrecht über dem Laser steht. Mit unserer Messung legen wir dagegen einen kompletten Schnitt von mehreren Quadratkilometern über die Landschaft.“ Und das sei besonders für die Entwicklung besserer Wettervorhersagemodelle interessant.
Koautor Dr. Turner bestätigt: „Einige hochentwickelte Lidar-Systeme haben über 10 Jahre lang Daten zu Wasserdampf und Temperatur gesammelt. Dazu zählt auch der Wasserdampf-Lidar, den wir im ‚Atmospheric Radiation Measurement‘-Programm verwenden. Diese Systeme sammeln jedoch nur Daten der direkt darüber befindlichen Luftsäule. Ein Alleinstellungsmerkmal der Hohenheimer Lidar-Systeme ist ihre Fähigkeit, mit Hilfe eines Scanners Temperatur und Wasserdampf in allen drei Dimensionen zu messen.“
Doch der Anwendungsbereich der neuen Technik beschränkt sich nicht nur auf die Wettervorhersage, sie ist für die Klimaforschung gleichermaßen von Bedeutung. „Modelle sind nur so gut wie die Daten, die für ihre Überprüfung genutzt werden“, so Prof. Dr. Wulfmeyer. „Klimamodelle haben immer noch ein Problem mit der Darstellung der Luftfeuchtigkeits- und Temperaturfelder nahe am Boden, sie müssen präziser werden. Diese Verbesserung ist auch entscheidend für eine genauere Simulation von Wolken und Niederschlag inklusive extremer Ereignisse.“
Dr. R. Michael Hardesty von der National Oceanic and Atmospheric Administration (NOAA) in Colorado/USA, ebenfalls Mitautor der Studie, erläutert: „Die Hohenheimer Lidar-Systeme gehören zu den weltweit ersten, deren Genauigkeit und Auflösung ausreicht, um Turbulenzmessungen durchzuführen und die neue Generation von hochauflösenden Wetter- und Klima-Modellen zu verifizieren. Ihre Auflösung ist mit der von handelsüblichen Doppler Lidar-Systemen für Windmessungen vergleichbar.“

Lidar-System bereit für den Praxis-Einsatz
Nun bleibt für das Lidar-System der Sprung in die Praxis. „Die Technik ist praxisreif und kann jetzt kommerzialisiert werden“, so Prof. Dr. Wulfmeyer zum Stand der Dinge. Er wünscht sich ein möglichst dichtes Netzwerk an kompakten und permanent messenden Lidar-Systeme mit der neuen Hochleistungslasertechnologie in der Hand der Wetterdienste: „20 Systeme wären für den Anfang schon recht gut.“
Text: Elsner / Klebs

Quelle: idw

(nach oben)


Energiewende – Was wir können und was wir wollen

Ibou Diop Stabsstelle Presse- und Öffentlichkeitsarbeit
Humboldt-Universität zu Berlin

Was können erneuerbare Energien leisten? Wie entstehen daraus Strom und Wärme? Welche Rolle spielt Wasserstoff in einer nachhaltigen Energieversorgung? Warum verabschieden wir uns nicht ganz von Öl und Kohle? Robert Schlögl, der renommierte deutsche Chemiker und Katalyseforscher, wird diesen Fragen im Rahmen der Helmholtz-Vorlesung nachgehen.

Es wird allgemein angenommen, dass die Energiewende unser Weg in eine sichere und wirtschaftlich erfolgreiche Zukunft ist. Die Optimierung des Einsatzes von erneuerbaren und fossilen Energieträgern soll zur Lösung des globalen Energieproblems des 21. Jahrhunderts beitragen. Erneuerbare Energien sind umweltfreundlich, global einsetzbar und reduzieren als heimische Energiequellen die Abhängigkeit von Energieimporten aus dem Ausland.

Durch den Vertrag von Paris hat die Energiewende eine neue Dimension bekommen, meint Robert Schlögl. Sie ist nun eine Verpflichtung, die Deutschland gemeinsam mit der EU eingegangen ist. Um diese zu erfüllen wird ein gesellschaftlich akzeptiertes Gesamtziel eines nachhaltigen Energiesystems benötigt. Es umfasst nicht nur Strom, sondern alle Sektoren der Verwendung von Energieträgern, die von der industriellen Produktion über Dienstleistung bis in den privaten Verbrauch reichen. In seinem Vortrag wird Robert Schlögl die Folgen der nicht auflösbaren Diskrepanz zwischen Angebot und Verbrauch aufzeigen. Darüber hinaus wird er auf die Rolle von chemischer Katalyse und Elektrokatalyse bei der Umwandlung erneuerbarer Energien in stoffliche Energieträger eingehen und die damit verbundenen Möglichkeiten und Grenzen an Beispielen der Wasserspaltung und der Synthese von Methanol aus CO2 erörtern.

Über Robert Schlögl:
Robert Schlögl (geb. 1954) wurde 1982 an der Ludwig-Maximilians-Universität München promoviert und war nach der Habilitation 1989 Professor für Anorganische Chemie an der Universität Frankfurt am Main, bevor er 1994 als Direktor an das Fritz-Haber-Institut der Max-Planck-Gesellschaft in Berlin berufen wurde. Er ist Gründungsdirektor am Max-Planck-Institut für Chemische Energiekonversion in Mülheim an der Ruhr und einer der Initiatoren des Forschungsverbundes MAXNET Energy. Schwerpunkt seiner Forschung ist die heterogene Katalyse, insbesondere die Verknüpfung von wissenschaftlicher Durchdringung mit technischer Anwendbarkeit sowie Fragestellungen zur Entwicklung nanochemisch optimierter Materialien für Energiespeicherkonzepte. Robert Schlögl ist Honorarprofessor an der Technischen Universität Berlin, der Humboldt-Universität, der Universität Duisburg-Essen und der Ruhruniversität Bochum. Er ist Mitglied zahlreicher nationaler und internationaler Organisationen, u.a. der Leopoldina, der Berlin-Brandenburgischen Akademie der Wissenschaften, der Deutschen Akademie der Technikwissenschaften (acatech) und der Royal Society of Chemistry.

Über die Helmholtz-Vorlesungen:
Die Helmholtz-Vorlesungen bringen schwierige wissenschaftliche Sachverhalte in einer verständlichen und unterhaltsamen Form einem breiten Publikum näher. Sie sind daher an die interessierte Öffentlichkeit und nicht an ein Fachpublikum gerichtet, auch wenn sie, ganz im Sinne von Helmholtz, grundsätzlich von wichtigen neuen Ideen, Entwicklungen oder Perspektiven im Detail handeln.

Gefördert von der Stiftung Mercator.

Kontakt:
Olga Shmakova
Humboldt-Universität zu Berlin
Hermann von Helmholtz-Zentrum für Kulturtechnik
Telefon: (030) 20932715
shmakool@hu-berlin.de

Cathrin Sengpiehl
Stiftung Mercator
Telefon: (0201) 24522841
cathrin.sengpiehl@stiftung-mercator.de

Quelle: idw

(nach oben)


Mikroplastikpartikel in Speisefischen und Pflanzenfressern

Ralf Röchert Kommunikation und Medien
Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung

Müll im Meer: Neue AWI-Studien zeigen, dass die Plastikreste in Nord- und Ostsee auch von Speisefischen und Meeresschnecken gefressen werden

Mikroplastikpartikel stellen nicht nur für Seevögel, Wale und Lebewesen am Meeresboden eine Gefahr dar. In zwei neuen Studien zeigen Wissenschaftler des Alfred-Wegener-Institutes, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI) jetzt, dass die Plastikreste auch von Meeresschnecken sowie Nord- und Ostseefischen wie Kabeljau und Makrele gefressen werden.

Plastik verrottet nicht, es verwittert nur. Das heißt, es zerbricht – zermürbt durch Sonnenlicht, UV-Strahlen, Wind und Wellen – in immer kleinere Fragmente. Sind diese Plastikreste kleiner als fünf Millimeter, gehören sie zum sogenannten Mikroplastik, das Forscher inzwischen in allen Weltmeeren nachweisen konnten.

Wissenschaftler des Alfred-Wegener-Institutes, Helmholtz-Zentrum für Polar- und Meeresforschung untersuchen die Menge und Verbreitung von Mikroplastik im Meer sowie dessen Auswirkungen auf die Meeresbewohner. In zwei neuen Studien haben die Biologen nun weitere Tiergruppen identifiziert, die Mikroplastikpartikel aufnehmen. Die erste Gruppe umfasst Nord- und Ostsee-Speisefische wie Kabeljau und Makrelen; die zweite Gruppe sind Pflanzenfresser wie Strandschnecken, die sich von Großalgen ernähren und Fischen sowie Krebsen als Beute dienen.

Makrelen verwechseln Plastikfasern mit Beute
In der Fisch-Studie haben die Wissenschaftler den Verdauungstrakt und Mageninhalt von 290 Makrelen, Flundern, Heringen, Dorschen und Klieschen aus der Nord- und Ostsee untersucht. Dabei zeigte sich, dass beispielsweise der Hering zu bestimmten Jahreszeiten gar keine Mikroplastikpartikel aufzunehmen scheint. Bei der Makrele hingegen schwankte der Prozentsatz der Tiere mit Mikroplastik in den Verdauungsorganen je nach Meeresregion zwischen 13 und 30 Prozent. Damit verschlucken Makrelen deutlich häufiger Mikroplastikpartikel als in Bodennähe lebende Fischarten wie Flunder und Kliesche.

„Die Ursache dafür liegt vermutlich im Fressverhalten der Fische“, sagt AWI-Biologe und Studienleiter Dr. Gunnar Gerdts. „Bei den gefundenen Mikroplastikpartikeln gehen wir davon aus, dass die Tiere die in der Wassersäule treibenden Fragmente ganz zufällig bei der Futtersuche mit aufgenommen haben. Anders sieht es bei einer Vielzahl der Plastikfasern aus, die wir vor allem bei den Makrelen gefunden haben. Vermutlich haben die Fische sie für Beute gehalten.“

Der Grund: Die Fasern treiben oft in relativ hoher Dichte an der Wasseroberfläche. Sie ähneln dann in Form und Farbe frisch geschlüpften Seenadeln, auf die Makrelen wiederum gern Jagd machen. „Unsere Ergebnisse deuten darauf hin, dass Fischarten, die an der Wasseroberfläche oder in den oberen Schichten nach Fressbarem suchen, eher Gefahr laufen, Plastik zu verschlucken, als andere“, so Gunnar Gerdts.

Wenig bekannt ist bisher über die Folgen der Plastikaufnahme für die Fische: „Bei einem der untersuchten Kabeljaue fanden wir ein etwa 50 Zentimeter langes Gummiband im Magen. Das Tier hatte es nicht wieder ausspucken können, war körperlich schon gezeichnet und wäre vermutlich auf lange Sicht verhungert“, erzählt Gunnar Gerdts. Könnte eine Ansammlung von Mikroplastikpartikeln im Fischmagen ebenso schwere Folgen haben? „Wir haben zumindest in unserer Studie keine Hinweise darauf gefunden“, so der AWI-Forscher.

Strandschnecken fressen Mikroplastik von Algenoberfläche
In der zweiten Mikroplastik-Studie untersuchte der AWI-Biologe Lars Gutow gemeinsam mit Kollegen im Labor, ob Pflanzenfresser wie die Gemeine Strandschnecke Littorina littorea Mikroplastikpartikel bei der Futtersuche aufnehmen. Die Schnecken leben zum Beispiel an der Felsküste Helgolands und fressen dort Blasentang und andere im Kelpwald wachsende Großalgen.

„Felsküsten und die dort lebenden Organismen, wie große Algen und deren Konsumenten, sind überraschender Weise bisher kaum auf Mikroplastik untersucht worden. Dabei sind es Orte wie diese, an denen das Meer die größeren Plastikstücke auf dem felsigen Untergrund in immer kleinere Teilchen zerreibt“, sagt Lars Gutow.

„Unsere Experimente zeigten, dass Mikroplastikpartikel besonders gut auf der strukturierten und klebrigen Oberfläche des Blasentangs haften. Dieses Ergebnis gab uns Anlass, anzunehmen, dass Tiere, die diese Algen abgrasen, unmittelbar Gefahr laufen, die Mikroplastikpartikel mit aufzunehmen“, so der AWI-Biologe.

Um diese Annahme zu überprüfen, nahmen die Wissenschaftler Algenproben an der Nordseeküste, sammelten Strandschnecken und bauten im Labor am AWI Bremerhaven Aquarien für verschiedene Versuche auf. Zuerst überprüften sie, wie viele Mikroplastikpartikel sich auf der Oberfläche des Blasentangs absetzten. Anschließend verfütterten die Wissenschaftler die Algen mit den daran anhaftenden fluoreszierenden Plastikfragmenten an die Schnecken.

Die Ergebnisse der anschließenden Untersuchungen im Fluoreszenz-Mikroskop waren eindeutig: „Je höher die Mikroplastik-Konzentration im Wasser ausfiel, desto mehr Partikel setzten sich auf der Algenoberfläche fest“, berichtet Lars Gutow. „Gleichzeitig konnten wir nachweisen, dass die Schnecken diese Plastikfragmente ganz unbeeindruckt mitfressen. Das heißt im Umkehrschluss: Wir müssen auch die Gruppe der marinen Pflanzenfresser in den Kreis der durch Mikroplastik betroffenen Tierarten mit aufnehmen.“

Bisher hatten sich Meeresforscher bei der Suche nach gefährdeten Arten vor allem auf jene Organismen konzentriert, die für die Nahrungsaufnahme den Meeresboden durchwühlen oder Meerwasser filtrieren. „Jetzt wissen wir, dass das Spektrum der betroffenen Arten viel größer ist und wir Lebensräume wie die Felsküstenbereiche ebenfalls berücksichtigen müssen“, so Lars Gutow.

Die Untersuchungen der AWI-Biologen zeigten allerdings auch, dass die Schnecken das aufgenommene Mikroplastik nahezu vollständig wieder ausschieden. „Die Schnecken besitzen in ihrem Magen eine komplexe Sortiereinheit. Diese sortiert mithilfe zahlloser Wimpernhärchen Partikel ab einer bestimmten Größe wieder aus. Das von uns eingesetzte Mikroplastik ist demzufolge weder verdaut worden, noch in den Blutkreislauf oder in das Gewebe der Tiere gelangt“, erklärt der AWI-Experte.

Die Gemeine Strandschnecke Littorina littorea gehört zu einer Reihe von Schlüsselorganismen, die AWI-Biologen in Hinblick auf das Gefährdungspotenzial von Mikroplastik untersuchen. „Unser Langfristziel lautet, eine genaue Risikoabschätzung darüber abgeben zu können, mit welcher Wahrscheinlichkeit bestimmte Tiergruppen Mikroplastikpartikel aufnehmen. Im Falle der Pflanzenfresser wissen wir jetzt, dass sie dies mit einer höheren Wahrscheinlichkeit machen als bisher angenommen wurde“, sagt Lars Gutow und fügt zum Abschluss hinzu: „Allerdings ist bisher sowohl für Fische als auch für die Strandschnecke völlig unbekannt, ob und wie es sich auf die Gesundheit der Tiere auswirkt, wenn sie über einen langen Zeitraum Mikroplastikpartikel aufnehmen.“

Die Studien sind unter folgendem Titeln in den Fachjournalen Marine Pollution Bullentin und Environmental Science & Technology erschienen:

• Christoph D. Rummel, Martin G.J. Löder, Nicolai F. Fricke, Thomas Lang, Eva-Maria Griebeler, Michael Janke, Gunnar Gerdts: Plastic ingestion by pelagic and demersal fish from the North Sea and Baltic Sea, Marine Pollution Bulletin, Link: http://www.sciencedirect.com/science/article/pii/S0025326X15301922
• Lars Gutow, Antonia Eckerlebe, Luis Gimenez, and Reinhard Saborowski: Experimental evaluation of seaweeds as vector for microplastics into marine food webs, Environmental Science & Technology, DOI: 10.1021/acs.est.5b02431 (Link: http://pubs.acs.org/doi/pdf/10.1021/acs.est.5b02431)

Druckbare Fotos sowie eine Infografik zum Thema „Wie gelangt der Müll in das Meer“ finden Sie in der Online-Version dieser Pressemitteilung unter:
http://www.awi.de/nc/ueber-uns/service/presse/pressemeldung/mikroplastikpartikel-in-speisefischen-und-pflanzenfressern.html

Weiterführende Informationen zur Müll-im-Meer-Forschung am Alfred-Wegener-Institut finden Sie auf unserer Online-Schwerpunktseite: http://www.awi.de/im-fokus/muell-im-meer.html

Ihre wissenschaftlichen Ansprechpartner am Alfred-Wegener-Institut sind:
• Dr. Gunnar Gerdts (Tel: +49 (0)4725 819 – 3245; E-Mail: Gunnar.Gerdts@awi.de)
• Dr. Lars Gutow (Tel.: +49 (0)471 4831 – 1708; E-Mail: Lars.Gutow@awi.de)

Das Alfred-Wegener-Institut forscht in der Arktis, Antarktis und den Ozeanen der mittleren und hohen Breiten. Es koordiniert die Polarforschung in Deutschland und stellt wichtige Infrastruktur wie den Forschungseisbrecher Polarstern und Stationen in der Arktis und Antarktis für die internationale Wissenschaft zur Verfügung. Das Alfred-Wegener-Institut ist eines der 18 Forschungszentren der Helmholtz-Gemeinschaft, der größten Wissenschaftsorganisation Deutschlands.

Quelle: idw

(nach oben)


Menschgemachter Klimawandel unterdrückt die nächste Eiszeit

Jonas Viering Presse- und Öffentlichkeitsarbeit
Potsdam-Institut für Klimafolgenforschung

Der Mensch ist zu einer geologischen Kraft geworden, die den Beginn der nächsten Eiszeit unterdrücken kann – das zeigt eine Studie, die jetzt im renommierten Fachmagazin Nature veröffentlicht wird. Wissenschaftler des Potsdam-Instituts für Klimafolgenforschung haben den Code der Eiszeiten geknackt und in dem Verhältnis von Sonneneinstrahlung auf die Erde und CO2-Konzentration in der Atmosphäre den Schlüssel gefunden, um die letzten acht Eiszyklen der Erdgeschichte zu erklären. Gleichzeitig machen ihre Ergebnisse deutlich, dass schon eine moderate Störung des natürlichen Kohlenstoffhaushalts des Planeten durch den Menschen die nächste Eiszeit um 100.000 Jahre verschieben könnte.

„Auch ohne den menschengemachten Klimawandel würden wir den Beginn einer neuen Eiszeit erst in etwa 50.000 Jahren erwarten – das macht das Holozän als gegenwärtige Epoche bereits zu einer ungewöhnlich langen Phase zwischen zwei Eiszeiten“, erklärt Leitautor Andrey Ganopolski. „Unsere Studie zeigt jedoch auch, dass bereits relativ moderate zusätzliche CO2-Emissionen aus der Verbrennung von Öl, Kohle und Gas ausreichen, um die nächste Eiszeit um weitere 50.000 Jahre zu verzögern. Unter dem Strich bedeutet dies, dass wir einen kompletten Eiszeitzyklus überspringen, was beispiellos ist. Es ist wirklich verblüffend: Der Mensch ist in der Lage, einen der fundamentalen Mechanismen zu stören, die die Welt geformt haben, wie wir sie heute kennen.“

Erstmals kann die Wissenschaft den Beginn der letzten Eiszeiten durch die Bestimmung von Schlüsselfaktoren erklären, die dem Beginn einer neuen Eiszeit vorangehen. „Unsere Ergebnisse lassen eine funktionale Beziehung zwischen der Sonneneinstrahlung im Sommer und atmosphärischem CO2 erkennen, die den Beginn einer neuen Eiszeit kennzeichnet. So lässt sich nicht nur die Vergangenheit erklären, es ermöglicht uns auch künftige Perioden abzusehen, in denen ein neuer Eiszeitzyklus einsetzen kann“, sagt Ganopolski.

Der Mensch als geologische Kraft
Mit einem ausgeklügelten Computermodell des Erdsystems, in dem die Dynamik von Atmosphäre, Ozean, Eisschilden und der globale Kohlenstoffzyklus simuliert werden, haben die Wissenschaftler den Effekt menschgemachter CO2-Emissionen auf das Eisvolumen der Nordhalbkugel untersucht. „Weil Kohlendioxid in der Atmosphäre extrem langlebig ist, haben vergangene wie künftige Emissionen großen Einfluss darauf, wann ein neuer Eiszeitzyklus beginnt“, sagt Ko-Autorin Ricarda Winkelmann. „Unsere Analyse zeigt, dass schon geringe zusätzliche Kohlenstoff-Emissionen die Entwicklung der Eisbedeckung auf der Nordhalbkugel wohl auf zehntausende Jahre beeinflussen würde, während künftige CO2-Emissionen von 1.000 oder 1.500 Gigatonnen Kohlenstoff die nächste Eiszeit um mindestens 100.000 Jahre verschieben könnten.“

Die Suche nach den Ursachen von Eiszeitzyklen gehört zu den faszinierendsten Fragen der Erdsystemanalyse und der Paläo-Klimatologie, der Wissenschaft von Klimaveränderungen in der gesamten Geschichte des Planeten. Für gewöhnlich markiert eine Periode geringer Sommer-Sonneneinstrahlung den Beginn einer neuen Eiszeit; Bedingungen wie wir sie derzeit vorfinden. Allerdings gibt es derzeit keine Hinweise auf den Beginn einer neuen Eiszeit: „Das war die Motivation für diese Studie. Das Rätsel zu lösen, welche Mechanismen die vergangenen Eiszeitzyklen angetrieben haben, ermöglicht uns auch, den Anfang eines neuen Eiszeitalters abzusehen“, so Winkelmann.

„Wie keine andere Kraft auf dem Planeten haben Eiszeiten unsere globale Umwelt geformt und damit auch die Entwicklung der menschlichen Zivilisation bestimmt. Wir verdanken unter anderem unsere fruchtbaren Böden der letzten Eiszeit; sie hat auch unsere heutige Landschaft gestaltet durch Gletscher und Flüsse, Fjorde, Moränen und Seen, die aus ihr entstanden sind. Heute ist es jedoch die Menschheit mit ihren Emissionen aus fossilen Brennstoffen, die die zukünftige Entwicklung des Planeten bestimmt“, sagt Ko-Autor Hans Joachim Schellnhuber, Direktor des Potsdam-Instituts. „Das zeigt sehr deutlich, dass wir schon längst in eine neue Ära eingetreten sind, und dass die Menschheit im Anthropozän selbst zur geologischen Kraft geworden ist. Tatsächlich führt das vielleicht eine Epoche herbei, die mit dem Begriff Deglazial überschrieben werden könnte.“

Artikel:
Ganopolski, A., Winkelmann, R., Schellnhuber, H.J. (2016): Critical insolation-CO2 relation for diagnosing past and future glacial inception. Nature [DOI:10.1038/nature16494]

Weblink zum Artikel: http://www.nature.com/nature/index.html

Kontakt für weitere Informationen:
Potsdam-Institut für Klimafolgenforschung, Pressestelle
Telefon: +49 (0)331 288 2507
E-Mail: presse@pik-potsdam.de
Twitter: @PIK_Klima

Quelle: idw

(nach oben)


Studie der Uni Halle: Weltgeschehen beeinflusst Bienenvölker stärker als Pestizide

Tom Leonhardt Pressestelle
Martin-Luther-Universität Halle-Wittenberg

Pestizide und Parasiten sind nicht für den regionalen Rückgang von Honigbienenvölkern verantwortlich. Wie Biologen der Martin-Luther-Universität Halle-Wittenberg (MLU) herausgefunden haben, spielen politische und sozio-ökonomische Veränderungen, wie Revolutionen oder auch Bürgerkriege, und der globale Honighandel eine wesentlich größere Rolle. Weltweit wächst die Zahl der Bienenvölker und es wird auch mehr Honig produziert. Ihre Erkenntnisse haben die Forscher im Journal „Agriculture, Ecosystems & Environment“ veröffentlicht.

Bienen erfüllen für Mensch und Natur viele wichtige Aufgaben. Dazu gehört vor allem das Bestäuben von Nutzpflanzen. Während in der Landwirtschaft der Bestäubungs-Bedarf in den letzten 50 Jahren um über 300 Prozent angewachsen ist, stieg die Zahl der Bienenvölker weltweit nur um 60 Prozent an. Allerdings ist diese Entwicklung regional extrem unterschiedlich wie Prof. Dr. Robin Moritz und Dr. Silvio Erler vom Institut für Biologie der MLU zeigen. In West-Europa und den USA verzeichnet man seit Jahren einen starken Rückgang. Allein in Europa seien zwischen 1989 und 1995 rund sieben Millionen Bienenvölker verschwunden.

Für ihre Forschung haben die Wissenschaftler die statistischen Angaben der Welternährungsorganisation der Vereinten Nationen (FAO) zu Honigproduktion und -handel der letzten 50 Jahre aus rund 100 Ländern ausgewertet. Dazu gehören Angaben über die Anzahl der Bienenvölker in einem Land, die Menge an jährlich produziertem Honig sowie Aussagen darüber, wie viel Honig ein Land pro Jahr importiert und exportiert.

Der extreme Rückgang der Bienenvölker in Europa Anfang der 1990er Jahre fällt zeitlich mit dem Ende der Sowjetunion und auch der politischen Wende in Deutschland zusammen. „Vor 1989 wurde die Imkerei in der DDR staatlich stark subventioniert“, so Robin Moritz. Die Imker hätten ihren Honig zu hohen Preisen an den Staat verkaufen können, der den Honig dann deutlich günstiger weiterverkaufte. Nach der Wiedervereinigung verlor die Imkerei durch die fehlenden Subventionen an Attraktivität, zudem nahm die Bevölkerung in den neuen Bundesländern rapide ab. Dadurch ging auch die Anzahl der Bienenvölker um bis zu 50 Prozent zurück. „Das zeigt deutlich, dass politische Entwicklungen einen starken Einfluss auf die Zahl der Bienenvölker haben können“, fasst Moritz zusammen.

In den Medien werde jedoch häufig die These vertreten, dass vor allem der Einsatz von Pestiziden, Parasiten oder Wetterextreme für den Rückgang von Bienenvölkern verantwortlich sind. „Für die Bienenvölker, die von Imkern gehalten werden, trifft das aber nur bedingt zu“, so Silvio Erler. Würde ein Bienenvolk zum Beispiel in Folge eines besonders harten Winters sterben, so gleichen die Imker dies in der Regel im Folgejahr aus. Faktoren, wie Pestizide oder Krankheiten, hätten zwar Einfluss auf das Bienensterben, aber keinen größeren Einfluss auf die Zahl der gehaltenen Bienenvölker. Dies gilt jedoch nur für von Imkern gehaltene Honigbienen, sie lassen keine Rückschlüsse auf das Sterben der vielen Wildbienen zu, die keine Imker haben, die sich um die Bienen kümmern.

Die Statistik der FAO zeigt, dass der globale Honighandel in einem sehr engen Zusammenhang mit der Zahl der Bienenvölker steht: Länder, in denen sich Honig relativ einfach und kostengünstig produzieren lässt, verkaufen diesen auf dem Weltmarkt zu günstigen Preisen. Diese Länder haben auch viele Bienenvölker. „Länder, die viel Honig importieren, erleiden hingegen einen Rückgang an Bienenvölkern“, ergänzt Erler. Für einige dieser Länder haben die Wissenschaftler eine kuriose Beobachtung gemacht: Obwohl die Zahl der Bienenvölker zurückgeht, bleibt die Menge des erzeugten Honigs konstant. „Besonders erstaunlich ist, dass die Produktivität eines Bienenvolks oft exakt mit der Menge des importierten Honigs zunimmt. Das wäre nur möglich, wenn die Bienen vorher wüssten, wie viel Honig im nächsten Jahr importiert wird, um sich dann beim Sammeln besonders anzustrengen“, so Moritz. Das sei biologisch wenig plausibel und ein Grund zur Annahme, dass in einigen Ländern im großen Maßstab importierter Honig als selbst erzeugter ausgegeben wird.

Aus der FAO-Statistik lässt sich noch eine weitere Beobachtung ableiten: „In Asien kommt die westliche Honigbiene immer häufiger als die einheimische Honigbiene zum Einsatz.“ Die westliche Honigbiene werde von asiatischen Imkern bevorzugt, weil sie einfacher in der Haltung ist und ihre Völker mehr Honig produzieren. Aus dieser Entwicklung ergebe sich nicht nur ein Problem für die Imkerei, sondern auch für die Artenvielfalt. Die Varroamilbe, ursprünglich ein eher harmloser Parasit der asiatischen Honigbiene, wurde durch die Importe nach Asien weltweit ein gefährlicher Bienenparasit für die westliche Honigbiene. Da die westliche Honigbiene immer häufiger in weiten Teilen Asiens eingesetzt wird, droht einerseits die Gefahr neuer Krankheiten durch weitere Erreger, zum anderen werden die ursprünglichen Arten der Honigbiene in Asien verdrängt. Derzeit gibt es in Asien noch neun unterschiedliche Bienenarten. Das könnte sich aber innerhalb weniger Jahre ändern.

Zur Publikation:
Robin F.A. Moritz, Silvio Erler (2016) Lost colonies found in a data mine: Global honey trade but not pests or pesticides as a major cause of regional honeybee colony declines. Agriculture, Ecosystems & Environment, Volume 216, 15 January 2016, Pages 44-50, ISSN 0167-8809, http://dx.doi.org/10.1016/j.agee.2015.09.027.

Quelle: idw

(nach oben)


Weniger als die Hälfte der Mädchen in Deutschland gegen krebserregende humane Papillomviren geimpft

Barbara Ritzert Pressestelle Versorgungsatlas – ProScience Communications
Versorgungsatlas

In Deutschland wird weniger als die Hälfte der Mädchen gegen humane Papillomviren (HPV) geimpft, die bei der Entstehung von Gebärmutterhalskrebs eine Rolle spielen. Das zeigt eine im Versorgungsatlas veröffentlichte Untersuchung des Robert Koch-Instituts (RKI) in Kooperation mit den Kassenärztlichen Vereinigungen. Auffallend sind vor allem die sehr ausgeprägten regionalen Unterschiede auf Länder- und Kreisebene.

Seit Mai 2007 empfiehlt die ständige Impfkommission (STIKO) für Mädchen im Alter zwischen 12 und 17 Jahren die HPV-Impfung. Da ein bundesweites Monitoring der HPV-Impfquoten nicht existiert, haben Wissenschaftler des Robert Koch-Institutes in Kooperation mit den Kassenärztlichen Vereinigungen diese Quoten aus bundesweiten vertragsärztlichen Abrechnungsdaten für das Ende des Jahres 2013 berechnet. In der Gruppe der 12-jährigen Mädchen hatten bundesweit weniger als ein Prozent die drei erforderlichen Immunisierungen erhalten. Bei den 17-Jährigen hatten 40 Prozent die komplette Impfung erhalten. Die Quoten steigen in den Altersgruppen linear an.

Höhere Quoten in den neuen Bundesländern.
Im Ländervergleich sind bei den 12-Jährigen Baden-Württemberg und Bremen die Schlusslichter – nur 0,3 Prozent der Mädchen sind dort jeweils vollständig geimpft. Am höchsten war die Quote in dieser Altersgruppe mit 2,2 Prozent in Sachsen-Anhalt. Bei den 17-Jährigen sind die Quoten in Bremen mit 30 Prozent am geringsten. In Mecklenburg-Vorpommern sind hingegen 59 von 100 Mädchen gegen eine HPV-Infektion geschützt.

Bayern ist Schlusslicht auf Kreisebene.
In der bayerischen kreisfreien Stadt Kaufbeuren konnten die Wissenschaftler in den Daten der 12-Jährigen kein einziges Mädchen identifizieren, bei dem die Impfung zumindest begonnen wurde. In 61 der 402 bundesweiten Kreise und kreisfreien Städte hatte keines der Kinder eine vollständige Impfung erhalten. Mehr als die Hälfte dieser Kreise liegen in Bayern. Im Unstrut-Hainich- Kreis (Thüringen) verzeichneten die Forscher mit 3,5 Prozent die höchste Quote vollständig geimpfter 12-jähriger Kinder.

Auch in der Gruppe der 17-Jährigen kommen die Schlusslichter aus Bayern: Im Landkreis Mühlendorf am Inn sind nur 13 von 100 Mädchen vollständig immunisiert. Demgegenüber glänzt der Kyffkäuserkreis in Thüringen mit einem Höchstwert von 70 Prozent.

Studie liefert Informationen für Empfehlungen.
„Die KV-Impfsurveillance bietet zeitnahe Informationen für die Überprüfung und Optimierung gegenwärtiger Impfempfehlungen und für gezielte Interventionen“, schreiben die Wissenschaftler. So haben die Daten einer vorausgegangenen Untersuchung aus dem Jahr 2014 die Entscheidung der Ständigen Impfkommission unterstützt, das empfohlene Impfalter auf neun bis 14 Jahre zu senken. In diesem Alterssegment genügen zwei statt drei Impfstoffdosen zur vollständigen Immunisierung. Außerdem können Ärztinnen und Ärzte die Vorsorgeuntersuchungen (U11 und J1) nutzen, um die HPV-Impfung anzubieten. „Dies kann sich positiv auf die Impfquoten auswirken“, hoffen die Forscher.

DIE STUDIE HPV-Impfquoten im Regionalvergleich: Eine Sekundärdatenanalyse aus der KV-Impfsurveillance. Thorsten Rieck, Marcel Feig, Ole Wichmann. Robert Koch-Institut, Fachgebiet 33 – Impfprävention.
Für Ihre Untersuchung hat das Wissenschaftler-Team des RKI vertragsärztliche Abrechnungsdaten der Jahre 2008 bis 2013 von 16 der insgesamt 17 Kassenärztlichen Vereinigungen ausgewertet. Das Team zog eine Stichprobe mit 1,13 Millionen Mädchen, die knapp die Hälfte (49%) der 12-17-jährigen Mädchen des Jahres 2013 repräsentiert. Erstmals wurden dabei die Impfquoten nach Altersgruppe und bis auf Kreisebene ausgewertet. Die Forscher berechneten sowohl die Quoten der angefangenen als auch die der abgeschlossenen Immunisierungen.

DER VERSORGUNGSATLAS www.versorgungsatlas.de ist eine Einrichtung des Zentralinstituts für die kassenärztliche Versorgung (Zi). Er wurde institutionalisiert als öffentlich zugängliche Informationsquelle mit Studien zur medizinischen Versorgung in Deutschland. Schwerpunkt der Studien sind regionale Unterschiede in der Versorgung sowie deren unterschiedliche Strukturen und Abläufe. Die Analysen basieren auf den bundesweiten Abrechnungsdaten der vertragsärztlichen Versorgung und Arzneiverordnungsdaten in Deutschland und sollen Anhaltspunkte liefern, wie die Versorgung verbessert werden kann. Die Internet-Plattform steht aber auch anderen Forschergruppen zur Verfügung, die ihre Untersuchungen nach einem Peer-Review veröffentlichen können.

Weitere Informationen:
http://www.versorgungsatlas.de/hpv-impfung (direkt zur Studie)
http://www.versorgungsatlas.de

Anhang
HPV-Impfquoten im Regionalvergleich: Eine Sekundärdatenanalyse aus der KV-Impfsurveillance
https://idw-online.de/de/attachment48288

Quelle: idw

(nach oben)


Rente: Deutsche oft deutlich schlechter abgesichert als Österreicher

Rainer Jung Abt. Öffentlichkeitsarbeit
Hans-Böckler-Stiftung

Neue Studie untersucht Reformen in Nachbarländern

Deutschland und Österreich sind sich sozial, wirtschaftlich und politisch sehr ähnlich. Trotzdem sind die beiden Länder bei den Reformen ihrer Rentensysteme ganz unterschiedliche Wege gegangen.

In Österreich konzentriert sich die Altersversorgung nach wie vor weitgehend auf die umlagefinanzierte Gesetzliche Rentenversicherung (GRV), in die auch die Selbständigen einbezogen wurden und deren Bestimmungen schrittweise für Beamte zur Anwendung kommen. In Deutschland wurde und wird über die kommenden Jahre das Niveau dieser „ersten Säule“ dagegen deutlich reduziert, um den Beitragssatz in der GRV zu stabilisieren. Die geringeren Leistungen sollte vor allem die private, aber staatlich subventionierte, Riester-Vorsorge ausgleichen.

Nach rund 15 Jahren lassen sich laut einer neuen Studie der Hans-Böckler-Stiftung deutliche Konsequenzen dieser unterschiedlichen Ansätze beobachten: In Deutschland sind Beschäftigte über die GRV mittlerweile weitaus geringer abgesichert. Das unterstreichen zahlreiche Kennziffern. Beispielsweise erhielten im Jahr 2013 langjährig (mindestens 35 Jahre) und besonders langjährig (mindestens 45 Jahre) versicherte Männer, die neu in Rente gingen – die Einschränkung auf Männer erfolgt, weil hier in der Regel von durchgehender Vollzeitbeschäftigung ausgegangen werden kann – in Deutschland im Durchschnitt 1.050 Euro monatliche Altersrente. In Österreich kam ein vergleichbarer Neurentner dagegen auf 1.560 Euro – bei 14 Auszahlungen pro Jahr. Auch für die heute Jüngeren sind die Rentenperspektiven in Österreich wesentlich besser als in Deutschland.

Eine der Bedingungen für die besseren Leistungen in der Alpenrepublik ist ein spürbar höherer Beitrag zur GRV. Die gesamte Beitragsbelastung für Beschäftigte ist im Vergleich zu Deutschland allerdings nur höher, wenn man die 4 Prozent Beitragssatz zur zusätzlichen Riester-Vorsorge nicht mit einrechnet. Auch wenn die Arbeitgeber in Österreich höhere Beiträge leisten müssen, war die gesamtwirtschaftliche Entwicklung dort seit Beginn der Reformen günstiger als in Deutschland.

Zu diesen Ergebnissen kommt die neue Studie, die Wissenschaftler des Wirtschafts- und Sozialwissenschaftlichen Instituts (WSI) und des Instituts für Makroökonomie und Konjunkturforschung (IMK) der Hans-Böckler-Stiftung gemeinsam mit Forschern der Arbeiterkammer Wien und der Berliner Hochschule für Technik und Wirtschaft erstellt haben.* Sie wird heute auf einer Pressekonferenz in Berlin vorgestellt.

„Der Vergleich zeigt, dass das österreichische System einen deutlich besseren Schutz im Alter durch höhere Leistungen gewährleistet“, konstatieren die Autoren Dr. Florian Blank, Prof. Dr. Camille Logeay , Mag. Erik Türk, Dr. Josef Wöss und Dr. Rudolf Zwiener. „Dabei sind die ökonomischen Rahmendaten in Österreich denen in Deutschland weiterhin vergleichbar – ein starkes öffentliches Rentensystem belastet also offenbar nicht die wirtschaftliche Leistungsfähigkeit eines Landes.“ Die Forscher halten es für möglich, durch Orientierung an Österreich ein stabileres Alterssicherungssystem zu erreichen – ohne dass ein erneuter Systemwechsel nötig sei.

– Erwartungen an Kapitaldeckung haben sich nicht erfüllt –
Einen wichtigen Grund für das schwächere Abschneiden des deutschen Alterssicherungssystems sehen die Wissenschaftler darin, dass sich die Erwartungen, die zur Jahrtausendwende mit einem teilweisen Umstieg auf Kapitaldeckung verbunden waren, nicht erfüllt haben. Die deutlichen Reduzierungen in der GRV werden durch die kapitalgedeckte „zweite“ (betriebliche Altersvorsorge) und „dritte“ (Riester-Rente) Säule oft nicht ausgeglichen. „Übrig geblieben ist ein System, das in Zukunft viele noch nicht einmal vor Altersarmut schützen wird“, schreiben die Wissenschaftler. Das habe zwei Ursachen: Erstens erreiche weder die betriebliche noch die Riester-Rente alle Beschäftigten. Umfragen zeigen, dass nur rund 35 Prozent „riestern“. Aussicht auf eine betriebliche Rente haben gut 56 Prozent. Knapp 30 Prozent aller Arbeitnehmer nutzen keine der freiwilligen Vorsorgeformen. Das gilt besonders häufig für Beschäftigte mit niedrigen Einkommen. Sie hätten zwar eine zusätzliche Absicherung besonders nötig, verzichten aber darauf – oft aus finanziellen Gründen.

Zweitens bringen insbesondere viele Riester-Verträge nach Einschätzung der Wissenschaftler nicht die Renditen, die nötig wären, um Lücken in der gesetzlichen Rente auszugleichen. Das zeige sich an den hohen Gebühren und am stetig sinkenden Garantiezins, der von 4 Prozent im Jahr 2000 auf mittlerweile nur noch 1,25 Prozent herabgesetzt wurde.

– Ersatzrate der GRV in Österreich rund doppelt so hoch –
Neben den aktuellen Unterschieden bei den Auszahlungsbeträgen für (besonders) langjährig Versicherte nennen die Wissenschaftler weitere Kennzahlen, die für die nächsten Jahrzehnte einen deutlichen Rückstand der Alterssicherung in Deutschland gegenüber Österreich illustrieren. So nimmt Deutschland in internationalen Vergleichen der Industrieländer-Organisation OECD beim gesetzlichen Rentenniveau einen Platz am unteren Rand ein, während Österreich relativ weit oben rangiert.

Diese Differenz drückt sich unter anderem im so genannten Rentenniveau aus. Es beziffert, wie hoch die Rente eines „Standardrentners“ im Verhältnis zum mittleren Einkommen ist. Für Österreich weist die neueste OECD-Projektion ein zukünftiges Rentenniveau von 78,1 Prozent (brutto, vor Steuern und Sozialabgaben) und 91,6 Prozent (netto) aus. In Deutschland ist das zukünftige Rentenniveau der GRV hingegen weitaus niedriger: 37,5 Prozent brutto und 50,0 Prozent netto. Den Berechnungen der OECD liegt jeweils ein Rentenalter von 65 Jahren nach 45 Beitragsjahren mit „Durchschnittsverdienst“ zugrunde. Während in Österreich 65 Jahre das reguläre Rentenalter darstellen, basieren die Berechnungen für Deutschland auf der Sonderregelung für besonders langjährig Versicherte, die künftig nach 45 Beitragsjahren eine abschlagsfreie Rente ab 65 Jahren vorsehen. Der große Rückstand der Deutschen lasse sich durch private Zusatzvorsorge selbst unter den aus Sicht der Forscher zu optimistischen Annahmen der OECD nur zur Hälfte ausgleichen.

Auch Geringverdiener sind nach Analyse der Wissenschaftler im österreichischen System merklich besser abgesichert. Neben dem höheren Rentenniveau sichern die von der Rentenversicherung ausbezahlten, steuerfinanzierten „Ausgleichszulagen“ mit rund 12.000 Euro jährlich (für Alleinstehende) Rentnern ein merklich höheres Mindesteinkommen.
Eine leichte Annäherung der Rentenniveaus im hohen Alter sei allenfalls unter günstigen Bedingungen durch die unterschiedlichen Anpassungsmechanismen bei Bestandrenten zu erwarten, so die Forscher: Während die österreichische GRV einen jährlichen Inflationsausgleich vorsieht, koppelt die deutsche GRV die Rentenentwicklung an das Wachstum der Löhne, allerdings gedämpft unter anderem durch den so genannten Nachhaltigkeitsfaktor. In den vergangen zehn Jahren führten die unterschiedlichen Anpassungsmechanismen tatsächlich aber zu einem deutlich größeren Abstand.

– Höherer Beitrag, trotzdem bessere wirtschaftliche Entwicklung –
Die deutlich höheren GRV-Leistungen in Österreich sind mit einem deutlich höheren Beitragssatz verbunden. Er beträgt seit 1988 unverändert 22,8 Prozent, in Deutschland sind es im Jahr 2015 18,7 Prozent. Rechnet man in Deutschland 4 Prozent Beitragssatz zur Riester-Vorsorge hinzu, dann sind die Beitragssätze in beiden Ländern fast gleich hoch. Dabei tragen die österreichischen Arbeitgeber einen höheren Anteil am Rentenbeitrag als die Beschäftigten (12,55 Prozent vs. 10,25 Prozent), während es in Deutschland umgekehrt ist, wenn man die Beiträge zur Riester-Rente mit einrechnet. Die demografische Situation ist in Österreich aufgrund deutlich höherer Immigration in der Vergangenheit günstiger, was durch ein niedrigeres durchschnittliches Rentenalter allerdings zum Teil relativiert wird.

Als weiteren Faktor bei der Stärkung des gesetzlichen Rentensystems nennt die deutsch-österreichische Forschergruppe die Ausgestaltung der österreichischen GRV als Erwerbstätigenversicherung. Zudem werden seit rund einem Jahrzehnt die vordem deutlich großzügigeren Regelungen zur Beamtenversorgung an das Leistungsniveau der GRV angeglichen.

Die Wettbewerbsfähigkeit der österreichischen Wirtschaft haben die höheren Lohnnebenkosten zur Alterssicherung offenbar nicht gebremst, betonen die Wissenschaftler. Die wichtigsten Rahmendaten zeigen: Auch bei einem höheren Rentenbeitrag und insgesamt stärker steigenden Arbeitskosten seit der Jahrtausendwende hat sich die österreichische Wirtschaft in diesem Zeitraum deutlich kräftiger entwickelt. Während das Bruttoinlandsprodukt in Österreich von 2000 bis 2014 um 23 Prozent zunahm, betrug das Wirtschaftswachstum in Deutschland 17 Prozent. Die Erwerbstätigkeit nahm in Österreich um 15 Prozent zu, in Deutschland um sieben Prozent. Auch die Arbeitsproduktivität pro Stunde wuchs in Österreich (19 Prozent) stärker als beim Nachbarn (17 Prozent), gleichzeitig legten die nominalen Arbeitnehmerentgelte in der Alpenrepublik kräftiger zu.

„Letztlich verfolgte Österreich seit Beginn der europäischen Währungsunion im Jahr 1999 einen balancierteren Wachstumskurs, mit einem stärkeren Wachstum der Binnennachfrage und einem guten, aber geringeren Exportwachstum als Deutschland“, schreiben die Forscher. „Ein stärkeres öffentliches Sicherungssystem ist möglich und setzt die Wirtschaft auch nicht unter übermäßigen Druck.“

– Stärkung der gesetzlichen Rentenversicherung sinnvoll –
Sozialpolitische Strategien seien nicht einfach von einem Land auf das andere übertragbar, betonen die Forscher. Trotzdem halten sie eine intensive Beschäftigung mit dem österreichischen Weg der Alterssicherungsreformen für empfehlenswert. Die Erfahrungen aus dem Nachbarstaat zeigten, dass eine starke öffentliche Alterssicherung bessere Ergebnisse bringt. So habe es sich als sinnvoller erwiesen, öffentliche Mittel in eine Stärkung der GRV unter anderem zur Aufstockung niedriger Renten zu investieren als damit kapitalgedeckte Zusatzvorsorge zu subventionieren, von der Besserverdienende am ehesten profitieren.

Daher ist es aus Sicht der Forscher sinnvoll, in einem ersten Schritt den Riester-Faktor aus der Rentenformel zu entfernen und so das Leistungsniveau der GRV zu stabilisieren. Gleichzeitig solle die öffentliche Förderung der Riester-Rente nur eine untergeordnete Bedeutung haben – sofern sie „aus Vertrauensschutzgründen“ überhaupt weiterhin notwendig sei.

Auch bei der Gestaltung der betrieblichen Altersvorsorge sehen die Wissenschaftler bedenkenswerte Ansätze in Österreich. Dort sind Arbeitgeber an der Finanzierung der – insgesamt wenig verbreiteten Betriebsrenten – verpflichtend mindestens zur Hälfte beteiligt. In Deutschland ist es dagegen möglich, dass der Arbeitgeber bei der „Entgeltumwandlung“ keine Beiträge leistet, so unter dem Strich sogar Lohnnebenkosten einspart und damit durch die Nutzung einer „betrieblichen Altersvorsorge“ sogar Zusatzgewinne erzielen kann. „Eine mindestens paritätische Mitfinanzierung der Arbeitgeber wäre Bedingung für eine tragfähige Entgeltumwandlung als Teil der betrieblichen Altersvorsorge, die dann auch verpflichtend für alle Beschäftigten gemacht werden müsste und die gesetzliche Rente nicht schmälern dürfte“, schreiben die Forscher.

Schließlich halten die Forscher einen Ausbau der GRV zu einer Erwerbstätigenversicherung für empfehlenswert. Österreich zeige, dass auch eine schrittweise Anpassung der Beamtenversorgung an die gesetzliche Rente wirtschaftlich und rechtlich möglich und, bei großzügigen Übergangsregeln, auch im Konsens umzusetzen sei.

Ansprechpartner in der Hans-Böckler-Stiftung
Dr. Florian Blank
Sozialversicherungsexperte, WSI
Tel.: 0211-7778-581
E-Mail: Florian-Blank@boeckler.de

Dr. Rudolf Zwiener
Rentenexperte, IMK
Tel.: 0211-7778-333
E-Mail: Rudolf-Zwiener@boeckler.de

Rainer Jung
Leiter Pressestelle
Tel.: 0211-7778-150
E-Mail: Rainer-Jung@boeckler.de

Weitere Informationen:
http://www.boeckler.de/pdf/p_wsi_report_27_2016.pdf – *Florian Blank, Camille Logeay, Erik Türk, Josef Wöss, Rudolf Zwiener: Alterssicherung in Deutschland und Österreich: Vom Nachbarn lernen? WSI-Report Nr. 27, Januar 2016.

Quelle: idw

(nach oben)


LIFE-Projekt „Lebendige Lahn“ – Hessen, Rheinland-Pfalz und der Bund gemeinsam für mehr Leben

Dipl.-Met. Alfred Hommes Referat Öffentlichkeitsarbeit
Bundesanstalt für Gewässerkunde

Das LIFE-Projekt „Lebendige Lahn“ kann starten! Mit dem Projekt wollen die Länder Hessen und Rheinland-Pfalz, die Wasser- und Schifffahrtsverwaltung des Bundes und die Bundesanstalt für Gewässerkunde die Lahn ökologisch aufwerten.
Für dieses Integrierte Projekt im Rahmen von LIFE (LIFE IP) stellt die Europäische Kommission rund neun Millionen Euro zur Verfügung, weitere etwa sechs Millionen Euro steuern die Projektpartner über die Gesamtlaufzeit des Projektes von zehn Jahren bei.

Die Lahn ist ein typischer Mittelgebirgsfluss mit bedeutenden Städten und malerischen Landschaften. Im Zuge ihres Ausbaus zur Wasserstraße im 19. Jahrhundert wurde sie über weite Strecken ökologisch von ihren Auen abgeschnitten, ihre Ufer befestigt und ihre Dynamik durch Staustufen eingeschränkt.
Von Gießen bis zur Mündung in den Rhein ist die Lahn im Eigentum des Bundes. Heute hat sie aufgrund veränderter Transportströme und Schiffsgrößen ihre Bedeutung für den Güterverkehr verloren. Deshalb wird die zuständige Wasser- und Schifffahrtsverwaltung ihre Ziele für zukünftige Unterhaltungsmaßnahmen und Investitionen überprüfen.

Mit den EU Fördermitteln soll unter anderem ein Konzept für die Zukunft der Bundeswasserstraße Lahn entwickelt werden, das die notwendige Neuorientierung unterstützen soll. Das Lahn-Konzept verfolgt einen ganzheitlichen Ansatz, um die zahlreichen Belange und Nutzungsinteressen der Lahnanlieger zu integrieren. Dazu werden die Projektpartner die Zusammenarbeit mit den Land- und Gewässernutzern, den Naturschutz- und Tourismusverbänden und natürlich den Menschen vor Ort suchen.

Darüber hinaus werden im Rahmen des LIFE Projekts „Lebendige Lahn“ verschiedene Maßnahmen durchgeführt, um zum Beispiel bisher unüberwindbare Wanderhindernisse für Fische durchgängig umzubauen. Ein weiteres wesentliches Ziel ist die Aufwertung des ökologischen Zustands des Oberlaufs der Lahn und ihrer Nebenflüsse. Die Maßnahmen im Projekt sollen auch positive Auswirkungen auf das Hochwasserrückhaltevermögen haben. Auch die Naherholungsmöglichkeiten für Wanderer und Paddler an und auf der Lahn sollen verbessert werden. Außerdem werden Qualität und Transport der Sedimente in der Lahn wissenschaftlich untersucht.

„Das Programm ergänzt in idealer Weise unsere Aktionen zum Erreichen eines guten ökologischen Zustands und eines ökologischen Hochwasserschutzes an der Lahn“, betont die hessische Umweltministerin Priska Hinz.

„Wir hoffen, dass das EU-Projekt auch für andere Flüsse nutzbar sein wird. Hierzu werden die Bundeswasserstraßenverwaltung und die Länder Hessen und Rheinland-Pfalz intensiv zusammenarbeiten“, sagte die rheinland-pfälzische Umweltministerin Ulrike Höfken.

Die Wasser- und Schifffahrtsverwaltung des Bundes ist zuständig für rund 7.300 Kilometer Binnenwasserstraßen. Prof. Hans Heinrich Witte, Präsident der Generaldirektion Wasserstraßen und Schifffahrt: „Das LIFE-Projekt „Lebendige Lahn“ bietet die große Chance, der Lahn eine Zukunft zu geben. Mit diesem Ziel vor Augen werden wir gemeinsam mit allen Lahnanliegern die jeweiligen Interessen sorgfältig abwägen, ein integriertes Konzept für die Lahn entwickeln und die notwendigen Schritte tun. Für die Wasser- und Schifffahrtsverwaltung hat das Projekt „Lebendige Lahn“ darüber hinaus Pilotfunktion. Denn es geht darum, nachhaltige Nutzungskonzepte für die über 2.800 Kilometer Bundeswasserstraßen zu entwickeln, die für die Berufsschifffahrt keine große Rolle mehr spielen. Dies ist eine Generationenaufgabe!“

Das LIFE-IP-Projekt „Lebendige Lahn“ steht in enger Verbindung mit dem „Bundesprogramm Blaues Band Deutschland“ zur Renaturierung von Fließgewässern und Auen.

Die Auftaktveranstaltung, in der das Projekt mit seinen konkreten Maßnahmen der Öffentlichkeit vorgestellt wird, findet am Freitag, den 5. Februar 2016, in Limburg an der Lahn, Pater-Richard-Henkes-Saal, Wiesbadener Straße 1, statt.

Das LIFE-Projekt „Lebendige Lahn“ wird von folgenden Institutionen getragen:
• Hessisches Ministerium für Umwelt, Klimaschutz, Landwirtschaft und Verbraucherschutz
• Ministerium für Umwelt, Landwirtschaft, Ernährung, Weinbau und Forsten Rheinland-Pfalz
• Bundesanstalt für Gewässerkunde
• Regierungspräsidium Gießen
• Struktur- und Genehmigungsdirektion Nord (Rheinland-Pfalz)
• Wasser- und Schifffahrtsamt Koblenz

Was ist LIFE:
L’Instrument Financier pour l’Environnement – kurz: LIFE ist ein spezielles Förderinstrument der Europäischen Kommission zur Finanzierung von Umweltschutzmaßnahmen in der gesamten EU sowie bestimmten Nachbarländern und Beitrittskandidaten. Das LIFE-Programm ist strukturell in zwei Teilprogramme „Umwelt“ und „Klimapolitik“ mit jeweils drei Schwerpunkten gegliedert.
Die Besonderheit der „Integrierten Projekte“ liegt darin, dass sie Umwelt- oder Klimapläne oder -strategien, die in spezifischen umwelt- oder klimapolitischen Unionsrechtsvorschriften vorgeschrieben sind, aus anderen Unionsrechtsakten oder von Behörden der Mitgliedstaaten entwickelt werden, in einem großen räumlichen Maßstab und unter Einbeziehung der betroffenen Interessenvertreter umsetzen.

Weitere fachliche Informationen: Dr. Michael Schleuter, Bundesanstalt für Gewässerkunde, Am Mainzer Tor 1, 56068 Koblenz, Fon: 0261/1306 5469, Mail: schleuter@bafg.de

Die Bundesanstalt für Gewässerkunde ist das zentrale wissenschaftlich eigenständige Institut des Bundes für die wissenschaftlich-technische Versuchs- und Forschungsarbeit und die praxisbezogene Beratung der Wasser- und Schifffahrtsverwaltung in den Fachgebieten Hydrologie und Gewässernutzung, Gewässerbeschaffenheit sowie Ökologie und Gewässerschutz. Sie unterstützt das Bundesministerium für Verkehr und digitale Infrastruktur sowie andere Bundesressorts in fachspezifischen Fragestellungen zu Bundeswasserstraßen und deren Einzugsgebiete und vertritt diese auch international.

Quelle: idw

(nach oben)


Wie die Taiga das Weltklima verändert

Dr. Ute Schönfelder Stabsstelle Kommunikation/Pressestelle
Friedrich-Schiller-Universität Jena

Botanikerin der Universität Jena analysiert die Folgen von Waldbränden in Sibirien

Mit Freudentränen und bewegenden Worten wurde der Erfolg weltweit bejubelt: Vor wenigen Wochen einigten sich in Paris 195 Staaten und die EU darauf, die globale Erwärmung zu begrenzen. Weniger als zwei Grad, so sieht es der unterzeichnete Klimavertrag vor, soll die Durchschnittstemperatur maximal über die vom Ende des 19. Jahrhunderts steigen. Ein ehrgeiziges Ziel, das den Vertragspartnern einschneidende Veränderungen abverlangt und lange Verhandlungen notwendig machte.

Dennoch wird auch die nun beschlossene moderate Erderwärmung langfristige Folgen haben. „Schon der bisherige Temperaturanstieg führt zu vermehrt auftretenden Extremwetterlagen“, sagt Susanne Tautenhahn von der Friedrich-Schiller-Universität Jena. Stürme, Starkregen und Gewitter seien immer häufiger zu erwarten, berichtet die Botanikerin über klimawissenschaftliche Erkenntnisse. Besonders in den kaltgemäßigten Breiten der Nordhalbkugel sind die Folgen des Klimawandels bereits jetzt zu beobachten. Hier – von Kanada und den USA, über Skandinavien bis Russland und Japan – wachsen die borealen Nadelwälder, die Susanne Tautenhahn im Rahmen ihrer Promotion am Max-Planck-Institut für Biogeochemie in Jena untersucht hat. Wie die Wissenschaftlerin vom Institut für Spezielle Botanik der Uni Jena nun mit einem internationalen Team in einer Publikation schreibt, setzt der Temperaturanstieg in diesen Wäldern eine Kette von Ereignissen in Gang, in deren Folge die borealen Nadelwälder nicht nur ihr charakteristisches Aussehen verlieren, sondern selbst maßgeblich das Weltklima beeinflussen können. Ihre Studie haben die Forscher aus Jena, Freiberg, Leipzig, Krasnoyarsk (Russland) und Gainesville (USA) kürzlich in der Fachzeitschrift „Global Change Biology“ veröffentlicht (DOI: 10.1111/gcb.13181).

So erwarten die Forscher, dass etwa die sibirische „dunkle Taiga“, in der heute vorwiegend Nadelbäume wie Fichten, Tannen und Kiefern wachsen, langfristig von Laubbäumen dominiert wird. Aus dem heute dunklen, wird so künftig ein viel lichterer Wald, wodurch sich grundlegende Klimaeinflussgrößen verändern, wie Albedo (Reflexionsvermögen der Erdoberfläche für Sonneneinstrahlung), Kohlenstoff-Speicherung und Verdunstungskühlung. „Da die borealen Wälder einer der größten Kohlenstoff-Speicher der Erde sind, wovon zwei Drittel in Sibirien zu finden sind, ist zu erwarten, dass sich diese Änderungen massiv auf das Weltklima auswirken“, ist Susanne Tautenhahn überzeugt.

Ursache für den sich abzeichnenden Wandel sind Waldbrände. „Feuer ist ein wichtiger Regulator im natürlichen Entwicklungszyklus der Wälder“, so Tautenhahn. Erst durch die Störung des alten Baumbestandes könnten neue Pflanzen größere Flächen besiedeln. „Doch infolge des Klimawandels werden die Brände etwa durch Blitzeinschläge häufiger und intensiver und die natürlichen Regenerationsprozesse geraten aus dem Gleichgewicht“, erläutert die Nachwuchswissenschaftlerin.

In mehreren mehrmonatigen Expeditionen haben Susanne Tautenhahn und ihre Kollegen ehemalige Feuerflächen entlang des Flusses Jenissei in Sibirien untersucht: gezählt wie viele Keimlinge sich seit dem Brand angesiedelt, wie viele alte Bäume das Feuer überstanden haben und mit ihrem Samen für neues Wachstum sorgen könnten. Zusammen mit Satellitenbildern der Region und Informationen über die Schwere der Brände und die Zeiträume, die seither vergangen sind, konnten die Forscher ein Modell entwickeln, mit dem sich die Regeneration des Waldes detailliert nachvollziehen lässt.

Dabei zeigte sich, dass die Wiederansiedlung von Nadelbäumen durch ihre begrenzte Samenausbreitung limitiert ist. Die Samen werden in der Regel durch den Wind transportiert und können nur relativ kurze Strecken zurücklegen. Gerade infolge schwerer Brände, die sich über große Flächen erstrecken, können die Samen der verbliebenen Nadelbäume nur lokal begrenzt für Nachkommen sorgen. Laubbäume dagegen, deren Samen sehr klein sind und somit weite Strecken mit dem Wind transportiert werden können, überwinden weitaus größere Strecken und können sich so deutlich leichter regenerieren wenn Feuer intensiver und größer werden.

Wie die Folgen dieses Wandels auf das weltweite Klima konkret aussehen, darüber diskutieren die Forscher derzeit intensiv: Während für die borealen Wälder Nordamerikas angenommen wird, dass die verstärkte Ansiedlung von Laubbäumen zu einem Abbremsen der Erderwärmung und einer geringeren Feuerhäufigkeit führen kann, vermuten Susanne Tautenhahn und ihre Kollegen für die sibirischen Wälder langfristig einen anderen Effekt. „Wie in Nordamerika sollte es auch in der sibirischen dunklen Taiga durch einen höheren Albedo und höhere Verdunstungskühlung insgesamt zu einer Abkühlung kommen“, sagt die Jenaer Botanikerin. Gleichzeitig werde aber mit dem Zurückdrängen der typisch-sibirischen Nadelbäume, die viel Feuchtigkeit in Bodennähe speichern, die Wahrscheinlichkeit für Waldbrände weiter erhöht. „Das kann zu einem sich selbst verstärkenden Teufelskreis werden, der das Ökosystem nachhaltig verändert.“

Original-Publikation:
Tautenhahn S et al.: Dispersal limitation drives successional pathways in Central Siberian forests under current and intensified fire regimes, Global Change Biology 2015, DOI: 10.1111/gcb.13181

Kontakt:
Susanne Tautenhahn
Institut für Spezielle Botanik der Friedrich-Schiller-Universität Jena
Philosophenweg 16, 07743 Jena
Tel.: 03641 / 949267
E-Mail: susanne.tautenhahn@uni-jena.de

Weitere Informationen:
http://www.uni-jena.de

Quelle: idw

(nach oben)


Selbstgemacht schmeckt besser

Gabriele Rutzen Presse und Kommunikation
Universität zu Köln

Wer sein Essen selbst zubereitet, dem schmeckt es auch besser. Dies bestätigt eine Studie der Kölner Gesundheits- und Ernährungspsychologin Dr. Simone Dohle, die in der Fachzeitschrift Health Psychology erscheint. Dohle und ihre Kolleg/inn/en an der ETH Zürich haben untersucht, inwieweit sich die Zubereitung von Essen auf den Geschmack auswirkt.

Selbstgemacht schmeckt besser
Kölner Psychologin untersucht, wie sich Zubereitung von Essen auf den Geschmack auswirkt

Wer sein Essen selbst zubereitet, dem schmeckt es auch besser. Dies bestätigt eine Studie der Kölner Gesundheits- und Ernährungspsychologin Dr. Simone Dohle, die in der Fachzeitschrift Health Psychology erscheint. Dohle und ihre Kolleg/inn/en an der ETH Zürich haben untersucht, inwieweit sich die Zubereitung von Essen auf den Geschmack auswirkt.

Die Teilnehmer/innen der Studie wurden dazu zufällig auf verschiedene Gruppen aufgeteilt. Ein Teil durfte einen Shake nach Rezept selbst zubereiten. In einer anderen Gruppe bereiteten nicht die Teilnehmer/innen, sondern die Studienleiterin den Shake zu; die Teilnehmer/innen bekamen aber auch hier das Rezept und die Zutatenliste zu sehen. Zusätzlich zu diesen beiden Szenarien wurde noch variiert, um was für einen Shake es sich handelte. Bei der Hälfte der Teilnehmer/innen wurde ein Shake aus gesunden Zutaten gemixt, bei der anderen Hälfte bestand der Shake nur aus ungesunden Zutaten.

Die Ergebnisse des Experiments zeigen, dass der Shake den Personen, die ihn selbst zubereiten konnten, besser schmeckte. Dies war vor allem dann der Fall, wenn es sich um einen gesunden Shake handelte.

Die Forscher/innen erklären das Ergebnis damit, dass das Zubereiten des Shakes mit Aufwand verbunden ist. Durch die Zubereitung erhöht sich das Bedürfnis, diesen Aufwand zu rechtfertigen, was sich in einer besseren Geschmacksbewertung niederschlägt. Wer den Shake selbst zubereitet, schenkt zudem den Zutaten eine höhere Beachtung. Handelt es sich vor allem um ungesunde Zutaten, fällt dies bei eigenhändiger Zubereitung eher auf als wenn eine andere Person den Shake zubereitet.

In einer Zeit, wo immer mehr Menschen zu Fertigprodukten greifen und nur noch wenig selbst kochen, lassen diese Ergebnisse wichtige Folgerungen zu. Es kann vermutet werden, dass Fertigprodukte allein schon deshalb weniger gut schmecken, weil sie keinen Aufwand verursachen. Wer dagegen etwas Zeit und Mühe in der Küche aufwendet, wird sein Essen auch mehr genießen können. Da dies vor allem für gesundes Essen der Fall zu sein scheint, könnten gerade Personen davon profitieren, denen eine gesunde Ernährung wichtig ist.

Originalveröffentlichung:
Dohle, S., Rall, S., & Siegrist, M. Does self-prepared food taste better? Effects of food preparation on liking. Health Psychology.
http://psycnet.apa.org/psycinfo/2015-57034-001/

Bei Rückfragen:
Dr. Simone Dohle
Universität zu Köln
Social Cognition Center Cologne
Richard-Strauss-Str. 2
50931 Köln

Tel: +49 (0) 221 470 6784
E-Mail: simone.dohle@uni-koeln.de
http://soccco.uni-koeln.de

Quelle: idw

(nach oben)


Ein von jungen Jahren an sportlich aktives Leben schützt Männer vor Muskelschwund im Alter

Monika Wimmer Pressestelle
Sozio-oekonomisches Panel (SOEP)

Ältere Männer, die seit dem jungen Erwachsenenalter kontinuierlich Sport treiben, haben im Vergleich zu weniger aktiven Altersgenossen ein deutlich geringeres Risiko, an einem die Gesundheit gefährdenden Rückgang der Muskelmasse – der sogenannten Sarkopenie – zu erkranken. Das zeigt eine Studie, die Forschende der Langzeitstudie Sozio-oekonomisches Panel (SOEP) und der Charité Universitätsmedizin Berlin im Rahmen der Berliner Altersstudie II (BASE II) erstellt haben. „Nur als junger Mann Sport zu treiben, oder erst als Senior damit zu beginnen, reicht hingegen nicht aus, um das Risiko einer Sarkopenie zu verringern“, sagt der Gesundheitsökonom Peter Eibich, einer der Autoren.

Die Ergebnisse der aktuellen Studie sind in der Fachzeitschrift „Journals of Gerontology“ veröffentlicht.

Der Begriff „Sarkopenie“ bezeichnet einen im Alter auftretenden übermäßigen Verlust an Muskelmasse und, damit verbunden, auch an Muskelkraft. Infolgedessen besteht unter anderem ein erhöhtes Risiko zu stürzen und sich dabei Knochen zu brechen.

Um herauszufinden, inwieweit Sport in unterschiedlichen Lebensphasen das Risiko einer Sarkopenie senken kann, hatten die Forscher im Rahmen der Berliner Altersstudie II (BASE-II) 891 Männer und Frauen im Alter von 60 bis 85 Jahren in der Universitätsklinik Charité medizinisch untersucht und mit Hilfe eines Fragebogens befragt. Die Fragen stammen aus dem Katalog der für ganz Deutschland repräsentativen Langzeitbefragung „Sozio-oekonomisches Panel (SOEP)“.

Die Auswertung der Ergebnisse zeigt: Diejenigen Männer, die bereits im jungen Erwachsenalter, also im Alter von weniger als 30 Jahren, begonnen hatten, Sport zu treiben und bis heute sportlich aktiv sind, hatten im Vergleich zu Männern, die nie im Leben aktiv Sport getrieben haben, einen deutlich höheren Anteil an Muskelmasse. Damit haben sie ein nur halb so hohes Risiko an Sarkopenie zu erkranken. Auch beim so genannten Greifkrafttest, der über die Muskelkraft und den Gesundheitszustand im Allgemeinen Auskunft gibt, schnitten sie deutlich besser ab.

Doch Sport sollte kontinuierlich betrieben werden. „Bei den Männern, die nur in jungen Jahren oder erst kurz vor der Untersuchung trainiert hatten, zeigte sich im Vergleich zu Männern, die nie Sport getrieben haben, kein messbarer Effekt auf die Muskelmasse oder die Greifkraft „, sagt die Studienautorin Kristina Norman, Medizinwissenschaftlerin in der Forschungsgruppe Geriatrie der Charité. Somit widerlegt die Studie die unter vielen Menschen verbreitete Annahme, dass es genüge, in jungen Jahren Sport zu treiben, um auch im Alter noch fit zu sein.

Bei Frauen hingegen konnten die Forschenden keine signifikante Veränderung der Muskelmasse feststellen, unabhängig davon, in welchem Lebensalter und wie kontinuierlich sie Sport getrieben haben. „Möglicherweise trainieren viele Frauen nicht intensiv genug, um ausreichend Muskeln aufzubauen“, sagt der Gesundheitsökonom Peter Eibich, Hauptautor der Studie, der heute an der Universität Oxford forscht.

Die Autoren fordern mehr Gesundheitsprogramme, die vor allem junge Erwachsene motivieren, kontinuierlich Sport zu treiben. „Gerade in dieser Lebensphase, der sogenannten Rush Hour des Lebens, hören viele Männer und Frauen auf, Sport zu treiben, da eine Ballung von Entscheidungen zu Beruf, Partnerwahl und Kindern dafür wenig Zeit lässt“, sagt Peter Eibich.

STICHWORT SOEP
Das Sozio-oekonomische Panel (SOEP) ist die größte und am längsten laufende multidisziplinäre Langzeitstudie in Deutschland. Das SOEP am DIW Berlin wird als Teil der Forschungsinfrastruktur in Deutschland unter dem Dach der Leibniz-Gemeinschaft vom Bundesministerium für Bildung und Forschung (BMBF) und den Ländern gefördert. Für das SOEP werden seit 1984 jedes Jahr vom Umfrageinstitut TNS Infratest Sozialforschung in mehreren tausend Haushalten statistische Daten erhoben. Zurzeit sind es etwa 30.000 Personen in etwa 15.000 Haushalten. Die Daten des SOEP geben unter anderem Auskunft über Einkommen, Erwerbstätigkeit, Bildung, Gesundheit und Lebenszufriedenheit. Weil jedes Jahr dieselben Personen befragt werden, können nicht nur langfristige gesellschaftliche Trends, sondern auch die gruppenspezifische Entwicklung von Lebensläufen besonders gut analysiert werden.

STICHWORT BASE-II
Die Wissenschaftlerinnen und Wissenschaftler der Berliner Altersstudie II (BASE-II) erforschen, inwieweit körperliche, geistige und soziale Bedingungen zu einem möglichst erfolgreichen Altern beitragen können. Insgesamt wurden bislang 2.200 Berlinerinnen und Berliner untersucht, davon sind 1.600 zwischen 60 und 80 Jahre, und in der Vergleichsgruppe 600 zwischen 20 und 35 Jahre alt. Die Teilnehmenden werden auch ebenso wie die Teilnehmenden an der jährliche Befragung des Sozio-oekonomischen Panels (SOEP) befragt und stellen so Informationen zu ihrer Lebenssituation und ihren Lebensbedingungen zur Verfügung. An der groß angelegten BASE II-Studie beteiligten sich Wissenschaftlerinnen und Wissenschaftler der Charité Universitätsmedizin Berlin der Humboldt-Universität zu Berlin, des Max Planck Institut für Bildungsforschung und des Sozio-oekonomischen Panels (SOEP).

DIE STUDIE:
Peter Eibich, Nikolaus Buchmann, Martin Kroh, Gert G. Wagner, Elisabeth Steinhagen-Thiessen, Ilja Demuth, Kristina Norman, „Exercise at Different Ages and Appendicular Lean Mass and Strength in Later Life: Results from the Berlin Aging Study II“, The Journals of Gerontology : Series A, Medical Sciences, [online first: 2015-09-09] , 2015.

http://biomedgerontology.oxfordjournals.org/content/early/2015/10/05/gerona.glv1…

KONTAKT ZU DEN AUTOREN:
E-mail: peter.eibich@dph.ox.ac.uk
E-mail: kristina.norman@charite.de

Weitere Informationen:
http://biomedgerontology.oxfordjournals.org/content/early/2015/10/05/gerona.glv1… Link zur Studie
http://www.diw.de/soep Das Sozio-oekonomische Panel im DIW Berlin
http://www.facebook.com/soepnet.de Das SOEP auf Facebook

Quelle: idw

(nach oben)


Wie die Taiga das Weltklima verändert

Dr. Ute Schönfelder Stabsstelle Kommunikation/Pressestelle
Friedrich-Schiller-Universität Jena

Botanikerin der Universität Jena analysiert die Folgen von Waldbränden in Sibirien

Mit Freudentränen und bewegenden Worten wurde der Erfolg weltweit bejubelt: Vor wenigen Wochen einigten sich in Paris 195 Staaten und die EU darauf, die globale Erwärmung zu begrenzen. Weniger als zwei Grad, so sieht es der unterzeichnete Klimavertrag vor, soll die Durchschnittstemperatur maximal über die vom Ende des 19. Jahrhunderts steigen. Ein ehrgeiziges Ziel, das den Vertragspartnern einschneidende Veränderungen abverlangt und lange Verhandlungen notwendig machte.

Dennoch wird auch die nun beschlossene moderate Erderwärmung langfristige Folgen haben. „Schon der bisherige Temperaturanstieg führt zu vermehrt auftretenden Extremwetterlagen“, sagt Susanne Tautenhahn von der Friedrich-Schiller-Universität Jena. Stürme, Starkregen und Gewitter seien immer häufiger zu erwarten, berichtet die Botanikerin über klimawissenschaftliche Erkenntnisse. Besonders in den kaltgemäßigten Breiten der Nordhalbkugel sind die Folgen des Klimawandels bereits jetzt zu beobachten. Hier – von Kanada und den USA, über Skandinavien bis Russland und Japan – wachsen die borealen Nadelwälder, die Susanne Tautenhahn im Rahmen ihrer Promotion am Max-Planck-Institut für Biogeochemie in Jena untersucht hat. Wie die Wissenschaftlerin vom Institut für Spezielle Botanik der Uni Jena nun mit einem internationalen Team in einer Publikation schreibt, setzt der Temperaturanstieg in diesen Wäldern eine Kette von Ereignissen in Gang, in deren Folge die borealen Nadelwälder nicht nur ihr charakteristisches Aussehen verlieren, sondern selbst maßgeblich das Weltklima beeinflussen können. Ihre Studie haben die Forscher aus Jena, Freiberg, Leipzig, Krasnoyarsk (Russland) und Gainesville (USA) kürzlich in der Fachzeitschrift „Global Change Biology“ veröffentlicht (DOI: 10.1111/gcb.13181).

So erwarten die Forscher, dass etwa die sibirische „dunkle Taiga“, in der heute vorwiegend Nadelbäume wie Fichten, Tannen und Kiefern wachsen, langfristig von Laubbäumen dominiert wird. Aus dem heute dunklen, wird so künftig ein viel lichterer Wald, wodurch sich grundlegende Klimaeinflussgrößen verändern, wie Albedo (Reflexionsvermögen der Erdoberfläche für Sonneneinstrahlung), Kohlenstoff-Speicherung und Verdunstungskühlung. „Da die borealen Wälder einer der größten Kohlenstoff-Speicher der Erde sind, wovon zwei Drittel in Sibirien zu finden sind, ist zu erwarten, dass sich diese Änderungen massiv auf das Weltklima auswirken“, ist Susanne Tautenhahn überzeugt.

Ursache für den sich abzeichnenden Wandel sind Waldbrände. „Feuer ist ein wichtiger Regulator im natürlichen Entwicklungszyklus der Wälder“, so Tautenhahn. Erst durch die Störung des alten Baumbestandes könnten neue Pflanzen größere Flächen besiedeln. „Doch infolge des Klimawandels werden die Brände etwa durch Blitzeinschläge häufiger und intensiver und die natürlichen Regenerationsprozesse geraten aus dem Gleichgewicht“, erläutert die Nachwuchswissenschaftlerin.

In mehreren mehrmonatigen Expeditionen haben Susanne Tautenhahn und ihre Kollegen ehemalige Feuerflächen entlang des Flusses Jenissei in Sibirien untersucht: gezählt wie viele Keimlinge sich seit dem Brand angesiedelt, wie viele alte Bäume das Feuer überstanden haben und mit ihrem Samen für neues Wachstum sorgen könnten. Zusammen mit Satellitenbildern der Region und Informationen über die Schwere der Brände und die Zeiträume, die seither vergangen sind, konnten die Forscher ein Modell entwickeln, mit dem sich die Regeneration des Waldes detailliert nachvollziehen lässt.

Dabei zeigte sich, dass die Wiederansiedlung von Nadelbäumen durch ihre begrenzte Samenausbreitung limitiert ist. Die Samen werden in der Regel durch den Wind transportiert und können nur relativ kurze Strecken zurücklegen. Gerade infolge schwerer Brände, die sich über große Flächen erstrecken, können die Samen der verbliebenen Nadelbäume nur lokal begrenzt für Nachkommen sorgen. Laubbäume dagegen, deren Samen sehr klein sind und somit weite Strecken mit dem Wind transportiert werden können, überwinden weitaus größere Strecken und können sich so deutlich leichter regenerieren wenn Feuer intensiver und größer werden.

Wie die Folgen dieses Wandels auf das weltweite Klima konkret aussehen, darüber diskutieren die Forscher derzeit intensiv: Während für die borealen Wälder Nordamerikas angenommen wird, dass die verstärkte Ansiedlung von Laubbäumen zu einem Abbremsen der Erderwärmung und einer geringeren Feuerhäufigkeit führen kann, vermuten Susanne Tautenhahn und ihre Kollegen für die sibirischen Wälder langfristig einen anderen Effekt. „Wie in Nordamerika sollte es auch in der sibirischen dunklen Taiga durch einen höheren Albedo und höhere Verdunstungskühlung insgesamt zu einer Abkühlung kommen“, sagt die Jenaer Botanikerin. Gleichzeitig werde aber mit dem Zurückdrängen der typisch-sibirischen Nadelbäume, die viel Feuchtigkeit in Bodennähe speichern, die Wahrscheinlichkeit für Waldbrände weiter erhöht. „Das kann zu einem sich selbst verstärkenden Teufelskreis werden, der das Ökosystem nachhaltig verändert.“

Original-Publikation:
Tautenhahn S et al.: Dispersal limitation drives successional pathways in Central Siberian forests under current and intensified fire regimes, Global Change Biology 2015, DOI: 10.1111/gcb.13181

Kontakt:
Susanne Tautenhahn
Institut für Spezielle Botanik der Friedrich-Schiller-Universität Jena
Philosophenweg 16, 07743 Jena
Tel.: 03641 / 949267
E-Mail: susanne.tautenhahn@uni-jena.de

Weitere Informationen:
http://www.uni-jena.de

Quelle: idw

(nach oben)


500 Jahre Reinheitsgebot: Die Kelten kannten es nicht – und brauten trotzdem hochwertig

Florian Klebs Presse- und Öffentlichkeitsarbeit
Universität Hohenheim

Beifußkraut und Möhrensamen statt Hopfen: Archäobotaniker der Universität Hohenheim analysiert prähistorische Brauereien – mit erstaunlichen Ergebnissen.

Vor 2.500 Jahren braute man es schon: das keltische Bier. Bis Mitte des 16. Jahrhunderts gab es unzählige Zubereitungsarten. Erst das Reinheitsgebot vom 23. April 1516 regelte das Bierbrauen in Deutschland. Trotzdem sei schon das Gerstengold der Kelten ein süffig-hochwertiges Gebräu besonderer Qualität gewesen, weiß Dr. Hans-Peter Stika, Archäobotaniker der Universität Hohenheim.

Die Spelzgerste machte den Geschmack des dunklen und rauchigen Bieres, und die obergärigen Hefen brachten zusammen mit Milchsäurebakterien einen säuerlich spritzigen Geschmack hinzu, der im Sommer bei heißen Temperaturen Abkühlung versprach. Abgemildert hat die Komposition eine leichte Karamell-Note im Abgang, verursacht durch Kochsteine. Gewürzt wurde mit Beifußkraut und Möhrensamen.

Geschmacklich unterscheidet sich das Kelten-Bier von den heute bekannten Biersorten. Doch schon die Kelten legten Wert auf eine hohe Qualität ihrer Produkte, schlussfolgert Dr. Hans-Peter Stika vom Institut für Botanik der Universität Hohenheim.

Ausgrabungen in Hochdorf und Berlin
Derzeit untersucht Dr. Stika in Berlin zwei Ausgrabungsstellen. Auf der Fischerinsel – heute besser bekannt unter dem Namen Museumsinsel – haben die Forscher größere Mengen an Gerstenmalz zusammen mit den Rohfrüchten Roggen und Hafer entdeckt. Dort wurde wohl ein Mischbier aus Gerste, Roggen und Hafen gebraut.

Einen weiteren Malzfund von Spelzgerste und einen Hopfengarten untersuchen die Wissenschaftler in der Wüstung Diepensee unter dem neuen Flughafen BER. Alle Funde stammen aus dem 12. bis 14. Jahrhundert und verweisen auf Malzherstellung im Zuge von Brauvorgängen.

Die Untersuchungen im mittelalterlichen Berlin laufen noch, Theorien werden geprüft, Bodenproben analysiert. Die Ausgrabung und Untersuchung einer frühkeltischen Ausgrabungsstätte in Hochdorf hingegen ist bereits abgeschlossen – und liefert erstaunliche Erkenntnisse.

„Bei Ausgrabungen legten wir Gräben frei, die vermutlich Teile einer Bierbrauerei waren“, erklärt der Experte der Universität Hohenheim. „Diese Gräben wurden wohl zuerst zum Ankeimen der Gerste genutzt. Das dadurch entstandene Grünmalz konnte dann auf einem Aufbau über den Gräben, die so zudem auch als Darren genutzt worden waren, getrocknet werden. Bei einem Schadfeuer verkohlten die angekeimten Gerstenkörner und blieben bis in unsere heutige Zeit erhalten.“

Gärung durch Hefen
Anhand der Funde konnten die Wissenschaftler das Bierbrauen der Kelten nachempfinden, so Dr. Stika. „Das Kelten-Bier unterscheidet sich im Geschmack von unseren heutigen Bieren. Die Kelten wussten einfach nichts über Hefe und ihre Wirkung, sie vertrauten der Spontangärung durch wilde Hefestämme.

Die Gärung stellte sich durch Hefeverunreinigungen an den Gefäßen, Rührern und Schöpfkellen aus Holz ein. Anders als in den neuzeitlichen Braukesseln aus Kupfer und Stahl erfolgte das mittelalterliche Brauen in Holzgefäßen nicht unter sterilen Bedingungen. So konnten sich neben Hefen auch Milchsäurebakterien an der Gärung beteiligen. Selbst geringe Mengen an Milchsäure konnten das fertige Keltenbier für längere Zeit haltbar machen.“

„Ob die frühen Kelten durch Zugabe süßer Früchte oder Honig – beides kann natürlicherweise wilde Hefen tragen – eine Spontangärung absichtlich in Gang brachten, entzieht sich unserer Kenntnis. Dazu liegen keine Bodenfunde vor“, so der Experte.

Das Kelten-Bier aus dem Holzkessel
Seinen eigentümlichen Geschmack bekam das Kelten-Bier durch seine Würzmischung aus Beifuß und Möhrensamen anstatt Hopfen und durch die andere Zubereitungsart. „Das Bier der Kelten war rauchig und säuerlich, aber sehr erfrischend. Wir vermuten, dass ein Teil dieses Geschmackes von der Trocknung der angekeimten Gerstenkörner über dem offenen Feuer herrührt. Ein anderer Teil wurde vermutlich durch den Brauvorgang selbst verursacht.“

Bier brauten die Kelten nämlich in Holzgefäßen. Sie legten heiße Steine in das Gebräu und erhitzten es so langsam. „All diese Dinge zusammen geben einen besonderen Geschmack, der mit heutigen Bieren nicht zu vergleichen ist.“

Älteste Bierbrauerei Deutschlands
Obwohl das deutsche Reinheitsgebot in diesem Jahr erst seinen 500. Geburtstag feiert und vor 2.500 Jahren noch keine Rolle spielte, könnte das Keltenbier damals gut geschmeckt haben. „Unsere Untersuchungen des Keltenmalzes haben ergeben, dass es eine hohe Qualität besaß. Das spricht dafür, dass die Bierbrauer in der freigelegten Hochdorfer Brauerei viel Erfahrung beim Malzen hatten.“

„Die Darren in Hochdorf gehörten zur ältesten Brauerei, die bislang bei archäologischen Ausgrabungen in Deutschland gefunden wurde. Eine Hochrechnung ergab, dass das gefundene Braumalz von Hochdorf mindestens zum Brauen von ca. 750 bis 1.000 Liter Bier mit einem heute üblichen Alkoholgehalt von etwa 5 Prozent ausreichte. Das ist eindeutig zu viel für ein feuchtfröhliches Wochenende im Rahmen der Familie.“

Die Kelten: zeremonielle und organisierte Bierbraumeister
Die wahrscheinlichste Theorie: In Hochdorf wurden große Mengen Gerstenmalz hergestellt, die im Rahmen von rituellen oder zeremoniellen Festivitäten für eine Gemeinschaft zu Bier gebraut wurden. „Am Fuße des Fürstengrabhügels unweit der Keltensiedlung haben wir auch mehrere Gar- und Kochgruben entdeckt. Rituelle Ess- und Trinksitten am Grab der Ahnen scheinen das wahrscheinlichste Szenario zu sein, um diese Bodenfunde zu erklären.“

Auch anhand der Menge der Gerste lassen sich Schlussfolgerungen ziehen: „Wir vermuten, dass die Spelzgerste besonders zum Brauen angebaut wurde. Anders als in römischen Schriftquellen oft dargestellt können wir sagen, dass die Kelten keineswegs unkoordinierte Barbaren waren, auch nicht in der Landwirtschaft. Sie hatten ein durchdachtes Anbausystem, nutzen die fruchtbaren Böden der Gegend und düngten diese, um den größtmöglichen Nutzen und Ertrag zu gewährleisten. Die Wälder im Neckarbecken waren Großteils gerodet, eine große Fläche wurde für Pflanzenanbau genutzt.“

Die ersten Bierbraumeister der Geschichte waren die Kelten aber nicht: Bereits die alten Ägypter stellten Bier in abgeänderter Form her, indem sie halb fertig gebackenes Brot aus Malz mit Wasser vergärten. Und auch die Römer kannten das aus Getreide hergestellte Gebräu, hielten sich jedoch lieber an den Wein, zumindest wenn man den schriftlichen Quellen Glauben schenkt. Denn für sie war Bier nicht mehr als das Getränk der Germanen – und damit der Barbaren.

500 Jahre deutsches Reinheitsgebot: Eine Expertenliste zum Thema erscheint am Freitag, 15. Januar 2016 unter www.uni-hohenheim.de/expertenlisten

Quelle: idw

(nach oben)


WSI-Tarifarchiv: Tariflöhne und -gehälter 2015: Reale Tarifsteigerungen von 2,4 Prozent

Rainer Jung Abt. Öffentlichkeitsarbeit
Hans-Böckler-Stiftung

Die Tariflöhne haben im Jahr 2015 real (nach Abzug der Inflation) spürbar zugelegt. Die Verbraucherpreise sind im vergangenen Jahr lediglich um 0,3 Prozent gestiegen, die Tarifvergütungen dagegen um nominal 2,7 Prozent. Daraus ergibt sich im gesamtwirtschaftlichen Durchschnitt ein reales Wachstum der Tariflöhne und -gehälter um 2,4 Prozent. Zu diesem Ergebnis kommt die Bilanz der Tarifpolitik des Jahres 2015, die das Tarifarchiv des Wirtschafts- und Sozialwissenschaftlichen Instituts (WSI) der Hans-Böckler-Stiftung heute vorlegt.

„Damit ist es den Gewerkschaften bereits seit 2012 jedes Jahr gelungen, Tarifsteigerungen durchzusetzen, die oberhalb der laufenden Preissteigerungsrate lagen“, sagt Dr. Reinhard Bispinck, Leiter des WSI-Tarifarchivs (siehe Grafik 1 in der pdf-Version dieser Pressemeldung; Link unten).

Am höchsten fällt die jahresbezogene Tarifsteigerung mit nominal 3,5 Prozent im Investitionsgütergewerbe aus, gefolgt vom Bereich private Dienstleistungen, Organisationen ohne Erwerbszweck mit 3,0 Prozent und dem Baugewerbe mit 2,8 Prozent. Genau im Durchschnitt liegt das Nahrungs- und Genussmittelgewerbe mit 2,7 Prozent. Um 2,6 Prozent stiegen die tariflichen Entgelte in den Bereichen Verkehr und Nachrichtenübermittlung, Grundstoff- und Produktionsgütergewerbe sowie Kreditinstitute, Versicherungsgewerbe. Mit 2,4 Prozent nur wenig dahinter rangieren die Bereiche Gartenbau, Land- und Forstwirtschaft sowie Energie- und Wasserversorgung, Bergbau und Gebietskörperschaften, Sozialversicherung, gefolgt vom Verbrauchsgütergewerbe mit 2,3 Prozent. Im Handel liegt der jahresbezogene Tarifanstieg bei nominal 1,7 Prozent (siehe Grafik 2 in der pdf-Version).

Bei den effektiven Bruttoeinkommen – hier fließen unter anderem auch die Einkommen von Beschäftigten ein, die nicht nach Tarif bezahlt werden – fiel der Zuwachs im vergangenen Jahr ähnlich aus: Die Bruttolöhne und -gehälter sind 2015 nominal je Arbeitnehmer/in um 2,8 Prozent gestiegen, preisbereinigt bedeutet dies einen Anstieg um 2,5 Prozent. Der neu eingeführte gesetzliche Mindestlohn dürfte dazu beigetragen haben, dass die Bruttoeinkommen erstmals seit längerer Zeit wieder etwas stärker als die Tarifeinkommen angestiegen sind.

Insgesamt schlossen die DGB-Gewerkschaften in Deutschland im vergangenen Jahr Lohn- und Gehaltstarifverträge für rund 12,5 Mio. Beschäftigte ab, darunter etwa 10,8 Mio. in den alten und 1,7 Mio. in den neuen Bundesländern. Die Laufzeit der Verträge beträgt durchschnittlich 21,1 Monate und liegt damit niedriger als im Vorjahr mit 22,4 Monaten. Für weitere 6,8 Mio. Beschäftigte traten im Jahr 2015 Erhöhungen in Kraft, die bereits 2014 oder früher vereinbart worden waren.

Die Tarifrunde 2016 hat bereits begonnen: Verhandelt wird bereits in der Holz und Kunststoff verarbeitenden Industrie, Ende Januar folgt die Deutsche Telekom AG, Ende Februar der öffentliche Dienst (Bund, Gemeinden), Ende März die Metall- und Elektroindustrie und im Sommer dann u. a. die chemische Industrie.

Die wirtschaftliche Ausgangssituation für die Tarifrunde 2016 ist nach Auffassung des WSI-Tarifexperten durchaus günstig. Die Prognosen gehen von einer Verbesserung der Konjunkturentwicklung aus. „Um den überwiegend von der Binnennachfrage getragenen Aufschwung zu stabilisieren, kommt es auf eine kräftige Lohnentwicklung an. Sie kann dazu beitragen, eine besser balancierte wirtschaftliche Entwicklung in Deutschland zu fördern. Das unterstützt zugleich auch die konjunkturelle Entwicklung in den europäischen Nachbarländern“, sagt WSI-Tarifexperte Bispinck.

Ansprechpartner in der Hans-Böckler-Stiftung

Dr. Reinhard Bispinck
Leiter WSI-Tarifarchiv
Tel.: 0211 / 77 78-232
E-Mail: Reinhard-Bispinck@boeckler.de

Weitere Informationen:
http://www.boeckler.de/pdf/pm_ta_2016_01_08.pdf – Die PM mit Grafik (pdf)

Quelle: idw

(nach oben)


Neue Einsichten in die Folgen von Methanaustritten am Meeresboden

Dr. Andreas Villwock Kommunikation und Medien
GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel

Ein Krater am Boden der Nordsee, der 1990 durch eine Gasexplosion im Zuge von Öl-Explorationen entstand, eröffnet einem internationalen Forscher-Team neue Einblicke in das Schicksal von Methanaustritten am Meeresboden. Zusätzliche Untersuchungen und Überwachungsstrategien sind nötig, um die Triebkräfte weiterer Emissionen besser zu verstehen, argumentieren die Wissenschaftler in einer Sonderausgabe des Fachmagazins „Journal of Marine and Petroleum Geology“.

– Gemeinsame Pressemitteilung des Leibniz-Instituts für Ostseeforschung Warnemünde (IOW) und des GEOMAR Helmholtz-Zentrums für Ozeanforschung Kiel –

Am 20. November 1990 stießen Bohrungen im Auftrag der Firma Mobil North Sea (heute ExxonMobil) in etwa 100 Metern Wassertiefe im Britischen Sektor der Nordsee „UK 22″, ungefähr 200 Kilometer von Schottland entfernt, auf ein flaches Gasvorkommen. Die dabei ausgelöste Explosion setzte große Mengen Methan frei und hinterließ einen Krater am Meeresboden. Während einer Expedition im Jahr 1994 beobachteten Wissenschaftler in dem Gebiet deutliche Gasemissionen. „Die Konzentrationen, die wir an der Oberfläche feststellten, sind noch immer die höchsten, die ich je im Meer messen konnte“, berichtet Prof. Gregor Rehder, Meereschemiker am Leibniz-Institut für Ostseeforschung Warnemünde (IOW). Rehder leitete die ersten wissenschaftlichen Untersuchungen an dem verlassenen Bohrloch. Eine weitere Expedition bestätigte 2005, dass nach wie vor Gasblasen aus dem 60 Meter breiten und 20 Meter tiefen Krater aufstiegen. Ein Tauchgang mit dem Forschungstauchboot JAGO eröffnete 2006 detaillierte Einblicke in die noch immer aktive Austrittsstelle.

2011 initiierte das Britische Ministerium für Energie und Klimawandel (Department of Energy and Climate Change, DECC) eine genauere Untersuchung. Ziel war, Emissionsraten zu erfassen und Veränderungen des Gases bei seinem Aufstieg in der Wassersäule eingehend zu analysieren, bevor es in die Atmosphäre gelangen konnte. Die von ExxonMobil finanzierten Arbeiten wurden von Dr. Ira Leifer (Bubbleology Research International) geleitet. Zu den beteiligten Spezialisten gehörten Dr. Alan Judd (Alan Judd Partnership), Dr. Peter Linke (GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel) und David Long (British Geological Survey) sowie viele weitere Experten aus Deutschland, den Niederlanden, den USA und Großbritannien.

Neben einem Gesamtüberblick aus wissenschaftlicher Perspektive lieferte das interdisziplinäre Team erstmals eine Quantifizierung eines massiven Gasblasenaustritts in einem flachen Meeresgebiet sowie Beobachtungsdaten über einen längeren Zeitraum. Die Ergebnisse sind in einer Sonderausgabe des Fachmagazins „Journal of Marine and Petroleum Geology“ zusammengefasst. „Das GEOMAR ist an sieben der insgesamt 13 Beiträge beteiligt, für vier Artikel zeichnen GEOMAR-Mitarbeiter als Erstautoren verantwortlich“, hebt Dr. Linke hervor. Der Biologe war Fahrtleiter von drei Expeditionen zum Krater, den Reisen ALKOR AL374 (2011), ALKOR AL412 (2013) und CELTIC EXPLORER CE12010 (2012) sowie Berater der Kampagne von DECC und ExxonMobil. „Insgesamt fließen Informationen aus sechs GEOMAR-Expeditionen ein.“
Auf ihren Expeditionen in den Jahren 2011 und 2012 stellten die Wissenschaftler fest, dass die Quelle noch immer Gas freisetzte. Über die Verteilung des Methans entschieden allerdings jahreszeitlich schwankende Bedingungen: Im Sommer lagern verschieden warme Wasserschichten der Nordsee klar getrennt übereinander. „In solchen Phasen mit wenig Durchmischung erreicht nur wenig Methan in den Gasblasen die Oberfläche“, erklärt Dr. Linke. „Strömungen können das Gas dann von der Quelle forttransportieren, es kann verteilt und gelöst werden. Ein Teil wird von Mikroben in der Wassersäule und am Meeresboden abgebaut. Aber wir wissen noch nicht, wie dies Organismen beeinflusst, die in der Nähe der Quelle leben.“

Vom Spätherbst bis zum Frühling sorgen Wind und Wellen für eine tiefere Durchmischung der Nordsee. Die Forscher gehen davon aus, dass das Methan dann bis an die Oberfläche und in die Atmosphäre gelangt. So wurden die höchsten Konzentrationen von Methan in der Atmosphäre in einem Gebiet von vier mal vier Kilometern über dem Krater gemessen. Doch auch wenn der Krater signifikant zum Methan-Budget der Nordsee beiträgt, stellt er für das Klima insgesamt kein vergrößertes Risiko dar, so die Wissenschaftler. „Wir waren zunächst überrascht darüber, dass wir keine höheren Konzentrationen über der Temperatur-Sprungschicht messen konnten“, erinnert sich Dr. Jens Schneider von Deimling, Geophysiker am GEOMAR. „Aber seit wir entdeckt haben, daß die am Meeresboden austretenden Gasblasen einen großen Wirbel bilden nehmen wir an, dass bislang nicht verstandene Prozesse die Verbreitung und den Austausch des Gases noch fördern. Es kann sein, dass Blasen aus größeren Wirbeln nicht mehr viel Methan enthalten, wenn sie die Oberfläche erreichen.“

Langzeit-Untersuchungen mit so genannten Landern, Plattformen für verschiedene Messungen und Experimente am Meeresboden, deuteten auf schwankende Emissionen hin. Im Dezember 2011 wurde eine Eruption mit dramatisch erhöhten Gasfreisetzungen registriert. Nachfolgende Untersuchungen mit dem Tauchroboter ROV KIEL 6000 offenbarten, dass sich die Struktur am Meeresboden nochmals verändert hatte. „Dies belegt, dass eruptive Kräfte eine sporadische, aber wichtige Rolle spielen“, folgert Dr. Linke. „Der Krater ist auch heute noch immer aktiv und wird es auch für einige Jahre bleiben. Wir sind der Meinung, dass die Stelle nicht nur überwacht werden muss – wir sollten sie auch als natürliches Laboratorium nutzen und daraus für zukünftige Explorationen lernen.“ Die Wissenschaftler empfehlen, zusätzliche Daten zu sammeln, Hypothesen zu überprüfen und die Veränderungen des Methans in der Wassersäule und am Meeresboden genauer zu untersuchen und das Monitoring zu verbessern. Für Ende August 2016 ist bereits eine weitere Ausfahrt zum Krater geplant.

Originalveröffentlichung:
Ira Leifer and Alan Judd (Herausgeber, 2015): The 22/4b Study: Investigations of the Geologic, Water-Column, and Atmospheric Phenomena of a Persistent North Sea Gas Blowout. Marine and Petroleum Geology, Volume 68, Part B, Pages 705-882 (December 2015)

Weitere Informationen:
http://www.geomar.de GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel
http://www.gov.uk/government/organisations/department-of-energy-climate-change Department of Energy & Climate Change (DECC)
http://www.bgs.ac.uk British Geological Survey
http://www.io-warnemuende.de Leibniz-Institut für Ostseeforschung Warnemünde (IOW)

Quelle: idw

(nach oben)


Warum reißen Achillessehnen? / Dissertation erforscht Gründe für Achillessehnenrupturen

Nicola Veith Pressestelle
Frankfurt University of Applied Sciences

In den vergangenen Jahren ist eine Zunahme von Achillessehnenverletzungen feststellbar, obwohl diese die stärksten Sehnen des menschlichen Körpers sind. Eine Ursache dafür ist die ungleichmäßige Belastung der Achillessehne durch schräge Fußhaltung, aber auch hohe gleichmäßige Belastung kann zu Problemen führen. Die Dissertation, die M. Eng. Majid Kardeh vom Fachbereich Informatik und Ingenieurswissenschaften der Frankfurt University of Applied Sciences (Frankfurt UAS) vorgelegt hat, beschäftigt sich mit einer „Methode zur Beurteilung des Achillessehnenruptur-Risikos auf Basis bildgebender Verfahren und der Finite Elemente-Methode“.

Kardeh entwickelte ein virtuelles Verfahren, das die Belastung der Achillessehne unter verschiedenen Bedingungen simuliert und Schwachstellen erkennt.

„Unter Berücksichtigung von Majid Kardehs Erkenntnissen können künftig vorbeugende Maßnahmen bei der Entwicklung von Schuhen getroffen werden, die dem Risiko einer Achillessehnenruptur entgegenwirken“, ordnet der Betreuer Prof. Dr.-Ing. Gerhard Silber von der Frankfurt UAS die Bedeutung der Dissertation ein. „Das Potenzial des genutzten Verfahrens liegt in der Entwicklung und Optimierung von Schuhen am Computer, die sowohl im Komfort als auch im Schutz besonders gefährdeter Muskeln und Sehnen verbessert werden können.“ Die Arbeit wurde in enger Kooperation mit Prof. Dr. Dr. med. Thomas J. Vogl vom Institut für Diagnostische und Interventionelle Radiologie der Goethe-Universität Frankfurt am Main verfasst. Die radiologischen Aufgaben beinhalteten insbesondere die Entwicklung und Analyse spezifischer Magnetresonanztomographie-Sequenzen zur Bildgebung.

In das Forschungsförderungsprogramm LOEWE (Landes-Offensive zur Entwicklung Wissenschaftlich-ökonomischer Exzellenz) war der Fachbereich Informatik und Ingenieurwissenschaften der Frankfurt UAS im Rahmen des Schwerpunktes „Präventive Biomechanik – PräBionik“ eingebunden. Kardeh entwickelte innerhalb dieses Schwerpunktes eine Methode, welche die Interaktion von Fuß, Schuh und Untergrund simuliert. Gleichzeitig zeigt sie die Belastungen der jeweiligen Weichgewebe im Fuß auf. Mit Hilfe dieser Methode untersuchte Kardeh die besonderen Anforderungen an die Achillessehne bei verschiedenen Fußstellungen. Dabei wurden auch unterschiedliche Konstellationen der drei Parameter Fuß, Schuh und Untergrund überprüft. Das virtuelle Verfahren ermöglicht die genaue Darstellung der inneren Belastung der Achillessehne in verschiedenen Szenarien. Die Beine von Versuchsteilnehmer(-inne)n wurden mittels des Magnetresonanztomographie-Verfahrens digitalisiert und die mechanischen Eigenschaften des Weichgewebes durch Versuche, die das hyperelastische Verhalten von Materialien ermitteln, identifiziert. In Kombination mit Laufanalysen konnten mittels eines Mehrkörpersystems, das die Berechnung der Bewegung verschiedener Körper in einem System ermöglicht, die erforderlichen Muskelkräfte für das virtuelle Modell ermittelt werden.

Kardeh kommt zu dem Ergebnis, dass die größte Spannung und Dehnung der Achillessehne beim Laufen in neutraler Fußhaltung im Bereich der Achillessehnentaille besteht. Diese Stelle wird auch als „kritische Stelle“ bezeichnet, da 80 % aller Achillessehnenrisse in diesem Bereich auftreten. Bei einer ungleichmäßigen bzw. asymmetrischen Belastung der Achillessehne ist je nach Art der Asymmetrie der innere – bei einer Eversion – oder der äußere – bei einer Inversion – Teil der Sehne stärker gefährdet. Bei einer Inversion ist das Risiko für eine Ruptur insgesamt höher als bei einer Eversion.

Kardeh hat sein Diplom in Maschinenbau und auch seinen Master in Automotive Engineering an der Frankfurt UAS absolviert. Er ist seit 2008 wissenschaftlicher Mitarbeiter am Institut für Materialwissenschaften und Lehrender am Fachbereich Informatik und Ingenieurswissenschaften. Seine kooperative Promotion in theoretischer Medizin schloss er im November 2015 an der Goethe-Universität Frankfurt erfolgreich ab. Sie wurde von zwei Gutachtern betreut: Prof. Dr.-Ing. Gerhard Silber ist Professor am Fachbereich Informatik und Ingenieurwissenschaften der Frankfurt UAS und Direktor des Instituts für Materialwissenschaften; Prof. Dr. Dr. med. Thomas J. Vogl ist Direktor des Instituts für Diagnostische und Interventionelle Radiologie der Goethe-Universität Frankfurt am Main.

Bereits 2012 befasste sich Christophe Then von der Frankfurt UAS in seiner Dissertation im LOEWE-Schwerpunkt „Präventive Biomechanik – PräBionik“ mit einem besseren Verständnis der biomechanischen Vorgänge bei Liegegeschwüren und zeigte Möglichkeiten zu ihrer Vermeidung auf. Der Titel der von Then in englischer Sprache verfassten Dissertation lautete: „Application of the Finite Element Method to Optimize Interaction of Human Soft Tissue and Soft Polymeric Foam Supports“.

Die Frankfurt UAS, die Goethe-Universität Frankfurt am Main, die Philipps-Universität Marburg und die Duale Hochschule Baden-Württemberg Mosbach wurden für ihre gemeinsame Forschung im biomechanischen Bereich von 2010 bis 2013 mit rund 3,8 Millionen Euro aus dem LOEWE-Programm gefördert. Konsortialführer des LOEWE-Schwerpunkts war Prof. Dr.-Ing. Gerhard Silber, Geschäftsführender Direktor des Instituts für Materialwissenschaften (IfM) der Frankfurt UAS.

Das Institut für Materialwissenschaften (IfM) ist als Forschungsschwerpunkt an der Frankfurt UAS am Fachbereich Informatik und Ingenieurwissenschaften angesiedelt und widmet sich den Materialwissenschaften, der Biomedizin und der Biomechanik. Das Institut setzt sich aus den Laboren für Materialwissenschaft, Kunststoff und Kautschuk, Werkstoffe und für Computeralgebra zusammen. Geschäftsführender Direktor des Instituts ist Prof. Dr.-Ing. Gerhard Silber.

Kontakt: Frankfurt University of Applied Sciences, Institut für Materialwissenschaften (IfM), Prof. Dr.-Ing. Gerhard Silber, Telefon: 069/1533-3035, E-Mail: silber@fb2.fra-uas.de

Weitere Informationen:
http://www.frankfurt-university.de/ifm

Quelle: idw

(nach oben)


Ausbau der Wasserkraft bedroht Biodiversität

Antje Karbe Hochschulkommunikation
Eberhard Karls Universität Tübingen

Wissenschaftler warnen in internationaler Studie vor den ökologischen und sozialen Folgen von 450 geplanten Dämmen an Amazonas, Mekong und Kongo – Umweltsystemwissenschaftlerin der Universität Tübingen beteiligt

Der globale Ausbau der Wasserkraft bedroht die artenreichsten Gewässer der Erde. Darauf weisen Wissenschaftler in einer internationalen Studie hin, in der sie Daten zu den Flüssen Amazonas, Mekong und Kongo auswerten. Der ökonomische Nutzen von Staudämmen werde häufig überschätzt, die langfristigen Konsequenzen für Artenreichtum und Fischerei hingegen unterschätzt, warnen die Autoren. Um die Auswirkungen auf Umwelt und Mensch zu minimieren, fordern sie überregionale Analysen zur Risikoabschätzung bei Dammbauten, die sowohl soziale als auch ökologische Prozesse und ihre Wechselwirkungen berücksichtigen. Die Ergebnisse wurden am Freitag im renommierten Fachjournal Science veröffentlicht. DOI: http://dx.doi.org/10.1126/science.aac7082

Professorin Christiane Zarfl vom Zentrum für Angewandte Geowissenschaften der Universität Tübingen hatte gemeinsam mit dem Berliner Leibniz-Institut für Gewässerökologie und Binnenfischerei eine Datenbank von allen großen Wasserkraftanlagen weltweit zusammengestellt, die sich derzeit im Bau befinden oder geplant sind. Ein internationales Wissenschaftlerteam kombinierte nun diese Informationen mit aktuellen Daten zur Verteilung von Fischarten in den drei großen Flusssystemen und stellte sie in Karten dar.

In den tropischen Einzugsgebieten von Amazonas, Mekong und Kongo leben mit mehr als 4000 Arten knapp ein Drittel aller Süßwasserfischarten der Erde, die meisten davon sogar nur hier. Derzeit sind diese Flüsse noch weitgehend unverbaut, jedoch ist die Errichtung von mehr als 450 großen Dämmen geplant. Dies habe nicht nur soziale Auswirkungen, wie die Umsiedlung der ansässigen Bevölkerung, sagen die Autoren. Die besten Stellen für die Elektrizitätsgewinnung seien zugleich Gebiete, die eine einmalige Artenvielfalt aufwiesen. Es bestehe die akute Gefahr, dass große Dämme den Fischreichtum reduzierten und Hindernisse für wandernde Fische darstellten. „Dies kann Fischpopulationen trennen und deren Lebenszyklen unterbrechen“, sagt Zarfl. „Staudämme schränken die natürliche Dynamik eines Flusses ein und schaffen somit einheitlichere und unproduktivere Lebensräume. Das reduziert nicht nur den Artenreichtum, es beeinträchtigt auch die Fischerei und die von der Dynamik des Gewässers abhängige Landwirtschaft.“

Mit der Studie wolle man zeigen, wie wichtig eine abwägende Auswahl des Staudammstandortes für ein nachhaltiges Gewässermanagement sei, sagt Zarfl. Die Autoren empfehlen daher mit Nachdruck eine integrative Planung des Wasserkraftausbaus, die eine Balance zwischen Ausschöpfung des Wasserkraftpotentials und dem Erhalt natürlicher Ressourcen wahrt. Zur Risikoabschätzung müssten alle verfügbaren Daten genutzt werden. Vor allem Geldgeber seien aufgerufen, Analysen zu fordern, die kumulative Effekte bestehender und geplanter Staudämme berücksichtigen und explizit alternative Standorte mit einbeziehen: „Nur so können soziale Ziele erreicht und die Auswirkungen auf die Umwelt reduziert werden.“

Publikation:
K. O. Winemiller, P. B. McIntyre, L. Castello, E. Fluet-Chouinard, T. Giarrizzo, S. Nam, I. G. Baird, W. Darwall, N. K. Lujan, I. Harrison, M. L. J. Stiassny, R. A. M. Silvano, D. B. Fitzgerald, F. M. Pelicice, A. A. Agostinho, L. C. Gomes, J. S. Albert, E. Baran, M. Petrere Jr., C. Zarfl, M. Mulligan, J. P. Sullivan, C. C. Arantes, L. M. Sousa, A. A. Koning, D. J. Hoeinghaus, M. Sabaj, J. G. Lundberg, J. Armbruster, M. L. Thieme, P. Petry, J. Zuanon, G. Torrente Vilara, J. Snoeks, C. Ou, W. Rainboth, C. S. Pavanelli, A. Akama, A. van Soesbergen, L. Sáenz: Balancing hydropower and biodiversity in the Amazon, Congo, and Mekong. Science, Vol. 351, no. 6269 pp 8. Januar 2016.

Weitere Informationen:
http://dx.doi.org/10.1126/science.aac7082

Quelle: idw

(nach oben)


Macht Wochenendarbeit unzufrieden?

Renate Bogdanovic Pressestelle
Deutsches Institut für Wirtschaftsforschung DIW Berlin

Mehr als 40 Prozent der Erwerbstätigen in Deutschland arbeiten nicht nur von Montag bis Freitag sondern auch an Samstagen, ein Viertel geht sogar sonntags regelmäßig zur Arbeit. Zwischen 1996 und 2014 ist der Anteil derjenigen, die am Wochenende arbeiten, leicht gestiegen.

Wie sich das Arbeiten am Wochenende auf die Schlaf- und Lebenszufriedenheit der Betroffenen auswirkt, ist indes wenig bekannt. Die vorliegenden Analysen zeigen, dass Personen, die am Wochenende arbeiten, im Durchschnitt eine geringere Gesundheits-, Familien- und Schlafzufriedenheit haben und auch mit ihrem Leben insgesamt unzufriedener sind als Personen, die samstags und/oder sonntags nicht arbeiten. Ausschlaggebend dafür ist aber nicht die Wochenendarbeit als solche. Betrachtet man Personen, die zunächst nicht am Wochenende arbeiten und dann zur Wochenendarbeit wechseln, zeigt sich, dass sich ihre Zufriedenheit in den meisten Bereichen nicht ändert; lediglich die Arbeitszufriedenheit sinkt bei einem Wechsel zur Sonntagsarbeit leicht.

Weitere Informationen:
http://diw.de/documents/publikationen/73/diw_01.c.522128.de/15-50-1.pdf

Quelle: idw

(nach oben)


Erhöhte Giftigkeit durch Wanderschaft? – Invasive Meeresalge verstärkt ihre Abwehrmechanismen

Dr. Andreas Villwock Kommunikation und Medien
GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel

Eine aus Asien stammende, essbare Meeresalge schützt sich gegen Fraßfeinde durch giftige Substanzen. Die nach Nordamerika und Europa eingewanderten Stämme der Alge enthalten aber deutlich mehr Abwehrstoffe, wie eine internationale Wissenschaftlergruppe unter der Leitung des GEOMAR Helmholtz-Zentrums für Ozeanforschung Kiel in einer jüngst veröffentlichten Studie herausgefunden hat. Sollten diese resistenteren Stämme ihren Weg nach Asien zurückfinden, könnte dort die Zahl der Vergiftungsfälle deutlich zunehmen.

Invasive Arten versuchen in ihrer neuen Umgebung zu überleben. Manchmal haben sie Glück, weil ihre natürlichen Feinde dort nicht zu finden sind. Dann breiten sich diese Arten oft rasch aus und können zu Schädlingen werden. Beispiele aus dem Bereich von Nord- und Ostsee sind die Wollhandkrabbe, die Pfahlbohrmuschel oder auch die Pazifische Auster. Andere Arten haben es nicht so leicht und müssen ihre Abwehrkräfte sogar stärken, wie die Meeresalge Gracilaria vermiculophylla, die ursprünglich in Asien beheimatet war, sich in jüngerer Zeit aber sowohl in den europäischen wie in den nordamerikanischen Raum ausgebreitet hat.

In ihrem ursprünglichen Verbreitungsraum wird sie als Lebensmittel genutzt und bevorzugt roh gegessen, obwohl sie eine hormonartige Substanz – Prostaglandin – enthält, das immer wieder mal zu Vergiftungsfällen führt, gelegentlich sogar mit tödlichem Ausgang. Prostaglandin ist eigentlich gegen Fraßfeinde der Alge, wie Schnecken oder Kleinkrebse gedacht, die auch sehr empfindlich darauf reagieren. In den letzten Jahrzehnten hat sich die Alge nach Europa und Nordamerika ausgebreitet. Die eingewanderten Stämme von Gracilaria vermiculophylla wappnen sich in Europa und Nordamerika offensichtlich besser gegen ihre Feinde, denn sie enthalten deutlich mehr Prostaglandin als die nativen Populationen in Asien, wie eine Studie in der internationalen Fachzeitschrift Harmful Algae unter der Leitung des GEOMAR Helmholtz-Zentrums für Ozeanforschung Kiel zeigt.

„Wir haben 12 ausgewählte Populationen der Alge aus Ostasien, Mexiko und Europa untersucht“, erläutert Dr. Florian Weinberger, Projektleiter und Ko-Autor der internationalen Studie. „Die Untersuchungen waren sehr aufwändig, weil wir lebende Organismen benutzt haben, die wir zunächst unter streng kontrollierten Bedingungen in den Kulturräumen des GEOMAR gehältert haben. So konnten wir eine gute Vergleichsbasis für unsere Analysen sicherstellen“, so Weinberger weiter.

Das Ergebnis der Analysen war für die Forscher schon bemerkenswert. „Die eingewanderten Arten enthielten deutlich mehr Prostaglandin als die aus Südostasien stammenden Proben, die Konzentration war um bis zu 390% erhöht, erläutert Mareike Hammann, Hauptautorin der Studie, die im Rahmen ihrer Doktorarbeit entstand. „Offensichtlich müssen sich die wandernden Stämme von Gracilaria vermiculophylla stärker gegen Fraßfeinde schützen, sodass sie mehr Abwehrstoffe einlagern“, so Hammann weiter.

Dieses Ergebnis wirft ganz neue Fragen auf: was passiert, wenn die invasiven Stämme von Gracilaria vermiculophylla irgendwann zurück nach Asien wandern? „Die Zahl der Vergiftungsfälle dort könnte dann deutlich zunehmen“, meint Florian Weinberger. Ein dauerhaftes Monitoring sei unerlässlich, um gegebenenfalls rechtzeitig entsprechende Warnungen vor dem Verzehr geben zu können, so der Kieler Meeresbiologe.

Originalarbeit:
Hammann, M., M. Rempt, G. Pohnert, G. Wang, S. Min Boo, F. Weinberger, 2016: Increased potential for wound activated production of Prostaglandin E2 and related toxic compounds in non-native populations of Gracilaria vermiculophylla. Harmful Algue, 51, 81-88,
http://dx.doi.org/10.1016/j.hal.2015.11.009

Weitere Informationen:
http://www.geomar.de/n4178 Link zur Pressemitteilung

Quelle: idw

(nach oben)


»kicker Archiv«: Fraunhofer IAIS macht 50 Jahre Fußballgeschichte digital verfügbar

Katrin Berkler Presse und Öffentlichkeitsarbeit
Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS

Fußballfans haben jetzt vom Computer, Tablet oder Smartphone Zugriff auf über 5.000 Ausgaben des »kicker-sportmagazins«, vom ersten Heft nach Einführung der Fußball-Bundesliga im Jahr 1963 bis hin zur aktuellen Ausgabe am Kiosk. Das Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS realisierte das »kicker Archiv« – durch den Einsatz neuester Dokumentenanalyse-Technologien zur Erschließung von digitalisierten Dokumentbeständen können Abonnenten und Redakteure mittels Volltextsuche in über 300.000 kicker-Seiten stöbern. Dabei gehen die Funktionen der Plattform weit über die bloße Darstellung digitalisierter Dokumente am Bildschirm hinaus.

»Mit dem kicker Archiv haben wir die Basis für eine Vielzahl von Anwendungen zur Zweitverwertung der historischen kicker-Ausgaben entwickelt, die eine Suche direkt in den Artikeltexten ermöglichen«, sagt Dr. Joachim Köhler, Abteilungsleiter NetMedia am Fraunhofer IAIS. »Der Nutzer kann beispielsweise den Namen eines Spielers als Suchbegriff eingeben und erhält in der Ergebnisübersicht nicht wie bisher üblich nur die Ausgaben und Seitenzahlen genannt, sondern auch die Artikeltexte, in denen der Begriff vorkommt. Technisch möglich ist das durch Artikel-Separierung mit einer speziell angepassten OCR-Verarbeitung.« kicker-Journalisten sowie Leser können auf diese Weise viel genauer nach archivierten Inhalten suchen und den Kontext, in dem der Suchbegriff auftaucht, erfassen.

Die inhaltliche Erschließung von digitalisierten Zeitungen stellt durch Layout-Besonderheiten eine Herausforderung dar: Eine konventionelle Texterkennung ist nicht in der Lage, einzelne Artikel seitenübergreifend zu separieren und ihre Bestandteile zu identifizieren. Aber nur mit Metadaten wie Überschrift, Textkörper, Autorenangaben, Bildern und Bildunterschriften kann ein zeitgemäßes Archiv aufgebaut und eine optimale Suche ermöglicht werden. Dabei kommen zum Beispiel Algorithmen zur Bildoptimierung zum Einsatz. Automatische Verfahren zur semantischen Erschließung großer digitalisierter Dokumentsammlungen ermöglichen die gezielte Suche und Verknüpfung von Informationen in den Dokumentbeständen. Die Suche erfolgt dabei ähnlich, wie es Internetnutzer von Suchmaschinen für Webseiten gewöhnt sind.

Dank der Fraunhofer-Software können auch eingescannte Print-Dokumente der älteren Jahrgänge ausgewertet werden, obwohl sie meist keine gute Qualität aufweisen. Auch schwierige Farbkombinationen wie weiße Überschrift auf blauem Hintergrund, die die Texterkennung erschweren, stellen mit dem Fraunhofer-Verfahren kein Problem dar und minimieren die manuelle Nachbereitung und Qualitätssicherung auf ein Minimum. Für beste Ergebnisse setzt das Team des Fraunhofer IAIS auch beim »kicker Archiv« auf ein kombiniertes Modell aus automatischen und manuellen Erschließungsmethoden und arbeitet für die manuelle Nachbereitung mit dem Archivierungsdienstleister ArchivInForm zusammen. Die Darstellung der Inhalte erfolgt über diverse Plattformen, beispielsweise über die Anwendung MyBib eL® von ImageWare oder App-basierte Anwendungen, die speziell für Smartphones und Tablets entwickelt wurden. So können Anwender einzelne Ausgaben im kicker eMagazine abrufen und nutzen.

Die semantischen Technologien zur Artikelsegmentierung und -erschließung, die beim »kicker Archiv« zum Einsatz kommen, haben die Fraunhofer-Wissenschaftler ursprünglich im Kontext des vom Bundesministerium für Wirtschaft und Technologie geförderten Forschungsprogramms THESEUS entwickelt. Die Technologien zur Erschließung von Zeitungs- und Zeitschriftenbeständen werden in den unterschiedlichsten Bereichen der Medienbranche, wie Zeitungs- und Zeitschriftenverlagen, Bibliotheken und Archiven, eingesetzt.

Ansprechpartner
Dr. Joachim Köhler
Abteilung NetMedia
Telefon 02241 14-1900
joachim.koehler@iais.fraunhofer.de

Weitere Informationen:
http://www.iais.fraunhofer.de Webseite Fraunhofer IAIS

Anhang
Pressemitteilung als PDF
https://idw-online.de/de/attachment48218

Quelle: idw

(nach oben)


Neues Messgerät erfasst Stickstoffdioxide im Abgas eines vorausfahrenden Fahrzeugs

Heidelberger Umweltphysiker ermöglichen mobile Messungen im realen Straßenverkehr

Welchen Anteil haben einzelne Fahrzeuge – abhängig von Alter, Zustand oder auch Motor – an der Luftverschmutzung im Stadtverkehr? Mit dieser Frage beschäftigen sich Wissenschaftler der Universität Heidelberg. Das Team um den Umweltphysiker Dr. Denis Pöhler hat ein neuartiges Gerät entwickelt, mit dem Stickstoffdioxid im Abgas eines vorausfahrenden Fahrzeugs gemessen werden kann. Dieses spektroskopische Messinstrument liefert verlässliche Emissionswerte bei realem Fahrverhalten, die bisher nur mit aufwendigen Systemen direkt am Fahrzeug erfasst werden konnten. Die bei diesen mobilen Messungen gewonnenen Daten können anstelle unzureichender Modellrechnungen herangezogen werden, um die Hauptverursacher hoher Schadstoffbelastung zu ermitteln, wie Dr. Pöhler betont.

Stickoxidemissionen (NOx) von Fahrzeugen tragen wesentlich zur schlechten Luftqualität in Städten bei. Vor allem hohe Konzentrationen von Stickstoffdioxid (NO2) sind dabei problematisch. Die NOx-Emissionen variieren jedoch sehr stark von Fahrzeug zu Fahrzeug und hängen von zahlreichen Parametern ab, die nach Angaben von Denis Pöhler nicht alle ausreichend genau bekannt sind. Dazu gehören Fahrzeug- und Motortyp, Abgasbehandlung, Alter, Zustand und Fahreigenschaften. Ein weiteres Problem sind die Daten, die Behörden und Wissenschaft für ihre Modellrechnungen benötigen, um die NOx-Emissionen verschiedener Fahrzeuge abschätzen und deren Beitrag zur Luftverschmutzung bestimmen zu können. Erforderlich sind nicht nur verlässliche Fahrzeugemissionsdaten unter realen Fahrbedingungen, sondern auch Untersuchungen der tatsächlich gefahrenen Kilometer verschiedener Fahrzeugtypen. „Beide Datensätze sind jedoch nur sehr unzureichend vorhanden oder schwer zu erheben“, sagt Dr. Pöhler. Der Wissenschaftler verweist in diesem Zusammenhang auch auf die zum Teil großen Diskrepanzen, die zwischen den Abgaswerten auf dem sogenannten Rollenprüfstand und tatsächlichen Emissionen während der Fahrt beobachtet wurden.

Für das „Datenproblem“ haben Dr. Pöhler und sein Team ein schnelles und mobil einsetzbares Gerät zur Messung von Stickstoffdioxid mit der Bezeichnung „NO2 ICAD“ entwickelt. Eine genaue NO2-Messung wird dabei durch die spektroskopische Absorption von Molekülen erreicht. „Dieses Messgerät ist daher unempfindlich gegenüber Störungen wie zum Beispiel Intensitätsschwankungen durch Temperaturänderungen oder Vibrationen. Auch andere Gase und Partikel haben keinen Einfluss auf die Messungen“, so Dr. Pöhler. Bei den Untersuchungen ist das Instrument in einem Fahrzeug installiert, so dass die Konzentration von NO2 in den Abgasfahnen von PKWs, Bussen, LKWs oder Zweirädern während der Fahrt gemessen werden kann.

Im Praxistest kam das „NO2 ICAD“-Gerät unter anderem bei Messungen in Mainz zum Einsatz. Im Auftrag der Stadt wurden diese an sieben Tagen im März und im April 2014 durchgeführt. Dabei haben die Heidelberger Wissenschaftler des Instituts für Umweltphysik mehr als 730 Fahrzeuge im realen Stadtverkehr erfasst. Sie bestimmten – in „parts per billion“ (ppb), also „Teilen pro Milliarde“ – den NO2-Anteil in der jeweiligen Abgasfahne und verglichen diesen Wert mit der sogenannten Hintergrundkonzentration an Stickstoffdioxid. Auf diese Weise konnten sie Rückschlüsse auf die Emissionen der einzelnen Fahrzeuge ziehen.

„Wir haben bei diesem Praxiseinsatz Stickstoffdioxid-Werte von wenigen parts per billion bis zu 7000 ppb gemessen. Dabei gab es nicht nur, wie erwartet, Unterschiede zwischen den Fahrzeugkategorien, sondern auch innerhalb einer Kategorie selbst“, erläutert Denis Pöhler. Nur 7,6 Prozent aller Fahrzeuge überschritten einen NO2-Wert von 500 ppb, vor allem Busse älterer Modelle, aber auch einzelne PKW und Motorräder. „Diese machen nach unserer Datenanalyse aber 45 Prozent der gesamten Emissionen aus. Somit könnte die Umweltbelastung durch technische Nachbesserungen an nur wenigen Fahrzeugen bereits nahezu halbiert werden“, erläutert der Heidelberger Physiker. „Mit unseren Messdaten konnten wir außerdem die Schwachstellen von Simulationen aufzeigen, in denen bestimmte Parameter und Faktoren wie Fahrzeugzählung, Fahrzeugflotte oder Emissionswerte nicht repräsentativ berücksichtigt werden.“ Aktuell finden weitere Messungen in mehreren deutschen Städten statt.

Ziel von Dr. Pöhler ist es, sein neues Gerät zur Messung von Stickstoffdioxid in der Luft zur Marktreife zu bringen. Das System wird derzeit um Messmöglichkeiten für Stickstoffmonoxid (NO) und Kohlendioxid (CO2) erweitert. Damit lassen sich dann eine Vielzahl unterschiedlicher Umweltbeobachtungen und Emissionsmessungen realisieren. Die Anwendungsgebiete reichen von High-End-Nutzern in der Wissenschaft über Emissionsmessungen von Fahrzeugen und der Überwachung der Luftqualität bis zur Nutzung in Industrie und Medizin.

Kontakt:
Dr. Denis Pöhler
Institut für Umweltphysik
Telefon (06221) 54-6311
denis.poehler@iup.uni-heidelberg.de

Quelle: idw

(nach oben)


Warnleuchte: Warum die Nutzung von Smartphone und Laptops am Abend für ADHS-Patienten riskant ist

Dr. Anne Hardy Marketing und Kommunikation
Goethe-Universität Frankfurt am Main

Über die Funktion der Inneren Uhr und die Zusammenhänge von Licht und seelischen Erkrankungen berichten zwei Beiträge in der soeben erschienenen Ausgabe von „Forschung Frankfurt“ zum Jahr des Lichts.

FRANKFURT. Unsere biologische Uhr muss täglich neu gestellt werden, um den inneren Rhythmus von ungefähr 24 Stunden mit dem Rhythmus der Außenwelt zu synchronisieren. Licht spielt in diesem komplexen Prozess eine besondere Rolle. Ist die Innere Uhr falsch getaktet, kann dies gravierende Folgen haben: Schlaf- und Konzentrationsstörungen, depressive Verstimmungen, aber auch Veränderungen des Immunsystems sowie vermehrter Konsum von Genussmitteln. Über die Funktion der Inneren Uhr berichtet in der soeben erschienenen Ausgabe des Wissenschaftsmagazins der Goethe-Universität „Forschung Frankfurt“ der Neurobiologe Prof. Dr. Horst-Werner Korf, während sich die Psychiater Prof. Andreas Reif und Dr. Christine Reif-Leonhard in ihrem Beitrag mit den Zusammenhängen zwischen Licht und seelischen Erkrankungen beschäftigen.

Lichtreize, welche die Innere Uhr takten, werden in erster Linie von circadianen Photorezeptoren wahrgenommen, die den Sehfarbstoff Melanopsin enthalten und erst vor 20 Jahren entdeckt wurden. Während die klassischen Photorezeptoren der Netzhaut, die Stäbchen und Zapfen, uns die Orientierung im Raum ermöglichen, dienen die circadianen Photorezeptoren der Orientierung in der Zeit. Sie liegen in der Tiefe der Netzhaut und vermitteln Informationen über die Umgebungshelligkeit an die Hauptuhr im Gehirn, die in den „bilateral angeordneten suprachiasmatischen Kernen“, kurz „SCN“, verortet ist. Hier tickt ein molekulares Uhrwerk: „Im Zentrum steht ein Ensemble von Uhrengenen, die in sogenannten transkriptional-translationalen Rückkopplungsschleifen interagieren. Ihre Proteinprodukte sind hemmende oder aktivierende Transkriptionsfaktoren, die Gene an- oder abschalten“, erläutert Korf, Direktor der Dr. Senckenbergischen Anatomie und des Chronomedizinschen Instituts. Inzwischen konnten mehr als 3000 Gene identifiziert werden, die unter Kontrolle dieses Uhrwerks stehen.

Besonders sensibel reagieren die circadianen Photorezeptoren übrigens auf das Licht im blauen Bereich des sichtbaren Spektrums. „Deshalb können Menschen, die spät am Abend vor Smartphone, Tablet oder Laptop sitzen, häufig schlecht schlafen“, ergänzt der Neurobiologe. Besonders nachteilige Folgen zeigt der Gebrauch dieser Geräte am Abend bei Menschen, die unter dem Aufmerksamkeits-Defizit-/Hyperaktivitätssyndrom (ADHS) leiden. Die Wissenschaftler gehen davon aus, dass diese Patienten eine genetische Veranlagung zu einer leicht veränderten molekularen Uhr haben. „Wird diese dann noch zusätzlich durch Beleuchtungsmuster – wie das blaue Licht – desynchronisiert, führt dies über noch unbekannte Mechanismen zur Erkrankung,“ so Andreas Reif, Ärztlicher Direktor der Klinik für Psychiatrie, Psychosomatik und Psychotherapie des Uni-Klinikums. „Deshalb gilt: bei ADHS haben iPhone & Co nachts Pause!“

Licht ist gut für die Seele, dies ist die gängige Auffassung; doch ganz so einfach ist es nicht, wie schon das ADHS-Beispiel zeigt. Saisonale Stimmungsschwankungen werden häufig als „Winterdepression“ bezeichnet. Zwar lässt sich ein eindeutiges Nord-Süd-Gefälle erkennen: So leiden fast 10 Prozent der in Alaska Lebenden an dieser Depression, in Florida sind es dagegen nur 1,5 Prozent. Aber vielleicht hatten die Menschen, die im Norden leben, deshalb eine höhere Anfälligkeit, weil ihr genetisches Risiko für Stimmungserkrankungen in einer Region mit geringerer Sonnenscheindauer eher zur Ausprägung kommen kann. So haben der Dresdner Psychiater Prof. Michael Bauer und sein Team in diesem Jahr herausgefunden, dass auch weniger Sonnenscheindauer am Geburtsort zu einer früheren Ersterkrankung bei bipolar affektiven Störungen (früher „manisch-depressive Erkrankung“) führen kann. Weitere Untersuchungen, an denen auch das Team von Prof. Reif beteiligt war, belegen die These, dass es einen Zusammenhang zwischen dem Ersterkrankungsalter bei bipolaren Störungen und der regionalen Sonneneinstrahlung gibt.

Die aufhellende Wirkung des Lichts zeigt bei saisonaler Depression gute Wirkung: Als „therapeutisches Licht“ wird eine helle Lichtquelle (10.000 Lux) circa 30 Minuten bei offenen Augen angewendet. „Auch bei nichtsaisonaler Depression zeigt die ‚Bright Light Therapy‘ eine gute Wirkung. Allerdings gibt es hier noch zu wenige Studien“, sagt die Psychiaterin und Neurologin Dr. Christine Reif-Leonhard. Unter Frankfurter Leitung startet im nächsten Jahr ein internationales Forschungskonsortium, um den therapeutischen Effekt von Licht bei ADHS weiter zu untersuchen.

Informationen: Prof. Dr. Horst-Werner Korf, Dr. Senckenbergischen Anatomie und Dr. Senckenbergisches Chronomedizinschen Institut, Fachbereich Medizin, Tel. 069/6301 6040, Korf@em.uni-frankfurt.de; Prof. Andreas Reif und Dr. Christine Reif-Leonhard, Klinik für Psychiatrie, Psychotherapie und Psychosomatik, Universitätsklinikum, Campus Niederrad, Tel. 069/6301-5222, andreas.reif@kgu.de, christine.reif-leonhard@kgu.de

Die aktuelle Ausgabe von „Forschung Frankfurt“, die sich mit ganz unterschiedlichen Facetten des Lichts beschäftigt, können Journalisten kostenlos bestellen: ott@pvw.uni-frankfurt.de. Im Internet steht sie unter: www.forschung-frankfurt.uni-frankfurt.de.

Die Goethe-Universität ist eine forschungsstarke Hochschule in der europäischen Finanzmetropole Frankfurt. 1914 gegründet mit rein privaten Mitteln von freiheitlich orientierten Frankfurter Bürgerinnen und Bürgern fühlt sie sich als Bürgeruniversität bis heute dem Motto „Wissenschaft für die Gesellschaft“ in Forschung und Lehre verpflichtet. Viele der Frauen und Männer der ersten Stunde waren jüdische Stifter. In den letzten 100 Jahren hat die Goethe-Universität Pionierleistungen erbracht auf den Feldern der Sozial-, Gesellschafts- und Wirtschaftswissenschaften, Chemie, Quantenphysik, Hirnforschung und Arbeitsrecht. Am 1. Januar 2008 gewann sie mit der Rückkehr zu ihren historischen Wurzeln als Stiftungsuniversität ein einzigartiges Maß an Eigenständigkeit. Heute ist sie eine der zehn drittmittelstärksten und drei größten Universitäten Deutschlands mit drei Exzellenzclustern in Medizin, Lebenswissenschaften sowie Geisteswissenschaften.“

Herausgeber: Die Präsidentin
Abteilung Marketing und Kommunikation,
60629 Frankfurt am Main
Redaktion: Ulrike Jaspers, Referentin für Wissenschaftskommunikation, Abteilung Marketing und Kommunikation, Theodor-W.-Adorno-Platz 1
60323 Frankfurt am Main,
Tel: (069) 798-13066, Fax: (069) 798-763 12531, jaspers@pvw.uni-frankfurt.de
Internet: www.uni-frankfurt.de

Quelle: idw

(nach oben)


IMK: Deutsche Wirtschaft bleibt auf Wachstumskurs, Arbeitslosigkeit wächst trotz Zuwanderung kaum

Rainer Jung Abt. Öffentlichkeitsarbeit
Hans-Böckler-Stiftung

1,7 Prozent Wachstum 2015, 1,8 Prozent 2016

IMK: Deutsche Wirtschaft bleibt auf Wachstumskurs, Arbeitslosigkeit wächst trotz Zuwanderung kaum

Die deutsche Wirtschaft wird in diesem Jahr um 1,7 Prozent wachsen und auch 2016 ihren moderaten Aufschwung fortsetzen. Dabei dürfte sich die Zunahme des Bruttoinlandsprodukts (BIP) leicht auf 1,8 Prozent beschleunigen. Wichtigster Wachstumstreiber ist die lebhafte Nachfrage im Inland. Doch auch die deutschen Exporteure behaupten sich trotz der Abkühlung in wichtigen Schwellenländern. Sie profitieren weiterhin vom niedrigen Eurokurs, der starken Nachfrage aus den USA und einer langsamen Erholung im Euroraum.

Vor diesem Hintergrund dürfte 2016 auch die bislang schwache Entwicklung bei den Unternehmens- und den Bauinvestitionen etwas Fahrt aufnehmen. Die gute Konjunktur, aber auch die schleppende Bearbeitung von Asylanträgen und Qualifizierungsmaßnahmen für Flüchtlinge sorgen dafür, dass die Zahl der Arbeitslosen trotz der sehr starken Zuwanderung im Jahresdurchschnitt 2016 nur um 20.000 Personen zunehmen wird (mehr siehe unten im Abschnitt Arbeitsmarkt). Zu diesen Ergebnissen kommt die neue Konjunkturprognose, die das Institut für Makroökonomie und Konjunkturforschung (IMK) der Hans-Böckler-Stiftung heute auf einer Pressekonferenz in Berlin vorstellt.*

Unter dem Strich sieht das IMK die deutsche Wirtschaft „auf langsamer Fahrt“ voraus. Gegenüber ihrer Prognose vom Oktober senken die Forscher die Wachstumserwartung für 2015 minimal um 0,1 Prozentpunkte – und landen so wieder fast genau bei ihrer Vorhersage vom Dezember 2014. Für 2016 rechnen sie mit 0,2 Prozent weniger BIP-Zunahme als im Oktober. „Die zuvor erwartete Dynamik des selbsttragenden Aufschwungs hat sich leider nicht eingestellt. Dafür war und ist die Unsicherheit bei den Unternehmen zu groß“, erklärt Prof. Dr. Gustav A. Horn, der wissenschaftliche Direktor des IMK.

Umso wichtiger sei es, dass es neben „dem für Deutschland üblichen konjunkturellen Antriebsfaktor“ der Ausfuhren nun ein zweites, im vergangenen Jahrzehnt kaum wirksames Antriebsaggregat gebe: den privaten Verbrauch. „Ausgelöst wurde dies durch eine beschleunigte Lohndynamik nach der Finanzmarktkrise, die aber dennoch die preisliche Wettbewerbsfähigkeit der Wirtschaft in Deutschland wahrte und damit maßgeblich zum Aufbau einer zweiten Aufschwungsstütze neben dem Export beitrug“, schreiben die Konjunkturexperten. Dazu habe auch der neu eingeführte Mindestlohn beigetragen. Für das kommende Jahr rechnet das IMK mit einer Fortsetzung dieser positiven Tendenz durch spürbare nominale und reale Lohnzuwächse. Gleichzeitig nehme die Bedeutung der Inlandsnachfrage noch zu, weil die absehbare Leitzinserhöhung in den USA das Wachstum in großen Schwellenländern durch weitere Kapitalabflüsse wahrscheinlich noch einmal bremst.

Zusätzliche Impulse dürfte die deutsche Konjunktur 2016 durch etwas steigende Investitionen erhalten. Vor allem die Ausgaben für neue Gebäude dürften laut IMK zunehmen, weil die Einkommen wachsen und die Zinsen noch niedrig sind. Auch viele Unternehmen, die in diesem Jahr mit Investitionen noch gezögert haben, dürften ihre Ausgaben für neue Maschinen und sonstige Ausrüstungen moderat ausweiten. „Gleichwohl bleibt die prognostizierte Investitionsdynamik im Vergleich zu früheren Zyklen äußerst verhalten“ – und die Investitionen weiterhin eine Schwachstelle des Aufschwungs, so die Konjunkturforscher.

Kerndaten der Prognose (siehe auch Tabelle 1 im Prognose-Report):

– Arbeitsmarkt –
Das Wirtschaftswachstum lässt die Beschäftigung weiter kräftig steigen. Die Zahl der Erwerbstätigen in Deutschland nimmt 2015 und 2016 um jeweils 0,8 Prozent im Jahresdurchschnitt zu. Da durch die sehr starke Zuwanderung auch die Zahl der Erwerbspersonen steigt, wird die Arbeitslosigkeit 2016 allerdings nicht mehr weiter sinken. Nach einem Rückgang um rund 100.000 Personen im Jahresdurchschnitt 2015 auf knapp 2,8 Millionen erwartet das IMK, dass die Zahl der Arbeitslosen im kommenden Jahr um durchschnittlich 20.000 Personen zunimmt. Den insgesamt geringen Anstieg 2016 erklären die Forscher mit der guten Konjunktur sowie mit relativ langen Asylverfahren und Qualifizierungsmaßnahmen, die dazu führen, dass die Zuwanderer zeitverzögert auf den Arbeitsmarkt gelangen. Die Arbeitslosenquote beträgt nach der IMK-Prognose in beiden Jahren 6,4 Prozent.

– Außenhandel –
Die deutschen Ausfuhren wachsen im Jahresdurchschnitt 2015 um 5,4 Prozent. 2016 schwächt sich die stimulierende Wirkung der Euro-Abwertung ab, zudem dürfte als Folge des niedrigen Ölpreises die Nachfrage aus den Förderländern sinken. Die Exportentwicklung bleibt mit einem durchschnittlichen Zuwachs von 4,5 Prozent aber recht robust. Die Importe legen infolge der stärkeren deutschen Binnennachfrage 2015 um 6,2 Prozent im Jahresmittel zu, 2016 um 6,0 Prozent. Der extrem hohe deutsche Leistungsbilanzüberschuss sinkt nur geringfügig.

– Investitionen –
Die Unternehmen weiten ihre Investitionen nur schrittweise wieder aus: 2015 dürften die Ausrüstungsinvestitionen um 4,3 Prozent wachsen, 2016 legen sie um 5 Prozent zu. Die Bauinvestitionen wachsen in diesem Jahr um 0,6 Prozent und 2,2 Prozent im kommenden Jahr.

– Einkommen und Konsum –
Die verfügbaren Einkommen steigen 2015 nominal um durchschnittlich 3 Prozent. Da die Inflation niedrig ist, liegt der reale Zuwachs nur wenig niedriger. 2016 legen die verfügbaren Einkommen nominal um 3,5 Prozent zu. Bei wieder zunehmender Teuerung real allerdings nur um 2,2 Prozent. Die realen privaten Konsumausgaben wachsen 2015 um 2 Prozent, 2016 um 2,2 Prozent.

– Inflation und öffentliche Finanzen –
Die allgemeine Preisentwicklung in Deutschland ist 2015 extrem schwach. Im Jahresdurchschnitt liegt die Teuerungsrate laut IMK bei nur 0,3 Prozent. 2016 beschleunigt sie sich auf 1,1 Prozent, bleibt damit aber weiterhin weit unter dem EZB-Inflationsziel. „Was aus Sicht der Beschäftigten im Hinblick auf hohe Realeinkommenszuwächse positiv erscheint, ist aus gesamtwirtschaftlicher Sicht problematisch“, schreiben die Düsseldorfer Forscher.

Von der positiven wirtschaftlichen Entwicklung profitiert auch die öffentliche Hand, vor allem in diesem Jahr. Das Staatsbudget wird 2015 einen Überschuss von 0,9 Prozent des BIP aufweisen. Für 2016 prognostiziert das IMK einen Überschuss von 0,4 Prozent des BIP.

Kontakt in der Hans-Böckler-Stiftung:
Prof. Dr. Gustav A. Horn
Wissenschaftlicher Direktor IMK
Tel.: 0211-7778-331
E-Mail: Gustav-Horn@boeckler.de

Peter Hohlfeld
IMK, Experte für Konjunkturprognosen
Tel.: 0211-7778-338
E-Mail: Peter-Hohlfeld@boeckler.de

Rainer Jung
Leiter Pressestelle
Tel.: 0211-7778-150
E-Mail: Rainer-Jung@boeckler.de

Weitere Informationen:
http://www.boeckler.de/pdf/p_imk_report_110_2015.pdf – *IMK Arbeitskreis Konjunktur: Auf langsamer Fahrt. Die konjunkturelle Lage in Deutschland zur Jahreswende 2015/2016. IMK Report 110, Dezember 2015.
https://youtu.be/QncKUkvQrLM – Videostatement von Gustav Horn

Quelle: idw

(nach oben)


Sind die Flüsse tropischer Torfsümpfe wirklich CO₂-Schleudern?

Dr. Susanne Eickhoff Presse- und Öffentlichkeitsarbeit
Leibniz-Zentrum für Marine Tropenökologie (ZMT)

Tropische Torfsümpfe gehören zu den wichtigsten terrestrischen Kohlenstoffspeichern der Erde. Südostasien galt wegen der weit verbreiteten Torfsümpfe bislang als „Hotspot“ der CO₂-Emissionen von Flüssen. Wissenschaftler des ZMT und ihre Partner haben die CO₂-Emissionen aus südostasiatischen Torfsumpfflüssen nun erstmals gemessen.

Tropische Torfsümpfe gehören zu den wichtigsten terrestrischen Kohlenstoffspeichern der Erde. Einen Großteil dieser Ökosysteme findet man in Indonesien und Malaysia. Allein dort sind mehr als 66 Gigatonnen Kohlenstoff im Torf gespeichert – eine Menge, die etwa dem Achtfachen der jährlichen globalen Emission an Kohlenstoffdioxid (CO₂) durch die Verbrennung fossiler Brennstoffe entspricht.

Die zunehmende Rodung der Torfwälder Südostasiens setzt diese empfindlichen Ökosysteme jedoch starkem Druck aus: Immer mehr Kohlenstoff geht an die Umgebung verloren. Ein Teil davon gelangt in Flüsse, wo Mikroorganismen den Kohlenstoff aus seinen organischen Verbindungen lösen und teilweise zu CO₂ umwandeln. Dieses CO₂ gelangt über die Wasseroberfläche in die Atmosphäre und trägt dort als Treibhausgas zur globalen Erwärmung bei.

Wissenschaftler des Leibniz-Zentrums für Marine Tropenökologie (ZMT) und der Universität Hamburg haben die CO₂-Emissionen aus südostasiatischen Torfsumpfflüssen nun erstmals gemessen. Die Studie, die die Forscher in Kooperation mit dem Institut für Umweltphysik der Universität Bremen und Partnern in Indonesien und Malaysia durchgeführt haben, ist diese Woche in der renommierten wissenschaftlichen Fachzeitschrift „Nature Communications“ erschienen.

Wegen der weit verbreiteten Torfsümpfe galt Südostasien unter Forschern bislang immer als „Hotspot“ der CO₂-Emissionen von Flüssen – eine spekulative Annahme, denn Messdaten aus dieser Region gab es nicht. Um der Rolle der südostasiatischen Flüsse im Kohlenstoffkreislauf auf den Grund zu gehen, unternahmen die ZMT-Forscher und ihre Partner mehrere Expeditionen nach Sumatra und Borneo. Im Rahmen eines vom Bundesministerium für Bildung und Forschung (BMBF) unterstützten Forschungsprojekts untersuchten sie dabei erstmals die Ausgasung von CO₂ aus sechs verschiedenen Torfsumpfflüssen vor Ort.

Die Messungen der Wissenschaftler zeigten, dass eine relativ geringe Menge CO₂ aus den beprobten Flüssen freigesetzt wird. Nur etwa die Hälfte des aus den Torfsümpfen eingetragenen Kohlenstoffs wird dabei als CO₂ in die Atmosphäre abgegeben, der Rest gelangt in die Ozeane. Während die untersuchten Flüsse und ihr Einzugsgebiet durchschnittlich 25 Gramm Kohlenstoff pro Quadratmeter und Jahr emittieren, liegt dieser Wert beispielsweise im Amazonas bei 120 Gramm. Eine überraschende Erkenntnis, die bisherige Spekulationen, Südostasien sei ein Brennpunkt der CO₂-Emissionen von Flüssen, widerlegt.

Der vorrangige Grund hierfür ist die kurze Zeit, die der eingetragene organische Kohlenstoff in den Flüssen verweilt. Die meisten Torfsümpfe liegen dicht an der Küste, so dass die Flüsse erst relativ kurz vor ihrer Mündung ins Meer die Fracht an organischem Material aufnehmen. Im Schnitt befindet sich der organische Kohlenstoff nur zehn Tage in den Flüssen, bevor er ins Meer gespült wird. Daher bleibt Mikroorganismen nur wenig Zeit, den organisch gebundenen Torf-Kohlenstoff in CO₂ umzuwandeln.

Doch auch im Ozean kann noch CO₂ aus dem eingetragenen Kohlenstoff entstehen. Wieviel davon wieder in die Atmosphäre abgegeben wird oder im Ozean verbleibt, ist aber noch ungeklärt.

Publikation:
Francisca Wit, Denise Müller, Antje Baum, Thorsten Warneke, Widodo Setiyo Pranowo, Moritz Müller and Tim Rixen (2015) The impact of disturbed peatlands on river outgassing in Southeast Asia. Nature Communications 6. doi:10.1038/ncomms10155

Kontakt:
Dr. Tim Rixen
Leibniz-Zentrum für Marine Tropenökologie, Bremen
Tel: 0421 / 23800-55 oder 040 / 42838 7062
Mail: tim.rixen@zmt-bremen.de

Das LEIBNIZ-ZENTRUM FÜR MARINE TROPENÖKOLOGIE – ZMT in Bremen widmet sich in Forschung und Lehre dem besseren Verständnis tropischer Küstenökosysteme. Im Mittelpunkt stehen Fragen zu ihrer Struktur und Funktion, ihren Ressourcen und ihrer Widerstandsfähigkeit gegenüber menschlichen Eingriffen und natürlichen Veränderungen. Das ZMT führt seine Forschungsprojekte in enger Kooperation mit Partnern in den Tropen durch, wo es den Aufbau von Expertise und Infrastruktur auf dem Gebiet des nachhaltigen Küstenzonenmanagements unterstützt. Das ZMT ist ein Mitglied der Leibniz-Gemeinschaft.

Quelle: idw

(nach oben)


Körperliche Aktivität fördert Knochenentwicklung bei Kindern

Anja Wirsing Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Präventionsforschung und Epidemiologie – BIPS

Körperliche Aktivität fördert bereits im Kindesalter die Knochenentwicklung, während sitzendes Verhalten diese negativ beeinflusst. Nur zehn Minuten zusätzliche moderate bis intensive körperliche Aktivität am Tag erhöhen die Knochenfestigkeit bei Vorschul- und Grundschulkindern. Dies zeigen Untersuchungen von rund 4.500 Kindern zwischen zwei und zehn Jahren im Rahmen der europäischen IDEFICS-Studie, die das Leibniz-Institut für Präventionsforschung und Epidemiologie – BIPS und die Universität Bremen koordinierten. Die Ergebnisse sind im „International Journal of Behavioral Nutrition and Physical Activity“ erschienen.

Ziel der Studie war es zu erforschen, wie körperliche Aktivität, sitzendes Verhalten und Muskelkraft kombiniert auf die Knochengesundheit und -entwicklung bei Kindern wirken. Die Knochenfestigkeit der Kinder wurde mit einem Ultraschallgerät am Fersenknochen gemessen. Weiterhin wurden die Kinder mit einem Bewegungsmesser (Accelerometer) ausgestattet, der ihre Bewegungsaktivität aufzeichnete. So war zu erkennen, wie viel Zeit die Kinder in sitzender, leichter, moderater oder intensiver körperlicher Aktivität verbracht hatten. Zusätzlich gaben die Eltern in einem Fragebogen an, welche Art von Sport das Kind treibt, wie viel es sich in seiner Freizeit bewegt und vor dem Bildschirm sitzt. Sprungweite und Handgreifkraft wurden gemessen, um die Muskelkraft zu ermitteln.

Die Untersuchungen zeigten, dass bei Jungen und Mädchen im Vorschul- und Grundschulalter die Knochenfestigkeit um bis zu zwei Prozent höher lag, wenn sich die Kinder nur zehn Minuten zusätzlich am Tag moderat bis intensiv bewegten. Sitzendes Verhalten war hingegen mit einer geringeren Knochenfestigkeit verbunden.

Einen bedeutenden positiven Effekt auf die Knochenentwicklung im Kindesalter haben vor allem die gewichtsbelastenden sportlichen Aktivitäten – hierzu zählen beispielsweise Ballspiele wie Fußball und Basketball, aber auch Seilspringen und Rennspiele. Dies ist mit den mechanischen Belastungen zu erklären, die auf die Knochen wirken und deren Aufbau fördern. In der Studie zeigte sich: Wenn die Intensität der körperlichen Aktivität gering war, wurde eine geringere Knochensteifigkeit bei den Kindern festgestellt.

Prof. Dr. Wolfgang Ahrens, stellvertretender Direktor am BIPS und Mitautor der Studie, erklärt: „Die Grundlage für eine gute Knochengesundheit wird im Kindesalter gelegt und dabei ist Bewegung elementar. Eine moderate bis intensive sowie gewichtsbelastende körperliche Aktivität beschleunigt die Knochenaufbauprozesse, stärkt die Knochenfestigkeit und senkt somit das Risiko von Knochenbrüchen.“

Dr. Diana Herrmann, Erstautorin der Studie, die zum Thema Knochengesundheit am BIPS promovierte, führt fort: „Eine hohe Knochenfestigkeit im Kindesalter gilt als ein wichtiger Schutzfaktor gegen Knochenbrüche oder Osteoporose im Erwachsenenalter. Somit ist es wichtig, Kinder so früh wie möglich für Bewegung zu begeistern – denn im Erwachsenenalter kann keine neue Knochenmasse mehr aufgebaut, sondern nur der altersbedingte Knochenabbau verzögert werden.“

In der IDEFICS-Studie wurden von 2006 bis 2012 weitere gesundheitsrelevante Werte, wie zum Beispiel Blutdruck und Übergewicht, bei mehr als 18.000 zwei- bis elfjährigen Kindern in acht europäischen Ländern erhoben und ausgewertet. Die Untersuchungen der IDEFICS-Studie werden in der EU-finanzierten I.Family-Studie weitergeführt.

Weitere Informationen:
IDEFICS-Studie: http://www.ideficsstudy.eu/Idefics/
I.Family-Studie: http://www.ifamilystudy.eu

Publikation:
Herrmann D, Buck C, Sioen I, Kourides Y, Marild S, Molnar D, Mouratidou T, Pitsiladis Y, Russo P, Veidebaum T, Ahrens W, on behalf of the IDEFICS consortium. Impact of physical activity, sedentary behaviour and muscle strength on bone stiffness in 2-10-year-old children-cross-sectional results from the IDEFICS study. International Journal of Behavioral Nutrition and Physical Activity. 2015;12:112. http://dx.doi.org/10.1186/s12966-015-0273-6

Kontakt:
Leibniz-Institut für Präventionsforschung und Epidemiologie – BIPS
Prof. Dr. Wolfgang Ahrens
Tel. 0421/218-56822
E-Mail ahrens@bips.uni-bremen.de

Weitere Informationen:
http://dx.doi.org/10.1186/s12966-015-0273-6
http://www.ideficsstudy.eu/Idefics/
http://www.ifamilystudy.eu

Quelle: idw

(nach oben)


Wie mikrobielle Stickstoff-Freisetzungen den Klimawandel beeinflussen

Lisa Dittrich Referat für Presse- und Öffentlichkeitsarbeit
Justus-Liebig-Universität Gießen

Neue DFG-Forschergruppe unter Federführung der Universität Gießen beschäftigt sich mit der Denitrifikation

Welche Bedeutung hat die mikrobielle Stickstoff-Freisetzung aus dem Boden für den Klimawandel? Mit dieser Frage beschäftigt sich eine neue Forschergruppe, die die Deutsche Forschungsgemeinschaft (DFG) an der Justus-Liebig-Universität Gießen (JLU) fördert. Trotz jahrzehntelanger intensiver Forschung können die Auswirkungen der mikrobiellen Umwandlung des im Nitrat gebundenen Stickstoffs zu gasförmigem Stickstoff und zu Stickoxiden (Denitrifikation) noch nicht zuverlässig vorhergesagt werden. Die neue DFG-Forschergruppe „Denitrification in Agricultural Soils: Integrated Control and Modelling at Various Scales (DASIM)“ beleuchtet mit analytischen und molekularbiologischen Methoden sowie mit Freiland-Experimenten und verschiedenen Modellansätzen den Prozess der Denitrifikation von der Mikroskala zur Feldskala.

Die DFG fördert das Projekt DASIM zunächst für drei Jahre mit 3,15 Milllionen Euro. Neben der federführenden JLU (Sprecher: Prof. Dr. Christoph Müller, Institut für Pflanzenökologie) sind elf deutsche Universitäts- und Forschungsinstitute sowie zwei ausländische Kooperationspartner an der Forschergruppe beteiligt.

Die mikrobielle Umwandlung von organischem Stickstoff zu mineralischem und schließlich zu atmosphärischem Stickstoff (N2) geschieht unter sauerstoffarmen bzw. -freien Bedingungen. Klimarelevantes Lachgas (N2O) ist dabei ein Zwischenprodukt, dessen Freisetzung von verschiedenen Umweltfaktoren – zum Beispiel Feuchte und Temperatur – beeinflusst wird. Untersuchungen an der JLU im Rahmen des LOEWE-Schwerpunkts FACE2FACE haben gezeigt, dass sich die Lachgas-Freisetzungen mehr als verdoppeln, wenn erhöhte atmosphärische Kohlendioxidgehalte herrschen, wie sie gegen Mitte dieses Jahrhunderts erwartet werden.

Trotz intensiver Forschungen seit dem Ende des 19. Jahrhunderts können die Denitrifikationsraten und Emissionen der gasförmigen Produkte immer noch nicht zufriedenstellend vorhergesagt werden. Dieses liegt einerseits daran, dass geeignete analytische Methoden zur Messung von Stickstoff-Freisetzungen aus dem Boden fehlen. Die Schwierigkeit besteht vor allem darin, dass man relativ kleine Stickstoffmengen gegen einen immensen Hintergrund – die atmosphärische Stickstoff-Konzentration beträgt etwa 78 Prozent – zuverlässig bestimmen muss.

Ein weiteres Problem stellt die hohe Heterogenität des Bodens dar: Im Boden existieren sauerstoffreiche und sauerstoffarme Räume in direkter Nachbarschaft. Diese „Microsites“ können durch verschiedene mikrobielle Gemeinschaften und unterschiedliche Stickstoff-Umwandlungsprozesse geprägt sein. Denitrifikation findet beispielsweise nur unter anaeroben Bedingungen statt und ist vor allem in sogenannten „Hotspots“ besonders stark, die durch eine erhöhte organische Substanz charakterisiert sind.

Die Forschergruppe DASIM kombiniert nun die aktuellen Methoden (unter anderem Xray μCT, 15N Tracing, Nanosims, Mikrosensoren, NMR-Spektroskopie und Next-generation-Sequenzierung), um den Prozess der Denitrifikation mit einer bisher beispiellosen räumlichen und zeitlichen Auflösung zu untersuchen. Die neuen Erkenntnisse sollen dazu dienen, neue mathematische Modelle von der Mikroskala zur Feldskala zu entwickeln und vorhandene Simulationsmodelle zu verbessern. Diese Modelle sollen unter anderem dazu genutzt werden, die gasförmigen Stickstoff-Freisetzungen (unter anderem N2O, N2) unter einem sich ändernden Klima vorherzusagen.

Kontakt:
Prof. Dr. Christoph Müller, PhD.
Institut für Pflanzenökologie
Telefon: 0641 99-35301
E-Mail: pflanzenoekologie@bot2.bio.uni-giessen.de

Quelle: idw

(nach oben)


Wie frei ist der Wille wirklich?

Manuela Zingl GB Unternehmenskommunikation
Charité – Universitätsmedizin Berlin

Berliner Wissenschaftler prüfen Grundmuster von Entscheidungen
Unser Wille ist freier als bislang angenommen. In computergestützten Experimenten haben Hirnforscher der Charité – Universitätsmedizin Berlin Entscheidungsabläufe am Beispiel von Bewegungen untersucht. Die entscheidende Frage: Lassen sich Prozesse im Gehirn wieder stoppen, wenn sie einmal angestoßen sind? Die Forscher kommen zu dem Schluss: Ja, bis zu einem gewissen Punkt, dem „point of no return“. Die Ergebnisse der Studie sind im aktuellen Fachmagazin PNAS* veröffentlicht.

Hintergrund der neuen Untersuchungen: Spätestens seit den 1980er Jahren diskutieren Hirnforscher, Psychologen, Philosophen und Öffentlichkeit über die Bewusstheit und Vorbestimmtheit menschlicher Entscheidungen. Seinerzeit studierte der amerikanische Forscher Benjamin Libet Hirnprozesse von Probanden, während sie einfache freie Entscheidungen fällten. Er zeigte, dass das Gehirn Entscheidungen bereits unbewusst vorwegnahm. Noch bevor sich eine Person willentlich entschieden hatte, war ein sogenanntes „Bereitschaftspotenzial“ in ihren elektrischen Hirnwellen zu erkennen.

Wie aber kann es sein, dass das Gehirn vorab weiß, wie sich ein Proband entscheiden wird, obwohl es diesem selbst noch gar nicht bewusst ist? Die Existenz der vorbereitenden Hirnwellen galt bis dato oft als Beleg für den sogenannten „Determinismus“. Demnach ist der freie Wille eine Illusion – unsere Entscheidungen werden durch unbewusste Hirnmechanismen erzeugt und nicht durch unser „bewusstes Ich“ gesteuert. Die Forscher um Prof. Dr. John-Dylan Haynes vom Bernstein Center for Computational Neuroscience der Charité haben die Thematik gemeinsam mit Prof. Dr. Benjamin Blankertz und Matthias Schultze-Kraft von der Technischen Universität Berlin neu aufgerollt. Mit aktuellen Messtechniken sind sie der Frage nachgegangen, ob Menschen geplante Bewegungsabläufe stoppen können, nachdem das Bereitschaftspotential für eine Handlung ausgelöst worden ist.

„Unser Ziel war herauszufinden, ob mit dem Auftreten der frühen Hirnwellen eine Entscheidung automatisch und unkontrollierbar erfolgt, oder ob sich der Proband noch umentscheiden, also ein „Veto“ ausüben kann“, erklärt Prof. Haynes. Dazu haben die Wissenschaftler Probanden in ein „Hirnduell“ mit einem Computer geschickt und während des Spiels die Hirnwellen per Elektroenzephalographie abgeleitet. Ein speziell „trainierter“ Computer versuchte anhand der Hirnwellen vorherzusagen, wann sich ein Proband aufgrund von Anreizen bewegen würde und sollte den Probanden überlisten: Sobald die Hirnwellen Anzeichen dafür gaben, dass sich der Proband in Kürze bewegen würde, wurde das Spiel zugunsten des Computers manipuliert.
Wenn es Probanden möglich ist, aus der Falle der Vorhersagbarkeit ihrer eigenen Hirnprozesse zu entkommen, wäre dies ein Anzeichen dafür, dass sie über ihre Handlungen noch weit länger Kontrolle haben, als bisher angenommen. Genau das konnten die Forscher nun aufzeigen: „Die Probanden sind den frühen Hirnwellen nicht unkontrollierbar unterworfen. Sie waren dazu in der Lage, aktiv in den Ablauf der Entscheidung einzugreifen und eine Bewegung abzubrechen“, sagt Prof. Haynes. „Dies bedeutet, dass die Freiheit menschlicher Willensentscheidungen wesentlich weniger eingeschränkt ist, als bisher gedacht. Dennoch gibt es einen Punkt im zeitlichen Ablauf von Entscheidungsprozessen, ab dem eine Umkehr nicht mehr möglich ist, den ‚point of no return‘.“ In weiteren Studien werden die Berliner Wissenschaftler komplexere Entscheidungsabläufe untersuchen.

*Matthias Schultze-Kraft, Daniel Birman, Marco Rusconi, Carsten Allefeld, Kai Görgen, Sven Dähne, Benjamin Blankertz and John-Dylan Haynes. Point of no return in vetoing self-initiated movements. Proceedings of the National Academy of Sciences of the USA, Dec. 2015. doi/10.1073/pnas.1513569112.

Kontakt:
Prof. Dr. John-Dylan Haynes
Direktor des Berlin Center for Advanced Neuroimaging (BCAN)
Bernstein Center for Computational Neuroscience
Charité – Universitätsmedizin Berlin
t: +49 1525 463 9421
E-Mail: john-dylan.haynes@charite.de

Weitere Informationen:
http://www.charité.de
https://sites.google.com/site/hayneslab/

Quelle: idw

(nach oben)


Wasserqualität in China: Hilfe für den Tai-See

Monika Landgraf Presse, Kommunikation und Marketing
Karlsruher Institut für Technologie

Im Verbundprojekt „SIGN – Sauberes Wasser von der Quelle bis zum Verbraucher“ kämpfen chinesische und deutsche Partner für eine bessere Wasserqualität im Tai-See. Der See versorgt Millionen Menschen mit Trinkwasser, ist jedoch stark mit organischen Schadstoffen, Nährstoffen und Schwermetallen belastet. Die Arbeitsgruppe Umweltmineralogie und Umweltsystemanalyse des Karlsruher Instituts für Technologie (KIT) entwickelt für SIGN neue Monitoring-Technologien. Kürzlich nahmen die Wissenschaftler Wasserproben vor Ort.

Die Gegend um den Tai-See ist eine der am schnellsten wachsenden Regionen in China. Infolge der rasanten wirtschaftlichen Entwicklung steigt der Bedarf an Brauch- und Trinkwasser. Der Tai-See, mit 2 250 Quadratkilometern der drittgrößte Süßwassersee Chinas, dient als Trinkwasserquelle für rund zehn Millionen Menschen. Doch das Wasser ist durch industrielle und landwirtschaftliche Einträge stark mit organischen Schadstoffen, Nährstoffen wie Stickstoff und Phosphor sowie Schwermetallen belastet. Die schlechte Rohwasserqualität führte in den vergangenen Jahren wiederholt zu Versorgungsschwierigkeiten. 2007 kam es zu einem Blaualgenausbruch, der durchschnittlich nur zwei Meter tiefe Tai-See kippte um, und die Wasserversorgung der Millionenstadt Wuxi war tagelang unterbrochen. Ähnliche Probleme treten in anderen Regionen Chinas auf. Daher weist das Projekt SIGN (Sino-German Water Supply Network) Modellcharakter auf.

„SIGN – Sauberes Wasser von der Quelle bis zum Verbraucher“ zielt auf eine Verbesserung der Wasserqualität und damit auch der Lebensqualität der Menschen am Tai-See. Besondere Schwerpunkte liegen auf den Metropolen Wuxi und Suzhou. SIGN betrachtet den gesamten Wasserkreislauf und erstreckt sich von urbanem Abwasser- und Regenwassermanagement über Monitoring- und Frühwarn-Systeme, Schadstoffminderung, Trinkwasseraufbereitung und Trinkwasserverteilung, Weiterbildung und Markteinführung bis hin zu Handlungsempfehlungen für Wasseraufbereitung und Ressourcenmanagement. Das vom Bundesministerium für Bildung und Forschung (BMBF) mit insgesamt drei Millionen Euro geförderte Verbundprojekt startete im April 2015 und ist auf drei Jahre angelegt. Beteiligt sind 15 deutsche Partner aus Forschung und Industrie, unter ihnen das KIT, sowie zehn chinesische Wissenschaftseinrichtungen, Behörden und Wasserwerke. Die Koordination des Gesamtvorhabens erfolgt durch Professor Andreas Tiehm und Dr. Kathrin Schmidt am DVGW-Technologiezentrum Wasser (TZW) in Karlsruhe.

Ende November/Anfang Dezember dieses Jahres reisten Wissenschaftler der Arbeitsgruppe Umweltmineralogie und Umweltsystemanalyse des KIT nach China in die Region am Tai-See, um Messungen durchzuführen sowie Proben aus dem See selbst und aus Renaturierungszonen im Uferbereich zu nehmen. Vier Tage war die Gruppe, in der mehrere deutsche und chinesische Projektpartner vertreten waren, mit einem Forschungsschiff des Nanjing Institute of Geography and Limnology (NIGLAS) der Chinese Academy of Sciences (CAS) auf dem nördlichen Tai-See unterwegs. „Dieser Teil des Sees ist nach bisherigen Studien am stärksten mit Schadstoffen belastet“, berichtet Andreas Holbach vom KIT:

Die Arbeitsgruppe Umweltmineralogie und Umweltsystemanalyse des KIT unter der Leitung von Professor Stefan Norra hat innerhalb von SIGN das Teilprojekt DYNAQUA (Dynamik der Qualität des Wassers) übernommen. Dabei entwickeln, bewerten und nutzen die Forscher neue Monitoring-Technologien, um räumliche und zeitliche Veränderungen der Wasserqualität zu untersuchen. Während der China-Reise setzten sie erstmals das an Flachwasser angepasste Sensorsystem BIOFISH ein. Dieses basiert auf einem System, das für ein früheres Projekt am Jangtse-Fluss entwickelt und nun an die besonderen Bedingungen des Tai-Sees angepasst wurde, das heißt an das dortige flache Wasser und die häufig vorkommenden Cyanobakterien, auch Blaualgen genannt, die verschiedene Giftstoffe bilden und die Gewässernutzung erheblich einschränken. Der BIOFISH misst in der jeweils eingestellten Tiefe verschiedene chemisch-physikalische Parameter und zeichnet sie zeitlich und räumlich hoch aufgelöst auf: Temperatur, pH-Wert, elektrische Leitfähigkeit, photosynthetisch aktive Strahlung, Trübung sowie Gehalt an organischen Stoffen, Sauerstoff, Chlorophyll a und anderen Stoffen.

Außerdem verfügt der BIOFISH über ein Probeentnahmesystem, das sich vom Schiff aus per Knopfdruck steuern lässt. Die gewonnenen Wasser- und Sedimentproben werden nun auf Nährstoffe, Schwermetalle und organische Spurenstoffe sowie auf die Verhältnisse stabiler Isotope und auf schadstoffabbauende Mikroorgansimen untersucht. Dabei übernimmt die Arbeitsgruppe Umweltmineralogie und Umweltsystemanalyse, die am Institut für Angewandte Geowissenschaften (AGW) und am Institut für Geographie und Geoökologie (IfGG) des KIT angesiedelt ist, die Untersuchungen auf Nährstoffe und Schwermetalle. Das TZW untersucht die Proben auf schadstoffabbauende Mikroorganismen.

Im Rahmen von SIGN widmen sich die Forscher des KIT auch der Entwicklung einer neuen Profilierungsboje, um Schichtungsbedingungen im Wasserkörper und meteorologische Einflüsse punktuell und langfristig zu beobachten. „Die Ergebnisse der Messungen mit dem BIOFISH und der Profilierungsboje werden wir zu den Schadstoffgehalten aus Wasser- und Sedimentproben in Beziehung setzen und daraus umweltrelevante Prozesse im Wasser des Tai-Sees ableiten“, erklärt Professor Stefan Norra. Ein weiteres Ziel des Teilprojekts DYNAQUA ist, mögliche Maßnahmen zur Verbesserung der Wasserqualität zu erarbeiten. Zudem untersuchen die Wissenschaftler die Wirksamkeit bereits vorgenommener Renaturierungsmaßnahmen in einigen Uferbereichen, wo künstlich angelegte Feuchtbiotope die Funktion der ursprünglich vorhandenen Vegetationsgürtel übernehmen und Schadstoffe zurückhalten oder abbauen sollen.

Dem Projekt SIGN kommt große politische und soziale Bedeutung zu: In einem Programm, das die chinesische Regierung zur Überwachung und Behandlung von verschmutztem Wasser gestartet hat, stellt die Gegend um den Tai-See eine der Schwerpunktregionen dar.

Details zum KIT-Zentrum Klima und Umwelt: http://www.klima-umwelt.kit.edu

Das KIT verfügt über umfangreiche fachliche Kompetenzen zur Erforschung, Entwicklung und integrativen Planung der Stadt der Zukunft in allen wesentlichen Aspekten. Wissenschaftlerinnen und Wissenschaftler aus fünf KIT-Zentren – Klima und Umwelt; Energie; Mobilitätssysteme; Mensch und Technik; Information, Systeme, Technologien – befassen sich aus disziplinärer Perspektive und in inter- und transdisziplinärer Weise mit der Erforschung und nachhaltigen Gestaltung urbaner Räume.

Weiterer Kontakt:
Margarete Lehné, Pressereferentin, Tel.: +49 721 608-48121, Fax: +49 721 608-43658, E-Mail: margarete.lehne@kit.edu

Das Karlsruher Institut für Technologie (KIT) verbindet seine drei Kernaufgaben Forschung, Lehre und Innovation zu einer Mission. Mit rund 9 400 Mitarbeiterinnen und Mitarbeitern sowie 24 500 Studierenden ist das KIT eine der großen natur- und ingenieurwissenschaftlichen Forschungs- und Lehreinrichtungen Europas.

KIT – Die Forschungsuniversität in der Helmholtz-Gemeinschaft

Das KIT ist seit 2010 als familiengerechte Hochschule zertifiziert.

Diese Presseinformation ist im Internet abrufbar unter: http://www.kit.edu

Weitere Informationen:
http://www.klima-umwelt.kit.edu

Anhang
Wasserqualität in China: Hilfe für den Tai-See
https://idw-online.de/de/attachment48225

Quelle: idw

(nach oben)


Wie Urbakterien heute noch überleben

Johannes Seiler Dezernat 8 – Hochschulkommunikation
Rheinische Friedrich-Wilhelms-Universität Bonn

Sie besiedelten die Erde lange bevor es Pflanzen und Tiere gab: Seit Milliarden von Jahren nutzen bestimmte Mikroorganismen nicht Sauerstoff zum Atmen, sondern Sulfat. Bislang war nicht vollständig verstanden, auf welchem biochemischen Weg diese zumeist im Meer vorkommenden Bakterien durch Atmung Energie für ihr Wachstum gewinnen. Ein internationales Forscherteam unter Federführung portugiesischer Wissenschaftler aus Lissabon und unter Beteiligung der Universität Bonn hat nun diesen fehlenden Schritt entschlüsselt. Die Ergebnisse erscheinen nun im renommierten Fachjournal „Science“.

Wer bei einer Wattwanderung mit den Gummistiefeln im Schlick herumstreift, riecht es sofort: den Geruch nach faulen Eiern. Er rührt von Schwefelwasserstoff her, den winzige Bakterien im Meeressediment produzieren. „Es handelt sich dabei um einen uralten Prozess, der schon vor mehr als drei Milliarden Jahren funktionierte – lange bevor erste Pflanzen und Tiere unseren Planeten besiedelten“, berichtet Privatdozentin Dr. Christiane Dahl vom Institut für Mikrobiologie & Biotechnologie der Universität Bonn. Mit den Cyanobakterien und später den grünen Pflanzen kam der Sauerstoff auf die Erde – doch auch schon vorher erschlossen sich Mikroorganismen durch Atmung Energie. Statt Sauerstoff nutzten sie Sulfat, dass sie zu übel riechendem Schwefelwasserstoff reduzierten.

„Im Meerwasser ist Sulfat in etwa 100-fach höherer Konzentration gelöst als Sauerstoff“, sagt Dr. Dahl. Überall wo Sulfat reichlich vorhanden und Sauerstoff knapp ist, kommen Bakterien und Archaebakterien vor, die auf diese „Sulfatatmung“ spezialisiert sind: Neben den Meeres- auch in Vulkanregionen. Bisher ging die Wissenschaft davon aus, dass es auf dem Weg vom Sulfat zum Schwefelwasserstoff nur drei Schritte gibt. Einer dieser Schritte ist die Reduktion von Sulfit, an dem das Enzym Sulfitreduktase (DsrAB) beteiligt ist.

Eine Voraussetzung für Energiegewinnung durch Atmung ist, dass Membranen in den lebenden Zellen wie eine Batterie aufgeladen werden. „Allerdings war bislang nicht klar, welcher Schritt der Sulfatatmung an eine bakterielle Zellmembran gekoppelt ist“, berichtet die Mikrobiologin der Universität Bonn. Unter der Federführung von Wissenschaftlern um Prof. Dr. Inês A. C. Pereira von der Universidade Nova de Lisboa in Portugal und unter Beteiligung von Dr. Dahl hat ein Forscherteam nun den fehlenden vierten Schritt entdeckt.

Eine Brücke aus Schwefelatomen

Das Forscherteam untersuchte diesen wichtigen Prozess am Urbakterium Archaeoglobus fulgidus, das vor allem in Vulkangebieten vorkommt. Der aus dem Sulfit stammende Schwefel wird gar nicht sofort von der Sulfitreduktase als Schwefelwasserstoff freigesetzt, sondern erst einmal vom Protein DsrC wie in einer Brücke zwischen zwei Schwefelatomen festgehalten. Ein weiteres Protein in der Zellmembran des Bakteriums setzt den Schwefel wieder frei. Dabei wird die Membran aufgeladen und Energie für das Wachstum der Mikroorganismen zur Verfügung gestellt. „Das ist der bislang unbekannte, aber umso wichtigere biochemische Schritt bei der Energiegewinnung durch Atmung“, sagt Dr. Dahl.

Dr. Fabian Grein, der bei Dr. Dahl an der Universität Bonn promovierte, wies während seiner Postdoc-Phase im Labor von Prof. Pereira in Lissabon nach, dass das im Reagenzglas untersuchte Prinzip genauso in sulfatatmendenden Mikroorganismen abläuft – wie etwa dem Bakterium Desulfovibrio vulgaris. „Wenn wir das DsrC-Protein in seiner Menge herunterregelten, dann wuchs das Bakterium deutlich schlechter, weil die Sulfatatmung stark eingeschränkt war“, berichtet Dr. Grein. „Dieses Bakterium ist von besonderer Bedeutung, da es auch im menschlichen Verdauungstrakt vorkommt und hier entzündliche Erkrankungen hervorrufen kann“, führt Dr. Grein aus. Der intensive Austausch junger Forscher zwischen den Universitäten Lissabon und Bonn war eine wesentliche Voraussetzung dafür, die komplexen biochemischen Vorgänge gemeinsam aufzuklären.

Die Wissenschaftler gehen davon aus, dass sie ein universelles Prinzip entdeckt haben, das bei allen sulfatatmenden Bakterien vorkommt. In vielen alten Gesteinen sind heute noch Spuren von Mikroorganismen feststellbar, die schon lebten als auf der Erde die Sauerstoffatmung noch nicht erfunden war. „Je besser wir diese Milliarden Jahre alten Prozesse verstehen, umso besser können wir diese Spuren aus der frühen Erdgeschichte lesen“, sagt die Mikrobiologin der Universität Bonn. Darüber hinaus ist Schwefel auch für den Menschen ein lebensnotwendiger Nährstoff, den er mit Aminosäuren aufnimmt. Dr. Dahl: „Die verbreiteten Mikroorganismen sorgen durch ihre Sulfatatmung mit dafür, dass Schwefelformen recycled werden, die für die menschliche Ernährung wichtig sind.“

Publikation: A protein trisulfide couples dissimilatory sulfate reduction to energy conservation, Fachjournal „Science“, DOI: 10.1126/science.aad3558

Quelle: idw

(nach oben)


Einflüsse auf die Arbeit von Fachkräften für Arbeitssicherheit

Jörg Feldmann Pressestelle
Bundesanstalt für Arbeitsschutz und Arbeitsmedizin

Berlin – Kommunikation, Engagement und gezieltes Handeln sind Erfolgsfaktoren für die Arbeit von Fachkräften für Arbeitssicherheit und einen wirksamen Arbeitsschutz in Unternehmen und Betrieben. Zu diesen und weiteren Ergebnissen kommt ein Gutachten, das die Bundesanstalt für Arbeitsschutz und Arbeitsmedizin (BAuA) in Auftrag gegeben hat. Das Gutachten „Betriebliche und überbetriebliche Einflussgrößen auf die Tätigkeit und Wirksamkeit von Fachkräften für Arbeitssicherheit“ beruht auf den Daten zweier unterschiedlicher Studien. Die anhand der identifizierten Einflussgrößen abgeleiteten Handlungsempfehlungen runden die Ergebnisse des jetzt veröffentlichten Gutachtens ab.

Fachkräfte für Arbeitssicherheit unterstützen die Organisation, die Führungskräfte und die Mitarbeiter in allen Fragen der Arbeitssicherheit, des Gesundheitsschutzes und der menschengerechten Arbeitsgestaltung. Das Gutachten untersucht anhand der Sifa-Langzeitstudie und der GDA-Betriebsbefragung 2011 die betrieblichen und überbetrieblichen Einflussgrößen auf die Tätigkeit und Wirksamkeit von Fachkräften für Arbeitssicherheit. Um aus beiden Studien gemeinsame Parameter und Indikatoren für eine Untersuchung zu ermitteln, wurde eigens dafür ein Drei-Ebenen-Modell ermittelt.

Die Zusammenfassung der Befunde zeigt, dass die Sicherheits- und Gesundheitskultur eines Betriebes sowie die betriebliche Regelung des Arbeitsschutzes die Handlungsbedingungen der Fachkräfte für Arbeitssicherheit und die Umsetzung von Arbeitsschutzmaßnahmen beeinflussen. Auch der Zugang zur Unternehmensleitung ist eine identifizierte Einflussgröße. Je besser dieser ist, desto erfolgstreibender ist die Wirksamkeit der eingesetzten Fachkräfte. Systeme des Arbeitsschutz- und Gesundheitsmanagements haben ebenfalls einen positiven Einfluss. Es konnten Unterschiede zwischen den Betreuungsmodellen hinsichtlich der formalen betrieblichen Regelung und den Arbeitsweisen von Fachkräften festgestellt werden.

Die in der Zusammenschau analysierten formalen und kulturellen betrieblichen Aspekte bieten erste beziehungsweise pragmatische Anknüpfungspunkte unter anderem für das Aufsichtspersonal, um die Handlungsbedingungen des betrieblichen Arbeitsschutzes zu verbessern: zum Beispiel die Schulung von Führungskräften als Elemente der betrieblichen Arbeitsschutzorganisation einfordern oder die Integration von Sicherheits- und Gesundheitsschutzthemen in vorhandene betriebliche Kommunikationsstrukturen unterstützen.

„Betriebliche und überbetriebliche Einflussgrößen auf die Tätigkeit und Wirksamkeit von Fachkräften für Arbeitssicherheit. Ergebnisse der Sifa-Langzeitstudie und der GDA-Betriebsbefragung 2011 (Gutachten)“; Werner Hamacher, Clarissa Eickholt, Sebastian Riebe; Dortmund; Bundesanstalt für Arbeitsschutz und Arbeitsmedizin 2015; ISBN: 978-3-88261-164-9; 314 Seiten. Das Gutachten gibt es im PDF-Format im Internetangebot der BAuA unter http://www.baua.de/publikationen.

Forschung für Arbeit und Gesundheit
Sichere und gesunde Arbeitsbedingungen stehen für sozialen Fortschritt und eine wettbewerbsfähige Wirtschaft. Die Bundesanstalt für Arbeitsschutz und Arbeitsmedizin (BAuA) forscht und entwickelt im Themenfeld Sicherheit und Gesundheit bei der Arbeit, fördert den Wissenstransfer in die Praxis, berät die Politik und erfüllt hoheitliche Aufgaben – im Gefahrstoffrecht, bei der Produktsicherheit und mit dem Gesundheitsdatenarchiv. Die BAuA ist eine Ressortforschungseinrichtung im Geschäftsbereich des Bundesministeriums für Arbeit und Soziales. Über 700 Beschäftigte arbeiten an den Standorten in Dortmund, Berlin und Dresden sowie in der Außenstelle Chemnitz.
http://www.baua.de

Weitere Informationen:
http://www.baua.de/dok/7478422 Direkter Link zum Bericht „Betriebliche und überbetriebliche Einflussgrößen auf die Tätigkeit und Wirksamkeit von Fachkräften für Arbeitssicherheit. Ergebnisse der Sifa-Langzeitstudie und der GDA-Betriebsbefragung 2011 (Gutachten)“.

Quelle: idw

(nach oben)


Sinnlose Arbeit ist ein Motivationskiller

Peter Kuntz Presse- und Öffentlichkeitsarbeit
Universität Trier

Zählt am Ende nur der Lohn oder ist es Arbeitnehmern wichtig, eine sinnvolle Tätigkeit auszuführen? Wissenschaftler der Universität Trier haben herausgefunden, dass die Motivation stark leidet, wenn Arbeitskräfte erfahren, dass eine vorherige Tätigkeit sich im Nachhinein als wenig sinnhaft oder sogar als nutzlos herausstellt. Außerdem beeinträchtigt dieses Wissen das emotionale Befinden der Personen.

Sollten Arbeitskräfte in die Hintergründe ihrer Tätigkeit einbezogen werden, um ihre Motivation und die Loyalität zum Arbeitgeber zu steigern? Was sich plausibel anhört, könnte bei weniger erfreulichen Begleitumständen zu einem Problem werden. Etwa dann, wenn am Ende stundenlanger Arbeit ein wertloses Ergebnis steht. Diese Frage untersuchte das Trier Forscherteam an einem konkreten Arbeitsprozess an der Universität. Bei einem umfangreichen Inventarisierungsprojekt von über Jahrzehnte angesammelten Geschäftsberichten zeigte sich, dass die Sammlung sehr lückenhaft und in einem schlechten Zustand war. Das mit großem Aufwand gestartete Projekt konnte keinen erfolgreichen Ausklang nehmen.

Für die Studie befragte das Forscherteam des Instituts für Arbeitsrecht und Arbeitsbeziehungen in der Europäischen Union (IAAEU) mehr als 100 an der Inventarisierung beteiligte Hilfskräfte. Einer durch Zufall bestimmten Gruppe wurde im Lauf der Befragung mitgeteilt, dass kaum Interesse an der Verwendung des mit ihrer Hilfe erstellten Unternehmensarchivs besteht. Ihre Arbeit sei somit weitestgehend überflüssig. Einer anderen Gruppe wurde diese Information vorenthalten. Die über die „Sinnlosigkeit“ informierten Arbeitskräfte zeigten sich bei einer anschließenden Arbeitsaufgabe weniger motiviert als die Vergleichsgruppe. Zudem ließen sie signifikant mehr Enttäuschung und andere negative Gefühle erkennen.

Die Wissenschaftler untermauerten ihre Erkenntnisse durch ein Anschluss-Ereignis. Als sich eine alternative Verwendung für die inventarisierten Geschäftsberichte – in diesem Fall im Rahmen einer weiteren Forschungsarbeit – ergab, wurden die zuvor gezeigten negativen Auswirkungen und Emotionen kompensiert. Diese Ergebnisse bestätigen die Bedeutung von sinnhafter Arbeit auf Motivation und Emotionen und erweitern damit bisherige Befunde in der personalökonomischen Forschung zur Rolle nicht-monetärer Anreize im Arbeitsplatz-Kontext.

Die Studie von Adrian Chadi, Sabrina Jeworrek und Vanessa Mertins erscheint demnächst in „Management Science“, einem der führenden Management-Journale („A+“-Ranking nach VHB-Jourqual). Der Beitrag trägt den Titel „When the Meaning of Work Has Disappeared – Experimental Evidence on Employees‘ Performance and Emotions“. Adrian Chadi und Sabrina Jeworrek sind weiterhin Mitarbeiter des IAAEU, Vanessa Mertins forscht und lehrt mittlerweile als Professorin an der Universität Vechta.

Quelle: idw

(nach oben)


Gewässer- und Bodenschutz – ein neuer Forschungsschwerpunkt an der Ostfalia

Evelyn Meyer-Kube Presse/Public Relations
Ostfalia Hochschule für angewandte Wissenschaften

Vor dem Hintergrund aktueller Fragestellungen wie Klimawandel, demografischer Wandel, Verbreitung von Schadstoffen anthropogener Herkunft, wurde ein neuer Forschungsschwerpunkt am Campus Suderburg der Ostfalia Hochschule für angewandte Wissenschaften etabliert. Dieser beinhaltet insbesondere das Erforschen der Wechselwirkungen zwischen Wasser und Boden sowie der auf den Flächen wachsenden Vegetation. Gefördert wird der Forschungsschwerpunkt „Gewässer und Bodenschutz“ einschließlich der Forschungsinfrastruktur (Gebäude, Labore, Geräte und sonstige Ausstattung) bis Mitte 2015 vom Niedersächsischen Ministerium für Wissenschaft und Kultur in Höhe von 951.000 Euro, weitere 300.000 Euro investiert die Ostfalia an Eigenmitteln in die Forschungsinfrastruktur.

Vor wenigen Tagen wurde im Rahmen der Veranstaltung „Impuls“ der neue Forschungsschwerpunkt an der Fakultät Bau-Wasser-Boden der Ostfalia am Campus Suderburg 40 Teilnehmern aus Wirtschaft, Wissenschaft und Politik vorgestellt. Aufgrund der komplexen Aufgabenstellung wird die Fakultät fachübergreifend zusammenarbeiten. Durch eine Vielzahl von Forschungsprojekten, die in Zusammenarbeit mit Partnern wie Landwirtschaftskammer, Fraunhofer-Gesellschaft, OOWV sowie regional und überregional tätigen Unternehmen auf nationaler und internationaler durchgeführt werden sollen, wird die Infrastruktur des neuen Forschungsschwerpunktes genutzt. „Erste Förderzusagen liegen bereits vor, weitere Forschungsanträge befinden sich in der Antragsphase“, berichtet Prof. Dr. Gert Bikker, Vizepräsident für Forschung, Entwicklung und Technologietransfer der Ostfalia.

Weitere Informationen:
https://www.ostfalia.de/cms/de/presse/pressemitteilungen/2015/Neuer_Forschungssc…

Quelle: idw

(nach oben)


Lohnt sich die Nutzung sozialer Medien im Berufsleben?

Dr. Evamarie Blattner Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Wissensmedien

Können soziale Medien erfolgreich im Arbeitsleben eingesetzt werden? Berufliche Netzwerke wie LinkedIn versprechen ihren Nutzern, durch „Zugang zu Personen, Stellen, News, Updates und Insider-Informationen […] im Beruf erfolgreich zu bleiben“. Aber ist dies wirklich der Fall? Und haben andere soziale Medien dieselben informationellen Vorteile? Prof. Dr. Sonja Utz (Leibniz-Institut für Wissensmedien, IWM Tübingen) hat herausgefunden, dass insbesondere Nutzer beruflicher Netzwerke wie LinkedIn von höheren informationellen Vorteilen berichten als Nicht-Nutzer. Darüber hinaus ist die Art der Nutzung von den jeweiligen Social-Media-Plattformen von Bedeutung.

Tübingen, 7. Dezember 2015 Prof. Dr. Sonja Utz erforschte, ob Nutzer sozialer Medien (LinkedIn, Twitter, Facebook) berufliche Vorteile aus der Verwendung sozialer Medien ziehen können. Als berufliche informationelle Vorteile werden das rechtzeitige Erhalten von relevanten Informationen und Hinweise auf Karrieremöglichkeiten vom eigenen Netzwerk definiert – wichtige Anzeichen für Karriereerfolg.

Es wurde eine Umfrage unter einer repräsentativen Auswahl von niederländischen Online-Nutzern durchgeführt. Von den 1959 Berufstätigen nutzen 76% Facebook oder ein anderes soziales Netzwerk für private Zwecke, 32% nutzen LinkedIn oder ein anderes berufliches Netzwerk und 18% nutzen Twitter oder einen anderen Mikroblogging-Dienst.
Die Ergebnisse der Studie, welche neulich in der Fachzeitschrift New Media & Society erschien, zeigt deutliche Plattform-Effekte auf: LinkedIn-Nutzer berichteten von erheblich höheren beruflichen informationellen Vorteilen als Nicht-Nutzer. Das gleiche Ergebnis, wenn auch weniger stark ausgeprägt, wurde bei Nutzern von Twitter gefunden, während Facebook-Nutzer von geringeren informationellen Vorteilen als Nicht-Nutzer berichteten.

Nur ein Profil zu haben reicht allerdings nicht. Für alle drei Arten von Social-Media-Plattformen wurden die beruflichen informationellen Vorteile vorhergesagt durch die Häufigkeit der beruflich relevanten Posts und durch strategisches Netzwerken, z. B. das Hinzufügen von potentiell wichtigen Kontakten. Daraus folgt, dass sowohl der Inhalt als auch die Gestaltung von Online-Netzwerken von Bedeutung sind. Regelmäßiges Lesen von fremden Posts war nur bei LinkedIn wichtig. „Berufliche Netzwerke wie LinkedIn oder Xing sind explizit auf berufliche Zwecke ausgelegt. Der Großteil der Kommunikation dort ist arbeitsbezogen, deshalb ist die Chance größer als bei Facebook, relevante Informationen zu erhalten“, so Prof. Dr. Sonja Utz. Zusätzlich ist es wichtig, mit wem die Nutzer reden. Berufliche Netzwerke vereinfachen es, mit engen Freunden und Kollegen in Kontakt zu bleiben (sogenannte strong ties), aber auch mit ehemaligen Bekannten oder Menschen, die man nur einmal getroffen hat (sogenannte weak ties). Die Studie zeigt, dass die Anzahl an strong ties und weak ties bei LinkedIn informationelle Vorteile voraussagten. Die Ergebnisse sind damit im Einklang mit zwei Forschungstraditionen: Soziologischen Theorien, welche die Bedeutung von weak ties betonen, und Arbeiten in Organisationen, die zeigten, dass Leute es vorziehen, sich an ihre strong ties zu wenden, da sie diesen mehr vertrauen. Insgesamt zeigt die Studie, dass das Nutzen von sozialen Medien berufliche informationelle Vorteile hat. Dennoch sollten Nutzer dem Rat folgen: Eher berufliche Netzwerke als Facebook nutzen, über die Arbeit sprechen und Kontakte strategisch auswählen!

Die Studie ist Teil des ERC-Starting Grant Projektes ReDefTie (Redefining tie strength – how social media (can) help us to get non-redundant useful information and emotional support). Die Forscher untersuchen die Auswirkungen der Nutzung sozialer Medien. Basierend auf den Resultaten werden Empfehlungen zur Nutzung sozialer Medien für bestimmte Zwecke abgeleitet.

Link zur Studie (open access):
http://nms.sagepub.com/content/early/2015/10/15/1461444815604143

Kontakt:
Prof. Dr. Sonja Utz, Leibniz-Institut für Wissensmedien, Schleichstraße 6, 72076 Tübingen. Tel.: 07071/ 979-308, E-Mail: s.utz@iwm-tuebingen.de

Das Leibniz-Institut für Wissensmedien
Das Leibniz-Institut für Wissensmedien (IWM) in Tübingen erforscht das Lehren und Lernen mit digitalen Technologien. Rund 80 Wissenschaftlerinnen und Wissenschaftler aus Kognitions-, Verhaltens- und Sozialwissenschaften arbeiten multidisziplinär an Forschungsfragen zum individuellen und kooperativen Wissenserwerb in medialen Umgebungen. Seit 2009 unterhält das IWM gemeinsam mit der Universität Tübingen Deutschlands ersten Leibniz-WissenschaftsCampus zum Thema „Bildung in Informationsumwelten“. Internetadresse: www.iwm-tuebingen.de.

Kontakt & weitere Informationen zum Leibniz-Institut für Wissensmedien
Dr. Evamarie Blattner, Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Wissensmedien, Schleichstraße 6, 72076 Tübingen.
Tel.: 07071/ 979-222, E-Mail: presse@iwm-tuebingen.de

Die Leibniz-Gemeinschaft
Die Leibniz-Gemeinschaft verbindet 89 selbständige Forschungseinrichtungen. Deren Ausrichtung reicht von den Natur-, Ingenieur- und Umweltwissenschaften über die Wirtschafts-, Raum- und Sozialwissenschaften bis zu den Geisteswissenschaften. Leibniz-Institute bearbeiten gesellschaftlich, ökonomisch und ökologisch relevante Fragestellungen. Sie betreiben erkenntnis- und anwendungsorientierte Grundlagenforschung. Sie unterhalten wissenschaftliche Infrastrukturen und bieten forschungsbasierte Dienstleistungen an. Die Leibniz-Gemeinschaft setzt Schwerpunkte im Wissenstransfer in Richtung Politik, Wissenschaft, Wirtschaft und Öffentlichkeit. Leibniz-Institute pflegen intensive Kooperationen mit den Hochschulen u.a. in Form der WissenschaftsCampi, mit der Industrie und anderen Partnern im In- und Ausland. Sie unterliegen einem maßstabsetzenden transparenten und unabhängigen Begutachtungsverfahren. Aufgrund ihrer gesamtstaatlichen Bedeutung fördern Bund und Länder die Institute der Leibniz-Gemeinschaft gemeinsam. Die Leibniz-Institute beschäftigen rund 18.100 Personen, darunter 9.200 Wissenschaftlerinnen und Wissenschaftler. Der Gesamtetat der Institute liegt bei 1,64 Milliarden Euro.
www.leibniz-gemeinschaft.de

Quelle: idw

(nach oben)


Mehr Futter für den Feldhamster! Die Deutsche Wildtier Stiftung richtet „Kornkammer“ ein

Eva Goris Kommunikation
Deutsche Wildtier Stiftung

Die Schutzgemeinschaft Deutsches Wild hat den Feldhamster gerade zum Tier des Jahres 2016 gekürt – und was macht der Preisträger? Er schlummert! „Schon im Oktober hat sich der Feldhamster in seinen Bau unter dem Acker zurückgezogen. Dort wird der hochbedrohte Nager bis zum Frühjahr weiter schlafen“, erklärt Peer Cyriacks, Biologe der Deutschen Wildtier Stiftung. Der Gewinner ist eigentlich ein Verlierer: Der Feldhamster gehört mittlerweile zu den am stärksten bedrohten Säugetieren Deutschlands. Wenn nicht schnell gegengesteuert wird, wird das Aussterben der Art in vielen Regionen weitergehen!

„Die Auszeichnung zum Tier des Jahres 2016 ist wichtig“, betont Peer Cyriacks. „Sie hilft uns, auf die Probleme des extrem seltenen Säugetieres aufmerksam zu machen.“ In Baden-Württemberg, Nordrhein-Westfalen und Rheinland-Pfalz gibt es insgesamt nur noch wenige hundert Tiere – in anderen Bundesländern ist der Feldhamster bereits seit langem ausgestorben. „Der Wandel in der Landwirtschaft hat in den letzten Jahrzehnten die Welt des Feldhamsters sehr stark verändert. Der intensive und großräumige Anbau von nur noch wenigen Kulturpflanzen raubt den Tieren die Möglichkeit, ausreichend Futtervorräte für den Winter zu hamstern“, erklärt der Biologe der Deutschen Wildtier Stiftung. Vorräte, die das Tier für seinen Winterschlaf benötigt. Bleiben die Hamsterbacken leer, verhungert er – von Menschen unbemerkt – in seinem Winterquartier unterm Acker!

Die Deutsche Wildtier Stiftung schützt in Zusammenarbeit mit Landwirten den Feldhamster in Hessen und Sachsen-Anhalt. Landwirte erhalten in den Projektregionen einen finanziellen Ausgleich, wenn sie Teile ihrer Flächen hamsterfreundlich bewirtschaften. „Dieses Projekt soll auch ein Modell für eine wildtierfreundlichere Agrarpolitik sein, die bisher noch viel zu viel Geld ohne ökologische Gegenleistung an die Landwirtschaft verteilt“, sagt Peer Cyriacks. Bis es soweit ist, werden für die Finanzierung Spenden und Patenschaften eingesetzt. So können Feldhamster-Freunde mithelfen, die Kornkammer des Feldhamsters zu füllen – damit die Hamsterbacken 2016 wieder dicker werden.

Sie möchten mithelfen, den Hamster zu füttern? Zur Kornkammer geht’s hier entlang:
http://www.deutschewildtierstiftung.de/de/schuetzen/arten-schuetzen/feldhamster/…

Weitere Informationen:
http://www.Presse.DeutscheWildtierStiftung.de

Quelle: idw

(nach oben)


Warum erwärmt sich die innere Antarktis nicht?

Eberhard Scholz Pressestelle
Universität Bremen

Bremer Klimaforscher untersuchen die Bedeutung von CO2 über der Antarktis. Die Forschungsergebnisse sind in der Fachzeitschrift „Geophysical Research Letters“ vorgestellt worden.

Die Erdoberfläche hat sich im Mittel in den vergangenen Jahrzehnten messbar erwärmt. Diese Erwärmung beruht zum größten Teil auf den anthropogenen Emissionen von CO2, die den natürlichen Treibhauseffekt verstärken. Beobachtungen zeigen aber, dass in der inneren Antarktis die Oberflächentemperatur in den vergangenen Jahrzehnten kaum oder gar nicht angestiegen ist. Wissenschaftler der Universität Bremen und des Bremerhavener Alfred-Wegener Instituts haben die Besonderheit der Antarktis in Bezug auf den Treibhauseffekt mit Hilfe von Satellitenmessungen und Strahlungstransferrechnungen untersucht und in einem Artikel für die Fachzeitschrift „Geophysical Research Letters“ veröffentlicht.

Die Erde empfängt die sichtbare Strahlung der Sonne und erwärmt sich. Als Konsequenz strahlt die Erde die empfangene Strahlung wieder ab, allerdings aufgrund der im Vergleich zur Sonne wesentlich niedrigeren Temperatur im infraroten Spektralbereich, also als Wärmestrahlung. Diese wird von der Atmosphäre, hauptsächlich vom Wasserdampf und dem CO2, absorbiert, und sowohl in den Weltraum, als auch zurück in Richtung Erdboden abgestrahlt. Die Rückstrahlung von der Atmosphäre erwärmt die Erdoberfläche zusätzlich zur solaren Einstrahlung. Dies bezeichnet man als natürlichen Treibhauseffekt. Er trägt dazu bei, dass die Temperatur auf der Erdoberfläche im Mittel +15 Grad beträgt. Ohne die Treibhausgase läge die mittlere Temperatur bei etwa -18 Grad.

Bei einer Zunahme der CO2-Konzentration wird normalerweise mehr von der Atmosphäre absorbiert und zurückgestrahlt, und weniger in den Weltraum abgestrahlt. Diesen Zusammenhang bezeichnet man als anthropogenen Treibhauseffekt, er ist die Hauptursache für die gegenwärtige globale Erwärmung.

Dies gilt jedoch nur, wenn die Temperatur der Erdoberfläche höher ist als die Temperatur der höheren Luftschichten. In den Hochlagen der Antarktis auf 3000 m Höhe ist es im Jahresmittel kälter als in der Stratosphäre. Dies führt dazu, dass in dieser Region bei einer Zunahme der CO2-Konzentration die langwellige Abstrahlung in den Weltraum zunimmt. Wissenschaftler des Alfred-Wegener-Institut Helmholtz-Zentrum für Polar- und Meeresforschung (AWI) in Bremerhaven und vom Institut für Umweltphysik der Universität Bremen haben diesen Zusammenhang jetzt im Detail untersucht. Die Arbeiten der Wissenschaftler beruhen auf Satellitenmessungen und einfachen Modellrechnungen. Die Ergebnisse belegen, dass bei einer Zunahme der CO2-Konzentration in der Antarktis der Treibhauseffekt nicht vergleichbar mit den Prozessen in mittleren Breiten ist. Darüber veröffentlichten jetzt die Klimaforscher einen Artikel in der Fachzeitschrift „Geophysical Research Letters“.

Die Forschungsergebnisse erlauben aber keine Aussage darüber, wo sich dieser Energieverlust im System Erdoberfläche-Atmosphäre bemerkbar macht, ob sich also wirklich die Erdoberfläche abkühlt. Dies muss durch weitere globale Modellrechnungen erfolgen. Die neuen Ergebnisse widersprechen nicht unserem Verständnis vom Treibhauseffekt, nachdem im Rest der Welt eine CO2-Zunahme zu einer Erwärmung führt. Die physikalischen Prozesse sind überall identisch, aber das Hochplateau in der inneren Antarktis spielt auf Grund der niedrigen Temperaturen eine Sonderrolle.

Paper: Holger Schmithüsen, Justus Notholt, Gerd König-Langlo, Thomas Jung. How increasing CO2 leads to an increased negative greenhouse effect in Antarctica. Geophysical Research Letters, in press, 2015. doi: 10.1002/2015GL066749.

Weitere Informationen:
Universität Bremen
Fachbereich Physik / Elektrotechnik
Institut für Umweltphysik
Prof. Dr. Justus Notholt
Tel: 0421-218-62190
Mobil: 0176-30346533
E-Mail: jnotholt@uni-bremen.de

Quelle: idw

(nach oben)


Verblüffendes Studienergebnis: „Der Ehrfurchtseffekt“

Nina Liesenfeld Presse und Öffentlichkeitsarbeit
WHU – Otto Beisheim School of Management

Verblüffendes Studienergebnis: Charismatische Führungskräfte haben lähmende Wirkung auf Mitarbeiter und können so Unternehmen auf lange Sicht schaden

Düsseldorf, 8. Dezember. Charismatische Führungskräfte versetzen ihre Mitarbeiter in Ehrfurcht und verhindern so, dass Mitarbeiter sich offen äußern. Das kann dem Erfolg eines Unternehmens auf lange Sicht schaden, so das erstaunliche Fazit einer neuen Studie der WHU – Otto Beisheim School of Management.

Obwohl charismatische Führungskräfte Menschen rasch begeistern und für sich gewinnen können, haben diese Führungskräfte eine einschüchternde Wirkung auf Mitarbeiter. Im Bann von Charismatikern trauen sich Mitarbeiter nicht, ihre Gefühle auszudrücken. Das kann zu emotionaler Erschöpfung, weniger Zufriedenheit und unzureichendem Austausch an Informationen führen – und damit Unternehmen schaden.

„Charismatische Führungskräfte sollten sich im Klaren darüber sein, dass sie eine einschüchternde Wirkung auf Mitarbeiter haben“, so Prof. Dr. Jochen Menges von der WHU, Leitautor der kürzlich in The Leadership Quarterly veröffentlichten Studie. „Obwohl die Ehrfurcht, die ihnen entgegen gebracht wird, die Position von Führungskräften stärkt, schadet Ehrfurcht der Zusammenarbeit und dem Ideenaustausch der Mitarbeiter innerhalb einer Arbeitsgruppe.“

Durchgeführt wurde die Studie von Prof. Dr. Jochen Menges und Sarah Kern, beide Lehrstuhl für Führung und Personalmanagement an der WHU, in Zusammenarbeit mit Prof. Dr. Martin Kilduff vom University College London und Prof. Dr. Heike Bruch von der Universität St. Gallen.

„Charismatische Führungskräfte überwältigen ihre Mitarbeiter geradezu mit ihrer begeisternden und oft auch hypnotisierenden Wirkung. Sie werden angehimmelt, das dient ihrem Machtmotiv, aber sie unterdrücken gleichzeitig den Emotionsausdruck der Mitarbeiter, weil die Mitarbeiter quasi vor Ehrfurcht erstarren. Wer seine Emotionen so unterdrückt hat eine geringere Auffassungsgabe, kann weniger erinnern und ist insgesamt weniger leistungsfähig“, erklärt Menges. „Das kann dazu führen, dass die Aussagen von charismatischen Führungskräfte nicht hinterfragt werden und die Mitarbeiter in ihrem moralischen Urteilsvermögen eingeschränkt sind. Das verblüffende an diesem Befund ist, dass Charismatiker uns zwar begeistern und mitreißen, gleichzeitig uns aber auch lähmen und einschüchtern. Das erklärt, weshalb charismatische Führungskräfte einen großen Einfluss auf Mitarbeiter haben, zum Guten, aber eben auch zum Schlechten.“

Charismatische Führungskräfte können dem Ehrfurchtseffekt entgegenwirken, indem sie auf Mitarbeiter individuell zugehen und Mitarbeitern Raum geben, sich auszudrücken. Charismatische Führungskräfte sollten sich in bestimmten Situationen bewusst zurücknehmen und verschiedene Betrachtungsweisen zu einem Thema anbieten. Für Mitarbeiter von charismatischen Führungskräfte gibt es auch einen Trick, dem Ehrfurchtseffekt entgegenzuwirken: Sie sollten sich bewusst machen, dass auch die charismatischste Persönlichkeit nur mit Wasser kocht.

WHU – Otto Beisheim School of Management:
Die WHU – Otto Beisheim School of Management ist eine international ausgerichtete, privat finanzierte Wirtschaftshochschule. Die 1984 gegründete Business School gehört inzwischen zu den renommiertesten deutschen Wirtschaftshochschulen und genießt auch international hohes Ansehen. Mit dem WHU Campus Düsseldorf hat die Hochschule im Oktober 2012 ihren zweiten Standort eröffnet.

Weitere Informationen unter: http://www.whu.edu/

Lehrstuhl Führung und Personalmanagement

Weitere Informationen unter: http://www.whu.edu/leadership

Studie
Menges, J. I., Kilduff, M., Kern, S., & Bruch, H. 2015. The Awestruck Effect: Followers suppress emotion expression in response to charismatic but not individually considerate leadership. The Leadership Quarterly, 26: 627-641

https://www.whu.edu/fileadmin/data/Dokumente/Forschung/Fakultaet/ManagementGroup…

Quelle: idw

(nach oben)


Neue Ergebnisse zum Zusammenhang zwischen Kaffeekonsum und Leberkrebsrisiko

Dr. Gisela Olias Presse- und Öffentlichkeitsarbeit
Deutsches Institut für Ernährungsforschung Potsdam-Rehbrücke

Wie zahlreiche Studien zeigen, haben Menschen, die viel Kaffee trinken, im Vergleich zu Personen, die nur wenig oder keinen konsumieren, ein vermindertes Leberkrebsrisiko. Die Ursachen für diesen Zusammenhang sind jedoch noch nicht geklärt. Ein internationales Forscherteam um Krasimira Aleksandrova und Heiner Boeing vom Deutschen Institut für Ernährungsforschung (DIfE) hat nun Biomarker* im Blut von Studienteilnehmern identifiziert, die erste Hinweise auf entzündungshemmende und zellschützende Mechanismen geben, die der beobachteten Risikobeziehung zu Grunde liegen könnten. Die Forscher publizierten kürzlich ihre Ergebnisse in der Fachzeitschrift American Journal of Clinical Nutrition**.

Wie die aktuelle Untersuchung im Rahmen einer der größten europäischen Langzeiternährungsstudien (EPIC***) zeigt, haben Menschen, die täglich mehr als 600 ml (4 Tassen) Kaffee konsumieren im Vergleich zu Menschen, die weniger als 300 ml (2 Tassen) trinken, ein um 75 Prozent vermindertes Risiko an Leberkrebs zu erkranken. Diese Beobachtung deckt sich mit den Ergebnissen zahlreicher anderer Beobachtungsstudien und Meta-Analysen der letzten Jahre. Neu an der Studie ist, dass die Wissenschaftler darüber hinaus den Einfluss von 21 leberrelevanten Biomarkern auf den beobachteten Zusammenhang untersuchten, um hierdurch mehr über die zu Grunde liegenden biologischen Mechanismen zu erfahren. Hierzu analysierten sie die Blutproben von 125 Menschen, die während der Studie erstmals an Leberkrebs erkrankt waren, sowie die von 250 gesunden Studienteilnehmern. Die Blutproben hatten die Wissenschaftler zu Beginn der Studie und damit 2,4 bis 6,8 Jahre vor dem Auftreten der Leberkrebserkrankungen entnommen und bis zur Analyse bei -196°C in flüssigem Stickstoff gelagert. Wie die Forscher feststellten, spielen besonders drei der untersuchten Biomarker für die Risikobeziehung zwischen Kaffeekonsum und Leberkrebs eine große Rolle. Zu diesen zählen der Botenstoff Interleukin-6, der an der Regulation von Entzündungsreaktionen beteiligt ist, sowie die beiden Enzyme Aspartat-Aminotransferase und Gamma-Glutamyltransferase, die auf eine Schädigung der Leberzellen bzw. Gallenerkrankungen hinweisen.

„Unsere Biomarkeranalysen sprechen dafür, dass es eine ursächliche Beziehung zwischen einem starken Kaffeekonsum und einem verminderten Leberkrebsrisiko gibt. Sie lassen zudem annehmen, dass Kaffee die Leber vor Entzündungen und Zellschäden schützt und so der Krebsentstehung entgegenwirkt“, sagt Erstautorin Aleksandrova.

„Wie eine von uns bereits 2012 im Rahmen der EPIC-Studie durchgeführte Untersuchung**** zudem zeigt, ist der Genuss von Kaffee nicht mit einem erhöhten Risiko für chronische Erkrankungen verbunden. Daher spricht aus gesundheitlicher Sicht nichts dagegen, Kaffee zu trinken, wenn man ihn gut verträgt“, ergänzt Heiner Boeing, der die Abteilung Epidemiologie am DIfE leitet. „Andersherum sollten sich Menschen aber aufgrund der Ergebnisse nicht genötigt sehen, viel Kaffee zu trinken. Kaffeetrinken sollte Genuss und keine Pflichtübung sein. Um Krankheiten wirksam vorzubeugen, kommt es auf die gesamte Lebensweise an. Wer nicht raucht, ausreichend Gemüse, Obst und ballaststoffreiches Getreide isst, sich körperlich bewegt sowie auf ein normales Körpergewicht achtet, besitzt ein wesentlich geringeres Erkrankungsrisiko als diejenigen, die sich gegenteilig verhalten – nicht zuletzt hinsichtlich des Leberkrebsrisikos“, weiß Boeing. Man könne durch einen gesunden Lebensstil sicher nicht jede Erkrankung verhindern, jedoch das persönliche Erkrankungsrisiko verringern.

Hintergrundinformationen:
* Biomarker sind charakteristische biologische Merkmale, die objektiv gemessen werden und auf einen normalen biologischen oder krankhaften Prozess im Körper hinweisen können. Bei einem Biomarker kann es sich um Zellen, Gene, Stoffwechselprodukte oder bestimmte Moleküle wie Hormone handeln. Als eingängiges Beispiel sei das Blutbild genannt, das Hinweise auf den Gesundheitszustand des Patienten gibt (Quelle: Wikipedia).

** Aleksandrova et al.: The association of coffee intake with liver cancer risk is mediated by biomarkers of inflammation and hepatocellular injury: data from the European Prospective Investigation into Cancer and Nutrition; American Journal of Clinical Nutrition; 2015; doi: 10.3945/ajcn.115.116095.
http://ajcn.nutrition.org/content/early/2015/11/11/ajcn.115.116095.long

*** EPIC steht für European Prospective Investigation into Cancer and Nutrition. Sie ist eine der größten prospektiven („vorausschauenden“) Studien, welche die Zusammenhänge zwischen Ernährung, Krebs und anderen chronischen Erkrankungen wie Typ-2-Diabetes untersucht. An der EPIC-Studie sind zehn europäische Länder mit insgesamt 519.000 weiblichen und männlichen Studienteilnehmern im Erwachsenenalter beteiligt. In Deutschland gehören das Deutsche Krebsforschungszentrum (DKFZ) in Heidelberg sowie das DIfE zu den EPIC-Studienzentren. Die Potsdamer EPIC-Teilstudie schließt mehr als 27.500 erwachsene Studienteilnehmer/innen ein. Bei der Auswertung einer prospektiven Studie ist es wichtig, dass die Teilnehmer zu Beginn der Studie noch nicht an der zu untersuchenden Krankheit leiden. Die Risikofaktoren für eine bestimmte Erkrankung lassen sich so vor ihrem Entstehen erfassen, wodurch eine Verfälschung der Daten durch die Erkrankung weitestgehend verhindert werden kann – ein entscheidender Vorteil gegenüber retrospektiven Studien.

**** http://www.dife.de/presse/pressemitteilungen/?id=1165

Das Deutsche Institut für Ernährungsforschung Potsdam-Rehbrücke (DIfE) ist Mitglied der Leibniz-Gemeinschaft. Es erforscht die Ursachen ernährungsassoziierter Erkrankungen, um neue Strategien für Prävention, Therapie und Ernährungsempfehlungen zu entwickeln. Zu seinen Forschungsschwerpunkten gehören die Ursachen und Folgen des metabolischen Syndroms, einer Kombination aus Adipositas (Fettsucht), Hypertonie (Bluthochdruck), Insulinresistenz und Fettstoffwechselstörung, die Rolle der Ernährung für ein gesundes Altern sowie die biologischen Grundlagen von Nahrungsauswahl und Ernährungsverhalten. Mehr unter www.dife.de. Das DIfE ist zudem ein Partner des 2009 vom BMBF geförderten Deutschen Zentrums für Diabetesforschung (DZD). Weitere Informationen zum DZD finden Sie unter http://www.dzd-ev.de.

Die Leibniz-Gemeinschaft vereint 89 Einrichtungen, die anwendungsbezogene Grundlagenforschung betreiben und wissenschaftliche Infrastruktur bereitstellen. Insgesamt beschäftigen die Leibniz-Einrichtungen rund 18.100 Menschen – darunter 9.200 Wissenschaftlerinnen und Wissenschaftler – bei einem Jahresetat von insgesamt knapp 1,64 Milliarden Euro. Die Leibniz-Gemeinschaft zeichnet sich durch die Vielfalt der in den Einrichtungen bearbeiteten Themen und Disziplinen aus. Die Forschungsmuseen der Leibniz-Gemeinschaft bewahren und erforschen das natürliche und kulturelle Erbe. Darüber hinaus sind sie Schaufenster der Forschung, Orte des Lernens und der Faszination für die Wissenschaft. Mehr unter http://www.leibniz-gemeinschaft.de.

Kontakt:
Prof. Dr. Heiner Boeing
Leiter der Abteilung Epidemiologie
Deutsches Institut für Ernährungsforschung
Potsdam-Rehbrücke (DIfE)
Arthur-Scheunert-Allee 114-116
14558 Nuthetal/Deutschland
Tel.: +49 33200 88-2711
E-Mail: boeing@dife.de

Dr. Krasimira Aleksandrova
Abteilung Epidemiologie
Deutsches Institut für Ernährungsforschung
Potsdam-Rehbrücke (DIfE)
Arthur-Scheunert-Allee 114-116
14558 Nuthetal/Deutschland
Tel.: +49 33200 88-2712
E-Mail: Krasimira.Aleksandrova@dife.de

Weitere Informationen:
http://www.dife.de/forschung/abteilungen/kurzprofil.php?abt=EIM Informationen zum Start-up-Lab Ernährung, Immunität und Metabolismus
http://www.dife.de/forschung/abteilungen/kurzprofil.php?abt=EPI Informationen zur Abteilung Epidemiologie des DIfE

Quelle: idw

(nach oben)


TU Berlin: Mehr Wissen über urbane Wasserkreisläufe

Stefanie Terp Stabsstelle Presse, Öffentlichkeitsarbeit und Alumni
Technische Universität Berlin

Neues Graduiertenkolleg „Urban Water Interfaces“ wird von der Deutschen Forschungsgemeinschaft mit 4,7 Millionen Euro gefördert

Die Wasserqualität und -quantität in städtischen Wasserversorgungssystemen sind insbesondere in Metropolregionen vielfältigen Belastungen ausgesetzt. So können klimatische und demografische Entwicklungen die Wasserknappheit zu Spitzenzeiten verschärfen und erhöhte Konzentrationen von neuen, schwer abbaubaren Substanzen im Wasserkreislauf zur Folge haben. Damit die urbanen Wassersysteme unter den derzeitigen und den künftig zu erwartenden Bedingungen zuverlässig funktionieren, ist ein Management auf Grundlage eines soliden Systemverständnisses erforderlich. Die Wissenschaftlerinnen und Wissenschaftler des neuen Graduiertenkollegs „Urban Water Interfaces“ (UWI) legen dabei ihren Fokus auf die Erforschung von Grenzzonenprozessen in urbanen Wassersystemen. Ziel ist es, eine zukunftsorientierte nachhaltige Wasserwirtschaft in urbanen Räumen sicherzustellen.

Das Graduiertenkolleg wird von der Deutschen Forschungsgemeinschaft zunächst für 4,5 Jahre mit rund 4,7 Millionen Euro gefördert. Es ist eine Zusammenarbeit zwischen der TU Berlin und dem Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB), Berlin. 13 Doktorandinnen und Doktoranden erhalten dort ihre Ausbildung.

Grenzzonen können natürlicher Art sein zum Beispiel zwischen Flüssen und Grundwasser, technischer zum Beispiel in Abwasserkanälen und natürlich-technischer wie bei der Trinkwassergewinnung aus Uferfiltration. Hierbei fließt Wasser vom Oberflächengewässer (z.B. Tegeler See) einige hundert Meter durch den Untergrund zum Entnahmebrunnen des Trinkwasserwerks. Auf dieser Bodenpassage werden sowohl Schwebstoffe, aber auch andere Stoffe wie Pharmaka zum Teil zurückgehalten. Während durch diese Form der Trinkwassergewinnung die natürliche Reinigungskraft des Grundwasserleiters genutzt wird, wird auf der anderen Seite vermutet, dass die Uferfiltration jedoch auch zum Rückgang von Wasserpflanzen in Ufernähe geführt hat.

Die Grundhypothese des Graduiertenkollegs lautet, dass die komplexen physikalischen, biologischen und biogeochemischen Prozesse in Grenzzonen ein Schlüsselfaktor für ein verbessertes System- und Prozessverständnis sind, um den urbanen Wasserkreislauf zu verstehen und optimieren zu können. Dazu sollen innovative Verknüpfungen von empirischen Beobachtungen, Labor- und Feldversuchen sowie Simulationswerkzeuge entwickelt werden. Mit dem Graduiertenkolleg soll die interdisziplinär und international ausgerichtete Ausbildung und Forschung zu Grenzzonen in enger Zusammenarbeit von Ingenieur- und Naturwissenschaften auf eine neue Ebene gehoben werden, um – wie gesagt – verbesserte Grundlagen für eine zukunftsorientierte nachhaltige Wasserwirtschaft in urbanen Räumen zu liefern.

Zum vierköpfigen Koordinationsteam gehören die drei TU-Professoren Dr. Reinhard Hinkelmann, Dr. Birgit Kleinschmit und Dr. Mark Geßner, der am IGB Abteilungsleiter für Experimentelle Limnologie ist, sowie Dr. Sabine Hilt vom IGB.

Weitere Informationen erteilt Ihnen gern:
Prof. Dr. Reinhard Hinkelmann
TU Berlin
Fachgebiet Wasserwirtschaft und Hydrosystemmodellierung
Tel.: 030/314-72307
E-Mail: reinhard.hinkelmann@wahyd.tu-berlin.de

Quelle: idw

(nach oben)