Academia.eduAcademia.edu

Forschungsbericht 2017

2021

Forschungsbericht 2017 Foto: OTH Regensburg / Florian Hammerich VORWORT | 3 Liebe Leserinnen und Leser, die thematisch breite Ausrichtung unserer Hochschule begünstigt einen stark interdisziplinär geprägten Forschungsfokus. Interdisziplinarität ist die Grundvoraussetzung für Innovationen, da gerade an den Schnittstellen der verschiedenen Wissenschaftsfelder das höchste Innovationspotenzial liegt. Ein schönes Beispiel gelungener interdisziplinärer Kooperation ist der Bereich Gesundheit, der in diesem Forschungsbericht nicht zuletzt auch durch den Leitartikel von Herrn Kollegen Prof. Dr. Karsten Weber in den Fokus rückt. So werden die medizintechnischen und medizininformatischen Aspekte von unserem „Regensburg Center of Biomedical Engineering“ beleuchtet, an dem auch die Universität Regensburg mit ihrer medizinischen Kompetenz vertreten ist. Vor dem Hintergrund der steigenden Nachfrage nach hochqualifizierten Dienstleistungen in den Bereichen Gesundheit, Pflege und Betreuung hat zudem unsere Fakultät für Angewandte Sozial- und Gesundheitswissenschaften ihre Forschungs- und Lehraktivitäten um den Bereich Medizin und Gesundheit erweitert. Unser Institut für Sozialforschung und Technikfolgenabschätzung beschäftigt sich mit ethischen Fragestellungen ebenso wie mit medizintechnischen Innovationen und deren Auswirkung und Akzeptanz in der Gesellschaft. All diese Aktivitäten werden nun in unserem „Regensburg Center of Health Sciences and Technology“ gebündelt. So können wir effektiv auf aktuelle gesellschaftliche Aufgabenstellungen wie die demografische Entwicklung, den medizinisch-technischen Fortschritt sowie das wachsende Gesundheitsbewusstsein reagieren. Ziel ist es, den technischen Fortschritt zu nutzen und zugleich die menschlichen Faktoren in der Gesundheitsversorgung nicht aus den Augen zu verlieren. Der vorliegende Forschungsbericht zeigt zudem eindrucksvoll, wie wir unsere fachliche Breite nutzen, um die Herausforderungen der Zukunft in ihrer ganzen Fülle zu bearbeiten – von der Digitalisierung über die Themenbereiche Energie und Mobilität, Information und Kommunikation, Lebenswissenschaften und Ethik, Produktion und Systeme, Gebäude und Infrastruktur bis hin zur Sensorik. Ich freue mich sehr, dass so viele Kolleginnen und Kollegen mit ihren Forschungsaktivitäten zu diesen erfolgreichen Ergebnissen beitragen. Dafür bedanke ich mich sehr herzlich! Ihr Prof. Dr. Wolfgang Baier Präsident der OTH Regensburg „Some call it work. I call it: magic.“ Dr.-Ing. Jan-Philipp Weberpals, Entwickler Fügetechnologien im Leichtbauzentrum bei Audi. Sein Maßstab ist Präzision. Nicht zuletzt aus diesem Grund hat er sich dazu entschieden, innovative Laserstrahlprozesse bei Audi zu etablieren. Nur ein Beispiel von vielen, wie Vorsprung entstehen kann, wenn Arbeiten sich nicht wie Arbeit anfühlt. Weitere faszinierende Jobs unter vorsprung-bei-audi.de Aus Visionen Vorsprung machen. I N H A LT | 5 Gesundheit und Pflege als gesellschaftliche Herausforderung ............................................................... 8 Zahlen und Fakten .......................................................................................................................... 10 Lebenswissenschaften und Ethik 19 PsyBio: Virtuelle Menschmodelle zur Bestimmung des Einflusses von Stress auf den Bewegungsapparat ...... 20 Stent-Delivery-Systeme zur Behandlung koronarer Gefäßverengungen .................................................... 22 Klassifikation von Auto-Fahrtypen .................................................................................................... 24 Studie: Pflegerische Fachberatung und Onlineberatung für MS-Erkrankte ............................................... 26 Information und Kommunikation 29 Statistische Korrektur gerundeter Angaben in Stichprobenerhebungen ................................................... 30 Lean IT: Lean Management in IT-Organisationen ................................................................................. 32 Universelle Energieversorgung für Funkknoten im Internet of Things ....................................................... 34 Messung der nichtlinearen Brechzahl von Glasfasern ........................................................................... 36 NoSQL Schema-Evolution in quelloffenen Software-Projekten ............................................................... 38 ATPs: Anomalieerkennung zum Detektieren von Advanced Persistent Threats ........................................... 40 Unerkannte Angriffe oder die Nadel im Heuhaufen ............................................................................. 42 Digitalisierung 45 Japter: Eine Demonstrationsplattform für Mixed-Criticality-Echtzeitsysteme mit Linux ............................ 46 Trainingsspiel für Handchirurgie ....................................................................................................... 48 An Experimental Card Game for Software Testing ............................................................................... 50 Produktion und Systeme 53 AutoRüst: Werkzeugmaschinen effizienter rüsten durch bedarfgerechte Informationsbereitstellung ........... 54 Forschungsschwerpunkte im Labor Lasermaterialbearbeitung ............................................................... 56 Behaviour of Wire Ropes and Rope Wires under Ultra Deep Temperature Conditions ................................. 58 Der Mittelspannungseinfluss bei zugschwellbeanspruchten Seildrähten .................................................. 60 ANZEIGEN SService ervice Kompetenz für die industrielle Vielfalt  Industries ist Ihr zuverlässiger Partner für intelligente, prozess- und kundenorientierte Zellen und Lösungen. Wir bieten innovative Füge- und Bearbeitungstechnologien, Laser- und Sonderschweißverfahren sowie alle Prozessschritte im Gießereibereich und in der Photovoltaik- und Batterie-Produktion bis zum After-Sales-Service an. Ar Arcc & Laser Laser SSolutions olutions Casting Casting Solutions Solutions Advanced W Welding elding SSolutions olutions Photovoltaic & Photovoltaic Battery Solutions Solutions Battery www.kuka.com ,KU$QVSUHFKSDUWQHU 'U,QJ&KULVWLDQ/DQJ -RK6HE%DFK6WU :HLGHQ ZZZODQJSDWHQWFRP   )D[ 3DWHQWH± *HEUDXFKVPXVWHU± 0DUNHQ± 'HVLJQV ,KU3DUWQHULQGHU2EHUSIDO]IUJOREDOHQ6FKXW],KUHVJHLVWLJHQ(LJHQWXPV DƺŶĐŚĞŶͲ tĞŝĚĞŶͲ ůĂƚƚĞŶď͘EĂƚĞƌƐ;,Ϳ I N H A LT | 7 Produktion und Systeme DampSIM: Lebensdauerüberwachung von faserverstärkten Kunststoffen auf Basis der strukurdynamischen Werkstoffdämpfung ........................................................................ 62 Man Machine Interface im industriellen Umfeld: Entwicklung und Integration einer Gestensteuerung für die Mensch Roboter Kooperation .................................................................. 64 Entwicklung eines autonomen, RTK-GPS-gestützten Systems zur zentimetergenauen Bodenmarkierung ..... 66 Sensorik 69 SPR-Imaging zur Zustandsüberwachung von Leistungstransformatoren ................................................. 70 Ringförmige Silizium-Kantenemitter mit DLC-Beschichtung für Anwendungen in Feldemissionselektronenquellen .................................................................................................... 72 Forschungsvorhaben „CDNI“: Abwässer aus der Wäsche von Binnenschiffen ............................................ 74 Gebäude und Infrastruktur 77 Semi: Numerische Simulation der Wechselwirkungen Straßenbahn – Feste Fahrbahn im innerstädtischen Nahverkehr ....................................................................................................... 78 Digitale 3D-Analyse mittelalterlicher Gewölbe- und Maßwerkspolien aus Münster .................................... 80 Licht, Luft, Sonne: Das Haus Schminke von Hans Scharoun ................................................................... 82 SVBA: Selbstverdichtender Beton mit zeitnaher Aussteuerung der Mischungszusammensetzung im Betonmischer.............................................................................. 84 Energie und Mobilität 87 SyNErgie: Stromnetzplanung als Schlüsselbaustein der Energiewende ..................................................... 88 Future Applications in Model Based Engineering ................................................................................. 90 Klimaschutz: Weltweit Null-Emissionen bis 2050 – machbar! ................................................................. 92 HIS: Entwicklung hybrider Hochleistungsaufbauten von faserverstärkten Kunststoffen zur Erhöhung des Schutzes vor Schäden durch transversale Impactbelastung .......................................... 94 Metastudie: Dekarbonisierung für eine nachhaltige Energiewirtschaft .................................................... 96 Impressum .................................................................................................................................... 98 8 | Gesundheit und Pflege als gesellschaftliche Herausforderung Mit dem demografischen Wandel in Deutschland sind mehrere Phänomene verbunden: Die Lebenserwartung steigt, die Zahl der Alten und Hochbetagten wächst, der Anteil der Jüngeren an der Bevölkerung schrumpft. Der Gesundheitsbereich, der schon heute zu einem der wichtigsten Wirtschaftszweige gehört, wird sich durch den demografischen Wandel in Zukunft erheblichen gesellschaftlichen Herausforderungen ausgesetzt sehen, denen auch durch den massiven Einsatz von Technik begegnet werden soll. Hochschulen wie die OTH Regensburg spielen hierbei eine entscheidende Rolle in Lehre und angewandter Forschung für die Strukturen und Perspektiven dieser Zukunftsbranche und sind schon jetzt Impulsgeber für morgen. Betrachtet man einige Kennzahlen, so wird schnell deutlich, dass der Gesundheitsbereich einer der größten Wirtschaftsbereiche in Deutschland ist: 2015 betrugen die Gesundheitsausgaben in Deutschland 344 Mrd. Euro; das sind fast 40 Mrd. Euro mehr als der gesamte Bundeshaushalt für 2015 umfasste. Zum Vergleich: Die deutsche Automobilindustrie erzielte 2015 einen Gesamtumsatz (Inland und Ausland) von etwas mehr als 404 Mrd. Euro – bzgl. der finanziellen Seite der wirtschaftlichen Bedeutung kann die Gesundheitswirtschaft durchaus mit großen Industriezweigen mithalten. Noch prägnanter zeigt sich dies an den Beschäftigtenzahlen: Für 2015 weist das Statistische Bundesamt 370.000 Ärztinnen und Ärzte aus, die Pflegestatistik zählt für die ambulante Pflege über 355.000 und für stationäre Einrichtungen über 730.000 Personen (Vollzeit- und Teilzeitbeschäftigte) – das sind zusammen fast 1,5 Mio. Beschäftigte; während die Zahl der Beschäftigten 2015 in der Automobilindustrie lediglich ca. 808.000 betrug. Abbildung 1: Entwicklung der Pflegebedürftigen in Deutschland* * auf 1.000 gerundet. Annahmen ab 2030: konstante alters- und geschlechtsspezifische Pflegequoten des Jahres 2015; Bevölkerungsentwicklung gemäß Variante 2 der 13. koordinierten Bevölkerungsvorausberechnung. Datenquelle: Statistisches Bundesamt; Berechnungen BiB – © BiB 2017 demografie-portal.de Doch Gesundheit und Pflege stellen nicht nur einen wichtigen und volkswirtschaftlich bedeutenden Wirtschaftszweig dar, sondern sie sichern unmittelbar das Wohlergehen und die Gesundheit von Menschen. Zieht man erneut 2015 als Referenzjahr heran, waren 2,9 Mio. Menschen pflegebedürftig, von denen 692.000 ambulant und 783.000 vollstationär versorgt wurden. Über 19 Mio. Patientinnen und Patienten mussten in einem Krankenhaus behandelt werden, wobei die durchschnittliche Verweildauer bei über sieben Tage lag. Kurzum: Gesundheit und Pflege sind schon heute als Wirtschaftszweig Garant für Beschäftigung und Wachstum; gleichzeitig sind dadurch große Teile der Bevölkerung als pflegebedürftige Personen oder Patientinnen und Patienten direkt betroffen. Für die Zukunft zeigen die Prognosen, dass diese Bedeutung noch weiter steigen wird: Die Zahl der Pflegebedürftigen wird bis 2050 voraussichtlich auf über 4,5 Mio. ansteigen (vgl. Abbildung 1), die Zahl der demenziell Erkrankten in der Altersgruppe der 65-Jährigen und Älteren könnte bis auf über 2,5 Mio. anwachsen. Gleichzeitig verzeichnet die Bundesagentur für Arbeit im Bereich der Altenpflege in allen Bundesländern, im Bereich der Gesundheits- und Krankenpflege in fast allen Bundesländern und im Fall der Humanmedizin bei der überwiegenden Zahl der Bundesländer schon heute einen Fachkräftemangel. Bedenkt man gleichzeitig, dass die Zahl der erwerbsfähigen Personen (20 bis 65-Jährige, vgl. Abbildung 2) in Deutschland in Zukunft deutlich schrumpfen wird, ist unschwer zu erkennen, warum Gesundheit (und hier ist Pflege immer mitgemeint) einen Megatrend bzw. eine entscheidende gesellschaftliche Herausforderung für die Zukunft darstellt. Denn erstens bedeutet diese Schrumpfung, dass sich der schon heute bestehende Arbeitskräftemangel im Pflege- und Gesundheitsbereich in Zukunft noch erheblich verschärfen wird, zweitens aber, dass die Zahl derer, die durch ihre | 9 Arbeit die Kosten der Pflege- und Gesundheitsversorgung aufbringen, geringer wird. Die Konsequenz daraus ist so einfach wie bedenklich: Pro Kopf werden mehr Lasten zu schultern sein (vgl. Abbildung 3 am Beispiel der gesetzlichen Rente). Um die skizzierten negativen gesellschaftlichen Auswirkungen des demografischen Wandels auf die Beschäftigten ebenso wie auf die Klienten des Gesundheits- und Pflegewesens abzuwenden, werden seit längerem verschiedene Vorschläge diskutiert. Manche davon setzen auf eine langfristige positive Veränderung der Geburtenraten, andere auf massive Zuwanderung, damit der Bevölkerungsrückgang abgebremst oder gar gestoppt werden kann und so die angedeuteten negativen Konsequenzen vermieden werden können. Beides bedeutet tiefgreifende gesellschaftliche Veränderungen, die zum einen hochumstritten sind und zum anderen allenfalls auf langen Zeitskalen wirksam wären. Deutlich weniger kontrovers scheint die Idee, Entwicklungen, die bereits in anderen Wirtschaftszweigen vollzogen wurden, auch im Gesundheits- und Pflegebereich umzusetzen: Rationalisierung und Automatisierung durch massiven Technikeinsatz. Abbildung 2: Vergleich der Altersstrukturen in Deutschland * Ergebnis der 13. koordinierten Bevölkerungsvorausberechnung (Variante 2). Datenquelle: Statistisches Bundesamt – © BiB 2017 demografie-portal.de Dadurch soll • zur Kostendämpfung im Gesundheits- und Pflegesystem beigetragen werden; • dem Arbeitskräftemangel abgeholfen werden; Bezieher einer Altersrente • den Beschäftigten bei der Verrichtung belastender körperlicher Tätigkeiten geholfen oder diese gar vollständig übernommen werden, (um nicht selbst zum Pflegefall zu werden); • die Versorgung mit Gesundheits- und Pflegedienstleistungen auch in dünn besiedelten Regionen sichergestellt werden, da dort bereits heute die notwendige Infrastruktur ausgedünnt ist; • hochbetagten pflege- und hilfsbedürftigen Menschen ermöglicht werden, solange wie möglich ein selbstbestimmtes Leben in den eigenen vier Wänden zu führen und sie gleichzeitig am sozialen Leben teilhaben zu lassen; • nicht zuletzt ein neuer Markt geöffnet und damit wohlstandsfördernd oder zumindest -sichernd gewirkt werden. Auf Bundesebene werden diese Ziele bereits seit 2008 bspw. durch Fördermaßnahmen des Bundesministeriums für Bildung und Forschung (BMBF) unterstützt; ebenso gibt es zahlreiche Länderinitiativen in diesem Bereich. Regionale Aktivitäten betreffen insbesondere den Aufbau neuer oder die Erweiterung bestehender Studienmöglichkeiten an Hochschulen für angewandte Wissenschaften, um den zukünftigen Herausforderungen durch den demografischen Wandel bei den Pflege- und Therapieberufen zu begegnen. Dem wird durch die Entwicklung von Stu- Beitragszahler1 1) einschl. Personen, die zum jew. Zeitpunkt Anrechnungszeiten zurücklegten (z.B. wg. Krankheit oder Arbeitslosigkeit) 2) frühreres Bundesgebiet; Datenquelle: Deutsche Rentenversicherung Bund; Berechnungen BiB – © BiB 2017 demografie-portal.de Abbildung 3: Verhältnis Beitragszahler zu Rentenbezieher diengängen und die Akademisierung eines Teils der Beschäftigten in diesen Berufszweigen Rechnung getragen. Diese Berufssparten werden so attraktiver und differenzierter ausgebaut, wodurch neue Zielgruppen für diese Berufe angesprochen werden. Die OTH Regensburg hat den Stellenwert sowie das Potenzial der Schlüsselressource Gesundheit erkannt und auf die Zeichen der Zeit – alternde Bevölkerung – Fachkräftemangel – Medizintechnik – bei diesem Megatrend reagiert. Durch eigene entsprechende Maßnahmen übernimmt sie für die Fachkräftesicherung im Bereich der medizinischen und gesundheitsorientierten Berufe Verantwortung. In drei Bachelorstudiengängen – Biomedical Engineering, Medizinische Informatik, Pflege dual – sowie einem Masterstudiengang Medizintechnik sind mittlerweile rund 530 Studierende immatrikuliert. Im Oktober 2015 starteten zwei weitere Bachelorstudiengänge (Physiotherapie und Pflegemanagement), zudem kann seit dem Wintersemester 2015/2016 im Masterstudiengang Informatik der neue Schwerpunkt Medizinische Informatik gewählt werden. 10 | Doch nicht nur in der Lehre ist die OTH Regensburg aktiv, denn mit der Gründung des Regensburg Center of Health Sciences and Technology (RCHST) im März 2017 wurde die Grundlage für exzellente inter- und transdisziplinäre Wissenschaft, Forschung und Entwicklung im Bereich der Medizintechnik, der Pflege- und Gesundheitswissenschaften sowie der dafür notwendigen ELSA-Begleitforschung, Technikfolgenabschätzung und Akzeptanzforschung geschaffen. Dieses vernetzte Forschungs- und Hochschulangebot sowie die branchenübergreifenden Kooperationen vor Ort bergen ein erhebliches wissenschaftliches und wirtschaftliches Potenzial. Für den Erfolg all dieser Maßnahmen sind die gute Auslastung der Studiengänge und die erheblichen Summen, die bereits aus öffentlicher Förderung und durch Aufträge aus der Industrie eingeworben werden konnten, gute Indikatoren, die deutlich machen, dass die OTH Regensburg bei dem Megatrend Gesundheit schon heute ein gewichtiger Impulsgeber ist und eine sehr aktive Rolle spielt. Prof. Dr. Karsten Weber ■ Ko-Leiter des Instituts für Sozialforschung und Technikfolgenabschätzung (IST) OTH Regensburg Zahlen und Fakten 2016 konnte die OTH Regensburg im Bereich von Forschungs- und Entwicklungsprojekten an das Niveau der Vorjahre anknüpfen bzw. diesen Bereich teils weiter ausbauen. Insgesamt waren über 80 Professorinnen und Professoren regelmäßig zusätzlich zur Lehrtätigkeit in Forschungsprojekten aktiv; dies entspricht zirka einem Drittel aller an der OTH Regensburg beschäftigten Professorinnen und Professoren. Öffentlich-geförderte Forschungsprojekte 8.000 6.000 4.000 2.000 0 2013 2014 Bewilligtes Fördervolumen nach Herkunft in Tsd € (2013–2016) 2015 Land 29 Anträge mit einem Fördervolumen in Höhe von 7,9 Millionen EUR aus Landes-, Bundes- und EU-Mitteln sowie Stiftungsgeldern für die OTH Regensburg wurden 2016 bewilligt. Im Vergleich zu den Vorjahren ist damit eine Bund EU 2016 Stiftungen Steigerung zu verzeichnen. Besonders erfreulich ist, dass auf EU-Ebene mehrere Projekte eingeworben werden konnten. | 11 EU-Projekte An der OTH Regensburg laufen derzeit fünf Projekte, die von der Europäischen Union gefördert werden. Rahmenprogramm Interreg V A-Programm Im Programm zur grenzübergreifenden Zusammenarbeit „Ziel ETZ 2014-2020 (Interreg V)“ fördert die Europäische Union grenzübergreifende Projekte zwischen dem Freistaat Bayern und der Tschechischen Republik. TheCoS: Thermoplastische Faserverbundstrukturen Erforschung und Bereitstellung einer zuverlässigen Prozesskette für tragende Faserverbundstrukturen mit thermoplastischer Matrix. Fördersumme: 600 TEuro Projektleiter: Prof. Dr. Ingo Ehrlich | Prof. Dr. Stefan Hierl Virtuelle Menschmodelle für die Prävention, Therapie und Rehabilitation von Schultererkrankungen Entwicklung neuer Methoden für die Analyse von Schulterpathologien, um die Möglichkeiten der Prävention, Therapie und Rehabilitation von Schulterverletzungen und -degenerationen zu erweitern. Fördersumme: 290 TEuro Projektleiter: Prof. Dr. Sebastian Dendorfer CrossEnergy: Grenzüberschreitende Energieinfrastruktur – Zukunftsvisionen für eine Region im Wandel Beitrag zur gemeinsamen, grenzüberschreitenden Energieinfrastruktur in der Donau-Moldau-Region, durch Entwicklung von innovativen Planungs- und Betriebstools von elektrischen Netzwerken. Fördersumme: 270 TEuro Projektleiter: Prof. Dr. Oliver Brückl Unternehmerische Kompetenzen auf dem tschechisch – bayerischen Arbeitsmarkt Entwicklung innovativer Ausbildungskonzepte zur Vermittlung grundlegender unternehmerischer Kompetenzen. Fördersumme: 346 TEuro Projektleiter: Prof. Dr. Sean Patrick Saßmannshausen Rahmenprogramm HORIZON 2020 Horizon 2020 (Laufzeit 2014-2020) ist das Hauptinstrument der Europäischen Union zur Förderung von Wissenschaft, technologischer Entwicklung und Innovation. Es deckt ein breites thematisches Spektrum von der Grundlagenforschung bis zu marktnahen Innovationsmaßnahmen ab. Dies vor allem für Forschung in biomedizinischen, naturwissenschaftlich-technischen, industriellen oder sozioökonomischen Schlüsselbereichen. CANVAS – Constructing an Alliance for Value-driven Cybersecurity Das Projekt ist eine Coordination and Support Action, zum Aufbau eines Netzwerks von Technologieexperten und Rechts,- Ethik- und Sozialwissenschaftlern, das sich mit der Vereinbarkeit von Cybersicherheit mit europäischen Werten und grundsätzlichen Rechten beschäftigt. Fördersumme: 104 TEuro Projektleiter: Prof. Dr. Karsten Weber 12 | Promotionen sitätsprofessorin bzw. einem Universitätsprofessor auch eine Professorin bzw. ein Professor der OTH Regensburg am Promotionsverfahren beteiligt. An der OTH Regensburg besteht die Möglichkeit einer Promotion in Zusammenarbeit mit einer Universität als kooperative Promotion. Hierbei ist neben einer Univer80 77 73 64 60 40 20 6 11 6 0 2014 Laufende und abgeschlossene Promotionen (2014–2016) 2015 laufend abgeschlossen ANZEIGE Ihre Chance bei SWR und REWAG Alle reden von Karriere. Sprechen wir über Ihre. 2016 | 13 Abgeschlossene Promotionen 2016 Promovend/in Titel Betreuer/in OTH Regensburg Kooperierende Universität ■ Martin Alfranseder Efficient and Robust Scheduling and Synchronization in Practical Embedded Multiprocessor Real-Time Systems Prof. Dr. Jürgen Mottok TU ClausthalZellerfeld ■ Christoph Böhm Stochastik und Numerik konformer Abbildungen Prof. Dr. Wolfgang Lauf Universität Würzburg ■ Lena Ebner Kugelschüttungen als Filter und Wärmespeicher – Numerische Simulationen und experimentelle Untersuchungen Prof. Dr. Michael Elsner Ruhr-Universität Bochum ■ Stefan Krämer Development and Simulation of Fault-Tolerant Multicore Real-Time Scheduling - Covering Transient Faults Prof. Dr. Jürgen Mottok Universität Pilsen ■ Josef Merk Die Psychometrische Güte des Motivation Value Systems Questionaire Prof. Dr. Thomas Falter Universität Regensburg ■ Stephan Mingels Elektronenspektroskopische Untersuchungen an kalten Kathoden unter hohen elektrischen Feldern und durchstimmbarer Laserbeleuchtung Prof. Dr. Rupert Schreiner Universität Wuppertal ■ Mathias Obergrießer Entwicklung von digitalen Werkzeugen und Methoden zur integrierten Planung von Infrastrukturprojekten am Beispiel des Schienen- und Straßenbaus Prof. Dr. Thomas Euringer TU München ■ Andrey Orekhov Electron Microscopy Study of Structural Peculiarities of Carbon Materials Prof. Dr. Rupert Schreiner University of Eastern Finland ■ Marco Romano Charakterisierung von gewebeverstärkten Einzellagen aus kohlenstofffaserverstärktem Kunststoff (CFK) mit Hilfe einer mesomechanischen Kinematik sowie strukturdynamischen Versuchen Prof. Dr. Ingo Ehrlich Universität der Bundeswehr München ■ Tobias Trost Erneuerbare Mobilität im motorisierten Individualverkehr Prof. Dr. Michael Sterner Universität Kassel ■ Bastiaan van der Weerd Entwicklung und Charakterisierung von CO2Sensoren für die Bestimmung der CO2-Eliminierung während extrakorporaler Membranoxygenierung Prof. Dr. Rudolf Bierl Universität Regensburg Alle laufenden Promotionen: 77 Nach Fakultäten: 4 4 8 5 23 3 12 18 ■ ■ ■ ■ ■ ■ ■ ■ Architektur Allgemeinwissenschaften und Mikrosystemtechnik Bauingenieurwesen Betriebswirtschaft Elektro- und Informationstechnik Informatik und Mathematik Maschinenbau Angewandte Sozial- und Gesundheitswissenschaften Stand: Dezember 2016 14 | Forschungsaktivitäten auf Konferenzen, Workshops und beim Netzwerken Neben zahlreichen Konferenzen an der OTH Regensburg sind Workshops und Vernetzungstätigkeiten wichtige Kontaktund Plattformen, um sich einerseits wissenschaftlich auszutauschen und andererseits einen aktiven Beitrag am wissenschaftlichen Diskurs zu erbringen. IraSME PArtnering Event, Aachen, 31. Januar 2017 – Susanne Deisböck beim Kooperationspartner-Netzwerken. Foto: Irina Bester, CORNET (cc.) 3. Regensburger Energiekongress an der OTH Regensburg am 8./9. März 2017. Foto: OTH Regensburg Konferenz/Workshop „Rheologische Messungen an Baustoffen“ an der OTH Regensburg am 21./22. Februar 2017. Foto: Oliver Teubert (Schleibinger Geräte Teubert und Greim GmbH) | 15 Fachtagung „Gesundheit im 21. Jahrhundert“ am 17./18. März 2017 – Neugründung des Regensburg Center of Health Sciences and Technology (RCHST). Foto: OTH Regensburg Besuch von Wissenschaftsstaatssekretär Bernd Sibler am 28. April 2017 / Labor Biomechanik. Foto: OTH Regensburg Forschung an der OTH Regensburg: Einblicke und Impressionen | 19 Lebenswissenschaften und Ethik Lebenswissenschaften und Ethik umfassen die Forschung an gesellschaftlich relevanten technischen und sozialwissenschaftlichen Themen. Mit Partnern aus Kliniken, Gesellschaft, Industrie und Unternehmen werden Prozesse und Produktideen entwickelt, die den zukünftigen Herausforderungen unserer Gesellschaft Rechnung tragen. Dabei spielt die Vernetzung unserer medizintechnischen und medizininformatischen Expertise mit unseren Kompetenzen im Gesundheitsbereich eine entscheidende Rolle. Ebenso sind Sozialforschung und Technologiefolgenabschätzung, Akzeptanzforschung, Ethik, Personalarbeit sowie Nachhaltigkeit weitere zentrale Aspekte des Forschungs-Leitthemas. 20 | L E B E N S W I S S E N S C H A F T E N U N D E T H I K PsyBio: Virtuelle Menschmodelle zur Bestimmung des Einflusses von Stress auf den Bewegungsapparat Rückenschmerzen sind ein Volksleiden. Neben den rein anatomisch/physiologischen Parametern spielt die psychische Belastung eine Hauptrolle in der Entwicklung von Rückenleiden. Mit Hilfe von experimentellen Studien sowie virtuellen Menschmodellen werden in diesem Projekt die Disziplinen Biomechanik, Psychologie und Physiologie für einen neuartigen, ganzheitlichen Ansatz für ein besseres Verständnis der Entstehung von muskulokelettalen Problemen verwoben. Hieraus sollen Methoden entwickelt werden, die ein frühzeitiges Eingreifen sowie eine verbesserte Rehabilitation bei Rückenschmerzen ermöglichen. Bis zu 80 Prozent aller Menschen sind im Laufe ihres Lebens von Rückenschmerzen betroffen. Dies lässt Probleme im Bereich der Wirbelsäule zu einer der Hauptursachen für Arbeitsausfall und einer verminderten Lebensqualität werden (Raspe 2012). Neben rein orthopädisch-biomechanischen Auslösern werden seit mehreren Jahren auch psychische Belastungssituationen als potentiell initiierende oder zumindest verstärkende Faktoren diskutiert. Viele Studien haben gezeigt, dass eine Stresssituation mit einer Erhöhung der Muskelanspannung einhergehen kann (SBU Yellow Report no 227 2014). In einigen wenigen Studien wurde auch gezeigt, dass für bestimmte Arbeitsplatzsituationen unter Stress eine Erhöhung der Kräfte in der Lendenwirbelsäule entsteht (Davis et al. 2002). Bisher ist allerdings nur wenig über Abbildung 1: Messung der Muskelaktivität unter Stress. die Änderung der Belastungen in der Hals- und Lendenwirbelsäule für verschiedene Stressoren (Stressfaktoren), die im modernen Berufsalltag auftreten, bekannt. Ziel dieser aktuellen Studie ist die Erforschung des Einflusses von emotionalen und kognitiven Stress auf die Muskelansteuerung und somit der Belastungen der Hals- und Lendenwirbelsäule. Hierfür sind die Fachbereiche Biomechanik, Sportwissenschaften und Psychologie beteiligt. Mit Hilfe von experimentellen Studien wird die Reaktion des Körpers durch Probandenversuche auf Stresssituationen bei verschiedenen Bewegungen gemessen. Die Erfassung der Körperdaten beinhaltet neben biomechanischen Größen wie Bewegung, Muskelaktivität (Abbil- LEBENSWISSENSCHAFTEN UND ETHIK | 21 Projektleiter Prof. Dr.-Ing. Sebastian Dendorfer Labor für Biomechanik, OTH Regensburg [email protected] Homepage www.lbm.rcbe.de Die individuelle Stressantwort der Muskulatur wird in die Modelle implementiert und somit kann die Änderung der Belastungen berechnet werden. In Abbildung 2 ist die Veränderung der Bandscheibenkräfte exemplarisch für einen Fall dargestellt. Die Kräfte entstehen nur durch den Stressor bei keiner Bewegungsänderung. Im Rahmen der Studien werden gesunde Probanden und bereits vorgeschädigte Patienten untersucht. Mit Hilfe der gewonnenen Erkenntnisse werden in Folgestudien Algorithmen entwickelt, welche eine virtuelle Simulation von kombiniert biomechanisch-psychischer Beanspruchung zulassen. Die Anwendungsfelder für diese Modelle sind beispielsweise die Arbeitsplatzergonomie oder die Unterstützung der Diagnose bei orthopädischen Fragestellungen. Abbildung 2: Beispiel für die Änderung der Belastung der Hals- und Lendenwirbelsäule unter Stress. dung 1) und externen Kräften auch die Analyse von Biosignalen wie Herzrate, Hautleitwert und Körpertemperatur zur quantitativen Beurteilung der Stressreaktion. Die anthropometrischen Daten der Probanden werden in Kombination mit den biomechanischen Kenngrößen zur Erstellung von probandenspezifischen, virtuellen Menschmodellen verwendet. Mit Hilfe dieser Modelle können die Kräfte im Körperinneren wie Bandscheibenbelastung oder Muskelkräfte berechnet werden. Sebastian Dendorfer a,b ■ Franz Süß a ■ Simone Kubowitscha,c ■ a) Labor für Biomechanik, OTH Regensburg b) Regensburg Center for Biomedical Engineering, Universität und OTH Regensburg c) Institut für Sportwissenschaften, Universität Regensburg L I TE R ATUR Davis, Kermit G.; Marras, William S.; Heaney, Catherine A.; Waters, Thomas R.; Gupta, Purnendu (2002): The impact of mental processing and pacing on spine loading: 2002 Volvo award in biomechanics. In: Spine 27 (23), S. 2645–2653. Raspe, H. (2012): Rückenschmerzen. In: Gesundheitsberichterstattung des Bundes. 53. SBU Yellow Report no 227 (2014): Occupational exposures and back disorders. Online verfügbar unter http://www.sbu.se/en. 22 | L E B E N S W I S S E N S C H A F T E N U N D E T H I K Stent-Delivery-Systeme zur Behandlung koronarer Gefäßverengungen Die Koronare Herzkrankheit (KHK) stellt in allen hoch entwickelten Industrieländern eine der häufigsten Todesursachen dar. Bei einer KHK kommt es zu Koronargefäßverengungen, entstanden durch Arteriosklerose, die eine unzureichende Blut- und somit Sauerstoff- und Nährstoffversorgung des Herzmuskels nach sich ziehen und im weiteren Verlauf zu einem akuten Herzinfarkt führen können. Im Rahmen des OptiStent Projektes werden im Labor für Medizinprodukte neuartige koronare Stent-Delivery-Systeme zur Behandlung einer KHK entwickelt und die hierfür benötigten, teils neuartigen, Herstellungsprozesse etabliert. In Industriestaaten stellen Herzkrankheiten die häufigste Todesursache dar. Allein in Deutschland machten diese im Jahr 2015 rund 25% aller Todesfälle aus1. Durch eine ungesunde Lebensweise (z. B. Rauchen, Fettleibigkeit, Stress) und die erblich bedingte Vorbelastung können sich bei einer KHK in den Herzkranzgefäßen Verengungen, sogenannte Stenosen, bilden. Diese behindern den Blutfluss, was zu einer Unterversorgung des Herzmuskels führen kann. Gelangt nun ein Thrombus in die Verengung, wird das Gefäß verschlossen und es droht der Herzinfarkt, der in ca. 50 % der Fälle zum Tode führt. Um dieser lebensbedrohenden Situation entgegenzuwirken, kann ein Stent, d. h. eine zylindrische Gefäßwandstütze aus Metall, in diese Verengung implantiert werden. Dabei wird ein Stent mit Hilfe eines Ballonkatheters (Stent-Delivery-System, SDS) von der Leiste über die Aorta in die Engstelle der Koronararterie geführt. Dort wird die Verengung und der Stent durch den Ballon des Katheters aufgeweitet. Anschließend wird der Ballon wieder verkleinert, der Stent verbleibt expandiert in der Verengung, stützt diese ab und der Blutstrom ist wiederhergestellt. Während einer Stentimplantation kann es jedoch zu einer Verletzung des Gefäßes kommen, was die Gefahr einer erneuten Gefäßverengung durch überschießende Wundheilung, der Restenose, erhöht. Die Schwere dieser Verletzung ist abhängig vom Design des Stents und von dessen Expansionsverhalten2. Im Rahmen des OptiStent b) a) Abbildung 1: Crimpvorrichtung für koronare Stents; a) Übersichtsaufnahme der einzelnen Bestandteile: Crimpkopf (orange), Stent auf Ballonkatheter (weiß), Positioniereinheit (blau und rot), Pumpe für Druckvariation im Katheter (lila); b) Detailaufnahme der Crimpiris (mit eingelegtem Kalibrierstift, d = 1mm) Projektes soll ein neuartige SDS entwickelt werden, das eine geringere Gefäßverletzung hervorruft wie marktübliche Produkte und somit die Möglichkeit bietet, den Behandlungserfolg einer KHK zu erhöhen. Die Optimierung eines Stents bzw. des SDS kann aber nur gewährleistet werden, wenn der gesamte Herstellungsprozess eines SDS kritisch betrachtet wird. Ziel des Projektes Ziel des beschriebenen Projektes ist es, die Prozesskette der Fertigung koronarer SDS beginnend mit dem Laserschneiden der Stents, über das elektrochemische Nachbearbeiten bis hin zum Befestigen auf dem Ballonkatheter aufzubauen und für weitere Forschungsaktivitäten zu etablieren. Material und Methoden Schneiden der Stents Zum Schneiden der Stents aus Rohröhrchen wird eine Laserschneidanlage vom Typ SCS IV (Optiray GmbH, München) eingesetzt. Sie besteht aus einem 2-Achs-Positioniersystem, sowie einem gepulsten 100 W Faserlaser mit einem Laserschneidkopf. Die gerätespezifische CAMSoftware wurde durch Cagila-2D (CAM-Service GmbH, Hannover) ergänzt, womit nun Funktionen wie Kurvenoptimierung, CNC-Simulation und -Programmanalyse möglich sind. Beizen und Elektropolieren der Stents Beim Beizen im Ultraschallbad werden Schlackereste und Metalloxide entfernt, die beim Laserschneiden entstehen. Als Beize wird Polinox-B Badbeize (Poligrat GmbH, München) verwendet. Diese beseitigt Zunder, Anlauffarben und Fremdrost auf Oberflächen von austenitischen CrNi- und CrNiMo-Stählen sowie hochnickelhaltigen Werkstoffen. Für die Elektropolitur der lasergeschnittenen Stents wurde eine Vorrichtung entwickelt, die es ermöglicht 20 LEBENSWISSENSCHAFTEN UND ETHIK | 23 a) Projektleiter Prof. Dr.-Ing. Thomas Schratzenstaller Labor für Medizinprodukte – Medical Devices Fakultät Maschinenbau b) Regensburg Center of Biomedical Engineering, OTH Regensburg [email protected] Projektmitarbeiter/in c) Markus Geith (M.Sc.), Thomas Hölscher (M.Sc.), Matthias Laub (B.Sc.), Michael Mayer (M.Sc.), Lisa Obermaier (B.Sc.), Simon Schildbach (B.Sc.) d) Laborhomepage www.md.rcbe.de Abbildung 2: Fertigungskette eines Stents am Beispiel der jeweiligen Produktstadien: a) lasergeschnitten, b) gebeizt, c) elektropoliert, d) gecrimpt auf Ballonkatheter Gefördert durch Bayerisches Staatsministerium für Bildung und Kultus, Wissenschaft und Kunst (Projekt OptiStent) Stents gleichzeitig reproduzierbar zu polieren. Die Elektropolitur erfolgt im Elektrolyt Poligrat E268A (Poligrat GmbH, München) durch Schalten des Stents als Anode in einer 3-Elektroden-Zelle und unter Beaufschlagung mit Gleichstrom. Während der Bearbeitung wird der Stent ständig rotiert, damit die Kontaktstelle Stent-TitanDraht wechselt und mögliche Inhomogenität des elektrischen Feldes ausgeglichen werden. Aus dem gleichen Grund werden mit jedem Stent zwei Polierdurchgänge vollzogen, wobei diese umgedreht werden. Crimpen der Stents Für das Befestigen der Stents auf dem Ballonkatheter (Crimpen) wurde eine spezielle Vorrichtung entwickelt, die es ermöglicht neuartige Stent-Designs mit Stegdicken und -breiten kleiner 80 µm zu crimpen. Zwölf Crimpbacken realisieren eine durchmesserverstellbare Iris. Die über einen Hebel eingebrachte Rotation führt dazu, dass jede Backe die gleiche Rotation vollführt und somit der Irisdurchmesser verändert wird. Durch eine spezielle Anordnung und Lagerung der Crimpbacken hat jede nur einen maximalen Spalt zur benachbarten Backe zwischen 20-25 μm. Dieser Spalt ist klein genug, um sich nicht mit den Stent-Stegen zu verhaken, aber dennoch ausreichend um keine Selbsthemmung durch Formschluss der Crimpbacken hervorzurufen (Abbildung 1). Um die Qualität der Herstellungsschritte und somit der gefertigten Stents zu überprüfen wurden diese mit marktüblichen Produkten verglichen. So wurde z. B. deren Oberflächenrauigkeit untersucht und Biokompatibilitätstests gemäß ISO 10993-1 durchgeführt. Ergebnisse In Abbildung 2 sind die Ergebnisse der einzelnen Herstellungsschritte eines Stents exemplarisch dargestellt. Die Oberflächenanalysen der elektropolierten Stents ergaben eine gemittelte Rauheit von Rq = 0,017 µm im Vergleich zu den untersuchten marktüblichen Produkten mit einem Rq = 0,038 µm. Ebenfalls sehr gute Ergebnisse zeigten die durchgeführten Zytotoxizitätsuntersuchungen gemäß ISO 10993-1. Die in dieser Arbeit elektropolierten Stents haben keinen negativen Einfluss auf die Vitalität der verwendeten Mausfibroblasten und sind damit vergleichbar mit marktüblichen Produkten. Ausblick Parallel zur Entwicklung und Aufbau der Herstellungsprozesse koronarer SDS wurden neuartige Stent-Designs entwickelt. Als nächste Schritte sollen diese mit den etablierten Herstellprozessen gefertigt und anschließend deren mechanische und biologische Eigenschaften untersucht werden. Labor für Medizinprodukte ■ Fakultät Maschinenbau ■ Regensburg Center of Biomedical Engineering ■ alle OTH Regensburg L I TE R ATUR 1. Statistisches Bundesamt, Die 10 häufigsten Todesursachen in Deutschland 2015, https://www.destatis.de/DE/ZahlenFakten/GesellschaftStaat/Gesundheit/Todesursachen/Tabellen/HaeufigsteTodesursachen. html;jsessionid=9995371BA6F8A340075B982866B9D359.cae1 2. Schwartz R., Huber K., et al.: Restenosis and the proportional neointimal response to coronary artery injury: Results in a porcine model. Journal of the American College of Cardiology, 19(2), S. 267–74, 1992 24 | L E B E N S W I S S E N S C H A F T E N U N D E T H I K Klassifikation von Auto-Fahrtypen In der Studie wurden Fahrtypen als Vorstufe der Entwicklung eines adaptiven Fahrassistenzsystems im Automobil identifiziert und analysiert. Methodische Grundlage der Studie ist der Ansatz der menschzentrierten Technikentwicklung. Im Rahmen von Testfahrten mit Beobachtung sowie qualitativer und quantitativer sozialwissenschaftlicher Befragung wurde das Fahrverhalten von Proband*innen untersucht und nach den Kriterien Verkehrssicherheit, Sportlichkeit und Effizienz mit einer Clusteranalyse in drei Fahrtypen klassifiziert. Unterschiede zwischen Selbstund Fremdwahrnehmung wurden untersucht und diskutiert. Einleitung Methode Die Charakterisierung von Fahrereigenschaften ist wesentlicher Bestandteil bei der Verbesserung der Mensch-Technik-Interaktion im Automobil. Im Rahmen einer interdisziplinären Projektkooperation wurde eine neue Form des Human-Centered Engineering bzw. der menschzentrierten Technikgestaltung genutzt1. Bei der Teilautomatisierung als Schritt zum vollautomatisierten Fahren sollen Fahrstile analysiert und das Fahrassistenzsystem an das Fahrverhalten angepasst werden (adaptives Fahrassistenzsystem). Hierbei sollen Nutzer*innen in den (Weiter-)Entwicklungsprozess einbezogen werden. Damit verfolgt die Studie die Grundidee Technik so zu gestalten, dass die Bedürfnisse aller vom Einsatz einer Technik betroffenen Stakeholder stärker beim Gestaltungsprozess berücksichtigt werden. Ziel der induktiven Studie ist es, das Fahrverhalten unterschiedlicher Personengruppen zu erheben und Typen zu bilden (Klassifikation). Die 18 Proband*innen wurden nach einer Merkmalskombination aus Alter, Geschlecht und Fahrpraxis ausgewählt. Alle Testpersonen fuhren mit dem mit computergestützten Messvorrichtungen ausgestatteten Testfahrzeug eine Strecke von 55 km (Stadtverkehr, Landstraße, Autobahn). Um diverse Perspektiven erfassen zu können, orientiert sich das Forschungsdesign am Ansatz der Triangulation mit Methoden-Mix: 1.) Der schriftliche Fragebogen vor der Testfahrt beinhaltete Fragen zu persönlichen soziodemographischen Angaben und zur Fahrpraxis (Selbsteinschätzung mit 5-stufigen Skalen2. 2.) Während der Fahrt wurden Signalmessungen Sicherheit Effizienz 4 4 2 2 Ausgeglichen Sicher & Effizient Sportlich Sportlichkeit Ausgeglichen Sicher & Effizient Sportlich Abweichung in den Gruppen 4 2 1 2 0 Ausgeglichen Sicher & Effizient Sportlich Abbildung 1: Vergleich der Einschätzungen zu Sicherheit (oben) und Sportlichkeit (unten), Skala: 1 = minimal, 5 = maximal Fremdeinschätzung Selbsteinschätzung Abweichung Sicherheit Abweichung Sportlichkeit Abweichung Effizienz Abbildung 2: Vergleich der Einschätzungen zu Effizienz (oben) und der Abweichungen der Einschätzungen (unten) Ausgeglichen Sicher & Effizient Sportlich LEBENSWISSENSCHAFTEN UND ETHIK und Kameraaufnahmen (Fahrzeuginnenraum, Fahrbahn) automatisiert vorgenommen. 3.) Außerdem fand während der Fahrt eine offene teilnehmende Beobachtung durch zwei anwesende Beobachter*innen (Forscher-Triangulation3 statt (Beobachtungsprotokoll). Nachträglich wurden Kameraaufzeichnungen der Fahrten durch eine*n dritte*n Beobachter*in gesichtet und ausgewertet. Auf Basis eines Ratingverfahrens4 erfolgte jeweils durch die drei Beobachter*innen eine Bewertung der Fahrleistung (Fremdeinschätzung). 4.) Am Ende wurde ein Reflexionsgespräch mit den Testpersonen kurz nach der Fahrt (mündliche teilstrukturierte und leitfadengestützte Befragung) durchgeführt3. | 25 Projektleiter/in Prof. Dr. Sonja Haug | [email protected] Prof. Dr. Karsten Weber | [email protected] Wissenschaftliche Mitarbeiterinnen Alena Wackerbarth (M.A.), Ulrike Scorna (M.A.) Studentische Hilfskräfte Julia Hoffmann, Anna Koch Geldgeber Bertrandt Ingenieursbüro GmbH, Standort Regensburg (Ansprechpartner: Ulrich Haböck, Andreas Redepenning) Projektlaufzeit September 2015 bis März 2016 (7 Monate) Ergebnis Die statistische Auswertung (Clusteranalyse)5 ergab drei Fahrtypen: Ausgeglichen, Sicher und Effizient, Sportlich. Die Gruppenunterschiede sind signifikant. Fahrtypus Ausgeglichen: 10 von 18 Testpersonen (56 %). Die Mittelwerte für Sicherheit, Sportlichkeit und Effizienz sind annähernd gleich hoch. Sicher und Effizient: 5 Proband*innen (28 %). Einen im Vergleich niedrigeren Wert für Sportlichkeit weist die Gruppe Sicher und Effizient auf. Fahrtypus Sportlich: 3 Testpersonen (17 %). Einen im Vergleich höheren Mittelwert für Sportlichkeit hingegen weist der Fahrtypus Sportlich auf. Der Vergleich der Mittelwerte der Selbst- und Fremdwahrnehmung bezüglich der Sicherheit ergibt, dass sich alle drei Fahrtypen überschätzen, wobei der Fahrtypus Sicher und Effizient sich nur gering überschätzt (MS= 4.00, SDS= 1.00, MF= 3.84, SDF= .49), der Fahrtypus Ausgeglichen etwas mehr (MS= 3.83, SDS= 1.17, MF= 3.47, SDF= .19) und die Sportlichen sich am meisten überschätzen (MS= 3.67, SDS= .58, MF= 2.51, SDF= .16) (Abb.1, oben). Bezüglich der Einschätzung zur Sportlichkeit hat der Vergleich mit den Bewertungen der Beobachter*innen ergeben, dass sich der Fahrtypus Ausgeglichen sehr gut einschätzt (MS= 3.47, SDS= 1.17, MF= 3.58, SDF= .42), der Fahrtypus Sicher und Effizient hingegen überschätzt (MS= 2.94, SDS= 1.12, MF= 2.3, SDF= .46) und die Sportlichen ihre Fahrleistung hinsichtlich Sportlichkeit sehr unterschätzen (MS= 2.73, SDS= .93, MF= 3.97, SDF= .38) (Abb. 1, unten). Der Intergruppenvergleich der Selbst- und Fremdwahrnehmung zur Effizienz hat ergeben, dass die Fahrtypen Ausgeglichen (MS= 3.50, SDS= .99, MF= 2.98, SDF= .31) und Sportlich (MS= 3.47, SDS= .68, MF= 2.10, SDF= .27) Homepage: www.oth-regensburg.de/ist https://www.oth-regensburg.de/fakultaeten/angewandtesozial-und-gesundheitswissenschaften/forschung-pro jekte/institut-fuer-sozialforschung-und-technikfolgenab schaetzung/projekte/projekte-im-bereich-mensch-technikinteraktion/identifikation-von-fahrtypen.html sich überschätzen und der Fahrtypus Sicher und Effizient sich unterschätzt (MS= 3.60, SDS= .92, MF= 3.92, SDF= .36) (Abb. 2, oben). Alle Fahrtypen weichen bei der Selbstwahrnehmung von der Fremdeinschätzung ab, am meisten der Fahrtypus Sportlich (Abb. 2, unten). Es konnte kein Zusammenhang zwischen Selbst- und Fremdeinschätzung oder zwischen Alter, Geschlecht und Fahrpraxis mit einem Fahrtypus festgestellt werden. Ausblick Die Ergebnisse bieten Erkenntnisse über die differenzierten Verhaltensweisen der unterschiedlichen Fahrtypen und unterstreichen die Bedeutung einer benutzerorientierten Technikentwicklung. In Folgestudien mit einer wesentlich größeren Stichprobe müsste die Reliabilität der Ergebnisse nochmals geprüft und die Akzeptanz eines adaptiven Fahrassistenzsystems evaluiert werden. Sonja Haug, OTH Regensburg ■ Karsten Weber, OTH Regensburg ■ Institut für Sozialforschung und Technikfolgenabschätzung (IST) L I TE R ATUR 1. Haböck, U., Redepenning, A., Schwenninger, J., Buchner, C.: Der Mensch im Mittelpunkt - Human Centred Engineering als Zukunft der Technologieindustrie, Automobiltechnische Zeitschrift (ATZ), 119 (4), 48-53 (2017) 2. Schnell, R., Hill, P. B., Esser, E.: Methoden der empirischen Sozialforschung, Oldenburg, München (2013) 3. Flick, U.: Qualitative Sozialforschung. Eine Einführung, Rowohlt, Hamburg (2016) 4. Pauli, C.: Ratingverfahren, Journal für LehrerInnenbildung, (1) 5659 (2014) 5. Backhaus, K., B. Erichson, Weiber, R.: Multivariate Analysemethoden. Eine anwendungsorientierte Einführung, Springer, Berlin, Heidelberg (2015) 26 | L E B E N S W I S S E N S C H A F T E N U N D E T H I K Studie: Pflegerische Fachberatung und Onlineberatung für MS-Erkrankte Mit qualitativer und quantitativer sozialwissenschaftlicher Befragung wird der Einfluss eines Patientenbetreuungsprogramms auf Therapietreue und Krankheitsbewältigung bei MS-Patient_ innen (MS-P) untersucht. Die persönliche Vor-Ort-Beratung durch die MS-Fachberater_innen (MSF) wird als höchst wichtig eingeschätzt und im Vergleich mit Hausärzt_innen und Fachärzt_innen durchweg höher bewertet. Bei der telefonischen Beratung wird die unmittelbare Erreichbarkeit besonders geschätzt. Das Angebot der Peer-to-Peer-Beratung im Online-Forum ist zumeist bekannt, aber den Einträgen wird weniger vertraut. Im Forschungsprojekt wurde das Aktiv-mit-MS-Patientenbetreuungsprogramms (AMSP) des Pharmaunternehmens TEVA evaluiert, um der Forschungsfrage nachzugehen, inwieweit sich pflegerische Fachberatung und Austausch in Online-Foren auf die Krankheitsbewältigung und in Folge auf die Therapietreue in der Behandlung Multipler Sklerose mit dem Medikament COPAXONE® auswirkt. Die Studie basiert auf einem Methoden-Mix (Abb.1), wodurch sich die Validität der Messergebnisse erhöht (Methoden-Triangulation)6. Die qualitative Datenanalyse der Vorstudie mit 21 Expert_inneninterviews erfolgte nach dem Verfahren des thematischen Kodierens4. In der Längsschnittstudie liegt die errechnete Rücklaufquote von knapp 40 Prozent etwas unterhalb des üblichen Rahmens, die Panelmortalität ist mit 43 Prozent nicht auffällig hoch8. An der Befragung beteiligten sich 86 Prozent Frauen und 14 Prozent Männer. Das durchschnittliche Alter der MS-P beträgt 38 Jahre (SD=11,2; Min=21, Max=81). Zum Zeitpunkt der Erhebung wurde zusätzlich zu COPAXONE® 20mg/ml (tägliche Spritzengabe) COPAXONE® 40mg/ml (Spritzengabe drei Mal wöchentlich) eingeführt. Im Laufe der Befragung spritzten sich in W_3 Abbildung 1: Design und Methoden-Mix der Evaluationsstudie nur noch 17 Prozent täglich die 20mg/ml Dosierung. Die 87 online befragten MS-F sind im Durchschnitt zehn Jahre tätig (SD=4.80) und betreuen durchschnittlich 30 MS-P. Ergebnisse Im Längsschnitt wurde die Spritzengabe durchschnittlich nie bis 3,6 Mal ausgelassen. Bca-KI-95Prozent-W_1 [-.02,.53], - W_2 [-.33, 2.21] und -W_3 [-.04, 3.61]. Dieses Ergebnis deutet auf eine sehr hohe Therapietreue hin. Die Abbruchsquote von 10 Prozent liegt im unteren Bereich der in den ersten sechs Monaten zu erwartenden Abbruchsquote von 10-20 Prozent2. Die Dosis hat hierbei keinen signifikanten Einfluss auf die Therapie(un)treue im Chi2-Test. Die MS-P schätzen es, dass ihnen jederzeit und zu jedem abgefragten Anlass Fachberatungsangebote zur Verfügung stehen. Die MS-F werden sowohl in Bezug auf psychosoziale Belange als auch in Bezug auf medizinische Fragen und praktische Hilfen am besten bewertet. Nur bei MS-Problemen wünschen sich die MS-P Kontakt zu Fachärzten (Abb.2). Alle MS-F haben eine pflegerische bzw. medizinische Ausbildung und sind seit 10–16 Jahren tätig. Diese Rolle hat sich in den letzten Jahren ausgehend von der Aufgabe der Spritzenschulung hin zu einem komplexeren und umfangreicheren Aufgabenspektrum gewandelt, das Krankheitsaufklärung, Wissensvermittlung und psychosoziale Unterstützung beinhaltet. Die Betreuungsintensität hängt mitunter von den MS-P ab. Insgesamt gehen die MS-P allerdings seltener auf die MS-F zu als umgekehrt und die Kontaktintensität erhöht sich durch die aktive Kontaktierung durch die MS-F [τ(62)=.364, KI-95Prozent [.175, .560], p<.001]. Dem Ablauf des Betreuungsprogramms entsprechend ist der Kontakt mit den MS-F in den ersten sechs Monaten häufiger als der zum Serviceteam und nach Ablauf der Betreuungsphase durch die MS-F steigt die Bedeutung des Serviceteams an. Die Angaben bezüglich des Terminbedarfs der MS-P weisen darauf hin, dass die Besuche flexibel stattfinden. MS-P mit einem höherem Beratungund Hilfebedürfnis bekommen die Unterstützung, die sie LEBENSWISSENSCHAFTEN UND ETHIK 5 4,5 4 3,5 3 2,5 2 1,5 1 0,5 0 | 27 Projektleiter/in Prof. Dr. Christa Mohr (Pflegewissenschaft) [email protected] Prof. Dr. Sonja Haug (Empirische Sozialforschung) [email protected] Prof. Dr. Karsten Weber (Internetberatung) [email protected] Wissenschaftliche Mitarbeiterinnen Amelie Altenbuchner (M.A.), Ulrike Scorna (M.A.) Geldgeber: TEVA GmbH, Standort Berlin Abbildung 2: Ranking Bewertung und Wichtigkeit der Kontaktpersonen und -stellen (1–5 „überhaupt nicht wichtig“ bis „sehr wichtig“ und „überhaupt nicht zufrieden“ bis „sehr zufrieden“) Projektlaufzeit: August 2014 bis Juli 2016 (24 Monate) Fördersumme: 117 TEuro Homepage brauchen. Bei der Einnahme von COPAXONE® 40 mg/ml ist eine Abnahme der Kontakte zum MS-Servicetelefon zu beobachten [X²(3)=11.344, p=.011], wobei 84,1 Prozent aus der Dosisgruppe 40mg/ml nie bis selten anrufen. Bezüglich der Nutzung des Online-Forums ergeben sich mittlere bis tendenziell schlechte Bewertungen, was möglicherweise einer Verzerrung durch geringere Teilnahme internetaffiner Nutzer_innen beim Befragungsformat Papierfragebogenstudie geschuldet ist. Dem überwiegenden Anteil ist das Online-Forum bekannt, es wird aber als weniger wichtig eingeschätzt und genießt geringeres Vertrauen als die MS-F und das Serviceteam. Statt subjektiver Inhalte im Online-Forum wird die evidenzbasierte Beratung durch die MS-F bevorzugt. Schlussfolgerungen Die Evaluationsstudie1 zeigt, die pflegerische Fachberatung eignet sich zum Erhalt der Therapietreue von MS-P und zur Verhinderung von Therapieabbrüchen in den ersten sechs Monaten. MS-P schätzen das Fachberatungsangebot und die pflegerische Beziehung durch die MS-F und das Serviceteam. Mit Blick auf die Zukunft äußern sich die Befragten zuversichtlich, das Leben mit der Krankheit bewältigen zu können. Die positive Auswirkung https://www.oth-regensburg.de/fakultaeten/angewandtesozial-und-gesundheitswissenschaften/forschung-projekte/ institut-fuer-sozialforschung-und-technikfolgenabschaetzung/ projekte/projekte-im-bereich-gesundheit/ms-studie.html von Krankheitsbewältigungsstrategien auf Therapietreue zeigt eine Reihe weiterer Studien5 10 11. Ein Mix verschiedener Informationsanbieter und Medien kann die individuellen Bedürfnisse der Betroffenen bedienen, jedoch sollte die Bedeutung sachlicher Informationen nicht überschätzt werden9. Zu viele können zu Überlastung führen3. Für die Therapietreue kann die psychosoziale Unterstützung, die sich positiv auf die emotionale Grundstimmung auswirkt, weitaus wichtiger sein als sachliche Informationen7. Christa Mohr, OTH Regensburg1 ■ Sonja Haug, OTH Regensburg2 ■ Karsten Weber, OTH Regensburg2 ■ 1) Fakultät Angewandte Sozial- und Gesundheitswissenschaften 2) Institut für Sozialforschung und Technikfolgenabschätzung (IST) L I TE R ATUR 1. Altenbuchner, A., Haug, S., Mohr, C., Scorna, U. und K. Weber, Der Einfluss von pflegerischer Fachberatung und Onlineberatung auf die Therapietreue (Compliance) bei der Behandlung von Multipler Sklerose (MS) – eine Längsschnittuntersuchung, Forschungsbericht, Regensburg, Institut f. Sozialforschung u. Technikfolgenabschätzung (IST), 2016. 2. COPAKTIV Schwestern-Service, Handbuch für MS-Fachberaterinnen & MS-Fachberater für COPAXONE®. Leitfaden zur Betreuung von COPAXONE® Patienten, Berlin, Teva Pharma GmbH, 2008. 3. Fava, G. A. and J. Guidi, Information overload. The patient and the clinician, Psychotherapy and Psychosomatics, 76, 2007: 1-3. 4. Helfferich, C., Leitfaden- und Experteninterviews, S. 559-574 in Handbuch der Methoden der empirischen Sozialforschung, Hrsg. Baur, N. und J. Blasius, J., Wiesbaden: Springer Fachmedien, 2014. 5. Köhler W., Apel-Neu A., Faiss J. H., Hoffmann F. und Klauer T., Psychoedukatives Training für Patienten mit Multipler Sklerose, Der Nervenarzt, 80, 2009: 16-17. 6. Mayer, H. Pflegeforschung anwenden. Elemente und Basiswissen für das Studium, 4. Auflage. Facultas, Wien, 2015. 7. Radin, P., To me, it’s my life. Medical communication, trust, and activism in cyberspace, Social Science & Medicine, 62, 2006: 591–601. 8. Schnell, R. Survey-Interviews. Methoden standardisierter Befragungen, VS-Verlag für Sozialwissenschaften, Wiesbaden, 2012. 9. Simon, H. A., Models of Man, New York, Wiley & Sons, 1957. 10. Simpson, S. H., D. T. Eurich, S. R. Majumdar, R. S. Padwal, R.T. Tsuyuki and J. Varney, A meta-analysis of the association between adherence to drug therapy and mortality, British Medical Journal (BMJ, Clinical research ed.), 333 (7557), 2006: 15. 11. Twork, S., K. H. Schwermer und J. Kugler, Krankheitsbewältigungstraining bei Multipler Sklerose. Sicht niedergelassener NeurologInnen und NervenärztInnen, Der Nervenarzt, 78 (4), 2007: 429-436. | 29 Information und Kommunikation Im Fokus von Information und Kommunikation steht die gesamte Bandbreite der Kommunikation von Mensch zu Mensch ebenso wie die MenschMaschine-Interaktion oder auch diejenige innerhalb rein technischer Systeme. Dabei ist eine ganzheitliche Betrachtung der Ressourcen und Prozesse notwendig, um IT-Sicherheitsstrukturen auf- und auszubauen. Neben Themen der Sicherheit in Systemen und Netzen stehen verschiedenste Konzepte und Anwendungen zur Datenverarbeitung beispielsweise für Logistik oder Robotik im Zentrum unserer Forschungsaktivitäten. 30 | I N F O R M A T I O N U N D K O M M U N I K A T I O N Statistische Korrektur gerundeter Angaben in Stichprobenerhebungen Bei vielen Datenerhebungen ist man auf Selbstauskünfte angewiesen, etwa bei der Untersuchung der Einkommensverteilung oder medizinischen Surveys (z.B. zum Nikotinkonsum). Oft zeigen sich in den erfassten Daten künstliche Spitzen bei „glatten“ Werten (z. B. durch 100 teilbare Beträge), die durch nicht dokumentierte Rundung auf Seiten der Befragten entstehen und statistische Schätzungen verzerren. Für die Schätzung von Armutsquoten wurde ein Imputationsverfahren entwickelt, um die beobachteten Daten zu „entrunden“. Der Algorithmus dieses Verfahrens ist auf beliebige Erhebungen anwendbar. Problemstellung Anwendung Umfragedaten sind in vielen Bereichen unverzichtbar, leiden aber oft unter Qualitätsmängeln; manche der Befragten beantworten nicht alle Fragen (Nonresponse) oder sagen bewusst oder unbewusst die Unwahrheit. Werden diese Mängel bei der Auswertung vernachlässigt, sind Schätzungen meist verzerrt, liefern de facto falsche Ergebnisse. In der Literatur sind Techniken zur Korrektur von Nonresponse beschrieben. Weitgehend unbeachtet blieb aber bisher das Phänomen, dass Befragungsdaten oft ausgeprägte Spitzen bei glatten, etwa durch 100 oder 1000 teilbaren Werten aufweisen (Abb. 1 zeigt beispielhaft Angaben aus einer Befragung zum monatlichen Haushaltseinkommen). Offenbar runden die Befragten die wahren Werte, allerdings gibt es keine Informationen über die Stärke der Rundung. Werden die gerundeten als exakte Angaben bei Auswertungen verwendet, sind Schätzungen verzerrt. Ziel des Projekts ist ein Imputationsverfahren zur statistischen Korrektur der gerundeten Werte. Als inhaltliche Fragestellung wird die Armutsgefährdungsquote untersucht. Sie ist definiert als Anteil der Personen, deren Äquivalenzeinkommen weniger als 60 % des Medians beträgt. Das Äquivalenzeinkommen einer Person ist das Haushaltsnettoeinkommen geteilt durch die Summe der Gewichte aller Haushaltsmitglieder. Der Haushaltsvorstand hat das Gewicht 1, weitere Personen ab 14 Jahren haben das Gewicht 0,5, Kinder unter 14 Jahren das Gewicht 0,3. 250 150 100 50 Das Einkommen Y modellieren wir durch eine Lognormalverteilung (bedingt auf Kovariablen X wie z. B. Haushaltsgröße): ln(Y )|X ∼ N (X′ β, σ 2 ) 0 0 Der neuartige Ansatz besteht darin, die Zielvariable (Haushaltseinkommen) und das Rundungsverhalten der Befragten gemeinsam zu modellieren. Beides hängt von unbekannten Parametern ab, die mit dem MaximumLikelihood-Ansatz geschätzt werden. Mit dem spezifizierten Modell wird für jeden Befragten ein Rundungsintervall vorhergesagt und schließlich ein aus diesem Rundungsintervall zufällig gezogener Wert imputiert. Die Auswertungen erfolgen anhand der imputierten Daten und nicht mit den tatsächlichen Angaben der Befragten. Modellierung absolute Häufigkeiten 200 Imputationsverfahren im Überblick 2.000 4.000 6.000 8.000 monatliches Haushaltseinkommen Abbildung 1: Selbstauskünfte zum Haushaltseinkommen (Quelle: PASS Welle 6, Teilstichprobe) (1) Das Rundungsverhalten wird als Ordered-Probit-Modell dargestellt. Dabei bestimmt eine latente normalverteilte Variable R den Grad der Rundung (z. B. Rundung auf durch 10 teilbare Werte, durch 100 teilbare Werte usw.), wobei wir annehmen, dass mit zunehmender Höhe des Einkommens (und anderer Kovariablen Z) die Wahrscheinlichkeit einer gröberen Rundung steigt: R| ln(Y ), Z ∼ N (γ0 + γ1 ln(Y ) + Z′ γ 2 , τ 2 ) (2) INFORMATION UND KOMMUNIK ATION Als Likelihood für den Vektor θ aller Modellparameter (u. a. β, γ σ2, τ2) ergibt sich mit den beobachteten gerundeten Werten w folgende Form: L(θ|w, x, z) = n    i=1 j | 31 Projektleiter Prof. Dr. Hans Kiesl Fakultät Informatik und Mathematik f (r, ln(y)|xi , zi , θ) d ln(y)dr Aij Dabei ist n die Größe der Stichprobe, j läuft über alle Rundungsgrade und Aij ist ein rechteckiger Bereich, der alle Werte des Rundungsindikators R und des logarithmierten Einkommens ln(Y) umfasst, die mit dem beobachteten Einkommenswert wi und dem Rundungsgrad j kompatibel sind, f ist die Dichtefunktion einer bivariaten Normalverteilung, deren Parameter sich aus θ bestimmen lassen. [email protected] Geldgeber Deutsche Forschungsgemeinschaft (DFG) Schwerpunktprogramm 1646 „Education as a lifelong process“ Kooperationspartner PD Dr. Jörg Drechsler Institut für Arbeitsmarkt- und Berufsforschung, Nürnberg [email protected] Diese recht komplizierte Likelihood lässt sich numerisch (z. B. mit dem EM-Algorithmus) maximieren; daraus gewinnt man schließlich Schätzungen θ* für alle im Modell auftretenden Parameter. Auswirkungen auf die Armutsgefährdungsquote Imputationsschritt Die folgende Tabelle enthält Schätzungen für die Armutsgefährdungsquote (Datenbasis: Panel Arbeitsmarkt und soziale Sicherung PASS) in Deutschland von 2010 bis 2012 mit den Originaldaten und den „entrundeten“ Daten. Die Differenz der Schätzungen ist durchaus beachtlich. Zuerst wird die A-Posteriori-Verteilung der Parameter θ durch eine multivariate Normalverteilung angenähert (mit den geschätzten Parametern θ* als Mittelwertsvektor und der inversen Fisher-Information der geschätzten Parameter als Kovarianzmatrix), dann wird aus dieser APosteriori-Verteilung ein Parametervektor θ** gezogen. Schließlich werden aus den Modellen (1) und (2) (mit Parametern θ**) für jeden Beobachtungswert ein hypothetisches Einkommen y* und ein Rundungsindikator gezogen; sind diese Werte mit dem beobachteten Einkommen kompatibel, wird y* als „entrundetes“ Einkommen imputiert (andernfalls wird erneut gezogen). Um später korrekte Varianzschätzungen zu erhalten, erfolgt die Imputation mehrfach („multiple Imputation“). Mit Hilfe umfangreicher Simulationen bei Unterstellung von plausiblem Rundungsverhalten konnte nachgewiesen werden, dass dieses Vorgehen „entrundete“ Einkommenswerte liefert, mit denen Schätzungen erheblich weniger verzerrt ausfallen als mit den gerundeten Befragungsdaten. Jahr Armutsgefährdungsquote [in %] ohne Korrektur mit Korrektur 2010 14,89 14,59 2011 16,34 15,77 2012 15,95 16,21 Ausblick Die Anwendung bestand in der korrigierten Schätzung von Armutsgefährdungsquoten. Der Ansatz ist auf alle Daten übertragbar, bei denen die Befragten offensichtlich auf glatte Werte runden, etwa bei Selbstauskünften zu Alkohol- oder Zigarettenkonsum oder bei Angaben zum Workload in studentischen Evaluationen. Hans Kiesl, OTH Regensburg ■ Jörg Drechsler, Institut für Arbeitsmarktund Berufsforschung, Nürnberg ■ L I TE R ATUR Drechsler, Jörg; Kiesl, Hans (2016). Beat the heap: An imputation strategy for valid inferences from rounded income data. Journal of Survey Statistics and Methodology, Vol. 4, No. 1, S. 22-42. Drechsler, Jörg; Kiesl, Hans; Speidel, Matthias (2015). MI double feature: Multiple imputation to address nonresponse and rounding errors in income questions. Austrian Journal of Statistics, Vol. 44, No. 2, S. 59-71. 32 | I N F O R M A T I O N U N D K O M M U N I K A T I O N Lean IT: Lean Management in IT-Organisationen Lean IT beschreibt die Anwendung von Lean Management auf IT-Organisationen. Lean IT stellt ein junges Forschungsfeld dar. Im vorliegenden Forschungsvorhaben wurde das Themengebiet strukturiert und der Begriff wissenschaftlich konzeptualisiert. Darauf aufbauend wurden im Rahmen von empirischen Studien Erfolgsfaktoren für die Einführung von Lean IT sowie Handlungsempfehlungen und ein Einführungsmodell entwickelt. Seit Jahren stehen die für IT-verantwortlichen Funktionsbereiche von Unternehmen (IT-Organisationen) unter Druck, ihre Dienstleistungen flexibel, effizient und zuverlässig zu erbringen. Es deutet wenig darauf hin, dass sich dies in naher Zukunft verändern wird. Aus diesem Grund ist es wichtig, dass auch IT-Organisationen vom Erfahrungsschatz anderer Unternehmensbereiche profitieren. Lean IT versucht die Erfahrungen von Lean Management aus der Produktion auf die IT zu übertragen und nutzbar zu machen. Unsere Forschung zum Thema Lean IT zielte auf eine anwendungsorientierte Übertragung von Lean Philosophie, Prinzipien und Werkzeugen vom Produktionskontext zum IT-Kontext ab und beschäftigte sich insbesondere mit den Einführungsmodalitäten von Lean Management in IT-Organisationen. Das Forschungsvorhaben unterstützt den Fokus von IT-Organisationen im Bereich der IT-Industrialisierung und schafft damit die notwendigen Voraussetzungen für die Entwicklung hin zur digital ausgerichteten IT-Organisation. Lean Management basiert auf den Grundzügen des Toyota Produktion Systems (auch bekannt als TPS), welches seit Mitte des 20. Jahrhunderts bei Toyota eingesetzt und seitdem kontinuierlich weiterentwickelt wurde. Lean Management kann heute als ein De-Facto-Standard in der Produktion angesehen werden. Neben der Anwendung von Lean Management in der Produktion, besteht ebenfalls Interesse, Lean Management auch bei der Erbringung von Dienstleistungen zu nutzen. An dieser Stelle setzt Lean IT an, indem es Philosophie, Prinzipien und Werkzeuge von Lean Management auf die Erbringung von Dienstleistungen der IT-Organisation überträgt. Lean IT ist als übergreifender Managementansatz definiert, der auf eine kontinuierliche Eliminierung von Verschwendungen, kontinuierliche Eliminierung von Variabilität, Erhöhung des Kundennutzens und Erhöhung der operationellen Flexibilität in allen Bereichen einer IT-Organisation hinwirkt. Inhaltlich beschäftigt sich das Forschungsvorhaben mit drei Kernfragen: 1. Was umfasst der Begriff Lean IT im Sinne einer Konzeptualisierung genau? 2. Welche Faktoren sind bei der Einführung von Lean IT zu berücksichtigen? 3. Wie kann das Management die Chancen für eine erfolgreiche Einführung von Lean IT erhöhen? Aufgrund des Mangels empirisch fundierter Literatur zum Themengebiet wurde der Fokus bei der Methodenauswahl auf empirisch-qualitative Methoden (Delphi Studie, Fallstudienforschung, Grounded Theory) zur explorativen Eröffnung des Forschungsraumes gelegt. Ein methodischer Fokus lag außerdem auf der Weiterentwicklung der Ranking-Type Delphi Methode durch „BestWorst Scaling“, einer Methode aus der Marketingforschung, die bisher nur geringe Beachtung im Forschungsfeld fand. Lean-IT-Welle ~ 1 Woche Vorbereitung ~ 2–3 Wochen Analyse ~ 2–3 Wochen Gestaltung ~ 6–8 Wochen Implementierung Abbildung 1: Phasen einer einzelnen Einführungswelle im Rahmen einer Lean-IT-Einführung Nachhaltigkeit INFORMATION UND KOMMUNIK ATION In Bezug auf Forschungsfrage 1 wurde die eingangs in diesem Bericht erwähnte Definition von Lean IT entwickelt und anhand von zwei existierenden Modellen entlang der Dimensionen „why“, „where“, „what“ und „how“ konzeptualisiert. | 33 Projektleiter Prof. Dr. Markus Westner [email protected] Kooperationspartner In Bezug auf Forschungsfrage 2 wurden Erfolgsfaktoren für die Einführung von Lean IT im Rahmen einer DelphiStudie (systematisches, mehrstufiges Befragungsverfahren zu einem komplexen Phänomen) unter Industrieexperten erhoben. Diese Erfolgsfaktoren wurden gerankt und dann anhand zweier Tiefenfallstudien weitergehend empirisch untersucht. Die Erfolgsfaktoren umfassen unter anderem: aktive Unterstützung durch das Management, klare Vision und langfristige Ausrichtung, stringentes Leistungsmanagement, Wissensaufbau und Training, Veränderungskultur und Arbeitsethik sowie aktive Einbindung der Mitarbeitenden. In Bezug auf Forschungsfrage 3 wurde ein Einführungsmodell für Lean IT mit verschiedenen Einführungswellen entwickelt. Dieses verknüpft fünf Rollen (Sponsor, Programmleiter, Navigator, Linienführungskraft und Linienexperte) mit vier Phasen jeder Welle (Vorbereitung, Analyse, Gestaltung und Implementierung; siehe Abbildung 1). Darüber hinaus wird auf die besondere Rolle der Linienführungskräfte, die bei einer Lean IT Einführung besonders stark eingebunden sind, eingegangen. Neben TU Dresden einer klaren Vision für die Organisationseinheit und dem Verständnis, an welcher Stelle Lean IT die Organisationseinheit konkret unterstützen kann, benötigen diese Offenheit, Veränderungswillen und die Bereitschaft, Verantwortung an Mitarbeitenden zu delegieren. Außerdem sollten sie über ein ausreichendes Zeitbudget für die Einführung verfügen, um ihrer gestaltenden und qualitätssichernden Funktion nachkommen zu können. Die erreichten Forschungsergebnisse erscheinen vielversprechend, um den Forschungsstrang weiterzuverfolgen. Sie bilden aus Praktikersicht eine Grundlage für einen systematisch-fundierten Einführungsprozess für Lean IT in Unternehmen. Markus Westner, OTH Regensburg ■ Jörn Kobus, OTH Regensburg ■ L I TE R ATUR Kobus, J., Westner, M., Strahringer, S.: Change management lessons learned for Lean IT implementations. International Journal of Information Systems and Project Management 5, 47–60 (2017) Kobus, J., Westner, M., Strahringer, S.: Einführung von Lean Management in IT-Organisationen. HMD Praxis der Wirtschaftsinformatik 53, 879–893 (2016) Kobus, J., Westner, M., Strahringer, S.: Lean Management of IT Organizations. A Perspective of IT Slack Theory. In: ICIS 2016 Proceedings. Dublin (2016) Kobus, J., Westner, M.: Ranking-type delphi studies in IS research. Step-by-step guide and analytical extension. In: Nunes, M.B., Isaías, P., Powell, P. (eds.) Proceedings of the 9th IADIS International Conference Information Systems, pp. 28–38. Vilamoura (2016) Kobus, J.: Demystifying Lean IT. Conceptualization and Definition. In: Nissen, V., Stelzer, D., Straßburger, S., Danie, F. (eds.) Multikonferenz Wirtschaftsinformatik (MKWI) 2016. Technische Universität Ilmenau 09. - 11. März 2016, pp. 1429–1440. TU Ilmenau Universitätsbibliothek, Ilmenau, Thür (2016) Kobus, J., Westner, M.: Lean Management of IT Organizations. Implementation Success Factors and Theoretical Foundation. In: AMCIS 2015 Proceedings. Puerto Rico (2015) Kobus, J., Westner, M.: Lean Management of IT Organizations. A Literature Review. In: PACIS 2015 Proceedings, Paper 172 (2015) 34 | I N F O R M A T I O N U N D K O M M U N I K A T I O N Universelle Energieversorgung für Funkknoten im Internet of Things Im ständig wachsenden Internet of Things (IoT) benötigen alle Funkknoten eine lokale Energieversorgung. Diese kann aus verschiedensten Quellen bezogen werden, wie beispielsweise einem klassischen Steckernetzteil, einer Autobatterie oder auch aus regenerativen Quellen wie Wind, Wasser, Sonne, Wärmedifferenz, etc. Parallel zur Entwicklung eines Communication Boards (ComBo) der Regensburger Firma XWS entwickelt das Elektronik-Labor der OTH Regensburg eine intelligente Energieversorgung, die Spannungsquellen im Spannungsbereich von 3−60V ernten, Spannungen von ±120V unbeschadet überstehen und Energie in einem weiten Temperaturbereich speichern kann. Im IoT kommunizieren Dinge miteinander ohne direkte menschliche Beteiligung. Häufig werden Sensordaten übertragen und vielfach lösen sie eine Aktion aus. So kann beispielsweise die Erdfeuchte eines Feldes oder die Temperatur in einem Raum konstant gehalten werden. Da ein Internetzugang relativ teuer ist findet viel Kommunikation zwischen Dingen wie Sensoren und Aktoren auf tieferen Ebenen statt, sogenannten Subnetzwerken, die zunehmend als Funknetzwerke ausgelegt sind. Dies kann vielfältige Gründe haben, wie das Überqueren einer Abbildung 1: IoT-Knoten in typischer Anwendung Straße oder eines fremden Grundstücks mit dem Signal. Es kann sich aber auch um allgemein abgeschiedene Bereiche handeln, wie landwirtschaftlich genutzte Fläche, ein kleines Dorf oder zivilisationsarme Gebiete wie Wüsten. In diesem Sinne laufen Entwicklungen in verschiedenen Branchen. So wurden neben der ständig fortschreitenden Ultra-Low-Power Hardware und Batterietechnik ebenfalls neue Funkprotokolle wie Bluetooth5 oder LoRa geschaffen, wobei letzteres Distanzen von bis zu 50 km überbrücken kann. In Zusammenarbeit mit der Cross Wide Service GmbH (XWS) sollen IoT-Knoten angeboten werden, die in vielfältigen Funknetzwerken mit verschiedenen Protokollen verknüpft werden können. Eine der größten Schwierigkeiten des in Abb. 1 gezeigten Gesamtkonzepts des Funkknotens gestaltet sich in der Energieversorgung. Jenseits von Infrastruktur heißt ebenfalls jenseits zentraler Stromversorgung. Während der Draht als Übermittler von Daten über weite Strecken durch Funknetze ersetzt werden kann ist dies bei Energieübertragung deutlich schwieriger. Stattdessen kann für die sparsame Hardware Energie, die am Knoten vorhanden ist, geerntet werden. Das wiederum bedeutet, dass lokale Energiequellen für die Funkknoten im Vordergrund stehen – hauptsächlich regenerative. Energieversorgung Abbildung 2: Energieversorgung, Blockschaltbild mit Spannungsniveaus Hier setzt das Projektteam im Elektronik-Labor der OTH Regensburg unter Leitung von Prof. Dr. Schubert an um eine möglichst flexible Energieversorgung zu bauen, die mit jeder Gleichspannungsquelle im sehr weiten Spannungsbereich von UIN = 3 … 60V am Eingang arbeiten kann. Spannungen > 60V würden rechtliche Komplikationen mit sich bringen. Besonders schwierig gestaltet sich der effiziente Umgang mit kleinen Spannungen in diesem Eingangsbereich, der effektiv insgesamt einen Fak60V tor von bis zu NStepDown = 2.5V = 24 skalieren kann (siehe Abb. 2). Ebenfalls besitzt die Versorgung eine Schutzabschaltung bis zu UMax = ± 120V, so dass auch unregelmäßige Spannungsquellen mit Spannungsspitzen an INFORMATION UND KOMMUNIK ATION diese Energieversorgung angeschlossen und verwendet werden können. Viele regenerativen Quellen können so lokal geerntet – und ihre Energie auch gespeichert – werden um eine autonome Operation des versorgten Systems zu ermöglichen. | 35 Projektleiter Prof. Dr. Martin Schubert [email protected] Projektmitarbeiter Alexander Pietsch (B.Eng.) Batteriepuffer [email protected] Neben dem Eingangs-Modul besteht die Energieversorgung zudem aus einem Batteriepuffer (Abb. 2), der einen Eingangsspannungsbereich von UIN/BAT = 2.6 … 6V abdecken kann, wenn das Eingangs-Modul nicht benötigt wird. Umgekehrt funktioniert auch das Eingangs-Modul ohne Batterie-Modul, wenn eine stabile Spannungsversorgung gegeben ist. Energie aus nur sporadisch verfügbaren Quellen wie der Sonne muss gepuffert werden. Nach Abwägung von Energiedichte, Leistungsdichte, sowie der Sicherheitsaspekte wurden Li-Ion Akkus mit Lithiumeisenphosphat (LiFePO4) Kathodenchemie gewählt. Diese Zellen decken ohne Beschaltung den relevanten Spannungsbereich von 2.6V < UBUS < 3.6V ab und rufen bei Erhitzung oder mechanischem Stress keine exotherme Reaktion über das Entladen hinaus hervor. Ferner deckt der mögliche Temperaturbereich von bis zu -40°C<TLiFePO <+70°C den Großteil der Witterungen im Außenbereich ab. Josef Weiß (B.Eng.), [email protected] Stefan Zenger (M.Eng.), [email protected] Studentische Hilfskräfte Sebastian Hinterseer [email protected] Changqing Yu, [email protected] Kooperationspartner XWS Cross Wide Service GmbH, Regensburg Geldgeber Zentrales Innovationsprogramm Mittelstand (ZIM) – Kooperationen, Projektform: Kooperationsprojekt (ZF) Projektlaufzeit: 16 Monate Fördersumme: 173 TEuro 4 Intelligentes Doppelakkusystem Das Batteriemanagement wird über einen Mikrocontroller gesteuert und somit durch Software definiert. Dies umfasst das Schaltverhalten im Normalbetrieb sowie zur Sicherheit (Akkuschutz) und eine Abschätzung des Ladezustands. Außerdem werden vom Controller die Spannungs- sowie Stromkurven gespeichert, die schließlich über eine serielle Schnittstelle ausgelesen und so zum Beispiel über das IoT zugänglich gemacht werden können. Die Hardware ist für den Umgang mit zwei einzelnen Akkuzellen geeignet. Bei einem neuen Akku muss erst ein gesamter Lade/Entlade-Zyklus durchlaufen werden, um die Gesamtkapazität und letztlich den Ladezustand zu ermitteln. Das intelligente Doppelakkusystem kann hierfür eine Entladung der Batterie beschleunigen ohne Energie zu verlieren, indem Ladung in die zweite Batterie umgeladen wird. Durch den hierfür benötigten DC/DC Boost-Konverter können ebenfalls beide Batterien mit nur sehr niedriger externer Spannung auf die volle Kapazität geladen werden. Leistungsfähigkeit Durch die minimale Baugröße und Low-Power Optimierung ergibt sich ein maximaler Strom von IInput ≤ 3A, der am Eingang verarbeitet werden kann. Allerdings bewegt sich der Strom bei LowPower-Applikationen im Milliampere-Bereich mit eventuellen Stromspitzen, die weniger als 3A betragen. Ausblick Es lässt sich vermuten, dass eine so universelle Energieversorgung in weit gefächerten Anwendungsgebieten Verwendung finden wird. Nicht nur in Kombination mit der Ernte von regenerativen Energien wie einer Photovoltaik-Zelle, einem Piezo- oder Peltier-Element (Wärmedifferenz), Batterien (CR2032 Knopfzellen oder Blei-Autobatterie) oder einem Windrad – sondern auch in Verbindung mit zum Beispiel einem 5V-Netzteil, wenn eine Anbindung an das 230V-Netz verfügbar ist. Martin Schubert, OTH Regensburg Stefan Zenger, OTH Regensburg Alexander Pietsch, OTH Regensburg Josef Weiß, OTH Regensburg Sebastian Hinterseer, OTH Regensburg L I TE R ATUR Georgiou, O., Raza, U.: Low Power Wide Area Network Analysis: Can LoRa scale? IEEE Wireless Communications Letters 6(2), 162-165 (2017) Jossen, A., Weydanz, W.: Moderne Akkumulatoren Richtig Einsetzen: 36 Tabellen. Ubooks, Neusäß, 1. Aufl. Edn. (2006) Ke, M.Y., Chiu, Y.H., Wu, C.Y.: Battery Modelling And SoC Estimation of a LIFEPO4 Battery. In: 2016 International Symposium on Computer, Consumer and Control (IS3C). pp. 208{211. IEEE (2016) Schubert, M.: System Contemplations for Precision Irrigation in Agriculture Taffner, F.: Circuit Development for LIFEPO4 Battery Charging From a Solar Panel that Runs at the Maximum Power ■ ■ ■ ■ ■ 36 | I N F O R M A T I O N U N D K O M M U N I K A T I O N Messung der nichtlinearen Brechzahl von Glasfasern Da eine Licht-Licht-Wechselwirkung mit Reaktionszeiten kleiner als Pikosekunden extrem schnell sein kann und um die Anzahl von Datenumwandlungen zwischen elektronischem und optischem Bereich zu verringern, wird seit Jahren die Tauglichkeit nichtlinear-optischer Prozesse zur Datenverarbeitung untersucht. Um die diese Wechselwirkung bestimmenden nichtlinearen Materialkoeffizienten zu vermessen, kann die Selbstphasenmodulation in Wellenleitern genutzt werden. In Zusammenarbeit mit der Australian National University haben wir dort mit Studenten der OTH einen entsprechenden Meßplatz aufgebaut. Um die Genauigkeit der Apparatur zu bestätigen, wurde der Nichtlinearitätskoeffizient von Standard-Singlemode-Glasfasern bestimmt, zu dessen Wert seit 40 Jahren immer wieder Veröffentlichungen erscheinen, deren Ergebnisse allerdings ziemlich streuen1. Der sich neu ergebende Wert der hier vorgestellten Glasfasermessung liegt am unteren Rand des Bereiches der publizierten Werte. Eine detaillierte Fehleranalyse zeigt, dass unsere Meßapparatur mit einem Fehler um 5 % die bisher genauesten Ergebnisse liefert. Die nichtlineare Brechzahl Meßprinzip Bei hohen Lichtintensitäten reagieren Dielektrika zunehmend nichtlinear, d. h. die dielektrische Polarisation bekommt zusätzlich zu einem linear vom elektrischen Feld abhängigen Anteil Teile, die proportional zu höheren Potenzen des elektrischen Feldes sind2. Im Glas mit seiner zentralsymmetrischen Struktur dominiert eine kubische Nichtlinearität. Als Auswirkung dieser kubischen Polarisation auf die Wellenausbreitung beobachtet man zwei Gruppen von Effekten: Frequenzmischprozesse und intensitätsabhängige Lichtausbreitung. Letztere kann man sich vorstellen als Folge einer Intensitätsabhängigkeit der optischen Brechzahl, d. h. die Lichtverteilung modifiziert ihr eigenes Ausbreitungsmedium. Zum Beispiel kann sich ein Lichtstrahl seinen eigenen Wellenleiter schreiben, mit einem „Spatial Soliton“ als selbstgeführtem Wellenfeld. Oder ein Puls in einem Wellenleiter kann über die nichtlineare Brechzahl seine eigene Phase modifizieren, Selbstphasenmodulation (SPM) genannt1. Damit kann in einem „Temporal Soliton” die Dispersion kompensiert werden und eine Pulsveränderung entlang der Ausbreitung wird vermieden. Diese Selbstbeeinflussung des Lichts basiert auf einer Brechzahl n = n0 + n2 · I, der zum linearen Anteil n0 ein von der sogenannten nichtlinearen Brechzahl n2 bestimmter, von der Intensität I abhängiger Term n2 · I zuaddiert wird. Auf Basis der nun nichtlinear werdenden Wellengleichung ist die intensitätsabhängige Lichtausbreitung theoretisch zu beschreiben. Messungen von kubisch nichtlinearen Effekten können genutzt werden, um im Vergleich mit der Theorie den Materialparameter n2 zu bestimmen. Wir haben uns für SPM entschieden, da uns keine sorgfältig dokumentierten SPM-Messungen auf Basis direkter Pulscharakterisierung bekannt sind, und uns eine erstmalige, anschauliche Darstellung des Einflusses der SPM auf Pulsverlauf und Pulsphase interessant erschien. Die zwei Charakteristika für SPM sind in Abb. 1 dargestellt. Der Puls behält seine Anfangsform während der Ausbreitung bei und ändert dabei nur seine Phase. Diese Phasenänderung ist proportional zur momentanen Puls- 1 .0 Phase Shift Pulsleistung (a.u.) 0.5 0.5 0.0 -5 0 5 0.0 Nonlinear Phase Shift (rad) Input Output Time (ps) Abbildung 1: Vergleich der zeitlichen Verläufe von Eingangs- (schwarz) und Ausgangspuls (rot) in einer Glasfaser mit der nichtlinearen Phasenverschiebung des Pulses (grün). INFORMATION UND KOMMUNIK ATION leistung, deren Verlauf sich ja als Pulsform während der Ausbreitung nicht ändert. Die drei Kurven sind praktisch gleich. | 37 Projektleiter Prof. Dr. Roland Schiek Labor Optische Übertragungssysteme Meßaufbau [email protected] Für eine direkte Untersuchung der SPM werden Eingangsund Ausgangspulse im Wellenleiter nach Betrag und Phase gemessen. Pulse mit der Telekommunikationswellenlänge 1550 nm und mit einer Dauer von 0,5 bis 6 ps aus einem Faserlaser werden vor und nach der Messfaser mit einem Frequency Resolved Gating (FROG) Verfahren abgetastet3. Aus dem dabei entstehenden Spektrogramm werden Pulsform und Phase rechnerisch zurückgewonnen. Die momentane, nichtlineare Phasenverschiebung des Ausgangspulses über der momentanen Pulsleistung gezeichnet, ergibt eine Gerade, deren Steigung den gewünschten Wert für die nichtlineare Brechzahl liefert. Geldgeber Ergebnis der Messungen an Glasfasern Es wurden verschiedene Standard Singlemode-Glasfasern aus Quarzglas (SiO2) mit Germanium-dotiertem Kernbereich mit Faserlängen von 0,2 bis 5 m vermessen. Für die verschiedenen, genutzten Pulslängen wurden keine Nichtlinearitätsunterschiede gefunden. Auch liefern 3.5 Bundesministerium für Bildung und Forschung (BMBF) Bayerische Forschungsallianz CUDOS (australisches Forschungsprogramm) Kooperationspartner Friedrich-Schiller-Universität Jena Australian National University, Canberra verschiedene Fasern nach Berücksichtigung der Germanium-Konzentrationsabhängigkeit der nichtlinearen Brechzahl die in Abb. 2 gezeigte nichtlineare Brechzahl für das Fasermaterial SiO2. Eine detaillierte Fehleranalyse ergibt den in Abb. 2 grau hinterlegten Toleranzbereich, in dem die gemessenen Werte alle liegen. Der Messfehler sinkt für größere Pulsleistungen und Faserlängen. Zusammenfassung Der elektronische und gitterdynamische Anteil der nichtlinearen Brechzahl für ps-lange Pulse im Bereich der gemesTelekom-Wellenlänge wurde zu n2 = 2,2 · 10-16 cm W sen. Die Nichtlinearitätswerte für Pnorm > 1,5 mW · m haben eine Standardabweichung kleiner als 2,6 %, zu der ein systematischer Fehler der Meßapparatur von maximal 2,8 % hinzukommt. Der Wert korrigiert die bisher angenommenen Werte um etwa 10 bis 20 % nach unten. Die SPM, in den Lehrbüchern das klassische Beispiel für einen kubisch nichtlinearen Effekt, wurde erstmals mittels genauer Pulsanalyse experimentell dokumentiert und veranschaulicht. Mit dem gemessenen n2 lassen sich alle Messungen detailgetreu simulieren. Die Arbeit stellte besondere Anforderungen an die Meßtechnik, um alle Meßungenauigkeiten zu quantifizieren. Das betraf besonders die Leistungsmessung mit Kalibrierung an der Physikalisch Technischen Bundesanstalt und die Modenfeldmessung der Wellenleiter, an der weiter gearbeitet wird. 2 3.0 n2 in 10-16 cm2/W 2.5 2.0 1.5 1.0 0.5 0 1 2 3 4 5 Pnorm in mW*m Abbildung 2: Die nichtlineare Brechzahl des Glasfasermaterials SiO2 aufgetragen über dem Produkt aus Faserlänge und Leistung. Der Mittelwert ist rot gezeichnet. Roland Schiek, OTH Regensburg ■ L I TE R ATUR 1. Agrawal, G.P.: Nonlinear Fiber Optics, Academic Press, Oxford (2013). 2. Stegeman, G.I., Stegeman, R.A.: Nonlinear Optics: Phenomena, Materials and Devices, Wiley, Hoboken (2012). 3. Trebino, R.: Frequency-Resolved Optical Gating: The Measurement of Ultrashort Laser Pulses, Kluwer, Boston (2000). 38 | I N F O R M A T I O N U N D K O M M U N I K A T I O N NoSQL Schema-Evolution in quelloffenen Software-Projekten NoSQL-Datenbanksysteme sind in der agilen Anwendungsentwicklung sehr populär geworden. Eine attraktive Eigenschaft vieler Systeme ist ihre Schema-Flexibilität, d. h. es muss kein festes Schema vorab deklariert werden, um Objekte in der Datenbank persistieren zu können. Nichtsdestotrotz legt meist der Anwendungscode ein Schema für die gespeicherten Daten fest. Um die ständige Weiterentwicklung dieses impliziten Schemas umzusetzen, werden in der Literatur Objekt-NoSQL-Mapper Bibliotheken propagiert. Diese Software-Bibliotheken unterstützen einfache Schema-Evolutionsänderungen. In diesem Beitrag berichten wir von unserer Analyse 900 quelloffener Softwareprojekte auf GitHub, einem webbasierten Dienst zur Verwaltung von Software-Entwicklungsprojekten. Bei den untersuchten Softwareprojekten handelt es sich um Java-Anwendungen, welche die Mapper Bibliotheken Objectify oder Morphia verwenden. Unsere empirische Studie zeigt, dass sich in der Praxis tatsächlich der Nachweis für kontinuierliche Schema-Evolution finden lässt. Allerdings konnten wir auch beobachten, dass Objekt-NoSQL-Mapper nicht in erster Linie zum Einsatz kommen, um die Schema-Evolution voranzutreiben, sondern um davon unabhängige Aufgaben des Datenmanagements wahrzunehmen. Für die Entwicklung von Anwendungen, die auf NoSQLDatenbanken aufbauen, werden mittlerweile dedizierte Objekt-NoSQL-Mapper angeboten. NoSQL-Datenbanksysteme haben (noch) keine standardisierte Zugriffsschnittstelle. Zwar sind in allen NoSQL-Datenbankmanagementsystemen grundlegende Operationen zum Lesen und Verändern der Daten verfügbar, jedoch unterscheiden sie sich erheblich in Syntax und Funktionsumfang. Hier können Objekt-NoSQL-Mapper die systemunabhängige Anwendungsentwicklung unterstützen bzw. überhaupt erst ermöglichen. Abbildung 1 zeigt die Handhabung an einem konkreten Beispiel. Die Java-Klasse Player in Abbildung 1 a legt die Attribute von Spieler-Objekten in einem webbasierten Rollenspiel fest. So hat jeder Player eine Identifikationsnummer (id), einen Nach- und Vornamen, sowie eine Initiale des zweiten Vornamens. Die Annotation @Entity bestimmt, dass Player-Objekte durch die Mapper Bibliothek in der Datenbank persistiert werden können, wie in Abbildung 1 c im JSON-Format dargestellt. Die Annotation @Id kennzeichnet dabei das eindeutige Schlüsselattribut für Objekte dieser Klasse. Abbildung 1 b zeigt eine refaktorisierte Player-Klasse, die aus der Fortentwicklung der Anwendungssoftware hervorgegangen ist: Das Attribut lastName wurde in surname umbenannt. Die Annotation @AlsoLoad signalisiert dem Mapper, dass diese Umbenennung zur Laufzeit, beim Laden eines Player-Objektes aus der Datenbank, geschehen soll: Indem das Attribut middleInitial aus der Klassendeklaration entfernt wurde, wird sein Wert auch beim Laden eines Player-Objektes aus der Datenbank ignoriert. Das Attribut nickname hingegen wird erst beim Laden eines veralteten Player-Objekts hinzugefügt und initialisiert. Abbildung 1 d zeigt das migrierte PlayerObjekt, das entsteht, wenn das Player-Objekt aus Abbildung 1 c mit der refaktorisierten Klassendeklaration geladen und dann wieder in die Datenbank zurückgeschrieben wird. Abbildung 1: (a, b) Java Klassen mit Objekt-NoSQL Mapper Annotationen und zugehörige persistierte Objekte (c, d). Quelle: [1] INFORMATION UND KOMMUNIK ATION Objekt-NoSQL Mapper Bibliotheken wie Morphia (für die populäre NoSQL-Datenbank MongoDB) und Objectify (für die Datenbank Google Cloud Datastore) unterstützen die Deklaration von Schema-Evolutionsannotationen wie @AlsoLoad. In unserer empirischen Analyse von 900 quelloffenen Software-Projekten auf der Plattform GitHub gehen wir der Forschungsfrage nach, inwiefern diese Schema-Evolutionsannotationen in der Praxis eingesetzt werden. Dabei betrachten wir nur Projekte mit mindestens 20 Code-Änderungen (zu Englisch Commits), die zum 04.12.2015 zugänglich waren. 900 Anzahl geänderter Java Klassen 800 700 600 | 39 Projektleiterin Prof. Dr. Stefanie Scherzinger Fakultät Informatik und Mathematik [email protected] viert und durchgängig anhand verständlicher Beispiele illustriert wird. Hier lässt sich die Vermutung anstellen, dass das Umbenennen von Attributen letztlich keine häufige Schema-Evolutionsänderung ist. Das entspricht den Ergebnissen von verwandten Studien zur SchemaEvolution in der Anwendungsentwicklung gegen relationale Datenbanken. An dieser Stelle sind weiterführende, qualitative Untersuchungen nötig, wie etwa die gezielte Befragung der Entwicklungsteams. 500 400 300 200 100 0 0 5 10 15 20 25 30 Abbildung 2: Histogramm über die Anzahl der Änderungen an Schema-relevanten Klassendeklarationen. Quelle: [1] Abbildung 2 zeigt ein Histogramm über die Anzahl der Änderungen, die Klassendeklarationen mit Mapper-Annotationen aus 648 Objectify-basierten Projekten im Laufe ihrer Entwicklungszeit erfahren haben. Zwar bleiben viele Klassendeklarationen unverändert (1 Commit), doch wird im Schnitt eine Klassendeklaration drei Mal refaktorisiert. Die Änderungen betreffen dabei überwiegend die Struktur persistierter Objekte. Einzelne Klassen erfahren sogar bis zu 60 Änderungen. Damit können wir nachweisen, dass sich das Schema im Laufe der Zeit tatsächlich evolutionären Änderungen unterliegt. Eine genauere Inspektion der Projekthistorie zeigt jedoch Überraschendes: In nur 5,6% der Projekte, die dedizierte Evolutions-Annotationen verwenden, werden diese auch für Zwecke der Schema-Evolution eingesetzt. Konkret konnten wir etwa feststellen, dass von den 648 untersuchten Objectify-basierten Projekten nur vier Projekte die Annotation @AlsoLoad zur Umbenennung von Attributen verwenden. Das ist insofern überraschend, als dass diese Annotation in der Dokumentation sehr gut moti- Die am häufigsten eingesetzten Evolutions-Annotationen dienen dazu, Methoden der Java-Klasse beim Laden bzw. Speichern eines Objekts aufzurufen (z.B. @OnLoad bzw. @OnSave). Sie werden unserer Beobachtung nach vor allem eingesetzt, um Unterstützung bei der Serialisierung und Deserialisierung von Objekten zu leisten, nicht jedoch für Zwecke der Schema-Evolution. Auch werden diese Annotationen dazu genutzt, um Zeitstempel oder Versionsnummern in den persistierten Objekten zu pflegen. In unseren Augen ist dies eine Indikation dafür, dass Software-Entwickler für diese Aufgaben noch zu wenig Unterstützung durch die Mapper Bibliotheken erfahren. Es wär an dieser Stelle interessant, die Untersuchung zum jetzigen Zeitpunkt zu wiederholen, um zu erfahren, ob sich seit Erhebung der Daten Ende 2015 Änderungen im Verhalten der Entwickler ergeben haben. Immerhin konnten die Anwendungsentwickler in der Zwischenzeit ihre Erfahrungen mit NoSQL-Technologien vertiefen. Wir sind der Ansicht, dass Studien dieser Art wertvolle Einsichten dazu liefern, mit welchen Problemen Anwendungsentwickler in der Praxis konfrontiert sind. Das hilft der angewandten Forschung, zielgerichtet vorzugehen, um relevante Probleme angehen und lösen zu können. Stefanie Scherzinger, OTH Regensburg Meike Klettke, Uni Rostock Andreas Ringlstetter, OTH Regensburg Uta Störl, HS Darmstadt Tegawendé F. Bissyandé, Universität Luxemburg ■ ■ ■ ■ ■ L I TE R ATUR 1. Data Model Evolution using Object-NoSQL Mappers: Folklore or State-of-the-Art? Andreas Ringlstetter, Stefanie Scherzinger, Tegawendé F. Bissyandé. In Proc. BIGDSE 2016. 2. Kurz erklärt: Objekt-NoSQL Mapping. Uta Störl, Meike Klettke, Stefanie Scherzinger. Datenbankspektrum, March 2016, Volume 16, Issue 1, pp 83-87. 3. Carlo Curino, Hyun Jin Moon, Letizia Tanca, Carlo Zaniolo. Schema Evolution in Wikipedia – Toward a Web Information System Benchmark. In Proc. ICEIS’08, 2008. 40 | I N F O R M A T I O N U N D K O M M U N I K A T I O N ATPs: Anomalieerkennung zum Detektieren von Advanced Persistent Threats Durch eine intelligente Auswertung von Anomalien in Event-Logs ist es möglich sicherheitskritische Aktivitäten zu erkennen, die durch herkömmliche Methoden der IT-Security nur mit extrem hohem Aufwand gefunden werden können. Im Rahmen des Forschungsprojekts PA-SIEM wurde daher ein System entwickelt, das über ein SIEM-System Log-Daten bezieht und in diesen Anomalien erkennt. Diese Erkennung erfolgt mittels statistischer Methoden sowie künstlicher Intelligenz. Hierbei werden Netzwerkdaten korreliert, um sie miteinander vergleichbar zu machen, die anschließend mittels SVMs klassifiziert werden. Einleitung Wirtschaftsspionage stellt gegenwärtig eine ernstzunehmende Bedrohung für Unternehmen und Staaten dar. Experten zufolge zielt ein wesentlicher Anteil von Cyberattacken auf den Diebstahl von Geschäftsgeheimnissen oder geschützten Informationen ab.1 Je länger ein System unerkannt von einer „fortgeschrittenen, andauernden Bedrohung“ (APT) infiziert ist, desto höher ist der Schaden des Datendiebstahls. Nach einer aktuellen (2017) Studie von FireEye wird davon ausgegangen, dass APTs im Durchschnitt 99 Tage unentdeckt bleiben. 2 Demnach ist der Schaden für Unternehmen immens. Ziel des Projektes PA-SIEM ist es, die Zeit bis zur Erkennung eines APTs so weit wie möglich zu reduzieren. In diesem Bericht werden wir hierzu auf die Verfahren der Korrelation und der SVMs eingehen. Anomalieerkennung Herkömmliche Methoden der IT Sicherheit bieten keinen ausreichenden Schutz vor APTs. Wir nehmen an, dass Schadsoftware oder manuelle sicherheitskritische Aktivität Spuren in Log-Daten hinterlässt, die von normalen Daten abweichen. Aus diesem Grund verwendet PA-SIEM das Verfahren der Anomalieerkennung zur Erkennung. So soll Evidenz für eine Infizierung des Systems geliefert werden. Sobald das System eine Anomalie erkannt hat, können Administratoren informiert und entsprechende Maßnahmen zur Systembereinigung eingeleitet werden. Nachfolgende Schäden sollen so nachhaltig verhindert oder verringert werden. Abbildung 1: Graphische Darstellung eines Spearphishing-Angriffs, der in PA-SIEM simuliert und detektiert werden kann.3 INFORMATION UND KOMMUNIK ATION | 41 Korrelationen Projektleiter Die Korrelation zweier Daten(-sätze), beispielsweise Merkmale, Ereignisse oder Zustände, beschreibt den Zusammenhang zwischen diesen. Dadurch ist es möglich, Abhängigkeiten zwischen diesen festzustellen. Für PA-SIEM werden Daten, die eine zeitliche Ordnung besitzen, in Zeitreihen zusammengefasst und anschließend korreliert. Das macht es möglich, basierend auf Mustern in den korrelierten Daten, Aussagen über das Verhalten des einzelnen Benutzers, Rechners oder Dienstes zu treffen. Einerseits ist dies als Vorverarbeitungsmethode für andere Erkennungsmethoden essenziell, andererseits können die Korrelationen selbst untersucht werden, um kontextuelle Anomalien zu erkennen. Dies bedeutet, dass ein System von seinem üblichen Verhalten abweicht, was in dem Kontext als Anomalie bewertet werden sollte, auch wenn die beobachteten Daten ohne den Kontext nicht auffällig sind. Weicht beispielsweise das Netzwerkverhalten eines Rechners im Netzwerk stark von seinem regulären Verhalten ab, ändern sich die betrachteten Korrelationen, was als Anomalie erkannt werden kann. Prof. Dr. Christoph Skornia Labor für Informationssicherheit [email protected] Projektmitarbeiter Achim Seeburger, [email protected] Timo Schindler, [email protected] Geldgeber Bundesministerium für Bildung und Forschung (BMBF) Kooperationspartner Netzwerk Software GmbH, Ismaning Frauenhofer FKIE, Bonn-Bad Godesberg Projektlaufzeit 01.10.2015 – 30.09.2017 Gesamtfördersumme 3,6 Mio. Euro SVM Support Vektor Maschinen (SVMs) sind eine gängige Methode des Maschinellen Lernens. Nach einer Trainingsphase, in welcher eine SVM mittels bekannter Daten trainiert wird, fungiert sie als Klassifikator für nachfolgende Daten. Das bedeutet, dass die SVM, nachdem sie Wissen über die zu erwartenden Daten besitzt, neue Daten mit den bekannten abgleicht und die neuen Daten logisch einer Klasse zuordnet. In PA-SIEM werden die Daten in „normal“ oder „anormal“ klassifiziert. Um die Güte der Klassifikation zu beschreiben, werden Klassifikatoren in „stark“ und „schwach“ unterteilt. In komplexen Systemen, wie Firmennetzwerken, ist es unverhältnismäßig schwierig eine künstliche Intelligenz (KI) so zu trainieren, dass sie in der Lage ist, Daten auch nur nahezu fehlerfrei zu klassifizieren. Somit ist es unrealistisch ein System zur Anomalieerkennung ausschließlich aus starken Klassifikatoren aufzubauen. Stattdessen werden viele schwache Klassifikatoren, also beispielsweise die Ergebnisse unterschiedlicher SVMs verwendet und akkumuliert, um eine aussagekräftige Klassifizierung zu erhalten. In PA-SIEM wird derzeit an einer Lösung dieses Problems mittels Hidden Markov Model (HMM) geforscht. Das heißt, mehrere schwache Klassifikatoren werden als Indizien für die Existenz eines „verborgenen“ starken Klassifikators herangezogen, der aber selbst nicht ausreichend effizient detektiert werden kann. Dieses Prinzip eignet sich besonders, um ein mehrstufiges Analyseframework aufzubauen, das den zusätzlichen Vorteil bringt, die Methode der Datenklassifizierung intelligent an die Daten anzupassen. Schluss Mit der Implementierung dieser Verfahren in einen Demonstrator ist es in einer Laborumgebung gelungen, Anomalien in Log-Daten zu erkennen, die durch simulierte Angriffe erzeugt wurden. Dies zeigt, dass die Anomalieerkennung in PA-SIEM genutzt werden kann, um die Systemsicherheit wie gewünscht zu erhöhen. Hierbei sorgt die Nutzung von Künstlicher Intelligenz dafür, dass das System in der Lage ist, sich an Netzwerke anzupassen und Bedrohungen zu finden, die bis dato unbekannt waren. Weiterhin eröffnen die Ergebnisse spannende neue Fragestellungen, beispielsweise wie nach der Erkennung eines sicherheitsrelevanten Ereignisses Evidenz gefunden wird, das gezielt auf sein Bedrohungspotenzial analysiert werden kann. Achim Seeburger, OTH Regensburg ■ L I TE R ATUR 1. Verizonenterprise. abgerufen am 15. 05. 2017 von http://www.verizonenterprise.com/resources/reports/rp_DBIR_2016_Report_en_xg.pdf. 2. M-TRENS 2017 A View From the Front Lines. FireEye (M-TRENDS). 3. Schindler , Timo ; Graml , Tobias ; Pfaller , Sebastian ; Skornia , Christoph ; Uetz , Rafael: Forensic Analysis of Real World Log Data with Graph Databases. – unpublished 2017 42 | I N F O R M A T I O N U N D K O M M U N I K A T I O N Unerkannte Angriffe oder die Nadel im Heuhaufen Sogenannte Advanced Persistent Threads (APT) sind in modernen Netzwerken eine ständige Bedrohung. 146 Tage blieb im Schnitt 2015 das erfolgreiche Eindringen in Firmennetzwerke unentdeckt. Im Projekt PA-SIEM wird die strukturierte Beschreibung von Angriffen durch eine Kill-Chain als Mechanismus zur Erkennung von Angriffen in Logdaten adaptiert, um mit Hilfe von Graphdatenbanken eine automatische Analyse der Daten zu ermöglichen. Durch eine Profilerstellung können Anomalien, die bei APTs auftreten, schnell und sicher erkannt und dadurch die Zeit bis zur Identifizierung typischer Angriffe deutlich reduziert werden. Insbesondere in den letzten zehn Jahren gab es einen signifikanten Anstieg von Advanced Persistent Threats (APTs), komplexe und zielgerichtete Angriffe, die auf bestimmte Unternehmen bzw. Person ausgerichtet sind. Aktuelle Angriffe wie auf ThyssenKrupp machen deutlich, dass eine erfolgreiche Detektion der Angriffe innerhalb von 45 Tagen dem Angreifer viel Zeit gibt, um im Netzwerk interne Daten zu exfiltrieren. Dabei gelten 45 Tage als relativ schnelle Angriffserkennung, 2015 blieben APTs im Durchschnitt sogar an die 146 Tage unentdeckt. Zur Reduzierung dieses Zeitfensters werden umfangreiche Log-Events zur Analyse verwendet, um Anomalien innerhalb der Logdaten und damit mögliche Angriffe zu erkennen. Diese Logdaten werden in der Regel bereits automatisch und umfangreich in einem Unternehmen erstellt. Innerhalb der Logdaten werden verschiedenartige Angriffe mithilfe einer angepassten Kill-Chain charakterisiert und identifiziert. Abbildung 2: Kill-Chain Mapping innerhalb einer Graph Datenbank Die Anomalieerkennung erfolgt unter anderem durch die Analyse mit Graphdatenbanken und Support Vektor Maschinen (SVM) als Verfahren zum maschinellen Lernen. Im Projekt PA-SIEM werden die Event-Log-Daten durch das Security Information and Event Management (SIEM) System Prolog (IT@Work ProLog, Netzwerk Software GmbH) aus aktuell zwei Event-Log-Qellen gesammelt: Das Security Labor (SecLab) mit 13 Arbeitsplätzen, Domaincontroller und Firewall und das Simulationsframework BREACH, das ein mittleres Unternehmen simuliert. Aus beiden Quellen werden Firwall-, Syslogund Client-Events extrahiert und aufbereitet. Alle erfassten Daten werden gemäß Bundesdatenschutzgesetz vollständig pseudonymisiert bzw. im Forschungsbereich anonymisiert. Zusätzlich können im BREACH Framework verschiedene APT-Angriffe simuliert werden. Zur Charakterisierung der Angriffe innerhalb der Logdaten wird die in Abb. 1 angepasste Kill-Chain verwendet. Die Kill-Chain bricht die Komplexität eines APT in singuläre Schritte auf, die selbst wiederum verschiedenartig ablaufen können. Jeder Eintrag bzw. Unterpunkt innerhalb der Kill-Chain bildet einen spezifischen APT ab. Abbildung 1: Implementation einer angepassten Kill-Chain mit verschiedenen Angriffsvektoren INFORMATION UND KOMMUNIK ATION Bei der Graph Analyse wird jedes Element innerhalb der Graph-Datenbank Neo4j als Knoten umgesetzt (siehe Abb. 2). Einzelne Elemente der Kill-Chain können nicht direkt auf einzelne Event-Log-Einträge zurückgeführt werden. Zwischen den Event-Knoten und den Kill-ChainElementen werden daher mehrere Zwischenschichten, sog. Event-Sequenzen, eingeführt, die weitere nötige Grade der Freiheit hinzufügen. So können z. B. auch wiederkehrende Events abgebildet werden, wie die mehrfache Exfiltration von Dateien. Dadurch ist es auch möglich, neue Logquellen zu integrieren und auf leicht abweichende Variationen von Ereignismeldungen zu reagieren. Nur durch die Kombination von Einzelevents zu Event-Sequences können außerdem komplexe LogMeldungen überhaupt abgebildet werden. In ersten Untersuchungen konnten mit dieser Implementation im BREACH-Framework simulierte Angriffe der Art „Exfiltration aller .jpg-Dateien durch Infektion mittels bösartigem pdf per Email“ erfolgreich und vollständig identifiziert werden. Weitere Angriffsvektoren werden im Laufe des Projektes implementiert und simuliert. Es ist abzusehen, dass die grundsätzliche Proof-of-Concept Methode auch diese Angriffe erfolgreich identifiziert, da die Verwendung von Event-Sequences es möglich macht, individuell auf verschiedene Angriffstypen und betroffene Systeme zu reagieren. Neben der Prozessierung der Daten innerhalb der Graph Datenbank werden Anomalien mit Support-Vektor-Maschinen untersucht. Dabei beziehen sich die aktuellen Untersuchungen vor allem auf das User-Surfverhalten, Firewall GET- und POST-Einträgen und die Analyse von Dateioperationen. Als Datenbank für alle Untersuchungen kommt die Zeitreihen-Datenbank InfluxDB zum Einsatz. Die SVMs lernen dabei das normale Verhalten von Benutzern anhand der Analyse von Event-Log-Daten und erkennen anomales Verhalten, das z. B. durch die Infizierung durch einen Trojaner erzeugt wurde. Die Forschungsergebnisse von PA-SIEM zeigen, dass Anomalien | 43 Projektleiter Prof. Dr. Christoph Skornia Labor für Informationssicherheit [email protected] Projektmitarbeiter/in Timo Schindler, [email protected] Achim Seeburger, [email protected] Geldgeber Bundesministerium für Bildung und Forschung (BMBF) Kooperationspartner Netzwerk Software GmbH, Ismaning Frauenhofer FKIE, Bonn-Bad Godesberg Projektlaufzeit 01.10.2015 – 30.09.2017 Fördersumme 3,6 Mio. Euro an der Firewall und in den Dateioperationen zu 80 – 85 Prozent erfolgreich identifiziert werden. Zwar produzieren beide Logquellen bereits sehr viele Event-Log-Daten, dennoch werden vor allem im Hinblick auf Untersuchungen mit Verfahren des maschinellen Lernens weit größere Datenmengen benötigt. Im Projekt PA-SIEM konnte gezeigt werden, dass APT Angriffe mittels Graph-Datenbanken und SVMs erfolgreich detektiert und somit die Exfiltration weiterer Daten bzw. die Ausbreitung der Angreifer im Netzwerk verhindert werden. Im weiteren Verlauf werden die gewonnen Erkenntnisse zu einem flexiblen Framework zusammengefasst, das in der Lage ist, mit verschiedenen Verfahren die Event-Log-Daten aufzubereiten bzw. zu analysieren. Timo Schindler, OTH Regensburg ■ L I TE R ATUR FireEye Inc., 2016. M-trends security report 2016. URL: https://www.fireeye.com/current-threats/annual-threat-report /mtrends.html Hutchins u.a., 2015. Intelligence-Driven Computer Network Defense Informed by Analysis of Adversary Campaigns and Intrusion KillChains Schindler u.a., 2017. Forensic Analysis of Real World Log Data with Graph Databases, Digital Forensics Research Conference Europe (Poster), 2017 Berke J., 2016. Warum Unternehmen eine eigene Cyberabwehr brauchen, Wirtschaftswoche Uetz u.a., 2017. A framework for the simulation of cyber attacks on company networks, Digital Forensics Research Conference Europe (Poster), 2017 | 45 Digitalisierung Digitalisierung ergänzt als weitere Querschnittstechnologie programmübergreifend alle unsere Forschungs-Leitthemen. Mit ihrem besonderen Innovationspotenzial treibt sie unaufhaltsam Prozesse voran, die in Unternehmen sowie im gesellschaftlichen wie privaten Bereich Veränderungen hervorrufen und Strukturen revolutionieren. Big Data, Machine Learning, Cybersicherheit und Automatisierung sind Kernbereiche unserer Forschungsansätze für digitale Lösungen, um Prozesse, Menschen, Produkte und Maschinen miteinander zu vernetzen. 46 | D I G I T A L I S I E R U N G Japter: Eine Demonstrationsplattform für Mixed-Criticality-Echtzeitsysteme mit Linux Industrielle Anwendungen verwenden immer mehr Software, die anspruchsvolle Anforderungen erfüllen muss: Zeitkritische Aufgaben, die auf keinen Fall fehlschlagen dürfen, um beispielsweise Personenschäden zu vermeiden, müssen mit rechenintensiven Komfortfunktionen kombiniert werden. Ressourcen-, Kosten- oder sogar Gewichtsgründe, aber auch die Minimierung von Wartungs- und Entwicklungskosten erfordern die Konsolidierung der Komponenten auf ein einziges System. Wir beschreiben, wie der Open Source-Hypervisor Jailhouse das bestehende funktionsreiche Allzweckbetriebssystem Linux mit architektonisch abgeriegelten kritischen Komponenten kombiniert, um die Vorteile beider Welten zu nutzen. Im Gegensatz zu bestehenden Ansätzen wird die Abtrennung messbar verstärkt. Ein fliegendes Drohnen-System (Japter, der Jailhouse-Multikopter) demonstriert die Realitätstauglichkeit des Konzepts. Es zeigt, wie schnell Probleme auf realer Hardware die theoretischen Annahmen verschiedener akademischer Konzeptansätze zerstören können – und wie die Probleme in Software, aber auch durch Änderungen an den Chips selbst gelöst werden können. Mehrkernprozessoren werden heutzutage omnipräsent in alltäglichen Geräten wie Smartwatches oder Mobiltelefonen genutzt, finden sich aber auch immer stärker in industriellen Anwendungen. Im Gegensatz zu einem Smartphone muss ein industrielles Steuersystem mit garantiertem, definiertem Verhalten auf externe Ereignisse reagieren (Echtzeitpflicht). Da dies umso schwieriger umzusetzen ist, je mehr Kerne beteiligt sind, bleiben in vielen industriellen Anwendungen Teile des Prozessors ungenutzt (vgl. Abb. 1 mit einer Drohne, die Objekte erkennt). Bestehende industrielle Software kann ebenfalls oft nicht ohne größeren Aufwand von Ein- auf Mehrkernprozessoren portiert werden und lässt deshalb Rechenkerne ungenutzt. Es liegt nahe, brachliegende Ressourcen zur Implementierung anderer Systemkomponenten und -funktionen zu nutzen, beispielsweise für Benutzerschnittstellen. Diese Abbildung 1: Die Aufteilung eines Systems in mehrere unabhängige Hardware-Komponenten ist ein bislang gängiger Ansatz, um Aufgaben unterschiedlicher Kritikalität zu kombinieren, wie die Abbildung am Beispiel einer Drohne zeigt. Komponenten dürfen sicherheitsrelevante Funktionen natürlich unter keinen Umständen stören: Als MixedCriticality-Systeme bezeichnet man Systeme, die Komponenten mit unterschiedlicher Kritikalität (gemessen an der Schwere der Konsequenzen, wenn Fehler auftreten) auf eine Hardwareeinheit konsolidieren. Wir stellen in diesem Artikel ein in Software nachgebildetes „Gefängnis“ – das Jaihouse-System – vor, das Systemteile unterschiedlicher Kritikalität auf einem Mehrkernsystem voneinander abtrennt und garantiert, dass diese sich nicht unkontrolliert beeinflussen können. Das Gefängnis Die Lösung wird als quelloffene Software in einer internationalen Kollaboration entwickelt, zu der das Labor für Digitalisierung gemeinsam mit Industriepartnern maßgeblich beiträgt. Anschaulich ist Jailhouse ein Gefängniswärter, der ungewollte Interaktionen von Gefangenen (Systeme unterschiedlicher Kritikalität) unterbindet. Aus technischer Sicht nutzt Jailhouse, ähnlich wie die bekannten Tools VirtualBox oder VMware, verschiedene Virtualisierungstechnologien moderner Prozessoren – allerdings nicht, um wie in der Cloud möglichst viele Systeme dynamisch auf einem einzigen Server laufen zu lassen, sondern um ein eingebettetes System mit Hardwareunterstützung in verschiedene fixe, statische Partitionen aufzuteilen. Jailhouse ist eng mit dem weit verbreitetem Allzweckbetriebssystem Linux verknüpft und benötigt Linux, um den ersten Systemstart durchzuführen. Anschließend werden weitere Betriebssysteme in Jailhouse-Zellen gestartet, beispielsweise bestehende industrielle Echtzeitbetriebssysteme (RTOS). DIGITALISIERUNG Diese Vorgehensweise kombiniert die Einfachheit frugaler industrieller Systeme mit dem umfangreichen Softwareökosystem von Linux, mit dem komplexe Aufgaben kostengünstig und mit wenig Aufwand gelöst werden. Das Gefängnis hebt ab Um die industrielle Tauglichkeit unseres Ansatzes unter Beweis zu stellen, wurde eine Drohnenplattform entwickelt, da diese ähnliche Anforderungen wie typische industrielle Systeme stellen: Echtzeitfähigkeit, Robustheit, Wartbarkeit und Zuverlässigkeit. Die Flugregelung ist der kritische Teil des Systems, da sie innerhalb weniger Millisekunden zuverlässig auf Bewegungen des Systems reagieren muss. Beeinträchtigungen oder gar Abstürze der Regelung führen zum Absturz des Fluggeräts. Gleichzeitig sind viele nicht-kritische rechenintensive Aufgaben zu erledigen, beispielsweise Bilderkennung, Netzwerkdatenübertragungen, Datenauswertung etc. Wie Abbildung 2 zeigt, werden diese Aufgaben durch ein Standard-Linux-System erledigt, das hermetisch abgeschottet neben dem kritischen Systemteil ausgeführt wird. Trotz der hochkomplexen Software, die im nichtkritischen Teil des Systems läuft, zeigen Messungen, dass der kritische Systemteil unabhängig vom unkritischen Systemteil mit einer sehr geringen Verzögerung reagiert, die aus praktischer Sicht vernachlässigbar ist. Echtzeittests | 47 Projektleiter Prof. Dr. Wolfgang Mauerer, Labor für Digitalisierung [email protected] Projektmitarbeiter Ralf Ramsauer, [email protected] Andreas Kölbl, [email protected] Geldgeber: Siemens AG / Corporate Research, München Kooperationspartner Prof. Dr. Daniel Lohmann, Universität Hannover Projektlaufzeit: 36 Monate Labor für Digitalisierung: https://github.com/lfd Weiteres unter: https://hps.oth-regensburg.de/maw39987/ lorarbeit in eine Jailhouse-Zelle portiert, um anschließend Langzeitmessungen verschiedener Lastprofile durchzuführen. Die Messdaten wurden sowohl ohne als auch mit Beteiligung von Jailhouse aufgenommen, um Rückschlüsse auf die Zeitverzögerungen ziehen zu können, die durch die zusätzliche Softwareschicht entstehen. Im schlechtesten Fall beträgt die beobachtete Latenz 9µs, um auf externe Ereignisse zu reagieren, was sehr gering ist, aber mit der Leistung roher, dedizierter Steuerungshardware mit optimierten Programmcode mit einer Latenz von 0.5µs schwer gleichzustellen ist. Um die Systemarchitektur präzise statistisch zu charakterisieren, wurde das im Avionikbereich weit verbreitete Echtzeitbetriebssystem RTEMS im Rahmen einer Bache- Enge Vernetzung mit den Communities Abbildung 2: Der im Rahmen des Projekts implementierte Demonstrator kombiniert mehrere Teilsysteme unterschiedlicher Kritikalität auf einer Hardware, ohne dass das Gesamtsystem Abstriche in puncto Zuverlässigkeit machen muss. Leistungsfähige Allzwecksoftware kann kostengünstig neben spezialisierten Softwaresystemen verwendet werden. Unsere Arbeiten an Jailhouse haben die Software um essentielle neue Funktionen erweitert, wodurch das Labor für Digitalisierung noch vor anderen namhaften an der Software beteiligten Unternehmen wie Huawei, Toshiba oder ARM als zweitgrößter Entwickler hervortritt. Dadurch konnte das Labor auch Einfluss auf zukünftige Rechnerarchitekturen nehmen, um Chips besser auf die Bedürfnisse von Jailhouse zuzuschneiden. Die Ergebnisse sind nicht nur relevant für aktuelle industrielle Fragestellungen, sondern beinhalten auch umfangreiche wissenschaftliche Grundlagenarbeit, die regelmäßig auf hochrangigen internationalen Konferenzen präsentiert werden. Ralf Ramsauer, OTH Regensburg ■ Jan Kiszka, Siemens AG, Corporate Research ■ Andreas Kölbl, OTH Regensburg ■ Daniel Lohmann, Universität Hannover ■ Wolfgang Mauerer, OTH Regensburg ■ L I TE R ATUR Ralf Ramsauer, Jan Kiszka, und Wolfgang Mauerer – A Novel Software Architecture for Mixed Criticality Systems. In Proceedings of the Embedded World Conference, Nürnberg, Deutschland, 2017. Ralf Ramsauer, Jan Kiszka, und Wolfgang Mauerer – Building Mixed Criticality Linux Systems with the Jailhouse Hypervisor. In Embedded Linux conference North America, Portland, USA, 2017. Ralf Ramsauer, Jan Kiszka, Daniel Lohmann, und Wolfgang Mauerer. Look Mum, No VM Exits! (Almost). ArXiv:1705.06932, 2017 (Erscheint in Proceedings of the 13th Workshop on Operating Systems Platforms for Embedded Real-Time Applications, Dubrovnik, Kroatien, 2017). Wolfgang Mauerer, Ralf Ramsauer, und Andreas Kölbl – The Many Approaches To Real-Time and Safety Critical Linux Systems. In Open Source Summit Japan, Tokyo, Japan, 2017. 48 | D I G I T A L I S I E R U N G Trainingsspiel für Handchirurgie Die Hand ist in ihrer Anatomie eine sehr komplexe Gliedmaße, bei der schon kleine Schäden gravierende Funktionsstörungen nach sich ziehen können. Umso wichtiger, dass angehende und auch erfahrene Chirurgen ihre Fähigkeiten vor einer Operation spielerisch verbessern. Das innovative haptisch und visuell unterstützende Trainingsmodell ‚HaptiVisT‘ für minimal-invasive Handchirurgie ermöglicht OP-Situationen an der Hand realitätsnah durchzuführen. Grafik 1: Exemplarischer Aufbau des Trainingssystems. Rechts: Der haptische Arm für haptische Kraftrückmeldung und Bahnverfolgung des Bohrers. Links: Die stereoskopische Kamera für das Tracking des Haptik-Phantoms. Im Vordergrund das haptische Phantom für die bimanuale Haptik und im Hintergrund der autostereoskopische 3D-Monitor. Bei hochkomplexen chirurgischen Eingriffen an knöchernem Gewebe ist es äußerst wichtig, Verletzungen von Risikostrukturen wie Nerven, Gefäße etc. zu vermeiden. Um solche Eingriffe sicher und vor allem fehlerfrei durchzuführen, sind langjährige Erfahrung sowie umfangreiche theoretische und praktische Ausbildung für Chirurgen notwendig. Derzeit werden Bohrungen im Handbereich mit Hilfe von synthetischen und echten Tierkadaverknochen trainiert. Allerdings bietet diese konventionelle Trainingsmöglichkeit eine begrenzte Realität und eine unzureichende Nachbildung menschlicher Anatomie1. Zusätzliches Praxis-Training findet nach wie vor im OP-Saal statt, was zum einen aber sehr zeitaufwändig ist (Zeit im OP-Saal, Zeit des Ausbilders) und zum anderen für die Patienten aufgrund mangelnder Erfahrung und Praxis ein erhöhtes Risiko bedeuten kann. Es gibt bereits bestehende klinische Simulatoren wie den sogenannten „VOXELMAN“ in der Zahnchirurgie. Dieser beschäftigt sich jedoch ausschließlich mit dem Fräsen am Knochen2. Im Gegensatz zu diesem Trainingssystem konzentrieren wir uns zum ersten Mal auf Bohrungen durch den Knochen, die sich stark von der Haptik zum Fräsen unterscheidet. Der Gesamtaufbau unseres ‚HaptiVisT‘-Trainingssystems mit seinen technischen Geräten (Haptik-Arm, HaptikPhantom, 3D-Monitor und Tracking-Kamera) ist in Grafik 1 dargestellt. Das haptische und visuell unterstützende Bohrmodell ‚HaptiVisT‘ basiert auf dem experimentell verifizierten Kräftemodell von Lee et al. 3, in dem die Schneidlippen eines Bohrers in mehrere kleine Schneidelemente mit festem Abstand zum Mittelpunkt unterteilt sind. Die Schubund Schneidkraft sowie die seitliche Kraftkomponente können in eine axiale Schubkraft und ein Drehmoment umgewandelt und anschließend auf den Haptik-Arm als DIGITALISIERUNG Kraftfeedback übertragen werden4. Die tatsächliche Kraft, die bei einem Bohrprozess am Knochen wirkt, wird zusätzlich experimentell durch eine Kraftmessdose bestimmt, so dass die berechnete Kraft zuerst skaliert und anschließend mit Hilfe von erfahrenen Chirurgen an die Realität angepasst werden kann. Durch eine essentielle Kollisionsdetektion zwischen Gewebe- und Bohrmodell wird festgestellt, zu welchem Zeitpunkt eine Kraft auf den Haptik-Arm übertragen wird und wann nicht. Bei Kollisionen mit dem Gewebe muss das Bohrmodell durch eine gewebeabhängige Kraftkomponente und eine Vibration des Bohrers erweitert werden, um eine vollständige Bohrsimulation zu erhalten. Die 3D-haptische Visualisierung mit Oberflächen und Volumenrendering basiert auf dem Framework Chai3d, einer Open Source C++ Bibliothek für Computerhaptik [www.chai3d.org]. Mit klinischen Volumendaten aus der Computertomografie (CT) und Magnetresonanztomografie (MRT) werden Knochen, Weichgewebe und Risikostrukturen durch halbautomatische Segmentierung und digitale Bildverarbeitung für ausgewählte chirurgische Eingriffe in einem 3D-Arbeitsbereich dargestellt. Die Visualisierung wird auf einen Single-User autostereoskopischen 3D-Monitor übertragen: Dieser 3DDisplay ermöglicht die plastische Wahrnehmung dreidimensionaler Objekte ohne betrachterseitige Hilfsmittel wie einer Brille (Autostereoskopie)5. Für die virtuelle Positionierung der Volumendaten und des haptischen Armes in einem gemeinsamen globalen Weltkoordinatensystem muss eine geeignete Umwandlung in ein lokales Koordinatensystem mittels linearer Algebra (Rotationsmatrizen und Quaternionrotation) erfolgen. Neben der 3D-Visualisierung wird ein Hand-Phantom mit einem 3D-Drucker erstellt. Dies ist notwendig, um eine bimanuale Haptik für den Chirurgen zu gewährleisten, der dadurch wichtige Markerpunkte der Hand ertasten kann. Um ein Phantom realistisch gestalten und drucken zu können, muss das Hart- und Weichteilgewebe aus klinischen CT-Daten mit einem Computeralgorithmus modelliert werden. Das 3D-Hand-Phantom wird zusätzlich von einer stereoskopischen Kamera in Echtzeit getrackt, damit sich die 3D-Visualisierung am Monitor mit der Ausrichtung des Haptik-Phantoms simultan mitbewegt und rotiert. Abschließend wird eine umfassende Bewertung der Immersionsgrade sowie eine Bewertung ethischer, rechtlicher und sozialer Aspekte des HaptiVisT-Konzepts durchgeführt, um die Benutzerakzeptanz des Systems zu erhöhen. | 49 Projektleiter Prof. Dr. rer. nat. Christoph Palm Regensburg Medical Image Computing (ReMIC) Fakultät Informatik und Mathematik Regensburg Center of Biomedical Engineering (RCBE) [email protected] Projektmitarbeiter Johannes Maier (M.Sc.) Regensburg Medical Image Computing (ReMIC) [email protected] Geldgeber Bundesministerium für Bildung und Forschung (BMBF) Kooperationspartner Szenaris GmbH (Bremen), SeeFront GmbH (Hamburg), Fraunhofer-Institut für Integrierte Schaltungen IIS (Erlangen), Universitätsklinikum Leipzig AöR (Leipzig), Universitätsklinikum Regensburg (Regensburg) Projektlaufzeit: 3 Jahre, Juni 2016 – Mai 2019 Fördersumme Gesamtprojekt: ca. 1,26 Mio. Euro Teilprojekt der OTH Regensburg: ca. 357 TEuro Homepage: http://re-mic.de Die Entwicklung eines solchen Kraftfeedback-unterstützten Trainings-Simulators für die minimal-invasive Handchirurgie ergänzt bestehende medizinische Übungsanwendungen und schließt die Lücke zu Praxiszwecken durch eine haptische und visuelle Lernerfahrung. Nach Beendigung der Trainingseinheit wird das Ausmaß der verbesserten Fähigkeit der Chirurginnen oder der Chirurgen sorgfältig ausgewertet. Diese daraus gewonnenen Lernerfahrungen können nun am Patienten angewendet werden. Im Idealfall folgt hieraus eine fehlerfreie Operation ohne Komplikationen. Johannes Maier, OTH Regensburg1 ■ Sonja Haug, OTH Regensburg2 ■ Ulrike Scorna, OTH Regensburg2 ■ Karsten Weber, OTH Regensburg2 ■ Christoph Palm, OTH Regensburg1 ■ 1) Regensburg Medical Image Computing (ReMIC) 2) Institut für Sozialforschung und Technikfolgenabschätzung (IST) L I TE R ATUR 1. Tsai M., Hsieh M., Tsai C.: Bone drilling haptic interaction for orthopedic surgical simulator, In: Computers in Biology and Medicine, 37 (12), pp. 17091718 (2007) 2. Pohlenz P., et al.: Virtual dental surgery as a new educational tool in dental school, In: J. of CranioMaxillofacial Surgery, 38 (8), pp. 560564 (2010) 3. Lee J., Gozen B. A., Ozdoganlar O. B.: Modeling and experimenta- tion of bone drilling forces, In: J. of Biomechanics, 45 (6), pp. 10761083 (2012) 4. Perret J., Vance J. M., Dumont G.: Interactive assembly simulation with haptic feedback, In: Assembly Automation, 33 (3), pp. 214220 (2013) 5. Grossmann C. M.: A new ASdisplay as part of the MIRO lightweight robot for surgical applications,In: Proc. SPIE 7524, Stereoscopic Displays and Applications XXI, 752403 (2010) 50 | D I G I T A L I S I E R U N G An Experimental Card Game for Software Testing Teaching software testing is a challenging task. Especially if you want to impart more in-depth and practical knowledge to the students. Therefore, most lecturers still teach in a classic lecture format despite the fact that this way of instruction is in any case the optimal way of instruction for today’s requirements anymore. In this contribution we present our implementation of an active learning method to deepen the knowledge in academic software testing education. We describe a card game for advanced learning that promotes students’ collaboration and knowledge exchange in a playful and competitive manner. The design of the game is based on constructive and cooperative theories. ring education. According to constructivism, the lecturer facilitates the learning process by designing effective learning environments within which the student is able to construct knowledge.2 Therefore, the research project EVELIN (Experimental Improvement of Learning in Software Engineering) investigates innovative and suitable learning arrangements that meet the current learning requirements. Games for Learning Figure 1 (left)*: Exemplary Creature Card, is played to attack another player. The attack can only be defended, when the other player uses a suitable card. Figure 2 (right)*: Exemplary Spell Card for instant sorcery, can be played solely or in combination with complementary cards for additional effects. Introduction The claim of furthering lifelong and personal learning in higher education is a more and more compulsive task for lecturers. Implementing customized learning processes and creating a learning culture that consists of collaborative elements on the one hand but individual success on the other hand is often felt as difficult and demanding.1 Especially designing learning for Software Engineering related topics is a sophisticated challenge that requires the conjunction of theoretical and practical elements of highly abstract and volatile content. Thus, the deployment of successful learning is a major hurdle as well as its preparation and implementation by the lecturer for the purpose of high quality in software enginee- Games for learning offer attractive opportunities by combining playful elements with learning content. By using game mechanics, thinking and technique, the gameful delivery of learning embeds theoretical content into a fun and engaging environment that addresses the intrinsic motivation of the learner. 3 Furthermore, games give the learner space to discover, improvise, and challenge. Research in the literature shows that this learning method is crucial to social, emotional, cognitive and even physical development when given enriching surroundings and supportive guidance. The learner gets engaged into the context-specific environment and has feelings of engagement, discovery and fun while gaining knowledge about the subject matter.3-4 Thus, an appropriate game design is crucial for effective learning. Especially for higher education of software engineering, learning games must encourage collaborative exchange and an active transfer of theoretical content to practical applications. To promote the implementation of games, we developed tailorable game components that assist the lecturer and reduces the time required for designing an appropriate game. DIGITALISIERUNG Card Game for Learning Software Testing In our current research, we focus on the design of collaborative card games for software testing to encourage learners in diminishing learning deficits. The game builds upon fundamental principles of constructivism and claims the learner to actively collaborate with the other players to self-correct own mistakes. Thus, the main learning goal is to understand basic principles of software testing, in particular static testing, by using previously conducted practical exercises. Based on the analyses and determination of individual deficits, the card game rules and goals adapt to the needs of the learner. The game is turn-based and can be accomplished either collaborative or solely. The players respectively learner can choose, which cards they play immediately and decides if the card task is played solely, with another player or with the whole team. In traditional games, luck and strategical skills are an important part, whereas in learning games often knowledge is the key criteria to advance. Thus said in single player games this is affordable, especially for multi-player games, it is highly important to create a balanced gameplay between beginners and advanced learners. Thus, we integrated collaborative elements that support joint activities to accomplish game goals. Thereby, beginners are able to learn from advanced learns by joint playing. In addition, various game strategies can be conducted, e. g. players with a lack of knowledge can keep pace with others by playing certain cards. Figure 1 and 2 illustrate sample cards of our developed deck for learning static testing for the programming language C. Conclusion First observations and discussions with learners support the effectiveness of our approach.5 Nevertheless, further evaluation is needed, especially to examine the effectiveness of the card game onto new knowledge acquisition. Currently we develop a formalism for lecturers in designing card games for academic learning and especially for a systematic integration of learning content. We want to develop a generic framework that adopts the learning content for software engineering as well as for other learning subjects, and helps the designer in a learning content oriented systematic approach for designing games for their specific needs. | 51 Projektleiter Prof. Dr. Jürgen Mottok LaS³ – Laboratory for Safe and Secure Systems [email protected] Projektmitarbeiter/in Alexander Soska (M.Sc.) [email protected] Geldgeber Bundesministerium für Bildung und Forschung (BMBF) DLR Projektträger Kooperationspartner Hochschule Coburg, Hochschule Kempten, Hochschule Aschaffenburg, Hochschule Neu-Ulm Projektlaufzeit 48 Monate Fördersumme 1,72 Mio. Euro Homepage http://www.evelinprojekt.de/ Acknowledgment This work is supported by the Federal Republic of Germany, Federal Ministry of Education and Research, BMBF grant EVELIN „Experimentelle Verbesserung des Lernens von Software Engineering”, grant identity 01PL12022F, project sponsor DLR. The network project EVELIN is part of the „Bund-Länder-Programm für bessere Studienbedingungen und mehr Qualität in der Lehre“. The Universities of Applied Sciences Aschaffenburg, Coburg, Kempten, Neu-Ulm and Regensburg are the network partners. More information under http://www.evelinprojekt.de/ or http://www.qualitäts pakt-lehre.de. Solely the authors are responsible for the content of this publication. Alexander Soska, OTH Regensburg ■ Jürgen Mottok, OTH Regensburg ■ L I TE R ATUR 1. Krug, P.: Der Stellenwert von selbstgesteuertem Lernen im Konzept des lebenslangen Lernens. In: Selbstgesteuertes lebenslanges Lernen. Behrmann D., Schwarz B., pp. 47–61. Bertelsmann, Bielefeld (2003). 2. Mottok, J., Hagel G., Utesch M., F. Waldherr F.: Konstruktivistische Didaktik- ein Rezept für eine bessere Software Engineering Ausbildung?. In: Proceedings of Embedded Software Engineering Congress (ESE 2009). Sindelfingen (2009). 3. McGonigal, J.: Reality is broken. Why games make us better and how they can change the world. Pinguin Press, New York (2011). 4. Blunt, R.: Do Serious Games Work? Results from Three Studies. In: Proceedings of eLearn, vol. 2009, no. 12. AACE (2009). 5. Soska, A., Mottok, J., Wolff, C.: An experimental card game for software testing: Development, design and evaluation of a physical card game to deepen the knowledge of students in academic software testing education. In Proceedings of 2016 IEEE Global Engineering Education Conference (EDUCON), , Abu Dhabi, UAE, pp 576-584. IEEE, Piscataway, New Jersey (2016).* ANZEIGEN | 53 Produktion und Systeme Die Forschung im Bereich Produktion und Systeme behandelt die methodische Gestaltung, simulationsgestützte Verbesserung und effiziente Realisierung komplexer Produktionssysteme durch quantitative Methoden, Informationssysteme, Automatisierung, Regelungstechnik und (teil-)automatisierte Anlagen. Neue Werkstoffe und Fragen der Material- und Verfahrenstechnik sind dabei Herausforderungen beim Design und der Herstellung neuer energie- und ressourceneffizienter Produkte. 54 | P R O D U K T I O N U N D S Y S T E M E AutoRüst: Werkzeugmaschinen effizienter rüsten durch bedarfgerechte Informationsbereitstellung Durch bedarfsgerechte und automatisierte Informationsbereitstellung soll das Rüsten von Werkzeugmaschinen effizienter und sicherer gestaltet werden. Dies ist das Ziel des Projekts „AutoRüst“ des Labors Fertigungstechnik und Werkzeugmaschinen (LFW) der OTH Regensburg in Kooperation mit der OPUS Entwicklungs- und Vertriebs- GmbH aus Kirchheim unter Teck. Interaktive 3D-Rüstdokumente sollen hierbei die Kommunikation zwischen Arbeitsvorbereitung und Fertigung erleichtern. Das Rüsten von Spannmitteln soll zudem durch ein Assistenzsystem visuell unterstützt und anschließend durch einen 3D-Scanner überprüft werden. Digitale Fertigung Für eine effiziente und schlanke Fertigungsplanung rücken rechnerintegrierte, vernetzte Prozesse immer weiter in den Vordergrund. In der CNC-Fertigung führt dies zum vermehrten Einsatz von CAD/CAM-Systemen in der Arbeitsvorbereitung. Hiermit wird unter Verwendung der 3D-Modelle von Roh- und Fertigteil, Werkzeugen und Spannmitteln sowie der Bearbeitungsmaschine die Spannsituation und jeder Fertigungsschritt detailliert geplant und programmiert (siehe Abb. 1). Durch Kollisionsanalyse und Materialabtragssimulation soll sichergestellt werden, dass im nachgelagerten Fertigungsprozess keine Komplikationen auftreten. Dies erfordert jedoch eine möglichst exakte Umsetzung der virtuell geplanten Spannsituation in die Realität (siehe Abb. 1). Abweichungen können zu kostenintensiven Kollisionen und somit Beschädigungen des Werkstücks, Werkzeugs und der Maschine selbst führen. Zur Vermeidung von Stillstandszeiten soll der Rüstprozess zudem möglichst schnell vonstattengehen. Abbildung 1: Digitale Aufspannsituation im CAD/CAM-System (links oben), reale Aufspannsituation auf der Bearbeitungsmaschine (rechts oben); Beispieldaten aus der Spannmitteldatenbank (unten) Die geplante Aufspannung muss mit allen relevanten Daten dokumentiert und von der Arbeitsvorbereitung in die Fertigung kommuniziert werden. Hierfür werden in der Praxis die im CAD/CAM-System vorhanden Spannbaugruppen auf technische Zeichnungen oder Screenshots heruntergebrochen, ggf. mit Maßen und Notizen versehen und in Papierform übermittelt. Neben dem manuellen Erzeugungsaufwand entsteht bei der Reduzierung der Informationen von 3D auf 2D in der Regel auch ein Informationsverlust. Zentrale Rüstdatenverwaltung Als Kernstück des Projekts und zur zentralen Verwaltung und Speicherung aller relevanten Daten wurde eine relationale Datenbank entworfen und implementiert. Dies ermöglicht die Verwaltung von Spannmitteln und beliebig verschachtelten Spannbaugruppen mit Stammdaten, detaillierter Typisierung sowie Zuordnung typspezifischer Sachmerkmale. Zudem werden alle weiteren für den Rüstprozess relevanten Daten wie z. B. Rüstdokumente hier verwaltet. Der Zugriff auf Datenbankinhalte erfolgt durch beliebige SQL-fähige Programme wie MS Access oder direkt vom CAM-System aus. Dateien wie Rüstdokumente und 3D-Modelle werden im Dateisystem strukturiert abgelegt. Der komfortable und schnelle Aufbau von Spannbaugruppen erfolgt in einer dafür entwickelten Oberfläche. Der Fokus liegt hierbei nicht, wie in der Baugruppenkonstruktion, auf dem vollständigen Anbringen von Zwangsbedingungen, sondern auf einer schnellen und flexiblen Konfiguration der Aufspannung. Die abgebildete Spannpratze wird beispielsweise durch das Anklicken der Einschraubposition und Angabe von Spannhöhe, Winkel und Auskraglänge vollständig positioniert. PRODUKTION UND SYSTEME Interaktive 3D-Rüstdokumente Zur Visualisierung und Kommunikation der Rüstinformationen werden digitale, interaktive Rüstdokumente automatisiert erzeugt. Diese beinhalten das eingebettete 3D-Modell der Aufspannung, die Einzelteile sowie die Stückliste, Montagehinweise und Stammdaten. Als Dateiformat kommen hierfür HTML und PDF zur Anwendung. Da es sich um Standardformate handelt, sind die Betrachtungsmöglichkeiten weitgehend unabhängig von Endgerät und Betriebssystem. Zudem bestehen weitere Interaktionsmöglichkeiten mit dem Rüstdokument wie beispielsweise Zoomen und Drehen des 3D-Modells, Messen von Positionen sowie Ausblenden und Hervorheben einzelner Bauteile. Der Mitarbeitende am Rüstplatz erhält somit detaillierte Informationen über die zu montierende Spannsituation. Visualisierung und Validierung der Aufspannung Vor allem bei komplexeren Aufbauten mit frei positionierbaren Einzelteilen ist ein Rüstdokument oft nicht ausreichend, um eine schnelle und zuverlässige Montage zu gewährleisten. Es besteht das Risiko, dass einzelne Spannmittel ungenau platziert werden und somit zu Kollisionen führen. Aus diesem Grund wurde im Projekt ein Softwaretool entwickelt, das die Anzeige der Spannmittelkonturen durch einen Laserprojektor am Rüstarbeitsplatz ermöglicht (siehe Abb. 2). Bauteile können damit ohne weiteres Messen präzise und schnell positioniert werden. Die benötigten Daten werden vom Softwaretool automatisiert aus der Spannbaugruppe extrahiert, in ein neutrales Dateiformat exportiert und in der Spannmitteldatenbank abgelegt. Die Software ermittelt zudem automatisch eine Montagereihenfolge und erkennt und gruppiert gleiche Spannmittel zu einem Montageschritt. Die typische Positioniergenauigkeit lag in ersten Tests bei ca. 0,5 mm. | 55 Projektleiter Prof. Dr.-Ing. Andreas Ellermeier Labor Fertigungstechnik und Werkzeugmaschinen (LFW) Fakultät Maschinenbau [email protected] Projektmitarbeiter Daniel Vögele (M.Sc.) Labor Fertigungstechnik und Werkzeugmaschinen (LFW) Fakultät Maschinenbau [email protected] Geldgeber Bayerisches Staatsministerium für Bildung und Kultus, Wissenschaft und Kunst (StMBKWK) Kooperationspartner OPUS Entwicklungs und Vertriebs GmbH, Kirchheim unter Teck Projektlaufzeit 36 Monate Fördersumme 242 TEuro Homepage https://www.oth-regensburg.de/fakultaeten/maschinenbau/ labore/fertigungstechnik-und-werkzeugmaschinen.html Zur Validierung der montierten Aufspannung dient ein visueller Vergleich von Ist- (reale Aufspannung) und Sollzustand (3D-Modell der Aufspannung). Dies wird durch ein 3D-Scan-System ermöglicht, das reale Oberflächen in Form von Punktewolken digitalisiert. Das System vergleicht das 3D-Modell der Aufspannung mit diesen Daten und zeigt Abweichungen sofort farbig an (siehe Abb. 2). Aktueller Stand und Ausblick Die beschriebenen Teilsysteme wurden zum Teil vollständig umgesetzt und kommen bereits an einem Demonstrator im LFW zum Einsatz. Die zentralisierte Rüstdatenverwaltung in einer Datenbank bildet die Basis des gesamten Pakets und eröffnet die Möglichkeit zur Anknüpfung weiterer Assistenz- oder Informationssysteme. Beispielsweise könnten die 3D-Daten für eine Rüstunterstützung durch Augmented-Reality-Anwendungen verwendet werden. Andreas Ellermeier, OTH Regensburg ■ Daniel Vögele, OTH Regensburg ■ Abbildung 2: 3D-Modell der Spannpratze mit Projektionskontur für die Laserprojektion (links oben); Positionierung der Spannpratze mit Hilfe von Laserprojektion (rechts oben); 3D-Scan-System zur Validierung der Aufspannung (links unten); Grafische Darstellung des 3D-Scans bei fehlerhafter Montage (rechts unten) 56 | P R O D U K T I O N U N D S Y S T E M E Forschungsschwerpunkte im Labor Lasermaterialbearbeitung Durch das Laserkunststoffschweißen können sowohl filigrane Nähte in der Mikrotechnik als auch tragfähige Verbindungen für Strukturbauteile hergestellt werden. In der Automotiv- oder der Medizintechnik-Industrie ist diese Fügetechnologie mittlerweile etabliert, jedoch sind die Anwendungsmöglichkeiten bei Weitem noch nicht ausgeschöpft. In kürzlich gestarteten Forschungsprojekten mit regionalen Industrieunternehmen und internationalen Forschungspartnern werden im Labor Lasermaterialbearbeitung weitere Potenziale gehoben. Forschungsaktivitäten und -kompetenzen im Labor Das Hauptaugenmerk liegt derzeit auf der Prozessentwicklung des Laser-Durchstrahlschweißens für Kunststoffe. Die hierfür notwendigen Laserschweißanlagen werden eigenständig sowohl konzeptioniert und konstruiert als auch in Betrieb genommen. Laserscansysteme und Spannvorrichtungen sind dabei die Hauptkomponenten. Neben der Auslegung der Bauteile und Konstruktion mittels CAD wird die Ausbreitung des Laserstrahls mit Simulationsprogrammen berechnet. Ein scannerintegriertes Pyrometer ermöglicht die Prozessüberwachung und -regelung. Die Temperatur in der Wechselwirkungszone des Laserstrahls wird so bereits während des laufenden Schweißprozesses aufgezeichnet. Neben der Elimination von Störgrößen müssen große Messdatensätze aufgezeichnet, aufbereitet und anschließend in Bezug auf den Schweißprozess interpretiert werden. Parallel dazu werden thermo-mechanisch gekoppelte FEM-Prozesssimulationen durchgeführt. Zielführende Prozessparametersätze können hierbei anhand des Temperaturfeldes ermittelt werden. Nebenbei ist der zeitliche Verlauf des Temperaturfeldes für die Interpretation des Temperatur-Messsignals sehr hilfreich. Abbildung 1 zeigt das Temperaturfeld einer Quasi-Simultanschweißung zu ausgewählten Strahlumläufen, berechnet in einer thermo-mechanischen Prozesssimulation. Forschungskooperationen mit Partnern innerhalb und außerhalb Bayerns Neben öffentlich geförderten Forschungsprojekten mit mehreren Jahren Laufzeit werden auch kurzfristig angelegte Forschungsaufträge von Industriepartnern bear- Abbildung 1: Temperaturfeld einer quasi-simultanen Laser-Durchstrahlschweißung von Polyethylene zu ausgewählten Strahlumläufen beitet. Sowohl mit kleinen und mittelständischen Unternehmen (KMUs) als auch mit Großunternehmen wird kooperiert. Die Auftragsvergabe fußt bei KMUs oftmals auf deren eingeschränkten Möglichkeiten zur Forschung und Entwicklung. Bei Großunternehmen sind es vorwiegend Machbarkeitsstudien, Prozessqualifizierungen und Schadensanalysen, die oftmals sehr kurzfristig abgearbeitet werden müssen. Demgegenüber werden in öffentlich geförderten Forschungsprojekten langfristige Ziele verfolgt. Aufbauend auf das Forschungsprojekt „3D-Schweißen“, gefördert vom Bayerischen Staatsministerium für Bildung und Kultus, Wissenschaft und Kultur, das mit den Kooperationspartnern ARGES GmbH, blz GmbH und INOTECH GmbH bearbeitet wurde, sind zwei neue Forschungsprojekte vor Kurzem genehmigt worden: PRODUKTION UND SYSTEME THECOS – Thermoplastic Composite Structures (09/2016 – 08/2019) Langfaserverstärkte Kunststoffe mit thermoplastischer Matrix stehen im Zentrum des Forschungsprojektes THECOS. Ziel ist die Erforschung eines Halbzeug-Herstellungsprozesses und des Laser-Durchstrahlschweißens von langfaserverstärkten Kunststoffen. Während bei Laserschweißverbindungen bislang die Dichtigkeit und nicht die Festigkeit im Vordergrund gestanden ist, werden in diesem Projekt langfaserverstärkte Kunststoffe mit Blick auf den Einsatz als tragende Strukturbauteile geschweißt. Im Labor Lasermaterialbearbeitung wird hierzu eine pyrometrische und scanner-integrierte Temperaturmesstechnik aufgebaut, um den Schweißprozess überwachen und ggf. regeln zu können. Das Forschungsprojekt wird gemeinsam mit dem Labor für Faserverbundtechnik an der OTH Regensburg und dem New Technologies Research Centre der University of West Bohemia bearbeitet (siehe Abb. 2). Für das im Rahmen des INTERREG IV-Programms beantragte Forschungsprojekt erhält die OTH Regensburg als Leadpartner 600.000 Euro. 3D-LASPYRINT-SCANNER (11/2016 – 11/2019) Im Forschungsprojekt 3D-LASPYRINT-Scanner wird mit Blick auf Schweißapplikationen in der Medizintechnik eine Lasersystemtechnik mit integrierter Temperaturmessung für das Schweißen von transparenten Kunststoffen erforscht. Das Projekt wird gemeinsam mit dem Bayerischen Laserzentrum und den vier Industriepartnern Gerresheimer Regensburg GmbH, Nexlase GmbH, | 57 Prof. Dr.-Ing. Stefan Hierl Fakultät Maschinenbau Wissenschaftlicher Leiter Labor Lasermaterialbearbeitung [email protected] LPKF WeldingQuipment GmbH und Micro Epsilon Messtechnik GmbH & Co. KG im Rahmen einer Förderung durch das Bayerische Staatsministerium für Wirtschaft und Medien, Energie und Technologie bearbeitet (siehe Abb. 2). Von dem Gesamtfördervolumen von 760.000 Euro erhält die OTH Regensburg als Leadpartner 232.800 Euro. Erweiterung der Forschungsaktivitäten hin zur additiven Fertigung An der Fakultät Maschinenbau werden bereits Lehrveranstaltungen zur Additiven Fertigung angeboten. Mit der Anschaffung des FDM-Druckers STRATASYS Fortus 380mc werden gegenwärtig auch erste Erfahrungen in der Prozess- und Anlagentechnik gewonnen. Die Expertise auf dem Gebiet der Laserbearbeitung, der Temperaturmesstechnik und der Prozesssimulation können hierauf direkt übertragen werden, sodass Forschungsaktivitäten auch in dieser Fertigungstechnologie geplant sind. Stefan Hierl, OTH Regensburg ■ Abbildung 2: Projektpartner in aktuell laufenden, öffentlich geförderten Forschungsprojekten 58 | P R O D U K T I O N U N D S Y S T E M E Behaviour of Wire Ropes and Rope Wires under Ultra Deep Temperature Conditions Mobile cranes are regularly operated in regions which experience ultra deep operating temperatures of down to -60˚C. In safety regulated work environments crane operations will be suspended simply because the lowest wire rope working temperature stated in the applicable standards is -40˚C. In order to analyze the behaviour under ultra deep temperature conditions tests on wire ropes as well as on rope wires will be carried out. In the following static tensile and bending tests with ropes and rope wires results will be reported which were carried out in conditions of down to -95˚C as well as at room temperature. The results of these tests can be adopted to crane wire ropes as well. Introduction Single wire bending tests Very little is published about deep temperature behaviour of wire ropes. Gräbner und Gwenetadse (1990) report about bending tests in a cold chamber. They detect a slight decrease of number of achieved bending cycles. But this is mainly caused by the behavior of the used rope lubricant. In order to analyze the behavior of the rope material itself tests on ropes as well as on rope wires will be carried out. In the following results of static tensile tests on wire ropes as well as single bending tests, rotary bending tests and tensile-tensile tests on rope wires will be reported which were carried out in conditions of down to -95˚C as well as at room temperature. Single wire bending tests are a mandatory quality assurance procedure for all rope wires before they are made into a rope. In essence, the individual wire is bend over a prescribed mandrel and has to meet certain number of bends up to wire failure. Test procedure and required number of bends are given in a standard [DIN EN 102642 (2012)]. The wire samples tested to much higher actual number of bends at room temperatures as required by the DIN EN standard (up to 3 times as high). In three temperature settings -50° C to -60° C as well as -95° C and room temperature 134 tests in total were carried out. The results for the deep temperature tests (-50˚C to -60˚C) were on average between 3 % and 30% higher than the actuals at room temperature. As a surprise it can be noted that the results for the ultra deep temperature tests (-95˚C) were on average at the same and some even above the levels of the deep temperature results. Tensile tests with wire ropes Before tensile tests half of the test samples were submerged in liquid nitrogen and cooled down to about -190°C. By help of temperature probes it was possible to measure the temperature in that ropes during the tests. Close to the broken rope sections the measured temperatures were approximately -60°C in all that tests. In both temperature settings -60°C as well as room temperature 26 tests in total were carried out. All cooled down rope samples tested on average 2.6 % higher than the reference samples tested at room temperature. Rotary bending tests For measuring the number of rotary bending cycles a test machine of so called type „IFT-Stuttgart“ was built. The principal of this type of test machine is described by Wolf (1987). The deep temperature of -80°C was arranged with liquid nitrogen. It was blown onto the expected area of wire breakage. A control unit guaranteed a constant temperature of plus minus one Kelvin. The most voluminous investigation of rotary bending tests was reported by Briem (2000). With the assistance of a regression calculation an equation was found to describe the expected number of cycles which will be used for the evaluation of the actual test results too. PRODUKTION UND SYSTEME In both temperature settings -80°C as well as room temperature 119 tests in total in seven individual amplitude stresses were carried out. The achieved number of rotary bending cycles were evaluated. The test results are shown in Figure 1. At -80°C the wire samples achieve approx. 19 % higher numbers of rotary bending cycles than at room temperature. | 59 Projektleiter Prof. Dr.-Ing. Ulrich Briem [email protected] Figure 1: Achieved number of rotary bending cycles Figure 2: Achieved number of tension-tension cycles Tension-tension tests Hypothesis Tension-tension tests were carried out with a tensiontension test machine at the laboratory for materials testing at OTH Regensburg. In the test machine the wire samples were wrapped two times around wide sheaves and then clamped. The test samples for rotary bending tests as well as tension-tension tests were taken from the same wires. In both temperature settings -80°C as well as room temperature 33 tests in total in six individual stress configurations were carried out. The achieved numbers of tension-tension cycles are evaluated commonly. The test results of the galvanized wires are shown in Figure 2. At -80°C the wire samples achieve approx. 17% higher numbers of tension-tension cycles than at room temperature. For the increase of achieved number of load cycles at 80°C the following hypothesis will be phrased: With the decrease of the temperature the wire material will be hardened. For strain controlled tests it implies that the elastic part of the total elongation decreases and the ductile part increases. Therefore the resistance against elongation increases and lower dislocation movements occur. That behaviour is investigated and published for some other materials with comparable crystal structures as rope wires, Gottstein (2001). The critical shearing strain increases with decreasing temperature. In deep temperature surroundings the ratio between the adjusted test stress level and the critical shearing strain is a little smaller for the test sample. This leads to a higher number of achievable cycles. Ulrich Briem, OTH Regensburg ■ Knut Buschmann, Unirope Limited, Mississauga, ON, Kanada ■ L I TE R ATUR Briem, U.: Umlaufbiegewechselzahlen von Seildrähten. DRAHT 51 (2000)3, S 73-77 DIN EN 10264-2: Stahldraht für Seile. Teil 2: Kaltgezogener Draht aus unlegiertem Stahl für Seile für allgemeine Anforderungen. Juni 2012 Gottstein, G.: Physikalische Grundlagen der Materialkunde. SpringerVerlag Berlin Heidelberg NewYork 2001, DOI 10.1007/978-3-66222296-6 Gräbner, P.; Gwenetadse, M.: Neue Forschungsergebnisse zur Schmierung von Drahtseilen. Forschungsbericht 1990 der Hochschule für Verkehrswesen „Friedrich List“, Dresden Wolf, E.: Seilbedingte Einflüsse auf die Lebensdauer laufender Drahtseile. Diss. Universität Stuttgart 1987 60 | P R O D U K T I O N U N D S Y S T E M E Der Mittelspannungseinfluss bei zugschwellbeanspruchten Seildrähten Bei Zugschwellversuchen kann sowohl die Amplituden- als auch die Mittelspannung frei eingestellt werden. Für eine zusammenfassende Auswertung müssen Amplituden- und Mittelspannungen durch eine einzige sogenannte äquivalente Spannung ersetzt werden. Die Bestimmung dieser äquivalenten Spannung setzt die Kenntnis des sogenannten Mittelspannungseinflusses voraus. Im Folgenden werden geeignete Modelle vorgestellt, die eine zusammenfassende Auswertung von Zugschwellversuchen mit Seildrähten und damit eine allgemeine Beschreibung ihres Materialermüdungsverhaltens erlauben. Einleitung Umlaufbiegeversuch Das Materialermüdungsverhalten von Seildrähten kann durch zwei verschiedene Versuche bestimmt werden, den Umlaufbiege- und den Zugschwellversuch. Sie werden in den nächsten beiden Abschnitten beschrieben. Die Drahtanordnung in den Versuchen, die Zonen maximaler Belastung im Drahtquerschnitt sowie die Amplitudenund Mittelspannungen sind in Abbildung 1 angegeben. Beim Umlaufbiegeversuch tritt die höchste Belastung an der Drahtoberfläche auf, wogegen beim Zugschwellversuch der gesamte Drahtquerschnitt gleich belastet ist. Beim Umlaufbiegeversuch wird der Draht ungefähr halbkreisförmig in die Prüfmaschine eingespannt und um seine Achse tordiert. Dadurch entsteht eine wechselnde Biegebeanspruchung. Die Mittelspannung ist Null. Briem (2000) hat das Lebensdauerverhalten der Drähte im Umlaufbiegeversuch umfangreich untersucht und durch Gleichung (1) beschrieben. (1) Darin heißen σb Biegespannung, δ Drahtdurchmesser und R0 Drahtnennfestigkeit. Zugschwellversuch Abbildung 1: Drahtanordnung in den Ermüdungsversuchen, Bereiche maximaler Belastungsamplitude im Drahtquerschnitt sowie Amplituden- und Mittelspannung. Die Theorie der Stützwirkung besagt, dass die weniger belasteten Querschnittsbereiche die höher belasteten stützen. Daraus folgt, dass die Dauerfestigkeit im Umlaufbiegeversuch wesentlich höher sein muss als im Zugschwellversuch. Dies ist aber nicht der Fall. Unterberg (1967) stellte daher fest, dass bei Seildrähten keine Stützwirkung auftritt. Daraus folgt, dass die Ergebnisse beider Versuche zusammenfassend ausgewertet werden können. Beim Zugschwellversuch wird der Draht durch eine schwellende Zugspannung belastet. Eine Lebensdauergleichung für zugschwellbelastete Drähte existiert bisher nicht. Mit dem im Folgenden ermitteltem Mittelspannungseinfluss wird es möglich sein, die zu erwartende Schwingspielzahl in Abhängigkeit von den Belastungsparametern Amplituden- und Mittelspannung abzuschätzen. Mittelspannungseinfluss Es existiert eine ganze Reihe von Modellen zur Beschreibung des Mittelspannungseinflusses bei Metallen. Alle diese Modelle ersetzen die Amplitudenspannung σa und Mittelspannung σm durch eine äquivalente Amplitudenspannung σq und eine Mittelspannung σm gleich Null. σq bei σm gleich Null führt zur gleichen ertragbaren Lastwechselzahl wie die Kombination aus den ersetzten Spannungen σa und σm. Im Folgenden werden drei Modelle vorgestellt, ein parabolischer Ansatz von Gerber (1874), ein linearer Ansatz von Goodman (1930) und ein exponentieller Ansatz von Kwofie (2001): PRODUKTION UND SYSTEME Gerber: | 61 (2) Projektleiter Prof. Dr.-Ing. Ulrich Briem Goodman: (3) Kwofie: (4) [email protected] Beide Ausgleichskurven sind ebenfalls in Abbildung 2 eingezeichnet. Darin heißt Rm Bruchfestigkeit des Drahtes. Auswertemethode Aufgrund der Tatsache, dass die Mittelspannung beim Umlaufbiegeversuch Null ist, kann für eine erreichte Lastwechselzahl die Biegespannung σb im Umlaufbiegeversuch als äquivalente Amplitudenspannung σq im Zugschwellversuch interpretiert und nach Gleichung (1) berechnet werden. Zugschwellversuche werden damit auf Umlaufbiegeversuche zurückgeführt. Daher ist für die Zugschwellversuche aber auch nur ein begrenzter Bereich von Mittelspannungen möglich. Dieser Bereich ist in Abbildung 2 durch Begrenzungslinien eingezeichnet. Die Ergebnisse der Umlaufbiegeversuche (Mittelspannung gleich Null) und der Zugschwellversuche (Mittelspannung innerhalb der Begrenzungslinien) sind ebenfalls in Abbildung 2 eingezeichnet. Die ebenfalls eingezeichnete Gerber-Parabel und Goodman-Gerade zeigen, dass die Versuchsergebnisse offensichtlich durch einen mit Gerber und Goodman vergleichbaren Ansatz beschrieben werden können, wobei der Exponent der bruchfestigkeitsbezogenen Mittelspannung zwischen 1 und 2 liegen muss. Durch Ausgleichsrechnung wurde der Exponent zu 1,58 berechnet. Bei angenommener Normalverteilung des Exponenten kann die Goodman-Gerade als statistische 0,01%-Kurve und die Gerber-Parabel als statistische 99,6%-Kurve interpretiert werden. Bei Nutzung des Kwofie-Ansatzes wurde der Parameter α zu 0,85 berechnet. Autor: Abbildung 2: Bereich der gewählten Mittelspannungen, Versuchsergebnisse und die Ausgleichskurven des Autors und von Gerber, Goodman und Kwofie. Zusammenfassung Zur Beschreibung des Mittelspannungseinflusses bei Seildrähten wurden zwei Ansätze untersucht, ein mit Gerber und Goodman vergleichbarer Ansatz und der Ansatz von Kwofie. Mit beiden Ansätzen lassen sich die Versuchsergebnisse sehr gut beschreiben. Mit Hilfe der gewonnenen Ansätze und der Lebensdauergleichung für Umlaufbiegeversuche können die ertragbaren Lastwechselzahlen bei Zugschwellversuchen erstmals zuverlässig abgeschätzt werden. (5) Ulrich Briem, OTH Regensburg ■ Kwofie: (6) L I TE R ATUR Briem, U.: Umlaufbiegewechselzahl von Seildrähten. DRAHT 21 (2000) 3, pp. 73-76 Gerber, W.: Bestimmung der zulässigen Spannungen in Eisenkonstruktionen. Z. Bayer Arch. Ing Ver. 6 (1874), pp. 101-110 Goodman, J.: Mechanics Applied to Engineering, Vol. 1, 9th edition. Longmans Green and Co., London 1930 Kwofie, S.: An exponential stress function for prediction fatigue strength and life due to mean stresses. Intern. Journal of Fatigue 23 (2001), pp. 829-836 Unterberg, H.-W.: Die Dauerfestigkeit von Seildrähten bei Biegung und Zug. Diss. TH Karlsruhe, 1967 62 | P R O D U K T I O N U N D S Y S T E M E DampSIM: Lebensdauerüberwachung von faserverstärkten Kunststoffen auf Basis der strukurdynamischen Werkstoffdämpfung Im Fokus der Untersuchungen steht die Strukturintegrität von Bauteilen aus faserverstärkten Kunststoffen. Im realen Anwendungsfall können diese Strukturen Schlag- oder Impactbelastungen unterliegen, die häufig kaum sichtbare oder unsichtbare Schäden im Inneren des Bauteils verursachen. Diese Schäden stellen deshalb ein besonderes Sicherheitsrisiko dar. Ziel des Forschungsprojekts ist die effiziente Detektion solcher Schäden. Als Indikator des Materialzustands wird ein vibrationsbasierter Ansatz angewendet, der zusätzlich zu den Eigenfrequenzen die strukturdynamische Werkstoffdämpfung einbindet. Einleitung Der Einsatz von faserverstärkten Kunststoffen (FVK) bietet besonders im Bereich hochbelasteter Leichtbaustrukturen oft einen entscheidenden Gesamtvorteil. FVK-Werkstoffe zeichnen sich durch hohe Steifigkeiten und Festigkeiten bei geringen Dichten aus und besitzen darüber hinaus weitere vorteilhafte Eigenschaften. Im Gegenzug zu genannten Nutzen unterliegt der Einsatz von FVKs auch Einschränkungen und Unsicherheiten. Besonders die Empfindlichkeit auf Schlag- oder Impactbelastungen stellen eine besondere Herausforderung dar, da diese häufig einen kaum sichtbaren bis gänzlich unsichtbaren Schaden im Bauteilinneren zurücklassen. Diese Schäden prägen sich zumeist als Delaminationen Abbildung 1: Darstellung der grundlegenden Zusammenhänge im Forschungsvorhaben DampSIM. Impactbelastungen verursachen Delaminationen im Bauteilinneren der FVK-Strukturen und der Einfluss dieser Schäden auf die modalen Parameter wird empirisch analysiert. aus und vermindern die Druck- und Dauerfestigkeit der Struktur signifikant.1 Ziel des Forschungsvorhaben Damp SIM ist die Erkennung solcher Barely Visible Impact Damages (BVID). Hierfür wird eine vibrationsbasierte, zerstörungsfreie Messmethode genutzt und im Besonderen die vorliegende Werkstoffdämpfung betrachtet. Die grundlegenden Materialuntersuchungen im Forschungsvorhaben liefern die Basis für die Ausarbeitung eines Strukturüberwachungssystems, das in impactgefährdeten Bauteilen zum Einsatz kommen kann. Forschungsvorgehen Um die Eignung der Materialdämpfung als Zustandsindikator zu untersuchen, wurden verschiedene Probekörpertypen untersucht, deren geometrische Form über die Projektlaufzeit an Komplexität zunimmt. Um die Grundprinzipien zu erarbeiten, wurden stabförmige Probekörper mittels verschiedener Fertigungsverfahren präpariert. Um das vibrationsbasierte Verhalten einer Struktur zu charakterisieren, werden typischerweise die modalen Parameter genutzt. Im vorliegenden Fall wurden die Eigenfrequenzen, die zugehörigen modalen Dämpfungen und wenn möglich die Eigenformen experimentell bestimmt (Abb.1). Um das Schwingverhalten von Leichtbaustrukturen zu erfassen, bieten sich laserbasierte Messsysteme an. Außerdem wurden Erstversuche mit einem kleinen Sensorsystem gestartet, das potentiell in die Struktur integriert werden kann. Die durch die Messung erhaltenen Signaldaten werden durch Matlab- und Python-basierte Programmskripte aufbereitet und die modalen Parameter berechnet. Die Auswertung der Werkstoffdämpfung stützt sich auf die Methode der Halbwertsbreite, die eine Dämpfungsberechnung im Frequenzspektrum erlaubt. 2 Nach diesen Messungen wird in die Probekörper eine reproduzierbare und definierte Impactbelastung durch den Einsatz eines Schlagpendels eingebracht und die modalen Parameter PRODUKTION UND SYSTEME | 63 Projektleiter Prof. Dr.-Ing. Ingo Ehrlich Labor für Faserverbundtechnik [email protected] Projektmitarbeiter Christian Pongratz [email protected] Geldgeber: Bayerische Forschungsstiftung (BFS) Kooperationspartner Kooperatives Forschungsprojekt zwischen dem Labor für Faserverbundtechnik und dem Sensorik-ApplikationsZentrum der OTH Regensburg sowie der Reinhausen Power Composites GmbH und der Maschinenfabrik Abbildung 2: Versuchsaufbau zur experimentellen Messung der modalen Parameter mithilfe eines Laser-Scanning-Vibrometers (links) und dem Aufbau zur definierten und reproduzierbaren Impactschädigung der Probekörperstrukturen mithilfe eines Schlagpendels (rechts). Reinhausen GmbH Projektlaufzeit: 36 Monate Fördersumme: 444 TEuro Homepage: https://www.oth-regensburg.de/lft erneut erfasst (Abb.2). Aus einem Vergleich des Schwingverhaltens vor und nach der Schädigung kann nun ermittelt werden, welche modalen Parameter für eine Zustandsüberwachung der Struktur geeignet sind. Diese zentralen Untersuchungen werden durch qualitätssichernde Analysen wie Ultraschalluntersuchungen, Schliffbildmikroskopie und Faservolumengehaltsbestimmungen begleitet. Da FVKs eine Vielfalt an Material- und Werkstoffkombinationen bieten und somit die Eigenschaften veränderlich sind, wurden Probekörper aus verschiedenen Lagenaufbauten, Fasertypen, Geweben und Halbzeugen untersucht. Nach Abschluss der Untersuchungen an stabförmigen Strukturen wurde die Probekörpergeometrie gewechselt und plattenförmige sowie abschließend rohrförmige Strukturen analysiert und jeweils neue hinzugekommene Aspekte betrachtet. Vibrationsbasierte Zustandsmessung Für den Einsatz eines vibrationsbasierten Zustandssystems kann gezeigt werden, dass sich die Werkstoffdämpfung als Zustandsindikator anbietet. 3-4 Aufgrund der Impactbelastung entstehen Delaminationsflächen, die als neue Reibflächen schneller zum Abklingen einer Schwingung führen und so die vorliegende Dämpfung ansteigen lassen. Im Vergleich zu den bisher häufig eingesetzten Systemen auf Basis der Eigenfrequenzen eignet sich die Werkstoffdämpfung bei den untersuchten Strukturen oft besser, bietet mindestens jedoch einen nützlichen Mehrwert, da sich schädigungsbedingte Frequenzänderungen oft im Bereich der Frequenzauflösung der Messsysteme abspielen. Als Einschränkung muss genannt werden, dass es sich bei der Werkstoffdämpfung um einen der sensibelsten modalen Parameter handelt und diese somit auch verschiedensten Quereinflüssen unterliegt. Werden solche Quereinflüsse minimiert oder für reale Anwendungen erkannt und kompensiert, stellt diese hohe Sensibilität jedoch auch den Grund für den besonders vorteilhaften Einsatz als Zustandsindikator dar. Aufgrund der Kombinationsvielfalt bei FVKs können keine allgemeingültigen Modelle oder Referenzen aufgebaut werden, für einige ausgewählte Varianten wurden jedoch Referenzdatenbanken erstellt. Für einen anwendungsnahen Einsatz kann der Vergleich mit solchen Datenbanken und dadurch eine Zustandsaussage jedoch nicht immer erfolgen, da auch kleinere Unterschiede im Fertigungsprozess das Schwingverhalten der Struktur verändern. Hier ist eine bauteilspezifische Überwachung im Rahmen einer Fingerprinting-Methode oder eines kontinuierlichen Lifetime-Monitorings denkbar. Ingo Ehrlich, OTH Regensburg ■ Labor für Faserverbundtechnik Christian Pongratz, OTH Regensburg ■ Labor für Faserverbundtechnik L I TE R ATUR 1. Wahab, M.A.; Jabbour, T.; El-Dahabi, F.: Analysis of the dynamic behavior of composite plates subjected to impact. Mechanics & Industry, Vol. 14, No. 4 (2016) 2. Dresig, H.; Holzweißig, F.: Maschinendynamik. 9. neu bearbeitete Auflage, Springer-Verlag, Berlin/Heidelberg (2009) 3. Pongratz, C., Ehrlich, I.: Structural Dynamic Analysis of Thin Com- posite Plates Using Noncontact Measurement and Excitation. Applied Research Conference 2016, pp. 351-358 (2016) 4. Pongratz, C.; Schlamp, M.; Jungbauer, B.; Ehrlich, I.: Detection of Delamination Damages in Thin Composite Plates using Noncontact Measurement of Structural Dynamic Behavior. Athens Journal of Technology & Engineering, Vol. 3, No. 4, pp. 315-331 (2016) 64 | P R O D U K T I O N U N D S Y S T E M E Man Machine Interface im industriellen Umfeld: Entwicklung und Integration einer Gestensteuerung für die Mensch Roboter Kooperation Die direkte Zusammenarbeit von Mensch und Roboter soll zukünftig die Stärken beider Interaktionspartner vereinen. Bereits in aktuellen Fahrzeugen (BMW 5er und BMW 7er) integriert ist die bildbasierende Gestensteuerung eine Möglichkeit, Eingabebefehle an das maschinelle System zu übermitteln. Größter Vorteil ist bei diesem Man Machine Interface (MMI) die kontakt- und lautlose Eingabe im freien Raum.1 Aufgrund dessen könnte sich ein solches System gut in das industrielle Umfeld einfügen und zudem eine ergonomische Steuerung ermöglichen. Ziel des Projektes war, einen geeigneten Hardwareaufbau an einem bestehenden Arbeitsplatz für die kollaborative Robotik zu finden, geeignete Gesten für die Prozesssteuerung auszuwählen, eine Gestenerkennungssoftware für dieses Umfeld zu entwickeln und das Gesamtsystem anhand einer Evaluierung zu beurteilen. Konzeptfindung Gestenerkennung Im Forschungsprojekt wurde zunächst eine Umfrage zur Auffindung möglicher Paarungen von Geste und entsprechenden Prozesssteuerungsbefehl durchgeführt, sodass eine möglichst intuitive Eingabe gewährleistet werden kann. Den 52 befragten Personen wurde bei den einzelnen Fragen die entsprechende Situation erklärt und welcher Prozessschritt eingeführt werden soll. Aus den Umfrageergebnissen ergibt sich zum Beispiel zum weiteren Vor- und Zurückspringen in den einzelnen Prozessschritten ein zeigender statischer Daumen nach links bzw. nach rechts. Als Sensor für die bildbasierende Gestensteuerung wird eine günstige Tiefenkamera, die Microsoft Kinect, benutzt, die auf einer Infrarot-Technik basiert. 3 Die Blickausrichtung und Anbringung am Arbeitsplatz war so zu wählen, dass der Arbeitsplatz weiterhin sehr individuell gestaltet werden kann. Da eine direkte Ausrichtung auf den Menschen im Rahmen der Digitalisierung und Vernetzung evtl. unangenehm erscheint, wurde dies ebenfalls in der Umfrage geprüft. 2 42 % der Befragten lehnen eine direkte Kameraausrichtung auf die eigene Person ab. Deshalb ist die Szene ähnlich wie im Kraftfahrzeug von oben zu betrachten, sodass der Mensch nicht durch sein Gesicht identifizierbar ist und der Akzeptanzwert des Systems steigt. Die meisten bildbasierenden Gestensteuerungen basieren auf dem Vorgehen mit den drei Hauptprozessschritten in Abbildung 1.1 Im ersten Schritt ist die menschliche Hand aus der betrachteten Aufnahme (siehe Abbildung 2) zu segmentieren. Durch die Verwendung einer Tiefenkamera ist es möglich, eine imaginäre Box im Raum festzulegen. Objekte die sich in diesem Quader befinden, werden als Hand angenommen. Anschließend werden bestimmte Keypoints, wie zum Beispiel der Handmittelpunkt, Fingerspitzen oder der Verlauf von Fingerspitze zur Handfläche, ermittelt. Mithilfe dieser Koordinaten werden in der Feature Extraction gewisse Eigenschaften der Hand ermittelt, um diese anschließend für die statische und dynamische Gestenerkennung zu verwenden. Im letzten Prozessschritt der Klassifikation wird abschließend versucht, anhand der aktuell ermittelten Eigenschaften und Machine Learning Algorithmen eine gezeigte Geste zu erkennen. Als Klassifikatoren wurde ein Neuronales Netzwerk und eine Support Vektor Machine (SVM) für die statische Gestenerkennung benutzt. Die dynamischen Gesten werden mittels Hidden Markov Modellen und dem zeitlichen Bewegungsverlauf des Handmittelpunktes klassifiziert. Abbildung 1: Die wesentlichen Schritte in der bildbasierenden Gestenerkennung. PRODUKTION UND SYSTEME | 65 Projektbetreuung Quirin Tyroller, Vorentwicklung Produktion, BMW Group, München Prof. Dr. Gareth Monkman, OTH Regensburg Projektmitarbeiter Benjamin Pielmeier, OTH Regensburg Projektlaufzeit: 6 Monate visuellem Feedback durchgeführt sowie eine abschließende Beurteilung des Systems eingeholt. Das grundsätzliche Konzept wurde sehr positiv bewertet und das visuelle Feedback hat den Probanden beim Zeigen der Geste eine gute Hilfestellung zur Selbsteinschätzung gegeben. Im zweiten Schritt wurden die Klassifikatoren mit einer zufälligen Reihe von 180 Gesten getestet. Die durchschnittliche Genauigkeitsrate ist beim Neuronalen Netz mit 90,6 % höher als bei der SVM mit 88,5 %. Die Trefferquote liegt im Mittel bei 97 % und bei der SVM bei 91 %. Das Verfahren zur Klassifikation von dynamischen Gesten zeigt unzureichende Ergebnisse, da die durchschnittliche Genauigkeitsrate bei 62,0 % liegt, wobei hier eine Verbesserung des Handmittelpunktsverfahrens ebenfalls bessere Werte ermöglichen könnte. Ausblick Abbildung 2: Die Tiefeninformationen als Grauwertbild (oben) und die daraus segmentierte menschliche Hand (unten). Evaluierung Abschließend wurde im Forschungsprojekt das System mit zehn Personen getestet. Im ersten Schritt wurde ein Trainingsdatensatz mit fünf Teilnehmenden für die Klassifikatoren erstellt, ein Zeigen der Gesten mit und ohne Der Grundstein für weitere Untersuchungen wie dem Vergleich zu anderen Steuerungsmöglichkeiten wie einer Spracheingabe ist hiermit erstellt. Der Mehrwert einer intuitiven Gestensteuerung in der kollaborativen Robotik liegt in der Erweiterung der Prozessfähigkeit durch die menschliche Entscheidungsmöglichkeit, weshalb dieses MMI für technische Montageprozesse mit dem Roboter weiterentwickelt werden sollte. Benjamin Pielmeier, OTH Regensburg ■ Quirin Tyroller, Vorentwicklung Produktion, BMW Group ■ Gareth Monkman, OTH Regensburg ■ L I TE R ATUR 1. Kraiss, Karl Friedrich (Herausgeber): Advanced Man-Machine Interaction: Fundamentals and Implementation. Signals and Communication Technology. Springer-Verlag Berlin Heidelberg, Berlin, Heidelberg, 2006, ISBN 3-540-30618-8. 2. Tanriverdi, Hakan: Warum überkleben so viele Menschen ihre Web- cam?, http://www.sueddeutsche.de/digital/die-antwort-warumueberkleben-so-viele-menschen-ihre-webcam-1.3132608, besucht am 14.01.2017. 3. Premaratne, Prashan: Human Computer Interaction Using Hand Gestures. Springer Singapore, Singapore, 2014, ISBN 978-981-4585-68-2. 66 | P R O D U K T I O N U N D S Y S T E M E Entwicklung eines autonomen, RTK-GPS-gestützten Systems zur zentimetergenauen Bodenmarkierung Für viele Anwendungen von Automatisierung im Außenbereich ist eine exakte Positionierung des Fahrzeuges erforderlich. Mögliche Einsatzbereiche sind unter anderem Bodenmarkierungen oder Bodenprobeentnahmen. In dieser Bachelorarbeit wurde ein System auf einer mobilen, outdoortauglichen Roboterplattform der Firma Innok Robotics GmbH entworfen und umgesetzt. Ziel war es, anhand dieses Aufbaus im Praxistest zu überprüfen, ob eine zentimetergenaue Aufbringung von Bodenmarkierungen auf Teer oder Rasen möglich ist. Ferner wurden weitere mögliche Einsatzzwecke sowie deren Herausforderungen betrachtet. Viele Anwendungen mobiler Robotik im Außenbereich benötigen eine genaue Positionierung des Systems. Häufig ist eine Genauigkeit im Zentimeterbereich gefordert. Möglich wird dies durch RTK-GNSS (Realtime Kinematic – Global Navigation Satellite System), auch RTK-GPS genannt. Durch diese Technik lässt sich unter guten Bedingungen sowie mit einem entsprechenden Empfängersystem eine millimetergenaue Positionsbestimmung erreichen. Herkömmliche GPS-Systeme erreichen hingegen nur eine Genauigkeit im Meterbereich. Abbildung 1: Alexander Boos, Innok Robotics – Mittelkreis Fussballfeld Durch diese Voraussetzung ist es nun theoretisch möglich, mobile Robotersysteme im Außenbereich präzise zu positionieren. Damit erschließen sich neue Einsatzgebiete für solche Robotersysteme beispielsweise in der Landwirtschaft für die Entnahme von Bodenproben (Bodenbeprobung) oder im Baugewerbe für die Bodenmarkierung von Straßen oder Plätzen. PRODUKTION UND SYSTEME Umsetzung Um zu überprüfen, ob solch eine Methode die von der Industrie geforderte Genauigkeit von bis zu einen Zentimeter oder weniger erreichen kann, wurde ein Testsystem aufgebaut. Dazu wurde von Innok Robotics GmbH aus Regensburg das Fahrzeug „Innok Heros“ ausgewählt. Das Fahrzeug, eine eigens für den Außenbereich entwickelte Forschungs- und Entwicklungsplattform, ist äußerst robust sowie ausreichend dimensioniert, um auch schwere Aufbauten durch das Gelände navigieren zu können und sich dennoch präzise steuern zu lassen. Auf dem Fahrzeug wurde neben einem RTK-GPS-Empfänger eine Markiereinrichtung verbaut. Das Herzstück bildet die im Rahmen der Abschlussarbeit entwickelte Auswerte- und Ansteuereinheit. Hier werden anhand der aktuellen Positionsdaten sowie der vorgegebenen Route die Fahrbefehle für die Roboterplattform generiert und über den CAN-Bus übertragen. Um die Genauigkeit des Systems zu testen, wurden mögliche Einsatzfelder analysiert, die eine präzise Navigation verlangen. Dazu gehören hauptsächlich die Landwirtschaft mit Aufgaben wie Entnahme von Bodenproben oder der Bausektor mit Markierung von Straßen, Plätzen oder Flughäfen. Darauf aufbauend wurden Testszenarien entworfen, die mögliche Manöver für solche Aufgaben beinhalteten. Diese sind unter anderem das Abfahren langer gerader Linien oder Kreisbahnen sowie die Wiederholgenauigkeit-Tests. Anhand der Testergebnisse wurde das System mehrfach optimiert. Die abschließenden Tests ergaben eine Positionier- und Wiederholgenauigkeit von knapp unter einem Zentimeter bei einer Fahrgeschwindigkeit von 0,8 m/s. Je nach zukünftigem Einsatzzweck ist es möglich und sinnvoll, die Steuerung um weitere Sensoren wie Laserscanner oder Kamerasysteme zu erweitern. Dadurch kann die Steuerung noch präziser werden oder spontanen Hindernissen ausweichen. | 67 Betreuer Prof. Dr. Gareth Monkman, MRU, OTH Regensburg Dipl-Ing. Alwin Heerklotz, Innok Robotics Innok Robotics GmbH Bodenhüllweg 10 | 93164 Münchsried [email protected] Demoanwendungen Zur Demonstration der Fähigkeiten des Systems wurde eine Beispielanwendung implementiert. Dabei kann das System an jedem beliebigen Ort die Linien eines Fußballfelds auf den Boden aufbringen (Abb. 1). Das Fahrzeug muss dazu nur so ausgerichtet aufgestellt werden, dass genügend Platz in Längs- und Querrichtung ist. Auf Tastendruck wird ein Jugend-Spielfeld innerhalb von 15 Minuten auf dem Rasen oder Teer aufgebracht. Falls durch Regen oder heftige Spielweise die Markierung erneuert werden muss, kann dies auf erneuten Tastendruck hin erfolgen. Außerdem ist es möglich, eine beliebige Strecke handgesteuert vorzugeben, zu speichern und nachfolgend beliebig oft erneut automatisch abzufahren. Das Unternehmen Innok Robotics entwickelt eigene Produkte im Bereich Servicerobotik und steht seinen Kunden als Lieferant sowie als Dienstleister für Forschungs- und Entwicklungsprojekte zur Verfügung. Durch die langjährige Erfahrung kann auf umfangreiches Know-how zurückgegriffen werden, dessen breitgefächerte Grundlage im Unternehmen die Ingenieurkompetenzen Elektrotechnik, Informatik und Maschinenbau bilden. Franz Gut, OTH Regensburg ■ ANZEIGEN ANGEWANDT FORSCHEN AN DER ANGEWANDT FORSCHEN AN DER OTH REGENSBURG OTH REGENSBURG Institut für Angewandte Forschung Institut für Angewandte Forschung und Wirtschaftskooperationen (IAFW) und Wirtschaftskooperationen (IAFW) www.oth-regensburg.de Automatisierung, Vernetzung und Elektrifizierung mobiler Maschinen Eintauchen in die faszinierende Welt der Mikro- und Leistungselektronik Wir suchen Techniker, Bachelor und Master (m/w) in den Bereichen Elektro- und Informationstechnik, Informatik, Mikrotechnologie, Physik und Wirtschaftsingenieurwesen für unsere Entwicklung und das Projekt- und Prozessmanagement. Darüber hinaus bieten wir die Möglichkeit, bei uns Praktikums- und Abschlussarbeiten durchzuführen. Auch den betrieblichen Teil eines dualen Studiums der Fachrichtungen Mechatronik, Elektro- und Informationstechnik können Sie bei uns absolvieren. Unsere aktuellen Stellenangebote finden Sie auf unserer Homepage unter: www.sensor-technik.de/karriere/stellenangebote Sensor-Technik Wiedemann GmbH • Am Bärenwald 6 • 87600 Kaufbeuren • Telefon: +49 8341 9505-0 • Telefax: +49 8341 9505-55 Personalabteilung • [email protected] • Internet: www.sensor-technik.de | 69 Sensorik Sensorik ist für nahezu alle Branchen eine wichtige Schlüsseltechnologie, deren Bedeutung permanent wächst. Als Querschnittstechnologie durchdringt Sensorik alle unsere Leitthemen. In der Energiewirtschaft und der Gebäudeautomatisierung kommt sie ebenso zum Einsatz wie in der Produktionstechnik oder der Medizintechnik. Die Entwicklung von (miniaturisierten) Sensorsystemen liefert neuartige Anwendungskonzepte, die in fast allen Bereichen unseres Alltags zunehmend an Bedeutung gewinnen, da sie unabhängig von menschlichen Eingriffen Steuerungs- und Regelungsfunktionen übernehmen können. 70 | S E N S O R I K SPR-Imaging zur Zustandsüberwachung von Leistungstransformatoren Die Oberflächenplasmonenresonanzspektroskopie (SPR) ist eine hochempfindliche Messmethode, die es erlaubt, Gase und Flüssigkeiten zerstörungs- und markierungsfrei in Echtzeit zu analysieren. Bisher vornehmlich im Labormaßstab in der Bioanalytik und dem Wirkstoffscreening eingesetzt, soll diese Technologie nun miniaturisiert und für weitere Anwendungsgebiete zugänglich gemacht werden. Dazu wird ein kompakter Micro-Opto-Electro-Mechanical Systems Sensor (MOEMS) entwickelt, der mit Hilfe des SPR-Imaging Änderungen der chemischen Zusammensetzung verschiedener Flüssigkeiten inline messen kann. Einleitung Die permanente Überwachung von ölisolierten Leistungstransformatoren wird immer wichtiger. Durch den stetigen Ausbau der regenerativen Energien wird die Stromversorgung durch die damit verbundenen Lastschwankungen und extremen Spannungsspitzen enorm belastet. Dadurch altern das Isolieröl und die Transformatoren wesentlich schneller. Bisher erfolgt die Überprüfung der Transformatoren in einem zeitbasierten Wartungsmodell. Tritt zwischen den Wartungsintervallen ein Fehler auf, wird dieser eventuell nicht rechtzeitig erkannt. Dies führt im schlimmsten Fall zur vollständigen Zerstörung des Transformators. Messprinzip Bei der SPR-Spektroskopie wird eine wenige Nanometer dicke Goldschicht über ein Glasprisma mit monochromatischem, p-polarisiertem Licht bestrahlt und das reflektierte Licht von einem Photodetektor aufgenommen (Abbildung 1). Direkt auf der Goldschicht wird eine Flusszelle angebracht, durch die sich das zu untersuchende Abbildung 1: SPR-Sensor; links: Das an der Goldschicht reflektierte Licht wird von einem Bildsensor erfasst. rechts: SPR-Kurven für zwei Stoffe mit verschiedenen Brechungsindizes. Medium über die Goldoberfläche bewegt. Unter einem bestimmten Einstrahlwinkel ist ein Minimum des reflektierten Lichtes zu erkennen. Der Grund dafür ist die Anregung von Oberflächenplasmonen, weshalb dieser Winkel auch SPR-Winkel genannt wird. Dieser ist unter anderem abhängig vom Brechungsindex des Analyten1. Somit können mit der SPR-Spektroskopie Brechungsindexänderungen eines Mediums von bis zu 10-6 RIU (Refractive Index Unit) detektiert werden. Das SPR-Imaging bietet gegenüber der konventionellen SPR-Spektroskopie den Vorteil, mehrere einzelne Messungen parallel durchführen zu können2. Durch die flächenaufgelöste Detektion des reflektierten Lichtes können somit viele verschiedene Stoffe eines Analytmediums gleichzeitig erkannt werden. Messungen Auf die Goldschicht wird eine Matrix mit mehreren Referenz- und Rezeptorspots aufgebracht. Da die SPRSpektroskopie extrem temperaturabhängig ist (eine Änderung der Temperatur um 1 K bewirkt eine Änderung des Brechungsindexes von ca. 10-3 RIU), wird bei einer Signalmessung jedem Rezeptorspot mindestens ein benachbarter Referenzspot zugewiesen. Die Rezeptorspots sind in der Lage einzelne Stoffe des Analyten in der Flusszelle spezifisch zu binden. Mit Hilfe einer leistungsfähigen, monochromatischen Boardlevelkamera wird die Abbildung der Goldschicht direkt an einen Rechner übertragen und dort verarbeitet. Brechungsindexänderungen zeigen sich dann als Änderung der Intensitätswerte des aufgenommenen Kamerabildes. Mit Hilfe eines Klimaschranks wurde für verschiedene Kameras der Dunkelstrom nach dem EMVA1288 Standard bestimmt. Dafür wurde bei 15 verschiedenen Umgebungstemperaturen im Bereich von - 20 °C bis + 50 °C und jeweils 200 äquidistanten Belichtungszeiten das Dunkel- SENSORIK signal ermittelt. Somit kann für jede Kamera eine Aussage darüber getroffen werden, bis zu welcher Temperatur das Verhältnis von Dunkelsignal und Messsignal in Ordnung ist. Um die Goldoberflächen spezifizieren zu können, wird jeweils eine sogenannte SPR-Kurve mit Hilfe eines Referenzmessplatzes aufgenommen. Dazu wird die Intensität des reflektierten Lichtes bei verschiedenen Einfallswinkeln des Lichtes ermittelt und gegeneinander aufgetragen (Abbildung 1). Damit kann der jeweilige SPRWinkel und Messwinkel ermittelt werden. Bei Konzentrationsmessungen bleibt der Einstrahlwinkel des Lichtes konstant. Das zu untersuchende Medium bewegt sich durch die Flusszelle und die Intensitätswerte der aufgenommenen Bilder werden in einem Diagramm dargestellt. Dazu werden die ausgewählten Referenzund Messbereiche (Regions of Interest, ROIs) miteinander verrechnet. Durch diese Verrechnung werden Intensitätsänderungen aufgrund von Temperaturschwankungen eliminiert. Die Intensitätsänderungen eines Messfeldes sind dann nur noch von den Änderungen des Brechungsindexes in diesem Bereich abhängig. | 71 Projektleitung Prof. Dr. Rudolf Bierl Sensorik-ApplikationsZentrum (SappZ) Projektmitarbeiter/in Peter Hausler Carina Roth Geldgeber BMWi Kooperationspartner Universität Regensburg Maschinenfabrik Reinhausen GmbH Starkstrom-Gerätebau GmbH, Regensburg Oelcheck GmbH, Brannenburg Projektlaufzeit: 42 Monate Fördersumme: 618 TEuro Homepage: www.sappz.de Bildverarbeitung Bei der Aufnahme einer SPR-Kurve entstehen durch die verschiedenen Einstrahlwinkel des Lichtes horizontale oder vertikale Stauchungen und Streckungen der abge- bildeten Goldschicht. Um die Bilder miteinander vergleichen zu können, insbesondere die gewählten Messbereiche, müssen sie mit Hilfe von Bildverarbeitungsalgorithmen verbessert werden. Dazu werden die Kanten der abgebildeten Flusszelle mit Hilfe von Filteroperationen und Schwellwertverfahren3 ermittelt (Abbildung 2). Dadurch kann für die Flusszellengröße das Verhältnis zu einem Referenzbild ermittelt und die ROIs entsprechend skaliert werden. Für die Konzentrationsmessung wird mit statistischen Berechnungen die Güte jeder ROI bestimmt. Dadurch können in den gewählten Referenz- oder Messbereichen mögliche Störungen (z. B. Luftblasen in der Flusszelle, Verunreinigung der Goldschicht) erkannt werden. Die entsprechenden Pixel in den Bereichen werden danach bei den folgenden Messungen nicht mehr betrachtet. Abbildung 2: SPR-Messung für zwei verschiedene Einstrahlwinkel des Lichtes; Ausschnitt des aufgenommenen Bildes (a, b); Betrag der Gradienten entlang der mittleren horizontalen Zeile des Bildes (c, d) und nach der Anwendung eines kantenerhaltenden Glättungsfilters (e, f) Carina Roth, OTH Regensburg ■ Peter Hausler, OTH Regensburg ■ Rudolf Bierl, OTH Regensburg ■ L I TE R ATUR 1. R. B.M. Schasfoort, A. J. Tudos; Handbook of Surface Plasmon Resonance; First Edition, RSC Publishing, Cambridge, 2008. 2. G. Steiner; Surface plasmon resonance imaging; Analytical & Bioanalytical Chemistry; vol. 379; pp. 328-331, 2004. 3. W. Burger, M. J. Burge; Digitale Bildverarbeitung; Third Edition, Springer Vieweg, Heidelberg, 2010. 72 | S E N S O R I K Ringförmige Silizium-Kantenemitter mit DLC-Beschichtung für Anwendungen in Feldemissionselektronenquellen Für den Einsatz in Elektronenquellen auf Grundlage der Feldemission (FE) wurden an der OTH Regensburg ringförmige Silizium (Si)-Kantenemitter realisiert. Auf die hergestellte Emitterstruktur wurde zusätzlich eine dünne diamantartige Beschichtung (diamond-like carbon, DLC) mit einer Schichtdicke von 5 nm abgeschieden. Für die Bestimmung der FE-Eigenschaften der ringförmigen Kantenemitter wurden sowohl unbeschichtete als auch DLC-beschichtete Emitter im Ultrahochvakuum untersucht. Bei der DLC-beschichteten Probe konnte ein um eine Größenordnung höherer Emissionsstrom von 0,25 μA als bei einer unbeschichteten Probe ermittelt werden. Über einen Zeitraum von einer Stunde wurde keine Degradation im Emissionsstrom beobachtet. Elektronenquellen mit Feldemissionskathoden besitzen vielfältige Einsatzmöglichkeiten, unter anderem für Ionisationsvakuumsensoren1 und miniaturisierte Röntgenquellen2. Die Emissionseigenschaften dieser Kathoden werden durch die Materialeigenschaften sowie durch die Oberflächenbeschaffenheit bestimmt. Die moderne Halbleitertechnologie ermöglicht die Auswahl eines breiten Spektrums von Materialien mit unterschiedlichen Bandlücken, Elektronenaffinitäten und Dotierprofilen. Die Homogenität und Stabilität des Emissionsstroms der meisten Kathoden ist jedoch durch Herstellungsschwierigkeiten begrenzt. Eine ausgezeichnete Möglichkeit für die Herstellung von fortschrittlichen Mikro- und Nanostrukturen bietet die etablierte Si-Technologie3. Die Realisierung von reproduzierbaren und homogenen Emittergeometrien ist mit diesem Halbleiter möglich und zudem kann die Leitfähigkeit durch die Dotierung verändert werden. Für eine p-Dotierung (Dotierstoff Bor) kann ab einer bestimmten Extraktionsspannung ein Sättigungsbereich und ein dadurch resultierender stabiler Emissionsstrom beobachtet werden4. Die Ursachen für diese Veränderung in der Strom-Spannungskennlinie ist eine begrenzte Zufuhr von Ladungsträgern in das Leitungsband sowie das Eindringen des elektrischen Feldes in die Oberfläche des Emitters5. Als Kathode wurde an der OTH Regensburg ein ringförmiger p-dotierter Si-Kantenemitter mit einem optimierten Herstellungsprozess realisiert. Zusätzlich ist es möglich hochstabile und reproduzierbare Dünnfilme verschiedener Materialien wie Metalle, Diamant oder Kohlenstoff auf die Kathoden aufzubringen. Diese Schichten können eingesetzt werden, um die Halbleiteroberflächen zu schützen oder zu modifizieren und auf diese Weise das Emissionsverhalten zu verbessern. Auf die hergestellte Emitterstruktur wurde aus diesem Grund eine dünne diamantartige Beschichtung (DLC) abgeschieden6. Herstellung der Feldemissionskathoden Auf einen p-dotierten Si-Wafer mit einer thermischen Oxidschicht wurde mittels Photolithographie die laterale Position der ringförmigen Kantenemitter übertragen. Der Durchmesser des Ringes wurde mit 40 µm und einer Linienbreite von 3 µm definiert. Die SiO2-Schicht wurde mit einem anisotropen reaktiven Ionenätzverfahren (RIE) strukturiert. Die vorläufige Emitterform wurde mit einer isotropen Ätzung durch RIE realisiert. Die Tiefenätzung wurde mit RIE und einem induktiv gekoppelten Plasma (ICP) Prozessschritt hergestellt. Die Höhe der Kante wurde durch die Anzahl der alternierenden Passivierungsschritte und Ätzzyklen eingestellt. Ein kleiner Verrundungsradius konnte anschließend mit einer thermischen Oxidation des Si erreicht werden. Nach dem Entfernen der Oxidschicht zeigten Aufnahmen mit dem Rasterelektronenmikroskop eine Emitterhöhe von 15 µm und einen Verrundungsradius von 20 nm (Abb.1). Schließlich wurde auf die Kathode eine DLC-Schicht mit einer Schichtdicke von 5 nm mittels Lichtbogenverdampfen abgeschieden. Abbildung 1: Aufnahme mit dem Rasterelektronenmikroskop eines hergestellten ringförmigen Si-Kantenemitters mit DLC-Beschichtung. SENSORIK Charakterisierung der Feldemissionseigenschaften Die Charakterisierung der Strukturen wurde im Ultrahochvakuum bei einem Druck von 10-9 mbar durchgeführt. Der komplette Aufbau der FE-Elektronenquelle besteht zusätzlich zur Kathode aus einem Abstandshalter aus Glimmer (Dicke 50 µm) und einer Gitterelektrode die als Anode verwendet wurde. Die Gitterelektrode besteht aus einem metallisierten feinmaschigen Nitridgitter auf einem weitmaschigen Si-Stützgitter7. Um den Einfluss der Beschichtung zu überprüfen, wurde sowohl an eine unbeschichtete als auch an eine DLC-beschichtete Probe eine Spannung von 0 bis 1 kV angelegt und der Emissionsstrom gemessen (Abb. 2a). Bei einer Spannung von 1 kV konnte ein Emissionsstrom von 25 nA bei der unbeschichteten Kathode erreicht werden. Im Vergleich dazu wurde bei der DLC-beschichteten Kathode ein um eine Größenordnung höherer Emissionsstrom von 0,25 µA erzielt. Bei beiden Kathoden konnte ab ca. 500 V eine erwartende Sättigung des Emissionsstroms beobachtet werden. Die Emissionsmessungen über einen Zeitraum von einer Stunde wurden bei einer konstanten Kathodenspannung von 1 kV durchgeführt und die Stromschwankungen wurden auf Basis des 90%-Bands angegeben, d. h. die oberen und unteren 5% wurden vernachlässigt2. Emissionsstrom I (A) a) Kathodenspannung U (V) Strom I (A) b) Messdauer t (min) Abbildung 2: Emissionsstrom in Abhängigkeit der Kathodenspannung einer unbeschichteten und einer DLC-beschichteten Probe (a) und Emissionsstrom bei einer konstanten Kathodenspannung von 1 kV über einen Zeitraum von 60 Minuten (b). | 73 Projektleiter Prof. Dr. Rupert Schreiner, Forschungscluster LEOS [email protected] Projektmitarbeiter Christian Prommesberger, Robert Ławrowski, Christoph Langer Geldgeber: Bundesministerium für Bildung und Forschung (BMBF: ZIM) Kooperationspartner Ketek GmbH (Deutschland) Sun Yat-sen Universität Guangzhou (China) Projektlaufzeit: 36 Monate Fördersumme: 174 TEuro Homepage: https://www.oth-regensburg.de/forschung/ forschungsprofil/forschungscluster/leos.html Bei der unbeschichteten Probe wurde ein Mittelwert von 20 nA und Fluktuationen im Emissionsstrom von ±11% ermittelt. Bei der DLC-beschichteten Probe konnte ein wesentlich höherer Strom von 0,5 µA mit Schwankungen im Emissionsstrom von ±14% gemessen werden (Abb. 2b). Bei den Messungen wurde keine Degradation des Emissionsstroms beobachtet. Abschließend kann festgestellt werden, dass die hergestellten Si-Kantenemitter vielversprechende Kathoden für den Einsatz in FE-Elektronenquellen sind. Mit einer zusätzlichen DLC-Beschichtung konnte der Emissionsstrom der Kathoden signifikant erhöht werden. Christian Prommesberger ■ Robert Ławrowski ■ Christoph Langer ■ Rupert Schreiner ■ Forschungscluster LEOS (Elektronenoptische und Optoelektronische Systeme), OTH Regensburg Yifeng Huang ■ Juncong She ■ State Key Laboratory of Optoelectronic Materials and Technologies, Guangdong Province Key Laboratory of Display Material and Technology, School of Electronics and Information Technology, Sun Yat-sen University, Guangzhou 510275, People’s Republic of China L I TE R ATUR 1. Langer, C., Prommesberger, C., Ławrowski, R., Schreiner, R., Huang, Y., She, J.: Gated p-Si field emission cathode applied in an ionization vacuum gauge. In: Technical Digest of 29th International Vacuum Nanoelectronics Conference (IVNC), IEEE, 145–146 (2016). 2. Bachmann, M., Dams, F., Düsberg, F., Hofmann, M., Pahlke, A., Langer, C., Ławrowski, R., Prommesberger, C., Schreiner, R.: Stability investigation of high aspect ratio n-type silicon field emitter arrays. In: Technical Digest of 28th International Vacuum Nanoelectronics Conference (IVNC), IEEE, 204–205 (2015). 3. Dams, F., Navitski, A., Prommesberger, C., Serbun, P., Langer, C., Müller, G., Schreiner, R.: Homogeneous field emission cathodes with precisely adjustable geometry fabricated by silicon technolgy. IEEE Trans. Electron Devices 59, 2832 (2012). 4. Langer, C., Ławrowski, R., Prommesberger, C., Dams, F., Serbun, P., Bachmann, M., Müller, G., Schreiner, R.: High aspect ratio silicon tip cathodes for application in field emission electron sources. In: Technical Digest of 27th International Vacuum Nanoelectronics Conference (IVNC), IEEE, 222–223 (2014). 5. Kanemaru, S., Hirano, T., Tanoue, H., Itoh, J.: Control of emission currents from silicon field emitter arrays using a built-in MOSFET. Appl. Surf. Sci. 111, 218 (1997). 6. She, J., Hao, H., Xu, N. S., Deng, S. Z., Chen, J.: Arrays of vacuum microdiodes using uniform diamondlike-carbon tip apexes. Appl. Phys. Lett., Vol. 89, no. 23, p. 233518 (2006). 7. Prommesberger, C., Langer, C., Ławrowski, R., Schreiner, R.: Investigations on the long-term performance of gated p-type silicon tip arrays with reproducible and stable field emission behavior. J. Vac. Sci. Technol. B 35, 012201 (2017). 74 | S E N S O R I K Forschungsvorhaben „CDNI“: Abwässer aus der Wäsche von Binnenschiffen Wie kann Abwasser, das bei der Reinigung der Frachträume von Binnenschiffen anfällt, umweltgerecht entsorgt werden? Ein Ende 2014 in Kraft getretenes Übereinkommen der Rheinanliegerstaaten (CDNI) verbietet die direkte Einleitung mancher Waschwässer in die Gewässer. Stattdessen sollen sie in die Kanalisation und damit in eine öffentliche Kläranlage abgegeben werden. Dies ist jedoch aufgrund der Inhaltsstoffe nicht immer problemlos möglich. Im Zuge des fakultätsübergreifenden Projekts wird das anfallende Waschwasser analysiert und nach Ansätzen für eine optimierte Entsorgungsstrategie gesucht. Nach dem Löschen der Ladung werden bei einem Frachtgutwechsel in der Regel die Laderäume von Binnenschiffen gewaschen. Das zwischen Deutschland, den Benelux-Staaten, Frankreich und der Schweiz geschlossene Übereinkommen über die Sammlung, Abgabe und Annahme von Abfällen in der Rhein- und Binnenschifffahrt (CDNI) regelt wie die bei der Reinigung anfallenden Waschwässer entsorgt werden müssen. Das Übereinkommen soll sicherstellen, dass Abwässer nicht – wie früher üblich – in die Binnengewässer eingebracht werden, sondern bei Annahmestellen an Land abgegeben und umweltschonend entsorgt werden. Das Forschungsprojekt „CDNI“, in dem Professoren und Mitarbeitende der Fakultäten Bauingenieurwesen und Allgemeinwissen- Abbildung 1: Löschen und Kehren eines Binnenschiffes schaften & Mikrosystemtechnik interdisziplinär zusammenarbeiten, beschäftigt sich mit Abwässern, die beim Umschlag der in Bayern wichtigsten Güterart – mineralische Mehrnährstoffdünger – anfallen. Aktuell werden nach Beendigung des Löschvorgangs in den Laderäumen verbliebene Düngemittelrückstände per Hand gekehrt (Abb.1). Da durch das Kehren nicht alle Rückstände beseitigt werden können, müssen die Laderäume zusätzlich gewaschen werden, um eine Verunreinigung der nachfolgenden Ladung zu verhindern (Abb.2). Für die Entsorgung der dabei anfallenden Waschwässer sieht das CDNI-Übereinkommen eine Einleitung in die Kanalisation vor. Diese Waschwässer sind SENSORIK | 75 Projektleiter Prof. Dipl.-Ing. Andreas Ottl Fakultät Bauingenieurwesen Labor für Siedlungswasser- und Wassergütewirtschaft [email protected] Prof. Dr. rer. nat. Walter Rieger Fakultät Allgemeinwissenschaften & Mikrosystemtechnik (Bereiche Analytische Chemie) Umweltanalytik und Instrumentelle Analytik [email protected] Projektmitarbeiter/in Agnes Kraml (M.Eng.) Thomas Poxleitner (B.Eng.) Simon Hofer (B.Sc.) Geldgeber: Bayerisches Staatsministerium für Umwelt Abbildung 2: Waschen eines Binnenschiffes und Verbraucherschutz Kooperationspartner Bavaria Schiffahrts- und Speditions-AG, Aschaffenburg jedoch in der Regel mit Stickstoff- und Phosphorkonzentrationen belastet, welche die in häuslichen Abwässern üblichen Konzentrationen um ein Vielfaches übersteigen. Da die öffentlichen Kläranlagen vorwiegend auf die Reinigung von häuslichem Abwasser bzw. dem häuslichem Schmutzwasser vergleichbaren Abwässern ausgelegt sind, fordern einige betroffene bayerische Kläranlagenbetreiber vor der Einleitung der Waschwässer aufwändige Untersuchungen oder verweigern deren Annahme. Dies führt sowohl auf Seiten der Schiffsführer, als auch auf Seiten der Umschlagsbetreiber zu großen Unsicherheiten, Verzögerungen und nicht kalkulierbaren Kosten. Zielsetzung des Forschungsvorhabens ist die Erarbeitung einer allgemein anwendbaren Handlungsanleitung für die Reinigung der Düngemittelschiffe in Bayern. In Wissenschaft und Forschung wurde diese Thematik bisher nicht untersucht. Um eine Datengrundlage zu schaffen, erfolgt daher im ersten Abschnitt des Projekts eine Bestandsaufnahme der aktuell angewandten Schiffsreinigungsmethoden. Die dabei anfallenden Schadstoffkonzentrationen und -frachten werden analysiert. Darauf aufbauend untersucht das Team im weiteren Projektverlauf Methoden zur Optimierung des Reinigungsprozesses. In Praxistests werden unter Einsatz verschiedener Reinigungsgeräte verbesserte Reinigungs- Bayernhafen GmbH & Co. KG, Regensburg Projektlaufzeit: 12 Monate Fördersumme: 156 TEuro abläufe erprobt. Die Firmen Kärcher Center Cotraco, Tennant, Ruwac, Schmid Baumaschinen mit Bobcat und Wilo unterstützen das Projekt, indem sie verschiedene Reinigungsgeräte für die Praxistests zur Verfügung stellen. In erster Linie soll eine Optimierung der Trockenreinigung erzielt werden, um die in den Waschwässern enthaltenen Schadstofffrachten auf eine für die betroffenen Kläranlagen unbedenkliche Menge abzusenken. So könnte künftig gewährleistet werden, dass die im Zuge der Reinigung anfallenden Waschwässer ohne vorherige kostspielige Einzel-Untersuchungen in die öffentliche Kanalisation eingeleitet werden dürfen. Andreas Ottl ■ Walter Rieger ■ Agnes Kraml ■ Thomas Poxleitner ■ Simon Hofer ■ alle OTH Regensburg L I TE R ATUR Sekretariat des CDNI: Zentralkommission für die Rheinschifffahrt: CDNI. Übereinkommen über die Sammlung, Abgabe und Annahme von Abfällen in der Rhein- und Binnenschifffahrt. Straßburg, 2014. http://www.cdni-iwt.org/de/prasentation-cdni/text/ ANZEIGEN www.klebl.de Klebl GmbH · Gößweinstraße 2 · 92318 Neumarkt i.d.OPf. · Telefon (0 9181) 900-0 · [email protected] | 77 Gebäude und Infrastruktur Der Bereich Gebäude und Infrastruktur beschäftigt sich mit der Betrachtung von Siedlungsstrukturen und Gebäuden im baulichen, sozialen und gesellschaftlichen Kontext und untersucht deren (infra-)strukturelle Zukunftsfähigkeit und baukulturelle Relevanz. Eine entscheidende Rolle spielt hierbei auch die interdisziplinäre Vernetzung der Forschenden, um verschiedenste Aspekte von althergebrachten wie neuartigen Lebensformen und -ansätzen im Lebenszyklus von Gebäuden miteinander zu vereinen. 78 | G E B Ä U D E U N D I N F R A S T R U K T U R Semi: Numerische Simulation der Wechselwirkungen Straßenbahn – Feste Fahrbahn im innerstädtischen Nahverkehr Eine fortschreitende Entwicklung der computergestützten Berechnungsmethoden erlaubt eine effektive Simulation von dynamischen Probleme im Bauwesen. Diese dynamischen Beanspruchungen sind im Bereich des innerstädtischen Schienenverkehrswesens die Ursache von Lärm und Erschütterungen. Die Reduktion von Luft- und Körperschall ist daher für den Nahverkehr eine der zentralen Herausforderungen. Als Ansatz einer rechnerischen Prognose der dynamischen Wechselwirkungen werden vorhandene analytische und numerische Berechnungssysteme aus dem Bereich der Schnellzugforschung überarbeitet, um mittels Substrukturmethode Straßenbahnüberfahrten zu simulieren. Dynamische Einwirkung und Abbildung der Fahrbahnkomponenten Bei der Bemessung der Fahrbahnkomponenten hinsichtlich Tragfähigkeit und Gebrauchstauglichkeit wird in der Praxis vereinfachend von einem unendlich langen, elastisch gebetteten Träger ausgegangen, auf den eine statische Ersatzlast einwirkt. Diese wird zur Berücksichtigung von dynamischen Einflüssen mit Erhöhungsfaktoren für die Radkraftverlagerung im Bogen sowie für den Oberbauzustand und die Fahrgeschwindigkeit beaufschlagt. In der Realität wirkt auf den Gleiskörper, Unterbau und Untergrund eine zeitabhängige Belastung, die aus der Achsfolge der Fahrzeuge sowie der Abstände von Unebenheiten des Rades und des Fahrweges unter Berücksichtigung der Fahrgeschwindigkeit resultiert. (Klaus Lieberenz, 2009) In diesem Zusammenhang wird oftmals von den sogenannten quasistatischen oder niederfrequenten Einwirkungen, den zeitabhängigen, aus der Achsfolge sich ergebenden Belastungen gesprochen. Die niederfrequenten Einwirkungen einer Straßenbahnüberfahrt können vereinfacht an einem kontinuierlich elastisch gebetteten Balken mit Feder- und Dämpferelementen nach Fryba (Fryba, 1999) ermittelt werden. Betrachtet wird dabei die Beanspruchung durch die halbe Achslast bzw. Radkraft, die auf dem Ersatzbalken, bestehend aus einer Schiene und einer halben Tragplatte mit der Länge im Abstand zweier Schienenbefestigungen/Schwellen mit der Massebelegung verteilt wird. Querschnitts- und Festigkeitsverhalten werden anhand der Schienengeometrie und Materialität ermittelt. Der Hauptanteil der Spannungen wird durch die unmittelbar in nächster Nähe wirkenden Achs- bzw. Radlast der Straßenbahn zum Betrachtungspunkt erzeugt. Der Einfluss benachbarter Achsen für die Berechnung der Einsenkung und der Flächenpressung p(x,t) wird mit Hilfe der Einflusszahl η erfasst. Diese Einflusszahl ist abhängig vom Abstand x und der elastischen Länge L.(Lieberenz, 2013) (1.1) Fryba erweiterte diese Betrachtung über die Einführung dynamischer Zusatz- und Dämpfungsfaktoren D1-4, so dass sich die Flächenpressung wie nachfolgend berechnet: (1.2) (1.3) Abbildung der hochfrequenten Erregungsmechanismen Die durch die Unebenheit des Rads bzw. Fahrweges hervorgerufenen Lasten werden als zusätzliche dynamische oder hochfrequente Einwirkungen bezeichnet. Die Herangehensweise zur Lösung des Problems, die hochfrequent abhängigen Zusatzbelastungen vereinfacht und ausreichend genau darzustellen, orientiert sich an der in der Planungshilfe der Deutschen Bahn – Rechnerisches Verfahren zur Untersuchung der dynamischen Stabilität des Eisenbahnfahrwegs bei Zugüberfahrten (Neidhart, et al., 2013) aufgezeigten Gangart. Die Berechnung erfolgt mit zwei voneinander weitestgehend unabhängigen GEBÄUDE UND INFRASTRUKTUR Modellen für den Oberbaubereich und den Unterbaubereich. Der Oberbaubereich umfasst Straßenbahn, Gleis, Schienenbefestigung und die Trageplatte der festen Fahrbahn. Der Unterbaubereich setzt sich aus einer Dämmmatte, hydraulisch gebundenen Schicht und einer Schottertragschicht zusammen. Die Schnittstelle bildet die Unterkante der Fahrbahnplatte bzw. Oberkante der darunter befindlichen elastischen Dämmschicht bzw. die Oberfläche des Bodenersatzkörpers. | 79 Projektleiter Prof. Dr.-Ing. Detleff Schermer Labor Konstruktiver Ingenieurbau [email protected] Projektmitarbeiter Benjamin Heisterkamp (M.Eng.) [email protected] Maximilian Lerch (M.Eng.) [email protected] Ermittlung der bodendynamischen Kennwerte Für die Ableitung von dynamischen Berechnungsparametern im anstehenden und vorhandenen Boden werden zur numerischen Betrachtung Angaben über Scherfestigkeits- und Steifigkeitsparameter sowie Dichten und Wassergehalte aller vorkommenden Bodenschichten benötigt. Probenentnahme und Versuchsdurchführung in Situ und im Labor zur Ermittlung dieser Parameter sind hierfür unabdingbar. Dynamische Kennwerte zur weiteren numerischen und Finite-Elementberechnung können ingenieurmäßig bewertet und oftmals der einschlägigen Literatur, wie beispielsweise aus den Empfehlungen des Arbeitskreises „Baugrunddynamik“ (DGGT, 2002) oder dem Fachbeitrag zur „Abschätzung der Untergrundverhältnisse am Bahnkörper anhand des Bettungsmoduls“ (Ullrich Martin, 2016) entnommen werden. Die dabei maßgebenden Parameter sind die Feuchtdichte des Materials, das zugehörige Schub-, E- bzw. Bettungsmodul sowie die Querdehnzahl und die Scherwellengeschwindigkeit. Resümee und Ausblick Die niederfrequenten Anteile werden mit Hilfe der Modellierung von Fryba (Fryba, 1996) abgebildet. Zur Darstellung der hochfrequenten Anteile wird das Modell der dynamischen Nachgiebigkeit nach Knothe (Knothe, 2001) herangezogen. Dabei wurde die Tragplatte der festen Fahrbahn mittels Balken modelliert. Als Schnittstelle Geldgeber Freistaat Bayern Kooperationspartner NAUE GMBH & CO. KG., Espelkamp-Fiestel Projektlaufzeit: 36 Monate Fördersumme: 250 TEuro zur FE-Berechnung wird die Unterkante des Oberbaus der festen Fahrbahn definiert. Charakteristische Parameter zur Modellierung des Untergrundes für die Ermittlung der dynamischen Nachgiebigkeiten können iterativ bestimmt oder mit Hilfe von Kennwerten angesetzt werden. Diese Verfahren haben sich in der Vergangenheit für Schnell- und Güterzüge der Deutschen Bahn bewährt und können als praktisch erprobt angesehen werden. Übertragen auf die Rahmenbedingungen für Straßenbahnen stellt man fest, dass im innerstädtischen Schienennahverkehr die Erregung im hochfrequenten Bereich nur abgeschwächt vorhanden ist. Diese Antwortspektren resultieren aus den langsameren Geschwindigkeiten der Straßenbahnen (< 50 km/h) sowie den verhältnismäßig geringen Achslasten. Eine Verifizierung der Modelierungsund Simulationssysteme findet derzeit im Rahmen von Großversuchen statt. Benjamin Heisterkamp, OTH Regensburg ■ Maximilian Lerch, OTH Regensburg ■ L I TE R ATUR Fryba, L., 1996. Dynamics of railway bridges. London: Thomas Telford. Klaus Lieberenz, D. W., 2009. Abtragung der Lasten im System Oberbau, Unterbau und Untergrund. Dresden: gepro-dresden.org. Lieberenz, K., 2013. Handbuch Erdbauwerke der Bahnen. Hamburg: DVV Media Group GmbH Eurailpress. Neidhart, Vogel, Lieberenz & Wegener, 2013. Planungshilfe – Rechnerisches Verfahren zur Untersuchung der dynamischen Stabilität des Eisenbahnfahrwegs bei Zugüberfahrten. Regensburg: DB Netze. Ullrich Martin, S. R. D. C. A. C. M. J. L. P. B. P., 2016. Abschätzung der Untergrundverhältnisse am Bahnkörper anhand des Bettungsmoduls. s.l.:ETR – Eisenbahntechnische Rundschau. DGGT, 2002. Empfehlungen des Arbeitskreises „Baugrunddynamik“. 1 Hrsg. Berlin: DGGT. Knothe, K., 2001. Gleisdynamik. Berlin: Ernst & Sohn. Lerch, M., 2015. Modellierung der dynamischen Wechselwirkung von Straßenbahnanlagen mittels Masse – Feder – Dämpfer – Systeme. Regensburg: Ostbayerische Technische Hochschule Regensburg. 80 | G E B Ä U D E U N D I N F R A S T R U K T U R Digitale 3D-Analyse mittelalterlicher Gewölbe- und Maßwerkspolien aus Münster 1015 zum Teil stark gebrochene Spolien* wurden von der Stadtarchäologie Münster bei einer Routine-Ausgrabung im Innenstadtgebiet Münsters in den Fundamenten einer abgetragenen Gebäudereihe entdeckt. Großes Interesse bestand in der Dokumentation der Werkstücke und in der Frage nach dem daraus einst zusammengesetzten Sakralbau. So ergaben sich zwei Zielsetzungen für die Forschung an den Bauteilen: Die umfassende Dokumentation aller Werkstücke sowie die zeitliche und bauliche Einordnung der Gewölbe- und Maßwerkteile im Besonderen. Die Bearbeitung erfolgte als Masterarbeitsprojekt im Master Historische Bauforschung an der Fakultät Architektur der OTH Regensburg. Methodik Systematisch wurden zunächst alle Bauteile nummeriert, kurz beschrieben und fotografisch dokumentiert. Nach einer Feinsortierung hinsichtlich Werkstücken, die ursprünglich aus Gewölben oder Maßwerkfenstern stammen, stellten sich rund 400 Teile als für die in den beiden Masterarbeiten zu untersuchenden Themenfelder relevant heraus (Abb. 1). Neben der allgemeinen Dokumentation wurde für diese Bauteile zusätzlich ein Bauteilkatalog erstellt, in dem zunächst die Form und Profilierung, anschließend alle Seiten des Bauteiles genau beschrieben sowie die Gesamtmaße und Maße der verschiedenen Profil-Bestandteile aufgeführt wurden. Um Untersuchungen an den Objekten jenseits des Lagerortes vornehmen zu können, erfolgte im nächsten Schritt der Einsatz der digitalen Photogrammetrie, bei der Objekte mit Hilfe von Licht vermessen werden, um sie später als digitales 3D-Modell in spezieller Software wie Cinema4D benutzen zu können. Eine Auswahl an Spolien wurde zudem nach den üblichen Methoden der händischen Bauteilaufnahme gezeichnet. Aus mit Schnüren und Winkeln erzeugten Lotsystemen heraus gemessene Punkte wurden dabei im Maßstab 1:5 auf Zeichenpapier übertragen und anschließend zu verformungsgerechten Abbildungen verdichtet. Neben der detaillierten Auseinandersetzung mit dem Bauteil und den dadurch identifizierten Merkmalen wie Dübellöchern, Risslinien und Farbresten lag der größte Erkenntnisgewinn zum einen in der Feststellung der verschiedenen Typen und deren Unterschiede, zum anderen im wachsenden Gespür für Proportionen und Radien, Dimensionen und Krümmungen. Um regionale Bautraditionen zu ergründen und damit Anhaltspunkte für die Rekonstruktionen zu erhalten, wurden schließlich die Gewölbe und Maßwerke mehrerer gotischer Kirchen in und um Münster in ihren formalen Ausprägungen analysiert. Abbildung 1: Die in einer Lagerhalle ausgelegten Bauteile während der Sortierungs- und Dokumentationsarbeiten, Foto: O. Golde / N. Sammer GEBÄUDE UND INFRASTRUKTUR | 81 Projektbetreuung an der OTH Regensburg Prof. Dr. Peter Morsbach [email protected] Prof. Dr.-Ing. Dietmar Kurapkat [email protected] Projektmitarbeiterinnen Nike Sammer (M.A.) Olivia Golde (M.A.) Kooperationspartner Stadtarchäologie Münster Abbildung 2: Rekonstruiertes Maßwerkfenster der Zeit um 1450 mit virtuell eingesetzten Spolien (farbig), Grafik: N. Sammer Ergebnis Die geborgenen Gewölbespolien weisen überwiegend gängige Formen der gotischen Baukunst wie den Birnstab und den Kehlstab auf. Bei den meisten dieser Gewölbeteile handelt es sich um Bogensteine. Diese waren Bestandteil von Kreuzrippen oder von Bögen, die das Gewölbefeld begrenzten. Als besondere Stücke gelten ein Schlussstein sowie ein Kreuzungsstein. Der Schlussstein besitzt vier Anschlussflächen für Rippen mit dem Kehlstabprofil und gehört zu einem Kreuzrippengewölbe. Der Kreuzungsstein dagegen, welcher vier orthogonal zueinander angelegte Anschlussflächen mit einem Birnstabprofil besitzt, lässt sich einem figurierten Gewölbe zuordnen. Die Forschungsuntersuchungen und der Vergleich mit noch bestehenden gotischen Kirchenbauten lassen Rückschlüsse auf ein sogenanntes Parallelrippengewölbe in Kombination mit einer Scheitelrippe in Längsrichtung zu. Der ursprüngliche Bau besaß also mindestens zwei verschiedene Wölbarten. Die Maßwerkspolien konnten zunächst anhand ihrer „Rücken“ – der Begriff Rücken bezeichnet hierbei den Teil des Werkstücks, welcher mit den Gewändesteinen in Verbindung steht – in mindestens vier unterschiedliche Typen und damit differierende Maßwerkstrukturen unterteilt werden. Durch die Analyse und den Vergleich der zuvor im Bauteilkatalog festgestellten Maße verschiedener struktureller Abschnitte des Bauteils und dem visuellen Abgleich anhand der in ArchiCAD importierten Orthofotos der aussagekräftigsten „Schauseiten“ konnten die Binnenstücke den entsprechenden Gewändebauteilen zugeordnet und zu drei unterschiedlichen Maßwerken angeordnet werden. Die daraus resultierenden Rekonstruktionen lassen sich in verschiedene Bauphasen einordnen. Neben einem Maßwerkgefüge aus der sogenannten doktrinären Gotik am Ende des 14. Jahrhunderts gibt es ein weiteres, welches die typischen spätgotischen Merkmale der Westfälischen Kirchenbaukunst widerspiegelt und somit in die Zeit um 1450 einzuordnen ist (Abb. 2). Eine weitere Rekonstruktion stellt einen schlichten Okulus mit Vierpass dar. Herkunftsort Die Erforschung der Bauteile und die daraus resultierenden Rekonstruktionen lassen auf eine mehrschiffige Hallenkirche mit verschiedenen Bauphasen schließen. Die Verknüpfung dieser Untersuchungen mit der anschließenden Literaturrecherche weist auf die zwischen dem 12. und dem 15. Jahrhundert errichtete und im 19. Jahrhundert wegen Einsturzgefahr abgetragene ehemalige Aegidiikirche in Münster als Herkunftsort der Fundstücke. Nike Sammer, OTH Regensburg ■ Olivia Golde, OTH Regensburg ■ L I TE R ATUR * „ein bauliches oder bildliches Artefakt, das aus seinem ursprünglichen baulichen, bildlichen oder inhaltlichen Zusammenhang gelöst wurde und in einen neuen baulichen, bildlichen oder inhaltlichen Zusammenhang gebracht ist.“ nach: P. Morsbach, Geraubt, verschleppt, verbaut – was ist eine Spolie?, in: Stadt Regensburg, Amt für Archiv- und Denkmalpflege (Hrsg.), Spolien – steinerne Zitate der Geschichte. Von Römersteinen, Judensteinen und falschen Gräbern. Beiträge des 30. Regensburger Herbstsymposions für Kunst, Geschichte und Denkmalpflege vom 20. bis 22. November 2015 (Regensburg 2016) 9-17. A. Pohlmann, Ein Bauopfer und tausend Spolien. Die Baubefunde an der Zwölfmännergasse, in: Archäologie in Westfalen-Lippe 2016 (in Vorbereitung). 82 | G E B Ä U D E U N D I N F R A S T R U K T U R Licht, Luft, Sonne: Das Haus Schminke von Hans Scharoun Das „Haus Schminke“ (1930-1933) in Löbau/Sachsen zählt weltweit zu den bedeutendsten Wohnhäusern der Moderne und steht seit 1978 unter Denkmalschutz. Seit der letzten Instandsetzung 1999/2000 sind erneut Schäden am Gebäude aufgetreten, die saniert werden müssen. Der Forschungscluster nachhaltiges Bauen und historische Bauforschung (NBHB) der OTH Regensburg begleitet das Vorhaben als wissenschaftlicher Partner der Stiftung Haus Schminke. nutzt. All diese Nutzungen erfolgten ohne größere Umbauten – ein Umstand, der die Instandsetzung 1999/2000 erleichterte.2 Seit 2009 ist das Haus im Eigentum und Sitz der kommunalen „Stiftung Haus Schminke“. Ziel der Stiftung ist es, neben der Bestandserhaltung das Haus als Museum und Veranstaltungsort der Öffentlichkeit zugänglich zu machen. Da in den letzten 15 Jahren diverse Schäden an Dachflächen, Fassaden, Terrassen und Außentreppen wieder oder neu entstanden sind, muss das Gebäude erneut saniert werden. Die Stiftung Haus Schminke kooperiert hierzu mit der Fakultät Architektur der OTH Regensburg. Abbildung 1: Gartenansicht Haus Schminke © Katharina Sauer, OTH Regensburg Viele Architekturen der Moderne sind konzeptionell und technisch Prototypen unseres zeitgenössischen Bauens. Daher gilt es, Bauten der Moderne als historische Zeugnisse zu erhalten und eine kritische Auseinandersetzung mit den Konzepten und Konstruktionen dieser Epoche zu führen. Das von 1930 bis 1933 für den Nudelfabrikanten Schminke erbaute „Haus Schminke“ von Hans Scharoun (dt. Architekt 1893-1972) ist ein Juwel internationaler Baukunst. Das flexible und intelligente Raumkonzept, eine atmosphärische Lichtplanung und zahlreiche, auf die Bedürfnisse der Familie zugeschnittene Details machten es bereits kurz nach Fertigstellung berühmt.1 Nachdem die Bauherrenfamilie zwölf Jahre lang darin wohnte, wurde es ab 1946 als Kinderheim, ab 1953 als Jugendclub und bald darauf als „Haus der Pioniere“ ge- Vor Erarbeitung einer Vorgehensweise und eines Maßnahmenpakets zur Instandsetzung sind die Schadensursachen präzise zu klären. Dazu ist es notwendig, das Haus, sein planerisches Konzept, seine Konstruktion, das Nutzungsprofil und das bauklimatische Verhalten der Hüllbauteile in Abhängigkeit des Außenklimas zu analysieren und zu verstehen. Im Hinblick auf Nutzung und nachhaltige Bewirtschaftbarkeit ist auch zu prüfen, wie Energieverbrauch und thermische Behaglichkeit bei Sicherung der historischen Bausubstanz optimiert werden können. Seit Februar 2016 sind im Haus 20 Datenlogger zur Messung und Aufzeichnung von Raumlufttemperatur und -feuchte sowie von Oberflächentemperaturen in Betrieb. Die Datenauswertung ermöglicht Aussagen über das Verhalten der Bausubstanz und die Aufenthaltsqualität der Räume: Schadenspotentiale wie Schimmel oder Taufeuchte auf den Bauteiloberflächen oder Behaglichkeitsdefizite wie Unter- oder Übertemperaturen in den Wohnräumen werden sichtbar. Nach den bisherigen Untersuchungen sind die Wohnräume auch heute noch als behaglich einzustufen (Abb. 2). Eine Ausnahme bildet der Wintergarten, der aufgrund der großen Glasflächen, geringer Verschattungsmöglichkeiten und unzureichender Belüftung sehr schnell überhitzt; gleichzeitig aber im Winter und in der Nacht wegen der Einfachverglasung sehr schnell auskühlt. Daher ist dieser im Sinne eines wirtschaflichen Gebäudebetriebes nicht als permanenter Wohnraum anzusehen. GEBÄUDE UND INFRASTRUKTUR | 83 Projektleiter Prof. Dr.-Ing. Felix Wellnitz, Fakultät Architektur, Fachgebiet Gebäudesanierung und Raumklima [email protected] relative Raumfeuchte [%] Projektmitarbeiterin Sandra Schmid (B.Eng.) [email protected] Geldgeber Technologie- und Wissenschaftsnetzwerk Oberpfalz (TWO) Regensburg Center of Energy and Resources (RCER) Ti [°C] Abbildung 2: Behaglichkeitsfeld nach Leusden-Freymark für Essplatz © Sandra Schmid, Felix Wellnitz, OTH Regensburg Kooperationspartnerin Stiftung Haus Schminke, vertreten durch Dipl.-Ing. M.Sc. Claudia Muntschick, gefördert von Bund, dem Land Sachsen und der Deutschen Bezüglich der Feuchtigkeit erbrachte die Monitoring-Auswertung folgende Erkenntnisse: An den bauzeitlichen, bemerkenswerten Fensterkonstruktionen aus lackierten Flach- oder Winkelstahlprofilen mit Einfachverglasung und Glashalteleisten aus dauerhaftem Eichenkernholz entsteht regelmäßig Feuchtigkeit. Diese kann jedoch jederzeit abtrocknen oder tropft in Tauwasserrinnen und kann direkt aufgewischt werden. So haben die Fenster kaum Schaden aus den nachgewiesenen raumluftbedingten Feuchtebelastungen genommen. An den untersuchten Deckenstellen wird dagegen zum Teil regelmäßig eine relative Luftfeuchte von 80 Prozent erreicht. Dieser Wert ist bei längerer Überschreitung kritisch für das Wachstum von Schimmelpilzen.3 Um größeren Schäden entgegen zu wirken, sind diese genauestens zu beobachten. Parallel zum Monitoring wird das Nutzungsprofil aufgezeichnet, um mögliche Zusammenhänge zwischen Feuchteaufkommen und Nutzung zu erschließen. Im Oktober 2016 fand zudem ein Workshop mit Studierenden der Fakultät Architektur zur Bestandsaufnahme der Konstruktion, Hüllbauteile und Schadensbilder statt. Im weiteren Projektverlauf wird ein mittels der Messergebnisse kalibriertes, thermisches Simulationsmodell des Hauses erstellt, um bauklimatische Auswirkungen möglicher Sanierungslösungen realitätsnah zu überprüfen. Damit können Aussagen zur Bauteilsicherheit, Energiebedarf und Behaglichkeit getroffen werden. Die ersten Projekterkenntnisse zeigen, dass Bauteilverhalten, Raumklima und Nutzungsprofile systembedingt eng miteinander im Zusammenhang stehen. Instand- Stifung Denkmalschutz mit insgesamt 220 TEuro Projektlaufzeit: 20 Monate Fördersumme: 67 TEuro vom TWO/RCER Homepage: https://www.oth-regensburg.de/ professoren-profilseiten/professoren-a/prof-dr-felix-wellnitz/ forschung.html setzungsziele wie Behebung baulicher Verringerung von Transmissions- und Lüftungswärmeverlusten sowie Verbesserung der thermischen Behaglichkeit sind mit dem Denkmalschutz in Einklang zu bringen. Mit dem Monitoring und den geplanten thermischen Simulationen können die komplexen Zusammenhänge von Energiebedarf, thermischer Behaglichkeit und Bautenschutz für die Baukonstruktion und die technischen Anlagen dargestellt und bauklimatisch realitätsnah bewertet werden. Auswirkungen von Instandsetzungslösungen auf die Bausubstanz und das Bauklima können so bereits im Vorfeld überprüft und optimiert werden, um eine in Kosten und Nutzung optimierte Sanierung für das denkmalgeschützte Gebäude zu entwickeln. Felix Wellnitz, OTH Regensburg ■ Sandra Schmid, OTH Regensburg ■ Claudia Muntschick ■ Stiftung Haus Schminke, Löbau L I TE R ATUR 1. Ulrich Rosner: HausSchminke – ein Kulturdenkmal zwischen Monument und Dokument. In: Burkhardt, Berthold (Hrsg.): Scharoun Haus Schminke Die Geschichte einer Instandsetzung. Karl Krämer Verlag. Stuttgart, 2002 2. Pitz und Hoh Werkstatt für Architektur und Denkmalpflege GmbH (Hrsg.): Sanierungsdokumentation Haus Schminke, Band 1, Berlin 2000, S.1 und S.8. 3. DIN EN ISO 13788:2013-05 Wärme- und feuchtetechnisches Ver- halten von Bauteilen und Bauelementen – Raumseitige Oberflächentemperatur zur Vermeidung kritischer Oberflächenfeuchte und Tauwasserbildung im Bauteilinneren – Berechnungsverfahren Schmid S., Muntschik C., Wellnitz F.: Licht, Luft und Sonne- das Haus Schminke von Hans Scharoun. Die nachhaltige und denkmalgerechte Ertüchtigung einer Ikone der Moderne in Zeiten von Klimawandel und Ressourcenknappheit. In: Bausubstanz. Jahrgang 8, Heft 1 (März) 2017. Fraunhofer IRB Verlag, Stuttgart. 84 | G E B Ä U D E U N D I N F R A S T R U K T U R SVBA: Selbstverdichtender Beton mit zeitnaher Aussteuerung der Mischungszusammensetzung im Betonmischer Selbstverdichtender Beton (SVB; englisch: SCC: self compacting concrete) ist ein Beton, der ohne Einwirkung von Verdichtungsenergie allein durch den Einfluss der Schwerkraft in die Schalung fließt, entlüftet und selbst komplizierte Geometrien bzw. Bewehrungszwischenräume vollständig in Sichtbetonqualität ausfüllt1. Aufgrund dieser besonderen Frischbetoneigenschaften verspricht der Einsatz von selbstverdichtendem Beton u. a. kürzere Betonierzeiten, eine reduzierte Anfälligkeit für Verdichtungsfehler und eine höhere Dauerhaftigkeit von Stahlbetonbauteilen. Im Forschungsprojekt soll die zielsichere Herstellung des SVBs optimiert werden. Die Dauerhaftigkeit von Stahlbeton ist stark von der Dichtigkeit der Oberflächenschicht abhängig. Diese wird bei richtiger Zusammensetzung und Nachbehandlung hauptsächlich von der Verdichtung beeinflusst. Die Vermeidung schlechter Verdichtungsarbeit hat zur Entwicklung von SVB geführt1. In der Bauindustrie besteht ein enormer Bedarf an einem solchen Hochleistungsbeton, sofern er mit vernünftigem produktionstechnischen und finanziellen Aufwand herstellbar ist. Die Verarbeitbarkeit gilt bei der Qualitätskontrolle für die Betonherstellung daher als wichtiger Parameter. Sie ist bei selbstverdichtendem Beton von wesentlich größerer Bedeutung als bei herkömmlichen Rüttelbeton, da die Qualität von SVB-Stahlbetontragwerken im großen Maße von den passenden rheologischen Eigenschaften abhängt3. Im Forschungsprojekt wird ein Kugel-Rheometer im Betonmischer integriert, das in einer kurzen Mischpause die Verarbeitungseigenschaften des SVBs beurteilt. Die auftretenden Schwankungen in den Ausgangsstoffen erfordern u. U. eine Nachdosierung einzelner Komponenten, um die optimale Konsistenz für den Einbauzeitpunkt einzustellen4. Tu Trichterauslaufzeit T in s To Durch Schwankungen in den Ausgangsstoffen und wechselnden Herstell- und Umgebungsbedingungen, ist es in der Praxis des Betonmischwerkes jedoch oft schwierig, gleichbleibende rheologische Eigenschaften bei aufeinanderfolgenden SVB-Mischungen gleicher Rezeptur zu erzielen. Die Konsistenz von SVB reagiert sehr sensibel auf Mischungsabweichungen. Die Betonmischanlagen mit ihren aktuellen automatischen Steuermechanismen sind nicht in der Lage diese geringen Schwankungen zu erfassen und in den Herstellungsprozess zu integrieren. Die Beurteilung der Frischbetonqualität ist derzeit nur durch Sichtprüfung eines erfahrenen Laboranten oder erst nach aufwändigen Laborversuchen (z. B. Setzfließmaß, Trichterauslaufzeit) möglich. Dabei müssen die Ergebnisse zum Zeitpunkt des Einbaus in einem vorher eng definierten Verarbeitungsfenster liegen (Abb. 1). smu smo Setzfließmaß sm in cm Abbildung 1: Verarbeitungsfenster für einen SVB bei normgerechter Frischbetonprüfung2. Abbildung 2: Schema der Aussteuerung mit sofortiger Nachdosierung. GEBÄUDE UND INFRASTRUKTUR | 85 Projektleiter Forschungscluster ERB (Energieeffiziente und Ressourcen schonende Baustoffe und Bauverfahren), Fakultät Bauingenieurwesen, Labor für Baustoffe und Betontechnologie Prof. Dipl.-Ing. Dr. techn. habil. Wolfgang Kusterle [email protected] Projektmitarbeiter Paul Benkert (B.Eng.), [email protected] Ivan Paric (M.Eng.), [email protected] Projektpartner Prof. Dr.-Ing. Ralph Schneider Fakultät Maschinenbau, Labor für Regelungstechnik [email protected] Geldgeber Bayerische Forschungsstiftung (BFS) Projektpartner – Schleibinger Geräte Teubert und Greim GmbH, Buchbach – Südbayerisches Portlandzementwerk Gebr. Wiesböck & Co. GmbH (ROHRDORFER ZEMENT, SPZ), Rohrdorf – BETOSERV GmbH, Rohrdorf Abbildung 3: Kapelle Maria-Magdalena aus weißem SVB. Foto: Wolfgang Kusterle – GODELMANN GmbH & Co. KG, Fensterbach – Hemmerlein Ingenieurbau GmbH, Bodenwöhr Projektlaufzeit: 36 Monate Zur automatisierten Aussteuerung einer Beton-Rezeptur gibt es derzeit keine Ansätze. In anderen Industriebereichen werden mit Expertensystemen ähnliche Fragestellungen gelöst. Im vorliegenden Forschungsprojekt soll daher ein Expertensystem entwickelt werden, das anhand der gemessenen rheologischen Eigenschaften eine gezielte Nachsteuerung einleitet (siehe Abb. 2). Dazu gilt es vorerst alle Einflussparameter zu isolieren. Dann müssen die Wissensbasis 1 durch Versuche mit gezielten Abweichungen in der Betonrezeptur und verschiedene Nachsteuerungsmaßnahmen und die Wissensbasis 2 durch Versuche bei unterschiedlichen Temperaturen und Verarbeitungszeiten erstellt werden. Diese Versuche sind für unterschiedliche Mischungskonzepte durchzuführen. Als Nachsteuerungsmaßnahmen kommen nur Flüssigkeiten wie Wasser, Fließmittel und Stabilisatoren in Frage. Fördersumme: 233 TEuro Homepage https://www.oth-regensburg.de/fakultaeten/ bauingenieurwesen.html Unter Einbeziehung der unterschiedlichen Szenarien sollen allgemein gültige Gesetzmäßigkeiten abgeleitet und mathematisch formuliert werden. Algorithmen sind zu erstellen und programmtechnisch umzusetzen. In Piloteinsätzen muss dann die Funktion des Expertensystems, das einen qualifizierten Laboranten ersetzen kann, bestätigt werden. Letztendlich soll das System optisch perfekte Bauteile aus SVB ermöglichen (Abb. 3). Wolfgang Kusterle, OTH Regensburg ■ Ivan Paric, OTH Regensburg ■ L I TE R ATUR 1. Europäische Richtlinien für SCC, Festlegung, Produktion und Anwendung. Mai 2005, Deutsche Übersetzung, BIBM, CEMBUREAU, ERMCO, EFCA, EFNARC August 2006. 2. Siebel, E.; Breit, W.: Herstellung und Verarbeitung von selbstverdichtendem Beton (SVB) als Transportbeton der Festigkeitsklassen C 25/30 und C 30/37 unter Praxisbedingungen. (AiF-Vorhaben Nr. 13925 N). Abgerufen am 14. Mai 2014. 3. Khrapko, M.: Aufrechterhaltung der erforderlichen Verarbeitbarkeit von SVB. BetonWerk International, Heft 2/2012. 4. Ivan Paric, Florian Fleischmann, Markus Greim, Wolfgang Kusterle: The Determination of Rheological Properties of „High Slump Concrete” and SCC – the Advantages of a Modified Online Ball Measuring System, Rheologische Messungen an Baustoffen 2016, Tagungsband zum 25. Workshop und Kolloquium, 2. und 3. März an der OTH Regensburg, tredition GmbH, Hamburg, 2016. | 87 Energie und Mobilität Energie und Mobilität sind für unsere Gesellschaft sowie Wirtschaft von höchster Bedeutung. Zudem stellen sie uns stets vor neue Herausforderungen: von erneuerbaren Energien bis zum intelligenten Energiemanagement und von intelligenter Fahrerassistenz bis zu neuartigen sicheren Mobilitätskonzepten. Ein ressourcenschonender und effizienter Umgang ist hierfür unerlässlich. Unsere Forschungsansätze zielen darauf ab, Energie effizienter zu nutzen und zu speichern sowie Mobilitätsstrukturen sicherer zu gestalten. 88 | E N E R G I E U N D M O B I L I T Ä T SyNErgie: Stromnetzplanung als Schlüsselbaustein der Energiewende Die Energiewende stellt Netzbetreiber vor neue Herausforderungen. Ein Aspekt ist dabei die Blindleistungsbereitstellung. Blindleistungsflüsse im Stromnetz beeinflussen zum einen die Spannungshaltung und zum anderen die Netzstabilität. Derzeit gleichen diese unerwünschten Ströme vorrangig konventionelle Kraftwerke aus. Aufgrund des Wegfalls der großen Atom- und Kohlemeiler benötigt das System neue Lösungen. Ziel des Vorhabens SyNErgie ist die Beschreibung von Netzplanungs- und Netzführungsstrategien, mit Augenmerk auf der Integration eines Blindleistungsmanagements, hinsichtlich Regelungs- und Planungsstrategien. Im Zuge der Energiewende stehen Verteilnetzbetreiber vor neuen Aufgaben und Herausforderungen hinsichtlich der Systemdienstleistungen. Systemdienstleistungen sind Funktionen, die ein Stromnetz benötigen, um stabil betrieben werden zu können. Ein Aspekt ist dabei die Blindleistungsbereitstellung. Blindleistung entsteht überwiegend beim Auf- und Abbau magnetischer Felder, z. B. in elektrischen Motoren. Blindleistung kann am Verbraucher nicht in Nutz-/Wirkenergie wie Licht oder Wärme umgesetzt werden, weshalb sie den Zusatz „Blind“ trägt. Sie pendelt vielmehr zwischen Quelle und Verbraucher, ist aber dennoch für den Betrieb der Stromnetze notwendig. Die Blindleistungsflüsse im Stromnetz beeinflussen die Spannungshaltung und die Netzstabilität. Derzeit gleichen diese „unerwünschten Blind-Ströme“ vorrangig konventionelle Kraftwerke aus. Aufgrund des sukzessiven Wegfalls der großen Atom- und Kohlemeiler benötigt das Stromnetz alternative Lösungen. Ziel des Vorhabens SyNErgie (Systemoptimierendes Netzund Energiemanagement für die Verteilungsnetze der Zukunft) ist das Auffinden und Überführen solcher Lösungsansätze in für Netzbetreiber anwendbare Planungs- und Betriebskonzepte (kurz Blindleistungsmanagement) für Mittelspannungsnetze (siehe Abbildung 1). Damit sollen neue Möglichkeiten geschaffen werden, den Blindleistungsbedarf von Verteilungsnetzen zu optimieren. Im Fokus stehen u. a. betriebliche Kompensationsanlagen (kompensieren Blindleistung im Netz von großen Firmen) und dezentralen Erzeugungsanlagen (z.B. PVund Wind-Anlagen), die in der Mittelspannungsebene (20.000 V) angeschlossen sind. Über die Auswertung von Messdaten (mit Auflösungen bis in den Sekundenbereich) wird im ersten Schritt das theoretische Potenzial ausgewählter realer Anlagen erfasst. Über Hochrechnungen und Simulationen wird dann ein für das Stromnetz selbstgeführter Master-Q-Regler Slave-Q-Regler EZA-Q-Regler HS: Hochspannung UW: Umspannwerk MS: Mittelspannung Abbildung 1: Schematische Darstellung eines Mittelspannungsnetzes mit dezentraler Einbindung von Blindleistung (Q) über die Verbraucher und Erzeuger sowie betrieblichen Kompensationsanlagen und dezentrale Erzeugungsanlagen. Bild: OTH Regensburg – FENES ENERGIE UND MOBILITÄT | 89 Projektleiter Prof. Dr.-Ing. Oliver Brückl Q in MVAr Forschungsstelle für Energienetze und Energiespeicher (FENES) [email protected] Projektmitarbeiter Matthias Haslbeck (M.Sc.) Reinhard Kreuzer (B.Eng.) Christian Adelt P in MW Christopher Mühlbauer (B.Eng.) Abbildung 2: Vergleich einer Messung eines realen Mittelspannungsnetzes (schwarze Punkte im Hintergrund) mit dem über Simulationen nachgestellten Verhalten (blaue Punkte im Vordergrund). Die Messung zeigt dabei das Wirk-Blindleistungs-Verhalten eines Mittelspannungsnetzes mit rd. 450 km2, d. h. das aufsummierte Verhalten von rd. 185 Niederspannungsnetzen und zahlreichen Wind-, PV- und Biomasseanlagen(in Summe 55.000 kW installierte Leistung). Bild: OTH Regensburg – FENES Sebastian Kick (M.Sc.) nutzbares Potenzial abgeleitet, das die Basis für die Auslegung von Versuchsreihen im realen Betrieb „Feldversuch“ bildet. Im geplanten Feldversuch kommen Blindleistungsregler zum Einsatz, die einerseits autark (d.h. ohne Informationen von außen) oder andererseits mit externer Vorgabe arbeiten. Die geplanten zwei Feldversuche sind Kernstück des Projektes und finden im Raum Nürnberg und Würzburg statt und sollen die entwickelten Ansätze aus dem Projekt SyNErgie unter realistischen Bedingungen evaluieren. Das heißt: Industriebetriebe und Erzeugungsanlagen sollen aktiv Blindleistung für das Stromnetz bereitstellen. So soll der Nachweis erbracht werden, dass eine signifikante Optimierung hinsichtlich des Blindleistungsmanagements möglich ist. Durch die Erschließung dieses vorhandenen Potenzials in Verbindung mit einem netzdienlichen Einsatz erwarten die Projektteilnehmer eine signifikante Optimierung des Netzbetriebs und somit einen wichtigen Beitrag für die Energiewende. Zum aktuellen Zeitpunkt finden die finalen Abstimmungen zwischen den ausgewählten Betrieben und dem Projektverbund aus SyNErgie statt, bevor es Ende des 2. Quartals 2017 in die praktische Erprobung geht. Neben der direkten Regelung von Erzeugungsanlagen und betrieblichen Kompensationsanlagen umfassen die Projektziele von SyNErgie auch die Verbesserung von Zuwendungsgeber Projektinformationen SyNErgie – Systemoptimierendes Netz- und Energiemanagement für die Verteilungsnetze der Zukunft Ausführende Stelle: Ostbayerische Technische Hochschule Regensburg – Forschungsstelle für Energiespeicher und Energienetze (FENES), Regensburg, Bayern Tabelle 1: Projektsteckbrief Thomas Sippenauer (M.Sc.) Tobias Sator (B.Eng.) Andreas Berling (B.Eng.) Johannes Rauch (B.Eng.) Maksym Klitsman (M.Eng.) Philipp Schulz (B.Eng.) Bundesministerium für Wirtschaft und Energie (BMWi) Förderzeitraum: 01.03.2015 – 31.05.2018 Bewilligte Summe: 758 TEuro Homepage www.forschung-stromnetze.info/projekte/ neues-blindleistungsmanagement-fuer-verteilnetze/ Modellierungsgrundlagen für Lastflusssimulationen und die Regelung von Umspannwerkstransformatoren. Wie gut die Simulation die Realität wiedergibt, zeigt Abbildung 2. Die sogenannten Wirk-Blindleistungswolken zeigen das Verhalten eines Mittelspannungsnetzes mit einer Fläche von rund 450 km2 über ein Jahr. Simulation und Messung sind dabei fast deckungsgleich. Der Projektverbund setzt sich aus den beiden Verteilnetzbetreibern Main-Donau Netzgesellschaft mbH und Mainfranken Netze GmbH, den beiden Kompensationsanlagenherstellern FRAKO Kondensatoren- und Anlagenbau GmbH und KBR GmbH sowie der OTH Regensburg zusammen. Oliver Brück, OTH Regensburgl ■ Matthias Haslbeck, OTH Regensburg ■ 90 | E N E R G I E U N D M O B I L I T Ä T Future Applications in Model Based Engineering Die Mobilität der Zukunft ist durch ein hohes Maß an Flexibilität im Bereich des Antriebsstrangs gekennzeichnet. Hybridsysteme und Elektromotoren stellen dabei nur einen ersten Schritt dar. Diesbezüglich steigt die Nachfrage an mehr Funktionalität und Vernetzung der verschiedenen Systeme, was wiederum mit steigenden Entwicklungskosten verbunden ist. Um zukünftige Antriebsstränge effizient weiter entwickeln zu können, ist der Einsatz neuer Methoden in Verbindung mit simulativen Ansätzen unumgänglich. Auf Basis von neuronalen Netzen und dem Tool Matlab/Simulink wird am Beispiel „Gesamtfahrzeug“ im Labor für Verbrennungsmotoren und Abgasnachbehandlung (ceec) an der Erstellung eines Baukastenprinzip gearbeitet, das es ermöglicht, schnell auf jegliche Veränderung am System zu reagieren. Aufgrund der vielen Funktionalitäten moderner PKWs wird es zunehmend schwieriger, diese im Zuge des Entwicklungsprozesses sorgfältig in einem allumfassenden Rahmen zu testen. Gleichzeitig werden die Entwicklungszeiten fortwährend immer kürzer, was den Druck auf Automobilbauer und Zulieferer zusätzlich erhöht. Eine effiziente, virtuelle Entwicklungsumgebung wird daher in Zukunft von zunehmend größerer Bedeutung sein. Fahrzeuge können innerhalb dieser frühzeitig im Entwicklungsprozess auf rein virtueller Basis getestet werden, wodurch eine späte Fehlerdetektion, die mit hohen Kosten verbunden ist, vermieden werden kann. Die virtuelle Beschreibung des Verhaltens von komplex verzweigten Systemen stellt in der Praxis eine enorme Herausforderung dar. Zum einen stehen für eine Vielzahl Abbildung 1: Geplante Schlüsselpunkte für das Projekt an Systemkomponenten meist bereits sehr detaillierte physikalische Simulationsmodelle zur Verfügung, zum anderen lassen sich diese aufgrund der Spezialisierung auf einen bestimmten Fachbereich nur in einem geringen Umfang in anderen Bereichen einsetzen. Dies führt gezwungenermaßen dazu, dass Simulationsmodelle vielfach mit oft unterschiedlichsten Detaillierungsgraden aufgebaut werden, weil kein interdisziplinärer Informationsfluss stattfindet und damit weitere Entwicklungsressourcen beansprucht werden. Für zukünftige Simulationsmodelle bedeutet dies: Zum einen müssen die Modelle interdisziplinär nutzbar gemacht werden, damit diese nicht redundant aufgebaut werden, zum anderen sollen sich diese zu einem größeren, umfassenderen Modell1 vereinen lassen. Eine manuelle Verknüpfung vieler Beschreibungsmodelle aus teils unterschiedlichen Sofwaretools stellt trotz bereits bestehender Standardisierungen2 aufgrund des enormen Anpassungsaufwandes schnell keine Option mehr dar. Folglich ist es in Zukunft unumgänglich, hierfür künstlich intelligente Systeme zu nutzen, die unter Verwendung der enormen Menge an bestehenden Daten, Muster erkennen und Kompatibilitäten zwischen den Modellen sichtbar machen. Abbildung 1 zeigt hierzu, mit welchen Schlüsselpunkten das Labor Verbrennungsmotoren und Abgasnachbehandlung diese Herausforderungen bewerkstelligen will. ENERGIE UND MOBILITÄT Ein weiterer Vorteil solcher datengetriebener Systeme ist, dass die Herkunft und Beschaffenheit der Daten keine Rolle spielt. So lassen sich neben den Daten aus Simulationsmodellen oder den Simulationsmodellen selbst auch experimentell ermittelte Daten einbinden und umfassend nutzen. Gerade hier zeigt sich auch in der Praxis, dass experimentelle Untersuchungen – teils zur Validierung von Simulationsmodellen – oft mehrmals unabhängig voneinander durchgeführt werden, obwohl diese genauso aus einer Vielzahl bereits bestehender Daten extrahiert werden könnten, jedoch interdisziplinär unzugänglich oder schlicht nicht interpretierbar sind. | 91 Projektleiter Prof. Dr.-Ing. Hans-Peter Rabl Leiter Labor Verbrennungsmotoren und Abgasnachbehandlung (ceec) [email protected] Projektmitarbeiter Peter Schwanzer (M.Sc.) Geldgeber Laborinternes Projekt Homepage http://www.ceec-regensburg.de Abbildung 2: Ansatz für die Umsetzung des Vorhabens Im Sinne dieser Problemstellungen arbeitet das Labor für Verbrennungsmotoren und Abgasnachbehandlung der OTH Regensburg aktuell an einem grundlegenden Konzept zur Bewältigung dieser Aufgaben vgl. Abbildung 2. Hierbei gilt es allen voran zu ermitteln, an welcher Stelle die größten Schwierigkeiten liegen, bestehende Simulationsmodelle und Messdaten in eine neue Entwicklungsumgebung einzubinden. Ebenso muss gezeigt werden, welche Kenngrößen und Merkmale sich zur Identifizierung eines Simulationsmodells eignen und wie diese Informationen aus den Rohdaten extrahiert werden können, um damit „Maschinelles Lernen“ zu betreiben. Dies erfordert in erster Instanz ein sehr hohes Maß an Systemverständnis, im Weiteren aber auch umfassende Kompetenzen im Bereich Informatik und Programmierung. Eine der größten Herausforderungen wird es daher sein, die Bereiche Maschinenbau und Informatik im Rahmen dieses Forschungsprojektes zu vereinen. Ottfried Schmidt, OTH Regensburg ■ Peter Schwanzer, OTH Regensburg ■ Hans-Peter Rabl, Fakultät Maschinenbau, Labor Verbrennungsmotoren und Abgasnachbehandlung ■ L I TE R ATUR 1. Schaffnit, J. et al.: Fahrzeugmodelle effizient und nachhaltig managen. ATZ Volume 119 Issue 4 , S 42-47 (2017) 2. http://fmi-standard.org 92 | E N E R G I E U N D M O B I L I T Ä T Klimaschutz: Weltweit Null-Emissionen bis 2050 – machbar! Seit 1992 berät der Wissenschaftliche Beirat der Bundesregierung Globale Umweltveränderungen (WBGU) die Bundesregierung in der Klimapolitik und wird mit der Erstellung von Sondergutachten und Stellungnahmen beauftragt. Im Rahmen des WBGU-Sondergutachtens „Entwicklung und Gerechtigkeit durch Transformation: Die vier großen I“ wurde ein Narrativszenario zur Energieversorgung bis 2050 als globaler Transformationspfad entworfen. Ziel der Expertise war die Erstellung, Simulation und Auswertung eines Narrativszenarios. Dieses wurde so gestaltet, dass die Klimaziele von Paris (COP21) ohne Geoengineering und negativen Emissionen eingehalten werden. Dies bedeutet, eine globale Erderwärmung von 1,5–1,7°C nicht zu überschreiten und somit ein maximales Emissionsbudget von 660 Gt CO2 bis 2050 einzuhalten. Es zeigte sich, dass dieses Ziel unter ambitionierten Bedingungen erreicht werden kann. Um den globalen Temperaturanstieg auf deutlich unter 2°C zu begrenzen, dürfen die kumulierten CO2-Emissionen von 2010 bis 2050 nicht über 660 Gt (Gigatonnen) steigen. Ein Narrativszenario zur globalen Energieversorgung in den Sektoren Strom, Wärme und Verkehr sowie dem nichtenergetischen Verbrauch fossiler Rohstoffe wurde hierfür erstellt. Neben dem vorgegebenen Emissionsbudget von 660 Gt wurden weitere Leitplanken für das Jahr 2050 festgesetzt, die als Grundannahmen in das Szenario eingingen: • 0 Prozent CO2-Emissionen • Früher globaler Kohleausstieg • 0 Prozent Anbaubiomasse (Ausnahme: Abfallbiomasse) • 0 Prozent fossile und nukleare Energieträger • 0 Prozent Verbrennungsmotoren im Verkehr • Elektrifizierung des nichtenergetischen Verbrauchs • Kein Geoengineering und CCS (Carbon Dioxide Capture and Storage / CO2-Abscheidung und -Speicherung) Für das Szenario wurde ein Modell erstellt, in dem die Struktur des Endenergiebedarfs bis zum Jahr 2050 unter den vorgegebenen Randbedingungen simuliert wurde. Daraus wurde anhand von Wirkungsgraden und CO2Emissionsfaktoren der Bedarf an Primärenergie (in den 35 Nichtenergetischer Verbrauch Transport 30 Wärme Strom CO2-Emissionen in GT 25 20 15 10 5 0 2010 2015 2020 2025 2030 2035 Abbildung 1: CO2-Emissionen nach Sektoren von 2010 bis 2050. 2040 2045 2050 ENERGIE UND MOBILITÄT Energieträgern wie Kohle, Gas oder Biomasse gespeicherte Energie) bzw. die CO2-Emissionen berechnet. | 93 Projektleiter Prof. Dr. Michael Sterner, FENES Als Indikatoren für den Zu- oder Rückbau der Energieträger dienen deren Kosten, der spezifische CO2-Ausstoß sowie der Wirkungsgrad. Diese Faktoren bestimmen die Zu- und Abbaugradienten in der Simulation. Limitierender Faktor für den Ausbau der erneuerbaren Energien ist das globale technische Potenzial. [email protected] Projektmitarbeiter Franz Bauer (M.Eng.), FENES [email protected] Kooperationspartner WBGU, Berlin Abb. 1 zeigt die CO2-Emissionen auf. Anfangs bleiben diese aufgrund noch vorhandener fossiler Subventionen nahezu konstant. Es folgt ein steiler Abfall bis 2031, da hier ein enormer Rückbau der Kohlekraft, die sehr hohe CO2-Emissionen aufweist, stattfindet (s. Abb. 2). Die restlichen fossilen Kraftwerke, vor allem auf Basis von Erdgas, werden wegen der niedrigeren CO2-Emissionsfaktoren wesentlich langsamer vom Netz genommen. Der Großteil der Emissionen entstammt aus dem Stromsektor. Mit dem Ausstieg aus der Kohlekraft sinken die Emissionen im Stromsektor erheblich. Die CO2-Emissionen aus dem Wärmesektor sind ab 2025 am dominantesten, da hier noch ein relativ hoher Anteil an Erdgas und Erdöl vorhanden ist. Abb.2 zeigt den globalen Primärenergiebedarf bis 2050 und dessen Deckung. Die fossilen Energieträger sowie die Kernkraft werden rapide rückgebaut. Erdgas verbleibt länger im Energiemix vertreten. Gegenläufig dazu verhalten sich die erneuerbaren Energien. Dabei werden die Projektlaufzeit: 3 Monate Abfallbiomasse, Wasserkraft und Meeresenergie bis zu ihrem maximalen Potenzial ausgebaut. Die tragenden Säulen der Energieversorgung sind Wind- und Solarenergie. Die Grundlast wird zukünftig aus Energiespeichern, Geothermie, Wasserkraft und biogenen Abfällen gedeckt. Strom wird zudem zur Primärenergie für alle Sektoren. Mit dem Szenario konnte gezeigt werden, dass aus Sicht des Klimaschutzes ein harter Phase-out fossiler Energieträger sowie eine massive Sektorkopplung notwendig sind. Michael Sterner, FENES, OTH Regensburg ■ Franz Bauer, FENES, OTH Regensburg ■ 600 500 Biokraftstoffe Primärenergie in EJ fossile Kraftstoffe 400 Geothermie Anbaubiomass + Abfall Solar 300 Wind Wasser + Meer Erdgas 200 Erdöl Kohle Kernenergie 100 0 2005 2010 2015 2020 2025 2030 2035 2040 2045 2050 Abbildung 2: Globaler Primärenergiebedarf und dessen Deckung von 2005 bis 2050. L I TE R ATUR WBGU – Wissenschaftlicher Beirat der Bundesregierung Globale Umweltveränderungen: Entwicklung und Gerechtigkeit durch Transformation: Die vier großen I. Sondergutachten. Berlin (2016) 94 | E N E R G I E U N D M O B I L I T Ä T HIS: Entwicklung hybrider Hochleistungsaufbauten von faserverstärkten Kunststoffen zur Erhöhung des Schutzes vor Schäden durch transversale Impactbelastung Ziel des Forschungsvorhabens ist die Qualifizierung von faserverstärkten Kunststoffen dahin, dass diese neben Strukturaufgaben auch eine Schutzfunktion gegen transversale Impactbelastung ermöglichen. Der Lösungsansatz ist die Verwendung von hybriden Lagenaufbauten aus verschiedenen Fasermaterialien. Dabei werden die unterschiedlichen Vorzüge von relevanten Faserarten, hohe spezifische Fest- und Steifigkeit bei Kohlenstoff- bzw. Bruchdehnungen bei Glasfasern, so kombiniert, dass entweder eine hohe Energiedissipation (Durchdringungsschutz) oder eine geringe Schädigung (Strukturschutz) entsteht. Aufgrund der guten spezifischen Eigenschaften von faserverstärkten Kunststoffen (FVK) werden diese zumeist im Sinne eines Strukturwerkstoffes verwendet. Die Resistenz einer Struktur gegen transversale Schlagbeanspruchung wird in diesem Zusammenhang häufig vernachlässigt. Ziel des Forschungsvorhabens ist die Qualifizierung von FVK dahin, dass diese neben Strukturaufgaben auch eine Schutzfunktion gegen transversale Impactbelastung ermöglichen. Der Lösungsansatz ist die Verwendung von hybriden Lagenaufbauten aus verschiedenen Fasermaterialien. Dabei werden die unterschiedlichen Vorzüge von relevanten Faserarten, hohe spezifische Festigkeit und Steifigkeit bei Kohlenstoff- bzw. Bruchdehnungen bei Glasfasern, so kombiniert, dass entweder eine hohe Energiedissipation (Durchdringungsschutz) oder eine geringe Schädigung (Strukturschutz) entsteht. Das Leichtbaupotenzial von FVKs wird derzeit sowohl in der Luft- und Raumfahrt als auch in der Automobilindustrie und anderen Anwendungen genutzt. Dabei stehen Eigenschaften wie die hohe spezifische Steifigkeit und Festigkeit von kohlenstofffaserverstärktem Kunststoff (CFK) im Fokus. In diesem Forschungsvorhaben sollen die jeweiligen Vorteile verschiedener Faserarten kombiniert werden. Die Durchführung erfolgt durch definierte Impactbelastungen auf monolithische und hybride Materialkombinationen, welche durch unterschiedliche Impactgeschwindigkeiten im Low-, Mid- sowie High-VelocityBereich realisiert werden. Dabei werden die dissipierte Energie sowie die resultierende, projizierte Delaminationsfläche identifiziert und in Relation zu den Impact- Abbildung 1: links: Beschussuntersuchung eines gekrümmten glasfaserverstärkten Kunststoffs [0/90]s mit 420 m/s. rechts: Aufbau der Versuchsdurchführung für High-Velocity-Impact-Untersuchungen. ENERGIE UND MOBILITÄT parametern und dem Lagenaufbau betrachtet. Dadurch können in Abhängigkeit der verwendeten Materialien und der verwendeten Lagenorientierungen Schutzstrukturen identifiziert werden, welche für die beiden Anwendungsfälle „höchste Energieabsorption“ oder „geringste Schadensausbreitung“ die besten Eigenschaften darstellen. Durch die Ergebnisse kann der Personenschutz bei fahrzeugspezifischen Anwendungen erhöht und der Insassenschutz weiter verbessert werden. | 95 Projektleiter Prof. Dr.-Ing. Ingo Ehrlich Labor für Faserverbundtechnik [email protected] Projektmitarbeiter Sven Steinmann [email protected] Geldgeber Der Versuchsaufbau des High-Velocity-Impacts ist in Abbildung 1 dargestellt. Zusätzlich wird der hochdynamische Vorgang eines Impacts mittels numerischer Simulation nachgestellt, um Vorhersagen über die Energiedissipationsfähigkeit von variierenden Lagenaufbauten treffen und diese mit den experimentellen Untersuchungen abgleichen zu können. Des Weiteren werden quasi-statische Belastungssimulationen und Versuche durchgeführt, um die Steifigkeiten der Lagenaufbauten zu ermitteln Bayerische Forschungsstiftung (BFS) Das Forschungsprojekt wird an der OTH Regensburg vom Labor für Faserverbundtechnik (LFT) der Fakultät Maschinenbau durchgeführt. Als Projektpartner wirken die Universität der Bundeswehr München (UniBwM) und das Unternehmen Wethje Carbon Composites GmbH mit. Homepage Kooperationspartner Kooperatives Forschungsprojekt zwischen dem Labor für Faserverbundtechnik und der Wethje Carbon Composites GmbH, Hengersberg Projektlaufzeit 36 Monate Fördersumme 426 TEuro https://www.oth-regensburg.de/?id=1171 Ingo Ehrlich, OTH Regensburg ■ Sven Steinmann, OTH Regensburg ■ L I TE R ATUR Abrate, S.: Impact on laminated composite materials. In: Applied Mechanics Review, Vol. 44, No. 4, 1991 Ehrlich, I.: Impactverhalten schwach gekrümmter Strukturen aus faserverstärkten Kunststoffen. Dissertation, Universität der Bundeswehr München, Fakultät für Bauingenieur- und Vermessungswesen, Neubiberg, 2004 Steinmann S., Ehrlich I.: Investigation of Transverse Impact Stress in Fiber Reinforced Plastics Under High-Velocity Impact and Determination of the Experimental Procedure, Applied Research Conference 2016 96 | E N E R G I E U N D M O B I L I T Ä T Metastudie: Dekarbonisierung für eine nachhaltige Energiewirtschaft In dieser Metastudie „Analyse sektorenübergreifender Studien zur Dekarbonisierung des deutschen Energiesystems“ im Auftrag der Deutschen Energie-Agentur wurden insgesamt 27 Studien im Hinblick auf ihre Strategien zur Dekarbonisierung des Stromsektors verglichen, wobei vier davon detaillierter ausgewertet wurden. Ziel der Studie ist es, die unterschiedlichen Vorstellungen über den aus Gründen des Klimaschutzes notwendigen Wandlungsprozess des Stromsystems zu analysieren und vor allem Gemeinsamkeiten sowie Unterschiede zu identifizieren, um daraus Handlungsempfehlungen abzuleiten. In der Metastudie wurden die 27 Studien im Umfeld der Sektorkopplung hinsichtlich 1) Betrachtung der Dekarbonisierung, 2) Einbeziehung der Infrastruktur, 3) Beschreibung von Transformationspfaden und 4) Abbildung der Sektorkopplung analysiert. Erweitert wurden diese Aspekte um eine Kostenbetrachtung. Das energiepolitische Zieldreieck aus Versorgungsicherheit, Umweltverträglichkeit und Wirtschaftlichkeit wurde durch Akzeptanz (soziale Verträglichkeit) ergänzt und ebenfalls untersucht. Die Dekarbonisierung der Sektoren Strom, Wärme und Verkehr wird bereits bei allen 27 Studien umfassend abgebildet. Weitgehend unbehandelt ist dagegen die Dekarbonisierung des nichtenergetischen Verbrauchs (NEV), v. a. in der chemischen Industrie. Die Studien kommen alle zu dem Schluss, dass die klimapolitischen Ziele beim Fortschreiben des Status Quo nicht erreicht werden. Die Energieinfrastruktur wird zum Großteil nur für die Stromversorgung betrachtet, während die nötige Infrastruktur für die Sektoren Wärme, Verkehr und nichtenergetischer Verbrauch kaum bis gar nicht abgebildet wird. Gravierend ist bei allen Studien die nahezu pauschale Annahme eines idealen Stromnetzausbaus, was aber aus Sicht der Sozialverträglichkeit keine realistische Annahme ist. Entsprechend wenig brauchbar und zielführend sind die darauf basierenden Ableitungen von politischen Handlungsempfehlungen. Entsprechende Kostenbetrachtungen eines realen Netzes fehlen gänzlich. Auch werden die Zusammenhänge zwischen eingesetzten Technologien in den Transformationspfaden und dem Ausbaubedarf der spezifischen Netze nur in begrenztem Umfang gesehen. Die Betrachtung der Versorgungssicherheit erfolgt ohne reale Infrastrukturbetrachtung. Eine Untersuchung all dieser Thematiken im gesamtheit- © FENES / OTH Regensburg 2016 Abbildung 1: Ausgewählte Studien im energiepolitischen Viereck ENERGIE UND MOBILITÄT lichen Kontext konnte in den betrachteten Studien nicht gefunden werden. Ein beschleunigter Kohleausstieg sowie ambitionierte Sanierungsraten werden ebenso wie starke Ausbaupfade für erneuerbare Energien und Energieeffizienz studienübergreifend als fast unumgänglich eingestuft. Erneuerbarer Strom wird als Primärenergie betrachtet und sektorkoppelnd über Elektromobilität, Wärmepumpen und Power-to-X eingesetzt. Die Rolle der Kraft-WärmeKopplung (KWK) wird ambivalent bewertet. Es fehlen aber Transformationspfade für den nichtenergetischen Verbrauch insbesondere der Sektorkopplung von Strom und NEV sowie alternative Szenarien zu einem vollumfänglichen Stromnetzausbau. Gerade im Zusammenhang mit der Sozialverträglichkeit ist eine genauere Betrachtung für die ganzheitliche Bewertung der Energiewende und die Aufstellung robuster Transformationspfade aber unabdingbar. Die Sektorkopplung ist für die beiden Varianten StromWärme und Strom-Verkehr bereits gut abgebildet und erforscht. Allen Studien gemeinsam ist die Ausweisung eines deutlich höheren Strombedarfs durch die Sektorkopplung bei steigender Primärenergieeffizienz. Die Wechselwirkungen zwischen mehreren Sektoren sind aber nur unzureichend abgebildet. Die Aus- und Rückwirkungen auf den Stromsektor als zentraler Nukleus der Energiewende sind ebenfalls bisher zu wenig erforscht. Nach abgeschlossener Transformation sind die Kosten nicht höher als in einem Vergleichsszenario, das die heutige fossile Energiewirtschaft weiterführt. Im Gegenteil: Die Energiewende kann unter bestimmten Bedingungen /Einhaltung bestimmter Vorgehensweisen kostengünstiger als eine Weiterführung des heutigen Energiesystems sein. Die Erzeugungskosten der Sektoren Strom, Wärme, Verkehr werden durchgehend betrachtet. Die Untersuchungen sind in allen Fällen auf eine 80 % TreibhausgasMinderung optimiert, jedoch werden auch eine Dekarbonisierung um 95 % bzw. 100 % kostenseitig betrachtet. Die Betrachtung der Kosten erfolgt ohne Einbeziehung der notwendigen Infrastruktur. Die Synergien und die Mehraufwände einer sektorenübergreifenden Infrastrukturnutzung werden demgegenüber im Detail mit hoher zeitlicher Auflösung betrachtet – eine umfassende Bewertung aller Sektorenkopplungen ist jedoch nicht vorhanden. Die Kosten für Speicher und Lastmanagement sind nur eingeschränkt analysiert. Es werden zwar alle betrachteten Teilaspekte untersucht, deren Detailgrad und Be- | 97 Projektleiter Prof. Dr.-Ing. Michael Sterner Forschungsstelle Energienetze und Energiespeicher (FENES) Fakultät für Elektro- und Informationstechnik [email protected] Projektmitarbeiter Franz Bauer (M.Eng.) Fabian Eckert (M.Sc.) Andreas Hofrichter (M.Sc.) Auftraggeber Deutsche Energie-Agentur GmbH Projektlaufzeit: ca. 2,5 Monate Homepage: www.dena.de trachtungsumfang sind aber noch ausbaufähig. Untersuchungsbedarf herrscht demnach bei der Rückwirkung auf die Volkswirtschaft im Kontext der Energiewendekosten durch die Kopplung aller Sektoren. Die Untersuchungsergebnisse der Studien werden in ein energiepolitisches Zieldreieck überführt. Das Zieldreieck setzt sich aus den für das zukünftige Energiesystem notwendigen Aspekten Versorgungsicherheit, Umweltverträglichkeit und Wirtschaftlichkeit zusammen und wird durch die Sozialverträglichkeit (Akzeptanz) zu einem energiewirtschaftlichen Viereck ergänzt (Abb. 1). Während Umwelt- und Kostenverträglichkeit hinreichend abgedeckt sind, bleiben in der Bewertung der Versorgungssicherheit teilweise zentrale Themen (v. a. Netzstabilität – technische Versorgungssicherheit) außen vor. Ebenso wird die Dimension der Sozialverträglichkeit kaum bis gar nicht betrachtet. Hier gibt es entsprechenden Handlungs- und Forschungsbedarf. Aus Sicht der Autoren ist die zukünftige Betrachtung des nichtenergetischen Verbrauchs (v. a. Chemiesektor) samt Rück- und Wechselwirkung mit dem Stromsektor wichtig. Ebenso sollten neben den üblichen Szenarien mit idealem Netzausbau („Kupferplatte“) auch Szenarien mit regionalen Märkten und eingeschränktem Netzausbau betrachtet werden. Michael Sterner, OTH Regensburg Franz Bauer, OTH Regensburg Fabian Eckert, OTH Regensburg Andreas Hofrichter, OTH Regensburg ■ ■ ■ ■ L I TE R ATUR Norman Gerhardt, et al.: “Interaktion EE-Strom, Wärme und Verkehr: Analyse der Interaktion zwischen den Sektoren Strom, Wärme/Kälte und Verkehr in Deutschland in Hinblick auf steigende Anteile fluktuierender Erneuerbarer Energien im Strombereich unter Berücksichtigung der europäischen Entwicklung,” Fraunhofer IWES, Kassel, 2015. J. Nitsch, et al.: “Langfristszenarien und Strategien für den Ausbau der erneuerbaren Energien in Deutschland bei Berücksichtigung der Entwicklung in Europa und global: Schlussbericht BMU – FKZ 03MAP 146,” Deutsches Zentrum für Luft- und Raumfahrt; Fraunhofer-Institut für Windenergie und Energiesystemtechnik; Ingenieurbüro für neue Energien, Berlin, 2012 H.-M. Henning; A. Palzer: „Was kostet die Energiewende?: Sektor- und Energieträgerübergreifende, modellbasierte Untersuchung zur System- und Kostenentwicklung einer klimaschutzkompatiblen Transformation des deutschen Energiesystems bis 2050”, 2015. Öko-Institut e.V., „Klimaschutzszenario 2050”, Ökoinstitut e. V.; Fraunhofer ISI, Berlin, 2015 Impressum Herausgeber Ostbayerische Technische Hochschule Regensburg Prof. Dr. Wolfgang Baier, Präsident Prüfeninger Straße 58 | 93049 Regensburg Tel. 0941 943-02 www.oth-regensburg.de Redaktionsleitung Christine Wirth Mitarbeit Susanne Deisböck, Sarah Doll, Eva Eichenseer Konzept und Gestaltung APOSTROPH Agentur für Presse- u. Öffentlichkeitsarbeit Hans-Peter Gruber, Ruth Ibañez Landshuter Straße 37 | 93053 Regensburg Tel. 0941 56 38 11 | Fax 0941 56 38 61 Titelbild OTH Regensburg/ Florian Hammerich Anzeigenverwaltung VMK Verlag für Marketing & Kommunikation GmbH & Co. KG Norbert Bruder Faberstraße 17 | 67590 Monsheim Tel. 06243 909-0 www.vmk-druckerei.de Druck VMK Druckerei GmbH Faberstraße 17 | 67590 Monsheim Tel. 06243 909-110 www.vmk-druckerei.de Text | Bildnachweis Die Verantwortung für Inhalt und Bildmaterial der Beiträge liegt bei den jeweiligen Autorinnen und Autoren. Stand Juni 2017 Auflage 3.000 Exemplare ISBN-Nr: 978-3-9818209-3-5 Danksagung Die OTH Regensburg dankt allen Autorinnen und Autoren für die zahlreichen Forschungsbeiträge. „Meine Geschichte: Ich brauche Spannung im Leben, auch bei der Arbeit. Bis zu 1,8 Millionen Volt – so stark sind die Blitze, mit denen ich unsere Produkte prüfe. Und welche Geschichte schreiben Sie?“ Seit über 140 Jahren schreiben wir bei MR unsere Erfolgsgeschichte. Wir machen Transformatoren intelligent regelbar, entwickeln Hightech-Isoliermaterialien für den Hochspannungs-Einsatz und Steuerungsanlagen für eine optimale Netzspannungs- und Stromqualität. Heute regeln unsere Produkte mehr als 50 % des weltweit erzeugten Stroms. Unseren über 3.000 Mitarbeitern bieten wir viel Raum zum Gestalten und gleichzeitig Heimat und Rückhalt. Schreiben auch Sie Ihre ganz persönliche MR-Geschichte. Besuchen Sie uns auf www.reinhausen.com/karriere THE POWER BEHIND POWER. Das machen wir nicht… …alles andere schon. Let your ideas shape the future. Bei Continental bieten wir spannende Aufgaben und ein dynamisches Umfeld für smarte, innovative Menschen, die Ideen zum Leben bringen - egal wo sie in ihrer Karriere stehen. Unser breites Portfolio und unsere Expertise kombiniert mit Ihrem persönlichen Beitrag machen es möglich, erfolgreich die innovativsten Mobilitätslösungen zu entwickeln - und das schon seit 1871. Als Teil unseres internationalen Teams haben Sie die Freiheit die Zukunft der Mobilität mitzugestalten. www.continental-careers.com