Forschungsbericht
2017
Foto: OTH Regensburg / Florian Hammerich
VORWORT
| 3
Liebe Leserinnen und Leser,
die thematisch breite
Ausrichtung unserer
Hochschule begünstigt
einen stark interdisziplinär geprägten Forschungsfokus. Interdisziplinarität
ist die Grundvoraussetzung für Innovationen, da gerade
an den Schnittstellen der verschiedenen Wissenschaftsfelder das höchste Innovationspotenzial liegt.
Ein schönes Beispiel gelungener interdisziplinärer Kooperation ist der Bereich Gesundheit, der in diesem Forschungsbericht nicht zuletzt auch durch den Leitartikel
von Herrn Kollegen Prof. Dr. Karsten Weber in den Fokus
rückt.
So werden die medizintechnischen und medizininformatischen Aspekte von unserem „Regensburg Center of
Biomedical Engineering“ beleuchtet, an dem auch die
Universität Regensburg mit ihrer medizinischen Kompetenz vertreten ist. Vor dem Hintergrund der steigenden
Nachfrage nach hochqualifizierten Dienstleistungen in
den Bereichen Gesundheit, Pflege und Betreuung hat
zudem unsere Fakultät für Angewandte Sozial- und
Gesundheitswissenschaften ihre Forschungs- und Lehraktivitäten um den Bereich Medizin und Gesundheit
erweitert. Unser Institut für Sozialforschung und Technikfolgenabschätzung beschäftigt sich mit ethischen
Fragestellungen ebenso wie mit medizintechnischen Innovationen und deren Auswirkung und Akzeptanz in der
Gesellschaft.
All diese Aktivitäten werden nun in unserem „Regensburg
Center of Health Sciences and Technology“ gebündelt.
So können wir effektiv auf aktuelle gesellschaftliche
Aufgabenstellungen wie die demografische Entwicklung,
den medizinisch-technischen Fortschritt sowie das
wachsende Gesundheitsbewusstsein reagieren. Ziel ist
es, den technischen Fortschritt zu nutzen und zugleich
die menschlichen Faktoren in der Gesundheitsversorgung
nicht aus den Augen zu verlieren.
Der vorliegende Forschungsbericht zeigt zudem eindrucksvoll, wie wir unsere fachliche Breite nutzen, um die
Herausforderungen der Zukunft in ihrer ganzen Fülle zu
bearbeiten – von der Digitalisierung über die Themenbereiche Energie und Mobilität, Information und
Kommunikation, Lebenswissenschaften und Ethik, Produktion und Systeme, Gebäude und Infrastruktur bis hin
zur Sensorik.
Ich freue mich sehr, dass so viele Kolleginnen und Kollegen mit ihren Forschungsaktivitäten zu diesen erfolgreichen Ergebnissen beitragen. Dafür bedanke ich mich
sehr herzlich!
Ihr
Prof. Dr. Wolfgang Baier
Präsident der OTH Regensburg
„Some call it work.
I call it: magic.“
Dr.-Ing. Jan-Philipp Weberpals, Entwickler Fügetechnologien im Leichtbauzentrum
bei Audi. Sein Maßstab ist Präzision. Nicht zuletzt aus diesem Grund hat er sich dazu
entschieden, innovative Laserstrahlprozesse bei Audi zu etablieren. Nur ein Beispiel von
vielen, wie Vorsprung entstehen kann, wenn Arbeiten sich nicht wie Arbeit anfühlt.
Weitere faszinierende Jobs unter vorsprung-bei-audi.de
Aus Visionen Vorsprung machen.
I N H A LT
| 5
Gesundheit und Pflege als gesellschaftliche Herausforderung ............................................................... 8
Zahlen und Fakten .......................................................................................................................... 10
Lebenswissenschaften und Ethik
19
PsyBio: Virtuelle Menschmodelle zur Bestimmung des Einflusses von Stress auf den Bewegungsapparat ...... 20
Stent-Delivery-Systeme zur Behandlung koronarer Gefäßverengungen .................................................... 22
Klassifikation von Auto-Fahrtypen .................................................................................................... 24
Studie: Pflegerische Fachberatung und Onlineberatung für MS-Erkrankte ............................................... 26
Information und Kommunikation
29
Statistische Korrektur gerundeter Angaben in Stichprobenerhebungen ................................................... 30
Lean IT: Lean Management in IT-Organisationen ................................................................................. 32
Universelle Energieversorgung für Funkknoten im Internet of Things ....................................................... 34
Messung der nichtlinearen Brechzahl von Glasfasern ........................................................................... 36
NoSQL Schema-Evolution in quelloffenen Software-Projekten ............................................................... 38
ATPs: Anomalieerkennung zum Detektieren von Advanced Persistent Threats ........................................... 40
Unerkannte Angriffe oder die Nadel im Heuhaufen ............................................................................. 42
Digitalisierung
45
Japter: Eine Demonstrationsplattform für Mixed-Criticality-Echtzeitsysteme mit Linux ............................ 46
Trainingsspiel für Handchirurgie ....................................................................................................... 48
An Experimental Card Game for Software Testing ............................................................................... 50
Produktion und Systeme
53
AutoRüst: Werkzeugmaschinen effizienter rüsten durch bedarfgerechte Informationsbereitstellung ........... 54
Forschungsschwerpunkte im Labor Lasermaterialbearbeitung ............................................................... 56
Behaviour of Wire Ropes and Rope Wires under Ultra Deep Temperature Conditions ................................. 58
Der Mittelspannungseinfluss bei zugschwellbeanspruchten Seildrähten .................................................. 60
ANZEIGEN
SService
ervice
Kompetenz für die industrielle Vielfalt
Industries ist Ihr zuverlässiger Partner für
intelligente, prozess- und kundenorientierte Zellen
und Lösungen. Wir bieten innovative Füge- und
Bearbeitungstechnologien, Laser- und Sonderschweißverfahren sowie alle Prozessschritte
im Gießereibereich und in der Photovoltaik- und
Batterie-Produktion bis zum After-Sales-Service an.
Ar
Arcc & Laser
Laser
SSolutions
olutions
Casting
Casting
Solutions
Solutions
Advanced W
Welding
elding
SSolutions
olutions
Photovoltaic &
Photovoltaic
Battery Solutions
Solutions
Battery
www.kuka.com
,KU$QVSUHFKSDUWQHU
'U,QJ&KULVWLDQ/DQJ
-RK6HE%DFK6WU
:HLGHQ
ZZZODQJSDWHQWFRP
)D[
3DWHQWH± *HEUDXFKVPXVWHU± 0DUNHQ± 'HVLJQV
,KU3DUWQHULQGHU2EHUSIDO]IUJOREDOHQ6FKXW],KUHVJHLVWLJHQ(LJHQWXPV
DƺŶĐŚĞŶͲ
tĞŝĚĞŶͲ
ůĂƚƚĞŶď͘EĂƚĞƌƐ;,Ϳ
I N H A LT
| 7
Produktion und Systeme
DampSIM: Lebensdauerüberwachung von faserverstärkten Kunststoffen
auf Basis der strukurdynamischen Werkstoffdämpfung ........................................................................ 62
Man Machine Interface im industriellen Umfeld: Entwicklung und Integration
einer Gestensteuerung für die Mensch Roboter Kooperation .................................................................. 64
Entwicklung eines autonomen, RTK-GPS-gestützten Systems zur zentimetergenauen Bodenmarkierung ..... 66
Sensorik
69
SPR-Imaging zur Zustandsüberwachung von Leistungstransformatoren ................................................. 70
Ringförmige Silizium-Kantenemitter mit DLC-Beschichtung für Anwendungen
in Feldemissionselektronenquellen .................................................................................................... 72
Forschungsvorhaben „CDNI“: Abwässer aus der Wäsche von Binnenschiffen ............................................ 74
Gebäude und Infrastruktur
77
Semi: Numerische Simulation der Wechselwirkungen Straßenbahn – Feste Fahrbahn
im innerstädtischen Nahverkehr ....................................................................................................... 78
Digitale 3D-Analyse mittelalterlicher Gewölbe- und Maßwerkspolien aus Münster .................................... 80
Licht, Luft, Sonne: Das Haus Schminke von Hans Scharoun ................................................................... 82
SVBA: Selbstverdichtender Beton mit zeitnaher Aussteuerung
der Mischungszusammensetzung im Betonmischer.............................................................................. 84
Energie und Mobilität
87
SyNErgie: Stromnetzplanung als Schlüsselbaustein der Energiewende ..................................................... 88
Future Applications in Model Based Engineering ................................................................................. 90
Klimaschutz: Weltweit Null-Emissionen bis 2050 – machbar! ................................................................. 92
HIS: Entwicklung hybrider Hochleistungsaufbauten von faserverstärkten Kunststoffen
zur Erhöhung des Schutzes vor Schäden durch transversale Impactbelastung .......................................... 94
Metastudie: Dekarbonisierung für eine nachhaltige Energiewirtschaft .................................................... 96
Impressum .................................................................................................................................... 98
8 |
Gesundheit und Pflege
als gesellschaftliche Herausforderung
Mit dem demografischen Wandel in Deutschland sind mehrere Phänomene verbunden: Die Lebenserwartung steigt, die Zahl der Alten und Hochbetagten wächst, der Anteil der Jüngeren an der
Bevölkerung schrumpft. Der Gesundheitsbereich, der schon heute zu einem der wichtigsten
Wirtschaftszweige gehört, wird sich durch den demografischen Wandel in Zukunft erheblichen
gesellschaftlichen Herausforderungen ausgesetzt sehen, denen auch durch den massiven Einsatz
von Technik begegnet werden soll. Hochschulen wie die OTH Regensburg spielen hierbei eine
entscheidende Rolle in Lehre und angewandter Forschung für die Strukturen und Perspektiven
dieser Zukunftsbranche und sind schon jetzt Impulsgeber für morgen.
Betrachtet man einige Kennzahlen, so wird schnell deutlich, dass der Gesundheitsbereich einer der größten Wirtschaftsbereiche in Deutschland ist: 2015 betrugen die
Gesundheitsausgaben in Deutschland 344 Mrd. Euro; das
sind fast 40 Mrd. Euro mehr als der gesamte Bundeshaushalt für 2015 umfasste. Zum Vergleich: Die deutsche
Automobilindustrie erzielte 2015 einen Gesamtumsatz
(Inland und Ausland) von etwas mehr als 404 Mrd. Euro
– bzgl. der finanziellen Seite der wirtschaftlichen Bedeutung kann die Gesundheitswirtschaft durchaus mit großen Industriezweigen mithalten. Noch prägnanter zeigt
sich dies an den Beschäftigtenzahlen: Für 2015 weist das
Statistische Bundesamt 370.000 Ärztinnen und Ärzte aus,
die Pflegestatistik zählt für die ambulante Pflege über
355.000 und für stationäre Einrichtungen über 730.000
Personen (Vollzeit- und Teilzeitbeschäftigte) – das sind
zusammen fast 1,5 Mio. Beschäftigte; während die Zahl
der Beschäftigten 2015 in der Automobilindustrie lediglich ca. 808.000 betrug.
Abbildung 1: Entwicklung der Pflegebedürftigen in Deutschland*
* auf 1.000 gerundet. Annahmen ab 2030: konstante alters- und geschlechtsspezifische
Pflegequoten des Jahres 2015; Bevölkerungsentwicklung gemäß Variante 2 der 13. koordinierten Bevölkerungsvorausberechnung. Datenquelle: Statistisches Bundesamt; Berechnungen BiB – © BiB 2017 demografie-portal.de
Doch Gesundheit und Pflege stellen nicht nur einen
wichtigen und volkswirtschaftlich bedeutenden Wirtschaftszweig dar, sondern sie sichern unmittelbar das
Wohlergehen und die Gesundheit von Menschen. Zieht
man erneut 2015 als Referenzjahr heran, waren 2,9 Mio.
Menschen pflegebedürftig, von denen 692.000 ambulant
und 783.000 vollstationär versorgt wurden. Über 19 Mio.
Patientinnen und Patienten mussten in einem Krankenhaus behandelt werden, wobei die durchschnittliche Verweildauer bei über sieben Tage lag. Kurzum: Gesundheit
und Pflege sind schon heute als Wirtschaftszweig Garant
für Beschäftigung und Wachstum; gleichzeitig sind dadurch große Teile der Bevölkerung als pflegebedürftige
Personen oder Patientinnen und Patienten direkt betroffen.
Für die Zukunft zeigen die Prognosen, dass diese Bedeutung noch weiter steigen wird: Die Zahl der Pflegebedürftigen wird bis 2050 voraussichtlich auf über 4,5 Mio.
ansteigen (vgl. Abbildung 1), die Zahl der demenziell Erkrankten in der Altersgruppe der 65-Jährigen und Älteren
könnte bis auf über 2,5 Mio. anwachsen. Gleichzeitig verzeichnet die Bundesagentur für Arbeit im Bereich der
Altenpflege in allen Bundesländern, im Bereich der
Gesundheits- und Krankenpflege in fast allen Bundesländern und im Fall der Humanmedizin bei der überwiegenden Zahl der Bundesländer schon heute einen
Fachkräftemangel. Bedenkt man gleichzeitig, dass die
Zahl der erwerbsfähigen Personen (20 bis 65-Jährige,
vgl. Abbildung 2) in Deutschland in Zukunft deutlich
schrumpfen wird, ist unschwer zu erkennen, warum Gesundheit (und hier ist Pflege immer mitgemeint) einen
Megatrend bzw. eine entscheidende gesellschaftliche
Herausforderung für die Zukunft darstellt. Denn erstens
bedeutet diese Schrumpfung, dass sich der schon heute
bestehende Arbeitskräftemangel im Pflege- und Gesundheitsbereich in Zukunft noch erheblich verschärfen
wird, zweitens aber, dass die Zahl derer, die durch ihre
| 9
Arbeit die Kosten der Pflege- und Gesundheitsversorgung
aufbringen, geringer wird. Die Konsequenz daraus ist so
einfach wie bedenklich: Pro Kopf werden mehr Lasten zu
schultern sein (vgl. Abbildung 3 am Beispiel der gesetzlichen Rente).
Um die skizzierten negativen gesellschaftlichen Auswirkungen des demografischen Wandels auf die Beschäftigten ebenso wie auf die Klienten des Gesundheits- und
Pflegewesens abzuwenden, werden seit längerem verschiedene Vorschläge diskutiert. Manche davon setzen
auf eine langfristige positive Veränderung der Geburtenraten, andere auf massive Zuwanderung, damit der
Bevölkerungsrückgang abgebremst oder gar gestoppt
werden kann und so die angedeuteten negativen Konsequenzen vermieden werden können. Beides bedeutet
tiefgreifende gesellschaftliche Veränderungen, die zum
einen hochumstritten sind und zum anderen allenfalls
auf langen Zeitskalen wirksam wären. Deutlich weniger
kontrovers scheint die Idee, Entwicklungen, die bereits in
anderen Wirtschaftszweigen vollzogen wurden, auch im
Gesundheits- und Pflegebereich umzusetzen: Rationalisierung und Automatisierung durch massiven Technikeinsatz.
Abbildung 2: Vergleich der Altersstrukturen in Deutschland
* Ergebnis der 13. koordinierten Bevölkerungsvorausberechnung (Variante 2). Datenquelle:
Statistisches Bundesamt – © BiB 2017 demografie-portal.de
Dadurch soll
• zur Kostendämpfung im Gesundheits- und Pflegesystem beigetragen werden;
• dem Arbeitskräftemangel abgeholfen werden;
Bezieher einer Altersrente
• den Beschäftigten bei der Verrichtung belastender
körperlicher Tätigkeiten geholfen oder diese gar vollständig übernommen werden, (um nicht selbst zum
Pflegefall zu werden);
• die Versorgung mit Gesundheits- und Pflegedienstleistungen auch in dünn besiedelten Regionen sichergestellt werden, da dort bereits heute die notwendige
Infrastruktur ausgedünnt ist;
• hochbetagten pflege- und hilfsbedürftigen Menschen
ermöglicht werden, solange wie möglich ein selbstbestimmtes Leben in den eigenen vier Wänden zu führen und sie gleichzeitig am sozialen Leben teilhaben zu
lassen;
• nicht zuletzt ein neuer Markt geöffnet und damit
wohlstandsfördernd oder zumindest -sichernd gewirkt
werden.
Auf Bundesebene werden diese Ziele bereits seit 2008
bspw. durch Fördermaßnahmen des Bundesministeriums
für Bildung und Forschung (BMBF) unterstützt; ebenso
gibt es zahlreiche Länderinitiativen in diesem Bereich.
Regionale Aktivitäten betreffen insbesondere den Aufbau
neuer oder die Erweiterung bestehender Studienmöglichkeiten an Hochschulen für angewandte Wissenschaften,
um den zukünftigen Herausforderungen durch den demografischen Wandel bei den Pflege- und Therapieberufen
zu begegnen. Dem wird durch die Entwicklung von Stu-
Beitragszahler1
1) einschl. Personen, die zum jew. Zeitpunkt Anrechnungszeiten zurücklegten (z.B. wg.
Krankheit oder Arbeitslosigkeit) 2) frühreres Bundesgebiet; Datenquelle: Deutsche Rentenversicherung Bund; Berechnungen BiB – © BiB 2017 demografie-portal.de
Abbildung 3: Verhältnis Beitragszahler zu Rentenbezieher
diengängen und die Akademisierung eines Teils der Beschäftigten in diesen Berufszweigen Rechnung getragen.
Diese Berufssparten werden so attraktiver und differenzierter ausgebaut, wodurch neue Zielgruppen für diese
Berufe angesprochen werden.
Die OTH Regensburg hat den Stellenwert sowie das
Potenzial der Schlüsselressource Gesundheit erkannt und
auf die Zeichen der Zeit – alternde Bevölkerung – Fachkräftemangel – Medizintechnik – bei diesem Megatrend
reagiert. Durch eigene entsprechende Maßnahmen übernimmt sie für die Fachkräftesicherung im Bereich der
medizinischen und gesundheitsorientierten Berufe Verantwortung. In drei Bachelorstudiengängen – Biomedical
Engineering, Medizinische Informatik, Pflege dual – sowie
einem Masterstudiengang Medizintechnik sind mittlerweile rund 530 Studierende immatrikuliert. Im Oktober
2015 starteten zwei weitere Bachelorstudiengänge (Physiotherapie und Pflegemanagement), zudem kann seit
dem Wintersemester 2015/2016 im Masterstudiengang
Informatik der neue Schwerpunkt Medizinische Informatik gewählt werden.
10 |
Doch nicht nur in der Lehre ist die OTH Regensburg aktiv,
denn mit der Gründung des Regensburg Center of Health
Sciences and Technology (RCHST) im März 2017 wurde die
Grundlage für exzellente inter- und transdisziplinäre
Wissenschaft, Forschung und Entwicklung im Bereich der
Medizintechnik, der Pflege- und Gesundheitswissenschaften sowie der dafür notwendigen ELSA-Begleitforschung, Technikfolgenabschätzung und Akzeptanzforschung geschaffen. Dieses vernetzte Forschungs- und
Hochschulangebot sowie die branchenübergreifenden
Kooperationen vor Ort bergen ein erhebliches wissenschaftliches und wirtschaftliches Potenzial.
Für den Erfolg all dieser Maßnahmen sind die gute Auslastung der Studiengänge und die erheblichen Summen,
die bereits aus öffentlicher Förderung und durch Aufträge aus der Industrie eingeworben werden konnten,
gute Indikatoren, die deutlich machen, dass die OTH Regensburg bei dem Megatrend Gesundheit schon heute
ein gewichtiger Impulsgeber ist und eine sehr aktive Rolle
spielt.
Prof. Dr. Karsten Weber ■
Ko-Leiter des Instituts für Sozialforschung
und Technikfolgenabschätzung (IST)
OTH Regensburg
Zahlen und Fakten
2016 konnte die OTH Regensburg im Bereich von Forschungs- und Entwicklungsprojekten an das Niveau der
Vorjahre anknüpfen bzw. diesen Bereich teils weiter ausbauen. Insgesamt waren über 80 Professorinnen und
Professoren regelmäßig zusätzlich zur Lehrtätigkeit in
Forschungsprojekten aktiv; dies entspricht zirka einem
Drittel aller an der OTH Regensburg beschäftigten Professorinnen und Professoren.
Öffentlich-geförderte Forschungsprojekte
8.000
6.000
4.000
2.000
0
2013
2014
Bewilligtes Fördervolumen nach Herkunft in Tsd € (2013–2016)
2015
Land
29 Anträge mit einem Fördervolumen in Höhe von 7,9 Millionen EUR aus Landes-, Bundes- und EU-Mitteln sowie
Stiftungsgeldern für die OTH Regensburg wurden 2016
bewilligt. Im Vergleich zu den Vorjahren ist damit eine
Bund
EU
2016
Stiftungen
Steigerung zu verzeichnen. Besonders erfreulich ist, dass
auf EU-Ebene mehrere Projekte eingeworben werden
konnten.
| 11
EU-Projekte
An der OTH Regensburg laufen derzeit fünf Projekte, die von der Europäischen Union gefördert werden.
Rahmenprogramm Interreg V A-Programm
Im Programm zur grenzübergreifenden Zusammenarbeit „Ziel ETZ 2014-2020 (Interreg V)“ fördert die Europäische
Union grenzübergreifende Projekte zwischen dem Freistaat Bayern und der Tschechischen Republik.
TheCoS: Thermoplastische Faserverbundstrukturen
Erforschung und Bereitstellung einer zuverlässigen Prozesskette für tragende Faserverbundstrukturen mit thermoplastischer Matrix.
Fördersumme: 600 TEuro
Projektleiter: Prof. Dr. Ingo Ehrlich | Prof. Dr. Stefan Hierl
Virtuelle Menschmodelle für die Prävention, Therapie
und Rehabilitation von Schultererkrankungen
Entwicklung neuer Methoden für die Analyse von Schulterpathologien, um die Möglichkeiten der Prävention,
Therapie und Rehabilitation von Schulterverletzungen
und -degenerationen zu erweitern.
Fördersumme: 290 TEuro
Projektleiter: Prof. Dr. Sebastian Dendorfer
CrossEnergy: Grenzüberschreitende Energieinfrastruktur – Zukunftsvisionen für eine Region im Wandel
Beitrag zur gemeinsamen, grenzüberschreitenden Energieinfrastruktur in der Donau-Moldau-Region, durch Entwicklung von innovativen Planungs- und Betriebstools
von elektrischen Netzwerken.
Fördersumme: 270 TEuro
Projektleiter: Prof. Dr. Oliver Brückl
Unternehmerische Kompetenzen auf dem tschechisch
– bayerischen Arbeitsmarkt
Entwicklung innovativer Ausbildungskonzepte zur Vermittlung grundlegender unternehmerischer Kompetenzen.
Fördersumme: 346 TEuro
Projektleiter: Prof. Dr. Sean Patrick Saßmannshausen
Rahmenprogramm HORIZON 2020
Horizon 2020 (Laufzeit 2014-2020) ist das Hauptinstrument der Europäischen Union zur Förderung von Wissenschaft,
technologischer Entwicklung und Innovation. Es deckt ein breites thematisches Spektrum von der Grundlagenforschung bis zu marktnahen Innovationsmaßnahmen ab. Dies vor allem für Forschung in biomedizinischen, naturwissenschaftlich-technischen, industriellen oder sozioökonomischen Schlüsselbereichen.
CANVAS – Constructing an Alliance for Value-driven Cybersecurity
Das Projekt ist eine Coordination and Support Action, zum Aufbau eines Netzwerks von Technologieexperten und
Rechts,- Ethik- und Sozialwissenschaftlern, das sich mit der Vereinbarkeit von Cybersicherheit mit europäischen
Werten und grundsätzlichen Rechten beschäftigt.
Fördersumme: 104 TEuro
Projektleiter: Prof. Dr. Karsten Weber
12 |
Promotionen
sitätsprofessorin bzw. einem Universitätsprofessor auch
eine Professorin bzw. ein Professor der OTH Regensburg
am Promotionsverfahren beteiligt.
An der OTH Regensburg besteht die Möglichkeit einer
Promotion in Zusammenarbeit mit einer Universität als
kooperative Promotion. Hierbei ist neben einer Univer80
77
73
64
60
40
20
6
11
6
0
2014
Laufende und abgeschlossene Promotionen (2014–2016)
2015
laufend
abgeschlossen
ANZEIGE
Ihre Chance bei SWR und REWAG
Alle reden von Karriere.
Sprechen wir über Ihre.
2016
| 13
Abgeschlossene Promotionen 2016
Promovend/in
Titel
Betreuer/in
OTH Regensburg
Kooperierende
Universität
■ Martin Alfranseder
Efficient and Robust Scheduling and
Synchronization in Practical Embedded
Multiprocessor Real-Time Systems
Prof. Dr.
Jürgen Mottok
TU ClausthalZellerfeld
■ Christoph Böhm
Stochastik und Numerik konformer
Abbildungen
Prof. Dr.
Wolfgang Lauf
Universität
Würzburg
■ Lena Ebner
Kugelschüttungen als Filter und Wärmespeicher – Numerische Simulationen und
experimentelle Untersuchungen
Prof. Dr.
Michael Elsner
Ruhr-Universität
Bochum
■ Stefan Krämer
Development and Simulation of
Fault-Tolerant Multicore Real-Time
Scheduling - Covering Transient Faults
Prof. Dr.
Jürgen Mottok
Universität
Pilsen
■ Josef Merk
Die Psychometrische Güte des Motivation
Value Systems Questionaire
Prof. Dr.
Thomas Falter
Universität
Regensburg
■ Stephan Mingels
Elektronenspektroskopische Untersuchungen
an kalten Kathoden unter hohen elektrischen
Feldern und durchstimmbarer Laserbeleuchtung
Prof. Dr.
Rupert Schreiner
Universität
Wuppertal
■ Mathias Obergrießer
Entwicklung von digitalen Werkzeugen
und Methoden zur integrierten Planung von
Infrastrukturprojekten am Beispiel des
Schienen- und Straßenbaus
Prof. Dr.
Thomas Euringer
TU München
■ Andrey Orekhov
Electron Microscopy Study of Structural
Peculiarities of Carbon Materials
Prof. Dr.
Rupert Schreiner
University of
Eastern Finland
■ Marco Romano
Charakterisierung von gewebeverstärkten Einzellagen aus kohlenstofffaserverstärktem Kunststoff
(CFK) mit Hilfe einer mesomechanischen Kinematik sowie strukturdynamischen Versuchen
Prof. Dr.
Ingo Ehrlich
Universität
der Bundeswehr
München
■ Tobias Trost
Erneuerbare Mobilität
im motorisierten Individualverkehr
Prof. Dr.
Michael Sterner
Universität
Kassel
■ Bastiaan van
der Weerd
Entwicklung und Charakterisierung von CO2Sensoren für die Bestimmung der CO2-Eliminierung
während extrakorporaler Membranoxygenierung
Prof. Dr.
Rudolf Bierl
Universität
Regensburg
Alle laufenden Promotionen: 77
Nach Fakultäten:
4
4
8
5
23
3
12
18
■
■
■
■
■
■
■
■
Architektur
Allgemeinwissenschaften und Mikrosystemtechnik
Bauingenieurwesen
Betriebswirtschaft
Elektro- und Informationstechnik
Informatik und Mathematik
Maschinenbau
Angewandte Sozial- und Gesundheitswissenschaften
Stand: Dezember 2016
14 |
Forschungsaktivitäten auf Konferenzen, Workshops und beim Netzwerken
Neben zahlreichen Konferenzen an der OTH Regensburg sind Workshops und Vernetzungstätigkeiten wichtige Kontaktund Plattformen, um sich einerseits wissenschaftlich auszutauschen und andererseits einen aktiven Beitrag am
wissenschaftlichen Diskurs zu erbringen.
IraSME PArtnering Event, Aachen, 31. Januar 2017 – Susanne Deisböck
beim Kooperationspartner-Netzwerken. Foto: Irina Bester, CORNET (cc.)
3. Regensburger Energiekongress an der OTH Regensburg
am 8./9. März 2017. Foto: OTH Regensburg
Konferenz/Workshop „Rheologische Messungen an Baustoffen“ an der OTH Regensburg am 21./22. Februar 2017.
Foto: Oliver Teubert (Schleibinger Geräte Teubert und Greim GmbH)
| 15
Fachtagung „Gesundheit im 21. Jahrhundert“ am 17./18. März 2017 – Neugründung
des Regensburg Center of Health Sciences and Technology (RCHST). Foto: OTH Regensburg
Besuch von Wissenschaftsstaatssekretär Bernd Sibler am 28. April 2017 / Labor Biomechanik.
Foto: OTH Regensburg
Forschung an der OTH Regensburg:
Einblicke und Impressionen
| 19
Lebenswissenschaften
und Ethik
Lebenswissenschaften und Ethik umfassen die Forschung an gesellschaftlich relevanten technischen und sozialwissenschaftlichen Themen. Mit
Partnern aus Kliniken, Gesellschaft, Industrie und Unternehmen werden
Prozesse und Produktideen entwickelt, die den zukünftigen Herausforderungen unserer Gesellschaft Rechnung tragen. Dabei spielt die Vernetzung
unserer medizintechnischen und medizininformatischen Expertise mit
unseren Kompetenzen im Gesundheitsbereich eine entscheidende Rolle.
Ebenso sind Sozialforschung und Technologiefolgenabschätzung, Akzeptanzforschung, Ethik, Personalarbeit sowie Nachhaltigkeit weitere zentrale
Aspekte des Forschungs-Leitthemas.
20 | L E B E N S W I S S E N S C H A F T E N U N D E T H I K
PsyBio: Virtuelle Menschmodelle zur Bestimmung
des Einflusses von Stress auf den Bewegungsapparat
Rückenschmerzen sind ein Volksleiden. Neben den rein anatomisch/physiologischen Parametern
spielt die psychische Belastung eine Hauptrolle in der Entwicklung von Rückenleiden. Mit Hilfe
von experimentellen Studien sowie virtuellen Menschmodellen werden in diesem Projekt die
Disziplinen Biomechanik, Psychologie und Physiologie für einen neuartigen, ganzheitlichen Ansatz
für ein besseres Verständnis der Entstehung von muskulokelettalen Problemen verwoben. Hieraus
sollen Methoden entwickelt werden, die ein frühzeitiges Eingreifen sowie eine verbesserte
Rehabilitation bei Rückenschmerzen ermöglichen.
Bis zu 80 Prozent aller Menschen sind im Laufe ihres
Lebens von Rückenschmerzen betroffen. Dies lässt Probleme im Bereich der Wirbelsäule zu einer der Hauptursachen für Arbeitsausfall und einer verminderten
Lebensqualität werden (Raspe 2012). Neben rein orthopädisch-biomechanischen Auslösern werden seit mehreren Jahren auch psychische Belastungssituationen als
potentiell initiierende oder zumindest verstärkende Faktoren diskutiert. Viele Studien haben gezeigt, dass eine
Stresssituation mit einer Erhöhung der Muskelanspannung einhergehen kann (SBU Yellow Report no 227 2014).
In einigen wenigen Studien wurde auch gezeigt, dass für
bestimmte Arbeitsplatzsituationen unter Stress eine Erhöhung der Kräfte in der Lendenwirbelsäule entsteht
(Davis et al. 2002). Bisher ist allerdings nur wenig über
Abbildung 1: Messung der Muskelaktivität unter Stress.
die Änderung der Belastungen in der Hals- und Lendenwirbelsäule für verschiedene Stressoren (Stressfaktoren),
die im modernen Berufsalltag auftreten, bekannt. Ziel
dieser aktuellen Studie ist die Erforschung des Einflusses
von emotionalen und kognitiven Stress auf die Muskelansteuerung und somit der Belastungen der Hals- und
Lendenwirbelsäule. Hierfür sind die Fachbereiche Biomechanik, Sportwissenschaften und Psychologie beteiligt.
Mit Hilfe von experimentellen Studien wird die Reaktion
des Körpers durch Probandenversuche auf Stresssituationen bei verschiedenen Bewegungen gemessen. Die
Erfassung der Körperdaten beinhaltet neben biomechanischen Größen wie Bewegung, Muskelaktivität (Abbil-
LEBENSWISSENSCHAFTEN UND ETHIK
| 21
Projektleiter
Prof. Dr.-Ing. Sebastian Dendorfer
Labor für Biomechanik, OTH Regensburg
[email protected]
Homepage
www.lbm.rcbe.de
Die individuelle Stressantwort der Muskulatur wird in die
Modelle implementiert und somit kann die Änderung der
Belastungen berechnet werden. In Abbildung 2 ist die
Veränderung der Bandscheibenkräfte exemplarisch für
einen Fall dargestellt. Die Kräfte entstehen nur durch den
Stressor bei keiner Bewegungsänderung. Im Rahmen der
Studien werden gesunde Probanden und bereits vorgeschädigte Patienten untersucht.
Mit Hilfe der gewonnenen Erkenntnisse werden in Folgestudien Algorithmen entwickelt, welche eine virtuelle
Simulation von kombiniert biomechanisch-psychischer
Beanspruchung zulassen. Die Anwendungsfelder für
diese Modelle sind beispielsweise die Arbeitsplatzergonomie oder die Unterstützung der Diagnose bei orthopädischen Fragestellungen.
Abbildung 2: Beispiel für die Änderung der Belastung
der Hals- und Lendenwirbelsäule unter Stress.
dung 1) und externen Kräften auch die Analyse von Biosignalen wie Herzrate, Hautleitwert und Körpertemperatur zur quantitativen Beurteilung der Stressreaktion.
Die anthropometrischen Daten der Probanden werden in
Kombination mit den biomechanischen Kenngrößen zur
Erstellung von probandenspezifischen, virtuellen Menschmodellen verwendet. Mit Hilfe dieser Modelle können
die Kräfte im Körperinneren wie Bandscheibenbelastung
oder Muskelkräfte berechnet werden.
Sebastian Dendorfer a,b ■
Franz Süß a ■
Simone Kubowitscha,c ■
a)
Labor für Biomechanik, OTH Regensburg
b)
Regensburg Center for Biomedical Engineering,
Universität und OTH Regensburg
c)
Institut für Sportwissenschaften,
Universität Regensburg
L I TE R ATUR
Davis, Kermit G.; Marras, William S.; Heaney, Catherine A.; Waters,
Thomas R.; Gupta, Purnendu (2002): The impact of mental processing and pacing on spine loading: 2002 Volvo award in biomechanics.
In: Spine 27 (23), S. 2645–2653.
Raspe, H. (2012): Rückenschmerzen. In: Gesundheitsberichterstattung des Bundes. 53.
SBU Yellow Report no 227 (2014): Occupational exposures and back
disorders. Online verfügbar unter http://www.sbu.se/en.
22 | L E B E N S W I S S E N S C H A F T E N U N D E T H I K
Stent-Delivery-Systeme zur Behandlung
koronarer Gefäßverengungen
Die Koronare Herzkrankheit (KHK) stellt in allen hoch entwickelten Industrieländern eine der
häufigsten Todesursachen dar. Bei einer KHK kommt es zu Koronargefäßverengungen, entstanden
durch Arteriosklerose, die eine unzureichende Blut- und somit Sauerstoff- und Nährstoffversorgung des Herzmuskels nach sich ziehen und im weiteren Verlauf zu einem akuten Herzinfarkt
führen können. Im Rahmen des OptiStent Projektes werden im Labor für Medizinprodukte neuartige koronare Stent-Delivery-Systeme zur Behandlung einer KHK entwickelt und die hierfür
benötigten, teils neuartigen, Herstellungsprozesse etabliert.
In Industriestaaten stellen Herzkrankheiten die häufigste
Todesursache dar. Allein in Deutschland machten diese
im Jahr 2015 rund 25% aller Todesfälle aus1. Durch eine
ungesunde Lebensweise (z. B. Rauchen, Fettleibigkeit,
Stress) und die erblich bedingte Vorbelastung können
sich bei einer KHK in den Herzkranzgefäßen Verengungen, sogenannte Stenosen, bilden. Diese behindern den
Blutfluss, was zu einer Unterversorgung des Herzmuskels
führen kann. Gelangt nun ein Thrombus in die Verengung, wird das Gefäß verschlossen und es droht der Herzinfarkt, der in ca. 50 % der Fälle zum Tode führt.
Um dieser lebensbedrohenden Situation entgegenzuwirken, kann ein Stent, d. h. eine zylindrische Gefäßwandstütze aus Metall, in diese Verengung implantiert
werden. Dabei wird ein Stent mit Hilfe eines Ballonkatheters (Stent-Delivery-System, SDS) von der Leiste
über die Aorta in die Engstelle der Koronararterie geführt.
Dort wird die Verengung und der Stent durch den Ballon
des Katheters aufgeweitet. Anschließend wird der Ballon
wieder verkleinert, der Stent verbleibt expandiert in der
Verengung, stützt diese ab und der Blutstrom ist wiederhergestellt.
Während einer Stentimplantation kann es jedoch zu einer
Verletzung des Gefäßes kommen, was die Gefahr einer
erneuten Gefäßverengung durch überschießende Wundheilung, der Restenose, erhöht. Die Schwere dieser Verletzung ist abhängig vom Design des Stents und von
dessen Expansionsverhalten2. Im Rahmen des OptiStent
b)
a)
Abbildung 1: Crimpvorrichtung für koronare Stents; a) Übersichtsaufnahme der einzelnen Bestandteile: Crimpkopf (orange), Stent auf Ballonkatheter (weiß), Positioniereinheit (blau und rot), Pumpe für
Druckvariation im Katheter (lila); b) Detailaufnahme der Crimpiris
(mit eingelegtem Kalibrierstift, d = 1mm)
Projektes soll ein neuartige SDS entwickelt werden, das
eine geringere Gefäßverletzung hervorruft wie marktübliche Produkte und somit die Möglichkeit bietet, den Behandlungserfolg einer KHK zu erhöhen. Die Optimierung
eines Stents bzw. des SDS kann aber nur gewährleistet
werden, wenn der gesamte Herstellungsprozess eines
SDS kritisch betrachtet wird.
Ziel des Projektes
Ziel des beschriebenen Projektes ist es, die Prozesskette
der Fertigung koronarer SDS beginnend mit dem Laserschneiden der Stents, über das elektrochemische Nachbearbeiten bis hin zum Befestigen auf dem Ballonkatheter aufzubauen und für weitere Forschungsaktivitäten zu etablieren.
Material und Methoden
Schneiden der Stents
Zum Schneiden der Stents aus Rohröhrchen wird eine
Laserschneidanlage vom Typ SCS IV (Optiray GmbH,
München) eingesetzt. Sie besteht aus einem 2-Achs-Positioniersystem, sowie einem gepulsten 100 W Faserlaser
mit einem Laserschneidkopf. Die gerätespezifische CAMSoftware wurde durch Cagila-2D (CAM-Service GmbH,
Hannover) ergänzt, womit nun Funktionen wie Kurvenoptimierung, CNC-Simulation und -Programmanalyse
möglich sind.
Beizen und Elektropolieren der Stents
Beim Beizen im Ultraschallbad werden Schlackereste und
Metalloxide entfernt, die beim Laserschneiden entstehen.
Als Beize wird Polinox-B Badbeize (Poligrat GmbH, München) verwendet. Diese beseitigt Zunder, Anlauffarben
und Fremdrost auf Oberflächen von austenitischen
CrNi- und CrNiMo-Stählen sowie hochnickelhaltigen
Werkstoffen.
Für die Elektropolitur der lasergeschnittenen Stents
wurde eine Vorrichtung entwickelt, die es ermöglicht 20
LEBENSWISSENSCHAFTEN UND ETHIK
| 23
a)
Projektleiter
Prof. Dr.-Ing. Thomas Schratzenstaller
Labor für Medizinprodukte – Medical Devices
Fakultät Maschinenbau
b)
Regensburg Center of Biomedical Engineering,
OTH Regensburg
[email protected]
Projektmitarbeiter/in
c)
Markus Geith (M.Sc.), Thomas Hölscher (M.Sc.),
Matthias Laub (B.Sc.), Michael Mayer (M.Sc.),
Lisa Obermaier (B.Sc.), Simon Schildbach (B.Sc.)
d)
Laborhomepage
www.md.rcbe.de
Abbildung 2: Fertigungskette eines Stents am Beispiel der jeweiligen
Produktstadien: a) lasergeschnitten, b) gebeizt, c) elektropoliert, d)
gecrimpt auf Ballonkatheter
Gefördert durch
Bayerisches Staatsministerium für Bildung und Kultus,
Wissenschaft und Kunst (Projekt OptiStent)
Stents gleichzeitig reproduzierbar zu polieren. Die Elektropolitur erfolgt im Elektrolyt Poligrat E268A (Poligrat
GmbH, München) durch Schalten des Stents als Anode in
einer 3-Elektroden-Zelle und unter Beaufschlagung mit
Gleichstrom. Während der Bearbeitung wird der Stent
ständig rotiert, damit die Kontaktstelle Stent-TitanDraht wechselt und mögliche Inhomogenität des elektrischen Feldes ausgeglichen werden. Aus dem gleichen
Grund werden mit jedem Stent zwei Polierdurchgänge
vollzogen, wobei diese umgedreht werden.
Crimpen der Stents
Für das Befestigen der Stents auf dem Ballonkatheter
(Crimpen) wurde eine spezielle Vorrichtung entwickelt,
die es ermöglicht neuartige Stent-Designs mit Stegdicken und -breiten kleiner 80 µm zu crimpen. Zwölf
Crimpbacken realisieren eine durchmesserverstellbare
Iris. Die über einen Hebel eingebrachte Rotation führt
dazu, dass jede Backe die gleiche Rotation vollführt und
somit der Irisdurchmesser verändert wird. Durch eine
spezielle Anordnung und Lagerung der Crimpbacken hat
jede nur einen maximalen Spalt zur benachbarten Backe
zwischen 20-25 μm. Dieser Spalt ist klein genug, um sich
nicht mit den Stent-Stegen zu verhaken, aber dennoch
ausreichend um keine Selbsthemmung durch Formschluss der Crimpbacken hervorzurufen (Abbildung 1).
Um die Qualität der Herstellungsschritte und somit der
gefertigten Stents zu überprüfen wurden diese mit
marktüblichen Produkten verglichen. So wurde z. B. deren
Oberflächenrauigkeit untersucht und Biokompatibilitätstests gemäß ISO 10993-1 durchgeführt.
Ergebnisse
In Abbildung 2 sind die Ergebnisse der einzelnen Herstellungsschritte eines Stents exemplarisch dargestellt.
Die Oberflächenanalysen der elektropolierten Stents ergaben eine gemittelte Rauheit von Rq = 0,017 µm im Vergleich zu den untersuchten marktüblichen Produkten mit
einem Rq = 0,038 µm. Ebenfalls sehr gute Ergebnisse
zeigten die durchgeführten Zytotoxizitätsuntersuchungen gemäß ISO 10993-1. Die in dieser Arbeit elektropolierten Stents haben keinen negativen Einfluss auf die
Vitalität der verwendeten Mausfibroblasten und sind
damit vergleichbar mit marktüblichen Produkten.
Ausblick
Parallel zur Entwicklung und Aufbau der Herstellungsprozesse koronarer SDS wurden neuartige Stent-Designs
entwickelt. Als nächste Schritte sollen diese mit den
etablierten Herstellprozessen gefertigt und anschließend
deren mechanische und biologische Eigenschaften untersucht werden.
Labor für Medizinprodukte ■
Fakultät Maschinenbau ■
Regensburg Center of Biomedical Engineering ■
alle OTH Regensburg
L I TE R ATUR
1. Statistisches Bundesamt, Die 10 häufigsten Todesursachen in Deutschland 2015, https://www.destatis.de/DE/ZahlenFakten/GesellschaftStaat/Gesundheit/Todesursachen/Tabellen/HaeufigsteTodesursachen.
html;jsessionid=9995371BA6F8A340075B982866B9D359.cae1
2. Schwartz R., Huber K., et al.: Restenosis and the proportional neointimal response to coronary artery injury: Results in a porcine model.
Journal of the American College of Cardiology, 19(2), S. 267–74, 1992
24 | L E B E N S W I S S E N S C H A F T E N U N D E T H I K
Klassifikation von Auto-Fahrtypen
In der Studie wurden Fahrtypen als Vorstufe der Entwicklung eines adaptiven Fahrassistenzsystems im Automobil identifiziert und analysiert. Methodische Grundlage der Studie ist der
Ansatz der menschzentrierten Technikentwicklung. Im Rahmen von Testfahrten mit Beobachtung
sowie qualitativer und quantitativer sozialwissenschaftlicher Befragung wurde das Fahrverhalten
von Proband*innen untersucht und nach den Kriterien Verkehrssicherheit, Sportlichkeit und
Effizienz mit einer Clusteranalyse in drei Fahrtypen klassifiziert. Unterschiede zwischen Selbstund Fremdwahrnehmung wurden untersucht und diskutiert.
Einleitung
Methode
Die Charakterisierung von Fahrereigenschaften ist
wesentlicher Bestandteil bei der Verbesserung der
Mensch-Technik-Interaktion im Automobil. Im Rahmen
einer interdisziplinären Projektkooperation wurde eine
neue Form des Human-Centered Engineering bzw. der
menschzentrierten Technikgestaltung genutzt1. Bei der
Teilautomatisierung als Schritt zum vollautomatisierten
Fahren sollen Fahrstile analysiert und das Fahrassistenzsystem an das Fahrverhalten angepasst werden (adaptives Fahrassistenzsystem). Hierbei sollen Nutzer*innen
in den (Weiter-)Entwicklungsprozess einbezogen werden.
Damit verfolgt die Studie die Grundidee Technik so zu
gestalten, dass die Bedürfnisse aller vom Einsatz einer
Technik betroffenen Stakeholder stärker beim Gestaltungsprozess berücksichtigt werden.
Ziel der induktiven Studie ist es, das Fahrverhalten unterschiedlicher Personengruppen zu erheben und Typen zu
bilden (Klassifikation). Die 18 Proband*innen wurden
nach einer Merkmalskombination aus Alter, Geschlecht
und Fahrpraxis ausgewählt. Alle Testpersonen fuhren mit
dem mit computergestützten Messvorrichtungen ausgestatteten Testfahrzeug eine Strecke von 55 km (Stadtverkehr, Landstraße, Autobahn). Um diverse Perspektiven
erfassen zu können, orientiert sich das Forschungsdesign
am Ansatz der Triangulation mit Methoden-Mix: 1.) Der
schriftliche Fragebogen vor der Testfahrt beinhaltete Fragen zu persönlichen soziodemographischen Angaben
und zur Fahrpraxis (Selbsteinschätzung mit 5-stufigen
Skalen2. 2.) Während der Fahrt wurden Signalmessungen
Sicherheit
Effizienz
4
4
2
2
Ausgeglichen
Sicher & Effizient
Sportlich
Sportlichkeit
Ausgeglichen
Sicher & Effizient
Sportlich
Abweichung in den Gruppen
4
2
1
2
0
Ausgeglichen
Sicher & Effizient
Sportlich
Abbildung 1: Vergleich der Einschätzungen zu Sicherheit (oben)
und Sportlichkeit (unten), Skala: 1 = minimal, 5 = maximal
Fremdeinschätzung
Selbsteinschätzung
Abweichung
Sicherheit
Abweichung
Sportlichkeit
Abweichung
Effizienz
Abbildung 2: Vergleich der Einschätzungen zu Effizienz (oben)
und der Abweichungen der Einschätzungen (unten)
Ausgeglichen
Sicher & Effizient
Sportlich
LEBENSWISSENSCHAFTEN UND ETHIK
und Kameraaufnahmen (Fahrzeuginnenraum, Fahrbahn) automatisiert vorgenommen. 3.) Außerdem fand
während der Fahrt eine offene teilnehmende Beobachtung durch zwei anwesende Beobachter*innen (Forscher-Triangulation3 statt (Beobachtungsprotokoll).
Nachträglich wurden Kameraaufzeichnungen der Fahrten durch eine*n dritte*n Beobachter*in gesichtet und
ausgewertet. Auf Basis eines Ratingverfahrens4 erfolgte
jeweils durch die drei Beobachter*innen eine Bewertung
der Fahrleistung (Fremdeinschätzung). 4.) Am Ende
wurde ein Reflexionsgespräch mit den Testpersonen kurz
nach der Fahrt (mündliche teilstrukturierte und leitfadengestützte Befragung) durchgeführt3.
| 25
Projektleiter/in
Prof. Dr. Sonja Haug |
[email protected]
Prof. Dr. Karsten Weber |
[email protected]
Wissenschaftliche Mitarbeiterinnen
Alena Wackerbarth (M.A.), Ulrike Scorna (M.A.)
Studentische Hilfskräfte
Julia Hoffmann, Anna Koch
Geldgeber
Bertrandt Ingenieursbüro GmbH, Standort Regensburg
(Ansprechpartner: Ulrich Haböck, Andreas Redepenning)
Projektlaufzeit
September 2015 bis März 2016 (7 Monate)
Ergebnis
Die statistische Auswertung (Clusteranalyse)5 ergab drei
Fahrtypen: Ausgeglichen, Sicher und Effizient, Sportlich.
Die Gruppenunterschiede sind signifikant. Fahrtypus
Ausgeglichen: 10 von 18 Testpersonen (56 %). Die Mittelwerte für Sicherheit, Sportlichkeit und Effizienz sind
annähernd gleich hoch. Sicher und Effizient: 5 Proband*innen (28 %). Einen im Vergleich niedrigeren Wert für
Sportlichkeit weist die Gruppe Sicher und Effizient auf.
Fahrtypus Sportlich: 3 Testpersonen (17 %). Einen im Vergleich höheren Mittelwert für Sportlichkeit hingegen
weist der Fahrtypus Sportlich auf.
Der Vergleich der Mittelwerte der Selbst- und Fremdwahrnehmung bezüglich der Sicherheit ergibt, dass sich
alle drei Fahrtypen überschätzen, wobei der Fahrtypus
Sicher und Effizient sich nur gering überschätzt (MS=
4.00, SDS= 1.00, MF= 3.84, SDF= .49), der Fahrtypus Ausgeglichen etwas mehr (MS= 3.83, SDS= 1.17, MF= 3.47,
SDF= .19) und die Sportlichen sich am meisten überschätzen (MS= 3.67, SDS= .58, MF= 2.51, SDF= .16) (Abb.1,
oben).
Bezüglich der Einschätzung zur Sportlichkeit hat der Vergleich mit den Bewertungen der Beobachter*innen ergeben, dass sich der Fahrtypus Ausgeglichen sehr gut
einschätzt (MS= 3.47, SDS= 1.17, MF= 3.58, SDF= .42), der
Fahrtypus Sicher und Effizient hingegen überschätzt
(MS= 2.94, SDS= 1.12, MF= 2.3, SDF= .46) und die Sportlichen ihre Fahrleistung hinsichtlich Sportlichkeit sehr
unterschätzen (MS= 2.73, SDS= .93, MF= 3.97, SDF= .38)
(Abb. 1, unten).
Der Intergruppenvergleich der Selbst- und Fremdwahrnehmung zur Effizienz hat ergeben, dass die Fahrtypen
Ausgeglichen (MS= 3.50, SDS= .99, MF= 2.98, SDF= .31)
und Sportlich (MS= 3.47, SDS= .68, MF= 2.10, SDF= .27)
Homepage: www.oth-regensburg.de/ist
https://www.oth-regensburg.de/fakultaeten/angewandtesozial-und-gesundheitswissenschaften/forschung-pro
jekte/institut-fuer-sozialforschung-und-technikfolgenab
schaetzung/projekte/projekte-im-bereich-mensch-technikinteraktion/identifikation-von-fahrtypen.html
sich überschätzen und der Fahrtypus Sicher und Effizient
sich unterschätzt (MS= 3.60, SDS= .92, MF= 3.92, SDF= .36)
(Abb. 2, oben).
Alle Fahrtypen weichen bei der Selbstwahrnehmung von
der Fremdeinschätzung ab, am meisten der Fahrtypus
Sportlich (Abb. 2, unten). Es konnte kein Zusammenhang
zwischen Selbst- und Fremdeinschätzung oder zwischen
Alter, Geschlecht und Fahrpraxis mit einem Fahrtypus
festgestellt werden.
Ausblick
Die Ergebnisse bieten Erkenntnisse über die differenzierten Verhaltensweisen der unterschiedlichen Fahrtypen
und unterstreichen die Bedeutung einer benutzerorientierten Technikentwicklung. In Folgestudien mit einer
wesentlich größeren Stichprobe müsste die Reliabilität
der Ergebnisse nochmals geprüft und die Akzeptanz
eines adaptiven Fahrassistenzsystems evaluiert werden.
Sonja Haug, OTH Regensburg ■
Karsten Weber, OTH Regensburg ■
Institut für Sozialforschung und
Technikfolgenabschätzung (IST)
L I TE R ATUR
1. Haböck, U., Redepenning, A., Schwenninger, J., Buchner, C.: Der
Mensch im Mittelpunkt - Human Centred Engineering als Zukunft der
Technologieindustrie, Automobiltechnische Zeitschrift (ATZ), 119 (4),
48-53 (2017)
2. Schnell, R., Hill, P. B., Esser, E.: Methoden der empirischen Sozialforschung, Oldenburg, München (2013)
3. Flick, U.: Qualitative Sozialforschung. Eine Einführung, Rowohlt,
Hamburg (2016)
4. Pauli, C.: Ratingverfahren, Journal für LehrerInnenbildung, (1) 5659 (2014)
5. Backhaus, K., B. Erichson, Weiber, R.: Multivariate Analysemethoden. Eine anwendungsorientierte Einführung, Springer, Berlin, Heidelberg (2015)
26 | L E B E N S W I S S E N S C H A F T E N U N D E T H I K
Studie: Pflegerische Fachberatung
und Onlineberatung für MS-Erkrankte
Mit qualitativer und quantitativer sozialwissenschaftlicher Befragung wird der Einfluss eines
Patientenbetreuungsprogramms auf Therapietreue und Krankheitsbewältigung bei MS-Patient_
innen (MS-P) untersucht. Die persönliche Vor-Ort-Beratung durch die MS-Fachberater_innen (MSF) wird als höchst wichtig eingeschätzt und im Vergleich mit Hausärzt_innen und Fachärzt_innen
durchweg höher bewertet. Bei der telefonischen Beratung wird die unmittelbare Erreichbarkeit
besonders geschätzt. Das Angebot der Peer-to-Peer-Beratung im Online-Forum ist zumeist bekannt, aber den Einträgen wird weniger vertraut.
Im Forschungsprojekt wurde das Aktiv-mit-MS-Patientenbetreuungsprogramms (AMSP) des Pharmaunternehmens TEVA evaluiert, um der Forschungsfrage nachzugehen, inwieweit sich pflegerische Fachberatung und
Austausch in Online-Foren auf die Krankheitsbewältigung und in Folge auf die Therapietreue in der Behandlung Multipler Sklerose mit dem Medikament COPAXONE®
auswirkt.
Die Studie basiert auf einem Methoden-Mix (Abb.1), wodurch sich die Validität der Messergebnisse erhöht (Methoden-Triangulation)6. Die qualitative Datenanalyse der
Vorstudie mit 21 Expert_inneninterviews erfolgte nach
dem Verfahren des thematischen Kodierens4. In der
Längsschnittstudie liegt die errechnete Rücklaufquote
von knapp 40 Prozent etwas unterhalb des üblichen Rahmens, die Panelmortalität ist mit 43 Prozent nicht auffällig hoch8. An der Befragung beteiligten sich 86 Prozent
Frauen und 14 Prozent Männer. Das durchschnittliche
Alter der MS-P beträgt 38 Jahre (SD=11,2; Min=21,
Max=81). Zum Zeitpunkt der Erhebung wurde zusätzlich
zu COPAXONE® 20mg/ml (tägliche Spritzengabe) COPAXONE® 40mg/ml (Spritzengabe drei Mal wöchentlich)
eingeführt. Im Laufe der Befragung spritzten sich in W_3
Abbildung 1: Design und Methoden-Mix der Evaluationsstudie
nur noch 17 Prozent täglich die 20mg/ml Dosierung. Die
87 online befragten MS-F sind im Durchschnitt zehn
Jahre tätig (SD=4.80) und betreuen durchschnittlich 30
MS-P.
Ergebnisse
Im Längsschnitt wurde die Spritzengabe durchschnittlich
nie bis 3,6 Mal ausgelassen. Bca-KI-95Prozent-W_1
[-.02,.53], - W_2 [-.33, 2.21] und -W_3 [-.04, 3.61]. Dieses
Ergebnis deutet auf eine sehr hohe Therapietreue hin. Die
Abbruchsquote von 10 Prozent liegt im unteren Bereich
der in den ersten sechs Monaten zu erwartenden Abbruchsquote von 10-20 Prozent2. Die Dosis hat hierbei keinen signifikanten Einfluss auf die Therapie(un)treue im
Chi2-Test.
Die MS-P schätzen es, dass ihnen jederzeit und zu jedem
abgefragten Anlass Fachberatungsangebote zur Verfügung stehen. Die MS-F werden sowohl in Bezug auf psychosoziale Belange als auch in Bezug auf medizinische
Fragen und praktische Hilfen am besten bewertet. Nur
bei MS-Problemen wünschen sich die MS-P Kontakt zu
Fachärzten (Abb.2). Alle MS-F haben eine pflegerische
bzw. medizinische Ausbildung und sind seit 10–16 Jahren
tätig. Diese Rolle hat sich in den letzten Jahren ausgehend von der Aufgabe der Spritzenschulung hin zu einem
komplexeren und umfangreicheren Aufgabenspektrum
gewandelt, das Krankheitsaufklärung, Wissensvermittlung und psychosoziale Unterstützung beinhaltet. Die
Betreuungsintensität hängt mitunter von den MS-P ab.
Insgesamt gehen die MS-P allerdings seltener auf die
MS-F zu als umgekehrt und die Kontaktintensität erhöht
sich durch die aktive Kontaktierung durch die MS-F
[τ(62)=.364, KI-95Prozent [.175, .560], p<.001]. Dem Ablauf des Betreuungsprogramms entsprechend ist der
Kontakt mit den MS-F in den ersten sechs Monaten häufiger als der zum Serviceteam und nach Ablauf der Betreuungsphase durch die MS-F steigt die Bedeutung des
Serviceteams an. Die Angaben bezüglich des Terminbedarfs der MS-P weisen darauf hin, dass die Besuche flexibel stattfinden. MS-P mit einem höherem Beratungund Hilfebedürfnis bekommen die Unterstützung, die sie
LEBENSWISSENSCHAFTEN UND ETHIK
5
4,5
4
3,5
3
2,5
2
1,5
1
0,5
0
| 27
Projektleiter/in
Prof. Dr. Christa Mohr (Pflegewissenschaft)
[email protected]
Prof. Dr. Sonja Haug (Empirische Sozialforschung)
[email protected]
Prof. Dr. Karsten Weber (Internetberatung)
[email protected]
Wissenschaftliche Mitarbeiterinnen
Amelie Altenbuchner (M.A.), Ulrike Scorna (M.A.)
Geldgeber: TEVA GmbH, Standort Berlin
Abbildung 2: Ranking Bewertung und Wichtigkeit der Kontaktpersonen
und -stellen (1–5 „überhaupt nicht wichtig“ bis „sehr wichtig“ und
„überhaupt nicht zufrieden“ bis „sehr zufrieden“)
Projektlaufzeit: August 2014 bis Juli 2016 (24 Monate)
Fördersumme: 117 TEuro
Homepage
brauchen. Bei der Einnahme von COPAXONE® 40 mg/ml
ist eine Abnahme der Kontakte zum MS-Servicetelefon zu
beobachten [X²(3)=11.344, p=.011], wobei 84,1 Prozent
aus der Dosisgruppe 40mg/ml nie bis selten anrufen.
Bezüglich der Nutzung des Online-Forums ergeben sich
mittlere bis tendenziell schlechte Bewertungen, was
möglicherweise einer Verzerrung durch geringere Teilnahme internetaffiner Nutzer_innen beim Befragungsformat Papierfragebogenstudie geschuldet ist. Dem
überwiegenden Anteil ist das Online-Forum bekannt, es
wird aber als weniger wichtig eingeschätzt und genießt
geringeres Vertrauen als die MS-F und das Serviceteam.
Statt subjektiver Inhalte im Online-Forum wird die evidenzbasierte Beratung durch die MS-F bevorzugt.
Schlussfolgerungen
Die Evaluationsstudie1 zeigt, die pflegerische Fachberatung eignet sich zum Erhalt der Therapietreue von MS-P
und zur Verhinderung von Therapieabbrüchen in den ersten sechs Monaten. MS-P schätzen das Fachberatungsangebot und die pflegerische Beziehung durch die MS-F
und das Serviceteam. Mit Blick auf die Zukunft äußern
sich die Befragten zuversichtlich, das Leben mit der
Krankheit bewältigen zu können. Die positive Auswirkung
https://www.oth-regensburg.de/fakultaeten/angewandtesozial-und-gesundheitswissenschaften/forschung-projekte/
institut-fuer-sozialforschung-und-technikfolgenabschaetzung/
projekte/projekte-im-bereich-gesundheit/ms-studie.html
von Krankheitsbewältigungsstrategien auf Therapietreue
zeigt eine Reihe weiterer Studien5 10 11. Ein Mix verschiedener Informationsanbieter und Medien kann die individuellen Bedürfnisse der Betroffenen bedienen, jedoch sollte
die Bedeutung sachlicher Informationen nicht überschätzt werden9. Zu viele können zu Überlastung führen3.
Für die Therapietreue kann die psychosoziale Unterstützung, die sich positiv auf die emotionale Grundstimmung
auswirkt, weitaus wichtiger sein als sachliche Informationen7.
Christa Mohr, OTH Regensburg1 ■
Sonja Haug, OTH Regensburg2 ■
Karsten Weber, OTH Regensburg2 ■
1)
Fakultät Angewandte Sozial- und
Gesundheitswissenschaften
2)
Institut für Sozialforschung und
Technikfolgenabschätzung (IST)
L I TE R ATUR
1. Altenbuchner, A., Haug, S., Mohr, C., Scorna, U. und K. Weber, Der
Einfluss von pflegerischer Fachberatung und Onlineberatung auf die
Therapietreue (Compliance) bei der Behandlung von Multipler Sklerose
(MS) – eine Längsschnittuntersuchung, Forschungsbericht, Regensburg, Institut f. Sozialforschung u. Technikfolgenabschätzung (IST), 2016.
2. COPAKTIV Schwestern-Service, Handbuch für MS-Fachberaterinnen
& MS-Fachberater für COPAXONE®. Leitfaden zur Betreuung von
COPAXONE® Patienten, Berlin, Teva Pharma GmbH, 2008.
3. Fava, G. A. and J. Guidi, Information overload. The patient and the
clinician, Psychotherapy and Psychosomatics, 76, 2007: 1-3.
4. Helfferich, C., Leitfaden- und Experteninterviews, S. 559-574 in
Handbuch der Methoden der empirischen Sozialforschung, Hrsg.
Baur, N. und J. Blasius, J., Wiesbaden: Springer Fachmedien, 2014.
5. Köhler W., Apel-Neu A., Faiss J. H., Hoffmann F. und Klauer T., Psychoedukatives Training für Patienten mit Multipler Sklerose, Der Nervenarzt, 80, 2009: 16-17.
6. Mayer, H. Pflegeforschung anwenden. Elemente und Basiswissen
für das Studium, 4. Auflage. Facultas, Wien, 2015.
7. Radin, P., To me, it’s my life. Medical communication, trust, and
activism in cyberspace, Social Science & Medicine, 62, 2006: 591–601.
8. Schnell, R. Survey-Interviews. Methoden standardisierter Befragungen, VS-Verlag für Sozialwissenschaften, Wiesbaden, 2012.
9. Simon, H. A., Models of Man, New York, Wiley & Sons, 1957.
10. Simpson, S. H., D. T. Eurich, S. R. Majumdar, R. S. Padwal, R.T.
Tsuyuki and J. Varney, A meta-analysis of the association between
adherence to drug therapy and mortality, British Medical Journal
(BMJ, Clinical research ed.), 333 (7557), 2006: 15.
11. Twork, S., K. H. Schwermer und J. Kugler, Krankheitsbewältigungstraining bei Multipler Sklerose. Sicht niedergelassener NeurologInnen
und NervenärztInnen, Der Nervenarzt, 78 (4), 2007: 429-436.
| 29
Information und
Kommunikation
Im Fokus von Information und Kommunikation steht die gesamte Bandbreite der Kommunikation von Mensch zu Mensch ebenso wie die MenschMaschine-Interaktion oder auch diejenige innerhalb rein technischer
Systeme. Dabei ist eine ganzheitliche Betrachtung der Ressourcen und
Prozesse notwendig, um IT-Sicherheitsstrukturen auf- und auszubauen.
Neben Themen der Sicherheit in Systemen und Netzen stehen verschiedenste Konzepte und Anwendungen zur Datenverarbeitung beispielsweise
für Logistik oder Robotik im Zentrum unserer Forschungsaktivitäten.
30 | I N F O R M A T I O N U N D K O M M U N I K A T I O N
Statistische Korrektur gerundeter
Angaben in Stichprobenerhebungen
Bei vielen Datenerhebungen ist man auf Selbstauskünfte angewiesen, etwa bei der Untersuchung
der Einkommensverteilung oder medizinischen Surveys (z.B. zum Nikotinkonsum). Oft zeigen sich
in den erfassten Daten künstliche Spitzen bei „glatten“ Werten (z. B. durch 100 teilbare Beträge),
die durch nicht dokumentierte Rundung auf Seiten der Befragten entstehen und statistische
Schätzungen verzerren. Für die Schätzung von Armutsquoten wurde ein Imputationsverfahren
entwickelt, um die beobachteten Daten zu „entrunden“. Der Algorithmus dieses Verfahrens ist
auf beliebige Erhebungen anwendbar.
Problemstellung
Anwendung
Umfragedaten sind in vielen Bereichen unverzichtbar,
leiden aber oft unter Qualitätsmängeln; manche der
Befragten beantworten nicht alle Fragen (Nonresponse)
oder sagen bewusst oder unbewusst die Unwahrheit.
Werden diese Mängel bei der Auswertung vernachlässigt,
sind Schätzungen meist verzerrt, liefern de facto falsche
Ergebnisse. In der Literatur sind Techniken zur Korrektur
von Nonresponse beschrieben. Weitgehend unbeachtet
blieb aber bisher das Phänomen, dass Befragungsdaten
oft ausgeprägte Spitzen bei glatten, etwa durch 100 oder
1000 teilbaren Werten aufweisen (Abb. 1 zeigt beispielhaft Angaben aus einer Befragung zum monatlichen
Haushaltseinkommen). Offenbar runden die Befragten
die wahren Werte, allerdings gibt es keine Informationen
über die Stärke der Rundung. Werden die gerundeten
als exakte Angaben bei Auswertungen verwendet, sind
Schätzungen verzerrt. Ziel des Projekts ist ein Imputationsverfahren zur statistischen Korrektur der gerundeten
Werte.
Als inhaltliche Fragestellung wird die Armutsgefährdungsquote untersucht. Sie ist definiert als Anteil der
Personen, deren Äquivalenzeinkommen weniger als 60 %
des Medians beträgt. Das Äquivalenzeinkommen einer
Person ist das Haushaltsnettoeinkommen geteilt durch
die Summe der Gewichte aller Haushaltsmitglieder. Der
Haushaltsvorstand hat das Gewicht 1, weitere Personen
ab 14 Jahren haben das Gewicht 0,5, Kinder unter 14 Jahren das Gewicht 0,3.
250
150
100
50
Das Einkommen Y modellieren wir durch eine Lognormalverteilung (bedingt auf Kovariablen X wie z. B. Haushaltsgröße):
ln(Y )|X ∼ N (X′ β, σ 2 )
0
0
Der neuartige Ansatz besteht darin, die Zielvariable
(Haushaltseinkommen) und das Rundungsverhalten der
Befragten gemeinsam zu modellieren. Beides hängt von
unbekannten Parametern ab, die mit dem MaximumLikelihood-Ansatz geschätzt werden. Mit dem spezifizierten Modell wird für jeden Befragten ein Rundungsintervall vorhergesagt und schließlich ein aus diesem
Rundungsintervall zufällig gezogener Wert imputiert. Die
Auswertungen erfolgen anhand der imputierten Daten
und nicht mit den tatsächlichen Angaben der Befragten.
Modellierung
absolute Häufigkeiten
200
Imputationsverfahren im Überblick
2.000
4.000
6.000
8.000
monatliches Haushaltseinkommen
Abbildung 1: Selbstauskünfte zum Haushaltseinkommen
(Quelle: PASS Welle 6, Teilstichprobe)
(1)
Das Rundungsverhalten wird als Ordered-Probit-Modell
dargestellt. Dabei bestimmt eine latente normalverteilte
Variable R den Grad der Rundung (z. B. Rundung auf
durch 10 teilbare Werte, durch 100 teilbare Werte usw.),
wobei wir annehmen, dass mit zunehmender Höhe des
Einkommens (und anderer Kovariablen Z) die Wahrscheinlichkeit einer gröberen Rundung steigt:
R| ln(Y ), Z ∼ N (γ0 + γ1 ln(Y ) + Z′ γ 2 , τ 2 )
(2)
INFORMATION UND KOMMUNIK ATION
Als Likelihood für den Vektor θ aller Modellparameter
(u. a. β, γ σ2, τ2) ergibt sich mit den beobachteten gerundeten Werten w folgende Form:
L(θ|w, x, z) =
n
i=1
j
| 31
Projektleiter
Prof. Dr. Hans Kiesl
Fakultät Informatik und Mathematik
f (r, ln(y)|xi , zi , θ) d ln(y)dr
Aij
Dabei ist n die Größe der Stichprobe, j läuft über alle Rundungsgrade und Aij ist ein rechteckiger Bereich, der alle
Werte des Rundungsindikators R und des logarithmierten
Einkommens ln(Y) umfasst, die mit dem beobachteten
Einkommenswert wi und dem Rundungsgrad j kompatibel sind, f ist die Dichtefunktion einer bivariaten Normalverteilung, deren Parameter sich aus θ bestimmen
lassen.
[email protected]
Geldgeber
Deutsche Forschungsgemeinschaft (DFG)
Schwerpunktprogramm 1646
„Education as a lifelong process“
Kooperationspartner
PD Dr. Jörg Drechsler
Institut für Arbeitsmarkt- und Berufsforschung, Nürnberg
[email protected]
Diese recht komplizierte Likelihood lässt sich numerisch
(z. B. mit dem EM-Algorithmus) maximieren; daraus gewinnt man schließlich Schätzungen θ* für alle im Modell
auftretenden Parameter.
Auswirkungen auf die
Armutsgefährdungsquote
Imputationsschritt
Die folgende Tabelle enthält Schätzungen für die Armutsgefährdungsquote (Datenbasis: Panel Arbeitsmarkt und
soziale Sicherung PASS) in Deutschland von 2010 bis 2012
mit den Originaldaten und den „entrundeten“ Daten. Die
Differenz der Schätzungen ist durchaus beachtlich.
Zuerst wird die A-Posteriori-Verteilung der Parameter θ
durch eine multivariate Normalverteilung angenähert
(mit den geschätzten Parametern θ* als Mittelwertsvektor und der inversen Fisher-Information der geschätzten
Parameter als Kovarianzmatrix), dann wird aus dieser APosteriori-Verteilung ein Parametervektor θ** gezogen.
Schließlich werden aus den Modellen (1) und (2) (mit
Parametern θ**) für jeden Beobachtungswert ein hypothetisches Einkommen y* und ein Rundungsindikator
gezogen; sind diese Werte mit dem beobachteten Einkommen kompatibel, wird y* als „entrundetes“ Einkommen imputiert (andernfalls wird erneut gezogen). Um
später korrekte Varianzschätzungen zu erhalten, erfolgt
die Imputation mehrfach („multiple Imputation“).
Mit Hilfe umfangreicher Simulationen bei Unterstellung
von plausiblem Rundungsverhalten konnte nachgewiesen werden, dass dieses Vorgehen „entrundete“ Einkommenswerte liefert, mit denen Schätzungen erheblich
weniger verzerrt ausfallen als mit den gerundeten Befragungsdaten.
Jahr
Armutsgefährdungsquote [in %]
ohne Korrektur
mit Korrektur
2010
14,89
14,59
2011
16,34
15,77
2012
15,95
16,21
Ausblick
Die Anwendung bestand in der korrigierten Schätzung
von Armutsgefährdungsquoten. Der Ansatz ist auf alle
Daten übertragbar, bei denen die Befragten offensichtlich auf glatte Werte runden, etwa bei Selbstauskünften
zu Alkohol- oder Zigarettenkonsum oder bei Angaben
zum Workload in studentischen Evaluationen.
Hans Kiesl, OTH Regensburg ■
Jörg Drechsler, Institut für Arbeitsmarktund Berufsforschung, Nürnberg ■
L I TE R ATUR
Drechsler, Jörg; Kiesl, Hans (2016). Beat the heap: An imputation
strategy for valid inferences from rounded income data. Journal of
Survey Statistics and Methodology, Vol. 4, No. 1, S. 22-42.
Drechsler, Jörg; Kiesl, Hans; Speidel, Matthias (2015). MI double feature: Multiple imputation to address nonresponse and rounding errors
in income questions. Austrian Journal of Statistics, Vol. 44, No. 2, S. 59-71.
32 | I N F O R M A T I O N U N D K O M M U N I K A T I O N
Lean IT: Lean Management
in IT-Organisationen
Lean IT beschreibt die Anwendung von Lean Management auf IT-Organisationen. Lean IT stellt
ein junges Forschungsfeld dar. Im vorliegenden Forschungsvorhaben wurde das Themengebiet
strukturiert und der Begriff wissenschaftlich konzeptualisiert. Darauf aufbauend wurden im Rahmen von empirischen Studien Erfolgsfaktoren für die Einführung von Lean IT sowie Handlungsempfehlungen und ein Einführungsmodell entwickelt.
Seit Jahren stehen die für IT-verantwortlichen Funktionsbereiche von Unternehmen (IT-Organisationen) unter
Druck, ihre Dienstleistungen flexibel, effizient und zuverlässig zu erbringen. Es deutet wenig darauf hin, dass sich
dies in naher Zukunft verändern wird. Aus diesem Grund
ist es wichtig, dass auch IT-Organisationen vom Erfahrungsschatz anderer Unternehmensbereiche profitieren.
Lean IT versucht die Erfahrungen von Lean Management
aus der Produktion auf die IT zu übertragen und nutzbar
zu machen.
Unsere Forschung zum Thema Lean IT zielte auf eine anwendungsorientierte Übertragung von Lean Philosophie,
Prinzipien und Werkzeugen vom Produktionskontext zum
IT-Kontext ab und beschäftigte sich insbesondere mit
den Einführungsmodalitäten von Lean Management in
IT-Organisationen. Das Forschungsvorhaben unterstützt
den Fokus von IT-Organisationen im Bereich der IT-Industrialisierung und schafft damit die notwendigen Voraussetzungen für die Entwicklung hin zur digital ausgerichteten IT-Organisation.
Lean Management basiert auf den Grundzügen des
Toyota Produktion Systems (auch bekannt als TPS), welches seit Mitte des 20. Jahrhunderts bei Toyota eingesetzt
und seitdem kontinuierlich weiterentwickelt wurde. Lean
Management kann heute als ein De-Facto-Standard in
der Produktion angesehen werden.
Neben der Anwendung von Lean Management in der Produktion, besteht ebenfalls Interesse, Lean Management
auch bei der Erbringung von Dienstleistungen zu nutzen.
An dieser Stelle setzt Lean IT an, indem es Philosophie,
Prinzipien und Werkzeuge von Lean Management auf die
Erbringung von Dienstleistungen der IT-Organisation
überträgt.
Lean IT ist als übergreifender Managementansatz definiert, der auf eine kontinuierliche Eliminierung von Verschwendungen, kontinuierliche Eliminierung von Variabilität, Erhöhung des Kundennutzens und Erhöhung der
operationellen Flexibilität in allen Bereichen einer IT-Organisation hinwirkt.
Inhaltlich beschäftigt sich das Forschungsvorhaben mit
drei Kernfragen:
1. Was umfasst der Begriff Lean IT im Sinne
einer Konzeptualisierung genau?
2. Welche Faktoren sind bei der Einführung
von Lean IT zu berücksichtigen?
3. Wie kann das Management die Chancen für
eine erfolgreiche Einführung von Lean IT erhöhen?
Aufgrund des Mangels empirisch fundierter Literatur
zum Themengebiet wurde der Fokus bei der Methodenauswahl auf empirisch-qualitative Methoden (Delphi
Studie, Fallstudienforschung, Grounded Theory) zur explorativen Eröffnung des Forschungsraumes gelegt. Ein
methodischer Fokus lag außerdem auf der Weiterentwicklung der Ranking-Type Delphi Methode durch „BestWorst Scaling“, einer Methode aus der Marketingforschung, die bisher nur geringe Beachtung im Forschungsfeld fand.
Lean-IT-Welle
~ 1 Woche
Vorbereitung
~ 2–3 Wochen
Analyse
~ 2–3 Wochen
Gestaltung
~ 6–8 Wochen
Implementierung
Abbildung 1: Phasen einer einzelnen Einführungswelle im Rahmen einer Lean-IT-Einführung
Nachhaltigkeit
INFORMATION UND KOMMUNIK ATION
In Bezug auf Forschungsfrage 1 wurde die eingangs in
diesem Bericht erwähnte Definition von Lean IT entwickelt und anhand von zwei existierenden Modellen entlang der Dimensionen „why“, „where“, „what“ und
„how“ konzeptualisiert.
| 33
Projektleiter
Prof. Dr. Markus Westner
[email protected]
Kooperationspartner
In Bezug auf Forschungsfrage 2 wurden Erfolgsfaktoren
für die Einführung von Lean IT im Rahmen einer DelphiStudie (systematisches, mehrstufiges Befragungsverfahren zu einem komplexen Phänomen) unter Industrieexperten erhoben. Diese Erfolgsfaktoren wurden
gerankt und dann anhand zweier Tiefenfallstudien
weitergehend empirisch untersucht. Die Erfolgsfaktoren
umfassen unter anderem: aktive Unterstützung durch
das Management, klare Vision und langfristige Ausrichtung, stringentes Leistungsmanagement, Wissensaufbau
und Training, Veränderungskultur und Arbeitsethik sowie
aktive Einbindung der Mitarbeitenden.
In Bezug auf Forschungsfrage 3 wurde ein Einführungsmodell für Lean IT mit verschiedenen Einführungswellen
entwickelt. Dieses verknüpft fünf Rollen (Sponsor, Programmleiter, Navigator, Linienführungskraft und Linienexperte) mit vier Phasen jeder Welle (Vorbereitung,
Analyse, Gestaltung und Implementierung; siehe Abbildung 1). Darüber hinaus wird auf die besondere Rolle der
Linienführungskräfte, die bei einer Lean IT Einführung besonders stark eingebunden sind, eingegangen. Neben
TU Dresden
einer klaren Vision für die Organisationseinheit und dem
Verständnis, an welcher Stelle Lean IT die Organisationseinheit konkret unterstützen kann, benötigen diese
Offenheit, Veränderungswillen und die Bereitschaft, Verantwortung an Mitarbeitenden zu delegieren. Außerdem
sollten sie über ein ausreichendes Zeitbudget für die Einführung verfügen, um ihrer gestaltenden und qualitätssichernden Funktion nachkommen zu können.
Die erreichten Forschungsergebnisse erscheinen vielversprechend, um den Forschungsstrang weiterzuverfolgen.
Sie bilden aus Praktikersicht eine Grundlage für einen
systematisch-fundierten Einführungsprozess für Lean IT
in Unternehmen.
Markus Westner, OTH Regensburg ■
Jörn Kobus, OTH Regensburg ■
L I TE R ATUR
Kobus, J., Westner, M., Strahringer, S.: Change management lessons
learned for Lean IT implementations. International Journal of Information Systems and Project Management 5, 47–60 (2017)
Kobus, J., Westner, M., Strahringer, S.: Einführung von Lean Management in IT-Organisationen. HMD Praxis der Wirtschaftsinformatik 53,
879–893 (2016)
Kobus, J., Westner, M., Strahringer, S.: Lean Management of IT Organizations. A Perspective of IT Slack Theory. In: ICIS 2016 Proceedings.
Dublin (2016)
Kobus, J., Westner, M.: Ranking-type delphi studies in IS research.
Step-by-step guide and analytical extension. In: Nunes, M.B., Isaías,
P., Powell, P. (eds.) Proceedings of the 9th IADIS International Conference Information Systems, pp. 28–38. Vilamoura (2016)
Kobus, J.: Demystifying Lean IT. Conceptualization and Definition. In:
Nissen, V., Stelzer, D., Straßburger, S., Danie, F. (eds.) Multikonferenz
Wirtschaftsinformatik (MKWI) 2016. Technische Universität Ilmenau
09. - 11. März 2016, pp. 1429–1440. TU Ilmenau Universitätsbibliothek,
Ilmenau, Thür (2016)
Kobus, J., Westner, M.: Lean Management of IT Organizations. Implementation Success Factors and Theoretical Foundation. In: AMCIS
2015 Proceedings. Puerto Rico (2015)
Kobus, J., Westner, M.: Lean Management of IT Organizations. A
Literature Review. In: PACIS 2015 Proceedings, Paper 172 (2015)
34 | I N F O R M A T I O N U N D K O M M U N I K A T I O N
Universelle Energieversorgung
für Funkknoten im Internet of Things
Im ständig wachsenden Internet of Things (IoT) benötigen alle Funkknoten eine lokale Energieversorgung. Diese kann aus verschiedensten Quellen bezogen werden, wie beispielsweise einem
klassischen Steckernetzteil, einer Autobatterie oder auch aus regenerativen Quellen wie Wind,
Wasser, Sonne, Wärmedifferenz, etc. Parallel zur Entwicklung eines Communication Boards
(ComBo) der Regensburger Firma XWS entwickelt das Elektronik-Labor der OTH Regensburg eine
intelligente Energieversorgung, die Spannungsquellen im Spannungsbereich von 3−60V ernten,
Spannungen von ±120V unbeschadet überstehen und Energie in einem weiten Temperaturbereich
speichern kann.
Im IoT kommunizieren Dinge miteinander ohne direkte
menschliche Beteiligung. Häufig werden Sensordaten
übertragen und vielfach lösen sie eine Aktion aus. So
kann beispielsweise die Erdfeuchte eines Feldes oder die
Temperatur in einem Raum konstant gehalten werden.
Da ein Internetzugang relativ teuer ist findet viel Kommunikation zwischen Dingen wie Sensoren und Aktoren
auf tieferen Ebenen statt, sogenannten Subnetzwerken,
die zunehmend als Funknetzwerke ausgelegt sind. Dies
kann vielfältige Gründe haben, wie das Überqueren einer
Abbildung 1: IoT-Knoten in typischer Anwendung
Straße oder eines fremden Grundstücks mit dem Signal.
Es kann sich aber auch um allgemein abgeschiedene
Bereiche handeln, wie landwirtschaftlich genutzte Fläche, ein kleines Dorf oder zivilisationsarme Gebiete wie
Wüsten.
In diesem Sinne laufen Entwicklungen in verschiedenen
Branchen. So wurden neben der ständig fortschreitenden
Ultra-Low-Power Hardware und Batterietechnik ebenfalls neue Funkprotokolle wie Bluetooth5 oder LoRa geschaffen, wobei letzteres Distanzen von bis zu 50 km
überbrücken kann. In Zusammenarbeit mit der Cross
Wide Service GmbH (XWS) sollen IoT-Knoten angeboten
werden, die in vielfältigen Funknetzwerken mit verschiedenen Protokollen verknüpft werden können.
Eine der größten Schwierigkeiten des in Abb. 1 gezeigten
Gesamtkonzepts des Funkknotens gestaltet sich in der
Energieversorgung. Jenseits von Infrastruktur heißt ebenfalls jenseits zentraler Stromversorgung. Während der
Draht als Übermittler von Daten über weite Strecken
durch Funknetze ersetzt werden kann ist dies bei Energieübertragung deutlich schwieriger. Stattdessen kann
für die sparsame Hardware Energie, die am Knoten vorhanden ist, geerntet werden. Das wiederum bedeutet,
dass lokale Energiequellen für die Funkknoten im Vordergrund stehen – hauptsächlich regenerative.
Energieversorgung
Abbildung 2: Energieversorgung,
Blockschaltbild mit Spannungsniveaus
Hier setzt das Projektteam im Elektronik-Labor der OTH
Regensburg unter Leitung von Prof. Dr. Schubert an um
eine möglichst flexible Energieversorgung zu bauen, die
mit jeder Gleichspannungsquelle im sehr weiten Spannungsbereich von UIN = 3 … 60V am Eingang arbeiten
kann. Spannungen > 60V würden rechtliche Komplikationen mit sich bringen. Besonders schwierig gestaltet sich
der effiziente Umgang mit kleinen Spannungen in diesem Eingangsbereich, der effektiv insgesamt einen Fak60V
tor von bis zu NStepDown = 2.5V = 24 skalieren kann (siehe
Abb. 2). Ebenfalls besitzt die Versorgung eine Schutzabschaltung bis zu UMax = ± 120V, so dass auch unregelmäßige Spannungsquellen mit Spannungsspitzen an
INFORMATION UND KOMMUNIK ATION
diese Energieversorgung angeschlossen und verwendet
werden können. Viele regenerativen Quellen können so
lokal geerntet – und ihre Energie auch gespeichert –
werden um eine autonome Operation des versorgten
Systems zu ermöglichen.
| 35
Projektleiter
Prof. Dr. Martin Schubert
[email protected]
Projektmitarbeiter
Alexander Pietsch (B.Eng.)
Batteriepuffer
[email protected]
Neben dem Eingangs-Modul besteht die Energieversorgung zudem aus einem Batteriepuffer (Abb. 2), der einen
Eingangsspannungsbereich von UIN/BAT = 2.6 … 6V abdecken kann, wenn das Eingangs-Modul nicht benötigt
wird. Umgekehrt funktioniert auch das Eingangs-Modul
ohne Batterie-Modul, wenn eine stabile Spannungsversorgung gegeben ist.
Energie aus nur sporadisch verfügbaren Quellen wie der
Sonne muss gepuffert werden. Nach Abwägung von
Energiedichte, Leistungsdichte, sowie der Sicherheitsaspekte wurden Li-Ion Akkus mit Lithiumeisenphosphat
(LiFePO4) Kathodenchemie gewählt. Diese Zellen decken
ohne Beschaltung den relevanten Spannungsbereich von
2.6V < UBUS < 3.6V ab und rufen bei Erhitzung oder mechanischem Stress keine exotherme Reaktion über das
Entladen hinaus hervor. Ferner deckt der mögliche Temperaturbereich von bis zu -40°C<TLiFePO <+70°C den Großteil der Witterungen im Außenbereich ab.
Josef Weiß (B.Eng.),
[email protected]
Stefan Zenger (M.Eng.),
[email protected]
Studentische Hilfskräfte
Sebastian Hinterseer
[email protected]
Changqing Yu,
[email protected]
Kooperationspartner
XWS Cross Wide Service GmbH, Regensburg
Geldgeber
Zentrales Innovationsprogramm Mittelstand (ZIM) –
Kooperationen, Projektform: Kooperationsprojekt (ZF)
Projektlaufzeit: 16 Monate
Fördersumme: 173 TEuro
4
Intelligentes Doppelakkusystem
Das Batteriemanagement wird über einen Mikrocontroller gesteuert und somit durch Software definiert. Dies
umfasst das Schaltverhalten im Normalbetrieb sowie zur
Sicherheit (Akkuschutz) und eine Abschätzung des
Ladezustands. Außerdem werden vom Controller die
Spannungs- sowie Stromkurven gespeichert, die schließlich über eine serielle Schnittstelle ausgelesen und so
zum Beispiel über das IoT zugänglich gemacht werden
können.
Die Hardware ist für den Umgang mit zwei einzelnen Akkuzellen geeignet. Bei einem neuen Akku muss erst ein
gesamter Lade/Entlade-Zyklus durchlaufen werden, um
die Gesamtkapazität und letztlich den Ladezustand zu
ermitteln. Das intelligente Doppelakkusystem kann hierfür eine Entladung der Batterie beschleunigen ohne Energie zu verlieren, indem Ladung in die zweite Batterie
umgeladen wird. Durch den hierfür benötigten DC/DC
Boost-Konverter können ebenfalls beide Batterien mit
nur sehr niedriger externer Spannung auf die volle Kapazität geladen werden.
Leistungsfähigkeit
Durch die minimale Baugröße und Low-Power Optimierung ergibt sich ein maximaler Strom von IInput ≤ 3A, der
am Eingang verarbeitet werden kann. Allerdings bewegt
sich der Strom bei LowPower-Applikationen im Milliampere-Bereich mit eventuellen Stromspitzen, die weniger
als 3A betragen.
Ausblick
Es lässt sich vermuten, dass eine so universelle Energieversorgung in weit gefächerten Anwendungsgebieten
Verwendung finden wird. Nicht nur in Kombination mit
der Ernte von regenerativen Energien wie einer Photovoltaik-Zelle, einem Piezo- oder Peltier-Element (Wärmedifferenz), Batterien (CR2032 Knopfzellen oder Blei-Autobatterie) oder einem Windrad – sondern auch in Verbindung mit zum Beispiel einem 5V-Netzteil, wenn eine Anbindung an das 230V-Netz verfügbar ist.
Martin Schubert, OTH Regensburg
Stefan Zenger, OTH Regensburg
Alexander Pietsch, OTH Regensburg
Josef Weiß, OTH Regensburg
Sebastian Hinterseer, OTH Regensburg
L I TE R ATUR
Georgiou, O., Raza, U.: Low Power Wide Area Network Analysis: Can
LoRa scale? IEEE Wireless Communications Letters 6(2), 162-165 (2017)
Jossen, A., Weydanz, W.: Moderne Akkumulatoren Richtig Einsetzen:
36 Tabellen. Ubooks, Neusäß, 1. Aufl. Edn. (2006)
Ke, M.Y., Chiu, Y.H., Wu, C.Y.: Battery Modelling And SoC Estimation
of a LIFEPO4 Battery. In: 2016
International Symposium on Computer, Consumer and Control
(IS3C). pp. 208{211. IEEE (2016)
Schubert, M.: System Contemplations
for Precision Irrigation in Agriculture
Taffner, F.: Circuit Development for
LIFEPO4 Battery Charging From a Solar
Panel that Runs at the Maximum
Power
■
■
■
■
■
36 | I N F O R M A T I O N U N D K O M M U N I K A T I O N
Messung der nichtlinearen Brechzahl
von Glasfasern
Da eine Licht-Licht-Wechselwirkung mit Reaktionszeiten kleiner als Pikosekunden extrem schnell
sein kann und um die Anzahl von Datenumwandlungen zwischen elektronischem und optischem
Bereich zu verringern, wird seit Jahren die Tauglichkeit nichtlinear-optischer Prozesse zur Datenverarbeitung untersucht. Um die diese Wechselwirkung bestimmenden nichtlinearen Materialkoeffizienten zu vermessen, kann die Selbstphasenmodulation in Wellenleitern genutzt werden.
In Zusammenarbeit mit der Australian National University haben wir dort mit Studenten der OTH
einen entsprechenden Meßplatz aufgebaut. Um die Genauigkeit der Apparatur zu bestätigen,
wurde der Nichtlinearitätskoeffizient von Standard-Singlemode-Glasfasern bestimmt, zu dessen
Wert seit 40 Jahren immer wieder Veröffentlichungen erscheinen, deren Ergebnisse allerdings
ziemlich streuen1. Der sich neu ergebende Wert der hier vorgestellten Glasfasermessung liegt am
unteren Rand des Bereiches der publizierten Werte. Eine detaillierte Fehleranalyse zeigt, dass
unsere Meßapparatur mit einem Fehler um 5 % die bisher genauesten Ergebnisse liefert.
Die nichtlineare Brechzahl
Meßprinzip
Bei hohen Lichtintensitäten reagieren Dielektrika zunehmend nichtlinear, d. h. die dielektrische Polarisation
bekommt zusätzlich zu einem linear vom elektrischen
Feld abhängigen Anteil Teile, die proportional zu höheren
Potenzen des elektrischen Feldes sind2. Im Glas mit seiner
zentralsymmetrischen Struktur dominiert eine kubische
Nichtlinearität. Als Auswirkung dieser kubischen Polarisation auf die Wellenausbreitung beobachtet man zwei
Gruppen von Effekten: Frequenzmischprozesse und intensitätsabhängige Lichtausbreitung. Letztere kann man
sich vorstellen als Folge einer Intensitätsabhängigkeit der
optischen Brechzahl, d. h. die Lichtverteilung modifiziert
ihr eigenes Ausbreitungsmedium. Zum Beispiel kann sich
ein Lichtstrahl seinen eigenen Wellenleiter schreiben, mit
einem „Spatial Soliton“ als selbstgeführtem Wellenfeld.
Oder ein Puls in einem Wellenleiter kann über die nichtlineare Brechzahl seine eigene Phase modifizieren,
Selbstphasenmodulation (SPM) genannt1. Damit kann in
einem „Temporal Soliton” die Dispersion kompensiert
werden und eine Pulsveränderung entlang der Ausbreitung wird vermieden. Diese Selbstbeeinflussung des
Lichts basiert auf einer Brechzahl n = n0 + n2 · I, der zum
linearen Anteil n0 ein von der sogenannten nichtlinearen
Brechzahl n2 bestimmter, von der Intensität I abhängiger
Term n2 · I zuaddiert wird.
Auf Basis der nun nichtlinear werdenden Wellengleichung ist die intensitätsabhängige Lichtausbreitung
theoretisch zu beschreiben. Messungen von kubisch nichtlinearen Effekten können genutzt werden, um im Vergleich mit der Theorie den Materialparameter n2 zu
bestimmen. Wir haben uns für SPM entschieden, da uns
keine sorgfältig dokumentierten SPM-Messungen auf
Basis direkter Pulscharakterisierung bekannt sind, und
uns eine erstmalige, anschauliche Darstellung des Einflusses der SPM auf Pulsverlauf und Pulsphase interessant erschien.
Die zwei Charakteristika für SPM sind in Abb. 1 dargestellt. Der Puls behält seine Anfangsform während der
Ausbreitung bei und ändert dabei nur seine Phase. Diese
Phasenänderung ist proportional zur momentanen Puls-
1 .0
Phase Shift
Pulsleistung (a.u.)
0.5
0.5
0.0
-5
0
5
0.0
Nonlinear Phase Shift (rad)
Input
Output
Time (ps)
Abbildung 1: Vergleich der zeitlichen Verläufe von Eingangs- (schwarz)
und Ausgangspuls (rot) in einer Glasfaser mit der nichtlinearen
Phasenverschiebung des Pulses (grün).
INFORMATION UND KOMMUNIK ATION
leistung, deren Verlauf sich ja als Pulsform während der
Ausbreitung nicht ändert. Die drei Kurven sind praktisch
gleich.
| 37
Projektleiter
Prof. Dr. Roland Schiek
Labor Optische Übertragungssysteme
Meßaufbau
[email protected]
Für eine direkte Untersuchung der SPM werden Eingangsund Ausgangspulse im Wellenleiter nach Betrag und
Phase gemessen. Pulse mit der Telekommunikationswellenlänge 1550 nm und mit einer Dauer von 0,5 bis 6 ps
aus einem Faserlaser werden vor und nach der Messfaser
mit einem Frequency Resolved Gating (FROG) Verfahren
abgetastet3. Aus dem dabei entstehenden Spektrogramm werden Pulsform und Phase rechnerisch zurückgewonnen. Die momentane, nichtlineare Phasenverschiebung des Ausgangspulses über der momentanen
Pulsleistung gezeichnet, ergibt eine Gerade, deren Steigung den gewünschten Wert für die nichtlineare Brechzahl liefert.
Geldgeber
Ergebnis der Messungen
an Glasfasern
Es wurden verschiedene Standard Singlemode-Glasfasern
aus Quarzglas (SiO2) mit Germanium-dotiertem Kernbereich mit Faserlängen von 0,2 bis 5 m vermessen. Für
die verschiedenen, genutzten Pulslängen wurden keine
Nichtlinearitätsunterschiede gefunden. Auch liefern
3.5
Bundesministerium für Bildung und Forschung (BMBF)
Bayerische Forschungsallianz
CUDOS (australisches Forschungsprogramm)
Kooperationspartner
Friedrich-Schiller-Universität Jena
Australian National University, Canberra
verschiedene Fasern nach Berücksichtigung der Germanium-Konzentrationsabhängigkeit der nichtlinearen
Brechzahl die in Abb. 2 gezeigte nichtlineare Brechzahl
für das Fasermaterial SiO2. Eine detaillierte Fehleranalyse
ergibt den in Abb. 2 grau hinterlegten Toleranzbereich, in
dem die gemessenen Werte alle liegen. Der Messfehler
sinkt für größere Pulsleistungen und Faserlängen.
Zusammenfassung
Der elektronische und gitterdynamische Anteil der nichtlinearen Brechzahl für ps-lange Pulse im Bereich der
gemesTelekom-Wellenlänge wurde zu n2 = 2,2 · 10-16 cm
W
sen. Die Nichtlinearitätswerte für Pnorm > 1,5 mW · m haben
eine Standardabweichung kleiner als 2,6 %, zu der ein
systematischer Fehler der Meßapparatur von maximal
2,8 % hinzukommt. Der Wert korrigiert die bisher angenommenen Werte um etwa 10 bis 20 % nach unten. Die
SPM, in den Lehrbüchern das klassische Beispiel für einen
kubisch nichtlinearen Effekt, wurde erstmals mittels genauer Pulsanalyse experimentell dokumentiert und veranschaulicht. Mit dem gemessenen n2 lassen sich alle
Messungen detailgetreu simulieren. Die Arbeit stellte
besondere Anforderungen an die Meßtechnik, um alle
Meßungenauigkeiten zu quantifizieren. Das betraf besonders die Leistungsmessung mit Kalibrierung an der
Physikalisch Technischen Bundesanstalt und die Modenfeldmessung der Wellenleiter, an der weiter gearbeitet
wird.
2
3.0
n2 in 10-16 cm2/W
2.5
2.0
1.5
1.0
0.5
0
1
2
3
4
5
Pnorm in mW*m
Abbildung 2: Die nichtlineare Brechzahl des Glasfasermaterials SiO2
aufgetragen über dem Produkt aus Faserlänge und Leistung.
Der Mittelwert ist rot gezeichnet.
Roland Schiek, OTH Regensburg ■
L I TE R ATUR
1. Agrawal, G.P.: Nonlinear Fiber Optics, Academic Press, Oxford
(2013).
2. Stegeman, G.I., Stegeman, R.A.: Nonlinear Optics: Phenomena,
Materials and Devices, Wiley, Hoboken (2012).
3. Trebino, R.: Frequency-Resolved Optical Gating: The Measurement
of Ultrashort Laser Pulses, Kluwer, Boston (2000).
38 | I N F O R M A T I O N U N D K O M M U N I K A T I O N
NoSQL Schema-Evolution
in quelloffenen Software-Projekten
NoSQL-Datenbanksysteme sind in der agilen Anwendungsentwicklung sehr populär geworden.
Eine attraktive Eigenschaft vieler Systeme ist ihre Schema-Flexibilität, d. h. es muss kein festes
Schema vorab deklariert werden, um Objekte in der Datenbank persistieren zu können. Nichtsdestotrotz legt meist der Anwendungscode ein Schema für die gespeicherten Daten fest. Um die
ständige Weiterentwicklung dieses impliziten Schemas umzusetzen, werden in der Literatur
Objekt-NoSQL-Mapper Bibliotheken propagiert. Diese Software-Bibliotheken unterstützen einfache Schema-Evolutionsänderungen.
In diesem Beitrag berichten wir von unserer Analyse 900 quelloffener Softwareprojekte auf GitHub, einem webbasierten Dienst zur Verwaltung von Software-Entwicklungsprojekten. Bei den
untersuchten Softwareprojekten handelt es sich um Java-Anwendungen, welche die Mapper
Bibliotheken Objectify oder Morphia verwenden. Unsere empirische Studie zeigt, dass sich in der
Praxis tatsächlich der Nachweis für kontinuierliche Schema-Evolution finden lässt. Allerdings
konnten wir auch beobachten, dass Objekt-NoSQL-Mapper nicht in erster Linie zum Einsatz
kommen, um die Schema-Evolution voranzutreiben, sondern um davon unabhängige Aufgaben
des Datenmanagements wahrzunehmen.
Für die Entwicklung von Anwendungen, die auf NoSQLDatenbanken aufbauen, werden mittlerweile dedizierte
Objekt-NoSQL-Mapper angeboten. NoSQL-Datenbanksysteme haben (noch) keine standardisierte Zugriffsschnittstelle. Zwar sind in allen NoSQL-Datenbankmanagementsystemen grundlegende Operationen zum
Lesen und Verändern der Daten verfügbar, jedoch unterscheiden sie sich erheblich in Syntax und Funktionsumfang. Hier können Objekt-NoSQL-Mapper die systemunabhängige Anwendungsentwicklung unterstützen
bzw. überhaupt erst ermöglichen.
Abbildung 1 zeigt die Handhabung an einem konkreten
Beispiel. Die Java-Klasse Player in Abbildung 1 a legt die
Attribute von Spieler-Objekten in einem webbasierten
Rollenspiel fest. So hat jeder Player eine Identifikationsnummer (id), einen Nach- und Vornamen, sowie eine Initiale des zweiten Vornamens. Die Annotation @Entity
bestimmt, dass Player-Objekte durch die Mapper Bibliothek in der Datenbank persistiert werden können, wie in
Abbildung 1 c im JSON-Format dargestellt. Die Annotation @Id kennzeichnet dabei das eindeutige Schlüsselattribut für Objekte dieser Klasse.
Abbildung 1 b zeigt eine refaktorisierte Player-Klasse, die
aus der Fortentwicklung der Anwendungssoftware
hervorgegangen ist: Das Attribut lastName wurde in surname umbenannt. Die Annotation @AlsoLoad signalisiert dem Mapper, dass diese Umbenennung zur Laufzeit,
beim Laden eines Player-Objektes aus der Datenbank,
geschehen soll: Indem das Attribut middleInitial aus der
Klassendeklaration entfernt wurde, wird sein Wert auch
beim Laden eines Player-Objektes aus der Datenbank
ignoriert. Das Attribut nickname hingegen wird erst beim
Laden eines veralteten Player-Objekts hinzugefügt und
initialisiert. Abbildung 1 d zeigt das migrierte PlayerObjekt, das entsteht, wenn das Player-Objekt aus Abbildung 1 c mit der refaktorisierten Klassendeklaration
geladen und dann wieder in die Datenbank zurückgeschrieben wird.
Abbildung 1: (a, b) Java Klassen mit Objekt-NoSQL Mapper
Annotationen und zugehörige persistierte Objekte (c, d). Quelle: [1]
INFORMATION UND KOMMUNIK ATION
Objekt-NoSQL Mapper Bibliotheken wie Morphia (für die
populäre NoSQL-Datenbank MongoDB) und Objectify
(für die Datenbank Google Cloud Datastore) unterstützen die Deklaration von Schema-Evolutionsannotationen
wie @AlsoLoad. In unserer empirischen Analyse von 900
quelloffenen Software-Projekten auf der Plattform GitHub gehen wir der Forschungsfrage nach, inwiefern diese
Schema-Evolutionsannotationen in der Praxis eingesetzt
werden. Dabei betrachten wir nur Projekte mit mindestens 20 Code-Änderungen (zu Englisch Commits), die
zum 04.12.2015 zugänglich waren.
900
Anzahl geänderter Java Klassen
800
700
600
| 39
Projektleiterin
Prof. Dr. Stefanie Scherzinger
Fakultät Informatik und Mathematik
[email protected]
viert und durchgängig anhand verständlicher Beispiele
illustriert wird. Hier lässt sich die Vermutung anstellen,
dass das Umbenennen von Attributen letztlich keine
häufige Schema-Evolutionsänderung ist. Das entspricht
den Ergebnissen von verwandten Studien zur SchemaEvolution in der Anwendungsentwicklung gegen relationale Datenbanken. An dieser Stelle sind weiterführende,
qualitative Untersuchungen nötig, wie etwa die gezielte
Befragung der Entwicklungsteams.
500
400
300
200
100
0
0
5
10
15
20
25
30
Abbildung 2: Histogramm über die Anzahl der Änderungen
an Schema-relevanten Klassendeklarationen. Quelle: [1]
Abbildung 2 zeigt ein Histogramm über die Anzahl der
Änderungen, die Klassendeklarationen mit Mapper-Annotationen aus 648 Objectify-basierten Projekten im
Laufe ihrer Entwicklungszeit erfahren haben. Zwar bleiben viele Klassendeklarationen unverändert (1 Commit),
doch wird im Schnitt eine Klassendeklaration drei Mal refaktorisiert. Die Änderungen betreffen dabei überwiegend die Struktur persistierter Objekte. Einzelne Klassen
erfahren sogar bis zu 60 Änderungen. Damit können wir
nachweisen, dass sich das Schema im Laufe der Zeit tatsächlich evolutionären Änderungen unterliegt.
Eine genauere Inspektion der Projekthistorie zeigt jedoch
Überraschendes: In nur 5,6% der Projekte, die dedizierte
Evolutions-Annotationen verwenden, werden diese auch
für Zwecke der Schema-Evolution eingesetzt. Konkret
konnten wir etwa feststellen, dass von den 648 untersuchten Objectify-basierten Projekten nur vier Projekte
die Annotation @AlsoLoad zur Umbenennung von Attributen verwenden. Das ist insofern überraschend, als dass
diese Annotation in der Dokumentation sehr gut moti-
Die am häufigsten eingesetzten Evolutions-Annotationen
dienen dazu, Methoden der Java-Klasse beim Laden bzw.
Speichern eines Objekts aufzurufen (z.B. @OnLoad bzw.
@OnSave). Sie werden unserer Beobachtung nach vor
allem eingesetzt, um Unterstützung bei der Serialisierung
und Deserialisierung von Objekten zu leisten, nicht jedoch für Zwecke der Schema-Evolution. Auch werden
diese Annotationen dazu genutzt, um Zeitstempel oder
Versionsnummern in den persistierten Objekten zu pflegen. In unseren Augen ist dies eine Indikation dafür, dass
Software-Entwickler für diese Aufgaben noch zu wenig
Unterstützung durch die Mapper Bibliotheken erfahren.
Es wär an dieser Stelle interessant, die Untersuchung zum
jetzigen Zeitpunkt zu wiederholen, um zu erfahren, ob
sich seit Erhebung der Daten Ende 2015 Änderungen im
Verhalten der Entwickler ergeben haben. Immerhin
konnten die Anwendungsentwickler in der Zwischenzeit
ihre Erfahrungen mit NoSQL-Technologien vertiefen.
Wir sind der Ansicht, dass Studien dieser Art wertvolle
Einsichten dazu liefern, mit welchen Problemen Anwendungsentwickler in der Praxis konfrontiert sind. Das hilft
der angewandten Forschung, zielgerichtet vorzugehen,
um relevante Probleme angehen und lösen zu können.
Stefanie Scherzinger, OTH Regensburg
Meike Klettke, Uni Rostock
Andreas Ringlstetter, OTH Regensburg
Uta Störl, HS Darmstadt
Tegawendé F. Bissyandé, Universität Luxemburg
■
■
■
■
■
L I TE R ATUR
1. Data Model Evolution using Object-NoSQL Mappers: Folklore or
State-of-the-Art? Andreas Ringlstetter, Stefanie Scherzinger, Tegawendé F. Bissyandé. In Proc. BIGDSE 2016.
2. Kurz erklärt: Objekt-NoSQL Mapping. Uta Störl, Meike Klettke,
Stefanie Scherzinger. Datenbankspektrum, March 2016, Volume 16,
Issue 1, pp 83-87.
3. Carlo Curino, Hyun Jin Moon, Letizia Tanca, Carlo Zaniolo. Schema
Evolution in Wikipedia – Toward a Web Information System Benchmark. In Proc. ICEIS’08, 2008.
40 | I N F O R M A T I O N U N D K O M M U N I K A T I O N
ATPs: Anomalieerkennung zum Detektieren
von Advanced Persistent Threats
Durch eine intelligente Auswertung von Anomalien in Event-Logs ist es möglich sicherheitskritische Aktivitäten zu erkennen, die durch herkömmliche Methoden der IT-Security nur mit
extrem hohem Aufwand gefunden werden können. Im Rahmen des Forschungsprojekts PA-SIEM
wurde daher ein System entwickelt, das über ein SIEM-System Log-Daten bezieht und in diesen
Anomalien erkennt. Diese Erkennung erfolgt mittels statistischer Methoden sowie künstlicher
Intelligenz. Hierbei werden Netzwerkdaten korreliert, um sie miteinander vergleichbar zu machen,
die anschließend mittels SVMs klassifiziert werden.
Einleitung
Wirtschaftsspionage stellt gegenwärtig eine ernstzunehmende Bedrohung für Unternehmen und Staaten dar.
Experten zufolge zielt ein wesentlicher Anteil von Cyberattacken auf den Diebstahl von Geschäftsgeheimnissen
oder geschützten Informationen ab.1
Je länger ein System unerkannt von einer „fortgeschrittenen, andauernden Bedrohung“ (APT) infiziert ist, desto
höher ist der Schaden des Datendiebstahls. Nach einer
aktuellen (2017) Studie von FireEye wird davon ausgegangen, dass APTs im Durchschnitt 99 Tage unentdeckt
bleiben. 2 Demnach ist der Schaden für Unternehmen
immens.
Ziel des Projektes PA-SIEM ist es, die Zeit bis zur Erkennung eines APTs so weit wie möglich zu reduzieren. In diesem Bericht werden wir hierzu auf die Verfahren der
Korrelation und der SVMs eingehen.
Anomalieerkennung
Herkömmliche Methoden der IT Sicherheit bieten keinen
ausreichenden Schutz vor APTs.
Wir nehmen an, dass Schadsoftware oder manuelle
sicherheitskritische Aktivität Spuren in Log-Daten
hinterlässt, die von normalen Daten abweichen.
Aus diesem Grund verwendet PA-SIEM das Verfahren der Anomalieerkennung zur Erkennung. So soll
Evidenz für eine Infizierung des Systems geliefert
werden.
Sobald das System eine Anomalie erkannt hat, können
Administratoren informiert und entsprechende Maßnahmen zur Systembereinigung eingeleitet werden. Nachfolgende Schäden sollen so nachhaltig verhindert oder
verringert werden.
Abbildung 1: Graphische Darstellung eines Spearphishing-Angriffs,
der in PA-SIEM simuliert und detektiert werden kann.3
INFORMATION UND KOMMUNIK ATION
| 41
Korrelationen
Projektleiter
Die Korrelation zweier Daten(-sätze), beispielsweise
Merkmale, Ereignisse oder Zustände, beschreibt den Zusammenhang zwischen diesen. Dadurch ist es möglich,
Abhängigkeiten zwischen diesen festzustellen.
Für PA-SIEM werden Daten, die eine zeitliche Ordnung besitzen, in Zeitreihen zusammengefasst und anschließend
korreliert. Das macht es möglich, basierend auf Mustern
in den korrelierten Daten, Aussagen über das Verhalten
des einzelnen Benutzers, Rechners oder Dienstes zu
treffen.
Einerseits ist dies als Vorverarbeitungsmethode für
andere Erkennungsmethoden essenziell, andererseits
können die Korrelationen selbst untersucht werden, um
kontextuelle Anomalien zu erkennen. Dies bedeutet, dass
ein System von seinem üblichen Verhalten abweicht, was
in dem Kontext als Anomalie bewertet werden sollte,
auch wenn die beobachteten Daten ohne den Kontext
nicht auffällig sind. Weicht beispielsweise das Netzwerkverhalten eines Rechners im Netzwerk stark von seinem
regulären Verhalten ab, ändern sich die betrachteten
Korrelationen, was als Anomalie erkannt werden kann.
Prof. Dr. Christoph Skornia
Labor für Informationssicherheit
[email protected]
Projektmitarbeiter
Achim Seeburger,
[email protected]
Timo Schindler,
[email protected]
Geldgeber
Bundesministerium für Bildung und Forschung (BMBF)
Kooperationspartner
Netzwerk Software GmbH, Ismaning
Frauenhofer FKIE, Bonn-Bad Godesberg
Projektlaufzeit
01.10.2015 – 30.09.2017
Gesamtfördersumme
3,6 Mio. Euro
SVM
Support Vektor Maschinen (SVMs) sind eine gängige
Methode des Maschinellen Lernens.
Nach einer Trainingsphase, in welcher eine SVM mittels
bekannter Daten trainiert wird, fungiert sie als Klassifikator für nachfolgende Daten. Das bedeutet, dass die
SVM, nachdem sie Wissen über die zu erwartenden Daten
besitzt, neue Daten mit den bekannten abgleicht und die
neuen Daten logisch einer Klasse zuordnet. In PA-SIEM
werden die Daten in „normal“ oder „anormal“ klassifiziert. Um die Güte der Klassifikation zu beschreiben, werden Klassifikatoren in „stark“ und „schwach“ unterteilt.
In komplexen Systemen, wie Firmennetzwerken, ist es unverhältnismäßig schwierig eine künstliche Intelligenz (KI)
so zu trainieren, dass sie in der Lage ist, Daten auch nur
nahezu fehlerfrei zu klassifizieren. Somit ist es unrealistisch ein System zur Anomalieerkennung ausschließlich
aus starken Klassifikatoren aufzubauen. Stattdessen
werden viele schwache Klassifikatoren, also beispielsweise die Ergebnisse unterschiedlicher SVMs verwendet
und akkumuliert, um eine aussagekräftige Klassifizierung zu erhalten.
In PA-SIEM wird derzeit an einer Lösung dieses Problems
mittels Hidden Markov Model (HMM) geforscht. Das
heißt, mehrere schwache Klassifikatoren werden als
Indizien für die Existenz eines „verborgenen“ starken
Klassifikators herangezogen, der aber selbst nicht ausreichend effizient detektiert werden kann. Dieses Prinzip
eignet sich besonders, um ein mehrstufiges Analyseframework aufzubauen, das den zusätzlichen Vorteil bringt,
die Methode der Datenklassifizierung intelligent an die
Daten anzupassen.
Schluss
Mit der Implementierung dieser Verfahren in einen Demonstrator ist es in einer Laborumgebung gelungen,
Anomalien in Log-Daten zu erkennen, die durch simulierte Angriffe erzeugt wurden. Dies zeigt, dass die Anomalieerkennung in PA-SIEM genutzt werden kann, um die
Systemsicherheit wie gewünscht zu erhöhen.
Hierbei sorgt die Nutzung von Künstlicher Intelligenz
dafür, dass das System in der Lage ist, sich an Netzwerke
anzupassen und Bedrohungen zu finden, die bis dato
unbekannt waren.
Weiterhin eröffnen die Ergebnisse spannende neue
Fragestellungen, beispielsweise wie nach der Erkennung
eines sicherheitsrelevanten Ereignisses Evidenz gefunden wird, das gezielt auf sein Bedrohungspotenzial analysiert werden kann.
Achim Seeburger, OTH Regensburg ■
L I TE R ATUR
1. Verizonenterprise. abgerufen am 15. 05. 2017 von http://www.verizonenterprise.com/resources/reports/rp_DBIR_2016_Report_en_xg.pdf.
2. M-TRENS 2017 A View From the Front Lines. FireEye (M-TRENDS).
3. Schindler , Timo ; Graml , Tobias ; Pfaller , Sebastian ; Skornia ,
Christoph ; Uetz , Rafael: Forensic Analysis of Real World Log Data
with Graph Databases. – unpublished 2017
42 | I N F O R M A T I O N U N D K O M M U N I K A T I O N
Unerkannte Angriffe
oder die Nadel im Heuhaufen
Sogenannte Advanced Persistent Threads (APT) sind in modernen Netzwerken eine ständige
Bedrohung. 146 Tage blieb im Schnitt 2015 das erfolgreiche Eindringen in Firmennetzwerke unentdeckt. Im Projekt PA-SIEM wird die strukturierte Beschreibung von Angriffen durch eine Kill-Chain
als Mechanismus zur Erkennung von Angriffen in Logdaten adaptiert, um mit Hilfe von Graphdatenbanken eine automatische Analyse der Daten zu ermöglichen. Durch eine Profilerstellung
können Anomalien, die bei APTs auftreten, schnell und sicher erkannt und dadurch die Zeit bis
zur Identifizierung typischer Angriffe deutlich reduziert werden.
Insbesondere in den letzten zehn Jahren gab es einen signifikanten Anstieg von Advanced Persistent Threats
(APTs), komplexe und zielgerichtete Angriffe, die auf bestimmte Unternehmen bzw. Person ausgerichtet sind.
Aktuelle Angriffe wie auf ThyssenKrupp machen deutlich,
dass eine erfolgreiche Detektion der Angriffe innerhalb
von 45 Tagen dem Angreifer viel Zeit gibt, um im Netzwerk interne Daten zu exfiltrieren. Dabei gelten 45 Tage
als relativ schnelle Angriffserkennung, 2015 blieben APTs
im Durchschnitt sogar an die 146 Tage unentdeckt.
Zur Reduzierung dieses Zeitfensters werden umfangreiche Log-Events zur Analyse verwendet, um Anomalien
innerhalb der Logdaten und damit mögliche Angriffe zu
erkennen. Diese Logdaten werden in der Regel bereits
automatisch und umfangreich in einem Unternehmen
erstellt. Innerhalb der Logdaten werden verschiedenartige Angriffe mithilfe einer angepassten Kill-Chain
charakterisiert und identifiziert.
Abbildung 2: Kill-Chain Mapping innerhalb einer Graph Datenbank
Die Anomalieerkennung erfolgt unter anderem durch die
Analyse mit Graphdatenbanken und Support Vektor
Maschinen (SVM) als Verfahren zum maschinellen Lernen. Im Projekt PA-SIEM werden die Event-Log-Daten
durch das Security Information and Event Management
(SIEM) System Prolog (IT@Work ProLog, Netzwerk Software GmbH) aus aktuell zwei Event-Log-Qellen gesammelt: Das Security Labor (SecLab) mit 13 Arbeitsplätzen,
Domaincontroller und Firewall und das Simulationsframework BREACH, das ein mittleres Unternehmen
simuliert. Aus beiden Quellen werden Firwall-, Syslogund Client-Events extrahiert und aufbereitet. Alle erfassten Daten werden gemäß Bundesdatenschutzgesetz vollständig pseudonymisiert bzw. im Forschungsbereich
anonymisiert. Zusätzlich können im BREACH Framework
verschiedene APT-Angriffe simuliert werden.
Zur Charakterisierung der Angriffe innerhalb der Logdaten wird die in Abb. 1 angepasste Kill-Chain verwendet.
Die Kill-Chain bricht die Komplexität eines APT in singuläre Schritte auf, die selbst wiederum verschiedenartig
ablaufen können. Jeder Eintrag bzw. Unterpunkt innerhalb der Kill-Chain bildet einen spezifischen APT ab.
Abbildung 1: Implementation einer angepassten Kill-Chain
mit verschiedenen Angriffsvektoren
INFORMATION UND KOMMUNIK ATION
Bei der Graph Analyse wird jedes Element innerhalb der
Graph-Datenbank Neo4j als Knoten umgesetzt (siehe
Abb. 2). Einzelne Elemente der Kill-Chain können nicht
direkt auf einzelne Event-Log-Einträge zurückgeführt
werden. Zwischen den Event-Knoten und den Kill-ChainElementen werden daher mehrere Zwischenschichten,
sog. Event-Sequenzen, eingeführt, die weitere nötige
Grade der Freiheit hinzufügen. So können z. B. auch wiederkehrende Events abgebildet werden, wie die mehrfache Exfiltration von Dateien. Dadurch ist es auch
möglich, neue Logquellen zu integrieren und auf leicht
abweichende Variationen von Ereignismeldungen zu
reagieren. Nur durch die Kombination von Einzelevents
zu Event-Sequences können außerdem komplexe LogMeldungen überhaupt abgebildet werden. In ersten
Untersuchungen konnten mit dieser Implementation im
BREACH-Framework simulierte Angriffe der Art „Exfiltration aller .jpg-Dateien durch Infektion mittels bösartigem pdf per Email“ erfolgreich und vollständig
identifiziert werden. Weitere Angriffsvektoren werden im
Laufe des Projektes implementiert und simuliert. Es ist
abzusehen, dass die grundsätzliche Proof-of-Concept
Methode auch diese Angriffe erfolgreich identifiziert, da
die Verwendung von Event-Sequences es möglich macht,
individuell auf verschiedene Angriffstypen und betroffene
Systeme zu reagieren.
Neben der Prozessierung der Daten innerhalb der Graph
Datenbank werden Anomalien mit Support-Vektor-Maschinen untersucht. Dabei beziehen sich die aktuellen
Untersuchungen vor allem auf das User-Surfverhalten,
Firewall GET- und POST-Einträgen und die Analyse von
Dateioperationen. Als Datenbank für alle Untersuchungen kommt die Zeitreihen-Datenbank InfluxDB zum Einsatz. Die SVMs lernen dabei das normale Verhalten von
Benutzern anhand der Analyse von Event-Log-Daten und
erkennen anomales Verhalten, das z. B. durch die Infizierung durch einen Trojaner erzeugt wurde. Die Forschungsergebnisse von PA-SIEM zeigen, dass Anomalien
| 43
Projektleiter
Prof. Dr. Christoph Skornia
Labor für Informationssicherheit
[email protected]
Projektmitarbeiter/in
Timo Schindler,
[email protected]
Achim Seeburger,
[email protected]
Geldgeber
Bundesministerium für Bildung und Forschung (BMBF)
Kooperationspartner
Netzwerk Software GmbH, Ismaning
Frauenhofer FKIE, Bonn-Bad Godesberg
Projektlaufzeit
01.10.2015 – 30.09.2017
Fördersumme
3,6 Mio. Euro
an der Firewall und in den Dateioperationen zu 80 – 85
Prozent erfolgreich identifiziert werden. Zwar produzieren beide Logquellen bereits sehr viele Event-Log-Daten,
dennoch werden vor allem im Hinblick auf Untersuchungen mit Verfahren des maschinellen Lernens weit größere
Datenmengen benötigt.
Im Projekt PA-SIEM konnte gezeigt werden, dass APT Angriffe mittels Graph-Datenbanken und SVMs erfolgreich
detektiert und somit die Exfiltration weiterer Daten bzw.
die Ausbreitung der Angreifer im Netzwerk verhindert
werden. Im weiteren Verlauf werden die gewonnen Erkenntnisse zu einem flexiblen Framework zusammengefasst, das in der Lage ist, mit verschiedenen Verfahren
die Event-Log-Daten aufzubereiten bzw. zu analysieren.
Timo Schindler, OTH Regensburg ■
L I TE R ATUR
FireEye Inc., 2016. M-trends security report 2016.
URL: https://www.fireeye.com/current-threats/annual-threat-report
/mtrends.html
Hutchins u.a., 2015. Intelligence-Driven Computer Network Defense
Informed by Analysis of Adversary Campaigns and Intrusion KillChains
Schindler u.a., 2017. Forensic Analysis of Real World Log Data with
Graph Databases, Digital Forensics Research Conference Europe
(Poster), 2017
Berke J., 2016. Warum Unternehmen eine eigene Cyberabwehr brauchen, Wirtschaftswoche
Uetz u.a., 2017. A framework for the simulation of cyber attacks on
company networks, Digital Forensics Research Conference Europe
(Poster), 2017
| 45
Digitalisierung
Digitalisierung ergänzt als weitere Querschnittstechnologie programmübergreifend alle unsere Forschungs-Leitthemen. Mit ihrem besonderen
Innovationspotenzial treibt sie unaufhaltsam Prozesse voran, die in Unternehmen sowie im gesellschaftlichen wie privaten Bereich Veränderungen
hervorrufen und Strukturen revolutionieren. Big Data, Machine Learning,
Cybersicherheit und Automatisierung sind Kernbereiche unserer Forschungsansätze für digitale Lösungen, um Prozesse, Menschen, Produkte und
Maschinen miteinander zu vernetzen.
46 | D I G I T A L I S I E R U N G
Japter: Eine Demonstrationsplattform
für Mixed-Criticality-Echtzeitsysteme mit Linux
Industrielle Anwendungen verwenden immer mehr Software, die anspruchsvolle Anforderungen
erfüllen muss: Zeitkritische Aufgaben, die auf keinen Fall fehlschlagen dürfen, um beispielsweise
Personenschäden zu vermeiden, müssen mit rechenintensiven Komfortfunktionen kombiniert
werden. Ressourcen-, Kosten- oder sogar Gewichtsgründe, aber auch die Minimierung von
Wartungs- und Entwicklungskosten erfordern die Konsolidierung der Komponenten auf ein
einziges System. Wir beschreiben, wie der Open Source-Hypervisor Jailhouse das bestehende
funktionsreiche Allzweckbetriebssystem Linux mit architektonisch abgeriegelten kritischen
Komponenten kombiniert, um die Vorteile beider Welten zu nutzen. Im Gegensatz zu bestehenden
Ansätzen wird die Abtrennung messbar verstärkt. Ein fliegendes Drohnen-System (Japter, der
Jailhouse-Multikopter) demonstriert die Realitätstauglichkeit des Konzepts. Es zeigt, wie schnell
Probleme auf realer Hardware die theoretischen Annahmen verschiedener akademischer Konzeptansätze zerstören können – und wie die Probleme in Software, aber auch durch Änderungen an
den Chips selbst gelöst werden können.
Mehrkernprozessoren werden heutzutage omnipräsent in
alltäglichen Geräten wie Smartwatches oder Mobiltelefonen genutzt, finden sich aber auch immer stärker
in industriellen Anwendungen. Im Gegensatz zu einem
Smartphone muss ein industrielles Steuersystem mit
garantiertem, definiertem Verhalten auf externe Ereignisse reagieren (Echtzeitpflicht). Da dies umso schwieriger umzusetzen ist, je mehr Kerne beteiligt sind, bleiben
in vielen industriellen Anwendungen Teile des Prozessors
ungenutzt (vgl. Abb. 1 mit einer Drohne, die Objekte erkennt). Bestehende industrielle Software kann ebenfalls
oft nicht ohne größeren Aufwand von Ein- auf Mehrkernprozessoren portiert werden und lässt deshalb Rechenkerne ungenutzt.
Es liegt nahe, brachliegende Ressourcen zur Implementierung anderer Systemkomponenten und -funktionen zu
nutzen, beispielsweise für Benutzerschnittstellen. Diese
Abbildung 1: Die Aufteilung eines Systems in mehrere unabhängige
Hardware-Komponenten ist ein bislang gängiger Ansatz, um Aufgaben unterschiedlicher Kritikalität zu kombinieren, wie die Abbildung
am Beispiel einer Drohne zeigt.
Komponenten dürfen sicherheitsrelevante Funktionen
natürlich unter keinen Umständen stören: Als MixedCriticality-Systeme bezeichnet man Systeme, die Komponenten mit unterschiedlicher Kritikalität (gemessen an
der Schwere der Konsequenzen, wenn Fehler auftreten)
auf eine Hardwareeinheit konsolidieren. Wir stellen in
diesem Artikel ein in Software nachgebildetes „Gefängnis“ – das Jaihouse-System – vor, das Systemteile unterschiedlicher Kritikalität auf einem Mehrkernsystem
voneinander abtrennt und garantiert, dass diese sich
nicht unkontrolliert beeinflussen können.
Das Gefängnis
Die Lösung wird als quelloffene Software in einer internationalen Kollaboration entwickelt, zu der das Labor für
Digitalisierung gemeinsam mit Industriepartnern maßgeblich beiträgt. Anschaulich ist Jailhouse ein Gefängniswärter, der ungewollte Interaktionen von Gefangenen
(Systeme unterschiedlicher Kritikalität) unterbindet. Aus
technischer Sicht nutzt Jailhouse, ähnlich wie die bekannten Tools VirtualBox oder VMware, verschiedene
Virtualisierungstechnologien moderner Prozessoren –
allerdings nicht, um wie in der Cloud möglichst viele
Systeme dynamisch auf einem einzigen Server laufen zu
lassen, sondern um ein eingebettetes System mit Hardwareunterstützung in verschiedene fixe, statische Partitionen aufzuteilen.
Jailhouse ist eng mit dem weit verbreitetem Allzweckbetriebssystem Linux verknüpft und benötigt Linux, um
den ersten Systemstart durchzuführen. Anschließend
werden weitere Betriebssysteme in Jailhouse-Zellen gestartet, beispielsweise bestehende industrielle Echtzeitbetriebssysteme (RTOS).
DIGITALISIERUNG
Diese Vorgehensweise kombiniert die Einfachheit frugaler industrieller Systeme mit dem umfangreichen Softwareökosystem von Linux, mit dem komplexe Aufgaben
kostengünstig und mit wenig Aufwand gelöst werden.
Das Gefängnis hebt ab
Um die industrielle Tauglichkeit unseres Ansatzes unter
Beweis zu stellen, wurde eine Drohnenplattform entwickelt, da diese ähnliche Anforderungen wie typische industrielle Systeme stellen: Echtzeitfähigkeit, Robustheit,
Wartbarkeit und Zuverlässigkeit. Die Flugregelung ist der
kritische Teil des Systems, da sie innerhalb weniger Millisekunden zuverlässig auf Bewegungen des Systems reagieren muss. Beeinträchtigungen oder gar Abstürze der
Regelung führen zum Absturz des Fluggeräts. Gleichzeitig sind viele nicht-kritische rechenintensive Aufgaben
zu erledigen, beispielsweise Bilderkennung, Netzwerkdatenübertragungen, Datenauswertung etc. Wie Abbildung 2 zeigt, werden diese Aufgaben durch ein
Standard-Linux-System erledigt, das hermetisch abgeschottet neben dem kritischen Systemteil ausgeführt
wird. Trotz der hochkomplexen Software, die im nichtkritischen Teil des Systems läuft, zeigen Messungen, dass
der kritische Systemteil unabhängig vom unkritischen
Systemteil mit einer sehr geringen Verzögerung reagiert,
die aus praktischer Sicht vernachlässigbar ist.
Echtzeittests
| 47
Projektleiter
Prof. Dr. Wolfgang Mauerer, Labor für Digitalisierung
[email protected]
Projektmitarbeiter
Ralf Ramsauer,
[email protected]
Andreas Kölbl,
[email protected]
Geldgeber: Siemens AG / Corporate Research, München
Kooperationspartner
Prof. Dr. Daniel Lohmann, Universität Hannover
Projektlaufzeit: 36 Monate
Labor für Digitalisierung: https://github.com/lfd
Weiteres unter: https://hps.oth-regensburg.de/maw39987/
lorarbeit in eine Jailhouse-Zelle portiert, um anschließend Langzeitmessungen verschiedener Lastprofile
durchzuführen. Die Messdaten wurden sowohl ohne als
auch mit Beteiligung von Jailhouse aufgenommen, um
Rückschlüsse auf die Zeitverzögerungen ziehen zu
können, die durch die zusätzliche Softwareschicht entstehen. Im schlechtesten Fall beträgt die beobachtete
Latenz 9µs, um auf externe Ereignisse zu reagieren, was
sehr gering ist, aber mit der Leistung roher, dedizierter
Steuerungshardware mit optimierten Programmcode mit
einer Latenz von 0.5µs schwer gleichzustellen ist.
Um die Systemarchitektur präzise statistisch zu charakterisieren, wurde das im Avionikbereich weit verbreitete
Echtzeitbetriebssystem RTEMS im Rahmen einer Bache-
Enge Vernetzung
mit den Communities
Abbildung 2: Der im Rahmen des Projekts implementierte Demonstrator kombiniert mehrere Teilsysteme unterschiedlicher Kritikalität auf
einer Hardware, ohne dass das Gesamtsystem Abstriche in puncto
Zuverlässigkeit machen muss. Leistungsfähige Allzwecksoftware kann
kostengünstig neben spezialisierten Softwaresystemen verwendet
werden.
Unsere Arbeiten an Jailhouse haben die Software um
essentielle neue Funktionen erweitert, wodurch das
Labor für Digitalisierung noch vor anderen namhaften an
der Software beteiligten Unternehmen wie Huawei,
Toshiba oder ARM als zweitgrößter Entwickler hervortritt.
Dadurch konnte das Labor auch Einfluss auf zukünftige
Rechnerarchitekturen nehmen, um Chips besser auf die
Bedürfnisse von Jailhouse zuzuschneiden. Die Ergebnisse
sind nicht nur relevant für aktuelle industrielle Fragestellungen, sondern beinhalten auch umfangreiche
wissenschaftliche Grundlagenarbeit, die regelmäßig auf
hochrangigen internationalen Konferenzen präsentiert
werden.
Ralf Ramsauer, OTH Regensburg ■
Jan Kiszka, Siemens AG, Corporate Research ■
Andreas Kölbl, OTH Regensburg ■
Daniel Lohmann, Universität Hannover ■
Wolfgang Mauerer, OTH Regensburg ■
L I TE R ATUR
Ralf Ramsauer, Jan Kiszka, und Wolfgang Mauerer – A Novel Software
Architecture for Mixed Criticality Systems. In Proceedings of the Embedded World Conference, Nürnberg, Deutschland, 2017.
Ralf Ramsauer, Jan Kiszka, und Wolfgang Mauerer – Building Mixed
Criticality Linux Systems with the Jailhouse Hypervisor. In Embedded
Linux conference North America, Portland, USA, 2017.
Ralf Ramsauer, Jan Kiszka, Daniel Lohmann, und Wolfgang Mauerer.
Look Mum, No VM Exits! (Almost). ArXiv:1705.06932, 2017 (Erscheint
in Proceedings of the 13th Workshop on Operating Systems Platforms
for Embedded Real-Time Applications, Dubrovnik, Kroatien, 2017).
Wolfgang Mauerer, Ralf Ramsauer, und Andreas Kölbl – The Many
Approaches To Real-Time and Safety Critical Linux Systems. In Open
Source Summit Japan, Tokyo, Japan, 2017.
48 | D I G I T A L I S I E R U N G
Trainingsspiel für Handchirurgie
Die Hand ist in ihrer Anatomie eine sehr komplexe Gliedmaße, bei der schon kleine Schäden gravierende Funktionsstörungen nach sich ziehen können. Umso wichtiger, dass angehende und auch
erfahrene Chirurgen ihre Fähigkeiten vor einer Operation spielerisch verbessern. Das innovative
haptisch und visuell unterstützende Trainingsmodell ‚HaptiVisT‘ für minimal-invasive Handchirurgie ermöglicht OP-Situationen an der Hand realitätsnah durchzuführen.
Grafik 1: Exemplarischer Aufbau des Trainingssystems. Rechts: Der haptische Arm für haptische Kraftrückmeldung und Bahnverfolgung des
Bohrers. Links: Die stereoskopische Kamera für das Tracking des Haptik-Phantoms. Im Vordergrund das haptische Phantom für die bimanuale
Haptik und im Hintergrund der autostereoskopische 3D-Monitor.
Bei hochkomplexen chirurgischen Eingriffen an knöchernem Gewebe ist es äußerst wichtig, Verletzungen von
Risikostrukturen wie Nerven, Gefäße etc. zu vermeiden.
Um solche Eingriffe sicher und vor allem fehlerfrei durchzuführen, sind langjährige Erfahrung sowie umfangreiche theoretische und praktische Ausbildung für Chirurgen notwendig. Derzeit werden Bohrungen im
Handbereich mit Hilfe von synthetischen und echten
Tierkadaverknochen trainiert. Allerdings bietet diese
konventionelle Trainingsmöglichkeit eine begrenzte Realität und eine unzureichende Nachbildung menschlicher
Anatomie1. Zusätzliches Praxis-Training findet nach wie
vor im OP-Saal statt, was zum einen aber sehr zeitaufwändig ist (Zeit im OP-Saal, Zeit des Ausbilders) und zum
anderen für die Patienten aufgrund mangelnder Erfahrung und Praxis ein erhöhtes Risiko bedeuten kann.
Es gibt bereits bestehende klinische Simulatoren wie den
sogenannten „VOXELMAN“ in der Zahnchirurgie. Dieser
beschäftigt sich jedoch ausschließlich mit dem Fräsen
am Knochen2. Im Gegensatz zu diesem Trainingssystem
konzentrieren wir uns zum ersten Mal auf Bohrungen
durch den Knochen, die sich stark von der Haptik zum
Fräsen unterscheidet.
Der Gesamtaufbau unseres ‚HaptiVisT‘-Trainingssystems
mit seinen technischen Geräten (Haptik-Arm, HaptikPhantom, 3D-Monitor und Tracking-Kamera) ist in Grafik 1 dargestellt.
Das haptische und visuell unterstützende Bohrmodell
‚HaptiVisT‘ basiert auf dem experimentell verifizierten
Kräftemodell von Lee et al. 3, in dem die Schneidlippen
eines Bohrers in mehrere kleine Schneidelemente mit festem Abstand zum Mittelpunkt unterteilt sind. Die Schubund Schneidkraft sowie die seitliche Kraftkomponente
können in eine axiale Schubkraft und ein Drehmoment
umgewandelt und anschließend auf den Haptik-Arm als
DIGITALISIERUNG
Kraftfeedback übertragen werden4. Die tatsächliche
Kraft, die bei einem Bohrprozess am Knochen wirkt, wird
zusätzlich experimentell durch eine Kraftmessdose bestimmt, so dass die berechnete Kraft zuerst skaliert und
anschließend mit Hilfe von erfahrenen Chirurgen an die
Realität angepasst werden kann. Durch eine essentielle
Kollisionsdetektion zwischen Gewebe- und Bohrmodell
wird festgestellt, zu welchem Zeitpunkt eine Kraft auf
den Haptik-Arm übertragen wird und wann nicht. Bei
Kollisionen mit dem Gewebe muss das Bohrmodell durch
eine gewebeabhängige Kraftkomponente und eine
Vibration des Bohrers erweitert werden, um eine vollständige Bohrsimulation zu erhalten.
Die 3D-haptische Visualisierung mit Oberflächen und Volumenrendering basiert auf dem Framework Chai3d,
einer Open Source C++ Bibliothek für Computerhaptik
[www.chai3d.org]. Mit klinischen Volumendaten aus
der Computertomografie (CT) und Magnetresonanztomografie (MRT) werden Knochen, Weichgewebe und
Risikostrukturen durch halbautomatische Segmentierung und digitale Bildverarbeitung für ausgewählte chirurgische Eingriffe in einem 3D-Arbeitsbereich dargestellt. Die Visualisierung wird auf einen Single-User
autostereoskopischen 3D-Monitor übertragen: Dieser 3DDisplay ermöglicht die plastische Wahrnehmung dreidimensionaler Objekte ohne betrachterseitige Hilfsmittel
wie einer Brille (Autostereoskopie)5. Für die virtuelle
Positionierung der Volumendaten und des haptischen
Armes in einem gemeinsamen globalen Weltkoordinatensystem muss eine geeignete Umwandlung in ein
lokales Koordinatensystem mittels linearer Algebra
(Rotationsmatrizen und Quaternionrotation) erfolgen.
Neben der 3D-Visualisierung wird ein Hand-Phantom mit
einem 3D-Drucker erstellt. Dies ist notwendig, um eine
bimanuale Haptik für den Chirurgen zu gewährleisten,
der dadurch wichtige Markerpunkte der Hand ertasten
kann. Um ein Phantom realistisch gestalten und drucken
zu können, muss das Hart- und Weichteilgewebe aus
klinischen CT-Daten mit einem Computeralgorithmus
modelliert werden. Das 3D-Hand-Phantom wird zusätzlich von einer stereoskopischen Kamera in Echtzeit getrackt, damit sich die 3D-Visualisierung am Monitor mit
der Ausrichtung des Haptik-Phantoms simultan mitbewegt und rotiert.
Abschließend wird eine umfassende Bewertung der
Immersionsgrade sowie eine Bewertung ethischer, rechtlicher und sozialer Aspekte des HaptiVisT-Konzepts
durchgeführt, um die Benutzerakzeptanz des Systems zu
erhöhen.
| 49
Projektleiter
Prof. Dr. rer. nat. Christoph Palm
Regensburg Medical Image Computing (ReMIC)
Fakultät Informatik und Mathematik
Regensburg Center of Biomedical Engineering (RCBE)
[email protected]
Projektmitarbeiter
Johannes Maier (M.Sc.)
Regensburg Medical Image Computing (ReMIC)
[email protected]
Geldgeber
Bundesministerium für Bildung und Forschung (BMBF)
Kooperationspartner
Szenaris GmbH (Bremen), SeeFront GmbH (Hamburg),
Fraunhofer-Institut für Integrierte Schaltungen IIS
(Erlangen), Universitätsklinikum Leipzig AöR (Leipzig),
Universitätsklinikum Regensburg (Regensburg)
Projektlaufzeit: 3 Jahre, Juni 2016 – Mai 2019
Fördersumme
Gesamtprojekt: ca. 1,26 Mio. Euro
Teilprojekt der OTH Regensburg: ca. 357 TEuro
Homepage: http://re-mic.de
Die Entwicklung eines solchen Kraftfeedback-unterstützten Trainings-Simulators für die minimal-invasive
Handchirurgie ergänzt bestehende medizinische Übungsanwendungen und schließt die Lücke zu Praxiszwecken
durch eine haptische und visuelle Lernerfahrung. Nach
Beendigung der Trainingseinheit wird das Ausmaß der
verbesserten Fähigkeit der Chirurginnen oder der Chirurgen sorgfältig ausgewertet. Diese daraus gewonnenen
Lernerfahrungen können nun am Patienten angewendet
werden. Im Idealfall folgt hieraus eine fehlerfreie Operation ohne Komplikationen.
Johannes Maier, OTH Regensburg1 ■
Sonja Haug, OTH Regensburg2 ■
Ulrike Scorna, OTH Regensburg2 ■
Karsten Weber, OTH Regensburg2 ■
Christoph Palm, OTH Regensburg1 ■
1)
Regensburg Medical Image Computing (ReMIC)
2)
Institut für Sozialforschung und
Technikfolgenabschätzung (IST)
L I TE R ATUR
1. Tsai M., Hsieh M., Tsai C.: Bone drilling haptic interaction for orthopedic surgical simulator, In: Computers in Biology and Medicine, 37
(12), pp. 17091718 (2007)
2. Pohlenz P., et al.: Virtual dental surgery as a new educational tool
in dental school, In: J. of CranioMaxillofacial Surgery, 38 (8), pp. 560564 (2010)
3. Lee J., Gozen B. A., Ozdoganlar O. B.: Modeling and experimenta-
tion of bone drilling forces, In: J. of Biomechanics, 45 (6), pp. 10761083 (2012)
4. Perret J., Vance J. M., Dumont G.: Interactive assembly simulation
with haptic feedback, In: Assembly Automation, 33 (3), pp. 214220
(2013)
5. Grossmann C. M.: A new ASdisplay as part of the MIRO lightweight
robot for surgical applications,In: Proc. SPIE 7524, Stereoscopic Displays and Applications XXI, 752403 (2010)
50 | D I G I T A L I S I E R U N G
An Experimental Card Game
for Software Testing
Teaching software testing is a challenging task. Especially if you want to impart more in-depth
and practical knowledge to the students. Therefore, most lecturers still teach in a classic lecture
format despite the fact that this way of instruction is in any case the optimal way of instruction
for today’s requirements anymore. In this contribution we present our implementation of
an active learning method to deepen the knowledge in academic software testing education.
We describe a card game for advanced learning that promotes students’ collaboration and
knowledge exchange in a playful and competitive manner. The design of the game is based on
constructive and cooperative theories.
ring education. According to constructivism, the lecturer
facilitates the learning process by designing effective
learning environments within which the student is able
to construct knowledge.2 Therefore, the research project
EVELIN (Experimental Improvement of Learning in Software Engineering) investigates innovative and suitable
learning arrangements that meet the current learning
requirements.
Games for Learning
Figure 1 (left)*: Exemplary Creature Card, is played to attack another
player. The attack can only be defended, when the other player uses
a suitable card.
Figure 2 (right)*: Exemplary Spell Card for instant sorcery, can be played
solely or in combination with complementary cards for additional
effects.
Introduction
The claim of furthering lifelong and personal learning in
higher education is a more and more compulsive task for
lecturers. Implementing customized learning processes
and creating a learning culture that consists of collaborative elements on the one hand but individual success
on the other hand is often felt as difficult and demanding.1 Especially designing learning for Software Engineering related topics is a sophisticated challenge that
requires the conjunction of theoretical and practical elements of highly abstract and volatile content. Thus, the
deployment of successful learning is a major hurdle as
well as its preparation and implementation by the lecturer for the purpose of high quality in software enginee-
Games for learning offer attractive opportunities by
combining playful elements with learning content. By
using game mechanics, thinking and technique, the
gameful delivery of learning embeds theoretical content
into a fun and engaging environment that addresses the
intrinsic motivation of the learner. 3 Furthermore, games
give the learner space to discover, improvise, and challenge. Research in the literature shows that this learning
method is crucial to social, emotional, cognitive and even
physical development when given enriching surroundings
and supportive guidance. The learner gets engaged into
the context-specific environment and has feelings of
engagement, discovery and fun while gaining knowledge
about the subject matter.3-4 Thus, an appropriate game
design is crucial for effective learning. Especially for
higher education of software engineering, learning
games must encourage collaborative exchange and an
active transfer of theoretical content to practical applications. To promote the implementation of games, we
developed tailorable game components that assist the
lecturer and reduces the time required for designing an
appropriate game.
DIGITALISIERUNG
Card Game
for Learning Software Testing
In our current research, we focus on the design of collaborative card games for software testing to encourage
learners in diminishing learning deficits. The game builds
upon fundamental principles of constructivism and
claims the learner to actively collaborate with the other
players to self-correct own mistakes. Thus, the main learning goal is to understand basic principles of software
testing, in particular static testing, by using previously
conducted practical exercises. Based on the analyses and
determination of individual deficits, the card game rules
and goals adapt to the needs of the learner. The game is
turn-based and can be accomplished either collaborative
or solely. The players respectively learner can choose,
which cards they play immediately and decides if the
card task is played solely, with another player or with the
whole team. In traditional games, luck and strategical
skills are an important part, whereas in learning games
often knowledge is the key criteria to advance. Thus said
in single player games this is affordable, especially for
multi-player games, it is highly important to create a
balanced gameplay between beginners and advanced
learners. Thus, we integrated collaborative elements that
support joint activities to accomplish game goals. Thereby, beginners are able to learn from advanced learns by
joint playing. In addition, various game strategies can be
conducted, e. g. players with a lack of knowledge can
keep pace with others by playing certain cards. Figure 1
and 2 illustrate sample cards of our developed deck for
learning static testing for the programming language C.
Conclusion
First observations and discussions with learners support
the effectiveness of our approach.5 Nevertheless, further
evaluation is needed, especially to examine the effectiveness of the card game onto new knowledge acquisition. Currently we develop a formalism for lecturers in
designing card games for academic learning and especially for a systematic integration of learning content.
We want to develop a generic framework that adopts the
learning content for software engineering as well as for
other learning subjects, and helps the designer in a learning content oriented systematic approach for designing
games for their specific needs.
| 51
Projektleiter
Prof. Dr. Jürgen Mottok
LaS³ – Laboratory for Safe and Secure Systems
[email protected]
Projektmitarbeiter/in
Alexander Soska (M.Sc.)
[email protected]
Geldgeber
Bundesministerium für Bildung und Forschung (BMBF)
DLR Projektträger
Kooperationspartner
Hochschule Coburg, Hochschule Kempten,
Hochschule Aschaffenburg, Hochschule Neu-Ulm
Projektlaufzeit
48 Monate
Fördersumme
1,72 Mio. Euro
Homepage
http://www.evelinprojekt.de/
Acknowledgment
This work is supported by the Federal Republic of Germany, Federal Ministry of Education and Research, BMBF
grant EVELIN „Experimentelle Verbesserung des Lernens
von Software Engineering”, grant identity 01PL12022F,
project sponsor DLR. The network project EVELIN is part
of the „Bund-Länder-Programm für bessere Studienbedingungen und mehr Qualität in der Lehre“. The Universities of Applied Sciences Aschaffenburg, Coburg,
Kempten, Neu-Ulm and Regensburg are the network
partners. More information under http://www.evelinprojekt.de/ or http://www.qualitäts pakt-lehre.de. Solely
the authors are responsible for the content of this publication.
Alexander Soska, OTH Regensburg ■
Jürgen Mottok, OTH Regensburg ■
L I TE R ATUR
1. Krug, P.: Der Stellenwert von selbstgesteuertem Lernen im Konzept
des lebenslangen Lernens. In: Selbstgesteuertes lebenslanges Lernen.
Behrmann D., Schwarz B., pp. 47–61. Bertelsmann, Bielefeld (2003).
2. Mottok, J., Hagel G., Utesch M., F. Waldherr F.: Konstruktivistische
Didaktik- ein Rezept für eine bessere Software Engineering Ausbildung?. In: Proceedings of Embedded Software Engineering Congress
(ESE 2009). Sindelfingen (2009).
3. McGonigal, J.: Reality is broken. Why games make us better and
how they can change the world. Pinguin Press, New York (2011).
4. Blunt, R.: Do Serious Games Work? Results from Three Studies. In:
Proceedings of eLearn, vol. 2009, no. 12. AACE (2009).
5. Soska, A., Mottok, J., Wolff, C.: An experimental card game for software testing: Development, design and evaluation of a physical card
game to deepen the knowledge of students in academic software
testing education. In Proceedings of 2016 IEEE Global Engineering
Education Conference (EDUCON), , Abu Dhabi, UAE, pp 576-584. IEEE,
Piscataway, New Jersey (2016).*
ANZEIGEN
| 53
Produktion
und Systeme
Die Forschung im Bereich Produktion und Systeme behandelt die methodische Gestaltung, simulationsgestützte Verbesserung und effiziente
Realisierung komplexer Produktionssysteme durch quantitative Methoden,
Informationssysteme, Automatisierung, Regelungstechnik und (teil-)automatisierte Anlagen. Neue Werkstoffe und Fragen der Material- und Verfahrenstechnik sind dabei Herausforderungen beim Design und der Herstellung
neuer energie- und ressourceneffizienter Produkte.
54 | P R O D U K T I O N U N D S Y S T E M E
AutoRüst: Werkzeugmaschinen effizienter rüsten durch
bedarfgerechte Informationsbereitstellung
Durch bedarfsgerechte und automatisierte Informationsbereitstellung soll das Rüsten von Werkzeugmaschinen effizienter und sicherer gestaltet werden. Dies ist das Ziel des Projekts „AutoRüst“
des Labors Fertigungstechnik und Werkzeugmaschinen (LFW) der OTH Regensburg in Kooperation
mit der OPUS Entwicklungs- und Vertriebs- GmbH aus Kirchheim unter Teck. Interaktive 3D-Rüstdokumente sollen hierbei die Kommunikation zwischen Arbeitsvorbereitung und Fertigung
erleichtern. Das Rüsten von Spannmitteln soll zudem durch ein Assistenzsystem visuell unterstützt
und anschließend durch einen 3D-Scanner überprüft werden.
Digitale Fertigung
Für eine effiziente und schlanke Fertigungsplanung
rücken rechnerintegrierte, vernetzte Prozesse immer
weiter in den Vordergrund. In der CNC-Fertigung führt
dies zum vermehrten Einsatz von CAD/CAM-Systemen in
der Arbeitsvorbereitung. Hiermit wird unter Verwendung
der 3D-Modelle von Roh- und Fertigteil, Werkzeugen und
Spannmitteln sowie der Bearbeitungsmaschine die
Spannsituation und jeder Fertigungsschritt detailliert geplant und programmiert (siehe Abb. 1). Durch Kollisionsanalyse und Materialabtragssimulation soll sichergestellt
werden, dass im nachgelagerten Fertigungsprozess keine
Komplikationen auftreten. Dies erfordert jedoch eine
möglichst exakte Umsetzung der virtuell geplanten
Spannsituation in die Realität (siehe Abb. 1). Abweichungen können zu kostenintensiven Kollisionen und somit
Beschädigungen des Werkstücks, Werkzeugs und der
Maschine selbst führen. Zur Vermeidung von Stillstandszeiten soll der Rüstprozess zudem möglichst schnell vonstattengehen.
Abbildung 1: Digitale Aufspannsituation im CAD/CAM-System (links
oben), reale Aufspannsituation auf der Bearbeitungsmaschine (rechts
oben); Beispieldaten aus der Spannmitteldatenbank (unten)
Die geplante Aufspannung muss mit allen relevanten
Daten dokumentiert und von der Arbeitsvorbereitung in
die Fertigung kommuniziert werden. Hierfür werden in
der Praxis die im CAD/CAM-System vorhanden Spannbaugruppen auf technische Zeichnungen oder Screenshots heruntergebrochen, ggf. mit Maßen und Notizen
versehen und in Papierform übermittelt. Neben dem
manuellen Erzeugungsaufwand entsteht bei der Reduzierung der Informationen von 3D auf 2D in der Regel
auch ein Informationsverlust.
Zentrale Rüstdatenverwaltung
Als Kernstück des Projekts und zur zentralen Verwaltung
und Speicherung aller relevanten Daten wurde eine relationale Datenbank entworfen und implementiert. Dies
ermöglicht die Verwaltung von Spannmitteln und beliebig verschachtelten Spannbaugruppen mit Stammdaten,
detaillierter Typisierung sowie Zuordnung typspezifischer
Sachmerkmale. Zudem werden alle weiteren für den
Rüstprozess relevanten Daten wie z. B. Rüstdokumente
hier verwaltet. Der Zugriff auf Datenbankinhalte erfolgt
durch beliebige SQL-fähige Programme wie MS Access
oder direkt vom CAM-System aus. Dateien wie Rüstdokumente und 3D-Modelle werden im Dateisystem
strukturiert abgelegt. Der komfortable und schnelle Aufbau von Spannbaugruppen erfolgt in einer dafür entwickelten Oberfläche. Der Fokus liegt hierbei nicht, wie
in der Baugruppenkonstruktion, auf dem vollständigen
Anbringen von Zwangsbedingungen, sondern auf einer
schnellen und flexiblen Konfiguration der Aufspannung.
Die abgebildete Spannpratze wird beispielsweise durch
das Anklicken der Einschraubposition und Angabe von
Spannhöhe, Winkel und Auskraglänge vollständig positioniert.
PRODUKTION UND SYSTEME
Interaktive 3D-Rüstdokumente
Zur Visualisierung und Kommunikation der Rüstinformationen werden digitale, interaktive Rüstdokumente automatisiert erzeugt. Diese beinhalten das eingebettete
3D-Modell der Aufspannung, die Einzelteile sowie die
Stückliste, Montagehinweise und Stammdaten. Als
Dateiformat kommen hierfür HTML und PDF zur Anwendung. Da es sich um Standardformate handelt, sind die
Betrachtungsmöglichkeiten weitgehend unabhängig von
Endgerät und Betriebssystem. Zudem bestehen weitere
Interaktionsmöglichkeiten mit dem Rüstdokument wie
beispielsweise Zoomen und Drehen des 3D-Modells,
Messen von Positionen sowie Ausblenden und Hervorheben einzelner Bauteile. Der Mitarbeitende am Rüstplatz erhält somit detaillierte Informationen über die zu
montierende Spannsituation.
Visualisierung und Validierung
der Aufspannung
Vor allem bei komplexeren Aufbauten mit frei positionierbaren Einzelteilen ist ein Rüstdokument oft nicht ausreichend, um eine schnelle und zuverlässige Montage zu
gewährleisten. Es besteht das Risiko, dass einzelne
Spannmittel ungenau platziert werden und somit zu
Kollisionen führen. Aus diesem Grund wurde im Projekt
ein Softwaretool entwickelt, das die Anzeige der Spannmittelkonturen durch einen Laserprojektor am Rüstarbeitsplatz ermöglicht (siehe Abb. 2). Bauteile können
damit ohne weiteres Messen präzise und schnell positioniert werden. Die benötigten Daten werden vom Softwaretool automatisiert aus der Spannbaugruppe extrahiert, in ein neutrales Dateiformat exportiert und in der
Spannmitteldatenbank abgelegt. Die Software ermittelt
zudem automatisch eine Montagereihenfolge und erkennt und gruppiert gleiche Spannmittel zu einem Montageschritt. Die typische Positioniergenauigkeit lag in
ersten Tests bei ca. 0,5 mm.
| 55
Projektleiter
Prof. Dr.-Ing. Andreas Ellermeier
Labor Fertigungstechnik und Werkzeugmaschinen (LFW)
Fakultät Maschinenbau
[email protected]
Projektmitarbeiter
Daniel Vögele (M.Sc.)
Labor Fertigungstechnik und Werkzeugmaschinen (LFW)
Fakultät Maschinenbau
[email protected]
Geldgeber
Bayerisches Staatsministerium für Bildung
und Kultus, Wissenschaft und Kunst (StMBKWK)
Kooperationspartner
OPUS Entwicklungs und Vertriebs GmbH,
Kirchheim unter Teck
Projektlaufzeit
36 Monate
Fördersumme
242 TEuro
Homepage
https://www.oth-regensburg.de/fakultaeten/maschinenbau/
labore/fertigungstechnik-und-werkzeugmaschinen.html
Zur Validierung der montierten Aufspannung dient ein
visueller Vergleich von Ist- (reale Aufspannung) und Sollzustand (3D-Modell der Aufspannung). Dies wird durch
ein 3D-Scan-System ermöglicht, das reale Oberflächen
in Form von Punktewolken digitalisiert. Das System vergleicht das 3D-Modell der Aufspannung mit diesen Daten
und zeigt Abweichungen sofort farbig an (siehe Abb. 2).
Aktueller Stand und Ausblick
Die beschriebenen Teilsysteme wurden zum Teil vollständig umgesetzt und kommen bereits an einem Demonstrator im LFW zum Einsatz. Die zentralisierte Rüstdatenverwaltung in einer Datenbank bildet die Basis des
gesamten Pakets und eröffnet die Möglichkeit zur Anknüpfung weiterer Assistenz- oder Informationssysteme.
Beispielsweise könnten die 3D-Daten für eine Rüstunterstützung durch Augmented-Reality-Anwendungen verwendet werden.
Andreas Ellermeier, OTH Regensburg ■
Daniel Vögele, OTH Regensburg ■
Abbildung 2: 3D-Modell der Spannpratze mit Projektionskontur für die
Laserprojektion (links oben); Positionierung der Spannpratze mit Hilfe
von Laserprojektion (rechts oben); 3D-Scan-System zur Validierung
der Aufspannung (links unten); Grafische Darstellung des 3D-Scans
bei fehlerhafter Montage (rechts unten)
56 | P R O D U K T I O N U N D S Y S T E M E
Forschungsschwerpunkte
im Labor Lasermaterialbearbeitung
Durch das Laserkunststoffschweißen können sowohl filigrane Nähte in der Mikrotechnik als auch
tragfähige Verbindungen für Strukturbauteile hergestellt werden. In der Automotiv- oder der
Medizintechnik-Industrie ist diese Fügetechnologie mittlerweile etabliert, jedoch sind die Anwendungsmöglichkeiten bei Weitem noch nicht ausgeschöpft. In kürzlich gestarteten Forschungsprojekten mit regionalen Industrieunternehmen und internationalen Forschungspartnern werden
im Labor Lasermaterialbearbeitung weitere Potenziale gehoben.
Forschungsaktivitäten
und -kompetenzen im Labor
Das Hauptaugenmerk liegt derzeit auf der Prozessentwicklung des Laser-Durchstrahlschweißens für Kunststoffe. Die hierfür notwendigen Laserschweißanlagen
werden eigenständig sowohl konzeptioniert und konstruiert als auch in Betrieb genommen. Laserscansysteme
und Spannvorrichtungen sind dabei die Hauptkomponenten. Neben der Auslegung der Bauteile und Konstruktion mittels CAD wird die Ausbreitung des Laserstrahls
mit Simulationsprogrammen berechnet. Ein scannerintegriertes Pyrometer ermöglicht die Prozessüberwachung und -regelung. Die Temperatur in der Wechselwirkungszone des Laserstrahls wird so bereits während
des laufenden Schweißprozesses aufgezeichnet. Neben
der Elimination von Störgrößen müssen große Messdatensätze aufgezeichnet, aufbereitet und anschließend
in Bezug auf den Schweißprozess interpretiert werden.
Parallel dazu werden thermo-mechanisch gekoppelte
FEM-Prozesssimulationen durchgeführt. Zielführende
Prozessparametersätze können hierbei anhand des Temperaturfeldes ermittelt werden. Nebenbei ist der zeitliche
Verlauf des Temperaturfeldes für die Interpretation des
Temperatur-Messsignals sehr hilfreich. Abbildung 1 zeigt
das Temperaturfeld einer Quasi-Simultanschweißung
zu ausgewählten Strahlumläufen, berechnet in einer
thermo-mechanischen Prozesssimulation.
Forschungskooperationen mit
Partnern innerhalb und außerhalb
Bayerns
Neben öffentlich geförderten Forschungsprojekten mit
mehreren Jahren Laufzeit werden auch kurzfristig angelegte Forschungsaufträge von Industriepartnern bear-
Abbildung 1: Temperaturfeld einer quasi-simultanen Laser-Durchstrahlschweißung von Polyethylene zu ausgewählten Strahlumläufen
beitet. Sowohl mit kleinen und mittelständischen Unternehmen (KMUs) als auch mit Großunternehmen wird kooperiert. Die Auftragsvergabe fußt bei KMUs oftmals auf
deren eingeschränkten Möglichkeiten zur Forschung und
Entwicklung. Bei Großunternehmen sind es vorwiegend
Machbarkeitsstudien, Prozessqualifizierungen und Schadensanalysen, die oftmals sehr kurzfristig abgearbeitet
werden müssen. Demgegenüber werden in öffentlich geförderten Forschungsprojekten langfristige Ziele verfolgt.
Aufbauend auf das Forschungsprojekt „3D-Schweißen“,
gefördert vom Bayerischen Staatsministerium für Bildung und Kultus, Wissenschaft und Kultur, das mit den
Kooperationspartnern ARGES GmbH, blz GmbH und INOTECH GmbH bearbeitet wurde, sind zwei neue Forschungsprojekte vor Kurzem genehmigt worden:
PRODUKTION UND SYSTEME
THECOS – Thermoplastic Composite Structures
(09/2016 – 08/2019)
Langfaserverstärkte Kunststoffe mit thermoplastischer
Matrix stehen im Zentrum des Forschungsprojektes
THECOS. Ziel ist die Erforschung eines Halbzeug-Herstellungsprozesses und des Laser-Durchstrahlschweißens
von langfaserverstärkten Kunststoffen. Während bei
Laserschweißverbindungen bislang die Dichtigkeit und
nicht die Festigkeit im Vordergrund gestanden ist, werden in diesem Projekt langfaserverstärkte Kunststoffe
mit Blick auf den Einsatz als tragende Strukturbauteile
geschweißt. Im Labor Lasermaterialbearbeitung wird
hierzu eine pyrometrische und scanner-integrierte Temperaturmesstechnik aufgebaut, um den Schweißprozess
überwachen und ggf. regeln zu können. Das Forschungsprojekt wird gemeinsam mit dem Labor für Faserverbundtechnik an der OTH Regensburg und dem New
Technologies Research Centre der University of West
Bohemia bearbeitet (siehe Abb. 2). Für das im Rahmen
des INTERREG IV-Programms beantragte Forschungsprojekt erhält die OTH Regensburg als Leadpartner
600.000 Euro.
3D-LASPYRINT-SCANNER (11/2016 – 11/2019)
Im Forschungsprojekt 3D-LASPYRINT-Scanner wird mit
Blick auf Schweißapplikationen in der Medizintechnik
eine Lasersystemtechnik mit integrierter Temperaturmessung für das Schweißen von transparenten Kunststoffen erforscht. Das Projekt wird gemeinsam mit dem
Bayerischen Laserzentrum und den vier Industriepartnern Gerresheimer Regensburg GmbH, Nexlase GmbH,
| 57
Prof. Dr.-Ing. Stefan Hierl
Fakultät Maschinenbau
Wissenschaftlicher Leiter Labor Lasermaterialbearbeitung
[email protected]
LPKF WeldingQuipment GmbH und Micro Epsilon Messtechnik GmbH & Co. KG im Rahmen einer Förderung
durch das Bayerische Staatsministerium für Wirtschaft
und Medien, Energie und Technologie bearbeitet (siehe
Abb. 2). Von dem Gesamtfördervolumen von 760.000 Euro
erhält die OTH Regensburg als Leadpartner 232.800 Euro.
Erweiterung der Forschungsaktivitäten hin zur additiven
Fertigung
An der Fakultät Maschinenbau werden bereits Lehrveranstaltungen zur Additiven Fertigung angeboten. Mit der
Anschaffung des FDM-Druckers STRATASYS Fortus 380mc
werden gegenwärtig auch erste Erfahrungen in der Prozess- und Anlagentechnik gewonnen. Die Expertise auf
dem Gebiet der Laserbearbeitung, der Temperaturmesstechnik und der Prozesssimulation können hierauf direkt
übertragen werden, sodass Forschungsaktivitäten auch
in dieser Fertigungstechnologie geplant sind.
Stefan Hierl, OTH Regensburg ■
Abbildung 2: Projektpartner in aktuell laufenden, öffentlich geförderten Forschungsprojekten
58 | P R O D U K T I O N U N D S Y S T E M E
Behaviour of Wire Ropes and Rope Wires
under Ultra Deep Temperature Conditions
Mobile cranes are regularly operated in regions which experience ultra deep operating temperatures of down to -60˚C. In safety regulated work environments crane operations will be suspended
simply because the lowest wire rope working temperature stated in the applicable standards is
-40˚C. In order to analyze the behaviour under ultra deep temperature conditions tests on wire
ropes as well as on rope wires will be carried out. In the following static tensile and bending tests
with ropes and rope wires results will be reported which were carried out in conditions of down
to -95˚C as well as at room temperature. The results of these tests can be adopted to crane wire
ropes as well.
Introduction
Single wire bending tests
Very little is published about deep temperature behaviour of wire ropes. Gräbner und Gwenetadse (1990) report about bending tests in a cold chamber. They detect
a slight decrease of number of achieved bending cycles.
But this is mainly caused by the behavior of the used rope
lubricant. In order to analyze the behavior of the rope
material itself tests on ropes as well as on rope wires will
be carried out. In the following results of static tensile
tests on wire ropes as well as single bending tests, rotary
bending tests and tensile-tensile tests on rope wires will
be reported which were carried out in conditions of down
to -95˚C as well as at room temperature.
Single wire bending tests are a mandatory quality assurance procedure for all rope wires before they are made
into a rope. In essence, the individual wire is bend over a
prescribed mandrel and has to meet certain number of
bends up to wire failure. Test procedure and required
number of bends are given in a standard [DIN EN 102642 (2012)].
The wire samples tested to much higher actual number
of bends at room temperatures as required by the DIN
EN standard (up to 3 times as high). In three temperature settings -50° C to -60° C as well as -95° C and room
temperature 134 tests in total were carried out. The
results for the deep temperature tests (-50˚C to -60˚C)
were on average between 3 % and 30% higher than the
actuals at room temperature. As a surprise it can be
noted that the results for the ultra deep temperature
tests (-95˚C) were on average at the same and some
even above the levels of the deep temperature results.
Tensile tests with wire ropes
Before tensile tests half of the test samples were submerged in liquid nitrogen and cooled down to about -190°C.
By help of temperature probes it was possible to measure
the temperature in that ropes during the tests. Close to
the broken rope sections the measured temperatures
were approximately -60°C in all that tests. In both temperature settings -60°C as well as room temperature 26
tests in total were carried out. All cooled down rope samples tested on average 2.6 % higher than the reference
samples tested at room temperature.
Rotary bending tests
For measuring the number of rotary bending cycles a test
machine of so called type „IFT-Stuttgart“ was built. The
principal of this type of test machine is described by
Wolf (1987). The deep temperature of -80°C was arranged with liquid nitrogen. It was blown onto the expected
area of wire breakage. A control unit guaranteed a constant temperature of plus minus one Kelvin. The most
voluminous investigation of rotary bending tests was
reported by Briem (2000). With the assistance of a
regression calculation an equation was found to describe
the expected number of cycles which will be used for the
evaluation of the actual test results too.
PRODUKTION UND SYSTEME
In both temperature settings -80°C as well as room temperature 119 tests in total in seven individual amplitude
stresses were carried out. The achieved number of rotary
bending cycles were evaluated. The test results are shown
in Figure 1. At -80°C the wire samples achieve approx.
19 % higher numbers of rotary bending cycles than at
room temperature.
| 59
Projektleiter
Prof. Dr.-Ing. Ulrich Briem
[email protected]
Figure 1: Achieved number of rotary bending cycles
Figure 2: Achieved number of tension-tension cycles
Tension-tension tests
Hypothesis
Tension-tension tests were carried out with a tensiontension test machine at the laboratory for materials
testing at OTH Regensburg. In the test machine the wire
samples were wrapped two times around wide sheaves
and then clamped. The test samples for rotary bending
tests as well as tension-tension tests were taken from the
same wires.
In both temperature settings -80°C as well as room temperature 33 tests in total in six individual stress configurations were carried out. The achieved numbers of
tension-tension cycles are evaluated commonly. The test
results of the galvanized wires are shown in Figure 2.
At -80°C the wire samples achieve approx. 17% higher
numbers of tension-tension cycles than at room temperature.
For the increase of achieved number of load cycles at 80°C the following hypothesis will be phrased: With the
decrease of the temperature the wire material will be
hardened. For strain controlled tests it implies that the
elastic part of the total elongation decreases and the
ductile part increases. Therefore the resistance against
elongation increases and lower dislocation movements
occur. That behaviour is investigated and published for
some other materials with comparable crystal structures
as rope wires, Gottstein (2001). The critical shearing
strain increases with decreasing temperature. In deep
temperature surroundings the ratio between the adjusted test stress level and the critical shearing strain is a
little smaller for the test sample. This leads to a higher
number of achievable cycles.
Ulrich Briem, OTH Regensburg ■
Knut Buschmann, Unirope Limited,
Mississauga, ON, Kanada ■
L I TE R ATUR
Briem, U.: Umlaufbiegewechselzahlen von Seildrähten. DRAHT 51
(2000)3, S 73-77
DIN EN 10264-2: Stahldraht für Seile. Teil 2: Kaltgezogener Draht aus
unlegiertem Stahl für Seile für allgemeine Anforderungen. Juni 2012
Gottstein, G.: Physikalische Grundlagen der Materialkunde. SpringerVerlag Berlin Heidelberg NewYork 2001, DOI 10.1007/978-3-66222296-6
Gräbner, P.; Gwenetadse, M.: Neue Forschungsergebnisse zur Schmierung von Drahtseilen. Forschungsbericht 1990 der Hochschule für Verkehrswesen „Friedrich List“, Dresden
Wolf, E.: Seilbedingte Einflüsse auf die Lebensdauer laufender Drahtseile. Diss. Universität Stuttgart 1987
60 | P R O D U K T I O N U N D S Y S T E M E
Der Mittelspannungseinfluss
bei zugschwellbeanspruchten Seildrähten
Bei Zugschwellversuchen kann sowohl die Amplituden- als auch die Mittelspannung frei eingestellt
werden. Für eine zusammenfassende Auswertung müssen Amplituden- und Mittelspannungen
durch eine einzige sogenannte äquivalente Spannung ersetzt werden. Die Bestimmung dieser
äquivalenten Spannung setzt die Kenntnis des sogenannten Mittelspannungseinflusses voraus.
Im Folgenden werden geeignete Modelle vorgestellt, die eine zusammenfassende Auswertung von
Zugschwellversuchen mit Seildrähten und damit eine allgemeine Beschreibung ihres Materialermüdungsverhaltens erlauben.
Einleitung
Umlaufbiegeversuch
Das Materialermüdungsverhalten von Seildrähten kann
durch zwei verschiedene Versuche bestimmt werden, den
Umlaufbiege- und den Zugschwellversuch. Sie werden
in den nächsten beiden Abschnitten beschrieben. Die
Drahtanordnung in den Versuchen, die Zonen maximaler
Belastung im Drahtquerschnitt sowie die Amplitudenund Mittelspannungen sind in Abbildung 1 angegeben.
Beim Umlaufbiegeversuch tritt die höchste Belastung an
der Drahtoberfläche auf, wogegen beim Zugschwellversuch der gesamte Drahtquerschnitt gleich belastet ist.
Beim Umlaufbiegeversuch wird der Draht ungefähr halbkreisförmig in die Prüfmaschine eingespannt und um
seine Achse tordiert. Dadurch entsteht eine wechselnde
Biegebeanspruchung. Die Mittelspannung ist Null. Briem
(2000) hat das Lebensdauerverhalten der Drähte im Umlaufbiegeversuch umfangreich untersucht und durch
Gleichung (1) beschrieben.
(1)
Darin heißen σb Biegespannung, δ Drahtdurchmesser
und R0 Drahtnennfestigkeit.
Zugschwellversuch
Abbildung 1: Drahtanordnung in den Ermüdungsversuchen, Bereiche
maximaler Belastungsamplitude im Drahtquerschnitt sowie Amplituden- und Mittelspannung.
Die Theorie der Stützwirkung besagt, dass die weniger
belasteten Querschnittsbereiche die höher belasteten
stützen. Daraus folgt, dass die Dauerfestigkeit im Umlaufbiegeversuch wesentlich höher sein muss als im Zugschwellversuch. Dies ist aber nicht der Fall. Unterberg
(1967) stellte daher fest, dass bei Seildrähten keine
Stützwirkung auftritt. Daraus folgt, dass die Ergebnisse
beider Versuche zusammenfassend ausgewertet werden
können.
Beim Zugschwellversuch wird der Draht durch eine
schwellende Zugspannung belastet. Eine Lebensdauergleichung für zugschwellbelastete Drähte existiert bisher
nicht. Mit dem im Folgenden ermitteltem Mittelspannungseinfluss wird es möglich sein, die zu erwartende
Schwingspielzahl in Abhängigkeit von den Belastungsparametern Amplituden- und Mittelspannung abzuschätzen.
Mittelspannungseinfluss
Es existiert eine ganze Reihe von Modellen zur Beschreibung des Mittelspannungseinflusses bei Metallen. Alle
diese Modelle ersetzen die Amplitudenspannung σa und
Mittelspannung σm durch eine äquivalente Amplitudenspannung σq und eine Mittelspannung σm gleich Null. σq
bei σm gleich Null führt zur gleichen ertragbaren Lastwechselzahl wie die Kombination aus den ersetzten
Spannungen σa und σm. Im Folgenden werden drei
Modelle vorgestellt, ein parabolischer Ansatz von Gerber
(1874), ein linearer Ansatz von Goodman (1930) und ein
exponentieller Ansatz von Kwofie (2001):
PRODUKTION UND SYSTEME
Gerber:
| 61
(2)
Projektleiter
Prof. Dr.-Ing. Ulrich Briem
Goodman:
(3)
Kwofie:
(4)
[email protected]
Beide Ausgleichskurven sind ebenfalls in Abbildung 2
eingezeichnet.
Darin heißt Rm Bruchfestigkeit des Drahtes.
Auswertemethode
Aufgrund der Tatsache, dass die Mittelspannung beim
Umlaufbiegeversuch Null ist, kann für eine erreichte
Lastwechselzahl die Biegespannung σb im Umlaufbiegeversuch als äquivalente Amplitudenspannung σq im Zugschwellversuch interpretiert und nach Gleichung (1)
berechnet werden. Zugschwellversuche werden damit
auf Umlaufbiegeversuche zurückgeführt. Daher ist für
die Zugschwellversuche aber auch nur ein begrenzter
Bereich von Mittelspannungen möglich. Dieser Bereich
ist in Abbildung 2 durch Begrenzungslinien eingezeichnet.
Die Ergebnisse der Umlaufbiegeversuche (Mittelspannung gleich Null) und der Zugschwellversuche (Mittelspannung innerhalb der Begrenzungslinien) sind ebenfalls in Abbildung 2 eingezeichnet. Die ebenfalls eingezeichnete Gerber-Parabel und Goodman-Gerade zeigen,
dass die Versuchsergebnisse offensichtlich durch einen
mit Gerber und Goodman vergleichbaren Ansatz beschrieben werden können, wobei der Exponent der bruchfestigkeitsbezogenen Mittelspannung zwischen 1 und 2
liegen muss. Durch Ausgleichsrechnung wurde der Exponent zu 1,58 berechnet. Bei angenommener Normalverteilung des Exponenten kann die Goodman-Gerade als
statistische 0,01%-Kurve und die Gerber-Parabel als statistische 99,6%-Kurve interpretiert werden. Bei Nutzung
des Kwofie-Ansatzes wurde der Parameter α zu 0,85 berechnet.
Autor:
Abbildung 2: Bereich der gewählten Mittelspannungen, Versuchsergebnisse und die Ausgleichskurven des Autors und von Gerber,
Goodman und Kwofie.
Zusammenfassung
Zur Beschreibung des Mittelspannungseinflusses bei Seildrähten wurden zwei Ansätze untersucht, ein mit Gerber
und Goodman vergleichbarer Ansatz und der Ansatz von
Kwofie. Mit beiden Ansätzen lassen sich die Versuchsergebnisse sehr gut beschreiben. Mit Hilfe der gewonnenen
Ansätze und der Lebensdauergleichung für Umlaufbiegeversuche können die ertragbaren Lastwechselzahlen bei Zugschwellversuchen erstmals zuverlässig
abgeschätzt werden.
(5)
Ulrich Briem, OTH Regensburg ■
Kwofie:
(6)
L I TE R ATUR
Briem, U.: Umlaufbiegewechselzahl von Seildrähten. DRAHT 21 (2000)
3, pp. 73-76
Gerber, W.: Bestimmung der zulässigen Spannungen in Eisenkonstruktionen. Z. Bayer Arch. Ing Ver. 6 (1874), pp. 101-110
Goodman, J.: Mechanics Applied to Engineering, Vol. 1, 9th edition.
Longmans Green and Co., London 1930
Kwofie, S.: An exponential stress function for prediction fatigue
strength and life due to mean stresses. Intern. Journal of Fatigue 23
(2001), pp. 829-836
Unterberg, H.-W.: Die Dauerfestigkeit von Seildrähten bei Biegung
und Zug. Diss. TH Karlsruhe, 1967
62 | P R O D U K T I O N U N D S Y S T E M E
DampSIM: Lebensdauerüberwachung von
faserverstärkten Kunststoffen auf Basis
der strukurdynamischen Werkstoffdämpfung
Im Fokus der Untersuchungen steht die Strukturintegrität von Bauteilen aus faserverstärkten
Kunststoffen. Im realen Anwendungsfall können diese Strukturen Schlag- oder Impactbelastungen
unterliegen, die häufig kaum sichtbare oder unsichtbare Schäden im Inneren des Bauteils verursachen. Diese Schäden stellen deshalb ein besonderes Sicherheitsrisiko dar. Ziel des Forschungsprojekts ist die effiziente Detektion solcher Schäden. Als Indikator des Materialzustands wird ein
vibrationsbasierter Ansatz angewendet, der zusätzlich zu den Eigenfrequenzen die strukturdynamische Werkstoffdämpfung einbindet.
Einleitung
Der Einsatz von faserverstärkten Kunststoffen (FVK) bietet besonders im Bereich hochbelasteter Leichtbaustrukturen oft einen entscheidenden Gesamtvorteil.
FVK-Werkstoffe zeichnen sich durch hohe Steifigkeiten
und Festigkeiten bei geringen Dichten aus und besitzen
darüber hinaus weitere vorteilhafte Eigenschaften. Im
Gegenzug zu genannten Nutzen unterliegt der Einsatz
von FVKs auch Einschränkungen und Unsicherheiten.
Besonders die Empfindlichkeit auf Schlag- oder Impactbelastungen stellen eine besondere Herausforderung dar,
da diese häufig einen kaum sichtbaren bis gänzlich unsichtbaren Schaden im Bauteilinneren zurücklassen.
Diese Schäden prägen sich zumeist als Delaminationen
Abbildung 1: Darstellung der grundlegenden Zusammenhänge im Forschungsvorhaben DampSIM. Impactbelastungen verursachen Delaminationen im Bauteilinneren der FVK-Strukturen und der Einfluss dieser
Schäden auf die modalen Parameter wird empirisch analysiert.
aus und vermindern die Druck- und Dauerfestigkeit der
Struktur signifikant.1 Ziel des Forschungsvorhaben Damp
SIM ist die Erkennung solcher Barely Visible Impact
Damages (BVID). Hierfür wird eine vibrationsbasierte,
zerstörungsfreie Messmethode genutzt und im Besonderen die vorliegende Werkstoffdämpfung betrachtet. Die
grundlegenden Materialuntersuchungen im Forschungsvorhaben liefern die Basis für die Ausarbeitung eines
Strukturüberwachungssystems, das in impactgefährdeten Bauteilen zum Einsatz kommen kann.
Forschungsvorgehen
Um die Eignung der Materialdämpfung als Zustandsindikator zu untersuchen, wurden verschiedene Probekörpertypen untersucht, deren geometrische Form über
die Projektlaufzeit an Komplexität zunimmt. Um die
Grundprinzipien zu erarbeiten, wurden stabförmige
Probekörper mittels verschiedener Fertigungsverfahren
präpariert. Um das vibrationsbasierte Verhalten einer
Struktur zu charakterisieren, werden typischerweise die
modalen Parameter genutzt. Im vorliegenden Fall wurden die Eigenfrequenzen, die zugehörigen modalen
Dämpfungen und wenn möglich die Eigenformen experimentell bestimmt (Abb.1). Um das Schwingverhalten
von Leichtbaustrukturen zu erfassen, bieten sich laserbasierte Messsysteme an. Außerdem wurden Erstversuche mit einem kleinen Sensorsystem gestartet, das
potentiell in die Struktur integriert werden kann. Die
durch die Messung erhaltenen Signaldaten werden durch
Matlab- und Python-basierte Programmskripte aufbereitet und die modalen Parameter berechnet. Die Auswertung der Werkstoffdämpfung stützt sich auf die
Methode der Halbwertsbreite, die eine Dämpfungsberechnung im Frequenzspektrum erlaubt. 2 Nach diesen
Messungen wird in die Probekörper eine reproduzierbare
und definierte Impactbelastung durch den Einsatz eines
Schlagpendels eingebracht und die modalen Parameter
PRODUKTION UND SYSTEME
| 63
Projektleiter
Prof. Dr.-Ing. Ingo Ehrlich
Labor für Faserverbundtechnik
[email protected]
Projektmitarbeiter
Christian Pongratz
[email protected]
Geldgeber: Bayerische Forschungsstiftung (BFS)
Kooperationspartner
Kooperatives Forschungsprojekt zwischen dem Labor
für Faserverbundtechnik und dem Sensorik-ApplikationsZentrum der OTH Regensburg sowie der Reinhausen
Power Composites GmbH und der Maschinenfabrik
Abbildung 2: Versuchsaufbau zur experimentellen Messung der modalen Parameter mithilfe eines Laser-Scanning-Vibrometers (links) und
dem Aufbau zur definierten und reproduzierbaren Impactschädigung
der Probekörperstrukturen mithilfe eines Schlagpendels (rechts).
Reinhausen GmbH
Projektlaufzeit: 36 Monate
Fördersumme: 444 TEuro
Homepage: https://www.oth-regensburg.de/lft
erneut erfasst (Abb.2). Aus einem Vergleich des Schwingverhaltens vor und nach der Schädigung kann nun ermittelt werden, welche modalen Parameter für eine
Zustandsüberwachung der Struktur geeignet sind. Diese
zentralen Untersuchungen werden durch qualitätssichernde Analysen wie Ultraschalluntersuchungen,
Schliffbildmikroskopie und Faservolumengehaltsbestimmungen begleitet. Da FVKs eine Vielfalt an Material- und
Werkstoffkombinationen bieten und somit die Eigenschaften veränderlich sind, wurden Probekörper aus verschiedenen Lagenaufbauten, Fasertypen, Geweben und
Halbzeugen untersucht. Nach Abschluss der Untersuchungen an stabförmigen Strukturen wurde die Probekörpergeometrie gewechselt und plattenförmige sowie
abschließend rohrförmige Strukturen analysiert und jeweils neue hinzugekommene Aspekte betrachtet.
Vibrationsbasierte Zustandsmessung
Für den Einsatz eines vibrationsbasierten Zustandssystems kann gezeigt werden, dass sich die Werkstoffdämpfung als Zustandsindikator anbietet. 3-4 Aufgrund
der Impactbelastung entstehen Delaminationsflächen,
die als neue Reibflächen schneller zum Abklingen einer
Schwingung führen und so die vorliegende Dämpfung
ansteigen lassen. Im Vergleich zu den bisher häufig eingesetzten Systemen auf Basis der Eigenfrequenzen eignet sich die Werkstoffdämpfung bei den untersuchten
Strukturen oft besser, bietet mindestens jedoch einen
nützlichen Mehrwert, da sich schädigungsbedingte Frequenzänderungen oft im Bereich der Frequenzauflösung
der Messsysteme abspielen. Als Einschränkung muss genannt werden, dass es sich bei der Werkstoffdämpfung
um einen der sensibelsten modalen Parameter handelt
und diese somit auch verschiedensten Quereinflüssen
unterliegt. Werden solche Quereinflüsse minimiert oder
für reale Anwendungen erkannt und kompensiert, stellt
diese hohe Sensibilität jedoch auch den Grund für den
besonders vorteilhaften Einsatz als Zustandsindikator
dar. Aufgrund der Kombinationsvielfalt bei FVKs können
keine allgemeingültigen Modelle oder Referenzen aufgebaut werden, für einige ausgewählte Varianten wurden
jedoch Referenzdatenbanken erstellt. Für einen anwendungsnahen Einsatz kann der Vergleich mit solchen
Datenbanken und dadurch eine Zustandsaussage jedoch
nicht immer erfolgen, da auch kleinere Unterschiede im
Fertigungsprozess das Schwingverhalten der Struktur
verändern. Hier ist eine bauteilspezifische Überwachung
im Rahmen einer Fingerprinting-Methode oder eines
kontinuierlichen Lifetime-Monitorings denkbar.
Ingo Ehrlich, OTH Regensburg ■
Labor für Faserverbundtechnik
Christian Pongratz, OTH Regensburg ■
Labor für Faserverbundtechnik
L I TE R ATUR
1. Wahab, M.A.; Jabbour, T.; El-Dahabi, F.: Analysis of the dynamic
behavior of composite plates subjected to impact. Mechanics & Industry, Vol. 14, No. 4 (2016)
2. Dresig, H.; Holzweißig, F.: Maschinendynamik. 9. neu bearbeitete
Auflage, Springer-Verlag, Berlin/Heidelberg (2009)
3. Pongratz, C., Ehrlich, I.: Structural Dynamic Analysis of Thin Com-
posite Plates Using Noncontact Measurement and Excitation. Applied
Research Conference 2016, pp. 351-358 (2016)
4. Pongratz, C.; Schlamp, M.; Jungbauer, B.; Ehrlich, I.: Detection of
Delamination Damages in Thin Composite Plates using Noncontact
Measurement of Structural Dynamic Behavior. Athens Journal of
Technology & Engineering, Vol. 3, No. 4, pp. 315-331 (2016)
64 | P R O D U K T I O N U N D S Y S T E M E
Man Machine Interface im industriellen Umfeld:
Entwicklung und Integration einer Gestensteuerung für die Mensch Roboter Kooperation
Die direkte Zusammenarbeit von Mensch und Roboter soll zukünftig die Stärken beider Interaktionspartner vereinen. Bereits in aktuellen Fahrzeugen (BMW 5er und BMW 7er) integriert ist
die bildbasierende Gestensteuerung eine Möglichkeit, Eingabebefehle an das maschinelle System
zu übermitteln. Größter Vorteil ist bei diesem Man Machine Interface (MMI) die kontakt- und
lautlose Eingabe im freien Raum.1 Aufgrund dessen könnte sich ein solches System gut in das
industrielle Umfeld einfügen und zudem eine ergonomische Steuerung ermöglichen. Ziel des
Projektes war, einen geeigneten Hardwareaufbau an einem bestehenden Arbeitsplatz für die
kollaborative Robotik zu finden, geeignete Gesten für die Prozesssteuerung auszuwählen, eine
Gestenerkennungssoftware für dieses Umfeld zu entwickeln und das Gesamtsystem anhand einer
Evaluierung zu beurteilen.
Konzeptfindung
Gestenerkennung
Im Forschungsprojekt wurde zunächst eine Umfrage zur
Auffindung möglicher Paarungen von Geste und entsprechenden Prozesssteuerungsbefehl durchgeführt, sodass
eine möglichst intuitive Eingabe gewährleistet werden
kann. Den 52 befragten Personen wurde bei den einzelnen Fragen die entsprechende Situation erklärt und
welcher Prozessschritt eingeführt werden soll. Aus den
Umfrageergebnissen ergibt sich zum Beispiel zum weiteren Vor- und Zurückspringen in den einzelnen Prozessschritten ein zeigender statischer Daumen nach links
bzw. nach rechts. Als Sensor für die bildbasierende
Gestensteuerung wird eine günstige Tiefenkamera, die
Microsoft Kinect, benutzt, die auf einer Infrarot-Technik
basiert. 3 Die Blickausrichtung und Anbringung am
Arbeitsplatz war so zu wählen, dass der Arbeitsplatz
weiterhin sehr individuell gestaltet werden kann. Da eine
direkte Ausrichtung auf den Menschen im Rahmen der
Digitalisierung und Vernetzung evtl. unangenehm erscheint, wurde dies ebenfalls in der Umfrage geprüft. 2
42 % der Befragten lehnen eine direkte Kameraausrichtung auf die eigene Person ab. Deshalb ist die Szene ähnlich wie im Kraftfahrzeug von oben zu betrachten, sodass
der Mensch nicht durch sein Gesicht identifizierbar ist
und der Akzeptanzwert des Systems steigt.
Die meisten bildbasierenden Gestensteuerungen basieren auf dem Vorgehen mit den drei Hauptprozessschritten in Abbildung 1.1 Im ersten Schritt ist die menschliche
Hand aus der betrachteten Aufnahme (siehe Abbildung
2) zu segmentieren. Durch die Verwendung einer Tiefenkamera ist es möglich, eine imaginäre Box im Raum festzulegen. Objekte die sich in diesem Quader befinden,
werden als Hand angenommen. Anschließend werden
bestimmte Keypoints, wie zum Beispiel der Handmittelpunkt, Fingerspitzen oder der Verlauf von Fingerspitze zur
Handfläche, ermittelt. Mithilfe dieser Koordinaten werden in der Feature Extraction gewisse Eigenschaften der
Hand ermittelt, um diese anschließend für die statische
und dynamische Gestenerkennung zu verwenden. Im
letzten Prozessschritt der Klassifikation wird abschließend versucht, anhand der aktuell ermittelten Eigenschaften und Machine Learning Algorithmen eine gezeigte Geste zu erkennen. Als Klassifikatoren wurde ein
Neuronales Netzwerk und eine Support Vektor Machine
(SVM) für die statische Gestenerkennung benutzt. Die
dynamischen Gesten werden mittels Hidden Markov
Modellen und dem zeitlichen Bewegungsverlauf des
Handmittelpunktes klassifiziert.
Abbildung 1: Die wesentlichen Schritte
in der bildbasierenden Gestenerkennung.
PRODUKTION UND SYSTEME
| 65
Projektbetreuung
Quirin Tyroller, Vorentwicklung Produktion,
BMW Group, München
Prof. Dr. Gareth Monkman, OTH Regensburg
Projektmitarbeiter
Benjamin Pielmeier, OTH Regensburg
Projektlaufzeit: 6 Monate
visuellem Feedback durchgeführt sowie eine abschließende Beurteilung des Systems eingeholt. Das grundsätzliche Konzept wurde sehr positiv bewertet und das
visuelle Feedback hat den Probanden beim Zeigen der
Geste eine gute Hilfestellung zur Selbsteinschätzung gegeben. Im zweiten Schritt wurden die Klassifikatoren mit
einer zufälligen Reihe von 180 Gesten getestet. Die durchschnittliche Genauigkeitsrate ist beim Neuronalen Netz
mit 90,6 % höher als bei der SVM mit 88,5 %. Die Trefferquote liegt im Mittel bei 97 % und bei der SVM bei 91 %.
Das Verfahren zur Klassifikation von dynamischen Gesten zeigt unzureichende Ergebnisse, da die durchschnittliche Genauigkeitsrate bei 62,0 % liegt, wobei hier eine
Verbesserung des Handmittelpunktsverfahrens ebenfalls
bessere Werte ermöglichen könnte.
Ausblick
Abbildung 2: Die Tiefeninformationen als Grauwertbild (oben)
und die daraus segmentierte menschliche Hand (unten).
Evaluierung
Abschließend wurde im Forschungsprojekt das System
mit zehn Personen getestet. Im ersten Schritt wurde ein
Trainingsdatensatz mit fünf Teilnehmenden für die Klassifikatoren erstellt, ein Zeigen der Gesten mit und ohne
Der Grundstein für weitere Untersuchungen wie dem Vergleich zu anderen Steuerungsmöglichkeiten wie einer
Spracheingabe ist hiermit erstellt. Der Mehrwert einer intuitiven Gestensteuerung in der kollaborativen Robotik
liegt in der Erweiterung der Prozessfähigkeit durch die
menschliche Entscheidungsmöglichkeit, weshalb dieses
MMI für technische Montageprozesse mit dem Roboter
weiterentwickelt werden sollte.
Benjamin Pielmeier, OTH Regensburg ■
Quirin Tyroller, Vorentwicklung Produktion, BMW Group ■
Gareth Monkman, OTH Regensburg ■
L I TE R ATUR
1. Kraiss, Karl Friedrich (Herausgeber): Advanced Man-Machine Interaction: Fundamentals and
Implementation. Signals and Communication Technology. Springer-Verlag Berlin Heidelberg, Berlin,
Heidelberg, 2006, ISBN 3-540-30618-8.
2. Tanriverdi, Hakan: Warum überkleben so viele Menschen ihre Web-
cam?, http://www.sueddeutsche.de/digital/die-antwort-warumueberkleben-so-viele-menschen-ihre-webcam-1.3132608, besucht
am 14.01.2017.
3. Premaratne, Prashan: Human Computer Interaction Using Hand
Gestures. Springer Singapore, Singapore, 2014, ISBN 978-981-4585-68-2.
66 | P R O D U K T I O N U N D S Y S T E M E
Entwicklung eines autonomen, RTK-GPS-gestützten
Systems zur zentimetergenauen Bodenmarkierung
Für viele Anwendungen von Automatisierung im Außenbereich ist eine exakte Positionierung des
Fahrzeuges erforderlich. Mögliche Einsatzbereiche sind unter anderem Bodenmarkierungen oder
Bodenprobeentnahmen. In dieser Bachelorarbeit wurde ein System auf einer mobilen, outdoortauglichen Roboterplattform der Firma Innok Robotics GmbH entworfen und umgesetzt. Ziel war
es, anhand dieses Aufbaus im Praxistest zu überprüfen, ob eine zentimetergenaue Aufbringung
von Bodenmarkierungen auf Teer oder Rasen möglich ist. Ferner wurden weitere mögliche Einsatzzwecke sowie deren Herausforderungen betrachtet.
Viele Anwendungen mobiler Robotik im Außenbereich
benötigen eine genaue Positionierung des Systems. Häufig ist eine Genauigkeit im Zentimeterbereich gefordert.
Möglich wird dies durch RTK-GNSS (Realtime Kinematic
– Global Navigation Satellite System), auch RTK-GPS
genannt. Durch diese Technik lässt sich unter guten
Bedingungen sowie mit einem entsprechenden Empfängersystem eine millimetergenaue Positionsbestimmung
erreichen. Herkömmliche GPS-Systeme erreichen hingegen nur eine Genauigkeit im Meterbereich.
Abbildung 1: Alexander Boos, Innok Robotics – Mittelkreis Fussballfeld
Durch diese Voraussetzung ist es nun theoretisch möglich, mobile Robotersysteme im Außenbereich präzise zu
positionieren. Damit erschließen sich neue Einsatzgebiete für solche Robotersysteme beispielsweise in der
Landwirtschaft für die Entnahme von Bodenproben (Bodenbeprobung) oder im Baugewerbe für die Bodenmarkierung von Straßen oder Plätzen.
PRODUKTION UND SYSTEME
Umsetzung
Um zu überprüfen, ob solch eine Methode die von der
Industrie geforderte Genauigkeit von bis zu einen Zentimeter oder weniger erreichen kann, wurde ein Testsystem
aufgebaut. Dazu wurde von Innok Robotics GmbH aus
Regensburg das Fahrzeug „Innok Heros“ ausgewählt. Das
Fahrzeug, eine eigens für den Außenbereich entwickelte
Forschungs- und Entwicklungsplattform, ist äußerst
robust sowie ausreichend dimensioniert, um auch
schwere Aufbauten durch das Gelände navigieren zu
können und sich dennoch präzise steuern zu lassen.
Auf dem Fahrzeug wurde neben einem RTK-GPS-Empfänger eine Markiereinrichtung verbaut. Das Herzstück bildet die im Rahmen der Abschlussarbeit entwickelte
Auswerte- und Ansteuereinheit. Hier werden anhand der
aktuellen Positionsdaten sowie der vorgegebenen Route
die Fahrbefehle für die Roboterplattform generiert und
über den CAN-Bus übertragen.
Um die Genauigkeit des Systems zu testen, wurden mögliche Einsatzfelder analysiert, die eine präzise Navigation
verlangen. Dazu gehören hauptsächlich die Landwirtschaft mit Aufgaben wie Entnahme von Bodenproben
oder der Bausektor mit Markierung von Straßen, Plätzen
oder Flughäfen. Darauf aufbauend wurden Testszenarien
entworfen, die mögliche Manöver für solche Aufgaben
beinhalteten. Diese sind unter anderem das Abfahren
langer gerader Linien oder Kreisbahnen sowie die Wiederholgenauigkeit-Tests. Anhand der Testergebnisse
wurde das System mehrfach optimiert. Die abschließenden Tests ergaben eine Positionier- und Wiederholgenauigkeit von knapp unter einem Zentimeter bei einer
Fahrgeschwindigkeit von 0,8 m/s.
Je nach zukünftigem Einsatzzweck ist es möglich und
sinnvoll, die Steuerung um weitere Sensoren wie Laserscanner oder Kamerasysteme zu erweitern. Dadurch
kann die Steuerung noch präziser werden oder spontanen
Hindernissen ausweichen.
| 67
Betreuer
Prof. Dr. Gareth Monkman, MRU, OTH Regensburg
Dipl-Ing. Alwin Heerklotz, Innok Robotics
Innok Robotics GmbH
Bodenhüllweg 10 | 93164 Münchsried
[email protected]
Demoanwendungen
Zur Demonstration der Fähigkeiten des Systems wurde
eine Beispielanwendung implementiert. Dabei kann das
System an jedem beliebigen Ort die Linien eines Fußballfelds auf den Boden aufbringen (Abb. 1).
Das Fahrzeug muss dazu nur so ausgerichtet aufgestellt
werden, dass genügend Platz in Längs- und Querrichtung ist. Auf Tastendruck wird ein Jugend-Spielfeld
innerhalb von 15 Minuten auf dem Rasen oder Teer aufgebracht. Falls durch Regen oder heftige Spielweise die
Markierung erneuert werden muss, kann dies auf erneuten Tastendruck hin erfolgen.
Außerdem ist es möglich, eine beliebige Strecke handgesteuert vorzugeben, zu speichern und nachfolgend beliebig oft erneut automatisch abzufahren.
Das Unternehmen
Innok Robotics entwickelt eigene Produkte im Bereich
Servicerobotik und steht seinen Kunden als Lieferant
sowie als Dienstleister für Forschungs- und Entwicklungsprojekte zur Verfügung. Durch die langjährige
Erfahrung kann auf umfangreiches Know-how zurückgegriffen werden, dessen breitgefächerte Grundlage im
Unternehmen die Ingenieurkompetenzen Elektrotechnik,
Informatik und Maschinenbau bilden.
Franz Gut, OTH Regensburg ■
ANZEIGEN
ANGEWANDT FORSCHEN AN DER
ANGEWANDT
FORSCHEN AN DER OTH REGENSBURG
OTH
REGENSBURG
Institut für Angewandte Forschung
Institut für Angewandte Forschung
und
Wirtschaftskooperationen
(IAFW)
und
Wirtschaftskooperationen
(IAFW)
www.oth-regensburg.de
Automatisierung, Vernetzung und
Elektrifizierung mobiler Maschinen
Eintauchen in
die faszinierende Welt der
Mikro- und Leistungselektronik
Wir suchen Techniker, Bachelor und Master (m/w) in den Bereichen Elektro- und
Informationstechnik, Informatik, Mikrotechnologie, Physik und Wirtschaftsingenieurwesen
für unsere Entwicklung und das Projekt- und Prozessmanagement.
Darüber hinaus bieten wir die Möglichkeit, bei uns Praktikums- und Abschlussarbeiten durchzuführen. Auch den betrieblichen Teil eines dualen Studiums der Fachrichtungen
Mechatronik, Elektro- und Informationstechnik können Sie bei uns absolvieren.
Unsere aktuellen Stellenangebote finden Sie auf unserer Homepage unter: www.sensor-technik.de/karriere/stellenangebote
Sensor-Technik Wiedemann GmbH • Am Bärenwald 6 • 87600 Kaufbeuren • Telefon: +49 8341 9505-0 • Telefax: +49 8341 9505-55
Personalabteilung •
[email protected] • Internet: www.sensor-technik.de
| 69
Sensorik
Sensorik ist für nahezu alle Branchen eine wichtige Schlüsseltechnologie,
deren Bedeutung permanent wächst. Als Querschnittstechnologie durchdringt Sensorik alle unsere Leitthemen. In der Energiewirtschaft und der
Gebäudeautomatisierung kommt sie ebenso zum Einsatz wie in der Produktionstechnik oder der Medizintechnik. Die Entwicklung von (miniaturisierten) Sensorsystemen liefert neuartige Anwendungskonzepte, die in fast
allen Bereichen unseres Alltags zunehmend an Bedeutung gewinnen, da sie
unabhängig von menschlichen Eingriffen Steuerungs- und Regelungsfunktionen übernehmen können.
70 | S E N S O R I K
SPR-Imaging zur Zustandsüberwachung
von Leistungstransformatoren
Die Oberflächenplasmonenresonanzspektroskopie (SPR) ist eine hochempfindliche Messmethode,
die es erlaubt, Gase und Flüssigkeiten zerstörungs- und markierungsfrei in Echtzeit zu analysieren.
Bisher vornehmlich im Labormaßstab in der Bioanalytik und dem Wirkstoffscreening eingesetzt,
soll diese Technologie nun miniaturisiert und für weitere Anwendungsgebiete zugänglich gemacht
werden. Dazu wird ein kompakter Micro-Opto-Electro-Mechanical Systems Sensor (MOEMS) entwickelt, der mit Hilfe des SPR-Imaging Änderungen der chemischen Zusammensetzung verschiedener Flüssigkeiten inline messen kann.
Einleitung
Die permanente Überwachung von ölisolierten Leistungstransformatoren wird immer wichtiger. Durch den
stetigen Ausbau der regenerativen Energien wird die
Stromversorgung durch die damit verbundenen Lastschwankungen und extremen Spannungsspitzen enorm
belastet. Dadurch altern das Isolieröl und die Transformatoren wesentlich schneller. Bisher erfolgt die Überprüfung der Transformatoren in einem zeitbasierten
Wartungsmodell. Tritt zwischen den Wartungsintervallen
ein Fehler auf, wird dieser eventuell nicht rechtzeitig erkannt. Dies führt im schlimmsten Fall zur vollständigen
Zerstörung des Transformators.
Messprinzip
Bei der SPR-Spektroskopie wird eine wenige Nanometer
dicke Goldschicht über ein Glasprisma mit monochromatischem, p-polarisiertem Licht bestrahlt und das reflektierte Licht von einem Photodetektor aufgenommen
(Abbildung 1). Direkt auf der Goldschicht wird eine Flusszelle angebracht, durch die sich das zu untersuchende
Abbildung 1: SPR-Sensor; links: Das an der Goldschicht reflektierte
Licht wird von einem Bildsensor erfasst. rechts: SPR-Kurven für zwei
Stoffe mit verschiedenen Brechungsindizes.
Medium über die Goldoberfläche bewegt. Unter einem
bestimmten Einstrahlwinkel ist ein Minimum des
reflektierten Lichtes zu erkennen. Der Grund dafür ist die
Anregung von Oberflächenplasmonen, weshalb dieser
Winkel auch SPR-Winkel genannt wird. Dieser ist unter
anderem abhängig vom Brechungsindex des Analyten1.
Somit können mit der SPR-Spektroskopie Brechungsindexänderungen eines Mediums von bis zu 10-6 RIU
(Refractive Index Unit) detektiert werden.
Das SPR-Imaging bietet gegenüber der konventionellen
SPR-Spektroskopie den Vorteil, mehrere einzelne Messungen parallel durchführen zu können2. Durch die flächenaufgelöste Detektion des reflektierten Lichtes können
somit viele verschiedene Stoffe eines Analytmediums
gleichzeitig erkannt werden.
Messungen
Auf die Goldschicht wird eine Matrix mit mehreren
Referenz- und Rezeptorspots aufgebracht. Da die SPRSpektroskopie extrem temperaturabhängig ist (eine
Änderung der Temperatur um 1 K bewirkt eine Änderung
des Brechungsindexes von ca. 10-3 RIU), wird bei einer
Signalmessung jedem Rezeptorspot mindestens ein benachbarter Referenzspot zugewiesen. Die
Rezeptorspots sind in der Lage einzelne
Stoffe des Analyten in der Flusszelle spezifisch zu binden. Mit Hilfe einer leistungsfähigen, monochromatischen Boardlevelkamera wird die Abbildung der Goldschicht direkt an einen Rechner übertragen und dort verarbeitet. Brechungsindexänderungen zeigen sich dann als
Änderung der Intensitätswerte des aufgenommenen
Kamerabildes.
Mit Hilfe eines Klimaschranks wurde für verschiedene
Kameras der Dunkelstrom nach dem EMVA1288 Standard
bestimmt. Dafür wurde bei 15 verschiedenen Umgebungstemperaturen im Bereich von - 20 °C bis + 50 °C und
jeweils 200 äquidistanten Belichtungszeiten das Dunkel-
SENSORIK
signal ermittelt. Somit kann für jede Kamera eine Aussage darüber getroffen werden, bis zu welcher Temperatur das Verhältnis von Dunkelsignal und Messsignal in
Ordnung ist.
Um die Goldoberflächen spezifizieren zu können, wird
jeweils eine sogenannte SPR-Kurve mit Hilfe eines Referenzmessplatzes aufgenommen. Dazu wird die Intensität
des reflektierten Lichtes bei verschiedenen Einfallswinkeln des Lichtes ermittelt und gegeneinander aufgetragen (Abbildung 1). Damit kann der jeweilige SPRWinkel und Messwinkel ermittelt werden.
Bei Konzentrationsmessungen bleibt der Einstrahlwinkel
des Lichtes konstant. Das zu untersuchende Medium bewegt sich durch die Flusszelle und die Intensitätswerte
der aufgenommenen Bilder werden in einem Diagramm
dargestellt. Dazu werden die ausgewählten Referenzund Messbereiche (Regions of Interest, ROIs) miteinander verrechnet. Durch diese Verrechnung werden Intensitätsänderungen aufgrund von Temperaturschwankungen eliminiert. Die Intensitätsänderungen eines Messfeldes sind dann nur noch von den Änderungen des
Brechungsindexes in diesem Bereich abhängig.
| 71
Projektleitung
Prof. Dr. Rudolf Bierl
Sensorik-ApplikationsZentrum (SappZ)
Projektmitarbeiter/in
Peter Hausler
Carina Roth
Geldgeber
BMWi
Kooperationspartner
Universität Regensburg
Maschinenfabrik Reinhausen GmbH
Starkstrom-Gerätebau GmbH, Regensburg
Oelcheck GmbH, Brannenburg
Projektlaufzeit: 42 Monate
Fördersumme: 618 TEuro
Homepage: www.sappz.de
Bildverarbeitung
Bei der Aufnahme einer SPR-Kurve entstehen durch die
verschiedenen Einstrahlwinkel des Lichtes horizontale
oder vertikale Stauchungen und Streckungen der abge-
bildeten Goldschicht. Um die Bilder miteinander vergleichen zu können, insbesondere die gewählten Messbereiche, müssen sie mit Hilfe von Bildverarbeitungsalgorithmen verbessert werden. Dazu werden die Kanten
der abgebildeten Flusszelle mit Hilfe von Filteroperationen und Schwellwertverfahren3 ermittelt (Abbildung 2).
Dadurch kann für die Flusszellengröße das Verhältnis zu
einem Referenzbild ermittelt und die ROIs entsprechend
skaliert werden.
Für die Konzentrationsmessung wird mit statistischen
Berechnungen die Güte jeder ROI bestimmt. Dadurch
können in den gewählten Referenz- oder Messbereichen
mögliche Störungen (z. B. Luftblasen in der Flusszelle,
Verunreinigung der Goldschicht) erkannt werden. Die
entsprechenden Pixel in den Bereichen werden danach
bei den folgenden Messungen nicht mehr betrachtet.
Abbildung 2: SPR-Messung für zwei verschiedene Einstrahlwinkel des
Lichtes; Ausschnitt des aufgenommenen Bildes (a, b); Betrag der Gradienten entlang der mittleren horizontalen Zeile des Bildes (c, d) und
nach der Anwendung eines kantenerhaltenden Glättungsfilters (e, f)
Carina Roth, OTH Regensburg ■
Peter Hausler, OTH Regensburg ■
Rudolf Bierl, OTH Regensburg ■
L I TE R ATUR
1. R. B.M. Schasfoort, A. J. Tudos; Handbook of Surface Plasmon Resonance; First Edition, RSC Publishing, Cambridge, 2008.
2. G. Steiner; Surface plasmon resonance imaging; Analytical & Bioanalytical Chemistry; vol. 379; pp. 328-331, 2004.
3. W. Burger, M. J. Burge; Digitale Bildverarbeitung; Third Edition,
Springer Vieweg, Heidelberg, 2010.
72 | S E N S O R I K
Ringförmige Silizium-Kantenemitter
mit DLC-Beschichtung für Anwendungen
in Feldemissionselektronenquellen
Für den Einsatz in Elektronenquellen auf Grundlage der Feldemission (FE) wurden an der OTH Regensburg ringförmige Silizium (Si)-Kantenemitter realisiert. Auf die hergestellte Emitterstruktur
wurde zusätzlich eine dünne diamantartige Beschichtung (diamond-like carbon, DLC) mit einer
Schichtdicke von 5 nm abgeschieden. Für die Bestimmung der FE-Eigenschaften der ringförmigen
Kantenemitter wurden sowohl unbeschichtete als auch DLC-beschichtete Emitter im Ultrahochvakuum untersucht. Bei der DLC-beschichteten Probe konnte ein um eine Größenordnung höherer
Emissionsstrom von 0,25 μA als bei einer unbeschichteten Probe ermittelt werden. Über einen
Zeitraum von einer Stunde wurde keine Degradation im Emissionsstrom beobachtet.
Elektronenquellen mit Feldemissionskathoden besitzen
vielfältige Einsatzmöglichkeiten, unter anderem für Ionisationsvakuumsensoren1 und miniaturisierte Röntgenquellen2. Die Emissionseigenschaften dieser Kathoden
werden durch die Materialeigenschaften sowie durch
die Oberflächenbeschaffenheit bestimmt. Die moderne
Halbleitertechnologie ermöglicht die Auswahl eines breiten Spektrums von Materialien mit unterschiedlichen
Bandlücken, Elektronenaffinitäten und Dotierprofilen.
Die Homogenität und Stabilität des Emissionsstroms der
meisten Kathoden ist jedoch durch Herstellungsschwierigkeiten begrenzt. Eine ausgezeichnete Möglichkeit für
die Herstellung von fortschrittlichen Mikro- und Nanostrukturen bietet die etablierte Si-Technologie3. Die
Realisierung von reproduzierbaren und homogenen Emittergeometrien ist mit diesem Halbleiter möglich und
zudem kann die Leitfähigkeit durch die Dotierung verändert werden. Für eine p-Dotierung (Dotierstoff Bor) kann
ab einer bestimmten Extraktionsspannung ein Sättigungsbereich und ein dadurch resultierender stabiler
Emissionsstrom beobachtet werden4. Die Ursachen für
diese Veränderung in der Strom-Spannungskennlinie ist
eine begrenzte Zufuhr von Ladungsträgern in das Leitungsband sowie das Eindringen des elektrischen Feldes
in die Oberfläche des Emitters5. Als Kathode wurde an der
OTH Regensburg ein ringförmiger p-dotierter Si-Kantenemitter mit einem optimierten Herstellungsprozess
realisiert. Zusätzlich ist es möglich hochstabile und reproduzierbare Dünnfilme verschiedener Materialien wie
Metalle, Diamant oder Kohlenstoff auf die Kathoden aufzubringen. Diese Schichten können eingesetzt werden,
um die Halbleiteroberflächen zu schützen oder zu modifizieren und auf diese Weise das Emissionsverhalten zu
verbessern. Auf die hergestellte Emitterstruktur wurde
aus diesem Grund eine dünne diamantartige Beschichtung (DLC) abgeschieden6.
Herstellung der
Feldemissionskathoden
Auf einen p-dotierten Si-Wafer mit einer thermischen
Oxidschicht wurde mittels Photolithographie die laterale
Position der ringförmigen Kantenemitter übertragen. Der
Durchmesser des Ringes wurde mit 40 µm und einer
Linienbreite von 3 µm definiert. Die SiO2-Schicht wurde
mit einem anisotropen reaktiven Ionenätzverfahren (RIE)
strukturiert. Die vorläufige Emitterform wurde mit einer
isotropen Ätzung durch RIE realisiert. Die Tiefenätzung
wurde mit RIE und einem induktiv gekoppelten Plasma
(ICP) Prozessschritt hergestellt. Die Höhe der Kante
wurde durch die Anzahl der alternierenden Passivierungsschritte und Ätzzyklen eingestellt. Ein kleiner Verrundungsradius konnte anschließend mit einer thermischen
Oxidation des Si erreicht werden. Nach dem Entfernen
der Oxidschicht zeigten Aufnahmen mit dem Rasterelektronenmikroskop eine Emitterhöhe von 15 µm und einen
Verrundungsradius von 20 nm (Abb.1). Schließlich wurde
auf die Kathode eine DLC-Schicht mit einer Schichtdicke
von 5 nm mittels Lichtbogenverdampfen abgeschieden.
Abbildung 1: Aufnahme mit dem Rasterelektronenmikroskop eines hergestellten ringförmigen Si-Kantenemitters mit DLC-Beschichtung.
SENSORIK
Charakterisierung der
Feldemissionseigenschaften
Die Charakterisierung der Strukturen wurde im Ultrahochvakuum bei einem Druck von 10-9 mbar durchgeführt. Der komplette Aufbau der FE-Elektronenquelle
besteht zusätzlich zur Kathode aus einem Abstandshalter
aus Glimmer (Dicke 50 µm) und einer Gitterelektrode die
als Anode verwendet wurde. Die Gitterelektrode besteht
aus einem metallisierten feinmaschigen Nitridgitter auf
einem weitmaschigen Si-Stützgitter7. Um den Einfluss
der Beschichtung zu überprüfen, wurde sowohl an eine
unbeschichtete als auch an eine DLC-beschichtete Probe
eine Spannung von 0 bis 1 kV angelegt und der Emissionsstrom gemessen (Abb. 2a). Bei einer Spannung von
1 kV konnte ein Emissionsstrom von 25 nA bei der unbeschichteten Kathode erreicht werden. Im Vergleich dazu
wurde bei der DLC-beschichteten Kathode ein um eine
Größenordnung höherer Emissionsstrom von 0,25 µA erzielt. Bei beiden Kathoden konnte ab ca. 500 V eine erwartende Sättigung des Emissionsstroms beobachtet
werden. Die Emissionsmessungen über einen Zeitraum
von einer Stunde wurden bei einer konstanten Kathodenspannung von 1 kV durchgeführt und die Stromschwankungen wurden auf Basis des 90%-Bands angegeben,
d. h. die oberen und unteren 5% wurden vernachlässigt2.
Emissionsstrom I (A)
a)
Kathodenspannung U (V)
Strom I (A)
b)
Messdauer t (min)
Abbildung 2: Emissionsstrom in Abhängigkeit der Kathodenspannung
einer unbeschichteten und einer DLC-beschichteten Probe (a) und
Emissionsstrom bei einer konstanten Kathodenspannung von 1 kV über
einen Zeitraum von 60 Minuten (b).
| 73
Projektleiter
Prof. Dr. Rupert Schreiner, Forschungscluster LEOS
[email protected]
Projektmitarbeiter
Christian Prommesberger, Robert Ławrowski, Christoph Langer
Geldgeber:
Bundesministerium für Bildung und Forschung (BMBF: ZIM)
Kooperationspartner
Ketek GmbH (Deutschland)
Sun Yat-sen Universität Guangzhou (China)
Projektlaufzeit: 36 Monate
Fördersumme: 174 TEuro
Homepage: https://www.oth-regensburg.de/forschung/
forschungsprofil/forschungscluster/leos.html
Bei der unbeschichteten Probe wurde ein Mittelwert von
20 nA und Fluktuationen im Emissionsstrom von ±11% ermittelt. Bei der DLC-beschichteten Probe konnte ein wesentlich höherer Strom von 0,5 µA mit Schwankungen im
Emissionsstrom von ±14% gemessen werden (Abb. 2b).
Bei den Messungen wurde keine Degradation des Emissionsstroms beobachtet. Abschließend kann festgestellt
werden, dass die hergestellten Si-Kantenemitter vielversprechende Kathoden für den Einsatz in FE-Elektronenquellen sind. Mit einer zusätzlichen DLC-Beschichtung
konnte der Emissionsstrom der Kathoden signifikant erhöht werden.
Christian Prommesberger ■
Robert Ławrowski ■
Christoph Langer ■
Rupert Schreiner ■
Forschungscluster LEOS (Elektronenoptische
und Optoelektronische Systeme), OTH Regensburg
Yifeng Huang ■
Juncong She ■
State Key Laboratory of Optoelectronic Materials and
Technologies, Guangdong Province Key Laboratory of
Display Material and Technology, School of Electronics
and Information Technology, Sun Yat-sen University,
Guangzhou 510275, People’s Republic of China
L I TE R ATUR
1. Langer, C., Prommesberger, C., Ławrowski, R., Schreiner, R., Huang,
Y., She, J.: Gated p-Si field emission cathode applied in an ionization
vacuum gauge. In: Technical Digest of 29th International Vacuum
Nanoelectronics Conference (IVNC), IEEE, 145–146 (2016).
2. Bachmann, M., Dams, F., Düsberg, F., Hofmann, M., Pahlke, A.,
Langer, C., Ławrowski, R., Prommesberger, C., Schreiner, R.: Stability
investigation of high aspect ratio n-type silicon field emitter arrays.
In: Technical Digest of 28th International Vacuum Nanoelectronics
Conference (IVNC), IEEE, 204–205 (2015).
3. Dams, F., Navitski, A., Prommesberger, C., Serbun, P., Langer, C.,
Müller, G., Schreiner, R.: Homogeneous field emission cathodes with
precisely adjustable geometry fabricated by silicon technolgy. IEEE
Trans. Electron Devices 59, 2832 (2012).
4. Langer, C., Ławrowski, R., Prommesberger, C., Dams, F., Serbun,
P., Bachmann, M., Müller, G., Schreiner, R.: High aspect ratio silicon
tip cathodes for application in field emission electron sources. In:
Technical Digest of 27th International Vacuum Nanoelectronics Conference (IVNC), IEEE, 222–223 (2014).
5. Kanemaru, S., Hirano, T., Tanoue, H., Itoh, J.: Control of emission
currents from silicon field emitter arrays using a built-in MOSFET.
Appl. Surf. Sci. 111, 218 (1997).
6. She, J., Hao, H., Xu, N. S., Deng, S. Z., Chen, J.: Arrays of vacuum
microdiodes using uniform diamondlike-carbon tip apexes. Appl.
Phys. Lett., Vol. 89, no. 23, p. 233518 (2006).
7. Prommesberger, C., Langer, C., Ławrowski, R., Schreiner, R.: Investigations on the long-term performance of gated p-type silicon tip
arrays with reproducible and stable field emission behavior. J. Vac.
Sci. Technol. B 35, 012201 (2017).
74 | S E N S O R I K
Forschungsvorhaben „CDNI“:
Abwässer aus der Wäsche von Binnenschiffen
Wie kann Abwasser, das bei der Reinigung der Frachträume von Binnenschiffen anfällt, umweltgerecht entsorgt werden? Ein Ende 2014 in Kraft getretenes Übereinkommen der Rheinanliegerstaaten (CDNI) verbietet die direkte Einleitung mancher Waschwässer in die Gewässer. Stattdessen sollen sie in die Kanalisation und damit in eine öffentliche Kläranlage abgegeben werden.
Dies ist jedoch aufgrund der Inhaltsstoffe nicht immer problemlos möglich. Im Zuge des fakultätsübergreifenden Projekts wird das anfallende Waschwasser analysiert und nach Ansätzen für
eine optimierte Entsorgungsstrategie gesucht.
Nach dem Löschen der Ladung werden bei einem Frachtgutwechsel in der Regel die Laderäume von Binnenschiffen gewaschen. Das zwischen Deutschland, den
Benelux-Staaten, Frankreich und der Schweiz geschlossene Übereinkommen über die Sammlung, Abgabe und
Annahme von Abfällen in der Rhein- und Binnenschifffahrt (CDNI) regelt wie die bei der Reinigung anfallenden
Waschwässer entsorgt werden müssen. Das Übereinkommen soll sicherstellen, dass Abwässer nicht – wie früher üblich – in die Binnengewässer eingebracht werden,
sondern bei Annahmestellen an Land abgegeben und
umweltschonend entsorgt werden. Das Forschungsprojekt „CDNI“, in dem Professoren und Mitarbeitende der
Fakultäten Bauingenieurwesen und Allgemeinwissen-
Abbildung 1: Löschen und Kehren eines Binnenschiffes
schaften & Mikrosystemtechnik interdisziplinär zusammenarbeiten, beschäftigt sich mit Abwässern, die beim
Umschlag der in Bayern wichtigsten Güterart – mineralische Mehrnährstoffdünger – anfallen.
Aktuell werden nach Beendigung des Löschvorgangs in
den Laderäumen verbliebene Düngemittelrückstände per
Hand gekehrt (Abb.1). Da durch das Kehren nicht alle
Rückstände beseitigt werden können, müssen die Laderäume zusätzlich gewaschen werden, um eine Verunreinigung der nachfolgenden Ladung zu verhindern
(Abb.2). Für die Entsorgung der dabei anfallenden
Waschwässer sieht das CDNI-Übereinkommen eine Einleitung in die Kanalisation vor. Diese Waschwässer sind
SENSORIK
| 75
Projektleiter
Prof. Dipl.-Ing. Andreas Ottl
Fakultät Bauingenieurwesen
Labor für Siedlungswasser- und Wassergütewirtschaft
[email protected]
Prof. Dr. rer. nat. Walter Rieger
Fakultät Allgemeinwissenschaften & Mikrosystemtechnik
(Bereiche Analytische Chemie)
Umweltanalytik und Instrumentelle Analytik
[email protected]
Projektmitarbeiter/in
Agnes Kraml (M.Eng.)
Thomas Poxleitner (B.Eng.)
Simon Hofer (B.Sc.)
Geldgeber: Bayerisches Staatsministerium für Umwelt
Abbildung 2: Waschen eines Binnenschiffes
und Verbraucherschutz
Kooperationspartner
Bavaria Schiffahrts- und Speditions-AG, Aschaffenburg
jedoch in der Regel mit Stickstoff- und Phosphorkonzentrationen belastet, welche die in häuslichen Abwässern
üblichen Konzentrationen um ein Vielfaches übersteigen.
Da die öffentlichen Kläranlagen vorwiegend auf die Reinigung von häuslichem Abwasser bzw. dem häuslichem
Schmutzwasser vergleichbaren Abwässern ausgelegt
sind, fordern einige betroffene bayerische Kläranlagenbetreiber vor der Einleitung der Waschwässer aufwändige
Untersuchungen oder verweigern deren Annahme. Dies
führt sowohl auf Seiten der Schiffsführer, als auch auf
Seiten der Umschlagsbetreiber zu großen Unsicherheiten,
Verzögerungen und nicht kalkulierbaren Kosten.
Zielsetzung des Forschungsvorhabens ist die Erarbeitung
einer allgemein anwendbaren Handlungsanleitung für
die Reinigung der Düngemittelschiffe in Bayern. In Wissenschaft und Forschung wurde diese Thematik bisher
nicht untersucht. Um eine Datengrundlage zu schaffen,
erfolgt daher im ersten Abschnitt des Projekts eine
Bestandsaufnahme der aktuell angewandten Schiffsreinigungsmethoden. Die dabei anfallenden Schadstoffkonzentrationen und -frachten werden analysiert. Darauf aufbauend untersucht das Team im weiteren Projektverlauf Methoden zur Optimierung des Reinigungsprozesses. In Praxistests werden unter Einsatz verschiedener Reinigungsgeräte verbesserte Reinigungs-
Bayernhafen GmbH & Co. KG, Regensburg
Projektlaufzeit: 12 Monate
Fördersumme: 156 TEuro
abläufe erprobt. Die Firmen Kärcher Center Cotraco, Tennant, Ruwac, Schmid Baumaschinen mit Bobcat und
Wilo unterstützen das Projekt, indem sie verschiedene
Reinigungsgeräte für die Praxistests zur Verfügung stellen. In erster Linie soll eine Optimierung der Trockenreinigung erzielt werden, um die in den Waschwässern
enthaltenen Schadstofffrachten auf eine für die betroffenen Kläranlagen unbedenkliche Menge abzusenken. So
könnte künftig gewährleistet werden, dass die im Zuge
der Reinigung anfallenden Waschwässer ohne vorherige
kostspielige Einzel-Untersuchungen in die öffentliche
Kanalisation eingeleitet werden dürfen.
Andreas Ottl ■
Walter Rieger ■
Agnes Kraml ■
Thomas Poxleitner ■
Simon Hofer ■
alle OTH Regensburg
L I TE R ATUR
Sekretariat des CDNI: Zentralkommission für die Rheinschifffahrt:
CDNI. Übereinkommen über die Sammlung, Abgabe und Annahme
von Abfällen in der Rhein- und Binnenschifffahrt. Straßburg, 2014.
http://www.cdni-iwt.org/de/prasentation-cdni/text/
ANZEIGEN
www.klebl.de
Klebl GmbH · Gößweinstraße 2 · 92318 Neumarkt i.d.OPf. · Telefon (0 9181) 900-0 ·
[email protected]
| 77
Gebäude und
Infrastruktur
Der Bereich Gebäude und Infrastruktur beschäftigt sich mit der Betrachtung von Siedlungsstrukturen und Gebäuden im baulichen, sozialen und
gesellschaftlichen Kontext und untersucht deren (infra-)strukturelle
Zukunftsfähigkeit und baukulturelle Relevanz. Eine entscheidende Rolle
spielt hierbei auch die interdisziplinäre Vernetzung der Forschenden, um
verschiedenste Aspekte von althergebrachten wie neuartigen Lebensformen und -ansätzen im Lebenszyklus von Gebäuden miteinander zu
vereinen.
78 | G E B Ä U D E U N D I N F R A S T R U K T U R
Semi: Numerische Simulation der Wechselwirkungen
Straßenbahn – Feste Fahrbahn im innerstädtischen
Nahverkehr
Eine fortschreitende Entwicklung der computergestützten Berechnungsmethoden erlaubt eine
effektive Simulation von dynamischen Probleme im Bauwesen. Diese dynamischen Beanspruchungen sind im Bereich des innerstädtischen Schienenverkehrswesens die Ursache von Lärm und
Erschütterungen. Die Reduktion von Luft- und Körperschall ist daher für den Nahverkehr eine
der zentralen Herausforderungen. Als Ansatz einer rechnerischen Prognose der dynamischen
Wechselwirkungen werden vorhandene analytische und numerische Berechnungssysteme aus dem
Bereich der Schnellzugforschung überarbeitet, um mittels Substrukturmethode Straßenbahnüberfahrten zu simulieren.
Dynamische Einwirkung und
Abbildung der Fahrbahnkomponenten
Bei der Bemessung der Fahrbahnkomponenten hinsichtlich Tragfähigkeit und Gebrauchstauglichkeit wird in der
Praxis vereinfachend von einem unendlich langen, elastisch gebetteten Träger ausgegangen, auf den eine
statische Ersatzlast einwirkt. Diese wird zur Berücksichtigung von dynamischen Einflüssen mit Erhöhungsfaktoren für die Radkraftverlagerung im Bogen sowie für
den Oberbauzustand und die Fahrgeschwindigkeit
beaufschlagt. In der Realität wirkt auf den Gleiskörper,
Unterbau und Untergrund eine zeitabhängige Belastung,
die aus der Achsfolge der Fahrzeuge sowie der Abstände
von Unebenheiten des Rades und des Fahrweges unter
Berücksichtigung der Fahrgeschwindigkeit resultiert.
(Klaus Lieberenz, 2009) In diesem Zusammenhang wird
oftmals von den sogenannten quasistatischen oder niederfrequenten Einwirkungen, den zeitabhängigen, aus
der Achsfolge sich ergebenden Belastungen gesprochen.
Die niederfrequenten Einwirkungen einer Straßenbahnüberfahrt können vereinfacht an einem kontinuierlich
elastisch gebetteten Balken mit Feder- und Dämpferelementen nach Fryba (Fryba, 1999) ermittelt werden.
Betrachtet wird dabei die Beanspruchung durch die
halbe Achslast bzw. Radkraft, die auf dem Ersatzbalken,
bestehend aus einer Schiene und einer halben Tragplatte
mit der Länge im Abstand zweier Schienenbefestigungen/Schwellen mit der Massebelegung verteilt wird.
Querschnitts- und Festigkeitsverhalten werden anhand
der Schienengeometrie und Materialität ermittelt. Der
Hauptanteil der Spannungen wird durch die unmittelbar
in nächster Nähe wirkenden Achs- bzw. Radlast der Straßenbahn zum Betrachtungspunkt erzeugt. Der Einfluss
benachbarter Achsen für die Berechnung der Einsenkung
und der Flächenpressung p(x,t) wird mit Hilfe der Einflusszahl η erfasst. Diese Einflusszahl ist abhängig vom Abstand x und der elastischen Länge L.(Lieberenz, 2013)
(1.1)
Fryba erweiterte diese Betrachtung über die Einführung
dynamischer Zusatz- und Dämpfungsfaktoren D1-4, so
dass sich die Flächenpressung wie nachfolgend berechnet:
(1.2)
(1.3)
Abbildung der hochfrequenten
Erregungsmechanismen
Die durch die Unebenheit des Rads bzw. Fahrweges hervorgerufenen Lasten werden als zusätzliche dynamische
oder hochfrequente Einwirkungen bezeichnet. Die Herangehensweise zur Lösung des Problems, die hochfrequent abhängigen Zusatzbelastungen vereinfacht und
ausreichend genau darzustellen, orientiert sich an der in
der Planungshilfe der Deutschen Bahn – Rechnerisches
Verfahren zur Untersuchung der dynamischen Stabilität
des Eisenbahnfahrwegs bei Zugüberfahrten (Neidhart,
et al., 2013) aufgezeigten Gangart. Die Berechnung erfolgt mit zwei voneinander weitestgehend unabhängigen
GEBÄUDE UND INFRASTRUKTUR
Modellen für den Oberbaubereich und den Unterbaubereich. Der Oberbaubereich umfasst Straßenbahn,
Gleis, Schienenbefestigung und die Trageplatte der festen Fahrbahn. Der Unterbaubereich setzt sich aus einer
Dämmmatte, hydraulisch gebundenen Schicht und einer
Schottertragschicht zusammen. Die Schnittstelle bildet
die Unterkante der Fahrbahnplatte bzw. Oberkante der
darunter befindlichen elastischen Dämmschicht bzw. die
Oberfläche des Bodenersatzkörpers.
| 79
Projektleiter
Prof. Dr.-Ing. Detleff Schermer
Labor Konstruktiver Ingenieurbau
[email protected]
Projektmitarbeiter
Benjamin Heisterkamp (M.Eng.)
[email protected]
Maximilian Lerch (M.Eng.)
[email protected]
Ermittlung der
bodendynamischen Kennwerte
Für die Ableitung von dynamischen Berechnungsparametern im anstehenden und vorhandenen Boden werden
zur numerischen Betrachtung Angaben über Scherfestigkeits- und Steifigkeitsparameter sowie Dichten und
Wassergehalte aller vorkommenden Bodenschichten benötigt. Probenentnahme und Versuchsdurchführung in
Situ und im Labor zur Ermittlung dieser Parameter sind
hierfür unabdingbar. Dynamische Kennwerte zur weiteren numerischen und Finite-Elementberechnung können
ingenieurmäßig bewertet und oftmals der einschlägigen
Literatur, wie beispielsweise aus den Empfehlungen des
Arbeitskreises „Baugrunddynamik“ (DGGT, 2002) oder
dem Fachbeitrag zur „Abschätzung der Untergrundverhältnisse am Bahnkörper anhand des Bettungsmoduls“
(Ullrich Martin, 2016) entnommen werden. Die dabei
maßgebenden Parameter sind die Feuchtdichte des
Materials, das zugehörige Schub-, E- bzw. Bettungsmodul sowie die Querdehnzahl und die Scherwellengeschwindigkeit.
Resümee und Ausblick
Die niederfrequenten Anteile werden mit Hilfe der Modellierung von Fryba (Fryba, 1996) abgebildet. Zur Darstellung der hochfrequenten Anteile wird das Modell der
dynamischen Nachgiebigkeit nach Knothe (Knothe,
2001) herangezogen. Dabei wurde die Tragplatte der festen Fahrbahn mittels Balken modelliert. Als Schnittstelle
Geldgeber
Freistaat Bayern
Kooperationspartner
NAUE GMBH & CO. KG., Espelkamp-Fiestel
Projektlaufzeit: 36 Monate
Fördersumme: 250 TEuro
zur FE-Berechnung wird die Unterkante des Oberbaus der
festen Fahrbahn definiert. Charakteristische Parameter
zur Modellierung des Untergrundes für die Ermittlung
der dynamischen Nachgiebigkeiten können iterativ bestimmt oder mit Hilfe von Kennwerten angesetzt werden.
Diese Verfahren haben sich in der Vergangenheit für
Schnell- und Güterzüge der Deutschen Bahn bewährt
und können als praktisch erprobt angesehen werden.
Übertragen auf die Rahmenbedingungen für Straßenbahnen stellt man fest, dass im innerstädtischen Schienennahverkehr die Erregung im hochfrequenten Bereich
nur abgeschwächt vorhanden ist. Diese Antwortspektren
resultieren aus den langsameren Geschwindigkeiten der
Straßenbahnen (< 50 km/h) sowie den verhältnismäßig
geringen Achslasten. Eine Verifizierung der Modelierungsund Simulationssysteme findet derzeit im Rahmen von
Großversuchen statt.
Benjamin Heisterkamp, OTH Regensburg ■
Maximilian Lerch, OTH Regensburg ■
L I TE R ATUR
Fryba, L., 1996. Dynamics of railway bridges. London: Thomas Telford.
Klaus Lieberenz, D. W., 2009. Abtragung der Lasten im System Oberbau, Unterbau und Untergrund. Dresden: gepro-dresden.org.
Lieberenz, K., 2013. Handbuch Erdbauwerke der Bahnen. Hamburg:
DVV Media Group GmbH Eurailpress.
Neidhart, Vogel, Lieberenz & Wegener, 2013. Planungshilfe – Rechnerisches Verfahren zur Untersuchung der dynamischen Stabilität des
Eisenbahnfahrwegs bei Zugüberfahrten. Regensburg: DB Netze.
Ullrich Martin, S. R. D. C. A. C. M. J. L. P. B. P., 2016. Abschätzung der
Untergrundverhältnisse am Bahnkörper anhand des Bettungsmoduls. s.l.:ETR – Eisenbahntechnische Rundschau.
DGGT, 2002. Empfehlungen des Arbeitskreises „Baugrunddynamik“.
1 Hrsg. Berlin: DGGT.
Knothe, K., 2001. Gleisdynamik. Berlin: Ernst & Sohn.
Lerch, M., 2015. Modellierung der dynamischen Wechselwirkung von
Straßenbahnanlagen mittels Masse – Feder – Dämpfer – Systeme. Regensburg: Ostbayerische Technische Hochschule Regensburg.
80 | G E B Ä U D E U N D I N F R A S T R U K T U R
Digitale 3D-Analyse mittelalterlicher
Gewölbe- und Maßwerkspolien aus Münster
1015 zum Teil stark gebrochene Spolien* wurden von der Stadtarchäologie Münster bei einer
Routine-Ausgrabung im Innenstadtgebiet Münsters in den Fundamenten einer abgetragenen
Gebäudereihe entdeckt. Großes Interesse bestand in der Dokumentation der Werkstücke und in
der Frage nach dem daraus einst zusammengesetzten Sakralbau. So ergaben sich zwei Zielsetzungen für die Forschung an den Bauteilen: Die umfassende Dokumentation aller Werkstücke
sowie die zeitliche und bauliche Einordnung der Gewölbe- und Maßwerkteile im Besonderen.
Die Bearbeitung erfolgte als Masterarbeitsprojekt im Master Historische Bauforschung an der
Fakultät Architektur der OTH Regensburg.
Methodik
Systematisch wurden zunächst alle Bauteile nummeriert,
kurz beschrieben und fotografisch dokumentiert. Nach
einer Feinsortierung hinsichtlich Werkstücken, die ursprünglich aus Gewölben oder Maßwerkfenstern stammen, stellten sich rund 400 Teile als für die in den beiden
Masterarbeiten zu untersuchenden Themenfelder relevant heraus (Abb. 1). Neben der allgemeinen Dokumentation wurde für diese Bauteile zusätzlich ein Bauteilkatalog erstellt, in dem zunächst die Form und
Profilierung, anschließend alle Seiten des Bauteiles genau
beschrieben sowie die Gesamtmaße und Maße der verschiedenen Profil-Bestandteile aufgeführt wurden. Um
Untersuchungen an den Objekten jenseits des Lagerortes
vornehmen zu können, erfolgte im nächsten Schritt der
Einsatz der digitalen Photogrammetrie, bei der Objekte
mit Hilfe von Licht vermessen werden, um sie später als
digitales 3D-Modell in spezieller Software wie Cinema4D
benutzen zu können.
Eine Auswahl an Spolien wurde zudem nach den üblichen
Methoden der händischen Bauteilaufnahme gezeichnet.
Aus mit Schnüren und Winkeln erzeugten Lotsystemen
heraus gemessene Punkte wurden dabei im Maßstab 1:5
auf Zeichenpapier übertragen und anschließend zu verformungsgerechten Abbildungen verdichtet. Neben der
detaillierten Auseinandersetzung mit dem Bauteil und
den dadurch identifizierten Merkmalen wie Dübellöchern, Risslinien und Farbresten lag der größte Erkenntnisgewinn zum einen in der Feststellung der verschiedenen Typen und deren Unterschiede, zum anderen im
wachsenden Gespür für Proportionen und Radien,
Dimensionen und Krümmungen. Um regionale Bautraditionen zu ergründen und damit Anhaltspunkte für die
Rekonstruktionen zu erhalten, wurden schließlich die
Gewölbe und Maßwerke mehrerer gotischer Kirchen in
und um Münster in ihren formalen Ausprägungen analysiert.
Abbildung 1: Die in einer Lagerhalle ausgelegten Bauteile während der Sortierungs- und Dokumentationsarbeiten, Foto: O. Golde / N. Sammer
GEBÄUDE UND INFRASTRUKTUR
| 81
Projektbetreuung an der OTH Regensburg
Prof. Dr. Peter Morsbach
[email protected]
Prof. Dr.-Ing. Dietmar Kurapkat
[email protected]
Projektmitarbeiterinnen
Nike Sammer (M.A.)
Olivia Golde (M.A.)
Kooperationspartner
Stadtarchäologie Münster
Abbildung 2: Rekonstruiertes Maßwerkfenster der Zeit um 1450 mit virtuell eingesetzten Spolien (farbig), Grafik: N. Sammer
Ergebnis
Die geborgenen Gewölbespolien weisen überwiegend
gängige Formen der gotischen Baukunst wie den Birnstab und den Kehlstab auf. Bei den meisten dieser Gewölbeteile handelt es sich um Bogensteine. Diese waren
Bestandteil von Kreuzrippen oder von Bögen, die das
Gewölbefeld begrenzten. Als besondere Stücke gelten ein
Schlussstein sowie ein Kreuzungsstein. Der Schlussstein
besitzt vier Anschlussflächen für Rippen mit dem Kehlstabprofil und gehört zu einem Kreuzrippengewölbe. Der
Kreuzungsstein dagegen, welcher vier orthogonal zueinander angelegte Anschlussflächen mit einem Birnstabprofil besitzt, lässt sich einem figurierten Gewölbe
zuordnen. Die Forschungsuntersuchungen und der Vergleich mit noch bestehenden gotischen Kirchenbauten
lassen Rückschlüsse auf ein sogenanntes Parallelrippengewölbe in Kombination mit einer Scheitelrippe in Längsrichtung zu. Der ursprüngliche Bau besaß also mindestens zwei verschiedene Wölbarten.
Die Maßwerkspolien konnten zunächst anhand ihrer
„Rücken“ – der Begriff Rücken bezeichnet hierbei den Teil
des Werkstücks, welcher mit den Gewändesteinen in
Verbindung steht – in mindestens vier unterschiedliche
Typen und damit differierende Maßwerkstrukturen unterteilt werden. Durch die Analyse und den Vergleich der
zuvor im Bauteilkatalog festgestellten Maße verschiedener struktureller Abschnitte des Bauteils und dem visuellen Abgleich anhand der in ArchiCAD importierten
Orthofotos der aussagekräftigsten „Schauseiten“ konnten die Binnenstücke den entsprechenden Gewändebauteilen zugeordnet und zu drei unterschiedlichen
Maßwerken angeordnet werden. Die daraus resultierenden Rekonstruktionen lassen sich in verschiedene Bauphasen einordnen. Neben einem Maßwerkgefüge aus der
sogenannten doktrinären Gotik am Ende des 14. Jahrhunderts gibt es ein weiteres, welches die typischen
spätgotischen Merkmale der Westfälischen Kirchenbaukunst widerspiegelt und somit in die Zeit um 1450 einzuordnen ist (Abb. 2). Eine weitere Rekonstruktion stellt
einen schlichten Okulus mit Vierpass dar.
Herkunftsort
Die Erforschung der Bauteile und die daraus resultierenden Rekonstruktionen lassen auf eine mehrschiffige Hallenkirche mit verschiedenen Bauphasen schließen. Die
Verknüpfung dieser Untersuchungen mit der anschließenden Literaturrecherche weist auf die zwischen dem
12. und dem 15. Jahrhundert errichtete und im 19. Jahrhundert wegen Einsturzgefahr abgetragene ehemalige
Aegidiikirche in Münster als Herkunftsort der Fundstücke.
Nike Sammer, OTH Regensburg ■
Olivia Golde, OTH Regensburg ■
L I TE R ATUR
* „ein bauliches oder bildliches Artefakt, das aus seinem ursprünglichen baulichen, bildlichen oder inhaltlichen Zusammenhang gelöst
wurde und in einen neuen baulichen, bildlichen oder inhaltlichen
Zusammenhang gebracht ist.“ nach: P. Morsbach, Geraubt, verschleppt, verbaut – was ist eine Spolie?, in: Stadt Regensburg, Amt für
Archiv- und Denkmalpflege (Hrsg.), Spolien – steinerne Zitate der
Geschichte. Von Römersteinen, Judensteinen und falschen Gräbern.
Beiträge des 30. Regensburger Herbstsymposions für Kunst, Geschichte und Denkmalpflege vom 20. bis 22. November 2015 (Regensburg 2016) 9-17.
A. Pohlmann, Ein Bauopfer und tausend Spolien. Die Baubefunde an
der Zwölfmännergasse, in: Archäologie in Westfalen-Lippe 2016 (in
Vorbereitung).
82 | G E B Ä U D E U N D I N F R A S T R U K T U R
Licht, Luft, Sonne:
Das Haus Schminke von Hans Scharoun
Das „Haus Schminke“ (1930-1933) in Löbau/Sachsen zählt weltweit zu den bedeutendsten Wohnhäusern der Moderne und steht seit 1978 unter Denkmalschutz. Seit der letzten Instandsetzung
1999/2000 sind erneut Schäden am Gebäude aufgetreten, die saniert werden müssen. Der
Forschungscluster nachhaltiges Bauen und historische Bauforschung (NBHB) der OTH Regensburg
begleitet das Vorhaben als wissenschaftlicher Partner der Stiftung Haus Schminke.
nutzt. All diese Nutzungen erfolgten ohne größere Umbauten – ein Umstand, der die Instandsetzung 1999/2000
erleichterte.2
Seit 2009 ist das Haus im Eigentum und Sitz der kommunalen „Stiftung Haus Schminke“. Ziel der Stiftung ist es,
neben der Bestandserhaltung das Haus als Museum
und Veranstaltungsort der Öffentlichkeit zugänglich zu
machen.
Da in den letzten 15 Jahren diverse Schäden an Dachflächen, Fassaden, Terrassen und Außentreppen wieder
oder neu entstanden sind, muss das Gebäude erneut
saniert werden. Die Stiftung Haus Schminke kooperiert
hierzu mit der Fakultät Architektur der OTH Regensburg.
Abbildung 1: Gartenansicht Haus Schminke
© Katharina Sauer, OTH Regensburg
Viele Architekturen der Moderne sind konzeptionell und
technisch Prototypen unseres zeitgenössischen Bauens.
Daher gilt es, Bauten der Moderne als historische Zeugnisse zu erhalten und eine kritische Auseinandersetzung
mit den Konzepten und Konstruktionen dieser Epoche zu
führen.
Das von 1930 bis 1933 für den Nudelfabrikanten Schminke
erbaute „Haus Schminke“ von Hans Scharoun (dt. Architekt 1893-1972) ist ein Juwel internationaler Baukunst.
Das flexible und intelligente Raumkonzept, eine atmosphärische Lichtplanung und zahlreiche, auf die Bedürfnisse der Familie zugeschnittene Details machten es
bereits kurz nach Fertigstellung berühmt.1
Nachdem die Bauherrenfamilie zwölf Jahre lang darin
wohnte, wurde es ab 1946 als Kinderheim, ab 1953 als
Jugendclub und bald darauf als „Haus der Pioniere“ ge-
Vor Erarbeitung einer Vorgehensweise und eines Maßnahmenpakets zur Instandsetzung sind die Schadensursachen präzise zu klären. Dazu ist es notwendig, das
Haus, sein planerisches Konzept, seine Konstruktion, das
Nutzungsprofil und das bauklimatische Verhalten der
Hüllbauteile in Abhängigkeit des Außenklimas zu analysieren und zu verstehen. Im Hinblick auf Nutzung und
nachhaltige Bewirtschaftbarkeit ist auch zu prüfen, wie
Energieverbrauch und thermische Behaglichkeit bei
Sicherung der historischen Bausubstanz optimiert werden können.
Seit Februar 2016 sind im Haus 20 Datenlogger zur
Messung und Aufzeichnung von Raumlufttemperatur
und -feuchte sowie von Oberflächentemperaturen in
Betrieb. Die Datenauswertung ermöglicht Aussagen
über das Verhalten der Bausubstanz und die Aufenthaltsqualität der Räume: Schadenspotentiale wie Schimmel
oder Taufeuchte auf den Bauteiloberflächen oder Behaglichkeitsdefizite wie Unter- oder Übertemperaturen
in den Wohnräumen werden sichtbar.
Nach den bisherigen Untersuchungen sind die Wohnräume auch heute noch als behaglich einzustufen (Abb.
2). Eine Ausnahme bildet der Wintergarten, der aufgrund
der großen Glasflächen, geringer Verschattungsmöglichkeiten und unzureichender Belüftung sehr schnell überhitzt; gleichzeitig aber im Winter und in der Nacht wegen
der Einfachverglasung sehr schnell auskühlt. Daher ist
dieser im Sinne eines wirtschaflichen Gebäudebetriebes
nicht als permanenter Wohnraum anzusehen.
GEBÄUDE UND INFRASTRUKTUR
| 83
Projektleiter
Prof. Dr.-Ing. Felix Wellnitz, Fakultät Architektur,
Fachgebiet Gebäudesanierung und Raumklima
[email protected]
relative Raumfeuchte [%]
Projektmitarbeiterin
Sandra Schmid (B.Eng.)
[email protected]
Geldgeber
Technologie- und Wissenschaftsnetzwerk Oberpfalz (TWO)
Regensburg Center of Energy and Resources (RCER)
Ti [°C]
Abbildung 2: Behaglichkeitsfeld nach Leusden-Freymark für Essplatz
© Sandra Schmid, Felix Wellnitz, OTH Regensburg
Kooperationspartnerin
Stiftung Haus Schminke, vertreten durch
Dipl.-Ing. M.Sc. Claudia Muntschick, gefördert
von Bund, dem Land Sachsen und der Deutschen
Bezüglich der Feuchtigkeit erbrachte die Monitoring-Auswertung folgende Erkenntnisse: An den bauzeitlichen,
bemerkenswerten Fensterkonstruktionen aus lackierten
Flach- oder Winkelstahlprofilen mit Einfachverglasung
und Glashalteleisten aus dauerhaftem Eichenkernholz
entsteht regelmäßig Feuchtigkeit. Diese kann jedoch
jederzeit abtrocknen oder tropft in Tauwasserrinnen und
kann direkt aufgewischt werden. So haben die Fenster
kaum Schaden aus den nachgewiesenen raumluftbedingten Feuchtebelastungen genommen. An den untersuchten Deckenstellen wird dagegen zum Teil regelmäßig
eine relative Luftfeuchte von 80 Prozent erreicht. Dieser
Wert ist bei längerer Überschreitung kritisch für das
Wachstum von Schimmelpilzen.3 Um größeren Schäden
entgegen zu wirken, sind diese genauestens zu beobachten.
Parallel zum Monitoring wird das Nutzungsprofil aufgezeichnet, um mögliche Zusammenhänge zwischen
Feuchteaufkommen und Nutzung zu erschließen. Im
Oktober 2016 fand zudem ein Workshop mit Studierenden der Fakultät Architektur zur Bestandsaufnahme der
Konstruktion, Hüllbauteile und Schadensbilder statt. Im
weiteren Projektverlauf wird ein mittels der Messergebnisse kalibriertes, thermisches Simulationsmodell des
Hauses erstellt, um bauklimatische Auswirkungen möglicher Sanierungslösungen realitätsnah zu überprüfen.
Damit können Aussagen zur Bauteilsicherheit, Energiebedarf und Behaglichkeit getroffen werden.
Die ersten Projekterkenntnisse zeigen, dass Bauteilverhalten, Raumklima und Nutzungsprofile systembedingt
eng miteinander im Zusammenhang stehen. Instand-
Stifung Denkmalschutz mit insgesamt 220 TEuro
Projektlaufzeit: 20 Monate
Fördersumme: 67 TEuro vom TWO/RCER
Homepage: https://www.oth-regensburg.de/
professoren-profilseiten/professoren-a/prof-dr-felix-wellnitz/
forschung.html
setzungsziele wie Behebung baulicher Verringerung von
Transmissions- und Lüftungswärmeverlusten sowie Verbesserung der thermischen Behaglichkeit sind mit dem
Denkmalschutz in Einklang zu bringen. Mit dem Monitoring und den geplanten thermischen Simulationen können die komplexen Zusammenhänge von Energiebedarf,
thermischer Behaglichkeit und Bautenschutz für die
Baukonstruktion und die technischen Anlagen dargestellt und bauklimatisch realitätsnah bewertet werden.
Auswirkungen von Instandsetzungslösungen auf die
Bausubstanz und das Bauklima können so bereits im Vorfeld überprüft und optimiert werden, um eine in Kosten
und Nutzung optimierte Sanierung für das denkmalgeschützte Gebäude zu entwickeln.
Felix Wellnitz, OTH Regensburg ■
Sandra Schmid, OTH Regensburg ■
Claudia Muntschick ■
Stiftung Haus Schminke, Löbau
L I TE R ATUR
1. Ulrich Rosner: HausSchminke – ein Kulturdenkmal zwischen Monument und Dokument. In: Burkhardt, Berthold (Hrsg.): Scharoun Haus
Schminke Die Geschichte einer Instandsetzung. Karl Krämer Verlag.
Stuttgart, 2002
2. Pitz und Hoh Werkstatt für Architektur und Denkmalpflege GmbH
(Hrsg.): Sanierungsdokumentation Haus Schminke, Band 1, Berlin
2000, S.1 und S.8.
3. DIN EN ISO 13788:2013-05 Wärme- und feuchtetechnisches Ver-
halten von Bauteilen und Bauelementen – Raumseitige Oberflächentemperatur zur Vermeidung kritischer Oberflächenfeuchte und Tauwasserbildung im Bauteilinneren – Berechnungsverfahren
Schmid S., Muntschik C., Wellnitz F.: Licht, Luft und Sonne- das Haus
Schminke von Hans Scharoun. Die nachhaltige und denkmalgerechte
Ertüchtigung einer Ikone der Moderne in Zeiten von Klimawandel und
Ressourcenknappheit. In: Bausubstanz. Jahrgang 8, Heft 1 (März)
2017. Fraunhofer IRB Verlag, Stuttgart.
84 | G E B Ä U D E U N D I N F R A S T R U K T U R
SVBA: Selbstverdichtender Beton mit zeitnaher
Aussteuerung der Mischungszusammensetzung
im Betonmischer
Selbstverdichtender Beton (SVB; englisch: SCC: self compacting concrete) ist ein Beton, der ohne
Einwirkung von Verdichtungsenergie allein durch den Einfluss der Schwerkraft in die Schalung
fließt, entlüftet und selbst komplizierte Geometrien bzw. Bewehrungszwischenräume vollständig
in Sichtbetonqualität ausfüllt1. Aufgrund dieser besonderen Frischbetoneigenschaften verspricht
der Einsatz von selbstverdichtendem Beton u. a. kürzere Betonierzeiten, eine reduzierte Anfälligkeit für Verdichtungsfehler und eine höhere Dauerhaftigkeit von Stahlbetonbauteilen. Im Forschungsprojekt soll die zielsichere Herstellung des SVBs optimiert werden.
Die Dauerhaftigkeit von Stahlbeton ist stark von der
Dichtigkeit der Oberflächenschicht abhängig. Diese wird
bei richtiger Zusammensetzung und Nachbehandlung
hauptsächlich von der Verdichtung beeinflusst. Die Vermeidung schlechter Verdichtungsarbeit hat zur Entwicklung von SVB geführt1. In der Bauindustrie besteht ein
enormer Bedarf an einem solchen Hochleistungsbeton,
sofern er mit vernünftigem produktionstechnischen und
finanziellen Aufwand herstellbar ist.
Die Verarbeitbarkeit gilt bei der Qualitätskontrolle für die
Betonherstellung daher als wichtiger Parameter. Sie ist
bei selbstverdichtendem Beton von wesentlich größerer
Bedeutung als bei herkömmlichen Rüttelbeton, da die
Qualität von SVB-Stahlbetontragwerken im großen
Maße von den passenden rheologischen Eigenschaften
abhängt3.
Im Forschungsprojekt wird ein Kugel-Rheometer im Betonmischer integriert, das in einer kurzen Mischpause die
Verarbeitungseigenschaften des SVBs beurteilt. Die
auftretenden Schwankungen in den Ausgangsstoffen
erfordern u. U. eine Nachdosierung einzelner Komponenten, um die optimale Konsistenz für den Einbauzeitpunkt
einzustellen4.
Tu
Trichterauslaufzeit T in s
To
Durch Schwankungen in den Ausgangsstoffen und wechselnden Herstell- und Umgebungsbedingungen, ist es in
der Praxis des Betonmischwerkes jedoch oft schwierig,
gleichbleibende rheologische Eigenschaften bei aufeinanderfolgenden SVB-Mischungen gleicher Rezeptur zu
erzielen.
Die Konsistenz von SVB reagiert sehr sensibel auf
Mischungsabweichungen. Die Betonmischanlagen mit
ihren aktuellen automatischen Steuermechanismen sind
nicht in der Lage diese geringen Schwankungen zu erfassen und in den Herstellungsprozess zu integrieren.
Die Beurteilung der Frischbetonqualität ist derzeit nur
durch Sichtprüfung eines erfahrenen Laboranten oder
erst nach aufwändigen Laborversuchen (z. B. Setzfließmaß, Trichterauslaufzeit) möglich. Dabei müssen die Ergebnisse zum Zeitpunkt des Einbaus in einem vorher eng
definierten Verarbeitungsfenster liegen (Abb. 1).
smu
smo
Setzfließmaß sm in cm
Abbildung 1: Verarbeitungsfenster für einen SVB bei normgerechter
Frischbetonprüfung2.
Abbildung 2: Schema der Aussteuerung mit sofortiger Nachdosierung.
GEBÄUDE UND INFRASTRUKTUR
| 85
Projektleiter
Forschungscluster ERB (Energieeffiziente und
Ressourcen schonende Baustoffe und Bauverfahren),
Fakultät Bauingenieurwesen, Labor für Baustoffe
und Betontechnologie
Prof. Dipl.-Ing. Dr. techn. habil. Wolfgang Kusterle
[email protected]
Projektmitarbeiter
Paul Benkert (B.Eng.),
[email protected]
Ivan Paric (M.Eng.),
[email protected]
Projektpartner
Prof. Dr.-Ing. Ralph Schneider
Fakultät Maschinenbau, Labor für Regelungstechnik
[email protected]
Geldgeber
Bayerische Forschungsstiftung (BFS)
Projektpartner
– Schleibinger Geräte Teubert und Greim GmbH, Buchbach
– Südbayerisches Portlandzementwerk Gebr. Wiesböck & Co.
GmbH (ROHRDORFER ZEMENT, SPZ), Rohrdorf
– BETOSERV GmbH, Rohrdorf
Abbildung 3: Kapelle Maria-Magdalena aus weißem SVB.
Foto: Wolfgang Kusterle
– GODELMANN GmbH & Co. KG, Fensterbach
– Hemmerlein Ingenieurbau GmbH, Bodenwöhr
Projektlaufzeit: 36 Monate
Zur automatisierten Aussteuerung einer Beton-Rezeptur
gibt es derzeit keine Ansätze. In anderen Industriebereichen werden mit Expertensystemen ähnliche Fragestellungen gelöst.
Im vorliegenden Forschungsprojekt soll daher ein Expertensystem entwickelt werden, das anhand der gemessenen rheologischen Eigenschaften eine gezielte Nachsteuerung einleitet (siehe Abb. 2).
Dazu gilt es vorerst alle Einflussparameter zu isolieren.
Dann müssen die Wissensbasis 1 durch Versuche mit
gezielten Abweichungen in der Betonrezeptur und verschiedene Nachsteuerungsmaßnahmen und die Wissensbasis 2 durch Versuche bei unterschiedlichen Temperaturen und Verarbeitungszeiten erstellt werden. Diese
Versuche sind für unterschiedliche Mischungskonzepte
durchzuführen. Als Nachsteuerungsmaßnahmen kommen nur Flüssigkeiten wie Wasser, Fließmittel und Stabilisatoren in Frage.
Fördersumme: 233 TEuro
Homepage
https://www.oth-regensburg.de/fakultaeten/
bauingenieurwesen.html
Unter Einbeziehung der unterschiedlichen Szenarien sollen allgemein gültige Gesetzmäßigkeiten abgeleitet und
mathematisch formuliert werden. Algorithmen sind zu
erstellen und programmtechnisch umzusetzen. In Piloteinsätzen muss dann die Funktion des Expertensystems,
das einen qualifizierten Laboranten ersetzen kann, bestätigt werden.
Letztendlich soll das System optisch perfekte Bauteile
aus SVB ermöglichen (Abb. 3).
Wolfgang Kusterle, OTH Regensburg ■
Ivan Paric, OTH Regensburg ■
L I TE R ATUR
1. Europäische Richtlinien für SCC, Festlegung, Produktion und Anwendung. Mai 2005, Deutsche Übersetzung, BIBM, CEMBUREAU,
ERMCO, EFCA, EFNARC August 2006.
2. Siebel, E.; Breit, W.: Herstellung und Verarbeitung von selbstverdichtendem Beton (SVB) als Transportbeton der Festigkeitsklassen C
25/30 und C 30/37 unter Praxisbedingungen. (AiF-Vorhaben Nr. 13925
N). Abgerufen am 14. Mai 2014.
3. Khrapko, M.: Aufrechterhaltung der erforderlichen Verarbeitbarkeit
von SVB. BetonWerk International, Heft 2/2012.
4. Ivan Paric, Florian Fleischmann, Markus Greim, Wolfgang Kusterle:
The Determination of Rheological Properties of „High Slump Concrete” and SCC – the Advantages of a Modified Online Ball Measuring
System, Rheologische Messungen an Baustoffen 2016, Tagungsband
zum 25. Workshop und Kolloquium, 2. und 3. März an der OTH Regensburg, tredition GmbH, Hamburg, 2016.
| 87
Energie
und Mobilität
Energie und Mobilität sind für unsere Gesellschaft sowie Wirtschaft von
höchster Bedeutung. Zudem stellen sie uns stets vor neue Herausforderungen: von erneuerbaren Energien bis zum intelligenten Energiemanagement
und von intelligenter Fahrerassistenz bis zu neuartigen sicheren Mobilitätskonzepten. Ein ressourcenschonender und effizienter Umgang ist hierfür
unerlässlich. Unsere Forschungsansätze zielen darauf ab, Energie effizienter
zu nutzen und zu speichern sowie Mobilitätsstrukturen sicherer zu gestalten.
88 | E N E R G I E U N D M O B I L I T Ä T
SyNErgie: Stromnetzplanung
als Schlüsselbaustein der Energiewende
Die Energiewende stellt Netzbetreiber vor neue Herausforderungen. Ein Aspekt ist dabei die
Blindleistungsbereitstellung. Blindleistungsflüsse im Stromnetz beeinflussen zum einen die
Spannungshaltung und zum anderen die Netzstabilität. Derzeit gleichen diese unerwünschten
Ströme vorrangig konventionelle Kraftwerke aus. Aufgrund des Wegfalls der großen Atom- und
Kohlemeiler benötigt das System neue Lösungen. Ziel des Vorhabens SyNErgie ist die Beschreibung
von Netzplanungs- und Netzführungsstrategien, mit Augenmerk auf der Integration eines
Blindleistungsmanagements, hinsichtlich Regelungs- und Planungsstrategien.
Im Zuge der Energiewende stehen Verteilnetzbetreiber
vor neuen Aufgaben und Herausforderungen hinsichtlich
der Systemdienstleistungen. Systemdienstleistungen sind
Funktionen, die ein Stromnetz benötigen, um stabil betrieben werden zu können. Ein Aspekt ist dabei die Blindleistungsbereitstellung. Blindleistung entsteht überwiegend beim Auf- und Abbau magnetischer Felder, z. B.
in elektrischen Motoren. Blindleistung kann am Verbraucher nicht in Nutz-/Wirkenergie wie Licht oder Wärme
umgesetzt werden, weshalb sie den Zusatz „Blind“ trägt.
Sie pendelt vielmehr zwischen Quelle und Verbraucher,
ist aber dennoch für den Betrieb der Stromnetze notwendig. Die Blindleistungsflüsse im Stromnetz beeinflussen die Spannungshaltung und die Netzstabilität.
Derzeit gleichen diese „unerwünschten Blind-Ströme“
vorrangig konventionelle Kraftwerke aus. Aufgrund des
sukzessiven Wegfalls der großen Atom- und Kohlemeiler
benötigt das Stromnetz alternative Lösungen.
Ziel des Vorhabens SyNErgie (Systemoptimierendes Netzund Energiemanagement für die Verteilungsnetze der
Zukunft) ist das Auffinden und Überführen solcher
Lösungsansätze in für Netzbetreiber anwendbare Planungs- und Betriebskonzepte (kurz Blindleistungsmanagement) für Mittelspannungsnetze (siehe Abbildung 1).
Damit sollen neue Möglichkeiten geschaffen werden, den
Blindleistungsbedarf von Verteilungsnetzen zu optimieren. Im Fokus stehen u. a. betriebliche Kompensationsanlagen (kompensieren Blindleistung im Netz von großen
Firmen) und dezentralen Erzeugungsanlagen (z.B. PVund Wind-Anlagen), die in der Mittelspannungsebene
(20.000 V) angeschlossen sind. Über die Auswertung von
Messdaten (mit Auflösungen bis in den Sekundenbereich) wird im ersten Schritt das theoretische Potenzial
ausgewählter realer Anlagen erfasst. Über Hochrechnungen und Simulationen wird dann ein für das Stromnetz
selbstgeführter
Master-Q-Regler
Slave-Q-Regler
EZA-Q-Regler
HS: Hochspannung
UW: Umspannwerk
MS: Mittelspannung
Abbildung 1: Schematische Darstellung eines Mittelspannungsnetzes mit dezentraler Einbindung von Blindleistung (Q) über die Verbraucher und
Erzeuger sowie betrieblichen Kompensationsanlagen und dezentrale Erzeugungsanlagen. Bild: OTH Regensburg – FENES
ENERGIE UND MOBILITÄT
| 89
Projektleiter
Prof. Dr.-Ing. Oliver Brückl
Q in MVAr
Forschungsstelle für Energienetze und Energiespeicher
(FENES)
[email protected]
Projektmitarbeiter
Matthias Haslbeck (M.Sc.)
Reinhard Kreuzer (B.Eng.)
Christian Adelt
P in MW
Christopher Mühlbauer (B.Eng.)
Abbildung 2: Vergleich einer Messung eines realen Mittelspannungsnetzes (schwarze Punkte im Hintergrund) mit dem über Simulationen
nachgestellten Verhalten (blaue Punkte im Vordergrund). Die Messung
zeigt dabei das Wirk-Blindleistungs-Verhalten eines Mittelspannungsnetzes mit rd. 450 km2, d. h. das aufsummierte Verhalten von rd. 185
Niederspannungsnetzen und zahlreichen Wind-, PV- und Biomasseanlagen(in Summe 55.000 kW installierte Leistung). Bild: OTH Regensburg – FENES
Sebastian Kick (M.Sc.)
nutzbares Potenzial abgeleitet, das die Basis für die Auslegung von Versuchsreihen im realen Betrieb „Feldversuch“ bildet. Im geplanten Feldversuch kommen Blindleistungsregler zum Einsatz, die einerseits autark (d.h.
ohne Informationen von außen) oder andererseits mit
externer Vorgabe arbeiten. Die geplanten zwei Feldversuche sind Kernstück des Projektes und finden im Raum
Nürnberg und Würzburg statt und sollen die entwickelten
Ansätze aus dem Projekt SyNErgie unter realistischen Bedingungen evaluieren. Das heißt: Industriebetriebe und
Erzeugungsanlagen sollen aktiv Blindleistung für das
Stromnetz bereitstellen. So soll der Nachweis erbracht
werden, dass eine signifikante Optimierung hinsichtlich
des Blindleistungsmanagements möglich ist. Durch die
Erschließung dieses vorhandenen Potenzials in Verbindung mit einem netzdienlichen Einsatz erwarten die Projektteilnehmer eine signifikante Optimierung des Netzbetriebs und somit einen wichtigen Beitrag für die Energiewende. Zum aktuellen Zeitpunkt finden die finalen
Abstimmungen zwischen den ausgewählten Betrieben
und dem Projektverbund aus SyNErgie statt, bevor es
Ende des 2. Quartals 2017 in die praktische Erprobung
geht.
Neben der direkten Regelung von Erzeugungsanlagen
und betrieblichen Kompensationsanlagen umfassen die
Projektziele von SyNErgie auch die Verbesserung von
Zuwendungsgeber
Projektinformationen
SyNErgie – Systemoptimierendes Netz- und Energiemanagement für die Verteilungsnetze der Zukunft
Ausführende Stelle: Ostbayerische Technische
Hochschule Regensburg – Forschungsstelle für
Energiespeicher und Energienetze (FENES),
Regensburg, Bayern
Tabelle 1: Projektsteckbrief
Thomas Sippenauer (M.Sc.)
Tobias Sator (B.Eng.)
Andreas Berling (B.Eng.)
Johannes Rauch (B.Eng.)
Maksym Klitsman (M.Eng.)
Philipp Schulz (B.Eng.)
Bundesministerium für Wirtschaft und Energie (BMWi)
Förderzeitraum: 01.03.2015 – 31.05.2018
Bewilligte Summe: 758 TEuro
Homepage
www.forschung-stromnetze.info/projekte/
neues-blindleistungsmanagement-fuer-verteilnetze/
Modellierungsgrundlagen für Lastflusssimulationen und
die Regelung von Umspannwerkstransformatoren. Wie
gut die Simulation die Realität wiedergibt, zeigt Abbildung 2. Die sogenannten Wirk-Blindleistungswolken
zeigen das Verhalten eines Mittelspannungsnetzes mit
einer Fläche von rund 450 km2 über ein Jahr. Simulation
und Messung sind dabei fast deckungsgleich.
Der Projektverbund setzt sich aus den beiden Verteilnetzbetreibern Main-Donau Netzgesellschaft mbH und
Mainfranken Netze GmbH, den beiden Kompensationsanlagenherstellern FRAKO Kondensatoren- und Anlagenbau GmbH und KBR GmbH sowie der OTH Regensburg
zusammen.
Oliver Brück, OTH Regensburgl ■
Matthias Haslbeck, OTH Regensburg ■
90 | E N E R G I E U N D M O B I L I T Ä T
Future Applications
in Model Based Engineering
Die Mobilität der Zukunft ist durch ein hohes Maß an Flexibilität im Bereich des Antriebsstrangs
gekennzeichnet. Hybridsysteme und Elektromotoren stellen dabei nur einen ersten Schritt dar.
Diesbezüglich steigt die Nachfrage an mehr Funktionalität und Vernetzung der verschiedenen
Systeme, was wiederum mit steigenden Entwicklungskosten verbunden ist. Um zukünftige
Antriebsstränge effizient weiter entwickeln zu können, ist der Einsatz neuer Methoden in Verbindung mit simulativen Ansätzen unumgänglich. Auf Basis von neuronalen Netzen und dem Tool
Matlab/Simulink wird am Beispiel „Gesamtfahrzeug“ im Labor für Verbrennungsmotoren und
Abgasnachbehandlung (ceec) an der Erstellung eines Baukastenprinzip gearbeitet, das es ermöglicht, schnell auf jegliche Veränderung am System zu reagieren.
Aufgrund der vielen Funktionalitäten moderner PKWs
wird es zunehmend schwieriger, diese im Zuge des Entwicklungsprozesses sorgfältig in einem allumfassenden
Rahmen zu testen. Gleichzeitig werden die Entwicklungszeiten fortwährend immer kürzer, was den Druck auf
Automobilbauer und Zulieferer zusätzlich erhöht.
Eine effiziente, virtuelle Entwicklungsumgebung wird
daher in Zukunft von zunehmend größerer Bedeutung
sein. Fahrzeuge können innerhalb dieser frühzeitig im
Entwicklungsprozess auf rein virtueller Basis getestet
werden, wodurch eine späte Fehlerdetektion, die mit
hohen Kosten verbunden ist, vermieden werden kann.
Die virtuelle Beschreibung des Verhaltens von komplex
verzweigten Systemen stellt in der Praxis eine enorme
Herausforderung dar. Zum einen stehen für eine Vielzahl
Abbildung 1: Geplante Schlüsselpunkte für das Projekt
an Systemkomponenten meist bereits sehr detaillierte
physikalische Simulationsmodelle zur Verfügung, zum
anderen lassen sich diese aufgrund der Spezialisierung
auf einen bestimmten Fachbereich nur in einem geringen
Umfang in anderen Bereichen einsetzen. Dies führt gezwungenermaßen dazu, dass Simulationsmodelle vielfach mit oft unterschiedlichsten Detaillierungsgraden
aufgebaut werden, weil kein interdisziplinärer Informationsfluss stattfindet und damit weitere Entwicklungsressourcen beansprucht werden.
Für zukünftige Simulationsmodelle bedeutet dies: Zum
einen müssen die Modelle interdisziplinär nutzbar gemacht werden, damit diese nicht redundant aufgebaut
werden, zum anderen sollen sich diese zu einem größeren, umfassenderen Modell1 vereinen lassen. Eine manuelle Verknüpfung vieler Beschreibungsmodelle aus teils
unterschiedlichen Sofwaretools stellt trotz bereits
bestehender Standardisierungen2 aufgrund des enormen Anpassungsaufwandes
schnell keine Option mehr
dar. Folglich ist es in Zukunft unumgänglich, hierfür künstlich intelligente
Systeme zu nutzen, die
unter Verwendung der
enormen Menge an bestehenden Daten, Muster erkennen und Kompatibilitäten zwischen den Modellen sichtbar machen. Abbildung 1 zeigt hierzu, mit welchen Schlüsselpunkten das
Labor Verbrennungsmotoren und Abgasnachbehandlung diese Herausforderungen bewerkstelligen will.
ENERGIE UND MOBILITÄT
Ein weiterer Vorteil solcher datengetriebener Systeme ist,
dass die Herkunft und Beschaffenheit der Daten keine
Rolle spielt. So lassen sich neben den Daten aus Simulationsmodellen oder den Simulationsmodellen selbst auch
experimentell ermittelte Daten einbinden und umfassend nutzen. Gerade hier zeigt sich auch in der Praxis,
dass experimentelle Untersuchungen – teils zur Validierung von Simulationsmodellen – oft mehrmals unabhängig voneinander durchgeführt werden, obwohl diese
genauso aus einer Vielzahl bereits bestehender Daten
extrahiert werden könnten, jedoch interdisziplinär unzugänglich oder schlicht nicht interpretierbar sind.
| 91
Projektleiter
Prof. Dr.-Ing. Hans-Peter Rabl
Leiter Labor Verbrennungsmotoren
und Abgasnachbehandlung (ceec)
[email protected]
Projektmitarbeiter
Peter Schwanzer (M.Sc.)
Geldgeber
Laborinternes Projekt
Homepage
http://www.ceec-regensburg.de
Abbildung 2: Ansatz für die Umsetzung des Vorhabens
Im Sinne dieser Problemstellungen arbeitet das Labor für
Verbrennungsmotoren und Abgasnachbehandlung der
OTH Regensburg aktuell an einem grundlegenden Konzept zur Bewältigung dieser Aufgaben vgl. Abbildung 2.
Hierbei gilt es allen voran zu ermitteln, an welcher Stelle
die größten Schwierigkeiten liegen, bestehende Simulationsmodelle und Messdaten in eine neue Entwicklungsumgebung einzubinden. Ebenso muss gezeigt werden,
welche Kenngrößen und Merkmale sich zur Identifizierung eines Simulationsmodells eignen und wie diese
Informationen aus den Rohdaten extrahiert werden können, um damit „Maschinelles Lernen“ zu betreiben. Dies
erfordert in erster Instanz ein sehr hohes Maß an Systemverständnis, im Weiteren aber auch umfassende Kompetenzen im Bereich Informatik und Programmierung. Eine
der größten Herausforderungen wird es daher sein, die
Bereiche Maschinenbau und Informatik im Rahmen
dieses Forschungsprojektes zu vereinen.
Ottfried Schmidt, OTH Regensburg ■
Peter Schwanzer, OTH Regensburg ■
Hans-Peter Rabl, Fakultät Maschinenbau, Labor
Verbrennungsmotoren und Abgasnachbehandlung ■
L I TE R ATUR
1. Schaffnit, J. et al.: Fahrzeugmodelle effizient und nachhaltig
managen. ATZ Volume 119 Issue 4 , S 42-47 (2017)
2. http://fmi-standard.org
92 | E N E R G I E U N D M O B I L I T Ä T
Klimaschutz:
Weltweit Null-Emissionen bis 2050 – machbar!
Seit 1992 berät der Wissenschaftliche Beirat der Bundesregierung Globale Umweltveränderungen
(WBGU) die Bundesregierung in der Klimapolitik und wird mit der Erstellung von Sondergutachten
und Stellungnahmen beauftragt. Im Rahmen des WBGU-Sondergutachtens „Entwicklung und
Gerechtigkeit durch Transformation: Die vier großen I“ wurde ein Narrativszenario zur Energieversorgung bis 2050 als globaler Transformationspfad entworfen. Ziel der Expertise war die
Erstellung, Simulation und Auswertung eines Narrativszenarios. Dieses wurde so gestaltet, dass
die Klimaziele von Paris (COP21) ohne Geoengineering und negativen Emissionen eingehalten
werden. Dies bedeutet, eine globale Erderwärmung von 1,5–1,7°C nicht zu überschreiten und somit
ein maximales Emissionsbudget von 660 Gt CO2 bis 2050 einzuhalten. Es zeigte sich, dass dieses
Ziel unter ambitionierten Bedingungen erreicht werden kann.
Um den globalen Temperaturanstieg auf deutlich unter
2°C zu begrenzen, dürfen die kumulierten CO2-Emissionen von 2010 bis 2050 nicht über 660 Gt (Gigatonnen)
steigen. Ein Narrativszenario zur globalen Energieversorgung in den Sektoren Strom, Wärme und Verkehr
sowie dem nichtenergetischen Verbrauch fossiler Rohstoffe wurde hierfür erstellt.
Neben dem vorgegebenen Emissionsbudget von 660 Gt
wurden weitere Leitplanken für das Jahr 2050 festgesetzt, die als Grundannahmen in das Szenario eingingen:
• 0 Prozent CO2-Emissionen
• Früher globaler Kohleausstieg
• 0 Prozent Anbaubiomasse
(Ausnahme: Abfallbiomasse)
• 0 Prozent fossile und nukleare Energieträger
• 0 Prozent Verbrennungsmotoren im Verkehr
• Elektrifizierung des nichtenergetischen Verbrauchs
• Kein Geoengineering und CCS
(Carbon Dioxide Capture and Storage /
CO2-Abscheidung und -Speicherung)
Für das Szenario wurde ein Modell erstellt, in dem die
Struktur des Endenergiebedarfs bis zum Jahr 2050 unter
den vorgegebenen Randbedingungen simuliert wurde.
Daraus wurde anhand von Wirkungsgraden und CO2Emissionsfaktoren der Bedarf an Primärenergie (in den
35
Nichtenergetischer Verbrauch
Transport
30
Wärme
Strom
CO2-Emissionen in GT
25
20
15
10
5
0
2010
2015
2020
2025
2030
2035
Abbildung 1: CO2-Emissionen nach Sektoren von 2010 bis 2050.
2040
2045
2050
ENERGIE UND MOBILITÄT
Energieträgern wie Kohle, Gas oder Biomasse gespeicherte Energie) bzw. die CO2-Emissionen berechnet.
| 93
Projektleiter
Prof. Dr. Michael Sterner, FENES
Als Indikatoren für den Zu- oder Rückbau der Energieträger dienen deren Kosten, der spezifische CO2-Ausstoß
sowie der Wirkungsgrad. Diese Faktoren bestimmen die
Zu- und Abbaugradienten in der Simulation. Limitierender Faktor für den Ausbau der erneuerbaren Energien ist
das globale technische Potenzial.
[email protected]
Projektmitarbeiter
Franz Bauer (M.Eng.), FENES
[email protected]
Kooperationspartner
WBGU, Berlin
Abb. 1 zeigt die CO2-Emissionen auf. Anfangs bleiben
diese aufgrund noch vorhandener fossiler Subventionen
nahezu konstant. Es folgt ein steiler Abfall bis 2031, da
hier ein enormer Rückbau der Kohlekraft, die sehr hohe
CO2-Emissionen aufweist, stattfindet (s. Abb. 2). Die
restlichen fossilen Kraftwerke, vor allem auf Basis von
Erdgas, werden wegen der niedrigeren CO2-Emissionsfaktoren wesentlich langsamer vom Netz genommen.
Der Großteil der Emissionen entstammt aus dem Stromsektor. Mit dem Ausstieg aus der Kohlekraft sinken die
Emissionen im Stromsektor erheblich. Die CO2-Emissionen aus dem Wärmesektor sind ab 2025 am dominantesten, da hier noch ein relativ hoher Anteil an Erdgas und
Erdöl vorhanden ist.
Abb.2 zeigt den globalen Primärenergiebedarf bis 2050
und dessen Deckung. Die fossilen Energieträger sowie die
Kernkraft werden rapide rückgebaut. Erdgas verbleibt
länger im Energiemix vertreten. Gegenläufig dazu verhalten sich die erneuerbaren Energien. Dabei werden die
Projektlaufzeit: 3 Monate
Abfallbiomasse, Wasserkraft und Meeresenergie bis zu
ihrem maximalen Potenzial ausgebaut. Die tragenden
Säulen der Energieversorgung sind Wind- und Solarenergie. Die Grundlast wird zukünftig aus Energiespeichern, Geothermie, Wasserkraft und biogenen Abfällen
gedeckt. Strom wird zudem zur Primärenergie für alle
Sektoren.
Mit dem Szenario konnte gezeigt werden, dass aus Sicht
des Klimaschutzes ein harter Phase-out fossiler Energieträger sowie eine massive Sektorkopplung notwendig
sind.
Michael Sterner, FENES, OTH Regensburg ■
Franz Bauer, FENES, OTH Regensburg ■
600
500
Biokraftstoffe
Primärenergie in EJ
fossile Kraftstoffe
400
Geothermie
Anbaubiomass + Abfall
Solar
300
Wind
Wasser + Meer
Erdgas
200
Erdöl
Kohle
Kernenergie
100
0
2005
2010
2015
2020
2025
2030
2035
2040
2045
2050
Abbildung 2: Globaler Primärenergiebedarf und dessen Deckung von 2005 bis 2050.
L I TE R ATUR
WBGU – Wissenschaftlicher Beirat der Bundesregierung Globale Umweltveränderungen: Entwicklung und Gerechtigkeit durch Transformation:
Die vier großen I. Sondergutachten. Berlin (2016)
94 | E N E R G I E U N D M O B I L I T Ä T
HIS: Entwicklung hybrider Hochleistungsaufbauten
von faserverstärkten Kunststoffen zur Erhöhung
des Schutzes vor Schäden durch transversale Impactbelastung
Ziel des Forschungsvorhabens ist die Qualifizierung von faserverstärkten Kunststoffen dahin, dass
diese neben Strukturaufgaben auch eine Schutzfunktion gegen transversale Impactbelastung ermöglichen. Der Lösungsansatz ist die Verwendung von hybriden Lagenaufbauten aus verschiedenen Fasermaterialien. Dabei werden die unterschiedlichen Vorzüge von relevanten Faserarten,
hohe spezifische Fest- und Steifigkeit bei Kohlenstoff- bzw. Bruchdehnungen bei Glasfasern, so
kombiniert, dass entweder eine hohe Energiedissipation (Durchdringungsschutz) oder eine geringe
Schädigung (Strukturschutz) entsteht.
Aufgrund der guten spezifischen Eigenschaften von
faserverstärkten Kunststoffen (FVK) werden diese zumeist im Sinne eines Strukturwerkstoffes verwendet. Die
Resistenz einer Struktur gegen transversale Schlagbeanspruchung wird in diesem Zusammenhang häufig
vernachlässigt. Ziel des Forschungsvorhabens ist die
Qualifizierung von FVK dahin, dass diese neben Strukturaufgaben auch eine Schutzfunktion gegen transversale
Impactbelastung ermöglichen. Der Lösungsansatz ist die
Verwendung von hybriden Lagenaufbauten aus verschiedenen Fasermaterialien. Dabei werden die unterschiedlichen Vorzüge von relevanten Faserarten, hohe spezifische Festigkeit und Steifigkeit bei Kohlenstoff- bzw.
Bruchdehnungen bei Glasfasern, so kombiniert, dass
entweder eine hohe Energiedissipation (Durchdringungsschutz) oder eine geringe Schädigung (Strukturschutz)
entsteht.
Das Leichtbaupotenzial von FVKs wird derzeit sowohl in
der Luft- und Raumfahrt als auch in der Automobilindustrie und anderen Anwendungen genutzt. Dabei stehen Eigenschaften wie die hohe spezifische Steifigkeit
und Festigkeit von kohlenstofffaserverstärktem Kunststoff (CFK) im Fokus. In diesem Forschungsvorhaben
sollen die jeweiligen Vorteile verschiedener Faserarten
kombiniert werden.
Die Durchführung erfolgt durch definierte Impactbelastungen auf monolithische und hybride Materialkombinationen, welche durch unterschiedliche Impactgeschwindigkeiten im Low-, Mid- sowie High-VelocityBereich realisiert werden. Dabei werden die dissipierte
Energie sowie die resultierende, projizierte Delaminationsfläche identifiziert und in Relation zu den Impact-
Abbildung 1: links: Beschussuntersuchung eines gekrümmten glasfaserverstärkten Kunststoffs [0/90]s mit 420 m/s. rechts: Aufbau der Versuchsdurchführung für High-Velocity-Impact-Untersuchungen.
ENERGIE UND MOBILITÄT
parametern und dem Lagenaufbau betrachtet. Dadurch
können in Abhängigkeit der verwendeten Materialien und
der verwendeten Lagenorientierungen Schutzstrukturen
identifiziert werden, welche für die beiden Anwendungsfälle „höchste Energieabsorption“ oder „geringste Schadensausbreitung“ die besten Eigenschaften darstellen.
Durch die Ergebnisse kann der Personenschutz bei fahrzeugspezifischen Anwendungen erhöht und der Insassenschutz weiter verbessert werden.
| 95
Projektleiter
Prof. Dr.-Ing. Ingo Ehrlich
Labor für Faserverbundtechnik
[email protected]
Projektmitarbeiter
Sven Steinmann
[email protected]
Geldgeber
Der Versuchsaufbau des High-Velocity-Impacts ist in
Abbildung 1 dargestellt. Zusätzlich wird der hochdynamische Vorgang eines Impacts mittels numerischer
Simulation nachgestellt, um Vorhersagen über die Energiedissipationsfähigkeit von variierenden Lagenaufbauten treffen und diese mit den experimentellen
Untersuchungen abgleichen zu können. Des Weiteren
werden quasi-statische Belastungssimulationen und Versuche durchgeführt, um die Steifigkeiten der Lagenaufbauten zu ermitteln
Bayerische Forschungsstiftung (BFS)
Das Forschungsprojekt wird an der OTH Regensburg vom
Labor für Faserverbundtechnik (LFT) der Fakultät Maschinenbau durchgeführt. Als Projektpartner wirken die
Universität der Bundeswehr München (UniBwM) und das
Unternehmen Wethje Carbon Composites GmbH mit.
Homepage
Kooperationspartner
Kooperatives Forschungsprojekt zwischen
dem Labor für Faserverbundtechnik und der
Wethje Carbon Composites GmbH, Hengersberg
Projektlaufzeit
36 Monate
Fördersumme
426 TEuro
https://www.oth-regensburg.de/?id=1171
Ingo Ehrlich, OTH Regensburg ■
Sven Steinmann, OTH Regensburg ■
L I TE R ATUR
Abrate, S.: Impact on laminated composite materials. In: Applied
Mechanics Review, Vol. 44, No. 4, 1991
Ehrlich, I.: Impactverhalten schwach gekrümmter Strukturen aus
faserverstärkten Kunststoffen. Dissertation, Universität der Bundeswehr München, Fakultät für Bauingenieur- und Vermessungswesen,
Neubiberg, 2004
Steinmann S., Ehrlich I.: Investigation of Transverse Impact Stress in
Fiber Reinforced Plastics Under High-Velocity Impact and Determination of the Experimental Procedure, Applied Research Conference
2016
96 | E N E R G I E U N D M O B I L I T Ä T
Metastudie: Dekarbonisierung
für eine nachhaltige Energiewirtschaft
In dieser Metastudie „Analyse sektorenübergreifender Studien zur Dekarbonisierung des deutschen
Energiesystems“ im Auftrag der Deutschen Energie-Agentur wurden insgesamt 27 Studien im
Hinblick auf ihre Strategien zur Dekarbonisierung des Stromsektors verglichen, wobei vier davon
detaillierter ausgewertet wurden. Ziel der Studie ist es, die unterschiedlichen Vorstellungen über
den aus Gründen des Klimaschutzes notwendigen Wandlungsprozess des Stromsystems zu
analysieren und vor allem Gemeinsamkeiten sowie Unterschiede zu identifizieren, um daraus
Handlungsempfehlungen abzuleiten.
In der Metastudie wurden die 27 Studien im Umfeld der
Sektorkopplung hinsichtlich 1) Betrachtung der Dekarbonisierung, 2) Einbeziehung der Infrastruktur, 3) Beschreibung von Transformationspfaden und 4) Abbildung der
Sektorkopplung analysiert. Erweitert wurden diese
Aspekte um eine Kostenbetrachtung. Das energiepolitische Zieldreieck aus Versorgungsicherheit, Umweltverträglichkeit und Wirtschaftlichkeit wurde durch
Akzeptanz (soziale Verträglichkeit) ergänzt und ebenfalls
untersucht.
Die Dekarbonisierung der Sektoren Strom, Wärme und
Verkehr wird bereits bei allen 27 Studien umfassend
abgebildet. Weitgehend unbehandelt ist dagegen die
Dekarbonisierung des nichtenergetischen Verbrauchs
(NEV), v. a. in der chemischen Industrie. Die Studien kommen alle zu dem Schluss, dass die klimapolitischen Ziele
beim Fortschreiben des Status Quo nicht erreicht werden.
Die Energieinfrastruktur wird zum Großteil nur für die
Stromversorgung betrachtet, während die nötige Infrastruktur für die Sektoren Wärme, Verkehr und nichtenergetischer Verbrauch kaum bis gar nicht abgebildet wird.
Gravierend ist bei allen Studien die nahezu pauschale
Annahme eines idealen Stromnetzausbaus, was aber aus
Sicht der Sozialverträglichkeit keine realistische Annahme ist. Entsprechend wenig brauchbar und zielführend sind die darauf basierenden Ableitungen von
politischen Handlungsempfehlungen. Entsprechende
Kostenbetrachtungen eines realen Netzes fehlen gänzlich.
Auch werden die Zusammenhänge zwischen eingesetzten Technologien in den Transformationspfaden und dem
Ausbaubedarf der spezifischen Netze nur in begrenztem
Umfang gesehen. Die Betrachtung der Versorgungssicherheit erfolgt ohne reale Infrastrukturbetrachtung.
Eine Untersuchung all dieser Thematiken im gesamtheit-
© FENES / OTH Regensburg 2016
Abbildung 1: Ausgewählte Studien im energiepolitischen Viereck
ENERGIE UND MOBILITÄT
lichen Kontext konnte in den betrachteten Studien nicht
gefunden werden.
Ein beschleunigter Kohleausstieg sowie ambitionierte
Sanierungsraten werden ebenso wie starke Ausbaupfade
für erneuerbare Energien und Energieeffizienz studienübergreifend als fast unumgänglich eingestuft. Erneuerbarer Strom wird als Primärenergie betrachtet und
sektorkoppelnd über Elektromobilität, Wärmepumpen
und Power-to-X eingesetzt. Die Rolle der Kraft-WärmeKopplung (KWK) wird ambivalent bewertet.
Es fehlen aber Transformationspfade für den nichtenergetischen Verbrauch insbesondere der Sektorkopplung
von Strom und NEV sowie alternative Szenarien zu einem
vollumfänglichen Stromnetzausbau. Gerade im Zusammenhang mit der Sozialverträglichkeit ist eine genauere
Betrachtung für die ganzheitliche Bewertung der Energiewende und die Aufstellung robuster Transformationspfade aber unabdingbar.
Die Sektorkopplung ist für die beiden Varianten StromWärme und Strom-Verkehr bereits gut abgebildet und erforscht. Allen Studien gemeinsam ist die Ausweisung
eines deutlich höheren Strombedarfs durch die Sektorkopplung bei steigender Primärenergieeffizienz.
Die Wechselwirkungen zwischen mehreren Sektoren sind
aber nur unzureichend abgebildet. Die Aus- und Rückwirkungen auf den Stromsektor als zentraler Nukleus der
Energiewende sind ebenfalls bisher zu wenig erforscht.
Nach abgeschlossener Transformation sind die Kosten
nicht höher als in einem Vergleichsszenario, das die heutige fossile Energiewirtschaft weiterführt. Im Gegenteil:
Die Energiewende kann unter bestimmten Bedingungen
/Einhaltung bestimmter Vorgehensweisen kostengünstiger als eine Weiterführung des heutigen Energiesystems
sein.
Die Erzeugungskosten der Sektoren Strom, Wärme, Verkehr werden durchgehend betrachtet. Die Untersuchungen sind in allen Fällen auf eine 80 % TreibhausgasMinderung optimiert, jedoch werden auch eine Dekarbonisierung um 95 % bzw. 100 % kostenseitig betrachtet.
Die Betrachtung der Kosten erfolgt ohne Einbeziehung
der notwendigen Infrastruktur. Die Synergien und die
Mehraufwände einer sektorenübergreifenden Infrastrukturnutzung werden demgegenüber im Detail mit hoher
zeitlicher Auflösung betrachtet – eine umfassende Bewertung aller Sektorenkopplungen ist jedoch nicht vorhanden.
Die Kosten für Speicher und Lastmanagement sind nur
eingeschränkt analysiert. Es werden zwar alle betrachteten Teilaspekte untersucht, deren Detailgrad und Be-
| 97
Projektleiter
Prof. Dr.-Ing. Michael Sterner
Forschungsstelle Energienetze und Energiespeicher (FENES)
Fakultät für Elektro- und Informationstechnik
[email protected]
Projektmitarbeiter
Franz Bauer (M.Eng.)
Fabian Eckert (M.Sc.)
Andreas Hofrichter (M.Sc.)
Auftraggeber
Deutsche Energie-Agentur GmbH
Projektlaufzeit: ca. 2,5 Monate
Homepage: www.dena.de
trachtungsumfang sind aber noch ausbaufähig. Untersuchungsbedarf herrscht demnach bei der Rückwirkung
auf die Volkswirtschaft im Kontext der Energiewendekosten durch die Kopplung aller Sektoren.
Die Untersuchungsergebnisse der Studien werden in ein
energiepolitisches Zieldreieck überführt. Das Zieldreieck
setzt sich aus den für das zukünftige Energiesystem notwendigen Aspekten Versorgungsicherheit, Umweltverträglichkeit und Wirtschaftlichkeit zusammen und wird
durch die Sozialverträglichkeit (Akzeptanz) zu einem
energiewirtschaftlichen Viereck ergänzt (Abb. 1).
Während Umwelt- und Kostenverträglichkeit hinreichend
abgedeckt sind, bleiben in der Bewertung der Versorgungssicherheit teilweise zentrale Themen (v. a. Netzstabilität – technische Versorgungssicherheit) außen vor.
Ebenso wird die Dimension der Sozialverträglichkeit
kaum bis gar nicht betrachtet. Hier gibt es entsprechenden Handlungs- und Forschungsbedarf.
Aus Sicht der Autoren ist die zukünftige Betrachtung des
nichtenergetischen Verbrauchs (v. a. Chemiesektor) samt
Rück- und Wechselwirkung mit dem Stromsektor wichtig.
Ebenso sollten neben den üblichen Szenarien mit idealem
Netzausbau („Kupferplatte“) auch Szenarien mit regionalen Märkten und eingeschränktem Netzausbau betrachtet werden.
Michael Sterner, OTH Regensburg
Franz Bauer, OTH Regensburg
Fabian Eckert, OTH Regensburg
Andreas Hofrichter, OTH Regensburg
■
■
■
■
L I TE R ATUR
Norman Gerhardt, et al.: “Interaktion EE-Strom, Wärme und Verkehr:
Analyse der Interaktion zwischen den Sektoren Strom, Wärme/Kälte
und Verkehr in Deutschland in Hinblick auf steigende Anteile fluktuierender Erneuerbarer Energien im Strombereich unter Berücksichtigung der europäischen Entwicklung,” Fraunhofer IWES, Kassel,
2015.
J. Nitsch, et al.: “Langfristszenarien und Strategien für den Ausbau
der erneuerbaren Energien in Deutschland bei Berücksichtigung der
Entwicklung in Europa und global: Schlussbericht BMU – FKZ 03MAP
146,” Deutsches Zentrum für Luft- und Raumfahrt; Fraunhofer-Institut für Windenergie und Energiesystemtechnik; Ingenieurbüro für
neue Energien, Berlin, 2012
H.-M. Henning; A. Palzer: „Was kostet die Energiewende?: Sektor- und
Energieträgerübergreifende, modellbasierte Untersuchung zur System- und Kostenentwicklung einer klimaschutzkompatiblen Transformation des deutschen Energiesystems bis 2050”, 2015.
Öko-Institut e.V., „Klimaschutzszenario 2050”, Ökoinstitut e. V.; Fraunhofer ISI, Berlin, 2015
Impressum
Herausgeber
Ostbayerische Technische Hochschule Regensburg
Prof. Dr. Wolfgang Baier, Präsident
Prüfeninger Straße 58 | 93049 Regensburg
Tel. 0941 943-02
www.oth-regensburg.de
Redaktionsleitung
Christine Wirth
Mitarbeit
Susanne Deisböck, Sarah Doll, Eva Eichenseer
Konzept und Gestaltung
APOSTROPH Agentur für Presse- u. Öffentlichkeitsarbeit
Hans-Peter Gruber, Ruth Ibañez
Landshuter Straße 37 | 93053 Regensburg
Tel. 0941 56 38 11 | Fax 0941 56 38 61
Titelbild
OTH Regensburg/ Florian Hammerich
Anzeigenverwaltung
VMK Verlag für Marketing &
Kommunikation GmbH & Co. KG
Norbert Bruder
Faberstraße 17 | 67590 Monsheim
Tel. 06243 909-0
www.vmk-druckerei.de
Druck
VMK Druckerei GmbH
Faberstraße 17 | 67590 Monsheim
Tel. 06243 909-110
www.vmk-druckerei.de
Text | Bildnachweis
Die Verantwortung für Inhalt und Bildmaterial
der Beiträge liegt bei den jeweiligen Autorinnen
und Autoren.
Stand
Juni 2017
Auflage
3.000 Exemplare
ISBN-Nr: 978-3-9818209-3-5
Danksagung
Die OTH Regensburg dankt allen Autorinnen und Autoren
für die zahlreichen Forschungsbeiträge.
„Meine Geschichte: Ich brauche Spannung
im Leben, auch bei der Arbeit.
Bis zu 1,8 Millionen Volt – so stark sind die
Blitze, mit denen ich unsere Produkte prüfe.
Und welche Geschichte schreiben Sie?“
Seit über 140 Jahren schreiben wir bei MR unsere
Erfolgsgeschichte. Wir machen Transformatoren intelligent
regelbar, entwickeln Hightech-Isoliermaterialien für den
Hochspannungs-Einsatz und Steuerungsanlagen für eine
optimale Netzspannungs- und Stromqualität. Heute regeln
unsere Produkte mehr als 50 % des weltweit erzeugten
Stroms. Unseren über 3.000 Mitarbeitern bieten wir viel
Raum zum Gestalten und gleichzeitig Heimat und Rückhalt.
Schreiben auch Sie Ihre ganz persönliche MR-Geschichte.
Besuchen Sie uns auf
www.reinhausen.com/karriere
THE POWER BEHIND POWER.
Das machen wir nicht…
…alles andere schon.
Let your ideas
shape the future.
Bei Continental bieten wir spannende Aufgaben und ein
dynamisches Umfeld für smarte, innovative Menschen, die
Ideen zum Leben bringen - egal wo sie in ihrer Karriere stehen.
Unser breites Portfolio und unsere Expertise kombiniert mit
Ihrem persönlichen Beitrag machen es möglich, erfolgreich die
innovativsten Mobilitätslösungen zu entwickeln - und das
schon seit 1871. Als Teil unseres internationalen Teams haben
Sie die Freiheit die Zukunft der Mobilität mitzugestalten.
www.continental-careers.com