Künstliche Intelligenz soll innovative Geschäftsmodellideen entwickeln

NRW-Wirtschaftsminister überreicht Förderbescheid für Projekt „Smart-GM“

Mit der Übergabe des Förderbescheids durch Wirtschaftsminister Prof. Dr. Andreas Pinkwart in Düsseldorf fiel am 8. Januar 2020 der Startschuss für das Projekt „SmartGM“. In dem Vorhaben arbeiten im „Software Innovation Campus Paderborn“ das „SI-Lab“ der Universität Paderborn und die Unternehmen aXon, myconsult, UNITY sowie WP Kemper gemeinsam an einem Assistenzsystem, das seinen Nutzern passende innovative Geschäftsmodellideen vorschlägt. Grundlage dafür sind zum einen eine umfangreiche Wissensbasis zu Geschäftsmodellen, zum anderen eine Künstliche Intelligenz. Die KI-Algorithmen sollen aus der großen Zahl möglicher Kombinationen zielgerichtet neue Ideen erzeugen. Anschließend werden diese auf einer öffentlichen Crowd-Plattform oder von Kund*innen und Expert*innen bewertet. Mit steigender Zahl an Bewertungen wird langfristig auch die Qualität neuer Geschäftsmodellvorschläge des Assistenzsystems erhöht. Das Projekt mit seinem Gesamtvolumen von circa 2 Millionen Euro wird vom Land Nordrhein-Westfalen und der EU mit bis zu 1,4 Millionen Euro gefördert.

„Es reicht heutzutage nicht mehr aus, tolle Produkte oder Dienstleistungen anzubieten. Insbesondere kleine und mittlere Unternehmen tun sich häufig schwer, für ihre Leistungsangebote innovative Geschäftsmodelle zielgerichtet und systematisch zu entwickeln. Die Qualität eines Geschäftsmodells hat jedoch einen maßgeblichen Einfluss auf den späteren Markterfolg des Leistungsangebots“, erklärt Dr. Stephan Kassanke, Geschäftsführer myconsult. „Genau hier setzt das Projektvorhaben an: So soll ein intelligentes Assistenzsystem entwickelt werden, welches dem Nutzer Vorschläge für Geschäftsmodellinnovationen unterbreitet“, erläutert Dr. Christoph Weskamp, Projektleiter und R&D Manager im SICP.

„Im Projekt werden erstmals Kompetenzen und Methoden aus den Bereichen Geschäftsmodellinnovationen, Technikakzeptanz, maschinellem Lernen, (crowd-basierter) Bewertung von Ideenqualität sowie computergestützter Ideengenerierung für die Entwicklung von Geschäftsmodellinnovationen miteinander vereint“, hebt Prof. Dr. Dennis Kundisch, Direktor des Kompetenzbereichs Digital Business im SICP und Inhaber des Lehrstuhls für Wirtschaftsinformatik, insb. Digitale Märkte, hervor. „Damit leiten wir die nächste Generation von Geschäftsmodellinnovationsmethoden ein: von passiver Unterstützung zu aktiver Assistenz“, ergänzt Christoph Plass, Vorstand UNITY. „Gründern und kleinen Unternehmen wird es so erleichtert, innovative Geschäftsmodelle zu entwickeln.“ Auf der Seite des „SI-Labs“ beteiligten sich darüber hinaus Prof. Dr. Nancy Wünderlich und ihr Team vom Lehrstuhl für Dienstleistungsmanagement sowie Prof. Dr. Eyke Hüllermeier und sein Team von der Fachgruppe „Intelligente Systeme und Maschinelles Lernen“. Sie brachten ihre Expertise zur Technikakzeptanz des Assistenzsystems bzw. bei der Entwicklung von KI-Methoden zur Unterstützung der Geschäftsmodellinnovationen in das Projekt ein. Ist es erst entwickelt, soll das Assistenzsystem im Projekt regelmäßig evaluiert werden. Dafür sind entsprechende Fallstudien bei den am Projekt beteiligten Unternehmen geplant. „Im Zuge von Industrie 4.0 gewinnen Smart Services, wie bspw. Predictive Maintenance, zunehmend an Bedeutung. Hier stellt sich die Frage, welche Geschäftsmodelle für solche Produkt- und Dienstleistungsbündel in Zukunft tragfähig sein werden“, so Dr. Michael Euler, Geschäftsführer WP Kemper. „Heutige Unternehmenssoftware wird als Cloud Solution mit tagesgenauer Abrechnung ausgeliefert und Kunden erwarten Software im Container-Design, die Multi-Cloud-fähig ist. Die Sicherstellung von Compliance-Richtlinien, das Trainieren von KI oder die Überwachung von automatisierten KI-Entscheidungen lassen völlig neue Geschäftsfelder für Managed Services entstehen, deren zukünftige Gestaltung noch viele ungeklärte Fragen wirft“, ergänzt Adelhard Türling, Geschäftsführer aXon. Darüber hinaus ist geplant, dass im Projektverlauf auch weitere Unternehmen das Assistenzsystem im Rahmen von Innovations-Workshops erproben können und somit ihre Innovationskraft verbessern können.

Weitere Informationen: www.sicp.de/projekte/smart-gm

Über den SICP

Der „SICP – Software Innovation Campus Paderborn“ an der Universität Paderborn ist ein interdisziplinärer Forschungs- und Innovationsverbund, in dem Unternehmen und Wissenschaft digitale Innovationen gemeinsam erforschen und umsetzen. Dabei werden Lösungen für völlig neuartige Herausforderungen in unserer digitalen Gesellschaft entwickelt, aber auch anwendungsnahe Konzepte und Systeme effizient, sicher und skalierbar umgesetzt. Mit dem Neubau der „Zukunftsmeile 2“ an der Fürstenallee wird ein gemeinsamer Forschungscampus realisiert, auf dem digitale Innovationen durch eine enge Vernetzung von Wissenschaft und Unternehmen besonders effektiv und agil entwickelt werden. Die enge Zusammenarbeit zwischen Wirtschaft und Wissenschaft versteht der SICP als wesentlichen Erfolgsfaktor bei der Überführung von Forschungsergebnissen in marktfähige Innovationen. In den fünf Kompetenzbereichen „Cyber-Physical Systems“, „Digital Business“, „Digital Security“, „Smart Systems“ und „Software Engineering“ werden am SICP fachgebietsübergreifend neue Konzepte, Methoden und Technologien u.a. für verteilte und intelligente Systeme, sichere drahtlose Kommunikation, agile und menschenzentrierte Entwicklung sozio-technischer Systeme, digitale Geschäftsmodelle, datengetriebene Entscheidungen und intelligentes Kundenmanagement entwickelt. Dabei werden digitale Innovationen immer als eine enge Verzahnung von Organisation und IT betrachtet.

zurück zur Übersicht

SFB 901 "On-The-Fly Computing"

Seit über 50 Jahren fördert die Deutsche Forschungsgemeinschaft (DFG) langfristige Projekte in Form von Sonderforschungsbereichen (SFB). In diesen Programmen betreiben Wissenschaftler*innen fächer- und hochschulübergreifend Grundlagenforschung, die für die antragstellenden Hochschulen schwerpunkt- und strukturbildend ist. An der Universität Paderborn werden aktuell vier Sonderforschungsbereiche geleitet. Welche Ziele die Wissenschaftler*innen darin verfolgen, wird in dieser Themenreihe vorgestellt.

Paderborner Forscher*innen möchten die Entwicklung und Bereitstellung komplexer IT-Dienste vereinfachen und automatisieren

Die Entwicklung und Bereitstellung von IT-Anwendungen sind in der heutigen Zeit hochkomplexe Vorgänge. Trotz vorgefertigter Komponenten können selbst ambitionierte IT-Experten an den verschiedenen Herausforderungen scheitern. An der Universität Paderborn verfolgen Forscher*innen seit 2011 innerhalb des Sonderforschungsbereichs 901 die Vision des sogenannten „On-The-Fly Computing“ (OTF-Computing). Im Idealfall sollen so selbst Nutzer*innen, die keine speziellen IT-Fachkenntnisse haben, in die Lage versetzt werden, einen passgenauen IT-Dienst zu erstellen.
Wer eine IT-Anwendung entwickeln und einsetzen möchte, benötigt dafür verschiedene Zutaten. Neben der Auswahl des Programmiergerüsts und geeigneter Bibliotheken muss unter Umständen weitere Software produziert werden. IT-Entwickler müssen des Weiteren bedenken, dass sich Anforderungen unterscheiden können, je nachdem, ob der Dienst auf einem Smartphone, im Webbrowser oder vielleicht sogar in einem speziellen Rechenzentrum ausgeführt werden soll. Daraus ergibt sich eine Vielzahl an unterschiedlichen Herausforderungen, für die heute Spezialisten zuständig sind. In Zukunft müsse dieser Bereich allerdings viel stärker automatisiert werden, meint Prof. Dr. Friedhelm Meyer auf der Heide, Sprecher des Sonderforschungsbereichs: „Wir sehen uns am Beginn eines neuen Abschnitts in der Entwicklung und Ausführung von IT-Dienstleistungen. Schon jetzt sind Ansätze absehbar, die vom 40 Jahre alten Prinzip abkehren. So wurde Software bisher zum Beispiel durch Einkauf von teuren und recht unflexiblen Standardlösungen beschafft. Unsere Vision ist es, komplexe IT-Dienste durch weitgehend automatisierte Konfiguration und Ausführung bereitzustellen, die trotzdem individuell auf die Bedürfnisse der Nutzer eingehen.“

Spontan, flexibel und benutzerfreundlich
Auf diese speziellen Bedürfnisse reagiert die „On-The-Fly“-Methode, die IT-Nutzern sinngemäß „im Vorbeigehen“ bzw. „spontan“ flexibel kombinierbare Dienste ermöglicht. Der entscheidende Vorteil: Angefragte IT-Dienste werden aus bereits vorhandenen Diensten, die von Softwareanbietern auf entsprechenden Märkten angeboten werden, zeitnah konfiguriert. Auch die Ausführung dieser IT-Dienste kann laut Meyer auf der Heide nahezu automatisiert in einem Rechenzentrum erfolgen, das das nötige Know-how sowie die technischen Voraussetzungen mitbringt, um die zusammengestellten Dienste effizient ausführen zu können. „Um das On-The-Fly Computing für die Nutzer und Anbieter attraktiv zu machen, müssen wir aber auch Methoden zur benutzerfreundlichen Beschreibung der angeforderten IT-Dienste entwickeln. Eine weitere Herausforderung liegt darin, die Service-Qualität sicherzustellen und die sichere Interaktion der Teilnehmer in sich dynamisch verändernden Märkten zu unterstützen“, betont der Paderborner Wissenschaftler.

Interdisziplinäre Forschung als Innovationsmotor
Die Arbeit in den vier Projektbereichen des SFB 901, dessen Förderung von der Deutschen Forschungsgemeinschaft (DFG) im Vorjahr mit rund 10 Millionen Euro bis 2023 verlängert wurde, und der somit die maximale Förderungsdauer erreichen wird, erfordert die Kooperation verschiedener Disziplinen aus den Fächern Informatik und Wirtschaftswissenschaften.
Für die Entwicklung einer Demonstrationsanwendung für das OTF-Computing beschäftigen sich diverse beteiligte Informatiker u. a. mit dem Einsatz von Maschinellem Lernen. Hierbei geht es um mathematische Modelle und Algorithmen, die ein Computersystem erst zum Lernen befähigen. Wirtschaftswissenschaftliche Fragestellungen fokussieren sich u. a. auf die Eigendynamik eines On-The-Fly-Marktes, also etwa auf Akzeptanz- und Erfolgsfaktoren von solchen Märkten. Der Lehrstuhl für Digitale Kulturwissenschaften verfolgt hingegen das Ziel, IT-Nutzern leicht verständliche Erklärungen zu konfigurierten Diensten in natürlicher Sprache bereitzustellen. In einem weiteren Projektbereich arbeiten die Paderborner Wissenschaftler mit externen Partnern aus der Industrie zusammen, um so auf der einen Seite einen Wissenstransfer in die Industrie zu ermöglichen und auf der anderen Seite Ergebnisse aus der angewandten Forschung zurück in die Grundlagenforschung zu führen. Meyer auf der Heide: „Das breite Forschungsspektrum unseres Sonderforschungsbereichs gibt uns ein Alleinstellungsmerkmal, das in dieser Form in keinem anderen Verbundprojekt zu finden ist. Gerade die Integration einer Vielzahl von Disziplinen stellt eine der wichtigsten Innovationen des On-The-Fly Computing dar.“

zurück zur Übersicht

Datenkompetenz und Künstliche Intelligenz im Schulunterricht

Projekt der Universität Paderborn und der Telekom Stiftung entwickelt und erforscht didaktische Konzepte und Unterrichtsmaterialien zum Thema Data Science in der Schule.

Datengetriebene Anwendungen halten zunehmend Einzug in verschiedene Bereiche des alltäglichen Lebens. Grundlegend dafür ist die Verfügbarkeit großer Datenmengen (Big Data) sowie das Verständnis ihrer unterschiedlichen Anwendungs- und Auswertungsmethoden. Neben der manuellen Verarbeitung kommt insbesondere den Verfahren des maschinellen Lernens, sogenannten selbstlernenden Algorithmen, dabei eine besondere Bedeutung zu. Gerade für Schüler*innen ist es wichtig, sich entsprechende Fertigkeiten anzueignen, um mit den Entwicklungen im späteren Berufsleben Schritt halten zu können. Der Einsatz von Big Data und Data Science in der Schule ist deshalb Thema eines Projekts an der Universität Paderborn, das von der Deutschen Telekom Stiftung initiiert wurde und jetzt in die zweite Phase geht. Ziel der ersten Phase von „ProDaBi“ war die Entwicklung und Erprobung eines Data Science-Curriculums für die Sekundarstufe II. In der zweiten Phase wurden diese Materialien nun weiterentwickelt und Einheiten für die Sekundarstufe I erarbeitet. „Das Vorhaben zielt auf eine frühe Aneignung von Datenkompetenzen und deren konkrete Anwendung in der Praxis ab. Wir entwickeln Unterrichtskonzepte und -materialien, die kritisch von unseren Kooperationspartnern – den Schulen – begleitet und erprobt werden“, erklärte Prof. Dr. Rolf Biehler von der Didaktik der Mathematik, der das Projekt zusammen mit seinem Kollegen Prof. Dr. Carsten Schulte von der Didaktik der Informatik leitet. „Um die eigene Lebenswelt gestalten zu können, ist das Verständnis von Chancen und Risiken von Algorithmen, Künstlicher Intelligenz und großen Datenmengen von essenzieller Bedeutung. Deshalb ist es wichtig, dass Schülerinnen und Schüler in Unterrichtseinheiten genau diese Kompetenzen erwerben“, ergänzte Schulte.

Datenkompetenz durch Hands-On-Projekte

Bei den im Projekt erarbeiteten Materialien geht es u. a. um Datenkompetenz und stochastische Grundlagen in kleineren Hands-On-Projekten. „Die Schüler schlüpfen in die Rollen von Datendetektiven“, erklärte Biehler. Darüber hinaus werden auch Materialien entwickelt, um Konzepte wie maschinelles Lernen und Künstliche Intelligenz im Unterricht der Sekundarstufe I und II angemessen behandeln zu können. Vertiefende Data-Science-Projekte für die Sekundarstufe II mit externen Partnern aus Wirtschaft und Verwaltung helfen dabei, Künstliche Intelligenz und maschinelles Lernen anhand gezielter Aufgaben praktisch und unter realen Bedingungen anzuwenden. Der Einsatz und die Entwicklung der Unterrichtsmaterialien werden wissenschaftlich begleitet und evaluiert.

Paderborner Modell: Von der Theorie in die Praxis

Die Aktivitäten wurden mit Projektkursen des Paderborner Reismann Gymnasiums und des Theodorianums durchgeführt. Biehler erläuterte den anwendungsorientierten Anspruch der Materialien: „Der Praxisanteil unserer Unterrichtskonzepte ist enorm hoch. Auf diese Weise lässt sich das Gelernte besser verinnerlichen. Ein Beispiel: Schüler haben bei einem Projekt ein Modell für ein Vorhersagesystem entwickelt, das die Anzahl freier Parkplätze zu einem zukünftigen Zeitpunkt am Liboriberg hier in Paderborn sowie in der Tiefgarage am Königsplatz berechnet. Dabei griffen sie u. a. auf Daten des Verkehrsleitsystems der letzten 12 Jahre zurück, die in Uhrzeiten, Wochentage und Monate gegliedert waren. Mithilfe von künstlichen neuronalen Netzen wurden die Daten ausgewertet und führten zu einer Vorhersagegenauigkeit für freie Parkflächen von mindestens 80 Prozent. Der letzte Schritt bestand darin, eine benutzerfreundliche Webseite zu erstellen, die freie Parkplätze für die jeweils zukünftigen 48 Stunden anzeigt.“ Bis zum Projektende 2022 sollen noch weitere Kooperationspartner dazukommen.

Website des Projekts: www.prodabi.de

zurück zur Übersicht

Arbeiten am Superrechner der Zukunft

Informatiker erforscht Entwicklung von Quantencomputern

Sie könnten unsere herkömmlichen PCs alt aussehen lassen und sollen Probleme lösen, an denen selbst die besten Superrechner bislang scheitern: Quantencomputer. Große Tec-Unternehmen wie Google, IBM und Microsoft liefern sich aktuell einen Wettkampf um die Entwicklung der Megarechner. Doch Quantencomputer sind schwer zu bauen und zu programmieren. Jun.-Prof. Dr. Sevag Gharibian, Quanteninformatiker an der Universität Paderborn, möchte mit einem neuen Forschungsprojekt einen Beitrag zum besseren Verständnis der neuen Superrechner leisten und untersuchen, wie sich mithilfe von Quantensystemen die physikalischen Eigenschaften und Prozesse der Natur berechnen lassen. Sein von der Deutschen Forschungsgemeinschaft (DFG) mit 273.800 Euro gefördertes dreijähriges Projekt startete Anfang des Jahres.

Forschung in der Welt des Allerkleinsten
„In der Quanteninformatik arbeiten wir daran, die nächste Computergeneration zu bauen. Heutige Rechner basieren auf der klassischen Mechanik und rechnen mit Bits. Quantencomputer dagegen funktionieren auf Basis der Quantenmechanik und rechnen mit Quanten-Bits, meist Qubits genannt“, erklärte Sevag Gharibian. Während die klassische Mechanik mathematisch beschreibt, wie groß oder makroskopisch sich Objekte verhalten, widmet sich die Quantenmechanik der Welt des Allerkleinsten: Sie untersucht die mathematischen Gesetze, die bestimmen, wie klein oder subatomisch Objekte wie Photonen, also winzige Lichtteilchen, agieren
„Durch die Gesetze der Quantenmechanik wissen wir heute, dass sich subatomische Objekte wie Photonen oder Elektronen komplett anders verhalten als ihre Gegenstücke in der klassischen Mechanik. Nehmen wir ein klassisches Objekt, etwa einen Tennisball in Bewegung: Er kann nur an einem Ort sein und einen Zustand annehmen. Kleine Objekte wie Elektronen dagegen können gleichzeitig an verschiedenen Orten und in verschiedenen Zuständen existieren“ führte Gharibian aus.
Für die Welt der Computer bedeutet das: Im Chip eines normalen PCs wird ein Bit durch einen Prozessor, ein klassisches Objekt, modelliert. Durch den Prozessor fließt entweder Strom oder nicht. Bei „Strom an“ nimmt das Bit den Zustand 1 an, bei „Strom aus“ den Zustand 0. Im Quantencomputer dagegen ist der Prozessor durch beispielsweise ein Elektron, ein subatomisches Objekt, ersetzt. Das Bit wird dann durch das Elektron modelliert, Teil des Elektrons und zum Qubit. Das Qubit kann wie das Bit den Zustand 1 oder 0 annehmen – aber auch gleichzeitig im Zustand 1 und 0 sein sowie in theoretisch unendlich vielen Zuständen dazwischen.

Quantencomputer könnten wesentlich schneller rechnen als bisherige Computer
Genau diese auf den ersten Blick schwer greifbare Fähigkeit der Qubits macht Quantencomputer schneller und leistungsfähiger als bisherige Rechner: Für die gleiche Berechnung benötigen sie wesentlich weniger Zeit. „In einem aktuellen Computer können zwei Bits immer nur eine Zahl auf einmal darstellen – in einem Quantencomputer dagegen kann bereits ein Qubit unendlich viele verschiedene Zustände annehmen und das gleichzeitig“, beschreibt Gharibian.
„Quantencomputer nutzen außerdem das quantenphysikalische Phänomen der Verschränkung“, erzählt der Informatiker. So können Qubits quantenverschränkt, also miteinander verknüpft sein. Wird ein Qubit in einen bestimmten Zustand gebracht, ändert sich auch der Zustand der anderen mit ihm verbundenen Qubits. Das geschieht mit Überlichtgeschwindigkeit. Wenn mehrere Qubits miteinander quantenverschränkt sind, kann auch der Quantencomputer mit Überlichtgeschwindigkeit und damit deutlich schneller als aktuelle Computer rechnen.

Big Data, Medizin oder Datenschutz: Quantencomputer als vielfältige Helfer
Die Quantencomputer könnten künftig im Bereich Big Data eingesetzt werden, über Verschlüsselungsmechanismen für mehr Datensicherheit sorgen, aber auch helfen, physikalische Prozesse zu simulieren, die in der Natur vorkommen. Gharibian: „Quantencomputer sind derzeit zum Einen für die Verarbeitung großer Datenmengen und im Bereich der Kryptographie, der Wissenschaft der Verschlüsselung von Informationen, interessant – beispielsweise mit dem sogenannten Shor-Algorithmus, der Mittel der Quanteninformatik nutzt. Zum Anderen könnten uns Quantencomputer dabei unterstützen, die Eigenschaften der Materie besser zu verstehen. Dadurch ließen sich etwa neue Medikamente entwickeln und neuartige Nanomaterialien designen.“
Bislang ist allerdings Vieles Zukunftsmusik, denn die Entwicklung der Quantencomputer steckt noch in den Kinderschuhen. „Die Forschung zu Quantencomputern setzte intensiv Mitte der 1990er Jahre ein – mit Peter Shors Quantenfaktor-Algorithmus, der Schwachstellen bei der Verschlüsselung von Daten offenbarte. Bisher haben Tec-Firmen wie Google und Spezialunternehmen wie IonQ erste Quantencomputer mit unterschiedlichen Technologien und Leistungen von 50 bis 100 Qubits entwickelt“, so Gharibian.

Grundlagenforschung im „Quantum Computing Lab“
Was die Entwicklung von Quantencomputern so kompliziert macht: Da sie nach anderen Gesetzen funktionieren als bisherige Rechner, braucht es neue Programmiermethoden. Und: Sie müssen aufwändig auf extrem niedrige Temperaturen heruntergekühlt werden. Hier kommt Sevag Gharibians Forschungsprojekt ins Spiel: „In unserem Projekt wollen wir Algorithmen und mathematische Beweise für Computerprobleme entwickeln, die bei mit Tiefsttemperaturen arbeitenden Quantensystemen auftreten“, erläutert der Wissenschaftler. Ein zentrales Problem bei der Entwicklung von Quantencomputern sei es beispielsweise, die Energie eines Quantensystems, das auf den absoluten Nullpunkt heruntergekühlt ist, zu berechnen, so Gharibian. Bisherige Ansätze der sogenannten theoretischen Informatik seien hier nicht effizient genug.
Gharibian wendet daher in seinem „Quantum Computing Lab“ an der Universität Paderborn verschiedene Methoden der theoretischen Informatik und der Mathematik an: „Wir setzen etwa Techniken der Algorithmen- und der Komplexitätstheorie ein, zwei Teilgebieten der theoretischen Informatik, und aus der Mathematik vor allem lineare Algebra und algebraische Geometrie“, führt der Informatiker aus. Besonders interessant für ihn ist die sogenannte Hamiltonianische Komplexität: „Dieses Spezialgebiet der theoretischen Informatik hilft uns zu verstehen, wie sich Quantensysteme verhalten, die mit Tiefsttemperaturen arbeiten."

Zur Quantenüberlegenheit ist es wohl noch ein weiter Weg
Im Herbst 2019 sorgten Google-Forscher*innen mit einem Artikel in der Fachzeitschrift „Nature“ für Aufsehen. Sie behaupteten, mit Googles Quantenprozessor „Sycamore“ erstmals die sogenannte Quantenüberlegenheit demonstriert zu haben. Bei der Quantenüberlegenheit ist ein Quantencomputer in der Lage, ein komplexes Problem weitaus schneller zu lösen als derzeitige mit Bits rechnende Supercomputer. Laut Google soll „Sycamore“ für eine Berechnung rund 200 Sekunden gebraucht haben – IBMs „Summit“, der aktuell schnellste Superrechner der Welt, hätte dafür weitaus länger gebraucht. Sevag Gharibians Einschätzung: „Ob es Google wirklich gelungen ist, die Quantenüberlegenheit nachzuweisen, ist unklar. IBM behauptete, dass sein Superrechner mit etwas Optimierung fast die gleichen Resultate erzielen könne wie Googles Quantencomputer. Bislang hat IBM das aber nicht nachgewiesen. In jedem Fall sollten wir uns bewusstmachen: Klassische Computer wurden jahrzehntelang enorm weiterentwickelt. Auf absehbare Zeit werden sie Quantencomputer wahrscheinlich noch übertreffen.“ Quantencomputer werden bisherige Computer also so schnell nicht ersetzen. Wann und wie genau sie eines Tages eingesetzt werden, ist noch vollkommen offen. Sevag Gharibian möchte mit seiner Forschung dazu beitragen, dass wir die Superrechner der Zukunft besser verstehen können.
Weitere Informationen zur Forschung von Sevag Gharibian:
https://en.cs.uni-paderborn.de/de/qi

zurück zur Übersicht

Mobilität der Zukunft

Europaweites Forschungsprojekt entwickelt neuartige Sensorsysteme für das autonome Fahren und Fliegen

Roboterautos oder Flugtaxis für den Personen- und Gütertransport – effizient, energiesparend, unbemannt. Bei einem großangelegten Forschungsvorhaben werden neuartige Sensorsysteme entwickelt, die die Zukunftsvision vom autonomen Fahren und Fliegen bald Realität werden lassen sollen. Durch innovative Mikroelektrik könnte damit auch der Energieverbrauch – verglichen mit heutiger Technik – um etwa 90 Prozent reduziert werden. Das europaweite Vorhaben, bei dem 27 Partner aus Forschung und Industrie zusammenarbeiten, wird mit insgesamt rund 48 Millionen Euro gefördert, auf deutscher Seite u. a. vom Bundesministerium für Bildung und Forschung (BMBF). Die Universität Paderborn ist mit dem Fachgebiet Sensorik an dem Projekt beteiligt. Das aus 14 Organisationen bestehende deutsche Konsortium wird von der Robert Bosch GmbH geleitet.

FD-SOI-Technologie für schnellere Schaltung
Die Mobilität der Zukunft erfordert leistungsfähige Sensoren und Steuerungssysteme, sowohl für das autonome Fliegen als auch für das autonome Fahren. „OCEAN12“ ist der Titel des öffentlich geförderten Projekts, das dafür bis Ende 2021 praxistaugliche Technologien entwickeln soll. Die Abkürzung steht für „Opportunity to Carry European Autonomous driving further with FDSOI technology up to 12nm node“. Prof. Dr. Ulrich Hilleringmann, Leiter des Fachgebiets Sensorik an der Universität Paderborn, erklärt, was dahintersteckt: „Die sogenannte FD-SOI-Technologie (Fully-Depleted-Silicon-on-Insulator) ermöglicht die Herstellung eines besonderen Feldeffekttransistortyps, durch den Schaltzeiten deutlich kürzer und Leckströme reduziert werden. Auch die Energiebilanz der einzelnen Transistoren wird damit erheblich verbessert. Ein weiterer positiver Effekt ist mit der geringeren Empfindlichkeit gegenüber ionisierender Strahlung verbunden. So wird u. a. die Zuverlässigkeit der digitalen Speichereinheiten optimiert.“

Umgebungsdaten werden verarbeitet
An der Universität Paderborn entwickeln die Wissenschaftler*innen um Hilleringmann in Zusammenarbeit mit Dr. Christian Hedayat, Abteilungsleiter des Fraunhofer-Instituts für Elektronische Nanosysteme (ENAS), ein hocheffizientes Werkzeug für sogenannte Mixed-Signal Systeme, die sowohl analoge als auch digitale Signale verarbeiten. Dabei entsteht ein Tool, das rechnergestützte Entwürfe von elektronischen Systemen anfertigt und eine umfassende Charakterisierung der Schaltungen basierend auf der FD-SOI-Technologie erlaubt. „Mit der Modellierungs- und Simulationsmethode können innerhalb kürzester Zeit die wichtigsten Eigenschaften der Mixed-Signal-Kernschaltungen zur Frequenzsynthese oder Takt- und Datenwiederherstellung vollständig charakterisiert werden. Dadurch wird letztendlich ein robuster Systementwurf gewährleistet“, so Hilleringmann.

Maximale Energieeffizienz
FD-SOI-Technologie ist als Fertigungsansatz für Halbleiter der Schlüssel zur Energieeffizienz: Eine zusätzliche Isolationsschicht im Chip reduziert sogenannte Leckströme, also solche, die abseits der eigentlichen Leitung fließen. „Das führt zu einer deutlichen Senkung des Stromverbrauchs und gleichzeitig zu höheren Rechengeschwindigkeiten“, erklärt Hilleringmann. „Ziel des Projekts ist, dass neue Sensorsysteme für zukünftige Mobilitätskonzepte bis zu 90 Prozent weniger verbrauchen als heutige“, sagt Dr. Tilman Glökler von Bosch, Koordinator des deutschen OCEAN12-Konsortiums. Entsprechende Sensorsysteme sollen auf einem sogenannten SoC (System on Chip) integriert werden. Auf ein vergleichbares Verfahren setzen auch Einplatinencomputer, bei denen fast alle Funktionen eines programmierbaren Systems auf einem Chip implementiert werden. Das ermöglicht u. a. besonders kleine Sensorsysteme.
Bei dem Vorhaben arbeiten Experten aus den Bereichen Halbleitertechnik, Elektronik, Luftfahrt- und Automobiltechnik zusammen. Neben Bosch und der Universität Paderborn sind aus Deutschland die AED Engineering GmbH, die Airbus Defence and Space GmbH, die Audi AG, die Eberhard Karls Universität Tübingen, das Fraunhofer EMFT, das Fraunhofer IIS, das Fraunhofer IPMS, Globalfoundries, die Unity Semiconductor GmbH, die MunEDA GmbH, die Technische Universität Dresden und die Universität der Bundeswehr München an OCEAN 12 beteiligt. Das Gesamtvolumen liegt bei rund 103 Millionen Euro.
Website: www.elektronikforschung.de/projekte/ocean12

zurück zur Übersicht

„Green IT“: Effizienzsteigerung bei Rechensystemen

Forschungspreisträger der Universität Paderborn präsentieren Ergebnisse

IT-Systeme haben einen großen Anteil am weltweiten Stromverbrauch. Je exakter die Rechenergebnisse von Computern sein sollen, umso mehr Energie benötigen sie für ihre Leistung. Zwei Wissenschaftler der Universität Paderborn untersuchen in einem interdisziplinären Forschungsprojekt, wie die Energieeffizienz von Rechnersystemen gesteigert werden kann. Für ihr Vorhaben erhielten Prof. Dr. Christian Plessl, Leiter des „Paderborn Center for Parallel Computing“ (PC²), und Prof. Dr. Thomas Kühne, Lehrstuhlinhaber der Theoretischen Chemie, 2018 den Forschungspreis der Universität. Mit der Auszeichnung werden Wissenschaftler*innen geehrt, die mit visionären Ideen, kreativen Technologien oder innovativen Methoden Projekte abseits des Mainstreams entwickeln. Besonders außergewöhnliche Forschungsvorhaben sollen so eine Realisierungschance erhalten.
Am Mittwoch, 5. Februar 2020, präsentierten die beiden Wissenschaftler nun die Ergebnisse ihrer Forschungsarbeit „Green IT: Exakte Berechnungen mit ungenauen, aber energieeffizienten Computern“. Plessl erläuterte die Relevanz des Themas: „IT durchdringt unser gesamtes Leben. Ob Shopping, Partnersuche oder Reiseplanung – alles passiert online“. Die einzelnen Rechnungen, die dabei im Hintergrund laufen, werden von den Endgeräten in Rechenzentren verlagert. Weltweit gibt es immer mehr solcher Zentren, in denen jeweils tausende Server stehen, die sehr viel Energie benötigen. „Die Frankfurter Rechenzentren verbrauchen inzwischen genau so viel Strom wie der Frankfurter Flughafen“, erklärte der Informatiker. Aus ökologischer und ökonomischer Sicht bestehe deshalb ein großes Interesse daran, die Energieeffizienz von Rechnersystemen zu steigern.

Energie sparen mit ungenau rechnenden Computern
Plessl und Kühne entwickelten deshalb eine neue Rechenmethode, die auf das Konzept des „Approximate Computing” zurückgeht. Demnach können aus ungenauen Berechnungen exakte Resultate abgeleitet werden. Da IT-Systeme für solche Rechenwege weniger Energie benötigen, könne so schlussendlich ihr Energieverbrauch reduziert werden, erklären die Paderborner Wissenschaftler. Durch das Zusammenspiel von Informatik und Naturwissenschaften waren Plessl und Kühne in der Lage, die neuartige und fehlertolerante Berechnungsmethode am Computer zu simulieren.
„Mit unserer Forschung konnten wir einen erfolgreichen Machbarkeitsnachweis für die Nützlichkeit von ‚Approximate Computing‘ für das wissenschaftliche Rechnen nachweisen“, sagte Kühne. Die Möglichkeit, mithilfe ungenau rechnender Computer Energie zu sparen, könne laut Kühne auch direkte Auswirkungen auf Paderborn haben: „Die Integration dieses Konzepts würde die in den Departments Chemie, Physik und Informatik verarbeiteten Datenmengen nicht nur erhöhen, sondern gleichzeitig den Energieverbrauch im Rechenzentrum PC² der Universität reduzieren.“

zurück zur Übersicht

Paderborner Forscher*innen optimieren Nutzung von Produktdaten

Forschungspreisträger der Universität Paderborn präsentieren Ergebnisse

Industrie 4.0 ist in aller Munde. Unsere Welt wird zunehmend digitaler, mehr und mehr Daten stehen zur Verfügung. Diese gilt es intelligent zu nutzen – auch in der strategischen Produktplanung. Der Frage „Wie?“ gehen Forscher*innen des Heinz Nixdorf Instituts der Universität Paderborn in dem Projekt DizRuPt (Datengestützte Retrofit- und Generationenplanung im Maschinen- und Anlagenbau) nach. Mit Partnern aus der Industrie entwickeln die Wissenschaftler*innen ein neuartiges Vorgehen zur strategischen Produktplanung: Daten über die Nutzung der Produkte sollen Unternehmen dabei helfen, heutige und zukünftige Produkte zu verbessern. Das Forschungs- und Entwicklungsprojekt wird vom Bundesministerium für Bildung und Forschung (BMBF) im Programm „Innovationen für die Produktion, Dienstleistung und Arbeit von morgen“ mit insgesamt 2,3 Millionen Euro für drei Jahre gefördert und vom Projektträger Karlsruhe (PTKA) betreut. „Im Zeitalter der Daten bietet sich Unternehmen die große Chance, ein viel tieferes Verständnis über die eigenen Produkte und deren Nutzung aufzubauen. In DizRuPt arbeiten wir an der Fragestellung, wie Unternehmen ihre Produkte mit Hilfe der Daten systematisch verbessern können, um auch in Zukunft erfolgreich zu sein“, erklärt Maurice Meyer, Wissenschaftler im Bereich „Advanced Systems Engineering“ am Heinz Nixdorf Institut. Durch einen intensiven Austausch mit vier Industrieunternehmen werden aus der Analyse von Daten neue Features und Funktionen abgeleitet. Zu den Partnern zählen Diebold Nixdorf, Weidmüller, Lasco Umformtechnik und Westaflex. Bei Westaflex betrachten die Forscher*innen beispielsweise Lüftungssysteme, bei Diebold Nixdorf Geldautomaten.

Das Forschungsprojekt ist in fünf Teile gegliedert. Zunächst stellen die Forscher*innen Vermutungen über Verbesserungspotentiale auf. Diese werden im zweiten Schritt mit Datenanalyseverfahren untersucht. Anschließend können die Ergebnisse für die strategische Generationen- und Retrofitplanung genutzt werden. Retrofitting beschreibt die Nachrüstung von Funktionen und Features, um beispielsweise die Leistung oder die Produktivität einer Maschine zu steigern. Am Ende geht es um die praktische Umsetzung: Die Wissenschaftler*innen unterstützen die Firmen dabei, Abläufe zur Nutzung der Daten zu gestalten.

Institutionen und Unternehmen außerhalb des Projekts können ebenfalls von den Ergebnissen profitieren. Ein sogenannter Begleitkreis bietet allen Interessierten die kostenfreie Möglichkeit, Einblicke in das Projekt zu gewinnen und die Fortschritte zu verfolgen.
Weitere Informationen unter: www.dizrupt.de

zurück zur Übersicht

„Der Gesetzgeber sollte Kryptowährungen flächendeckend verbieten“

Prof. Dr. Eric Bodden zum Thema  IT-Sicherheit

Immer wieder werden Bürger*innen und große Einrichtungen zum Ziel von Cyber-Kriminellen – so etwa Ende 2019 medienwirksam die Universität Gießen. Welche Schwachstellen werden hier genutzt und wie arbeitet Schadsoftware? Wodurch lassen sich die eigenen Systeme schützen? IT-Sicherheitsexperte Prof. Dr. Eric Bodden gibt Einblicke und Tipps, sagt, welche Maßnahmen er von der Politik erwartet, und erklärt, welchen Beitrag seine Forschung und der Paderborner „Tag der IT-Sicherheit“ leisten wollen.

Herr Bodden, Ende letzten Jahres wurde die Justus-Liebig-Universität Giessen Ziel eines Angriffs von Cyber-Kriminellen. Um Schlimmeres zu verhindern, wurden alle Uni-Server heruntergefahren und die Hochschule war zeitweise komplett offline. So ließ sich vermeiden, dass die eingesetzten Schadprogramme „Emotet“ und „Ryuk“ ihre Wirkung entfalten und massenhaft Daten verschlüsseln konnten. In anderen Fällen waren Cyber-Angriffe bereits erfolgreich. Welche IT-Schwachstellen nutzen Kriminelle bei großen Einrichtungen derzeit?
Eric Bodden: Moderne Malware wird oft arbeitsteilig entwickelt und kommt als Baukasten daher. Es gibt dann viele Varianten, die verschiedenste Schwachstellen in unterschiedlichen Softwaresystemen ausnutzen. Die wohl bekannteste Schwachstelle, die Emotet ausnutzte, lag in Microsofts Implementierung des SMB-Protokolls. Der Server Message Block ist ein Netzprotokoll für beispielsweise Dateidienste in Rechnernetzen und erlaubt den Zugriff auf Dateien und Verzeichnisse, die sich auf einem anderen Computer befinden. Durch das SMB-Protokoll ließen sich viele Windows-Systeme ausnutzen. Die Schwachstelle wurde durch den vom US-Auslandsgeheimdienst NSA entwickelten Exploit „EternalBlue“ bekannt. Der Exploit wurde der NSA gestohlen und 2017 publik gemacht. Zu diesem Zeitpunkt stand von Microsoft bereits ein Patch bereit, wurde aber offenbar auf einer großen Anzahl von Systemen nicht zeitnah eingespielt. So hatte Emotet dann leichtes Spiel.

Architektur einer Cyber-Attacke: Wie arbeitet Schadsoftware wie „Emotet“ und „Ryuk“?
Eric Bodden: Aktuelle Schadsoftware ist relativ perfide. So liest Emotet beispielsweise auf infizierten Rechnern E-Mail-Postfächer aus, um dann den darin enthaltenen Kontakten zielgerichtete Mails zu schicken, die aussehen, als kämen sie direkt von der Person, der der infizierte Account gehört. Diese Phishing-Mails enthalten dann z. B. Auszüge aus real versandten E-Mails. Das Ziel dieser Mails ist immer, die Empfänger dazu zu verleiten, auf bestimmte Anhänge oder Links zu klicken. Hierdurch wird die Schadsoftware dann auch beim Empfänger aktiv. Neuere Versionen von Schadsoftware nutzen gleich eine ganze Reihe von Verbreitungsvektoren und versuchen beispielsweise, Schwachstellen direkt über eine WLAN-Verbindung auszunutzen. Da genügt es dann schon, mit einem ungepatchten Rechner im falschen Netzwerk zu sein, um infiziert zu werden

Ob Universität, Industrieanlage oder Verkehrsleitsystem: Durch welche technischen und organisatorischen Maßnahmen lassen sich softwaregesteuerte und vernetzte Systeme derzeit am effektivsten vor Cyber-Angriffen schützen?
Eric Bodden: Wie oben beschrieben ist eine wichtige Schwachstelle leider der Faktor Mensch. Eine erste wichtige Maßnahme ist daher aktuell, die Beschäftigten so zu sensibilisieren, dass sie Phishing-Mails besser erkennen. Mit aktueller Schadsoftware gerät man hierbei jedoch an seine Grenzen, da man die E-Mails eben nicht mehr sofort als Fälschungen erkennt. Ein weiterer wichtiger Punkt ist daher das schnelle und möglichst automatisierte Einspielen von Sicherheitsupdates. Hierzu gibt es mittlerweile ausgefeilte Systeme, mit denen auch tausende Rechner gleichzeitig administriert werden können. Oftmals besteht aber das Problem, dass bestimmte Sicherheitsupdates nur mit sogenannten Feature-Updates zu haben sind – und diese sind unter Umständen ungewollt, da sie eine Umstellung der gewohnten Arbeitsabfolgen nach sich ziehen. Hier sind daher auch die Softwarehersteller gefragt, solche Updates besser voneinander zu entkoppeln. Aktuelle Ransomware verschlüsselt regelmäßig die Daten auf den infizierten Systemen und verlangt dann Lösegeld – üblicherweise in Form von Bitcoins. Man kann solche Systeme eigentlich kostenlos wiederherstellen, wenn aktuelle Backups existieren. Eine systematische Backuplösung gehört nicht nur aus diesem Grund heute in jede Unternehmens-IT. Um das Geschäftsmodell der Ransomware-Entwickler zu unterbinden, ist aber auch die Politik gefragt: Es ist heutzutage offensichtlich, dass Kryptowährungen wie Bitcoin in erster Linie der organisierten Kriminalität dienen. Der Nutzen für Privatleute und Unternehmen ist hingegen verschwindend gering. Daher sollte der Gesetzgeber meiner Meinung nach ein flächendeckendes Verbot für solche Technologien aussprechen.

Was ist zu tun, wenn es dennoch zum Cyber-Angriff kommt?
Eric Bodden: In Fällen wie dem an der Universität Gießen zeigte sich, dass noch Schlimmeres verhindert werden konnte, indem viele Rechner relativ frühzeitig nach den ersten erkannten Angriffen heruntergefahren wurden. Damit wird die Infektion zumindest eingedämmt. Die potenziell infizierten Festplatten der Systeme können dann „offline“ bereinigt werden, also ohne sie aktivieren zu müssen. Hierzu sollten unbedingt Expertenteams hinzugezogen werden. Glücklicherweise gibt es mittlerweile auch in Deutschland einige Unternehmen, die auf diese sogenannte Forensik spezialisiert sind.

In der von Ihnen geleiteten Fachgruppe „Softwaretechnik“ am Heinz Nixdorf Institut der Uni Paderborn und im Kompetenzbereich „Digital Security“ des SICP - Software Innovation Campus Paderborn setzen Sie und Ihre Kollegen bereits am Anfang an: Bei der Entwicklung von Softwaresystemen. Welche Ziele verfolgen Sie mit Ihrer Forschung?
Eric Bodden: Schadsoftware hat heute vor allem deswegen so leichtes Spiel, weil in aktuellen Systemen unzählige Schwachstellen vorhanden sind. Sie entstehen beispielsweise durch falsche Annahmen bezüglich kryptografischer Protokolle oder der Sicherheitsarchitektur, vor allem aber durch Programmierfehler. Um diese Fehler systematisch zu vermeiden, benötigt man einen durchgeplanten Ansatz zum sogenannten Secure Software Engineering. Hierbei wird der sonst übliche Softwareentwicklungsprozess um eine Reihe von Security Touch-Points erweitert, an denen mittels systematischer Prozesse oder effektiver Werkzeuge die IT-Sicherheit entsprechend beachtet und erhöht wird.

Seit Ende 2019 fördert die EU Ihr Forschungsprojekt „Codeshield“. Was untersuchen Sie hier?
Eric Bodden: Das Ziel des Projekts ist die Gründung der CodeShield GmbH, einer Ausgründung der Universität Paderborn und des Fraunhofer-Instituts für Entwurfstechnik Mechatronik (IEM), der initial neben mir selbst drei ehemalige wissenschaftliche Mitarbeiter angehören werden. Die Einrichtung wird ein Softwarewerkzeug entwickeln und vertreiben, mit dem Unternehmen ihre Software-Lieferkette absichern können. Das ist auch zwingend notwendig, denn: Heutige Softwaresysteme bestehen nur zu circa 10 Prozent aus selbstgeschriebenem Programmcode. Rund 90 Prozent werden beispielsweise über das Einbinden von Open-Source-Bibliotheken realisiert. Aber diese Bibliotheken haben oft Schwachstellen – und die werden regelmäßig prominent bekannt und daher schnell ausgenutzt. Setzt mein System eine anfällige Bibliothek ein, kann diese das System direkt angreifbar machen – teilweise genügt es dafür schon, dass die Bibliothek einfach nur eingebunden wurde.
Die Lösung von CodeShield erlaubt es Unternehmen, nicht nur zu erkennen, ob sie verletzliche Komponenten einsetzen, sondern auch, ob diese so eingesetzt werden, dass die jeweilige Schwachstelle für das System relevant ist und daher ein Update eingespielt werden muss. Dies hilft Unternehmen, ihre Systeme besser zu sichern und signifikant Kosten zu sparen. Als erste Lösung am Markt wird Codeshield hierbei auch Schwachstellen in einem Library-Code erkennen, der neu kompiliert oder zusammengestellt wurde.

Was ist zu tun, wenn es dennoch zum Cyber-Angriff kommt?
Eric Bodden: In Fällen wie dem an der Universität Gießen zeigte sich, dass noch Schlimmeres verhindert werden konnte, indem viele Rechner relativ frühzeitig nach den ersten erkannten Angriffen heruntergefahren wurden. Damit wird die Infektion zumindest eingedämmt. Die potenziell infizierten Festplatten der Systeme können dann „offline“ bereinigt werden, also ohne sie aktivieren zu müssen. Hierzu sollten unbedingt Expertenteams hinzugezogen werden. Glücklicherweise gibt es mittlerweile auch in Deutschland einige Unternehmen, die auf diese sogenannte Forensik spezialisiert sind.

Quantencomputer und co.: Welche neuen IT-Techniken sind derzeit für Sicherheitslösungen besonders Erfolg versprechend?
Eric Bodden: Die praktische Anwendung von Quantencomputern scheint immer noch Jahrzehnte entfernt, wenn sie denn überhaupt einmal kosteneffektiv möglich werden sollte. Und selbst wenn es sie gäbe, würden diese Computer in Sachen IT-Sicherheit eventuell mehr Probleme verursachen als Lösungen aufzeigen, denn dann würden z. B. Verschlüsselungsalgorithmen wie RSA unbrauchbar, da Quantencomputer sie leicht brechen könnten.
Es gibt aber signifikante Fortschritte auf vielen Feldern der IT-Sicherheit. Im meinem eigenen Gebiet, der Softwaretechnik, wurden in den letzten Jahren großartige Fortschritte in Sachen Build- und Testautomatisierung erzielt. So befähigen wir heute schon Unternehmen, weitaus schneller wesentlich größere Softwaresysteme zu bauen – und zwar kontrolliert und unter Einhaltung von Best Practices in Bezug auf die IT-Sicherheit.
Fortschritte in der angewandten Kryptografie wiederum erlauben beispielsweise spannende neue Wege zu mehr Datensparsamkeit. Ein praktisches Beispiel ist etwa der elektronische Personalausweis: Mit diesem können Bürger einen Altersnachweis führen, ohne ihre Identität preisgeben zu müssen. Daten, die so eingespart werden, können auch nicht gestohlen werden – ein wichtiger Schritt zu mehr Security by Design.

Am 18. und 19. März richtet der SICP bereits zum 15. Mal den „Tag der IT-Sicherheit“ aus. Was erwartet Interessierte hier und was wollen sie mit dem Veranstaltungsformat erreichen?
Eric Bodden: Die Veranstaltung richtet sich primär an Security-Verantwortliche und Interessierte aus Unternehmen und Verbänden. Wir bieten auch dieses Jahr wieder einen spannenden Mix aus Vorträgen aus der angewandten Forschung und der Praxis – mit einem breiten Spektrum von technischen bis hin zu juristischen Themen. In Workshops werden einzelne Themen dann interaktiv weiter vertieft. Wir freuen uns auf Ihre Teilnahme!

zurück zur Übersicht

IT-Sicherheit ohne Hürden: Forschungsprojekt „KMU. Einfach Sicher.“ gestartet

Gerade kleine und mittelständische Unternehmen (KMU) in Deutschland haben Bedarf, ihre IT-Sicherheit zu verbessern. Der Markt an Produkten ist groß, viele Informationsquellen zu fachlich und Schulungen sind kostspielig. Gefragt sind daher wirkungsvolle und leicht bedienbare Weiterbildungsangebote. Genau an diesem Punkt setzt das Projekt „KMU. Einfach Sicher.“ an. Ende Februar ist dieses Projekt mit einer Kick-Off-Veranstaltung gestartet. Das Vorhaben wird vom Bundesministerium für Wirtschaft und Energie mit einer Million Euro gefördert. Die Projektlaufzeit endet im Juni 2022.
Das interdisziplinäre Projektteam setzt sich aus Wissenschaftler*innen des SICP – Software Innovation Campus der Universität Paderborn und Akteur*innen der Didaktik der Informatik, des Zentrums für Informations- und Medientechnologien (IMT) und der Medienpädagogik und empirischen Medienforschung, dem Technologienetzwerk InnoZent OWL e. V. und der coactum GmbH zusammen. Zu den assoziierten Transferpartnern zählen die Industrie- und Handelskammern Arnsberg und Ostwestfalen zu Bielefeld. Die Kick-Off Veranstaltung diente dazu, dem Bundesministerium für Wirtschaft und Energie sowie dem Projektträger, dem Deutschen Zentrum für Luft- und Raumfahrt, einen umfassenden Überblick über den aktuellen Projektstand und die anstehenden Arbeiten und Ziele des Projektes zu geben.

Mit geringem Aufwand zu besserer IT-Sicherheit
„In den Zeiten von Industrie 4.0 prägt die Informationstechnik zahlreiche betriebliche Prozesse, Tendenz steigend. Die Bedeutung von IT-Sicherheit wird daher immer wichtiger. Besonders kleine und mittelständische Unternehmen stehen hierbei vor besonderen Herausforderungen“, so Dr. Simon Oberthür, Projektleiter und Manager des Kompetenzbereichs Digital Security im SICP. Oft fehlt entsprechendes IT-Fachpersonal und damit einhergehendes innerbetriebliches Wissen. Gefragt sind daher kosteneffiziente und leicht bedienbare Lösungen im Bereich IT-Sicherheit wie unter anderem die WIK-Studie zur „Aktuellen Lage der IT-Sicherheit in KMU“ zeigt. „Ziel des Forschungsprojektes ist es, Verfahren und Maßnahmen zu entwickeln und zu integrieren, die es insbesondere kleinen und mittleren Unternehmen ermöglichen, mit geringem Aufwand ihre IT-Sicherheit signifikant zu verbessern“, erläutert Michael Kemkes, Geschäftsführer bei InnoZent OWL.

Weiterbildungsplattform fördert Nachhaltigkeit
Innerhalb des Vorhabens soll eine Weiterbildungsplattform für Unternehmen umgesetzt werden. Diese beinhaltet zum einen ein vereinfachtes Risikobewertungsverfahren, das unkompliziert und einfach den Bedarf und die Gefährdungsbereiche innerhalb der Unternehmen identifiziert. Zum anderen umfasst die Plattform individuelle und kostenfreie multimediale Bildungsangebote. Diese technische Umsetzung wird vom Projektpartner coactum GmbH übernommen. Das übergeordnete Ziel der Plattform ist, die IT-Sicherheit in KMUs nachhaltig zu verbessern. So sollen die Weiterbildungsangebote dazu dienen, Mitarbeiterinnen und Mitarbeitern die IT-Sicherheitsthemen spannend, arbeitsplatz relevant und nachhaltig näher zu bringen. „Das Projekt erforscht dabei die Fragestellungen: Kann ein überschaubares Wissen über den Aufbau und die Struktur von Computersystemen hinreichend sein, um diese kompetent und selbstbewusst bedienen zu können? Wie vermittelt man dieses Wissen, sodass einerseits eine gesunde Basis für ein selbstbestimmtes Nutzen von Computersystemen entsteht und andererseits auf Dauer eine nachhaltige Bedienkompetenz von Computersystemen etabliert werden kann“, erläutert Prof. Dr. Carsten Schulte, Professor der Didaktik der Informatik an der Universität Paderborn. „Am Beispiel der Themen rund um die IT-Sicherheit nutzen wir die Chancen des Projektes „KMU. Einfach Sicher.“, um diesen Fragen auf den Grund zu gehen“, so Schulte weiter.
Darüber hinaus wird durch das Forschungsprojekt eine wissenschaftliche Auseinandersetzung mit dem eLearning-Einsatz in der beruflichen Bildung im Themenfeld IT-Sicherheit ermöglicht. „Dabei wird aus Sicht der Medienforschung untersucht, wie die Weiterbildungsplattform so gestaltet werden kann, dass sie Medienkompetenzen mit dem Ziel einer nachhaltigen Sicherheitskultur innerhalb des Unternehmens erweitert“, so Prof. Dr. Dorothee Meister, Professorin für Medienpädagogik und empirische Medienforschung an der Universität Paderborn. „Wichtig ist es, mit Hilfe von attraktiven Weiterbildungsangeboten die Lernmotivation zu erhöhen und Möglichkeiten zu bieten, über das gesamte Berufsleben hinweg Angebote der Medienbildung gerne wahrzunehmen", ergänzt Meister. Das Erkenntnisinteresse hinsichtlich des didaktischen Konzepts und dessen multimediale Umsetzung steht folglich im Vordergrund des Projektes. Dabei werden immer wieder Bezüge zu weiteren Projekten aus der IT-Sicherheit in der Wirtschaft hergestellt und die KMUs stets miteinbezogen.

Die Projektergebnisse werden KMUs zukünftig über www.kmu-einfach-sicher.de kostenlos zur Verfügung gestellt.

zurück zur Übersicht

Software-Sicherheit selbst in die Hand nehmen: Neue Ausgründung vom Heinz Nixdorf Institut der Universität Paderborn und Fraunhofer IEM

Eine moderne Software besteht inzwischen zu über 90% aus Drittanbieter-Code, zumeist aus Open-Source. Das Unternehmen CodeShield unterstützt Softwarehersteller dabei, die externen Softwareentwicklungen auf Sicherheitsrisiken zu durchleuchten und sicher in die eigene Software einzubinden. CodeShield, ein Spin-off des Heinz Nixdorf Instituts der Universität Paderborn und des Fraunhofer IEM, wurde am 23. April gegründet.
Einen Großteil ihrer Software beziehen Unternehmen heute "Open Source": Sie verwenden den frei zugänglichen Quellcode einer gängigen Software und passen den Programmcode ihren eigenen Bedürfnissen an. Open-Source-Programme enthalten aber oft Schwachstellen, die sich Hacker schnell zunutze machen können. Mit dem Softwarewerkzeug CodeShield erkennen Unternehmen diese Schwachstellen und ermitteln wirksame Schutzmaßnahmen und Updates. „Codeshield ermöglicht es Unternehmen, weiterhin stets aktuelle Open-Source-Programme sicher einzusetzen. Es unterstützt sie dabei, bekannte und unbekannte Sicherheitslücken in Open-Source und Drittanbieter-Code aufzudecken und zu beheben“, erläutert Prof. Dr. Eric Bodden, der am Heinz Nixdorf Institut der Universität Paderborn und am Fraunhofer IEM in den Bereichen Softwaretechnik und IT-Sicherheit forscht und das Unternehmen CodeShield mit aufbaut. Die CodeShield GmbH ist eine Ausgründung des Heinz Nixdorf Instituts der Universität Paderborn und des Fraunhofer-Instituts für Entwurfstechnik Mechatronik IEM. Neben Prof. Dr. Eric Bodden gehören drei wissenschaftliche Mitarbeiter, Andreas Dann, Manuel Benz und Dr. Johannes Späth, zum Gründungsteam. „Nach unserer wissenschaftlichen Arbeit reizten uns neue Herausforderungen. Mit der Gründung von CodeShield bauen wir nicht nur unser eigenes Unternehmen auf. Wir haben auch die Möglichkeit, unsere Forschung ganz nah an der Praxis anzuwenden und zusammen mit der Industrie weiterzuentwickeln“, erklärt Andreas Dann, Geschäftsführer von CodeShield, die Motivation für die Gründung, die im Programm „START-UP transfer.NRW“ des Landes Nordrhein-Westfalen gefördert wurde. Besonders mit Softwareherstellern etwa aus den Bereichen Versicherungen, Finanzen und Verkehr arbeitet das junge Unternehmen schon erfolgreich zusammen.

Gründung geht langjährige Forschung voraus
Grundlage des Softwarewerkzeugs CodeShield sind effiziente und präzise Algorithmen, die Softwareentwickler*innen helfen, Fehler in ihrem Programmcode frühzeitig aufzudecken. Die Technologie ist das Ergebnis einer langjähren gemeinsamen Entwicklungsphase zwischen dem Heinz Nixdorf Institut der Universität Paderborn und dem Fraunhofer IEM, die zum Beispiel mit dem Deutschen IT-Sicherheitspreis 2016 und jüngst mit dem Ernst Denert Software-Engineering-Preis 2019 ausgezeichnet wurde. Die Zusammenarbeit im Forschungsfeld Security by Design wird auch künftig fortgesetzt, um neueste Technologien und Forschungsergebnisse in die unternehmerische Praxis zu bringen. „Wir haben das Thema Codeanalyse am Heinz Nixdorf Institut und am Fraunhofer IEM aufgebaut. Industriepartner fragen aber, wer die Analysewerkzeuge in einigen Jahren weiter warten wird. Ich bin froh, dass durch die vielversprechende Kooperation zwischen den Forschungspartnern und ihrem Spin-off die Technologie auch langfristig eine hervorragende Entwicklungsperspektive hat“, so Bodden.

Video zum Werkzeug CodeShield:
Website von CodeShield: codeshield.io

zurück zur Übersicht

Forschung zu atomischen Simulationen

Prof. Dr. Christian Plessl (Fachgebiet für Hochleistungs-IT-Systeme) und Prof. Dr. Thomas D. Kühne (Lehrstuhl für Theoretische Chemie) haben 2018 für ihr Projekt „Green IT: Exakte Berechnungen mit ungenauen, aber energieeffizienten Rechnern“ den Forschungspreis der Universität Paderborn erhalten. Ziel dieses interdisziplinären Projekts war es, die Machbarkeit des „Approximate Computing“-Paradigmas für wissenschaftliche Anwendungen zu untersuchen. Die Hauptidee besteht darin, die Fähigkeiten moderner Prozessoren und Hardwarebeschleuniger zu nutzen, um Berechnung mit Näherungen oder niedriger Präzision mit hoher Rechenleistung und Energieeffizienz durchzuführen und die numerischen Ungenauigkeiten durch neuartige, fehlertolerante Algorithmen zu kompensieren. Die durch den Forschungspreis initiierte Forschung hat eine intensive Zusammenarbeit zwischen den beiden Forschungsgruppen begründet und zu mehreren noch laufenden Forschungslinien geführt.
„Unsere Zusammenarbeit und die Kombination von Rechnergestützten Wissenschaften und Informatik war in der Tat sehr fruchtbar“, sagt Prof. Kühne. „Wir haben zum Beispiel eine neue Methode zur Berechnung des exakten Wertes physikalischer Größen aus Daten mit Rauschen entwickelt, welches durch Hardware-Beschleuniger verursacht wird und hoch skalierbare, iterativen Algorithmen zur Berechnung approximativer Matrixfunktionen für linear skalierende Elektronenstrukturberechnungen entwickelt.

Erste Ergebnisse aus dieser Zusammenarbeit sind bereits in ein Übersichtspapier zum CP2K eingeflossen, das gerade im Journal of Chemical Physics erschienen ist: TD Kühne et. al. „CP2K: An electronic structure and molecular dynamics software package - Quickstep: Efficient and accurate electronic structure calculations“, J. Chem. Phys. 152, 194103 (2020); doi.org/10.1063/5.0007045

Die Kompensation des durch Näherungen eingeführten numerischen Rauschens durch eine modifizierte Langevin-Gleichung wurde ebenfalls kürzlich veröffentlicht: V Rengaraj, M Lass, C Plessl, TD Kühne. „Accurate Sampling with Noisy Forces from Approximate Computing“, Computation 8, 39 (2020); doi.org/10.3390/computation8020039

Prof. Dr. Plessl beleuchtet die Aspekte der Informatik: „Die Algorithmen, die wir entwickelt haben, verwenden nicht nur das Approximate Computing-Paradigma, sondern sind auch hoch skalierbar und für massiv-parallele Verarbeitungsarchitekturen, insbesondere FPGAs und GPUs, optimiert. Die Ergebnisse zeigen, dass wir trotz der inhärenten Approximationen Ergebnisse mit chemischer Genauigkeit erzielen können. Tatsächlich machen wir uns die Näherungen zu eigen, um eine höhere Energieeffizienz der Berechnungen zu erreichen, und werden diesen vielversprechenden Weg fortsetzen“.
Der massiv parallele, approximative Algorithmus zur iterativen Berechnung von Matrixfunktionen wurde letztes Jahr auf der PASC-Konferenz vorgestellt, und die Integration in CP2K mit Erweiterungen für GPU Tensor-Cores und anwendungsspezifische FPGA-Beschleuniger wurde gerade als Preprint veröffentlicht:

  • M Lass, S Mohr, H Wiebeler, TD Kühne, C Plessl. „A massively parallel algorithm for the approximate calculation of inverse p-th roots of large sparse matrices.“, In Proc. Platform for Advanced Scientific Computing Conference (PASC). ACM, 2018;doi.org/10.1145/3218176.3218231
  • M Lass, R Schade, TD Kühne, C Plessl. „A Submatrix-Based Method for Approximate Matrix Function Evaluation in the Quantum Chemistry Code CP2K“, https://arxiv.org/abs/2004.10811
  • D Richters, M Lass, A Walther, C Plessl, TD Kühne. „A General Algorithm to Calculate the Inverse Principle p-th Root of Symmetric Positive Definite Matrices.“, Commun. Comp. Phys. 25, 564 (2019); doi.org/10.4208/cicp. OA-2018-0053

Die Implementierung der entsprechenden Methoden wurde in die weit verbreiteten Open-Source-Projekte CP2K (www.cp2k.org) und DBCSR (www.cp2k.org/dbcsr) integriert. Das Paderborn Center for Parallel Computing (PC²) trägt mit Code Review und Optimierung, der Bereitstellung einer Infrastruktur für Benchmarking (www.cp2k.org/performance) und Regressionstests (dashboard.cp2k.org) weiter zu diesen Bemühungen bei.
Diese neueren Arbeiten zu Methoden und Bibliotheken für die Elektronenstruktur-Theorie tragen dazu bei, die Universität Paderborn und das PC² als bundesweites Kompetenzzentrum für atomistische Simulationen weiter zu etablieren und leisten einen wichtigen Beitrag zu weit verbreiteten Elektronenstruktur-Codes und Bibliotheken. Neben CP2K haben Forscher der Universität Paderborn und des PC² auch an anderen atomistischen Simulationscodes mitgewirkt, wie z.B. Quantum ESPRESSO, CP-PAW, ls1-mardyn, ms2 und i-Pi, um nur einige zu nennen. Um das Ökosystem der atomistischen Simulationen zu fördern und Nachwuchswissenschaftler*innen auszubilden, bietet PC² spezialisierte wissenschaftliche Beratung und Ausbildung an (siehe pc2.uni-paderborn.de/teaching/trainings/hpc-usertrainings/ für kommende Veranstaltungen)

zurück zur Übersicht

Klimaschonend, stabil und kosteneffizient

Wissenschaftler*innen der Universität Paderborn forschen zum Energiesystem der Zukunft

Ob das eigene Haus, Bürogebäude, der private Pkw oder die Industrieproduktion: Überall wird Energie benötigt – für Strom, Wärme, Belüftungs- und Kühlsysteme oder Antriebstechnologien. Jahrzehntelang setzte Deutschland neben der Kernenergie vorwiegend auf Kohle, Öl und Erdgas. Doch diese fossilen Energieträger sind endlich und sie füttern Anlagen, bei deren Betrieb massenhaft klimaschädliche Treibhausgasemissionen entstehen. Der Bund hat daher die „Energiewende“ ausgerufen. Mehr und mehr soll unser Energiesystem aus erneuerbaren Energiequellen wie Wind- und Solarkraft gespeist werden. Die Herausforderungen dabei: Die Energieversorgung muss auch künftig stabil laufen, kosteneffizient sein und die Interessen zahlreicher Akteure müssen unter einen Hut gebracht werden. Im Forschungsprojekt „FlexiEnergy“ entwickeln Wissenschaftler*innen der Universität Paderborn ein intelligentes Planungswerkzeug, das Netzbetreiber*innen dabei unterstützen soll, das Energiesystem der Zukunft klimaschonend, netz stabil und finanziell effizient zu gestalten.
Das im August 2018 gestartete Projekt läuft noch bis Mitte 2021 und wird von der EU und dem Ministerium für Wirtschaft, Innovation, Digitalisierung und Energie des Landes NRW mit 1,8 Millionen Euro gefördert. Verantwortlich für die Koordination des Projekts, an dem acht regionale Einrichtungen aus Wissenschaft und Wirtschaft beteiligt sind, ist das Software Innovation Lab (SI-Lab) des SICP – Software Innovation Campus Paderborn der Universität. „Für unser künftiges Energiesystem ist es wichtig, die Sektoren Strom, Wärme/Kälte und Mobilität effizient zu koppeln, damit sich der Anteil regenerativer Energien am Gesamtverbrauch weiter erhöhen lässt. Dazu müssen wir verschiedene Einzeltechnologien aus den Bereichen Energietransport, -speicherung und -transformation in einem ganzheitlichen System zusammenfassen“, erläutert Projektleiter Dr. Christoph Weskamp. Beim Aufbau eines Systems, das verschiedene Energiesektoren umfasst, müssen insbesondere die Netzbetreiber eine Reihe von Entscheidungen treffen. Etwa: Wie sollte ich meine Verteilnetze um- und ausbauen? Und welche Speicher- und Transformationstechnologien müssen zum Einsatz kommen? Hier setzt das Paderborner Forschungsprojekt an: „Unser Ziel ist es, ein intelligentes Entscheidungsunterstützungssystem für die Gestaltung von Energiesystemen zu entwickeln und damit Netzbetreibern beim Planungs und Transformationsprozess ihrer Verteilnetze zu helfen“, fasst der wissenschaftliche Koordinator des Projekts Prof. Dr. Gregor Engels zusammen. Mit ihrer Forschung wollen die Wissenschaftler*innen Wechselwirkungen zwischen den Energieträgern Strom, Gas und Fernwärme nutzen und so Energiesysteme kosteneffizienter, CO2-ärmer und damit klimaschonender machen – bei gleichbleibender Netzstabilität.

Intelligentes Planungswerkzeug für Netzbetreiber
Im Projekt „FlexiEnergy“ entwickeln Paderborner Wissenschaftler*innen aus den Bereichen Datenbank- und Informationssysteme, Elektrische Energietechnik und Wirtschaftsinformatik das Entscheidungsunterstützungssystem in Form eines intelligenten Planungswerkzeugs. Mit dem Tool könnten Netzbetreiber künftig ihre Netze kosteneffizient gestalten und sie für die nächsten Jahre robust auf verschiedene Last- und Einspeiseszenarien vorbereiten. „Dabei berücksichtigen wir insbesondere die Versorgungssicherheit: Das von uns erstellte Netz soll beispielsweise bei Fehlverhalten von einzelnen Transformatoren nicht zusammenbrechen und weiterhin die Bevölkerung zuverlässig mit Energie versorgen. Neue Technologien wie Energiespeicher und Sektorkopplungsanlagen werden ebenfalls berücksichtigt. Als Ergebnis bekommt der Netzbetreiber einen detaillierten Ausbauplan für sein Netz vorgeschlagen“, erklärt Wirtschaftsinformatiker Prof. Dr. Guido Schryen.
Für das Planungswerkzeug erforschen die Wissenschaftler*innen, wie Softwareinnovationen bei der Gesamtplanung des Energiesystems der Zukunft helfen können. „Hier kombinieren wir Methoden der Szenarioplanung zur Abbildung von künftigen Wertentwicklungen, Methoden der physikalischen Simulation zur Berechnung von Lasten im Strom-, Gas- und Wärmenetz sowie Methoden der mathematischen Optimierung zur möglichst effizienten Netzgestaltung“, beschreibt Gregor Engels das Vorgehen.

Neue Tarife, die klimafreundliches Verhalten belohnen
Neben Netzbetreibern*innen sollen auch Energieerzeuger*innen, -versorger*innen und Endkund*innen von der Paderborner Forschung profitieren. Dazu Prof. Dr.-Ing. Stefan Krauter, Leiter des Fachgebietes für Elektrische Energietechnik: „Im Projekt haben wir bereits Vorschläge ausgearbeitet, wie sich künftige Energietarife gestalten lassen. Entstanden sind neue Tarifmodelle, wie beispielsweise ein Flex-Strom-Tarif, der klimafreundliches Verhalten belohnt und fördert. Durch den Zusatznutzen der „Netzdienlichkeit“ verringern sich zudem Netzverluste und Verbraucherabgaben. Bevor die Tarife aber tatsächlich am Markt umgesetzt werden können, müssen die ordnungspolitischen Rahmenbedingungen geändert werden. Im Projekt erarbeiten wir daher auch konkrete politische Handlungsempfehlungen.“

Offen für neue Technologien
Aktuell sind im Energiebereich zahlreiche klimaschonende Technologien im Einsatz. So wird Energie etwa über Photovoltaik-, Windkraft-, Solarthermie- und Blockheizkraftwerk-Anlagen gewonnen, in stationären Batterie-, Gas- und Wärmelementen gespeichert sowie in Strom- und Gasleitungen transportiert. Doch das intelligente Planungswerkzeug der Paderborner Forscher*innen integriert nicht nur diese Technologien, wie Christoph Weskamp erklärt: „Großes Potential haben künftig vor allem Sektorkopplungstechnologien, welche die Sektoren Strom, Wärme und Mobilität verbinden. Insbesondere im Bereich der ‚Power-to-X-Technologien‘, also etwa Power-to-Wasserstoff, tut sich gerade sehr viel. Daher wird das von uns entwickelte Entscheidungsunterstützungssystem erweiterbar sein, sodass künftig auch neue Technologien integriert werden können.“

Einflussfaktoren, Versorgungsgebiete und moderne Software im Blick
Um die vielen verschiedenen Anforderungen der Energiedomäne möglichst ganzheitlich im intelligenten Planungswerkzeug umzusetzen, gehen die Paderborner Forscher*innen in „FlexiEnergy“ arbeitsteilig vor. Das Team um Stefan Krauter identifizierte zunächst die für ein Energiesystem relevanten Einflussfaktoren. Darauf aufbauend erstellten die Forscher*innen eine erste Version eines Wissenssystems, das diese komplexen und oft unsicheren Einflussfaktoren, wie etwa die Entwicklung der Anzahl installierter Wärmepumpen in Privathaushalten, einschließlich ihrer energetischen Wechselwirkungen, abbildet und für Netzbetreiber transparent darstellt. „Daraus können Entscheider dann verschiedene Zukunftsszenarien ableiten, die es ermöglichen, Handlungsoptionen unter Berücksichtigung verschiedener Rahmenbedingungen zu betrachten“, so Stefan Krauter. Die Wissenschaftler*innen um Guido Schryen untersuchen, wie mittels mathematischer Optimierung das Versorgungssystem effizienter gestaltet werden kann. Sie erforschen dabei insbesondere, wie sich große Versorgungsgebiete im Zuge der Sektorkopplung optimieren lassen. „Während es für kleinere Teilnetze schon Forschungsarbeiten gibt, möchten wir auch große städtische und ländliche Versorgungsnetze abbilden und einen robusten Ausbauplan für die Zukunft errechnen, um eine sichere Energieversorgung kostengünstig gewährleisten zu können“, erläutert Guido Schryen. Gregor Engels und seine Kolleg*innen integrieren die im Projekt entwickelten Methoden und Verfahren zur Simulation und Optimierung eines künftigen Energiesystems in ein ganzheitliches Planungswerkzeug. Dabei setzen sie auf moderne Software-Architekturen wie komponentenorientiertes Design. „Der Anwender, also die Entscheidungsträger von Netzbetreibern, profitieren dadurch, dass je nach konkreter Fragestellung die oben beschriebenen Methoden möglichst passgenau ausgewählt und konfiguriert werden“, erklärt Engels.

Erste Praxistests
Die für „FlexiEnergy“ wichtigen Daten aus der Alltagspraxis der Energiebranche erhalten die Paderborner Wissenschaftler*innen von den am Projekt beteiligten Netzbetreiber*innen. „Die kooperierenden Unternehmen evaluieren im Rahmen von Workshops bereits Teile unseres Planungswerkzeugs. Das Feedback fließt direkt in unsere weitere Entwicklung ein. So ist garantiert, dass unser Entscheidungsunterstützungssystem am Ende in der Praxis eingesetzt werden kann“, bilanziert Christoph Weskamp.

Weitere Informationen zum Projekt
An „FlexiEnergy“ sind neben dem SICP der Universität Paderborn die WestfalenWIND GmbH, die Westfalen Weser Netz GmbH, die Rechenzentrum für Versorgungsnetze Wehr GmbH, die UNITY AG und der Verein Energie Impuls OWL beteiligt.
Zur Projektwebseite: https://www.flexi-energy.de

zurück zur Übersicht

Corona-Tracking mittels Bluetooth

Wissenschaftler der Universität Paderborn hält Technologie nur für bedingt geeignet

Morgen erscheint die Corona-Warn-App in Deutschland. Neben Datenschutzbedenken steht auch die Tauglichkeit von Bluetooth Low Energy (BLE), das für die Lokalisierung genutzt wird, in der Kritik. „Präzise Distanzeinschätzungen sind mit der Technologie nicht möglich“, sagt Dr.-Ing. Jörg Schmalenströer von der Universität Paderborn, der zu dem Thema forscht.

Der Grund: „Der logarithmische Abfall der Signalstärke ist ein Problem für die Distanzmessung. Genauso wie die Tatsache, dass Smartphones die Signale nicht gleichmäßig stark in alle Richtungen senden. Noch dazu werden sie durch den menschlichen Körper gedämpft“, erklärt Schmalenströer. Allein durch die Trageposition des Smartphones verändere sich die Signalstärke deutlich – und das bei gleichbleibendem Abstand. Ob eine Person das Smartphone in der Hand hält oder im Rucksack auf dem Rücken trägt, beeinflusse bereits die Ergebnisse, ebenso wie die Umgebung, in der sich die Personen aufhalten. Die Folge seien Fehlberechnungen von bis zu mehreren Metern, so Schmalenströer weiter.

Ein zusätzliches Manko: Bluetooth liegt zusammen mit anderen Funktechnologien im sogenannten ISM-Band. Kommt es zur Beanspruchung großer Datenmengen und Bandbreiten, z. B. beim Streamen mittels WLAN, werden die Bluetooth-Signale überlagert und Messungen seien nur noch bedingt möglich. „Dann kann es sein, dass Personen sich gegenseitig nicht detektieren, obwohl die Distanz gering ist. Das kann auch passieren, wenn viele Menschen auf kleiner Fläche - wie z. B. in einem Bus - ihr Bluetooth gleichzeitig einschalten“, sagt der Wissenschaftler.

Schmalenströer beschäftigt sich bereits seit einigen Jahren mit der Lokalisierung via Bluetooth. Bei seiner Forschung geht es insbesondere um die Aspekte Detektierbarkeit und Genauigkeit. Dabei setzt er u. a. Bluetooth Low Energy Beacons ein, um die Positionen von Personen in Gebäuden zu bestimmen. „Die Ergebnisse aus Feldversuchen abseits idealer Laborbedingungen sind allerdings ernüchternd“, lautet sein Fazit.

zurück zur Übersicht

Sprachassistenten „Made in Germany“

Wissenschaftler*innen entwickeln datenschutzkonforme KI-Plattform für Unternehmen

Ob Alexa, Siri oder der Google Assistant: Mehr und mehr Bürger*innen nutzen privat einen Sprachassistenten, und auch in der Industrie wird die Interaktion mit Technik über Sprache immer wichtiger. Doch die überwiegend aus den USA und Asien stammenden Assistenten haben einige Schwachstellen. Hier setzt das Forschungsprojekt „SPEAKER“ an, bei dem Wissenschaftler des Instituts für Informatik der Uni Paderborn beteiligt sind. Ziel ist es, eine deutsche Sprachassistenzplattform zu entwickeln, die Unternehmen datenschutzkonform, sicher und ihren Bedürfnissen entsprechend nutzen können. Das von den Fraunhofer-Instituten für Integrierte Schaltungen IIS und für Intelligente Analyse- und Informationssysteme IAIS geleitete dreijährige Projekt startete Anfang April und wird vom Bundesministerium für Wirtschaft und Energie (BMWi, FKZ: 01MK20011A) mit rund 17,6 Millionen Euro gefördert. Beteiligt sind zahlreiche Großunternehmen, Mittelständler, Start-ups und Forschungseinrichtungen aus ganz Deutschland.

Technologie und Datenschutz in Einklang bringen
„Ein Großteil der bisherigen auf Basis von künstlicher Intelligenz arbeitenden Sprachassistenzlösungen wird von US-amerikanischen und asiatischen Unternehmen entwickelt. Doch diese Assistenten sind in den Bereichen Datensicherheit und Datensouveränität kritisch zu sehen: Sie erfüllen nicht immer die europäischen Datenschutzstandards und es ist unklar, wie und wo die Daten, die sie sammeln, gespeichert werden. Ihr Einsatz in Unternehmen ist daher problematisch“, erläutert Prof. Dr. Axel-Cyrille Ngonga Ngomo. Der Informatiker leitet das am Projekt beteiligte Paderborner Forscherteam. Bei „SPEAKER“ entsteht daher eine deutsche Sprachassistenzplattform, die der Datenschutz-Grundverordnung der EU entspricht. Sie soll es Firmen ermöglichen, personenbezogene und unternehmensinterne Daten besser zu schützen und sicher auszutauschen.

Eine maßgeschneiderte Sprachassistenzplattform für die deutsche Industrie
Die Sprachassistenzplattform „Made in Germany“ wird mit offenen Schnittstellen zu Datenbanken ausgestattet, mehrsprachig programmiert und soll modular erweiterbar sein. So kann sie leicht an die jeweiligen Bedürfnisse eines Unternehmens angepasst werden. Dazu Axel Ngonga: „Im Projekt entwickeln wir eine Sprachassistenzplattform, die mit ihrer technischen Infrastruktur und ihren Diensten schnell, effizient und kostengünstig die individuellen Ansprüche eines Unternehmens erfüllt – beispielsweise was Arbeitsabläufe und Fachbegriffe angeht.“

Neue Möglichkeiten der Mensch-Maschine-Interaktion
Mit Hilfe der deutschen Sprachassistenzplattform könnten verschiedene Branchen künftig ihre Verwaltungs-, Prüf- und Serviceprozesse effektiver gestalten – und das entsprechend geltender deutscher und europäischer Datenschutzstandards. Denkbar wäre beispielsweise ein Einsatz des Assistenten in der Automobilindustrie. Dort könnte er bei der digitalen Inspektion und Qualitätssicherung von Maschinen und Fahrzeugen helfen. Im Gesundheitssektor wiederum ließe sich der Sprachassistent zur Unterstützung von Ärzten und Pflegefachkräften einsetzen – etwa in den Bereichen Gerätebedienung, Diagnostik und Dokumentation. Auch für die Wissenschaft hätte der digitale Helfer Vorteile: „Der Sprachassistent könnte uns künftig ermöglichen, zeitsparender neue Forschungsfragen anzugehen und aus vorhandenen Forschungsergebnissen zu lernen“, erklärt Axel Ngonga.

Datenverfügbarkeit auch im Offline-Modus
Sein Paderborner Informatiker*innenteam erforscht im Projekt „SPEAKER“ die Datenverfügbarkeit der künftigen deutschen Sprachassistenzplattform. Ngonga: „Wir konzentrieren uns auf den Fall, wenn der Assistent nicht mit dem Internet verbunden ist. Der Assistent soll in der Lage sein, Nutzern auch im Offline-Modus die Daten und Informationen, die sie benötigen, zur Verfügung zu stellen.“ Dafür wird er unter anderem mit Informationen aus sogenannten Wissensgraphen gefüttert. Ein Wissensgraph ist ein Datensatz, in dem Informationen strukturiert aufgearbeitet sind. Aus ihnen lässt sich dann automatisch Wissen gewinnen. Amazon etwa nutzt Wissensgraphen zum Beantworten von Fragen an Alexa.

Sprachassistent vernetzt verschiedene Technologien miteinander
Ebenfalls interessant für Ngonga und seine Kolleg*innen ist das Thema Datenintelligenz der künftigen Sprachassistenzplattform: „Bisherige Sprachassistenten basieren schon auf sehr leistungsfähigen Question-Answering-Systemen und ausgeklügelten Algorithmen. Beim Beantworten von komplexen Fragen stoßen sie aber an ihre Grenzen. Unsere Sprachassistenzplattform soll hier wesentlich mehr leisten.“ Im SPEAKER-Projekt werden daher führende Technologien aus Bereichen wie Spracherkennung, Audiovorverarbeitung und Sprachsynthese mittels künstlicher Intelligenz, insbesondere dem sogenannten maschinellen Lernen, kombiniert.
Während der dreijährigen Laufzeit von „SPEAKER“ werden erste Pilotanwendungen individueller Sprachassistenten basierend auf der Sprachassistenzplattform von den am Projekt beteiligten Unternehmen in der Praxis getestet. So könnte verschiedenen Branchen schon bald ein neuer, sicherer und flexibel einsetzbarer Helfer zur Verfügung stehen – Made in Germany.

Weitere Informationen zum Projekt:
www.speaker.fraunhofer.de

zurück zur Übersicht

Corona-Warn-App: Hilfe zur Bekämpfung der Covid-19-Pandemie

Im Kampf gegen das Corona-Virus hat die Bundesregierung die Corona-Warn-App entwickelt. Sie soll dabei helfen, Personen, die Begegnungen mit einer mit COVID-19 infizierten Person hatten, schnellstmöglich über die Begegnung zu informieren, Kontaktketten frühzeitig zu unterbrechen und somit weitere Infektionen zu verhindern. Die App zielt auf eine neue Technologie der Verbindung mit Bluetooth ab, bei welcher ein Austausch anonymer ID-Schlüssel zwischen den Mobiltelefonen stattfindet.

Die Corona-Warn-App wurde von der Deutschen Telekom und dem Software-Konzern SAP entwickelt. Die Unternehmen wurden dabei von der Fraunhofer-Gesellschaft und dem Helmholtz-Zentrum CISPA beraten. Die Warn-App beruht auf dem Konzept der dezentralen Datenverwaltung. Demnach werden Daten nicht auf einem zentralen Server zusammengeführt, sondern lokal auf den Smartphones der Nutzer*innen gespeichert. „Zuvor hatte die Bundesregierung ein zentrales Design bevorzugt. Dieses hätte den Vorteil gehabt, dass dem Robert Koch-Institut die Auswertung anonymer Infektionsdaten erleichtert worden wäre. Ebenso hätte man die Risikobewertung, die bestimmt, ob einzelne Personen sich wirklich in Quarantäne begeben sollen, einfacher aufgrund der Datenlage dynamisch anpassen können. Ein solch zentraler Ansatz birgt jedoch die theoretische Gefahr, dass das Robert Koch-Institut als Betreiber der App in Zusammenarbeit mit anderen Bundesbehörden die Daten de-anonymisieren und somit personalisierte Nutzerprofile erstellen könnte. Ob dies realistisch wäre oder nicht, darüber gab und gibt es in der Security-Community durchaus geteilte Meinungen. Aufgrund zahlreicher Proteste von Datenschützern hat man sich jedoch dazu entschieden, stattdessen den dezentralen Ansatz zu verfolgen”, erklärt Prof. Dr. Eric Bodden, Direktor des Kompetenzbereichs Digital Security im SICP und Leiter der Fachgruppe „Softwaretechnik” am Heinz Nixdorf Institut der Universität Paderborn.

Damit die Corona-Warn-App auf Smartphones funktioniert, entwickelten die Unternehmen Google und Apple gemeinsam eine Technologie, mit der erkannt werden soll, auf welche Entfernung und über welchen Zeitraum hinweg sich Personen begegnet sind. Ein Austausch der anonymen ID-Schlüssel soll nur erfolgen, wenn sich zwei oder mehrere Personen so nahekommen, dass das Risiko einer Virusübertragung als sehr wahrscheinlich gilt. Hierbei kommen neu geschaffene Schnittstellen in Android und iOS zum Einsatz. Diese generieren speziell verschlüsselte und nur temporär gültige IDs, die auch nur im Infektionsfall entschlüsselt und somit für einen dezentralen Abgleich genutzt werden können. Dadurch scheint ein breit angelegtes Tracking nach aktuellem Stand der Technik realistischer Weise unmöglich. Ob und inwieweit sich Personen nahegekommen sind, wird über die Signalstärke des Bluetooth-Signals ermittelt. Allerdings könnte die Signalstärke aufgrund verschiedener physischer Bedingungen in die Irre führen. So könnte sie z.B. hoch sein, weil zwei Personen nebeneinandersitzen, obwohl sie durch eine Scheibe voneinander getrennt sind. Ob die App falsche Warnungen in solchen Situationen verhindern kann, werden aktuelle Tests zeigen. Wurde nun eine Infektion festgestellt, kann man dies auf freiwilliger Basis in der App melden. Um einen Missbrauch der App zu vermeiden, erfolgt die Meldung einer Infizierung nur mit einem positiven Testergebnis, welches von einem Gesundheitsamt bestätigt wird. Die Nutzer*innen der App müssen regelmäßig prüfen, ob sie in der Vergangenheit Kontakt zu einer infizierten Person hatten. Dazu müssen sie die Daten aktiv von dem Server abrufen, da der Abgleich ausschließlich auf den Smartphones der Nutzer*innen erfolgt. Da die Installation der App freiwillig ist, wäre man wohl auch eher moralisch als rechtlich verpflichtet, einer Warnung der App, sich in Quarantäne zu begeben, nachzukommen. Letztendlich wird es an jedem Einzelnen liegen, zu entscheiden, inwieweit sie oder er die weitere Eindämmung der Pandemie unterstützen und die vielleicht notwendige Wiedereinführung von Lock Down-Maßnahmen mit verhindern möchte.

Erfahrungen bezüglich der Effektivität von Corona-Tracing-Apps anderer Länder sind gemischt. Da Deutschland hier auf eine in weiten Teilen eigene Lösung setzt, sind in Bezug auf diese App noch keine Aussagen möglich.

Der Kompetenzbereich „Digital Security“ des SICP – Software Innovation Campus Paderborn begrüßt, dass ein datensparsamer Ansatz nach dem Prinzip Privacy-by-Design gewählt wurde. „Gleich mehr zeigt sich, wie wichtig die Forschungsergebnisse des Kompetenzbereichs für die Praxis sind: Das Startup CodeShield, an dem Prof. Eric Bodden, Direktor des Kompetenzbereichs, beteiligt ist, hat mit seinen Analysewerkzeug eine Schwachstelle gefunden und direkt gemeldet. Diese Schwachstelle wurde umgehend geschlossen”, erläutert Dr. Simon Oberthür, Manager des Kompetenzbereichs. Der offengelegte Code ermöglicht auch präziser nach unterschiedlichen Seitenkanalangriffen zu suchen. Dies ist das Spezialgebiet von Prof. Dr. Juraj Somorovsky, seit Februar dieses Jahres Professor für Systemsicherheit an der Universität Paderborn, der in den letzten Jahren zahlreiche Lücken in weit eingesetzten kryptographischen Bibliotheken (wie OpenSSL) gemeldet hat.

zurück zur Übersicht

Wettbewerb 5G.NRW: Projekt „ 5G4Industry“ zur Förderung vorgeschlagen

Das Projekt „5G4Industry“ hat im Rahmen des Wettbewerbs 5G.NRW eine Förderempfehlung vom Ministerium für Wirtschaft, Innovation, Digitalisierung und Energie des Landes Nordrhein-Westfalen erhalten. Wie Wirtschafts- und Digitalminister Prof. Dr. Andreas Pinkwart Mitte Juni bekannt gab, erhalten 13 herausragende 5G-Projekte eine Förderung von bis zu 26 Millionen Euro. „Mit dem Wettbewerb 5G.NRW ist Nordrhein-Westfalen Vorreiter bei der Förderung der neuen Technologie in Deutschland“, so Pinkwart. Neben dem Technologienetzwerk InnoZent OWL sind an dem Projekt der SICP – Software Innovation Campus der Universität Paderborn, die Technische Hochschule OWL aus Lemgo, die BENTELER Business Services GmbH aus Paderborn, die MECSware GmbH aus Ratingen sowie die Nuromedia GmbH aus Köln beteiligt. Assoziierter Partner ist das Unternehmen Weidmüller aus Detmold. Die Projektskizze hat ein Fördervolumen von 2,2 Millionen Euro.

Ziel des Projektes ist die Entwicklung und Erprobung eines weitgehend automatisierten Systems zum kurzfristigen Management vorhandener und zur mittelfristigen Planung zusätzlicher Ressourcen eines 5G-Systems für den industriellen Einsatz insbesondere in kleinen und mittleren Unternehmen (KMU). Die Erprobung erfolgt in einem aufzubauenden Testbed u. a. im Rahmen der Realisierung komplexer Augmented Reality-Anwendungen. „In der Zukunft ist von einer steigenden Verfügbarkeit von industriellen 5G-Komponenten auszugehen, die eine neue Form der industriellen Kommunikation ermöglichen. Aber nur, wenn diese auch für den Mittelstand einfach und kostengünstig einsetzbar sind, werden die möglichen Effizienz- und Flexibilitätsvorteile von 5G in den Unternehmen realisiert werden können. Genau dieser Herausforderung stellt sich das Projekt“, erläutert Michael Kemkes, Geschäftsführer von InnoZent OWL.

Die Arbeitsgruppe „Rechnernetze“ des Instituts für Informatik der Universität Paderborn unter Leitung von Prof. Dr. Holger Karl übernimmt die technische Projektkoordination, ist für die allgemeine Systemarchitektur und insbesondere das Planungssystem verantwortlich, entwickelt z. B. ein speicherbezogenes Ressourcenmanagement, und kümmert sich um funkspezifische Aspekte, etwa die korrekte Berücksichtigung von Schwundkanälen. Das Institut für industrielle Informationstechnik (inIT) der Technischen Hochschule OWL in Lemgo forscht und entwickelt auf dem Gebiet der industriellen Informationstechnik und Automation für intelligente technische Systeme. „5G wird im Zusammenhang mit Edge-Computing neue Freiheitsgrade bei der Verteilung von Automatisierungsfunktionen bieten und damit die Vernetzung von Maschinen und Anlagen noch flexibler machen“, ist sich Prof. Dr. Jürgen Jasperneite vom inIT der Technischen Hochschule OWL in Lemgo sicher. „In der SmartFactoryOWL haben wir bereits seit Anfang des Jahres eines der ersten privaten 5G-Netze und können die Projektergebnisse dort sehr realitätsnah erproben und demonstrieren“, so Dr. Lukasz Wisniewski, Forschungsgruppenleiter am inIT.

In Kooperation mit den beteiligten Forschungspartnern wird die Firma BENTELER Business Services GmbH, Teil der international tätigen BENTELER Gruppe, unter anderem reale Anwendungs- und Lösungsszenarien entwickeln. Dr. Darius Schlangenotto, Manager DigiHub bei BENTELER: „Als ein weltweit führender Partner der Automobilindustrie arbeiten wir mit den neuesten digitalen Technologien, um unsere Kunden noch effizienter und flexibler zu bedienen. Bereits seit mehreren Jahren setzen wir eine leistungsfähige Big Data-Plattform ein. Sie vernetzt unsere Maschinen rund um den Globus für eine optimierte Datenanalyse und Wartung. Das Projekt wird uns helfen, unsere Plattform an die Möglichkeiten der 5G-Technologie anzupassen und grundlegend weiterzuentwickeln.“

Die MECSware GmbH wird innerhalb des Projektes vor allem dazu beitragen, eine Schnittstelle, mittels derer Ressourcenmanagemententscheidungen zwischen Basisstationen und Edge Cloud kommuniziert werden können, zu definieren und zu realisieren. Darüber hinaus wird MECSware geeignete Schulungsunterlagen und Dokumentationen für das System erstellen und mit Testnutzern evaluieren.

Die Kölner Nuromedia GmbH treibt die Arbeiten zur AR¬Beispielanwendung, sowohl hinsichtlich Szenario, Anwendungs-Charakterisierung und Architekturkonzept wie auch einer konkreten Programmierschnittstelle zum Ressourcenmanagement innerhalb des Projektes voran. Zudem wird Nuromedia auch die AR-bezogenen Arbeiten in der Testumgebung durchführen.

Das Unternehmen Weidmüller wird als assoziierter Partner Use-Cases für Szenarien sowie Anwendungscharakteristiken liefern und als Diskussionspartner zu Praktikabilität und Akzeptanz möglicher Lösungsansätze zur Verfügung stehen.

zurück zur Übersicht

Stabile Stromnetze für Afrika

Forscher*innen der Universität Paderborn entwickeln moderne Systeme zur unterbrechungsfreien Stromversorgung in ländlichen Regionen Afrikas – intelligente „Microgrids“ integrieren erneuerbare Energien und leisten einen wichtigen Beitrag zur regionalen Entwicklung.

Fast neun von zehn Menschen weltweit haben heute Zugang zu Elektrizität. Dennoch leben im Zeitalter von Digitalisierung und künstlicher Intelligenz immer noch 789 Millionen Menschen ohne Strom, wie aktuelle Zahlen der Vereinten Nationen belegen. Beinah 70 Prozent davon allein in Afrika südlich der Sahara. Das hemmt die Entwicklung: Die fehlende oder instabile Stromversorgung ist immer noch ein Haupthindernis dafür, dass sich die Lebensbedingungen in abgelegenen Regionen Afrikas verbessern können.
Um eine Lösung für das afrikanische Energieversorgungsproblem zu finden, arbeiten Wissenschaftler*innen der Universität Paderborn in einem interdisziplinären Team an einer länderübergreifenden Lehr-, Lern- und Forschungsplattform. „Das Konzept eines »Energiezugangs für alle« ist wichtig, möchten wir eine nachhaltige Entwicklungshilfe leisten“, so der Projektkoordinator Prof. Dr.-Ing. Stefan Krauter von der Fakultät für Elektrotechnik, Informatik und Mathematik. „Durch intelligent gesteuerte, lokale Stromnetze auf Basis von erneuerbaren Energiequellen wollen wir eine praxistaugliche und robuste Stromversorgung ermöglichen. Vor allem in ländlichen Gebieten ist das eine Voraussetzung dafür, dass die Menschen dort Zugang zu modernen Technologien und dem Internet erhalten.“ Das auf drei Jahre angelegte Projekt wird vom Bundesministerium für Bildung und Forschung (BMBF) mit rund 2,3 Millionen Euro unterstützt. Projektträger ist das Forschungszentrum Jülich GmbH.
Langfristiges Ziel der afrikanischen und deutschen Projektpartner*innen ist es, den Menschen vor Ort die eigenständige und dauerhafte Nutzung des gemeinsam entwickelten Energiekonzepts zu ermöglichen. Dafür erarbeiten die Wissenschaftler*innen moderne Schulungsprogramme, durch die sie das erforderliche praxisrelevante Wissen an regionale Fachkräfte und Bildungsinstitutionen weitergeben.

Entwicklung benötigt Energie
Bezahlbare, verlässliche und saubere Energie für alle – so lautet eines der nachhaltigen Entwicklungsziele der Vereinten Nationen. Prof. Dr.-Ing. Stefan Krauter, Fachgebietsleiter für „Elektrische Energietechnik − Nachhaltige Energiekonzepte“ an der Universität Paderborn, kennt die Folgen von „Energiearmut“ genau und weiß, welche Gebiete besonders betroffen sind: „Den überwiegend ländlichen Gemeinschaften in Ostafrika mangelt es bis heute an einer unterbrechungsfreien Energieversorgung“, erklärt Krauter und gibt zu bedenken, dass sich dieser Umstand unmittelbar auf die Lebensbedingungen der Menschen vor Ort auswirke. Nicht nur Einzelhaushalte seien betroffen, sondern insbesondere auch Schulen und Krankenhäuser. „Kein Stromanschluss bedeutet, dass Schulkinder abends nicht mehr lernen, dass die Menschen keine wettbewerbsfähigen Unternehmen führen und wichtige Medikamente nicht gekühlt werden können“, resümiert der Paderborner Wissenschaftler.

Lokale, nachhaltige und intelligente Lösungen
Ziel des jüngst gestarteten internationalen Projekts ist es, neue Möglichkeiten der Elektrifizierung von abgelegenen Regionen in Ostafrika zu erschließen. Krauter erklärt: „Wir entwickeln moderne Mini-Stromnetze. Dabei sollen kleine, voneinander getrennte Stromnetze, sogenannte »Microgrids«, jeweils ein räumlich begrenztes Gebiet wie eine Nachbarschaft oder einen Krankenhauskomplex mit Energie versorgen.“ Jedes dieser Mikronetze verfüge dabei über eigene Energiequellen und Versorgungsoptionen, beispielsweise Solaranlagen und lokale Speicher. Der Vorteil solcher Inselnetze: Da nicht ein einziges großes Kraftwerk den Strom zu den Verbrauchern liefert, können sich Störungen auch nicht über ein großes Übertragungsnetz ausbreiten. Lokale Netze ermöglichen daher eine stabile, unterbrechungsfreie Versorgung mit Energie. „Denn auch dort, wo Strom eigentlich zur Verfügung steht, gibt es immer wieder massive Energieengpässe. Stromausfälle legen regelmäßig die Versorgung ganzer Städte lahm“, schildert Krauter das afrikanische Energiedilemma. Zu einem späteren Zeitpunkt könnten diese Microgrids jedoch in das Hauptnetz einer Stadt oder einer Region integriert werden. Um alle verfügbaren Ressourcen möglichst effizient zu managen und den Strom dorthin zu verteilen, wo er gebraucht wird oder gespeichert werden kann, muss das Stromnetz in hohem Maße flexibel sein. „Intelligente Stromnetze, sogenannte »Smart-Grids«, verbinden die verschiedenen Akteur*innen des Energiesystems auch kommunikativ. Der Informationsaustausch innerhalb der Netze ermöglicht es, den Stromfluss dynamisch zu steuern und so Erzeugung, Verbrauch und Speicherung zu jedem Zeitpunkt präzise aufeinander abzustimmen“, erläutert der Paderborner Elektrotechnik-Professor. So könne beispielsweise Energie aus einer Photovoltaik-Anlage automatisch und je nach Bedarf über Batterien auf die verschiedenen Endverbraucher verteilt werden. Für die Zukunft plant das internationale Projektteam, auf diese Weise nicht nur ländliche Gebiete mit Strom zu versorgen, sondern auch große nationale Stromnetze erheblich zu stabilisieren.

Auf die Bedürfnisse und Kapazitäten der ostafrikanischen Gesellschaft abgestimmt
Damit die Menschen vor Ort die neuen Technologien auch dauerhaft und selbstständig nutzen können, bildet der Wissenstransfer einen zentralen Bestandteil des neuen Projekts. Afrikanische Fachleute und Bildungsinstitutionen sollen direkt von den in Paderborn entwickelten technischen Lösungen profitieren, aber auch dazu beitragen, dass diese Technologien den Gegebenheiten vor Ort gerecht werden. Das Team um Krauter arbeitet deshalb Schulungskonzepte aus, die offen für lokale Partner*innen und Nutzer*innen sind. So sollen etwa in Graduiertenkollegs und auch in einfachen Praktika Grundlagenkenntnisse vermittelt werden: „In unserem Projekt orientieren sich Forschung und Ausbildung gezielt an den Bedürfnissen der afrikanischen Gesellschaften, anstatt sich an den Hightech-Maßstäben der Industrieländer auszurichten“, hebt Krauter hervor.

Interdisziplinäre Arbeit für innovative Ansätze
Um zukunftsorientierte und nachhaltige Lösungen zu finden, bringen sowohl erfahrene Forscher*innen als auch Nachwuchswissenschaftler*innen aus unterschiedlichen Fachbereichen sowie deutschen und afrikanischen Institutionen ihre Expertise in das Projekt ein. Neben Wissenschaftler*innen der Fachgebiete „Leistungselektronik und Elektrische Antriebstechnik“, „Sensorik“ und „Technikdidaktik“ arbeiten auch Kultur- und Wirtschaftswissenschaftler*innen der Universität Paderborn an der innovativen Lösung zur Energieversorgung. Denn nicht nur technische Aspekte seien für den Erfolg maßgeblich, sondern auch ein passgenaues Bildungskonzept, betont die Paderborner Erziehungswissenschaftlerin Prof. Dr. Christine Freitag: „Eine »Bildung für nachhaltige Entwicklung« ist unser Maßstab. Durch diesen Ansatz sollen Menschen dazu befähigt werden, die Zukunft aktiv, eigenverantwortlich und verantwortungsbewusst zu gestalten. Gemeinsam mit unseren afrikanischen Partner*innen nehmen wir daher auch die Zusammenhänge von Bildung und Geschlecht, beispielsweise bei Fragen der Chancengerechtigkeit und Konfliktpotenziale hinsichtlich ökologischer, ökonomischer und sozialer Herausforderungen in den Blick.“
An dem Projekt sind außerdem Universitäten in Südafrika, Uganda und Tansania beteiligt, ebenso wie afrikanische Energieerzeugungs- und Energieversorgungsunternehmen als Industriepartner, das ECOLOG-Institut für sozial-ökologische Forschung und Bildung, das Photovoltaik-Institut Berlin und Asantys Systems. Auch wenn der Forschungsschwerpunkt auf Ostafrika liege, sollen die Ansätze und Ergebnisse künftig weltweit anwendbar sein, betont Krauter.

zurück zur Übersicht

Geometrie im Unendlichen - DFG fördert Forschungsprojekt von Paderborner Mathematiker

Fliegt ein Flugzeug immer geradeaus, umrundet es irgendwann die annähernd kugelförmige Erde auf einer kreisförmigen Flugbahn – vorausgesetzt, es handelt sich um ein Flugzeug, dem nie der Sprit ausgeht. In Räumen mit einer komplexeren Geometrie als jener der Erde können die gedachten Bahnen eines immer geradeaus fliegenden Flugzeugs dagegen deutlich komplizierter aussehen. Wie aber ließen sich diese sinnvoll mit Zahlen charakterisieren? Diese und weitere Fragen beschäftigen den Mathematiker Dr. Benjamin Küster von der Universität Paderborn im Rahmen des DFG-Schwerpunktprogramms „Geometry at infinity“ (SPP 2026).
In der Mathematik bezeichnet man die lokal kürzeste Verbindungskurve zweier Punkte als Geodäte. Ein immer geradeaus fliegendes Flugzeug wird so auf der Erde immer dieselbe Route fliegen, dieselben Orte sehen und alles außerhalb der Route nie überfliegen. Ganz anders sieht es hingegen in der Geometrie der „lokal-symmetrischen Räume“ aus. In seinem DFG-Teilprojekt untersucht Küster zusammen mit Wissenschaftler*innen der AG „Spektral Analysis“ Räume, die sich wesentlich von der oben beschriebenen Situation unterscheiden: „Die Räume, mit denen wir uns beschäftigen, haben im Gegensatz zur Erde keinen endlichen Durchmesser. Es gibt also Orte mit beliebig großer „Luftlinienentfernung“ zueinander. Der zweite Unterschied zur Erde ist, dass ein imaginäres Flugzeug, das in den von uns betrachteten Räumen stur geradeaus fliegt, typischerweise nicht immer dieselbe Flugbahn wiederholen wird. Seine Route sieht eher chaotisch aus. Zudem können diese Räume beliebig viele Raum- und Zeitdimensionen haben. Bei mehreren Zeitdimensionen kommt die Analogie mit den Flugbahnen an ihre Grenzen – man bräuchte dann mehrere Flugzeuge, die nicht mehr alle geradeaus fliegen, sondern nach gewissen Regeln ihre Richtung ändern würden.“

Geometrie und Dynamik in Zahlen
Um lokal-symmetrische Räume zu untersuchen und zu charakterisieren, stützen sich die Wissenschaft auf sogenannte „Resonanzen”. Das sind Verallgemeinerungen des Konzepts der Resonanzfrequenzen. Küster: „Im Fall einer geschlossenen Flugbahn auf der Erde ist die Situation einfach. Hier gibt es nur eine Resonanzfrequenz, und zwar das Inverse bzw. den Kehrwert der Zeit, die ein Flugzeug mit vordefinierter Geschwindigkeit braucht, um die Erde zu umrunden. Auf einer Erde mit Mondgröße wäre diese Zeit kürzer, die Resonanzfrequenz also höher.“ So enthalten die im Projekt betrachteten Geometrien zwar auch geschlossene Geodäten, auf die meisten treffe dies jedoch nicht zu, weswegen sie auch keine Umrundungszeit besitzen würden. „Dennoch lassen sich auch in diesem Fall Resonanzen definieren, die es einem erlauben, die „Flugbahnen“ mit Hilfe von Zahlen zu charakterisieren und beispielsweise quantitativ zu beschreiben, wie „chaotisch“ die Bahnen sind“, so der Paderborner Mathematiker.

Neue Forschungsfragen entdecken
Das Thema „Resonanzen“ berührt mehrere Teildisziplinen der Mathematik wie Analysis, Geometrie, dynamische Systeme, Zahlentheorie und mathematische Physik. Küster: „Während es in der angewandten Mathematik und der Physik durchaus „reale“ Resonanzfrequenzen gibt, die man etwa in einem Experiment messen und mit einem mathematischen Modell vergleichen kann, bieten die im Projekt betrachteten abstrakteren Aspekte des Forschungsgebiets innerhalb der reinen Mathematik Anwendungsmöglichkeiten beispielsweise durch neue Beweismethoden. Vor allem aber gibt es zahlreiche spannende neue Forschungsfragen und -richtungen, die es erst noch zu entdecken gilt.“ Die DFG fördert das Projekt am Paderborner Institut für Mathematik unter dem Titel „Resonanzen für nicht-kompakte lokal-symmetrische Räume“ für die nächsten drei Jahre mit 291.500 Euro.

zurück zur Übersicht

Künstliche Intelligenz für eine bessere Arbeitswelt: Neues Kompetenzzentrum KIAM gestartet

Universität Paderborn mit mehreren Wissenschaftler*innen beteiligt – Forschungseinrichtung wird mit 10,7 Millionen Euro gefördert

Wie wird künstliche Intelligenz die Arbeitswelt verändern? Wie können kleine und mittlere Unternehmen neue Technologien einsetzen, um ihre Beschäftigten zu entlasten und ihre Wettbewerbsfähigkeit zu steigern? Und wie können Mitarbeiter*innen auf den digitalen Wandel vorbereitet werden? Antworten auf diese Fragen liefert das Kompetenzzentrum „KI für die Arbeitswelt des industriellen Mittelstands“ (KIAM), das am 1. Oktober im Rahmen des Spitzenclusters it‘s OWL eröffnet wurde. Fünf Hochschulen, darunter die Universität Paderborn, zwei Fraunhofer-Einrichtungen, elf Unternehmen sowie weitere Einrichtungen entwickeln gemeinsam mit der IG Metall konkrete Ansätze für die Arbeitsplatzgestaltung und Qualifizierung von Beschäftigten.

Kiam als eines von bundesweit zwei Projekten ausgewählt
Im Rahmen der Ausschreibung „Kompetenzzentren für Arbeitsforschung“ des Bundesministeriums für Bildung und Forschung (BMBF) gab es 47 Bewerbungen aus ganz Deutschland. Das Kompetenzzentrum KIAM wurde als eines von bundesweit zwei Projekten ausgewählt. Es wird über fünf Jahre mit 10,7 Millionen Euro durch das BMBF gefördert und durch die it´s OWL Clustermanagement GmbH koordiniert. Die Universität Paderborn ist mit mehreren Wissenschaftler*innen beteiligt. Koordiniert wird die Paderborner Forschung durch das Software Innovation Lab (SI-Lab) des SICP – Software Innovation Campus Paderborn der Uni. Die Paderborner Projektbüros werden schwerpunktmäßig im Gebäude „Zukunftsmeile 2“ an der Fürstenallee angesiedelt.

Paderborner Wirtschaftswissenschaftler*innen und Informatiker*innen leisten Grundlagenforschung
Im Kompetenzzentrum KIAM werden vier Paderborner Wissenschaftler*innen Grundlagenforschung zur sogenannten humanzentrierten Arbeitsplatzgestaltung und zu Change Management-Prozessen, also der planvollen Gestaltung von Veränderungen in Unternehmen, leisten. Zudem werden zwei Beispielprojekte mit Unternehmen durchgeführt. „Wir untersuchen im neuen Kompetenzzentrum insbesondere, wie KI-Systeme sozial und gerecht eingeführt werden können und wie sich die Einführung von KI am Arbeitsplatz mit besonderem Fokus auf die Bedürfnisse der Mitarbeiter*innen gestalten lässt“, erläutert Prof. Dr. Kirsten Thommes. Die Wirtschaftswissenschaftlerin leitet die am Kompetenzzentrum KIAM beteiligten Paderborner Projekte. Neben ihr sind Prof. Dr. Gregor Engels, Prof. Dr. Eyke Hüllermeier und Prof. Dr. Axel-Cyrille Ngonga-Ngomo – sämtlich am Institut für Informatik tätig – daran beteiligt. „Durch die besondere Verbindung von Forschungsperspektiven aus der Arbeitswissenschaft sowie der Informatik sollen im Kompetenzzentrum neue und praxisnahe Ansätze im Sinne der Arbeitnehmer*innen wie auch der Unternehmen entwickelt werden“, so Gregor Engels, der auch Vorstandsvorsitzender des SI-Labs und stellvertretender Sprecher des SICP ist. Dabei komme es vor allem darauf an, KI-Lösungen für ganz reale Situationen zu entwickeln, also neueste technologische Verfahren und Gegebenheiten der Arbeitswelt möglichst optimal aufeinander abzustimmen.

KI als cleverer Helfer für Unternehmen
Mit KI als Technologie ist es möglich, die Qualität in den Bereichen eines Unternehmens zu verbessern, die bislang wenig von technologischem Fortschritt erreicht wurden. Dazu Eyke Hüllermeier: „In der Medizin zeigt sich das beispielsweise schon deutlich, wenn Ärzt*innen durch KI-Verfahren bei der Diagnose unterstützt werden. Produzierende Unternehmen wiederum könnten durch den Einsatz von KI in vielen Bereichen künftig effizienter arbeiten – etwa im Personalbereich, im Einkauf und im Vertrieb.“ Aktuell setzen Unternehmen KI-Lösungen bereits in Bereichen ein, in denen Daten in ausreichender Menge und Qualität vorliegen – etwa im Rechnungswesen oder in der Absatzplanung. „Da KI-Lösungen für jede Frage spezifisch sind, sind die Umstellungskosten für Unternehmen derzeit aber sehr hoch: Dort, wo besonders hohe Effizienzsteigerungen durch KI möglich wären, genügt es nicht, einfach nur eine KI-Lösung zu etablieren. Es müssen auch passende Daten vorliegen und die Anwender müssen in der Lage sein, Ergebnisse zu interpretieren und kritisch zu hinterfragen“, beschreibt Axel Ngonga die Herausforderung. Unter anderem hier setzen die Paderborner Forscher*innen daher mit ihrer Arbeit an.

Transfer in den Mittelstand
Die Ergebnisse und Erfahrungen aus den einzelnen KIAM-Projekten sollen für kleine und mittlere Unternehmen verfügbar gemacht werden. Dazu bauen die Wissenschaftler*innen eine Informationsplattform auf, bereiten nachahmenswerte Best-Practice-Beispiele aus den KIAM-Projekten auf und führen Veranstaltungen und Workshops durch. In Weiterbildungen werden Beschäftigte von Unternehmen für den Einsatz von KI-Technologien qualifiziert. In Transferprojekten können Unternehmen in Kooperation mit einer Forschungseinrichtung neue KI-Technologien für sich nutzen, um konkrete Herausforderungen in ihrem Betrieb zu lösen. Dabei unterstützen Transferpartner des Kompetenzzentrums wie beispielsweise OWL Maschinenbau und die OstWestfalenLippe GmbH.

Über die Projektbeteiligten

KIAM wird durch das Spitzencluster it’s OWL von Prof. Dr.-Ing. Roman Dumitrescu (Geschäftsführer der it‘s OWL Clustermanagement GmbH) koordiniert und gemeinsam durch die Universität Paderborn, die Universität Bielefeld, die TH OWL, die FH Bielefeld, die Fachhochschule der Wirtschaft (FHDW) in Paderborn, das Fraunhofer IEM und das Fraunhofer IOSB-INA sowie durch die Unternehmen Atos, Bette, Bosch Rexroth, Deutsche Angestellten-Akademie OWL, Dr. Oetker, Kannegiesser, itelligence, Lenze, Miele, WAGO, Weidmüller und die IG Metall getragen.

zurück zur Übersicht

Paderborn wird Nationales Hochleistungsrechenzentrum

Bis zu 75 Millionen Euro von Bund und Ländern für High Performance Computing an der Universität Paderborn

Das Hochleistungsrechenzentrum der Universität Paderborn wird in den neu gegründeten Verbund der Nationalen Hochleistungsrechenzentren (NHR) aufgenommen. Darüber hat die Gemeinsame Wissenschaftskonferenz (GWK) entschieden. Für diesen Ausbau hat die Universität bei Bund und Land NRW für die nächsten zehn Jahre eine Förderung in Höhe von 75 Millionen Euro beantragt. Die Universität Paderborn hat sich damit in einem bundesweiten wissenschaftlichen Exzellenzwettbewerb durchgesetzt, der das Ziel verfolgt, eine wissenschaftliche Spezialisierung und langfristige Stärkung der Hochleistungsrechner-Infrastruktur und Unterstützungsangebote in der Forschung auszubauen. Mit dem NHR-Verbund entsteht ein Übergang von einer regionalen zur nationalen Infrastruktur, die allen Wissenschaftsbereichen bundesweit den Zugang zu Rechnern und Beratung ermöglicht. Im Verbund der Nationalen Hochleistungsrechenzentren, der mit der Exzellenzinitiative für Rechenzentren vergleichbar ist, vertritt die Universität Paderborn zukünftig deutschlandweit die interdisziplinären Schwerpunkte Atomistische Simulationen, Optoelektronik und Quantenphotonik sowie Maschinelles Lernen für Intelligente Systeme. „Mit dem NHR-Zentrum knüpfen wir direkt an die hochkarätige Forschung, Initiativen und Forschungsbauten wie Noctua an und bringen diese Kompetenz in das bundesweite Netzwerk ein. Durch die Förderung können wir nun mehrere Generationen von Hochleistungsrechnern beschaffen, die Fachberatungs- und Schulungsangebote ausbauen, sowie dafür anfallende zusätzliche Betriebs- und Personalkosten decken“, erklärt Prof. Dr. Christian Plessl, Vorstandsvorsitzender des Paderborn Center for Parallel Computing (PC²). Im PC² werden Wissenschaftler*innen die bereits etablierten methodischen Schwerpunkte in Simulationsverfahren und Numerik für rechnergestützte Wissenschaften einerseits und Rechnersystemforschung für energieeffizientes Hochleistungsrechnen andererseits weiter vertiefen.

Vorreiterrolle konsequent weiterverfolgen
Mit dem Ausbau zu einem Nationalen Hochleistungsrechenzentrum schaffen wir eine Forschungsinfrastruktur, die die Universität noch attraktiver macht. Ich freue mich sehr, dass wir hier mit der weiteren baulichen Entwicklung noch mehr international sichtbare Forschung ermöglichen“, betont Simone Probst, Vizepräsidentin für Wirtschafts- und Personalverwaltung der Universität Paderborn. Das neue NHR-Zentrum knüpft inhaltlich an den Weg der Spezialisierung an, den die Universität mit dem Forschungsbau und Superrechner Noctua bereits eingeschlagen hat. Durch die NHR-Förderung stehen zusätzliche Ressourcen zur Verfügung, um das Ziel einer Vorreiterrolle im Bereich effizienter und innovativer High Performance Computing-Systeme (HPC) konsequent weiterzuverfolgen. „Aus Sicht der Anwender ist HPC bereits heute eine nicht mehr wegzudenkende Grundlage für komplexe Simulationen in den rechnergestützten Naturwissenschaften und im Ingenieurwesen“, so Prof. Dr. Thomas Kühne, stellvertretender Vorstandsvorsitzender des PC².

Regional bis national vernetzt
"Das im Bau befindliche Hochleistungsrechenzentrum, welches im kommenden Jahr fertiggestellt wird, spielt für uns eine zentrale Rolle, da es hochgradig für den energieeffizienten Betrieb von HPC-Systemen mit direkter Warmwasserkühlung optimiert ist. Wir haben uns mit unseren HPC-Systemen in den letzten Jahren überwiegend auf regionaler bis landesweiter Ebene bewegt. Umso mehr freut es uns, dass wir unsere Kompetenzen und Ressourcen zukünftig auf nationaler Ebene zur Verfügung stellen und unsere Expertise in den Schwerpunktbereichen weiter ausbauen können“, erläutert Plessl. Der Paderborner Wissenschaftler resümiert: „Dass die GWK im Forschungsbauten- und NHR-Programm Investitionen in der Größenordnung von 100 Millionen in Paderborn bewilligt hat, ist ein Beleg für die Exzellenz und immense Bedeutung der rechnergestützten Wissenschaften für die Universität Paderborn.“

zurück zur Übersicht

DFG fördert weiteren Ausbau einer Datenbank zur Erforschung von Graffiti

Bereits seit 2016 bauen Forscher*innen der Universität Paderborn und des Karlsruher Instituts für Technologie eine Datenbank auf, die es erlaubt, Graffiti systematisch zu erforschen. Das Projekt INGRID („Informationssystem Graffiti in Deutschland“), an dem auch Prof. Dr. Axel Ngonga, Leiter der Arbeitsgruppe Data Science, beteiligt ist, wurde nun um weitere drei Jahre verlängert und wird von der Deutschen Forschungsgemeinschaft (DFG) mit rund einer Million Euro unterstützt.
Die von den Wissenschaftler*innen entwickelte digitale Graffiti-Bilddatenbank ermöglicht erstmals systematische Untersuchungen auf Basis hochwertiger Forschungsdaten. „Graffiti-Bildbestände, die dem Projekt ausschließlich für die wissenschaftliche Nutzung zur Verfügung gestellt wurden, werden digitalisiert, annotiert und der Forschung zugänglich gemacht“, sagt Projektleiterin Prof. Dr. Doris Tophinke, Linguistin an der Universität Paderborn. Jedes Bild wird spezifiziert, sodass Nutzer*innen gezielt nach bildlichen, sprachlichen und materiellen Eigenschaften wie Farbe, Technik oder Inhalt suchen können. „Seit Mitte 2019 sind ca. 40.600 Graffiti-Fotos für Wissenschaftler*innen zugänglich. Im Zuge des Ausbaus werden weitere Sammlungen des derzeit mehr als 150.000 Fotografien umfassenden Bestandes erschlossen", so Tophinke.

Mehrwert für die Wissenschaft
Graffiti kamen in den späten 1970er Jahren in den USA auf, eng verbunden mit der Hip-Hop-Szene. Seit den 1980er Jahren haben sie sich zunehmend auch in Deutschland verbreitet. Als anhaltendes jugendkulturelles Phänomen und in ihrer Kombination aus Schrift und Bild sind sie heute Gegenstand der Forschung. Vor allem die Aspekte Bildästhetik, Grammatikalität, die stadträumliche Verortung sowie die soziale Funktion und Bedeutung von Graffiti interessieren die am Projekt beteiligten Wissenschaftler*innen. Die Bilddatenbank ist aber auch für Disziplinen wie Medienwissenschaften, Soziologie oder die Stadtplanung spannend. Dazu Tophinke: „Da Angaben zum Entstehungsort und zur Entstehungszeit der Bilder vorliegen, ist es zum Beispiel möglich, Städteprofile zu erstellen, die den Zusammenhang zwischen städtischer Infrastruktur und dem Aufkommen von Graffiti sowie die Analogien zwischen der Entwicklung von Graffiti und sozialen und städtebaulichen Veränderungen aufzeigen können.“
Zusammen mit Prof. Dr. Martin Papenbrock, Fachgebiet Kunstgeschichte am Karlsruher Institut für Technologie, und Prof. Dr. Gudrun Oevel, Leiterin des Zentrums für Informations- und Medientechnologien der Universität Paderborn, soll die Datenbank in den kommenden Jahren weiter auf- und ausgebaut werden.

zurück zur Übersicht