Mitgliedschaft

Informatik-Lexikon

Fachbegriffe zu Informatik und deren Anwendung

Wir sind Informatik

Heidi Heilmann

"Ich bin GI-Mitglied seit über 30 Jahren, weil es mir irgendwann selbstverständlich erschien, in der GI mitzuarbeiten – was dann auch sehr schnell real geschah!"

 

Passende Inhalte mit dem Tag Grand Challenges

Was sind Grand Challenges der Informatik?
Versuch einer Definition: Eine "Grand Challenge" in / für die Informatik ist ein grundsätzliches (fundamentales) Problem, dessen Lösung (mit Informatik-Hilfsmitteln) einen deutlich spürbaren Fortschritt in ökonomischer, sozialer oder gesellschaftlicher Hinsicht für unser aller Leben bedeutet. Ein Arbeitskreis des GI-Präsidiums hat sich unter Leitung von Ex-Vizepräsidentin Simone Rehm mit der Frage beschäftigt, was große Herausforderungen der Informatik in der Zukunft sein könnten. Aus den eingereichten Vorschlägen wurden einige zusammengefasst und andere zurückgestellt, sodass das Präsidium schließlich fünf Themen als die (ersten) Grand Challenges der Informatik ausgewählt hat. Weitere werden nach der Evaluation des Projektes bei Bedarf folgen. Ziele der GC-Initiative:
  • Der Informatik als attraktiver Wissenschaft in der Öffentlichkeit ein Gesicht geben.
  • Jungen Menschen zeigen, welche interessante Herausforderungen die Informatik bietet und Anreize zu einer entsprechenden Berufswahl geben.
  • Der Öffentlichkeit zeigen, welch gesellschaftlich relevanten Probleme sich mit Informatik lösen lassen.
  • Studenten und Wissenschaftler ermuntern, zu diesen Themen zu forschen.
  • Forschungseinrichtungen motivieren, die Forschung zu diesen Themen zu intensivieren.
Grand Challenges
Digitale Kultur
Wie bewahren wir digitale Informationen für unsere Nachwelt auf? Bücher, Bilder und Tonträger lassen sich ins Museum stellen. Sie lassen sich sogar digitalisieren und digitalisiert für lange Zeit archivieren. Wie aber bewahrt man einen Video-Clip, der digital erstellt und nur im Internet veröffentlicht wird, für die nachfolgenden Generationen auf? weiterlesen ... Internet der Zukunft
Wie erkennen wir beim Versenden einer digitalen Information, ob sie auf dem Weg zum Empfänger unbemerkt gelesen wurde? An einem versiegelten Briefumschlag sah man, ob das Siegel gebrochen war. Eine digitale Information kann unbemerkt kopiert, aber auch sehr einfach manipuliert worden sein. Wie sichern wir dann Integrität und Vertraulichkeit im Netz? weiterlesen ... Systemische Risiken
Eine digitale Information kann mit beliebig vielen anderen Informationen verbunden werden. Es entstehen dabei vernetzte Systeme, die in ihrer Komplexität kaum fassbar, geschweige denn beherrschbar sind. Wie schaffen wir es, die daraus entstehenden Risiken einzudämmen und zu beherrschen? weiterlesen ... Allgegenwärtige Mensch-Computer-Interaktion
Ist es schon schwer, sich in einem Irrgarten zurechtzufinden, wo Wege im Nichts enden, wie schwer finden sich Menschen im virtuellen Raum zurecht? Wie kann die allgegenwärtige Mensch-Computer-Interaktion künftig so gestaltet werden, dass alle Bürger sich in der gemischt digitalen und physikalischen Welt souverän bewegen können? weiterlesen ... Verlässlichkeit von Software
Und nicht zuletzt: Wenn Software unsere Welt regiert, unsere Autos und Flugzeuge steuert und unsere medizinischen Instrumente dirigiert, wie schaffen wir es, zu beweisen, dass die Software genau das tut, was sie soll? weiterlesen ... Broschüre mit den fünf Grand Challenges zum Herunterladen. Ein gedrucktes Exemplar können Sie gerne per E-Mail bestellen.
Erhalt des digitalen Kulturerbes
Die Digitalisierung hat längst auch unsere Kultur erfasst. Das birgt Chancen, denn digitalisiert sind analoge Artefakte wie Bücher einem größeren Interessenten-Kreis zugänglich. Gleichzeitig verändert sich der Gegenstand jedoch, er verliert beispielweise seine Haptik. Damit verbunden sind zwei zentrale Herausforderungen: Wie können virtuelle Objekte angemessen präsentiert und zugänglich gemacht werden? Und es stellt sich die Frage nach der Langzeitarchivierung: Wie lässt sich das digitale Kulturerbe dauerhaft bewahren? Neben den digitalisierten analogen Artefakten haben wir es mittlerweile aber auch mit vielen alltäglichen digitalen Kulturgütern wie Fotos, Filmen, Musik oder E-Mails  zu tun. Nicht zu vergessen sind auch die so genannten Born Digitals wie Programme oder Spiele, die überhaupt keine analoge Entsprechung mehr haben. Im Gegensatz zu analogen Datenträgern wie Steintafeln, verfügen digitale Datenträger allerdings nur über wenige Jahre Halbwertszeit. Problematisch sind zudem proprietäre Systeme und Formate, denn damit sind Daten von der Interpretation durch eine bestimmte Software abhängig. Rechtliche Fragen im Zusammenhang mit Urheberrechtsschutz, Digital Rights Management und Cloud Computing erschweren die Langzeitarchivierung zusätzlich. Insgesamt droht so der Verlust digitaler Kulturgüter. Und was die Präsentation betrifft, so stehen Konzepte für die Verschmelzung digitaler Kultursammlungen mit den Möglichkeiten physikalischer Gedächtnisorganisationen wie Archive, Museen oder Bibliotheken noch am Anfang ihrer Entwicklung.  Lösungen zur Bewahrung des digitalen Kulturerbes müssen neben rechtlichen Aspekten viele fachspezifische und technische Anforderungen berücksichtigen, was die Konsensfindung erschwert. Auch ist Langzeitarchivierung aus technischer Sicht kein einmaliger Vorgang, sondern eine dauerhafte Aufgabe: Datenbestände müssen kopiert, umformatiert und emuliert werden. Am sinnvollsten geschieht dies mithilfe offener Standards und Open-Source-Software, um Nachvollziehbarkeit und langfristige Nutzung zu sichern. Doch wie  zuverlässig sind Methoden der Langzeitarchivierung überhaupt? Hier stehen Testverfahren aus. Mit ersten Ansätzen, die dem Paradigma Blended Interaction folgen, entstehen auch neue Interaktionskonzepte für die Präsentation digitaler Kulturgüter; die interaktive Wissensvermittlung erfolgt hier durch die Kombination von realweltlicher Ausstellung und digitaler Präsentation. Zugang und Bewahrung des digitalen Kulturerbes lassen sich nicht mit einem einzigen Ansatz lösen. Die Grand Challenge ist die Entwicklung von Best Practices in einem längerfristigen und interdisziplinären Prozess. Mit Strategien zur Langzeitarchivierung können wir unser digitales Kulturerbe erhalten und ein „Zeitalter ohne Gedächtnis“ vermeiden. Ohne nachhaltige Langzeitbewahrung ist das digitale Kulturerbe unwiederbringlich verloren. Deshalb benötigen wir Konzepte, um diese Kulturgüter auch für künftige Generationen begreifbar und erlebbar zu machen. Poster zum Herunterladen
Langfassung Kontakt:
Für den Bereich Langzeitarchivierung:
Dr. Jens-Martin Loebel, Universität Bayreuth

Für den Bereich Mensch-Computer-Interaktion:
Prof. Dr. Maximilian Eibl, Technische Universität Chemnitz
Prof. Dr. Harald Reiterer, Universität Konstanz


Internet der Zukunft - sicher, schnell, vertrauenswürdig
In den 40 Jahren seines Bestehens hat das Internet stetig an Bedeutung gewonnen – gesellschaftlich, politisch, wirtschaftlich. Seine technische Basis ist jedoch weitgehend unverändert geblieben. Insbesondere die Sicherheit im Internet hat mit seiner gewachsenen Bedeutung nicht mitgehalten. Daher ist die technische Weiterentwicklung zu einem sicheren, freien und vertrauenswürdigen Internet der Zukunft eine besondere Herausforderung der Informatik. Eine Grundfrage der Sicherheit betrifft den Konflikt von Privatsphäre und Eindeutigkeit bei der Internet-Kommunikation. Einerseits sollen Internet-Nutzer ihre Identität geheim halten können, andererseits sollte der Sender einer Nachricht auf Wunsch des Empfängers auch eindeutig zu identifizieren sein. Ein anderer Aspekt ist die Zweckbindung sensitiver und persönlicher Daten. Wie ist sichergestellt, dass beispielsweise eine digitale Krankenakte nur vom behandelnden Arzt, nicht aber von der Versicherungswirtschaft verwendet wird? Wie lassen sich kriminelle Handlungen wie Spam, Cybermobbing oder Identitätsdiebstahl verhindern, ohne zugleich die Offenheit der Kommunikation einzuschränken? Verlässlichkeit und Vertrauenswürdigkeit sind Kerneigenschaften des Internets der Zukunft! Zweifellos gibt es zu allen Einzelproblemen bereits viele Lösungsansätze. Und obwohl die Komplexität und Interdependenz der Fragen eine Gesamtbetrachtung erfordern, steht diese noch aus. Hier muss die Informatik mit ihren technischen und methodischen Kompetenzen eine Vorreiterrolle einnehmen, Experten aller Fachrichtungen und Tätigkeitsbereiche zusammenbringen und den Erneuerungsprozess des Internets federführend mitgestalten. So verfolgt das Konzept der mehrseitigen Sicherheit etwa das Ziel, Kommunikationssysteme technisch so zu entwerfen, dass die Sicherheitsanforderungen aller Nutzer berücksichtigt werden und sich widersprüchliche Anforderungen auflösen lassen. Auf übergeordneter Ebene könnte man das existierende Internet technisch erweitern oder parallele neue Netze aufbauen, mit Schnittstellen zum existierenden Internet. Um den Anforderungen des digitalen Zeitalters gerecht zu werden, sind Dienste mit garantierten Eigenschaften notwendig, zum Beispiel mit verschlüsselter Datenübertragung, Werbefreiheit und physischer Identifizierung. Bei Bedarf kann der Informationsaustausch anonym oder pseudonym stattfinden. Pseudonymität wahrt die Privatheit, die Nutzer sind jedoch – falls erforderlich – nachträglich identifizierbar. Mit verschlüsselten mobilen Endgeräten in der Hand haben Nutzer einen sicheren und freien Zugang zum Internet. Das Internet der Zukunft muss offen gestaltet sein und den Austausch von Daten und Gütern ohne Beschränkung der Kommunikationsformen erlauben. Das Internet der Zukunft genießt zudem Vertrauen, denn seine Kommunikationsinfrastruktur ist nicht nur abhörsicher, sondern ermöglicht insbesondere bei rechtlich relevanter Kommunikation die Nachvollziehbarkeit und reduziert damit auch signifikant die Möglichkeiten krimineller Handlungen. Poster zum Herunterladen
Langfassung Kontakt:
Prof. Dr. Hannes Federrath, Universität Hamburg
Systemische Risiken in weltweiten, IT-unterstützten Netzen
Wirtschaftssysteme, Unternehmen, Maschinen und Haushalte sind enger vernetzt als je zuvor. Die Methoden, eine Übertragung von Schocks durch das gesamte System zu identifizieren und einzuschränken, haben mit dieser Entwicklung jedoch nicht Schritt gehalten: Systemische Risiken werden auch in komplexen und dynamischen Netzwerken durch starre Trennlinien, fixe Puffer und personelle Überprüfung gemanagt. Die Herausforderungen an die Informatik: Entwicklung differenzierter Interventionssysteme. Beispiel Finanzkrise: Ausfälle US-amerikanischer Hypothekendarlehen haben erst US-amerikanische Banken, dann europäische Institute und zuletzt ganze Staaten in den Ruin geführt. Die Unterstützung für betroffene Unternehmen und Staaten erfolgte nach dem Gießkannenprinzip, statt die systemischen Knotenpunkte des Netzwerks zu identifizieren und dort gezielt tätig zu werden. Andere Netzwerke wie elektronische Börsen sind durch Schnelligkeit und hohen Automatisierungsgrad attraktiv. Auf Ausfälle reagieren sie aber besonders unflexibel: bei Kurseinbrüchen wird der Handel automatisch eingestellt, denn maßgeschneidertes Eingreifen ist wegen der hohen Übertragungsgeschwindigkeit und der Datenmengen nach heutigen technischen Standards unmöglich. Hier ist die Informatik gefordert, den wirtschaftlichen und gesellschaftlichen Bedarf nach differenzierten Interventionssystemen zu decken. Nötig sind vier Schritte: Im ersten Schritt werden abstrakte Netzwerk-Modelle entwickelt, die auf unterschiedlichste reale Probleme anwendbar sind. Um übertragbar zu sein, müssen die Modelle mit speziellen Datensätzen umgehen können und viele Stellschrauben enthalten. Im zweiten Schritt werden umfangreiche Simulationen notwendig. Diese erlauben es, an Knotenpunkten des Netzwerks Schocks auszulösen. Je nachdem in welche Richtung sich ein Schock ausbreitet, wie stark sein Effekt auf das Netzwerk ist und wie lange und intensiv er spürbar ist, lässt sich der Knotenpunkt als mehr oder weniger wichtig einteilen. Im dritten Schritt gilt es die Ergebnisse der Simulationen zu interpretieren. Das geschieht aufgrund der hohen Datenmengen nicht personell, sondern automatisiert mit Methoden aus der Künstlichen-Intelligenz-Forschung. Doch auch die beste Schlussfolgerung ist ohne zielgruppengerechte Kommunikation wertlos. Politiker und Aufsichtsbehörden interessieren sich für andere Kennzahlen als Führungskräfte aus der Wirtschaft. Angemessene Kommunikationsstrategien bilden daher den vierten und letzten Lösungsschritt. Und dann? Dann können knappe Ressourcen wie Eigenkapital, Ersatzteillager oder Versicherungen an kritischen Stellen eingesetzt werden, statt sie undifferenziert an allen eventuellen Schwachstellen vorzuhalten. Es können von Interessengruppen gezielt gestreute wirtschaftliche oder politische Schreckensszenarien wissenschaftlich zuverlässig auf ihren Wahrheitsgehalt überprüft werden. Gezielte Interventionen ersetzen Maximallösungen, die auf Kosten der Allgemeinheit gehen. Poster zum Herunterladen
Langfassung
Kontakt:
Prof. Dr. Peter Mertens, Universität Erlangen-Nürnberg
Prof. Dr. Torsten Eymann, Universität Bayreuth
Allgegenwärtige Mensch-Computer-Interaktion
In unserer immer mehr von digitalen Kommunikations- und Informationsangeboten bestimmten Welt entscheidet die wirkungsvolle Nutzung von Computern – insbesondere die Interaktion zwischen Mensch und Computer – zunehmend über persönlichen Erfolg und gesellschaftliche Teilhabe. Wie kann die Informatik bei der Gestaltung von Interaktion und Benutzungsschnittstellen dazu beitragen, dass Menschen möglichst aller Altersstufen, körperlicher und geistiger Verfassung, Bildungsabschlüsse, kultureller Hintergründe, gesellschaftlicher Funktionen und ökonomischer Möglichkeiten gleichermaßen von der Informationstechnologie profitieren können? Mit der Weiterentwicklung interaktiver und multimedialer Anwendungssysteme steigt auch deren Komplexität. Anwender haben inzwischen eine Vielzahl unterschiedlicher Interaktionsgeräte zur Verfügung: private mobile Geräte, Tablets, interaktive Tische, öffentliche Interaktionswände und vieles mehr. Wie lässt sich sicherstellen, dass Einzelpersonen oder Gruppen diese Geräte intuitiv erfolgreich nutzen können? Niemand möchte für jedes Gerät eine ausführliche Gebrauchsanweisung studieren. Außerdem werden immer mehr Dienste über diese Geräte angeboten und genutzt. Die Dienste und ihre Verknüpfungen untereinander sind heute oft nicht verständlich. Eine benutzergerechte Gestaltung der Mensch-Computer-Interaktion bezieht daher auch die genutzten Dienste ein und integriert sie in ein transparentes und verständliches Gesamtkonzept. Ein wichtiger Aspekt ist dabei die Absehbarkeit von Folgen. Da Menschen bei der Interaktion mit Computern vielfach Aktionen wie den Abschluss eines Vertrages oder die Übermittlung persönlicher Daten auslösen, sollten sie bereits vor der Interaktion die Konsequenzen ihres Handelns verlässlich einschätzen können. Eine unmittelbar verständliche oder selbsterklärende Nutzung ist ein wichtiges Teilziel bei der Senkung der Zugangsvoraussetzungen. Neben Fragen der Software-Ergonomie spielt dabei die Fähigkeit zur kontextgerechten Konfiguration und Adaption eine wichtige Rolle. Der Anspruch adaptiver Informationssysteme ist es, sich automatisch und intelligent an den Nutzerkontext anzupassen, um Interaktion einfach, wirkungsvoll und individuell zu machen. Neue Interaktionswege – etwa die Verarbeitung natürlicher Sprache oder das Erkennen von Gesten – setzen wenn möglich direkt bei den natürlichen Fähigkeiten des Menschen an. Trotz beachtlicher Fortschritte in den letzten Jahren gibt es große Herausforderungen und Chancen gerade bei der transparenten Integration auf verschiedenen Ebenen. Interdisziplinarität und Zusammenarbeit von Experten aus Informatik, Psychologie, Design und anderen Fachgebieten sind gefragt. Angemessen gestaltete Mensch-Computer-Interaktion soll es Menschen aller Alters- und Bildungsstufen künftig erlauben, die inzwischen allgegenwärtigen Kommunikations- und Informationsangebote mühelos zu nutzen und an gesellschaftlichen Prozessen in Bildung, Kultur und Politik teilzunehmen. Idealerweise schaffen Interaktionssysteme während der Nutzung ein Bewusstsein für die Folgen der Interaktion sowie für die Verantwortung des Nutzers für sich und andere. Poster zum Herunterladen
Langfassung Kontakt:
Prof. Dr. Michael Herczeg, Universität Lübeck
Prof. Dr. Michael Koch, Universität der Bundeswehr, München
Verlässlichkeit von Software
Software ist heute allgegenwärtig und kommt im täglichen Leben überall zum Einsatz: in der Kommunikation, der Unterhaltungselektronik, im Haushalt, in der Medizintechnik und in sicherheitskritischen Bereichen. Umso überraschender, dass es keine durchgängigen Methoden und Werkzeuge gibt, um die Verlässlichkeit von Software zu garantieren. Dieser Herausforderung muss sich die Informatik in den kommenden Jahren stellen. Verlässlichkeit umfasst dabei nicht nur die Frage, ob Software ihre funktionalen Anforderungen erfüllt. Auch Datenschutz und schnelles Erkennen von Fehlfunktionen sind wichtige Aspekte. Für Entwickler etwa wäre die Garantie, dass von ihnen entwickelte Softwaresysteme sensible Daten schützen, ein Qualitätsmerkmal. Anwender, die Software im privaten und industriellen Bereich einsetzen und von Software generierte Ergebnisse zur Grundlage von Entscheidungen machen, können durch Vermeiden oder frühzeitige Fehlererkennung hohe Kosten vermeiden – etwa bei Rückrufaktionen in der Automobilindustrie. Die Verlässlichkeit von Software lässt sich allerdings nicht vollständig automatisiert überprüfen und garantieren. Softwaresysteme werden für unklare Einsatzfelder und -bedingungen entworfen. Unterschiedliche Entwickler ändern sie im Laufe der Zeit, entwickeln sie weiter und vernetzen sie mit anderen Systemen. Schließlich setzen Nutzer mit verschiedenen Anforderungen sie ein. So entstehen Softwaresysteme von einer Größe, Komplexität und Vielzahl voneinander abhängiger Qualitäten. Deren Verlässlichkeit lässt sich nur durch eine Kombination von automatisierter Verifikation und weiteren Methoden wie Anwenderstudien garantieren. In vielen Teilen der Informatik – beispielsweise Algorithmenentwicklung und -analyse, formale Spezifikationssprachen, automatische Verifikation, Semantik- und Simulationstechniken, Entwicklungs-, Architektur- und Testmethoden, Mensch-Maschine-Schnittstellenunterstützung – gibt es bereits umfangreiche Vorarbeiten zur Verlässlichkeit von Software. Diese Vorarbeiten müssen durch Zusammenarbeit der Fachleute mit Spezialisten in Hardware-nahen Disziplinen und in den Anwendungsdisziplinen zusammengeführt werden. Dadurch kann – im mittelfristigen Zeitraum innerhalb eingegrenzter Domänen und Nutzungskontexte, längerfristig auch für vernetzte Anwendungen – das Verhalten von Software präzise vorhergesagt werden. Auf Basis nachvollziehbarer und automatisch auswertbarer Dokumentationen können Softwaresysteme dann sowohl bei der Entwicklung als auch im Betrieb automatisiert zertifiziert werden. Auf Fehler kann das Softwaresystem dann auch mit selbstheilenden Mechanismen reagieren, so dass bei lokalen Ausfällen die Stabilität des gesamten Systems nicht beeinträchtigt wird. Verlässliche Software steigert das Vertrauen der Nutzer, führt zu einem effizienteren Einsatz knapper Ressourcen und verhindert Katastrophen in sicherheitskritischen Bereichen sowie in der Infrastruktur. Poster zum Herunterladen
Langfassung

Passende Seiten mit dem Tag Grand Challenges