Was ist Autonomic Computing?
Autonomic Computing ist die nächste Generation integrierter Computertechnologie, mit der sich Netzwerke ohne oder mit geringem menschlichem Eingriff selbst verwalten können. Es ist nach dem autonomen Nervensystem des Menschen benannt, das Impulse sendet, die Herzfrequenz, Atmung und andere Funktionen ohne bewusstes Nachdenken oder Anstrengung steuern.
Paul Horn von IBM Research schlug am 15. Oktober 2001 auf der Agenda- Konferenz in Arizona erstmals die Idee des autonomen Rechnens vor. Der Bedarf konzentriert sich auf das exponentielle Wachstum der Netzwerkkomplexität. Es gibt nicht nur eine Vielzahl von Desktop- und Mobilgeräten, die mithilfe konkurrierender Strategien, Standards und Schnittstellen miteinander verbunden sind und in verschiedene Arten von Netzwerken eingespeist werden. Unternehmen, Institutionen und sogar die Infrastruktur verlassen sich immer mehr auf diese Netzwerke. Es gibt jedoch einen Mangel an I / T-Fachleuten, und es ist für Techniker praktisch unmöglich, mit dem ständigen Ansturm neuer Geräte, sich ändernden Protokollen, neuen Online-Geschäftslösungen und der Anbindung mobiler Herausforderungen Schritt zu halten. IBM und andere Technologie-Giganten gehen davon aus, dass sich dieses Problem weiter verschärfen wird.
Die Lösung besteht laut IBM darin, eine Grundlage für branchenweite Standards zu schaffen, die auf einigen gängigen Protokollen für den Umgang mit Daten basieren. Mit „gemeinsamen Stammannahmen“ könnten Hardware und Software verschiedener Hersteller nicht nur zusammenarbeiten, sondern auch ein mehrstufiges autonomes Computersystem unterstützen, das auf diesen Annahmen basiert. Dies würde eine Umgebung schaffen, in der das System ohne menschliches Eingreifen verschiedene kritische Verwaltungsaufgaben ausführen könnte.
IBM sieht acht grundlegende Kriterien, die ein allgegenwärtiges autonomes Computersystem definieren. Kurz gesagt, sie sind wie folgt:
- Das System muss in der Lage sein, sich selbst, seine Verbindungen, Geräte und Ressourcen kontinuierlich zu erfassen und zu wissen, welche Daten gemeinsam genutzt oder geschützt werden sollen.
- Es muss in der Lage sein, sich dynamisch nach Bedarf zu konfigurieren und neu zu konfigurieren.
- Es muss ständig nach Möglichkeiten suchen, die Leistung zu optimieren.
- Es muss sich selbst heilen, indem es Ressourcen neu verteilt und sich neu konfiguriert, um alle dysfunktionalen Elemente zu umgehen.
- Es muss in der Lage sein, die Sicherheit zu überwachen und sich vor Angriffen zu schützen.
- Es muss in der Lage sein, die Bedürfnisse koexistierender Systeme in seiner Umgebung zu erkennen und sich diesen anzupassen.
- Es muss mit gemeinsam genutzten Technologien funktionieren. Proprietäre Lösungen sind mit der autonomen Computerideologie nicht kompatibel.
- Diese Ziele müssen nahtlos und ohne Eingreifen erreicht werden.
Während dies die acht vorgeschlagenen Bestandteile eines autonomen Computersystems sind, hofft IBM, dass sich daraus drei Ziele für den Endbenutzer ergeben: Flexibilität, Zugänglichkeit und Transparenz. Kurz gesagt, die Möglichkeit, Daten nahtlos von zu Hause, im Büro oder vor Ort zu extrahieren, ist problemlos und unabhängig von der Geräte-, Netzwerk- oder Konnektivitätsmethode.
Mehrere Universitäten und Unternehmen, wie Sun Microsystems und Hewlett Packard, entwickeln ähnliche Systeme, aber IBM behauptet, dass ihre Pläne für autonomes Rechnen weiter gehen. Da dieser Plan auf einer kooperativen Weiterentwicklung von Hard- und Software beruht, soll Autonomic Computing über einen Zeitraum von mehreren Jahren schrittweise implementiert werden.