Hot Ten: Teil V

Hot Ten: Teil V
Hot Ten: Teil V
Anonim

PM setzt seine Reihe von Veröffentlichungen über neue Technologien fort, die mit Sicherheit die Welt verändern werden.

Image
Image
Carl Keselmann
Carl Keselmann
Ian Foster
Ian Foster

In den 1980er Jahren ermöglichten "Internetprotokolle" die Verbindung zweier beliebiger Computer. Die Summe all dieser Netzwerke auf der ganzen Welt war

Internet. In den 1990er Jahren ermöglichte uns das „Hypertext-Übertragungsprotokoll“, zwei beliebige Dokumente zu verknüpfen, und die ganze Welt wurde zu einer Bibliothek, die sich schnell in einen globalen Speicher verwandelte. Heutzutage entwickeln sich "Grid-Protokolle" schnell weiter. Sie werden es uns ermöglichen, alles miteinander zu verknüpfen – Datenbanken, Emulatoren und Visualisierer, sogar die Rechenleistung von Computern. Und eines Tages werden wir erkennen, dass eine weitere Revolution stattgefunden hat.

" Wir treten in eine Zukunft ein, in der der geografische Standort von Computerressourcen irrelevant wird", sagt Ian Foster vom Argon National Laboratory. Zusammen mit Carl Keselman von der University of Southern California führte er ein neues Konzept namens „Metacomputing“(Grid Computing) ein – in Analogie zu elektrischen Netzen, bei denen Strom dort verbraucht wird, wo er gebraucht wird.

Foster und Keselman haben außerdem eine Gemeinschaft um sich herum geschaffen, die sich der Forschung auf einem neuen Gebiet verschrieben hat. Zusammen mit anderen Wissenschaftlern haben sie eine Reihe von Computerprogrammen "Globe" erstellt, die zu einem De-facto-Standard geworden sind und eine Implementierung von Netzwerkprotokollen darstellen. Solche Protokolle versprechen die breitesten Möglichkeiten für Heim- und Bürocomputer. Diese können in den Cyberspace gehen, dort die notwendigen Ressourcen finden und daraus das zur Lösung der Aufgabe notwendige System zusammenstellen.

Stellen Sie sich vor, Sie wären der Leiter eines Schnelleinsatzteams, das die Aufgabe hat, sich schnell um einen großen Chemikalienunfall zu kümmern. Zuerst möchten Sie wissen, was die Chemikalien sind. Dann - wie ist die Wettervorhersage und wie ist die Situation auf den Straßen, ist es realistisch, die Evakuierung der Bevölkerung zu organisieren - sagt Keselman. - Wenn Sie versuchen, Antworten im modernen Internet zu finden, werden Sie durch die Authentifizierungsverfahren verwirrt, und inkompatible Programme werden Sie daran hindern, den Prozess zu automatisieren. Aber mit Hilfe von Meta-Computing wird alles einfach: Netzwerkprotokolle werden Standardmechanismen für das Auffinden von Informationen, den Zugriff darauf und auch die Aktivierung jeder anderen Online-Ressource bereitstellen. Gleichzeitig enth alten diese Protokolle alles Notwendige für Sicherheit, Accounting und Authentifizierung.“

Dutzende von Metacomputing-Systemen werden weltweit entwickelt. Fast alle von ihnen sind auf dem Globus gebaut. Sie werden Forschern eine beispiellose Rechenleistung zur Verfügung stellen, die in der Forschung von Genetik, Teilchenphysik bis Seismologie eingesetzt werden kann. Eines der größten Projekte wird TeraGrid sein, ein 88-Millionen-Dollar-Projekt der US National Science Foundation.

Bis Ende des Jahres soll es fertig sein. Der resultierende verteilte Supercomputer wird der schnellste Computer der Erde sein und eine Kapazität von 21 Billionen Gleitkommaoperationen pro Sekunde (FLOPS) haben. Die Idee des Metacomputing ist in den letzten Jahren sehr populär geworden und hat Unterstützung von solchen Schwergewichten der Computerindustrie wie IBM, Sun und Microsoft erh alten. IBM, der Hauptpartner des TeraGrid-Projekts und an vielen anderen ähnlichen Projekten beteiligt, hat eine kommerzielle Version des Globus-Pakets auf den Markt gebracht.

Die ganze heutige Pracht des Meta-Computing wurde 1995 durch die wissenschaftliche Arbeit von Foster und Keselman geboren. Aber was noch wichtiger ist, Wissenschaftler haben nicht nur Standards entwickelt, sondern auch eine Gemeinschaft von Gleichgesinnten organisiert, dank derer ihre wissenschaftliche Arbeit Wirklichkeit wurde. Die Community hat dazu beigetragen, zwei Ansätze zusammenzubringen: das Verbinden von Computern miteinander, wodurch die ungenutzte Leistung von Desktop-Computern für Berechnungen wie SETI@home genutzt wird, und die Verwendung von Webdiensten, bei denen der Zugriff auf entfernte Computerressourcen über das WWW-Protokoll erfolgt. Durch die Kombination dieser beiden Technologien beschleunigten Foster und Keselman die Revolution erheblich und schufen den Prototyp des Nachfolgers des heutigen Internets.

MIT Technology Review (c)2003

Empfohlen: