IBM: Meilenstein in der Erforschung von praxistauglichen Quantencomputern

von Rudi Kulzer

auf der Basis einer Pressemeldung

Das Wissenschaftsmagazine „Nature Communications“ berichtet in seiner Ausgabe vom 29. April 2015, dass Wissenschaftler des IBM Thomas J. Watson Research Centers in Yorktown Heights und Zürich erfolgreich einen Schaltkreis aus vier, in einem quadratischen Gitter angeordneten Quantenbits entwickelt. Dieser entspricht der kleinsten vollständigen Einheit eines skalierbaren Quantencomputers mit Quantenfehlerkorrektur. 

IBM Quantum_2

Die IBM Forscher konnten mit ihrer Arbeit erstmals die zwei Arten von Quantenfehlern (so genannte Bit-flip- und Phase-flip-Fehler), die in jedem Quantencomputer auftreten können, erkennen und messen. Bisher war es nur möglich, einen der beiden Fehler zu bestimmen, nicht aber beide gleichzeitig. Diese Fähigkeit ist jedoch notwendig für die Korrektur von Quantenfehlern – einer wesentlichen Voraussetzung für den Bau eines entsprechenden Computers.  

IBM Quantum 1

 

Eine der größten Herausforderungen bei der Realisierung von Quantencomputern ist die Kontrolle oder Beseitigung der Dekohärenz, die zu Rechenfehlern führt. Diese können z.B. durch Wärme, elektromagnetische Strahlung oder Störstellen im Material verursacht werden. Solche Fehler sind in der Quantenmechanik besonders gravierend, da Quanteninformationen sehr fragil sind. Um Bit-flip- und Phase-flip-Fehler gleichzeitig zu erkennen, haben die IBM Wissenschaftler vier supraleitende Quantenbits (Qubits) in einem quadratischen Gitter auf einem rund ein Quadratzentimeter großen Chip verbunden. Dabei bildet die Anordnung in einem Viereck eine wichtige Neuerung, da eine lineare Kette von Qubits die gleichzeitige Detektion beider Quantenfehlerarten verhindert. Zudem ließe sich die von IBM gewählte Konfiguration durch den Anschluss weiterer Qubits gut skalieren.

Die Rechenleistung von Quantencomputern eröffnet viele neue Möglichkeiten, um hochkomplexe Optimierungs- und Simulationsprobleme zu lösen, die heute mit keinem Supercomputer berechenbar sind. Könnte man einen Quantencomputer mit nur 50 logischen Qubits bauen, so gäbe es keine Kombination aus Superrechnern der gegenwärtigen TOP500-Liste, die dessen Rechenleistung nachahmen könnte. Logische Qubits sind durch Quantenfehlerkorrektur frei von Dekohärenz und werden durch mehrere physikalische Quibits codiert. 

„Quantencomputer haben das Potenzial, die computergestützten Wissenschaften zu transformieren“, sagt Arvind Krishna, Direktor von IBM Research. „Sie werden üblicherweise für die Kryptographie erforscht. Wir sehen jedoch auch ein bedeutendes Einsatzgebiet darin, bisher nicht lösbare Problemstellungen in der Physik oder Quantenchemie zu bearbeiten. Dies könnte etwa der Materialforschung oder Medikamentenentwicklung völlig neue Möglichkeiten eröffnen.“

 

STRATO will im Markt für Hosting-Lösungen auch Businesskunden bedienen

von Rudi Kulzer

Der Berliner Webhoster STRATO erweitert sein Geschäftsfeld und will ab sofort Hosting-Lösungen auch für Mittelständler, Reseller und Systemhäuser anbieten. Bisher konzentrierte sich die Telekom-Tochter STRATO auf Privatkunden, Selbständige und kleine Unternehmen.

strato

Die neuen maßgeschneiderten Hosting-Lösungen auf dem erweiterten Business-Markt können Kunden im persönlichen Gespräch oder online über den neuen Server-Konfigurator erhalten. Neue professionelle Services, zum Beispiel Service-Level-Agreements (SLA) und eine 24/7 Experten-Hotline, sollen Kunden mit deutlich höheren Service-Ansprüchen unterstützen.

 

„Mit Produkten von der Stange sind wir seit Jahren erfolgreich“,sagt Dr. Christian Böing, CEO von STRATO. „Unsere Tochtergesellschaft Cronon ist seit 2000 darauf spezialisiert, hoch professionelle IT-Lösungen zu bauen und zu betreiben, auch für Großkunden wie die Deutsche Telekom. Mit der neuen Business-Sparte schließen wir die Lücke zwischen individuellen Privat-Kunden und Big Business.“

 

HP Software spürt interne Angreifer auf

von Rudi Kulzer

basiert auf einer Pressemeldung von HP 

Auf der RSA-Konferenz in San Francisco hat HP heute eine Reihe neuer Security-Lösungen vorgestellt. Sie analysieren und schützen die Interaktionen zwischen Nutzern, Anwendungen und Daten im Rechenzentrum, in der Cloud und auf Endgeräten. Zum Einsatz kommen dabei Technologien für die Analyse des Nutzerverhaltens, datenzentrischer Schutz für den Zugriff auf Cloud-Anwendungen, Reputations-Analyse von mobilen Anwendungen und kontextorientierter Austausch von Sicherheits-Informationen zwischen Firmen.

Laut einer aktuellen Studie des ITK-Branchenverbands Bitkom gehen in deutschen Unternehmen 52 Prozent der digitalen Angriffe auf aktuelle oder ehemalige Mitarbeiter zurück. Die neue Software HP ArcSight User Behavior Analytics (UBA) erlaubt es Unternehmen, kriminelles oder fahrlässiges Verhalten von Nutzern in Echtzeit zu erkennen – dabei kann es sich sowohl um Mitarbeiter als auch um externe Angreifer handeln, die interne Nutzerkonten gekapert haben.

HP ArcSight User Behavior Analytics entdeckt verdächtiges Benutzerverhalten

HP ArcSight User Behavior Analytics ist eine Erweiterung von HPs Software für Security Information and Event Management (SIEM) HP ArcSight. Dabei kommt Technologie des Security-Analytics-Anbieters Securonix zum Einsatz. Auf der Grundlage von Nutzerrollen, Nutzerkonten und den bisherigen Nutzeraktivitäten generiert HP ArcSight UBA Profile des Normalverhaltens von Nutzern. Die Software überwacht sodann aktiv und kontinuierlich das Nutzerverhalten im Hinblick auf risikoreiche oder ungewöhnliche Aktivitäten.

In Kombination mit SIEM-Analysen entdeckt die Software Anomalien und bewertet die mit ihnen verbundenen Risiken. Damit können sich ArcSight-Kunden auf die Aktivitäten, Nutzer und Anwendungen konzentrieren, die das größte Risiko bergen. Sie erhalten konkrete und zielführende Informationen über bereits bekannte oder bisher unbekannte Bedrohungen und bekommen die Angriffe damit schnell unter Kontrolle, verspricht HP.

 

Intel feiert den 50. Geburtstag von „Moore’s Law“.

Meldung von Rudi Kulzer

Am 19. April feiert Intel den 50. Jahrestag von „Moores Law“ (Moores Gesetz). Der von Intel-Mitgründer Gordon Moore aufgestellte Grundsatz gilt für den führenden  Weltkonzern der Halbleiterindustrie bis heute. Er geht auf einen Artikel Moores in der Fachzeitschrift „Electronics“ aus dem Jahr  1965 zurück und besagt, dass sich die Performance von Chips alle 18 Monate verdoppelt. In Moores eigener Zusammenfassung lautet sein Gesetz ursprünglich: „Die Komplexität für Chips mit minimalen Herstellungskosten (Kosten pro Komponente) wächst grob um Faktor zwei in jedem Jahr.“

Seine Prognosen waren kühn, viele trafen tatsächlich ein. Eines aber hat der Chemiker und Physiker Gordon Moore, aber komplett unterschätzt. In seinem berühmt gewordenen Artikel in der Zeitschrift Electronics aus dem Jahr 1965 habe er zum Beispiel schon den modernen Personal Computer, phasengesteuerte Radare oder auch die Computer-Uhr vorhergesagt. „Doch eine Innovation, die ich nicht vorhergesehen habe, ich glaube die eine, die mich wirklich überrascht hat, ist die Bedeutung des Internets“, sagte Moore einer laut dpa gegenüber einer Intel-Delegation, die den ehemaligen Konzernchef befragte.

GordonMoore_1_2005

Einen ausführlichen Hintergrund zu Moore’s Law ist in der aktuellen Ausgabe der ngt c’t 10/2015 zu lesen, die seit heute, Samstag, der 18. April, im Handel ist. Andreas Stiller: Die Moritat von Moores Tat, 50 Jahre Moore’sches Gesetz – Geschichte, aktueller Stand und wie es weitergeht.

Bild: Gordon Moore 2005 (Credit: Intel)

IBM öffnet Schatzkammer für Sicherheit

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

von Rudi Kulzer

Pressetext von IBM

Neue X-Force Exchange bietet Zugriff auf große Datenbank mit Informationen zu Cybergefahren / Echtzeit-Indikatoren zu aktuellen Angriffen / Nutzer können sich über Sharing-Plattform austauschen

IBM Security macht seine umfangreiche IT-Sicherheitsdatenbank jetzt öffentlich zugänglich: Dank der neuen „X-Force Exchange“ stehen künftig die über Jahrzehnte hinweg von IBM und Partnern gesammelte Informationen zu Cyberbedrohungen bereit. Zudem bietet die Sharing-Plattform ihren Nutzern Zugriff auf Echtzeit-Indikatoren, mit denen sie sich gegen aktuelle Cyberangriffe besser verteidigen können. Weil X-Force Exchange in der Cloud läuft, können User ihr Wissen über Bedrohungen auch teilen und sich mit Experten austauschen.

„Mit den umfangreichen Informationen zu Cyberbedrohungen, die uns heute vorliegen, können wir dazu beitragen, kriminelle Hacker und die Verbreitung ihrer Angriffe schneller zu stoppen – oftmals bevor es zu größeren Schäden kommt“, sagt Gerd Rademann, Business Unit Executive IBM Security Systems. „Mit der Öffnung unserer IT-Sicherheitsdatenbank über X-Force Exchange laden wir Experten, Forscher oder IT-Verantwortliche dazu ein, bei der Bekämpfung von Cyberkriminalität an einem Strang zu ziehen.“

Die Flut an Cyberangriffen ebbt nicht ab: Jüngstes Beispiel ist die spektakuläre Attacke auf den französischen Fernsehsender TV5 Monde, dessen Programm in der Nacht auf den 9. April 2015 von Hackern lahmgelegt wurde. Vielen Unternehmen fehlt es an den Mitteln, mit denen sie solchen Bedrohungen auf Augenhöhe entgegentreten können. Eine Studie des United Nations Office on Drugs and Crime (UNODC) stellte bereits 2013 fest, dass 80 Prozent der Cyberangriffe von professionell organisierten Cybercrime-Ringen ausgehen, deren Mitglieder gut vernetzt sind und ihre Werkzeuge und Expertise untereinander teilen (1).

 

 

IBM Security hat sich deshalb entschlossen, die vorhandene umfangreiche IT-Sicherheitsdatenbank zu öffnen und diese künftig auf der Sharing-Plattform X-Force Exchange in der Cloud zugänglich zu machen. Die in über 20 Jahren von der IBM und Partnern gesammelten Informationen zu IT- Sicherheitsschwachstellen und Cyberbedrohungen umfassen unter anderem:

• einer der größten und umfangreichsten Kataloge von Schwachstellen weltweit

• Sicherheitsinformationen, basierend auf der Überwachung von mehr als 15 Milliarden IT-Sicherheitsereignissen am Tag

• Malware-Daten von rund 270 Millionen untersuchten Endgeräten

• Details zu Bedrohungen basierend auf mehr als 25 Milliarden Webseiten und Bildern im Netz

• Ergebnisse von mehr als acht Millionen ausgewerteter Spam- und Phishing-Attacken

• Profile von fast einer Million bösartiger IP-Adressen

Schon heute umfasst X-Force Exchange rund 700 Terabyte an Daten. Und die Datenbank wird durch die gemeinsame Nutzung und das Teilen von relevanten IT-Sicherheitsinformationen unter den Usern weiter wachsen: Bis zu 1.000 Sicherheitsindikatoren in der Stunde kann sie verwalten, darunter Echtzeit-Informationen für den Kampf gegen Cyberattacken, zum Beispiel von welchen IP-Adressen Hacker gerade angreifen oder die neueste Malware, die sie dafür einsetzen.

Soziales Netzwerk für Cybersicherheit

X-Force Exchange versteht sich auch als soziale Plattform in der Cloud, die es ihren Nutzern ermöglicht, sich auszutauschen und vom Wissen der IBM Experten und anderen Beiträgen zu profitieren. Schon in der Beta-Phase ist die Zahl der User deutlich angestiegen. Diese können durch Teilen von Informationen aktiv dazu beitragen, Cybergefahren abzuwenden. Dabei helfen zum Beispiel folgende Features: 

• Die soziale Benutzeroberfläche von X-Force Exchange, auf der Nutzer mit anderen Experten interagieren und sich austauschen können

• Datenbanken von Partnern, die IT-Sicherheitsinformationen von IBM stetig ergänzen und erweitern

• Spezielle Tools, mit denen Nutzer Informationen zusammentragen, organisieren und priorisieren können

• Offener, webbasierter Zugang für Sicherheitsexperten und -forscher

• Programmierschnittstellen (APIs), durch die X-Force Exchange mit anderen Geräten und Programmen kommunizieren kann und die es möglich machen, die Plattform in externe Systeme einzubinden.

IBM plant darüber hinaus auch die Unterstützung von STIX und TAXII, den neuen Standards für den automatisierten Austausch von Informationen über Cyberbedrohungen. So ist eine nahtlose Integration der Daten aus X-Force Exchange in bestehende IT-Sicherheitssysteme vorgesehen.

(1) United Nations Office on Drugs and Crime (UNODC): http://bit.ly/1CHi8yh 

 

 

 

 

IBM stellt neue Services und ein Ökosystem für das Internet der Dinge vor

von Rudi Kulzer

überarbeiteter Pressetext

Als Teil des Plans, drei Milliarden US-Dollar in den Aufbau einer neuen Internet of Things (IoT)-Einheit zu investieren, kündigt IBM nun neue, spezielle Software und Services an. Diese sollen Partnern und Kunden helfen, in einem gemeinsamen Ökosystem Produkte und Systeme des Internet of Things effizienter zu entwickeln, herzustellen und zu verwalten. Eine Übersicht der Neuheiten:

• IBM IoT Industry Solutions: Zu den zwei neuen Angeboten zählt die IBM Aviation Maintenance Lösung, um Verfügbarkeit und Lebensdauer von komplexen und sicherheitsrelevanten Komponenten für die Luftfahrt zu verbessern; außerdem Ressourcen des IBM Product Line Engineering (PLE), sodass Ingenieure Produktdesigns besser an spezifische Märkte anpassen können.

• IBM IoT Cloud Open Platform und Bluemix IoT Zone: Dazu kommen drei neue IBM IoT Cloud-Lösungen und acht neue IBM IoT-Beratungsservices basierend auf der Bluemix IoT Zone. Unter anderem handelt es sich um eine IBM Real-Time-Asset-Management-Lösung, die den Nutzern der digitalen Innovationsplattform von IBM Einblicke in den Betriebsmittelzustand ermöglicht, so die Sichtbarkeit erhöht und die Lösung von Problemen beschleunigt. IBM Managed Continuous Engineering für IoT hilft Organisationen wie dem Motorenhersteller Cummins, die Entwicklung von IoT-Devices und -Produkten zu forcieren, indem Ingenieure Zugriff auf Feedback in Echtzeit erhalten. Ein neuer IBM Workbench Service hilft, Design und Wirkkraft von IoT-Systemen zu gestalten.

• IBM IoT-Ökosystem: Eine neue Partnerschaft mit Texas Instruments (TI) soll einen sicheren, Cloud-gehosteten Service für Bereitstellung und Lifecycle-Management der IoT-Devices schaffen.

„Das Internet der Dinge erzeugt gewaltige Datenmengen – Daten aus Mobiltelefonen, Fahrzeugen, Anwendungen und Industrieanlagen – die auf sichere Art und Weise erfasst, analysiert und in praktisch nutzbare Informationen verwandelt werden können“, sagt Chris O’Connor, General Manager Internet of Things bei IBM. „IBM hilft Wegbereitern, die Connected Devices der nächsten Generation entwerfen und herstellen oder betreiben und instand halten, die wachsende Komplexität der Produkte und Lösungen zu bewältigen und so die Bedürfnisse der Kunden zu erfüllen.“

IBM und Texas Instruments (TI) arbeiten gemeinsam an einem sichereren, Cloud-gehosteten Service für Bereitstellung und Lifecycle-Management der IoT-Devices. Im Rahmen dieser Zusammenarbeit wird IBM einen Secure Registry Service schaffen und damit Informationen zu Authentifizierungspraktiken und Protokollen entlang der gesamten Wertschöpfungskette bereitstellen – beginnend bei in Devices und Produkten enthaltenen Chips bis hin zu Unternehmen und Haushalten.

Der IBM Cloud-gehostete Service wird einen Chip nutzen, anhand dessen die Identität eines Devices sicherer verwaltet werden kann. Die Zusammenarbeit zielt darauf, alle Prozesse von Bereitstellung, Aktivierung, Registrierung, Abmeldung und schlussendlich Deaktivierung der IoT-Geräte einfach und sicher zu gestalten und gleichzeitig die Kommunikation der IoT-Devices mit der Cloud zu fördern.

„Anschlussmöglichkeit zur Cloud und entsprechende Services sind grundlegend für das Internet der Dinge. Es bestehen jedoch verschiedene Hemmnisse bei der Einführung, insbesondere bei industriellen Anwendungen wie Fertigung, Gebäudeautomation und Energiemanagement“, erläutert Avner Goren, General Manager Strategic Marketing im Bereich Embedded Processing bei Texas Instruments. „Indem wir gemeinsam mit IBM die Sicherheit von Geräteidentität, Bereitstellung und Lifecycle-Management verbessern, haben wir eine starke Basis für das Internet der Dinge geschaffen. Durch optimal verwaltete Services für einfach bedienbare Verbindungstechniken kann das IoT in Zukunft sein volles Potential entfalten.“

IBM und TI möchten den Service für Bereitstellung und Lifecycle-Management auch anderen Cloud-Service-Providern und Chip-Händlern verfügbar machen. Daher werden die beiden Unternehmen die Programmierschnittstellen veröffentlichen und anderen IoT-Cloud-Service-Providern und Chip-Händlern zur Verfügung stellen.

 

SanDisk: Aktualisierte Server Caching-Software für Windows, Linux und VMware in Kombination mit SanDisk PCIe-, SATA- und SAS-Hardware

von Rudi Kulzer

überarbeiteter Pressetext

SanDisk Corporation aus Milpitas, Kalifornien, bekannter Hersteller von Flash-Speicherlösungen, präsentierte Anfang April die sofortige Verfügbarkeit seiner neuen Version der serverseitigen Flash-Soft®-SSD-Caching-Software, die Verbesserungen in Leistung, Nutzerfreundlichkeit und Kompatibilität in Windows®-, Linux®- und VMware-Umgebungen mit sich bringt. Zeitgleich stellt das Unternehmen neue Bundle-Angebote vor, die die Software in Kombination mit SanDisks Unternehmens SSDs beinhalten, einschließlich der Fusion ioMemory™ PCIe-Applikations-Beschleunigungskarten, der Optimus Ascend™ SAS SSD und der CloudSpeed Ascend™ SATA SSD. Damit erhalten Unternehmen eine leicht zu implementierende Lösung, die sie in die Lage versetzt, die Flash-Speicherkapazität und Leistung auszuwählen, die den Anforderungen ihres Rechenzentrums am besten entsprechen.

„Wir haben unser Enterprise Flash Business für Unternehmen so aufgestellt, dass für sich ändernde Kundenbedürfnisse eine breite Palette an Lösungen zur Optimierung der Speicherleistung bereit steht“, sagt Ravi Swaminathan, Vice President und General Manager, Systems und Software Solutions bei SanDisk. „Diese neuen Hardware-Software-Bundles vereinen das Beste aus unserem Hardware- und Software-Portfolio in einer einzigen Lösung. Wir freuen uns, unseren Kunden die Leistungs- und Kostenvorteile der Flash-Technologie in einer Komplettlösung anzubieten sowie unseren Channel-Partnern den bestmöglichen Support für ihre Kunden bereitzustellen.“

Ein kürzlich veröffentlichter Gartner-Bericht besagt, dass Input/Output (I/O)-Optimierungs-Software den „I/O-Blender-Effekt“ reduziert, der oft in virtualisierten Umgebungen auftritt. Es handele sich um eine günstige und unterbrechungsfreie Art und Weise, die Anwendungsleistung zu erhöhen1. Die FlashSoft-Software ist darüber hinaus in der Lage, die I/O-Latenz in VMware vSphere®-, Windows Server®- und Linux-Umgebungen zu reduzieren, indem serverseitig Flash-basiertes Storage-Caching zum Einsatz kommt und die Anwendungsleistung in virtualisierten und nicht-virtualisierten IT-Umgebungen verbessert. Durch den Einsatz von Server-Attached-Flash-Storage als ein unmittelbarer Cache für die in einer Anwendung am meisten genutzten Daten, die sogenannte „Hot Data“, ermöglicht die FlashSoft-Software ein effizienteres Lesen und Schreiben der Daten. Die Software weist „Hot Data“ dem Solid-State-Cache zu und erhöht damit die Leistung bei gleichzeitiger Entlastung des Storage Area Networks (SAN). Dies verlängert den Lebenszyklus von Server- und Storage-Systemen und sorgt für mehr Rechenpower in der bestehenden Rechenzentrumsinfrastruktur eines Unternehmens. Dadurch werden der Return on Investment (ROI) erhöht und die Total Cost of Ownership (TCO) gesenkt.

FlashSoft-Anwendungen haben gezeigt, das serverseitiges Solid-State-Caching erhebliche Performance-Steigerungen mit sich bringt, wie Online-Transaktionsverarbeitung (OLTP), Online-Analyse-Prozesse (OLAP) und High-Performance Rechnern (HPC). Die meisten Anwendungen wie zum Beispiel Microsoft Exchange, Microsoft SharePoint und datenbankbasierte Anwendungen wie MySQL, Microsoft SQL Server und Oracle werden durch FlashSoft von einer Leistungssteigerung profitieren. Von SanDisk auf Basis von in der Branche üblichen Standard-Benchmarks durchgeführte Leistungstests haben bewiesen, dass die neue Version von FlashSoft die Leistung der Anwendungen um mehr als das 14-fache erhöht im Vergleich zu einem Storage-Array bestehend aus HDDs. Die Latenzzeiten konnten deutlich gesenkt werden mit einer 22-fachen verbesserten Reaktionszeit der Anwendung.

SanDisk: All-Flash-Speicherlösung InfiniFlash für Big Data Aufgaben im Hyperscale- und Enterprise-Markt

von Rudi Kulzer

Eine zunehmend visualisierte, auf Social-Media und Big-Data Analysen fokussierte heutige Gesellschaft braucht im Geschäftsbereich wie auch für die persönlichen Nutzung immer mehr Speichersysteme, die flexibel maximale Leistungs- und Kapazitätswerte bieten. Dazu hat SanDisk, bekannter Spezialist von Flash-Speicherlösungen eine neue revolutionäre Plattform vorgestellt, die als eine neue, von IDC als „Big Data Flash“ bezeichnete Produktkategorie gelten kann.

Aufbauend auf die eigene Hardware-Produktion und Open-Source-Software, liefert das InfiniFlash genannte Speichersystem enorme Kapazitäten, eine extrem hohe Leistung und maximale Zuverlässigkeit für Big Data und Hyperscale Workloads – und das alles bei einer deutlichen Verringerung der Komplexität und Kosten, verspricht das Unternehmen aus Milpitas im Silicon Valley.

Laut IDC verzeichnet der Markt für Flash-basierte Arrays – sowohl „All Flash Arrays“ (AFA) als auch „Hybrid Flash Arrays“ (HFA) – in den letzten fünf Jahren doppelte Zuwachsraten und besaß im Jahr 2014 ein Volumen von 11,3 Milliarden Dollar. Dieses Wachstum ist von einer rasanten Migration auf Infrastrukturen des „3rd Plattform Computing“ getrieben, was wiederum durch den extremen Bedarf an Speicher, Leistung und Skalierbarkeit einer zunehmend mobilen Gesellschaft, durch Social Media, Big-Data-Analysen und das Cloud Computing entstanden ist.

Zielanwendungen: Neue und Big Data-Workloads

InfiniFlash adressiert Hyperscale- und Enterprise-Workloads mit folgenden Funktionalitäten:

 Big Data Analytics – InfiniFlash liefert sowohl die Kapazität als auch die Leistung, um aufschlussreiche Informationsmuster erkennen zu können, wie es die Workloads von Anwendungen wie Hadoop, Cassandra und MongoDB erfordern. Zeitnahe Analysen in „in-memory“ Datenbanken gehören ebenso dazu.

 Content Repositories – Speicherintensive Content-Repositories wie Social-Media-Webseiten benötigen extrem schnelle Lesekapazität. InfiniFlash liefert schnellen und einfachen Zugang zu solchen Inhalten an sieben Tagen die Woche.

 Media Streaming – InfiniFlash unterstützt hohe Datenübertragungsraten, die für Rich-Media-Content wie Filmen, Musik und Videoüberwachung nötig sind, so dass diese schnellstmöglich dar- bzw. bereitgestellt sowie ausgewertet werden können.

 „Aufbauend auf unserer langen Erfahrung in der Entwicklung zukunftsweisender Innovationen, freuen wir uns, unsere erste All-Flash-Array-Speicherlösung auf den Markt zu bringen, die Flash in Big-Data Workloads bringen wird“, so Sumit Sadana, Executive Vice President und Chief Strategy Officer bei SanDisk. „Indem wir InfiniFlash unter 2 Dollar pro Gigabyte vor Komprimierung und Deduplizierung anbieten, geben wir einen Paradigmenwechsel vor zugunsten einer höheren Verbreitung von Flash in Hyperscale- und Enterprise-Umgebungen.“

Über die Entkoppelung von Computer-, Switching- und Storage-Funktionalitäten hinaus ermöglicht InfiniFlash den Einsatz von Flash als primären oder sekundären Speicher mit neuen Leistungsmerkmalen hinsichtlich der Anschaffungskosten und einer außerordentlich geringen Total Cost of Ownership (TCO). Die InfiniFlash-Lösung ist mit bis zu 64 speziell hierfür entwickelten, hot-swappable Karten ausgestattet, wovon jede Einzelne eine bisher unerreichte Flash-Kapazität von 8 Terabyte (TB) aufweist. Zusammen liefern die Karten ein halbes Petabyte (PB), also 512 TB, reinen Flash-Speicher in einem 3-HE Rackgehäuse, das mit bis zu acht Standard-Servern verbunden werden kann.

Das modulare Design der InfiniFlash-Lösung unterstützt verschiedene Betriebssysteme und Storage-APIs. Es beinhaltet die bewährte Software-Defined-Storage Lösung SanDisk ION Accelerator™ von Fusion-io für die Blockanbindung. Für die blockbasierte und/oder objektorientierte (wie bspw. Swift) Scale-Out-Anbindung greift InfiniFlash auf die „flash-optimierte“ Open-Source CEPH Plattform zurück. Diese Services beinhalten die Bereitstellung von Bibliotheken sowie ein Software Development Kit (SDK), das Unternehmen die Optimierung ihrer Anwendungen erlaubt, um eine noch bessere Performance, Effizienz und TCO zu erreichen.

InfiniFlash ist in den drei Konfigurationen IF100, IF500 und IF700 erhältlich und besticht mit einer fünf Mal höheren Leistungsdichte2, 50-facher Leistung und vierfacher Zuverlässigkeit bei 80 Prozent weniger Stromverbrauch im Vergleich zu herkömmlichen Festplatten-Arrays. Die Lösung übertrifft auch bei Weitem die Funktionalitäten bestehender All Flash Arrays, die ausschließlich auf Performance3 ausgerichtet sind.

InfiniFlash ist als All-Flash-Hardware-Lösung zu einem extrem attraktiven Preis erhältlich mit weniger als einem Dollar pro Gigabyte (GB) für die HW-Lösung und unter zwei Dollar pro GB für ein All-Flash-System4 ohne Komprimierungs- oder Deduplizierungs-Technologien. InfiniFlash ist ab sofort für interessierte Kunden bei SanDisk verfügbar.

 

 

IBM stellt sich dem scharfen Wettbewerb im Cloud-Markt

von Rudi Kulzer

Der IT-Gigant IBM versucht mehr Unternehmen dazu zu bewegen, bei ihrer Suche nach IT-Lösungen auf das Softwareangebot aus der IBM-Cloud zurückzugreifen. Dazu startete Big Blue Ende April zusammen mit einer Reihe von Partnern einen neuen Cloud-Marktplatz. Er soll die Position gegen bisher erfolgreiche Cloudanbieter wie Amazon (AWS), Microsoft (Azure) oder Google stärken, aber auch Alternativen gegenüber direkten Konkurrenten wie Hewlett-Packard, SAP oder Oracle bieten.

Auf dem vorgestellten zentralen Cloud-Marktplatz will IBM zukünftig das eigene Cloud-Portfolio mit den Services von Partnern und Drittanbietern bündeln. Nach Angaben des für Cloud verantwortlichen General Managers Steve Robinson richten sich die Angebote aus der Service-Wolke an drei Kundengruppen: Softwareentwickler, IT-Manager und Führungskräfte in Unternehmen. In einer Mischung aus Marketingplattform und Apps-Store können sich Kunden über aktuelle Cloud-Angebote informieren, neue Cloud-Anwendungen testen und cloudbasierte Services für Anwendungen kaufen, sagte Robinson auf der Kundenveranstaltung Impact in Las Vegas.

Gemeinsam mit Partnern bietet IBM online mehrere hundert Cloud-Services an. Hierzu gehören ein Pool aus über 100 SaaS-Lösungen (Software-as-a-Service) sowie zahlreiche PaaS-Leistungen (Platform-as-a-Service) aus der IBM Serviceplattform BlueMix. Mit Hilfe dieses neuen „Software-Sandkastens“ sollen Entwickler Web- und mobile Anwendungen schneller aufbauen können.

IBMs Cloud-Technik kommt von Softlayer

Die Programme basieren vor allem auf der Rechenzentrums-Technik von Softlayer Technologies. IBM hat den Cloud-Spezialist im Sommer vergangenen Jahres für rund zwei Milliarden US-Dollar übernommen. Nach Angaben des Unternehmens soll auch die ebenfalls akquirierte Datenbanksoftware Cloudant aus Massachusetts ein wesentlicher Bestandteil von BlueMix werden. Darüber hinaus haben Kunden Zugriff auf die Cloud-Services zahlreicher Drittanbieter.

Die PaaS-Angebote aus BlueMix reichen von DevOps über Anwendungsentwicklung (Apps) bis hin zu Big Data und Analytics as a Service. Mit 30 zusätzlichen Cloud-Services werden Unternehmen dabei unterstützt, ihre IT mit Big Data und Analytics-, Mobile-, Sicherheit- und DevOps-Dienstleistungen auszustatten. Gerade DevOps – ein Kunstwort aus den englischen Begriffen Development und Operations – soll Softwareentwicklern die Möglichkeit bieten, Anwendungen schneller als bisher zu programmieren und über eine Cloud rasch als SaaS anzubieten.

Beim Thema Datenbanken für polystrukturierte NoSQL-Lösungen will IBM verstärkt mit MongoDB Inc. zusammenarbeiten. Der Datenbankspezialist für Big Data Aufgaben hat seine Sitz in New York und Palo Alto und gilt derzeit als die beste Lösung für das Arbeiten in diesem rasch wachsenden Aufgabenbereich der Unternehmens-IT.

In San Francisco gründet IBM zudem einen ersten Cloud-Inkubator, die erste BlueMix Garage. Dort können junge Startups gemeinsam mit IBM innovative Cloud-Anwendungen entwickeln und vermarkten. In der ersten BlueMix Garage – Galvanize genannt – rechnet man Ende 2014 mit rund 200 IT-Startups.

Wettbewerb wie auf dem Mobilmarkt

Der aufgeheizte Wettbewerb der Anbieter von Cloud-Lösungen hat eine große Ähnlichkeit mit dem Kampf um den Mobilfunkmarkt und seine leistungsstarken Smartphones, auf dem namhafte Player wie Apple, Google und Microsoft um die Aufmerksamkeit der Entwickler kämpfen, die ihre die Anwendungen auf den jeweiligen drahtlosen Betriebssysteme iOS, Android oder Windows Mobil portieren sollen.

Nun geht es um die Aufmerksamkeit der Cloud-Computing- Entwickler. Deren erfolgreiche Player wie Amazon (AWS), Microsoft (Azure) oder Google finden sich bisher eher in einem Lager, in dem die Server-Prozessoren von Intel das Feld beherrschen. Die Mehrheit bisheriger Cloud-Lösungen finden in diesem Umfeld satt.

Doch auch IBMs direkte Mitbewerber im Lager der Server- und Dienstanbieter für Unternehmens-IT wie Hewlett-Packard, SAP oder Oracle haben alle ein kräftiges Cloud-Angebot im Köcher des Branchenwettbewerbs.

 

Neue IBM Power8-Systeme sollen Wende bringen

von Rudi Kulzer

für VDI Nachrichten

UNTERNEHMENS-IT: IBM kündigte am 23. April 2014 Woche eine Reihe neuer Power Systems-Server an, die mit dem neuen Prozessor POWER8 bestückt sind. Ziel ist es, Rechenzentren zu erlauben, extrem hohe Datenanforderungen mit bisher nicht gekannter Geschwindigkeit zu verarbeiten. Mit dieser Leistungssteigerung und einem damit verbundenen Open-Server-Innovationsmodell will IBM die enormen Big-Data-Herausforderungen in Angriff nehmen, deren Erfüllung derzeit auf dem Markt der Unternehmensrechner Pflicht ist.

Als Einführungsmodelle wurden mehrere neue Scale-out Server der IBM Power Systems-S-Klasse angekündigt. Sie sind mit dem neuen Prozessor POWER8 bestückt, der in einem Zeitraum von mehr als drei Jahren entwickelt wurde und auf mehreren Hundert IBM-Patente basiert.

Der neue Prozessor hat einen Formfaktor von etwa 2,5 cm im Quadrat (1 Quadrat-Inch) und mehr als 4 Milliarden Transistoren an Bord. Für schnelle Datenkommunikation sorgen mehr als 16 km Highspeed-Kupfer-Verkabelung.

Die neuen IBM Power Systeme wurden für die neue Ära von Big Data entwickelt und sollen führenden IT-Unternehmen helfen, neue Workloads und die explosiv ansteigende Menge an Daten, die täglich erzeugt werden, in Echtzeit zu bewältigen,.

Dafür kündigt IBM neben der neuen Hardware auf der Softwareseite drei neue Big Data & Analytics-Lösungen an: IBM Solution for BLU-Acceleration, IBM Solution for Analytics und IBM Solution for Hadoop. Sie bauen direkt auf den IBM Power Systemen auf und sollen schnell neue Erkenntnisse aus strukturierten und polystrukturierten Daten liefern.

Big Blue nennt dazu erste Ergebnisse von Branchen-Benchmarks, bei denen die neuen IBM Power Systeme die Analyse von Daten bis zu 50-mal schneller als die aktuellen x86-basierten Systeme durchführen konnte. Einige Unternehmen konnten ihre Analytik-Abfragen sogar über 1000-mal schneller ablaufen lassen, wodurch sich die Laufzeiten von mehreren Stunden auf nur wenige Sekunden verkürzen ließen.

Offene Server-Plattform im Wettbewerb gegen Intel

Aus Sicht der IT-Architektur basieren die neuen Systeme auf einer offenen Server-Plattform – OpenPOWER. In einem Schritt, der in Kontrast zu den bisherigen proprietären Geschäftsmodellen steht, veröffentlichte IBM durch die OpenPOWER-Foundation detaillierte technische Spezifikationen für seine POWER8 Prozessoren. Damit will Big Blue nach eigenen Angaben Entwicklungsunternehmen, aber auch Mitbewerber eingeladen, ebenfalls Innovationen auf der Prozessor-und Server-Plattform einzubringen als Katalysator für neue Trends. Branchenbeobachter sind sich einig, dass damit eine Wettbewerbsalternative gegen Intels mächtige Server-Plattform aufgebaut werden soll.

Technisch ist die IBM POWER-Architektur der Grundstein für die Innovationen der OpenPOWER-Foundation. Diese wurde im Dezember 2013 von IBM, Google, NVIDIA, Mellanox (InfiniBand/Ethernet, Sunnyvale) und Tyan (Motherboards, Taipeh) mit dem Ziel ins Leben gerufen, eine offene Computing-Plattform zu schaffen, die für alle verfügbar ist. Mittlerweile gibt über 20 Mitglieder, Tendenz rasch wachsend. Die neuen IBM Power Systeme sind die ersten Systeme, die auf die OpenPOWER-Technologie aufbauen.

Als Pilotkunde wurde die Firma FIS mit Sitz in Jacksonville, Florida genannt. Der Anbieter von Zahlungsabwicklung und Banking-Lösungen verwaltet kritische Finanzdaten für Tausende von Unternehmen auf der ganzen Welt. Er kombiniert in einer neuen Lösung ein POWER8-basiertes System mit IBM Flash-Speichertechnologie, um die Leistung seiner Infrastruktur erheblich zu verbessern

Linux: Zusammenarbeit mit Ubuntu

Auf Seite der Betriebssysteme ist Linux eine treibende Kraft bei offenen Systemen. Im Rahmen seiner Unterstützung von offenen Systemen investierte IBM im vergangenen Jahr etwa eine Milliarde US Dollar in Linux und andere Open-Source-Technologien für den Einsatz auf IBM Power Systems-Server. In diesem Zusammenhang gibt es ein wachsendes Netzwerk an Power Systems Linux-Zentren auf der ganzen Welt sowie eine Power Development Platform als Cloud für Entwickler zum Test und zur Portierung x86-basierter migrierter Lösungen für die Power-Plattform.

Auf Basis dieses Engagements stellte IBM zwei neue Linux-Entwicklungen vor: die Verfügbarkeit von Canonical Ubuntu Server, auf allen POWER8 Systemen sowie die Einführung von PowerKVM, einer Power Systems-kompatiblen Version des beliebten Linux-basierten Virtualisierungswerkzeugs KVM, auf allen POWER8-Systemen, die Linux exklusiv fahren.

Die neue IBM Zusammenarbeit mit der Ubuntu-Mutter Canonical (mehr als 20 Millionen Nutzern weltweit), bietet Entwicklern ein kombiniertes Set an Werkzeugen, um Big Data- und Mobile-Software-Anwendungen zu schaffen. Dies ergänzt die bestehende Unterstützung von IBM für Red Hat und SUSE Linux auf Power Systemen.

Erhältlich ab 10. Juni, umfassen die fünf neuen S-Klasse Power8-Power-Server zwei Systeme, die ausschließlich auf Linux laufen sowie drei Systeme, auf denen Linux-, AIX- und IBM i als Betriebssysteme laufen können. Erhältlich in 1- und 2-Sockel-und 2U-und 4U-Konfigurationen beträgt der Einstiegspreis von Power Systems-Servern der S-Klasse in USA voraussichtlich etwa 7.000 US-Dollar und endet in dieser Scale-out-Klasse bei 150.00 US-Dollar. Dort beginnen dann die Scale-up Server die Ende des Jahres vorgestellt werden sollen..