Virtuelle Clouds für den IBM Mainframe

von Rudi Kulzer

Auf der CeBIT in Hannover hat IBM mit „ IBM Wave for z/VM“ eine neue Softwarelösung angekündigt, die als bei Mainframe-Kunden als Virtualisierungs-Managementwerkzeug für IBM z/VM- und Linux-basierte virtuelle Server dienen soll.. Damit lassen sich Private-Clouds künftig  leichter aufbauen, verspricht Big Blue. Die dazu notwendige  Technik hat IBM mit der Übernahme des Unternehmens CSL International erworben.

Das Werkzeug IBM Wave soll  Tasks in z-basierten Linux-Umgebungen durch Automation, intelligente Visualisierung, vereinfachtes Monitoring und einheitliche Management-View erleichtern. Es ermöglicht policy-basiertes Provisioning virtueller Server und skaliert bis hin zu den größten Installationen. Interne Tests haben gezeigt, dass IBM Wave die Zeit zum Ausführen von Administratorenaufgaben um mehr als 50 Prozent reduzieren kann.

Nach Ansicht der IBM erfordert der Komplexitätsgrad, der sich heute bei Analytik Lösungen und im Technical Computing findet,  die richtige Mischung von Computing-Modellen, die nahtlos spezifische Geschäftsanforderungen abdecken, aber gleichzeitig die Betriebseffizienz und Servicekontinuität sowie Verfügbarkeit bedienen können.

Als Teil des aktualisierten IBM Enterprise Linux Server-Angebots soll IBM Wave es auch Mainframe-Neukunden erleichtern, die Vorteile der Mainframe-Plattform hinsichtlich Servicequalität schneller zu nützen. Mittlerweile nützen 78 der Top 100-Mainframe-Kunden Linux auf System z. Damit werden die Möglichkeiten der aktuellen Ankündigung zu einer bedeutenden Erleichterung.

Das deutsche IBM Forschungs- und Entwicklungszentrum in Böblingen ist eines der zentralen Kompetenzzentren für System z und beschäftigt sich daher bereits seit einiger Zeit mit dieser Management- und Virtualisierungslösung. Das dort ansässige IBM Client Center für Systeme und Software hat für Kunden vor Ort oder online mehrere Demo-Umgebungen aufgebaut, mit deren Hilfe die Vorteile der Technologie dargestellt werden können.

IBM-Chefin Rometty: Wir werden das Hardware-Geschäft nicht aufgeben

von Rudi Kulzer

In ihrem jährlichen Brief an die Aktionäre musste IBM-Chefin Virginia Rometty einräumen, dass das Unternehmen die gesetzten Erwartungen im abgelaufenen Geschäftsjahr nicht erfüllt hat. Sie versprach einen Turnaround des schwachen Hardware-Geschäfts und betonte, dass dieser Geschäftszweig nicht komplett veräußert werden würde.

Diese berichtete das Wall Street Journal in seiner Freitagausgabe.

Das im Jahresbericht des Konzerns veröffentlichte Rundschreiben beschrieb 2013 als ein Jahr der Transformation. Es gelte für  IBM das Unternehmen so umzubauen, dass seine Kunden dabei unterstützt, wichtige Daten zu erfassen, sie  in die Cloud zu verschieben und online mehr im Dialog mit seinem Kunden engagiert zu sein.

„Unsere Leistung“, so Rometty „ hat unsere Erwartungen nicht erfüllt“. Es stehen daher  zwei Herausforderungen im Raum: Verbesserung der Ergebnisse bei der  Hardware und in den Schwellenländern.

Im Hardware-Geschäft musste 2013 ein Verlust von  500 .Millionen Dollar vor Steuern  verbucht werden, während im Vergleichsraum des Vorjahres noch ein Gewinn von 1,2 Mrd. Dollar Gewinn vor Steuern erzielt werden konnte. IBM müsse sein Hardware-Geschäft so verändern, dass es in neuen Realitäten und Chancen bestehen kann.

Das bedeutet beispielsweise im Mainframe-Geschäft  eine Migration von, proprietären Betriebssystem auf das offene Linux –System. Jüngst verkaufte IBM zwar verkauft seine Low- End-Server -Sparte an Lenovo, betonte aber, dass man die Hardware-Branche nicht verlassen werde.  BM werde auch weiterhin ein führendes Unternehmen in High-Performance- und High-End- Systeme, Speicher und kognitive Computing  bleiben und auch künftig in  Forschung und Entwicklung für die Halbleitertechnologie investieren“, betonte die IBM-Chefin in ihrem Rundschreiben

Cloud Computing zwingt alle namhaften IT-Anbieter zu Veränderungen

((Autor: Rudi Kulzer, erschienen in VDI-Nachrichten))

IBM ist es  gelungen, die Sparte seiner x86-Server an chinesischen Computerhersteller Lenovo zu verkaufen. Dieser Schritt war schon länger geplant, jüngste aber ins Stocken geraten. Anhaltend schlechte Quartalsergebnisse, vor allem im Bereich Hardware, dürften das Verfahren nun beschleunigt haben. Damit ist der Markt der Unternehmensrechner stark in Bewegung geraten. Dabei geht es vor allem um ein verändertes IT-Angebot aus dem Internet, aus der Cloud.

VDI Nachrichten 31.1.2014 jdb

Mit diesem Deal setzt IBM-Chefin Ginni Rometty konsequent die strategische Umwandlung des ehemals stark hardwareorientierten Konzerns in ein Software- und Dienstleistungsunternehmen fort. Von margenschwachen Hardwarebereichen wie Drucker (zu Lexmark) sowie Desktop-PCs / Notebooks (zu Lenovo) konnte sich Big Blue schon vor einigen Jahren trennen. Beide Beispiele gelten in der Branche als Erfolgsgeschichten, schreiben die Analysten der Experton Group.

Doch irgendwie ist der jüngste Server-Deal strategisch etwas verwirrend, hatte doch IBM erst am 16. Januar 2014 in einer umfangreichen Ankündigung eine neue x86-Systemarchitektur (Exa) vorgestellt. Dies scheint wieder einmal ein Beispiel dafür zu sein, dass gerade in einem so großen Konzern nicht alle Bereiche an einem Strang ziehen.

Es fällt dem IT-Pionier offensichtlich schwer, sein umfangreiches Hardware-Portfolio an verschiedenen Kundengruppen mit ihren unterschiedlichen Anforderungen zu vermarkten. Den größten Erfolg hat Big Blue noch seinem System z für die Mainframe-Kunden. Bei den Systemen x Server bietet sich ein gemischtes Bild, während die Maschinen mit den POWER-Chip trotz hohem technischen Potentials besondere Schwierigkeiten bereiten.

Vor einem Jahr hatte IBM zwischen 6,500 und 8,000 Mitarbeiter der weltweit etwa 430,000 starken Belegschaft abgebaut. Nun ist mit weiter Entlassungen zu rechnen oder mit der Versetzung in neue Wachstumsbereichen wie etwa Cloud Computing.

IT-Herausforderung in der Wolke

Die gesamte IT-Branche ist sich einig, dass Cloud Computing für alle Volkswirtschaften eine Reihe von Vorteilen bringen wird. Doch der Umstieg bereitet allen namhaften Anbietern bei ihren Wirtschaftsmodellen Schwierigkeiten. Im softwareorientierten Cloud-Geschäft finden sich Daten und Programme  in der Regel nicht mehr beim Kunden (on the premise), sondern auf zentralen leistungsfähigen Rechnern, um von dort abgerufen zu werden . Das führt zu nicht nur zu veränderten Prozessen, sondern auch zu neuen  Strömen der Finanzenmittel.

Dies musste auch der deutsche Vorzeige-Konzern SAP aus Walldorf erfahren und seine Finanzziele neu überdenken. Angesichts des gewünschten Wechsels von Kunden zu Mietsoftware aus der Datenwolke hat sich, wie die jüngsten Geschäftszahlen zeigen, das Gewinnwachstum verlangsamt.

 

Noch in diesem Jahr will IBM ihren Kunden weltweit sichere und verlässliche Cloud-Services aus 40 lokalen IBM Rechenzentren liefern. Dazu soll  mehr als 1,2 Milliarden US-Dollar in den weiteren Ausbau der weltweiten IBM-Cloud investiert werden. Die Kunden sollen schon 2014 auf Cloud-Services zugreifen können, die aus 40 lokalen Rechenzentren in 15 Ländern stammen. In Deutschland befindet sich das Cloud-Zentrum in Ehningen, in der Schweiz in Winterthur.

In diesem Zuge will IBM auch die IT-Kapazitäten der SoftLayer Cloud verdoppeln – das Unternehmen wurde Mitte 2013 übernommen. Geplant ist es, die weltweite Präsenz  in wichtigen Märkten und Finanzzentren gezielt zu stärken. Darüber hinaus soll die SoftLayer Cloud auch von der Technologie des kognitiven Computersystems IBM Watson profitieren.

Mit ähnlichen Herausforderungen sehen sich alle namhaften Mitbewerber auf dem Markt der Unternehmenssystem (Enterprise Computing) konfrontiert. So ist etwa Oracle im Geschäft mit Datenbanken nach wie vor eine feste Größe, sieht sich aber durch Konkurrenten wie Salesforce ebenfalls zu großen Anstrengungen im Angebot aus der Wolke gezwungen.

Hewlett-Packard ist mit seinem starken Angebot an x86-Servern traditionell ein starker Anbieter von Cloud-Lösungen. Der Konzern aus Palo Alto setzt derzeit stark auf eine Zusammenarbeit mit SAP und deren schnelle Datenbank-Umgebung Hana.

IBM setzt auf das lernende System Watson

((Autor: Rudi Kulzer, veröffentlicht in den VDI-Nachrichten und Computer Club zwo))

 Drei Jahre nach dem viel beachteten Erfolg in der Quizshow Jeopardy! des US-Fernsehens, bei dem ein Computer die besten menschlichen Quizteilnehmer besiegte, bringt IBM das System Watson als kommerziell verfügbare Technologie auf dem Markt. Entsprechende Services werden künftig von der dazu neu gegründeten IBM Watson Group bereitgestellt. Der Schwerpunkt von Watson liegt in der Weiterentwicklung von Cognitive Computing Software sowie entsprechende Services und Anwendungen.

Nach Aussagen von IBM ist es Ziel, mit „lernenden Systemen“ die stetig wachsenden Datenmengen (Big Data) genauer zu analysieren und bessere Antworten auf unterschiedlichste Fragestellungen zu finden. Das auf der Basis des IBM POWER Prozessors arbeitende System Watson konnte von der Größe eines Raumes auf die von drei Pizza-Boxen geschrumpft werden.

In New York betonte IBM-Chefin Ginni Rometty, dass diese Entwicklung einen fundamentalen Wandel in der Geschichte der digitalen Datenverarbeitung bedeute. Der Umbruch sei vergleichbar mit dem Übergang von Tabelliermaschinen zu programmierbaren Computern, der vor rund 60 Jahren begann und die heute Stand der IT sind. In der neuen Ära lernender Systeme könnten Menschen erstmals mit Hilfe natürlicher Sprache in einen intelligenten Dialog mit einer Maschine treten.

Dafür will IBM über eine Milliarde Dollar bereitstellen. Neuer, zentraler Standort der IBM Watson Group liegt an der Adresse 51 Astor Place Dort ist  der „Silicon Alley“ genannte Technologie Campus von New York angesiedelt. Michael Rhodin leitet als Senior Vice President den neuen Bereich. Er war zuvor General Manager der IBM Software Solutions Group.

Meilenstein in der Datenverarbeitung und für Big Data

Als Werkzeuge für das Arbeiten mit seinen Kunden hat IBM in New York drei erste Komponenten vorgestellt:

Als „beratender Systembegleiter“ soll der Watson Discovery Advisor dienen. Für seine Entwicklung hat IBM mit führenden Unternehmen und Experten aus den Bereichen Pharma, Medizin und Biotechnologie sowie mit entsprechenden Verlagen zusammengearbeitet. Er wird zunächst primär in diesen Branchen vermarkten, eignet sich jedoch grundsätzlich für alle forschungsspezifischen Aufgaben.

IBM Watson Analytics ist für  die Visualisierung von Big Data Analysen ohne spezielle Schulung oder Vorkenntnisse konzipiert. Über natürliche Spracheingabe gesteuert bereitet diese Komponente die Daten auf, stellt die wichtigsten Zusammenhänge her und präsentiert die Ergebnisse in einem leicht interpretierbaren, interaktiven Format.

Mit dem IBM Watson Explorer sollen Daten-basierte Erkenntnisse schneller gefunden und gemeinsam genutzt werden. Die Software erlaubt einen einheitlichen Blick auf die unterschiedlichsten Informationen, hilft bei der Navigation und bietet Suchfunktionen für verschiedene Anwendungen, Datenquellen und -formate, innerhalb wie auch außerhalb des Unternehmens.

Gesundheitswesen, Finanzwelt und Kundendienste

Als mögliche Einsatzgebiete stehen derzeit vor allem das Gesundheitswesen, die Finanzwelt und Call Center im Kundenservice im Mittelpunkt der Vermarktungsplanung.

Arbeitssprache der aktuellen Entwicklung ist zunächst einmal Englisch. Als mögliche zweite Sprache könnte dem Vernehmen wegen des hohen Verbreitungsgrades nach Spanisch sein. Mit Arbeiten in Deutsch ist derzeit wohl nicht zu rechnen. IBM will Watson-Lösungen auf der CeBIT 2014 auf dem IBM Stand in Halle 2 zeigen.

Vier neue HP Speicher für Software Defined Storage

News von Rudi Kulzer auf der Basis einer HP-Pressemeldung

HP bringt gleich vier neue Speicher-Lösungen für Software Defined Storage auf den Markt. Die „HP StoreVirtual“-Systeme wurden auf der Grundlage von ProLiant-Gen8-Servern entwickelt und eignen sich vor allem für mittelgroße Unternehmen

Zum neuen Angebot gehört

– die Blade-Speicherlösung HP StoreVirtual 4630 Storage, mit der mittelgroße Unternehmen Anschaffungs- und Gesamtbetriebskosten für Storage-Systeme senken können.

– die neuen Appliances HP StoreVirtual 4330 und 4730 Storage, die über Fibre-Channel-Konnektivität verfügen und sich daher für den Aufbau flexibler, skalierbarer Speicherarchitekturen eignen, die für virtualisierte IT-Umgebungen optimiert sind.

Als vierte Neuheit bringt HP eine Appliance, die HP StoreVirtual VSA (Virtual Storage Appliance) mit dem neuen D2220sb Storage Blade kombiniert. Das System integriert ein skalierbares, robustes iSCSI SAN in ein HP-BladeSystem-Chassis. Dadurch benötigen Nutzer keine weitere externe Speicherhardware, um Virtualisierung zu unterstützen.

HP StoreVirtual Storage ist Teil von HPs Converged-Storage-Angebot und die dritte Generation der HP-LeftHand-Storage-Plattform. Die Lösung bietet einfachen, skalierbaren und hochverfügbaren Speicher für virtualisierte Umgebungen. HP StoreVirtual Storage ist entweder als rein Software-basierte Virtual Storage Appliance (VSA) erhältlich oder als vorkonfigurierte Appliance für Converged Storage auf Grundlage von Rack- oder Blade-Servern von HP ProLiant Generation 8 (Gen8).

Preis und Verfügbarkeit

Die HP-StoreVirtual-Modelle 4330 FC, 4730 FC und 4630 Storage sind ab sofort weltweit verfügbar, direkt von HP und über Channel-Partner. Preise beginnen ab 23.000 € für das StoreVirtual-4330-System mit Fibre-Channel-Unterstützung, 49.000 € für das 4730-System mit Fibre-Channel-Unterstützung und 54.000€ für das StoreVirtual-4630-System.  Das D2220sb Storage Blade mit der Software HP StoreVirtual VSA ist ab sofort verfügbar und kostet 5.600 €.

 

HP-Moonshot soll die IT-Welt verändern

von Rudi Kulzer

Der britische Blogger und Analyst Timothy Prickett Morgan hat sich wohl über HPs Hardwarechef Dave Donatelli geärgert: Nein, HP hat das Geschäft mit den x86-Servern im Industrie-Rack nicht erfunden, wie das Donatelli am Montag den 8.4. in zwei US-Fernsehinterview vollmundig zum Besten gab, schreibt der britische Kollege. Diese Ehre gebührt den Ingenieuren und Informatikern von Compaq, dem texanischen IT-Konzern, der vor zehn Jahren von Hewlett-Packard übernommen wurde. Für die nächste Meilenstein-Ära, die unter dem Projektnamen „Moonshot“ läuft, müsse sich HP wohl selber bemühen, und könne das nicht durch eine Technologie Übernahme bewerkstelligten.

Richtig und auch wieder nicht ganz, sind doch die Jungs und vermutlich auch Mädels aus Houston in Texas auch für „Moonshot“ verantwortlich. Das beweist schon die Namengebungen: Alle drei namhaften HP-Server-Projekt tragen Namen aus der Raumfahrt – Moonshot (Server mit Handy Prozessoren), Odyssee (geschäftskritische Server) und Voyager (IT Automatisierung auf dem Motherboard). Das Raumfahrtzentrum der NASA in Houston war wohl Pate. Dort war auch der Stammsitz von Compaq Computer. HPs Computerkompetenz basiert schon seit längerem weitgehend auf Entwicklungen von Compaq (ProLiant). Daher haben die technisch verantwortlichen Serverteams auch weiter ihren Sitz in Texas.

Mobil-Prozessoren von namhaften Herstellern

Das Projekt „Moonshot“ wurde nach längeren Entwicklungsarbeiten in einer ersten Phase im Juni vergangenen Jahres der Öffentlichkeit vorgestellt. Dabei basierten die ersten Redstone Moonshot Maschinen auf Calxeda ARM Prozessoren und hatten 50 ausgewählte Service-Provider als Testkunden dieser ersten Projektphase.

Die am Montag den 4. April als zweite Phase gestarteten Moonshot 1500 Server haben als anfänglichen Rechen-Knoten einen Intel Centerton Dual-Core Atom S1200-Serien Chip in den Cartridge genannten Einschüben an Board. Das nächste Cartridge Modell, das schon bald auf den Markt kommen soll, ist bereits mit vier Serverknoten bestückt. Die etwa einen halben Notebook großen Cartridges sind die Nachfolger der Blades bei HP und bilden einen vielversprechenden Formfaktor. Bis zu 45 Einheiten passen in 4,3 U hohes Chassis für 19“-Racks. Sie können neben den reinen Rechnerknoten auch mit Speichereinheiten besetzt werden und so eine gute IT-Grundlage für Lösungen bieten. Bis zu 1500 Servereinheiten sind so möglich.

Unterschiedlich Prozessoren von weiteren Chip-Partnern wie AMD, ARM-Prozessoren von Calxeda, Texas Instruments und Applied Micro Devices sollen in den kommenden Monaten zum Einsatz kommen. HPs Roadmap sieht hier 2013 noch zwei bis drei Vorstellungen vor. Viele Beobachter hatten bereits in dieser Phase einen ARM-Chip erwartet, doch der Einsatz eines Atom-Prozessors von Intel beweist auch, wie wichtig die Zusammenarbeit mit Intel für HP ist.

 

HP Moonshot Cartridge in Chassis, die bis zu 45 Einschübe aufnehmen kann (Quelle: Werkfoto HP)

 

 

Als wichtige Kundengruppe hat HP zunächst weiter die sogenannten großen Hyperscale Betreiber von Rechenzentren verschiedener Dienstleister im Visier, sagt Dave Donatelli, Executive Vice President und General Manager des Enterprise Servers, Storage und Networking Business bei HP beim US-Sender CNBC. An diese Gruppe werden nach heutigem Stand etwa ein Fünftel aller  Server jedes Jahr  ausgeliefert. Doch es gebe auch schon zahlreiche Nachfragen aus dem klassischen Umfeld der Unternehmens-IT, die mit diesen neuen Form- und Technologiefaktor bedient werden wollen. Beide Gruppen werden bereits ab der gestarteten Phase zwei bedient.

 

HP Hardware-Chef Dave Donatelli ist stolz auf das Projekt Moonshot Quelle: HP Werkfoto

 

 

Nachhaltige Technik für wechselnde Workloads

„Dies ist der Tag der Industrie verändert. Dies ist der Tag, an dem Server  einen Schritt nach vorne treten“ so Donatelli in einem Interview mit siliconAngle ebenfalls im US-TV. HPs Hardware-Chef sieht den breiteren kommerziellen Start von Moonshot als einen ähnlichen Meilenstein wie den bei der Einführung der sogenannten PC-Server (x86) vor 24 Jahren. Damals kam die Technik aus dem PC, heute aus den IT von Smartphones und Tablets. Man sei Marktführer bei den x86-Servern, so Donatelli und werde dies auch bei dem neuen Angebot sein.

Mit Moonshot will HP ein neues Server Ökosystem anbieten: Mehr Auswahl für die Kunden, niedrigere Kosten und weniger Strom. In konkreten Zahlen: 80 Prozent weniger Platzbedarf, 89 Prozent mehr Leistung, 77 Prozent geringere Kosten. Diese neuen Welt, die in der IT-Industrie immer öfter „Software Defined Server“ nennt, stehen  benutzerdefinierten Workloads im Mittelpunkt der Aufgaben: Web-Anwendungen, Social Media Apps, Video Medien, Telecom Networks, angeboten in Cloud-Plattformen.

Diese Aufgaben können die heutigen Server-Modelle nicht leisten, räumt Donatelli ein. Sie sind nicht nachhaltig genug. Es wäre in den nächsten fünf Jahren acht bis zehn neue Kraftwerke zur Versorgung der Server, notwendig. Das ist nicht machbar. Dies ist auch der Grund, warum Anbieter wie Google, Facebook und Amazon  eigene modifizierte x86- Maschinen einsetzten. Dass es mit den neuen Moonshot-Servern nachhaltiger geht, will HP im eigenen Haus beweisen. Die Website HP.com erhalte  3 Millionen Zugriffe pro Tag. Mit dem eingesetzten HP Moonshot 1500, braucht  die Website nur die Energie von zwölf  60W Glühbirnen.

Großes Marktpotential

Das neue  Ökosystem Moonshot mit Netzwerken und integrierten Speichern ist nach Angaben von HP  voller Produktion und in den USA / Kanada ab sofort, in Europa einen Monat später verfügbar. Als TAM (Total Available Market) nennt Donatelli 40 Milliarden US-Dollar. Für den Hyperscale-Anteil werden für die nächsten 10 Jahren 19 Prozent dieses 40 Mrd. € Marktes genannt. Das ist ein hohes Einkommenspotential für HP, um auf dem Servermarkt zu neuen Ufern vorzustoßen.

Unter der neuen Flagge Software Defined Server (oder Data Center) versuchen sich neben HP einige namhafte Anbieter zu etablieren, obwohl Donatelli beim seinen Gesprächen HP für konkurrenzlos hält. Dazu gehören IBM mit seinem Pure System auf der Grundlage des POWER Prozessors. Sowie die EMC-Tochter Netware. Was für HP ebenfalls schmerzlich ist, ist der Verlust des Datenbank-Partners seit dem Streit mit Oracle. Datenbanken und Systemsoftware (Middleware) sind nun mal grundlegenden Komponenten für den „Total Stack of Technologie“. Günstig für HP ist, dass sich der Konzern beim Thema Netzkommunikation mit eigenen und zugekauften Produkten (3Com) immer am Ball blieb.

 

HP bringt mobile SAP-Anwendungen als Managed Services

ein Pressemeldung von HP

HP und SAP haben eine weltweite strategische Partnerschaft geschlossen, um umfassende Managed Mobility Services auf Grundlage der SAP Mobile Platform und HPs Converged Cloud-Technologie bereitzustellen. Diese Dienste sollen Unternehmen dabei helfen, Interaktionen mit ihren Kunden gewinnbringend zu nutzen und die Produktivität ihrer Mitarbeiter durch mobile Anwendungen zu steigern.

 

Mit den neuen „HP Managed Mobility Services for the SAP Mobile Platform“ lassen sich mobile Anwendungen schneller konzipieren, implementieren und sicher betreiben. Unternehmen können so die Kommunikation mit Kunden, Mitarbeitern und Geschäftspartnern ihren Bedürfnissen besser anpassen – und zwar mit jedem Endgerät. Die Dienste nutzen die Entwicklungsumgebung SAP Mobile Platform, SAP Afaria für zentrales Gerätemanagement sowie ein umfassendes Angebot mobiler Anwendungen.

 

0 Comments

IBM engagiert sich verstärkt in Flash-Technologie

von Rudi Kulzer, auf der Grundlage eines IBM Pressetextes

IBM unterstützt den verstärkten Einsatz von Flash-Technologie im Unternehmen zur Beschleunigung von Big-Data-Analytics .Dazu hat IBM neue Lösungen zur Verbreitung von Flash-Speichertechnologie vorgestellt, um Unternehmen eine bessere Bewältigung der wachsenden Herausforderungen von Big Data zu ermöglichen.

Flash ist eine hocheffiziente, wiederbeschreibbare Speichertechnologie. Sie kann die Antwortzeiten der Informationsbeschaffung in Server-und Storage-Systemen von Milli- auf Mikrosekunden beschleunigen – um Größenordnungen schneller. Da sie keine beweglichen Teile enthält, ist die Technologie auch zuverlässiger, langlebiger und energieeffizienter als sich drehende Festplatten.

Solche Vorteile haben dazu geführt, dass Flash-Technologie heutzutage die Unterhaltungselektronikindustrie durchdringt und in fast alles vom Handy bis zum Tablet-Computer eingebaut wird. Im gleichen Maß, wie Organisationen mit schnell ansteigenden Datenmengen kämpfen sowie mit einer wachsenden Nachfrage nach schnelleren analytischen Einsichten und steigenden Energiekosten im Rechenzentrum, ist Flash zu einer wichtigen Voraussetzung für smartere Unternehmen geworden.

Zur Beschleunigung dieser Transformation gab IBM bekannt, eine Milliarde Dollar in Forschung und Entwicklung zu investieren, um neue Flash-Lösungen in sein wachsendes Portfolio von Servern, Storage-Systemen und Middleware zu integrieren.

Als Teil dieses Engagements hat das Unternehmen auch Pläne angekündigt, 12 Kompetenzzentren rund um den Globus zu eröffnen. Diese Einrichtungen können es Kunden ermöglichen, Proof-of-Concept-Szenarien mit realen Daten ablaufen zu lassen, um die projizierten Performance-Gewinne, die mit IBM Flash-Lösungen erreicht werden können, genauer zu messen. Kunden können aus erster Hand erleben, wie IBM Flash-Lösungen in Echtzeit Entscheidungsgrundlagen für operative Vorgänge liefern können, und die Leistung von geschäftskritischen Workloads wie die Verarbeitung von Kreditkarten, Börsengeschäften, Fertigungsprozessen und von Auftragsabwicklungssystemen gesteigert werden kann. Die Kompetenzzentren werden voraussichtlich bis Ende des Jahres in Betrieb gehen in China, Frankreich, Deutschland, Indien, Japan, Singapur, Süd-Amerika, Großbritannien und den USA.

IBM hat heute auch die Verfügbarkeit der IBM FlashSystem-Linie der Flash-Storage-Appliances angekündigt, die auf der Technologie von Texas Memory Systems basieren. Das IBM Flash-System 820, zum Beispiel, hat die Größe einer Pizza-Box, aber ist 20 mal schneller als sich drehende Festplatten und kann bis zu 24 Terabyte an Daten speichern – mehr als die doppelte Menge an gedruckten Informationen in der US Library of Congress.

Anwender der IBM FlashSystems haben eine bis zu neunzigprozentige Reduktion in der Transaktionszeit für Anwendungen im Bereich der Branchen Banken, Handel und Telekommunikation erlebt; eine bis zu fünfundachtzigprozentige Reduzierung war bei der Batch-Verarbeitung und in Anwendungen wie Enterprise-Resource-Planning und Business Analytics beobachtbar. Dazu war eine bis zu achtzigprozentige Senkung des Energieverbrauchs in Rechenzentrumskonsolidierungen und bei Cloud-Implementierungen beobachtbar.

Sprint Nextel Corp, ein Early Adopter von Flash, hat vor kurzem einen Vertrag mit IBM abgeschlossen, um neun IBM FlashSystem 820-Systeme in seinem Rechenzentrum für insgesamt 150 TB zusätzlichen Flash-Speicher zu installieren. Das Unternehmen suchte nach einem Weg, um die Leistung und Effizienz der telefonischen Aktivierungsanwendung zu verbessern.

Die neue IBM FlashSysteme erweitern die wachsende Bandbreite an Flash-und Hybrid (Festplatte/Flash)-Lösungen, zu denen IBM Storwize V7000, IBM System Storage DS8870 und IBM XIV Storage-Systeme gehören.

 

ruk – Back on Track -wieder gesund

Liebe Freunde und Leser,

ich hatte wie Ihr unschwer bemerkt habt eine längere Sendepause.

Der Grund dafür war einfach: Ich war krank.

Die gute Nachricht – ich bin nach der schweren Diagnose „Darmkrebs“ wieder genesen. Glücklicherweise muss ich mich in den Folgehandlungen weder einer Chemotherapie nach Bestrahlung unterziehen, da der Tumor durch glückliche Umstände rechtzeitig erkannt wurde. Mein Blutverdünner brachte den Tumor früh zum Bluten und er konnte sich nicht mehr verstecken. Also Glück im Unglück!

Ich bin nach Operation und Reha wieder wohlauf und erhole mich mit Gala auf Lanzarote.

Habe gut Zeit zum Lesen und Nachdenken und wieder zum Schreiben.

Ich wünschen allen schöne Feiertage und ein Gutes Neues Jahr

Rudi Kulzer – ruk

 

 

 

1 Comment

IBM und Vodafone kooperieren bei der Steuerung „Smarter Homes“

ein Nachrichten Blog von Rudi Kulzer

IBM und Vodafone haben auf der IFA in Berlin eine neue Kooperation angekündigt, um mobile Kommunikationslösungen und Cloud Computing für die Steuerung von „Smarter Home“- Anwendungen zu kombinieren.

Auf der IFA wurde erstmals gezeigt, wie Haushaltsgeräte, die über die globale M2M Plattform von Vodafone (Machine-2-Machine) vernetzt sind, mit Hilfe der neuen SmartCloud von IBM sicher gemanagt werden können. Die dazu notwendigen Schnittstellen und Verbindungselemente zwischen den beiden Plattformen von IBM und Vodafone wurden hauptsächlich im deutschen IBM Research & Development Center in Böblingen entwickelt.

M2M-Technologie macht Haushaltsgeräte durch drahtlose Vernetzung mit dem Internet intelligenter, weil sie damit nicht nur überwacht und gesteuert werden, sondern auch wichtige Informationen über ihren technischen Zustand an Hersteller und Kundendienste übermitteln können. Diese zusätzlichen Informationen sorgen für höhere Verfügbarkeit und helfen bei der Entwicklung neuer Produkte.

Die „IBM SmartCloud Service Delivery Plattform“ ist eine hoch integrierte, skalierbare Lösung, die Herstellern die kostengünstige Überwachung ihrer Geräte sowie das Angebot neuer Serviceleistungen ermöglicht. Die „Global M2M Platform“ von Vodafone bietet Haushaltsgeräte-Herstellern sichere und einfach zu handhabende drahtlose Verbindungslösungen zu den entsprechenden Home-Gateways. Kombiniert sind die beiden Plattformen eine globale, sichere und auf offenen Standards basierende Smarter Home Lösung.