HP bringt neuen Einstiegs Server für geschäftskritische Datenverarbeitung

ein Nachrichten Blog von Rudi Kulzer

HP will sein Portfolio von Servern für geschäftskritische Datenverarbeitung nach unten abrunden. Dies soll, wie HP am 28. 8.2012 ankündigt, mit der neuen Einstiegs-Lösung Rack-Server NonStop NS2100 geschehen.

Das Modell gehört zur Gruppe der HP NonStop Systeme, die ursprünglich unter dem Namen Tandem Himalaya entwickelt wurden. Nach der Übernahme von Tandem durch Compaq und dessen Übernahme durch HP landeten die für ihre Fehlertoleranz und Datenintegrität bekannten Rechner unter dem HP-Dach. Dort werden sie nun unter der Familienbezeichnung NonStop-Systeme vermarket.

Als CPU für den neuen Einstieg-Server dienen die Itanium-9300-Prozessoren. Der NS2100 eigne sich dadurch besonders für kleine und mittlere Unternehmen mit geschäftskritischen Anwendungen in der Finanz- und Telekommunikationsbranche sowie den Bereichen Fertigung, Handel und Logistik, verspricht HP. Die neuen Server sind voraussichtlich ab September verfügbar. Der Listenpreis beginnt unter 90.000 Euro.

HP NonStop NS2100 Quelle: Werkfoto

Grundlage für den Server sind offene Industrie-Standards und Prozessoren der Serie Intel Itanium 9300 (Codename „Tukwila“). Die NonStop-Plattform ist ausfallsicher ausgelegt, bietet höchste Datenintegrität und ist weitestgehend unempfindlich gegenüber Schadsoftware. Das System ist für Online-Transaktionsverarbeitung optimiert und nutzt eine integrierte Datenbank gemäß dem SQL-Standard (NonStop SQL).

Die Basis-Konfiguration des Zwei-Knoten-Systems NS2100 besteht aus je einem logischen Prozessor und acht Gigabyte Arbeitsspeicher pro Knoten, sowie insgesamt zwölf SAS-Plattenlaufwerken mit je 146 Gigabyte. Die zwölf Festplatten speichern als redundant ausgelegte Plattenpaare die System- und Anwendungsdaten gespiegelt. Außerdem lässt sich die NS2100 durch größere Plattenlaufwerke sowie Solid State Disks erweitern. Je nach Bedarf können Kunden den NonStop-Server NS2100 mit zwei oder vier Prozessoren wählen und den Arbeitsspeicher auf bis zu 128 Gigabyte erweitern.

„Mit seinen Spezifikationen ermöglicht der NS2100 gerade kleinen und mittleren Unternehmen den Einstieg in die NonStop-Welt – und das zu einem erstklassigen Preis-Leistungsverhältnis“, sagt Albrecht Munz, Leiter des Geschäftsbereichs Business Critical Systems (BCS) bei HP Deutschland.

 

IBM stellt neuen Mainframe vor – Hochsicherheit und Analytics für Unternehmens-IT

ein Nachrichten Blog von Rudi Kulzer

Am 28. August hat IBM 2012 eine neue Großrechner-Generation angekündigt – das IBM zEnterprise EC12 Mainframe-System. Dabei handelt es sich nach Angaben von Big Blue um das bisher leistungsfähigste und technologisch am weitesten entwickelte Großrechner-System des US-Technologiekonzerns.

Seit fast 50 Jahren sind IBM Mainframes als „Hochleistungspferde“ für Aufgaben der Unternehmens-IT (Enterprise-Computing) im Einsatz. Mainframes verarbeiten bei vielen großen Unternehmen, aber auch beim wirtschaftlich starken Mittelstand, als „Super-Verwaltungsrechner“ einen großen Teil der zentralen Betriebsdaten und Geschäftsprozesse auf der Basis relationaler Datenbanken. Mit dem legendären System/360 kam 1964 das erste Modell auf den Markt. Heute heißen die Mainframes IBM System z.

Derzeit kämpfen praktisch alle Unternehmen mit einem starken Anstieg der Datenmengen und suchen daher neue Wege, aus Geschäftsinformationen wie beispielsweise aus Finanz-, Kunden- und ERP-Systemen rasch Erkenntnisse für strategische Entscheidungen zu gewinnen.

IBM zEnterprise EC12 (Mitte) mit Applikationserweiterung zBX 003 (rechts) und Netezza Data Warehousing (Links) Quelle: Werkfoto IBM

Diese zu unterstützen, hat IBM nach eigenen Angaben eine Reihe neuer technologischer „Erstanwendungen“ in das neue System eingebaut. Sie sollen die Schlüsselrolle der Mainframe-Plattform unterstreichen, wenn es darum geht, den wachsenden Bedarf vieler Kunden in puncto sicherer Verarbeitung sensibler und wichtiger Unternehmensdaten sicher zu stellen. An der Entwicklung des superscalaren Prozessors des zEC12-Kerns war das IBM Labor Böblingen maßgeblich beteiligt.

Höchstmögliche Sicherheit für sensible Informationen

Das neue IBM zEC12-System soll ein besonders hohes Maß an Sicherheit und hohe Bandbreiten für den Analytic-Betrieb bieten, wenn es darum geht, sehr große Rohdatenmengen zu verarbeiten und in vorteilhaftes Wissen im Rahmen eines scharfen Wettbewerbs zu transformieren, sagt IBM.

IBM System z-Server sind traditionell die einzigen kommerziellen Serversysteme, die für die US Sicherheitsklassifizierung Common Criteria Evaluation Assurance Level 5+ entworfen sind. Das prädestiniert sie in besonderem Maße für einen Einsatz in der Regierungsverwaltung und beim Militär.

Das neue zEC12-System enthält eine Reihe innovativer Security-und Privacy-Features, um Daten „on the fly“ – in angenäherter Echtzeit – zu schützen, eine wichtige Eigenschaft im Zeitalter von Internet Banking und mobiler Clients.

Für die Absicherung von Transaktionen und sensiblen Daten soll ein manipulationsresistenter, kryptografischen Coprozessor (Crypto Express 4S) sorgen. Er enthält eine neue von IBM Research entwickelte Firmware, die in der Lage ist, die Sicherheitsanforderungen verschiedener Branchen und Regionen variabel abzudecken.

Er lässt sich so konfigurieren, dass er digitale High-Quality Signaturen unterstützt, die für Anwendungen im Umfeld intelligenter Pässe, Ausweise und gesetzlicher Onlineanwendungen eingesetzt werden. Damit lassen sich bisherige handschriftliche Unterschriften ersetzten, wie noch heute von der EU oder anderen Bereichen des öffentlichen Sektors gefordert werden.

Als kommerzielles Beispiel wurde bei der Präsentation das US-Unternehmen SC Data Center Inc. genannt, das als Dienstleister einem der weltweit größten und erfolgreichsten Katalogfirmen Colony Brands Inc. hilft, seine e-Commerce-Plattform zu schützten. Hier wird IBM System z für alle Vertriebs- und Kreditkartentransaktionen eingesetzt.

Monitoring und Betriebsanalytik

Das Modell zEC12 ist mit einer neuen, IBM zAware genannten Systemanalytik ausgerüstet, die aus der IBM Forschung kommt. Sie analysiert interne Systembotschaften und erlaubt eine annähernde Echtzeit-Sicht auf den Systembetrieb, auf eventuell entstehende Engpässe oder potentielle Probleme. Sie erkennt Muster, vermerkt jegliche Abweichungen, identifiziert ungewöhnliches Systemverhalten und versucht, mögliche Schäden zu vermeiden.

Gegenüber dem Vorgänger erlaubt das zEC12-System so eine um 30% gesteigerte Leistung bei der Analyse von Workloads. Zusätzlich sorgt der IBM DB2 Analytics Accelerator, eine Netezza Data-Warehouse-Anwendung dafür, komplexe Geschäfts- und Betriebssystem Analytic auf derselben physikalischen Plattform, dem zEC12 Kern, laufen zu lassen.

Cloud-Einsatz in großem Stil

Die bekannten Virtualisierungseigenschaften des Mainframes – sie stammen von dort und werden dort seit fast 50Jahren eingesetzt, prädestinieren das neue zEC12 System in besonderem Maße für den Einsatz in Private-Cloud-Umgebungen. Kunden können dabei tausende verteilter Linux-Systeme auf einem zEC12-System konsolidieren und dabei ihre IT-Betriebskosten (Strom, Fläche, Softwarelizenzen, Systems Management) deutlich senken.

Nach internen Untersuchungen ist ein einzelnes zEC12-System in der Lage, die Kapazität eines Multiplattform-Rechenzentrums in einem System abdecken. IBM System z konnte im Einsatz für Cloud-Computing im zweiten Quartal 2012 im Jahresvergleich ein zweistelliges Umsatzwachstum verzeichnen.

Als Vorzeigekunden nannte IBM bei der Vorstellung den US-Verwaltungsbezirk „Miami-Dade County“, einem der größten Countys (Landkreise) in Florida. Dieser hat eine Private Cloud-Analytik-Plattform auf IBM zEnterprise mit IBM Cognos Business Intelligence aufgebaut. Dabei kommt das Betriebssystem Linux zum Einsatz. Die Lösung erlaubt es der dortigen Verwaltung, Mitarbeitern und Bürgern Echtzeit-Informationen zu wichtigen öffentlichen Diensten und der Verwendung öffentlicher Gelder sicher und kostengünstig über das Internet bereitzustellen.

Weitere zEC12-Innovationen

Das zEC12-System ist der erste Mainframe, bei dem die SSD-Technologie (Solid State Disk), zum Einsatz kommt, Flash Express genannt. Damit kann die Leistung datenintensiver Workloads deutlich beschleunigt werden. Diese ist vor allem da gefordert, wo optimale Servicelevels von vitalem Interesse sind, wie etwa im direkten Kundenkontakt oder bei Serviceanwendungen von Banken, Händlern oder im öffentlichen Dienst. Mit Flash Express kann vor allem die Servicegeschwindigkeit während extremen Spitzen an Systemaktivität wie etwa bei der Eröffnung von Finanzmärkten oder in Feiertags- oder Urlaubsperioden bei Onlinehändlern variabel verbessert werden.

Durch Overhead-Strom- und Verkabelungsmöglichkeit erhalten Kunden mehr Flexibilität bei der Auswahl des Einsatzortes eines Mainframes. Sie können das zEC12-System auch ohne den sonst üblichen Rechenzentrumsdoppelboden einsetzen – zum ersten Mal bei einem Highend-Mainframe. Dies ist insbesondere ein Thema in Emerging Marktes, in denen das System z-Geschäft im zweiten Quartal um gut 10 Prozent gewachsen ist.

Das zEC12-System ist zudem der erste Allzweck-Server, der Transactional Memory-Technologie nutzt. Diese kam erstmals im IBM Blue Gene/Q-Sequoia System, dem derzeit schnellsten Rechner der Welt, zum Einsatz. IBM hat diese Technologie im neuen Mainframe-Modell adaptiert, um Software zu befähigen, parallel laufende Berechnungen, die gemeinsame Datensätze nützen, besser zu unterstützen. Ein Beispiel sind Finanzinstitute, die Transaktionen in gleichen Kontensätzen verarbeiten.

zEC12 / zBX 003 erweitern Hybrid Computing

2010 hatte IBM mit dem IBM zEnterprise Systems (Modell z196) und der IBM zEnterprise Blade Center Extension (zBX) eine neue Mainframe-Kombination auf den Markt gebracht, die Unternehmen einen konsolidierten, integrierten Einsatz von Workloads über Mainframe, POWER7- und System x-Server hinweg als „Ansatz von Hybrid-Computing“ erlaubt. Mit dem zEnterprise Unified Ressource Management können diese verschiedenen Ressourcen als ein einzelnes virtualisiertes System verwaltet werden.

Jetzt stellt IBM das zBX Model 003 vor, das speziell für den Betrieb mit dem zEC12-System vorgesehen. Ist. Wie sein Vorgänger enthält das aktuelle zBX Spezialprozessoren für spezifische Workloads wie die IBM WebSphere DataPower Integration Appliance XI50 for zEnterprise, den IBM DB2 Analytics Accelerator und ausgewählte IBM Blade Center-Server.

Bis heute hat IBM über 150 zBX-Einheiten mit 1100 Bladeservern an Kunden ausgeliefert. Die Konsolidierung disparater Systeme auf dem zEC12 kann die operationalen Gesamtkosten (TCO – total cost of ownership) eines Kunden um bis zu 55% gegenüberverteilten Rechenzentren verbessern, sagt Big Blue.

Branchenlösungen für System z

Auch das Angebot an branchenspezifischen Lösungen für System z wächst nach Angaben von IBM kontinuierlich. Dabei werden Lösungen von ISV-Partnern, Services mit denen von IBM Global Business Services kombiniert. Dazu gehören aktuell um die IBM Intelligent Operations Center for Smarter Cities, das IBM Health Plan Integration Hub sowie zwei IBM Smarter Analytics-Themen, nämlich Anti-Betrugs- und Abfall-Lösungen sowie Missbrauchüberwachung für die Gesundheits- und die Versicherungsbranche – sowie die IBM Genelco Versicherungsverwaltungslösung.

 

HP Gemini Server: Pläne für Superstromspar-Server werden konkreter

Ein Nachrichten Blog von Rudi Kulzer

Am 19. Juni hat Hewlett-Packard in San Francisco seine Pläne, Server mit extremer Energiesparleistung auf den Markt zu bringen, konkretisiert. Die ersten Rechner einer „Gemini“ genannten Familie sollen bis Ende des Jahres auf den Markt kommen. HP arbeitet an diesem Projekt intensiv mit Intel zusammen.

Gemini ist ein Teil des „Moonshot“-Projekts, das der Technologiekonzern aus Palo Alto am 1. November 2011 unter der Leitung von Paul Santeler, Vizepräsident und General Manager der Hyperscale Business Unit, HP Industry Standard Servers and Software. , gestartet hat. Damit sollte in einem ersten Schritt der Stromverbrauch in ausgewählten Service-Rechenzentren (ISVs) um bis zu 90 Prozent reduziert werden.

Das Moonshot-Design arbeitet mit einem Konzept, bei dem die herkömmlichen starken Mikroprozessoren in Servern durch Handy- oder Notebooks-Chips ersetzt werden. Da der Stromverbrauch in mobilen Geräten, die auf kleinen Batterien laufen, per se niedrig gehalten werden muss, sind diese Prozessoren von Grund auf so konzipiert, dass sie möglichste wenig Strom verbrauchen. So schalten sie etwa automatisch bei bestimmten Aufgaben ab oder verlangsamen den Verbrauch bei Anrufen oder Web-Aktionen.

Im einem ersten Schritt wurden in den HP Labs in Palo Alto die sogenannten „Redstone“-Server entwickelt und mit ausgewählten Kunden, etwa einige der weltweit größten Online-Unternehmen mit Web-Aktivitäten wie Social Networking und Videowiedergabe getestet. Bei den Redstone Servern kommen Prozessoren von Calxeda aus Austin, Texas, einem Spezialist für low-power ARM-Chips zum Einsatz.

Moonshot Gemini Server für verschiedene Einsätze gedacht

HP will mit der Initiative die Zusammenarbeit innerhalb der Branche fördern, um neue Wege bei „hyperskalierbaren“ Rechenumgebungen wie Cloud-Services und On-Demand-Computing zu beschreiten. Künftig sollen daher derartig ausgerüstete Server-Rechner auch Finanzunternehmen, wissenschaftliche Forscher und Sicherheitskräfte von Regierungen und Organisationen angeboten werden, die in ihrem Aufgabengebiet größere Datenmengen mit wechselnden Workloads verarbeiten müssen, so Santeler.

Extremes Energiesparen und die Effizienz von ausgewählten wechselnden Arbeitslasten und Anwendungen sind die Aufgaben des Moonshot-Projekts. Im Vergleich zu konventionellen Server-Systemen sollen der Energieverbrauch um bis zu 89 Prozent, der Platzbedarf um bis zu 94 Prozent und die Gesamtkosten im Rechenzentrum um bis zu 63 Prozent sinken, nannte HP schon im November als Ziel..

Damit geht das Moonshot-Projekt in die Phase „Gemini“ Für diesen weiteren Schritt mit der Entwicklung erster Produktionsserver hat HP sich entschieden, diese mit „Server Cartridges“ (Kartuschen) auszurüsten, die mit Intels Atom-Prozessor „Centerton“ (Codename) ausgerüstet sind.

HP Gemini Kartuschen in der Entwicklung Quelle: Werkfoto

Als entscheidende Merkmale werden Workload-Optimierung sowie extremer Niedrig-Energie Aufwand genannt. Dafür sollen das Prinzip vom „Server-Kartuschen“ genannt, bei dem in einem speziellen Gehäuse, Ressourcen über tausende von Servern systematisch bedient werden können.

HP entschied für die Intel Prozessoren „Centerton“ als Technologiebasis der „Server Kartuschen“ die diese für den Einsatz in Rechenzentren geeignet sind und auf 64-Bit-Ebene arbeiten. Dazu kommen Hardware-Virtualisierung (VTx), fehlerkorrigiernde ECC-Speicher (error correction code), der niedrige Stromverbrauch bei gleichzeitig höherer Leistung sowie ein breites Software-Ecosystem.

Partner des Projekts HP Gemini - Paul Santeler (re) und Jason Waxman Quelle: eetimes.com

„Für den letzten 3 Jahren hat Intel sein Engagement für kontinuierliche Innovation in der extremen Niedrig-Energie-Initiative-Server gezeigt, und unsere tiefe Zusammenarbeit mit HP konnten wir eine Prozessor-Roadmap entwickelt, um außergewöhnliche Leistung und Energie-Effizienz verbessern zu schaffen“, sagte Jason Waxman, General Manager, Cloud-Infrastruktur bei Intel Data Center und Connected Systems Group, Intel Corporation bei der Vorstellung in San Francisco.

Verfügbarkeit

Die Gemini-Server Systems mit Centerton-basierten Server -Kartuschen, sind derzeit im HP Discovery-Labor in Houston im Einsatz und sollen in Kürze an Testkunden ausgeliefert werden. Erste Produktauslieferung an Kunden werden für Ende des Ende des Jahres erwartet, sagen HP und Intel.

 

Warmwassergekühlter „SuperMUC“ ist derzeit Europas schnellster Supercomputer

Ein Blog von Rudi Kulzer

Auf der Internationalen Supercomputing Conference (ISC) in Hamburg wurde der neue Superrechner „SuperMUC“ des Garchinger Leibniz Rechenzentrums der Bayerischen Akademie der Wissenschaftler zum derzeit schnellsten Rechner Europas gekürt.

In der aktuellen Top500-Liste, die im Rahmen der ISC veröffentlicht wurde, ist SuperMUC der neue leistungsfähigste Supercomputer Europas und der viertschnellste weltweit. SuperMUC wurde von IBM für das Leibniz-Rechenzentrum (LRZ) der Bayerischen Akademie der Wissenschaften entwickelt.

Das System erreicht eine Spitzenleistung von 3 PetaFLOPS. Dies entspricht 3 Billiarden Rechenoperationen pro Sekunde (10E15). Trotzdem verbraucht es rund 40% weniger Strom als ein vergleichbares luftgekühltes System. Möglich wird dies durch eine innovative Warmwasserkühlung. Der Grundstein für diese Entwicklung wurde von Forschern von IBM Research – Zürich gelegt, unterstützt durch das deutsche IBM Entwicklungszentrum in Böblingen.

SuperMUC des Leibniz Rechenzentrum in Garching bei München Quelle: LRZ

 

SuperMUC ist ein IBM System x iDataPlex Direct Water Cooled dx360 M4 Cluster Er verfügt über insgesamt etwa 150.000 Rechenkerne, die eine Spitzenrechenleistung von drei PetaFLOPS erbringen. Dies entspricht der Leistung von mehr als 110.000 PCs.

Besonders System der Wasserkühlung

Eine Besonderheit des Systems ist seine Kühlung: Erstmals kommt bei SuperMUC in einem kommerziellen System eine innovative Wasserkühlung zum Einsatz, die den Gesamtenergieverbrauch des Rechners um 40% reduziert und ermöglicht, dass die entstehende Abwärme direkt für die Gebäudeheizung genutzt werden kann.

Heute entfällt bis zu 50% des Energieverbrauchs und der CO2-Emissionen eines durchschnittlichen luftgekühlten Rechenzentrums auf den Betrieb der notwendigen Kühlsysteme, die die Server vor Überhitzung schützen. Um diesen Verbrauch nachhaltig zu reduzieren, haben IBM Forscher in Zürich neuartige Wasserkühlsysteme für Computer erforscht. Wasser leitet Wärme rund 4000 mal besser als Luft.

Die Kühlkonzepte der IBM Forscher sind vom energetisch hocheffizienten menschlichen Blutkreislauf inspiriert: Ein ausgeklügeltes Kühlnetzwerk mit leistungsfähigen Mikrokanalkühlern führt die Wärme direkt dort ab, wo sie entsteht: am Chip. So kann der neue Computermit über 40°C warmem Wasser gekühlt werden und liefert gleichzeitig wertvolle Abwärme, die direkt für die Gebäudeheizung genutzt werden kann. Das wirkt sich auch auf die Betriebskosten aus: SuperMUC wird zu Einsparungen von rund 1 Million Euro pro Jahr führen.

Das Potenzial der innovativen Wasserkühltechnologien für die Forschung ist mit SuperMUC allerdings bei weitem noch nicht erschöpft. Dr. Bruno Michel, Manager Advanced Thermal Packaging bei IBM Research –Zürich und einer der Erfinder des SuperMUC-Kühlkonzepts, erklärt: „Unser Plan ist es, mittelfristig die Kühlstrukturen direkt auf die Rückseite der Prozessoren zu integrieren, um aufeinandergestapelte 3D-Chips zu kühlen. Damit können wir den Weg für massive Verkleinerungen und Leistungssteigerungen bahnen: Der SuperMUC von heute könnte so langfristig auf die Größe eines PCs schrumpfen.“

Ein Höchstleistungssystem für die Wissenschaft

SuperMUC ist ein Beitrag des Gauss Center for Supercomputing, des Zusammenschlusses der drei größten deutschen Wissenschafts-Rechenzentren JSC Jülich, HLRS Stuttgart und LRZ Garching bei München und gehört zur europäischen High Performance Computing-Infrastruktur PRACE (Partnership for Advanced Computing in Europe). Der Supercomputer wurde gemeinsam vom Bund und dem Land Bayern finanziert.

SuperMUC zeichnet sich dadurch aus, dass er besonders vielseitig einsetzbar ist. Wie bisher kommen viele Projekteaus der Physik und Strömungsmechanik. Aber in den letzten Jahren konnten gerade am LRZ immer mehr Wissenschaftsdisziplinen durch Simulationen am Höchstleistungsrechner große Fortschritte bei der Beantwortung schwieriger Fragen erreichen. So haben Geophysiker der Ludwig-Maximilian-Universität München bereits ihr Modell der Bewegungen im Erdinneren für den SuperMUC angepasst. Ihr Modell ist inzwischen der internationale Standard für die Simulationen anderer Forschergruppen.

Andere Wissenschaftler untersuchen detailliert den Fluss des Blutes in gesunden und erkrankten Blutgefäßen oder der Luft in der Lunge. SuperMUC ist außerdem mit einem leistungsstarken Visualisierungszentrum einschließlich einer 4K stereoskopischen Powerwall und einem Raum zur Darstellung virtueller Realitäten oder CAVE zur Visualisierung von 3D-Daten verbunden.

SuperMUC wird im Juli offiziell im Rahmen der 50-Jahr-Jubiläumsfeier des LRZ eingeweiht.

 

 

IBM Lösung für den SEPA-Zahlungsverkehr von Unternehmen

ein Nachrichten Blog von Rudi Kulzer

Ablösung der nationalen Zahlungsverkehrsformate / Mandat tritt an die Stelle der Einzugsermächtigung

IBM stellt mit dem SEPA Mandate Manager eine neue Lösung für den SEPA-Zahlungsverkehr von Unternehmen vor. SEPA steht für „Single European Payment Area“. Im Zusammenhang mit der anstehenden Ablösung der nationalen Zahlungsverkehrsformate wird das Mandat – als Basis für die SEPA-Lastschrift – die Einzugsermächtigung des bestehenden deutschen Lastschriftverfahrens ersetzen.

Veränderung im Europäischen Zahlungsverkehr

Mandate müssen erhoben, verwaltet und deren Informationen in die Zahlungsnachrichten aufgenommen werden. Eine Anpassung, Erweiterung oder Ergänzung bestehender Systeme wird dadurch unumgänglich, Migrationen müssen beginnen. Von der Umstellung betroffen sind der Kreditor, die Bank des Gläubigers, der Debitor und die Bank des Schuldners. Die Kernregeln, Techniken und Standards sind in den EPC*-Rulebooks definiert und unterscheiden sich deutlich vom existierenden Lastschriftverfahren.

IBM hat mit dem SEPA Mandate Manager eine universell einsetzbare Lösung entwickelt, die in verschiedenen Ausbaustufen angeboten wird. Die Lösung deckt die Pflichtaufgaben sowie weitere optionale Anforderungen ab und ist aufgrund der serviceorientierten Architektur und des ausschließlichen Einsatzes von Standardschnittstellen leicht in unterschiedliche Infrastrukturen einzupassen. Sie erfüllt sowohl aktuelle als auch zukünftige SEPA-Anforderungen, z.B. E-Mandat.

Der SEPA Mandate Manager ist eine Lösung für die Mandatsmigration und die Lastschriftverarbeitung unter Berücksichtigung vollständiger Konformität zum aktuellen und zukünftigen SEPA-Standard. Als mandantenfähige Web-Anwendung kann nach Angeben von IBM konzernweit eingesetzt werden.

 

MÜNCHNER KREIS: Aus Big Data wird Big Business

ein Nachrichten Blog von Rudi Kulzer

Der MÜNCHNER KREIS zeigte auf einer Veranstaltung in München, wie aus der Flut von öffentlichen und privaten Daten der digitalen Welt neues Wissen, gesellschaftlicher Mehrwert und Geschäftserfolge entstehen. Eine rapide Zunahme von Datenmengen und Datenquellen lässt sich in vielen Lebensbereichen beobachten – von den Handels-, Finanz- und Energiesektoren über die Telekommunikation, das Gesundheits- und Verkehrswesen bis hin zu sozialen Netzwerken.

Neben der steigenden Datenmenge ist es vor allem die Geschwindigkeit, mit der Daten erzeugt und oft in Echtzeit analysiert und verarbeitet werden, die besondere Anforderungen an die Informationssysteme stellen. Wer Daten als Wirtschaftsgüter nutzt, muss auch die Nutzungsrechte berücksichtigen.

Auf einer Fachkonferenz des MÜNCHNER KREIS haben rund 150 Experten aus Wirtschaft, Politik und Wissenschaft Konzepte für die effiziente Verarbeitung und Analyse ständig wachsender Datenmengen diskutiert. Der Anstieg des Volumens bei der Datenerhebung, -verarbeitung und -analyse geht in vielen Fällen bereits in die Petabytes, Exabytes und sogar Zettabytes.

Nach aktuellen Schätzungen verzehnfacht sich die im Internet anfallende Datenmenge alle fünf Jahre. Bei solchen Wachstumsraten stoßen existierende Technologien und Konzepte aufgrund ihrer Komplexität und ihrer mangelnden Geschwindigkeit an ihre Grenzen.

„Neue anpassungsfähige Prozesse, Lösungsansätze und Strategien gewinnen an Bedeutung, die über intelligente Verfahren und lernende Systeme den effizienten Umgang mit Big Data erlauben“, sagte Prof. Arnold Picot, Vorstandsvorsitzender des MÜNCHNER KREIS. Das Ziel dieser Strategien ist eine Wissen stiftende Verarbeitung und Analyse der Datenvielfalt – vielfach sogar in Echtzeit. „Dieses Wissen kann jedem von uns zugutekommen und es kann Unternehmen sehr dabei helfen, Wettbewerbsvorteile zu erzielen und neue Geschäftsfelder zu erschließen“, so Picot.

„Jüngste Studien bestätigen, dass Unternehmen, die führend beim Einsatz der Datenanalyse sind, durchschnittlich 33 Prozent mehr Umsatz und ein zwölfmal höheres Gewinnwachstum haben als Nachzügler – und die Kluft wird immer größer“, beschrieb Christian Klezl von IBM die Aussichten eines systematischen Umgangs mit Big Data. „Dabei geht es nicht nur um die Herausforderungen steigender Datenmengen, sondern auch darum, unstrukturierte Daten beispielsweise aus sozialen Netzen und unsicheren Datenquellen zu analysieren und zu nutzen. Es ist wichtig, für Unternehmen eine Informationsagenda zu erstellen, um ihr größtes Geschäftspotenzial zu erkennen und zu nutzen. Dies gilt auch für den öffentlichen Sektor, in dem gesellschaftlicher Mehrwert durch einen besseren Service und geringere Kosten für den Bürger entstehen kann“, so Klezl weiter.

Den praktischen Umgang mit den rapide wachsenden Datenmengen erklärte Axel Deicke von der BMW Group: „Während im gesamten Jahr 2011 noch rund 20 Gigabytes an Informationen an die BMW Group übermittelt wurden, sind es nun täglich rund 30 Gigabytes an objektiven, technischen Informationen – Tendenz weiter steigend. Daten aus der Marktforschung oder der Kundenbetreuung sind hierin noch nicht einmal enthalten“. Danach werden bei der BMW Group Analyse-, Reporting- und Modellierungsanforderungen aus jedem Bereich des Automobil-Lebenszykluses bewältigt. „Dieser Zyklus reicht von der Forschung und Entwicklung, über Erprobungen, die Serienfertigung und Marketing bis zum Kundendienst und zur Gewährleistungsabwicklung“, erklärte Deicke.

Prof. Volker Tresp von der Siemens AG stellte das datenbasierte Management global installierter Siemens-Kundenlösungen in der Praxis vor. So werden beispielsweise durch die Analyse von Betriebsdaten über präventive Instandhaltung Computertomographie-Röhren rechtzeitig ausgetauscht und somit Ausfallzeiten minimiert. Über das so genannte Condition Monitoring werden in einem anderen Beispiel kritische Systemzustände frühzeitig erkannt und dadurch Turbinenvibrationen vermieden. „Eine besondere Aufgabe übernimmt Big Data in der Optimierung der Kundenlösung. Dies reicht von einer smarten Visualisierung der Datenströme, über datenbasierte Entscheidungsunterstützung bis hin zur Fehler-Ursachen-Analyse“, so Tresp.

Inzwischen hat die Datenanalyse längst die internen Unternehmensbereiche der so genannten Business Intelligence, des automatisierten Berichtswesens, verlassen. Dr. Volker Rieger von Detecon International berichtete, dass viele aktuelle Big-Data-Anwendungen darauf abzielen, Informationen direkt für Kunden und Nutzer bereitzustellen. Häufig sind es Start-Ups, die entsprechende Marktnischen entwickeln, und damit Transparenz und die Macht der Verbraucher erhöhen. „Unternehmen und Verbraucher können enorme Vorteile aus der Datenanalyse ziehen. Genauso wichtig wie die Beherrschung der Analyseprozesse und Technologien ist aber der Konsens in Gesellschaft und im Markt über akzeptable Datenquellen und werthaltige Informationsangebote“, erläuterte Rieger.

Dr. Alexander Duisberg von Bird & Bird LLP wies auf die rechtlichen Probleme im Umgang mit Big Data hin. So stelle sich im Kern die Frage nach dem Eigentum und der Verkehrsfähigkeit einzelner Datensätze und Datensammlungen. „Unser Zivilrecht gewährt keinen Eigentumsschutz für einzelne Datensätze. Der Schlüssel liegt in den Rechten des Datenbankherstellers. Es ist also nicht die Frage, wem die Daten ‚gehören‘, sondern ob Rechte des Datenbankherstellers bestehen und wie man anderen Marktteilnehmern Rechte daran vertraglich einräumt oder überträgt. Komplexe datenschutzrechtliche Fragen können hinzutreten – insbesondere, wenn personenbezogene Daten aus international unterschiedlichen Quellen in Datenbanken enthalten sind“. Immerhin stelle sich das Problem des Datenschutzes in einer weit überwiegenden Vielzahl der Fälle von Big Data sachlich gar nicht, da es an dem individuellen Personenbezug der einzelnen Datensätze fehle.

Als Fazit der Fachkonferenz wies Picot darauf hin, dass der Einsatz intelligenter Verfahren und lernender Systeme nicht nur zu einer Optimierung der Technologien, Prozesse und Betriebsmodelle innerhalb großer Unternehmen führen wird. Vielmehr erforderten sie insbesondere bei kleinen und mittleren Unternehmen eine engere Zusammenarbeit zwischen den Unternehmen. Zugleich bietet sich hier die Chance für das Entstehen hochspezialisierter neuer Dienstleister. „Oft können einzelne Unternehmen aufgrund der Komplexität diese Herausforderungen allein nicht meistern. Hier müssen neue Wege beschritten werden, ohne die viele Investitionen in die digitale Infrastruktur überhaupt nicht nutzbar sind. Ein wichtiger Punkt ist hierbei auch der Austausch und die Nutzung von Daten und die damit zusammenhängende Frage der Daten-Governance von öffentlichen, privaten sowie vertraulichen Daten“.

Über den MÜNCHNER KREIS:

Der Münchner Kreis ist eine gemeinnützige übernationale Vereinigung für Kommunikationsforschung. An der Nahtstelle von Politik, Wissenschaft, Wirtschaft und Medien befasst er sich mit Fragen der Technologie, der Gesellschaft, der Ökonomie und der Regulierung im Bereich von Informations- und Kommunikationstechniken sowie der Medien. Er begleitet und fördert die Entwicklung der Informationsgesellschaft in verantwortungsvoller Weise, und wirkt an der Verbesserung der Rahmen-bedingungen durch wissenschaftlich qualifizierte Beiträge und sachlichen Dialog konstruktiv mit.

 

HP erweitert EVA Speicherfamilie

ein Nachrichten Blog von Rudi Kulzer – Basis HP Meldung

Ab Juni erweitert HP die Speicherfamilie Enterprise Virtual Array (EVA) mit den Modellen P6350 und P6550. Diese unterstützen Solid State Drives (SSD) und VMware vSphere® Storage APIs for Array Integration (VAAI).

Die Erweiterung der EVA-Systeme soll Kunden dabei unterstützen, die Leistungsfähigkeit und Auslastung des Rechenzentrums zu steigern und gleichzeitig den Flächen- und Energieverbrauch zu reduzieren.

Neue Funktionalitäten

• Die neuen EVA-Modelle skalieren auf bis zu 1.2 PB Speicherkapazität und verfügen über einen erweiterten Cache. Durch die große Kapazität eignen sich die Speichersysteme für eine Konsolidierung von Applikationen. Die hohe Skalierbarkeit sorgt für Investitionssicherheit.

• Speicherspezifische Management-Prozesse werden vom System eigenständig durchgeführt. Der Einsatz von VAAI steigert die Performance der Applikationen, die Skalierbarkeit des Systems und die Effizienz bei der Einrichtung von virtuellen Maschinen.

• Die neuen EVA-Modelle reduzieren den Strom- und Flächenverbrauch im Rechenzentrum. Allein der Einsatz von 2,5 Zoll SAS- und SSD-Laufwerken sorgt für einen um bis zu 35 Prozent geringeren Stromverbrauchs als herkömmliche Festplatten.

• Durch die SSD-Speicher wird die Leistung der Anwendungen verbessert. Engpässe in bestehenden Anwendungsumgebungen lassen sich so vermeiden.

• Mit den 3TB SAS-Laufwerken werden die Speicherkosten pro Terabyte gesenkt.

Verfügbarkeit und Preise:

Die neuen EVA P6550 und P6350 sind ab Juni weltweit verfügbar. Der weltweite gültige Listenpreis beginnt bei 12.265 Euro (EVA 6350) und 14.250 Euro (EVA 6550). Die seit Februar verfügbaren SSD-Speicher sind ab 7.715 Euro erhältlich. Die HP Performance Advisor Software kostet 920 Euro, der VAAI-Support ist inbegriffen.

 

IBM erweitert Cloud Angebot mit neuen Cloud Services

ein Nachrichten Blog von Rudi Kulzer – Basis IBM Material

IBM erweitert ihr bestehendes SmartCloud-Portfolio Auswahl, Sicherheit und Kontrolle für Enterprise Computing stehen dabei im Fokus

Seit Markteinführung der IBM SmartCloud nutzen nach Angaben von Big Blue immer mehr Kunden die Cloud, um Daten und Prozesse an Internetdienste zu verlagern:

– 1 Million Anwender arbeiten mit Unternehmensanwendungen in der IBM Cloud.

– Mehr als 100 Milliarden Dollar pro Jahr werden mit kommerziellen Transaktionen in der Cloud umgesetzt.

– 4,5 Millionen Kundentransaktionen werden tägliche über die IBM Cloud durchgeführt.

Als Referenzkunden nannte IBM:

ZF openmatics, ein Unternehmen der ZF Friedrichshafen AG, benötigte für den Aufbau eines weltweiten Vertriebs von Embedded Car Applications eine kostengünstige Lösung, die sich den flexiblen Auslastungen anpasst.

Die maxess systemhaus GmbH hat ihr Warenwirtschaftssystem x-trade in die IBM SmartCloud Enterprise verlagert. Damit bietet das Unternehmen auch kleinen und mittelgroßen Händlern an, ihre maxess Warenwirtschafts-Lösung in einer Cloud zu betreiben, die in einem IBM Rechenzentrum gehostet wird.

Die Telecomputer GmbH: Die Lösung basiert auf einem „pay as you go“-Ansatz, mit dem das Unternehmen flexibel IT-Leistungen aus der IBM Cloud beziehen kann. Im Rahmen dieses Cloud-Computing-Vertrags bietet Telecomputer auf Basis einer SaaS-Lösung den technischen Betrieb ihrer Integrierten Kommunalen Lösungen (IKOL®) an.

Die Häfele-Gruppe, weltweit tätiger Großhändler für Möbel- und Baubeschläge bezieht die Infrastruktur für ihre zentralen x-trade suite- und x-trade store-Anwendungen aus der IBM SmartCloud.

OTRUM, ein Anbieter von interaktiven TV-Lösungen und -Inhalten für das Gastgewerbe, nutzt das Cognos Analyse-Tool von IBM, um Marketing-Kampagnen zu managen und Verhaltensmuster von Gästen zu identifizieren. Da die Lösung auf der IBM SmartCloud Enterprise liegt, kann OTRUM Kundenanalysen von über 500 Hotels gleichzeitig durchführen:

Connected Healthcare in der Cloud

IBM arbeitet mit „Colleagues in Care Global Healthcare Network” zusammen und unterstützt es dabei, die Gesundheitsversorgung in Haiti zu verbessern. „Colleagues in Care“ nutzt dabei die IBM SmartCloud for Social Business, um Mediziner und Freiwillige weltweit virtuell zu verbinden. Damit profitieren die Beteiligten von einem medizinischen Wissenssystem, das Behandlungsmöglichkeiten und Best Practices beinhaltet, die genau auf die haitianischen Verhältnisse abgestimmt sind. Das Netzwerk besteht aus rund 200 Ärzten, Krankenschwestern und Unternehmern, die virtuell aus Canada, China, Haiti, Frankreich, Irland, Italien, dem Vereinigten Königreich und den Vereinigten Staaten auf IBM SmartCloud for Social Business zusammengeschlossen sind.

Weitere Kunden, die sich für die IBM SmartCloud entschieden haben.: Ricoh Company Ltd, Neiman Marcus, University of Texas El Paso, Strategic Decision Group, Hindustan Motors, Bonduelle und Apave das Social-Business-Modell Das IBM Ready for IBM SmartCloud-Services-Programm feierte im Februar diesen Jahres Markteintritt – heute hat es bereits über 30 sogenannte Independent Software Vendors (ISVs) und Partner, die es für Kunden einfacher machen, Technologien von Business-Partnern mit IBM SmartCloud-Zertifizierung zu finden.

Im neuen Online-Verzeichnis sind die zertifizierten Technologien in Kategorien wie Business Applications, Collaboration, Development and Test Tools, Infrastructure Services oder Security and Monitoring unterteilt.

Zu den neuen ISVs und Partnern zählen u.a. Cloud-Prime, Cohesive FT, Convertigo, Corent, Jaspersoft, NViso, SOASTA, Sproxil, SugarCRM, Vacava, Vision Solutions und Zementis.

 

Darüber hinaus kündigt IBM neue und erweiterte Funktionen für ihr IBM SmartCloud-Portfolio an:

IBM SmartCloud Enterprise 2.1

– Erweiterung des bewährten Infrastructure-as-a-Service- (IaaS) Cloud-Angebotes mit neuen Funktionen in einer einfach zu installierenden und robusten Virtual-Private-Cloud-Umgebung in den weltweiten sicheren IBM Rechenzentren.

– Service Level Agreements (SLA) von 99,9% schaffen Vertrauen in die Zuverlässigkeit des IBM Services für die Entwicklung und den Betrieb einer großen Bandbreite von Anwendungs-Workloads.

– Zwei neue Red Hat Enterprise Linux-Betriebssysteme: Red Hat Enterprise Linux 5.8 bietet neue und verbesserte Funktionen für erhöhte Leistung, Flexibilität und Sicherheit. Red Hat Enterprise Linux 6.2 bietet Verbesserungen in den Bereichen Virtualisierung, Ressourcenmanagement und Hochverfügbarkeit und neue Funktionen in den Bereichen Speicher-Management, Filesystem-Performance und Identity Management.

– Das Upgrade des permanenten Speichersystems erhöht die Geschwindigkeit und Performance spürbar; das Upgrade der KVM Hypervisor Software bringt eine noch höhere Sicherheit und Leistungsverbesserungen mit sich.

IBM SmartCloud Application Services (SCAS)

– Das IBM Plattform-as-a-Service- (PaaS) Angebot IBM SmartCloud Application Services (SCAS) ist nun in größerem Umfang für ausgewählte Kunden im Rahmen des Pilotprogramms verfügbar. Kunden profitieren so von den Vorteilen der Application Workload Services und der Collaborative Lifecycle Management Services, um ihre Anwendungen noch schneller auf Basis der IBM SmartCloud-Enterprise-Plattform zu entwickeln und in Produktion zu bringen.

– Das Pilotprogramm der SCAS-Lösung ist bislang weltweit in englischer Sprache verfügbar.

– Als Teil einer umfassenderen IBM SmartCloud-Familie, ist SCAS mit der neu angekündigten IBM PureSystems-Familie kompatibel

IBM SmartCloud Enterprise und IBM SmartCloud Enterprise + unterstützen jetzt auch das Microsoft-License-Mobility-Programm. Mit neuen, flexiblen Optionen für die Bereitstellung von Microsoft-Anwendungen wie Microsoft Exchange Server, Microsoft SharePoint Server und Microsoft SQL Server können Kunden die Microsoft-Anwendungen auf eigenen Systemen oder über die IBM SmartCloud-Plattform bereitstellen lassen.

 

Magnetbandtechnologie in der IT wird 60 Jahre alt

ein Hintergrund Blog von Rudi Kulzer

auf Materialbasis von IBM

Der Bandspeicher als IT-Speichersystem feiert am 21. Mai 2012 seinen sechzigsten Geburtstag. IBM hat die Entwicklung von Bandspeichereinheiten maßgeblich mitgestaltet. Mit der Einführung der Magnetbandeinheit IBM 726 im Jahr 1952 beginnt die innovative Entwicklung von Tapes über Jahrzehnte. Heute steht diese altbewährte Technologie vor einer Renaissance. Als Medium zur preisgünstigen Langzeitarchivierung ohne Stromverbrauch und technologischen Neuerungen gehört Tape noch immer zu den modernsten Speichertechnologien professioneller Unternehmens-IT.

Die Anforderungen zur Datenspeicherung steigen jährlich um 20% bis 40%, wogegen IT-Budgets nur eine Wachstumsrate von etwa 1% bis 5% aufweisen: Ein Spagat, den es zu bewältigen gilt. Die Magnetbandtechnologie kann Unternehmen bei der Lösung der Aufgaben in der Langzeitdatenhaltung und Archivierung unterstützen.

Während im Backup-Umfeld immer häufiger Plattensysteme in Form von virtuellen Tape Libraries eingesetzt werden, verändert sich die Rolle von Tape zunehmend weg vom Backup in Richtung Archivierung. Der Grund: Tape ist preiswert – Dank geringem Energieverbrauch, niedrigen Betriebskosten und niedrigem Preis pro TB-Band. Zudem werden sich die Kassettenkapazitäten durch GMR-Technologie in den nächsten Jahren sprunghaft nach oben weiterentwickeln und große Bandkapazitäten zur Verfügung stellen.

Auch die Haltbarkeit der Kassetten hat sich in den letzten Jahren auf 30 Jahre und mehr weiterentwickelt, so dass sich die Magnetbandtechnologie speziell für die Langzeitarchivierung eignet. Insbesondere in Bereichen, in denen Daten über viel Jahre hinweg aufbewahrt werden müssen, wie beispielsweise in Behörden, ist diese Technologie interessant.

                       Die Anfänge des Tapes: Großer Schrank, geringe Kapazität

 

Bandlaufwerk IBM 726 aus dem Jahr 1952 Werkfoto

 Die Magnetbandtechnologie geht ursprünglich zurück bis in die 1930er Jahre mit der Erfindung des Tonbandes zur Musikaufzeichnung in Deutschland. IBM stellte den ersten Bandspeicher im Jahr 1952 der Öffentlichkeit vor: die IBM 726, die erste externe Speichereinheit in der Geschichte der IT. Der schrankgroße Speicher hatte eine Kapazität von 1.44 MB auf einem 12-Zoll-Rollenband mit 720 Meter Länge. Zum Vergleich: Dies entsprach der Kapazität der in den späten 1980er Jahren eingeführten 3,5-Zoll-Diskette. Heutige Speicher wie beispielsweise die IBM TS1140 weisen Speicherkapazitäten im Terabyte-Bereich auf, haben also ein Vielmillionenfaches an Speicherplatz.

Vom Wildwuchs zum Formatstandard: LTO und Jaguar

1984 führte IBM die Magnetbandkassettentechnologie im professionellen IT-Bereich ein. Viele Unternehmen sprangen auf und entwickelten ähnliche Technologien. Mitte der 80’er und 90’er Jahre herrschte ein regelrechter Technologiewildwuchs an Kassetten und Aufzeichnungsgeräten

Mit der Einführung von LTO (Linear Tape Open) als erste standardisierte Magnetbandtechnologie durch die Firmen IBM, HP und Seagate im Jahr 2000 verschwanden über die Zeit viele andere Technologien wieder. LTO führte etwas entscheidend Neues mit sich: die zeitgesteuerte Spurnachführung über Servobänder, die es erlaubt, die Schreib- und Leseköpfe exakt über dem Spurset zu führen. Eine Kapazitäts- und Leistungssteigerung von Faktor 20 war die Folge.

Modernes Bandlaufwerk IBM TS1140 Jahrgang 2011 Werkfoto

Im Jahr 2003 wird die IBM 3592-(Jaguar-)Technologie als neue ½ Zoll Technik für den Enterprise-Bereich eingeführt, in der Techniken aus der Plattentechnologie in die Bandlaufwerke adaptiert wurden. Eine neue Kopftechnik kommt zur Anwendung, die mit Dünnfilmbeschichtung auf dem Band die Möglichkeit bietet, mit wesentlich höherer Induktion aufzuzeichnen, um damit sehr stabile Bits auf dem Medium abzubilden. Die Integration von GMR-Lesetechnik (Giant-Magneto-Resistance) wird in den nächsten Jahren Kassettenkapazitäten ermöglichen, die heute noch nicht vorstellbar sind. Damit ist und bleibt Tape ein Schlüsselmedium für die Langzeitdatenhaltung.

 

 

HP bringt neue ProLiant-Gen8-Server

ein Nachrichten Blog von Rudi Kulzer

HP erweitert die Generation 8 (Gen8) seiner ProLiant-Server: Die neuen Server unterstützen die Prozessor-Serien AMD Opteron 6200, Intel Xeon E5-2400 und E5-4600. Darüber hinaus hat HP neue Support-, Partner- und Finanzierungsprogramme angekündigt, unter anderem die HP ProActive Insight Architecture Alliance. In Deutschland werden neuen die Gen8-Server im Juni auf einer Roadshow in Berlin, Sinsheim und Brühl vorgestellt.

HP hatte erste ProLiant-Server der Generation 8 im Februar 2012 angekündigt. Jetzt hat HP sechs neue Gen8-Server angekündigt, die voraussichtlich im Juni 2012 verfügbar sein werden. Dazu zählen:

– Die beiden Server HP ProLiant DL385p und BL465c Gen8: Beide Server nutzen den Prozessor AMD Opteron 6200. Sie wurden speziell für Datenbanken, High-Performance-Computing und Virtualisierung entwickelt

– Die vier Server HP ProLiant DL360e Gen8, DL380e Gen8, ML350e Gen8 und BL420c Gen8: Alle vier Server nutzen Intel-Xeon-Prozessoren der E5-2400-Produktfamilie. Der erweiterbare Tower-Server ML350e Gen8 mit zwei Prozessoren (2P) eignet sich für Filialen und Zweigniederlassungen.

Der Blade-Server HP ProLiant BL420c Gen8 eignet sich für den Mittelstand und kostenbewusste Großunternehmen. Er erleichtert die Verwaltung von Anwendungen, die Hochverfügbarkeit und Hochleistung benötigen.

Zusätzlich wird es ab Sommer auch die Scale-Up-Server der ProLiant-Reihe mit neuen Prozessoren geben. HP nutzt dafür Prozessoren der Reihe Intel Xeon E5-4600. Die Server werden im Blade- und Rack-Formfaktor erhältlich sein.

Neue Allianz zur weiteren Automatisierung der Gen8-Server-Administration

HP hat für die ebenfalls im Februar angekündigte Systemarchitektur HP ProActive Insight eine neue Allianz gegründet. Die Mitglieder der HP ProActive Insight Architecture Alliance arbeiten daran, die eingebauten Analyse- und Automatisierungs-Werkzeuge der Architektur weiter zu verbessern.

Zu den Mitgliedern der Allianz zählen führende Unternehmen aus den Bereichen Speicher und Arbeitsspeicher, Input/Output (I/O), Energiezufuhr und Infrastruktur. Sie entwickeln anhand von Standards der HP ProActive Insight Architecture neue Technologie und Lösungen.

Darüber hinaus arbeitet HP mit führenden Software-Unternehmen wie Microsoft, Red Hat, SAP und VMware zusammen, um neue Leistungs-Bestwerte mit den Gen8-Servern aufzustellen.