Welcome!

@BigDataExpo Authors: Elizabeth White, Yeshim Deniz, Pat Romanski, Rene Buest, Jason Bloomberg

News Feed Item

Adaptive Computing gibt neue Version Moab 8.0 zur Verbesserung technischer Computer-Umgebungen und Big Workflow heraus

Adaptive Computing, die Firma, die viele der weltweit größten privaten/hybriden Cloud- und technischen Computing-Umgebungen mit seiner Optimierungs- und Planungssoftware Moab unterstützt, hat heute bekannt gegeben, dass die Moab HPC Suite Enterprise Edition 8.0 (Moab 8.0) in 30 Tagen erhältlich sein wird, wobei es Kurzdemos am Messestand 710 der International Supercomputing Conference (ISC) 2014 vom 22. bis 26. Juni 2014 in Leipzig geben wird. Die Neuheiten schließen Updates für Workload-Management und Workload-Optimierung in technischen Computing-Umgebungen ein. Die Moab HPC Suite-Enterprise Edition 8.0 verbessert auch Big Workflow durch intensive Simulationen und Big-Data-Analysen für einen schnelleren Überblick.

„Diese neueste Version von Moab unterstreicht, dass wir uns ganz der Innovation im technischen Computing-Sektor widmen“, sagte Rob Clyde, CEO von Adaptive Computing. „Das leistungsfähige HPC-System ist das Herzstück, wenn es darum geht, durch Datenextraktion Einblicke in Big Data zu gewinnen, und diese Updates ermöglichen Unternehmen, aus dem Zusammenspiel von HPC und der Cloud in Kombination mit Big Data Nutzen zu ziehen, um rascher datenabhängige Entscheidungen treffen zu können.“

Die Lösung Big Workflow von Adaptive ermöglicht dynamisches Planen sowie die Bereitstellung und das Management von mehrstufigen Services und Mehrzweckanwendungen für HPC, Cloud und Big-Data-Umgebungen. Moab 8.0 unterstützt die Kernaufgaben von Big Workflow: Vereinheitlichen von Ressourcen aus Datenzentren, Optimierung des Analyseprozesses und garantierte Dienstleistungen für Unternehmen.

Schlüsselupdates zu Moab 8.0 schließen Folgendes ein:

Vereinheitlichen der Ressourcen aus Datenzentren

Adaptive Computing ist auch weiterhin innovativ dabei, neue Wege zur Aufschlüsselung von Silo-Umgebungen zu entwickeln, um damit schneller Einblick zu erhalten. Mit dem innovativen System Big Workflow von Adaptive können Benutzer alle vorhandenen Ressourcen über unterschiedliche Plattformen, Umgebungen und Standorte hinweg nutzen und sie als ein einziges Umfeld managen. Moab 8.0 erhöht die Vereinheitlichung von Ressourcen mit seinem neuen System OpenStack Integration , das für ausgewählte Beta-User verfügbar ist und der virtuellen und realen Ressourcenbereitstellung als Informations- und Plattformservice dient.

„In unseren Endbenutzerumfragen waren Moab und TORQUE von Adaptive Computing mit insgesamt 40 Prozent die am meisten genannten Auftragsmanagementsysteme“, sagte Addison Snell, CEO von Intersect360 Research. „Organisationen investieren in Big Data und HPC: Mehr als die Hälfte der Unternehmen in unserer neuesten Studie verwendeten mindestens 10 Prozent ihres IT-Budgets für Big-Data-Projekte. Die Idee hinter Adaptives Big Workflow ist eine Kooperation zwischen Big Data, HPC und Cloud-Umgebungen, und zwar dynamisch auf aktuell laufenden Anwendungen. Mit dem zusätzlichen Nutzen einer vereinheitlichten Plattform ist OpenStack eine vielversprechende Möglichkeit zur Zusammenschaltung unterschiedlicher Umgebungen.“

Optimierter Analyseprozess

Massive Leistungsverbesserungen beim Optimieren des Arbeitsumfangs straffen den Analyseprozess, was wiederum den Gesamtdurchsatz und die Produktivität erhöht sowie Kosten, Komplexität und Fehler reduziert. Diese neuen Optimierungseigenschaften schließen ein:

  • Leistungs-Boost – Moab 8.0 ermöglicht Benutzern, ihre Workload-Optimierungsleistung um das Dreifache zu steigern. Um eine Steigerung um das Dreifache zu erzielen, bietet Moab 8.0 die folgenden Verbesserungen an:
    • Kürzere Latenzzeiten bei Befehlen – Durch eine Kombination aus Cache-Daten und dem leistungsfähigeren Gebrauch von Hintergrund-Threads ist es jetzt möglich, mit Read-only-Befehlen innerhalb von Sekunden eine Antwort zu erhalten.
    • Verkürzter Planungszyklus – Neue Platzierungsentscheidungen sind jetzt um das Drei- bis Sechsfache schneller.
    • Verbessertes Multi-Threading – Wegen erhöhter Parallelität durch Multi-Threading verbessert Moab jetzt die Hardware – je mehr CPU-Leistung dem Planer zur Verfügung steht, desto schneller ist auch Moab, da während des Planungsprozesses mehrere Rechenkerne zur Verfügung stehen und voll genutzt werden können.
    • Schnellere Kommunikation zwischen Moab und TORQUE – Moab übermittelt jetzt aufgrund einer leistungsfähigeren API-Schnittstelle neu eingegebene Aufgaben schneller an TORQUE.
    • Fortschrittliches Computing für hohen Durchsatz – Nitro ermöglicht einen um das Hundertfache schnelleren Aufgabendurchsatz für kurze Computing-Aufgaben. Nitro ist jetzt erhältlich. Die Betaversion wurde im November 2013 unter dem Codenamen Moab Task Manager veröffentlicht. Das autonom arbeitende Produkt Nitro ist zum Testen KOSTENLOS erhältlich.
  • Fortschrittliches Energiemanagement – Moab 8.0 bringt mit neuer Taktfrequenzsteuerung und zusätzlichen Energiezustandsoptionen Kosteneinsparungen von 15 bis 30 Prozent. Mit Taktfrequenzsteuerung können Administratoren die CPU-Geschwindigkeit an den Arbeitsaufwand mittels Aufgaben-Vorlagen anpassen. Zusätzlich können Administratoren mehrfache Energiezustände managen und automatisch Rechenknoten in neue Niederleistungs- oder Nullleistungszustände versetzen (Unterbrechungs-, Schlaf- und Abschaltungsmodi), wenn Rechnerknoten untätig sind.
  • Fortschrittliches Workflow-Daten-Staging– Durch Moab 8.0 erfährt das gegenwärtige Datenbereitstellungsmodell ein Update durch die Verwendung eines Out-of-Band-Prozesses. Diese Innovation ermöglicht verbesserte Clusternutzung, mehrfache Übertragungsmethoden und neue Übertragungsarten, eine bessere Zeitbeständigkeit bei der Auftragsausführung und es erlaubt Moab eine effektivere Datenbereitstellung für Planungsentscheidungen in Grid-Umgebungen.

Garantierte Leistungen für Unternehmen

Verbesserte Eigenschaften garantieren dem Rechenzentrum SLA, Laufzeiterhöhung und die Möglichkeit nachzuweisen, dass Services durchgeführt und Ressourcen fair zugeteilt wurden. Moab 8.0 bietet eine erhöhte web-basierte, grafische Benutzerschnittstelle an, mit dem Namen Moab Viewpoint™. Viewpoint ist die nächste Generation des administrativen Dashboard von Adaptive, das der Überwachung und Berichterstattung zum Thema Arbeitsumfang und Ressourcennutzung dient.

Über Adaptive Computing

Adaptive Computing unterstützt weltweit viele der größten privaten/hybriden Cloud- und technischen Computerumgebungen mit seiner preisgekrönten Moab-Software für Optimierungs- und Planungsaufgaben. Mit Moab können große Unternehmen in den Bereichen Öl und Gas, Finanzdienstleistungen, Fertigung, Forschung und Verwaltung Simulationen durchführen und Big Data schneller, akkurater und besonders kosteneffizient analysieren. Moab gibt Unternehmen einen Wettbewerbsvorteil, was sie zur Entwicklung von Krebstherapien, zu Erkenntnissen über die Ursprünge des Universums, zur Senkung von Energiepreisen, zur Herstellung besserer Produkte, zur Verbesserung der Wirtschaftslandschaft und zum Verfolgen bahnbrechender Bestrebungen inspiriert. Adaptive ist Pionier in den Bereichen private/hybride Cloud, technisches Computing und Big Data und besitzt über 50 Patente beziehungsweise Patentanmeldungen. Zu den Vorzeigeprodukten von Adaptive gehören:

Moab Cloud Suite für selbstoptimierendes Cloud-Management

Moab HPC Suite für selbstoptimierendes HPC-Workload-Management

Moab Big Workflow-Lösung

Weitere Informationen erhalten Sie unter +1 (801) 717-3700 oder auf www.adaptivecomputing.com.

HINWEIS FÜR REDAKTEURE: Falls Sie weitere Informationen über das Unternehmen Adaptive Computing und seine Produkte erhalten wollen, besuchen Sie bitte den Adaptive Computing Newsroom unter http://www.adaptivecomputing.com/category/news/. Sämtliche angegebenen Preise sind in US-Dollar und gelten nur in den USA.

Die Ausgangssprache, in der der Originaltext veröffentlicht wird, ist die offizielle und autorisierte Version. Übersetzungen werden zur besseren Verständigung mitgeliefert. Nur die Sprachversion, die im Original veröffentlicht wurde, ist rechtsgültig. Gleichen Sie deshalb Übersetzungen mit der originalen Sprachversion der Veröffentlichung ab.

More Stories By Business Wire

Copyright © 2009 Business Wire. All rights reserved. Republication or redistribution of Business Wire content is expressly prohibited without the prior written consent of Business Wire. Business Wire shall not be liable for any errors or delays in the content, or for any actions taken in reliance thereon.

@BigDataExpo Stories
SYS-CON Events announced today that Enzu will exhibit at SYS-CON's 21st Int\ernational Cloud Expo®, which will take place October 31-November 2, 2017, at the Santa Clara Convention Center in Santa Clara, CA. Enzu’s mission is to be the leading provider of enterprise cloud solutions worldwide. Enzu enables online businesses to use its IT infrastructure to their competitive advantage. By offering a suite of proven hosting and management services, Enzu wants companies to focus on the core of their ...
We build IoT infrastructure products - when you have to integrate different devices, different systems and cloud you have to build an application to do that but we eliminate the need to build an application. Our products can integrate any device, any system, any cloud regardless of protocol," explained Peter Jung, Chief Product Officer at Pulzze Systems, in this SYS-CON.tv interview at @ThingsExpo, held November 1-3, 2016, at the Santa Clara Convention Center in Santa Clara, CA
With major technology companies and startups seriously embracing Cloud strategies, now is the perfect time to attend 21st Cloud Expo October 31 - November 2, 2017, at the Santa Clara Convention Center, CA, and June 12-14, 2018, at the Javits Center in New York City, NY, and learn what is going on, contribute to the discussions, and ensure that your enterprise is on the right path to Digital Transformation.
SYS-CON Events announced today that IBM has been named “Diamond Sponsor” of SYS-CON's 21st Cloud Expo, which will take place on October 31 through November 2nd 2017 at the Santa Clara Convention Center in Santa Clara, California.
SYS-CON Events announced today that CA Technologies has been named "Platinum Sponsor" of SYS-CON's 21st International Cloud Expo®, which will take place October 31-November 2, 2017, at the Santa Clara Convention Center in Santa Clara, CA. CA Technologies helps customers succeed in a future where every business - from apparel to energy - is being rewritten by software. From planning to development to management to security, CA creates software that fuels transformation for companies in the applic...
Amazon started as an online bookseller 20 years ago. Since then, it has evolved into a technology juggernaut that has disrupted multiple markets and industries and touches many aspects of our lives. It is a relentless technology and business model innovator driving disruption throughout numerous ecosystems. Amazon’s AWS revenues alone are approaching $16B a year making it one of the largest IT companies in the world. With dominant offerings in Cloud, IoT, eCommerce, Big Data, AI, Digital Assista...
Multiple data types are pouring into IoT deployments. Data is coming in small packages as well as enormous files and data streams of many sizes. Widespread use of mobile devices adds to the total. In this power panel at @ThingsExpo, moderated by Conference Chair Roger Strukhoff, panelists looked at the tools and environments that are being put to use in IoT deployments, as well as the team skills a modern enterprise IT shop needs to keep things running, get a handle on all this data, and deliver...
In his session at @ThingsExpo, Eric Lachapelle, CEO of the Professional Evaluation and Certification Board (PECB), provided an overview of various initiatives to certify the security of connected devices and future trends in ensuring public trust of IoT. Eric Lachapelle is the Chief Executive Officer of the Professional Evaluation and Certification Board (PECB), an international certification body. His role is to help companies and individuals to achieve professional, accredited and worldwide re...
You know you need the cloud, but you’re hesitant to simply dump everything at Amazon since you know that not all workloads are suitable for cloud. You know that you want the kind of ease of use and scalability that you get with public cloud, but your applications are architected in a way that makes the public cloud a non-starter. You’re looking at private cloud solutions based on hyperconverged infrastructure, but you’re concerned with the limits inherent in those technologies.
Both SaaS vendors and SaaS buyers are going “all-in” to hyperscale IaaS platforms such as AWS, which is disrupting the SaaS value proposition. Why should the enterprise SaaS consumer pay for the SaaS service if their data is resident in adjacent AWS S3 buckets? If both SaaS sellers and buyers are using the same cloud tools, automation and pay-per-transaction model offered by IaaS platforms, then why not host the “shrink-wrapped” software in the customers’ cloud? Further, serverless computing, cl...
The taxi industry never saw Uber coming. Startups are a threat to incumbents like never before, and a major enabler for startups is that they are instantly “cloud ready.” If innovation moves at the pace of IT, then your company is in trouble. Why? Because your data center will not keep up with frenetic pace AWS, Microsoft and Google are rolling out new capabilities. In his session at 20th Cloud Expo, Don Browning, VP of Cloud Architecture at Turner, posited that disruption is inevitable for comp...
With the introduction of IoT and Smart Living in every aspect of our lives, one question has become relevant: What are the security implications? To answer this, first we have to look and explore the security models of the technologies that IoT is founded upon. In his session at @ThingsExpo, Nevi Kaja, a Research Engineer at Ford Motor Company, discussed some of the security challenges of the IoT infrastructure and related how these aspects impact Smart Living. The material was delivered interac...
IoT solutions exploit operational data generated by Internet-connected smart “things” for the purpose of gaining operational insight and producing “better outcomes” (for example, create new business models, eliminate unscheduled maintenance, etc.). The explosive proliferation of IoT solutions will result in an exponential growth in the volume of IoT data, precipitating significant Information Governance issues: who owns the IoT data, what are the rights/duties of IoT solutions adopters towards t...
"When we talk about cloud without compromise what we're talking about is that when people think about 'I need the flexibility of the cloud' - it's the ability to create applications and run them in a cloud environment that's far more flexible,” explained Matthew Finnie, CTO of Interoute, in this SYS-CON.tv interview at 20th Cloud Expo, held June 6-8, 2017, at the Javits Center in New York City, NY.
No hype cycles or predictions of zillions of things here. IoT is big. You get it. You know your business and have great ideas for a business transformation strategy. What comes next? Time to make it happen. In his session at @ThingsExpo, Jay Mason, Associate Partner at M&S Consulting, presented a step-by-step plan to develop your technology implementation strategy. He discussed the evaluation of communication standards and IoT messaging protocols, data analytics considerations, edge-to-cloud tec...
When growing capacity and power in the data center, the architectural trade-offs between server scale-up vs. scale-out continue to be debated. Both approaches are valid: scale-out adds multiple, smaller servers running in a distributed computing model, while scale-up adds fewer, more powerful servers that are capable of running larger workloads. It’s worth noting that there are additional, unique advantages that scale-up architectures offer. One big advantage is large memory and compute capacity...
New competitors, disruptive technologies, and growing expectations are pushing every business to both adopt and deliver new digital services. This ‘Digital Transformation’ demands rapid delivery and continuous iteration of new competitive services via multiple channels, which in turn demands new service delivery techniques – including DevOps. In this power panel at @DevOpsSummit 20th Cloud Expo, moderated by DevOps Conference Co-Chair Andi Mann, panelists examined how DevOps helps to meet the de...
"Loom is applying artificial intelligence and machine learning into the entire log analysis process, from start to finish and at the end you will get a human touch,” explained Sabo Taylor Diab, Vice President, Marketing at Loom Systems, in this SYS-CON.tv interview at 20th Cloud Expo, held June 6-8, 2017, at the Javits Center in New York City, NY.
Artificial intelligence, machine learning, neural networks. We’re in the midst of a wave of excitement around AI such as hasn’t been seen for a few decades. But those previous periods of inflated expectations led to troughs of disappointment. Will this time be different? Most likely. Applications of AI such as predictive analytics are already decreasing costs and improving reliability of industrial machinery. Furthermore, the funding and research going into AI now comes from a wide range of com...
Internet of @ThingsExpo, taking place October 31 - November 2, 2017, at the Santa Clara Convention Center in Santa Clara, CA, is co-located with 21st Cloud Expo and will feature technical sessions from a rock star conference faculty and the leading industry players in the world. The Internet of Things (IoT) is the most profound change in personal and enterprise IT since the creation of the Worldwide Web more than 20 years ago. All major researchers estimate there will be tens of billions devic...