Click here to close now.

Welcome!

Big Data Journal Authors: Esmeralda Swartz, Elizabeth White, Carmen Gonzalez, Jason Bloomberg, John Wetherill

News Feed Item

Adaptive Computing gibt neue Version Moab 8.0 zur Verbesserung technischer Computer-Umgebungen und Big Workflow heraus

Adaptive Computing, die Firma, die viele der weltweit größten privaten/hybriden Cloud- und technischen Computing-Umgebungen mit seiner Optimierungs- und Planungssoftware Moab unterstützt, hat heute bekannt gegeben, dass die Moab HPC Suite Enterprise Edition 8.0 (Moab 8.0) in 30 Tagen erhältlich sein wird, wobei es Kurzdemos am Messestand 710 der International Supercomputing Conference (ISC) 2014 vom 22. bis 26. Juni 2014 in Leipzig geben wird. Die Neuheiten schließen Updates für Workload-Management und Workload-Optimierung in technischen Computing-Umgebungen ein. Die Moab HPC Suite-Enterprise Edition 8.0 verbessert auch Big Workflow durch intensive Simulationen und Big-Data-Analysen für einen schnelleren Überblick.

„Diese neueste Version von Moab unterstreicht, dass wir uns ganz der Innovation im technischen Computing-Sektor widmen“, sagte Rob Clyde, CEO von Adaptive Computing. „Das leistungsfähige HPC-System ist das Herzstück, wenn es darum geht, durch Datenextraktion Einblicke in Big Data zu gewinnen, und diese Updates ermöglichen Unternehmen, aus dem Zusammenspiel von HPC und der Cloud in Kombination mit Big Data Nutzen zu ziehen, um rascher datenabhängige Entscheidungen treffen zu können.“

Die Lösung Big Workflow von Adaptive ermöglicht dynamisches Planen sowie die Bereitstellung und das Management von mehrstufigen Services und Mehrzweckanwendungen für HPC, Cloud und Big-Data-Umgebungen. Moab 8.0 unterstützt die Kernaufgaben von Big Workflow: Vereinheitlichen von Ressourcen aus Datenzentren, Optimierung des Analyseprozesses und garantierte Dienstleistungen für Unternehmen.

Schlüsselupdates zu Moab 8.0 schließen Folgendes ein:

Vereinheitlichen der Ressourcen aus Datenzentren

Adaptive Computing ist auch weiterhin innovativ dabei, neue Wege zur Aufschlüsselung von Silo-Umgebungen zu entwickeln, um damit schneller Einblick zu erhalten. Mit dem innovativen System Big Workflow von Adaptive können Benutzer alle vorhandenen Ressourcen über unterschiedliche Plattformen, Umgebungen und Standorte hinweg nutzen und sie als ein einziges Umfeld managen. Moab 8.0 erhöht die Vereinheitlichung von Ressourcen mit seinem neuen System OpenStack Integration , das für ausgewählte Beta-User verfügbar ist und der virtuellen und realen Ressourcenbereitstellung als Informations- und Plattformservice dient.

„In unseren Endbenutzerumfragen waren Moab und TORQUE von Adaptive Computing mit insgesamt 40 Prozent die am meisten genannten Auftragsmanagementsysteme“, sagte Addison Snell, CEO von Intersect360 Research. „Organisationen investieren in Big Data und HPC: Mehr als die Hälfte der Unternehmen in unserer neuesten Studie verwendeten mindestens 10 Prozent ihres IT-Budgets für Big-Data-Projekte. Die Idee hinter Adaptives Big Workflow ist eine Kooperation zwischen Big Data, HPC und Cloud-Umgebungen, und zwar dynamisch auf aktuell laufenden Anwendungen. Mit dem zusätzlichen Nutzen einer vereinheitlichten Plattform ist OpenStack eine vielversprechende Möglichkeit zur Zusammenschaltung unterschiedlicher Umgebungen.“

Optimierter Analyseprozess

Massive Leistungsverbesserungen beim Optimieren des Arbeitsumfangs straffen den Analyseprozess, was wiederum den Gesamtdurchsatz und die Produktivität erhöht sowie Kosten, Komplexität und Fehler reduziert. Diese neuen Optimierungseigenschaften schließen ein:

  • Leistungs-Boost – Moab 8.0 ermöglicht Benutzern, ihre Workload-Optimierungsleistung um das Dreifache zu steigern. Um eine Steigerung um das Dreifache zu erzielen, bietet Moab 8.0 die folgenden Verbesserungen an:
    • Kürzere Latenzzeiten bei Befehlen – Durch eine Kombination aus Cache-Daten und dem leistungsfähigeren Gebrauch von Hintergrund-Threads ist es jetzt möglich, mit Read-only-Befehlen innerhalb von Sekunden eine Antwort zu erhalten.
    • Verkürzter Planungszyklus – Neue Platzierungsentscheidungen sind jetzt um das Drei- bis Sechsfache schneller.
    • Verbessertes Multi-Threading – Wegen erhöhter Parallelität durch Multi-Threading verbessert Moab jetzt die Hardware – je mehr CPU-Leistung dem Planer zur Verfügung steht, desto schneller ist auch Moab, da während des Planungsprozesses mehrere Rechenkerne zur Verfügung stehen und voll genutzt werden können.
    • Schnellere Kommunikation zwischen Moab und TORQUE – Moab übermittelt jetzt aufgrund einer leistungsfähigeren API-Schnittstelle neu eingegebene Aufgaben schneller an TORQUE.
    • Fortschrittliches Computing für hohen Durchsatz – Nitro ermöglicht einen um das Hundertfache schnelleren Aufgabendurchsatz für kurze Computing-Aufgaben. Nitro ist jetzt erhältlich. Die Betaversion wurde im November 2013 unter dem Codenamen Moab Task Manager veröffentlicht. Das autonom arbeitende Produkt Nitro ist zum Testen KOSTENLOS erhältlich.
  • Fortschrittliches Energiemanagement – Moab 8.0 bringt mit neuer Taktfrequenzsteuerung und zusätzlichen Energiezustandsoptionen Kosteneinsparungen von 15 bis 30 Prozent. Mit Taktfrequenzsteuerung können Administratoren die CPU-Geschwindigkeit an den Arbeitsaufwand mittels Aufgaben-Vorlagen anpassen. Zusätzlich können Administratoren mehrfache Energiezustände managen und automatisch Rechenknoten in neue Niederleistungs- oder Nullleistungszustände versetzen (Unterbrechungs-, Schlaf- und Abschaltungsmodi), wenn Rechnerknoten untätig sind.
  • Fortschrittliches Workflow-Daten-Staging– Durch Moab 8.0 erfährt das gegenwärtige Datenbereitstellungsmodell ein Update durch die Verwendung eines Out-of-Band-Prozesses. Diese Innovation ermöglicht verbesserte Clusternutzung, mehrfache Übertragungsmethoden und neue Übertragungsarten, eine bessere Zeitbeständigkeit bei der Auftragsausführung und es erlaubt Moab eine effektivere Datenbereitstellung für Planungsentscheidungen in Grid-Umgebungen.

Garantierte Leistungen für Unternehmen

Verbesserte Eigenschaften garantieren dem Rechenzentrum SLA, Laufzeiterhöhung und die Möglichkeit nachzuweisen, dass Services durchgeführt und Ressourcen fair zugeteilt wurden. Moab 8.0 bietet eine erhöhte web-basierte, grafische Benutzerschnittstelle an, mit dem Namen Moab Viewpoint™. Viewpoint ist die nächste Generation des administrativen Dashboard von Adaptive, das der Überwachung und Berichterstattung zum Thema Arbeitsumfang und Ressourcennutzung dient.

Über Adaptive Computing

Adaptive Computing unterstützt weltweit viele der größten privaten/hybriden Cloud- und technischen Computerumgebungen mit seiner preisgekrönten Moab-Software für Optimierungs- und Planungsaufgaben. Mit Moab können große Unternehmen in den Bereichen Öl und Gas, Finanzdienstleistungen, Fertigung, Forschung und Verwaltung Simulationen durchführen und Big Data schneller, akkurater und besonders kosteneffizient analysieren. Moab gibt Unternehmen einen Wettbewerbsvorteil, was sie zur Entwicklung von Krebstherapien, zu Erkenntnissen über die Ursprünge des Universums, zur Senkung von Energiepreisen, zur Herstellung besserer Produkte, zur Verbesserung der Wirtschaftslandschaft und zum Verfolgen bahnbrechender Bestrebungen inspiriert. Adaptive ist Pionier in den Bereichen private/hybride Cloud, technisches Computing und Big Data und besitzt über 50 Patente beziehungsweise Patentanmeldungen. Zu den Vorzeigeprodukten von Adaptive gehören:

Moab Cloud Suite für selbstoptimierendes Cloud-Management

Moab HPC Suite für selbstoptimierendes HPC-Workload-Management

Moab Big Workflow-Lösung

Weitere Informationen erhalten Sie unter +1 (801) 717-3700 oder auf www.adaptivecomputing.com.

HINWEIS FÜR REDAKTEURE: Falls Sie weitere Informationen über das Unternehmen Adaptive Computing und seine Produkte erhalten wollen, besuchen Sie bitte den Adaptive Computing Newsroom unter http://www.adaptivecomputing.com/category/news/. Sämtliche angegebenen Preise sind in US-Dollar und gelten nur in den USA.

Die Ausgangssprache, in der der Originaltext veröffentlicht wird, ist die offizielle und autorisierte Version. Übersetzungen werden zur besseren Verständigung mitgeliefert. Nur die Sprachversion, die im Original veröffentlicht wurde, ist rechtsgültig. Gleichen Sie deshalb Übersetzungen mit der originalen Sprachversion der Veröffentlichung ab.

More Stories By Business Wire

Copyright © 2009 Business Wire. All rights reserved. Republication or redistribution of Business Wire content is expressly prohibited without the prior written consent of Business Wire. Business Wire shall not be liable for any errors or delays in the content, or for any actions taken in reliance thereon.

@BigDataExpo Stories
Data-intensive companies that strive to gain insights from data using Big Data analytics tools can gain tremendous competitive advantage by deploying data-centric storage. Organizations generate large volumes of data, the vast majority of which is unstructured. As the volume and velocity of this unstructured data increases, the costs, risks and usability challenges associated with managing the unstructured data (regardless of file type, size or device) increases simultaneously, including end-to-...
The excitement around the possibilities enabled by Big Data is being tempered by the daunting task of feeding the analytics engines with high quality data on a continuous basis. As the once distinct fields of data integration and data management increasingly converge, cloud-based data solutions providers have emerged that can buffer your organization from the complexities of this continuous data cleansing and management so that you’re free to focus on the end goal: actionable insight.
Operational Hadoop and the Lambda Architecture for Streaming Data Apache Hadoop is emerging as a distributed platform for handling large and fast incoming streams of data. Predictive maintenance, supply chain optimization, and Internet-of-Things analysis are examples where Hadoop provides the scalable storage, processing, and analytics platform to gain meaningful insights from granular data that is typically only valuable from a large-scale, aggregate view. One architecture useful for capturing...
When it comes to the Internet of Things, hooking up will get you only so far. If you want customers to commit, you need to go beyond simply connecting products. You need to use the devices themselves to transform how you engage with every customer and how you manage the entire product lifecycle. In his session at @ThingsExpo, Sean Lorenz, Technical Product Manager for Xively at LogMeIn, will show how “product relationship management” can help you leverage your connected devices and the data th...
With several hundred implementations of IoT-enabled solutions in the past 12 months alone, this session will focus on experience over the art of the possible. Many can only imagine the most advanced telematics platform ever deployed, supporting millions of customers, producing tens of thousands events or GBs per trip, and hundreds of TBs per month. With the ability to support a billion sensor events per second, over 30PB of warm data for analytics, and hundreds of PBs for an data analytics arc...
The Internet of Things (IoT) is causing data centers to become radically decentralized and atomized within a new paradigm known as “fog computing.” To support IoT applications, such as connected cars and smart grids, data centers' core functions will be decentralized out to the network's edges and endpoints (aka “fogs”). As this trend takes hold, Big Data analytics platforms will focus on high-volume log analysis (aka “logs”) and rely heavily on cognitive-computing algorithms (aka “cogs”) to mak...
One of the biggest impacts of the Internet of Things is and will continue to be on data; specifically data volume, management and usage. Companies are scrambling to adapt to this new and unpredictable data reality with legacy infrastructure that cannot handle the speed and volume of data. In his session at @ThingsExpo, Don DeLoach, CEO and president of Infobright, will discuss how companies need to rethink their data infrastructure to participate in the IoT, including: Data storage: Understand...
Since 2008 and for the first time in history, more than half of humans live in urban areas, urging cities to become “smart.” Today, cities can leverage the wide availability of smartphones combined with new technologies such as Beacons or NFC to connect their urban furniture and environment to create citizen-first services that improve transportation, way-finding and information delivery. In her session at @ThingsExpo, Laetitia Gazel-Anthoine, CEO of Connecthings, will focus on successful use c...
The true value of the Internet of Things (IoT) lies not just in the data, but through the services that protect the data, perform the analysis and present findings in a usable way. With many IoT elements rooted in traditional IT components, Big Data and IoT isn’t just a play for enterprise. In fact, the IoT presents SMBs with the prospect of launching entirely new activities and exploring innovative areas. CompTIA research identifies several areas where IoT is expected to have the greatest impac...
Roberto Medrano, Executive Vice President at SOA Software, had reached 30,000 page views on his home page - http://RobertoMedrano.SYS-CON.com/ - on the SYS-CON family of online magazines, which includes Cloud Computing Journal, Internet of Things Journal, Big Data Journal, and SOA World Magazine. He is a recognized executive in the information technology fields of SOA, internet security, governance, and compliance. He has extensive experience with both start-ups and large companies, having been ...
Companies today struggle to manage the types and volume of data their customers and employees generate and use every day. With billions of requests daily, operational consistency can be elusive. In his session at Big Data Expo, Dave McCrory, CTO at Basho Technologies, will explore how a distributed systems solution, such as NoSQL, can give organizations the consistency and availability necessary to succeed with on-demand data, offering high availability at massive scale.
The industrial software market has treated data with the mentality of “collect everything now, worry about how to use it later.” We now find ourselves buried in data, with the pervasive connectivity of the (Industrial) Internet of Things only piling on more numbers. There’s too much data and not enough information. In his session at @ThingsExpo, Bob Gates, Global Marketing Director, GE’s Intelligent Platforms business, to discuss how realizing the power of IoT, software developers are now focu...
Operational Hadoop and the Lambda Architecture for Streaming Data Apache Hadoop is emerging as a distributed platform for handling large and fast incoming streams of data. Predictive maintenance, supply chain optimization, and Internet-of-Things analysis are examples where Hadoop provides the scalable storage, processing, and analytics platform to gain meaningful insights from granular data that is typically only valuable from a large-scale, aggregate view. One architecture useful for capturing...
SYS-CON Events announced today that Vitria Technology, Inc. will exhibit at SYS-CON’s @ThingsExpo, which will take place on June 9-11, 2015, at the Javits Center in New York City, NY. Vitria will showcase the company’s new IoT Analytics Platform through live demonstrations at booth #330. Vitria’s IoT Analytics Platform, fully integrated and powered by an operational intelligence engine, enables customers to rapidly build and operationalize advanced analytics to deliver timely business outcomes ...
Software is eating the world. Companies that were not previously in the technology space now find themselves competing with Google and Amazon on speed of innovation. As the innovation cycle accelerates, companies must embrace rapid and constant change to both applications and their infrastructure, and find a way to deliver speed and agility of development without sacrificing reliability or efficiency of operations. In her Day 2 Keynote DevOps Summit, Victoria Livschitz, CEO of Qubell, discussed...
SYS-CON Events announced today that Open Data Centers (ODC), a carrier-neutral colocation provider, will exhibit at SYS-CON's 16th International Cloud Expo®, which will take place June 9-11, 2015, at the Javits Center in New York City, NY. Open Data Centers is a carrier-neutral data center operator in New Jersey and New York City offering alternative connectivity options for carriers, service providers and enterprise customers.
Thanks to Docker, it becomes very easy to leverage containers to build, ship, and run any Linux application on any kind of infrastructure. Docker is particularly helpful for microservice architectures because their successful implementation relies on a fast, efficient deployment mechanism – which is precisely one of the features of Docker. Microservice architectures are therefore becoming more popular, and are increasingly seen as an interesting option even for smaller projects, instead of bein...
When it comes to the Internet of Things, hooking up will get you only so far. If you want customers to commit, you need to go beyond simply connecting products. You need to use the devices themselves to transform how you engage with every customer and how you manage the entire product lifecycle. In his session at @ThingsExpo, Sean Lorenz, Technical Product Manager for Xively at LogMeIn, will show how “product relationship management” can help you leverage your connected devices and the data th...
The explosion of connected devices / sensors is creating an ever-expanding set of new and valuable data. In parallel the emerging capability of Big Data technologies to store, access, analyze, and react to this data is producing changes in business models under the umbrella of the Internet of Things (IoT). In particular within the Insurance industry, IoT appears positioned to enable deep changes by altering relationships between insurers, distributors, and the insured. In his session at @Things...
SYS-CON Events announced today that CodeFutures, a leading supplier of database performance tools, has been named a “Sponsor” of SYS-CON's 16th International Cloud Expo®, which will take place on June 9–11, 2015, at the Javits Center in New York, NY. CodeFutures is an independent software vendor focused on providing tools that deliver database performance tools that increase productivity during database development and increase database performance and scalability during production.