Welcome!

@BigDataExpo Authors: Yeshim Deniz, Alberto Pan, Elizabeth White, Pat Romanski, ManageEngine IT Matters

News Feed Item

Adaptive Computing dévoile Moab 8.0 dans le but d'optimiser les environnements d'informatique techniques et Big Workflow

Adaptive Computing, la société qui pilote un bon nombre d'environnements d'informatique technique et cloud privé/hybride parmi les plus importants grâce à son logiciel d'optimisation et d'ordonnancement Moab, a annoncé aujourd'hui que Moab HPC Suite-Enterprise Edition 8.0 (Moab 8.0) serait largement disponible dans les 30 prochains jours, avec des démonstrations en avant-première au stand n° 710 lors de l'International Supercomputing Conference (ISC) 2014 du 22–26 juin 2014 à Leipzig, en Allemagne. Les nouvelles fonctionnalités comprennent des mises à jour significatives permettant de gérer et d'optimiser les charges de travail dans les environnements d'informatique technique. Moab HPC Suite-Enterprise Edition 8.0 optimise également Big Workflow en traitant les simulations intensives et l'analyse du big data pour accélérer les informations.

« Cette toute dernière version de Moab souligne notre engagement vis-à-vis de l'innovation dans les secteurs de l'informatique technique », a déclaré Rob Clyde, PDG d'Adaptive Computing. « Le moteur puissant de HPC est au cœur de l'extraction des informations du big data, et ces mises à jour permettront aux entreprises de capitaliser sur la convergence de HPC avec le cloud et big data et d'obtenir plus rapidement des informations pour prendre des décisions orientées sur les données ».

La solution Big Workflow d'Adaptive permet l'ordonnancement, l'approvisionnement et la gestion dynamiques de services multi-étapes/multi-applications dans les environnements HPC, cloud et big data. Moab 8.0 renforce les services de base de Big Workflow, unifiant les ressources des centres de données, optimisant le processus d'analyse et garantissant les services à l'entreprise.

Principales mises à jour de Moab 8.0 :

Unification des ressources de centres de données

Adaptive Computing continue d'innover de nouvelles façons de décloisonner les environnements à silos et d'accélérer les délais de découverte. Grâce aux innovations Big Workflow d'Adaptive, les utilisateurs peuvent utiliser toutes les ressources disponibles à travers une multitude de plateformes, d'environnements et de lieux, en les gérant en tant qu'écosystème unique. Moab 8.0 optimise l'unification des ressources avec sa nouvelle solution OpenStack Integrationdisponible pour des versions bêta sélectionnées, qui offre un approvisionnement virtuel et physique des ressources pour « Information as a Service » et « Platform as a Service ».

« Dans nos enquêtes auprès de l'utilisateur final, Moab et TORQUE d'Adaptive Computing ont été les deux progiciels de gestion des travaux nommés en premier, avec 40 % des mentions combinées », a commenté Addison Snell, PDG d'Intersect360 Research. « Les entreprises investissent dans le big data et HPC ; plus de la moitié des enquêtés de notre étude la plus récente consacraient au moins 10 % de leurs budgets informatiques à des projets Big Data. Avec Big Workflow d'Adaptive, l'idée générale est de fournir aux environnements big data, HPC, et cloud le moyen d'interopérer et de le faire dynamiquement en fonction de ce que les applications exécutent. Avec en plus l'avantage d'une plateforme unifiée, OpenStack est une plateforme prometteuse utilisée pour faire interopérer des environnements multiples ».

Optimisation du processus analytique

Des améliorations de performance massives dans l'optimisation des charges de travail rationalisent le processus analytique, augmentant ainsi le débit et la productivité tout en réduisant le coût, la complexité et les erreurs. Ces nouvelles fonctionnalités d'optimisation sont les suivantes :

  • Performance amplifiée – Moab 8.0 permet aux utilisateurs d'améliorer jusqu'à trois fois la performance d'optimisation globale des charges de travail. Moab 8.0 offre les améliorations suivantes afin de tripler l'échelle et la performance :
    • Latence de commande réduite – Grâce à une combinaison de données en cache et d'une utilisation plus efficace des threads en arrière-plan, il est désormais possible de soumettre des commandes à lecture seule et obtenir une réponse en quelques secondes.
    • Temps de cycle d'ordonnancement réduit – Les décisions de nouveaux placements sont désormais trois et six fois plus rapides.
    • « Multi-threading » amélioré – En raison du parallélisme accru en utilisant le multi-threading, Moab s'élargit désormais avec le matériel - plus la puissance CPU dédiée au programme de commande est grande, plus Moab fonctionne rapidement en faisant plein usage des cœurs multiples durant son cycle d'ordonnancement.
    • Communication de travaux Moab et TORQUE plus rapide – Moab communique désormais les travaux nouvellement soumis à TORQUE en utilisant une API plus efficace.
    • Informatique à haut débit avancée - Nitro permet des travaux 100 fois plus rapides pour les travaux informatiques de courte durée. Nitro est désormais largement disponible, la version Bêta ayant été annoncée précédemment en novembre 2013 sous le nom de code Moab Task Manager. Nitro est un produit autonome disponible pour un essai GRATUIT.
  • Gestion avancée de la puissance – Moab 8.0 crée des économies de coûts d'énergie de jusqu'à 15-30 % avec des nouvelles options de contrôle de fréquence d'horloge et d'état de puissance supplémentaire. Le contrôle de fréquence d'horloge permet aux administrateurs d'ajuster les vitesses CPU pour les aligner avec les vitesses de traitement des charges de travail via des modèles de travail. Les administrateurs peuvent également gérer de multiples états de puissance et placer automatiquement des nœuds informatiques dans de nouveaux états à basse puissance ou sans puissance (mode suspension, sommeil et arrêt) quand les nœuds sont inactifs.
  • Mise à disposition avancée des données de workflow – Moab 8.0 actualise le modèle de mise à disposition des données actuel dans Moab en exécutant la mise à disposition des données dans un processus hors bande d'ordonnancement. Ceci permet une utilisation en grappes améliorée, des méthodes de transfert multiples, et de nouveaux types de transfert, une cohérence plus fiable des délais d'exécution des travaux, et permet à Moab de tenir compte de la mise à disposition des données avec plus d'efficacité dans les décisions d'ordonnancement des ressources au sein des environnements de réseaux électriques.

Services garantis à l'entreprise

Des fonctionnalités améliorées permettent au centre de données d'assurer les accords de niveau de service, maximiser le temps de disponibilité, et prouver que les services ont été fournis et que les ressources ont été attribuées équitablement. Moab 8.0 offre une interface utilisateur graphique basée Web appelée Moab Viewpoint™. Viewpoint est la prochaine génération de tableau de bord administratif d'Adaptive qui contrôle et produit des rapports sur la charge de travail et l'utilisation des ressources.

À propos d'Adaptive Computing

Adaptive Computing pilote un bon nombre d'environnements informatiques techniques et cloud privés/hybrides parmi les plus importants avec son logiciel d'optimisation et d'ordonnancement primé Moab. Moab permet aux grandes entreprises des secteurs du pétrole et du gaz, de la finance, la fabrication et la recherche ainsi que les secteurs académiques et gouvernementaux, d'effectuer des simulations et d'analyser le Big Data plus rapidement, avec plus de précision et plus rentablement grâce à ses solutions Informatique technique, Cloud et Big Data pour applications Big Workflow. Moab procure un avantage compétitif aux utilisateurs, en les encourageant à développer des traitements contre le cancer, découvrir les origines de l'univers, réduire les prix de l'énergie, fabriquer de meilleurs produits, améliorer le paysage économique et poursuivre des activités qui changent la donne. Adaptive est une société pionnière en cloud privé/hybride, informatique technique et big data, étant titulaire de plus de 50 brevets émis ou en instance. Les produits phare d'Adaptive sont les suivants :

Moab Cloud Suite pour une administration dans le nuage auto-optimisante

Moab Cloud Suite pour une gestion de charge de travail HPC auto-optimisante

La solution Big Workflow Moab

Pour de plus amples informations, appeler le (801) 717-3700 ou consulter www.adaptivecomputing.com.

AVIS AUX RÉDACTEURS : Si vous souhaitez un complément d'information sur Adaptive Computing et ses produits, veuillez visiter la salle de presse Adaptive Computing sur http://www.adaptivecomputing.com/category/news/. Tous les prix indiqués sont en dollars U.S. et ne sont valides qu'aux États-Unis.

Le texte du communiqué issu d’une traduction ne doit d’aucune manière être considéré comme officiel. La seule version du communiqué qui fasse foi est celle du communiqué dans sa langue d’origine. La traduction devra toujours être confrontée au texte source, qui fera jurisprudence.

More Stories By Business Wire

Copyright © 2009 Business Wire. All rights reserved. Republication or redistribution of Business Wire content is expressly prohibited without the prior written consent of Business Wire. Business Wire shall not be liable for any errors or delays in the content, or for any actions taken in reliance thereon.

@BigDataExpo Stories
20th Cloud Expo, taking place June 6-8, 2017, at the Javits Center in New York City, NY, will feature technical sessions from a rock star conference faculty and the leading industry players in the world. Cloud computing is now being embraced by a majority of enterprises of all sizes. Yesterday's debate about public vs. private has transformed into the reality of hybrid cloud: a recent survey shows that 74% of enterprises have a hybrid cloud strategy.
Infrastructure is widely available, but who’s managing inbound/outbound traffic? Data is created, stored, and managed online – who is protecting it and how? In his session at 19th Cloud Expo, Jaeson Yoo, SVP of Business Development at Penta Security Systems Inc., discussed how to keep any and all infrastructure clean, safe, and efficient by monitoring and filtering all malicious HTTP/HTTPS traffic at the OSI Layer 7. Stop attacks and web intruders before they can enter your network.
The many IoT deployments around the world are busy integrating smart devices and sensors into their enterprise IT infrastructures. Yet all of this technology – and there are an amazing number of choices – is of no use without the software to gather, communicate, and analyze the new data flows. Without software, there is no IT. In this power panel at @ThingsExpo, moderated by Conference Chair Roger Strukhoff, Dave McCarthy, Director of Products at Bsquare Corporation; Alan Williamson, Principal...
In his session at Cloud Expo, Robert Cohen, an economist and senior fellow at the Economic Strategy Institute, provideed economic scenarios that describe how the rapid adoption of software-defined everything including cloud services, SDDC and open networking will change GDP, industry growth, productivity and jobs. This session also included a drill down for several industries such as finance, social media, cloud service providers and pharmaceuticals.
Extracting business value from Internet of Things (IoT) data doesn’t happen overnight. There are several requirements that must be satisfied, including IoT device enablement, data analysis, real-time detection of complex events and automated orchestration of actions. Unfortunately, too many companies fall short in achieving their business goals by implementing incomplete solutions or not focusing on tangible use cases. In his general session at @ThingsExpo, Dave McCarthy, Director of Products...
Internet of @ThingsExpo has announced today that Chris Matthieu has been named tech chair of Internet of @ThingsExpo 2017 New York The 7th Internet of @ThingsExpo will take place on June 6-8, 2017, at the Javits Center in New York City, New York. Chris Matthieu is the co-founder and CTO of Octoblu, a revolutionary real-time IoT platform recently acquired by Citrix. Octoblu connects things, systems, people and clouds to a global mesh network allowing users to automate and control design flo...
Unsecured IoT devices were used to launch crippling DDOS attacks in October 2016, targeting services such as Twitter, Spotify, and GitHub. Subsequent testimony to Congress about potential attacks on office buildings, schools, and hospitals raised the possibility for the IoT to harm and even kill people. What should be done? Does the government need to intervene? This panel at @ThingExpo New York brings together leading IoT and security experts to discuss this very serious topic.
Businesses and business units of all sizes can benefit from cloud computing, but many don't want the cost, performance and security concerns of public cloud nor the complexity of building their own private clouds. Today, some cloud vendors are using artificial intelligence (AI) to simplify cloud deployment and management. In his session at 20th Cloud Expo, Ajay Gulati, Co-founder and CEO of ZeroStack, will discuss how AI can simplify cloud operations. He will cover the following topics: why clou...
In this strange new world where more and more power is drawn from business technology, companies are effectively straddling two paths on the road to innovation and transformation into digital enterprises. The first path is the heritage trail – with “legacy” technology forming the background. Here, extant technologies are transformed by core IT teams to provide more API-driven approaches. Legacy systems can restrict companies that are transitioning into digital enterprises. To truly become a lead...
Internet-of-Things discussions can end up either going down the consumer gadget rabbit hole or focused on the sort of data logging that industrial manufacturers have been doing forever. However, in fact, companies today are already using IoT data both to optimize their operational technology and to improve the experience of customer interactions in novel ways. In his session at @ThingsExpo, Gordon Haff, Red Hat Technology Evangelist, will share examples from a wide range of industries – includin...
"We analyze the video streaming experience. We are gathering the user behavior in real time from the user devices and we analyze how users experience the video streaming," explained Eric Kim, Founder and CEO at Streamlyzer, in this SYS-CON.tv interview at 19th Cloud Expo, held November 1-3, 2016, at the Santa Clara Convention Center in Santa Clara, CA.
Enterprise IT has been in the era of Hybrid Cloud for some time now. But it seems most conversations about Hybrid are focused on integrating AWS, Microsoft Azure, or Google ECM into existing on-premises systems. Where is all the Private Cloud? What do technology providers need to do to make their offerings more compelling? How should enterprise IT executives and buyers define their focus, needs, and roadmap, and communicate that clearly to the providers?
"We are a leader in the market space called network visibility solutions - it enables monitoring tools and Big Data analysis to access the data and be able to see the performance," explained Shay Morag, VP of Sales and Marketing at Niagara Networks, in this SYS-CON.tv interview at 19th Cloud Expo, held November 1-3, 2016, at the Santa Clara Convention Center in Santa Clara, CA.
According to Forrester Research, every business will become either a digital predator or digital prey by 2020. To avoid demise, organizations must rapidly create new sources of value in their end-to-end customer experiences. True digital predators also must break down information and process silos and extend digital transformation initiatives to empower employees with the digital resources needed to win, serve, and retain customers.
Amazon has gradually rolled out parts of its IoT offerings in the last year, but these are just the tip of the iceberg. In addition to optimizing their back-end AWS offerings, Amazon is laying the ground work to be a major force in IoT – especially in the connected home and office. Amazon is extending its reach by building on its dominant Cloud IoT platform, its Dash Button strategy, recently announced Replenishment Services, the Echo/Alexa voice recognition control platform, the 6-7 strategic...
Organizations planning enterprise data center consolidation and modernization projects are faced with a challenging, costly reality. Requirements to deploy modern, cloud-native applications simultaneously with traditional client/server applications are almost impossible to achieve with hardware-centric enterprise infrastructure. Compute and network infrastructure are fast moving down a software-defined path, but storage has been a laggard. Until now.
We're entering the post-smartphone era, where wearable gadgets from watches and fitness bands to glasses and health aids will power the next technological revolution. With mass adoption of wearable devices comes a new data ecosystem that must be protected. Wearables open new pathways that facilitate the tracking, sharing and storing of consumers’ personal health, location and daily activity data. Consumers have some idea of the data these devices capture, but most don’t realize how revealing and...
IoT solutions exploit operational data generated by Internet-connected smart “things” for the purpose of gaining operational insight and producing “better outcomes” (for example, create new business models, eliminate unscheduled maintenance, etc.). The explosive proliferation of IoT solutions will result in an exponential growth in the volume of IoT data, precipitating significant Information Governance issues: who owns the IoT data, what are the rights/duties of IoT solutions adopters towards t...
Whether your IoT service is connecting cars, homes, appliances, wearable, cameras or other devices, one question hangs in the balance – how do you actually make money from this service? The ability to turn your IoT service into profit requires the ability to create a monetization strategy that is flexible, scalable and working for you in real-time. It must be a transparent, smoothly implemented strategy that all stakeholders – from customers to the board – will be able to understand and comprehe...
Between 2005 and 2020, data volumes will grow by a factor of 300 – enough data to stack CDs from the earth to the moon 162 times. This has come to be known as the ‘big data’ phenomenon. Unfortunately, traditional approaches to handling, storing and analyzing data aren’t adequate at this scale: they’re too costly, slow and physically cumbersome to keep up. Fortunately, in response a new breed of technology has emerged that is cheaper, faster and more scalable. Yet, in meeting these new needs they...