Cirrascale Cloud Services®とCerebras Systemsが、比類なき人工知能パフォーマンスを実現するCerebras Cloud @ Cirrascaleの提供を発表

プレスリリース発表元企業:Cerebras Systems

配信日時: 2021-09-16 22:00:00

Cirrascale Cloud Services®とCerebras Systemsが、比類なき人工知能パフォーマンスを実現するCerebras Cloud @ Cirrascaleの提供を発表

新たなパートナーシップにより、最高性能のAIコンピュートと大規模にスケーリング可能なディープラーニングを、アクセス可能で使いやすく、手頃な価格のクラウドソリューションとして提供しAIを民主化します

(カリフォルニア州サンディエゴおよびサニーベール)-(ビジネスワイヤ) -- 自律走行車、自然言語処理(NLP)およびコンピュータビジョン ワークフロー向けの深層学習インフラストラクチャ・ソリューションを提供するCirrascale Cloud Services®は、本日、Cerebras Cloud @ Cirrascaleプラットフォームの提供を発表しました。Cerebras Cloud @ Cirrascaleは、標準的なMLフレームワークとセレブラス社のソフトウェアを使用した簡単なプログラミングにより、高速で柔軟なトレーニングを提供します。深層学習プロセッサの業界をリードするCerebras社のWafer-Scale Engine (WSE-2)のパフォーマンスを、スケーラブルでアクセス可能なCirrascale社の実績あるクラウド・サービスを通じて、より多くのユーザーに提供します。

Cirrascale Cloud Services のCEOであるPJ Go氏は、「Cerebrasのワールドクラスの人工知能(AI)コンピュート・パワーをクラウドに導入できることを嬉しく思います。私たちは、深層学習へのアクセスを拡大し、フォーチュン500の大手顧客、研究機関、革新的な新興企業での大規模な商業展開を可能にすることで、AIを真に民主化します。Cerebras Cloud @ Cirrascaleは、深層学習の未来を前進させ、AIワークロードのパフォーマンスを大幅に加速します」と、述べています。

Cerebras Cloudは、ウォールクロックトレーニング性能において、10から100台のGPUで行う学習と推論のワークロードを1台のCS-2で提供し、標準的なMLフレームワークを用いて、シンプルなシングルノードのプログラミングでクラスタスケールのパフォーマンスを実現します。最近の比較では、Cerebrasシステムは8 GPUサーバーと比較して、NLPのBERT型モデルの精度まで到達する学習時間を9.5倍に短縮しました。学習時間はGPUではリニアにスケールしないため、1台のCS-2と同じ精度でモデルを学習するには120台以上のGPUが必要になります。Cerebras Cloudに搭載されているWSE-2は、ニューラルネットワークのワークロードでは一般的だが、従来のプロセッサでは難しかった細かいスパース性や動的なスパース性を独自に処理します。

CerebrasのCEO兼共同創業者であるアンドリュー・フェルドマンは、「Cirrascaleと提携し、Cerebras Cloud @ Cirrascaleを導入することで、膨大なデータセットから世界を変えるような洞察を得ようとしている多くのお客様に、当社のCS-2システムのパワーとパフォーマンスを提供できることを嬉しく思います。

我々は、850,000個のAIに最適化されたコアを搭載したWSE-2を設計し、Cerebras Cloud @ Cirrascaleの基盤でもあるCS-2システムが1台でAIワークロードのクラスター規模の高速化を容易に実現できるようにしました。これにより、お客様はトレーニングや推論に大規模な最新モデルを使用して、ソリューションをより早く展開することができます」と、述べています。

Cerebras Cloud @ Cirrascaleは、現在、週単位または月単位の定額制で提供されており、長期的に使用する場合には割引が適用され、予測可能な価格で追加料金は発生しません。さらに、Cirrascaleは、Cerebras Cloudとお客様が現在使用している数々の大手クラウドサービスのオンラインベースのワークフローと簡単に統合し、安全なマルチクラウド・ソリューションを構築することができます。

Cerebras Cloud @ Cirrascaleは、すべてのコンポーネントがAI向けに最適化されており、他のどのソリューションよりも少ないスペースと電力で高い演算性能を実現します。AIからHPCまで、ワークロードに応じて、従来のソリューションに比べて数百倍から数千倍のパフォーマンスを発揮しますが、使用するスペースや電力はほんのわずかです。Cerebras Cloudは、他のどのデータセンターAIソリューションよりも高いコンピュート密度、高速メモリ、広帯域のインターコネクトにより、高速で柔軟なトレーニングと低レイテンシーのデータセンター推論を可能にするよう設計されています。

お客様は、https://cirrascale.com/cerebrasにアクセスする事で、Cerebras Cloud @ Cirrascaleの使用を開始することができます。 詳細については、Cerebrasブログをご覧ください。

Cirrascale Cloud Servicesについて

Cirrascale Cloud Servicesは、深層学習のワークフローを可能にするパブリックおよびプライベートの専用クラウド・ソリューションを提供するプレミア・プロバイダーです。Cirrascale Cloud Servicesは、大規模な深層学習事業者、サービス・プロバイダー、およびHPCユーザー向けに、クラウドベースのインフラストラクチャ・ソリューションを提供しています。Cirrascale Cloud Services とそのユニークなクラウド・オファリングについての詳細は、www.cirrascale.com をご覧いただくか、電話で(888)942-3800 までお問い合わせください。

セレブラスシステムズについて

Cerebras Systemsは、先駆的なコンピュータキテクト、コンピュータ科学者、ディープラーニング研究者、あらゆるタイプのエンジニアからなるチームです。我々は、人工知能の作業を現在の技術水準を超えて3桁の速さで加速させる新しいクラスのコンピュータを構築するために結集しました。CS-2は、現存する最速のAIコンピューターです。CS-2には、Cerebras Wafer Scale Engine (WSE-2)をはじめとする、業界初の技術が結集されています。WSE-2は、これまでに作られた中で最大のチップで、2.6兆個のトランジスタを搭載し、46,225平方ミリメートル以上のシリコンをカバーしています。市販されている最大のグラフィックプロセッサーは、540億個のトランジスタを持ち、815平方ミリメートルの面積を持っています。人工知能の分野では、大きなチップは情報をより速く処理し、より短時間で答えを出すことができます。その結果、WSE-2を搭載したCerebras CS-2では、これまで数ヶ月かかっていたニューラルネットワークの学習が数分でできるようになりました。

本記者発表文の公式バージョンはオリジナル言語版です。翻訳言語版は、読者の便宜を図る目的で提供されたものであり、法的効力を持ちません。翻訳言語版を資料としてご利用になる際には、法的効力を有する唯一のバージョンであるオリジナル言語版と照らし合わせて頂くようお願い致します。

Cirrascale Cloud Services、 CirrascaleおよびCirrascaleロゴは、Cirrascale Cloud Services LLCの商標または登録商標です。



businesswire.comでソースバージョンを見る:https://www.businesswire.com/news/home/20210916005099/ja/

連絡先
Kim Ziesemer, PR@zmcommunications.com

プレスリリース情報提供元:ビジネスワイヤ