ロゴ
ユニオンペディア
コミュニケーション
Google Play で手に入れよう
新しい! あなたのAndroid™デバイスでユニオンペディアをダウンロードしてください!
無料
ブラウザよりも高速アクセス!
 

並列計算と分散コンピューティング

ショートカット: 違い類似点ジャカード類似性係数参考文献

並列計算と分散コンピューティングの違い

並列計算 vs. 分散コンピューティング

並列計算(へいれつけいさん、parallel computing)は、コンピュータにおいて複数のプロセッサで1つのタスクを動作させること。並列コンピューティングや並列処理とも呼ばれる。問題を解く過程はより小さなタスクに分割できることが多い、という事実を利用して処理効率の向上を図る手法である。また、このために設計されたコンピュータを並列コンピュータという。ディープ・ブルーなどが有名。 関連する概念に並行計算(へいこうけいさん)があるが、並行計算は一つのタスクの計算を並列化することにとどまらず、複数の相互作用しうるタスクをスレッドなどをもちいて複数の計算資源にスケジューリングするといった、より汎用性の高い処理をさす。 特に、並列計算専用に設計されたコンピュータを用いずに、複数のパーソナルコンピュータやサーバ、スーパーコンピュータを接続することで並列計算を実現するものをコンピュータ・クラスターと呼ぶ。このクラスターをインターネットなどの広域ネットワーク上に分散させるものも、広義には並列計算に属すが、分散コンピューティングあるいはグリッド・コンピューティングと呼び、並列計算とは区別することが多い。. 分散コンピューティング(ぶんさんコンピューティング、英: Distributed computing)とは、プログラムの個々の部分が同時並行的に複数のコンピュータ上で実行され、各々がネットワークを介して互いに通信を行いながら全体として処理が進行する計算手法のことである。複雑な計算などをネットワークを介して複数のコンピュータを利用して行うことで、一台のコンピュータで計算するよりスループットを上げようとする取り組み、またはそれを実現する為の仕組みである。分散処理(ぶんさんしょり)ともいう。並列コンピューティングの一形態に分類されるが、一般に並列コンピューティングと言えば、同時並行に実行する主体は同じコンピュータシステム内のCPU群である。ただし、どちらもプログラムの分割(同時に実行できる部分にプログラムを分けること)が必須である。分散コンピューティングではさらに、それぞれの部分が異なる環境でも動作できるようにしなければならない。例えば、2台の異なるハードウェアを使ったコンピュータで、それぞれ異なるファイルシステム構成であっても動作するよう配慮する必要がある。 問題を複数の部分問題に分けて各コンピュータに実行させるのが基本であり、素数探索や数多く試してみる以外に解決できない問題の対処として用いられているものが多い。分散コンピューティングの例としてBOINCがある。これは、大きな問題を多数の小さな問題に分割し、多数のコンピュータに分配するフレームワークである。その後、それぞれの結果を集めて大きな解を得る。一般的に処理を分散すると一台のコンピュータで計算する場合と比べ、問題データの分配、収集、集計するためのネットワークの負荷が増加し、問題解決の為のボトルネックとなるため、部分問題間の依存関係を減らすことが重要な課題となる。 分散コンピューティングは、コンピュータ同士をネットワーク接続し、効率的に通信できるよう努力した結果として自然に生まれた。しかし、分散コンピューティングはコンピュータネットワークと同義ではない。単にコンピュータネットワークと言った場合、複数のコンピュータが互いにやり取りするが、単一のプログラムの処理を共有することはない。World Wide Web はコンピュータネットワークの例であるが、分散コンピューティングの例ではない。 分散処理を構築するための様々な技術や標準が存在し、一部はその目的に特化して設計されている。例えば、遠隔手続き呼出し (RPC)、Java Remote Method Invocation (Java RMI)、.NET Remoting などがある。.

並列計算と分散コンピューティング間の類似点

並列計算と分散コンピューティングは(ユニオンペディアに)共通で36ものを持っています: 同期 (計算機科学)並行計算帯域幅マルチプロセッシングマルチコアメッセージ (コンピュータ)レイテンシレスリー・ランポートボトルネックプログラミング言語プロセスフリンの分類分散コンピューティングアドバンスト・マイクロ・デバイセズアドレス空間インテルインターネットグリッド・コンピューティングコンピュータコンピュータ・クラスタースレッド (コンピュータ)スーパーコンピュータスケーラビリティBerkeley Open Infrastructure for Network ComputingCPUFolding@homeIntel CoreIntel Core 2MIMDMISD...NUMAPentium 4PlayStation 3SETI@homeSIMDSISD インデックスを展開 (6 もっと) »

同期 (計算機科学)

同期(どうき、Synchronization)とは、コンピュータ関係(コンピュータ科学でも重要なテーマであるが、話題の広がりとしてはそれに留まらない)では、プロセスなどといった複数のエージェントの動作について、時系列的にタイミングを合わせる制御のことや、複数個所に格納された同一であるべき情報を同一に保つことである。.

並列計算と同期 (計算機科学) · 分散コンピューティングと同期 (計算機科学) · 続きを見る »

並行計算

並行計算(へいこうけいさん、concurrent computing)とは、コンピュータプログラムにおいて複数の相互作用を及ぼす計算タスクの(同時)並行的実行を指す。.

並列計算と並行計算 · 並行計算と分散コンピューティング · 続きを見る »

帯域幅

帯域幅(たいいきはば)または、帯域(たいいき)、周波数帯域(しゅうはすうたいいき)、バンド幅(英: Bandwidth)とは、周波数の範囲を指し、一般にヘルツで示される。帯域幅は、情報理論、電波通信、信号処理、分光法などの分野で重要な概念となっている。 帯域幅と情報伝達における通信路容量とは密接に関連しており、通信路容量のことを指す代名詞のように俗称的にしばしば「帯域幅」の語が使われる。特に何らかの媒体や機器を経由して情報(データ)を転送する際の転送レートを「帯域幅」あるいは「バンド幅」と呼ぶ。.

並列計算と帯域幅 · 分散コンピューティングと帯域幅 · 続きを見る »

マルチプロセッシング

マルチプロセッシング(multi processing)とは、(本来は)ひとつのプロセスだけではなく複数の並行プロセスを同一システム内で使用することを意味する。 マルチタスクと同様ひとつのCPUを複数のプロセスが共有することも示すが、ひとつのシステム内の複数のCPUが複数のスレッドを動作させることも意味する。マルチプロセッサと言う場合は一般に後者のみを指す。.

マルチプロセッシングと並列計算 · マルチプロセッシングと分散コンピューティング · 続きを見る »

マルチコア

マルチコア (Multiple core, Multi-core) は、1つのプロセッサ・パッケージ内に複数のプロセッサ・コアを搭載する技術であり、マルチプロセッシングの一形態である。 外見的には1つのプロセッサでありながら論理的には複数のプロセッサとして認識されるため、同じコア数のマルチプロセッサと比較して実装面積としては省スペースであり、プロセッサコア間の通信を高速化することも可能である。主に並列処理を行わせる環境下では、プロセッサ・チップ全体での処理能力を上げ性能向上を果たすために行われる。このプロセッサ・パッケージ内のプロセッサ・コアが2つであればデュアルコア (Dual-core)、4つであればクアッドコア (Quad-core)、6つであればヘキサコア (Hexa-core)、8つは伝統的にインテルではオクタルコア (Octal-core) 、AMDではオクタコア (Octa-core)と呼ばれるほか、オクトコア (Octo-core) とも呼ばれる。さらに高性能な専用プロセッサの中には十個以上ものコアを持つものがあり、メニーコア (Many-core) と呼ばれる。 なお、従来の1つのコアを持つプロセッサはマルチコアに対してシングルコア (Single-core) とも呼ばれる。 レベル1キャッシュが2つあり、レベル2キャッシュは2つのコアと共有される。.

マルチコアと並列計算 · マルチコアと分散コンピューティング · 続きを見る »

メッセージ (コンピュータ)

メッセージ(message)とは、言付け、伝言、伝送文などの意味がある。 計算機科学におけるメッセージパッシングとは並列コンピューティング、オブジェクト指向、プロセス間通信で使われる通信方式である。プロセスもしくはオブジェクトといったモデルではメッセージ(ゼロ以上のバイト、複雑なデータ構造、プログラムコードも)を送ったり受けたりできる。メッセージを待つことによって同期 (計算機科学)することも出来る。メッセージパッシングに基づく主なモデルとしてアクターモデルやプロセス代数がある。 Microsoft Windows などのオペレーティングシステムにおいて、メッセージとは、オペレーティングシステム上で動くアプリケーションで、オペレーティングシステムが管理しているデバイスからの入力をアプリケーションまで伝えることまたはその内容のことである。 オペレーティングシステムはメッセージをメッセージキューに保管し、アプリケーションはメッセージキューに保管されていたメッセージを受け取り、それを元に処理を行う。例えば「(10, 20) 左クリック」という情報をオペレーティングシステムが感知したらオペレーティングシステムはその情報をメッセージキューに保管する。アプリケーションはそのメッセージを受け取って対応した処理を行う。 アプリケーションは常にオペレーティングシステムからのメッセージを待機するようなプログラムになっており、この一連のプログラムの機構をメッセージループという。.

メッセージ (コンピュータ)と並列計算 · メッセージ (コンピュータ)と分散コンピューティング · 続きを見る »

レイテンシ

レイテンシ、潜伏時間、潜時、待ち時間、反応時間(latency)とは、デバイスに対してデータ転送などを要求してから、その結果が返送されるまでの不顕性の高い遅延時間のこと。レイテンシー、レーテンシーとも表記される。.

レイテンシと並列計算 · レイテンシと分散コンピューティング · 続きを見る »

レスリー・ランポート

レスリー・ランポート(Leslie Lamport、1941年2月7日 - )は、数学者であり、コンピュータ科学者である。博士。ニューヨーク市生まれ。 TeX の上にマクロパッケージを組み込んで構築した組版処理システムである LaTeX の開発者として有名である。 また、コンピュータ科学では、時相論理・フォールトトレランス・分散コンピューティングの研究者として有名である。 マサチューセッツ工科大学にて1960年に学士号、ブランダイス大学にて1963年に修士号、1972年に博士号を授与されている。 現在は、マイクロソフト社の基礎研究所であるマイクロソフトリサーチで研究を行っている。2013年チューリング賞受賞。.

レスリー・ランポートと並列計算 · レスリー・ランポートと分散コンピューティング · 続きを見る »

ボトルネック

ボトルネック概念図 ボトルネック (bottleneck) とは、システム設計上の制約の概念。英語の「瓶の首」の意。一部(主に化学分野)においては律速(りっそく、「速さ」を「律する(制御する)」要素を示すために使われる)、また『隘路(あいろ)』と言う同意語も存在する。 80-20の法則などが示すように、物事がスムーズに進行しない場合、遅延の原因は全体から見れば小さな部分が要因となり、他所をいくら向上させても状況改善が認められない場合が多い。このような部分を、ボトルネックという。 瓶のサイズがどれほど大きくても、中身の流出量・速度(スループット)は、狭まった首のみに制約を受けることからの連想である。 ボトムネックは誤記。.

ボトルネックと並列計算 · ボトルネックと分散コンピューティング · 続きを見る »

プログラミング言語

プログラミング言語(プログラミングげんご、programming language)とは、コンピュータプログラムを記述するための形式言語である。なお、コンピュータ以外にもプログラマブルなものがあることを考慮するならば、この記事で扱っている内容については、「コンピュータプログラミング言語」(computer programming language)に限定されている。.

プログラミング言語と並列計算 · プログラミング言語と分散コンピューティング · 続きを見る »

プロセス

プロセスとは、情報処理においてプログラムの動作中のインスタンスを意味し、プログラムのコードおよび全ての変数やその他の状態を含む。オペレーティングシステム (OS) によっては、プロセスが複数のスレッドで構成される場合があり、命令を同時並行して実行する。.

プロセスと並列計算 · プロセスと分散コンピューティング · 続きを見る »

フリンの分類

フリンの分類(フリンのぶんるい、Flynn's taxonomy)は、マイケル・J・フリン(Michael J. Flynn)が1966年に提案したコンピュータ・アーキテクチャの分類法である。.

フリンの分類と並列計算 · フリンの分類と分散コンピューティング · 続きを見る »

分散コンピューティング

分散コンピューティング(ぶんさんコンピューティング、英: Distributed computing)とは、プログラムの個々の部分が同時並行的に複数のコンピュータ上で実行され、各々がネットワークを介して互いに通信を行いながら全体として処理が進行する計算手法のことである。複雑な計算などをネットワークを介して複数のコンピュータを利用して行うことで、一台のコンピュータで計算するよりスループットを上げようとする取り組み、またはそれを実現する為の仕組みである。分散処理(ぶんさんしょり)ともいう。並列コンピューティングの一形態に分類されるが、一般に並列コンピューティングと言えば、同時並行に実行する主体は同じコンピュータシステム内のCPU群である。ただし、どちらもプログラムの分割(同時に実行できる部分にプログラムを分けること)が必須である。分散コンピューティングではさらに、それぞれの部分が異なる環境でも動作できるようにしなければならない。例えば、2台の異なるハードウェアを使ったコンピュータで、それぞれ異なるファイルシステム構成であっても動作するよう配慮する必要がある。 問題を複数の部分問題に分けて各コンピュータに実行させるのが基本であり、素数探索や数多く試してみる以外に解決できない問題の対処として用いられているものが多い。分散コンピューティングの例としてBOINCがある。これは、大きな問題を多数の小さな問題に分割し、多数のコンピュータに分配するフレームワークである。その後、それぞれの結果を集めて大きな解を得る。一般的に処理を分散すると一台のコンピュータで計算する場合と比べ、問題データの分配、収集、集計するためのネットワークの負荷が増加し、問題解決の為のボトルネックとなるため、部分問題間の依存関係を減らすことが重要な課題となる。 分散コンピューティングは、コンピュータ同士をネットワーク接続し、効率的に通信できるよう努力した結果として自然に生まれた。しかし、分散コンピューティングはコンピュータネットワークと同義ではない。単にコンピュータネットワークと言った場合、複数のコンピュータが互いにやり取りするが、単一のプログラムの処理を共有することはない。World Wide Web はコンピュータネットワークの例であるが、分散コンピューティングの例ではない。 分散処理を構築するための様々な技術や標準が存在し、一部はその目的に特化して設計されている。例えば、遠隔手続き呼出し (RPC)、Java Remote Method Invocation (Java RMI)、.NET Remoting などがある。.

並列計算と分散コンピューティング · 分散コンピューティングと分散コンピューティング · 続きを見る »

アドバンスト・マイクロ・デバイセズ

アドバンスト・マイクロ・デバイセズ(Advanced Micro Devices, Inc.

アドバンスト・マイクロ・デバイセズと並列計算 · アドバンスト・マイクロ・デバイセズと分散コンピューティング · 続きを見る »

アドレス空間

情報処理において、アドレス空間 (Address Space) とは、メモリアドレスが意味を成すコンテキストを定義したもの。あるいは、一連のメモリアドレスによってアクセス可能なメモリ空間を意味する。 メモリアドレスはコンピュータのメモリ内の物理的位置を識別するものであり、住所とある意味で類似している。アドレスはデータが格納されている位置を指すが、それはちょうど人間の住所がその人の居住地を指すのと同じである。人間の住所とのアナロジーで言えば、「アドレス空間」とは、町や市や国といったある範囲の地域に対応すると考えることができる。2つのアドレスが数値的に同じでも、それぞれ異なるアドレス空間内のアドレスであれば、異なる位置を指していると言える。これは2つの市に「××町○丁目△-□」という住所が存在したとき、それらが別の場所を指すのと同じことである。 アドレス空間の例:.

アドレス空間と並列計算 · アドレス空間と分散コンピューティング · 続きを見る »

インテル

インテル(英:Intel Corporation)は、アメリカ合衆国カリフォルニア州に本社を置く半導体素子メーカーである。 社名の由来はIntegrated Electronics(集積されたエレクトロニクス)の意味である。.

インテルと並列計算 · インテルと分散コンピューティング · 続きを見る »

インターネット

インターネット(internet)は、インターネット・プロトコル・スイートを使用し、複数のコンピュータネットワークを相互接続した、グローバルな情報通信網のことである。 インターネットは、光ファイバーや無線を含む幅広い通信技術により結合された、地域からグローバルまでの範囲を持つ、個人・公共・教育機関・商用・政府などの各ネットワークから構成された「ネットワークのネットワーク」であり、ウェブのハイパーテキスト文書やアプリケーション、電子メール、音声通信、ファイル共有のピア・トゥ・ピアなどを含む、広範な情報とサービスの基盤となっている。.

インターネットと並列計算 · インターネットと分散コンピューティング · 続きを見る »

グリッド・コンピューティング

リッド・コンピューティングは、インターネットなどの広域のネットワーク上にある計算資源(CPUなどの計算能力や、ハードディスクなどの情報格納領域)を結びつけ、ひとつの複合したコンピュータシステムとしてサービスを提供する仕組みである。提供されるサービスは主に計算処理とデータの保存・利用に大別される。一箇所の計算センターや、一組のスーパーコンピュータでは足りないほどの大規模な計算処理や大量のデータを保存・利用するための手段として開発されている。.

グリッド・コンピューティングと並列計算 · グリッド・コンピューティングと分散コンピューティング · 続きを見る »

コンピュータ

ンピュータ(Computer)とは、自動計算機、とくに計算開始後は人手を介さずに計算終了まで動作する電子式汎用計算機。実際の対象は文字の置き換えなど数値計算に限らず、情報処理やコンピューティングと呼ばれる幅広い分野で応用される。現代ではプログラム内蔵方式のディジタルコンピュータを指す場合が多く、特にパーソナルコンピュータやメインフレーム、スーパーコンピュータなどを含めた汎用的なシステムを指すことが多いが、ディジタルコンピュータは特定の機能を実現するために機械や装置等に組み込まれる組み込みシステムとしても広く用いられる。電卓・機械式計算機・アナログ計算機については各項を参照。.

コンピュータと並列計算 · コンピュータと分散コンピューティング · 続きを見る »

コンピュータ・クラスター

ンピュータ・クラスターとは、複数のコンピュータを結合し、クラスター(葡萄の房)のようにひとまとまりとしたシステムのこと。単に「クラスター」または「クラスタリング」とも呼ばれる。1台のコンピュータでは得られないような、強力な計算性能や可用性を得ることができる。コンピュータ・クラスターは、クラスタリングを実現するためのハードウェアやソフトウェアなどにより構成される。但し、ネットワークを介してデータを入力して処理を開始するため、処理開始までの遅延が大きくなる欠点がある。.

コンピュータ・クラスターと並列計算 · コンピュータ・クラスターと分散コンピューティング · 続きを見る »

スレッド (コンピュータ)

レッド(thread)とは、CPU利用の単位。プロセスに比べて、プログラムを実行するときのコンテキスト情報が最小で済むので切り替えが速くなる。スレッドは、thread of execution(実行の脈絡)という言葉を省略したものである。 プログラミングの観点からみると、アプリケーションの処理の「実行の脈絡」は1つでないことが多い。これをシングルスレッドで実現しようとするとシグナルやタイマーを駆使してコーディングすることになる。また、複数のプロセスに分割してプロセス間通信で協調動作させるという方法もある。しかし、いずれの場合もそれらの機能を使うための余分な、本来のアルゴリズムと関係ないコーディングが必要となる。スレッドを使用したプログラミングは本来のアルゴリズムに集中しやすくなり、プログラムの構造が改善されるという効果がある。.

スレッド (コンピュータ)と並列計算 · スレッド (コンピュータ)と分散コンピューティング · 続きを見る »

スーパーコンピュータ

ーパーコンピュータ(supercomputer)は、科学技術計算を主要目的とする大規模コンピュータである。日本国内での略称はスパコン。また、計算科学に必要となる数理からコンピュータシステム技術までの総合的な学問分野を高性能計算と呼ぶ。スーパーコンピュータでは計算性能を最重要視し、最先端の技術が積極的に採用されて作られる。.

スーパーコンピュータと並列計算 · スーパーコンピュータと分散コンピューティング · 続きを見る »

スケーラビリティ

ーラビリティ(scalability)とは利用者や仕事の増大に適応できる能力・度合いのこと。電気通信やソフトウェア工学において、システムまたはネットワークまたはアルゴリズムの、持つべき望ましい特性の1つで、一種の拡張性である。より具体的には、小規模なシステムを大規模にする場合に、システム全体を交換する方法(建物で例えると大きな物件に引っ越すこと)では無く、リソース(特にハードウェア)の追加によって大規模なものへと透過的に規模拡張できる能力(建物で例えると、増築や別棟を建てること)はスケーラビリティの一種だといえる。リソースの量に比例して全体のスループットが向上するシステムはスケーラブルな(scalable)システムまたはスケーラビリティのあるシステムと呼ばれる。 システムの特性としてのスケーラビリティに一般的な定義を与えるのは難しい。具体的な事例においては、問題としている領域でスケーラビリティを確保するための条件を特定することが必要である。これはデータベース、ルータ、ネットワークなど情報工学の分野において非常に重要なことである。スケーラビリティは分散処理の'''透過性'''の概念と密接なつながりがある。 スケーラビリティの高さは様々な尺度で評価される。例として;規模透過性;位置透過性;異種透過性 がある。スケーラビリティについて議論する際には規模透過性のみを問題にすることも多い。 例えば、スケーラブルなデータベース管理システムではプロセッサやストレージを追加することでより多くのトランザクションを処理できるようにアップグレードでき、またアップグレードをシャットダウンなしに実行できる。 ルーティングプロトコルがネットワークの規模に関してスケーラブルであると言われるのは、Nをネットワーク内のノード数としたときに、各ノードに必要なルーティングテーブルのサイズが O(log N) に従って増大するときである。.

スケーラビリティと並列計算 · スケーラビリティと分散コンピューティング · 続きを見る »

Berkeley Open Infrastructure for Network Computing

Berkeley Open Infrastructure for Network Computing(バークレー オープン インフラストラクチャ フォー ネットワーク コンピューティング)とは、分散コンピューティングプロジェクトのプラットフォームとして開発されたクライアント・サーバ型のソフトウェアである。開発元はカリフォルニア大学バークレー校。略称は BOINC。 SETI@home の運用実績をもとに、より柔軟で汎用的なシステムを目指している。BOINC の公開後、SETI@home は BOINC ベースへと移行し、BOINC を使用しない単独プログラム用 SETI@home は2005年12月に運用を終了した。 BOINCはその開発に際し、アメリカ国立科学財団(NSF)の支援を受けている。(認可番号 AST-0307956 および SPNR 0138346).

Berkeley Open Infrastructure for Network Computingと並列計算 · Berkeley Open Infrastructure for Network Computingと分散コンピューティング · 続きを見る »

CPU

Intel Core 2 Duo E6600) CPU(シーピーユー、Central Processing Unit)、中央処理装置(ちゅうおうしょりそうち)は、コンピュータにおける中心的な処理装置(プロセッサ)。 「CPU」と「プロセッサ」と「マイクロプロセッサ」という語は、ほぼ同義語として使われる場合も多いが、厳密には以下に述べるように若干の範囲の違いがある。大規模集積回路(LSI)の発達により1個ないしごく少数のチップに全機能が集積されたマイクロプロセッサが誕生する以前は、多数の(小規模)集積回路(さらにそれ以前はディスクリート)から成る巨大な電子回路がプロセッサであり、CPUであった。大型汎用機を指す「メインフレーム」という語は、もともとは多数の架(フレーム)から成る大型汎用機システムにおいてCPUの収まる主要部(メイン)、という所から来ている。また、パーソナルコンピュータ全体をシステムとして見た時、例えば電源部が制御用に内蔵するワンチップマイコン(マイクロコントローラ)は、システム全体として見た場合には「CPU」ではない。.

CPUと並列計算 · CPUと分散コンピューティング · 続きを見る »

Folding@home

Folding@home(FAH、フォールディング・アット・ホーム)は、2000年10月から北アメリカのスタンフォード大学を中心に行われている分散コンピューティングプロジェクトおよび、それに使用されているコンピュータプログラム。 たんぱく質の折りたたみ構造を解析することで、これに関係する様々な疾病(アルツハイマー病、がん、パーキンソン病、狂牛病など)の治療に役立てるのが目的。このプログラムをダウンロードし、パーソナルコンピュータなどで動作させると研究に必要な計算が行われ、その計算結果がインターネットを通じてスタンフォード大学に送られる。また、このプロジェクトではCPUだけでなく、GPGPUによる処理も行う事が出来る。.

Folding@homeと並列計算 · Folding@homeと分散コンピューティング · 続きを見る »

Intel Core

Intel Coreは、インテルが製造するx86アーキテクチャのマイクロプロセッサのうち、メインストリームからハイエンドPC向けのCPUに与えられるブランド名である。 Coreプロセッサのラインナップには、最新のIntel Core i9、Core i7、Core i5、Core i3、Core Mプロセッサ(しばしばCore i シリーズ、Coreプロセッサ・ファミリなどと称される)と、その前世代のCore 2 Solo、Core 2 Duo、Core 2 Quad、Core 2 Extreme(Intel Core2の項目を参照)、初代となるIntel Core Solo、Core Duoが含まれる。.

Intel Coreと並列計算 · Intel Coreと分散コンピューティング · 続きを見る »

Intel Core 2

Intel Core 2(インテル コア ツー)はインテルが2006年7月27日に発表した、x86命令セットを持つCPU用のマイクロプロセッサ。 元々はモバイル向けとして開発され、そこからデスクトップ、ワークステーション、サーバ向けの製品が派生的に開発されている。そのため、Coreマイクロアーキテクチャ内での世代を表す開発コードネームは、モバイル向けの標準ダイのものが用いられる。しかしそれぞれの用途向けであっても内容的にはほぼ同じであり、先行して開発が進んでいたモバイル向けにそれぞれの用途向けの機能が追加されていったり、組み込まれた機能を無効化することでそれぞれの用途向けに作り分けられている。 2008年の第4四半期より出荷が始まったCore i7をはじめとする、Nehalemマイクロアーキテクチャの各CPUに順次置き換えられた。.

Intel Core 2と並列計算 · Intel Core 2と分散コンピューティング · 続きを見る »

MIMD

225px MIMD(Multiple Instruction stream, Multiple Data stream)とは、コンピューティングにおいて並列性を達成するのに使われる技法の一種。MIMD型のマシンは、独立して機能する複数のプロセッサを持つ。任意の時点で、異なるプロセッサは異なる命令を使って異なるデータを処理している。MIMDアーキテクチャは様々な分野で応用されており、CAD/CAM、シミュレーション、モデリング、通信スイッチなどに使われている。MIMD型マシンは、共有メモリ型と分散メモリ型に分類される。この分類は、MIMD型マシンのプロセッサがどのようにメモリにアクセスするかに着目したものである。共有メモリ型マシンは、単純なバスを使ったものや、階層型のバスを使ったものがある。分散メモリ型マシンは、ハイパーキューブ型やメッシュ型の相互接続ネットワークを使うことが多い。.

MIMDと並列計算 · MIMDと分散コンピューティング · 続きを見る »

MISD

フリンの分類におけるMISD MISD (Multiple Instruction stream, Single Data stream) は、並列コンピューティングアーキテクチャの一種であり、多数の機能ユニットが同じデータに対して異なる操作を同時に行う。パイプライン処理はその一例とされるが、パイプラインの各ステージでデータに操作が加えられているので、厳密にはMISDではないとも言われる。フォールトトレラントコンピュータは、障害を検出して対処するため、複数の機能ユニットが同じ操作を同時に行うが(レプリケーションの一種)、これをMISDの一種とする場合もある。MISDアーキテクチャの実例は滅多になく、MIMDやSIMDの方が一般的な並列処理には適している。特に、MIMDやSIMDはMISDに比べてスケーラビリティが良く、計算リソースを効率的に利用できる。 シストリックアレイをMISD構造の例に挙げる者もいる。.

MISDと並列計算 · MISDと分散コンピューティング · 続きを見る »

NUMA

NUMA(Non-Uniform Memory Access、ヌマ)とは、共有メモリ型マルチプロセッサコンピュータシステムのアーキテクチャのひとつで、複数プロセッサが共有するメインメモリへのアクセスコストが、メモリ領域とプロセッサに依存して均一でないアーキテクチャである。.

NUMAと並列計算 · NUMAと分散コンピューティング · 続きを見る »

Pentium 4

Pentium 4(ペンティアム・フォー)は、インテルが製造したNetBurstマイクロアーキテクチャに基づくx86アーキテクチャのマイクロプロセッサ(CPU)に付された商標である。集積トランジスタ数は4200万 - インテル公式サイト.2013年12月5日閲覧。。最初の製品は2000年11月20日に発表されその当初は単一の商品名と目されていたが、その後も後継のプロセスルールで製造および販売展開され、製品シリーズを指すブランドになった。そのため、同じくPentium 4を冠するCPUであってもプロセスルール(すなわち製品世代)によって性能が大きく異なる。それら製品世代を区別して指す場合には、自作パソコンユーザーは、インテルが用いた社内開発コードネームをそのまま用いることが多い。本項でも以降の節では開発コードネームを見出しに用いる。.

Pentium 4と並列計算 · Pentium 4と分散コンピューティング · 続きを見る »

PlayStation 3

PlayStation 3(プレイステーションスリー、略称: PS3)は、2006年11月11日に発売された家庭用ゲーム機。かつてはすべて大文字のPLAYSTATION 3という名称だった。 発売元はソニー・インタラクティブエンタテインメント (SIE) (旧:ソニー・コンピュータエンタテインメント (SCE) )。.

PlayStation 3と並列計算 · PlayStation 3と分散コンピューティング · 続きを見る »

SETI@home

SETI@home(セティアットホーム)はインターネット接続されたコンピュータ群を使うボランティア・コンピューティングプロジェクトで、アメリカ合衆国のカリフォルニア大学バークレー校 Space Sciences Laboratory が運営している。SETI は "Search for Extra-Terrestrial Intelligence"(地球外知的生命体探査)の略で、SETI@homeはSETIの一部である。SETI@homeは1999年5月17日に一般公開された。.

SETI@homeと並列計算 · SETI@homeと分散コンピューティング · 続きを見る »

SIMD

SIMDの概念図PU.

SIMDと並列計算 · SIMDと分散コンピューティング · 続きを見る »

SISD

225px SISD (Single Instruction stream, Single Data stream) とは、シングルプロセッサ(ユニプロセッサ)のコンピュータアーキテクチャで、単一の命令ストリームを実行し、一度に1つのデータだけを操作する方式である。いわゆるノイマン型アーキテクチャに対応する。 フリンの分類によれば、SISDであっても並列処理的性質が全くないわけではない。パイプライン処理やスーパースカラ実装による命令の並列実行は今ではSISDでも普通に行われている。.

SISDと並列計算 · SISDと分散コンピューティング · 続きを見る »

上記のリストは以下の質問に答えます

並列計算と分散コンピューティングの間の比較

分散コンピューティングが127を有している並列計算は、191の関係を有しています。 彼らは一般的な36で持っているように、ジャカード指数は11.32%です = 36 / (191 + 127)。

参考文献

この記事では、並列計算と分散コンピューティングとの関係を示しています。情報が抽出された各記事にアクセスするには、次のURLをご覧ください:

ヘイ!私たちは今、Facebook上です! »