ロゴ
ユニオンペディア
コミュニケーション
Google Play で手に入れよう
新しい! あなたのAndroid™デバイスでユニオンペディアをダウンロードしてください!
無料
ブラウザよりも高速アクセス!
 

情報と複雑性

ショートカット: 違い類似点ジャカード類似性係数参考文献

情報と複雑性の違い

情報 vs. 複雑性

情報(じょうほう、英語: information、ラテン語: informatio インフォルマーティオー)とは、. 複雑性(ふくざつせい、complexity)という用語は、多数の部品が入り組んで配置された何らかのものを特徴付ける言葉として使われる。科学として複雑性を研究するアプローチはいくつか存在しており、本項目ではそれらを概説する。マサチューセッツ工科大学のセス・ロイドは、複雑性の定義を32種類集めてプレゼンテーションしたことがあるという。.

情報と複雑性間の類似点

情報と複雑性は(ユニオンペディアに)共通で10ものを持っています: 一般システム理論フィードバックエントロピーコンピュータシステム複雑系複雑適応系情報処理情報理論情報量

一般システム理論

一般システム理論(general system theory)は、現象のマクロな挙動を直接的にモデル化して扱う手法の体系のことである。1950年代に提唱者のルートヴィヒ・フォン・ベルタランフィを中心として、アナトール・ラポポート、ケネス・E・ボールディング、ウィリアム・ロス・アシュビー、マーガレット・ミード、グレゴリー・ベイトソンらが集まった「メイシー会議」で初めて正式な学術分野として承認された。 19世紀までの近代科学では、原子1つ1つの挙動の寄せ集めで全ての現象を説明可能とする要素還元主義が一般的(つまりは全ての現象が線型という扱い)であり、非線型な現象を形而上学的な概念である「全体性」として説明してきた。しかし、一般システム理論の提唱により、全体性も科学的に説明可能となり、複雑系や自己組織化現象等、非線型な現象まで科学的にモデル化し、理解できるようになった。また、一般システム理論は、分野を跨いで同型な議論を再利用できるようにし、科学的な議論の効率化にも大きく貢献した。 一般システム理論が学術分野として承認されたことで、線型な現象のみを扱う近代科学(特に要素還元主義)の時代が完全に終焉を迎えたと共に、非線型な現象の機構を解明して利用する現代科学の時代が始まった。以降の時代には(特に1960年代以降は)、システム的なアプローチを取らなければ設計が不可能な、非線形性を前提とした高度な自動制御機構(オートメーション,コンピュータシステム等)が次々と実用化され、高度な自動制御機構を前提とする現代社会を形成して行った。.

一般システム理論と情報 · 一般システム理論と複雑性 · 続きを見る »

フィードバック

フィードバック(feedback)とは、もともと「帰還」と訳され、ある系の出力(結果)を入力(原因)側に戻す操作のこと。古くは調速機(ガバナ)の仕組みが、意識的な利用は1927年のw:Harold Stephen Blackによる負帰還増幅回路の発明に始まり、サイバネティックスによって広められた。システムの振る舞いを説明する為の基本原理として、エレクトロニクスの分野で増幅器の特性の改善、発振・演算回路及び自動制御回路などに広く利用されているのみならず、制御システムのような機械分野や生物分野、経済分野などにも広く適用例がある。自己相似を作り出す過程であり、それゆえに予測不可能な結果をもたらす場合もある。.

フィードバックと情報 · フィードバックと複雑性 · 続きを見る »

エントロピー

ントロピー(entropy)は、熱力学および統計力学において定義される示量性の状態量である。熱力学において断熱条件下での不可逆性を表す指標として導入され、統計力学において系の微視的な「乱雑さ」「でたらめさ」と表現されることもある。ここでいう「でたらめ」とは、矛盾や誤りを含んでいたり、的外れであるという意味ではなく、相関がなくランダムであるという意味である。を表す物理量という意味付けがなされた。統計力学での結果から、系から得られる情報に関係があることが指摘され、情報理論にも応用されるようになった。物理学者ののようにむしろ物理学におけるエントロピーを情報理論の一応用とみなすべきだと主張する者もいる。 エントロピーはエネルギーを温度で割った次元を持ち、SIにおける単位はジュール毎ケルビン(記号: J/K)である。エントロピーと同じ次元を持つ量として熱容量がある。エントロピーはサディ・カルノーにちなんで一般に記号 を用いて表される。.

エントロピーと情報 · エントロピーと複雑性 · 続きを見る »

コンピュータ

ンピュータ(Computer)とは、自動計算機、とくに計算開始後は人手を介さずに計算終了まで動作する電子式汎用計算機。実際の対象は文字の置き換えなど数値計算に限らず、情報処理やコンピューティングと呼ばれる幅広い分野で応用される。現代ではプログラム内蔵方式のディジタルコンピュータを指す場合が多く、特にパーソナルコンピュータやメインフレーム、スーパーコンピュータなどを含めた汎用的なシステムを指すことが多いが、ディジタルコンピュータは特定の機能を実現するために機械や装置等に組み込まれる組み込みシステムとしても広く用いられる。電卓・機械式計算機・アナログ計算機については各項を参照。.

コンピュータと情報 · コンピュータと複雑性 · 続きを見る »

システム

テム(system)は、相互に影響を及ぼしあう要素から構成される、まとまりや仕組みの全体。一般性の高い概念であるため、文脈に応じて系、体系、制度、方式、機構、組織といった多種の言葉に該当する。系 (自然科学) の記事も参照。 それ自身がシステムでありながら同時に他のシステムの一部でもあるようなものをサブシステムという。.

システムと情報 · システムと複雑性 · 続きを見る »

複雑系

複雑系(ふくざつけい、complex system)とは、相互に関連する複数の要因が合わさって全体としてなんらかの性質(あるいはそういった性質から導かれる振る舞い)を見せる系であって、しかしその全体としての挙動は個々の要因や部分からは明らかでないようなものをいう。 これらは狭い範囲かつ短期の予測は経験的要素から不可能ではないが、その予測の裏付けをより基本的な法則に還元して理解する(還元主義)のは困難である。系の持つ複雑性には非組織的複雑性と組織的複雑性の二つの種類がある。これらの区別は本質的に、要因の多さに起因するものを「組織化されていない」(disorganized) といい、対象とする系が(場合によってはきわめて限定的な要因しか持たないかもしれないが)創発性を示すことを「組織化された」(organized) と言っているものである。 複雑系は決して珍しいシステムというわけではなく、実際に人間にとって興味深く有用な多くの系が複雑系である。系の複雑性を研究するモデルとしての複雑系には、蟻の巣、人間経済・社会、気象現象、神経系、細胞、人間を含む生物などや現代的なエネルギーインフラや通信インフラなどが挙げられる。 複雑系は自然科学、数学、社会科学などの多岐にわたる分野で研究されている。また、複雑系科学の記事も参照のこと。.

情報と複雑系 · 複雑性と複雑系 · 続きを見る »

複雑適応系

複雑適応系(ふくざつてきおうけい、complex adaptive system, CAS)は、特殊な複雑系である。多様な複数の相互接続された要素から成るという意味で「複雑」であり、変化する能力と経験から学ぶという意味で「適応的」である。複雑適応系という用語はサンタフェ研究所 (SFI) のジョン・H・ホランドやマレー・ゲルマンらが作った造語である。.

情報と複雑適応系 · 複雑性と複雑適応系 · 続きを見る »

情報処理

情報処理(じょうほうしょり、information processing)は、元の「情報」から、計算により加工・抽出などをおこない、別の形の情報を得る手続き(処理(プロセス))である。利用・活用が可能な付加価値を目的とすることが多いが、定義としてはそれが目的でなくてもいっこうにかまわない。日本語としては、情報処理学会設立前夜の頃、IFIP設立など国際的に意識が高まりつつあったInformation Processingの(直)訳として使われ始めた語である。 なお、いわゆる(軍事などの)諜報活動は:en:Intelligence assessment であるが、意図的にか混同して「情報」の語を使っているらしき向きも見られる。.

情報と情報処理 · 情報処理と複雑性 · 続きを見る »

情報理論

情報理論(じょうほうりろん、Information theory)は、情報・通信を数学的に論じる学問である。応用数学の中でもデータの定量化に関する分野であり、可能な限り多くのデータを媒体に格納したり通信路で送ったりすることを目的としている。情報エントロピーとして知られるデータの尺度は、データの格納や通信に必要とされる平均ビット数で表現される。例えば、日々の天気が3ビットのエントロピーで表されるなら、十分な日数の観測を経て、日々の天気を表現するには「平均で」約3ビット/日(各ビットの値は 0 か 1)と言うことができる。 情報理論の基本的な応用としては、ZIP形式(可逆圧縮)、MP3(非可逆圧縮)、DSL(伝送路符号化)などがある。この分野は、数学、統計学、計算機科学、物理学、神経科学、電子工学などの交差する学際領域でもある。その影響は、ボイジャー計画の深宇宙探査の成功、CDの発明、携帯電話の実現、インターネットの開発、言語学や人間の知覚の研究、ブラックホールの理解など様々な事象に及んでいる。.

情報と情報理論 · 情報理論と複雑性 · 続きを見る »

情報量

情報量(じょうほうりょう)やエントロピー(entropy)は、情報理論の概念で、あるできごと(事象)が起きた際、それがどれほど起こりにくいかを表す尺度である。ありふれたできごと(たとえば「風の音」)が起こったことを知ってもそれはたいした「情報」にはならないが、逆に珍しいできごと(たとえば「曲の演奏」)が起これば、それはより多くの「情報」を含んでいると考えられる。情報量はそのできごとが本質的にどの程度の情報を持つかの尺度であるとみなすこともできる。 なおここでいう「情報」とは、あくまでそのできごとの起こりにくさ(確率)だけによって決まる数学的な量でしかなく、個人・社会における有用性とは無関係である。たとえば「自分が宝くじに当たった」と「見知らぬAさんが宝くじに当たった」は、前者の方が有用な情報に見えるが、両者の情報量は全く同じである(宝くじが当たる確率は所与条件一定のもとでは誰でも同じであるため)。.

情報と情報量 · 情報量と複雑性 · 続きを見る »

上記のリストは以下の質問に答えます

情報と複雑性の間の比較

複雑性が61を有している情報は、165の関係を有しています。 彼らは一般的な10で持っているように、ジャカード指数は4.42%です = 10 / (165 + 61)。

参考文献

この記事では、情報と複雑性との関係を示しています。情報が抽出された各記事にアクセスするには、次のURLをご覧ください:

ヘイ!私たちは今、Facebook上です! »