74 関係: しきい値、単調写像、多層パーセプトロン、平均、人工知能、人工神経、強化学習、形式ニューロン、マービン・ミンスキー、ネオコグニトロン、バックプロパゲーション、モンテカルロ法、ボルツマンマシン、ヘッブの法則、パラメータ、パーセプトロン、パターン認識、データマイニング、デビッド・ラメルハート、ディープラーニング、フランク・ローゼンブラット、ドナルド・ヘッブ、ニューロコンピュータ、ホップフィールド・ネットワーク、ベイジアンネットワーク、ベクトル、アダマール積、ウォルター・ピッツ、ウォーレン・マカロック、オライリー、オートエンコーダ、クラスタリング、コネクトーム、コネクショニズム、シナプス、シミュレーション、シーモア・パパート、シグモイド関数、ジョン・ホップフィールド、ジェフリー・ヒントン、サポートベクターマシン、冪乗、創発、回帰分析、回路、確率的勾配降下法、神経科学、生物学、甘利俊一、畳み込みニューラルネットワーク、...、階層構造、行列、行列の乗法、複素解析、複素数、計算複雑性理論、計算論的神経科学、認知アーキテクチャ、認知科学、超平面、転置行列、脳科学、自己組織化写像、Neuroevolution、Python、機械学習、正則化、活動電位、活性化関数、漸化式、最適化問題、放射基底関数、教師なし学習、教師あり学習。 インデックスを展開 (24 もっと) »
しきい値
しきい値(しきいち)あるいは閾値(いきち)()は、境目となる値のこと。 「しきいち」は慣用読み。「閾」(しきい)の字は日本の当用漢字外である。.
新しい!!: ニューラルネットワークとしきい値 · 続きを見る »
単調写像
単調写像(たんちょうしゃぞう、monotonic function, monotone function)または単調関数は、単調性、すなわち順序集合の間の写像が順序を保つような性質を持つ写像のことである。具体的な例としては以下の単調増加関数および単調減少関数がある。 単調増加(たんちょうぞうか、monotonically increasing)とは、狭義には実数の値を持つ関数 が、 の増加につれて常に関数値 も増加することをいい、このような性質を持つ関数を単調増加関数(たんちょうぞうかかんすう、monotonically increasing function)と呼ぶ。同様に、引数 の増加につれて関数値 が常に減少することを単調減少(たんちょうげんしょう、monotonically decreasing)といい、そのような性質を持つ関数を単調減少関数(たんちょうげんしょうかんすう、monotonically decreasing function)と呼ぶ。従って、連続な単調増加関数 を縦軸、その引数 を横軸にとったグラフ上の曲線は常に右上りで、右下がりになっている部分がない。逆に単調減少関数の場合には、常に右下がりであり右上がりの部分がない。 ある関数が単調増加または単調減少する性質をまとめて単調性(たんちょうせい、monotonicity)と呼ぶ。.
新しい!!: ニューラルネットワークと単調写像 · 続きを見る »
多層パーセプトロン
多層パーセプトロン(たそうパーセプトロン、Multilayer perceptron、略称: MLP)は、ニューラルネットワークの一分類である。MLPは少なくとも3つのノードの層からなる。入力ノードを除けば、個々のノードは非線形活性化関数を使用するニューロンである。MLPは学習のために誤差逆伝播法(バックプロパゲーション)と呼ばれる教師あり学習手法を利用する。その多層構造と非線形活性化関数が、MLPと線形パーセプトロンを区別している。MLPは線形分離可能ではないデータを識別できる。 多層パーセプトロンは時折、特に単一の隠れ層を持つ時、「バニラ」ニューラルネットワークと口語的に呼ばれることがある。.
新しい!!: ニューラルネットワークと多層パーセプトロン · 続きを見る »
平均
平均(へいきん、mean, Mittelwert, moyenne)または平均値(へいきんち、mean value)は、観測値の総和を観測値の個数で割ったものである。 例えば A、B、C という3人の体重がそれぞれ 55 kg、60 kg、80 kg であったとすると、3人の体重の平均値は (55 kg + 60 kg + 80 kg)/3.
新しい!!: ニューラルネットワークと平均 · 続きを見る »
人工知能
250px 人工知能(じんこうちのう、artificial intelligence、AI)とは、「計算機(コンピュータ)による知的な情報処理システムの設計や実現に関する研究分野」を指す。.
新しい!!: ニューラルネットワークと人工知能 · 続きを見る »
人工神経
人工神経または人工ニューロン(artificial neuron)とは、人工知能において、生物学的神経を参考にして考案されたニューラルネットワークを構成する基本単位である。人工神経は1つ以上の入力を受け取り(1つ以上の樹状突起に相当)、それらの総和から出力(シナプス)を生成する。通常、各ノードの総和には重み付けがされ、活性化関数(activation function)もしくは伝達関数(transfer function)と呼ばれる非線形関数に渡される。.
新しい!!: ニューラルネットワークと人工神経 · 続きを見る »
強化学習
強化学習(きょうかがくしゅう、Reinforcement learning)とは、ある環境内におけるエージェントが、現在の状態を観測し、取るべき行動を決定する問題を扱う機械学習の一種。エージェントは行動を選択することで環境から報酬を得る。強化学習は一連の行動を通じて報酬が最も多く得られるような方策()を学習する。代表的な手法としてTD学習やQ学習が知られている。 最も基本的なモデルでは、ここでの環境は、有限状態数のマルコフ決定過程として定式化される。また、強化学習のアルゴリズムは動的計画法に類似したアルゴリズムである。.
新しい!!: ニューラルネットワークと強化学習 · 続きを見る »
形式ニューロン
形式ニューロン(けいしきニューロン、formal neuron)や Threshold Logic Unit とは、1943年に神経生理学者・外科医であるウォーレン・マカロックと論理学者・数学者であるウォルター・ピッツが発表した最初の人工ニューロン(artificial neuron)。伝達関数としてはヘヴィサイドの階段関数を使い、入出力の値は 0 または 1 の二値だけをとる。.
新しい!!: ニューラルネットワークと形式ニューロン · 続きを見る »
マービン・ミンスキー
マービン・ミンスキー(Marvin Minsky, 1927年8月9日 - 2016年1月24日)は、アメリカ合衆国のコンピュータ科学者であり、認知科学者。専門は人工知能 (AI) であり、マサチューセッツ工科大学の人工知能研究所の創設者の1人。初期の人工知能研究を行い、AIや哲学に関する著書でも知られ、「人工知能の父」と呼ばれる。現在ダートマス会議として知られる、"The Dartmouth Summer Research Project on Artificial Intelligence (1956)" の発起人の一人。.
新しい!!: ニューラルネットワークとマービン・ミンスキー · 続きを見る »
ネオコグニトロン
ネオコグニトロン(Neocognitron)は、1980年代に福島邦彦によって提唱された階層的、多層化された人工ニューラルネットワークである。手書き文字認識やその他のパターン認識の課題に用いられており、畳み込みニューラルネットワークの発想の元となった。 ネオコグニトロンはヒューベルとウィーセルが1959年に提唱したモデルから発想を得ている。彼らは「」および「」と呼ばれる一次視覚野の2種類の細胞を発見し、パターン認識タスクにおいて使用されるこれら2種類の細胞のカスケードモデルを提唱した。 ネオコグニトロンはこれらのカスケードモデルが自然に発展したものである。ネオコグニトロンは複数の種類の細胞から構成され、その中で最も重要な細胞は「S細胞」および「C細胞」と呼ばれる 。局所特徴量はS細胞によって抽出され、微小変位(local shift)といったこれらの特徴の変形はC細胞に委ねられている。入力中の局所特徴量は、隠れ層によって徐々に統合され、分類される。局所特徴量の統合の発想は、LeNetモデルやモデルといったその他複数のモデルでも見られる。 ネオコグニトロンには様々な種類が存在する。例えば、ある種のネオコグニトロンは、逆伝播シグナルを用いることによって同一入力中の複数のパターンを検出でき、選択的注意(selective attention)を達成する。.
新しい!!: ニューラルネットワークとネオコグニトロン · 続きを見る »
バックプロパゲーション
バックプロパゲーション(Backpropagation)または誤差逆伝播法(ごさぎゃくでんぱほう)は、機械学習において、ニューラルネットワークを学習させる際に用いられるアルゴリズムである。1986年にbackwards propagation of errors(後方への誤差伝播)の略からデビッド・ラメルハートらによって命名された。 隠れ層のない2層のニューラルネットワークでの出力誤差からの確率的勾配降下法は1960年にB.
新しい!!: ニューラルネットワークとバックプロパゲーション · 続きを見る »
モンテカルロ法
モンテカルロ法 (モンテカルロほう、Monte Carlo method, MC) とはシミュレーションや数値計算を乱数を用いて行う手法の総称。元々は、中性子が物質中を動き回る様子を探るためにスタニスワフ・ウラムが考案しジョン・フォン・ノイマンにより命名された手法。カジノで有名な国家モナコ公国の4つの地区(カルティ)の1つであるモンテカルロから名付けられた。ランダム法とも呼ばれる。.
新しい!!: ニューラルネットワークとモンテカルロ法 · 続きを見る »
ボルツマンマシン
ボルツマン・マシン(Boltzmann machine)は、1985年にジェフリー・ヒントン(英:Geoffrey Hinton)とテリー・セジュノスキー(英:Terry Sejnowski)によって開発された、確率リカレント ニューラルネットワークの一種。.
新しい!!: ニューラルネットワークとボルツマンマシン · 続きを見る »
ヘッブの法則
ヘッブの法則(ヘッブのほうそく)は、脳のシナプス可塑性についての法則である。ヘッブ則、ヘブ則とも呼ばれる。心理学者のドナルド・ヘッブによって提唱された。ニューロン間の接合部であるシナプスにおいて、シナプス前ニューロンの繰り返し発火によってシナプス後ニューロンに発火が起こると、そのシナプスの伝達効率が増強される。また逆に、発火が長期間起こらないと、そのシナプスの伝達効率は減退するというものである。.
新しい!!: ニューラルネットワークとヘッブの法則 · 続きを見る »
パラメータ
パラメータ(parameter)とは、 ギリシア語のπαρά (pará) 「傍に」 + μέτρον (métron)「尺度」を語源とする。.
新しい!!: ニューラルネットワークとパラメータ · 続きを見る »
パーセプトロン
パーセプトロン(Perceptron)は、人工ニューロンやニューラルネットワークの一種である。心理学者・計算機科学者のフランク・ローゼンブラットが1957年に考案し、1958年に論文を発表した。モデルは同じく1958年に発表されたロジスティック回帰と等価である。.
新しい!!: ニューラルネットワークとパーセプトロン · 続きを見る »
パターン認識
パターン認識(パターンにんしき、Pattern recognition)は自然情報処理のひとつ。画像・音声などの雑多な情報を含むデータの中から、一定の規則や意味を持つ対象を選別して取り出す処理である。.
新しい!!: ニューラルネットワークとパターン認識 · 続きを見る »
データマイニング
データマイニング(Data mining)とは、統計学、パターン認識、人工知能等のデータ解析の技法を大量のデータに網羅的に適用することで知識を取り出す技術のことである。DMと略して呼ばれる事もある。通常のデータの扱い方からは想像が及びにくい、ヒューリスティク(heuristic、発見的)な知識獲得が可能であるという期待を含意していることが多い。とくにテキストを対象とするものをテキストマイニング、そのなかでもウェブページを対象にしたものをウェブマイニングと呼ぶ。英語では"Data mining"の語の直接の起源となった研究分野であるknowledge-discovery in databases(データベースからの知識発見)の頭文字をとってKDDとも呼ばれる。.
新しい!!: ニューラルネットワークとデータマイニング · 続きを見る »
デビッド・ラメルハート
デビッド・ラメルハート(David E. Rumelhart, 1942年6月12日 - 2011年3月3日)は、アメリカの認知心理学者でニューラルネットワークの研究者。ルーメルハートとも表記される。1967年からカリフォルニア大学サンディエゴ校で教職に就き、1989年からスタンフォード大学の教授を務めた。 パーセプトロンにバックプロパゲーションという方法を取り入れ、ジェームズ・マクレランドらとともに並列分散処理(PDP)モデルを提唱した。.
新しい!!: ニューラルネットワークとデビッド・ラメルハート · 続きを見る »
ディープラーニング
ディープラーニングまたは深層学習(しんそうがくしゅう、)とは、(狭義には4層以上2層ならパーセプトロン。3層なら階層型ニューラルネット。これらと比較して深い層の階層型ニューラルネットを、深層(階層型)ニューラルネットと呼ぶ。の)多層のニューラルネットワーク(ディープニューラルネットワーク、)による機械学習手法である。深層学習登場以前、4層以上の深層ニューラルネットは、局所最適解や勾配消失などの技術的な問題によって充分学習させられず、性能も芳しくなかった。しかし、近年、ヒントンらによる多層ニューラルネットワークの学習の研究や、学習に必要な計算機の能力向上、および、Webの発達による訓練データ調達の容易化によって、充分学習させられるようになった。その結果、音声・画像・自然言語を対象とする問題に対し、他の手法を圧倒する高い性能を示し岡谷貴之 深層学習 (機械学習プロフェッショナルシリーズ)、2015年4月8日、まえがき、ISBN 978-4061529021、2010年代に普及した。しかしながら、多層ニューラルネットが高い性能を示す要因の理論的な解明は進んでいない。.
新しい!!: ニューラルネットワークとディープラーニング · 続きを見る »
フランク・ローゼンブラット
フランク・ローゼンブラット(Frank Rosenblatt, 1928年7月11日 - 1971年7月11日)は、アメリカの心理学者。ニューラルネット研究の開拓者のひとり。ローゼンブラットと人工知能研究者マービン・ミンスキーはブロンクス高等学校の同級生であった。コーネル大学に勤務。ボートを漕いでいるときに事故に遭い死去した。 神経生理学者・外科医であるウォーレン・マカロックと論理学者・数学者であるウォルター・ピッツによって、形式ニューロンというモデルが考えられた。ローゼンブラットはこの形式ニューロンの考え方を基にしてパーセプトロンを開発した。 1958年に論文を発表した。.
新しい!!: ニューラルネットワークとフランク・ローゼンブラット · 続きを見る »
ドナルド・ヘッブ
ドナルド・ヘッブ(Donald Olding Hebb、1904年7月22日 - 1985年8月20日)は、カナダの心理学者。神経心理学の開拓者の一人であり、ニューラルネットワーク研究の先駆者でもある。ヘッブの法則でその名を知られる。 神経生理学をもとに人間の学習を説明しようとした。 カナダのノバスコシア州チェスターに生まれる。医師であった両親のもとで英才教育を受ける。作家を志してダルハウジー大学に入学。さらにマギル大学の大学院に進み修士号を取得した。その後、母校の教員や農場労働者など職を転々とする中で、ウィリアム・ジェームズ、ジークムント・フロイト、ジョン・ワトソンらの著作に触れる。これをきっかけに心理学を志し、マギル大学の心理学教室を訪ねて、読むべき本、学ぶべき事柄について手ほどきを受ける。再び教職に戻り、モントリオールの学校で校長をしながらマギル大学の大学院生となる。1931年、大病を患い、病床でチャールズ・シェリントンやイワン・パブロフの著作に触れる。1933年には事故で妻を亡くし、校長をしていた学校も立ち行かなくなる。1934年、シカゴ大学のカール・ラシュレーの研究室に入り、翌年、ラシュレーの異動に伴いハーバード大学に移る。1936年、ハーバード大学にて博士号取得。フロリダのヤーキーズ霊長類研究所にて知覚や学習についての神経学的研究を行なう。1937年、再婚してモントリオールに戻り、モントリオール神経学研究所のワイルダー・ペンフィールドのもとで頭部損傷やロボトミーによる心理的影響の研究を行なう。1947年、マギル大学心理学教授。.
新しい!!: ニューラルネットワークとドナルド・ヘッブ · 続きを見る »
ニューロコンピュータ
ニューロコンピュータとは、脳を構成する神経細胞が神経回線網を張り巡らせることで情報処理を司るという動作を基本原理とするコンピュータである。非ノイマン型方式。 ニューラルネットワーク制御(知的制御の1つ。システムの入出力信号をもとにしてニューラルネットによって非線形な入出力関係を再現し、それを制御対象とする制御手法。)を基礎理論とする。.
新しい!!: ニューラルネットワークとニューロコンピュータ · 続きを見る »
ホップフィールド・ネットワーク
ホップフィールド・ネットワーク (Hopfield network) は、ニューラルネットワークの一モデルである。 アメリカ合衆国の物理学者であるジョン・ホップフィールド (J.J. Hopfield) が提唱した。ユニット(ニューロン)間に対称的な相互作用がある非同期型ネットワークであり、自然な操作によってネットワークのエネルギーが極小値をとる。元はスピンの安定条件をもとめるモデルとして発想されたものであったが、ネットワークによる連想記憶のモデルとして歓迎され、ニューラルネットブームの火付け役の一つとなり、また後のボルツマンマシンの元ともなった。これは統計的な変動をもちいて、エネルギーが極小値ではなく最小値をとることを目指すモデルである。.
新しい!!: ニューラルネットワークとホップフィールド・ネットワーク · 続きを見る »
ベイジアンネットワーク
ベイジアンネットワーク(Bayesian network)は、因果関係を確率により記述するグラフィカルモデルの1つで、複雑な因果関係の推論を有向非巡回グラフ構造により表すとともに、個々の変数の関係を条件つき確率で表す確率推論のモデルである。ネットワークとは重み付けグラフのこと。 ジューディア・パールが1985年に命名した。ジューディア・パールはこの研究の功績によりチューリング賞を受賞した。 人工知能の分野では、ベイジアンネットワークを確率推論アルゴリズムとして1980年頃から研究が進められ、既に長い研究と実用化の歴史がある。.
新しい!!: ニューラルネットワークとベイジアンネットワーク · 続きを見る »
ベクトル
ベクトル()またはベクター() ベクトルは Vektor に由来し、ベクターは vector に由来する。物理学などの自然科学の領域ではベクトル、プログラミングなどコンピュータ関係ではベクターと表記される、という傾向が見られることもある。また、技術文書などではしばしばJIS規格に準拠する形で、長音を除いたベクタという表記が用いられる。 は「運ぶ」を意味するvehere に由来し、18世紀の天文学者によってはじめて使われた。 ベクトルは通常の数(スカラー)と区別するために矢印を上に付けたり(例: \vec,\ \vec)、太字で書いたりする(例: \boldsymbol, \boldsymbol)が、分野によっては矢印も太字もせずに普通に書くこともある(主に解析学)。 ベクトル、あるいはベクターに関する記事と用法を以下に挙げる。.
新しい!!: ニューラルネットワークとベクトル · 続きを見る »
アダマール積
数学におけるアダマール積(Hadamard product)は、同じサイズの行列に対して成分ごとに積を取ることによって定まる行列の積である。要素ごとの積(element-wise product)、シューア積(Schur product)、点ごとの積(pointwise product)、成分ごとの積(entrywise product)などとも呼ばれる。 ジャック・アダマールやイサイ・シューアらの貢献があり、名称はそれに因むものである。 アダマール積は結合的かつ通常の行列の和(成分ごとの和)に対して分配的であり、かつ通常の行列の積とは異なり(係数環が可換ならば)常に可換である。.
新しい!!: ニューラルネットワークとアダマール積 · 続きを見る »
ウォルター・ピッツ
ウォルター・ピッツ ウォルター・ピッツ(Walter J. Pitts, 1923年4月23日 - 1969年5月14日)は、論理学者・数学者。 ミシガン州・デトロイト生まれ。シカゴ大学で論理学を学び、ジェローム・レトビンやウォーレン・マカロックに出会う。マサチューセッツ工科大学に勤務。 1943年、神経生理学者・外科医のウォーレン・マカロックと共に、形式ニューロンというモデルを考えた。.
新しい!!: ニューラルネットワークとウォルター・ピッツ · 続きを見る »
ウォーレン・マカロック
ウォーレン・スタージス・マカロック(Warren Sturgis McCulloch、1898年11月16日 - 1969年9月24日)は、アメリカ合衆国の神経生理学者で外科医。マカラック、マッカロとも表記される。 ベルビュー病院、ロックランド州立病院、イリノイ大学、マサチューセッツ工科大学リサーチエレクトロニクス研究所に勤務。 数学・論理学・心理学などに関する教養も深かった。 1943年、論理学者・数学者のウォルター・ピッツと共に、形式ニューロンというモデルを考えた。.
新しい!!: ニューラルネットワークとウォーレン・マカロック · 続きを見る »
オライリー
ライリー(O'Reilly)は、アイルランド系の姓。オレイリーとも呼ばれる。同義語にライリー(Reilly)がある。一見、ドイツ語風の姓の綴りに見えるが、正真正銘のアイルランド系の姓である。.
新しい!!: ニューラルネットワークとオライリー · 続きを見る »
オートエンコーダ
ートエンコーダ(自己符号化器、autoencoder)とは、機械学習において、ニューラルネットワークを使用した次元圧縮のためのアルゴリズム。2006年にジェフリー・ヒントンらが提案した。線形の次元圧縮としては主成分分析があるが、オートエンコーダはニューラルネットワークを使用する。.
新しい!!: ニューラルネットワークとオートエンコーダ · 続きを見る »
クラスタリング
ラスタリン.
新しい!!: ニューラルネットワークとクラスタリング · 続きを見る »
コネクトーム
ネクトーム(connectome)とは、生物の神経系内の各要素(ニューロン、ニューロン群、領野など)の間の詳細な接続状態を表した地図、つまり神経回路の地図のこと。つながる、接続するといった意味を持つ英語のコネクト(connect)という言葉と、「全体」を表す-オーム(-ome)という接尾語から作られた言葉。人間の神経回路地図全体のことを言うときは特にヒト・コネクトーム(Human connectome)と名付けられている。また、コネクトームの調査、研究を行う分野はコネクトミクスと呼ばれる。.
新しい!!: ニューラルネットワークとコネクトーム · 続きを見る »
コネクショニズム
ネクショニズム(connectionism)とは、人工知能研究においてニューラルネットワークモデルに基づいた知能体を実現・実装する立場のこと。あるいは認知科学・心理学において、同モデルでのシミュレーションなどの研究手法によって人間の認知や行動をモデル化しようとする立場のことである。コネクショニズムモデルに基づいた研究アプローチを取る研究者をコネクショニスト(connectionist)という。 例えば1980年代のデビッド・ラメルハートとジェームズ・マクレランドによるPDPモデル(並列分散処理)の研究はその代表的なものの1つである。.
新しい!!: ニューラルネットワークとコネクショニズム · 続きを見る »
シナプス
ナプス(synapse)は、神経細胞間あるいは筋繊維(筋線維)、神経細胞と他種細胞間に形成される、シグナル伝達などの神経活動に関わる接合部位とその構造である。化学シナプス(小胞シナプス)と電気シナプス(無小胞シナプス)、および両者が混在する混合シナプスに分類される。シグナルを伝える方の細胞をシナプス前細胞、伝えられる方の細胞をシナプス後細胞という。又は日本のインディーズバンドを指す。.
新しい!!: ニューラルネットワークとシナプス · 続きを見る »
シミュレーション
ミュレーション()は、何らかのシステムの挙動を、それとほぼ同じ法則に支配される他のシステムやコンピュータなどによって模擬すること広辞苑第6版。simulationには「模擬実験」や「模擬訓練」という意味もある。なお「シミュレイション」と表記することもまれにある。.
新しい!!: ニューラルネットワークとシミュレーション · 続きを見る »
シーモア・パパート
ーモア・パパート シーモア・パパート(Seymour Papert、1928年3月1日 - 2016年7月31日)は、南アフリカ出身のアメリカの数学者、計算機科学者、発達心理学者。 南アフリカのプレトリアで生まれ、アメリカに移住した。マサチューセッツ工科大学に勤務する。マーヴィン・ミンスキーとともに、単純パーセプトロンは線形分離できないパターンを識別できないことを指摘した。 心理学者のジャン・ピアジェと交流があり、プログラミング言語のLOGOを開発した。 2016年7月31日、メイン州の自宅で死去。88歳没。.
新しい!!: ニューラルネットワークとシーモア・パパート · 続きを見る »
シグモイド関数
モイド関数(シグモイドかんすう、sigmoid function)は、 で表される実関数である。なお、a をゲイン (gain) と呼ぶ。 狭義には、ゲインが1の標準シグモイド関数 (standard sigmoid function) をさす。 以下は広義のシグモイド関数について述べる。標準シグモイド関数については、 a.
新しい!!: ニューラルネットワークとシグモイド関数 · 続きを見る »
ジョン・ホップフィールド
ョン・ホップフィールド(英: John Joseph Hopfield、1933年7月15日 - )は、アメリカ合衆国の物理学者、生物学者。1982年に「連想型ニューラルネットワーク」の発明でよく知られており、これは現在ではホップフィールド・ネットワークと呼ばれている。 現在、プリンストン大学で分子生物学の教授を務めるとともに、アメリカ物理学会の会長も務めている。以前は、プリンストン大学で物理学部で教えていたこともあり、カリフォルニア工科大学でも教鞭をとったことがある。1954年、スワースモア大学で物理学の学士号を取得し、1958年、コーネル大学で物理学の博士号を取得した。.
新しい!!: ニューラルネットワークとジョン・ホップフィールド · 続きを見る »
ジェフリー・ヒントン
ェフリー・ヒントン(Geoffrey Everest Hinton、1947年12月6日 - )は、イギリス生まれのコンピュータ科学および認知心理学の研究者。ニューラルネットワークの研究で有名。現在は、トロント大学とGoogleで働いている。 彼は、ニューラルネットワークのバックプロパゲーション、ボルツマンマシン、オートエンコーダ、ディープ・ビリーフ・ネットワークの開発者の1人であり、オートエンコーダやディープ・ビリーフ・ネットワークは深層学習になった。.
新しい!!: ニューラルネットワークとジェフリー・ヒントン · 続きを見る »
サポートベクターマシン
ポートベクターマシン(support vector machine, SVM)は、教師あり学習を用いるパターン認識モデルの一つである。分類や回帰へ適用できる。1963年に Vladimir N. Vapnik, Alexey Ya.
新しい!!: ニューラルネットワークとサポートベクターマシン · 続きを見る »
冪乗
冪演算(べきえんざん、英: 独: 仏: Exponentiation)は、底 (base) および冪指数 (exponent) と呼ばれる二つの数に対して定まる数学的算法である。通常は、冪指数を底の右肩につく上付き文字によって示す。自然数 を冪指数とする冪演算は累乗(るいじょう、repeated multiplication) に一致する。 具体的に、 および冪指数 を持つ冪 (power) は、 が自然数(正整数)のとき、底の累乗 で与えられる。このとき は の -乗とか、-次の -冪などと呼ばれる。 よく用いられる冪指数に対しては、固有の名前が与えられているものがある。例えば冪指数 に対して二次の冪(二乗) は の平方 (square of) あるいは -自乗 (-squared) と呼ばれ、冪指数 に対する三次の冪 は の立方 (cube of, -cubed) と呼ばれる。また冪指数 に対して冪 は であり の逆数(あるいは乗法逆元)と呼ばれる。一般に負の整数 に対して底 が零でないとき、冪 はふつう なる性質を保つように と定義される。 冪演算は任意の実数あるいは複素数を冪指数とするように定義を拡張することができる。底および冪指数が実数であるような冪において、底を固定して冪指数を変数と見なせば指数函数が、冪指数を固定して底を変数と見れば冪函数がそれぞれ生じる。整数乗冪に限れば、行列などを含めた非常に多種多様な代数的対象に対してもそれを底とする冪を定義することができるが、冪指数まで同種の対象に拡張するならばその上で定義された自然指数函数と自然対数函数を持つ完備ノルム環(例えば実数全体 や複素数全体 などはそう)を想定するのが自然である。.
新しい!!: ニューラルネットワークと冪乗 · 続きを見る »
創発
創発(そうはつ、英語:emergence)とは、部分の性質の単純な総和にとどまらない性質が、全体として現れることである。局所的な複数の相互作用が複雑に組織化することで、個別の要素の振る舞いからは予測できないようなシステムが構成される。 この世界の大半のモノ・生物等は多層の階層構造を含んでいるものであり、その階層構造体においては、仮に決定論的かつ機械論的な世界観を許したとしても、下層の要素とその振る舞いの記述をしただけでは、上層の挙動は実際上予測困難だということ。下層にはもともとなかった性質が、上層に現れることがあるということ。あるいは下層にない性質が、上層の"実装"状態や、マクロ的な相互作用でも現れうる、ということ。 「創発」は主に複雑系の理論において用いられる用語であるが、非常に多岐にわたる分野でも使用されており、時として拡大解釈されることもある。.
新しい!!: ニューラルネットワークと創発 · 続きを見る »
回帰分析
線形回帰の例 回帰(かいき、)とは、統計学において、Y が連続値の時にデータに Y.
新しい!!: ニューラルネットワークと回帰分析 · 続きを見る »
回路
回路(かいろ)は、エネルギー・物質などが出て、再び元の場所に戻るまでの道筋のこと。.
新しい!!: ニューラルネットワークと回路 · 続きを見る »
確率的勾配降下法
率的勾配降下法(かくりつてきこうばいこうかほう、stochastic gradient descent, SGD)とは、連続最適化問題に対する勾配法の乱択アルゴリズム。目的関数が、微分可能な和の形である事が必要。バッチ学習である最急降下法をオンライン学習に改良した物。.
新しい!!: ニューラルネットワークと確率的勾配降下法 · 続きを見る »
神経科学
経科学(しんけいかがく、)とは、神経系に関する研究を行う自然科学の一分野である。研究の対象として、神経系の構造、機能、発達、遺伝学、生化学、生理学、薬理学、栄養学および病理学などがある。この分野は生物学の一部門であるが、近年になって生物学のみならず心理学、コンピュータ科学、統計学、物理学、医学など多様な学問分野からの注目を集めるようになった。研究者数の増加も目覚しい。神経科学者の用いる研究手法は近年大幅に増加しており、単一の神経細胞やそれらを構成する物質の組成・動態を調べるものから、思考中の脳内の活動を可視化する技術まで多岐に渡る。 神経科学は脳と心の研究の最先端に位置する。神経系の研究は、人間がどのように外界を知覚し、またそれと相互作用するのかを理解するための基盤となりつつある。 ニューヨーク大学の心理学教授氏は「神経科学という学問には様々な方法論的課題が残っている」、「新聞で一面に大きく記載される様な研究はほとんど出鱈目であり、一流の神経科学者たちの研究は世間の注目を集めることはあまりない」と注意した。.
新しい!!: ニューラルネットワークと神経科学 · 続きを見る »
生物学
生物学(せいぶつがく、、biologia)とは、生命現象を研究する、自然科学の一分野である。 広義には医学や農学など応用科学・総合科学も含み、狭義には基礎科学(理学)の部分を指す。一般的には後者の意味で用いられることが多い。 類義語として生命科学や生物科学がある(後述の#「生物学」と「生命科学」参照)。.
新しい!!: ニューラルネットワークと生物学 · 続きを見る »
甘利俊一
利 俊一(あまり しゅんいち、1936年1月3日 - )は、日本の神経科学者、計算論的神経科学研究者。情報幾何学の創始者でもある。 独立行政法人理化学研究所脳科学総合研究センター特別顧問・公立はこだて未来大学客員教授、東京大学名誉教授。.
新しい!!: ニューラルネットワークと甘利俊一 · 続きを見る »
畳み込みニューラルネットワーク
機械学習において、畳み込みニューラルネットワーク(たたみこみニューラルネットワーク、Convolutional neural network、略称: CNNまたはConvNet)は、人工ディープニューラルネットワークの一種である。画像や動画認識に広く使われているモデルである。 CNNは最小限のしか必要としないように設計された多層パーセプトロンのバリエーションを使用する。CNNは、その重み(行列の)共有構造と並進不変特性に基づいて、シフト不変(shift invariant)あるいは位置不変(space invariant)人工ニューラルネットワーク(SIANN)とも呼ばれている。 畳み込みネットワークは生物学的過程から発想を得た。畳み込みネットワーク中のニューロン間の結合パターンは、動物の視覚野の配置から着想を得ている。の限定された領域における刺激にのみ応答する個々の皮質ニューロンは受容野と呼ばれる。異なるニューロンの受容野は全視野を覆うように部分的に重なり合っている。 CNNは他の画像分類アルゴリズムと比較して比較的小さい全処理を用いる。これは、CNNが、伝統的なアルゴリズムでは人の手で設計されていたフィルターを学習することを意味する。この特徴量設計における予備知識と人間の努力からの独立がCNNの大きな利点である。 CNNは画像・動画認識やレコメンダシステム、自然言語処理に応用されている。.
新しい!!: ニューラルネットワークと畳み込みニューラルネットワーク · 続きを見る »
階層構造
階層構造(かいそうこうぞう、hierarchy、ヒエラルキー)は、ある事象や認識対象の構造が、高層建築物のように、各階を、下層から上層へと順に積み重ねて全体を構成している場合の構造である。あるいは、積み木構造ともいえる。 また、ある要素が複数集まることでひとつのユニット(集合体)を形成し、そのユニットが複数集まることでさらに大きなひとつの大ユニットを形成し、その大ユニットが……という構造も、階層構造である。.
新しい!!: ニューラルネットワークと階層構造 · 続きを見る »
行列
数学の線型代数学周辺分野における行列(ぎょうれつ、matrix)は、数や記号や式などを行と列に沿って矩形状に配列したものである。行の数と列の数が同じ行列はが成分ごとの計算によって与えられる。行列の積の計算はもっと複雑で、2 つの行列がかけ合わせられるためには、積の左因子の列の数と右因子の行の数が一致していなければならない。 行列の応用として顕著なものは一次変換の表現である。一次変換は のような一次関数の一般化で、例えば三次元空間におけるベクトルの回転などは一次変換であり、 が回転行列で が空間の点の位置を表す列ベクトル(1 列しかない行列)のとき、積 は回転後の点の位置を表す列ベクトルになる。また 2 つの行列の積は、2 つの一次変換の合成を表現するものとなる。行列の別な応用としては、連立一次方程式の解法におけるものである。行列が正方行列であるならば、そのいくつかの性質は、行列式を計算することによって演繹することができる。例えば、正方行列が正則であるための必要十分条件は、その行列式の値が非零となることである。固有値や固有ベクトルは一次変換の幾何学に対する洞察を与える。行列の応用は科学的な分野の大半に及び、特に物理学において行列は、電気回路、光学、量子力学などの研究に利用される。コンピュータ・グラフィックスでは三次元画像の二次元スクリーンへの投影や realistic-seeming motion を作るのに行列が用いられる。は、古典的な解析学における微分や指数関数の概念を高次元へ一般化するものである。 主要な数値解析の分野は、行列計算の効果的なアルゴリズムの開発を扱っており、主題は何百年にもわたって今日では研究領域も広がっている。行列の分解は、理論的にも実用的にも計算を単純化するもので、アルゴリズムは正方行列や対角行列などといった行列の特定の構造に合わせて仕立てられており、有限要素法やそのほかの計が効率的に処理される。惑星運動論や原子論では無限次行列が現れる。関数のテイラー級数に対して作用する微分の表現行列は、無限次行列の簡単な例である。.
新しい!!: ニューラルネットワークと行列 · 続きを見る »
行列の乗法
数学において、行列の対から別の行列を作り出す二項演算としての行列の乗法は、実数や複素数などの数が初等的な四則演算でいうところの乗法を持つことと対照的に、そのような「数の配列」の間の乗法として必ずしも一意的な演算を指しうるものではない。そのような意味では、一般に「行列の乗法」は幾つかの異なる二項演算を総称するものと考えることができる。行列の乗法の持つ重要な特徴には、与えられた行列の行および列の数(行列の型やサイズあるいは次元と呼ばれるもの)が関係して、得られる行列の成分がどのように特定されるかが述べられるということが挙げられる。 例えば、ベクトルの場合と同様に、任意の行列に対してスカラーを掛けるという操作が、その行列の全ての成分に同じ数を掛けるという方法で与えられる。また、の場合と同様に、同じサイズの行列に対して成分ごとの乗法を入れることによって定まる行列の積はアダマール積と呼ばれる。それ以外にも、二つの行列のクロネッカー積は区分行列として得られる。 このようにさまざまな乗法が定義できるという事情の中にあっても、しかし最も重要な行列の乗法は連立一次方程式やベクトルの一次変換に関するもので、応用数学や工学へも広く応用がある。これは通例、行列の積(ぎょうれつのせき、matrix product)と呼ばれるもので、 が 行列で、 が 行列ならば、それらの行列の積 が 行列として与えられ、その成分は の各行の 個の成分がそれぞれ順番に の各列の 個の成分と掛け合わされる形で与えられる(後述)。 この通常の積は可換ではないが、結合的かつ行列の加法に対して分配的である。この行列の積に関する単位元(数において を掛けることに相当するもの)は単位行列であり、正方行列は逆行列(数における逆数に相当)を持ち得る。行列の積に関して行列式は乗法的である。一次変換や行列群あるいは群の表現などの理論を考える上において行列の積は重要な演算となる。 行列のサイズが大きくなれば、二つあるいはそれ以上の行列の積の計算を定義に従って行うには、非常に膨大な時間が掛かるようになってしまうため、効果的に行列の積を計算できるアルゴリズムが考えられてきた。.
新しい!!: ニューラルネットワークと行列の乗法 · 続きを見る »
複素解析
数学の分科である複素解析(ふくそかいせき、complex analysis)は、複素数の関数に関わる微分法、積分法、変分法、微分方程式論、積分方程式論、複素函数論などの総称である。初等教育で扱う実解析に対比して複素解析というが、現代数学の基礎が複素数であることから、単に解析といえば複素解析を意味することが多い。複素解析の手法は、応用数学を含む数学、理論物理学、工学などの多くの分野で用いられている。.
新しい!!: ニューラルネットワークと複素解析 · 続きを見る »
複素数
数学における複素数(ふくそすう、complex number)は、実数の対 と と線型独立な(実数ではない)要素 の線型結合 の形に表される数(二元数: 実数体上の二次拡大環の元)で、基底元 はその平方が になるという特別な性質を持ち虚数単位と呼ばれる。 複素数全体の成す集合を太字の あるいは黒板太字で と表す。 は、実数全体の成す集合 と同様に、可換体の構造を持ち、とくに を含む代数閉体を成す。複素数体はケイリー–ディクソン代数(四元数、八元数、十六元数など)の基点となる体系であり、またさまざまな超複素数系の中で最もよく知られた例である。 複素数の概念は、一次元の実数直線を二次元の複素数平面に拡張する。複素数は自然に二次元平面上に存在すると考えることができるから、複素数全体の成す集合上に自然な大小関係(つまり全順序)をいれることはできない。すなわち は順序体でない。 ある数学的な主題や概念あるいは構成において、それが複素数体を基本の体構造として考えられているとき、そのことはしばしばそれら概念等の名称に(おおくは接頭辞「複素-」を付けることで)反映される。例えば、複素解析、複素行列、複素(係数)多項式、複素リー代数など。.
新しい!!: ニューラルネットワークと複素数 · 続きを見る »
計算複雑性理論
計算複雑性理論(けいさんふくざつせいりろん、computational complexity theory)とは、計算機科学における計算理論の一分野であり、アルゴリズムのスケーラビリティや、特定の計算問題の解法の複雑性(計算問題の困難さ)などを数学的に扱う。計算量理論、計算の複雑さの理論、計算複雑度の理論ともいう。.
新しい!!: ニューラルネットワークと計算複雑性理論 · 続きを見る »
計算論的神経科学
計算論的神経科学(けいさんろんてきしんけいかがく、英語:computational neuroscience)は、脳を情報処理機械に見立ててその機能を調べるという脳研究の一分野である。先駆的業績はマッカロクとピッツの形式ニューロンモデル、ホジキンとハクスレー(ノーベル賞受賞)などがあるが、当時は計算論的神経科学という言い方はなかった。他の先駆者にマイケル・アービブや甘利俊一などがいる。特に視覚の計算理論で知られるデビッド・マーの功績で現代的計算論的神経科学が確立した。 デビッド・マーは彼の著書"Vision"の中で、脳を理解するためには異なる3つのレベルでの理解が必要であると主張し、情報処理システムとしての脳を研究するための指針を与えた。3つのうち最上位のレベルは抽象的な計算理論である。そこでは、計算の目的は何か、何故それが適切なのか、そしてその実行可能な方略の論理は何なのかということが問われる。また、最下層のレベルはハードウェアのレベルであり、明らかとなった計算問題がどのような物理的な機構により解かれているかというものだ。具体的には神経細胞や神経回路などが対象となる。さらに、この上位の計算理論と下位のハードウェアのレベルをつなぐ概念としてアルゴリズムと表現というレベルがある。これは、脳に入出力される情報の表現および入力から出力に変換するのに用いられるアルゴリズムについてのレベルで、上位の計算理論がハードウェアの上でどのように実現されるのかを理解しようとする。マーによる以上のようなレベルを意識して、上位のレベルから研究を行うアプローチを計算論的神経科学という。.
新しい!!: ニューラルネットワークと計算論的神経科学 · 続きを見る »
認知アーキテクチャ
認知アーキテクチャとは、言わば知的エージェントの設計図である。何らかの認知システム、多くの場合人間のように行動する人工的に計算可能なプロセスやある種の知能を示す行動をするプロセスを作るための設計図である。認知アーキテクチャは汎用のエージェントアーキテクチャの上位概念でもある。「アーキテクチャ」と呼ばれるのは、振る舞いのモデル化だけでなくシステムの構造的な観点のモデル化も含むことを意味している。.
新しい!!: ニューラルネットワークと認知アーキテクチャ · 続きを見る »
認知科学
認知科学(にんちかがく、英語:cognitive science)は、情報処理の観点から知的システムと知能の性質を理解しようとする研究分野。認知科学は以下に挙げる諸学問の学際領域である。.
新しい!!: ニューラルネットワークと認知科学 · 続きを見る »
超平面
初等幾何学における超平面(ちょうへいめん、hyperplane)の概念は、二次元の平面をそれ以外の次元へ一般化するものである。''n''-次元空間における超平面とは、次元が n − 1 の平坦な部分空間をいう。その特質として、一つの超平面は全体空間を二つの半空間に分割する。.
新しい!!: ニューラルネットワークと超平面 · 続きを見る »
転置行列
転置行列(てんちぎょうれつ、transpose, transposed matrix)とは 行 列の行列 に対して の 要素と 要素を入れ替えた 行 列の行列、つまり対角線で成分を折り返した行列のことである。転置行列は などと示される。行列の転置行列を与える操作のことを転置(てんち、transpose)といい、「 を転置する」などと表現する。.
新しい!!: ニューラルネットワークと転置行列 · 続きを見る »
脳科学
脳科学(のうかがく、)とは、ヒトを含む動物の脳と、それが生み出す機能について研究する学問分野である。対象とする脳機能としては視覚認知、聴覚認知など感覚入力の処理に関するもの、記憶、学習、予測、思考、言語、問題解決など高次認知機能と呼ばれるもの、情動に関するものなどである。.
新しい!!: ニューラルネットワークと脳科学 · 続きを見る »
自己組織化写像
自己組織化写像(じこそしきかしゃぞう、Self-organizing maps, SOM, Self-organizing feature maps, SOFM)はニューラルネットワークの一種であり、大脳皮質の視覚野をモデル化したものである。自己組織化写像はコホネンによって提案されたモデルであり、教師なし学習によって入力データを任意の次元へ写像することができる。主に1~3次元への写像に用いられ、多次元のデータの可視化が可能である。出力となる空間をマップ (map)、競合層 (competitive layer)、もしくは出力層 (output layer) と呼ぶ。出力層に対して入力データの空間を入力層(input layer)と呼ぶこともある。自己組織化写像はコホネンマップ (Kohonen map)、コホネンネットワーク (Kohonen network)、自己組織化マップ、ソム (SOM) などと呼ぶこともある。 自己組織化写像は複数の人工ニューロンが接続された構造である。この人工ニューロンはノード (node)、もしくはユニット (unit) と呼ぶこともある。.
新しい!!: ニューラルネットワークと自己組織化写像 · 続きを見る »
Neuroevolution
Neuroevolution または Neuro-evolution は人工ニューラルネットワークの学習に遺伝的アルゴリズムを用いる機械学習の手法である。ネットワークの性能を測るのが容易であるが、教師あり学習を用いて正しい入力と出力の対の概要を作るのが困難または不可能であるゲームやロボットのモーター制御するようなアプリケーションに有効である。ニューラルネットワークの学習の分類体系では強化学習に属する。.
新しい!!: ニューラルネットワークとNeuroevolution · 続きを見る »
Python
Python(パイソン)は、汎用のプログラミング言語である。コードがシンプルで扱いやすく設計されており、C言語などに比べて、さまざまなプログラムを分かりやすく、少ないコード行数で書けるといった特徴がある。.
新しい!!: ニューラルネットワークとPython · 続きを見る »
機械学習
機械学習(きかいがくしゅう、machine learning)とは、人工知能における研究課題の一つで、人間が自然に行っている学習能力と同様の機能をコンピュータで実現しようとする技術・手法のことである。.
新しい!!: ニューラルネットワークと機械学習 · 続きを見る »
正則化
正則化(せいそくか、regularization)とは、数学・統計学において、特に機械学習と逆問題でよく使われるが、機械学習で過学習を防いだり、逆問題での不良設定問題を解くために、追加の項を導入する手法である。モデルの複雑さに罰則を科すために導入され、なめらかでないことに罰則をかけたり、パラメータのノルムの大きさに罰則をかけたりする。 正則化の理論的正当化はオッカムの剃刀にある。ベイジアンの観点では、多くの正則化の手法は、モデルのパラメータの事前情報にあたる。.
新しい!!: ニューラルネットワークと正則化 · 続きを見る »
活動電位
活動電位(かつどうでんい、)は、なんらかの刺激に応じて細胞膜に生じる一過性の膜電位の変化である。活動電位は、主としてナトリウムイオン、カリウムイオンが、細胞内外の濃度差に従い、イオンチャネルを通じて受動的拡散を起こすことにより起きるものである。 活動電位は動物の本質的な必要条件であり、素早く組織間・内で情報を伝えることができる。また、動物のみならず、植物にも存在する。活動電位は様々な種類の細胞から生み出されるが、最も広範には神経系に於いて、神経細胞同士や、神経細胞から筋肉や腺などの他の体組織に情報を伝達するために使われる。 活動電位は全ての細胞で同じわけではなく、同じ種類の細胞でも細胞固体によって性質が異なることがある。例えば、筋肉は神経に次いで活動電位を発する組織として有名だが、中でも心筋活動電位は大抵の細胞間で大きく異なる。この項では神経細胞の軸索の典型的な活動電位について扱う。 '''A.''' 理想的な活動電位の概略図。細胞膜上の一点を通過する際の活動電位の種々相を示す。 '''B.''' 電気ノイズや記録のための電気生理学技術のばらつきにより、実際の活動電位記録は概略図から歪む。.
新しい!!: ニューラルネットワークと活動電位 · 続きを見る »
活性化関数
活性化関数(かっせいかかんすう、activation function)もしくは伝達関数(でんたつかんすう、transfer function)とは、ニューラルネットワークにおいて、線形変換をした後に適用する非線形関数もしくは恒等関数のこと。.
新しい!!: ニューラルネットワークと活性化関数 · 続きを見る »
漸化式
数学における漸化式(ぜんかしき、recurrence relation; 再帰関係式)は、各項がそれ以前の項の函数として定まるという意味で数列を再帰的に定める等式である。 ある種の漸化式はしばしば差分方程式 (difference equation) と呼ばれる。また、「差分方程式」という言葉を単に「漸化式」と同義なものとして扱うことも多い。 漸化式の例として、ロジスティック写像 が挙げられる。このような単純な形の漸化式が、しばしば非常に複雑な(カオス的な)挙動を示すことがあり、このような現象についての研究は非線型解析学などと呼ばれる分野を形成している。 漸化式を解くとは、 添字 n に関する非再帰的な函数として、一般項を表すの式を得ることをいう。.
新しい!!: ニューラルネットワークと漸化式 · 続きを見る »
最適化問題
最適化問題(さいてきかもんだい、optimization problem)とは、特定の集合上で定義された実数値関数または整数値関数についてその値が最小(もしくは最大)となる状態を解析する問題である。数理計画問題(すうりけいかくもんだい、mathematical programming problem, mathematical program)、数理計画とも呼ばれる。実世界の現象の数理的な解析に関わる問題や抽象的な理論の多くをこの最適化問題という一般的なくくりに入れることができる。物理学やコンピュータビジョンにおける最適化問題は、考えている関数をモデル化された系のエネルギーを表すものと見なすことによって、エネルギー最小化問題と呼ばれることもある。.
新しい!!: ニューラルネットワークと最適化問題 · 続きを見る »
放射基底関数
において、各々適当な点に関して球対称となる実数値函数からなる基底を考えるとき、各基底函数は放射基底関数(radial basis function、RBF、動径基底関数)と呼ばれる。一般に、函数 が動径函数あるいは球対称 (radial) であるとは、, すなわちその値が偏角成分に依存せず動径成分(つまり原点からの距離)のみに依存して決まることを言う。従って動径基底函数は適当な点 を中心として、 からの距離のみに依存して決まる。ここで、ノルムはふつうユークリッド距離で考えるが、べつの距離函数を取ることもできる。 動径基底函数の和としての近似の過程は、単純な種類のニューラルネットワークとしても解釈することができる。これはもともとは David Broomhead と David Lowe による1988年の結果(これは1977年に始まるMichael J. D. Powell の独創的な研究: "We would like to thank Professor M.J.D. Powell at the Department of Applied Mathematics and Theoretical Physics at Cambridge University for providing the initial stimulus for this work.": "We would like to thank Professor M.J.D. Powell at the Department of Applied Mathematics and Theoretical Physics at Cambridge University for providing the initial stimulus for this work."-->に由来する)によって表面化した文脈に属する。 動径基底函数はサポートベクターマシンにおけるとしても用いられる。.
新しい!!: ニューラルネットワークと放射基底関数 · 続きを見る »
教師なし学習
教師なし学習(きょうしなしがくしゅう, Unsupervised Learning)とは、機械学習の手法の一つである。「出力すべきもの」があらかじめ決まっていないという点で教師あり学習とは大きく異なる。データの背後に存在する本質的な構造を抽出するために用いられる。 教師あり学習は、その「出力すべきもの」も入力として与える手法であり、データの背後に存在する本質的な構造を抽出するよりむしろ、思い通りの出力を再現する機械の構成に用いられる。 具体的な例として以下のようなものがある。.
新しい!!: ニューラルネットワークと教師なし学習 · 続きを見る »
教師あり学習
教師あり学習(きょうしありがくしゅう, Supervised learning)とは、機械学習の手法の一つである。事前に与えられたデータをいわば「例題(=先生からの助言)」とみなして、それをガイドに学習(=データへの何らかのフィッティング)を行うところからこの名がある。 典型的なものとして分類問題と回帰問題がある。たとえば最も簡単な分類問題である二値分類問題では、訓練データ(例題)が、典型的にはベクトルとラベルの組として、(_1, y_1), (_2, y_2),...
新しい!!: ニューラルネットワークと教師あり学習 · 続きを見る »
ここにリダイレクトされます:
ニューラルネット、ニューラル・ネットワーク、ニューロ、人工ニューラルネットワーク、人工脳、神経細胞網、複素ニューラルネットワーク。