出力仕様
HTTP GET / HTTP POST / HTTP PUT
このドキュメントでは、「HTTP GET / HTTP POST / HTTP PUT」ブロックの出力結果について解説します。
レスポンスの「Content-Type」ヘッダーが「application/json」以外の出力例
以下は、URL 「http://info.cern.ch/hypertext/WWW/TheProject.html」へ「HTTP GET」ブロックでアクセスした結果です。
"\u003cHEADER\u003e\n\u003cTITLE\u003eThe World Wide Web project\u003c/TITLE\u003e\n\u003cNEXTID N=\"55\"\u003e\n\u003c/HEADER\u003e\n\u003cBODY\u003e\n\u003cH1\u003eWorld Wide Web\u003c/H1\u003eThe WorldWideWeb (W3) is a wide-area\u003cA\nNAME=0 HREF=\"WhatIs.html\"\u003e\nhypermedia\u003c/A\u003e information retrieval\ninitiative aiming to give universal\naccess to a large universe of documents.\u003cP\u003e\nEverything there is online about\nW3 is linked directly or indirectly\nto this document, including an \u003cA\nNAME=24 HREF=\"Summary.html\"\u003eexecutive\nsummary\u003c/A\u003e of the project, \u003cA\nNAME=29 HREF=\"Administration/Mailing/Overview.html\"\u003eMailing lists\u003c/A\u003e\n, \u003cA\nNAME=30 HREF=\"Policy.html\"\u003ePolicy\u003c/A\u003e , November's \u003cA\nNAME=34 HREF=\"News/9211.html\"\u003eW3 news\u003c/A\u003e ,\n\u003cA\nNAME=41 HREF=\"FAQ/List.html\"\u003eFrequently Asked Questions\u003c/A\u003e .\n\u003cDL\u003e\n\u003cDT\u003e\u003cA\nNAME=44 HREF=\"../DataSources/Top.html\"\u003eWhat's out there?\u003c/A\u003e\n\u003cDD\u003e Pointers to the\nworld's online information,\u003cA\nNAME=45 HREF=\"../DataSources/bySubject/Overview.html\"\u003e subjects\u003c/A\u003e\n, \u003cA\nNAME=z54 HREF=\"../DataSources/WWW/Servers.html\"\u003eW3 servers\u003c/A\u003e, etc.\n\u003cDT\u003e\u003cA\nNAME=46 HREF=\"Help.html\"\u003eHelp\u003c/A\u003e\n\u003cDD\u003e on the browser you are using\n\u003cDT\u003e\u003cA\nNAME=13 HREF=\"Status.html\"\u003eSoftware Products\u003c/A\u003e\n\u003cDD\u003e A list of W3 project\ncomponents and their current state.\n(e.g. \u003cA\nNAME=27 HREF=\"LineMode/Browser.html\"\u003eLine Mode\u003c/A\u003e ,X11 \u003cA\nNAME=35 HREF=\"Status.html#35\"\u003eViola\u003c/A\u003e , \u003cA\nNAME=26 HREF=\"NeXT/WorldWideWeb.html\"\u003eNeXTStep\u003c/A\u003e\n, \u003cA\nNAME=25 HREF=\"Daemon/Overview.html\"\u003eServers\u003c/A\u003e , \u003cA\nNAME=51 HREF=\"Tools/Overview.html\"\u003eTools\u003c/A\u003e ,\u003cA\nNAME=53 HREF=\"MailRobot/Overview.html\"\u003e Mail robot\u003c/A\u003e ,\u003cA\nNAME=52 HREF=\"Status.html#57\"\u003e\nLibrary\u003c/A\u003e )\n\u003cDT\u003e\u003cA\nNAME=47 HREF=\"Technical.html\"\u003eTechnical\u003c/A\u003e\n\u003cDD\u003e Details of protocols, formats,\nprogram internals etc\n\u003cDT\u003e\u003cA\nNAME=40 HREF=\"Bibliography.html\"\u003eBibliography\u003c/A\u003e\n\u003cDD\u003e Paper documentation\non W3 and references.\n\u003cDT\u003e\u003cA\nNAME=14 HREF=\"People.html\"\u003ePeople\u003c/A\u003e\n\u003cDD\u003e A list of some people involved\nin the project.\n\u003cDT\u003e\u003cA\nNAME=15 HREF=\"History.html\"\u003eHistory\u003c/A\u003e\n\u003cDD\u003e A summary of the history\nof the project.\n\u003cDT\u003e\u003cA\nNAME=37 HREF=\"Helping.html\"\u003eHow can I help\u003c/A\u003e ?\n\u003cDD\u003e If you would like\nto support the web..\n\u003cDT\u003e\u003cA\nNAME=48 HREF=\"../README.html\"\u003eGetting code\u003c/A\u003e\n\u003cDD\u003e Getting the code by\u003cA\nNAME=49 HREF=\"LineMode/Defaults/Distribution.html\"\u003e\nanonymous FTP\u003c/A\u003e , etc.\u003c/A\u003e\n\u003c/DL\u003e\n\u003c/BODY\u003e\n"
info_outline これは単なるウェブページへのアクセスです。「Content-Type」ヘッダーが「text/html」となるため、「レスポンスを格納する変数」へは、ウェブページのデータ(HTML)が格納されています。
レスポンスの「Content-Type」ヘッダーが「application/json」の出力例
以下は、指定した HTTP GET ブロックのプロパティと出力結果の例です。
HTTP GET ブロックのプロパティの例:
プロパティ | 値 | ||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|
URL | https://ja.wikipedia.org/w/api.php | ||||||||||||
クエリーパラメーター |
|
出力結果の例:
{ "batchcomplete": "", "query": { "pages": { "185375": { "pageid": 185375, "ns": 0, "title": "機械学習", "revisions": [ { "contentformat": "text/x-wiki", "contentmodel": "wikitext", "*": "{{機械学習}}\n'''機械学習'''(きかいがくしゅう、{{lang-en-short|machine learning}})とは、[[人工知能]]における研究課題の一つで、人間が自然に行っている[[学習]]能力と同様の機能を[[コンピュータ]]で実現しようとする技術・手法のことである。\n\n== 概要 ==\n[[センサ]]や[[データベース]]などから、ある程度の数のサンプルデータ集合を入力して解析を行い、そのデータから有用な規則、ルール、知識表現、判断基準などを抽出し、[[アルゴリズム]]を発展させる。なお、データ集合を解析するので、[[統計学]]との関連が深い。\n\nそのアルゴリズムは、第一にそのデータが生成した潜在的機構の特徴を捉え、複雑な関係を識別(すなわち定量化)する。第二にその識別したパターンを用いて、新たなデータについて予測を行う。データは、観測された変数群のとりうる関係の具体例と見ることができる。一方、アルゴリズムは、機械[[学習]]者として観測されたデータの部分(訓練例などと呼ぶ)を学習することで、データに潜在する[[確率分布]]の特徴を捉え、学習によって得た知識を用いて、新たな入力データについて知的な決定を行う<ref name=Wernick-Signal-Proc-July-2010>Wernick, Yang, Brankov, Yourganov and Strother, Machine Learning in Medical Imaging, ''IEEE Signal Processing Magazine'', vol. 27, no. 4, July 2010, pp. 25-38 </ref>。\n\n1つの根本的な課題は、観測例に全てのとりうる挙動例を示すあらゆる入力を含めるのは(多くの実用的な関心事の場合)大きすぎて現実的でないという点である。したがって、学習者は与えられた例を一般化して、新たなデータ入力から有用な出力を生成しなければならない<ref name=Wernick-Signal-Proc-July-2010/>。\n\n[[光学文字認識]]では、印刷された活字を事前の例に基づいて自動認識する。これは典型的な機械学習の応用例である<ref name=Wernick-Signal-Proc-July-2010/>。\n\n機械学習は[[検索エンジン]]、[[医療診断]]、[[スパム (メール)|スパムメール]]の検出、金融市場の予測、[[デオキシリボ核酸|DNA]]配列の分類、[[音声認識]]や文字認識などの[[パターン認識]]、ゲーム戦略、[[ロボット]]、など幅広い分野で用いられている。応用分野の特性に応じて学習手法も適切に選択する必要があり、様々な手法が提案されている<ref>それらの手法は、''Machine Learning'' や ''IEEE Transactions on Pattern Analysis and Machine Intelligence'' などの学術雑誌などで発表されることが多い。</ref>。これらの手法は、[[テストデータ]]においての検出・予測性能において評価されることがある。大量のデータから従来にない知見を得るという[[ビッグデータ]]の時代では、特にその応用に期待が集まっている<ref>[http://www.mizuho-ir.co.jp/publication/navis/017/special.html もう一度「ビッグデータ」を考える]</ref>。\n\n=== 定義 ===\n1959年、[[アーサー・サミュエル]]は、機械学習を「明示的にプログラムしなくても学習する能力をコンピュータに与える研究分野」だとした<ref>http://holehouse.org/mlclass/01_02_Introduction_regression_analysis_and_gr.html</ref>。\n\n{{仮リンク|トム・M・ミッチェル|en|Tom M. Mitchell}}は、よく引用されるさらに厳格な定義として「コンピュータプログラムが、ある種のタスクTと評価尺度Pにおいて、経験Eから学習するとは、タスクTにおけるその性能をPによって評価した際に、経験Eによってそれが改善されている場合である」とした<ref> Mitchell, T. (1997). ''Machine Learning'', McGraw Hill. ISBN 0-07-042807-7, p.2.</ref>。\n\n=== 一般化 ===\nこの文脈における一般化とは、学習用データセットを使って訓練した後に、未知の例について正確に判断できるアルゴリズムの能力をいう。学習者の最も重要な目的は、経験から一般化することである<ref>Christopher M. Bishop (2006) ''Pattern Recognition and Machine Learning'', Springer ISBN 0-387-31073-8.</ref>。訓練例は、一般に未知の確率分布に従っており、学習者はそこから新たな例について有用な予測を生み出す何か一般的なもの、その分布に関する何かを引き出す必要がある。\n\n=== 人間との相互作用 ===\n機械学習システムによっては、人間の[[直観]]によるデータ解析の必要性を排除しようとしているが、人間と機械の協調的相互作用を取り入れたものもある。しかし、そもそもシステムのデータ表現方法やデータの特徴を探る機構は、人間が設計したものであり、人間の直観を完全に排除することはできない。\n\n== データマイニングとの関係 ==\n機械学習と[[データマイニング]]は交差する部分が大きく、技法も同じなので混同されることが多いが、次のように定義できる。\n* 機械学習の目的は、訓練データから学んだ「既知」の特徴に基づく予測である。\n* データマイニングの目的は、それまで「未知」だったデータの特徴を[[発見]]することである。\n\nこの2つは、さまざまな面でオーバーラップしている。データマイニングは、機械学習の技法を使うが、その目的は若干異なることが多い。一方、機械学習もデータマイニングの技法を「教師なし学習」として、あるいは学習者の正確性を向上させる前処理として用いる。2つの研究領域は、[[:en:ECML PKDD|ECML PKDD]] という例外はあるが、基本的に学会も学術誌も別々である。それらの間の混同の最大の原因は、それらの基本的前提に由来する。機械学習では、既知の知識を再生成できるかどうかで性能を評価するが、データマイニングではそれまで「未知」だった知識を発見することが重視される。したがって、既知の知識によって評価するなら「教師なしの技法」よりも「教師ありの技法」の方が容易に優れた結果を示すことができる。しかし、典型的なデータマイニングでは、訓練データが用意できないので、「教師ありの技法」を採用することができない。\n\n== アルゴリズムの分類 ==\n機械学習の[[アルゴリズム]]は、要求される結果により以下のように分類される。\n\n; [[教師あり学習]]\n: 入力とそれに対応すべき出力(人間の専門家が訓練例にラベル付けすることで提供されることが多いので'''ラベル'''とも呼ばれる)を写像する関数を生成する。例えば、[[分類 (統計学)|分類]]問題では入力ベクトルと出力に対応する分類で示される例を与えられ、それらを写像する関数を近似的に求める。\n; [[教師なし学習]]\n: 入力のみ(ラベルなしの例)からモデルを構築する。[[データマイニング]]も参照。\n; {{仮リンク|半教師あり学習|en|Semi-supervised learning}}\n: ラベルありの例とラベルなしの例をどちらも扱えるようにしたもので、それによって近似関数または分類器を生成する。\n; [[強化学習]]\n: 周囲の環境を観測することでどう行動すべきかを学習する。行動によって必ず環境に影響を及ぼし、環境から報酬という形でフィードバックを得ることで学習アルゴリズムのガイドとする。例えば[[Q学習]]がある。\n; {{仮リンク|トランスダクション|en|Transduction (machine learning)}}(トランスダクティブ推論)\n: 観測された具体的な(訓練)例から具体的かつ固定の(テスト)例の新たな出力を予測しようとする。\n; {{仮リンク|マルチタスク学習|en|Multi-task learning}}\n: 関連する複数の問題について同時に学習させ、主要な問題の予測精度を向上させる。\n\n== 理論 ==\n機械学習アルゴリズムとその性能についての分析は、[[理論計算機科学]]の一分野であり、{{仮リンク|計算論的学習理論|en|computational learning theory}}と呼ばれている。訓練例は有限であるのに対して、未来は不確かであるため、学習理論は一般にアルゴリズムの性能を保証できない。その代わりに、性能の確率的範囲を与えるのが一般的である。\n\nそれに加えて、学習の[[計算複雑性理論|時間複雑性]]と実現可能性についても研究している。計算論的学習理論では、[[多項式時間]]で終了する計算を実現可能とみなす。\n\n機械学習と[[統計学]]は、多くの点で似ているが、使用する用語は異なる。\n\n== 技法 ==\n; [[決定木]]学習\n: [[決定木]]を{{仮リンク|予測モデル|en|predictive modelling}}として使用した学習であり、アイテムについての観測をそのアイテムの目標値についての結論とマッピングする。具体例として[[ID3]]や[[Random forest]]がある。\n; {{仮リンク|相関ルール学習|en|Association rule learning}}\n: 大規模データベースにおける変数間の興味深い関係を発見するための技法。\n; [[ニューラルネットワーク]] (NN)\n: 人工ニューラルネットワーク (ANN) とも呼ばれ、生物の[[神経]]ネットワークの構造と機能を模倣するという観点から生まれた学習アルゴリズムである。[[人工神経]]を相互接続したもので計算を構造化し、[[コネクショニズム]]的計算技法で情報を処理する。現代的ニューラルネットワークは[[非線形システム論|非線形]]な[[統計学|統計]]的[[データモデリング]]ツールである。入力と出力の間の複雑な関係をモデル化するのに使われ、データの[[パターン認識]]や観測された変数間の未知の[[同時分布]]における統計的構造を捉えるなどの用途がある。\n; [[遺伝的プログラミング]] (GP)\n: 生物の[[進化]]を模倣した[[進化的アルゴリズム]]に基づく技法であり、ユーザーが定義したタスクを実行する[[プログラム (コンピュータ)|プログラム]]を探索する。[[遺伝的アルゴリズム]]を拡張・特化させたものである。所定のタスクを実行する能力によって[[適応度地形]]を決定し、それによってコンピュータプログラムを最適化させていく機械学習技法である。\n; {{仮リンク|帰納論理プログラミング|en|Inductive logic programming}} (ILP)\n: 例、背景知識、仮説を一様な表現とし、[[論理プログラミング]]を使って学習を規則化する技法である。既知の背景知識と例の集合をコード化して事実の論理データベースとし、全てのポジティブな例を[[論理包含演算|含み]]、ネガティブな例を全く含まない仮説的論理プログラムを生成する。\n; [[サポートベクターマシン]] (SVM)\n: [[分類 (統計学)|分類]]や[[回帰分析|回帰]]に使われる一連の[[教師あり学習]]技法である。訓練例のラベルは[[二値分類]](2つに分類される)であり、訓練アルゴリズムによってモデルを構築し、新たな例がどちらに分類されるかを予測する。\n; [[データ・クラスタリング|クラスタリング]]\n: クラスタリングは、観測された例をクラスタと呼ばれる部分集合に振り分けるもので、振り分けは事前に指示された基準に従って行う。クラスタリングはデータの構造についての仮説(基準)の立て方によって結果が異なる。仮説は「類似尺度」で定義され、「内部コンパクト性」(同一クラスタ内のメンバー間の類似性)や異なるクラスタ間の距離によって評価される。「推定密度」や「グラフ接続性」に基づく技法もある。クラスタリングは[[教師なし学習]]技法であり、[[統計学|統計]]的データ解析でよく使われる。\n; [[ベイジアンネットワーク]]\n: [[確率変数]]群とそれらの{{仮リンク|条件付き独立性|en|conditional independence}}を[[有向非巡回グラフ]] (DAG) で表した[[グラフィカルモデル|確率論的グラフィカルモデル]]である。例えば、病気と症状の関係を確率的に表すことができる。そのネットワークに症状を入力すれば、考えられる病気の一覧を確率付きで出力できる。これを使って[[推論]]と学習を行う効率的アルゴリズムが存在する。\n; [[強化学習]]\n: 「エージェント」が「環境」の中でどのような「行動」をとるべきかを、何らかの長期的「報酬」を最大化するよう決定する。環境の「状態」からエージェントの行動への写像を行う「方針」を求めるのが強化学習アルゴリズムである。正しい入出力例は与えられないし、最適でない行動が明示的に訂正されることもないので、[[教師あり学習]]とは異なる。\n; {{仮リンク|表現学習|en|Feature learning}}\n: [[教師なし学習]]アルゴリズムの一部は、訓練中に提供された入力のよりよい表現を発見しようとする。古典的な例として[[主成分分析]]や[[データ・クラスタリング|クラスタ分析]]がある。入力の持つ情報は保持したまま、分類や予測の前に入力をより便利な表現に変換するアルゴリズムもある。その際に入力データが従っている未知の確率分布から入力を再建できるようにするが、その確率分布においては信じがたい例も忠実に再現する必要はない。例えば{{仮リンク|多様体学習|en|Manifold learning}}アルゴリズムは、何らかの制約下で入力の次元を低く変換して表現する。{{仮リンク|スパースコーディング|en|Sparse coding}}アルゴリズムでは、入力が疎ら(ゼロが多い)という制約下で同様の表現の変換を行う。ニューラルネットワークの[[ディープラーニング|深層学習]]は複数レベルの表現または特徴の階層を発見するもので、低いレベルで抽出した特徴から高いレベルの抽象化した特徴までを求める。知的機械は、観測されたデータを説明する偏差の潜在的要因を解きほぐす表現を学習するものだという主張もある<ref>{{Cite book| title = Learning Deep Architectures for AI | author = Yoshua Bengio | publisher = Now Publishers Inc. | year = 2009 | isbn = 978-1-60198-294-0 | page = 1–3 | url = http://books.google.com/books?id=cq5ewg7FniMC&pg=PA3 }}</ref>。\n\n== 応用分野 ==\n機械学習には以下のような応用分野がある。\n\n{{Col-begin}}\n{{Col-break}}\n* {{仮リンク|機械知覚|en|Machine perception}}\n* [[コンピュータビジョン]] \n* [[自然言語処理]]\n* {{仮リンク|統語的パターン認識|en|Syntactic pattern recognition}}\n* [[検索エンジン]]\n* (人工知能による)[[診断]]\n* [[バイオインフォマティクス]]\n* [[ブレイン・マシン・インタフェース]]\n* [[ケモインフォマティクス]]\n* [[クレジットカード詐欺]]{{enlink|credit card fraud}}の検出\n* [[証券市場]]分析\n* [[塩基配列]]の分類\n* {{仮リンク|シーケンスマイニング|en|Sequence mining}}\n{{Col-break}}\n* [[音声認識]]と[[手書き文字認識]]\n* [[物体認識]] ([[コンピュータビジョン]])\n* {{仮リンク|ストラテジーゲーム|en|Strategy game|label=ゲームプレイ}}\n* [[ソフトウェア工学]]\n* {{仮リンク|適応型ウェブサイト|en|Adaptive website}}\n* {{仮リンク|移動ロボット|en|Robot locomotion}}\n* [[金融工学]]\n* {{仮リンク|構造ヘルスモニタリング|en|Structural health monitoring}}\n* {{仮リンク|感情分析|en|Sentiment analysis}}(意見マイニング)\n* {{仮リンク|感情コンピューティング|en|Affective computing}}\n* [[情報検索]]\n* [[レコメンダシステム]]\n{{Col-end}}\n\n2006年、オンラインDVDレンタル会社[[ネットフリックス]]は、同社の[[レコメンダシステム]]より10%以上高性能な(ユーザーの好みをより正確に予測する)プログラムを捜す競技会 [[:en:Netflix Prize|Netflix Prize]] を開催した。この競技会は数年かけて行われ、AT&T Labs のチームが \"Pragmatic Chaos\" という機械学習プログラムで2009年に優勝し100万ドルを獲得した<ref>[http://www2.research.att.com/~volinsky/netflix/ \"BelKor Home Page\"] research.att.com</ref>。\n\n== ソフトウェア ==\n各種機械学習アルゴリズムを備えた[[ソフトウェアスイート]]として、[[SAS Institute|SAS]]・[[RapidMiner]]・[[:en:LIONsolver|LIONsolver]]・[[:en:KNIME|KNIME]]・[[Weka]]・[[:en:Oracle Data Mining|ODM]]・[[:en:Shogun (toolbox)|Shogun toolbox]]・[[:en:Orange (software)|Orange]]・[[Apache Mahout]]・[[:en:Scikit-learn|scikit-learn]]・[[:en:Mlpy|mlpy]]・[[:en:Monte_Carlo_Machine_Learning_Library|MCMLL]]・[[OpenCV]]・[[XGBoost]]・[[Jubatus]] などがある。\n\n== 学術誌と国際学会 ==\n* ''[[:en:Machine Learning (journal)|Machine Learning]]''(学術誌)\n* ''[[:en:Journal of Machine Learning Research|Journal of Machine Learning Research]]''(学術誌)\n* ''[[:en:Neural Computation|Neural Computation]]''(学術誌)\n* [[:en:International Conference on Machine Learning|International Conference on Machine Learning]] (ICML)(国際学会)\n* [[:en:Conference on Neural Information Processing Systems|Neural Information Processing Systems]] (NIPS)(国際学会)\n\n== 脚注 ==\n{{Reflist|2}}\n\n== 参考文献 ==\n{{Refbegin}}\n* <span>Thomas Mitchell \"Machine Learning\" McGraw-Hill (1997) ISBN 978-0071154673</span> (入門用の教科書) →[http://www.cs.cmu.edu/~tom/mlbook.html サポートページ]\n* <span>Christopher M. Bishop \"Pattern Recognition And Machine Learning\" Springer-Verlag (2006) ISBN 978-0387310732</span> (中上級の教科書) →[http://research.microsoft.com/~cmbishop/PRML/ サポートページ](ここから、第8章 \"Graphical Models\" をpdf形式で入手可能)\n**<span>日本語版「パターン認識と機械学習 - ベイズ理論による統計的予測」シュプリンガージャパン (2007-2008) 上巻:ISBN 978-4431100133 下巻:ISBN 978-4431100317</span> →[http://ibisforest.org/index.php?PRML 日本語版サポートページ]\n* <span>Trevor Hastie, Robert Tibshirani, and Jerome H. Friedman \"The Elements of Statistical Learning: Data Mining, Inference, and Prediction\" Springer-Verlag (2001) ISBN 978-0387952840</span> (高度な内容も含む.数理・統計系の手法が中心) →[http://www-stat.stanford.edu/~tibs/ElemStatLearn/ サポートページ](ここから、全章をpdf形式で入手可能)\n* <span>David MacKay \"Information Theory, Inference, and Learning Algorithms\" (2003) </span> (ベイズ推論を中心に、情報理論と機械学習を包括的にカバーした教科書) →[http://www.inference.phy.cam.ac.uk/mackay/itila/book.html 著者ページ](ここから全文をPDF形式で入手可能)\n* Sergios Theodoridis, Konstantinos Koutroumbas (2009) \"Pattern Recognition\", 4th Edition, Academic Press, ISBN 978-1-59749-272-0.\n* Ethem Alpaydın (2004) ''Introduction to Machine Learning (Adaptive Computation and Machine Learning)'', MIT Press, ISBN 0-262-01211-1\n* Bing Liu (2007), ''[http://www.cs.uic.edu/~liub/WebMiningBook.html Web Data Mining: Exploring Hyperlinks, Contents and Usage Data].'' Springer, ISBN 3-540-37881-2\n* Toby Segaran (2007), ''Programming Collective Intelligence'', O'Reilly, ISBN 0-596-52932-5\n* [[レイ・ソロモノフ|Ray Solomonoff]], \"[http://world.std.com/~rjs/indinf56.pdf An Inductive Inference Machine]\" A privately circulated report from the 1956 [[ダートマス会議|Dartmouth Summer Research Conference on AI]].\n* Ray Solomonoff, ''An Inductive Inference Machine'', IRE Convention Record, Section on Information Theory, Part 2, pp., 56-62, 1957.\n* Ryszard S. Michalski, Jaime G. Carbonell, Tom M. Mitchell (1983), ''Machine Learning: An Artificial Intelligence Approach'', Tioga Publishing Company, ISBN 0-935382-05-4.\n* Ryszard S. Michalski, Jaime G. Carbonell, Tom M. Mitchell (1986), ''Machine Learning: An Artificial Intelligence Approach, Volume II'', Morgan Kaufmann, ISBN 0-934613-00-1.\n* Yves Kodratoff, Ryszard S. Michalski (1990), ''Machine Learning: An Artificial Intelligence Approach, Volume III'', Morgan Kaufmann, ISBN 1-55860-119-8.\n* Ryszard S. Michalski, George Tecuci (1994), ''Machine Learning: A Multistrategy Approach'', Volume IV, Morgan Kaufmann, ISBN 1-55860-251-8.\n* Bishop, C.M. (1995). ''Neural Networks for Pattern Recognition'', Oxford University Press. ISBN 0-19-853864-2.\n* Richard O. Duda, Peter E. Hart, David G. Stork (2001) ''Pattern classification'' (2nd edition), Wiley, New York, ISBN 0-471-05669-3.\n* Huang T.-M., Kecman V., Kopriva I. (2006), [http://learning-from-data.com Kernel Based Algorithms for Mining Huge Data Sets, Supervised, Semi-supervised, and Unsupervised Learning], Springer-Verlag, Berlin, Heidelberg, 260 pp. 96 illus., Hardcover, ISBN 3-540-31681-7.\n* KECMAN Vojislav (2001), [http://support-vector.ws Learning and Soft Computing, Support Vector Machines, Neural Networks and Fuzzy Logic Models], The MIT Press, Cambridge, MA, 608 pp., 268 illus., ISBN 0-262-11255-8.\n* Ian H. Witten and Eibe Frank (2011). ''Data Mining: Practical machine learning tools and techniques'' Morgan Kaufmann, 664pp., ISBN 978-0123748560.\n* Sholom Weiss and Casimir Kulikowski (1991). ''Computer Systems That Learn'', Morgan Kaufmann. ISBN 1-55860-065-5.\n* Mierswa, Ingo and Wurst, Michael and Klinkenberg, Ralf and Scholz, Martin and Euler, Timm: ''YALE: Rapid Prototyping for Complex Data Mining Tasks'', in Proceedings of the 12th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining (KDD-06), 2006.\n* Vladimir Vapnik (1998). ''Statistical Learning Theory''. Wiley-Interscience, ISBN 0-471-03003-1.\n{{Refend}}\n\n== 関連項目 ==\n* [[自動推論]]\n* [[計算知能]]\n* [[計算論的神経科学]]\n* [[認知科学]]\n* [[認知モデル]]\n* [[データマイニング]]\n* [[パターン認識]]\n* [[カーネル法]]\n* [[エンタープライズサーチ]]\n* [[次元の呪い]]\n* [[言語獲得]]\n* [[ワトソン (コンピュータ)]]\n\n== 外部リンク ==\n* [http://www.ai-gakkai.or.jp/jsai/ 人工知能学会]\n* [http://ibisml.org/ 電子情報通信学会 情報論的学習理論と機械学習 (IBISML) 研究会]\n* [http://ibisforest.org/index.php?FrontPage 朱鷺の杜Wiki] 機械学習・データマイニングについてのWiki\n<!--*[http://opencv.jp/ OpenCV.オープンソースのライブラリ]-->\n* [http://www.spice.ci.ritsumei.ac.jp/~thangc/programs/japanese.htm 多層ニューラルネットワークと自己組織化写像のアプリケーション]\n* [http://machinelearning.org/ International Machine Learning Society]\n\n{{統計学}}\n\n{{DEFAULTSORT:きかいかくしゆう}}\n[[Category:機械学習|*]]\n[[Category:人工知能]]\n[[Category:学習]]\n[[Category:サイバネティックス]]" } ] } } } }
info_outline これは、JSON 形式のデータを返す Web API へのアクセスです。「Content-Type」ヘッダーが「application/json」となるため、「レスポンスを格納する変数」へは、メッセージ・ボディをデコードした結果が格納されています。