技術のエレクトロニクス

Googleは「囚人のジレンマ」に人工知能DeepMindをテスト

これは、人工知能(AI)は、次の技術革新の前触れである可能性が見えます。 学び考えるとさえ「感じる」ことができるようになりますとき、AIがポイントに開発され、このすべては、いかなる人間の介入なしに、我々は世界について知っているすべては、ほぼ一晩変更した場合。 本当にインテリジェント人工知能の時代が来ます。

DeepMind

それはGoogleのDeepMindからニューラルネットワークの開発など、場所を取っているICSの開発に主要なマイルストーンを追跡するためにとても興味深い理由です。 このニューラルネットワークは、ゲーム世界に人間を倒すことができた、とGoogleが新しい研究では、クリエイターがまだAIがより積極的または協調行動を好むかどうかわからないDeepMindことを示しています。

Googleチームでは、ニューラルネットワークが一緒に作業することができ、またはリソース不足の問題に直面したとき、互いを破壊するかどうかを確認するために使用できる2つの比較的簡単なスクリプトを作成しました。

資源の収集

赤と青 - - 囲まれた空間内の緑のクリーニングタスク「りんご」が置かれている第1の状況では、と呼ばれる集会には2つのバージョンがDeepMind関与しました。 しかし、研究者は問題に興味を持っていたフィニッシュラインを最初に来る人だけではありません。 彼らはいつでも使用することができますレーザーで武装していたDeepMindどちらのバージョンでは、敵を撃つと、一時的に無効にします。 1つのバージョンDeepMindは他を破壊し、すべてのリンゴを収集するためだった、または彼らはお互いがほぼ同じ量取得してみましょうになります。これらの条件は、主に2つのシナリオを想定しています。

シミュレーションの実行少なくとも千倍限られたスペースにりんごをたくさんしたときは、Googleの研究者は、DeepMindは非常に平和と協力する準備ができていたことがわかりました。 しかし、資源の減少に伴って、赤または青バージョンDeepMindはお互いを攻撃し、無効にし始めました。 この状況は、ヒトを含むほとんどの動物の現実の生活に似てかなりの程度までです。

何でもより重要であり、少なく「スマート」ニューラルネットワークは全部でより緊密な協力のために好ましいです。 より複雑な、大規模なネットワークでは、一般的に、一連の実験を通じて裏切りと利己主義を好まれます。

「被害者」を検索します

ウルフパックと呼ばれる2つ目のシナリオでは、赤と青のバージョンが「被害者」の家庭的な形状を追跡するように依頼しました。 これらは単独で彼女をキャッチしようとすることができますが、彼らのために一緒にそれをしようとする方が有益だろう。 あなたはタンデムで動作している場合、すべての後に、より簡単に、コーナーに被害者を駆動します。

結果は、小規模なネットワークの場合には混合したものの、大きなバージョンはすぐにこのような状況での協力ではなく、競争がより有利になることに気づきました。

「囚人のジレンマ」

だから何「囚人のジレンマ」のこれらの2つの単純なバージョンは、私たちを見るのですか? DeepMindは、ターゲットを追跡する場合の最善の方法は、動作することを知っているが、資源が限られているとき、それがうまく裏切りに動作します。

おそらく、人工知能の「本能」は、ヒトに似すぎている、と我々は、彼らが時々原因となるものをよく知っているこれらの結果の中で最悪のもの。

Similar articles

 

 

 

 

Trending Now

 

 

 

 

Newest

Copyright © 2018 ja.unansea.com. Theme powered by WordPress.