- -pv
スレッドの閲覧状況:
現在、- がスレを見ています。
これまでに合計 - 表示されました。
※PC・スマホの表示回数をカウントしてます。
※24時間表示がないスレのPVはリセットされます。

ニュース

86名無しさん@おーぷん :2017/10/21(土)18:22:14 ID:Stq

【話題】「ドローンで太平洋を横断できたやつが優勝」―というレースが話題、日本から米国へ [H29/10/20]
http://uni.open2ch.net/test/read.cgi/newsplus/1508462395/1-

1 :第13艦隊◆IpxlQ2BXrcdb:2017/10/20(金)10:19:55 ID:???
日本の太平洋側から米国西海岸まで、約8,300kmをドローンで横断するレース「Pacific Drone Challenge」があらためて話題になっている。
休憩なし、無補給、無人での飛行が条件だ。

日本のiROBOTICS、米国のSabrewing Aircraftという2社が9月末に発表し、海外を中心にちょっとした注目を浴びたが、
10月下旬になってまた国内の一部で関心が集まっている。

開催の目的は歴史を作るため。飛行家のチャールズ・リンドバーグが1927年にニューヨークからパリまで大西洋を休憩なしで横断したように、
天候、距離に対するドローンの性能を証明するのが狙いだ。

開催期間などは特に決まっていない。
仙台にあるドローン試験場を出発し、米国サニーベルにあるモフェット飛行場に着陸した最初の機体が優勝となる。
どんなチームでも申し込みができるが、独立した第三者組織による審査を通ったうえで、さらに日本の国土交通省航空局(JCAB)や
米連邦航空局(FAA)などの認証を得る必要があるため、ハードルは低くない。

またドローンの飛行方法として、ロケットや風船などを使うのは禁止となっている。
第二次世界大戦中に、日本が飛ばした風船爆弾が気流に乗って米国に到達した例があるが、残念ながら同じ手は使えないもよう。

(以下略)

exciteニュース/インターネットコム10月19日
http://www.excite.co.jp/News/it_g/20171019/Jic_203600.html
87名無しさん@おーぷん :2018/04/25(水)23:24:09 ID:Zov

宙舞うLED 東大が開発、空中ディスプレーへ応用も(2018/3/5 6:30)
日本経済新聞 2018年4月25日(水) 

https://www.nikkei.com/article/DGXMZO27545260R00C18A3000000/

東京大学と慶応義塾大学は、自由に飛び回りながら光るコメ粒くらいの大きさの発光ダイオード(LED)ライトを開発した。
超音波を使って浮かし、無線で電気を供給してLEDを光らせる。空中に映像を浮かびあがらせるディスプレーなどに応用できるほか、
センサーなどを搭載して飛ばすなどあらゆるモノがネットにつながるIoTの分野で様々な使い方が広がりそうだ。

高宮真東大准教授らが開発したライトは、直径が4ミリメートルの半球形で、プリント基板にLEDやIC、コイルなどの部品を搭載した。
無線で送られた電気でLEDを光らせるICを独自に開発して縦横1ミリメートルに収まるよう小型化。
全体の重さを16ミリグラムと軽くして超音波でも空中に浮くようにした。電磁誘導方式で電気を送り、空中に浮かんだライトを光らせる。

ライトを空中に浮かすために、縦横に17個ずつ289個の小型スピーカーを並べた板を、実験装置の上下に向かい合わせに設置。
上下から出す超音波の収束ビームを利用して空気に密度の濃い部分と薄い部分をつくり出し、ライトを密度の濃い空気に挟むようにして浮かせる。

パソコンからの指示で超音波をコントロールし、空中のライトを上下左右に自由に動かすことができる。
今回の実験装置では電気を送るコイルを中心に上下左右に約5センチメートルの範囲で動く。

また無線で電気を送るので、ライトを動かしながら光をつけたり消したりすることも可能だ。
光を点滅しながら飛ぶ姿からゲンジボタルの学名をもとに「ルシオラ」と名付けられた。

(後略)
88名無しさん@おーぷん :2018/04/25(水)23:54:52 ID:Zov

道具作りをするカラス、老練になるほど「手抜き」の傾向
2017年12月8日 13:49 発信地:マイアミ/米国 【12月8日 AFP】

http://www.afpbb.com/articles/-/3154675

南太平洋のニューカレドニア(New Caledonia)に生息するカラスは、小枝をかぎ針のような形に細工して、
穴の奥に潜む昆虫を捕らえるのに役立つ道具を作り出す能力を持つことで知られている。だが、このカラスが経験を積むと、
この道具作りに対して「手抜き」をする可能性を指摘した研究結果が7日、発表された。

この道具を作る際に、若いカラスは細心の注意を払ってくちばしを駆使するが、
年を取って知恵を身につけたカラスは手順を簡略化して手っ取り早く作る傾向がある。

米科学誌カレント・バイオロジー(Current Biology)に掲載された論文によると、若いカラスでは、
くちばしを使って木の枝を丹念に折ったり切ったりする傾向がみられたが、老練なカラスほど、枝を引き抜くだけといういいかげんな作り方をしていた。
結果、昆虫を引っかける「フック」(かぎ)の部分の構造がより浅かった。

論文の主著者で、英セント・アンドリューズ大学(University of St Andrews)のクリスチャン・ルッツ(Christian Rutz)教授(生物学)はAFPの取材に対し、
フックが深い道具を作るためには時間や労力といったコストが余分にかかるだろうが、経験を積んだ成鳥はこのコストを回避していると考えられると語った。

深いフックは、昆虫をより速く穴から引き出すためには役立つが、「狩り」のあらゆる状況において最善とは言えないかもしれない。
「例えば、非常に狭い穴や隙間に差し込むと、(フックが深い方が)より簡単に壊れてしまう可能性がある」と、ルッツ教授は説明した。

南太平洋に位置するフランスの海外地域ニューカレドニアを原産とする特定のカラスが、
道具作りに関して持つ並外れた能力は、科学者らを長年驚嘆させてきた。

イルカ、ゾウ、チンパンジーに加え、他の鳥類でも道具を使う例が明らかになっているが、
かぎ状の道具を作るのはこのカラスだけだという。

「われわれが知る限り、かぎ状の道具を作ることができるのは、自然界の中でニューカレドニアのカラスと人間だけだ」。
ルッツ教授はさらにこう続けた。
「かぎ状の道具の発明は、人類の技術的進化における大きな節目となっている。
そのためニューカレドニアのカラスは、こうした道具のデザインが生まれる過程や、技術の段階的な進歩について調査する絶好の機会を提供している」
(c)AFP
89名無しさん@おーぷん :2018/04/26(木)00:05:48 ID:VtQ
INSIGHT 2018.01.04 THU 16:00

https://wired.jp/2018/01/04/ai-seeks-an-ethical-conscience/

人工知能を「正しい道」へと導くのは誰か──学会で語られたAIの倫理への懸念

12月上旬に開かれた人工知能(AI)の学会で語られたのは、進化するAIへの懸念だった。
AIがブラックボックス化したまま高度化して医療などに適用されるようになったとき、誰がその判断の正当性を判断できるのか?
研究者たちを悩ませるAIの倫理的問題、そしてその考えうる解決策とは。

2017年12月上旬、人工知能(AI)研究の第一線を走る研究者たちが「Neural Information Processing Systems(NIPS)」カンファレンスに集まった。
今回、彼らのアジェンダには新しいトピックが加えられていた。
最先端の研究発表やパネルディスカッション、ネットワーキングに紛れて並んでいたのは、AIの力に対する懸念だ。


マイクロソフトのリサーチャー、ケイト・クロフォードの基調講演によって、この問題は明確になった。

カリフォルニアのロングビーチに8,000人近くの研究者たちが集まったNIPSは、数学やアルゴリズムが吹き荒れるかなりテクニカルな内容のカンファレンスだ。
しかし、クロフォードのユーモア溢れるトークに方程式はひとつも登場しなかった。
代わりに発されたのは、AIにまつわる倫理への警鐘だ。

クロフォードは参加者たちに、彼らの創造物が意図的・偶発的に起こした弊害を和らげる方法をはやく考えるよう強く求めた。
「いまAIがもつ可能性への期待が膨らんでいるのと同時に、懸念すべき問題も出はじめているのです」

そのひとつは、15年に「Google フォト」が黒人をゴリラとタグ付けした問題だ。
もっと最近の研究では、画像処理アルゴリズムがジェンダーのステレオタイプを覚え、さらにそれを増幅させることもわかっている。

企業や政府がマシンラーニングを刑事司法や金融に応用しようとするなか、
わたしたちが知らないところでもっと問題のあるエラーが生まれようとしていることは確実だと、クロフォードは語った。

「今日わたしが挙げた例は、氷山のほんの一角に過ぎません」と彼女は言う。
クロフォードはマイクロソフトのリーサーチャーであるとともに、AIの社会への影響を研究するニューヨーク大学のAI Now Instituteの共同創設者でもある。
90名無しさん@おーぷん :2018/04/26(木)00:13:04 ID:VtQ
〈AIの非ブラックボックス化〉


パワフルになるAIがはらむマイナス面への懸念は、カンファレンスのそこかしこから見てとれた。

コーネル大学とカリフォルニア大学バークレー校の教授らがメインホールで行ったチュートリアルの焦点は、マシンラーニングにどう公平さを組み込むかだった。
これは、政府がどんどんAIソフトウェアを活用するようになる[日本語版記事]なか出てきた問題だ。

このチュートリアルは研究者たちに、公民権法や遺伝情報差別禁止法といった差別を防ぐための法的障壁を思い出させるものでもあった。
もしマシンラーニングシステムが人種やジェンダーに左右されないようプログラムされていたとしても、その代替としてデータに入っているその人の家の位置を利用する可能性もあるのだ。

研究者のなかにはNIPSで、AIソフトウェアを制約したり監査したりするテクニックを披露する者もいた。
アルファベット傘下のDeepMind(ディープマインド)の研究者であるヴィクトリア・クラノヴァは、「AIセーフティ」についての講演を予定していた。
これは自らの電源が切られるのを阻止しようとするといった想定外の行動や、好ましくない行動をソフトウェアに起こさせないようにするという、新たなタイプの研究だ。

クラノヴァのワークショップのテーマは、マシンラーニングシステムのなかをのぞき、
システムがどう機能しているのかを探る(AI研究者たちは「make it interpretable(解釈可能にする)」と呼ぶ)テクニックだ。
オックスフォード大学の研究者たちもまた、AIセーフティをテーマにしたランチディスカッションを予定していた。

現在多くのマシンラーニングシステムは、どれも基本的にブラックボックス化している。
つくり手たちはAIがどう機能するのかはわかるが、それがある判断を下したときその理由までは説明できないのだ。
これは、グーグルなどの企業[日本語版記事]がマシンラーニングを雇用やヘルスケアといった分野に応用したときに、さらに多くの問題を引き起こしうる。

「医療などの領域でこの技術を使う際には、何かを入れると理由もわからず何かが出てくるブラックボックスのままにしておくわけにはいかないのです」と、
グーグルでマシンラーニングの研究を行っているマイトラ・ラグーは言う。
91名無しさん@おーぷん :2018/04/26(木)00:13:34 ID:VtQ

カンファレンス初日、彼女は同僚たちとともに開発したオープンソースのソフトウェアを紹介した。
このソフトウェアを使えば、マシンラーニングプログラムがデータのどこに目を向けているのか知ることができるという。
ゆくゆくはAIの医療アシスタントが何らかの診断を下したとき、
医師がそのAIがスキャンデータや病歴のどの部分を参考にその診断にたどり着いたのか、確認できるようになるかもしれない。
AIを正しい道へと導くのは誰か

NIPSに集まった者のなかには、人間らしさをもっと反映したAIの開発を願う人たちもいた。
コンピューターサイエンス全般がそうであるように、マシンラーニングはより白人的で、より男性的で、より西洋的な方向へと向かっていっている。
「Women in Machine Learning」は、長年にわたってNIPSと並行して開催されてきたテクニカルカンファレンスだ。

そして今年初めて、そのなかで「Black in AI」と題したワークショップが予定された。
その目的は、この分野で研究を行う非白人たちが自らの成果を発表できる場を用意することだ。

NIPSの共同議長、Women in Machine Learningの共同創設者、マイクロソフトのリサーチャーという肩書をもつハンナ・ウォラックは、
このダイヴァーシティーへの努力が個人とAIテクノロジー両方にとって役に立つと話す。
「視点やバックグラウンドに多様性があれば、あるグループがほかのグループに対してもつバイアスが相互チェックされやすくなるのです」。
つまり、黒人をゴリラと呼ぶようなコードが、世間の目に届きやすくなるということだ。

ウォラックはまた、多様性のあるチームのほうが課題解決の際により幅広いアイデアを考慮するという、行動学の研究結果にも言及した。
92名無しさん@おーぷん :2018/04/26(木)00:13:44 ID:VtQ

最終的には、AI研究者たちが社会において自分たちのアイデアがどう使われるかを決めることはできないし、決めるべきでもない。

「AIの未来を左右する判断は、この分野が生まれた当初と同じ基準によって下されるべきではないのです」と、テラ・リヨンズは言う。
彼女はAIの社会への影響を考察すべく複数のテック企業が2016年に創設したNPO「Partnership on AI」の常任理事だ。
リヨンズは、企業や市民組織、市民、政府がみなこの問題に取り組まなければならないと話す。

アウディから米小売チェーンのターゲットまで、さまざまな企業の求人担当者たちがNIPSに来ていたことからもわかるように、
さまざまな場面で高まるAI研究者の重要度は、研究者たちに異常なほどのパワーを与えている。

クロフォードはトークの終盤で、市民的不服従がAIの使われ方をかたちづくれるのではないかと示唆した。
彼女が挙げたのは、ナチスがフランスにいるユダヤ人を捕まえるために使っていたタビュレーティングマシン(パンチカードシステム)に妨害工作を行ったフランス人エンジニア、ルネ・カミーユの名前だった。
そして、現代のAIエンジニアたちに、自分たちのテクノロジーが越えてはいけないラインを考えるよう呼びかけた。

そして彼女は、聴衆にこう問うた。
「われわれが生み出してはいけないものがあるのではないでしょうか?」
93名無しさん@おーぷん :2018/04/26(木)00:16:59 ID:VtQ

INSIGHT 2017.06.12 MON 08:00

https://wired.jp/2017/06/12/ai-racist-monster/

人工知能が「差別主義者になる」のを防ぐためにできる、4つのこと

長い間テクノロジーは価値中立的な存在だと思われてきたが、そういうわけでもないようだ。
事実、いくつかの人工知能はウェブ上の差別的な情報を取り込んでいくうちにレイシストへと姿を変えてしまったのだから。
どうすれば、こうした悲劇を回避できるのだろうか?


あなたがいま、新しい製品やモバイルサイトなどを発表しようとしているなら、その計画が「アルゴリズムバイアス」のせいで失敗する可能性があることを知っておくべきだ。

ぱっと見では当たり障りのないプログラムが、プログラムの作成者とそこから得られるデータの両方に偏見をもたらすという「アルゴリズムバイアス」。
それは偏ったウェブ検索の結果やデータに基づく住宅ローンの決定、画像認識のソフトウェアに、どぎつい偏見をもち込むわけではない。
それはただ、誰も気がつかないし修正もされない、偏ったデータを取り込むだけだ。

昨年マイクロソフトにその問題をもち込んだのは、あるTwitterボットだった。
「Tay」は18歳〜24歳の層にアピールするようデザインされており、「hellllooooo world!!」(「World」の「o」は地球の絵文字)というノリノリの台詞でSNS上に現れた。

しかし12時間も経たないうちに、Tayは口汚い人種差別主義のホロコースト否定論者に変身し、「フェミニストは地獄で焼かれて死ぬべきだ」とさえ言った。
即刻Twitterから削除されたTayは、ほかのTwitterユーザーの振る舞いを学習するようにプログラミングされており、その意味では成功だった。
Tayが人間の最悪な性質を取り込んだことは、アルゴリズムのバイアスの一例だ。
94名無しさん@おーぷん :2018/04/26(木)00:17:57 ID:VtQ

Tayはテック企業や彼らの主力製品に傷を付けるアルゴリズムバイアスの一例に過ぎない。
2015年、Googleフォトは何人かのアフリカ系アメリカ人ユーザーをゴリラとしてタグ付けし、SNSで非難の嵐を浴びた。

グーグルのチーフ・ソーシャルアーキテクトであるヨナタン・ズンガーは、グーグルは問題解決のためにチームを緊急召集している、とすぐにTwitter上で発表した。
また、アップルの音声アシスタント「Siri」が、女性にとって重大な質問、たとえば「レイプされた。どうしたらいい?」といった質問への回答を知らない、という恥ずかしい話も暴露された。
米国自由人権協会の申し立てやメディアからのバッシングを受け、アップルはこの問題の解決のために行動を起こした。
95名無しさん@おーぷん :2018/04/26(木)00:18:50 ID:VtQ

アルゴリズムバイアスの一番厄介なポイントのひとつは、それを作成するエンジニアが必ずしも人種差別主義者や性差別主義者ではない、という点にある。
テクノロジーがわたしたちよりも中立であるという信念が高まっている時代にとって、これは危険な状況だ。

より多くのアフリカ系アメリカ人やヒスパニックをテックの世界に導いているCode2040の創立者、ローラ・ワイドマン・パワーズは次のように語る。
「多くの場合、機械的な自己学習は制御するのが難しいにもかかわらず、わたしたちは自己学習する人工知能に差別的なツイートを教え込むという危険を冒しているのです」。
96名無しさん@おーぷん :2018/04/26(木)00:20:40 ID:VtQ

アルゴリズムバイアスを防ぐ4つのアイデア

テック業界が人工知能をつくり始めているいま、
わたしたちは今後何年にもわたって決断を下し続けるコードに、人種差別主義やその他の偏見を埋め込んでしまうリスクに直面している。
学習度合いが深ければ深いほど、人間ではなくコード自身がコードを書くため、アルゴリズムバイアスを根絶する必要性はさらに高まる。
開発者たちが不意にバイアスコードを書いたりバイアスデータを使用しないよう、テック企業ができることは4つある。

1つ目は、ゲーム制作から学ぶことだ。
人気ゲーム「リーグ・オブ・レジェンド」には、かつて嫌がらせにまつわるクレームが殺到していたが、数個の小さな変更が苦情を激減させた。
制作会社は報告された嫌がらせ事例に投票し、対象プレイヤーのアカウントを停止すべきか決めさせる権利をプレイヤーに与えたのだ。

すると、ゲーム内でのいじめ行為が激減しただけでなく、
自分たちのオンラインでの行動がどう他人に影響するか以前は考えてもいなかったという意見が、プレイヤーから寄せられた。
問題のあるプレイヤーたちは、舞い戻ってきてまた不快なことを何度も言うのではなく、行いを改善する。
ここでの教訓は、テック系企業がこうしたコミュニティポリシーモデルを、差別への攻撃にも応用できるということだ。
 
+0
-0
97名無しさん@おーぷん :2018/04/26(木)00:21:28 ID:VtQ

2つ目は、新企画や新サイト、新機能の発表前に問題を発見できる人を雇うことだ。
女性や非白人、バイアスに影響されやすい人たちの声は、一般的にテック企業の開発チームには反映されにくい。
しかし、彼らはアルゴリズムにより幅広い種類のデータを与え、不意にバイアスのかかったコードを発見しやすい。
加えて、多様性に富むチームがよりよい製品とより多くの利益を生み出すことは、多数の研究が示している通りだ。
98名無しさん@おーぷん :2018/04/26(木)00:22:05 ID:VtQ

3つ目は、アルゴリズムを監査させること。
最近、カーネギーメロン大学の研究チームは、オンライン広告のアルゴリズムバイアスを明らかにした。
彼らがオンラインで仕事を探す人々のシミュレーションをしたところ、グーグルの広告は男性に対して女性よりも6倍近い頻度で高収入の仕事を提示した。
研究チームは、企業のバイアス削減能力を向上させるには、社内監査が役立つと確信している。
99名無しさん@おーぷん :2018/04/26(木)00:22:40 ID:VtQ

4つ目は、全企業を同ページに集約できるツールと基準の開発を援助することだ。
数年後には、積極的にそして配慮をもってアルゴリズム上の差別削減に取り組む企業への認証が登場するだろう。
現在、EPAが設備の汚染物質除去能力を監査しているおかげで、水が安全に飲めるかどうかわかる。
将来、どのテック企業がバイアス阻止に取り組んでいるかわかるようになるだろう。
100名無しさん@おーぷん :2018/04/26(木)00:23:20 ID:VtQ

テック企業はこうした認証の開発を支援すべきだし、それが出来た場合は取得に努めるべきだ。
同一基準をもてば各部門が問題に注意を払い続けるし、意図せぬアルゴリズムバイアスを良識をもって削減している企業は、信用を得られるだろう。

企業は、自分たちの企画がアルゴリズムバイアスに台無しにされるのを待っていてはいけない。
テクノロジーは中立だという信条にぶら下がっていないで、エンジニアと開発者たちは前に一歩踏み出すべきだ。
人間がかつて自分自身が行ってきたような、人種差別主義的で性差別主義的で外国人恐怖症の振る舞いを行う何かをうっかりつくってしまわないように。
101名無しさん@おーぷん :2018/05/07(月)07:52:18 ID:Q78

人工ホタルで作る立体ディスプレー
https://scienceportal.jst.go.jp/news/newsflash_review/newsflash/2018/01/20180116_01.html

初夏を告げるホタルの舞は、なんとも幻想的で美しい。

(中略)

彼らはもちろん、ほかの昆虫と同様に羽という動力装置を持っているわけだし、
体内のルシフェリンという物質を分解して光を出しているので、発光のための重い装置もいらない。
小さくても、光りながら宙を移動できる。自然の妙だ。

これを人工的に作るのは、とても難しい。
たとえば電池を内蔵させようとすると、とたんに重くなって飛ばなくなる。

それを世界で初めて作ったのが、東京大学修士課程学生の宇野祐輝(うの ゆうき)さんらの研究グループだ。
大きさがわずか4ミリメートル、重さ60分の1グラムの人工ホタルを宙に浮かせることに成功したのだ。
名付けて「ルシオラ」。ゲンジボタルの学名だ。

研究グループの高宮真(たかみや まこと)・東大准教授によると、このルシオラで狙っているのは3次元の立体的なディスプレー。
ルシオラをたくさん浮かせてクマのぬいぐるみの形を作り、それが一瞬でネコに変身するような立体ディスプレーを目指したいのだという。

ルシオラの誕生に必要な技術は、「浮かせる」「エネルギーを送る」「軽量化する」の三つだ。

「浮かせる」ためには、音波を使っている。
音波は空気の振動だ。
太鼓をドンとたたくと、その音が向こうに伝わっていく。
そのとき空気は、向こうに動いたり手前に戻ったりという小刻みな振動を、1秒間に何百回という速さで繰り返している。
この振動が、秒速340メートルで音として向こうに伝わる。

複数のスピーカーから上手に調整した超音波を出すと、その超音波が重なって、空気がまったく動かない点を作ることができる。
「節」と呼ばれるこの点に、たとえば軽く小さな発泡スチロールの玉を置くと、玉は動かず浮いたままになる。
「節」の位置を動かすと、玉も動く。

超音波で小さな物体を浮かせる技術はこれまでにもあったが、よほど物体を軽くしなければ落ちてしまう。
つまり、軽くて、しかも光り続ける物体を作ったことが、この研究のポイントだ。ルシオラは発光ダイオード(LED)で光る。

そのためにはエネルギーが必要だが、電池は重くなるので使えない。
そこで「無線給電」という方法を使った。
電極を接触させなくても電気のエネルギーを送ることができる無線給電は、家庭用電動歯ブラシの充電などで、すでに使われている。
ルシオラの近くに置いたコイルに電気を流し、ルシオラの中に組み込んだコイルにエネルギーを送る。
これを、特別に設計したルシオラ内部の軽くて小さな回路を通し、発光ダイオードを光らせる。

高宮さんは、ルシオラをもっと小さく軽くして、いちどに浮かす数を100個、1000個と増やしたいという。
102名無しさん@おーぷん :2018/06/07(木)22:11:42 ID:o1Y

風力発電の出力変動が電力系統へ及ぼす影響の評価手法を開発
 ~大量導入時の安定供給に向け新たな理論~
http://www.jst.go.jp/pr/info/info1323/index.html

風力発電の電力システムへの導入は、米国や欧州を中心として盛んに進められており、日本でも引き続き導入が進むと見込まれています。
しかし導入に際しては、天候などによる出力変動の予測不確実性への対処が非常に重要です。
風力発電の出力は、普段は小さな変動幅に留まるものの、突風や乱流の発生などにより無視できない頻度で極めて大きな値が発生するという性質があります。
この大きく突出した「外れ値(図1)」は、電力系統に深刻な障害をもたらす一因であることが指摘されてきました。

風力発電の出力変動に対処するためには、「絶対に周波数変動を0.2Hz以内に納める」といった考え方では実行不可能、もしくは過度に保守的な設計を要求することになります。
そこで、「周波数変動は99.7%以上の割合で0.2Hz以内に納まる」といった確率的な考え方が欠かせません。
 
+0
-0
103名無しさん@おーぷん :2018/06/09(土)00:03:12 ID:CkK
イモリの再生、目・脳・心臓も 
高い能力の秘密は赤血球
杉本崇 2018年6月4日09時57分

https://www.asahi.com/articles/ASL5Z2WFBL5ZULBJ001.html

日本に生息する両生類のアカハライモリは生涯にわたって尾だけでなく、目や脳、心臓の一部を切り取っても再生する。
ほかの動物にない高い再生能力に、赤血球が深く関わっていることを筑波大などの研究チームが明らかにした。
再生に必要な物質を運ぶ「薬のカプセル」のように働き、再生を促すらしい。
104名無しさん@おーぷん :2018/08/05(日)18:38:13 ID:k2P
「人殺し」を始めたAIの恐ろしい間抜けさ
http://news.livedoor.com/article/detail/15115604/

人工知能(AI)の脅威に対する警告で世の中はあふれ返っている。
米国の起業家イーロン・マスク氏や元国務長官のヘンリー・キッシンジャー氏を含む多くの人々が、人類はいずれAIに駆逐されることになるかもしれないと警鐘を鳴らしている。
そう、映画『ターミネーター』のように。

『ターミネーター』では自我を持ったコンピュータ「スカイネット」が世界を支配する。マスク氏らの警告を聞いて、人類はディストピア(暗黒郷)の入り口に立っていると思う人もいるだろう。
105名無しさん@おーぷん :2018/08/05(日)18:39:58 ID:k2P

欠陥だらけのアルゴリズムによる殺人

だが、現実にはもっと差し迫った問題が起きている。
AIはすでに人を殺し始めているのだ。
軍や警察は人々を監視・査定し、結果的にその人物を殺害するかどうかという重大な決断を下すのにAIを使っている。
しかも、そのアルゴリズムは欠陥だらけだ。

AIを使った対テロ作戦の危険性を筆者が初めて認識したのは5年前、イエメンでのことだった。
米国によるドローン(無人機)攻撃で無実の民間人が殺害される事件が起き、私は首都サヌアで聞き取り調査を行っていた。
殺害された2人の民間人のうち1人は警官で、もう1人はイマーム(イスラムの導師)だった。

イマームは攻撃の数日前にテロ組織「アルカイダ」を非難する説教を行っていたため、2人とも米国側の人物だった可能性がある。
生き残った親族の一人で、技術者のファイサル・ビン・アル・ジャービル氏が私を訪ねてきて、こう聞いた。
親族はなぜ標的にされたのか、と。

ファイサル氏と私は答えを求めて、アラビア半島から1.1万キロメートル離れた米ワシントンに飛んだ。
ホワイトハウス高官はファイサル氏と面会したが、肝心の理由については誰も明かそうとしなかった。
106名無しさん@おーぷん :2018/08/05(日)18:40:56 ID:k2P

真相はやがて明らかになる。
半自動化されたプログラムが、間違ってファイサル氏の親族を殺害者リストに載せてしまっていたのだ。

米国政府は身元を特定できていない人物をドローンで攻撃したことを認めている。
米情報機関はイエメンにディープな人的情報源を持たないため、別の方法で取得したデータをAIで処理し、標的を選び出している。
ミサイル自体は人間が操作しているとはいえ、殺害がアルゴリズムの決定に従って実行されているのは間違いない。
107名無しさん@おーぷん :2018/08/05(日)18:42:05 ID:k2P

「顔認識システム」誤検知率はなんと98%

この種の攻撃は「識別特性爆撃」と呼ばれる。ドローン攻撃の大半を占め、AIにまつわる脅威の中でもとりわけ激しい反発を招いている。
問題は今年春、米グーグルにも波及した。
AIを使ってドローン映像を分析する技術を米国防総省向けに開発するというプロジェクトに何千人もの従業員が抗議し、離職する者まで現れた。

AIの濫用が懸念されるのは、もちろんドローン攻撃だけではない。
たとえば、AIを使った犯罪予測・治安対策のせいで、刑事司法制度における人種差別が一段と深刻化している。
顔認識で容疑者を特定するシステムを、英ロンドンなどの警察が試験的に導入しているが、誤検知率はなんと98%にも達する。

新着レスの表示 | ここまで読んだ

名前: mail:





ニュース
CRITEO