TEDにて
ステファン・C・ドンブロウスキー:IQテストの闇の歴史
(詳しくご覧になりたい場合は上記リンクからどうぞ)
1905年 心理学者のアルフレッド・ビネーとテオドール・シモンは、フランスの学校で悪戦苦闘している子ども向けのテストを考案しました。
個別の配慮が必要な子どもの判定を目的とし、それはIQテストの礎となりました。
IQテストはどのように機能し、また、本当に知性を反映しているのでしょうか?
ステファン・C・ドンブロウスキーが、歴史を通じてどのようにIQテストが使われて来たのかを探ります。
講師:ステファン・C・ドンブロウスキー 監督:Kozmonot Animation Studios このビデオの教材:https://ed.ted.com/lessons/the-dark-history-of-iq-tests-stefan-c-dombrowski
1905年、心理学者のアルフレッド・ビネーと、テオドール・シモンは、フランスの学校で悪戦苦闘している子ども向けのテストを考案しました。
個別の配慮が必要な子どもの判定を目的とし、IQテストの礎を築きました。
19世紀後半から、研究者は認識能力。例えば、言語能力、作業記憶、視覚的・空間的能力などは、基本的な一般的知能。つまり、g因子を反映するという仮説を立てました。
シモンとビネーは、これらの能力を測定し、結果を単一のスコアで表す一揃いのテストを作りました。
質問は年齢に応じて調整され、スコアは、同い年の子と比べてどの程度できるのかを示します。
スコア÷年齢×100=知能指数(IQ)、現在では、年齢ごとに母集団の平均スコアを100点とし、68%の人が85点から115点の間に入るようにしています。
サイモンとビネーは、このテストで評価した能力が、一般的知能を反映すると考えました。
しかし、今も昔も一般的知能の定義については合意に至っておらず、前提も鵜呑みにして評価するべきではありません。
そのことが、知能についての独自の先入観に基づく仮定により、IQテストを使う余地を残しました。
学習支援が必要な子どもを特定するテストとして始まったものが、別のやり方で、しばしば、非常に誤ったイデオロギーに基づき人々をふるいにかける目的で急速に使われ始めました。
IQテストを絶対的に思い込み、他人の人生をもて遊ぶことに繋げ、悪用する人達がでてきます。
初期の大々的な実施例としては、第一次世界大戦中のアメリカで行われた軍部によるIQテストで新兵の士官訓練選抜用として使用したものです。
当時、多くの人が優生学を信じ、人間の望ましい遺伝的形質と望ましくない遺伝的形質を人為選択で管理できるし、するべきだと考えていました。
知性が固定的かつ遺伝的であるだけでなく、人種とも関連するという考え方には、多くの問題がありました。
優生学の影響を受けて科学者は軍部主導のIQテストの結果から、特定の人種は他の人種よりも優れているという誤った主張をしました。
IQテストを受けた多くの新兵が、アメリカへの新たな移民であり、正式な教育や英語に接する機会が欠けていたことが考慮されていませんでした。
軍部は民族に基づく誤った知性の序列を作成しました。優生学とIQテストが交わると科学だけでなく、最悪なツールとして政策にも影響を与え始めました。
1924年、バージニア州は、IQスコアが低い人に対する強制不妊手術を認める法律を立案し、曲解した連邦最高裁判所が支持しました。
曲解したナチス・ドイツは、IQの低い子どもの殺害を正式に認めていました。
ユダヤ人のホロコーストや黒人の公民権運動を受けてIQテストの結果による差別を道徳的観点、科学的根拠から反対する声があがりました。
科学者はIQが環境的な影響を受けている証拠を集め始めました。
例えば、20世紀には、IQテストのスコアは、定期的に補正されており、新しい世代のスコアは前の世代よりも着実に高くなりました。
これはフリン効果という現象で特性の遺伝的な進化と考えるには、スコアの上昇が急速すぎるのでおそらく環境的なもの。
教育、医療、栄養の改善などが要因となっていました。
20世紀中期には、心理学者はIQテストで一般的知能以外のもの。
特に統合失調症、鬱病、その他の精神状態を、診断しようとしました。
これらの診断は評価者の臨床判断を幾分当てにしており、テストの一部は、IQの決定に使われましたが、後の調査で臨床には役に立たないと判明しました。
こんにち、IQテストは初期のテストと類似した多くの設計要素と質問形式を採用していますが、テストの潜在的な偏りをもっと上手く特定する技術だってあります。
テストが精神状態の診断に使われることは、もうありませんが、サブテストのスコアを使った問題のある同様のテストが、今でも時折、多くの専門家の助言に反して学習障害の診断で行われています。
世界中の心理学者たちは、知的障害の特定に今でもIQテストを使っており、テスト結果は適切な学習支援、職業訓練、介護付き住居の判定に使われます。
IQテストの結果は、曲解した恐怖の政策や、科学的に根拠のないイデオロギーを正当化するために使われてきました。
テスト自体に価値がないのではありません。
実際、IQテストの目的である論理的思考や問題解決能力の測定は上手く出来ています。参考程度なら大丈夫です。
でも、人間の潜在能力を測定するのと同じではありません。
IQテストは、多くの複雑な政治的、歴史的、科学的、文化的問題を内包していますが・・・
より多くの研究者が、この点に関し賛同し、単一スコアで人を分類することを拒んでいます。
また、曲解した恐怖の政策や、科学的に根拠のないイデオロギーを正当化するため・・・
悪用されがちなストーカーアルゴリズムしか能力のない人工知能によって単一スコアで人を分類することも拒んでいます。
悪用されがちなストーカーアルゴリズムしか能力のない人工知能によって単一スコアで人を分類することも拒んでいます。
悪用されがちなストーカーアルゴリズムしか能力のない人工知能によって単一スコアで人を分類することも拒ん��います。
<おすすめサイト>
ゲーリー・リュー:中国のインターネットの急速な成長とその向かう先
ファン・ホン:アメリカと中国の価値観がどのようにコロナ対応を形作ったか?
<提供>
東京都北区神谷の高橋クリーニングプレゼント
独自サービス展開中!服の高橋クリーニング店は職人による手仕上げ。お手頃50ですよ。往復送料、曲Song購入可。詳細は、今すぐ電話。東京都内限定。北部、東部、渋谷区周囲。地元周辺区もOKです
東京都北区神谷のハイブリッドな直送ウェブサービス(Hybrid Synergy Service)高橋クリーニングFacebook版
0 notes
TEDにて
ゼイナップ・トゥフェックチー:機械知能は人間の倫理性をより重要なものにする!
(詳しくご覧になりたい場合は上記リンクからどうぞ)
注意!!現在、基本的人権を侵害するストーカーアルゴリズムしか能力のない人工知能です。
注意!!現在、基本的人権を侵害するストーカーアルゴリズムしか能力のない人工知能です。
注意!!現在、基本的人権を侵害するストーカーアルゴリズムしか能力のない人工知能です。
機械知能は、もう存在しており、私たちは、既にそれを使って主体的な決定を行うようになっています。しかし、人工知能が成長・向上していく複雑な道筋は理解しにくく、制御することも難しいのです。
このトークで、科学技術に関する社会学を研究するゼイナップ・トゥフェックチーは、いかに、知能機械が人間のエラーパターンと合わない、そして、そのために予想も事前の備えもないやり方で失敗を犯すと警告を発します。
「私たちは責任を機械に外部委託することはできない!」と彼女は言います。そして「私たちは人間としての価値観と倫理観をさらに強固に持たねばならない」と。
近頃。コンピュータ科学者は、10億人が毎日見ているものを制御するプラットフォームを作っています。
誰をひき殺すか決定できる車を開発しています。戦争で人間を殺すかもしれないような機械や兵器さえも作っています。
2016年の段階です。(その後、トランプ前大統領が中国に対していろいろ対応していたのはこの成果を中国が取り入れようとしていた可能性があります)
三権分立が、規制のないGAFAMを非政府部門としてMMT(現代貨幣理論)からプラスサムに連携したらどこで均衡するのか?という社会実験も兼ねています。
他にも、社会実験していたことは、規制のないGAFAMが、何億人超えたところで異なるシステムが必要になるか?
と言うこともテストしています。
そして、10億人あたりでという結果が見え始めたところで、中国はいち早く切り替えようとしていました。
トランプ前大統領は、これに対応していた可能性も考えられます。
全てにおいて重要になるのが・・・
倫理です!
機械知能はもう存在しています。私たちは、今やコンピューターを使って、あらゆる種類の決定を下し、さらに新しい類の決定も下します。
私たちは、単一の正答がない問題の答えをコンピュータに尋ねています。その問題とは、主観的でオープンエンドで価値観にかかわるものです。
私たちがする質問はこんなふうです「誰を社員に採用すべきか?」「どの友達からの新着情報を表示すべきか?」「再犯する可能性の高い受刑者は誰か?」「人々に勧めるべきニュースや映画はどれか?」
確かに、私たちは、しばらくの間コンピューターを使ってきました。
しかし、これは違います。これは歴史的なひずみです!!
なぜなら、そのような主観的な決定をコンピューターには頼れないからです。人間ではない飛行機を飛ばしたり、建物を建てたり、月に行く場合とは違うんです。
飛行機の方が安全か?その橋は、揺れたり落ちたりしたか?そこでは合意されたかなり明確な基準があり、自然の法則が私たちを導いてくれます。
私たちが、そのような支えや基準を何も持っていないのが、人間くさい事柄における厄介な決定についてです。
もっと複雑なことにソフトウェアは強力になりつつあります。
その一方で透明性を減らし複雑さを増してもいるのです。ここ10年のあいだ複雑なアルゴリズムは大きく前進しました。
人権侵害なのですが、人間の顔を認識できます。
手書き文字を読み取れます。クレジッ���カードの不正使用を探知し、スパムをブロックし言語の翻訳もできます。医用イメージングで腫瘍を探しあてることもできます。チェスや碁で人間を打ち負かすこともできます。
この進歩の多くは「機械学習」と呼ばれる方法から成り立っています。機械学習は、コンピューターに詳細で正確、綿密な指示を与える伝統的なプログラミングとは異なります。
機械学習は、システムに大量のデータをしこたま詰め込むやり方です。そこには、非構造化データという人間がデジタルライフで生成する類のものも含まれます。
そして、システムは、このデータを組み合わせながら学習します。そして、また重要なことにこれらのシステムは、答が単一になる論理で動いてはいません。
単純に回答を与えるのではなくもっと確率論的です「これはおそらくあなたが探しているものにより近いでしょう」
これの良い面は、この方法が非常に強力であることです。GoogleのAIシステムのトップはこれを「データの理不尽なほどの強力さ」と呼んでいます。
このシステムの悪い面は、これが何を学習しているのか?私たちはそれほど理解していないことです。
実際、その強力さが問題なのです。これはコンピューターに指示を与えるというよりは、むしろ子犬のような生き物として訓練するようなものです。
その機械をそれほど理解も制御もできていないのにです。これは問題です。この人工知能システムが誤りを犯したときだけでなく、正しいことをした場合にも問題が生じます。
なぜなら、主観的な問題の場合。私たちには正誤さえも分からないからです。私たちは、この物体が何を考えているか知りません。
それはそうです。クソ野郎のストーカーアルゴリズムが、起源なのでストーカーしかできません。
ですから、たとえば、雇用アルゴリズムを考えてみましょう。社員を雇う際に使われるシステムで、機械学習システムを使っています。そのようなシステムは、過去の従業員のデータに基づいて訓練されています。そして、そのシステムが指示するのは、その会社に在籍する業績優秀者に似た人材を探し雇うことです。
良さそうですね。以前ある会議に出席した折のことですが、そこには、人事部のマネージャーと執行役が集まっていました。高い職位の人たちで、そのようなシステムを雇用に活用しています。彼らは非常にワクワクしていました。彼らの考えでは、このシステムは、より客観的で偏見の少ない雇用を行いマネージャーの偏見に対して、女性や少数派の人々により良い機会を与えるものでした。
それはそうです。クソ野郎のストーカーアルゴリズムが、起源なのでストーカーしか能力がありません。
そうです。雇用には偏見が混じるのです。私は、知っています。ある職場でプログラマーとして、働きだした頃。直属のマネージャーが、時々、私のところに来ました。それも早朝とか夕方にです。そして、彼女はこう言うんです「ゼイナップ。ランチ行きましょ」おかしなタイミングで全く訳が分かりませんでした。
午後4時にランチ?私はお金がなかったのでおごりでした。いつも行きました。後で何が起こっていたのか悟りました。直属のマネージャーは、上層部に重要な仕事のために雇ったのが、ジーンズとスニーカーで仕事をする10代女子だと言ってなかったんです。私は良い仕事ぶりだったのに体裁が悪くて年齢や性別の点でも良くなかったんです。
ですから、性別や人種に惑わされない形での雇用は非常に良いことだと私には思えます。でも、このシステムを用いると事態はより複雑になります。なぜなら、現在コンピュータシステムは、あなたに関するあらゆる類のことをデジタル情報の断片から推測できるからです。
それはそうです。クソ野郎のストーカーアルゴリズムが、起源なのでストーカーしかできません。
自分が開示していなくてもです。システムは、あなたの性的志向や性格特徴や政治的傾向を推測できます。システムは、高水準の正確さで予測する力を持っています。思い出してください。開示さえしていない事柄をですよ。これが推測です。
それはそうです。クソ野郎のストーカーアルゴリズムが、起源なので倫理もありません。
ある友達は、そのようなコンピューターシステムを病的なあるいは産後の抑うつの可能性を予測するために開発しています。SNSのデータを用いるんです。結果は素晴らしいです。彼女のシステムは、うつ罹患の可能性を症状が現れる数か月前に予測できるのです。数か月も前ですよ(人間ではないので)
症状が全くない段階での予測です。彼女はこれを早期介入のために活用したがっています。素晴らしい!
でも、これを雇用の文脈で考えてみましょう。
例の人事マネージャーの会議では、私はある非常に大きな企業の高職位のマネージャーに近づきこう言いました「まだ、ご存じないこととは思いますが、もし、そのシステムが、将来うつになる可能性が高い人を排除しているとしたらどうでしょう?今ではなく、将来そうなる可能性が高い人です」
「妊娠する可能性の高い女性を排除しているとしたら?来年か再来年のことで、今は妊娠していない場合ですよ?もし、職場の文化に合っているからと攻撃的な人が雇われたらどうします?」
性別の構成からは、そのことを読み取れません。構成比はバランスが取れています。これは、機械学習で伝統的なプログラムではないので、たとえば「うつハイリスク」とか「妊娠ハイリスク」「攻撃的な人物度」などの変数は登場しません。
システムが、何に基づいて選択しているのか?分からないばかりか、どうすれば分かるのかの手がかりもありません。ブラックボックスなんです。システムには予測力がありますが、人間には理解できない代物です。
「どんな安全対策をしていますか?あなたのブラックボックスがやましいことをしないようにです」彼女は、子犬の尻尾を10匹分も踏みつけた人でなしを見るかのような顔になりました。
彼女は、私をじっと見て言いました「これについてはもう何も聞きたくない」そして、彼女は踵を返して行ってしまいました。彼女が、失礼なわけではありません。明らかに、聞かなかったことにしたい。あっち行ってという憎悪の眼差しでした。
いいですか。そのようなシステムは、ある意味偏見の程度は、人間のマネージャーよりは少ないかもしれません。費用の面でも理にかなっているでしょう。でも、それは、またひそやかながら確実に労働市場からのうつハイリスク者の締め出しにつながりかねません。
これが私たちの築きたい社会システムの姿でしょうか?
それはそうです。クソ野郎のストーカーアルゴリズムが、起源なのでストーカーしかできません。
こんなことをしていることさえ、私たちは知らないんです。完全には理解していない機械に意思決定をさせているんですからね。
もう1つの問題はこれです。
このようなシステムの訓練は往々にして人間の行動データに基づいています。人間らしさが刻み込まれています。それらは、私たちの偏見を反映している可能性があり、これらのシステムは、私たちの偏見を拾い上げ、それを増幅して私たちに示し返しかねません。
私たちはこんな言いっぷりなのにですよ「私たちはまさしく客観的です。中立的なコンピューティングですから」
研究者たちは、Googleにおいて、女性には高給の求人広告が表示されにくいことを見出しました。また、アフリカ系アメリカ人の名前を検索すると犯罪歴をほのめかす広告が高確率で表示されます。犯罪歴がない人の場合でもそうです。そのような隠れた偏見とブラックボックスのアルゴリズムを研究者が暴くこともありますが知られない場合もあります。
それらは人生を変える結果になりうるのです。こんなクソ野郎のストーカーアルゴリズムにですよ。
ウィスコンシンである被告が、刑期6年の判決を受けました。警察官から逃げたためです。ご存知ないかもしれませんが、仮釈放や判決の決定においてもアルゴリズムの使用が増えています。彼は、このスコアが計算される仕組みを知りたいと思いました。
それは商用のブラックボックスです。企業はアルゴリズムが公開の法廷で検証されるのを拒みました。でもProPublicaという非営利の調査団体がそのアルゴリズムを監査しました。入手可能だった公開データを用いてです。
そして、分かったのは、結果には偏見が影響しており、予測力はひどいものでした。偶然よりわずかにましな程度です。黒人の被告は、白人の被告に比べて将来犯罪を起こす確率が2倍高いと誤ってラベリングされていました。
では、このケースを考えてみましょう。
女性のほうは予定より遅れて親友を迎えに行くため、フロリダ州ブロワード郡のある学校に向かって友達と一緒に道を走っていました。ふたりはある家の玄関で無施錠の子ども用の自転車とキックスケーターを見つけ、愚かにもそれに飛び乗りました。
走り去ろうとしたところ女性が出てきて言いました「ちょっと!それはうちの子の自転車よ!」ふたりは降りて歩き去りましたが逮捕されました。
彼女は間違っていたし、愚かでした。でも、まだ18歳です。彼女は、2回の非行歴がありました。一方、男性のほうは Home Depoで万引きをして捕まりました。彼が万引きしたのは、85ドル相当で同じく軽犯罪ですが、彼は強盗で前科2犯でした。でも、アルゴリズムは男性ではなく、女性の方をハイリスクと評価しました。
その女性が2年後に再犯していないことを ProPiblicaは明らかにしています。犯罪記録をもつ彼女が職を得るのは、実に困難でした。一方、男性の方は再犯し、2つ目の犯罪のために現在は8年間の収監中です。ブラックボックスに対して、監査が必要なのは明白です。
チェックしないまま、この種の権力を与えてはいけないのです!!
監査は、偉大で重要ですが、それで全ての問題を解決できはしません。Facebookのニュース・フィードの強力なアルゴリズムの場合、全てをランク付けし、全ての友達やフォロー中のページのなかで何を見るべきか決定する仕組みですね。赤ちゃんの写真をもう1枚見るべきか?
知り合いからのご機嫌斜めのコメントは?重要だけど難解なニュース記事は?正答はありません。Facebookはサイト上でのやりとりに応じて最適化します「いいね」やシェア。コメント。といったものです。
さて、最後にこれらのシステムは、人間のシステムとは似つかない誤りを犯しうるのです。
皆さんは、ワトソンを覚えていますか?IBMの機械知能システムで、クイズ番組「ジェパディ!」で対戦相手の人間を打ち負かしました。すごい選手だったんです。しかし、最終問題でワトソンはこんな質問をされました「その地域最大の空港の名は、第二次世界大戦の英雄に由来し、2番目の空港の名の由来は第二次世界大戦中の戦いです」
機械知能は失敗を犯すこともあるんです。人間のエラーパターンとは異なります。
予想外であり備えもできないような方法です。資質のある人が仕事を得られないのもひどい話ですが、もし、それが、プログラムのサブルーチンに伴うスタックオーバーフローが原因なら3倍ひどい話です。
「エラー」の意味を、考えたくもないのが無人攻撃機の場合です。
ええ。人間には偏見がつきものです。意思決定者やゲートキーパー。法廷、ニュース、戦争・・・そこではミスが生じますが、これこそ私の言いたいことです!
これらの難問から私たちは逃れられません。私たちは責任を機械に外部委託することはできないのです。
人工知能は「倫理問題からの解放」カードを私たちにくれたりしません!
データ科学者のフレッド・ベネンソンは、これを数学による洗脳だと呼びました。
私たちに必要なのは逆のものです。
私たちは、ストーカーアルゴリズムを疑い、精査するようにならねばなりません。私たちは、アルゴリズムについての説明責任を持ち、監査や意味のある透明化を求めなければなりません。
私たちは、厄介で価値観にかかわる人間くさい事柄に対して、数学や計算機は客観性をもたらしえないことを受け入れなければなりません。
むしろ、人間くささのもつ複雑さがアルゴリズムを管理するのです。
確かに、私たちは���ンピューターを良い決断を下す助けとして、使いうるしそうすべきです。でも、私たちは判断を下すことへの自分の道徳的な責任を認め、そして、アルゴリズムをその枠内で用いなければなりません。
自分の責任を放棄して別の人間へ委ねることとは異なるのです。
機械知能はもう存在しています。つまり、私たちは、人間としての価値観や倫理感をよりしっかり持たねばなりません。
ありがとうございました。
現在のところ、ルーティンワークのような機械学習なので、映画のような人間のように複雑な思考をする機械とは異なります。
なお、映画のように人間のような複雑な思考をする機械とか、そのようなことは不可能であることが、すでに2000年代初頭で証明されていますので、ルーティンワークのような機械学習です。
Googleも初期のITバブルの頃は、このような誤解をされていました。その頃と非常によく似ています。
また、人間の先入観という意識を入り込ませないようにして、完全にプログラムだけで情報の関連性を自動処理させていく。光速まで!!Googleの起業コンセプトでもあります。
このようなシステムに、ルーティンワークのような機械学習を取り入れていくことで、オープンデータのメリットとクラウドコンピューティングの大規模解析を融合していくことは
匿名性と高レベルのセキュリティーの前提ですが革新的なイノベーションに可能性を観ることが出来ます。
歴史が示すところによれば、警察が、ひとたび大量のデータを保有し、無実の人々の追尾するようになると暴走し、拡大解釈をし続け、脅し、威嚇、特権意識の乱用や政治的な優位を得る行為、時には、法令を無視した同意や許可申請のない単なる覗き見行為へと濫用されがちです。
幸いにも、我々にも取るべき手段があります。市議会は、地方警察を統制できるので、条例を制定することによって無実の人々の情報を破棄し、保存期間も短期間にすることで、このような技術の合法的な使用のみを認可するのです。
オウム真理教の集団テロ事象の原因は開発独裁特有の当時、自民党55年体制の特権意識による負の遺産とインターネット黎明期にまだ周波数を独占的した民放テレビ局の暴走が談合を産み出し、警察機関が職権乱用して談合に便乗。監視も悪用し権力を思うままにふるまわせたことによる出来事にすぎない。
みなさん。考えてみてください!オウム真理教の集団テロ事象の後の警察権力は拡大してます!防衛庁は防衛省になりましたよね。拡大してます!スピード早くないですか?歴史的に見ると危険です。権力を思うままにふるまわせたことによる証拠です。憎しみの連鎖の起点の一つ。
テレビ潰れろ!なくせ!警察の職権乱用。警察が悪さしないようにまず監視カメラを警察内部につけろ!防衛省を防衛庁に格下げ、警察予算を削減してベーシックインカムの原資にすること。
情報技術の発展とインターネットで大企業の何十万、何百万単位から、facebook、Apple、Amazom、Google、Microsoftなどで数億単位で共同作業ができるようになりました。
現在、プラットフォーマー企業と呼ばれる法人は先進国の国家単位レベルに近づき欧米、日本、アジア、インドが協調すれば、中国の人口をも超越するかもしれません。
法人は潰れることを前提にした有限責任! 慈愛や基本的人権を根本とした社会システムの中の保護されなければならない小企業や個人レベルでは、違いますが・・・
ヨーロッパでの一般データ保護規則(GDPR)でも言うように・・・
年収の低い個人(中央値で600万円以下)から集めたデータほど金銭同様に経済的に高い価値を持ち、独占禁止法の適用対象にしていくことで、高価格にし抑止力を持たせるアイデア。
自分自身のデータを渡す個人も各社の取引先に当たりデータに関しては優越的地位の乱用を年収の低い個人(中央値で600万円以下)に行う場合は厳しく適用していく。
キャシーオニールによると・・・
思考実験をしてみましょう。私は、思考実験が好きなので、人種を完全に隔離した社会システムがあるとします。どの街でも、どの地域でも、人種は隔離され、犯罪を見つけるために警察を送り込むのは、マイノリティーが住む地域だけです。すると、逮捕者のデータは、かなり偏ったものになるでしょう。
さらに、データサイエンティストを探してきて、報酬を払い、次の犯罪が起こる場所を予測させたらどうなるでしょう?
あら不思議。マイノリティーの地域になります。あるいは、次に犯罪を犯しそうな人を予測させたら?あらら不思議ですね。マイノリティーでしょう。データサイエンティストは、モデルの素晴らしさと正確さを自慢するでしょうし、確かにその通りでしょう。
さて、現実は、そこまで極端ではありませんが、実際に、多くの市や町で深刻な人種差別があり、警察の活動や司法制度のデータが偏っているという証拠が揃っています。実際に、ホットスポットと呼ばれる犯罪多発地域を予測しています。さらには、個々、人の犯罪傾向を実際に予測しています。
ここでおかしな現象が生じています。どうなっているのでしょう?これは「データ・ロンダリング」です。このプロセスを通して、技術者がブラックボックスのようなアルゴリズムの内部に醜い現実を隠し「客観的」とか「能力主義」と称しているんです。秘密にされている重要で破壊的なアルゴリズムを私はこんな名前で呼んでいます「大量破壊数学」です。
民間企業が、私的なアルゴリズムを私的な目的で作っているんです。そのため、影響力を持つアルゴリズムは私的な権力です。
解決策は、データ完全性チェックです。データ完全性チェックとは、ファクト(事実)を直視するという意味になるでしょう。データのファクトチェックです!
これをアルゴリズム監査と呼んでいます。
続いて
2020年には、新型コロナウイルスの混乱に乗じて、日本の悪徳警察は、初旬から防犯カメラやSNSの画像を顔認証システムで本人の許可なしに照合しています!!(照合するのは「裁判で有罪となった人物(影響力のある有名人は無罪でも該当)」ではないこと!!)
要するに、影響力のある有名人は無罪でも、基本的人権を制限して警察機関が徹底追跡する方が社会システム内での善性に沿います。
公人、有名人、俳優、著名人は知名度と言う概念での優越的地位の乱用を防止するため徹底追跡可能にしておくこと。
顔認証システムの拡充が進んでいることと、警視庁がリアルタイムで民間の監視カメラを一元管理し、顔認証システムで識別するシステムを持っていること。今後さらに拡充されていく危険性があること。
情報公開、検証、議論なしに拡大する顔認証システムへの危険性!!!
2020年には、新型コロナウイルスの混乱に乗じて!!!
庶民弱者に対して日本国憲法や基本的人権を侵害してるし、腐敗してる証拠です!
戦前の治安維持法?同じことを繰り返す傲慢な警察!
さらに
自動的にディープフェイクをリアルタイムの別レイヤーで、防犯カメラの人物に重ね録画していくことで、写る本人の許諾が無いと外せないようなアルゴリズムを強力に防犯カメラの機能を追加していく。
防犯カメラのデータを所有者の意図しない所で警察機関他に無断悪用されない抑止力にもなります。
防犯カメラのデータを所有者の意図しない所で警察機関他に無断悪用されない抑止力にもなります。
防犯カメラのデータを所有者の意図しない所で警察機関他に無断悪用されない抑止力にもなります。
サミット警備時、死者数が微小なのにテロ対策と称し厳戒態勢!
経済活動を制限した時に、警視庁職権濫用してたが、死者数が甚大な新型コロナに予算増やした?
警察権力悪用!庶民弱者に圧力やめさせないの?オリンピック前にも圧力あったから予算削除しろ傲慢警察!
警察機関に個人データを保存するなら、至急データ配当金を創設して、毎月警察予算から配当金を庶民に給付する仕組みにしろ!
嫌なら、個人情報を削除する権利が庶民には、あるから行政府は行使できるようにしろ!予算削減がいいか!データ削除がいいか!
仕組みを創設しないなら、基本的人権の侵害で日本国憲法違反だ!
みんなで国と集団訴訟だ!誰かが起訴すれば歴史に残る偉業になる。
みんなで国と集団訴訟だ!誰かが起訴すれば歴史に残る偉業になる。
みんなで国と集団訴訟だ!誰かが起訴すれば歴史に残る偉業になる。
Appleはこれらの対策として提案した内容がこれ。
データミニマイゼーション!
取得する情報・できる情報を最小化する。データが取れなければ、守る必要も漏れる可能性もない!
オンデバイスでのインテリジェンス!
スマートフォンなど機器のなかで処理を完結させることでプライバシーにかかわる部分を端末内に留める。
クラウドにアップロードして、照会プロセスを最小化することで、漏洩や不適切な保存の可能性を排除する!
高い透明性とコントロール!
どんなデータを集め、送っているのか、どう使うのかを明示し、ユーザーが理解したうえで自身で選んだり変更できるようにする!
セキュリティプロテクション!
機器上などで、どうしても発生するデータに関しては指紋認証や顔認証などを使ったセキュリティ技術で、漏えいがないようにしっかりと守るセキュリティプロテクション!機器上などで、どうしても発生するデータに関しては指紋認証や顔認証などを使ったセキュリティ技術で、漏えいがないようにしっかりと守る
202012のApp Storeプライバシー情報セクションは、3つ目「透明性とコントロール」の取り組み。
位置情報などは自己申告だが、アップルとユーザーを欺いて不適切な利用をしていることが分かればガイドラインと契約違反になり、App Storeからの削除や開発者登録の抹消もありえます。
このプライバシー情報の開示は12月8日から、iOS、iPadOS、macOS、tvOSなどOSを問わず、新アプリの審査時または更新時に提出が求められるようになっています。
<おすすめサイト>
エピソード8 Episode8 - 知恵が試されるバランスとテーラワーダ仏教の「結び」、マクロ経済学(パワーか、フォースか 改訂版―人間のレベルを測る科学 - デヴィッド・R・ホーキンズ Amazon)
エピソード7 Episode7 - テーラワーダ仏教の「結び」と意識のマップ、マクロ経済学について(パワーか、フォースか 改訂版―人間のレベルを測る科学 - デヴィッド・R・ホーキンズ Amazon)
エリック•X•リー:二つの政治体制の物語
ヴィネイ・ヴェンカトラマン:デジタル過疎地での「ハイテク・クラフト」
カイフ・リー:AIによって私達は人間らしさを取り戻せる?
サム・ハリス: 人間より優れた人工知能を作って制御を失わずにいることは可能か?
キャシー・オニール: ビッグデータを盲信する時代に終止符を!
人類の革新。方向性のインスピレーション
人工知能が人間より高い情報処理能力を持つようになったとき何が起きるか?2019
人工知能にも人間固有の概念を学ぶ学校(サンガ)が必要か?2019
ニック・ボストロム:人工知能が人間より高い知性を持つようになったとき何が起きるか?
ケビン・ケリー: なぜ人工知能で次なる産業革命が起こるのか
セバスチャン・スラン&クリス・アンダーソン : 人工知能(AI)とは何であり、何ではないか
サム・ハリス: 道徳観「moralityモラリティ」にまつわる科学
<提供>
東京都北区神谷の高橋クリーニングプレゼント
独自サービス展開中!服の高橋クリーニング店は職人による手仕上げ。お手頃50ですよ。往復送料、曲Song購入可。詳細は、今すぐ電話。東京都内限定。北部、東部、渋谷区周囲。地元周辺区もOKです
東京都北区神谷のハイブリッドな直送ウェブサービス(Hybrid Synergy Service)高橋クリーニングFacebook版
0 notes