AI は、ソフトウェアが発達した米国などの先進国ですでに開発されている技術であるため、Microsoft などの主要なグローバル テクノロジー企業は、AI の倫理原則を民間部門で自律的に確立し、実装しています。 一方、欧州連合は昨年、リスクの高い AI の使用を禁止するなど、AI に関する厳しい規制を発令しました。
また、海外では、「メタバース」を具体化する方針を打ち立てるのではなく、それを実現するための基盤となる技術、デバイス、ソフトウェア、コンテンツをサポートすることに重点を置いています。
◆世界の主要技術に独自の倫理原則を制定…EU、ハイリスクAIの分類ルールを発表
Microsoft は、AI テクノロジの設計と開発からテクノロジ ステージまでのプロセス全体を監視および批評できる内部諮問機関である「イーサ ボード」を運営しています。 2016年、AIチャットボット「Tay」は、ジェンダー、人種差別、大量虐殺の擁護などの問題により、ローンチの翌日にサービスを停止し、AIの悪影響を真剣に検討しています.
同社は、人間中心の AI 開発のための「責任ある AI 原則」を発表しました。 原則には次の 6 つの基準が含まれます。 ▲ 公平性 ▲ 信頼/セキュリティ ▲ 機密性/セキュリティ ▲ 包括性 ▲ 透明性 ▲ 説明責任。
また、差別や偏見により実害を及ぼす可能性が高いAI技術プロジェクトについては、停止または制限する場合があります。 IBM、マイクロソフト、アマゾンなど 「顔認証技術」に関する様々な懸念から、廃業や販売方針の制限を決断した。 顔認証技術は、AIを用いて顔の見え方から個人を特定できる技術です。
昨年 4 月、EU は、人間の生命と生活を脅かす可能性のある AI を完全に禁止する規制を発表しました。 AIのリスクレベル(許容できないリスク、高リスク、限られたリスク、最小限のリスク)に応じて、4つのレベルに分類され、レベルごとに詳細な規定が用意されています。
人間の自由意志を阻害する「許容できないリスク」の場合のAIシステムの利用は完全に禁止されており、「ハイリスク」の段階から、利用者にそのリスクを十分に理解してもらうために通知することを推奨します。 AIシステム。
特に、リスクの高い AI に関する規則に違反した場合、企業は罰金の対象となります。 違反の程度に応じて、年間グローバル売上高の最大 6%、注意義務違反で 4%、有害な情報の提供で 2% の罰金が科される可能性があります。 これは、年間売上高に 4% のペナルティを課す欧州データ保護法 (GDPR) よりも 2% 強い規制です。
メタバース自体よりも、VR、AR、XR などの開発テクノロジに焦点を当てる
海外ではメタバースそのものよりも、VR(仮想現実)やAR(拡張現実)、XR(拡張現実)といった要素技術に注目が集まっています。
米国は国内でさまざまなXR技術を開発しています。 米国国防総省は陸軍訓練に XR テクノロジーを使用しており、国土安全保障省は緊急事態に対応するために仮想訓練プラットフォームを開発および使用しています。
欧州は、R&D ポリシーに基づいて、技術、インフラ、商業化のすべての段階で EU を中心とした包括的な計画を推進しています。 特に、英国は XR を 4 つのコア デジタル コア技術として挙げ、地域クラスターに基づく XR 産業の発展を促進しています。 XR技術を活用して産業的、社会的、文化的価値を創造する「実体経済」の概念を紹介し、汎用技術としてのXRの役割と波及効果を浮き彫りにします。
中国では、中央政府が戦略的な新興産業を育成するための XR 拡大政策を実施しており、各地方政府は地域の XR 産業振興政策を推進しています。 特に、北京、南昌、河北などの中国東部では VR/AR 産業団地が設立され、XR の経験からエコシステムの作成まで、XR 産業の発展をサポートしています。
日本は、拡張現実・仮想現実を第4次産業革命のコア技術として含む政府全体の総合戦略を発表し、制度の再編と支援政策を推進している。 特に、関連技術を医療やロボットに応用することで、地域の活性化や官民連携の実証を図っています。
/パク・ジニョン記者([email protected])
「インターネット狂信者。邪悪な主催者。テレビ狂信者。探検家。流行に敏感なソーシャルメディア中毒者。認定食品専門家。」