ホームAI: 世界初のグローバルな人工知能法が現実となる

: 世界初のグローバルな人工知能法が現実となる

neopepe presale now live

人工知能は、医療から金融、マーケティングや公共行政に至るまで、あらゆる分野を急速に変革しています。しかし、これらのシステムを監視するのは誰でしょうか?AIが基本的な権利を侵害しないことをどのように保証できるのでしょうか?

これらの質問から、EU AI Actが生まれました。これは、リスクという重要な原則に基づいて、人工知能の開発、配布、使用を規制する世界初の法律です。

EU AI Actでは何が予測されていますか?

2024年に承認されたヨーロッパの人工知能に関する規制は、リスクベースのアプローチを導入します。AIシステムは4つの主要なカテゴリに分類されます:

🔹 リスクが最小限のAI
🔹 高リスクのAI
🔹 禁止されたAI
🔹 一般的な目的のモデル (GPAI)

禁止されている慣行: 未来のないAI

いくつかの人工知能の使用は倫理的に受け入れられないまたは危険と見なされ、2025年2月2日から禁止されます。

禁止されているAIの例:

  • 社会スコア(「Black Mirror」スタイル):人々を彼らの行動に基づいて評価し、現実生活に影響を与える。
  • 心理的操作: ユーザーに有害または無意識の決定をさせるシステム。
  • インターネットからの顔のスクレイピング バイオメトリックデータベース用。
  • 感情の認識 学校や職場で(健康や安全の理由を除く)。
  • リアルタイムのバイオメトリック監視 は、許可された例外的な場合を除き、法執行機関によって行われます。

高リスクAI: 規則と要件

高リスクのシステムは、権利、安全、または基本的なサービスへのアクセスに直接影響を与えるものです。厳格な要件を遵守する必要があります。

具体的な例:

  • AIを使用して候補者を採用したり、パフォーマンスを評価したりする
  • クレジットや社会的利益の適格性を決定するシステム。
  • アルゴリズム in 医療機器や重要インフラ(エネルギー、輸送)。
  • AIツールが司法制度や民主的選挙に影響を与える。

サプライヤーは次のことを行う必要があります:

  • 継続的なリスク管理システムを採用する
  • トレーニングとテストのデータの高品質を保証する
  • 各段階を技術的透明性で文書化する
  • 市販後のモニタリング計画を実施する

利用者は次のことを行う必要があります:

  • システムを使用する際は、指示に従ってください
  • AIシステムログを保存する
  • 公共またはセンシティブなコンテキストでの基本的権利への影響を評価する

ルールは2026年8月2日から施行されます。

AI汎用モデル (GPAI) のルール

この規則は、IBMのGraniteMetaのLLaMA 3のようなfoundation modelsに特化した規制も導入しており、これらはさまざまなアプリケーションで使用することができます。

GPAIの供給者の義務:

  • UEの著作権の尊重
  • トレーニングデータセットの公開概要
  • 自動マーキング 生成されたコンテンツの (deepfake、テキスト、画像)

モデルがトレーニング段階で10²⁵ FLOPの閾値を超えると、システミックリスクと見なされ、次のことを行う必要があります:

  • 重大な事故を報告する
  • 高度なサイバーセキュリティ対策を講じる

ルールは2025年8月2日から新しいモデルに適用され、既存のものには2027年までの適応期間があります。

EU AI Actは誰に適用されますか?

規則は以下に適用されます:

  • サプライヤー (AIを開発または販売する人)
  • 利用者 (自分の活動でAIシステムを使用する人)
  • 輸入業者と販売業者 EU内

EU域外の企業も、そのシステムや出力が欧州連合で使用される場合、規制の対象となります。その場合、EU内で公認代表者を指名する必要があります。

制裁: 最大3,500万ユーロ

罰金は違反の重大さに比例しています:

違反の種類最大罰金
禁止されたAIの使用€35百万または世界売上高の7%
高リスクAIの要件違反€15百万または世界売上高の3%
当局への誤解を招く情報€7.5百万または世界売上高の1%

PMIstartupは、比例的な制裁制度の恩恵を受けています。

重要な日付

 2024年8月1日: 公式施行
2025年2月2日: 禁止されたAIの実践禁止
2025年8月2日: GPAI (新しいモデル)
2026年8月2日: 高リスクAI
2027年8月2日: 他のEU規制によるシステム

FAQ – よくある質問 AI Act

▶ AI法は個人使用の人工知能にも適用されますか?
いいえ。個人使用や科学研究のための使用は免除されています。

▶ オープンソースシステムは規制されていますか?
はい、システムに影響を与える場合やリスクのある状況で使用される場合は規制されています。

▶ 「生成されたコンテンツをマークする」とはどういう意味ですか?
コンテンツ(例: deepfake動画)がAIによって生成または変更されたことを示す機械可読のメタデータやラベルを追加することです。

結論 

EU AI Actは単なる法律以上のものであり、ヨーロッパのデジタルイノベーションの未来に関する意図の宣言です。AIを開発、配布、または使用する企業は、自社のリスクを評価するプロセスを適合させる、および透明性とガバナンスに投資するためにすぐに行動する必要があります。

RELATED ARTICLES

Stay updated on all the news about cryptocurrencies and the entire world of blockchain.

- Advertisment -spot_img

LATEST