タイのAI規制の現状と法整備動向

タイのAI規制の現状と法整備動向

公開日 2023.09.19

人工知能(AI)は、他の新技術と一線を画する技術であり、多くの産業で活用が進み人手に取って替わると予想されている。AIの登場は1950年代まで遡るが、現在は生成AIにより、高品質で一貫性のあるコンテンツを創り出すことが可能にまでなっている。生成AIの利用可能性は無限大であり、社会の躍進に貢献すると期待されている。

AIは、制約を排除し、生産性の向上、イノベーションの加速化、快適な生活環境の創出に貢献するという声が聞かれる一方で、誤情報の生成やプライバシー侵害、雇用機会の縮小、人種問題を引き起こし、人々の生活や人間らしさを棄損するという声もある。

このような性質を持つAIに現行法令で十分に対応しきれるのか、それともAIに特化した法令を整備する必要があるのか。本稿では、タイ政府はどのように対処しようとしているのか、タイにおけるAI規制の現状及び法令整備動向についてご紹介したい。

1. タイにおけるAI規制の現状

現行法令はAI時代以前に整備されたものであるため、多くの学者は、現行法令では、AIに実務上対応しきれないと考えている。例えば、AIに学習させるため機械学習という方法があるが、これは「明示的にプログラミングをすることなく、コンピュータに学習能力を与える[1]」手法である。機械学習によりAIを開発すると、AIシステムは人の関与なしにアウトプットを生成することができる。

しかし、タイの製造物責任法上、瑕疵ある製造物に対する責任を負うのは、製造者、輸入者及び販売者に限られる。また、不法行為に関する法律では、機械又は危険な物品による損害に対して責任を負うのは当該機器を制御する者である。

AI開発過程には、ソフトウェア開発者、設計者、企業等、様々な関係者が関与するが、問題が発生した場合、誰が責任を負うのか判断することは容易ではない。さらに、AIが人の介入なく自律的に機能するとなると、問題はより複雑となる。

したがって、現行法令の枠組みだけでは、保護や救済が不十分であり、AIに適した規制が必要だろう。

2. AI関連の法制整備の動向

AIを新たな機会や生産性を向上させるツールとして捉える見方がある一方で、立法者等は、AI利用による負の影響を懸念する。昨年、タイ政府は他国の規制動向やアプローチを調査し、その結果、2つの規制当局が以下の2つの法令案を起案した。

1)人工知能システムを使用する事業者に関する勅令案

「人工知能システムを使用する事業者に関する勅令案」は、デジタル経済社会委員会事務所(ONDE)が2022年10月に提案したものである。リスクベース・アプローチという保守的な手段を採用しているが、これはAI法に対する欧州委員会の提案の影響を受けたものだ。同勅令案は、危険なAI利用を禁止し、損害を引き起こし得るAI利用に対して責任を負わせる内容となっている。

同勅令案ではAIシステムをリスクレベルに応じて次の3種類に分類している。

勅令案によるAIの分類勅令案の内容
許容不可能なリスクを有するAI: ここに分類されるAIはサービス提供が禁止される。ソーシャルスコアリングや人の弱みにつけこむようなAIシステム。このような基本的人権の侵害や差別につながるAIシステムの利用は禁止される。
高リスクのAI: 特別な義務が課される。予測ポリシング・システム、リクルートソフトウェア及び生体認証による監視システムなど。当局への事前登録やリスク管理対策の実施等の法的義務が課される。タイ国内でAIサービスを提供する海外企業にも適用される。
限定リスクのAI: 一定の透明性に関する義務が課される。チャットボット、ディープフェイク等、広く利用されているAIシステム。機械が応対していることや機械が生成したコンテンツであることをユーザーに知らせる義務など、透明性に関する義務が課される。

これらの義務に違反したAIサービス業者には、課徴金等の行政制裁が行われる可能性がある。また、高リスクAIに分類されるサービスを当局に登録をせず提供した場合、刑事責任に問われる可能性もある。

なお、同勅令案の規制対象は、一般消費者に利用可能なAIシステムに限定され、研究開発中のAIシステムは対象外だ。つまり、同勅令案はイノベーションを妨げることは意図していないと言えるだろう。

2)国家AIイノベーション促進・支援法案

AI関連のもう一つの法令案として、2023年7月に電子取引開発局(ETDA)が意見公募にかけた「国家AIイノベーション促進・支援法案」がある。こちらは、前述の勅令案と違い、AIの利害関係者に負担を課すのではなく、ETDAはAIをポジティブに捉え、法的メカニズムを通じてAIエコシステムの開発促進に必要な支援を行うことを意図している。また、同法案の実施状況を監視するため、関連当局の代表者から成るAI促進委員会を設置し、多様な産業の異なる実務を反映する予定である。

同法案によると、企業は、市場でのサービスの提供を開始する前に、AIサンドボックスを利用して、管理された環境の中でAIシステムを試験運用することができる。サンドボックス参加者は、規制当局から技術面や規制面の助言を仰ぐことができる。また、AI開発上の障害となる規制の撤廃に向け、管轄当局と協業することもできる。ただし、サンドボックスに参加するには、ETDAへの事業登録が必要だ。登録すれば、AIトレーニング用データへのアクセス権限が付与されるなどの特典もある。

研究開発についてETDAは、データ活用を可能にすることでAI開発が進むと考えている。そのため、データ共有・仲介ガイドラインを策定し、データ共有環境の創出を加速化させようとしている。うまくいけば、データ購入者や販売者が、データ仲介者と安心して取引をすることができるようになるだろう。

また、同法案は、AIシステム運用時に参照すべきアルゴリズム基準にも言及している。同基準は強制基準ではなく倫理指針のような位置づけだが、当該基準を順守することで、自社のウェブサイトや事業所に表示する認証マークの申請が可能となる。認証を取得すれば、利用者の安心感を高めることができる。

さらに、リスク評価時に取るべき手続きに加え、AI開発者がリスク評価基準を策定する際に推奨アルゴリズム基準を考慮することを義務付けている。

消費者保護という観点からは、透明性を確保し、不公平・差別条項を排除するため、公開しなければならない最低限の要件(AI企業の義務と責任、サービス基準の保証、料金等)が定められている。また、ユーザーの利用を不当に制限する条項やユーザーを差別する条項、当事者にとって不公平な条項を設けることはできない。

1)で述べた勅令案が定める高リスクAIと同様、ETDAの法案には、「厳格な監視下で運用可能なAIシステム」が含まれる。ただし、その詳細については未定だ。ここに分類されるAIシステムについては、今後、リスク評価の実施等の義務が規定される。これらの義務は、タイ国内でAIサービスを提供する海外企業にも適用される。

同法案は、損害賠償基金の設立も提案している。AIを利用して損害を被ったユーザーや第三者が、責任当事者を発見することができない場合、その損害が当該ユーザーや第三者の過失によるものでない限り、基金に損害賠償請求することができる仕組みである。ただし、まずAI企業か保険会社に賠償請求することが前提である。

3. おわりに

同勅令案と同法案はまだ起案段階にあり、今後立法化にはまだ時間を要するだろう。これらは、欧州連合(EU)のAI法の枠組みを採用しているが、動きの速いAIトレンドに遅れず、タイの経済成長を支える形でタイのニーズに即したAI規則の現地化も必要だろう。

AIが社会に浸透しつつある今、私たちは今、過度な規制でイノベーションを抑制するのか、規制の少ない環境で自由をリスクに晒すのかを選択する岐路に立っている。私たちは技術の誤用が命取りになることを十二分に承知しているが、一方でAIの進歩によりデジタル革命が次の段階へとステップアップさせてくれることに希望を見い出している。

執筆:ノン・ホーラヤングーン/ヤーダー・ウィセートウォンサー/ブリン・セーコー
(知的財産技術(IP Tech)グループ)


[1] Brown, Sara. “Machine Learning, Explained.” MIT Sloan, 2021年4月21日, mitsloan.mit.edu/ideas-made-to-matter/machine-learning-explained.

ベーカー&マッケンジー法律事務所Baker McKenzie

日系企業窓口:
阪本法子、ベネディクト・ヨン、ワルット・キッティシュンチット
Email: [email protected]
Tel: +66 2 636 2000 #4127
Web: www.japandeskbakermckenziebangkok.com

環境・社会・ ガバナンス (ESG) への意識が高まる中、人権、労働、 ガバナンス 、 サプライチェーン 、汚職対策など様々な領域で真摯な取り組みが求められています。ベーカー&マッケンジー法律事務所では、ESG の重要性を認識し、既存体制の構造から改善・脱却を試みる企業の皆様の目標達成をお手伝いしております。

Recommend オススメ記事

Recent 新着記事

Ranking ランキング

TOP

SHARE