トップページへ

AIの安全性とは

No.199(2023.04.27)

便利な道具は仕組みが理解できなくても使ってきた、というのが現代文明です。利用者は内部で何が成されているのか分からないのでブラックボックスと称されてきました。

家電製品、自動車、コンピュータなどなど日常生活はブラックボックスに囲まれています。
見えないところで良からぬことをしているのではないか、とは疑われもしないで。

かなり以前に、業務用のコピー機がコピーされた原稿をすべて内部に記憶していたことが判明して問題になったことがありました。使用者に知らされていなかったからです。いわば産業スパイです。

外国のドキュメンタリー番組で見た内容で、日本製のプリンタが一定枚数印刷すると故障となるようICチップ内にプログラムされていた、という実例がありました。性能が優れていて壊れにくいプリンタを買い替えさせるためです。

これらの例は悪事(苦笑)の目的は察しやすく、隠されていたという点に問題があるだけだったといってもいいでしょう。

インターネットで検索やSNSを利用した際に収集されている履歴や個人情報の使われ方についてはどうでしょうか。

お金もうけをするために使われることは当然として、それだけだという確証はありません。先にあげた素朴な例と比べると不透明度が相当高くなっています。

ただし当事者に対する情報公開請求が法的に認められれば客観的かつ技術的に検証することが可能だと考えられます。
それが現実的かどうかは別問題としてですが。

ではAIについてはどうなのでしょうか。

ChatGPTの開発責任者へのインタビューをアメリカのテレビニュースで見ました。

AIの安全性に関する質問に対して、正直に言えば分からない、と答えていたので一応信用できそうな人だと感じました。

続けて、常に監視している、と安全対策を説明しました。危険な兆候を見つけたら即座に停止させる、というような内容だったと思います。

要するに、開発者であってもアウトプットでしか判別できない完全なるブラックボックスなのではないのか、AIとは。

先日のこと、二つの異なるAIが外部に分からないように情報をやり取りしていた、という半信半疑な話を聞きました。

AIの暴走が起こり得るのであればアウトプットの監視では間に合わずに手遅れとなることが予想されます。

AIというブラックボックスの透明化が不可能なら、暴走を起こさない仕組みを組み込む技術が確立されるまでは、利用を制限するべきだと主張します。


前に戻る 一覧へ戻る 次を読む