グーグルは危機に瀕した人々の検索をよりよく検出するためにAIを使用
個人的な危機に際して、多くの人が人間以外の情報源に頼ります。Googleです。Googleは毎日自殺や性的暴行、家庭内虐待などのトピックについて検索しています。しかし、グーグルは、人々が必要とする情報に誘導するためにもっと努力したいと考えており、複雑な言語をより良く解析する新しいAI技術が役立っていると述べています。
具体的には、グーグルは最新の機械学習モデル「MUM」を検索エンジンに統合し、”より広範な個人の危機に関する検索を正確に検出 “しようとしている。同社は昨年のIOカンファレンスでMUMを発表し、それ以来、元の検索に関連する質問に答えようとする機能で検索を補強するためにそれを使用している。
この場合、MUMは、以前の検索ツールではできなかった難しい個人的な状況に関連する検索クエリを発見できるようになる、とGoogle社の健康・情報品質担当プロダクトマネージャーであるアン・メリットは言う。
「MUMは、”Why did he attack me when i said i dont love him “のような長い、あるいはより複雑なクエリを理解する手助けができる」と、メリットはThe Vergeに語っている。”このクエリが家庭内暴力に関するものであることは人間には明らかかもしれませんが、このような長い自然言語のクエリは、高度なAIなしでは我々のシステムで理解することは困難です。”
Google is using AI to better detect searches from people in crisis https://t.co/q7a06HQrsm pic.twitter.com/izhKKdaRqi
— The Verge (@verge) March 31, 2022
MUMが反応できるクエリの他の例としては、「自殺が完了する最も一般的な方法」(Merritによると、以前のシステムは「以前は情報を求めていると理解していたかもしれない」検索)や「シドニーの自殺のホットスポット」(ここでも、以前の反応はおそらく旅行情報を返していただろう-「自殺」の言及を無視して、より人気のある「ホットスポット」に対するクエリを優先して)などが挙げられます。
Googleは、このような危機的な検索を検知すると、ユーザーに「Help is available」というインフォメーションボックスを表示し、通常はSamaritansなどのメンタルヘルス関連の慈善団体の電話番号やウェブサイトを添えて対応する。
MUMを使った個人的な危機への対応に加え、グーグルは、ポルノなどの露骨なコンテンツを探す検索をよりよく識別するために、古いAI言語モデルであるBERTも使っているという。BERTを活用することで、グーグルは「予期せぬショッキングな結果を前年比30%削減」したという。
しかし、同社はユーザーが平均してどれだけの「ショッキングな結果」に遭遇しているかという絶対的な数字を共有できなかったため、これは比較的な改善ではあるものの、問題が実際にどの程度大きいのか小さいのかについてはわからないままだ。
グーグルは、AIが同社の検索製品の改善に役立っていることを熱心に伝えている。”グーグル検索は死につつある “という物語が構築されているときには、特にそうだろう。しかし、この技術を統合することは、マイナス面も伴います。
多くのAI専門家は、グーグルが機械学習の言語モデルをますます利用することで、検索結果に偏りや誤った情報を取り入れるなど、同社にとって新たな問題が表面化する可能性があると警告している。また、AIシステムは不透明であり、エンジニアがどのようにして特定の結論に至ったかを理解するのは難しい。
例えば、MUMが特定した検索語が個人の危機と関連していることを事前にどのように検証しているのか、グーグルに尋ねたところ、同社の担当者は答えたがらないか、答えられないという回答でした。
同社は、人間の評価者を用いて検索プロダクトの変更を厳密にテストしていると言いますが、それは、AIシステムが特定のクエリに対してどのように反応するかを事前に知っていることとは異なります。しかし、グーグルにとって、このようなトレードオフはどうやら価値があるようだ。

ビジネスに活用できる情報収集のために英語猛勉中です^^英語とPCとネット関連で、日々やっている事や気になった事、忘備録のような感じで投稿していきます。