米国におけるAI翻訳の限界:難民審査現場の混乱

ブログ

最近の米国では、難民受け入れ制度において「グーグル翻訳」や「ChatGPT」のようなAI翻訳アプリが広く利用されていますが、これには重大な問題が伴っています。名前が誤って暦の月に変換されたり、履歴の年月日が間違っていたり、発音の不具合など、多くの翻訳ミスが発生しており、これが難民申請という重要なプロセスに悪影響を及ぼしています。

「レスポンド・クライシス・トランスレーション」の創設者アリエル・コレン氏は、こうした翻訳エラーが難民の不当な受け入れ拒否につながる恐れがあると指摘しています。実際、この団体は1万3000件以上の難民申請書類の翻訳を扱っており、AIによる誤訳の問題は無視できないレベルです。

さらに深刻な事例として、ある女性の難民申請がAI翻訳の不具合により、虐待に関する重要な情報が法律専門家に見落とされ、申請が棄却される事態に至ったこともあります。コレン氏は、「機械翻訳は重大な状況に対応するために必要な品質をほとんど備えていない」と述べています。

特にアフガニスタンからの難民申請では、翻訳者が取り組んだ案件の約40%でAI翻訳の問題が発生したと推定されています。コスト削減を目指す政府や大規模な難民支援団体では、このようなAI翻訳ツールの使用が増えていますが、人間によるポストエディットの重要性が再確認されています。

この状況は、AI技術の進歩にもかかわらず、重要な意思決定や感情的なニュアンスを伝える翻訳には人間の介入が不可欠であることを明確に示しています。特に難民申請のような敏感な状況では、精確さと人間らしい共感が求められます。このような課題は、AIの進歩とともに、人間の役割と専門性のバランスを見直す契機となりつつあります。