品川です。「Google I/O 2018」で発表されていたLookoutアプリ、MicrosoftがiOS向けにリリースしているSeeing AIアプリと同じように、カメラからの画像情報を視覚障害ユーザ向けに活用できるようにしたスーパーアプリの一つです。このMLでもすでに話題になっていたと思います。日本語に対応する予定はないのかとあきらめていましたが、なんと、いつの間にか日本語に対応していたのですね!Lookout - Assisted vision - Google Play のアプリhttps://play.google.com/store/apps/details?id=com.google.android.apps.accessibility.reveal&hl=ja&gl=US> &hl=ja&gl=USPixel 7とブレイルセンス6ミニのTalkBack環境で読み上げ操作を確認しています。モードは6種類。テキスト: リアルタイム文字認識ドキュメント: 写真を撮影して文字認識探索: 周囲にある物体の名前を検出通貨: 紙幣の識別(現時点では日本語には未対応)食品ラベル: 現時点では日本語のデータは登録されていません画像: 画像分析。保存されている画像、あるいはほかのアプリからの共有。このアプリが発表されたときに注目されていたのが探索機能でした。首からスマートフォンをぶら下げて歩くことで、周囲に何があるのかを教えてくれるという機能です。たとえばドアや椅子など。今では類似のアプリがいくつかリリースされているので珍しい機能ではありませんが、反応は早いように感じました。気づきにくかったのが読み上げ速度の調整個所。「ドキュメント」や「画像」のモードの中で変更ボタンが見つかりました。また、画像分析についてはBingやBe My AIのような詳しい情報を伝えてくれるわけではありませんでした。もしかすると英語では詳細情報を鰓せれるのかもしれません。すっかり日本語には対応しないと思い込んでいただけに、Lookoutアプリが日本語で使えるようになったことはうれしいです。将来Google Bardに対応してくれるとさらにうれしいです!!