品川です。アメリカのAiraはBe My Eyesアプリの有料版的なサービスと言えばわかりやすいかもしれません。基本的には有料のサービスで、ビデオ通話の相手であるオペレーターがVisual Interpreterとしてスマートフォンのカメラの映像を説明してくれます。オペレーターは英語です。Aira Explorer - Google Play のアプリhttps://play.google.com/store/apps/details?id=io.aira.explorer&hl=ja&pli=1そんなAiraにも生成AIが利用できるようになりました。「Access AI」タブの中で操作できます。「Quick Capture & Send」ボタンを実行すると、写真が撮影されて回答が表示されます。「Choose from Gallery」ボタンを実行すると、保存されている写真を選択できます。回答は英語で表示されますが、質問を日本語で送信すれば日本語の回答が返ってきます。
品川です。ここ数年はウェブ検索が面倒だなぁ、なかなか知りたい情報にたどり着かないなぁと感じております。昨年ごろからはPerplexityやbingのサービスを利用して検索する機会が増えてきました。有料プランを契約すればもっと便利に活用できるのかもしれませんが、そこまでの使い他をしていないので縁のない存在でした。そんなときにソフトバンクのキャンペーンが登場しました。Perplexity Proのサービスが1年間無料になるという内容です。ワイモバイルのユーザでも申し込めるので、久しぶりにありがたいキャンペーンです。Perplexity Pro | スマートフォン・携帯電話 | ソフトバンクhttps://www.softbank.jp/mobile/service/perplexity-ai/申し込んだ後はサブスクリプションが継続になるのかどうかが気になる点。設定メニューの中で確認しておくとよいですね。Perplexityhttps://www.perplexity.ai/settings/account
茨城県から藤岡です。皆さん、こんばんは。今日は、表題の件について教えていただきたく、投稿させていただきました。センスプレーヤーのスマートconnect機能を使って、iPhoneの通話を録音したいのですが、こちらから電話した場合は、録音ができるのですけれど、かかってきた電話は、iPhoneで着信音が鳴り、ナビゲーションモードで「メニューキーと0キーの同時押し」をすると、iPhoneの受話口から音が出てしまい、ヘッドセットから音が出ないため、通話録音ができません。USBタイプCのヘッドセットが信頼できるという事が、キャンセルボタン長押ししたときの使い方ガイドに記載されていたので、オーディオテクニカのATH-102USBというヘッドセットを購入して試しているのですが、スマートconnectで自分のiPhoneとペアリングしても、iPhoneに着信がなってしまいます。この着信音が、USBヘッドセットから鳴り、かかってきた電話を録音する方法につきまして、ご存じの方がいらっしゃいましたら教えていただけましたら幸いです。センスプレーヤーのファームウェアは最新です。それでは、失礼いたします。
おはようございます。千葉県の三瓶です。十分検証できていないので、考え方と、ご提案として受け止めてください。◎検証提案いわゆる有線4曲イヤホンを、センスプレイヤーに接続して、試していただく。従来型の3.5mmの有線イヤホンです。◎考え方通話のうち、いわゆるキャリア通話の受信通話は、ブルートゥースのプロファイルhsp/hfpが担当するのでなかったかなと考えています。なので、優先で、センスプレイヤーの3.5mmイヤホンジャックに、有線タイプのイヤホンを接続し、試していただくことが、一つの切り分けになるかもしれないと、考えました。思い違いもあるかと思います。ぜひ、ご指摘いただき、学ばせてください。
茨城県から藤岡です。千葉県の三瓶さん、皆さん、おはようございます。三瓶さんご提案くださいまして、ありがとうございます。
茨城県から藤岡です。皆さん、こんにちは。iPhoneのかかってきた電話をセンスプレーヤーに録音したいという件について、センスサポートへ問い合わせして見ました。解凍としましては、
茨城県から藤岡です。皆さん、こんばんは。センスプレーヤーで、iPhoneの通話を録音する方法ですが、前メールに投稿した設定で行って見たのですけれど、何度やっても無音のファイルしかできませんでした。それで、スマートconnectに保存されているペアリング情報と、iPhone上に保存されているペアリング情報を削除し、再ペアリングしたところ、発信・着信両方とも通話録音することができました。購入したヘッドセットも無駄にならなくて良かったです。それでは、失礼いたします。
茨城県の藤岡さん、皆さん、千葉県の三瓶です。解決してよかったです。私の記載で、プロファイルの問題かなと書きました。私も、並行して、調べさせてもらい、スマートコネクト機能について再認識しました。センスプレイヤーが、iPhone本体とやり取りをする際、キー操作で送っているのは、ボイスオーバーコマンドだということ。現状では、hsp/hfpのプロファイルをコントロールする仕組みはないと理解しました。その対策として、藤岡さんがしめされたように、iPhone側で、設定することが対策になるということのようでした。ありがとうございました。
アンドロイドユーザの皆さんこんにちは、川口です。このたび、メーリングリストに参加させていただきました。私は、コード化点字ブロックの普及活動を行っております。コード化点字ブロックとは、既存の点字ブロックの分岐点等の警告ブロックの突起を利用してマーキングすることで、それをコードとしてスマホのアプリで読み取り、進行方向に従って、前方や左右に何があるかを音声で教えてくれるものです。目的地まで行くナビではなく、周辺情報を案内してくれるものです。金沢工業大学の松井研究室で開発が進められていますが、私自身がiPhoneユーザでアンドロイドを使用していないとめアプリのテストができません。普段アンドロイドを使っていらっしゃる方で、アプリを変更した時などに使い勝手を試していただいて改善点などhアドバイスをいただける方を探しています。普及の途上なので、研究開発費があるわけではなく、私も普及活動は個人でやっています。そのため、無償ボランティアで試していただける方を探しています。頻度は決して多くありません。ご興味のある方がいらっしゃれば、ご連絡いただけますと幸いです。よろしくお願いいたします。川口育子
神奈川県の三井篤です。有益な情報をありがとうございます。さて表題の件で問い合わせをいたします。画面は日本語なのに英語の音声エンジンで読み上げています。日本語音声エンジングーグルがダウンロードできないのです。もしかしたらWi-Fi環境であるのなら自動的に下りてくるものなのでしょうか。アンドロイドに関してはいわゆるどシローとでございますのでご指導のほどよろしくお願い申し上げます。
山賀です。最近機会あって表題のアプリを店舗で使ってみましたので簡単にレポートします。コメダ珈琲店 - Google Play のアプリhttps://play.google.com/store/apps/details?id=jp.co.komeda.ua.android&hl=ja会員登録画面は少し癖がありましたが、アプリの機能はほぼ問題なく使用できました。店舗ではテーブルにあるQRコードを読み込んでチェックインするのですが、このQRコードが触って確認できた点には驚きました。試した席は壁に向かって左から呼び出しボタンメニューのファイルラミネートされたお知らせがありました。お知らせのラミネートを触ると中央左に切手より少し大きい膨らみと、その横にさらに大きい膨らみを確認できました。小さい膨らみがチェックイン用のQRコードになっていて、場所を確認して読み込めました。メニューの閲覧もとくに大きな問題はありませんでした。アプリに限らずモバイルオーダーのページは項目毎にボタンが分かれていても結局ひたすら盾に長いページを閲覧して希望のメニューを探すことが多いです。コメダコーヒーのアプリでは大項目はタップで表示が切り替わりその必要はありませんでした。メニューの読み上げはメニュー名説明値段がまとめてあり、1スワイプで1メニューが閲覧できて快適でした。トッピングの選択もメニュー選択時に一緒に表示されて迷わずできました。3点改善を期待したい事として、 1. プロフィール設定で生年月日の入力ができない点 2. メニューで小項目のタップでの該当欄への移動ができない点 3. メニューから小項目一覧への移動ができない点はありますが、総合的にみてこれまで使ったモバイルオーダーの中で一番使いやすかったという気がしています。余談ですが、Android版はかなり完成度が高いのですが、iOS版はメニューをカートに追加できないなど、かなり課題がありました。チェックインやメニューの閲覧はできるので、全然使えない訳ではないのですが、
みなさん こんばんは晴眼者で視覚障害者のサポートをしています。Androidでトークバックを始めるときにはどう操作をしていけばよいのでしょうか、ジェスチャーが無いので位置がよくわかりません。よろしくお願いいたします。
こんにちは。加古川の田中哲夫です。私が回答できるものかどうかわからないんですが、どなたからもお返事がないようなので。まず、Talkbackが入ってますか?入ってれば、音量ボタンをしばらく上下を同時押しすれば、起動するかもしれません。スマホの機種など、教えていただけますか?最初から入ってるもの、別のスクリーンリーダーが入ってるものがあります。最初の起動直後に、指2本を少し離した状態で、しばらく置いておくと、しゃべるものもあります。私はそれをすぐに離してしまって、失敗したんですが。では、よろしくお願いします。
田中さん こんばんはコメントありがとうございます。私自身は晴眼者です、スマホの相談会の幹事になってiPhoneだったら何とかなるのですが、アンドロイドは初めてでドタバタしています。因みに私の所持している機種はmoto24gです。
山賀です。まずは下記ページを順番に閲覧してください。最初に必要となる情報は網羅できているはずです。Android 虎の巻https://yama3nomori.jp/cgi/Android/homepage.cgi
こんにちは、田中哲夫です。山口さん、お世話様です。
山賀さん資料ありがとうございます。読んで勉強します。今後ともよろしくお願いいたします。?山口恒雄?-----Original Message-----From: Nobuyuki Yamaga Sent: Sunday, August 11, 2024 6:21 PMTo: android@yama3nomori.jpSubject: [android:06614] Re: [android:06613] RE: [android:06612] Re: トークバックの最初は?山賀です。まずは下記ページを順番に閲覧してください。最初に必要となる情報は網羅できているはずです。Android 虎の巻 https://yama3nomori.jp/cgi/Android/homepage.cgi
田中さんコメントありがとうございます。いろいろと勉強してみます。
山賀です。Google Pixel 9https://store.google.com/jp/product/pixel_9?hl=jaのセットアップをした様子をYouTubeにアップしました。視聴いただくとわかるのですが、日本語で問題なく作業を完了できました。Pixel 9を画面を見ずにセットアップ(音声のみ)https://youtu.be/be0M54fRKKQ
山賀です。下取りに出すPixel8を初期化したついでで日本語でセットアップができるか試してみました。2024年8月のシステムアップデートと同プレイストアアップデート適応済みという条件でTalkBackを使って日本語でセットアップ可能でした
山賀です。表題について共有します。下記以外は更新後表示される説明もしくはTalkBackメニューのTalkBackの新機能をご覧ください。 1. フォーカスした項目から読み上げこれまでは次のアイテム以降読み上げでしたが、上記に変更になりました。ニュース記事などを読むときに使い勝手がわるいな、と思っていたのでうれしい変更です。 2. ディサビリティサポートユーザ補助を使用しているユーザ向けのサポートへの入口がTalkBackメニューに設けられました。ただし残念ながら日本語には非対応のようです。 3. 画像の説明これまでもボタンなどに説明がない時に簡単な説明はありました。このバージョンからはTalkBackメニューから画像の説明を実行すると生成AIによる詳しい説明が得られます。ボタンの説明はもちろん投稿された写真の説明など便利に使える場面が多いように思います。画像の説明はジェスチャーに割り当てる事もできます。
MLの皆様こんにちは。広島市の高松と申します。いつも有益な情報ありがとうございます。とても勉強になっています。表題のように、TalkBackに、新たなAI画像説明機能が追加されて利用できるようになっています。私もpixel7Aで実際に試したところ、ビーマイAIと同じようなことがトークバックメニューからできるようになっていました。ビーマイAIのように質問はできないようですが、かなり詳しく説明してくれる印象でした。ただし、この機能は、サムスンの端末では利用できないようです。詳しくは以下の記事をご覧ください。サムスン端末で利用不可:GoogleのTalkBack新機能に関する最新情報https://reinforz.co.jp/bizmedia/55411/
gqs。今はandroidユーザー補助設定ツールちいうけ
山賀です。表題の機能のデモ動画をアップしました。みなさんの参考になれば幸いです。http://www.youtube.com/watch?v=Vakg6wZPcQQ
高松さん、山賀さん、皆さん、こんにちは。名古屋の小島と申します。ワイモバイルから購入したZTEのスマホを使用しています。Androidバージョンは13です。弱視で普段はTalkBackを使っていませんが、お二人の情報を読んでTalkBackでの画像の説明を試してみました。なかなかいい感じで説明してくれますね。そこで私は4本指タップに画像の説明を割り当てることにしました。良い情報をありがとうございました。
堀越です。これラインのスタンプとかも教えてくれるので便利ですね。あとビーマイアイズと違って画像をダウンロードしなくてよいところもいいですね。(もしかしてビーマイアイズもダウンロードしないで画像解析できるのでしょうか。。)
品川です。海外の視覚障碍者の間では話題になっていた読み上げアプリ、ようやく日本のPlayストアとApp Storeからもリリースされました。ナレーション向きのボイス、落ち着いた性格のボイスなどが選べます。一人の声で何か国語も読み分けてくれるのには驚かされますね。なぜだかDeepak Chopra博士の声も選べるようになってます。もちろん日本語のテキストもチョプラ博士が読み聞かせてくれるのです。とはいうものの、日本語の読み上げはかなり癖ありです。読み上げ辞書の編集もできないので、日本語についてはまだまだ発展途上という印象。ウェブサイトのサービスとは異なり、文字数制限がないのはうれしいです。TXT, PDF, ePubに対応。メニュー表示は英語。HomeタブのImportボタンからファイルの追加、テキスト入力などができます。Reader by ElevenLabs - Apps on Google Playhttps://play.google.com/store/apps/details?id=io.elevenlabs.readerapp&hl=en_USListen to anything on the go with the highest quality voices | ElevenLabshttps://elevenlabs.io/text-reader
品川です。「らくらじ」アプリの開発者がPodcastの検索・再生アプリを開発されているようです。再生ボタンなど、いくつかのボタンにはテキストラベルが付けられてませんが、TalkBack環境で操作できます。再生速度の調整ができるのかどうかは確認できていません。開発中ということなのでTalkBackユーザの声が反映されやすいかもしれません。「おとばこ」(オープンベータ版) 公開のお知らせhttps://dogaradi.com/2024/09/26/info-otobaco-0-9-5-2024-09-26/
九曜です。 Pixel 6aを使っているのですが、最近システムを再起動するとTalkbackがしゃべらなくなるトラブルに悩まされています。音量ボタンのアップとダウンを同時に押すと「バーン」という音がします。しかしTalkbackがしゃべりません。結局見える人に見てもらって、設定 → ユーザー補助 → Talkbackを開いてTalkbackを一旦オフにして再びオンにしてもらうと正常にしゃべりだします。その後再起動するまでは正常にしゃべっているのですが、再起動してしまうと先ほど書いたような症状になります。先ほどもシステムアップデートがきていたので、もしかするとアップデートすると治るかと思って、アップデートして再起動したところ、やはりしゃべらなくなってしまいました。また見える人にTalkbackを再起動してもらわないと駄目でしょうか。システムを再起動してもTalkbackがしゃべるようにする方法がありましたらご教示いただければ幸いです。
山賀です。困った事態になっていますね。端末の再起動直後はTalkBackの立ち上がりが鈍いことがありますが、1 2分待ってもしゃべらないということでしょうか?下記手順を順番に試すと直るかもしれません。https://yama3nomori.jp/cgi/android-ml/thread.cgi?page=629
加藤です。私もpixel6で同じ減少に悩まされました。どうしても見ていただく必要がありますが、トークバックを再インストールしたら治りました。根拠はわかりませんが、操作の反応などもよくなりました。可能なら試してみてください。
九曜です。山賀さん、加藤さん、その他個人メールでご返信いただいた方々、ありがとうございます。まずは加藤さんからいただいたTalkbackの再インストールを試してみようと思います。「Prudence Screen Reader」というのを使えば、自力でTalkbackの再インストールができるのではないかという情報をいただきました。今は一時的にプレイストアから入手できなくなっているみたいですが、下記からAPKファイルをダウンロードできるそうです。Android 用 Prudence Screen Reader APK のダウンロード - 最新バージョンhttps://apkpure.net/jp/prudence-screen-reader/com.prudence.reader昨日の再起動で現在は音声が出ない状態のため、今すぐは目を借りないのでできないのですが、また結果を報告させていただきます。
九曜です。 見える人に頼んでTalkbackをオンにしてもらいました。そこで、Prudence Screen Reader を使ってTalkbackを再インストールしようとしたのですが、Prudence Screen Reader が動作しません。設定 → ユーザー補助 → Prudence Screen Readerを実行すると、「アプリはアクセスを拒否されました」と表示されて起動できません。プライバシーとセキュリティーでユーザー補助の許可をしてもらわないといけないのですが、Talkback以外は許可できないようです。 中国で開発されているスクリーンリーダーのようなのでプライバシーを侵害すると判断されたのかもしれません。このスクリーンリーダーで読ませた内容が全部中国に流出したら確かに怖いですからね!せっかくよい方法を教えていただいたのに残念です。
九曜です。 Pixel 6a を再起動するとTalkbackがしゃべらなくなる件、やっと解決いたしました。例の Prudence Screen Reader を無事に動かすことができ、それを使用して Talkbackを再インストールしたところうまく行きました。Prudence Screen Reader を動かす方法についてはちょっとマニアックになってしまうのと、もしかすると危険かもしれませんのでここに書いていいかどうか悩みますが、簡単に書きますと、開発者サービス(デベロッパーサービス)をオンにして、アプリの設定でPrudence Screen Reader の制限付きを解除してやると動作しました。 この度は皆様から様々な情報をお寄せいただいたおかげで解決いたしました。大変感謝申し上げます。ありがとうございました。
山賀です。英語での使用から始まったGoogleの生成AIジェミニライブですが、10月23日から徐々に日本語でも使えるようになっています。数日遅れてこちらでも使えるようになったので試してみました。ジェミニを起動した後、ジェミニライブを開くが表示されていれば使用可能な状態です。音声は10種類から選択できます。質問を投げかけた後、説明を聞き終わる、もしくはオーケー●●のウェークワードなしで会話が進められるのは思った以上に便利でした。以下は簡単なデモです。ジェミニライブを使ってみました - YouTubehttps://www.youtube.com/watch?v=f6RAjgEOzGg
みなさまはじめまして。私は、視覚障害者のサポートをしております、渡邊と申します。晴眼者です。私はアイフォンユーザーなのですが、最近アンドロイドのサポート希望者が増えてきた印象があります。アンドロイドのスマートフォンは全く不得手のため、ネットで検索しながらなんとか対応している状態なのですが、ネット上にマニュアルらしいマニュアルも見つけられず(私の調べかたが悪いのかもしれませんが)、毎回四苦八苦しております。調べてもわからないことについて、皆様にご相談させていただけたらと思い、メーリングリストに参加させていただいた次第です。さて、今回ご相談したいことは、「ジェミニ」についてです。使用しているスマートフォンの機種は、「ギャラクシーノート20ウルトラ5G」です。 1. 電源ボタンを長押ししてジェミニを起動し、そのまま話しかけられるようになりたいのですが、できないのです。以前、ピクセル8Aで試したときは、デジタルアシスタントをオンにして、特に問題なく操作ができました。しかしギャラクシーでは同じようにできず、なんとか「電源ボタン長押しをすることでジェミニが開く」という設定をすることまではできたのですが、ジェミニが開けてもそのまま話しかけられない(画面上にあるマイクボタンを押さないといけない)ので、不便があります。これは設定の仕方に問題があるのでしょうか?それとも機種によるものなのでしょうか? 2. ジェミニでラインをする場合、音声だけで作成することは可能なのですが、「〇〇にラインを送りたい」と指示を出した後、「どんな内容を送りますか」と聞かれます。このとき「〇〇にどんな内容を送りますか」と聞かれないので、あて先が本当にあっているか分からず不安になります。らくらくホンだとあて先を言ってくれるのですが…。これも機種によるものなのでしょうか?もしギャラクシーを所持しているかたで、何か情報を持っていらっしゃるかたがいらっしゃいましたら、お教えいただければ幸いです。よろしくお願いいたします。
品川です。世の中では副音声付のテレビドラマの数が着々と増えていますね。手持ちのMP4ビデオに自動的に説明音声を加えてくれるのがSeeing AIアプリの新機能です。現時点では一日に扱えるファイル数に制限が設けられています。数日前に試したときには説明は英語になっていたのですが、先ほど試すとAndroid版でもiOS版でも日本語になっていました。操作としてはMP4ファイルを開いて共有メニューからSeeing AIアプリを指定します。解析が始まり、自動的にビデオが再生されます。副音声解説付きのテレビドラマのように、説明文をTalkBackが読み上げてくれます。ただし、説明音声が読み上げられているときにはビデオ音声が聞えない状態になってしまいます。iOS VoiceOverのオーディオダッキングを変更してもビデオ音声は聴こえませんでした。TalkBackでもメディア音声は消えてしまうようです。さて、もう一つの新機能はPDFの読み込み。操作はPDFファイルを開いて共有メニューからSeeing AIアプリを指定します。認識された結果に対して、Ask Seeing AI機能を利用できますが、英語環境には対応しているものの日本語環境ではまだ使えませんね。今年の障害者週刊のころにはAsk Seeing AI機能が日本語環境でも利用できるようになってほしいものです。
品川です。Seeing AIアプリがmp4動画に対して説明を作成してくれるという話、先日の内容に間違いがあったので報告しておきます。スクリーンリーダーが説明を読み上げている間はメディアの音声は0になってしまうと書きましたが、実際には読み上げ中は動画が一時停止状態になるようです。てっきり映画やテレビドラマの副音声解説のように映像が連続再生になっているのかと思っていました。[010] Seeing AI 5.4のビデオ説明機能を試してみる|at-news #notehttps://note.com/viexp/n/n3f59f3d8e9fe
渡邊様こんにちは、名古屋の小島と申します。私の機種は全然違うものですが、どなたからもコメントがないようなので、外しているかもしれませんがリプライします。Geminiを起動してマイクボタンをタップしないと始まらないとのことですが私のところでも同じですよ。そういう仕様ではないでしょうか。マイクボタンなしで、いきなり話しかけられるのはGemini ライブだと思いますが、それを使うにはたぶん有料プランに入らないといけないと私は認識しています。
再び小島です。すみません、勘違いしていました。Gemini Liveは無料で使えています。ただ、電源ボタン長押しでGeminiを起動しても、Gemini Liveは自動的には立ち上がりません。Gemini Liveを立ち上げるためには、画面の一番右下にある”open Gemini Live”ボタンを押す必要があります。このボタンを一度だけ押せば、Gemini Liveが始まり、”終了”ボタンを押すまでチャットを続けることができます。
こんにちは、伊沢です。以前からのことですが、Pixelからの文字入力をgボードで行うとやりにくいという話題を書き込んでいました。説明が難しいのですが、ああ、あの話ね、と思われる方も多いと思いますが、Androidスマホの使用歴の浅い方は、何の話だろうと疑問かもしれません。概ね何となくではありますが、Pixelからの文字入力が他のAndroidスマホに較べてやりにくいことがあるのではないかというものです。少なくともこちらで使っている限り大変使いにくいと、いつも感じていました。快適な入力がどんな状態かといって、一番に思いつく事は、出てきた変換候補が左右スワイプで次々に移動して確かめられること、そして目的の変換候補をダブルタップで確定させられることがありますね。そもそも変換候補の表示されているところにすぐに行けなくては話にならないわけですね。これらがうまくいかないことが多くて大変困っていたわけです。そこでPixelのユーザーに試していただきたいことがあります。それは、KGSで出している、BMスマートターミナルを、別に点字ディスプレイを使っていなくてもいいかも知れませんが、使っている方はこのアプリをインストールなさっているかもしれませんね。それを、画面キーボードからの文字入力を始める前に起動しておくことです。文字入力に問題を感じている方だけ行ってみていただきたいのです。これがみんなに通用する解決策なのかもなんとも言えませんが、これだけのことで文字入力が快適になるならばいいですね。たまたまこちらでうまく行きましたのでネタとして書いていますが、例えば点字ディスプレイを使わない方が、Bmスマートターミナルをインストールするとか、アプリの許可の状態はどうかとか、書き込みが快適になるのに条件があるかもしれませんね。余談ですが、gボードの入力が快適にできている時というと、大まかに言って、画面キーボードの各文字の上を、左右スワイプで移動できている時だと思います。これができない時には、どうやら変換候補も左右スワイプでは選べませんし、変換候補の上をひたすら指でなぞらなくてはならないようです。意図しない変換候補が確定してしまったり、大変ですね。、
横浜在住の渡辺と申します。いつも貴重な情報ありがとうございます。表題の件、以前からTalkBackの読み上げが不安定なので困っています。現在、Google Pixel 7 Proを使用しており、アップデートは適宜行っており、最近Android15にアップデートしました。TalkBack(Androidユーザー補助ツール)も常に最新に更新されています。当方、弱視なのですが、頻繁にショートカットキーでTalkBackをオン、オフします。(ユーザー補助の拡大を併用しています)TalkBackの読み上げが不安定というのは、あまりうまく説明できないのですが、例えば、・それまで問題なかったのに、途中から読み上げがされなくなる・TalkBackをオンにしても、最初から読み上げない・Talk Backジェスチャーが使えなくなることがあるなどです。なお、2年前にPixelに機種変更する前は、ASUSのZenfone 7 Proを使用していましたが、その時から同様の現象です。最近になって、Android14の時からですが、[android:06292] TalkBackの不具合解消方法で教えていただいた方法を、以下の通り何度も試しましたが、改善しませんでした。0.Androidユーザー補助設定ツールのアプリ情報を開く設定→アプリ→Androidユーザー補助設定ツールここから、以下の操作を行いました。(確認ダイアログ等の操作は割愛します)1.キャッシュの削除ストレージとキャッシュ→キャッシュを削除2.アップデートのアンインストールその他のオプション→アップデートのアンインストール※すぐにTalkBackがオンになります。オンになった後にプレイストアで更新を実行します。3.ストレージの消去ストレージとキャッシュ→ストレージを削除※実行するとTalkBackがオフになるので、音量キーのアップとダウンを長押ししてオンにします。操作は以上です。順番を変えたり、途中や最後に再起動を入れたりもしましたが改善しません。もし、ほかに試してみることがあれば教えていただきたいです。端末のリセットはやりたくないので、それ以外になにかやれることがあればと思います。また、同様の現象が発生する方はいらっしゃいますでしょうか?(これだけでも知りたいです)以上、よろしくお願いします。
皆様、こんにちは。村尾トシヱ/トシリンです。 今年の夏にGoogle Pixel 8とBMSエア16を入手しました。 わからないことばかりで、困っていたところ、androidメーリングリストがあると教えていただき入会させていただきました。 androidは電話をすることはできるようになったところです。 どうぞ、よろしくお願い致します。
渡辺さん、皆さん、こんにちは。名古屋の小島と申します。バージョンはAndroid13です。私も弱視で、通常は文字フォントを大きくしてルーペで覗き込みながら操作しています。文章が長い時は読み上げを使いますが、私はTalkBackではなく、選択して読み上げ機能を使っています。2本指で画面の下から上にスワイプして、読ませたい箇所をタップする方法です。このうやり方で読ませていますが、あまり不具合を感じません。
皆さん、初めまして。私は山形県在住の井上と申します。宜しくお願い致します。アンドロイド歴はラクラクフォンの頃から使っておりますが、最近ラクラクスマホからソニーのエクスペリアのスマホに機種変し、三か月がたちました。 幸いな事に、私が現在使用している機種では、電話の受けかけ等はスムーズにできますが、私の家内と息子が現在使用しているギャラクシーの機種では、電話をかける方に関しては、中々難しい様です。 以上私のスマホの環境について、ご紹介させて頂きましたが、視力は若い頃は見えていた時期もありましたが、現在は光の明暗がわかるほどで、視力はありません。こんな私ではありますが、まだまだ新しいスマホに関してはわからない事も多々ありますので、今後とも宜しくお願い致します。それではまた。
横浜在住の渡辺です。小島さん、返信ありがとうございます。選択して読み上げという機能があることは知っていたのですが、使ったことがありませんでした。TalkBackばかり使っていたので、その存在も忘れかけていました。あまり不具合がないということで、こちらの機能も活用してみたいと思います。情報提供に感謝します。
こんにちは。村尾トシヱ/トシリンです。 トークバックのことで教えてください。 夜寝る前にちょっと触りましたら、少し音声が出たのですが気にせずに寝ました。翌朝になってスマフォを触っても音声がでませんでした。「トークバック・オン」と話しかけてもだめでした。 それでアンドロイドの右横のスイッチを30秒ほどおして、数分して、また押しましたら、トークバックがオンになりました。 ところが、ズームがだめになってしまいました。他の操作はできております。 「トークバック・オン「と言ってもトークバックがオンにならないときは、どのようにすれば良いか教えてください。 よろしくお願い致します。
山賀です。電源ボタンの長押しから声でTalkBackを有効にする方法は端末によっては成功しません。確実な手順は設定→ユーザ補助→TalkBackよりオンにすることをおすすめします。加えて同画面にてTalkBackのショートカットを設定すると状況によってオン/オフを簡単に切り替えることができます。操作は音量キーの上げと下げの同時長押しです。
皆様、こんにちは。村尾です。 山賀様、教えてくださりありがとうございました。> TalkBackのショートカットを設定しましたら、音量キーの上げと下げの同時長押しでオン・オフを切り替えることができるようになりました。 誠にありがとうございました。 今後ともよろしくお願い致します。
皆様、こんにちは。村尾トシヱ/トシリンです。 私はズームを使用してオンラインをしています。 そのとき、暫くすると、画面がホーム画面になってしまい困っています。グループアウトルームをタッチして移動したいのですができません。 パソコンならオルトタブで変更できますよね。そのようなことはアンドロイドでもできるでしょうか?そのしかたを教えていただきたく思います。 よろしくお願い致します。
トシリンさんこんにちは、名古屋の小島です。TalkBackを使ってないという前提で書きますが、パソコンのAlt+Tabと同様の操作は画面の一番下を、左から右へスワイプすることでできます。
こんにちは。トシリンです。 名古屋の小島様、教えてくださりありがとうございます。
トシリンさん小島です。私はTalkBackユーザーではないので、TalkBackの操作はあまりよく知りません。申し訳ありません。
トシリンさん 小島です。 私はTalkBackユーザーではないので、 TalkBackの操作はあまりよく知りません。 申し訳ありません。
品川です。Be My EyesアプリのBe My AI機能では、撮影した写真をChatGPTが解析して詳しく知ることができるようになりました。次のステップでは写真撮影しなくてもライブカメラの映像を処理できるようにすることだとアナウンスされています。OpenAIのChatGPT有料プランではライブカメラの映像を処理できるようになっているそうなので試してみたいなぁと思っていたところ、GoogleのGemini 2.0では同じようなことが体験できるようになっています。Podcast番組の「Double Tap - Your daily accessible technology show」で紹介されていました。AI Gets Vision & Steven Won’t Eat Chocolate Ever Again - YouTubehttps://www.youtube.com/watch?v=Y5Dp7tDcemA番組の23分ごろから聴くことができます。Shaun Preeceさんは屋外を歩くときに使えないだろうかと試しておられます。胸ポケットにスマートフォンを入れて歩くわけですが、声で質問すればすぐに答えが返ってきます。「何が見える」「目の前に障害物があれば教えて」「車が止まっていれば教えて」などとリクエストしていました。ああ、これができたら便利そう!そう思って私も試してみました。日本語でのやり取りは可能です。しかし、「目の前に車があれば教えて」、「部屋の中にボトルがあれば教えて」のようなリクエストに対しては対応してもらえませんでした。「書かれている文字を教えて」のようなリクエストに対しては日本語の文字も読んでくれます。まだ試験的な機能なのでGeminiアプリでは利用できません。また、歩きながら使うことは危険ですので、屋外で利用する場合は安全な場所に停止して試すのが身のためです。ウェブブラウザでアクセスすればよいだけなのでAndroidでもiPhoneでも利用できます。Windowsマシンではウェブカメラの映像だけでなくスクリーンの映像もモニターしてくれるようですが、私の環境ではうまくいきませんでした。Stream Realtime | Google AI Studiohttps://aistudio.google.com/liveCameraボタンを実行するだけの操作です。
皆様、こんにちは。トシリンです。 伊沢 光大 様、教えてくださりありがとうございました。 まだまだ何もできないのですが、ぼちぼちやってみます。 今はパソコンからメールをしているのですが、アンドロイドから入力できるようになりたいと思っております。 今後とも、よろしくお願い致します。
皆様、こんにちは。トシリンです。 小島 邦靖 様、わざわざ返信ありがとうございました。 今後ともよろしくお願い致します。
皆様、こんにちは。トシリンです。 また、アンドロイドが使い難くなってしまいました。 ラインを使って送信をしました。そうして、持ったときに何かメッセージが出て、それから、へんになってしまいました。 ズーム、ライン、スカイプなどむこうになってしまいました。 それらをタッチすると、 ダウンロードしたアプリは、テイクモードではむこうです。といいます。どうすればよろしいでしょうか?「テイクモード」が聞き間違っているかもしれません。教えてください。 よろしくお願い致します。
皆様、こんにちは。再びトシリンです。 また、アンドロイドが使い難くなってしまいました。 ラインを使って送信をしました。そうして、持ったときに何かメッセージが出て、それから、へんになってしまいました。 ズーム、ライン、スカイプなどむこうになってしまいました。 それらをタッチすると、 ダウンロードしたアプリは、テイクモードではむこうです。と書きましたが、セーフモードでした。 ズームなどはオンラインをしてみないとよくわかりませんが、ラインはできるようになりました。 セーフモードをテイクモードなんて聞き違えるなんて恥かしいかぎりです。 こんな私ですが、今後ともよろしくお願い致します。
皆様、こんにちは。トシリンです。 androidの電源の、オン・オフを教えてください。 また、マナーモードのしかたなども教えていただければうれしいです。 どうぞ、よろしくお願い致します。
山賀です。電源の操作は電源ボタンと音量の上げの長押しから行います。マナーモードは電源ボタンを長押しして音声アシスタントに頼む通知シェードもしくはクイック設定のサイレントモードをタップするのいずれかでできます。通知シェードはホーム画面での2本指下スワイプ右・下の直角スワイプで開けます。クイック設定は通知シェードが開いている状態で2本指の下スワイプで開けます。因みにクイック設定内設定の順序を編集しますから表示順序が変更できます。動かしたい項目で1本指の下スワイプでタイルの移動でタップ。移動したい番号でタップで完了です。番号は1から4を選択すると通知シェードの上段にも表示されます。
品川です。Gemini 2.0 Flash ExperimentalをWindows環境で使用している動画が公開されていました。PCのスクリーンをGeminiに開設してもらっているのですが、YouTube動画の説明はたいへん興味深いです。AI Audio description is now here for the visually impaired! - YouTubeチャンネル名: Tony Gebhard: Gaming and Grooveshttps://www.youtube.com/watch?app=desktop&v=GdZKHt29Ur0私もYouTubeで試してみました。シーンが変わった瞬間に自動的に説明してもらいたいのですが、それは体験できず。しかし、「何が見える」などと質問すれば瞬時に答えてくれるのはかなり便利です。日本語は聞き取ってくれても最初は英語でしか答えてくれません。「日本語で教えて」などとリクエストすればその後は日本語で答えてくれるようになります。ただし、試験版みたいなもんなので、英語でしか答えてくれないときもありました。「コメントを読んで」とリクエストすればスクリーン上のコメントを教えてくれました。音声解説のついていないドラマや映画、手っ取り早く情景の説明をしてくれるかもしれませんね。
皆様、明けましておめでとうございます。トシリンです。 いつも初歩的なおたずねばかりで申しわけありません。 本年も昨年同様どうぞよろしくお願い致します。 山賀様、教えてくださりありがとうございます。
品川です。2025年はAIエージェント元年になるそんなタイトルの記事も見かけるようになってきました。Envision AIアプリを開発しているEnvisionが今取り組んでいるのが生成AIを活用した「ally」というパーソナルアシスタントです。現時点ではベータ版が公開されており、Android, iOS, エンビジョングラスで利用できます。get an allyhttps://www.ally.me/get申し込みフォームは英語、アプリのメニュー言語も英語です。声は数種類から選べて、英語や日本語も含めたマルチリンガルです。ユーザは自分が呼ばれたい名前、自分の趣味や特徴などを登録することで、その人向けのアシスタントになります。「Talk to」ボタンをタップすれば、Gemini Liveのようにハンズフリーで対話しながらやり取りすることができます。日本語の読み方や発音はまだまだ満足できるものではなく、日本語環境では期待している答えは返ってこないことも多かったりします。便利に感じるのは、「目の前にあるものを教えて」「パッケージに何が書かれているのか読んで」そのように伝えると背面カメラに映るものを教えてくれます。このようなことがハンズフリーでリクエストできるのはかなり楽ちんです。会話を終了したいときには「End conversation」ボタンをタップします。ちなみに「Envision Ally」という名前のアプリはすでに存在します。これはエンビジョングラスとスマートフォンとの間でビデオ通話するためのアプリです。「ally」が正式版としてリリースされると、おそらく「Envision Ally」は「Envision Companion」という名前に代わるのだろうと予想されます。
品川です。公共図書館によっては電子書籍やオーディオブックの貸し出しが行われています。どれだけ使いやすいのか試してみました。OverDrive Japan -電子図書館サービス- オーバードライブ・ジャパンhttps://overdrivejapan.jp/ここのサービスを採用している図書館は多いのではないでしょうか。そもそも他にどんな電子書籍の貸し出しサービスが存在するのか、私は存じておりません。地元の公共図書館に利用登録してから申し込みました。本の検索、予約、貸出、返却などの操作はウェブサイトで完了できます。対応している本の場合は合成音声で読み上げてくれます。しかし、再生速度の調整や目次移動などはできないようです。専用アプリがリリースされており、本を開く操作や返却などはこちらを用いた方が手軽でした。Libby, by OverDrive - Google Play のアプリhttps://play.google.com/store/apps/details?id=com.overdrive.mobile.android.libby&referrer=utm_source%3Dlightning%26utm_medium%3Dfooter%26utm_campaign%3Dlibbyもう一つ気になっていたサービスが「アクセシブルライブラリー」。このサービスを導入している自治体はまだまだ少ないようです。視覚障害者だけが登録利用できるとのこと。サピエの場合は視覚障害者だけでなく読みに困難のある人も利用できるサービスになっているので、アクセシブルライブラリーはユーザを限定しているのですね。 アクセシブルライブラリーhttps://acc-lib.jp/ウェブページ上で本の検索、読み上げの操作ができます。ACCELリーダーの画面になり、目次の表示と移動、音声の種類と速度の変更は可能です。できればブックマークの挿入や文字検索など機能アップを期待したいところですが、とりあえず聞ければよいというコンセプトで開発されているのかもしれないなぁという印象を持ちました。サピエの場合はボランティアに依存しているので、今後はどこまで蔵書が増えていくのか気になります。公共図書館の電子図書館サービスがどこまで進化していくのか注目しています。OverDriveもアクセシブルライブラリーも点字ディスプレイへの出力は考えられていないようなのが気がかりです。
品川様・MLのみなさま国立国会図書館の杉田です。公共図書館の電子書籍の・実施自治体数は579自治体とかなり増えております。各自治体別でみると、都道府県別では59.6%、政令市90.0%、東京都特別区78.3%とのことです。読み上げ関係ではOverDriveやアクセシブルライブラリーが有名ではありますが、LibrariE&TRC-DLやTRC-DL、KinoDenも読み上げ対応には最近、力を入れてきております。電子図書館を導入している図書館は電子図書館(電子書籍貸出サービス)実施図書館 電流協https://aebs.or.jp/Electronic_library_introduction_record.htmlの中にある【資料2】公共図書館電子図書館自治体別導入館資料(2024/10/01版)Electronic_Library_Service_Implementation_Library_20241001.pdfhttps://aebs.or.jp/pdf/Electronic_Library_Service_Implementation_Library_20241001.pdfに北から南の順で導入図書館とURL、どのサービスを導入しているかなどが掲載されております。
品川です。Geminiではオーディオやビデオのファイルをアップロードして文字起こしできるということで、試してみました。外国語のPodcastの内容を文字起こししてそのまま翻訳してくれると便利だと考えたわけですが、レスポンスの速さに驚きました。今のところ、無料だと一日 200万トークンまで利用できるみたいです。50分のmp3、英語から日本語に翻訳させて、役85,000トークンでした。次のウェブサイト情報によると、音声の場合は、1秒25トークン、1分1500トークンになるようです。Gemini API を使用した音声機能の詳細 | Google AI for Developershttps://ai.google.dev/gemini-api/docs/audio?hl=ja&lang=python使い方は、1. 次のウェブサイトにアクセス。Google AI Studiohttps://aistudio.google.com/2. 次の箇所をタップ。「Incert assets such as images videos, folders, files, or audio」3. メニューが表示されるので、ファイルをアップロードする場合は次をタップ。「Upload file」4. ファイルを選択して決定。5. 次のテキストフィールドにプロンプトを入力。「User text input type something」たとえば「文字起こしして。日本語に翻訳して」など。6. 次のボタンをタップ。「Run」後は結果を待つだけです。これまで文字起こしさせたいときにはiOSのAikoアプリを利用していました。翻訳させたい場合はさらにテキストの内容をコピペする手間が発生します。Geminiであればその手間も省略できるので、今頃になってそのすごさを実感しました。Google Geminiで7時間分の音声を一気に文字起こし。しかも無料!【プロンプト付】|本郷喜千https://note.com/yoshiyuki_hongoh/n/n731104cc37af
品川です。杉田様詳しい情報をありがとうございます。他の電子図書館サービスでも読み上げ対応に力を入れているとのこと、これはうれしい話ですね。ぜひUIでもアクセシビリティの面でも競い合って使いやすいサービスになっていってほしいものです。個人的には雑誌が手軽に読めるような時代がきてほしいと願っています。電子図書館でも、電子雑誌の配信サービスでも。
山賀です。興味深いアプリの情報をありがとうございました。早速チェックしてみましたが、Android版はすでに早期アクセスの定員に達しているようでインストールができませんでした。募集人数が増えないか、少し待ってみたいと思います。
品川です。