スクリーンショット


00595 2012/09/14 17:40:54


gqs 。
今日いろいろと調べよったらsc-06dでスクリーンショットができることを見つけた。
やり方は電源ボタンとホームボタンを1秒ほど長押しして手を離す。

その時点でスクリーンショットが出来る。
ギャラリーの中にその画像が保存される。
なかなかこれもえー機能じゃなー。






03281 2015/01/16 11:37:48


 小出さん、皆さん、こんにちは。福岡の藤川です。

 ドキュメントトーカ触地図への要望です。

 本家Yahoo!地図で検索し表示された結果に対し、共有からドキュメントトーカ触地図を呼び出せるようにしていただけると有難いです。

 また、先に山賀さんが書かれているように、拡大・縮小の際、現在の地図の中心を動かさないようにしていただけると助かります。

 一昨日、自宅から、毎月パソコン・スマホの勉強会を行なっている施設まで、ドキュメントトーカ触地図で辿ってみました。
自宅週辺から、進行方向にある
町名や施設名などを頭に入れつつ徐々に地図を縮小し、目的地付近まで移動後、
目標を見失わないように注意しながら徐々に地図を拡大し、目的の建物と、
道を挟んで向かい側にある高校の名前を確認することができました。

 また、昨日はGPSを有効にした状態でバスに乗車し、停留所で止まるごとに周辺施設の確認を試みましたが、移動の幅が大きいせいか、タッチしても、読み上げてくれたりくれなかったりでした。
移動中は、やはりナビアプリの方がよさそうでした(汗)。

 それから昨夜、以前から気になりつつ、なかなか調べることができなかった、我が家の近隣の駅と道路の位置関係を調べようと、東西南北に細かく
移動しながら、駅、病院、役所、交差点などの情報を確認してみました。
タッチしただけでは読み上げてくれない施設名も、ピンポイントでダブルタップすれば、住所とともに教えてくれるので、非常に参考になりました。

 しかし、10を越えるランドマークの位置関係を何とか頭に入れようとしても、東西南北への微妙なずれのために混乱してしまい、納得できるところまではいきませんでした。

 これ以上の事は、視力のある人に説明してもらうか、紙に印刷した触地図で確認する方がよさそうです。
しかし、誰かに見てもらうにせよ、点字プリンタで触地図を作ってもらうにせよ、自分が求めている情報について、実際の地図の範囲を示して視覚的に伝える事ができるようになったことは、やはり大きいと思います。

 そうなると欲しくなるのは印刷機能ですね。これはスクリーンショットの撮影で代替できるのでしょうか?
 NEXUS5で試してみましたが、どうもうまく
いかないように思います。いい方法があればお教えください。

 それでは、何卒宜しくお願いいたします。




03412 2015/05/13 23:45:30


こんばんは、デカプーです。

先日、Nexus9にEmoneyReaderをインストールしようとして気付いたのですが、Playストアからこのアプリが消えていました。
作者が消息不明と言う噂もネット上ではあるようです。

このアプリは、表示した内容をcsv形式で吐き出すことも出来たので、重宝されている方も多かったと聴いていますが、これに変わるアプリを先日Twitterにて流しました。
ここに流していない事に気付き今メールしています。

1 みるCa (みるか) - Google Play の Android アプリ
https://play.google.com/store/apps/details?id=com.gmail.jennychan201.nfcbalance&hl=ja

これは、NFC機能が搭載されている端末でないと、インストールも出来ないと思います。
このアドレスにアクセスしてインストール出来たとしても動作しないと思いますので、ご注意下さい。

このアプリ、動きも軽いですし、なかなか良さそうです。
スクリーンショットとして保存する機能もあるようですが、スクリーンショットなのでおそらく読み上げはしないと思います。

suicaの残額はちゃんと読み上げてくれましたが、nanacoの履歴は読みが少々おかしかったです。
千の位と百以下の位を分けて読み上げてしまう傾向にあります。
それが分かっていれば使えなくはないといった感じです。

良かったら試して見て下さい。

以上です。





03849 2016/04/02 08:24:45


赤嶺です。
皆さん、早速のお返事ありがとうございます。
やはり機種によっていろいろ違うみたいですね。
纏めてのお返事になって申し訳ありません。

まず、電源ボタンを長押ししてみて出て来るのはスクリーンショットと、再起動と電源オフのためのボタンでした。
つぎに、通知シェードですが、画面の明るさや、Wi-Fiのon/off・Bluetoothのon/offや機内モード、画面キャストなどといったものでした。
やはりボリュームボタンしかないのかな?
引き続き情報お待ちしております。




04166 2016/09/04 12:32:14


皆さん、こんにちは。
puppyです。
7月から騒がれていたポケモンGo。
プレイされている方もいらっしゃるかと思います。
私もヘビーなポケモントレーナーです(笑)
とはいえ、このゲームはまったく音声読み上げができませんので、基本的には見えるプレイヤーさんと一緒に遊ぶことになります。
そんなこともあり、ポケモンGo関連の情報はMLに流さずにきたのですが。
自分の捕まえたポケモンの名前や強さを音声読み上げで確認できる方法がありましたので、ご紹介させていただきます。

方法はいたって簡単。
まずは以下のアプリをインストールします。
スクショで自動判定!1秒個体値計算 for ポケモンGO
https://play.google.com/store/apps/details?id=tokyo.ymd.pokemongoivcalculator&hl=ja

あとは、ポケモンのステータス画面のスクリーンショットを撮影して、今インストールしたアプリで読み込むだけ。
これで、ポケモンの名前や強さ(CP)などの情報が表示されますので、後はフリックで音声読み上げさせていくことができます。

一つアプリを噛ませることになりますが、これでポケモンの管理や、強いポケモンを育てることも自力で可能になってきます。
捕まえたポケモンがなんてポケモンなのか知ることができるだけでも、楽しさ倍増だと思いますよ。
誤解を招かないように書いておきますが、ポケモンGoのアプリが音声読み上げ可能になったわけではありません。

以下にこのアプリの使い方をまとめた記事を乗せておきます。
http://ameblo.jp/puppy-freedom/entry-12196560818.html

また、画面を見ないでポケモンGoをプレイする方法もまとめましたので、参考にしてみてください。

画面を見ずにポケモンGoをプレイする方法
http://ameblo.jp/puppy-freedom/entry-12191774896.html

必見♪画面を見ずにポケモンGoをプレイするためのコツ
http://ameblo.jp/puppy-freedom/entry-12191775452.html


以上です。





04169 2016/09/06 17:54:49


皆さんこんにちは。
puppyです。
今回はOCRアプリの紹介と、それをポケモンGoで使ってみたお話を書かせていただこうと思います。

前回スクリーンショットを読み込んでポケモンの情報を確認できるアプリの紹介をしました。
これが他のOCRアプリでできれば、ポケモンのステータスだけでなく、いろいろな画面のテキスト情報を抜き取って、プレイの手助けにできるのではないか?
そんな思いから、いくつかOCRソフトを試してみて、以下のアプリに行き着きました。

Text Fairy (OCR Text Scanner)
https://play.google.com/store/apps/details?id=com.renard.ocr&hl=ja

もしかしたら、以前にMLで紹介があったものかもしれません。
カメラでのスキャンだけでなく、スクリーンショットなどの画像も読み込んでテキストを抽出することができます。
簡単に使い方を記載します。

①まずはインストールします。
アプリを開くと英語のメッセージの画面になり、端末スキャンのようなものが始まります。
しばらく待つと、画面の下のほうにOKボタンが出てきますので、ダブルタップします。
②画面にメニュー項目が表示されるので「Add Language」を選択。
たくさんの国名がアルファベット順に並んでいるので、スクロールして「Japanese」をダブルタップ。
これで日本語パッケージがダウンロードされました。
③一つ画面を戻り、右上にある「Pick an image from the gallery」というボタンを選択。
(フリックでも選択できます)
④左上の「ルートを表示する」というボタンを押して、内蔵ストレージを選択。
たくさんフォルダが表示されるので、下にスクロールして「Pictures」というフォルダを選択。
「Screenshots」フォルダを開いて、先ほど撮影した画像を選択。
(ファイル名はScreenshot_日付になっています)
⑤画像が読み込まれスキャン設定画面になります。
englishというところをダブルタップすると使用言語が表示されるので、Japaneseを選択。
⑥スタートボタンをダブルタップ。
スキャンが開始されるのでしばらく待ちます。
⑦スキャンが無事終わると、抽出したテキストをどうするか選択する画面になります。
ここでPDFなどを選択すればファイルとして出力もできるようです。
テキストを確認したいだけの場合は、クリップボードにコピーなどを選択します。
⑧テキストボックスに、スキャンされたテキストが表示されているので確認する。

以上が使い方です。

実際ポケモンGoのアイテム一覧のスクショをテキスト化したものを、例に載せてみます。

※抽出テキストここから
道具
271/350
キズぐすり 圃 スプレ一式のキズぐすり。 ポケモン ー匹のHPを
2。
だけ回復する。
いいキズぐすり 圃 スプレー式のキズぐすり。 ポケモン ー匹のHPを
5。
だけ回復する。
げんきのかけら 圃 ひんしになつてしまったポケモンー
8
匹のHPを半分回復する。 X
モンス夕ーボール 圃. 野生のポケモンに投げて捕まえるた
64
めのボール。 力プセル式になってい X る。
※抽出テキストここまで。

ポケモンになじみのない方にはあまり伝わらないかもしれませんが、個人的にかなり使えるレベルだと思います。
この他に、ポケモンのステータス画面、卵画面、自分のプロフィール画面のスクショで試してみましたが、必要な情報が確認できるレベルでした。

またText Fairyは共有からもすぐ呼び出すことができるのが便利です。
私はiPhoneで撮ったスクショをメールでAndroidに送り、アクアメールのメール本文からの共有でText Fairyに流して使っています。

以下の記事でも、使い方を詳しく書いてありますので、参考にしていただければ幸いです。
http://ameblo.jp/puppy-freedom/entry-12197369403.html

今回はポケモンで試してみましたが、スクショと組み合わせて応用すれば、いろいろと読み上げてくれないゲームやアプリを使う手助けになるかもしれません。
是非一度試してみてください。
以上です。
いつも以上に長文、失礼いたしました。





04170 2016/09/09 13:06:38


puppyさん、皆さんこんにちは堀です。

OCRで情報の確認僕もやってみました。
完全ではないですがポケモンの技も読めました。iよむべえでは「文字は書かれていません」って言われましたが、iPhoneのアプリ「スキャナー&翻訳者」で試したらある程度の情報がわかるようになりました。
試しに他の画面もスクリーンショットを取って読ませてみるとアイテムの並びや数もだいたいわかりました。
ジムに配置されているポケモンのCPや対戦結果も読めました。
いちいちスクリーンショットを撮らないといけないのは面倒ですが、こういった方法で画面の情報を確認する手段もあったんだとiPhoneを使って3年目にわかるなんて(笑)

それでは。





04189 2016/09/14 12:24:04


 レオパくんさん、大きい幼稚園児さん

みなさんこんにちは。

お騒がせしております、岡田です。

レオパくんさん、
 この設定は「ユーザ補助」の中の「ダイレクトアクセス」で行います。中に入ると、onとoffの切替ボタンがあり、当然オンにします。
その下にホームボタン3連打で呼び出すことができる機能一覧が表示されてますので、そこで「Talkback」にチェックを入れます。
これでTalkbackのonとoffがホームキー3連打で実行できます。

タッチガイドではなく「ダイレクトアクセス」だったんですね・

「ユーザー補助の中を見てみましたが、XperiaX SOV33 には「ダイレクトアクセス」という項目自体ありませんでした。

で、大きい幼稚園児さんの

ホームボタンで音声を入り切りする機能はダイレクトアクセスですが、これは実際に、ボタンが存在する機種だけにあります。
だから、画面の下に機能があって、実際のボタンの無い機種にはダイレクトアクセスの項目がありません。

↑の投稿を読んで分かりました。

そもそも「ホームボタンが物理キーになってなければダイレクトアクセス」は使えない」ということですね。

…、ということは、ホームボタンが物理キーになっていない機種をお持ちの方々は、どのようにして「トークバックの On/Off をされているのでしょうか?

Xperia の場合、電源ボタンの長押しで出てくるメニューは、
・ 電源を切る
・ 再起動
・ 緊急省電力モード
・ スクリーンショット

上記4つしかありません。

ここに「ユーザー補助」とか「トークバック」などのショートカットを作ることは可能なのでしょうか?






04999 2018/05/15 13:28:22


山賀です。

先日開催されたGoogleの開発者向けイベントで表題について発表がありました。
公式ページにはまだ記事がアップされていませんが、別ページに内容が紹介されていました。
興味深い内容でしたので紹介したいと思います。


1. Lookout
Android 8.0 以上のPixel端末で夏にアメリカで先行してリリースされます。
Lookoutは視覚障碍者に周囲の情報を知らせます。
アプリは実際の風景から物体・人・文字などを認識し、読み上げます。
起動後ユーザは
work and play
home
scan
experimental
からモードを選択します。
選択したモードによって書籍の内容や出口マークなどの情報を提供します。
実際に人がガイドするように画面を操作することなく動作します。
Pixelをストラップで固定したりシャツのポケットに入れた状態で使用できるように設計されています。
端末をノックして認識の開始
カメラを隠して一時停止
指紋センサーでモードの切り替え
ができます。
またインターネット接続なしで使用できます。

2. 音量増幅
混雑した空港や賑やかなレストランなどで会話をしようとしたときに、周囲の状況に関わらずクリアに聞こえるようになります。
音量増幅により、ユーザはノイズを減らし、スマートホンや接続しているヘッドホンの信号を増幅できます。これにおり騒がしい環境でも会話ができます。
2つのスライダーを使って、左右の耳それぞれに合わせてチューニングすることができます。
そのため、大きすぎたり小さすぎることなくちょうどよい音量に調節できます。

3. 選択して読み上げでOCR
現在Android Pのベータ版において、選択して読み上げを使っての文字認識がカメラアプリと写真で利用できます。
カメラを向けたり端末内の写真を選択した後、選択して読み上げが文字の内容やハイライトを読み上げます。
カンファレンスのデモでは、簡単な操作で機能を呼び出していました。
カメラアプリを起動し、角のユーザ補助ボタンをタップ。
モジを選択すると端末が書かれている内容を読み上げます。

4. ユーザ補助メニュー
片手でスクリーンショットを撮ったり特殊なジェスチャーをするのは身体が不自由だと難しいことがあります。
ユーザ補助メニューは
電源のオフ
画面ロック
スクリーンショットの撮影
音量の調節
を上スァイプや上下スワイプなどで実行できるようにします。
機能はGoogle Assistantやユーザ補助設定から有効にします。
メニューは手の小さなユーザや肢体不自由のユーザでもとどくよう画面下部にポートレイトモードとランドスケープモードの両方で表示されます。

5. Gboardでのモールスコード入力
GoogleはGboardでモールスコード入力を追加します。
ユーザは必要に応じてモールスコード設定を変更できます。
またスイッチアクセスを使い、外部機器から有効にすることもできます。
モールスコードレイアウトに変更後、 . - を使って文字を入力できます。
上記によりキーボードの上部に予測候補も表示されます。



引用ページ
All the New Accessibility Features Coming to Android P - COOL BLIND TECH
https://coolblindtech.com/all-the-new-accessibility-features-coming-to-android-p/

What's new in Android accessibility (Google I/O '18) - YouTube
https://t.co/PQV86QgX3v






06512 2024/03/12 14:31:06


 こんにちは、伊沢です。

Be My Eyesのことで以前から疑問があったのですが、最近は快善されているかもしれませんね。
もしかするとこちらの勘違いなのかもしれませんが、
android内の画像、ラインなどで送られてきた画像、ネットから保存した画像の内容をBe My Eyesに送って解析しようとしても、共有シートのアプリケーションの項目に、どうしてもBe My Eyesが現われて来なかったような気がしていました。

ですので今までは、seeing AIに送って解析していました。

わりと最近までそうだった気がするのですが、みなさんのところではどうでしょうか。

それがわりと最近、共有シートにもBe My Eyesの項目が出てくるようになりましたので重宝するようになりました。

もしかするとそれでもまだ、Be My Eyesに送ろうとすると送れないという方がいらっしゃるかもしれませんね。
これ、どうもそのまま送れない場合でも、目的の画像のところで1本指ダブルタップホールド、スクリーンショットを撮り、その後で共有からBe My Eyesに送れば目的の画像を解析できると思いますので、これを忘れなければそれほど不自由はないのではないかと思います。

こういうことに、Be My Eyesのバージョンが関係するのかどうかわかりませんが、こちらでは、バージョン2.3、となっているようです。




00594 2012/09/14 17:38:18


gqs 。
今日いろいろと調べよったらsc-06dでスクリーンショットができることを見つけた。
やり方は電源ボタンとホームボタンを1秒ほど長押しして手を離す。

その時点でスクリーンショットが出来る。
ギャラリーの中にその画像が保存される。
なかなかこれもえー機能じゃなー。






00595 2012/09/14 17:40:54


gqs 。
今日いろいろと調べよったらsc-06dでスクリーンショットができることを見つけた。
やり方は電源ボタンとホームボタンを1秒ほど長押しして手を離す。

その時点でスクリーンショットが出来る。
ギャラリーの中にその画像が保存される。
なかなかこれもえー機能じゃなー。






03281 2015/01/16 11:37:48


 小出さん、皆さん、こんにちは。福岡の藤川です。

 ドキュメントトーカ触地図への要望です。

 本家Yahoo!地図で検索し表示された結果に対し、共有からドキュメントトーカ触地図を呼び出せるようにしていただけると有難いです。

 また、先に山賀さんが書かれているように、拡大・縮小の際、現在の地図の中心を動かさないようにしていただけると助かります。

 一昨日、自宅から、毎月パソコン・スマホの勉強会を行なっている施設まで、ドキュメントトーカ触地図で辿ってみました。
自宅週辺から、進行方向にある
町名や施設名などを頭に入れつつ徐々に地図を縮小し、目的地付近まで移動後、
目標を見失わないように注意しながら徐々に地図を拡大し、目的の建物と、
道を挟んで向かい側にある高校の名前を確認することができました。

 また、昨日はGPSを有効にした状態でバスに乗車し、停留所で止まるごとに周辺施設の確認を試みましたが、移動の幅が大きいせいか、タッチしても、読み上げてくれたりくれなかったりでした。
移動中は、やはりナビアプリの方がよさそうでした(汗)。

 それから昨夜、以前から気になりつつ、なかなか調べることができなかった、我が家の近隣の駅と道路の位置関係を調べようと、東西南北に細かく
移動しながら、駅、病院、役所、交差点などの情報を確認してみました。
タッチしただけでは読み上げてくれない施設名も、ピンポイントでダブルタップすれば、住所とともに教えてくれるので、非常に参考になりました。

 しかし、10を越えるランドマークの位置関係を何とか頭に入れようとしても、東西南北への微妙なずれのために混乱してしまい、納得できるところまではいきませんでした。

 これ以上の事は、視力のある人に説明してもらうか、紙に印刷した触地図で確認する方がよさそうです。
しかし、誰かに見てもらうにせよ、点字プリンタで触地図を作ってもらうにせよ、自分が求めている情報について、実際の地図の範囲を示して視覚的に伝える事ができるようになったことは、やはり大きいと思います。

 そうなると欲しくなるのは印刷機能ですね。これはスクリーンショットの撮影で代替できるのでしょうか?
 NEXUS5で試してみましたが、どうもうまく
いかないように思います。いい方法があればお教えください。

 それでは、何卒宜しくお願いいたします。




03412 2015/05/13 23:45:30


こんばんは、デカプーです。

先日、Nexus9にEmoneyReaderをインストールしようとして気付いたのですが、Playストアからこのアプリが消えていました。
作者が消息不明と言う噂もネット上ではあるようです。

このアプリは、表示した内容をcsv形式で吐き出すことも出来たので、重宝されている方も多かったと聴いていますが、これに変わるアプリを先日Twitterにて流しました。
ここに流していない事に気付き今メールしています。

1 みるCa (みるか) - Google Play の Android アプリ
https://play.google.com/store/apps/details?id=com.gmail.jennychan201.nfcbalance&hl=ja

これは、NFC機能が搭載されている端末でないと、インストールも出来ないと思います。
このアドレスにアクセスしてインストール出来たとしても動作しないと思いますので、ご注意下さい。

このアプリ、動きも軽いですし、なかなか良さそうです。
スクリーンショットとして保存する機能もあるようですが、スクリーンショットなのでおそらく読み上げはしないと思います。

suicaの残額はちゃんと読み上げてくれましたが、nanacoの履歴は読みが少々おかしかったです。
千の位と百以下の位を分けて読み上げてしまう傾向にあります。
それが分かっていれば使えなくはないといった感じです。

良かったら試して見て下さい。

以上です。





03849 2016/04/02 08:24:45


赤嶺です。
皆さん、早速のお返事ありがとうございます。
やはり機種によっていろいろ違うみたいですね。
纏めてのお返事になって申し訳ありません。

まず、電源ボタンを長押ししてみて出て来るのはスクリーンショットと、再起動と電源オフのためのボタンでした。
つぎに、通知シェードですが、画面の明るさや、Wi-Fiのon/off・Bluetoothのon/offや機内モード、画面キャストなどといったものでした。
やはりボリュームボタンしかないのかな?
引き続き情報お待ちしております。




04166 2016/09/04 12:32:14


皆さん、こんにちは。
puppyです。
7月から騒がれていたポケモンGo。
プレイされている方もいらっしゃるかと思います。
私もヘビーなポケモントレーナーです(笑)
とはいえ、このゲームはまったく音声読み上げができませんので、基本的には見えるプレイヤーさんと一緒に遊ぶことになります。
そんなこともあり、ポケモンGo関連の情報はMLに流さずにきたのですが。
自分の捕まえたポケモンの名前や強さを音声読み上げで確認できる方法がありましたので、ご紹介させていただきます。

方法はいたって簡単。
まずは以下のアプリをインストールします。
スクショで自動判定!1秒個体値計算 for ポケモンGO
https://play.google.com/store/apps/details?id=tokyo.ymd.pokemongoivcalculator&hl=ja

あとは、ポケモンのステータス画面のスクリーンショットを撮影して、今インストールしたアプリで読み込むだけ。
これで、ポケモンの名前や強さ(CP)などの情報が表示されますので、後はフリックで音声読み上げさせていくことができます。

一つアプリを噛ませることになりますが、これでポケモンの管理や、強いポケモンを育てることも自力で可能になってきます。
捕まえたポケモンがなんてポケモンなのか知ることができるだけでも、楽しさ倍増だと思いますよ。
誤解を招かないように書いておきますが、ポケモンGoのアプリが音声読み上げ可能になったわけではありません。

以下にこのアプリの使い方をまとめた記事を乗せておきます。
http://ameblo.jp/puppy-freedom/entry-12196560818.html

また、画面を見ないでポケモンGoをプレイする方法もまとめましたので、参考にしてみてください。

画面を見ずにポケモンGoをプレイする方法
http://ameblo.jp/puppy-freedom/entry-12191774896.html

必見♪画面を見ずにポケモンGoをプレイするためのコツ
http://ameblo.jp/puppy-freedom/entry-12191775452.html


以上です。





04169 2016/09/06 17:54:49


皆さんこんにちは。
puppyです。
今回はOCRアプリの紹介と、それをポケモンGoで使ってみたお話を書かせていただこうと思います。

前回スクリーンショットを読み込んでポケモンの情報を確認できるアプリの紹介をしました。
これが他のOCRアプリでできれば、ポケモンのステータスだけでなく、いろいろな画面のテキスト情報を抜き取って、プレイの手助けにできるのではないか?
そんな思いから、いくつかOCRソフトを試してみて、以下のアプリに行き着きました。

Text Fairy (OCR Text Scanner)
https://play.google.com/store/apps/details?id=com.renard.ocr&hl=ja

もしかしたら、以前にMLで紹介があったものかもしれません。
カメラでのスキャンだけでなく、スクリーンショットなどの画像も読み込んでテキストを抽出することができます。
簡単に使い方を記載します。

①まずはインストールします。
アプリを開くと英語のメッセージの画面になり、端末スキャンのようなものが始まります。
しばらく待つと、画面の下のほうにOKボタンが出てきますので、ダブルタップします。
②画面にメニュー項目が表示されるので「Add Language」を選択。
たくさんの国名がアルファベット順に並んでいるので、スクロールして「Japanese」をダブルタップ。
これで日本語パッケージがダウンロードされました。
③一つ画面を戻り、右上にある「Pick an image from the gallery」というボタンを選択。
(フリックでも選択できます)
④左上の「ルートを表示する」というボタンを押して、内蔵ストレージを選択。
たくさんフォルダが表示されるので、下にスクロールして「Pictures」というフォルダを選択。
「Screenshots」フォルダを開いて、先ほど撮影した画像を選択。
(ファイル名はScreenshot_日付になっています)
⑤画像が読み込まれスキャン設定画面になります。
englishというところをダブルタップすると使用言語が表示されるので、Japaneseを選択。
⑥スタートボタンをダブルタップ。
スキャンが開始されるのでしばらく待ちます。
⑦スキャンが無事終わると、抽出したテキストをどうするか選択する画面になります。
ここでPDFなどを選択すればファイルとして出力もできるようです。
テキストを確認したいだけの場合は、クリップボードにコピーなどを選択します。
⑧テキストボックスに、スキャンされたテキストが表示されているので確認する。

以上が使い方です。

実際ポケモンGoのアイテム一覧のスクショをテキスト化したものを、例に載せてみます。

※抽出テキストここから
道具
271/350
キズぐすり 圃 スプレ一式のキズぐすり。 ポケモン ー匹のHPを
2。
だけ回復する。
いいキズぐすり 圃 スプレー式のキズぐすり。 ポケモン ー匹のHPを
5。
だけ回復する。
げんきのかけら 圃 ひんしになつてしまったポケモンー
8
匹のHPを半分回復する。 X
モンス夕ーボール 圃. 野生のポケモンに投げて捕まえるた
64
めのボール。 力プセル式になってい X る。
※抽出テキストここまで。

ポケモンになじみのない方にはあまり伝わらないかもしれませんが、個人的にかなり使えるレベルだと思います。
この他に、ポケモンのステータス画面、卵画面、自分のプロフィール画面のスクショで試してみましたが、必要な情報が確認できるレベルでした。

またText Fairyは共有からもすぐ呼び出すことができるのが便利です。
私はiPhoneで撮ったスクショをメールでAndroidに送り、アクアメールのメール本文からの共有でText Fairyに流して使っています。

以下の記事でも、使い方を詳しく書いてありますので、参考にしていただければ幸いです。
http://ameblo.jp/puppy-freedom/entry-12197369403.html

今回はポケモンで試してみましたが、スクショと組み合わせて応用すれば、いろいろと読み上げてくれないゲームやアプリを使う手助けになるかもしれません。
是非一度試してみてください。
以上です。
いつも以上に長文、失礼いたしました。





04170 2016/09/09 13:06:38


puppyさん、皆さんこんにちは堀です。

OCRで情報の確認僕もやってみました。
完全ではないですがポケモンの技も読めました。iよむべえでは「文字は書かれていません」って言われましたが、iPhoneのアプリ「スキャナー&翻訳者」で試したらある程度の情報がわかるようになりました。
試しに他の画面もスクリーンショットを取って読ませてみるとアイテムの並びや数もだいたいわかりました。
ジムに配置されているポケモンのCPや対戦結果も読めました。
いちいちスクリーンショットを撮らないといけないのは面倒ですが、こういった方法で画面の情報を確認する手段もあったんだとiPhoneを使って3年目にわかるなんて(笑)

それでは。





04189 2016/09/14 12:24:04


 レオパくんさん、大きい幼稚園児さん

みなさんこんにちは。

お騒がせしております、岡田です。

レオパくんさん、
 この設定は「ユーザ補助」の中の「ダイレクトアクセス」で行います。中に入ると、onとoffの切替ボタンがあり、当然オンにします。
その下にホームボタン3連打で呼び出すことができる機能一覧が表示されてますので、そこで「Talkback」にチェックを入れます。
これでTalkbackのonとoffがホームキー3連打で実行できます。

タッチガイドではなく「ダイレクトアクセス」だったんですね・

「ユーザー補助の中を見てみましたが、XperiaX SOV33 には「ダイレクトアクセス」という項目自体ありませんでした。

で、大きい幼稚園児さんの

ホームボタンで音声を入り切りする機能はダイレクトアクセスですが、これは実際に、ボタンが存在する機種だけにあります。
だから、画面の下に機能があって、実際のボタンの無い機種にはダイレクトアクセスの項目がありません。

↑の投稿を読んで分かりました。

そもそも「ホームボタンが物理キーになってなければダイレクトアクセス」は使えない」ということですね。

…、ということは、ホームボタンが物理キーになっていない機種をお持ちの方々は、どのようにして「トークバックの On/Off をされているのでしょうか?

Xperia の場合、電源ボタンの長押しで出てくるメニューは、
・ 電源を切る
・ 再起動
・ 緊急省電力モード
・ スクリーンショット

上記4つしかありません。

ここに「ユーザー補助」とか「トークバック」などのショートカットを作ることは可能なのでしょうか?






04999 2018/05/15 13:28:22


山賀です。

先日開催されたGoogleの開発者向けイベントで表題について発表がありました。
公式ページにはまだ記事がアップされていませんが、別ページに内容が紹介されていました。
興味深い内容でしたので紹介したいと思います。


1. Lookout
Android 8.0 以上のPixel端末で夏にアメリカで先行してリリースされます。
Lookoutは視覚障碍者に周囲の情報を知らせます。
アプリは実際の風景から物体・人・文字などを認識し、読み上げます。
起動後ユーザは
work and play
home
scan
experimental
からモードを選択します。
選択したモードによって書籍の内容や出口マークなどの情報を提供します。
実際に人がガイドするように画面を操作することなく動作します。
Pixelをストラップで固定したりシャツのポケットに入れた状態で使用できるように設計されています。
端末をノックして認識の開始
カメラを隠して一時停止
指紋センサーでモードの切り替え
ができます。
またインターネット接続なしで使用できます。

2. 音量増幅
混雑した空港や賑やかなレストランなどで会話をしようとしたときに、周囲の状況に関わらずクリアに聞こえるようになります。
音量増幅により、ユーザはノイズを減らし、スマートホンや接続しているヘッドホンの信号を増幅できます。これにおり騒がしい環境でも会話ができます。
2つのスライダーを使って、左右の耳それぞれに合わせてチューニングすることができます。
そのため、大きすぎたり小さすぎることなくちょうどよい音量に調節できます。

3. 選択して読み上げでOCR
現在Android Pのベータ版において、選択して読み上げを使っての文字認識がカメラアプリと写真で利用できます。
カメラを向けたり端末内の写真を選択した後、選択して読み上げが文字の内容やハイライトを読み上げます。
カンファレンスのデモでは、簡単な操作で機能を呼び出していました。
カメラアプリを起動し、角のユーザ補助ボタンをタップ。
モジを選択すると端末が書かれている内容を読み上げます。

4. ユーザ補助メニュー
片手でスクリーンショットを撮ったり特殊なジェスチャーをするのは身体が不自由だと難しいことがあります。
ユーザ補助メニューは
電源のオフ
画面ロック
スクリーンショットの撮影
音量の調節
を上スァイプや上下スワイプなどで実行できるようにします。
機能はGoogle Assistantやユーザ補助設定から有効にします。
メニューは手の小さなユーザや肢体不自由のユーザでもとどくよう画面下部にポートレイトモードとランドスケープモードの両方で表示されます。

5. Gboardでのモールスコード入力
GoogleはGboardでモールスコード入力を追加します。
ユーザは必要に応じてモールスコード設定を変更できます。
またスイッチアクセスを使い、外部機器から有効にすることもできます。
モールスコードレイアウトに変更後、 . - を使って文字を入力できます。
上記によりキーボードの上部に予測候補も表示されます。



引用ページ
All the New Accessibility Features Coming to Android P - COOL BLIND TECH
https://coolblindtech.com/all-the-new-accessibility-features-coming-to-android-p/

What's new in Android accessibility (Google I/O '18) - YouTube
https://t.co/PQV86QgX3v






06512 2024/03/12 14:31:06


 こんにちは、伊沢です。

Be My Eyesのことで以前から疑問があったのですが、最近は快善されているかもしれませんね。
もしかするとこちらの勘違いなのかもしれませんが、
android内の画像、ラインなどで送られてきた画像、ネットから保存した画像の内容をBe My Eyesに送って解析しようとしても、共有シートのアプリケーションの項目に、どうしてもBe My Eyesが現われて来なかったような気がしていました。

ですので今までは、seeing AIに送って解析していました。

わりと最近までそうだった気がするのですが、みなさんのところではどうでしょうか。

それがわりと最近、共有シートにもBe My Eyesの項目が出てくるようになりましたので重宝するようになりました。

もしかするとそれでもまだ、Be My Eyesに送ろうとすると送れないという方がいらっしゃるかもしれませんね。
これ、どうもそのまま送れない場合でも、目的の画像のところで1本指ダブルタップホールド、スクリーンショットを撮り、その後で共有からBe My Eyesに送れば目的の画像を解析できると思いますので、これを忘れなければそれほど不自由はないのではないかと思います。

こういうことに、Be My Eyesのバージョンが関係するのかどうかわかりませんが、こちらでは、バージョン2.3、となっているようです。




    Android-ML 過去ログ に戻る