視覚障害のある方にオンラインでiPhoneの講習。Seeing AIやGoogle Maps、Skypeの字幕機能など
2020年5月2日、先日の視覚障害のある方へのオンライン講習に続いて、2回目の講習を行いました。
前回は物体認識アプリのSeeing AIについて主に説明しました。今回はSeeing AIの続きと、地図アプリのGoogle Mapsの簡単な使い方を説明しました。
目次
Seeing AIのさまざまな機能を切り替えて利用
前回説明した時には、Seeing AIの数ある機能のうち、カメラに写り込んだテキストをリアルタイムに音声で読み上げる機能だけを使ってみました。今回はそのおさらいから。
上の写真は片手にSeeing AIを起動したiPhoneを持ち、もう片方の手に持った紙に書いてある文字を読み取ろうとしている場面です。
最初はなかなかうまく読み取れず。Skype越しにiPhoneの画面を見てみたところ、紙に書いてある文字が大きめなのと、文字に似た図が書いてあることで認識させにくくなっているのではと推測。
「もう少し紙とiPhoneの距離を離してみるとどうでしょう?」とアドバイスして試してもらったところ、文字情報を音声で読み上げることができました。文字の大きさに合わせた距離感は大切ですね。
その他にもSeeing AIには以下のような機能があります。
- 書類を読み込んで文字を認識させる「ドキュメント」
- バーコードを読み取って製品名を読み上げる「製品」
- 人物が何人カメラに写り込んでいるかを読み上げる「人物」
- お札を読み上げる「通貨」
- 写真の情景を説明する「シーン」
- 中心部の色を読み上げる「色」
- 音程の高低で周囲の明るさを教えてくれる「ライト」
上の機能はアプリ画面の下にあるメニューから切り替えられるので、切り替え方の説明などを行いました。
とくに評価が高かったのはやはりリアルタイムに文字を読み上げる機能でしたが、その他の機能もシチュエーションによってはとても役に立つと思います。
Google MapsはVoiceOverと相性が良い
地図アプリについて、iPhoneには標準で「マップ」というアプリが入っていますが、Google Mapsは検索の精度が高かったり、最近は視覚障害のある方が利用しやすい機能が強化されていることもあり、Google Mapsを紹介しました。
目的地を決めてそこまでの道案内を設定するだけであれば、最も簡単な方法はSiriで(声で)行うことだと思います。なので今回もSiriで「〇〇までの道のりをGoogle Mapsで案内して」と話してもらったところ、すぐ現在地から目的地までの設定が完了しました。
冒頭で述べたようにGoogle MapsはVoiceOverでも比較的使いやすく作られていて、画面を順序通り読み上げていけば必要な項目を確認したり設定を変更したりすることができます。
今回も「車」でのナビ設定から「徒歩」への設定へ切り替えたり、ナビを始める前にこれからの道順をその場でひとつずつ確認する方法などを説明しました。
今回ひとつ引っかかったのは、近い場所へのナビを「車」で設定した場合。徒歩1分以内のような近場の場合、ナビが「車」で設定されていると、すでに到着したと認識されることがありうまくいきませんでした。
歩いていける距離のような近場の場合は「徒歩」でナビを設定すると良いと思います。
Skypeで言葉をリアルタイムに字幕表示
ビデオ通話には前回と同じくSkypeを使いました。
Skypeには相手が話した言葉をリアルタイムに文字として表示してくれる機能があり、これを試してみた様子が上の画像です。
画面内に、相手が話した言葉が字幕として表示されています。津軽弁が交じるとうまく表示されない場合もありますが(笑)、発話に気をつければそれなりの精度で表示されるようです。
ビデオ通話機能に字幕というのは、相手の発話を聞き取ることが難しい聴覚に障害のある方にとっては便利だと思います。
ビデオ通話アプリと字幕表示アプリのUDトークを併用するテクニックもあったりしますが、ビデオ通話アプリ自体に字幕機能があると簡単に利用できて良いですね。
前回もでしたが、相手の方がVoiceOverの基本的な操作を覚えてくださっているので、こちらの説明もスムーズに進めることができました。やっぱり基本がしっかりできると、利用できる機能やアプリの幅が広がって良いですね。お疲れさまでした。
障害のある方へのオンライン講習(ご相談ください)
障害のある方へビデオ通話をアプリを使ってのオンライン講習は有料での対応を検討中ですが、関心のある方はコメント欄かinfo@hpstyling.comまでご相談ください。
コメント ( 0 )
トラックバックは利用できません。
この記事へのコメントはありません。