学生の自分の企画としての備忘録。
実現可能か不可能かは考えないとします。
今回は数個記録しました。
1、目が不自由な方の暮らしやすい世の中をつくること
今回取り上げた点
・目の不自由な人に対しての世間の甘さ
駅の改札内のバリアフリーが雑だと思います。
例えば、点字ブロックがあるとしても車椅子の方はタイヤが点字ブロックに干渉して
進めないため避ける必要があるがその幅が狭く、一歩間違えたら線路内に落ちてしまう。
また、音声アナウンスの不十分さ。
目の不自由な方にとって音声アナウンスはないと一人で電車に乗るのも難しい。
確かに音声アナウンスはしているが非常に聞こえずらいのが現状。
ノイズが走り周りが騒音のためほぼ聞こえない。
同じく、電車内で今、自分が何駅にいるのかわからない。
アナウンスではつく前には言うが、到着中に言っているところを見たことがない。
僕は健常者ですが、ここが何駅なのか。自分が降りる駅なのか降りない駅か
わからない時があります。初見ですと完全視覚に頼り電子モニターなどを通し今いる駅を知ることができます。
ですが、目が見えないとそうはいかないため、とても不便である。
また、エレベーターの位置、発券機の位置など分かりずらいという意見も上がっています。
エレベータは、少し人気の少ないところにあるので
もしもの時にどうしようもないとの意見もありました。
そのためにか利用する駅は普段から利用する駅のみにしたり
事前に調べバリアフリーであるかなどを調べることを行っているそうです。
そのため
駅の情報、乗換案内の情報が手に入るAPIを使用して
それを音声化して、もっとわかりやすいようするということ。
2、信号などの交通面での不便さ
目が見えない人にとって交差点を横断するとき
信号をどう判断しているか僕は疑問です。
介護人、盲導犬などパートナーが入ればできるのですが
一人でいるときにどうわたるか。
最近の信号機では音が鳴るようになっています。
しかし、小さい道路では音が小さい、大きい道路では
途中で音が聞こえなくなるといった事態が起こるそうです。
実現可能か不可能かは考えないとします。
今回は数個記録しました。
1、目が不自由な方の暮らしやすい世の中をつくること
今回取り上げた点
・目の不自由な人に対しての世間の甘さ
駅の改札内のバリアフリーが雑だと思います。
例えば、点字ブロックがあるとしても車椅子の方はタイヤが点字ブロックに干渉して
進めないため避ける必要があるがその幅が狭く、一歩間違えたら線路内に落ちてしまう。
また、音声アナウンスの不十分さ。
目の不自由な方にとって音声アナウンスはないと一人で電車に乗るのも難しい。
確かに音声アナウンスはしているが非常に聞こえずらいのが現状。
ノイズが走り周りが騒音のためほぼ聞こえない。
同じく、電車内で今、自分が何駅にいるのかわからない。
アナウンスではつく前には言うが、到着中に言っているところを見たことがない。
僕は健常者ですが、ここが何駅なのか。自分が降りる駅なのか降りない駅か
わからない時があります。初見ですと完全視覚に頼り電子モニターなどを通し今いる駅を知ることができます。
ですが、目が見えないとそうはいかないため、とても不便である。
また、エレベーターの位置、発券機の位置など分かりずらいという意見も上がっています。
エレベータは、少し人気の少ないところにあるので
もしもの時にどうしようもないとの意見もありました。
そのためにか利用する駅は普段から利用する駅のみにしたり
事前に調べバリアフリーであるかなどを調べることを行っているそうです。
そのため
駅の情報、乗換案内の情報が手に入るAPIを使用して
それを音声化して、もっとわかりやすいようするということ。
2、信号などの交通面での不便さ
目が見えない人にとって交差点を横断するとき
信号をどう判断しているか僕は疑問です。
介護人、盲導犬などパートナーが入ればできるのですが
一人でいるときにどうわたるか。
最近の信号機では音が鳴るようになっています。
しかし、小さい道路では音が小さい、大きい道路では
途中で音が聞こえなくなるといった事態が起こるそうです。
ここで考えたのが 視覚情報を耳に届けばと思いました。
そしてGoogle video intelligence API を使い
映像の動きや物の名前などをテキスト化して
それを音声化して耳に届ければと考えました。
しかし、何を伝えるのかが肝心になってきます。
必要のない情報を伝えるとよくないため
カメラの視野を人の視野と同じ広さにして
そこから情報を得て大事な点をピックアップしてそのピックアップした情報だけを
音声化していきたいと考えています。
もちろん、危険信号などはバイブ音でいいと思います。
僕が、このAPIを使ってしたいことは
障害物の有無、信号の切り替わりが
分かるようになればなと思っています。
まずは障がい物。
こちらはよく道端においてあるもの。例で言うと自転車
杖で分かるにせよ、危険ですよね。
また、杖を使ってもわからなものもあります。
例えば二本足で立っている看板などです。
こういう時にこの考えたものを使えると思います。
端末で映像を映してそれをテキスト化
その時に「壁」という情報を与えれば、いいのではと考えました。
しかし、難しいですね。。。
3、音声付き目覚まし時計
目覚まし時計をセットして朝「ジリジリジリ」と音が鳴ります
まずは止めますよね。その次に時刻を確認しますが
目の不自由な方は、時刻を確認することができません。
他の手を使えば確認することはできますが
目覚ましと同時に確認することができないため不便です
なので音声付き目覚まし時計を使えば
「○○月○○日○時○分ですジリジリ」などと時刻を知らせてくれて、
朝起きると同時に今、何時かわかるような仕組みになっています。
3、顔の表情がわかるSNS
これはあまりよくないと思いますが一応メモとして残していきます。
ADHDを患っている方は、相手の顔を読み解くことが困難です。
笑っているのか泣いているのか悲しんでいるのか喜んでいるのか怒っているのかなど
判断することが難しいです。そのため過激な発言をしてしまったりします。
今、SNSがとても一般的となり便利な時代になりましたが、
トラブルも多いですよね。相手の顔が見えないため過激な発言をしてしまったり、相手が
何を考えてこの文章を書いているのか
ADHDの人にとってはもっと難しいことなのです。
今回は顔の表情が識別できるAPIを使い怒っているのか笑っているのか
などさまざまな人の表情を読み取ります。
それを僕はスタンプ化したいと思っています。
ある程度段階を決めてスタンプにしてそれを相手のメッセージ画面に表示したり
します。リアルタイムもしくはそのときの表情を相手に送ることにより
相手の気持ちを読み解くことができます。
コメント