久々にセブンイレブンに寄ったら、カウンターに指さしシートが貼ってあった。
思わずいつから?とくぐってみたら、今年の3月から始まってたらしい。
良かった!
これで、セブンイレブンもエスパーしなくて済むわ!
https://twitter.com/googlejapan/status/1764923804495597836
障がいがある人でもGoogleで働ける道があるのか
知らなかった
Netflixで、映画をきっかけに「機動戦士ガンダムSEED」を追いかけてる所だけれど、感動したのは、OP、EDともに歌詞の字幕がついていた事。 今まで、クレジットタイトルとともに、ただ綺麗な動画が流れるだったのが、歌詞がついた途端、ぶわっと一気に世界が広がる!
子供時代、本編よりも唯一字幕がついてたOPとEDが楽しみで、アニメを楽しみにしてたのを思い出しました。 気がついて、話題になってるアニメをチェックしてみると、他にも歌詞の字幕がついているのがいくつか発見。
多分、リクエストしてくれる人がいたから、OPやEDの歌詞に字幕がついたんだ!と気がついたので、これからは私も積極的にNetflixにリクエストを送っていこうと思っています。
音声認識はどうしても意味のある文が表示されるまでタイムラグがある。聴者同士が音声で会話する時のスピードには及ばない。
その数秒の遅れの間、イライラされたり、困った人の相手をさせられてるなーって雰囲気を出されると本当に焦る。
音声認識って、手話を覚えてもらったり文字を書く筆談してもらったり等と比べて、一般的な聴者に一番負担をかけない会話方法のはずなんだけど、それでもお店で、病院で、何らかの受付でイラつかれる事は多い。
待ってる間手持ち無沙汰だったら、文字を書くなり、デバイスを持ってたらそれで打ち込みするなり音声認識で文字化するなりしてくれても良いんですよーと言いたくなったりもする。
本当なら音声認識で聴覚障害者と会話する場合、話す側が「これから話しますよ」って合図を出し、聴覚障害者がアプリを起動して話し手の方にスマホを向ける…という形より、話しかける方が自分のスマホで音声認識させて聴覚障害者に見せる方が無駄が無い。
https://twitter.com/koemoji2023/status/1764952804228300939
UDトーク開発者さんも「UDトークは話し手が使うもの」とよく言われてます。それはUDトーク以外の音声認識ツールも同じことかと。
■猫と本と映画と家族を愛する、インドア派。
■美味しい本情報と、ステキな猫情報には、まさに「猫まっしぐら」状態なキラキラお目々で飛びつきます。(笑)
■ちなみに、「あんな」と読みます。 そして、インテでもあります。