2019年に書いてたcsunの日記、その4 (last)

前書き

2019年3月に、CSUNというアメリカのカンファレンスを見に行っていました。そのときにどうやら日記を書いていたらしいです。ぜんぜん覚えていなかったんだけど、今発掘しました。この日記、途中で切れているのですが、なんか面白いので、途中まで公開しようと思います。暇つぶしに読んでね。

なお、漢字が間違ってるかもしれないし、言ってることが間違ってるかもしれません。そういうのは全部ご愛敬ってことでよろしくお願いします。

今回で最終回です。しかも、たぶん途中までしか書いてありません。

3日目

さて、やっとである。今までの2日分、約10000字にわたるレポートは、実はほとんどCSUNについてではなかったのである!ぎゃーーーー!

ということで、今回からメインのセッション/展示会が始まる。ここでは、私が見たものについて、覚えている範囲で書いていこうと思っているが、たぶん全部の情報を得ようと思ったら、レポーターを30人ぐらい雇わないと無理だと思うので、「たくさんあったなかの一つ」と思っていただきたい。また、セッションの英語タイトルは公式サイトから引用しており、日本語訳は私が独断と偏見で書き加えたものである。

9:00-9:40 – Building VI Graph and Map Skills Through an Accessible iPad App (アクセシブルなiPadアプリの利用をとおした、VIグラフ/マップ(認識)スキルの育成)

VIグラフというのは数学用語なのでよく分からないけれど、2変数によって構成されるグラフのことを表していると思われる(IVグラフってのもあるらしいんだけど、たぶん別称なんじゃないかな?)。まぁ、その読み取りスキルを挙げちゃおうという実験である。アリゾナ大学の教授がスピーカーである。

部屋に入った瞬間、馬鹿でかい声で話しかけられ、「点字印刷した資料いるか、っていうか、端に座るんならどうせここからみんなに回すから持ってて」と言われて、超分厚い点字ファイルと、なんだかよくわからない図が書いた紙がいっぱいまとまった束を渡された。点字ファイルのほうは、前方に投影されているスライドを、ビジュアル的なレイアウトも含めて全て点字(点図)にして挟んであるみたいだった。でも、こんなにいっぱいあったら、全部読めないよ。まぁ、枠線とかレイアウトまでちゃんとアクセシブルになってるのは驚いたけど。俺は、こっちのなんか面白そうな図のほうが気になるのである。最初のページは迷路が書いてあった。次のページは、いろんな形が書いてあった。この形を使って何かするのかとおもったけれど、紙の上のほうの見出しには「shapes」としか書いてなかったので、なにをどう使うのかぜんぜん分からなかった。次のページからは、なんかいろんな種類の2変数グラフとか表とかになっていた。さらに進むと、(金/銀/銅の年代別生産量」みたいな、複数の要素が同時にプロットされた折れ線グラフみたいなものになった。まぁ、どっちにしろ、まだこれをどう使うのかはよくわかんないんだけど。

そんなことを思っていたら、最初の雑談(なんか大学内か国の精度ついてちょっと文句を言っているみたいだったけど、よく分からなかった)が始まった。全盲の小学生の生徒を対象にしている研究らしい。我々のように眼が見えない生徒は、当然ながら、点字教科書を使っている。その中に出てくる棒グラフや折れ線グラフは、紙の凹凸を変化させる特殊な印刷方法によって表されており、指で触って数値を読み取ることになる。これを性格に読み取るスキルは、習得するのがなかなか難しいらしい。その要員として教授が最も主張していたのは2点あり、「X軸とY軸の公差する地点=実際の値 という感覚を教えるのが難しい」ことと、「X軸/Y軸に断続的に数値が振ってあるが、プロット地点が数値と数値の間にある場合に、正しい値(または近似値)を算出するという思考に誘導できない」ということだそう。

ようは、グラフってもの事態をイメージするのが難しいわけ。我々って触るしかないから、いっきに全体を概観するってことができないじゃない?だから、指で触れる範囲を順番に触っていって、それを全体図としてつなげてイメージする必要があるわけなのだが、それにはさわり方の工夫も必要だし、イメージ力も必要ということなのだろう。実際、私も地図とかは超苦手である。触ってもぜんぜんわからない。

で、それをなんとかスキルアップさせようということで、iPadアプリを作ったらしい。このアプリは、実際に印刷されたグラフとセットで使うものでなぁ…(教授、俺のところからファイルと図のセットをさっと取り上げる)…あ、説明あると思ったら持ってかれた。まあいいか、図は読んだし。使い方としては、、iPadから問題が出る->グラフを触って答えを読み取ってみる->iPadに入力する->正解ならピンポーン、間違ってたらブブー…という感じらしい。「先生は前でそれを見ていることになるでしょうけど、どんなにもどかしく思っても手を貸しちゃダメです、せめて触り方のヒントを教えるぐらいでとめておかないと、彼ら/彼女らのためになりませんよ!」って念を押していた(実験時のビデオが流れてたけど、先生が思わず手を誘導しそうになっていたけれど、慌てて引っ込める様子が映ってた)。このアプリの有用性を調べるため、基本的なグラフスキルをテストする事前チェック->アプリを使って勉強->事後チェックという流れで実験を進めた結果、ある程度の成果はあったらしい(数値とかに言及していたのかもしれないのだが、聞き取れなかった)。

グラフの読み取りスキルの停滞をアプリを使って解決しようというアイディアは、まぁ考えつきそうではあるよなーということで、そこまで興奮するってほどでもなかったのだが、よいと思ったところが2個あった。

一つ目は、勉強のモチベーションがちゃんと入り口に用意されていたということ。ほら、視覚障害者って音が好きでしょ?動物の声とか、電車の走行音とか、人によってはエレベーターの音とか、日常の音全部が好きになって集めたくなる時期ってあるじゃないですか。え?ない?俺はあったぞ。このアプリでは、最初に4匹の動物が搭乗して、鳴き声を聞かせてくれる。そして、その動物たちのいろんな情報がプロットされたグラフを読み取ってチャレンジしていくようになっているのだ。しかも、猫とか猫とかじゃなくて、比較的マイナーな動物が(たぶん個いに)選ばれている。動物図鑑を読んでいくみたいに、グラフを読みながら詳しくなっていけるのが、優しいデザインだと思うのだ。

二つ目は、教え方の知識をアプリというプラットフォームに体系化できる可能性を秘めているということ。…と書きながら、これはいいことなのかどうかと思ったけれど、まあいいや。私は先生じゃないから分からないけれど、きっと先生って、どういう教え方が一番いいのか、常に考えていると思うわけで、だからこそ先生によって教え方に差ができてしまうし、経験による差も生まれてしまうのではないかと思うわけである。でも、こういうアプリができて、「こういう生徒にはこういうアプローチがいい」とか、「ここで躓く生徒は、こういうところがまだちゃんと理解できていない可能性がある」とかいうのが分析できるようになってくれば、先生たちの経験をどんどんそこに集約していって、より高次元の教え方研究ができる土台になるのではないかと想像してみたりする。でも、「全ての生徒に当てはまる、特効薬的な教え方なんて存在しない」という意見もごもっともだと思うから、これがいいこととして実際に通るのかどうかはちょっと分からなく…なってきた。

10:00-10:40 – Making Immersive Media Accessible (没入型メディアをアクセシブルにするということ)

前のセッションのことであんだけいっぱい書いておいて申し訳ないのだが、このセッションはよく分からなかった。というのも、マイクの不具合なのかプレゼンターの声が小さいのか分からないが、私が座っていたところまで声が聞こえてこなくて、なにを言ってるのかまったく分からなかったのである。分からなかったって3回も書いてあって、なんでこんな意味分からないことになっているのかまったく分からないのだが、とりあえず分からないものは分からないんだから分からない。でも、分からないなりにがんばってなんとか聞こえてきたところだけで説明しつつ、後は書きたいことを勝手に書くのでそういうことで。

テレビや映画は面白い。まあそりゃそうだよな。だが、眼が見えない/耳が聞こえない場合、本来得られるはずの情報が落ちてしまうことがある。眼が見えなかったら映像情報が、耳が聞こえなかったら音声情報が落ちるのである。そういう情報ロスを補うのが、audio description(副音声)、または caption(字幕) だ。

副音声というのは、たとえば男の子が女の子を遠くから見ているシーンが映ったら、それを(あくまで個人の解釈を含まない範囲の情報として)声で説明する。たとえば、「○○、教室の窓から、校庭の女子生徒を見つめる。夕焼けに染まる空」という感じ。女の子のことが気になってるのかもしれないし、もう好きなのかもしれないし、恋仲なのかもしれないし、振られちゃったその日なのかもしれないけれど、それを想像して感情移入することが、映画では醍醐味ってものでしょう?声の説明は、画面の中の人物がしゃべっていないときに挿入されるようになっていて、その映像が本来持っているオーディオコンテンツとぶつからないように配慮されている。

字幕というのは…見たことないのでなんとも言えないが、人がしゃべっている内容が、画面の下のほうに文字で表示されるあれである。副音声の説明と比べて味気ないけれど、ご愛敬。洋画を見るときは正直字幕見たい筆者。点字で表示されればいいんかな、あ、でも絶対読み切れないわ。あ、脱線した。

これを両方見て、まぁ…ふんふーんと思うわけであるが、ちょっとまって!というのが、このセッションの出発地点だと思われる。副音声も字幕も、極めて一次元的である!……考えてみればそうだなあと思うわけである。音声だけ流れる、文字だけ流れる、それ以外はない。これを一次元的というのが正しいかどうか分からないけれど、基本的に私はフィーリングで文章を書いているので勘弁していただきたい。

じゃぁ、副音声のナレーションが、キャラクターの位置から立体音響で流れたらどうだろう?キャラクターの移動に追従して、ナレーションの声も動いたらどうだろう?字幕も、位置情報と…他になにか情報を付加するかどうかは聞き取れなかったけれど、とにかく情報量を増やして、次元拡張をするのはどうだろう?てかやってますよ!という話だったと思われる。取り組み状況とか、色々話されていたみたいだったけれど、なんせ声が聞こえてこなかった。一番後ろだったから。最後に、「アメリカではまだぜんぜんです!アメリカの人、一緒にやりましょう!てかやってください!頼む!please please please pleaaaaaaaaase!」って感じで終わってた。それ以外ほんとなんも分からない。そーりー。

11:00-11:40 – Going the Distance: The Accessibility of Fitness Apps and Running (私たちの完走: フィットネスアプリとランニングのアクセシビリティ)

Going the distance というのは色々な意味があるらしいのだけど、スピーカーはアマチュアのランナーでもあるらしいので、こういう翻訳にして見た。センスがいいか悪いかは分からないけど、どっちにしてもご愛敬。

自分の足で地面を蹴ること。風を切ること。追い抜くこと。追い抜かれること。自身の心と戦うこと。協力すること。切磋琢磨すること。全て、走ることが持つ魅力の一つであろう。眼が見えてたって、見えなくたって、そんなことは関係ない。関係あっちゃいけない。

現在、視覚障害者のランニングといって、日本で最も想像しやすいのは、伴走車を伴ってのランであろう。リング上のロープをランナーと伴走車が持って、お互いを信じて走る。これは視覚障害マラソンと言われているが…まぁ、マラソンをするにしろそこまではしないにしろ、ちょっとした問題がある。それは、ランを全盲が一人で練習するのが難しいということである。まぁそりゃそうだろう。ぶつかるし、足場がちょっとでも変化したら転倒の可能性があるし、かといって、それを気をつける方に意識を集中していたのでは、パフォーマンスを上げるための練習なんてできるわけがない。

そこで、今回のセッションである。ななななんと、スマホとかウェアラブル・デバイスで、一人でも走れるようになんとかしようという試みが進行中らしい。具体的なサービスとしてもすでに世に出ていて、その一つが RunGo だ!なんだこれ!走るルートを登録できて、しかもあらかじめ登録してあるコースから選んだりもできて、そしたら地形を音声ナビゲーションしてくれるだと?なんてことだ!

他にもいくつかあるらしかったけれど、ちょっと名前忘れちゃった。だって、皆さんこれを読んでくれてるわけだから分かると思うけど、この文章、長いのよ。長いってことは、書くのにもそれなりの時間がかかってるわけよ。で、時間かかってるってことは、人間、少しずつ細かいところは忘れていく訳よ。ちゃーん。

紹介ビデオでは、実際にこういったソリューションを利用してトレーニングを行っている当事者の声が取材されており、話によると、「なんて素晴らしいアプリなの!?」という高評価で、実用レベルに達しているらしい。とはいえ、正直なところ、アプリの音声案内を、しかも走りながら信じられるのかどうか…。人間が機械を「本当に信頼できるパートナー」として迎え入れる準備ができているのかどうか、まさに今、我々は神から問われているのかもしれない。あるいは、我々の生活に当たり前のように侵入し、信頼さえも勝ち取った機会という存在に頼りすぎるあまりに足下をすくわれる…という、サイエンス・フィクションに対するアンチテーゼなのだろうか。……どっちもちがいますねすいません黙ります次行きます。ちなみに、私はランはしないです。私にとってのランは車とか電車とか無線です。

12:00-13:00: 昼休憩

昼はスタバ。ベーコンとスクランブルエッグが挟まっているハンバーガーみたいなものを食べた。あと、アイスティー。久しぶりにまともなものを食べた気がした。スタバのベーコンエッグハンバーガーでも…である。

13:00-13:40: Eyes Free with Alexa - Cooking, Communicating, Reading, Watching, Shopping (アレクサでアイズ・フリー! 作って、話して、読んで、見て、買えちゃう!!)

なんかすごいかわいい日本語訳になってしまった。まあいいか。最初に独断と偏見いっぱい入ってる(てか入れる)って言ってるし。とはいえ…これは、Amazonのスマート・スピーカーの紹介セッションである。特に代わり映えするようなことはない。見返してみたら、最初のVIグラフのところがやたら長くて、他が似たような量になっているので、まぁ、そのぐらいで。グラフは色々説明しなきゃいけなかったから、きっとちょっと重たくなっちゃっただけなのだ。

今更説明するほどのことでもないと思うが、スマート・スピーカーとは、話しかけるだけで指示通りの仕事をしてくれるスピーカーのことである。話しかけるだけなので、当然見えても見えなくても関係ない。聞こえない人にとっては、他のデバイスが必要かもしれないが…。それで、Amazonが出しているスマート・スピーカーの話である。Amazon Echo シリーズと呼ばれているこのスピーカーには、Alexaというシステムが搭載されており、このAlexaが言葉を認識して、色々と仕事をやってくれるわけである。

まずは順番通りに、料理。最近は、Alexaと連携する電子レンジなども出ているらしい。しかも、どんなスキルが入っているのかは知らないが、「Alexa, microwave the popcorn」と言ってから、豆のグラム数を指示するだけで、最適な暖め時間でポップコーンを作ってくれる実演があった。でも、よく考えたら、Alexaに言う前に、ポップコーンを自分で電子レンジに入れるんだから、そのときにチンすればいいn…あーあーあーあー聞こえない気にしないすっごーい。ポップコーン食べたい。ちなみに、作ったやつは電子レンジの中に放置されていて、食べさせてくれなかった。

次に、対話。これは、あまり説明されていなかったというか、説明されてたのかもしれないけれど、聞いてなかった。

次に、リーディング。これは、Amazonが提供している電子書籍サービスであるKindleとの連携によって実現されており、世界中の本をオーディオブックとして読み聞かせてもらうことができるというものだ。オーディオブックは、なにも視覚障害者だけが恩恵を受けるものではない。眼が見えて、言語運用能力に問題がなくても、文字を読むことが困難な人だっている。それだけでなく、目の疲れを防止するため、他の作業をしながら本を読むため、寝る前にくつろぎながら物語の世界に入り込むため…などなど、使い方は無限にある。また、AmazonはKindleの他にも、オーディオブックに特化したAudibleというサービスも提供しており、こちらはかっこいいお兄さんやかわいいお姉さんや渋いおじさんに読み聞かせてもらえる。

次に、見る…watchingだけど、なんかこれも釈然としない。確かにAmazon prime videoで映画の音声部分とかを再生できるんだろうけど、しかも副音声にも対応し始めたみたいだけれど、 listening じゃん。なんやねん。まあいいや。

最後、shopping。これは完全にAmazonの宣伝ですね。Amazonのスマート・スピーカーなら、ななななんと!話しかけるだけでAmazonでのお買い物がこーーーーーーんなにらくちん!みなさんも是非!……ちなみに、実演ではトイレットペーパーを買っていたけど、トイレットペーパーっていっても色々あるわけで、どのトイレットペーパーがどうやって選ばれるのか、よく分からなかった。まぁでも、これはもうAlexaが話題になり始めたときからできていたから、実際に色々試してみればいいのではないだろうか。私は自分でAmazonでポチるので、話しかけて買うことはないと思うが…。

ここからはオタッキーな雑談なので読み飛ばしてもらっても結構なのであるが、スマート・スピーカーは実はスマートではないし、AIとかいうかっこいい響きのサムシングも搭載していない。スピーカー(正確には、スピーカーに入っているアレクサ)は、ユーザーに何か言われたら、「すいませーん、なんかこんなこと言われたんですけどお!」と、Amazonに音声データを送りつけているだけであって、Amazonから「いいか、こうやって言うんだぞ、あとおまえんところの照明器具にも連絡しろよ、そういうお願いだからな」と、全部Amazonから教えてもらってやっているだけなのである。つまり、Amazonがなにも聞いてくれなくなったり、Amazonまでの道がぶっ壊れて塞がってしまったら、スマート・スピーカーたちは、考える能力をほぼ全て失ってしまうのである!そして、ほんとうにすごいのは、ユーザーの声を全部分析して、どう答えればいいかをアドバイスして、なおかつ、その経験を蓄積し続けてどんどん進化し続けるスーパー天才仕事人であるところのAmazonのサーバーなのである!

14:00-14:40: Adventures with Soundscape (音の風景で冒険へ)

このセッションは、 Microsoft Soundscape の紹介セッションである。なんか、これもすごい長くなりそうだなあ。

皆さんは、立体音響というものをご存じだろうか。今回は立体音響について話す記事ではないので一瞬で終わらせるが、ヘッドフォンを装着して これ を聞いてもらえれば分かると思う。重要なことは、ヘッドフォン/イヤフォンというステレオの状態からであっても、まるで前後左右上下から音が聞こえているように錯覚するような音を出せるということである。この動画みたいに正確な再現は、今はまだちょっとリアルタイムでは難しいんだけどね。

Microsoft SoundscapeというiOSアプリは、これに似た立体音響技術を使い、視覚障害者のナビゲーションに応用しようというコンセプトで開発されている。目の前に何があるのか、自分の目的地はどのへんなのか、立体音響で知ることができるのだ。まさにゲーム。オーディオゲームではないか!

Microsoft Soundscapeの特徴は、目的地の方向から常に音が出ており、自分が回転するのに合わせて、目的地の音が立体的に移動していくというところだ。日本でも使えるナビゲーションアプリであるBlindSquareと同様、詳細な道案内は行わないようになっており、目的地の方向と距離を把握しながら、自分でルートを選択する必要がある。すでにBlindSquareを使っている人に向けて説明するなら、BlindSquareが「何メートル、何時方向」と文字で説明しているところを、立体音響に置き換えただけである。そのほかはほとんど変わらないというか、下手するとBlindSquareのほうが高機能なぐらい。

で、セッション中はずっと説明をしていたわけだけれど、なんか、このアプリを使った宝探しゲームとやらを、CSUNの会場で開催しているらしい。これはやるっきゃねえと思った…がしかし!残念なことに、Microsoft Soundscapeは、日本のApp storeではダウンロードすることができない!仕方ないから、今回は泣く泣く諦めることに…するわけないよなァ?!

セッション終了後、ずんずかと前に出ていって、「すいませーん、宝探しゲームとやらに参加したいんですけど、日本のストアだとアプリを落とせないんですけど、なんとかならないんですかあ!」と言ってみる。そしたら、とりあえずこのあとマイクロソフトの展示スペースに来てくれと言われた。ほほう。展示スペース。いろんな企業がいろんなものを展示して売り込んでいるあのでかい部屋のことか。よっしゃいったるで。

15:00-16:00: 展示会場

Soundscapeが日本ではできないといったら、とりあえず展示会のブースに来いと言われたので、行ってみることにした。で、ついでに展示会場もちょっと見て回ろうというのが、この1時間である。

まず、当然にしてMicrosoftに直行である。「すいませーん、さっきのセッションで blah blah blah…」と状況を説明すると、なんかMicrosoftのエンジニアがやってきた。まじかっけえ。アメリカのMicrosoftでエンジニアしてますとかいってみてえ。まぁ、おれみたいなへなちょこゲームクリエーターぐらいじゃなかなか採用されないと思うけど!ちなみに、某**ゾンってところは、試しにUSのインターンに応募してみたことあるんだけど、秒で落ちましたね!はっはっは!!

そのまじかっけえエンジニアの話によると、日本地域へのローンチ(公開)は、今のところ予定されていないらしい。今はアプリの改善のほうを優先しているのと、政府とかそういうちゃんとしたところから手順を踏んでいって、問題ないことを確認してから出さないとだめだから…だそうで。だけどもだけど、今回はせっかく来てくれたから、TestFlightのベータ版に招待するから、そこから体験してくれたまえよ!と言ってくれたので、TestFlightというベータテスト用アプリをインストールして、なんと自分のiPhoneでSoundscapeが使えるようになった。こりゃ、来て良かったな。まぁ、インターネットでベータ版への参加とかできるのかもしれないし、今回CSUNに来たから限定で招待してくれたのかもしれないし、どっちかは分からないけど。

TestFlightの招待を受け取った後、とりあえずアプリは重いので、あとでホテルでダウンロードすることにして、他の展示ブースをちょっと見て回ったりした。6マス程度の小型点字ディスプレイを搭載したスマートウォッチ”Dot”をめっちゃ売り込まれた。まぁ、ユースケースとして色々あるのは理解できるけど、俺はいらないかな…という感じなので、”I have no cash!”と言って離れた。どうやら、まだ日本語を表示することはできないらしい。あと、さすがに表示が5マス?6マス?しかないのはちょっと、スクロールが多すぎて大変なのではないか…という印象がある。まぁ、それよりも大きくしちゃったら、こんどはスマートウォッチにならないという問題が起こるので、難しいところではあろうけれども…。

日本でいうところのパームソナーの別バージョン(名前聞いてなかった)もめっちゃ売り込まれた。これは正直、パームソナーを買うよりはほしいなと思った。ただ、たぶん今私がパー宇ソナーを買おうとすると、日常生活用具給付の対象になって、かなりお手頃な値段で購入できると思うので、$250かなんかで買うのはやめた(普通に買ったら$300だか$350だけど、今ここだけ限定!ってお姉さんに口説かれそうになったけれど、口説かれなかった)。”I have no cash”と言って離れた。パームソナーよりいいと思ったところは、洋服に挟めるようになっていて、手で持っていなくてもいいところと、設定できる探知距離が2種類(1mと3mだったかな)だけでシンプルになっていること。パームソナーなんて、たしか20センチ単位で設定できるのだが、「このボタンを押して、1回振動したら何メートル、2回目で何メートル、3回目で何メートル…」みたいなのを全部覚えなければならず、しかも押すボタンが1個じゃなかった記憶がある。つまり、ボタンを押し続けて振動する回数を覚えるっていうのを、ボタンの数だけやらなきゃいけないんだったような気がする。順番が前後したが、パームソナーというのは、超音波を使って障害物を探知する機械で、まぁ、詳細はググっていただければすぐ分かると思う。

そんなことをしていたら1時間ぐらい経ったので、最後のセッションに行くことにした。

16:00-16:40: What Makes One Font More Accessible than Another– Introducing BBC Reith (他よりアクセシブルなフォントとは~ BBC Reith の紹介~)

どうやら、英国のテレビ局であるBBCは、アクセシブルなフォントについての研究をし、それを実際にテレビ放送に反映させているらしい。研究の結果をガイドラインみたいにまとめたものが”BBC Reith”というらしく、去年から実験的に、テレビの字幕に使用しているのだとか。

…で…それはいいのだが。途中から発表していた教授っぽい人がテンション上がってハッスルしてしまい、英語がすごいできて、そのへんの知識も豊富にある参加者たちとマジディスカッションタイムになってしまった。当然、私のようなへなちょこゲームクリエーターにその内容が分かるわけもなく、撃沈である。ただ一つ分かったことは、アクセシブルなフォントとはなにか?ということを研究するためのアプローチが、実際に被験者をとる実証実験ではなく、脳科学に基づいた実験だったこと。それもあって、そもそも日本語で脳科学を理解してない私になんか分かるわけがなかったのである。短いけど、フォントだと雑談ネタもないので、終わり。

ここで唐突に終わってるのでござる

ちーっす。