Android とそのサービスを障害のある人にとってさらに使いやすくするための Google の取り組みを通じて、アクセシビリティのイノベーションが健常者と障害者の両方に実際にどのような恩恵をもたらすのかを見てみましょう。
私はいわゆる健常者です。言い換えれば、私は特別なハンディキャップを抱えているわけではありません。私には 2 本の腕と 2 本の脚が機能しており、聴覚も同様であり、視覚も - 確かに限られていますが - 日常的に大きな問題を引き起こすことはありません。そのため、意識向上の取り組みはいくらか行われているにもかかわらず、同じ特権を享受していない人々が日々直面している困難については、私はほとんど知りません。
それにもかかわらず、私は皆さんとともに、新しいテクノロジーにおける障害の位置づけの問題、特にアクセシビリティの問題に対処しようとするイノベーションがもたらす可能性のあるプラスの影響についてお話したいと思います。
障害のある人を代表して話すことは決して許されませんが、Android や同社のさまざまなサービスをより利用しやすくすることを目的としたプロジェクトを主導する 4 人の Google 従業員と話す機会がありました。私の対談者は次のような人たちでした。
- ブライアン・ケムラー、プロダクトディレクター、マウンテンビュー在住
- ローラ・ダキーラ、ソフトウェア開発者、ニューヨーク拠点
- アビゲイル・クライン、ソフトウェア開発者、ニューヨーク拠点
- ディミトリ・カネフスキー、研究者、マウンテンビュー在住
世界中で 15 人に 1 人が聴覚障害者または難聴者
考察をさらに進める前に、いくつかの数字を使って観察してみましょう。これを念頭に置いて、Google は世界保健機関 (WHO) から伝達されるデータに依存しています。
まず第一に、WHO は次のように推定していることに注意してください。地球上の10億人何らかの障害を持っている»、世界人口の15%に相当します。たくさんの中で、私たちは数えます4億6,600万人の人類が「」の影響を受ける難聴を無効にする»。
その結果、世界の15人に1人が聴覚障害者または難聴者となり、2050年までにその数は合計9億人になると予想されます。
統計的根拠についてはこれくらいです。ついでにお気づきかと思いますが、私の発言は聴覚関連障害に焦点を当てていました。これは、この記事のもう少し下で非常に興味深い Euphonia プロジェクトについて説明するように、アクセシビリティに関する Google のイノベーションが最も進歩したのはこの分野であるという事実によって説明されます。
しかし、先に進む前に、アクセシビリティに関する取り組みは、一見するとそう思われるかもしれないが、ニッチな視聴者を対象としたものではなく、人口のかなりの部分を対象としているということを示すことが重要である。極めて現実的かつ冷静に言えば、これは Google にとって巨大な市場です。
さらに充実したアクセシビリティサービス
Android では、アクセシビリティ サービスが利用可能ですしばらくの間、スマートフォンの設定と、Play ストアからダウンロードしたアプリケーションの両方を介して。これは特に次の場合に当てはまります。音声アクセス、身体の不自由な人々が移動できるようにするサービスです。Google アシスタントに話しかけるだけで携帯電話のインターフェースを操作できます。

音声アクセス
聴覚障害者についての会話の中で、ブライアン ケムラーは、Google が次の点で大きな進歩を遂げたと説明しました。機械学習そして口頭から書面への転写。以下に言及することで概要を簡単に理解できます。Live Transcribe や Sound Amplifier などのアプリ。
「即時文字起こし」は、聴覚障害のあるユーザーの周りで話されたすべてを書き留め、特定の騒音(笛、指鳴らし、風のざわめき、吠え声など)さえも文字に起こします。

即時文字起こし
サウンドアンプは通話中に使用され、周囲の寄生音を最小限に抑えながら音声の音量を高めることを目的としています。難聴のある人でも、より簡単に電話をかけることができます。

サウンドアンプ
その間、Google I/O 2019、4 色の巨像は、ライブ キャプションとライブ リレーも表示しました。 1 つ目のアプリケーションでは、スマートフォンで再生するビデオやポッドキャストから発せられるすべての音声を文字に起こすことができ、2 つ目のアプリケーションでは通話以外は同じことができます。そのたびに、Google は機械学習に関するノウハウを活用し、人工知能。
さらに、Laura D'Aquila はライブ文字起こしソリューションを Google スライドに適用しました。したがって、企業プレゼンテーションやカンファレンス中、聴覚障害者は、スライドに表示される単純な情報に満足する必要はなく、発表者のコメントを読むことができます。
この機能は現在英語でのみ利用可能で、コンピューター版の Google Chrome でのみ利用可能です。
アビゲイル・クラインは、Chromebook と Google Chrome 専用のプロジェクトとサービスに所属しています。これに関連して、視覚障害のあるユーザーが報道記事やソーシャル ネットワークで写真をより正確に説明できるように、特に Web サイト上の画像認識を改善するために機能します。
みんなのためになる取り組み
私たちは現在、Android とその一部のサービスの両方におけるアクセシビリティに関する Google の取り組みをよく知っています。この分野の進歩が他のユーザー、つまり障害を持たないユーザーにもどのように利益をもたらすのか、理解できない人もいるかもしれません。ただし、人工知能に関するそれぞれの進歩がこの分野全体を進歩させるということを理解するだけで十分です。しかし、現在では、AI、そのアルゴリズム、機械学習のおかげで、アクセシビリティ サービスが充実しつつあります。
そして、AI(この流行の用語が時々無差別に使用される場合でも)が、私たちが使用するあらゆるテクノロジー機器に徐々に侵入しているのを目にしないためには、世界から隔離された洞窟の中に住まなければならないでしょう。非常に具体的に言えば、文字起こしサービスは翻訳アプリケーションを改善し、健常者と障害者の両方がより多くの人が互いにコミュニケーションできるようにすることができます。画像認識の向上は、次のようなプラットフォームにのみ恩恵をもたらします。GoogleフォトまたはGoogleレンズ。
ここで、さらに野心的なプロジェクトであるユーフォニアが登場します。
ユーフォニア: 誰もが自分自身を理解できる
会話のこの時点で、ディミトリ・カネフスキーに発言権が与えられます。旧ソ連に生まれた彼は、1歳で聴覚を失い、その後キリル文字を読んで英語を話せるようになった。その結果、研究者が話すときは、力の抜けた調音で強いロシア訛りで話し、自分の話している声が聞こえないため、声の大きさは非常に変化し、高音が非常に高くなることがあります。お分かりかと思いますが、この男の話し方は特に独特です。しかし、まさにこの細部にこそ、私たちの興味のすべてがかかっているのです。ユーフォニア。
上で見たように、今日のアルゴリズムは十分に成熟しており、口頭での会話を理解し、それをリアルタイムで文字に書き写すのに効率的です。ただし、これらの解決策はすべて、話している人が比較的古典的な話し方をしている場合には機能します。もちろん、このマシンはさまざまな地域のアクセント、さまざまな発話速度、またはさまざまなレベルの明瞭度を解釈できますが、AI が理解しやすいフレームワーク内に常に留まります。
Cookie やその他のトラッカーを受け入れていないため、このコンテンツはブロックされています。このコンテンツは YouTube によって提供されています。
これを表示するには、YouTube によるお客様のデータの使用を受け入れる必要があります。この使用は、コンテンツの表示とソーシャル メディアでの共有を可能にし、Humanoid とその製品の開発と改善を促進する目的で使用される可能性があります。パートナー、あなたのプロフィールとアクティビティに関連してパーソナライズされた広告を表示し、パーソナライズされた広告プロファイルを定義し、このサイト上の広告とコンテンツのパフォーマンスを測定し、このサイトの視聴者を測定します(もっと詳しく知る)
「すべてを受け入れる」をクリックすると、Humanoid およびそのパートナー。
同意はいつでも撤回できます。詳細については、ぜひお読みください。クッキーポリシー。
ディミトリ・カネフスキー氏が話すときには、これらのテクノロジーはうまく機能しません。彼の独特の話し方のせいで、研究者は人間に自分のことを理解してもらうのさえ困難です。個人的には、集中して彼の文章の全体的な意味を理解することができましたが、話されたすべての単語を完全に理解したと言ったら嘘になります。これが彼がユーフォニアプロジェクトを開始した理由です。
研究者は、機械が彼のスピーチを理解し、それを画面上でライブで転写できるようになるまで、数十時間にわたって彼の声を録音することによってアルゴリズムを訓練しました。したがって、議論するために、彼は手話私たちがよく想像できるように、彼が出会う人々の大多数はそれを習得していません。具体的には、インスタント文字起こしアプリケーションを使用すると、彼は私たちの言うことを聞くことができ、ユーフォニアを使用すると、彼は私たちに彼の言うことを読ませることができます。
難聴からシャルコー病まで
ここでいくつかの課題が生じます。確かに、ユーフォニアはディミトリ・カネフスキーの言っていることを理解していますが、世界の他の地域の人々もまた、周囲から正常に理解されないというハンディキャップを抱えています。しかし、これらの人々は彼と同じ方法で自分自身を表現しません。研究者は単に自分のプロジェクトが実現可能であることを示しただけで、今後はアルゴリズムが可能な限り多くのモデルでトレーニングを継続する必要があります。 Google は関係者全員にユーフォニアの改善への参加を呼びかけていますこの目的のために提供されたフォーム経由で。
私たちはここで、かなりの数の聴覚障害者に利益をもたらすプロジェクトに携わっていますが、それだけではありません。ディミトリ・カネフスキーが指摘しているように、ユーフォニアは次のような影響を受ける人も使用できます。筋萎縮性側索硬化症シャルコー病としてよく知られている病気は、脳卒中患者や吃音が多い人に当てはまります。
一方、研究者とマウンテンビュー会社は、ユーフォニアのすべてのデータが、コンピュータではなくデバイス上にローカルに保存されるようにしたいと考えています。雲。これには、スマートフォンやコンピュータに収まるようにファイルを圧縮し、オフラインで動作できるようにするための多大な作業が必要です。そして、Google がこの賭けに成功すれば、誰もが使用する他のより古典的なアプリケーションにも利益がもたらされると考えられます。同じ方向への野心はすでに発表されていますGoogle アシスタントの効率が向上そしてのためにTitan Mチップ誰がそう提案するのか顔認識の向上でグーグルピクセル4。
結局のところ、すべては実際にリンクしています。
より多くのコミュニケーションを、より良いコミュニケーションを
アクセシビリティ ソリューションが大幅に進化し、今日ではほんの数年前には考えられなかったアプリケーションの設計が可能になっていることがはっきりとわかります。 「アルゴリズムがユーフォニアを起動できるほど強力になるまで 30 年間待ちました» とディミトリ・カネフスキーは打ち明ける。まだ多くの進歩が必要ですが、少なくともそれは可能です。
ブライアン・ケムラー氏の目では、アクセシビリティの観点からの次の大きな課題は、スマートフォンが自動的かつ直接的に手話を口頭音声に、またその逆に転写できるようにすることだろう。」しかし、これをコンパイルするには驚異的な量のデータが必要です»。
この記事で示唆された考察は、アクセシビリティに関する Google の取り組みに関するものであり、これは私が 4 色の巨人の代表者と話し合うことができたという事実によってのみ正当化されます。しかし明らかにたくさんの取り組みがある、同じ目的を追求する、大企業や団体によって立ち上げられたもの。ここでの Google は、この広大なテーマにアプローチするための攻撃的な角度にすぎませんでした。
したがって、Web とソーシャル ネットワークの出現により、より多くのコミュニケーションを可能にする無数のサービスを私たちが享受できるようになったのは興味深いことです。ここでは、障害のある人々にとって、何よりもより良いコミュニケーションが重要です。私たちが成功すれば、全員が勝者となるでしょう。