インターフェイスにおける第一言語と第二言語について考えてみる
インターフェイスにおける「第一言語」と「第二言語」という区分けを考えてみる.「第一言語と第二言語」の区分けを言語に設定した N・グッドマンの論文自体はまだ読んでいないで,これを引用した坂本百大の『言語起源論の新展開』から.
ネルソン・グッドマン(Nelson Goodman)は,われわれの言語はすでにそれ以前における第一言語,たとえばゼスチュアなどの身振り言語やその他の記号使用の習熟の結果初めて可能になるのであり,その第一言語の段階において文法が経験的に獲得され,それが第二言語,すなわち通常の音声言語に反映されたものであるに違いないと考え経験論に徹する.その意味では音声言語の生得性・普遍性は結局は第一言語の経験性へと還元されることになる.p.155
N・グッドマンは,人間は通常の言語(第二言語)を習得する以前に第一言語を獲得しており,その第一言語による説明・教示により第二言語の習得が迅速で画一的になり得るのであると考える.さらにこの第一言語は,それ以前に既に存在している第一次的な記号体系[シンボルシステム]の自然な習得として得られる第二次的記号体系として規定される.実際何らかの第一言語またはそれに類するものをすでにもっているものにとっては,第二言語の習得は迅速であるし,またその第一言語が安定したものであるならば第二言語の習得に画一性,普遍性が見られるのは当然である.p.170
坂本百大(1991)『言語起源論の新展開』
インターフェイスに「第一言語と第二言語」の考えを当てはめてみる.第一次的な記号体系は,ヒトが物理世界で感覚していることであり,そこでの行為であるといえる.それが「言語」となっていった流れがあるわけだが.この「言語」も含めた記号体系が,インターフェイスにおける第一次的な記号体系として「第一言語」を作る.つまり,ヒトとコンピュータとのインターフェイスの言語は,ヒトが習得した第二言語を基盤としていると考えることができる.物理世界とのつながりの中で培ってきた安定した「言語」を,コンピュータとのやり取りを説明・教示するために使う.その結果生じた「第一言語」が,マウスとカーソルとを結びつけることでできることをメタファーでまとめ上げたデスクトップ・メタファーを採用した視覚中心のインターフェイス.この段階では,ヒトの身体感覚の多くを活かすことができていない.しかし,マウスを「握る」という単一の感覚から,ディスプレイ上のイメージを「掴んで,動かす」という基本文法を導き,その組み合わせによって多様なテキスト(行為)を産出することが可能になっている.
次に「第二言語」としてマルチタッチ・ジェスチャーを基本とするインターフェイスが出てきている.マルチタッチ・ジェスチャーは,「第一言語」で培ったディスプレイ上のイメージと行為とをとり結ぶ「掴んで動かす」という基本文法を基盤にして,より身体的なインターフェイスの構築を目指しているといえる.25年もの間のマウスとカーソルの結びつきによる視覚的インターフェイスから,身体的なインターフェイスへの移行.言語の起源では,視覚言語=身振り言語で,それが「大脳と脳の奇蹟的な出会い」という閃光的発現の時期を経て,人間的音声言語へと至るのであるが,インターフェイスでは,視覚言語=マウス・カーソルから,身振り言語へと移行すると考えることができる.となると,インターフェイスの「第二言語」は,言語の「第一言語」となる.このねじれた関係をどう考えるか.このねじれゆえに,インターフェイスはヒトにとって自らの言語と行為との関係,記号体系の根本的な再考を促すのかもしれない.
--
Twitter でのつぶやき
インターフェイスにおける「第一言語」と「第二言語」という区分けを考えてみる.「第一言語」:マウスとカーソルとの結びつきを基本とする視覚的・把握的インターフェイス.「第二言語」:マルチタッチ・ジェスチャーを基本とする身体的・触感的インターフェイス.
第一言語の習熟が,第二言語の習得を迅速にする.視覚性・把握性は,マルチタッチ・ジェスチャーを習得されるために予めヒトの身体に蓄積していなければならない?