カーソルについての抜き書き

Windows も Mac OS もユーザーインターフェイスはデスクトップメタファに則っているけど,実生活にカーソルってものは存在しないなぁ.確かにフォルダやファイルなどは,実際にあるものだけれども,このカーソルってなんだ? そもそも,デスクトップを真横から見たら,カーソルは浮遊しているのか? フォルダをドラッグする時は,銛で川魚をとるみたいにブスッと刺してズラすということなのか? それとも先端に餅みたいなものがついていて,くっつけて引っ張るのか? その方がファイルも破損しないなぁ・・・・.

--
実際にはボタンでもスライダでもなく,自分がどこにいるのかにはとんと無頓着でありながら,それでもちゃんと機能するボタンとスライダ.自分がいる場所に応じて,自身の存在と行動を変化させるカーソル.ストリッピング,スキッピング,スクローリング,フライング,ポッピング,ゴブリング・・・こうした“効果”のすべてが多大な効果を発揮し,現実世界に帰結するのは確かだが,しかしそれでもなお,現象のレベルで物理的に理解される場合には,物理学の法則の大幅な書き換えが要求されることになる.(p. 140)

--
つまり,マウスというインターフェイスは,常にその分身である,マウス・カーソルを見ながら操作することを,ユーザーに強いる.そのことは,現在のコンピュータの GUI の主流である,デスクトップ・インターフェイスという視覚指向型のインターフェイスのデザインと密接に結びついている.と同時に,それは良くも悪くも,「見ながら」操作することの限界を含んでいる.(pp. 47-48)

--
今のソフトウエアにおいて,スクリーン表示の中にユーザ自身を表象するオブジェクトはない.ユーザはスクリーンを見つめる者としている.スクリーン表示の内容をみているユーザの視線は彼/彼女の体の側にあり,注視点はスクリーンの中にある.このときスクリーン上のカーソルやキャレットが示すプロンプトは,ユーザの視線を代理する記号と考えることができる.(p. 129)

それらは,スクリーン上にある「自己の存在・場所」に近似するものと言える.スクリーン内のカーソルやキャレットは,ユーザがもっているであろう関心の場所を表示している.英語のプロンプト prompt には,文字通り「人を促す」の意味がある.しかし,それはシステム側の期待するユーザの思考の「存在・場所」であり,その時のユーザ自身の関心場所とずれていることも多々ある.(p. 129)

「自己の姿勢」もスクリーン上に表示されている.アプリケーションを用いた作業の多くの場合,多くの GUI ではユーザが選択した「コマンド」の種類によって,カーソルの形状が変化する.文字を入力するときは「ペン」,絵を描く場合は「筆」,移動を選べば「手」などの視覚記号が与えられている.それら特定の意味を示す記号として表現されたカーソルは,スクリーン上でおこなわれる行為に向かうユーザの「姿勢」を表象する記号だと言える.(pp. 129-130)

スクリーンの中でカーソルを動かし,何かしらの作業命令を実行すると,その結果が現れる.その命令から結果を手に入れるまでのプロセスを,思考における「自己の動き」とみなすことができる.しかし,結果は表示されるが,その結果をユーザが「手に入れたこと」を示すプロンプトのような標準的インタフェースをデザインすることはできるはずだ.(p.130)

コンピュータを使った作業におけるユーザの関心が存在する場所は,カーソルやキャレットに表象されている.そこでの「自己の姿勢」は,キャレットの点滅やカーソルのアイコンによって表現されている.そして,「自己の動き」は,ユーザが,実行した作業命令の結果を受け取ること,つまり作業のフィードバックがそこに現れることにおいて表現されている.(p. 130)

情報空間のインタラクションは,自己と対象である情報を結び付ける「自己座標系」が欠如しているのだ.それゆえに,そこに生まれるインタラクションが,私たちの活動の「経験」になりにくい.何処に居たのか,何をおこなったのかなど,「思考」の居場所,姿勢,そして動きを,明確に「定位」することが難しくなる.カーソルやキャレットは用意されているが,そこには自己を確認する基準となる座標がない.デザインされていないのだ.(p.131)

--
私のコンピュータのキーボードにあるバックスペース・キーを叩くことは,カーソルを左へと動かす.運動の原因は,バックスペース・キーへの圧力であり,この出来事およびそのコンピュータの完全な機械的電気的条件ではない.もちろんもし我々がコンピュータの配線を変え,プラグを抜き,ソフトウェアを変え,接触を腐蝕させるなどすれば,そのときバックスペース・キーを叩くことはもはやカーソルを動かさない.確かにそうだろう.しかしながら,これが示すのは,バックスペース・キーを叩くことがカーソルを動かさない,ということではなく,それが常に動かすわけではない,ということである.そうするのは特定の条件においてのみ,すなわち背景条件が正しいときのみである. (pp.67-68)

コンピュータや関連するソフトウェアの設計者および製造者はバックスペース・キーによって制御されたカーソルの動きの原因である(の中に数えられる).彼らはバックスペース・キーへの圧力がカーソルを左へ動かすようにした張本人である.(p.68)

--
書くとき,眼は動くペンの先を注視する.それに対して,パソコンに向かって仕事をする時,眼は表示装置の中のカーソルやポインタを見ている.車のアクセルに置かれた足が意識されないように,そこではマウスの上に置かれた現実の指先は意識されない.指先は電気信号となってケーブルを通り,コンソールの上の(矢印や指の形として示される)アイコンとして経験されるのである.(p.168)

--
たとえば,マウスを動かしますね.マウスを右に動かすとカーソルも右に動きます.マウスを動かしてカーソルが動く,というのは普通のことと思えるかもしれませんが,ペンを持って物理的に線を引いているわけではないので,実は不思議なことです.マウスとカーソルに物理的な因果関係は何もなく,単にマウスとカーソルの間にプログラムが介在し,マウスに追従してカーソルが動くように計算されているだけなのです(いうまでもなくカーソルは映像です).そのようにインタラクションが仕組まれたことによって,マウス操作が自然なもの,空気のように存在するものになってきました.ウェブブラウザを使っていて,リンクの張ってある箇所に来ると,矢印カーソルがぱっと指先の形に変わったり,ボタンがハイライトするといったようなこともそうです.なんだがそれがあたりまえのような,春になったら花が咲くぐらい当然のように感じる現象が日常にあって,インタラクション自体が何でもないものになってきました.(pp.175-176)

--
たとえば,ユーザーはしかるべきところへカーソルを動かし,マウスをクリックする.すると何かが起こるといった具合.インタラクティブ論者のマイケル・ナイマークなら,さしずめぐっと軽蔑的に,これを突いて見るテクノロジーなどということだろう.このインタラクションの定義は,すでに長きにわたりゆきわたってきたこともあり,いまさらそれについて口をだす研究者はほとんどいない.むしろこうしたシステムの中で遊ぶことはできる.しかし,これによって「インタラクション」が潜在的にもっている可能性は制限されてしまう.この範囲で機械にできることといったら,たとえばマウスのクリックなどの,オン・オフに対する反応にかぎられるからである.(p.14)

『バトルコマンダー』のオープニング画面には,薄いシーツにつつまれた裸の若い女性が軍隊の簡易ベッドに横たわって映しだされる.カーソルが肌に触れると,彼女は身をおこし,色気たっぷりにプレイヤーをみつめる.(p.229)

ただこの彼にカーソルをあわせても身を起こすことはなかった.(p.232)

--
コンピュータ・スクリーンを,スクリーンの背後やその向こうにある視覚世界(文書,画像,デジタル画像,音響など,コンピュータが作る情報世界)へと開かれた窓と考えよう.文書や映像に集中しているとき,ユーザはインターフェイス(メニュー,アイコン,カーソル)を意識しない.インターフェイスは透明となる.ヒューマン・コンピュータ・インタラクティブの専門家や一部のデザイナーたちは,情報世界の透明な窓になることがインターフェイス・デザインの唯一の目標だと考えている.(p.39)

コンピュータのデスクトップは,実際の事務机をただ真似したものではない.実際の事務机にはメニューバーはないし,幹部が机にもし本物の鼠[マウス]がいるのを見つけたら掃除夫を呼びつけるだろう.メニューバーやツールバー,マウスでの指示[ポインティング]やクリックやドラッグといった動作は,初めて使った人には奇妙に感じられる.アスキーコードの命令文が並んだディスプレイに慣れたユーザーは,初めてGUIを見て戸惑った.とりわけ,カーソルをウインドウ内の文章のどこへでも,二次元的に動かせることに.その一〇年以上前にダグ・エンゲルバートが,NLSのデモでコンピュータのプロたちを驚かせたことに似ている.数分あるいは数時間使えば,驚きは納得に変わる.一九八〇年代末から九〇年代初頭にかけて,マイクロソフトが“ウインドウズ”でGUIを採用し,あらゆるコンピュータ・ユーザーがこの方法に慣れた.あまりに慣れすぎて,もはや改めて意識することさえない.パソコンはこういうものだと思っている.(p.68)

GUI は「自然」で「直感的」であり,今ではメニューや,画面内のポイント指示装置がないほうが奇妙に感じられる.GUI が自然になったということは,別の言い方をすれば,GUI は透明になったということだ.今では”宣伝”どおりに動かないとき以外は,GUI 自体を見つめることはない.(p. 68)

--
Timing and rate functions are important on-line. For example, a rather simple timing technique can vastly improve the “feel” of a knob. I want to move a cursor around on a cathode ray tube, to position it on top of a letter. A good way to position the cursor is to connect a couple of knobs to the x and y coordinates of the cursor. The cursor will move around on the screen when I turn the knobs. Such arrangements are common. (p. 23)

I tried a program which moves the cursor quadratically with the speed of the knobs. You naturally give the knob a good healthy twist whenever you wnat to move the cursor a long way. Because of the quadratic connection, the cursor moves extra rapidly. You will naturally turn the knob slowly when you are close, and then the cursor moves slowly and soomthly. This quadratic techinique makes the cursor seem to “understand” what you want. (pp. 23-24)

Ten Unsolved Problems in Computer Graphics, Ivan. E. Sutherland
--
To point to a line already on the display, the stylus is moved until the light dot (cursor) is near the line. The stylus is depressed to tell the display to send the current x, y positions of the stylus to the computer. By various means the system can then determine what previously sent lines pass near that point. (p. 161)

The reactive engine, Alan Curtis Kay
--
Many of the traditional interface conventions work well in gestural interfaces: selecting, drag-and-drop, scrolling, and so on. There are several notable exeptions this:

Cursor
With gestural interfaces, a cursor is often unnecessary since a user isn't consistently pointing to something; likewise, a user's fingers rarely trail over the touchscreen where a cursor would be useful to indicate position. Users don't often lose track of their fingers! Of course, for gaming, a cursor is often absolutely essential to play, but this is usually on free-form gestural interfaces, not touchscreens. (p.25)

--
Alto のユーザーインターフェイスでもう1つ重要なのは,ポインティングデバイスとしてマウスを利用したことだ.これは PARC による技術革新ではなく,1960年代終わりにエンゲルバートが SRI で行った先駆的な NLS システムの開発ですでに使われて大きな成功を収めていた.キーボードの側の作業面でマウスを転がすと相対位置の情報が手に入り,これはソフトウェアでディスプレイ画面上のカーソル位置を制御するのに利用できる.マウスの上部にあるボタンを押して,さらに情報を入力することもできる.その後の研究で,手で指し示すのと同様に,マウスはフィッツの法則にしたがって効率的に目標選択ができることが指摘された.マウスは,本来意図された分野では,オーディオ分野のコンパクトディスクのように人間の能力の限界の範囲内では健闘している.マウスでは鉛筆やタブレットを使ってフリーハンドで描くようなわけはいかないのに,インターフェイスは装備していながら,タブレットを使うグラフィックスアプリケーションは非常に少ない.(p. 309)

--
ケイはインターフェイスの設計に際して,紙のもつ単純さと広がりとを目標に努力した.そして,最終的にオーバーラップウィンドウという手法を使ってこの問題を解決した.エンゲルバートをはじめとするオーグメンテーションチームが考案したウィンドウでは,それぞれが画面の一部分を重ならない形で占めることを想定していた.この方法では,自分がどのウィンドウで作業しているのか分からなくなることもあったし,ウィンドウが多くなると画面が狭すぎて必要なウィンドウが表示できなくなることもあった.ケイの解決策は,画面を机と見立てることだった.それぞれのプロジェクトやプロジェクトの一部を机の上の紙として扱うのだ.有名な「デスクトップ比喩[メタファー]」の誕生である.本当に紙で仕事をしているように,ある時点で作業している書類が,束の一番上にある.このウィンドウに対してのみ文章を書き込んだり,絵を描いたり,あるいはそこに表示されている手紙を読んだりできる.前に作ったウィンドウの角や枠は見えているかもしれない.他のウィンドウで仕事するには,マウスを使ってカーソルをウィンドウの外に出し,下のウィンドウのいずれかに移動する.すると,すぐにそのウィンドウ全体が表示され,それが一番上にきたという感じを与える.(p. 73)

--
ライトペンやタブレットの方式とは逆に,マウスの構造はユーザーがマウスを動かす表面をシステムの主要な要素として想定していなかった.「バグ」は,その人工物と画面上のカーソルの両方に向いていた.したがってエンゲルバートのプロジェクトは,概念的に「その人が直接その問題に取り組んでいると感じられる」といるエリスとシブリーの目標に極めて近かった.これらの要素,すなわり一つはユーザーの現実的世界の要素,もう一つはコンピュータの象徴的世界の要素に同じ名前を与えることは,エリスとシブリーが言ったように,「媒介者に問い合わせることなく」,インターフェースが割り込むという感覚なしにユーザーが問題に取り組めることを確かに意味していた.この見方から言えば,マウスと使うことはスタイラスで画面を指すのに似ていたが,ユーザーの手が目を邪魔しないこと,ユーザーがキーボードを打つときにもマウスが下に落ちないこと,そして最も重要なことに,書き込む表現が信号発生器であったライトペンやタブレットのような従来の入力装置とは逆に,マウス自体が信号発生器であることがスタイラスとは異なっていた.(p. 162)

--
ジプシーは可能な限り,ジン社の習慣的なやり方をまねるよう作ってあった.多数のバージョンや下書きを保存し,リストにして表示することができた.編集者はマウスでリストをスクロールし,望みの版をクリックして開くことができるのだ(ポイント&クリックによる実行という現在同様のマウスの使い方がされたのも,これが初めてのことだった.エンゲルバートのシステムもブラボーも,マウスはテキストの中でカーソルを移動するためだけに使われていた.)(p. 301)

このブログの人気の投稿

【2023~2024 私のこの3点】を書きました.あと,期間を確認しないで期間外の3点を選んで書いてしまったテキストもあるよ

マジック・メモ:行為=痕跡=イメージの解体可能性

インスタグラムの設定にある「元の写真を保存」について

映像から離れていっている

出張報告書_20150212−0215 あるいは,アスキーアート写経について

「グリッチワークショップ」を見学して考えたこと

画面分割と認知に関するメモ

矢印の自立

アンドレアス・グルスキー展を見て,谷口暁彦さんの習作《live-camera stitching》を思い出しました

ナウシカの世界におけるメディア・コミュニケーション(1)