2011-07-03 Sun [ 転載物::商業誌 ]
これは『電撃王』や『電撃プレイステーション』に載せていたコラムの中で思い入れが深いものを、細かくアップトゥデートして載せていくシリーズ。
今回は、1996年の電撃王に載せたコラム。
さて、僕は今ワープロ‥‥Windowsの上で動くMS-WORD6.0で文章を書いている。このワープロ、当然漢字も出るし、日本語は日本語入力でバリバリ変換できる。(FEPじゃなくてIMEとか呼ぶんだけど)
では、いつ頃からコンピュータで日本語が扱えるようになり、どんな風に発展したのか?
というわけで、今回は漢字とコンピュータの話。
まず遥か遠い昔、コンピュータがTVに文字をやっと出せるようになったころはアルファベットとカタカナぐらいしか出なかった。
それも当たり前で、ディスプレイに文字を表示するためのメモリの値段が高かったし、グラフィックなんてついていなかったから、アルファベット以外はとても出せなかったのだ。
というわけで、コンピュータの世界は生まれて10年ぐらいはアルファベットと半角カタカナの世界だった。
これが変わってきたのが、PC-8801とかFM-8といった640*200の解像度を持つグラフィックを装備するコンピュータが登場してから。
というのも、普通、漢字は最低12ドットぐらいからなんとか文字としてはっきり書けるようになり、16ドットあれば、ほぼ普通の文字として読むことが出来るようになる。
だから640*200あれば、横40文字×縦12行ほどのだいたい原稿用紙1枚ちょい分が表示できるようになり、初めて「実用的に」日本語を表示することが可能になったわけ。
ところがここで二つばかり問題があった。
一つは例によってメモリの問題。
第一水準と呼ばれる漢字で約3000字、メモリにして128キロバイトも食ってしまう。第2水準まで入れると、ほぼ倍の256キロバイト使ってしまう。
当時としては途方もない量のメモリを積んでいた8801ですら、全部合わせて64キロバイトほどしかROMを積んでいなかったのだから、漢字ROMって奴は本体並みの値段がする、とんでもない代物だった。
これが一つ目。
2つ目の問題はもっと深刻。
それは「どうやって入力するか?」だ。なんせキーボードには端から端まで、全部合わせてって100ほどしかボタンはない。
比較的使う3000文字ほどの漢字ですら、ボタンに割り当てるわけにいかないのはあきらかだよね。
で、当時なんとかモノになっていた日本語の入力方法は3つあった。
一つが登場したばかりだった「日本語ワードプロセッサ」(確かオアシスが初代だと思うんだけど‥)に使われていた「漢字の読みを入力して1文字ずつ変換する単漢字変換」。
もう一つが単純に「カタカナ」だけ入力する方法。つまり、漢字は表示しないってわけだ。
そして最後の一つが「和文タイプ」。この和文タイプと呼ばれる代物は、簡単に言えば「超でかいキーボード」に漢字が全部刻印されている、オバケみたいな代物。
で、どう考えても最初の一つしか使い物にならないのはあきらかだから、普通のアルファベットキーボードから入力された文字を変換する以外にはやり方は考えられなかった。
こして「漢字変換」と呼ばれるものが登場したわけなんだけど‥それから後がまた騒ぎだった。
というのも、まずコンピュータのパワーが全然ないもんだから、いまのように文章を入力すると楽々と変換されていく‥‥なんてマネは全く不可能だった。
メモリもなければパワーもない。コンピュータに日本語を入れるなんてこと、誰も考えたことがなかったから、理論もない。
まさにないないづくしの状態で日本語入力の研究は始まったわけ。
まず最初の漢字の読みから1文字づつ変換する方法で入力するのは、たちまちみんながイヤだと思い始めた。
もう山のように同音の漢字が出てくるなかから1文字ごとに選択していくしかないんだからそれも当たり前。
例えば「同」を出したければ「どう<変換>」と押して「ええ~と、同はどこじゃいなあ‥」と探し回ることになる。これじゃあやっていられない。
で、これを解決するために、みんな色んな方法を山のように考え出した。
例えば「超多段シフト」。
簡単に言うと強引にキーボードにシフト+なんとかで、こーいう漢字が出るように割り当てて、良く使う漢字が一発で出せるようにする‥それはそれはムチャな方法。出せない文字は単漢字変換で出せばいい、ともかく速くなるというのがウリだった。
例えば部首引き。
単漢字じゃあ読みが大変だから「部首で引こう」ってワケ。キーボードのキーにともかく部首を割り当てて、強引に部首でリストが出てくるって、やっぱりムチャな代物。
例えば連想変換。
これは一時凄く有力だと言われた方法で、連想で漢字を変換する超あやしい方法。「すけ」と入力すると「スケバン(女番)」だから「番」と出る。どうだ使いやすいでしょう‥‥なんてムリヤリなこじつけで目的の漢字を一発で出す方法。
とまあ、こんなムチャな方法が僕の知っているだけで軽く10個ぐらいはあったと思うんだけど、そんなムチャクチャな事をやって四苦八苦しているうちにコンピュータの方の状況が変わってきた。
まずマシンパワーが上がって漢字を表示するのに苦労がなくなり、記憶装置としてフロッピが普及し、大きな辞書を持つことも難しくなくなってきた。
辞書を持てるってことは、単漢字を一発で出そうとするよりも、力任せに山のように熟語を持って、熟語で変換した方が楽だということ。
というわけで、熟語変換‥つまり、熟語で変換するのが主流になり、その入力された文章を文法解析しながら変換しても、イライラしないで済むようになり、とうとう今使っているような変換にたどり着いたわけ。
で、この日本語変換とともに生きてきたぼくは、とうとう日本語を紙に書けない体になってしまったわけだね。悪筆でまともに読める字が書けない僕には、全くコンピュータってありがたいと思ってしまうのだ。
どうしてこれを引っ張り出したのかというと、この入力方式のゴタゴタぶりってのは、今のスマホの入力に繋がるところがあるなあと思ったのと、ついこの前、TwitterのTLで連想変換の話題になったから。
ともかく、連想変換のインパクトは一生忘れないw
なんせ「スケ」って入力したら「番」ですよ? ビックリ以外のなにものでもない…けど、今の人からは、なんでこんなキッカイな方法が有力視されていたのかさっぱりわかるまい。
なので、それについて説明しておこう。
まず当時のパソコンの非力なパワー(Z80/4Mhzで速いほう。メモリは多くて64キロバイト)では、文節変換なんて夢のまた夢でどうしようもなかったことはこのエッセイに書いたとおり。といって単漢字変換ではやってられない、というのも書いたとおり。
つまり、当時はせいぜいフロッピー1枚程度の辞書(最大320キロバイト程度。漢字にして原稿用紙400枚程度の容量しかないのだ)で、かつメモリをあまり食わず、マシンパワーも軽い方法がどうしても必要だったのだ。
そのとき、この連想変換は辞書サイズが小さくて済み(フロッピーがあればともかくなんとかなる範囲)、かつ単漢字変換も単語変換にも対応できる、しかもマシンパワーがないのは「人間の脳みそを補助に使うことで解決」といいところだらけだったのだ。
だから連想記憶は一時有力視されたけれど、もちろんマシンパワーの向上の前に消えていってしまったわけだw
まあ、こんな話は年寄りのタワゴトでしかないわけだけど、連想入力なんてもんを記録に残すために、アップしておくしだいであるw
今回は、1996年の電撃王に載せたコラム。
■■■
さて、僕は今ワープロ‥‥Windowsの上で動くMS-WORD6.0で文章を書いている。このワープロ、当然漢字も出るし、日本語は日本語入力でバリバリ変換できる。(FEPじゃなくてIMEとか呼ぶんだけど)
これまた隔世の感のあるセリフだ。これを書いた当時は、ちょうどWindows 95が出て直後ぐらいで世の中はDOSマシンの方が主流だった。
そしてDOSマシンでは日本語入力のことをFEP、"Front End Processor"と呼んでいた。だから「FEPじゃなくてIMEと呼ぶ」と但し書きをつけたわけだ。
そしてDOSマシンでは日本語入力のことをFEP、"Front End Processor"と呼んでいた。だから「FEPじゃなくてIMEと呼ぶ」と但し書きをつけたわけだ。
では、いつ頃からコンピュータで日本語が扱えるようになり、どんな風に発展したのか?
というわけで、今回は漢字とコンピュータの話。
まず遥か遠い昔、コンピュータがTVに文字をやっと出せるようになったころはアルファベットとカタカナぐらいしか出なかった。
それも当たり前で、ディスプレイに文字を表示するためのメモリの値段が高かったし、グラフィックなんてついていなかったから、アルファベット以外はとても出せなかったのだ。
というわけで、コンピュータの世界は生まれて10年ぐらいはアルファベットと半角カタカナの世界だった。
これが変わってきたのが、PC-8801とかFM-8といった640*200の解像度を持つグラフィックを装備するコンピュータが登場してから。
というのも、普通、漢字は最低12ドットぐらいからなんとか文字としてはっきり書けるようになり、16ドットあれば、ほぼ普通の文字として読むことが出来るようになる。
だから640*200あれば、横40文字×縦12行ほどのだいたい原稿用紙1枚ちょい分が表示できるようになり、初めて「実用的に」日本語を表示することが可能になったわけ。
と言っても、実は16ドットだと一部の漢字では縦のドット数が不足するために、略字になってしまう。漢字が正しく表記できるのには24ドットは必要だ、と昔教えてもらったが、くそめんどくさい文字があるのを見ると32ドットぐらいはないと多分ムリだと思う。
ところがここで二つばかり問題があった。
一つは例によってメモリの問題。
第一水準と呼ばれる漢字で約3000字、メモリにして128キロバイトも食ってしまう。第2水準まで入れると、ほぼ倍の256キロバイト使ってしまう。
当時としては途方もない量のメモリを積んでいた8801ですら、全部合わせて64キロバイトほどしかROMを積んでいなかったのだから、漢字ROMって奴は本体並みの値段がする、とんでもない代物だった。
これが一つ目。
さらに書くと、ものすごいお値段の代物だったので、初期のPC-8801やFM-8では、漢字ROMは標準搭載ではなくて、オプション品だった。
2つ目の問題はもっと深刻。
それは「どうやって入力するか?」だ。なんせキーボードには端から端まで、全部合わせてって100ほどしかボタンはない。
比較的使う3000文字ほどの漢字ですら、ボタンに割り当てるわけにいかないのはあきらかだよね。
で、当時なんとかモノになっていた日本語の入力方法は3つあった。
一つが登場したばかりだった「日本語ワードプロセッサ」(確かオアシスが初代だと思うんだけど‥)に使われていた「漢字の読みを入力して1文字ずつ変換する単漢字変換」。
もう一つが単純に「カタカナ」だけ入力する方法。つまり、漢字は表示しないってわけだ。
そして最後の一つが「和文タイプ」。この和文タイプと呼ばれる代物は、簡単に言えば「超でかいキーボード」に漢字が全部刻印されている、オバケみたいな代物。
で、どう考えても最初の一つしか使い物にならないのはあきらかだから、普通のアルファベットキーボードから入力された文字を変換する以外にはやり方は考えられなかった。
こして「漢字変換」と呼ばれるものが登場したわけなんだけど‥それから後がまた騒ぎだった。
というのも、まずコンピュータのパワーが全然ないもんだから、いまのように文章を入力すると楽々と変換されていく‥‥なんてマネは全く不可能だった。
メモリもなければパワーもない。コンピュータに日本語を入れるなんてこと、誰も考えたことがなかったから、理論もない。
まさにないないづくしの状態で日本語入力の研究は始まったわけ。
まず最初の漢字の読みから1文字づつ変換する方法で入力するのは、たちまちみんながイヤだと思い始めた。
もう山のように同音の漢字が出てくるなかから1文字ごとに選択していくしかないんだからそれも当たり前。
例えば「同」を出したければ「どう<変換>」と押して「ええ~と、同はどこじゃいなあ‥」と探し回ることになる。これじゃあやっていられない。
で、これを解決するために、みんな色んな方法を山のように考え出した。
例えば「超多段シフト」。
簡単に言うと強引にキーボードにシフト+なんとかで、こーいう漢字が出るように割り当てて、良く使う漢字が一発で出せるようにする‥それはそれはムチャな方法。出せない文字は単漢字変換で出せばいい、ともかく速くなるというのがウリだった。
例えば部首引き。
単漢字じゃあ読みが大変だから「部首で引こう」ってワケ。キーボードのキーにともかく部首を割り当てて、強引に部首でリストが出てくるって、やっぱりムチャな代物。
例えば連想変換。
これは一時凄く有力だと言われた方法で、連想で漢字を変換する超あやしい方法。「すけ」と入力すると「スケバン(女番)」だから「番」と出る。どうだ使いやすいでしょう‥‥なんてムリヤリなこじつけで目的の漢字を一発で出す方法。
とまあ、こんなムチャな方法が僕の知っているだけで軽く10個ぐらいはあったと思うんだけど、そんなムチャクチャな事をやって四苦八苦しているうちにコンピュータの方の状況が変わってきた。
まずマシンパワーが上がって漢字を表示するのに苦労がなくなり、記憶装置としてフロッピが普及し、大きな辞書を持つことも難しくなくなってきた。
辞書を持てるってことは、単漢字を一発で出そうとするよりも、力任せに山のように熟語を持って、熟語で変換した方が楽だということ。
というわけで、熟語変換‥つまり、熟語で変換するのが主流になり、その入力された文章を文法解析しながら変換しても、イライラしないで済むようになり、とうとう今使っているような変換にたどり着いたわけ。
で、この日本語変換とともに生きてきたぼくは、とうとう日本語を紙に書けない体になってしまったわけだね。悪筆でまともに読める字が書けない僕には、全くコンピュータってありがたいと思ってしまうのだ。
ちなみに原稿を書いていく方法の話をすると、このあとワード97に変えたんだけど、あまりにトラブルが多いもので、ワード97は基本的には使わなくなってしまい、そのあとフリーの"StoryEditor"ってアウトラインプロセッサとただのテキストエディタの組み合わせで文章を書き、Word6.0で最終的に校正するパターンになり、そしてさらにememopadってめちゃくちゃ軽いアウトラインプロセッサマガイ+Open Officeになり、今はevernoteとememopadの2本立てになっている。ああ、あとエディタも使うけれど、エディタはxyzzyが標準。
■■■
どうしてこれを引っ張り出したのかというと、この入力方式のゴタゴタぶりってのは、今のスマホの入力に繋がるところがあるなあと思ったのと、ついこの前、TwitterのTLで連想変換の話題になったから。
ともかく、連想変換のインパクトは一生忘れないw
なんせ「スケ」って入力したら「番」ですよ? ビックリ以外のなにものでもない…けど、今の人からは、なんでこんなキッカイな方法が有力視されていたのかさっぱりわかるまい。
なので、それについて説明しておこう。
まず当時のパソコンの非力なパワー(Z80/4Mhzで速いほう。メモリは多くて64キロバイト)では、文節変換なんて夢のまた夢でどうしようもなかったことはこのエッセイに書いたとおり。といって単漢字変換ではやってられない、というのも書いたとおり。
つまり、当時はせいぜいフロッピー1枚程度の辞書(最大320キロバイト程度。漢字にして原稿用紙400枚程度の容量しかないのだ)で、かつメモリをあまり食わず、マシンパワーも軽い方法がどうしても必要だったのだ。
そのとき、この連想変換は辞書サイズが小さくて済み(フロッピーがあればともかくなんとかなる範囲)、かつ単漢字変換も単語変換にも対応できる、しかもマシンパワーがないのは「人間の脳みそを補助に使うことで解決」といいところだらけだったのだ。
だから連想記憶は一時有力視されたけれど、もちろんマシンパワーの向上の前に消えていってしまったわけだw
まあ、こんな話は年寄りのタワゴトでしかないわけだけど、連想入力なんてもんを記録に残すために、アップしておくしだいであるw
コメント
専用機としての日本語ワードプロセッサは東芝が1978年に発表した「JW-10」だと思われます。
OASYSの1号機「OASYS100」の発表は1980年です。
OASYSの1号機「OASYS100」の発表は1980年です。
| ゲームプログラマを辞めた人 | EMAIL | URL | 11/07/04 21:21 | suiVpCc. |
この頃のPCは,未だ画面に絵を出すとき,ライン描いて色塗ってって感じでしたよね.
| T.P.F. | EMAIL | URL | 11/07/03 21:22 | EPTQd1Hs |
あとは直接コード指定方式とか。これは今でもあったりしますが。
単漢字変換と連文節変換の間に単文節変換もあったように思います。
ただ、単漢字変換とあまり変わらない効率だったりしつつも辞書はそれなりに必要であるため、あっという間にマシンパワーの強化と共に連文節変換に駆逐されましたが。
そして、連想入力は「予測変換」という形で、連文節変換とのハイブリッド型で現在も生き残っていますね。
携帯やスマートフォンだと、むしろこっちの方が主力ではないかと思いますよ。
単漢字変換と連文節変換の間に単文節変換もあったように思います。
ただ、単漢字変換とあまり変わらない効率だったりしつつも辞書はそれなりに必要であるため、あっという間にマシンパワーの強化と共に連文節変換に駆逐されましたが。
そして、連想入力は「予測変換」という形で、連文節変換とのハイブリッド型で現在も生き残っていますね。
携帯やスマートフォンだと、むしろこっちの方が主力ではないかと思いますよ。
| 近藤@古代図書館 | EMAIL | URL | 11/07/03 20:28 | FBPQlkC. |
この記事のトラックバックURL :
トラックバック