プロが教える店舗&オフィスのセキュリティ対策術

漢字とASCIIが混在するようになった頃、「全角のラテン文字と半角のラテン文字を使い分けたい」といったニーズはあったのでしょうか?
混在時でも重複符号化をできるだけ避けるような処理系が、あまり広まらなかった理由が知りたいです。

質問者からの補足コメント

  • 規格として、JIS X 0208を念頭においています。

      補足日時:2019/06/02 14:30

A 回答 (2件)

今でもマイコンのように、パワーもメモリも大きく制限された環境の物はその時代と同じような状況に置かれています。

それで思うことは、フォント・表示の問題が来ると思うんですよね。

今のPCやスマホならいろんなフォントが使えてベクトルフォントだから、字体だけじゃなく大きさも自由に選べるのが当たり前だけど、マイコンではそんな贅沢は許されません。あらかじめ用意されたドットパターンの文字を使うだけです。当然そうした物では「ギザギザが見えるいかにもドットのフォント」になるので、フォントのデザインも何もこだわる余地はほとんどなく、読めりゃあいいんだ、日本語表示できるだけでもありがく思え、みたいな世界です。

でも漢字を表示しようとすると、ドットの数を増やさないと潰れて見分けられないから、半角しかなかった頃よりも大きいフォントが必要になります。ASCIIだけなら5x7ドットなんて言う極小サイズでも十分判別できるが、漢字ってなったら16x16くらいからスタート。すると5x7で表現していたものを16x16で作れば、デザインにこだわれる余地が生まれてアルファベットの見た目がそれ以前の、いかにもドットプリンタの文字ですってところから、ローマンっぽく見えるという次元に進化します。

だからと言って、それに毎回2バイト費やすのはメモリの無駄だよねってことで、使い分ける必然性もあった。そういうことだと思います。
    • good
    • 0
この回答へのお礼

ありがとうございます。
環境の資源が大きく制限されているとき、またフォントが進化したばかりという状況においては、符号化のレベルでフォントのコストを意識する必然性がありうる、ということですね。納得です。

お礼日時:2019/06/02 16:32

漢字を表示するだけでも画期的だった時代にラテン文字はどうだったのか?は質問されても答えようがないのでわかりませんね。



>混在時でも重複符号化をできるだけ避けるような処理系が、あまり広まらなかった理由が知りたいです。
 考案する研究者・規格化団体が存在しなかった頃は標準化のしようが無いので規格化が遅れていったのでしょうね。


 日本国内では半角の片仮名も存在するとは言え、昔の名残として残っているだけでしょうね。
    • good
    • 0
この回答へのお礼

ありがとうございます。

お礼日時:2019/06/02 14:23

お探しのQ&Aが見つからない時は、教えて!gooで質問しましょう!