WEB开发网
开发学院WEB开发Jsp Java中文处理学习笔记——Hello Unicode 阅读

Java中文处理学习笔记——Hello Unicode

 2008-01-05 08:35:06 来源:WEB开发网   
核心提示:版权声明:可以任意转载,转载时请务必以超链接形式标明文章原始出处和作者信息及本声明http://www.chedong.com/tech/hello_unicode.Html要害词:linux java mutlibyte encoding locale i18n i10n chinese ISO-8859-1 GB

版权声明:可以任意转载,转载时请务必以超链接形式标明文章原始出处和作者信息及本声明
http://www.chedong.com/tech/hello_unicode.Html

要害词:linux java mutlibyte encoding locale i18n i10n chinese  ISO-8859-1 GB2312 BIG5 GBK UNICODE

内容摘要:

    不知道你有没有这样的感受:为什么php很少有乱码问题而用Java做WEB应用却这么麻烦呢?为什么在Google上能用简体中文查到繁体中文,甚至日文的结果?而且用Google的时候发现它居然能自动根据我使用浏览器的语言选择自动调出中文界面?

    很多国际化应用的让我理解了这么一个道理:Unicode是为更方便的做国际化应用设计的,而Java核心的字符是基于UNICODE的,这一机制为应用提供了对中文“字”的控制(而不是字节)。但假如不仔细理解其中的规范,这种自由反而会成为累赘,从而导致更多的乱码问题:

    1. 关于字符集的一些基本概念;
    2. 试验1:显示系统的环境设置和支持的编码方式;
    3. 试验2:系统缺省编码方式对Java应用的输入输出影响;
    4. 试验3:在WEB应用中输出和输出中的字符集问题;

    关于字符集的预备知识:
    ISO-8859-1 GB2312 BIG5 GBK GB18030 UNICODE 为什么会有这么多字符集编码方式?

    注重:以下说明不是严格定义,一些比喻仅作为方便理解使用。

    假设一个字符就是棋盘上的一个棋子,有其固定的坐标,假如需要区别所有的字符,就需要有足够的棋格容纳不同的“字符”。 

    英文和欧洲其他语言的单字节字符集(SingleByte Charsets):
    首先对于ISO-8859系列的字符集都想象成一个:2^8 = 16 * 16 = 256个格子的棋盘,这样所有的西文字符(英文)用这样一个16×16的坐标系就基本可以覆盖全了。而英文实际上只用其中小于128(\x80)的部分就够了。利用大于128部分的空间的不同定义规则形成了真对其他欧洲语言的扩展字符集:ISO-8859-2 ISO-8859-4等……

    ISO-8859-1
    ISO-8859-7
    其他语言
    英文 其他西欧字符   ōē
    英文 希腊字符
      μγ 英文 其他单字节   字符集


    GB2312 BIG5 SJIS等多字节字符集(MultiByte Charsets):

    对于亚洲语言来说:汉字这么多,用这么一个256格的小棋盘肯定放不下,所以要区别成千上万的汉字解决办法就是用2个字节(坐标)来定位一个“字”在棋盘上的位置,将以上规则做一个扩展:

    • 假如第1个字符是小于128(\x80)的仍和英文字符集编码方式保持兼容;
    • 假如第1个字符是大于128(\x80)的,就当成是汉字的第1个字节,这个自己和后面紧跟的1个字节组成一个汉字;

    其结果相当于在位于128以上的小棋格里每个小棋格又划分出了一个16×16的小棋盘。这样一个棋盘中的格子数(可能容纳的字符数)就变成了128 + 128 * 256。按照类似的方式有了简体中文的GB2312标准,繁体中文的BIG5字符集和日文的SJIS字符集等,GB2312字符集包含大约有六仟多个常用简体汉字。

    简体中文
    日文SJIS
    繁体中文
    英文 简
    体     中
        文 英文 日
      文           英文

      繁     体
    中 文

    由此可以看出,所有这些从ASCII扩展式的编码方式中:英文部分都是兼容的,但扩展部分的编码方式是不兼容的,虽然很多字在3种体系中写法一致(比如“中文”这2个字)但在相应字符集中的坐标不一致,所以GB2312编写的页面用BIG5看就变得面目全非了。而且有时候经常在浏览其他非英语国家的页面时(比如包含有德语的人名时)经常出现希奇的汉字,其实就是扩展位的编码冲突造成的。

    我把GBK和GB18030理解成一个小UNICODE:GBK字符集是GB2312的扩展(K),GBK里大约有贰万玖仟多个字符,除了保持和GB2312兼容外,繁体中文字,甚至连日文的假名字符也能显示。而GB18030-2000则是一个更复杂的字符集,采用变长字节的编码方式,能够支持更多的字符。关于汉字的编码方式比较具体的定义规范可以参考:
    http://www.unihan.com.cn/cjk/ana17.htm

    ASCII(英文) ==> 西欧文字 ==> 东欧字符集(俄文,希腊语等) ==> 东亚字符集(GB2312 BIG5 SJIS等)==> 扩展字符集GBK GB18030这个发展过程基本上也反映了字符集标准的发展过程,但这么随着时间的推移,尤其是互联网让跨语言的信息的交互变得越来越多的时候,太多多针对本地语言的编码标准的出现导致一个应用程序的国际化变得成本非常高。尤其是你要编写一个同时包含法文和简体中文的文档,这时候一般都会想到要是用一个通用的字符集能够显示所有语言的所有文字就好了,而且这样做应用也能够比较方便的国际化,为了达到这个目标,即使应用牺牲一些空间和程序效率也是非常值得的。UNICODE就是这样一个通用的解决方案。


    Tags:Java处理 学习

    编辑录入:爽爽 [复制链接] [打 印]
    赞助商链接