奇怪的维基百科mojibake(错误的编码)

时间:2013-07-27 07:48:37

标签: asp.net character-encoding

这是第一个出现问题的维基百科页面。当我使用HttpWebResponse.GetResponseStream()打开这个页面https://en.wikipedia.org/wiki/London时,它充满了mojibake。但我的浏览器可以毫无问题地编码它。

我使用了三种方法来下载文本文件。所有这些文件都有不同的文件。

第一种方法下载了一个274,851字节的文件

    string TargetUri = "https://en.wikipedia.org/wiki/London";

    HttpWebRequest queryPage = (HttpWebRequest)WebRequest.Create(TargetUri);

    queryPage.Credentials = CredentialCache.DefaultCredentials;

    using (HttpWebResponse response = (HttpWebResponse)queryPage.GetResponse())
    {

        using (Stream PageRawCode = response.GetResponseStream())
        {
            using (MemoryStream PageRawCodeDuplicate = new MemoryStream())
            {
                byte[] buffer = new byte[1024];
                int ByteCount;
                do
                {
                    ByteCount = PageRawCode.Read(buffer, 0, buffer.Length);
                    PageRawCodeDuplicate.Write(buffer, 0, ByteCount);
                } while (ByteCount > 0);

                PageRawCodeDuplicate.Seek(0, SeekOrigin.Begin);

                using (StreamReader CodeInUTF8 = new StreamReader(PageRawCodeDuplicate))
                {
                    string PageText = CodeInUTF8.ReadToEnd();
                    using (StreamWriter sw = new StreamWriter(@"E:\My Documents\Desktop\london1.html"))
                    {
                        sw.Write(PageText);
                    }
                }
            }
        }
    }

第二种方法是

    WebClient myWebClient = new WebClient();
    myWebClient.DownloadFile("https://en.wikipedia.org/wiki/London", @"E:\My Documents\Desktop\london2.html");

此方法仅下载了152.297字节的文件

第三种方法是打开https://en.wikipedia.org/wiki/London,并保存源代码文件。此方法将获得1,746,420字节的文件

我不明白为什么使用不同的方法获得文本文件会有这样的差异。

我使用ASCII,BigEndianUnicode,Unicode,UTF32,UTF7,UTF8来读取前2个文件。他们都没有正确显示代码。

然后我读了文件的十六进制代码。 london1.html的前32个字符是

1FEFBFBD0800000000000003EFBFBDEF

london2.html的前32个字符是

1F8B0800000000000003ECFD4B8F1C49

显然他们不是<!DOCTYPE html>

这两个文件是什么?我甚至不知道如何检查它们。

2 个答案:

答案 0 :(得分:0)

您的代码中存在一个简单的问题。你忘了刷新内存流。我还添加了第二个解决方案,它不会先在内存中复制Stream ...

如果我运行这个略微适应的代码,我会得到一个完整的html文件:

using (HttpWebResponse response = (HttpWebResponse)queryPage.GetResponse())
{

    using (Stream PageRawCode = response.GetResponseStream())
    {
        using (MemoryStream PageRawCodeDuplicate = new MemoryStream())
        {
            byte[] buffer = new byte[1024];
            int ByteCount;
            do
            {
                ByteCount = PageRawCode.Read(buffer, 0, buffer.Length);
                PageRawCodeDuplicate.Write(buffer, 0, ByteCount);
            } while (ByteCount > 0);

            // FLUSH!
            PageRawCodeDuplicate.Flush();

            PageRawCodeDuplicate.Seek(0, SeekOrigin.Begin);

            // Pick an encoding here
            using (StreamReader CodeInUTF8 = new StreamReader(
                                   PageRawCodeDuplicate, Encoding.UTF8))
            {
                string PageText = CodeInUTF8.ReadToEnd();
                using (StreamWriter sw = new StreamWriter(@"london1.html"))
                {
                    sw.Write(PageText);
                }
            }
        }
    }
}

直接复制流

using (HttpWebResponse response = (HttpWebResponse)queryPage.GetResponse())
{
    using (Stream PageRawCode = response.GetResponseStream())
    {
            using (StreamReader CodeInUTF8 = new StreamReader(
                                                      PageRawCode, Encoding.UTF8))
            {
                using (StreamWriter sw = new StreamWriter(@"london1.html"))
                {
                    while (!CodeInUTF8.EndOfStream)
                    {
                        sw.WriteLine(CodeInUTF8.ReadLine());
                    }
                 }
            }
    }
}

答案 1 :(得分:0)

终于神秘解决了!文本流是GZipStream。使用GZipStream解压缩可以读取代码。 http://msdn.microsoft.com/en-us/library/system.io.compression.gzipstream.aspx 很难想象浏览器背后会做多少