Python脚本中,通常会在第一或第二行写上:
# -*- coding: <encoding-name> -*-
或者
# vim:fileencoding=<encoding-name>
这一行注释称为编码声明。编码声明必须放在第一行或第二行,如果在第二行,那么第一行必须也是注释行。
Python会用正则表达式coding[=:]\s*([-\w.]+)
去匹配编码声明行,匹配到的编码名称会作为Python用来进行词法分析,字符串结尾的识别等。String会被解码为Unicode,然后进行语法分析,在对程序进行解释执行之前再转成原来的编码。因此,如果没有进行编码声明,而脚本中又出现了ASCII不能编码的字符,Python会报SyntaxError: Non-ASCII character '\xe4' in file XXX on line 7, but no encoding declared; see http://python.org/dev/peps/pep-0263/ for details
之类的错误。
Python2中str字符串是指直接用单引号、双引号或三引号括起来的字符串,默认采用编码声明中的编码方式编码字符串,如果没有指定编码声明,则采用ASCII。str的基本单位是一个字节,因此直接用len()
方法得到不一定是字符串的长度,而是str占字节数。下面例子中,用的是gbk编码,字符中
占两个字节。如果采用UTF-8
编码,字符中
则是3个字节。
>>> len("中")
2
>>> len("中".decode("gbk").encode("UTF-8"))
3
>>> a = "python是最好的语言"
>>> print a [10]
>>>
>>> a[10]
'\xba'
同样地,直接用下标或者切片操作str,都不太可能得到正确的字符。
在字符串前面加u
前缀,这样的字符串是unicode。unicode采用UTF-16编码。每个字符占两个(BMP)或四个字节(SP)。不论是BMP中的字符,或sp中的字符都能正确的识别。关于BMP和SP参看String encoding。unicode能够正确计算字符串的长度,也可以对unicode进行下标和切片操作。
>>> a = u"python是最好的语言"
>>> len(a)
12
>>> print a[11]
言
>>> print a[9:-1]
的语
如果ord的输入参数为长度为1的unicode字符串,则返回一个代表该字符的Unicdode代码点(code point)的整数。如果输入是一个8bit的字符串,返回该字符的ASCII码。和内建函数chr
,unichr
(用于unicode)互逆。
>>> ord('a')
97
>>> ord(u'研')
30740
>>> chr(97)
'a'
>>> unichr(30740)
u'\u7814'
>>> print unichr(30740)
研
一个整数表明python能够支持的最大的unicode代码点。如果python是32位,则sys.maxunicode=65535,对应于UCS-2; 如果python是64位,则sys.maxunicode=1114111, 对应于UCS-4。 但这并不代表unicode代码点大于65535的字符,32位不能处理。unicode使用UTF-16编码方式,unicode代码点大于65535的字符使用代理对表示。目前发现sys.maxunicode会影响unichr方法,其他的影响我暂时还没有发现,以后发现了再补充。
32位python的unichr
方法能接受的最大参数为65535.
>>> import sys
>>> sys.maxunicode
65535
>>> unichr(6553)
u'\u1999'
>>> unichr(65536)
Traceback (most recent call last):
File "<stdin>", line 1, in <module>
ValueError: unichr() arg not in range(0x10000) (narrow Python build)
64位python的unichr
方法能接受的最大参数为1114111.
>>> import sys
>>> sys.maxunicode
1114111
>>> unichr(65536)
u'\U00010000'
>>> unichr(1114112)
Traceback (most recent call last):
File "<stdin>", line 1, in <module>
ValueError: unichr() arg not in range(0x110000) (wide Python build)
系统默认编码。Python2中,所有的平台都是ASCII,除非自己重新设置为其他的编码。比如’str’.encode(),没有指定编码时,就会采用默认编码。
设置系统默认编码。不建议重写系统默认编码,可能会造成莫名的bug。
获取文件系统的编码。这个编码用来编码系统数据,比如文件名,命令行参数,环境变量等。
sys.stdin 和 sys.stdout 实际上是文件对象(File Object)。文件对象有个只读的属性encoding是改文件对象使用的编码。当写文件时,如果字符串是Unicode,会使用这个属性的值对Unicode字符串进行编码,进而写到文件中。这个属性的值有可能是None,这种情况下,会使用系统默认的编码方式来编码Unicode 字符串。
我们可以使用sys.stdin.encoding 和 sys.stdout.encoding 来查看解释器的标准输入和标准输出的格式,然后加以转换,避免出现乱码。sys.stdin.encoding 和 sys.stdout.encoding 的值和系统环境有关。
在windows系统中,Python解释器的标准输入、输出和错误流的编码。
>>> sys.stdin.encoding
'cp936'
>>> sys.stdout.encoding
'cp936'
>>> sys.stderr.encoding
'cp936'
那么这几中编码都有哪些区别,用在哪些情况呢?stackoverflow上这个答案讲解的很清晰。
They serve different purposes.
sys.stdout.encoding should be the encoding that your terminal uses to interpret text otherwise you may get mojibake in the output. It may be utf-8 in one environment, cp437 in another, etc.
sys.getdefaultencoding() is used on Python 2 for implicit conversions (when the encoding is not set explicitly) i.e., Python 2 may mix ascii-only bytestrings and Unicode strings together e.g., xml.etree.ElementTree stores text in ascii range as bytestrings or json.dumps() returns an ascii-only bytestring instead of Unicode in Python 2 — perhaps due to performance — bytes were cheaper than Unicode for representing ascii characters. Implicit conversions are forbidden in Python 3.
sys.getdefaultencoding() is always ‘ascii’ on all systems in Python 2 unless you override it that you should not do otherwise it may hide bugs and your data may be easily corrupted due to the implicit conversions using a possibly wrong encoding for the data.
btw, there is another common encoding sys.getfilesystemencoding() that may be different from the two. sys.getfilesystemencoding() should be the encoding that is used to encode OS data (filenames, command-line arguments, environment variables).
The source code encoding declared using # -- coding: utf-8 -- may be different from all of the already-mentioned encodings.
Naturally, if you read data from a file, network; it may use character encodings different from the above e.g., if a file created in notepad is saved using Windows ANSI encoding such as cp1252 then on another system all the standard encodings can be different from it.
The point being: there could be multiple encodings for reasons unrelated to Python and to avoid the headache, use Unicode to represent text: convert as soon as possible encoded text to Unicode on input, and encode it to bytes (possibly using a different encoding) as late as possible on output — this is so called the concept of Unicode sandwich.
回归是指学习任务的预测目标是连续值。如根据银行客户的信息预测该这个客户的信用卡额度就是一个回归任务。 假设客户有d个属性,表示为$x=(x_1,x_2,…,x_d)$线性回归试图学得一个 通过属性的线性组合来进行预测的函数,即:
一般用向量的形式写成
如果我们在$x$向量中加入一个分量1,使$x$=(1;x_1;x_2;…;x_d),那么可以把b吸收进权值向量$w$,线性回归的函数就是:
当$x$是一维向量的时候$h(x)$是一条直线,当$x$是二维向量的时候,$h(x)$是一个平面,当$x$超过二维的时候,$h(x)$是一个超平面。总之,$h(x)$的假设空间是无穷的。那么如何评价假设空间中的那一条先或者超平面是最好的呢?
线性回归是统计学中研究的很多的一个学习模型。通常用均方误差$err(y^,y)=(y^
-y)^2$来衡量预测值和真实值之间的差异。那么线性回归的学习误差可以表示为:
均方误差具有非常好的数学意义,对应了常用的欧氏距离。基于均方误差最小化来进行模型求解的方法称为“最小二乘法”(least square method)。最小二乘法就是试图找到一条直线(超平面),使所有样本点到直线的欧氏距离之和最小。
那么接下来的问题就是如何找到一个w使得$E_{in}(w)$最小。 为了表示方便,我们把$E_{in}(w)$做一下变形
其中$X=[x_1;x_2;…x_N]$是所有样本组成的$N*(d+1)$维矩阵,$w$是$d+1$维向量,y是每个样本对应得真实值组成的$N$维向量。
由上面的公式可以看出$E_{in}(w)$是一个关于$w$的连续的可微分的凸函数。$E_{in}(w)$取得最小值的一个必要条件就是其导数等于0。
由于
令$A=X^TX$,$A$是一个$(d+1)*(d+1)$维的矩阵,$b=X^Ty$, $b$是一个$d+1$维的向量,$c=y^Ty$,$c$是一个常数,于是$E_{in}(w)$可以写为:
$E_{in}(w)$对$w$求导,(这里涉及到对矩阵的求导,如果不是很熟悉,可以复习一下线性代数)可以得到:
令$\nabla E_{in}(w)=\frac{2}{N}(Aw-b)=0$,如果A是一个可逆矩阵的话,可以求得$w=(X^TX)^{-1}X^Ty$,记此时的$w$为$w_{LIN}$,最终学得的线性回归模型为$h(x)=x^Tw_{LIN}=x^T(X^TX)^{-1}X^Ty$。其中,$(X^TX)^{-1}X^T$称为伪逆,记做$x^\dagger$。
然而,在现实生活中,$X^TX$往往不是可逆的。例如在许多任务中,我们会遇到大量的变量,其数目甚至超过样例数目,导致$X$的列数多于行数,$X^TX$往往不是满秩的,此时可以解出多个$w$使得均方误差最小。例如生物信息学的基因芯片数据中常有成千上万个属性,但往往只有几十上百个样例。在文本相关的模型中,属性通常会有几万到几十万,而样例却往往很少。当样本数小于特征数即$N<d+1$时,$\nabla E_{in}(w)$会有很多组解,然而可以仍然可以用解伪逆的方法解出$x^\dagger$,得到一个$w_{LIN}$。
线性回归的最优解可以通过公式一步就解析出来(称为解析解),没有经过迭代过程,这是一个机器学习方法吗? 实际上,它是一种机器学习方法,因为:
从实用主义的角度看,只要能解决问题的方法就是好的。只要$E_{out}$足够好,就是一个好的机器学习算法。下面我们来试着证明一下$\overline{E_{in}}$足够好。同样的思路也可以用来证明$E_{out}$。
其中$E_in = \frac{1}{N}\left|y-\hat{y}\right|^2=\frac{1}{N}\left|y-XX^\dagger y\right|^2=\frac{1}{N}\left|(I-XX^\dagger)y\right|^2$,把$I-XX^\dagger$记做$H$,$H$叫做“帽子矩阵”,因为它与真实值$y$相乘变成了预测值$\hat{y}$。帽子矩阵的几何意义可以通过下图解释。
$y$是$R^N$空间中的一个向量。而$\hat{y}=Xw_{LIN}$是X的一个线性组合,即$\hat{y}$是X张成的空间中的一个向量(下面称为span)。由于我们要求$(y-\hat{y})$($(y-\hat{y})$是两者的残差)尽可能小的,也就是$y$到span的距离尽可能小,因此,$\hat{y}$只能是$y$在span的投影。即$y-\hat{y}\perp span$。$I-H$则是把$y$转换为$\hat{y}$的线性转换。
$I-H$有一个很好的性质:
在证明之前,先回顾矩阵的迹($trace$)的两个性质,下面把$trace$记做$tr$。
证明:
由于I是N阶单位矩阵,故$trI=N$。
故:$tr(I-H)= N-(d+1)$
它表示当自由度为$N$的向量被投影到$d+1$维空间中时,其残差的自由度为$N-(d+1)$维。
当训练数据中含有噪声,即对$y$引入误差,情况会稍有不同。如下图所示:
假设$f$是一个理想中的函数,那么$f(x)$肯定落在$X$张成的空间$span$中。那么$y$就是理想值$f(x)$与噪声$noise$的加和。但我们衡量误差的时候仍然是用残差$y-\hat{y}$。于是这个残差可以看做是$noise$经过$I-H$变换过来的。于是训练误差:
因此可以得到$\overline{E_in(w_{LIN})}$的均值:
由于训练样本中已经包含了噪音,模型的学习过程中对噪声也进行了学习,学习到的这个$w$可能是偏向某个方向的,而测试集中的样本则是新鲜的,此消彼长,因此泛化误差要大于训练误差。可以得到泛化误差如下所以,但证明比训练误差要复杂的多,因此不再证明。
由上面训练误差和泛化误差的公式可以看出当样本数$N$越来越大时,两个误差都慢慢收敛到噪声水平,即$\delta^2$。误差曲线如下图所示:
由上可见,当N足够大,且噪声不影响时,训练误差和泛化误差都足够小,学习的过程是发生了的。
线性分类:
线性回归:
既然线性分类和线性回归都是求$w$,那么我们是否可以用求线性回归的方法,先求得$w_{LIN}$,再用符号函数$sigh(w_{LIN}^TX)$去分类。这看起来似乎是一个很有道理的方法,那么如何去证明是否可行呢?我们先来分析一下线性回归和线性分类的误差。
线性回归的误差函数$err_{sqr}=\left|\hat{y} - y \right|^2=\left|w^TX - y \right|^2$ 当以$w^TX$为自变量时,是一个开口向上的抛物线。而线性分类的误差函数$err_{0,1}=sign(w^TX-y)$则是一个阶跃函数,我们可以画出两个误差的函数图像,如下图所示:
当样本为正例时,由于期望$y=1$ 故$err_{sqr}$在$w^TX=1$时取到最小值0。此时,分类函数的误差$err_{0,1}$也是0,故两函数相交于(1,0)点。当$w^TX=0$,$err_{0,1}$正处于符号函数的临界点,此时$err_{sqr}=1$,故两者也相交于(0,1)点。而对于负样本,$err_{sqr}$在-1处取得最小值,两曲线分别相交于(-1, 0)和(0, 1)。有图可见,在$R$上总是有$err_{sqr}$>$err_{0,1}$。根据VC维的理论:
即,回归问题的样本噪音误差加上一个常量,是分类问题误差的上界,因此,回归问题求出的$w_{LIN}$也可以用于分类问题。在实践中,把$w_{LIN}$作为线性感知机(PLA)的初始值是一个不错的选择,可以减少迭代次数。
画出$exp(-yw^TX)$,$max(0, 1-yw^TX)$, $log_2(1+exp(-yw^TX))$这几个函数的图像,可以知道这几个函数也是$err_{0,1}$的上界。事实上,这几个函数和机器学习中非常重要的几个算法有关系。