文档库 最新最全的文档下载
当前位置:文档库 › 迁移学习研究进展

迁移学习研究进展

迁移学习研究进展
迁移学习研究进展

软件学报ISSN 1000-9825, CODEN RUXUEW E-mail: jos@https://www.wendangku.net/doc/c316523379.html,

Journal of Software [doi: 10.13328/https://www.wendangku.net/doc/c316523379.html,ki.jos.004631] https://www.wendangku.net/doc/c316523379.html,

+86-10-62562563 ?中国科学院软件研究所版权所有. Tel/Fax:

?

迁移学习研究进展

庄福振, 何清, 史忠植

(中国科学院智能信息处理重点实验室(中国科学院计算技术研究所), 北京, 100190)

通讯作者: 庄福振, E-mail: zhuangfz@https://www.wendangku.net/doc/c316523379.html,

摘要: 近年来,迁移学习已经引起了广泛的关注和研究.迁移学习是运用已存有的知识对不同但相关领域问题

进行求解的新的一种机器学习方法.它放宽了传统机器学习中的两个基本假设:(1) 用于学习的训练样本与新的测

试样本满足独立同分布的条件;(2) 必须有足够可利用的训练样本才能学习得到一个好的分类模型.目的是迁移已

有的知识来解决目标领域中仅有少量有标签样本数据甚至没有的学习问题.对迁移学习算法的研究以及相关理论

研究进展进行了综述,并介绍了在该领域所做的研究工作,特别是利用生成模型在概念层面建立迁移学习模型.最后

介绍了迁移学习在文本分类、协同过滤等各方面的应用工作,并指出了迁移学习下一步可能的研究方向.

关键词: 迁移学习;相关领域;独立同分布;生成模型;概念学习

中图法分类号: TP301

中文引用格式: 庄福振,何清,史忠植.迁移学习研究进展.软件学报.https://www.wendangku.net/doc/c316523379.html,/1000- 9825/4631.htm

英文引用格式: Zhuang FZ, He Q, Shi ZZ. Survey on transfer learning research. Ruan Jian Xue Bao/Journal of Software.http://

https://www.wendangku.net/doc/c316523379.html,/1000-9825/4631.htm

Survey on Transfer Learning Research

ZHUANG Fu-Zhen, HE Qing, SHI Zhong-Zhi

(Key Laboratory of Intelligent Information Processing of Chinese Academy of Sciences, Institute of Computing Technology, The Chinese

Academy of Sciences, Beijing 100190, China)

Corresponding author: ZHUANG Fu-Zhen, E-mail: zhuangfz@https://www.wendangku.net/doc/c316523379.html,

Abstract: In recent years, transfer learning has aroused vast amount of attention and research. Transfer learning is a new machine

learning method that applies the knowledge from related but different domains to target domains. It relaxes the two basic assumptions in

traditional machine learning: (1) the training (also referred as source domain) and test data (also referred target domain) follow the

independent and identical distributed (i.i.d.) condition; (2) there are enough labeled samples to learn a good classification model, and aims

to solve the problems that there are few or even not any labeled data in target domains. In this paper, we survey the research progress of

transfer learning and introduce our works, especially the ones building transfer learning models applying generative model on the concept

level. Finally, we introduce the applications of transfer learning, such as text classification, collaborative filtering and so on, and further

point out the future research direction of transfer learning.

Key words: transfer learning; related domain; independent and identical distribution; generative model; concept learning

随着社会发展的信息化和网络化,人们在日常生活和工作中无时无刻不在获取信息,分析信息,并以此作为

决策的依据.在一定程度上,信息的拥有量已经成为决定和制约人类社会发展的重要因素.想要高效准确地寻找

到所需的信息,信息分类是必不可少的第一步.通过分类,信息可以得到有效的组织管理,有利于快速准确的定

?基金项目: 国家自然科学基金(61175052, 61203297, 61035003); 国家高技术研究发展计划(863)(2014AA012205, 2013AA01

A606, 2012AA011003)

收稿时间:2014-02-21; 修改时间: 2014-03-31; 定稿时间: 2014-05-22; jos在线出版时间: 2014-07-14

CNKI网络优先出版: 2014-07-14 16:04, https://www.wendangku.net/doc/c316523379.html,/kcms/doi/10.13328/https://www.wendangku.net/doc/c316523379.html,ki.jos.004631.html

2 Journal of Software软件学报

位信息.分类学习问题,是机器学习中一种重要的学习方法,目前已经得到广泛的研究与发展.

在传统分类学习中,为了保证训练得到的分类模型具有准确性和高可靠性,都有两个基本的假设:(1) 用于学习的训练样本与新的测试样本满足独立同分布的条件;(2) 必须有足够可利用的训练样本才能学习得到一个好的分类模型.但是,在实际应用中我们发现这两个条件往往无法满足.首先,随着时间的推移,原先可利用的有标签的样本数据可能变得不可用,与新来的测试样本的分布产生语义、分布上的缺口.比如,股票数据就是很有时效性的数据,利用上月份的训练样本学习得到的模型并不能很好的预测本月份的新样本.另外,有标签的样本数据往往很缺乏,而且很难获得.在Web数据挖掘领域,新数据不断涌现,已有的训练样本已经不足以训练得到一个可靠的分类模型,而标注大量的样本又非常地费时费力,而且由于人的主观因素容易出错.这就引起了机器学习中另外一个重要问题,如何利用少量的有标签训练样本或者源领域数据,建立一个可靠的模型对目标领域数据进行预测(源领域数据和目标领域数据可以不具有相同的数据分布).He等人[1]指出数据分类首先要解决训练集样本抽样问题,如何抽到具有代表性的样本集作为训练集是一个值得研究的重要问题.该文提出极小样本集抽样方法用于基于超曲面分类算法,该方法可感知非结构化数据的分布,并以极小样本集作为代表子集.该文还指出了极小样本集有多少种表达方式.给出了样本缺失情况下准确率的精确估计.文献[1]表明在实际中保证训练得到的分类模型具有高准确性和可靠性的两个基本的假设并不是每个算法都能做到的,因此研究迁移学习变得非常重要.

近年来,迁移学习已经引起了广泛的关注和研究[2?18].根据维基百科的定义??,迁移学习是运用已存有的知识对不同但相关领域问题进行求解的新的一种机器学习方法.它放宽了传统机器学习中的两个基本假设,目的是迁移已有的知识来解决目标领域中仅有少量有标签样本数据甚至没有的学习问题.迁移学习广泛存在于人

1920,产生类的活动中,两个不同的领域共享的因素越多,迁移学习就越容易,否则就越困难,甚至出现“负迁移”[,]

副作用.比如:一个人要是学会了自行车,那他就很容易学会开摩托车;一个人要是熟悉五子棋,也可以轻松地将知识迁移到学习围棋中.但是有时候看起来很相似的事情,却有可能产生“负迁移”,比如,学会自行车的人来学习三轮车反而不适应,因为它们的重心位置不同[21,22].近几年来,已经有相当多的研究者投入到迁移学习领域中,每年在机器学习和数据挖掘的顶级会议中都有关于迁移学习的文章发表,比如,ICML,SIGKDD,NIPS,ICDM以及CIKM等.下面针对迁移学习研究展开系统的综述,特别是从迁移学习采用的技术角度进行介绍.

1 迁移学习算法研究进展

针对源领域和目标领域样本是否标注以及任务是否相同[13],可以把以往迁移学习工作划分为归纳迁移学习、直推式迁移学习以及无监督迁移学习等.而按照迁移学习方法采用的技术划分,又可以把迁移学习方法大体上分为:i) 基于特征选择的迁移学习算法研究;ii) 基于特征映射的迁移学习算法研究;iii) 基于权重的迁移学习算法研究.本文主要从这两条线对迁移学习的工作进行总结和综述.

1.1 按源领域和目标领域样本是否标注以及任务是否相同划分

Pan和Yang[13]针对源领域和目标领域样本是否标注以及任务是否相同或者是否单一对迁移学习进行了划分.

根据源领域和目标领域中是否有标签样本迁移学习划分为3类,目标领域中有少量标注样本的归纳迁移学习(inductive transfer learning)[23],只有源领域中有标签样本的直推式迁移学习(transductive transfer learning)[4],以及源领域和目标领域都没有标签样本的无监督迁移学习[24,25].另外,还根据源领域中是否有标签样本把归纳迁移学习划分成多任务学习、自学习.Pan和Yang[13]还给出了传统机器学习与各种迁移学习情形之间的关系,以及各种情形下,源领域与目标领域是否相同,源领域与目标领域的任务是否相同.迁移学习是和传统学习相对应的一大类学习方式,传统学习处理源领域和目标领域相同且源领域和目标领域的任务是相同的

122631;学习,迁移学习处理除此情形之外的学习,包括:源领域和目标领域的任务相关但不同的归纳迁移学习[6,,?]?? https://www.wendangku.net/doc/c316523379.html,/wiki/Transfer_learning

庄福振等:迁移学习研究进展 3

源领域和目标领域相关但不相同而源领域和目标领域的任务相同的直推式迁移学习(transductive transfer

32.无监督迁移学习与归纳迁移学习类似,不过主要处理源领域和目标领域中都没有标签数据的learning)[3,7,?36]

24,.他们还根据训练样本和测试样本是否来自于同一个领域,把直推式迁移学习划分为样本选择偏差、问题[37]

协方差偏移和领域自适应学习这些相关的子领域.

1.2 按采用的技术划分

近10年来,很多学者对迁移学习展开了广泛的研究,而且很多集中在算法研究上,即采用不同的技术对迁移学习算法展开研究.因此,下面首先介绍与迁移学习极其相关的半监督学习方法,然后再对采用各种技术的迁移学习工作进行介绍.

1.2.1 半监督学习方法

在传统的监督学习中,学习算法通过对大量有标签的训练样本进行学习,从而建立模型用于预测标记新来的没有标签的测试样本.但是随着信息技术、互联网以及存储技术的快速发展,数据量随着指数级增长.人们能够比较容易地收集大量的没有标签的数据,但要获取大量有标签的数据则较为困难,因为这可能需要耗费大量的人力物力.例如,在生物学中进行数据分类,得到一个训练样本的标签往往需要大量的,长时间的,昂贵的实验;在进行Web网页推荐时,用户也不愿意花费大量的时间来标记哪些网页是他感兴趣的,因此有标签的网页很少.实际上,在真实世界中通常存在大量的无标签的数据,而有标签的数据则较少.这就需要一种机器学习技术能够利用大量的无标签样本数据以及少量有标签的训练样本进行学习,提高分类任务的准确率.

按照Zhou等人在文献[38]中的阐述,目前能够利用少量有标签数据和大量没有标签样本数据的技术有3类:半监督学习(semi-supervised learning)、直推式学习(transductive learning)和主动学习(active learning).这些学习方法都通过大量的无标签样本来辅助少量有标签样本的学习,但它们在思想上又有些不同.半监督学习指的是学习算法在学习过程中不需要人工干预,基于自身对无标签数据加以利用.而直推式学习,它与半监督学习一样不需要人工干预,但不同的是,直推式学习假设无标签的数据就是最终要用来测试的数据,学习的目的就是在这些数据上取得最佳泛化能力.相对应地,半监督学习在学习时并不知道最终的测试用例是什么.因此,半监督学习考虑的是一个“开放的世界”,即在学习中不知道测试样本是什么,而直推式学习考虑的则是一个“封闭世界”,要测试的样本数据已经参与到学习过程中.如果抛开是否对未知样本进行预测,其实直推式学习可以归结为半监督学习的一种特例.主动学习与半监督学习、直推式学习最大的区别在于它的学习过程需要人工的干预,就是在学习过程通过反馈尽可能地找到那些包含信息量大的样本来辅助少量有标签样本的学习.在传统机器学习中,这3种方法已经得到了广泛应用[39?44].多视角学习(multi-view learning)也是半监督学习一个很重要的学习任务.Yarowsky[]45和Blum等人[]46认为数据的多视角表示方式可以提高半监督分类学习算法的性能.更进一步地,文献[47?49]用PAC(probability approximately correct)理论分析了联合训练(co-training)在无标签数据上错误率的上界.

近年来也有很多研究者把这些技术应用到迁移学习领域.文献[22]对主动迁移学习模型进行了研究.Shi等人[50]提出了一种跨领域的主动迁移学习方法,通过似然偏置的大小来选择领域外(out-of domain)有标签的样本.那些能够正确预测领域内(in-domain)数据且高似然偏置的有标签样本被利用,而那些低偏置的样本则通过主动学习进行选择.Liao等人[]6提出了一种方法,估计源领域中的每个样本与目标领域中少量标签数据之间的不匹配程度,并把该信息应用到逻辑回归中.Zhuang等人[17]综合半监督学习的3种正则化技术,流形正则化[]51、熵正则化[5]2以及期望正则化[]53,提出基于混合正则化的迁移学习方法.该方法首先从源领域训练得到一个分类器,然后通过混合正则化在目标领域数据上进行优化.

自学习(self-taught learning)[24,54]也是一种利用大量无标签数据来提高给定分类聚类任务性能的方法,自学习被应用于迁移学习中,因为它不要求无标签数据的分布与目标领域中的数据分布相同.Raina等人[54]提出了一种自学习的方法,它利用稀疏编码技术对无标签的样本数据构造高层特征,然后少量有标签的数据以及目标领域无标签的样本数据都由这些简洁的高层特征表示.实验表明这种方法可以极大地提高分类任务的准确率.

4 Journal of Software软件学报

1.2.2 基于特征选择方法

基于特征选择的迁移学习方法是识别出源领域与目标领域中共有的特征表示,然后利用这些特征进行知识迁移[4,55,56].Jiang等人[55]认为与样本类别高度相关的那些特征应该在训练得到的模型中被赋予更高的权重,因此他们在领域适应问题中提出了一种两阶段的特征选择框架.第1阶段首先选出所有领域(包括源领域和目标领域)共有的特征来训练一个通用的分类器;然后从目标领域无标签样本中选择特有特征来对通用分类器进行精化从而得到适合于目标领域数据的分类器.Dai等人[4]提出了一种基于联合聚类(co-clustering)的预测领域外文档的分类方法CoCC,该方法通过对类别和特征进行同步聚类,实现知识与类别标签的迁移.CoCC算法的关键思想是识别出领域内(也称为目标领域)与领域外(也称为源领域)数据共有的部分,即共有的词特征.然后类别信息以及知识通过这些共有的词特征从源领域传到目标领域.Fang等人[57]利用迁移学习对跨网络中的协作分类进行研究,试图从源网络迁移共同的隐性结构特征到目标网络.该算法通过构造源网络和目标网络的标签传播矩阵来发现这些隐性特征.Wei等人[23]提出一种借用长文本帮助短文本分类的迁移学习方法.他们首先把目标领域数据中的Tag作为关键词从搜索引擎检索最相关的网页,然后利用隐性语义分析方法抽取语义关键词.第三,建立无向图,Tag作为节点,通过拉普拉斯特征映射,每个节点被表示到低维空间.这样,短文本可以转化为新的特征表示.最后通过最小化样本与特征表示之间的互信息,可以得到正确的短文本分类器.

1.2.3 基于特征映射方法

基于特征映射的迁移学习方法是把各个领域的数据从原始高维特征空间映射到低维特征空间,在该低维空间下,源领域数据与目标领域数据拥有相同的分布[3,58?60,61].这样就可以利用低维空间表示的有标签的源领域样本数据训练分类器,对目标测试数据进行预测.该方法与特征选择的区别在于这些映射得到的特征不在原始的特征当中,是全新的特征.

Pan等人[58]提出了一种新的维度降低迁移学习方法,他通过最小化源领域数据与目标领域数据在隐性语义空间上的最大均值偏差(maximun mean discrepancy),从而求解得到降维后的特征空间.在该隐性空间上,不同的领域具有相同或者非常接近的数据分布,因此就可以直接利用监督学习算法训练模型对目标领域数据进行预测.Gu等人[62]探讨了多个聚类任务的学习(这些聚类任务是相关的),提出了一种寻找共享特征子空间的框架.在该子空间中,各个领域的数据共享聚类中心,而且他们还把该框架推广到直推式迁移分类学习.Blitzer等人[3]提出了一种结构对应学习算法(structural corresponding learning,简称SCL),该算法把领域特有的特征映射到所有领域共享的“轴”特征,然后就在这个“轴”特征下进行训练学习.SCL算法已经被用到词性标注[3]以及情感分析[63]中.类似的工作还有文献[64]等.

Kan等人[65]提出一种新的目标化源领域数据的领域适应性方法用于人脸识别.该方法首先将目标领域数据和源领域数据映射到一个共享的子空间,在该子空间中,源领域数据由目标领域数据线性表示,而且保持稀疏重构特性以及领域本身的结构.当求出线性表示系数以后,源领域数据可以由目标领域数据重新线性表示,最后利用监督模型进行学习分类.Shao等人[66]讨论一种迁移学习方法用于视觉分类,该方法映射源领域和目标领域数据到一个泛化子空间,其中目标领域数据可以被表示为一些源数据的组合.通过在迁移过程中加入低秩约束,来保持源领域和目标领域的结构.Yeh等人[67]提出一种新的领域适应性方法解决跨领域模式识别问题.他们使用典型相关分析方法(CCA)得到相关子空间作为所有领域数据的联合表示,并提出核典型相关分析方法(KCCA)处理非线性相关子空间的情况.特别地,他们提出一种新的带有相关性正则化的支持向量机方法,可以在分类器设计中加入领域适应性能力从而进行领域适应性模式分类.Wang等人[68]挖掘词特征上的概念进行知识迁移,用于跨语言网页分类.他们的工作基于以下观测,不同领域可能采用不同的词特征来表示同一个概念,那么就可以利用独立于领域的概念作为知识迁移的桥梁.Long等人[69]进一步提出双重迁移学习方法,进一步考虑词特征概念的分类,分成两种不同的概念,即不同领域采用不同词特征的概念和不同领域也采用相同词特征的概念.

1.2.4 基于权重方法

在迁移学习中,有标签的源领域数据的分布与无标签的目标领域数据的分布是不一样的,因此那些有标签

庄福振 等:迁移学习研究进展 5 的样本数据并不一定是全部有用的.如何侧重选择那些对目标领域分类有利的训练样本?这就是基于实例的迁移学习所要解决的问题.基于实例的迁移学习通过度量有标签的训练样本与无标签的测试样本之间的相似度来重新分配源领域中样本的采样权重.相似度大的,即对训练目标模型有利的训练样本被加大权重,否则权重被削弱.Jiang 等人[26]提出了一种实例权重框架来解决自然语言处理任务下的领域适应问题.他们首先从分布的角度分析了产生领域适应问题的原因,主要有两方面:实例的不同分布以及分类函数的不同分布.因此他们提出了一个最小化分布差异性的风险函数,来解决领域适应性问题.Dai 等人[12]扩展Boosting 学习算法到迁移学习中,提出了TrAdaBoost 算法.在每次迭代中改变样本被采样的权重,即在迭代中源领域中的样本权重被减弱,而有利于模型训练的目标领域中的样本权重被加强.他们还用PAC 理论分析证明了该算法的有效性.下面简要介绍TrAdaBoost 算法.

用于迁移学习任务中的源领域数据与目标领域数据虽然分布不同,但是相关的.也就是辅助的源领域中的训练样本存在一部分比较适合用来学习一个有效的分类模型,并且对目标测试样本是适用的.于是TrAdaBoost 算法的目标就是从辅助的源数据中找出那些适合测试数据的实例,并把这些实例迁移到目标领域中少量有标签样本的学习中去.该算法的关键思想是利用Boosting 的技术过滤掉源领域数据中那些与目标领域中少量有标签样本最不像的样本数据.其中,Boosting 技术用来建立一种自动调整权重机制,于是重要的源领域样本数据权重增加,不重要的源领域样本数据权重减小.在TrAdaBoost 中,AdaBoost [70]被用在目标领域中少量有标签样本中,以保证分类模型在目标领域数据上的准确性;而Hedge(β)[70]被用在源领域数据上,用于自动调节源领域数据的重要度.一个直观TrAdaBoost 的例子如图1所示.另外对参数加权组合的工作,如文献[71].

(a)当有标注的训练样本很少的时候,

分类学习是非常困难的(b)如果能有大量的辅助训练数据(红色的“+”和

“?”),则可能可以根据辅助数据估计出分类面

(c) 有时辅助数据也可能会误导分类结果,

例如图中黑色的“?”即被分错

(d) TrAdaBoost 算法通过增加误分类的源训练数据的权重,同时减小误分类的目标训练数据的权重,使

得分类面朝正确的方向移动

Fig.1

图1 关于TrAdaBoost 算法思想的一个直观示例[12]

根据是否从多个源领域数据学习,迁移学习算法又可以分为单个源领域以及多个源领域的迁移学习.

6 Journal of Software软件学报

Ben-David等人[2]分析了领域数据的表示,并提出了一个很好的模型,该模型不仅最小化分类模型在训练数据上的泛化误差,而且最小化源领域与目标领域之间的不同性.Ling等人[72]提出了一种新的光谱分类算法,该算法通过优化一个目标函数来寻找源领域中的监督信息与目标领域的本质结构之间的最大一致性.Zhuang等人[17]综合半监督学习中的几种正则化准则,提出了基于混合正则化准则的迁移学习框架.Mahmud等人[53,73]从算法信息论的角度来研究迁移学习,该方法度量了不同任务之间的相关性,然后决定多少信息可以做迁移以及怎么迁移这些信息.Xing等人[7]提出了一种直推式迁移学习方法,该方法首先开发利用所有数据集(包括源领域数据和目标领域数据)上的几何分布结构,然后再利用目标领域上的流形结构.针对多源领域学习问题,Gao等人[74]提出了一种多模型局部结构映射方案,实际上是对不同源领域训练得到的模型赋予不同的投票权重,而该权重是由预测样本本身的局部分布结构决定的.Gao等人[75]解决了不同模型的一致性问题.这两个多源领域学习的工作很好地处理了多个模型的集成问题.为了更加深入地挖掘、开发各个源领域数据的内部结构或者数据分布,Luo 和Zhuang等人[14,18]提出了一致性正则化框架,在这个框架下,局部的子分类器不仅考虑了在源领域上的可利用的局部数据,而且考虑了这些由源领域知识得到的子分类器在目标领域上的预测的一致性.Duan等人[15]利用源领域训练得到的模型作为辅助分类器.

2 迁移学习相关理论研究

从理论层面讲,迁移学习问题研究以下问题:第一,什么条件下从源领域数据训练出的分类器能够在目标领域表现出优异的分类性能,即什么条件下可进行迁移?第二,给定无标注目标领域,或者有少量的标记数据,如何在训练过程中与大量有标记的源数据结合使得测试时的误差最小,即迁移学习算法的研究.目前对迁移学习理论研究比较多的主要是在领域适应性方面.

关于领域适应性问题的理论分析最早是在文献[2]中提出的.该文基于VC维对领域适应性问题给出了推广性的界.该文最有价值的贡献在于定义了分布之间的距离,此距离与领域适应性有关.在此基础上,对有限VC维情况,可用他们文献[76]中提出的方法,从有限个样本估计适应推广能力.但是当VC维不是有限的情况下会有什么样的结论该文没有给出研究,需要进一步探讨,另外不同的领域分布之间的距离会得出不同精度的误差估计,由此可以通过研究各具特色的距离用于解决领域适应性问题,以适应不同应用场合的需要.Ben-David还通过实验指出SCL(structural correspondence learning)[3]方法确实能够达到A距离最小的同时间隔损失最低,从而提高目标领域上的学习性能.Ben-David等人[2]分析了领域数据的表示,并提出了一个很好的模型,该模型不仅最小化分类模型在训练数据上的泛化误差,而且最小化源领域与目标领域之间的不同性.这项工作后续研究的阶段性成果发表在文献[36],该文从源数据加权组合获得模型,并给出在特定的经验风险最小化的情形下的误差率.最新的成果发表在2010年的MACHINE LEARNING杂志上[77].该文研究了在什么条件下一个分类器能在目标领域很好完成分类任务,还研究了给定目标领域少量的已标注的样本,如何在训练过程把他们与大量的已标注的源数据相结合,使得目标误差最小.

Mansour指出对任意给定的目标函数,存在一个对源假设的领域加权分布组合使得损失至多为给定的值[78].他还对于任意的目标分布,给出了基于源领域和目标领域之间的Rényi散度的领域推广误差[79].更为精确的推广误差上界估计应用到回归和一般的损益函数,并提出通过加权实现经验分布更好地反映目标领域分布[80].文献[81]提出一种新的框架来分析一种典型的领域适应性类型学习过程的理论性质,即结合多个源领域和单个目标领域的学习问题.他们使用积分概率度量来测量两个域的分布之间的差异,同时与H-散度和差异距离进行了比较.他们针对多领域分别开发了Hoeffding型,Bennett和McMiarmid型偏差不等式,然后给出了对称不等式.接下来,他们利用以上不等式分别获得基于统一熵数的Hoeffding型和Bennett型泛化边界.此外,他们还提出了一种基于Rademacher复杂度的泛化边界.最后,分析了渐近收敛性和学习过程的收敛速度.尽管已经进行了一些理论尝试,但还远远不足,对迁移学习有效性的理论研究还有待进一步深入.

下面介绍下我们利用生成模型在迁移学习方面做的工作.

庄福振等:迁移学习研究进展7

3 基于生成模型的迁移学习方法

5860,判别算法是根据给定源领域数据X,直接训目前很多迁移学习算法都是基于判别模型的学习算法[13,?]

练得到判别模型P(Y|X).由于源领域与目标领域数据分布不一致,判别模型没有考虑联合概率P(X,Y),因此有时不能得到很好的预测结果.区别于判别模型,生成模型先计算得到联合概率P(X,Y),然后再计算P(Y|X).这样,生成模型提供了一种很好的机制,可以对源领域和目标领域数据不同分布进行建模,从而实现源领域与目标领域之间的知识迁移来提高算法的性能[68,82?84].文献[82]还对为什么采用生成模型进行迁移学习算法研究进行了讨论.由于生成模型对联合概率进行建模,具有更强的领域间不同数据分布的建模能力,所以更加适合于迁移学习.

在迁移学习文本分类中,源领域数据与目标领域数据在原始词特征上分布不一致,也就是说它们可能会采用不同的词特征来表示同一个语义概念.但我们发现不同的领域数据,其词特征聚类(又称词特征概念)与文档类别(又称文档聚类、文档概念)之间的关联关系可能是一样的.比如,表示词特征概念“Computer Science”的词有‘hardware’,‘software’,‘program’,‘programmer’,‘disks’以及‘rom’等,但是这些词在不同的领域中可能频率相差很大.在关于硬件公司的新闻网页中,‘hardware’,‘disks’以及‘rom’可能是高频词,而相反,在关于软件公司的新闻网页中,‘software’,‘program’,以及‘programmer’更可能是高频词.因此不同的领域表示同一个概念的词特征差异很大,这就会导致用原始特征训练得到的分类器可能是不可靠的.如果我们能够找出各个领域的词特征概念,并用它们来预测样本的类别,那么就会比直接用原始特征要可靠和有效.

从上面的例子可以看到,一个网页不管是来自于哪一个领域,只要其包含特征概念“Computer Science”,那么该网页就是属于计算机相关的文档类.我们把表示词特征概念的词,定义为词概念外延,把词特征概念与文档类别之间的关系定义为词概念内涵,文档类别中包含的具体文档定义为文档类别外延.Zhuang等人[82]研究基于生成模型的挖掘多领域之间共性与特性的跨领域分类方法,对有效挖掘词特征聚类与文档类别关联关系进行了深入研究.其主要思想如图2所示,图中y表示词特种概念,z表示文档类别(或文档聚类),c表示领域标签,w和d 分别表示词和文档.

图2中,每个大矩形框中又包含两个小的矩形框,分别为各个领域词特征概念的外延和文档概念的外延.领域的特性包括所有的外延,而领域的共性则是它们共享的词特征概念与文档概念之间的联合概率分布,即图中的八边形所示.实际上源领域中的数据是有标记的,即源领域中文档概念的外延已知,可以作为整个模型的监督信息,如图中的实心圆圈所示.这些监督信息通过领域之间的共性实现知识的迁移,领域的共性起到桥的作用,最后实现对目标领域数据的分类预测.实验结果表明该算法具有较强的迁移学习能力,可以处理迁移学习比较难的分类问题.

表1给出了该算法挖掘出来的词特征概念的部分结果,可以看到词特征概念“Space Scice”在不同的领域中采用不同的关键词进行表示.他们还对基于判别模型和基于生成模型的迁移学习算法进行了初步的探讨,认为基于生成模型的方法可以有效地对源领域与目标领域之间的不同性进行建模,可能更加适合做迁移学习.

以往的工作[68,82]假设源领域和目标领域共享相同的概念集,但是除了共享概念以外,不同领域可能还包含自己独特的概念.Zhuang等人[84]对不同领域的概念进行了深入的分析,把概念分成3类:一致性概念,相似概念以及领域特有的概念.他们提出了一般的概率统计模型来挖掘这3种概念,并开发了一种EM算法进行求解.大量的实验结果表明所提出的模型优于所比较的迁移学习算法.

8

Journal of Software 软件学报

Distinction

Fig.2

图2 不同领域之间的共性和特性

Table 1

表1 文献[82]提出方法挖掘的词特征概念

Domain 1

rocket, esa, assist, frank, af, thu, helsinki, ron, atlantic, jet, observer, satellite, venus, sei,

min, ir, russia, stars, star, ray

Domain 2relay, km, rat, pixel, command, elements, arc, acceleration, nasa, earth, fuse, ground, bulletin, pub, anonymous, faq, unix, cit, ir, amplifier Domain 3mil, planet, field, jpl, ron, smith, unix

Associated with concept: space science Domain 4service, archive, unit, magnetic, thousands, technology, information, arc, keys, faq, probes, ir, available, gov, embedded, tens, data, system, unix, mil

Domain 1support, astronomer, near, thousands, million, you, vnet, copy, ad, bright, lab, idea, data, hardware, engines, ibm, project, soviet, software, program

Domain 2card, rom, screen, protection, disk, ram, tape, mb, copy Domain 3discomfort, friend, normal, self, tests, programmer, steve, state, program, lab, you, your, jon, my, headache, trial, she, pain, page, trials

Associated with concept:

computer science Domain 4cryptosystems, skipjack, plaintext, secure, key, encrypted, nsa, des

Domain 1saves, power, was, at, disappointment, al, europeans, will, ny, north, their, they, deal, best, year, sports, cs, new, series, gm

Domain 2crash, price, vehicle, insurance, handling, gas, xs, dealer, cruiser, leather, buy, latech, fj, paint, ride, buying, bmw, engine, car, Honda Domain 3average, dl, extra, base, cs, al, year

Associated with concept: car Domain 4dealer, camry, saab, engine, eliot, requests, mazda, liter, mustang, diesel, wagon, nissan, mileage, byte, saturn, toyota, si, cars, car, db

*Domain 1: rec.sport.hockey vs. sci.space, Domain 2: rec.motorcycles vs. sci.electronics

Domain 3: rec.sport.baseball vs. sci.med, Domain 4: rec.autos vs. sci.crypt.

庄福振等:迁移学习研究进展9

4 迁移学习应用研究

目前,迁移学习典型应用方面的研究主要包含有文本分类、文本聚类、情感分类、图像分类、协同过滤、基于传感器的定位估计、人工智能规划等.

在文本处理领域已经有大量的迁移学习工作[4,5,18,24,56,62,69,83,85].Dai等人[4]提出联合聚类方法,同时对文档以及词特征进行聚类,通过不同领域共享相同的词特征进行知识迁移.他们还提出迁移贝叶斯分类器[5],首先估计源领域数据的数据分布,然后不断修正使得适应于目标领域数据.Zhuang等人[56]在概念层面上对文本进行处理,提出挖掘文档概念与词特征概念的迁移学习方法.在此基础上Long等人[69]提出了双重迁移模型,进一步对概念进行划分,提高算法分类准确率.Gu等人[62]提出共享子空间的多任务聚类方法,并应用于迁移分类中.文献[63,86,87]等对情感分类进行了研究,Li等人[86]利用独立于领域的带有情感倾向的词先验以及领域相关的无标签数据,来提高情感分类的准确率.Pan等人[87]提出一种新的谱特征对齐方法,以独立于领域的词特征为桥梁,把来自不同领域的领域特有词特征对齐到一个聚类中.这样,这些聚类可以降低领域特有的词的缺口,从而提高目标领域上的准确率.

在图像处理方面,Dai等人[16]提出一种翻译迁移学习方法,借助文本数据来辅助图像聚类.Raina等人[54]提出一种新的从无标签数据进行自学习的方法,该方法利用系数编码技术从大量的无标签数据上构造高层特征,提高图像分类性能.Zhu等人[88]研究了一种异构迁移学习方法,利用图像上的Tag标签信息作为文本与图像之间知识迁移的桥梁,从而提高图像数据上的分类效果.在图像分类方面的工作还有文献[59]等.

在协同过滤方面的工作有文献[75,89?92]等,Wang等人提出特征子空间的迁移学习方法来克服协同过滤中的稀疏问题,即从辅助数据中学习得到用户特征子空间被迁移到目标领域中.Pan等人[90]研究了协同过滤中带有不确定评分的迁移学习算法,即在优化目标矩阵分解中考虑不确定评分的辅助数据作为限制.Cao等人[92]提出基于项目潜在特征共享策略的链接预测模型,性能上比单个任务的学习有了提升.

香港科技大学Qiang Yang实验室还做了一系列的室内定位的迁移学习方面的工作[13,58,93].Wang等人[93]的工作基于这样的观测,即使不同楼层的信号差别非常大,但是不同楼层的设计是相似的,因此可以把不同楼层的数据嵌入到一些共同的低维流形,这样可以通过这些流形把标签从标记样本传播到无标记样本.Zheng等人[94]提出一种新的多任务学习,对室内定位系统的多个设备进行同时学习,并假设各个设备在隐性空间上的假设是相似的.另外,在智能规划方面,Zhou等人[95]提出一种新的迁移学习框架TRAMP,利用迁移学习用于人工智能规划中的动作模型获取.该方法首先建立源领域与目标领域之间的结构映射来迁移知识,然后从Web搜索中开发额外的知识来从源领域中连接和迁移知识.在排序以及度量学习方面的工作有文献[61,96,97]等.传统的视觉重排序已经不能很好地提高基于文本的视频搜索,因为低层次的视觉特征与高层次的语义概念有很大的缺口.Tian等人[61]提出一种新的维度降低工具,可以有效地编码用户的标记信息(标记信息由交互得到)来提高检索结果.Geng等人[97]介绍了一种领域适应性度量学习方法.在可再生核希尔伯特空间中,该方法在常规度量学习中引入依赖于数据的正则化项,来解决源领域与目标领域之间的分布不同性.

总之,越来越多的迁移学习工作被应用到各种应用中,也在研究上取得了非常显著的效果.但在目前大数据背景下,已有的算法还不能满足实际的应用需求,处理的数据量还比较小而且算法复杂度比较高.下一步研究应该更加关注在高效算法的设计上,确实满足实际需要.

5 未来研究方向

本文系统地给出了迁移学习算法以及相关理论的研究进展.迁移学习作为一个新兴的研究领域,还很年轻,主要还是集中在算法方面的研究,因此值得我们进一步的研究.

迁移学习最早来源于教育心理学,这里借用美国心理学家Judd???提出的“类化说”学习迁移理论来讨论下目前机器学习领域迁移学习研究还存在的3个问题.首先,贾德认为在先期学习A中获得的东西,之所以能迁移

??? https://www.wendangku.net/doc/c316523379.html,/subview/226455/11107073.htm

10 Journal of Software软件学报

到后期学习B中,是因为在学习A时获得了一般原理,这种原理可以部分或全部运用于A、B之中.根据这一理论,两个学习活动之间存在的共同要素,是产生迁移的必要前提.这也就是说,想从源领域中学习知识并运用到目标领域中,必须保证源领域与目标领域有共同的知识,那么如何度量这两个领域的相似性与共同性,是问题之一.第二,贾德的研究表明,知识的迁移是存在的,只要一个人对他的经验、知识进行了概括,那么从一种情境到另一种情境的迁移是可能的.知识概括化的水平越高,迁移的范围和可能性越大.把该原则运用到课堂上,同样的教材采用不同的教学方法,产生的迁移效果是不一样的,即可能产生积极迁移也可能产生相反的作用.即同样的教材内容,由于教学方法不同,而使教学效果大为悬殊,迁移的效应也大不相同.所以针对不同的学习问题,研究有效的迁移学习算法也是另一个重要问题.第三,根据贾德的泛化理论,重要的是在讲授教材时要鼓励学生对核心的基本的概念进行抽象或概括.抽象与概括的学习方法是最重要的方法,在学习的时侯对知识进行思维加工,区别本质的和非本质的属性,偶然的和必然的联系,舍弃那些偶然的、非本质的东西,牢牢把握那些必然的本质的东西.这种学习方法能使学生的认识从低级的感性阶段上升到高级的理性阶段,从而实现更广泛更成功的正向迁移.也就是说在迁移学习的过程中,应该避免把非本质的、偶然的知识,当成本质的(领域共享的)、必然的知识,实现正迁移.所以,如何实现正迁移,避免负迁移也是迁移学习的一个重要研究问题.

针对以上讨论分析,我们认为后续研究有以下几个可能的方向.第一,针对领域相似性、共同性的度量,目前还没有深入的研究成果,那么首要任务就是研究准确的度量方法.第二,在算法研究方面,不同的应用,迁移学习算法需求不一样.目前很多研究工作主要集中在迁移学习分类算法方面,其他方面的应用算法有待进一步研究,比如情感分类,强化学习,排序学习,度量学习,人工智能规划等.第三,关于迁移学习算法有效性的理论研究还很缺乏,研究可迁移学习条件,获取实现正迁移的本质属性,避免负迁移.最后,在大数据环境下,研究高效的迁移学习算法尤为重要.目前的研究主要还是集中在研究领域,数据量小而且测试数据非常标准,应把研究的算法瞄准实际应用数据,以适应目前大数据挖掘研究浪潮.

References:

[1] He Q, Zhao XR, Shi ZZ. Minimal consistent subset for hyper surface classification method. Int’l Journal of Pattern Recognition and

Artificial Intelligence, 2008,22(1):95?108.

[2] Ben-David S, Blitzer J, Crammer K, et al. Analysis of representations for domain adaptation. In: Proc. of the Advances in Neural

Information Processing Systems 19. Cambridge: MIT Press, 2007. 137?144.

[3] Blitzer J, McDonald R, Pereira F. Domain adaptation with structural correspondence learning. In: Proc. of the Int’l Conf. on

Empirical Methods in Natural Language Processing, Stroudsburg PA: ACL, 2006. 120?128.

[4] Dai WY, Xue GR, Yang Q, et al. Co-Clustering based classification for out-of-domain documents. In: Proc. of the 13th ACM Int’l

Conf. on Knowledge Discovery and Data Mining. New York: ACM Press, 2007. 210?219.

[5] Dai WY, Xue GR, Yang Q, et al. Transferring naive Bayes classifiers for text classification. In: Proc. of the 22nd Conf. on

Artificial Intelligence. AAAI Press, 2007. 540?545.

[6] Liao XJ, Xue Y, Carin L. Logistic regression with an auxiliary data source. In: Proc. of the 22nd Int’l Conf. on Machine Learning.

San Francisco: Morgan Kaufmann Publishers, 2005. 505?512.

[7] Xing DK, Dai WY, Xue GR, et al. Bridged refinement for transfer learning. In: Proc. of the 11th European Conf. on Practice of

Knowledge Discovery in Databases. Berlin: Springer-Verlag, 2007. 324?335.

[8] Mahmud MM H. On universal transfer learning. In: Proc. of the 18th Int’l Conf. on Algorithmic Learning Theory. Sendai, 2007.

135?149.

[9] Samarth S, Sylvian R. Cross domain knowledge transfer using structured representations. In: Proc. of the 21nd Conf. on Artificial

Intelligence. AAAI Press, 2006. 506?511.

[10] B el N, Koster CHA, Villegas M. Cross-Lingual text categorization. In: Proc. of the European Conf. on Digital Libraries. Berlin:

Springer-Verlag, 2003. 126?139.

[11] Zhai CX, Velivelli A, Yu B. A cross-collection mixture model for comparative text mining. In: Proc. of the 10th ACM SIGKDD

Int’l Conf. on Knowledge Discovery and Data Mining. New York: ACM, 2004. 743?748.

庄福振等:迁移学习研究进展11

[12] Dai WY, Yang Q, Xue GR, et al. Boosting for transfer learning. In: Proc. of the 24th Int’l Conf. on Machine Learning. San

Francisco: Morgan Kaufmann Publishers, 2007. 193?200.

[13] Pan SJ, Yang Q. A survey on transfer learning. IEEE Trans. on Data Engineering, 2010,22(10):1345?1359.

[14] Luo P, Zhuang FZ, Xiong H, et al. Transfer learning from multiple source domains via consensus regularization. In: Proc. of the

17th ACM Conf. on Information and Knowledge Management. New York: ACM Press, 2008. 103?112.

[15] Duan LX, Tsang IW, Xu D, et al. Domain adaptation from multiple sources via auxiliary classifiers. In: Proc. of the 26th Annual

Int’l Conf. on Machine Learning. New York: ACM, 2009. 289?296.

[16] Dai WY, Chen YQ, Xue GR, et al. Translated learning: Transfer learning across different feature spaces. In: Proc. of the Advances

in Neural Information Processing Systems 20. Cambridge: MIT Press, 2008. 353?360.

[17] Z huang FZ, Luo P, He Q, et al. Inductive transfer learning for unlabeled target-domain via hybrid regularization. Chinese Science

Bulletin, 2009,54(14):2470?2478.

[18] Z huang FZ, Luo P, Xiong H, et al. Cross-Domain learning from multiple sources: A consensus regularization perspective. IEEE

Trans. on Knowledge And Data Engineering, 2010,22(12):1664?1678.

[19] R osenstein MT, Marx Z, Kaelbling LP. To transfer or not to transfer. In: Proc. of the Neural Information Processing Systems 2005

Workshop on Inductive Transfer: 10 Years Later. Cambridge: MIT Press, 2005.

[20] D ai WY, Jin O, Xue GR, et al. Eigen transfer: A unified framework for transfer learning. In: Proc. of the 24th Int’l Conf. on

Machine Learning. San Francisco: Morgan Kaufmann Publishers, 2009. 193?200.

[21] 戴文渊.基于实例和特征的迁移学习算法研究[博士生论文].上海:上海交通大学计算机科学与工程系,2008.1?55.

[22] 施潇潇.主动迁移学习模型的研究与应用[博士生论文].广州:中山大学计算机应用技术学院,2009.1?69.

[23] F engmei W, Jianpei Z, Yan C, Jing Y. FSFP: Transfer learning from long texts to the short. Applied Mathematics & Information

Sciences, 2014,8(4):2033?2044.

[24] Dai WY, Yang Q, Xue GR, et al. Self-Taught clustering. In: Proc. of the 24th Int’l Conf. on Machine Learning. San Francisco:

Morgan Kaufmann Publishers, 2008. 200?207.

[25] Samanta S, Tirumarai SA, Das S. Cross-Domain clustering performed by transfer of knowledge across domains. In: Proc. of the

2013 IEEE 4th National Conf. on Computer Vision, Pattern Recognition, Image Processing and Graphics (NCVPRIPG). 2013. 1?4.

[26] Jiang J, Zhai CX. Instance weighting for domain adaptation in NLP. In: Proc. of the 45th Annual Meeting of the Association for

Computational Linguistics. Stroudsburg PA: Association for Computational Linguistics, 2007. 264?271.

[27] Lee S, Chatalbashev V, Vickrey D, et al. Learning a meta-level prior for feature relevance from multiple related tasks. In: Proc. of

the 24th Int’l Conf. on Machine Learning. New York: ACM, 2007. 489?496.

[28] W ang C, Mahadevan S. Manifold alignment using procrustes analysis. In: Proc. of the 25th Int’l Conf. on Machine Learning. New

York: ACM, 2008. 1120?1127.

[29] Lawrence ND, Platt JC. Learning to learn with the informative vector machine. In: Proc. of the 21st Int’l Conf. on Machine

Learning. New York: ACM, 2004. 65?72.

[30] S chwaighofer A, Tresp V, Yu K. Learning Gaussian process kernels via hierarchical Bayes. In: Proc. of the Advances in Neural

Information Processing Systems 17. Cambridge: MIT Press, 2005. 1209?1216.

[31] Evgeniou T, Pontil M. Regularized multi-task learning. In: Proc. of the 10th ACM SIGKDD Int’l Conf. on Knowledge Discovery

and Data Mining. New York: ACM, 2004. 109?117.

[32] Zadrozny B. Learning and evaluating classifiers under sample selection bias. In: Proc. of the 21st Int’l Conf. on Machine Learning.

New York: ACM, 2004. 114?121.

[33] Huang JY, Smola AJ, Gretton A, et al. Correcting sample selection bias by unlabeled data. In: Proc. of the Advances in Neural

Information Processing Systems 19. Cambridge: MIT Press, 2007. 601?608.

[34] Fan W, Davidson I, Zadrozny B, et al. An improved categorization of classifier’s sensitivity on sample selection bias. In: Proc. of

the 5th Int’l Conf. on Data Mining. Los Vaqueros: IEEE Computer Society, 2005. 605?608.

[35] Ando RK, Zhang T. A high-performance semi-supervised learning method for text chunking. In: Proc. of the 43rd Annual Meeting

on Association for Computational Linguistics. Stroudsburg, 2005. 1?9.

12 Journal of Software软件学报

[36] Blitzer J, Crammer K, Kulesza A, et al. Learning bounds for domain adaptation. In: Proc. of the Advances in Neural Information

Processing Systems 20. Cambridge: MIT Press, 2008. 129?136.

[37] Wang Z, Song YQ, Zhang CS. Transferred dimensionality reduction. In: Proc. of the European Conf. on Machine Learning and

Knowledge Discovery in Databases. Berlin, Heidelberg: Springer-Verlag, 2008. 550?565.

[38] Zhou ZH. Learning with unlabeled data and its application to image retrival. In: Proc. of the 9th Pacific Rim Int’l Conf. on

Artificial Intelligence. Berlin: Springer-Verlag, 2006. 5?10.

[39] Zhu XJ. Semi-Supervised learning literature survey [Ph.D. Thesis]. Department of Computer Sciences, University of Wisconsin,

Madison, 2005.

[40] Joachims T. Transductive inference for text classification using support vector machines. In: Proc. of the 16th Int’l Conf. on

Multimedia. Augsburg, New York: ACM Press, 1999. 200?209.

[41] Joachims T. Transductive learning via spectral graph partitioning. In: Proc. of the 16th Int’l Conf. on Multimedia. Augsburg, New

York: ACM Press, 2003. 290?297.

[42] Tong S, Chang E. Support vector machine active learning for image retrieval. In: Proc. of the 9th ACM Int’l Conf. on Multimedia.

New York: ACM Press, 2001. 107?118.

[43] Cohn D, Atlas L, Ladner R. Improving generalization with active learning. Machine Learning, 1994,15(2):201?221.

[44] Sindhwani V, Niyogi P. A co-regularized approach to semi-supervised learning with multiple views. In: Proc. of the ICML

Workshop on Learning with Multiple Views. San Francisco: Morgan Kaufmann Publishers, 2005. 74?79.

[45] Yarowsky D. Unsupervised word sense disambiguation rivaling supervised methods. In: Proc. of the 33rd Annual Meeting on

Association for Computational Linguistics. Stroudsburg: Association for Computational Linguistics, 1995. 189?196.

[46] Blum MT. Combining labeled and unlabeled data with co-training. In: Proc. of the 11th Annual Conf. on Computational Learning

Theory. New York, 1998. 92?100.

[47] Dasgupta S, Littman ML, Mcalleste D. PAC generalization bounds for co-training. In: Proc. of the Advances in Neural Information

Processing Systems 13. Cambridge: MIT Press, 2001. 375?382.

[48] Abney A. Bootstrapping. In: Proc. of the 40th Annual Meeting of the Association for Computational Linguistics. 2002. 360?367.

[49] Abney A. Understanding the Yarowsky algorithm. Journal of Computational Linguistics, 2004. 365?395.

[50] Shi XX, Fan W, Ren JT. Actively transfer domain knowledge. In: Proc. of the European Conf. on Machine Learning and

Knowledge Discovery in DataBases. Berlin: Springer-Verlag, 2008. 342?357.

[51] Belkin M, Niyogi P, Sindhwani V. Manifold regularization: A geometric framework for learning from labeled and unlabeled

examples. Journal of Machine Learning Research, 2007,(7):2399?2434.

[52] Grandvalet Y, Bengio Y. Semi-Supervised learning by entropy minimization. In: Proc. of the Advances in Neural Information

Processing Systems 17. Cambridge: MIT Press, 2005. 529?536.

[53] Mann GS, McCallum A. Simple, robust, scalable semi-supervised learning via expectation regularization. In: Proc. of the 24th Int’l

Conf. on Machine Learning. San Francisco: Morgan Kaufmann Publishers, 2007. 593?600.

[54] Raina R, Battle A, Lee H, et al. Self-Taught learning: Transfer learning from unlabeled data. In: Proc. of the 24th Int’l Conf. on

Machine Learning. San Francisco: Morgan Kaufmann Publisherws, 2007. 759?766.

[55] J iang J, Zhai CX. A two-stage approach to domain adaptation for statistical classifiers. In: Proc. of the 16th ACM Conf. on

Information and Knowledge Management. New York: ACM Press, 2007. 401?410.

[56] Z huang FZ, Luo P, Xiong H, et al. Exploiting associations between word clusters and document classes for cross-domain text

categorization. In: Proc. of the 10th SIAM Conf. on Data Ming. Philadelphia: SIAM Press, 2010. 13?24.

[57] F ang M, Yin J, Zhu XQ. Transfer learning across networks for collective classification. In: Proc. of the 2013 IEEE 13th Int’l Conf.

on Data Mining. 2013. 161?170.

[58] Pan SJ, Kwok JT, Yang Q. Transfer learning via dimensionality reduction. In: Proc. of the 23rd Conf. on Artificial Intelligence.

AAAI Press, 2008. 677?682.

[59] S i S, Tao DC, Chan KP. Evolutionary cross-domain discriminative hessian eigenmaps. IEEE Trans. on Image Processing, 2010,

19(4):1075?1086.

庄福振等:迁移学习研究进展13

[60] Si S, Tao DC, Geng B. Bregman divergence-based regularization for transfer subspace learning. IEEE Trans. on Knowledge and

Data Engineering, 2010,22(7):919?942.

[61] Tian X, Tao D, Rui Y. Sparse transfer learning for interactive video search reranking. ACM Trans. on Multimedia Computing,

Communications, and Applications (TOMCCAP), 2012,8(3):26:1?19.

[62] Gu QQ, Zhou J. Learning the shared subspace for multi-task clustering and transductive transfer classification. In: Proc. of the 9th

Int’l Conf. on Data Mining. Los Vaqueros: IEEE Computer Society, 2009. 159?168.

[63] Blitzer J, Dredze M, Pereira F. Biographies, Bollywood, Boom-boxes and Blenders: Domain adaptation for sentiment classification.

In: Proc. of the 45th Annual Meeting of the Association for Computational Linguistics. Stroudsburg: ACL, 2007. 440?447.

[64] X ie SH, Fan W, Peng J, et al. Latent space domain transfer between high dimensional overlapping distributions. In: Proc. of the

ACM Conf. on World Wide Web. New York: ACM Press, 2009. 91?100.

[65] Kan M, Wu J, Shan S, et al. Domain adaptation for face recognition: Targetize source domain bridged by common subspace. Int’l

Journal of Computer Vision, 2013. 1?16.

[66] Shao M, Kit D, Fu Y. Generalized transfer subspace learning through low-rank constraint. Int’l Journal of Computer Vision, 2014.

1?20.

[67] Yeh Y, Huang C, Wang Y. Heterogeneous domain adaptation and classification by exploiting the correlation subspace. IEEE Trans.

on Image Processing, 2013. 2009?2018.

[68] Wang H, Huang H, Nie F, et al. Cross-Language Web page classification via dual knowledge transfer using nonnegative matrix

tri-factorization. In: Proc. of the 34th Int’l ACM SIGIR Conf. on Research and Development in Information Retrieval. ACM, 2011.

933?942.

[69] Long M, Wang J, Ding G, et al. Dual transfer learning. In: Proc. of the SDM. 2012. 540?551.

[70] F reund Y, Schapire RE. A decision-theoretic generalization of on-line learning and an application to boosting. Journal of Computer

and System Sciences, 1997,55(1):119?139.

[71] D redze M, Kulesza A, Crammer K. Multi-Domain learning by confidence-weighted parameter combination. Journal of Machine

Learning, 2010,79(1-2):123?149.

[72] L ing X, Dai WY, Xue GR, et al. Spectral domain-transfer learning. In: Proc. of 14th ACM Int’l Conf. on Knowledge Discovery and

Data Mining. New York: ACM Press, 2008. 488?496.

[73] M ahmud MMH, Ray S. Transfer learning using Kolmogorov complexity: Basic theory and empirical evaluations. In: Proc. of

Advances in Neural Information Processing Systems. MIT Press, 2007. 985?992.

[74] G ao J, Fan W, Jiang J, et al. Knowledge transfer via multiple model local structure mapping. In: Proc. of the 13th ACM Int’l Conf.

on Knowledge Discovery and Data Mining. New York: ACM Press, 2008. 283?291.

[75] G ao J, Fan W, Sun Y Z, et al. Heterogeneous source consensus learning via decision propagation and negotiation. In: Proc. of the

13th ACM Int’l Conf. on Knowledge Discovery and Data Mining. New York: ACM Press, 2009. 339?348.

[76] K ifer D, Ben-David S, Gehrke J. Detecting change in data streams. In: Proc. of the 30th Int’l Conf. on Very Large Data Bbases.

Toronto: VLDB Endowment, 2004. 180?191.

[77] B en-David S, Blitzer J, Crammer K, et al. A theory of learning from different domains. Journal of Machine Learning, 2010,79(1-2):

151?175.

[78] Mansour Y, Mohri M, Rostamizadeh A. Domain adaptation with multiple sources. In: Proc. of the Advances in Neural Information

Processing Systems 20. Cambridge: MIT Press, 2008. 1?8.

[79] Mansour Y, Mohri M, Rostamizadeh A. Multiple source adaptation and the R\ényi divergence. In: Proc. of the 25th Conf. on

Uncertainty in Artificial Intelligence. Arlington: AUAI Press, 2009. 367?374.

[80] M ansour Y, Mohri M, Rostamizadeh A. Domain adaptation: learning bounds and algorithms. In: Proc. of 22nd Annual Conf. on

Learning Theory. San Francisco: Morgan Kaufmann Publishers, 2009.

[81] Z hang C, Zhang L, Fan W, et al. Generalization bounds for representative domain adaptation. arXiv preprint arXiv: 1401.0376,

2014. 1?40.

[82] Zhuang, FZ, Luo, P, Shen, Z, et al. Collaborative DUAL-PLSA: Mining distinction and commonality across multiple domains for

text classification. In: Proc. of the 19th ACM Int’l Conf. on Information and Knowledge Management. ACM, 2010. 359?368.

14 Journal of Software软件学报

[83] Xue GR, Dai WY, Yang Q, et al. Topic-Bridged PLSA for cross-domain text classification. In: Proc. of the 31st Annual Int’l ACM

SIGIR Conf. on Research and Development in Information Retrieval. New York: ACM, 2008. 627?634.

[84] Zhuang FZ, Luo P, Yin PF, et al. Concept learning for cross-domain text classification: A general probabilistic framework. In: Proc.

of the 23rd Int’l Joint Conf. on Artificial Intelligence. AAAI Press, 2013. 1960?1966.

[85] Yang P, Gao W. Information-Theoretic multi-view domain adaptation: A theoretical and empirical study. Journal of Artificial

Intelligence Research, 2014,49:501?525.

[86] Li T, Zhang Y, Sindhwani V. A non-negative matrix tri-factorization approach to sentiment classification with lexical prior

knowledge. In: Proc. of the Joint Conf. of the 47th Annual Meeting of the ACL and the 4th Int’l Joint Conf. on Natural Language Processing of the AFNLP. Association for Computational Linguistics, 2009. 244?252.

[87] Pan SJ, Ni X, Sun JT, Yang Q, Chen Z. Cross-Domain sentiment classification via spectral feature alignment. In: ACM Proc. of the

19th Int’l Conf. on World Wide Web. 2010. 751?760.

[88] Zhu Y, Chen Y, Lu Z, Pan SJ, Xue GR, Yu Y, Yang Q. Heterogeneous transfer learning for image classification. In: Proc. of the

AAAI. 2011. 1304?1309.

[89] Wang J, Ke L. Feature subspace transfer for collaborative filtering. Neurocomputing, 2014.

[90] Pan W, Xiang EW, Yang Q. Transfer learning in collaborative filtering with uncertain ratings. In: Proc. of the AAAI. 2012.

662?668.

[91] 李斌,朱兴全,杨强.协同过滤与链接预测的迁移学习问题.见:周志华,杨强,编.机器学习及其应用2011.北京:清华大学出版社,

2011.33?50.

[92] Cao B, Liu NN, Yang Q. Transfer learning for collective link prediction in multiple heterogeneous domains. In: Proc. of the 27th

Int’l Conf. on Machine Learning. 2010. 159?166.

[93] Wang HY, Zheng VW, Zhao J, Yang Q. Indoor localization in multi-floor environments with reduced effort. In: Proc. of the 2010

IEEE Int’l Conf. on Pervasive Computing and Communications (PerCom). 2010. 244?252.

[94] Zheng VW, Pan SJ, Yang Q, Pan JJ. Transferring multi-device localization models using latent multi-task learning. In: Proc. of the

AAAI. 2008. 1427?1432.

[95] Zhuo HH, Yang Q. Action-Model acquisition for planning via transfer learning. Artificial Intelligence.

[96] Bai J, Zhou K, Xue G R, et al. Multi-Task learning for learning to rand in Web search. In: Proc. of 18th ACM Conf. on Information

and Knowledge Management. New York: ACM Press, 2009. 1549?1552.

[97] Geng B, Tao D, Xu C. DAML: Domain adaptation metric learning. IEEE Trans. on Image Processing, 2011,20(10):2980?2989.

庄福振(1983-),男,博士,副研究员,主要研究领域为迁移学习,数据挖掘,机器学习.

E-mail: zhuangfz@https://www.wendangku.net/doc/c316523379.html,

史忠植(1941-),男,研究员,博士生导师, 主要研究领域为人工智能.

E-mail: shizz@https://www.wendangku.net/doc/c316523379.html,

何清(1965-),男,研究员,博士生导师,主

要研究领域为机器学习,数据挖掘,基于云

计算的海量数据挖掘.

E-mail: heq@https://www.wendangku.net/doc/c316523379.html,

第六章 学习的迁移与学习策略总结

第六章学习的迁移与学习策略 【教学目的】通过教学,使学生掌握迁移的基本含义与分类、学习迁移的理论、迁移与教学的关系;通过教学,掌握学习策略的含义、特征与分类,掌握各种策略的基本成分及其含义 【教学重点】学习迁移理论;学习策略的结构 【教学方法】讲授法与提问法 【教学时数】6课时 第一节学习迁移概述 一、学习迁移的含义 学习迁移也称训练迁移,指一种学习对另一种学习的影响.或习得的经验对完成其他活动的影响。 学习迁移具有普遍性,我们常说举一反三、触类旁通、闻一知十是典型的学习迁移形式。各种经验内部及其不同经验之间相互影响,通过迁移,各种经验得以沟通,经验结构得以整合。 二、迁移的种类 (一)正迁移与负迁移 根据迁移的性质不同,即迁移的影响效果不同而划分。学习迁移分为正迁移和负迁移。正迁移指一种学习对另一种学习起到积极的促进作用。负迁移指两种学习之间的相互干扰、阻碍。介于正、负迁移两者之间的一种迁移状态可称为零迁移。 (二)水平迁移与垂壹迁移 根据迁移内容的不同抽象与概括水平而划分。学习迁移分为水平迁移和垂直迁移。水平迁移也称横向迁移,是指处于同一概括水平的经验之间的相互影响。 垂直迁移又称纵向迁移,指处于不同概括水平的经验之间的相互影响。具体讲,是具有较高的概括水平的上位经验与具有较低的概括水平的下位经验之间的相互影响。垂直迁移表现在两个方面,一是自下而上的迁移,二是自上而下的迁移。 (三)一般迁移与具体迁移 根据迁移内容的不同而划分。学习迁移分为普遍迁移和具体迁移。一般迁移也称普遍迁移、非特殊迁移,是将一种学习中习得的一般原理、方法、策略和态度等迁移到另一种学习中去。 具体迁移也称为特殊迁移,指一种学习中习得的具体的、特殊的经验直接迁移到另一种学习中去,或经过某种要素的重新组合,以迁移到新情境中去。 (四)同化性迁移、顺应迁移与重组性迁移 根据迁移过程中所需的内在心理机制的不同而划分。学习迁移分为同化性迁移、顺应性迁移和重组性迁移。同化性迁移是指不改变原有的认知结构,直接将原有的认知经验应用到本质特征相同的一类事物中去。原有认知结构在迁移过程中不发生实质性的改变.只是得到某种充实。平时我们所讲的举一反三、闻一知十等都属于同化性迁移。

教育与社会变迁

第四章:社会变迁与教育 天地之化,往者过,来者续,无一刻之停息。这是我国哲学家和教育家对社会变迁的感慨。不仅如此,我国哲学家庄周也曾说过:物之生也,若骤若驰,无动而不变,无时而不移。如此,社会总是在不断的变迁之中,那么作为人的一种生存方式的教育应如何才能与社会的变迁相适应呢?教育与社会的变迁又有什么关系呢?学完这一章您将得到答案! 当下我国社会所正在经历的变迁属于社会分化而非社会革命类型,其变迁的结果是:在人口结构这方面,最明显的特征就是农民这一阶层的分化,出现了目前非常庞大而又备受各界关注的社会群体农民工。农民工指拥有农业户口、被人雇用去从事非农活动的农村人口。 一、社会变迁概述 社会变迁是社会的发展、进步、停滞、倒退等一切现象和过程的总和。社会变迁既包含社会的进步和退步,又包括社会的整合和解体。社会变迁的内容涉及社会生产、生活的所有领域,主要包括自然环境变迁、人口变迁、经济变迁、社会制度和结构变迁、社会价值观的变迁、生活方式的变迁、文化变迁、科技变迁等。社会变迁的表现形式也是多样的,主要有社会整体和局部的变迁、社会的渐变与突变、社会的进步与退步等。 二、教育与社会变迁的关系 一 教育是社会变迁的结果 社会变迁 尤其是剧烈的社会革命 会对教育产生巨大影响。学校教育的产生、教育制度的变革、教育目标和教育观念的变化、教育功能的变革等几乎都是社会变迁的结果 二 教育是社会变迁的动因 教育是社会变迁的动因.主要体现在教育培养入、传递新的意识形态、进而推动科技发展、经济振兴、文化繁荣与政治革新等方面。 三 教育是社会变迁的条件 教育既可能成为一种社会变迁的动因,也可能成为另一种社会变迁的条件。教育具有双重功能:教育的显性功能 即预期达成的目标 往往是在教育引起社会变迁的意义上加以设计的;教育的隐性功能 即在未被预计的情况下,在完成显性功能的过程中附带产生的功能 正是导致其他社会变迁的条件 三、教育与现代化 现代化 社会现代化是世界各国社会变迁的共同趋向。关于社会现代化的研究从 世纪 年代开始。托夫勒从 技术至上 角度论对社会现代化做了系统论述。关于现代化的研究,有的从社会组识与政治结构的演变研究现代化,有的从文化变革研究现代化。(从 世纪(一说是 世纪)开始世界现代化的进程。) 现代化有两种类型: 原发型的现代化 (内源性现代化)和 赶超型的现代化 (外源性现代化)。 原发型的现代化 是一个自发的、逐步成熟的自然过程; 赶超型的现代化 是在国家领导下自上而下的、自觉定向的进程。 中国于 年第一届全国人民代表大会上第一次明确提出要实现四个现代化的任务,

学习的迁移 教育学 心理学

第十章学习的迁移 1)什么是学习迁移?它有哪些种类?(有关概念和实例要掌握) 学习迁移也称训练迁移,指一种学习对另一种学习的影响,或习得的经验对完成其他活动的影响。 种类: 1、根据迁移的性质不同即迁移的影响效果不同划分:正迁移和负迁移。 正迁移指一种学习对另一种学习起到积极的促进作用。如学习数学有利于学习物理,钢笔字写得好有利于写好毛笔字。 负迁移指两种学习之间的相互干扰、阻碍。如掌握了汉语语法,在初学英语时总是用汉语语法去套英语语法。 2、根据迁移内容的不同抽象与概括水平而进行的划分:水平迁移和垂直迁移。 水平迁移是指处于同一概括水平的经验之间的相互影响。如化学元素中锂、钠、钾等元素之间的关系是并列的。 垂直迁移指处于不同概括水平的经验之间的相互影响。表现在两方面:一是自下而上的迁移,如数学学习中由数字运算到字母运算的转化,常见于归纳式的学习中。二是自上而下的迁移,如一般平行四边形有关内容的掌握影响着对菱形的学习。常见于演绎式的学习中。 3、一般迁移与具体迁移:根据迁移内容的不同而划分。 一般迁移是将一种学习中习得的一般原理、方法、策略和态度等迁移到另一种学习中去。如数学学习中形成的认真审题的态度,影响到物理、化学审题活动中去。 具体迁移指一种学习中习得的具体的、特殊的经验直接迁移到另一种学习中去,或经过某种要素的重新组合,以迁移到新情境中去。如英语学习中,当学完单词eye(眼睛)后,再学习eyeball(眼球)。 4、同化性迁移、顺应性迁移与重组性迁移:根据迁移过程中所需的内在心理机制的不同而划分。 同化性迁移是指不改变原有的认知结构,直接将原有的认知经验应用到本质特征相同的一类事物中去。平时所讲的举一反三、闻一知十属于同化性迁移 顺应性迁移指将原有认知经验应用于新情境中时,需调整原有的经验或对新旧经验加以概括,形成一种能包容新旧经验的更高一级的认知结构,以适应外界的变化。比如学生已有一些日常概念,当不能解释所遇到的事例时,就要建立一个概括性更高的科学概念,新的科学概念的建立过程也是一种顺应的过程。 重组性迁移指重新组合原有认知系统中某些构成要素或成分,调整各成份间的关系或建立新的联系,从而应用于新情境。如将已掌握的字母进行重新组合,形成新的单词。 2)学习迁移有什么作用? 1、迁移对于提高解决问题的能力具有直接的促进作用。 2、迁移是习得的经验得以概括化、系统化的有效途径,是能力与品德形成关键环节。 3、迁移规律对学习者、教育工作者以及有关的培训人员具有重要的指导作用。 3 一、形式训练说:

社会变迁与教育观念

社会变迁与教育观念 摘要:社会变迁是教育变迁的根本动力。社会变迁对教育观念的决定性影响主要体现在影响教育目的、对象、内容等方面。同时,教育虽和社会处在不平等的地位,但教育仍对社会存在能动作用。教育观念的变化对中国社会的政治、经济、文化等发展产生了重大作用和影响。 关键词:社会变迁、教育观念、根本动力、能动作用 一、社会变迁与教育的关系 在社会学中,社会变迁是一个表示一切社会现象、特别是社会结构发生变化的动态过程及其结果的范畴。社会变迁既泛指一切社会现象的变化,又特指社会结构的重大变化;既指社会变化的过程,又指社会变化的结果。 要弄清社会变迁与教育观念的关系,首先要清楚社会变迁与教育的关系。古往今来,人们对于社会变迁和教育的关系主要有以下三种观点: 观点一:教育是社会变迁的动因 有学者认为,先有教育,后有社会变迁,教育是导致社会变迁的原因,社会变迁是教育的结果。人民通过教育活动将新的信仰、道德标准、人生态度、意识形态等灌输给社会成员,从而引起了社会变迁。裴斯塔洛奇也曾经说过:“教育改革可以促成社会的改革。教育能够培养人的道德,发展人的智力和体力,从而改善个人和改革社会。”我国著名马克思主义教育理论家杨贤江也持这一观点,他说过:“在革命前,教育社个武器,用以破坏、煽动、宣传,把统治阶级的罪恶尽量揭发,把革命的纲领尽量散播。在革命以后,教育的责任在于教导民众、训练民众以维护、巩固这一政权。 观点二:教育是社会变迁的反映 有学者对“教育社社会变迁的动因”这一观点持否定态度,他们认为,并非所有社会变迁的成因中均含有教育的作用,譬如,大部分的地理环境改变与人员更替便与教育的作用几无关系。但是,社会变迁迟早会引起教育的变迁。尤其是在现代社会,社会任何方面的变化都会在教育方面留下痕迹,社会渐变会导致教育微调,社会剧变会导致教育重构,教育混变会导致教育失范。 观点三:教育是社会变迁的条件 还有学者认为教育具有双重功能,即教育的显性功能和隐性功能。教育的显性功能是指

促进学习迁移的方法

促进学习迁移的方法 学习迁移,是指一种学习对另一种学习所产生的影响。这种影响发生在先前学习与后继学习之间,这两种学习可以涉及众多方面,两种学习的影响可以是积极的,也可以是消极的。 学习迁移的现象广泛存在于学习生活各个方面。如,学会了骑自行车,会有助于学驾摩托车,这是动作技能的迁移;加法的学习会影响乘法的学习,而学习乘法之后,又会反过来影响对加法的重新理解,这是知识的迁移;儿童在家里养成了爱劳动的行为习惯,也会在学校中表现出来,这是态度和行为的习惯的迁移等。总之,只要学习就必然会受到影响或(并)产生影响。所以,迁移对于学习来说是具有普遍性的一种现象,即学习迁移具有普遍性。 从迁移影响的方向考察。从迁移影响的方向考察,迁移有顺向迁移和逆向迁移两种。逆向迁移,指后继的学习对先前学习发生的影响。如,学习了“植物”、“微生物”的概念,会使原先学过的“动物”概念更为明确、清晰。在见习的过程中,我也发现了一个逆向迁移的现象:二年级的语文课上,老师要教小朋友们写“徐”这个汉字,而且要写在田字格中,这时,老师就会先引导小朋友们说出“徐“字是左右结构,然后,老师会结合道德教育的内容说:“‘徐’字写在田字格中要注意左边的双人旁写得小一点,且靠左边一点,因为右边的余字边占的位置比较大,如果双人旁不写得小一点、左边一点,余字边就写不下了,就像两个小朋友站在一个格子里,要学会谦让才能一起站在格子里。”这种学习迁移的就是采用了“合理选择、编排教学内容”和“合理安排教学程序”的教学策略。在教学内容的呈现方面,只有通过合理的编排才能充分发挥迁移的效果。将道德教育的内容贯穿在语文教学当中,形象生动,小朋友们更能理解。 从迁移发生作用的范围考察。从迁移发生作用的范围考察,可以将迁移分为特定迁移和一般迁移。一般迁移,是指两种学习在获得的一般原理、方法和态度方面的相互影响,也称为普遍迁移,即将原理、方法和态度等具体化,运用到具体的事例中去。在学习中,一般迁移具有重要的意义,基本原理、方法和态度具有广泛的普适性,会影响众多表面特征不同,但结构特征相同的学习情境。在见习的过程中,我也发现了一个一般迁移的现象:二年级的早读课上,小朋友们读语文书上的内容,在读到课后生字的时候,他们是这样读的:“田,田,这样写,一笔竖,二笔横折,三笔横,四笔竖,五笔横,五笔写成一个田。”这是在读已经教过的课文后面的字,可是我发现,小朋友们也可以以这种方式读还没教过的课文后面的生字,原因就在于,语文老师已经将这样一个套路交给他们,他们可以自己套用。这种学习迁移的就是采用了“教授有效学习策略、正确发挥学习定势的作用”的教学策略。学习定

发展与教育心理学考核要点:第十一章 动作技能的学习与学习的迁移

第十一章动作技能的学习与学习的迁移 (一)什么是动作技能 领会: 对动作技能概念的分析:所谓动作技能是在练习基础上形成的按某种操作程序顺利完成某种身体协调任务的能力。如书写、游泳、驾车、打字等都是动作技能。第一,动作技能是习得的。第二,动作技能是有一定操作程序要求的。第三,动作技能是一种能力。 (二)动作技能的特征 领会: 动作技能的特征:第一,准确性。动作技能形成后,相应的动作越来越准确。第二,动作的速度加快。动作技能形成后,相应动作的速度越为越快。第三,多余动作的减少。所谓多余动作是指与完成某项任务无关但却在完成过程中参与其间的动作。如初学写字时,牙关紧咬;学打乒乓球时,非优势手拳头紧握等等。等到熟练后,这些多余的动作就减少了。第四,灵活性。一种动作技能形成后,其固定的动作程序不是单纯的动作与动作之间的固定衔接,而是具有灵活性。 (三)动作技能的分类 领会: 动作技能的分类:(一)从有没有器械来划分,一类是操纵器械的,如写字、绘画等;另一类是不操纵器械的,如唱歌、跳舞等。(二)从动作技能操作时调节方式的不同来划分,动作技能可分为连续的和不连续的两大类。连续的动作技能一般较多受外部情境所制约,如开汽车、滑冰等;不连续的动作技能一般由自我调节,较少受外部情境控制。 (四)动作技能形成的阶段 领会: 动作技能形成的三个阶段:(一)认知阶段,这一阶段也称为知觉学习。其学习重点是观察动作反应的线索,即观察操作程序。(二)联系形成阶段,在这一阶段,重点是使某一特定的刺激与某一特定的动作反应形成联系,即有意识地使操作程序支配动作反应。(三)自动化阶段,技能学习进入这一阶段时,一边串的动作系列能够自动地连续下来,即操作程序自动支配动作反应,无需特殊的注意和纠正。 (五)动作技能形成的一般趋势 1、识记: 练习曲线:是指在连续多次的练习期间所发生的动作效应变化的图解。 2、领会 动作技能练习曲线的趋势:1、练习成绩逐步提高。练习成绩逐步提高又有两种不同的表现形式:(1)练习的进步先快后慢。(2)练习的进步先慢后快。2、高原期现象。在技能形成中,练习中期往往出现进步暂时停顿的现象,这就是练习曲线上所谓的“高原期”。3、练习布线的起伏现象。在各种技能形成的过程中,都可以看到成绩在某一水平上下小有波动的现象,这是因为影响技能进步的因素太多了。可归纳为两个方面:一是外部条件的变化;二是内部条件的变化。 动作技能练习曲线的个别差异:可从活动的速度和质量上概括为四种类型:1、速度较快,错误很少;2、速度较快,错误较多;3、速度较慢,错误较少;4、速度较慢,错误较多。 (六)动作技能形成的有利条件 简单应用: 举例说明动作技能形成的有利条件:(一)动作概念(或操作程序)的掌握;掌握动作概念是技能形成的关键。(二)示范;示范指教师通过动作和言语活动将动作技能演示给学

学习迁移考题及答案

学习迁移考题及答案集团文件发布号:(9816-UATWW-MWUB-WUNN-INNUL-DQQTY-

第六章学习迁移试题库 一、单项选择题 1、教学学习中审题技能的掌握可能会促进物理、化学等其他学科审题技 能的应用,这是一种(A)。 A正迁移 B负迁移 C顺向迁移 D水平迁移 2、根据迁移方向的不同进行划分,迁移分为(B)。 A正迁移和负迁移 B顺向迁移和逆向迁移 C水平迁移与垂直迁移 D一般迁移与具体迁移 3、乘法口诀的掌握可以广泛迁移于各种情境之中,这是一种(C)。 A水平迁移 B垂直迁移 C一般迁移 D具体迁移 4、学会写“木、石、口”,有助于写“森、磊、品”,这是一种(D)。 A正迁移 B负迁移 C顺向迁移 D具体迁移 5、地方方言影响学习普通话,这是一种(B)。 A正迁移 B负迁移 C顺向迁移 D具体迁移 6、从迁移的观点看“温故而知新”属于(A)。 A顺向正迁移 B顺向负迁移 C逆向正迁移 D逆向负迁移 7、关系转换理论是由(A)提出的动机理论。 A格式塔心理学家 B桑代克 C布鲁纳 D奥苏贝尔 8、相同的刺激与反应的联结,刺激相似,而且反应也相似时,两情境的 迁移才能发生,相同联结越多,迁移越大,这种迁移理论是(B)。 A形式训练说 B共同要素说 C经验类理论 D关系转换理论 9、一种学习中习得的一般原理、方法、策略和态度等迁移到另一种学习 中去的是(C)。

A垂直迁移 B水平迁移 C一般迁移 D具体迁移 10、美国心理学家嘉德提出的学习迁移理论称为(C)。 A认知结构说 B关系转换说 C经验类化说 D相同要素说 11、当学习迁移发生时,学习者原有的经验组成要素没有发生变化,属于 (B)。 A一般迁移 B特殊迁移 C水平迁移 D垂直迁移 12、心理学家陆钦提出的“量杯”实验证明了(D)。 A迁移现象 B学习现象 C一般迁移现象 D负迁移现象 13、桑代克和武德沃斯提出的迁移理论是(C)。 A经验泛化说 B认知结构说 C相同要素说 D关系转换说 14、格式塔派日认为迁移的决定因素是(D)。 A相同要素 B心灵的官能 C认知结构 D顿悟 15、形式训练迁移理论的代表人物是(C)。 A桑代克 B贾德 C沃尔夫 D奥苏贝尔 16、根据迁移的性质,可以把迁移分为(B)。 A水平迁移与垂直迁移 B正迁移和负迁移 C一般迁移与具体迁移 D顺向迁移和逆向迁移 17、下列属于影响迁移的个人因素有(A)。 A认知结构和态度 B智力与学习环境 C年龄与学习材料 D学习目标和态度 18、由于先前活动而形成的心理的一种特殊准备态度为(C)。 A迁移 B固着 C定式 D原型影响

社会变迁与体育

武汉体院非经济管理专业体育社会学课理论教案

第三章社会变迁与体育 第一节社会变迁概述 一、社会变迁的概念 社会变迁既泛指一切社会现象的变化,有特指社会结构的重大变化;既指社会变化的过程,又指社会变化的结果。比如婚姻制度的变化,中国社会结构的转型,中国的改革开放的启动,中国今天改革开放所取得的成就。 二、社会变迁的类型 1、根据社会变迁的规模,分为整体变迁与局部变迁。 整体变迁指整个社会结构体系的变化。比如,社会形态的更替,社会的各构成要素都发生明显的变化。局部变迁是指社会各个构成要素自身以及它们之间部分关系的变化,比如家庭模式、经济体制等方面的变化。整体变迁与局部变迁不是简单的包含与被包含关系,两者之间存在一定的张力。比如,文化变迁与社会变迁的关系,文化滞后理论。 2、根据社会变迁的方向,分为正向社会变迁与负向社会变迁。 也称作进步的社会变迁与倒退的社会变迁。本来,社会变迁是一个客观的外在过程,是中性的。但是,社会变迁毕竟与人的发展是紧密联系在一起的。因此,要以人的尺度来衡量社会变迁的方向,要“以人为本”作为社会变迁的目标。正向的社会变迁就是有利于人的发展的变迁,负面的社会变迁就是有悖于人的发展的变迁。事实上,正向的社会变迁与负向的社会变迁并不是截然分开的,这两种变迁往往同时存在。比如社会主义国家建立的高度集中的计划经济体制在一定程度上推动了国家的工业化,但是另外一个方面,却限制了经济的活力,造成了生产资料的短缺。 3、根据社会变迁的方式,可以分为渐进的社会变迁与激进(革命)的社会变迁。 渐进的社会变迁指社会结构的内部关系以及与外部环境的关系相对均衡。在这种情况下,社会变迁是有秩序的、缓慢而持续的,表现为量的变化与局部变迁的过程。激进的社会变迁指迅速飞跃式的社会变迁,常常表现为社会革命,它是在社会结构的相对均衡遭到彻底破坏、社会系统和社会结构需要重组时,发生的断裂性的社会变迁。不过,需要注意的是,单纯的政变并不一定发生激进的社会变迁,比如泰国政变。 4、从人对社会变迁的控制来看,分为自发的社会变迁与有计划的社会变迁 简单的说,自发的社会变迁指没有人干预的社会变迁,有计划的社会变迁指有人为干预的社会变迁。社会变迁在很大程度上是一个异己的过程,比如,基因技术的发展一方面给人类带了很多机遇,但是在深层次上却隐含着巨大的风险,因此人对社会变迁的参与是必须的。人能不能控制社会变迁,决于人对社会变迁规律的认识和掌握。在认识社会变迁客观规律的基础上,不断对社会变迁的方向、过程、速度、形式和条件实施有计划的指导和管理。真正的有计划的社会变迁只有在现代社会才能做到,随着当代社会科学的发展,比如经济学、法学、社会学和统计学等社会科学和自然科学的发展,使得人类能够在一定程度上从宏观和微观两个层面控制社会变迁。从宏观上来说,有计划的社会变迁就是使社会各系统保持协调发展,主要表现为结构上的协调,功能上的互补,从微观上来说,有计划的社会变迁要求个体、群体和组织要遵守宏观计划的要求,切实落实宏观计划的规划。有计划的社会变迁在当代已经成为世界各国发展的共识。 三、社会变迁的因素 1、环境与社会变迁 指自然环境。自然环境分为两类,一是原始自然环境,二是人化自然环境。自然环境为人类提供生存和发展的物质和资源,人类社会的发展依赖自然环境。原始自然环境和人化自然环境的状况都能导致人类社会的变迁。就原始自然环境来说,比如庞贝古城,当意大利的维苏威火山在公元79年猛烈爆发时,就消失了,又如古楼兰,专家因此认为楼兰古城的消亡与气候变化有着密切的关系,或者可以说是主要的原因之一。就人化自然环境来说,人化自然环境是人类社会发展过程中不可避免的现象,因为社会发展就是人类认识和改造自然的过程。但是当人化自然环境的程度违背了自然规律和人类的生产力发展水平所规定的限度时,人化自然画镜也会给人类社会的发展带来影响,比如当代的环境污染,全球变暖,都是人化自然

学习迁移在教学中的应用

学习迁移在教学中的应用 学习迁移即一种学习对另一种学习的影响,它广泛地存在于知识、技能、态度和行为规范的学习中,任何一种学习都要受到学习者已有知识经验、技能、态度等的影响,只要有学习,就有迁移,迁移是学习的继续和巩固,又是提高和深化学习的条件,学习与迁移不可分割(龚少英, 2001)。 现代心理学认为,学生的学习要经过知识的理解、记忆、迁移和运用四个阶段,理解、记忆和运用都离不开迁移,它们既是迁移的过程,又是迁移的结果和外现,所以,迁移是知识学习过程中普遍存在,且最为关键的一个重要环节(党志平, 2008)。 可以说学习迁移是我们教育追求的重要目标之一,任何知识学习的最终目的就是要用所学的知识解决所遇到的实际问题,这也是培养学生能力和素质的体现(党志平, 2008)。研究学习迁移有利于进一步挖掘学习的本质和内在规律,揭示能力和品德形成的内在机制,同时也为教学过程提供理论指导(耿会, 2015;龚少英, 2001)。学习迁移理论不但能锻炼学生知识联系能力,还能让教师在教学过程中充分的把握学生的学习进度,科学的调整教学计划(轩丙宇, 2018)。 1 学习迁移的特征 学习迁移是将所学的知识、技能、思维方法、原理、情感、态度、价值观等应用到新的情境活动中去;是解决新问题所体现出的一种素质是能够对新旧知识融会贯通,熟练运用思维方法在新的情境中分析问题、解决问题的能力;是拥有良好的心理准备状态,形成一种用新途径或新策略解决学科间相联相通的新问题的能力;是学生在学习、实践、活动、积累中所具备的解决问题的主观条件、才能和力量在不同情境下的相互影响、相互作用、相互补充,最终实现运用自如、举一反三、相得益彰的高效轻负的效果(季海涛, 凌和军, 2013)。 2 学习迁移的分类 2.1 根据是迁移的性质:正迁移和负迁移 正迁移又称“助长性迁移”,是指一种学习对另一种学习产生促进作用,负迁移又称“抑制性迁移”,是指一种学习对另一种学习产生干扰作用(耿会, 2015)。 一般来说,负迁移是暂时性的,经过有目的的练习可以消除,教学的重要任务之一就是促使学生之间的正迁移,避免或消除相互干扰(党志平, 2008)。 2.2 根据迁移发生的前后方向:顺向迁移和逆向迁移

第六章:学习心理习题

第六章学习心理习题 一、单项选择题。 1.提出观察学习概念的心理学家是()。 A班杜拉 B斯金纳 C华生 D皮亚杰 2.美国著名认知心理学家布鲁纳认为学习的实质在于:()。 A构造一种完形 B主动地形成认知结构 C形成刺激与反应间的联结 D对环境条件的认知 3.布鲁纳认为,学生掌握学科的基本结构的最好方法是()。 A建构法 B发现法 C顿悟法 D接受法 4.程序性教学实际上是()理论在实践中的运用。 A学习的操作性条件作用 B观察学习 C认知学习 D认知同化 5.在发现教学中,教师的角色是学生学习的()。 A促进者和引导者 B领导者和参谋 C管理者 D示范者 6.孩子哭闹着要买玩具,母亲对其不予理睬,这是()。 A正强化 B负强化 C惩罚 D消退 7.根据学习的定义,下列现象中属于学习的是()。 A 蜜蜂采蜜 B猴子攀爬 C病症导致的行为改变 D儿童模仿别人的行为

8.以下选项中,不属于经典性条件反射现象的是()。 A望梅止渴 B画饼充饥 C谈虎色变 D叶公好龙 9.以下不属于影响迁移的客观因素的是( )。 A教师指导 B学习材料特性 C媒体 D 认知结构 10.两种学习之间发生相互干扰、阻碍的迁移称为( )。 A.正迁移 B.横向迁移 C.负迁移 D.纵向迁移 11.如果迁移产生的效果是积极的,这种迁移则是( )。 A正迁移 B顺向迁移 C特殊迁移 D知识迁移 12.由于先前活动而形成的心理的一种特殊准备状态称为( )。 A迁移 B变式 C定势 D原型启发 13.由于处于同一概括水平的经验之间的相互影响而发生的迁移称为( )。A顺向迁移 B逆向迁移 C水平迁移 D垂直迁移 14.下列属于影响迁移的个人因素有( )。

王道俊《教育学》笔记和课后习题(含考研真题)详解-教育与社会发展【圣才出品】

第3章教育与社会发展 3.1复习笔记 一、教育的社会制约性 1.生产力对教育的制约 (1)生产力制约着教育事业发展的规模和速度; (2)生产力的发展水平制约着人才的培养规格和教育结构; (3)生产力的发展促进着教学内容、教学方法和教学组织形式的发展和改革。 2.社会经济政治制度对教育的制约 (1)社会经济政治制度的性质制约教育的性质; (2)社会经济政治制度制约教育的宗旨和目的; (3)社会经济政治制度制约教育的领导权; (4)社会经济政治制度制约受教育权; (5)社会经济政治制度制约教育内容、教育结构和教育管理体制。 总之,教育的性质、宗旨,领导权与受教育权,乃至于教育的内容、结构与管理体制都是受社会的经济政治制度所制约的。因此,在阶级社会里,“超阶级”或“超政治”的教育是根本不存在的。 3.文化对教育的制约与影响 文化,即一定社会民族的文化,它包括文化观念和行为模式两个方面。同政治、经济相比,文化对教育的制约与影响具有广泛性、基础性、深刻性与持久性。 (1)文化知识制约教育的内容与水平; (2)文化模式制约教育环境与教育模式;

(3)文化传统制约教育的传统与变革。 此外,人口因素、地域环境等因素对学校教育也产生一定的制约和影响。 二、教育的社会功能 1.教育的社会变迁功能 (1)含义 教育的社会变迁功能是指教育通过开发人的潜能、提高人的素质、促进人的社会化,引导人的社会实践,不仅使人能够适应社会的发展,而且能够推动社会的改革与发展。 (2)历史发展 教育的社会变迁功能随着社会的发展而变化: ①原始社会,教育主要起着劳动经验和生活规范的传承作用; ②古代社会,教育的文化功能、政治功能成为学校教育的核心功能,教育的经济功能一直不受重视。 ③至近代,教育的政治功能依旧受到重视,但经济功能被不断强化与彰显,文化功能则相对衰落。 ④现代社会,人们开始重视人的合理生存与人的全面发展。因此,社会进步越来越要求充分认识与全面发挥教育的多种社会变迁功能。 (3)表现 ①教育的经济功能 a.教育是使可能的劳动力转变为现实的劳动力的基本途径; b.现代教育是使知识形态的生产力转化为直接的生产力的一种重要途径; c.现代教育是提高劳动生产率的重要因素。

《第十一章学习迁移》教案

《第十一章学习迁移》教案

德沃斯(Thorndike,E.L. & Woodworth,R.S.,1901)提出的一种关于学习迁移的理论。心理学家桑代克和武 主要观点 从一种学习情境到另一种学习情境的迁移,只是由于这两个学习情境存在相同的成分,迁移是非常具体而有限的。 “共同元素”实质就是两次学习在刺激反应联结上的相同要素。 德沃斯的实验,引起了普遍的重视。 经典实验:形状知觉 结论:迁移产生的原因是练习课题与迁移课题之间具有共同的要素。练习任务与测验任务越接近,测验任务的成绩越好。 学习上因有共同成分,可产生积极性的迁移作用,但学习的情况并不都是如此。在学习的经验中,常有两种可能的干扰:一为前摄抑制(proactive inhibition),即原先的学习,对于后来的学习起干扰作用;另一为后摄抑制(retroactive inhibition ),即后学的材料对于先前学习的干扰作用。而且两种材料相似成分愈多,则干扰的影响愈烈。这可说是共同成分说的限制。 3、经验泛化说(Theory of experience generalization); 经验泛化说(Theory of experience generalization)是美国心理学家贾德(Judd,C.H.)提出的学习迁移理论。桑代克的理论,把注意力集中放在先期与后期的学习活动所共有的那些因素上。贾德的理论则不同,贾德认为在先期学习A中获得的东西,之所以能迁移到后期学习B中,是因为在学习A时获得了一般原理,这种原理可以部分或全部运用于A、B之中。根据这一理论,两个学习活动之间存在的共同要素,只是产生迁移的必要前提,而产生迁移的关键是学习者在两种活动或经验中通过概括产生泛化的共同原理。这就是泛化或概括化理论。这个理论认为,只要一个人对他的经验

社会文化变迁与民族教育革新的基础理念——西部大开发背景的视角

社会文化变迁与民族教育革新的基础理念—— 西部大开发背景的视角 摘要:西部大开发带来民族地区史无前例的社会文化变迁使民族教育发展面临重大机遇和挑战。民族教育的革新需要强化创新的观念革新发展模式正确对待民族的文化传统和传统文化。关键词:西部大开发;社会文化变迁;民族教育;革新;基础理念“十五”期间我们承担了全国教育科学规划国家重点课题《西部大开发与中国少数民族教育改革和发展研究》。20__年开始我们与各界尤其是西部省区的数十位同仁合作在较广泛的实地调查基础上进行了初步的跨学科分析。本文谈谈我们前期研究中形成的一些认识尤其是社会文化变迁与民族教育革新的基础理念以抛砖引玉。一西部大开发使民族教育发展面临史无前例的重大机遇和挑战。西部地区不仅聚居着50余个少数民族其人口占全国少数民族人口总数的78%而且包括了5大民族自治区、 7个多民族省份、20个自治州和49个自治县。显然西部大开发也是民族地区和少数民族的大开发。今天的西部大开发是处在知识经济初见端倪科教兴国、人才强国战略日益深入人心的时代教育显著地处于全局性、基础性和战略性的地位。国家的西部大开发战略本身就包括了教育发展的内容。西部地区最稀缺的资源是知识资源东西部地区最大的差距是技术的差距、知识的差距、教育的差距和信息

的差距。因此大力发展教育事业全面提高西部地区广大劳动者的素质加快培养适应西部大开发需要的各级各类人才是西部大开发的根本是西部大开发成功的保障。因此当前是民族教育改革和发展前所未有的重要机遇期。同时也必须看到西部大开发也使民族教育的改革和发展面临诸多重大的挑战。一方面民族教育发展的外部条件较为困难。西部民族地区不仅自然条件较为复杂、艰难而且社会经济发育程度较低。另一方面民族教育发展的内部条件也不容乐观。观念、师资、经费尤其是计划经济体制下形成、长期困扰我国民族教育发展的体制问题和发展模式也日益凸显。二民族教育如何把握上述机遇、成功地应对上述挑战呢?关注文化(这里指广义的文化)是民族教育研究的鲜明特色。西部民族地区教育的发展问题不仅仅是一个经济问题更深层次地说也是文化变迁问题。这里我们从文化变迁的角度认识西部大开发的特点。这次西部开发有许多特点我们认为以下方面特别值得注意。第一从内容来看这次西部开发是历史上历次西部开发根本不能比拟的。这次西部开发中为再造山川秀美的西部为保证各民族子孙后代的幸福就必须改善生态环境保护资源;为适应当代经济发展的一体化就必须对经济结构实施战略性调整形成特色产业;现代文明的引入和普及各民族千百年来的生计方式发生显著变化;社会主义市场经济的建立和完善将进一步促进民族地区经济、政治和文化的革新。对于民族地区这表现在国家民委根据西部大开发战略而倡议发起的“兴边富民行动”之中。它围绕三个方面开展工

学习迁移考题及答案

第六章学习迁移试题库 一、单项选择题 1、教学学习中审题技能的掌握可能会促进物理、化学等其他学科审题技能的应用,这是一种(A)。 A 正迁移 B 负迁移 C 顺向迁移 D 水平迁移 2、根据迁移方向的不同进行划分,迁移分为(B)。 A 正迁移和负迁移 B 顺向迁移和逆向迁移 C 水平迁移与垂直迁移 D 一般迁移与具体迁移 3、乘法口诀的掌握可以广泛迁移于各种情境之中,这是一种(C)。 A 水平迁移 B 垂直迁移 C 一般迁移 D 具体迁移 4、学会写“木、石、口”,有助于写“森、磊、品”,这是一种(D)。 A 正迁移 B 负迁移 C 顺向迁移 D 具体迁移 5、地方方言影响学习普通话,这是一种(B)。 A 正迁移 B 负迁移 C 顺向迁移 D 具体迁移 6、从迁移的观点看“温故而知新”属于(A)。 A 顺向正迁移 B 顺向负迁移 C 逆向正迁移 D 逆向负迁移 7、关系转换理论是由(A)提出的动机理论。 A 格式塔心理学家 B 桑代克 C 布鲁纳 D 奥苏贝尔 8、相同的刺激与反应的联结,刺激相似,而且反应也相似时,两情境的迁移才能发生,相同联结越多,迁移越大,这种迁移理论是(B)。 A 形式训练说 B 共同要素说 C 经验类理论 D 关系转换理论 9、一种学习中习得的一般原理、方法、策略和态度等迁移到另一种学习中去的是(C)。 A 垂直迁移 B 水平迁移 C 一般迁移 D 具体迁移 10、美国心理学家嘉德提出的学习迁移理论称为(C)。 A 认知结构说 B 关系转换说 C 经验类化说 D 相同要素说 11、当学习迁移发生时,学习者原有的经验组成要素没有发生变化,属于(B)。 A 一般迁移 B 特殊迁移 C 水平迁移 D 垂直迁移 12、心理学家陆钦提出的“量杯”实验证明了(D)。 A 迁移现象 B 学习现象 C 一般迁移现象 D 负迁移现象 13、桑代克和武德沃斯提出的迁移理论是(C)。 A 经验泛化说 B 认知结构说 C 相同要素说 D 关系转换说 14、格式塔派日认为迁移的决定因素是(D)。 A 相同要素 B 心灵的官能 C 认知结构 D 顿悟 15、形式训练迁移理论的代表人物是(C)。 A 桑代克 B 贾德 C 沃尔夫 D 奥苏贝尔 16、根据迁移的性质,可以把迁移分为(B)。 A 水平迁移与垂直迁移 B 正迁移和负迁移 C 一般迁移与具体迁移 D 顺向迁移和逆向迁移 17、下列属于影响迁移的个人因素有(A)。 A 认知结构和态度 B 智力与学习环境 C 年龄与学习材料 D 学习目标和态度 18、由于先前活动而形成的心理的一种特殊准备态度为(C)。 A 迁移 B 固着 C 定式 D 原型影响 19、由具有较高概括水平的上位经验与具有较低概括水平的下位经验之间的相互影响而生的迁移称为(D)。 A 顺向迁移 B 逆向迁移 C 水平迁移 D 垂直迁移 20、下列不属于影响迁移的客观因素的是(C)。

第七章 第二节 国际资本流动的利益和风险

第二节国际资本流动的利益和风险 国际资本流动在性质上是生产要素的国际化配置和配合。国际资本流动的大规模发展对资本输出国、资本输入国以及对国际经济势必产生深远的影响。一般地讲,这种影响是双重的,即有积极的作用,也不乏消极影响。 一、国际资本流动的利益 在分析国际资本流动的利益时,我们分别从长期资本流动对资本输出国、资本输入国的影响以及短期资本流动对国内、国际经济的影响来谈。 1.长期资本流动的利益 长期资本流动的期限长、数量大,对经济的长期稳定和持续发展影响较大,并且对资本输出国和资本输入国经济的影响各有不同。 长期资本流动对资本输出国经济的积极作用表现在:(1)提高资本的边际收益。一般来说,资本输出国的资本相对过剩,资本的边际效益递减,预期投资利润率较低,同此,将其输出到资本短缺或投资机会更多的国家或地区能够提高资本的边际效益;(2)有利于占领世界市场,促进商品和劳务的输出。长期资本流动不是简单的货币资本流动,而是包括货币资本、技术设备和生产管理经验在内的总体转移,因此,这级助于扩大资本输出国的出口规模,并推动国内的发展;(3)有助于克服贸易保护壁垒,在贸易保护主义严重存在的今天,向国外输出长期资本尤其是直接投资,是绕过壁垒的有效途径;(4)有利于提高国际地位。国际地位取决于经济实力和经济影响力。向国外输出长期资本,一方面可以增强输出国的经济实力,且巨额利润汇回,对扩大资本积累及改善国际收支等起重要作用;另一方面可直接影响输入国内经济、政治,甚至整个社会生产,从而有利于提高输出国的国际地位。 长期资本流动对输入国经济的积极影响表现在:(1)缓和资金短缺的困难。资本输入国尤其是许多发展中国家往往资金短缺,通过输入外国资本,在短期内获得大量资金,可以解决资金供不应求的矛盾,并能加大资金投入、促进经济发展;(2)提高工业化水平。长期资本流动在一定程度上能推动资本输入国的产业结构升级与调整,改善生产技术设备的落后状况;(3)扩大产品出口数量,提高产品的国际竞争能力。(4)增加了新兴工业部门和第三产业部门的就业机会,缓解就业压力。 2.短期资本流动的利益 在短期资本流动中,贸易性流动和金融性资本流动比较稳定,并且其影响相对有利。而以投机性资本为主的国际贸易则最受国际金融界和各国货币当局所关注,原因在于其流动规模巨大,变化速度快,对一国乃至世界经济金融造成的影响深刻而复杂。因此,在分析短期资本流动的经济影响时,我们更侧重分析短期投机资本或国际游资的影响。 短期资本流动对国内经济的有利影响表现在:(1)对国际收支的影响。短期资本流动能调节暂时性国际的收支平衡。当一国国际收支出现暂时性逆差时,该国货币汇率会下跌,若

浅谈社会变迁对教育的影响(以西南联大为例)

本科学生毕业论文(设计) 题目浅谈社会变迁对教育的影响(以西南联大为例)姓名 学号 院、系教师教育管理学院 专业11农大双学位班 指导教师(职称/学历) 2013年01 月23 日 云南师范大学教务处制

浅谈社会变迁对教育的影响(以西南联大为例) 摘要:1937年7月7日,日本帝国主义在我国北京挑起卢沟桥事变,抗日战争全面爆发,伴随日本侵略者的入侵,我国刚刚起步不久的现代教育遭受沉重打击,全国各地多所学府被迫搬迁。然而社会的变迁并没有阻碍我国教育事业的发展,在这期间反而涌现出一大批饱学之士,为我国及人类社会的发展做出了重大的贡献。西南联大就是其中尤为突出的代表。 1937年7月7日发生“七七事变”,日军攻占北平、天津,抗日战争全面爆发。11月1日,北京大学、清华大学、南开大学在湖南长沙岳麓山下组成了西南联大的前身国立长沙临时大学,开学一个月后,随后由于日军沿长江一线步步紧逼,师生们于是在1938年2月搬迁入云南,同年4月2日,正式更名为国立西南联合大学。在1938年4月2日-1946年5月4日之间西南联大师生中培养出了8位两弹一星元勋(赵九章、邓稼先、郭永怀、朱光亚、王希季、陈芳允、屠守锷、杨嘉墀),约171位中国科学院或中国工程院院士(教师79人,学生92人),两位诺贝尔奖得主(杨振宁、李政道)。那么为何在短暂的八年时光,社会的巨大变迁非但没有抹杀我国的教育事业,反而激励出了我国无限的人才,为中华名族的复兴储备了如此多的人才呢? 关键字:社会社会变迁教育教育体制西南联大抗日战争 1937年7月7日,日本帝国主义在我国北京挑起卢沟桥事变,抗日战争全面爆发,伴随日本侵略者的入侵,我国刚刚起步不久的现代教育遭受沉重打击,全国各地多所学府被迫搬迁。然而社会的变迁并没有阻碍我国教育事业的发展,在这期间反而涌现出一大批饱学之士,为我国及人类社会的发展做出了重大的贡献。西南联大就是其中尤为突出的代表。 1937年7月7日发生“七七事变”,日军攻占北平、天津,抗日战争全面爆发。11月1日,北京大学、清华大学、南开大学在湖南长沙岳麓山下组成了西南联大的前身国立长沙临时大学,开学一个月后,随后由于日军沿长江一线步步紧逼,师生们于是在1938年2月搬迁入云南,同年4月2日,正式更名为国立西南联合大学。在1938年4月2日-1946年5月4日之间西南联大师生中培养出了8位两弹一星元勋(赵九章、邓稼先、郭永怀、朱光亚、王希季、陈芳允、屠守锷、杨嘉墀),约171位中国科学院或中国工程院院士(教师79人,学生92人),两位诺贝尔奖得主(杨振宁、李政道)。那么为何在短暂的八年时光,社会的巨大变迁非但没有抹杀我国的教育事业,反而激励出了我国无限的人才,为中华名族的复兴储备了如此多的人才呢? 首先,我认为社会的巨大变迁势必带来观念的转变、思想的变化,而在新思想,新观念之下也必将催化出新动力推进教育事业发展。

第五章 学习的迁移与教育

第五章学习的迁移与教育 第一节概述 一、迁移的概念及种类 二、迁移的作用 第二节学习迁移理论 一、早期的迁移理论 二、现代的迁移理论 第三节学习迁移与教学 一、影响迁移的主要因素 二、促进迁移的教学 第五章学习的迁移 第一节概述 一、迁移的概念及种类。 (一)学习迁移的概述 一般地说,学习迁移是一种学习对另一种学习的影响,它广泛地存在于知识、技能、态度和行为规范的学习中。学习迁移不仅表现为先前的学习对后来学习的影响,而且表现为后继学习对先前学习的影响。这种影响可以是积极的也可以是消极的。概括来说学习迁移就是一种学习对另一种学习的影响。迁移是学习的普遍特征,我们经常说的“举一反三”、“触类旁通”等都体现了迁移的涵义。 第二节学习迁移理论 二、现代的迁移理论。 当代认知心理学家都十分重视认知结构在迁移中的重要作用,其中奥苏伯尔的认知结构迁移理论代表了从认知观点来解释迁移的一种主流倾向。 (一)奥苏伯尔的认知结构理论 所谓认知结构就是学生头脑里的知识结构,是学生头脑中全部观念的内容和组织,是影响学习和迁移的重要因素。在奥苏伯尔看来,一切有意义的学习都是在原有学习的基础上产生的。不受原有认知结构影响的有意义学习是不存在的。

也就是说,一切有意义学习必然包括迁移。在有意义学习中,学生原有认知结构的特征始终是影响新的学习与保持的关键因素。奥苏伯尔提出影响学习迁移的三个认知结构变量:①原有知识的可利用性。当学习新知识时,如果在学生原有知识结构中能够找到适当的可以用于同化新知识的原有知识(包括概念、命题及具体例子等),那么该学生的认知结构就具有可利用性。②原有知识的巩固性。原有的知识越巩固,越易促进新的学习。利用及时纠正、反馈、过度学习等方法,可以增强原有知识观念的稳定性。③新旧知识的可辨别性。新旧知识的可辨别性是指利用旧知识同化新知识时,学习者意识到新知识与旧知识之间的相同与差别。可辨别性是建立在原有知识的巩固性基础之上的。 第三节学习迁移与教学 一、影响迁移的主要因素: 学习迁移受到多种因素的影响,可以概括为主观因素和客观因素两大方面。 1、主观因素 第一,学习者的智力水平。教学实践表明,具有较高智力水平的学习者能较快地发现两种学习情境之间的相同要素以及要素之间的相互关系,善于总结概括学习内容的原理原则,能够较好地将先前习得的学习策略运用到新的学习情境中。 第二,学习者的认知结构特点。认知结构是指个人在以前学习和感知客观世界的基础上形成的,由知识经验组成的心理结构。学习者原有认知结构的质量,如知识经验的丰富性、准确性和组织性等,都对新的学习产生影响。 第三,学习者的心理定势。心理定势是由先前的学习所形成的一种特殊的心理准备状态。定势可以引起积极的迁移,也可以造成消极的迁移。关键是学学习者能否具体地分析当前的学习情境,从中辨别出哪些是可以利用已有知识和策略,哪些需要打破已经形成的定势灵活处理。 2、客观因素 第一,学习材料的性质。包括学习材料的组织结构、逻辑层次以及实用价值等。那些包含的正确的原理、规则,具有良好的组织结构的知识以及能够引导学习者进行概括总结的学习材料有利于学习者在学习新知识或解决新问题时的积极迁移。

相关文档
相关文档 最新文档