文档库 最新最全的文档下载
当前位置:文档库 › An Empirical Study of Efficiency and Accuracy of Probabilistic Graphical Models

An Empirical Study of Efficiency and Accuracy of Probabilistic Graphical Models

An Empirical Study of Efficiency and Accuracy of Probabilistic Graphical Models
An Empirical Study of Efficiency and Accuracy of Probabilistic Graphical Models

An Empirical Study of Ef?ciency and Accuracy of Probabilistic Graphical

Models

Jens Dalgaard Nielsen and Manfred Jaeger

Institut for Datalogi,Aalborg Universitet

Frederik Bajers Vej7,9220Aalborg?,Denmark

{dalgaard,jaeger}@cs.aau.dk

Abstract

In this paper we compare Na¨?ve Bayes(NB)models,general Bayes Net(BN)models and Proba-bilistic Decision Graph(PDG)models w.r.t.accuracy and ef?ciency.As the basis for our analysis we use graphs of size vs.likelihood that show the theoretical capabilities of the models.We also measure accuracy and ef?ciency empirically by running exact inference algorithms on randomly generated queries.Our analysis supports previous results by showing good accuracy for NB mod-els compared to both BN and PDG models.However,our results also show that the advantage of the low complexity inference provided by NB models is not as signi?cant as assessed in a previous study.

1Introduction

Probabilistic graphical models(PGMs)have been applied extensively in machine learning and data mining research,and many studies have been dedi-cated to the development of algorithms for learning PGMs from data.Automatically learned PGMs are typically used for inference,and therefore ef?ciency and accuracy of the PGM w.r.t.inference are of in-terest when evaluating a learned model. Among some of the most commonly used PGMs are the general Bayesian Network model(BN)and the Na¨?ve Bayes model(NB).The BN model ef-?ciently represents a joint probability distribution over a domain of discrete random variables by a fac-torization into independent local distributions.The NB model contains a number of components de?ned by an unobserved latent variable and models each discrete random variable as independent of all other variables within each component.Exact inference has linear time complexity in the size of the model when using NB models.

For the general BN model both exact and approx-imate inference are NP-hard(Cooper,1987;Dagum and Luby,1993).

Model-selection algorithms for learning PGMs typically use some conventional score-metric, searching for a model that optimises the metric.Pe-nalised likelihood metrics like BIC,AIC and MDL are weighted sums of model accuracy and size. When the learned model is to be used for general in-ference,including a measure for inference complex-ity into the metric is relevant.Neither BIC,AIC nor MDL explicitly takes inference complexity into ac-count when assessing a given model.Recently,sev-eral authors have independently emphasised the im-portance of considering inference complexity when applying learning in a real domain. Beygelzimer and Rish(2003)investigate the tradeoff between model accuracy and ef?ciency. They only consider BN models for a given target distribution(in a learning setting,the target distri-bution is the empirical distribution de?ned by the data;more generally,the target distribution could be any distribution one wants to represent).For BNs treewidth is an adequate ef?ciency measure(de?ned as k?1,where k is the size of the largest clique in an optimal junction tree).Tradeoff curves that plot treewidth against the best possible accuracy achiev-able with a given treewidth are introduced.These tradeoff curves can be used to investigate the ap-proximability of a target distribution.

As an example for a distribution with poor ap-proximability in this sense,Beygelzimer and Rish (2003)mention the parity distribution,which rep-

resents the parity function on n binary inputs.An accurate representation of this distribution requires a BN of treewidth n?1,and any BN with a smaller treewidth can approximate the parity distribution only as well as the empty network.

The non-approximability of the parity distribu-tion(and hence the impossibility of accurate models supporting ef?cient inference)only holds under the restriction to BN models with nodes corresponding exactly to the n input bits.The use of other PGMs, or the use of latent variables in a BN representation, can still lead to accurate and computationally ef?-cient representations of the parity distribution. Motivated by some distribution’s refusal to be ef-?ciently approximated by BN models,the PGM lan-guage of probabilistic decision graph(PDG)mod-els was developed(Jaeger,2004).In particular,the parity distribution is representable by a PDG that has inference complexity linear in n.In a recent study an empirical analysis of the approximations offered by BN and PDG models learned from real-world data was conducted(Jaeger et al.,2006).Sim-ilar to the tradeoff curves of(Beygelzimer and Rish, 2003),Jaeger et al.(2006)used graphs showing likelihood of data vs.size of the model for the anal-ysis of accuracy https://www.wendangku.net/doc/5d9079679.html,plexity.The comparison of PDGs vs.BNs did not produce a clear winner,and the main lesson was that the models offer surpris-ingly similar tradeoffs when learned from real data. Also motivated by considerations of model ac-curacy and ef?ciency,Lowd and Domingos(2005) in a recent study compared NB and BN models. NB models can potentially offer accuracy-ef?ciency tradeoff behaviors that for some distributions differ from those provided by standard BN representation (although NBs do not include the latent class mod-els that allow an ef?cient representation of the par-ity distribution).Lowd and Domingos(2005)deter-mine inference complexity empirically by measur-ing inference times on randomly generated queries. The inferences are computed exactly for NB mod-els,but for BN models approximate methods were used(Gibbs sampling and loopy belief propaga-tion).Lowd and Domingos(2005)conclude that NB models offer approximations that are as accu-rate as those offered by BN models,but in terms of inference complexity the NB models are reported to be orders of magnitude faster than BN models.

Our present paper extend these previous works in two ways.First,we conduct a comparative analysis of accuracy vs.ef?ciency tradeoffs for three type of PGMs:BN,NB and PDG models.Our results show that in spite of theoretical differences BN, NB and PDG models perform surprisingly similar when learned from real data,and no single model is consistently superior.Second,we investigate the theoretical and empirical ef?ciency of exact infer-ence for all models.This analysis somewhat differs from the analysis in(Lowd and Domingos,2005), where only approximate inference was considered for BNs.The latter approach can lead to somewhat unfavorable results for BNs,because approximate inference can be much slower than exact inference for models still amenable to exact inference.Our re-sults show that while NB models are still very com-petitive w.r.t.accuracy,exact inference in BN mod-els is often tractable and differences in empirically measured run-times are typically not signi?cant.

2Probabilistic Graphical Models

In this section we introduce the three types of mod-els that we will use in our experiments;the gen-eral Bayesian Network(BN),the Na¨?ve Bayesian Network(NB)and the Probabilistic Decision Graph (PDG).

2.1Bayesian Network Models

BNs(Jensen,2001;Pearl,1988)are a class of probabilistic graphical models that represent a joint probability distribution over a domain X of discrete random variables through a factorization of inde-pendent local distributions or factors.The structure of a BN is a directed acyclic graph(DAG)G= (V,E)of nodes V and directed edges E.Each ran-dom variable X i∈X is represented by a node V i∈V,and the factorization X i∈X P(X i|pa G(X i)) (where pa G(X i)is the set of random variables rep-resented by parents of node V i in DAG G)de?nes the full joint probability distribution P(X)repre-sented by the BN model.By size of a BN we under-stand the size of the representation,i.e.the number of independent parameters.Exact inference is usu-ally performed by?rst constructing a junction tree from the BN.Inference is then solvable in time lin-ear in the size of the junction tree(Lauritzen and

Spiegelhalter,1988),which may be exponential in the size of the BN from which it was constructed.

2.2Na¨?ve Bayes Models

The NB model represents a joint probability distri-bution over a domain X of discrete random vari-ables by introducing an unobserved,latent variable C.Each state of C is referred to as a component, and conditioned on C,each variable X i∈X is as-sumed to be independent of all other variables in X. This yields the simple factorization:P(X,C)= P(C) X i∈X P(X i|C).Exact inference is com-putable in time linear in the representation size of the NB model.

2.3Probabilistic Decision Graph Models PDGs are a fairly new language for probabilis-tic graphical modeling(Jaeger,2004;Bozga and Maler,1999).As BNs and NBs,PDGs represent a joint probability distribution over a domain of dis-crete random variables X through a factorization of local distributions.However,the structure of the factorization de?ned by a PDG is not based on a variable level independence model but on a certain kind of context speci?c independencies among the variables.A PDG can be seen as a two-layer struc-ture,1)a forest of tree-structures over all mem-bers of X,and2)a set of rooted DAG structures over parameter nodes,each holding a local distri-bution over one random variable.Figure1(a)shows a forest F of tree-structures over binary variables X={X0,X1...,X5},and?gure1(b)shows an example of a PDG structure based on F.For a com-plete semantics of the PDG model and algorithms for exact inference with linear complexity in the size of the model,the reader is referred to(Jaeger,2004).

(a)

(b)

Figure1:Example PDG.Sub?gure(a)shows the a forest-structure F over binary5variables,and(b) shows a full PDG structure based on F.3Elements of the Analysis

The goal of our analysis is to investigate the qual-ity of PGMs learned from real data w.r.t.accu-racy and inference ef?ciency.The appropriate no-tion of accuracy depends on the intended tasks for the model.Following(Jaeger et al.,2006;Lowd and Domingos,2005;Beygelzimer and Rish,2003) we use log-likelihood of the model given the data (L(M,D))as a“global”measure of accuracy.Log-likelihood score is essentially equivalent to cross-entropy(CE)between the empirical distribution P D and the distribution P M represented in model M:

CE(P D,P M)=?H(P D)?

1

d i[Q i],d i[E i]ar

e the instantiations o

f Q,respec-tively E in d i.The empirical complexity is sim-ply the average execution time for random queries. The empirical accuracy is measured by averagin

g log(P M(Q=d i[Q i]|E=d i[E i]))over the ran-dom https://www.wendangku.net/doc/5d9079679.html,pared to the global accuracy mea-sure L(M,D),this can be understood as a measure for“local”accuracy,i.e.restricted to speci?c con-ditional and marginal distributions of P M.

4Learning

In this section we brie?y describe the algorithms we use for learning each type of PGM from data. For our analysis we need to learn a range of models with different ef?ciency vs.accuracy tradeoffs.For score based learning a generalλ-score will be used (Jaeger et al.,2006):

Sλ(M,D)=λ·L(M,D)?(1?λ)|M|,(2) where0<λ<1,and|M|is the size of model M.Equation(2)is a general score metric,as it be-comes equivalent to common metrics as BIC,AIC and MDL for speci?c settings ofλ1.By optimizing scores with different settings ofλwe get a range of models offering different tradeoffs between size and accuracy.Suitable ranges ofλ-values were deter-mined experimentally for each type of model using score score-based learning(BNs and PDGs).

4.1Learning Bayesian Networks

We use the KES algorithm for learning BN mod-els(Nielsen et al.,2003).KES performs model-selection in the space of equivalence classes of BN structures using a semi-greedy heuristic.A param-eter k∈[0...1]controls the level of greediness, where a setting of0is maximally stochastic and1is maximally greedy.

Theλ-score used in the KES algorithm uses the size of the BN as the size parameter|M|,not the size of its junction tree.Clearly,it would be desir-able to score BNs directly by the size of their junc-tion trees,but this appears computationally infeasi-ble.Thus,our SL-curves for BNs do not show for a given accuracy level the smallest possible size of a junction tree achieving that accuracy,but the size of

2+log|D|corresponds to BIC

a junction tree we were able to?nd using existing

state-of-the-art learning and triangulation methods.

4.2Learning Na¨?ve Bayes Net Models

For learning NB models we have implemented a

version of the NBE algorithm(Lowd and Domin-

gos,2005)for learning NB models.As the structure

of NB models is?xed,the task reduces to learning

the number of states in the latent variable C,and

the parameters of the model.Learning in the pres-

ence of the latent components is done by standard

Expectation Maximization(EM)approach,follow-

ing(Lowd and Domingos,2005;Karciauskas et al.,

2004).Learning a range of models is done by incre-

mentally increasing the number of states of C,and

outputting the model learned for each cardinality.In

this way we obtain a range of models that offer dif-

ferent complexity vs.accuracy tradeoffs.Note that

no structure-score like(2)is required as the struc-

ture is?xed.

4.3Learning Probabilistic Decision Graphs

Learning of PDGs is done using the model-selection

algorithm presented in(Jaeger et al.,2006).Using

local transformations as search operators,the algo-

rithm performs a search for a structure that opti-

misesλ-score.

5Experiments

We have produced SL-curves and empirically mea-

sured inference times and accuracy,on5differ-

ent datasets(see table1)from the UCI repository2.

These?ve datasets are a representative sample of

the50datasets used in the extensive study by Lowd

and Domingos(2005).

We used the same versions of the datasets as used

by Lowd and Domingos(2005).Speci?cally,the

partitioning into training(90%)and test(10%)sets

was the same,continuous variables were discretized

into?ve equal frequency bins,and missing values

were interpreted as special states of the variables.

For measuring the empirical ef?ciency and accu-

racy,we generated random queries as described in

3.2consisting of1to5query variables Q and0to

5evidence variables E.

Table1:Datasets used for experiments. Dataset

Poisonous Mushroom

7251882868 Pageblocks

93758419 Image Segmentation

3https://www.wendangku.net/doc/5d9079679.html, comparing exact inference in NB to approximate methods in BNs.We do not observe this tendency when considering exact inference for both BNs and NBs.Our results show that we can learn BNs that are within reach of exact inference methods,and that the theoretical inference complexity as mea-sured by effective model size mostly is similar for a given accuracy level for all three PGM languages. Effective model size measures actual inference time only up to a linear factor.In order to de-termine whether there possibly are huge(orders of magnitude)differences in these linear factors,we measure the actual inference time on our random queries.The left column of table3shows the av-erage inference time for1000random queries with 4query and3evidence variables(results for other numbers of query and evidence variables were very similar).We observe that this empirical complex-ity behaves almost indistinguishably for BN and NB models.This is not surprising,since both models use the Hugin inference engine4.The results do show,however,that the different structures of the junction trees for BN and NB models do not have a signi?cant impact on runtime.The linear factor for PDG inference in these experiments is about4 times larger than that for BN/NB inference5.Seeing that we use a proof-of-concept prototype Java im-plementation for PDGs,and the commercial Hugin inference engine for BNs and NBs,this indicates that PDGs are competitive in practice,not only ac-cording to theoretical complexity analyses.

The right column in table3shows the empirical (local)accuracy obtained for1000random queries with4query and3evidence variables.Overall,the results are consistent with the global accuracy on the test data(table2,right column).The differences observed for the different PGMs in table2can also be seen in table3,though the discrepancies tend

Table 2:SL-curves for train-sets (left column)and test-sets (right column).The crosses ×marks the NB models reported by Lowd and Domingos (2005).?H (D )(minus data-entropy)is plotted as a horizontal line.

-30

-28-26-24-22-20-18-16-14-12 0

5000

10000 15000 20000

25000

30000

-30

-28-26-24-22-20-18-16

-14-12L o g -L i k e l i h o o d

Effective model size

Poisonous Mushroom - Training

-30

-28-26-24-22-20-18-16-14-12 0

5000

10000 15000 20000

25000

30000

-30

-28-26-24-22-20-18-16-14-12L o g -L i k e l i h o o d

Effective model size

Poisonous Mushroom - Test

-19

-18.5-18-17.5-17-16.5-16-15.5-15-14.5 0

5000

10000 15000 20000 25000 30000-19

-18.5

-18-17.5-17-16.5-16-15.5

-15-14.5L o g -L i k e l i h o o d

Effective model size King, Rook vs. King - Training

-19.5

-19-18.5-18-17.5-17-16.5-16 0

5000

10000 15000 20000 25000 30000-19.5

-19

-18.5-18-17.5-17-16.5-16L o g -L i k e l i h o o d

Effective model size

King, Rook vs. King - Test

-19

-18-17-16-15-14-13-12-11-10 0

5000

10000 15000 20000

-19-18-17-16-15-14-13-12

-11-10L o g -L i k e l i h o o d

Effective model size Pageblocks - Training

-19

-18-17-16-15-14-13-12-11 0 5000

10000 15000 20000

-19-18

-17-16-15-14-13-12-11L o g -L i k e l i h o o d

Effective model size Pageblocks - Test

-12

-11.5-11-10.5-10-9.5

-9 0 2000

4000 6000 8000 10000-12

-11.5-11-10.5-10-9.5

-9L o g -L i k e l i h o o d

Effective model size

Abalone - Training

-11.6

-11.4-11.2-11-10.8-10.6-10.4 0 2000

4000 6000 8000 10000

-11.6-11.4-11.2-11-10.8-10.6-10.4L o g -L i k e l i h o o d

Effective model size Abalone - Test

-26

-24-22-20-18-16-14-12-10 0

5000

10000 15000 20000 25000

30000

-26-24-22-20-18-16-14

-12-10L o g -L i k e l i h o o d

Effective model size Image Segmentation - Training

BN NB

PDG

-H(D)

-26

-25-24-23-22-21-20-19-18-17 0 5000

10000 15000 20000 25000

30000

-26-25

-24-23-22-21-20-19-18-17L o g -L i k e l i h o o d

Effective model size

Image Segmentation - Test

BN

NB

PDG

Table 3:Empirical ef?ciency (left column)and accuracy (right column)for 4query and 3evidence variables.

0 1 2 3 4 5 6 7 8 9 0

5000

10000 15000 20000

25000

30000

0 1 2 3 4 5 6 7 8 9E m p i r i c a l c o m p l e x i t y (m s )

Effective model size

Poisonous Mushroom

-5.5

-5-4.5-4-3.5-3-2.5 0 5000

10000 15000 20000 25000

30000

-5.5-5-4.5-4-3.5-3-2.5E m p i r i c a l A c c u r a c y (l o g -l i k e l i h o o d )

Effective model size Poisonous Mushroom

0.5 1 1.5 2 2.5 3 0 5000

10000 15000 20000 25000 30000

0 0.5 1 1.5 2 2.5 3E m p i r i c a l c o m p l e x i t y (m s )

Effective model size

King, Rook vs. King

-11

-10.5-10-9.5-9-8.5-8 0 5000

10000 15000 20000 25000 30000-11

-10.5

-10-9.5-9-8.5-8E m p i r i c a l A c c u r a c y (l o g -l i k e l i h o o d )

Effective model size

King, Rook vs. King

1 2 3 4 5 6 0 5000

10000 15000 20000

25000

0 1 2 3 4 5 6

E m p i r i c a l c o m p l e x i t y (m s )

Effective model size

Pageblocks

-5.6

-5.4-5.2-5-4.8-4.6-4.4-4.2-4 0

5000

10000 15000 20000

25000

-5.6-5.4-5.2-5-4.8-4.6-4.4-4.2-4E m p i r i c a l A c c u r a c y (l o g -l i k e l i h o o d )

Effective model size

Pageblocks

0.5 1 1.5 2 2.5 3 0

5000

10000

0.5 1 1.5 2 2.5 3

E m p i r i c a l c o m p l e x i t y (m s )

Effective model size Abalone

-4.6

-4.5-4.4-4.3-4.2-4.1-4-3.9-3.8 0

5000

10000

-4.6

-4.5-4.4-4.3-4.2-4.1-4-3.9-3.8E m p i r i c a l A c c u r a c y (l o g -l i k e l i h o o d )

Effective model size Abalone

2 4 6 8 10 12 14 16 18 20 0 25000 50000

75000 0

2 4 6 8 10 12 14 16 18 20E m p i r i c a l c o m p l e x i t y (m s )

Effective model size

Image Segmentation

BN

NB

PDG

-6.5

-6-5.5-5-4.5-4 0 25000 50000

75000-6.5

-6-5.5-5-4.5-4E m p i r i c a l A c c u r a c y (l o g -l i k e l i h o o d )

Effective model size

Image Segmentation

BN

NB

PDG

to become less pronounced on the random queries as on global likelihood(particularly for PDGs in the image segmentation data).One possible expla-nation for this is that low global likelihood scores are mostly due to a few test cases whose joint in-stantiation of the variables are given low probability by a model,and that these isolated low-probability con?gurations are seldom met with in the random queries.

7Conclusion

Motivated by several previous,independent studies on the tradeoff between model accuracy and ef?-ciency in different PGM languages,we have inves-tigated the performance of BN,NB,and PDG mod-els.Our main?ndings are:1)In contrast to po-tentially widely different performance on arti?cial examples(e.g.the parity distribution),we observe a relatively uniform behavior of all three languages on real-life data.2)Our results con?rm the conclusions of Lowd and Domingos(2005)that the NB model is a viable alternative to the BN model for gen-eral purpose probabilistic modeling and inference. However,the order-of-magnitude advantages in in-ference complexity could not be con?rmed when comparing exact inference methods for both types of models.3)Previous theoretical complexity anal-yses for inference in PDG models now have been complemented with empirical results showing also the practical competitiveness of PDGs. Acknowledgment

We thank Daniel Lowd for providing the pre-processed datasets we used in our experiments.We thank the AutonLab at CMU for making their ef?-cient software libraries available to us. References

Beygelzimer,A.and Rish,I.:2003,Approximabil-ity of probability distributions,Advances in Neu-ral Information Processing Systems16,The MIT Press.

Bozga,M.and Maler,O.:1999,On the represen-tation of probabilities over structured domains, Proceedings of the11th International Confer-ence on Computer Aided Veri?cation,Springer, pp.261–273.Cooper,G.F.:1987,Probabilistic inference us-ing belief networks is NP-hard,Technical report, Knowledge Systems Laboratory,Stanford Uni-versity.

Dagum,P.and Luby,M.:1993,Approximating probabilistic inference in Bayesian belief net-works is NP-hard,Arti?cial Intelligence60,141–153.

Jaeger,M.:2004,Probabilistic decision graphs -combining veri?cation and ai techniques for probabilistic inference,International Journal of Uncertainty,Fuzziness and Knowledge-Based Systems12,19–42.

Jaeger,M.,Nielsen,J.D.and Silander,T.:2006, Learning probabilistic decision graphs,Interna-tional Journal of Approximate Reasoning42(1-2),84–100.

Jensen,F.V.:2001,Bayesian Networks and Deci-sion Graphs,Springer.

Karciauskas,G.,Koˇc ka,T.,Jensen, F.V., Larra?n aga,P.and Lozano,J.A.:2004,Learning of latent class models by splitting and merging components,Proceedings of the Second Euro-pean Workshop on Probabilistic Graphical Mod-els,pp.137–144.

Lauritzen,S.L.and Spiegelhalter,D.J.:1988,Lo-cal computations with probabilities on graphi-cal structures and their application to expert sys-tems,Journal of the Royal Statistical Society 50(2),157–224.

Lowd,D.and Domingos,P.:2005,Naive Bayes models for probability estimation,Proceedings of the Twentysecond International Conference on Machine Learning,pp.529–536. Nielsen,J.D.,Koˇc ka,T.and Pe?n a,J.M.:2003, On local optima in learning Bayesian networks, Proceedings of the Nineteenth Conference on Un-certainty in Arti?cial Intelligence,Morgan Kauf-mann Publishers,pp.435–442.

Pearl,J.:1988,Probabilistic reasoning in intelli-gent systems:networks of plausible inference, Morgan Kaufmann Publishers.

Zhang,N.L.:1998,Computational properties of two exact algorithms for Bayesian networks,Ap-plied Intelligence9,173–183.

如何写先进个人事迹

如何写先进个人事迹 篇一:如何写先进事迹材料 如何写先进事迹材料 一般有两种情况:一是先进个人,如先进工作者、优秀党员、劳动模范等;一是先进集体或先进单位,如先进党支部、先进车间或科室,抗洪抢险先进集体等。无论是先进个人还是先进集体,他们的先进事迹,内容各不相同,因此要整理材料,不可能固定一个模式。一般来说,可大体从以下方面进行整理。 (1)要拟定恰当的标题。先进事迹材料的标题,有两部分内容必不可少,一是要写明先进个人姓名和先进集体的名称,使人一眼便看出是哪个人或哪个集体、哪个单位的先进事迹。二是要概括标明先进事迹的主要内容或材料的用途。例如《王鬃同志端正党风的先进事迹》、《关于评选张鬃同志为全国新长征突击手的材料》、《关于评选鬃处党支部为省直机关先进党支部的材料》等。 (2)正文。正文的开头,要写明先进个人的简要情况,包括:姓名、性别、年龄、工作单位、职务、是否党团员等。此外,还要写明有关单位准备授予他(她)什么荣誉称号,或给予哪种形式的奖励。对先进集体、先进单位,要根据其先进事迹的主要内容,寥寥数语即应写明,不须用更多的文字。 然后,要写先进人物或先进集体的主要事迹。这部分内容是全篇材料

的主体,要下功夫写好,关键是要写得既具体,又不繁琐;既概括,又不抽象;既生动形象,又很实在。总之,就是要写得很有说服力,让人一看便可得出够得上先进的结论。比如,写一位端正党风先进人物的事迹材料,就应当着重写这位同志在发扬党的优良传统和作风方面都有哪些突出的先进事迹,在同不正之风作斗争中有哪些突出的表现。又如,写一位搞改革的先进人物的事迹材料,就应当着力写这位同志是从哪些方面进行改革的,已经取得了哪些突出的成果,特别是改革前后的.经济效益或社会效益都有了哪些明显的变化。在写这些先进事迹时,无论是先进个人还是先进集体的,都应选取那些具有代表性的具体事实来说明。必要时还可运用一些数字,以增强先进事迹材料的说服力。 为了使先进事迹的内容眉目清晰、更加条理化,在文字表述上还可分成若干自然段来写,特别是对那些涉及较多方面的先进事迹材料,采取这种写法尤为必要。如果将各方面内容材料都混在一起,是不易写明的。在分段写时,最好在每段之前根据内容标出小标题,或以明确的观点加以概括,使标题或观点与内容浑然一体。 最后,是先进事迹材料的署名。一般说,整理先进个人和先进集体的材料,都是以本级组织或上级组织的名义;是代表组织意见的。因此,材料整理完后,应经有关领导同志审定,以相应一级组织正式署名上报。这类材料不宜以个人名义署名。 写作典型经验材料-般包括以下几部分: (1)标题。有多种写法,通常是把典型经验高度集中地概括出来,一

古诗鉴赏之山水田园诗鉴赏专题

初三古诗鉴赏之田园诗鉴赏 一、明确概念 1.所谓的山水诗,是以山水花草虫鱼等自然景观为主要描写对象的诗歌;所谓田园诗是指歌咏田园生活的诗歌,大多以农村的景物和农民、牧人、渔父樵夫等的劳动为题材。 2.代表诗人: A.第一个以田园生活入诗的诗人是东晋的陶渊明。第一个山水诗人是南朝的谢灵运。 B.唐朝时,形成了山水田园诗派,以王维、孟浩然等为代表人物。 山水田园诗属于写景诗的范畴,这类诗歌的主要特点就是“一切景语皆情语”,亦即作者笔下的山水自然景物都融入了作者的主观情愫,或者借景抒情,或者情景交融。 二、常见意象与意境: 体味诗歌的意境:要能把握诗中描写了什么样的景物,什么样的生活画面;画面组合所表现的情境氛围;运用了什么手法;表达了什么情感。 1.①炊烟、桑麻、桑榆、桃李、麦苗、豆苗、菊花、鸡、犬、禽雀、眠蚕…… ②意境特点:恬淡宁谧、清新优美、宁静和谐、明丽绚烂、富有生活气息。 ③表现对闲适恬淡的山水田园生活的热爱及悠闲自在、轻松愉悦的心情。 2. ①野径、古木、荆扉、柴门、空林、空山、鸾鹤、孤云、禅房、古寺、暮钟、五柳、接舆、伯夷、叔齐、林叟、幽人、樵夫、寺僧、道人…… ②意境特点:远离尘俗,清幽静谧、淡雅清幽、豁达、淡泊闲适、清冷荒僻。 ③表达希望归隐山林、超然世外、宁静淡泊或自甘寂寞的情怀。 3.①菊花。 菊花一直受到文人墨客的青睐,有人称赞它坚强的品格,有人欣赏它清高的气质。东晋田园诗人陶渊明,写了很多咏菊诗,将菊花素雅、淡泊的形象与自己不同流俗的志趣十分自然地联系在一起,如“采菊东篱下,悠然见南山”。宋人范成大《重阳后菊花二首》中“寂寞东篱湿露华,依前金靥照泥沙”等诗句,都借菊花来寄寓诗人的精神品质。 2.竹 亭亭玉立,挺拔多姿,以其“遭霜雪而不凋,历四时而常茂”的品格,赢得古今诗人的喜爱和称颂。苏轼的《於潜僧绿筠轩》有咏竹名句:“宁可食无肉,不可居无竹。无肉令人瘦,无竹使人俗。人瘦尚可肥,士俗不可医。”将竹视为名士风度的最高标识。郑板桥一生咏竹画竹,留下了很多咏竹佳句,如:“咬定青山不放松,立根原在破岩中。千磨万击还坚劲,任尔东西南北风。”赞美了立于岩石之中的翠竹坚定顽强、不屈不挠的风骨和不畏逆境、蒸蒸日上的禀性。3.五柳 陶渊明《五柳先生传》载:宅边有五柳树,因以号为焉。后来“五柳”就成了隐者的代称。如王维的《辋川闲居赠裴秀才迪》:“寒山转苍翠,秋水日潺湲。倚杖柴门外,临风听暮蝉。渡头余落日,墟里上孤烟。负值接舆醉,狂歌五柳前。” 4.东篱 陶渊明《饮酒》:“采菊东篱下,悠然见南山。”后来多用“东篱”表现辞官归隐后的田园生活或娴雅的情致。如李清照《醉花阴》:“东篱把酒黄昏后,有暗香盈袖。” 5.三径 陶渊明《归去来兮辞》中有“三径就荒,松菊犹存”的句子,后来“三径”就用来指代隐士居住的地方。如白居易的《欲与元八卜邻先有是赠》:“明月好同三径夜,绿杨宜作两家春。” 三、表达的思想情感 主要情感:热爱自然向往自由厌恶官场憎恶黑暗渴望归隐闲适淡泊悠然自得 1.表达对大自然的喜爱。(描绘山川美景,表达对壮丽山河的热爱。) 李白《望庐山瀑布》 日照香炉生紫烟,遥看瀑布挂前川。 飞流直下三千尺,疑是银河落九天。 2.表达对官场仕途的厌倦,对现实的不满甚至愤怒。(厌弃官场,归隐田园,表达对黑暗现实的不满,抒发自己决不同流合污的高洁品格,或怀才不遇的苦闷。) ①陶渊明《归园田居》 ②王维《山居秋暝》 空山新雨后,天气晚来秋。明月松间照,清泉石上流。 竹喧归浣女,莲动下渔舟。随意春芳歇,王孙自可留。 写出了清新、幽静、恬淡、优美的山中秋季的黄昏美景。 全诗动静结合,相辅相成,相得益彰。月照松林是静态,清泉流溢是动态。前四句写秋山晚景之幽静,五六句写浣女渔舟之喧哗。诗之四联分别写感觉、视觉、听觉、感受,因象得趣,因景生情。 于诗情画意之中寄托着诗人高洁的情怀和对理想境界的追求。表现了诗人寄情山水田园,对隐居生活怡然自得的满足心情。 虽然春光已逝,但秋景更佳,愿意留下来。王孙指诗人自己,其喜归自然,厌恶宦海之情溢于言表。 ①常出现的景物有:野径、古木、荆扉、柴门、空林、空山、鸾鹤(仙灵之鸟,超凡脱俗)、孤云(孤高傲世)、禅房、古寺、暮钟 ②常出现的人物有:五柳、接舆、伯夷、叔齐、寺僧、道人、林叟、樵夫、幽人 ③这些景物和人物的共性特点:远离尘俗,清幽静谧、清冷荒僻(这与官场的明争暗斗形成对比,这些景物组合在一起,为诗人营造出一片清幽静僻,远离尘俗的天地,与诗人超然世外、宁静淡泊或自甘寂寞的情怀是和谐统一的) 3.表达对归隐生活、闲适恬淡的田园生活的喜爱、向往。(向往自由、宁静的田园生活,抒发闲适淡泊、悠然自得的心情。) ①《过故人庄》(孟浩然) 4.对生活、人生哲理的感悟,禅意的寄托 ①《题西林壁》(苏轼) 横看成岭侧成峰,远近高低各不同。 不识庐山真面目,只缘身在此山中。 ▲后两句即景说理,谈游山的体会(心中所想)。为什么不能辨认庐山的真实面目呢?因为身在庐山之中,视野为庐山的峰峦所局限,看到的只是庐山的一峰一岭一丘一壑,局部而已,这必然带有片面性。这两句诗有着丰富的内涵,它启迪人们认识为人处事的一个哲理——由于人们

最新小学生个人读书事迹简介怎么写800字

小学生个人读书事迹简介怎么写800字 书,是人类进步的阶梯,苏联作家高尔基的一句话道出了书的重要。书可谓是众多名人的“宠儿”。历来,名人说出关于书的名言数不胜数。今天小编在这给大家整理了小学生个人读书事迹,接下来随着小编一起来看看吧! 小学生个人读书事迹1 “万般皆下品,惟有读书高”、“书中自有颜如玉,书中自有黄金屋”,古往今来,读书的好处为人们所重视,有人“学而优则仕”,有人“满腹经纶”走上“传道授业解惑也”的道路……但是,从长远的角度看,笔者认为读书的好处在于增加了我们做事的成功率,改善了生活的质量。 三国时期的大将吕蒙,行伍出身,不重视文化的学习,行文时,常常要他人捉刀。经过主君孙权的劝导,吕蒙懂得了读书的重要性,从此手不释卷,成为了一代儒将,连东吴的智囊鲁肃都对他“刮目相待”。后来的事实证明,荆州之战的胜利,擒获“武圣”关羽,离不开吕蒙的“运筹帷幄,决胜千里”,而他的韬略离不开平时的读书。由此可见,一个人行事的成功率高低,与他的对读书,对知识的重视程度是密切相关的。 的物理学家牛顿曾近说过,“如果我比别人看得更远,那是因为我站在巨人的肩上”,鲜花和掌声面前,一代伟人没有迷失方向,自始至终对读书保持着热枕。牛顿的话语告诉我们,渊博的知识能让我们站在更高、更理性的角度来看问题,从而少犯错误,少走弯路。

读书的好处是显而易见的,但是,在社会发展日新月异的今天,依然不乏对读书,对知识缺乏认知的人,《今日说法》中我们反复看到农民工没有和用人单位签订劳动合同,最终讨薪无果;屠户不知道往牛肉里掺“巴西疯牛肉”是犯法的;某父母坚持“棍棒底下出孝子”,结果伤害了孩子的身心,也将自己送进了班房……对书本,对知识的零解读让他们付出了惨痛的代价,当他们奔波在讨薪的路上,当他们面对高墙电网时,幸福,从何谈起?高质量的生活,从何谈起? 读书,让我们体会到“锄禾日当午,汗滴禾下土”的艰辛;读书,让我们感知到“四海无闲田,农夫犹饿死”的无奈;读书,让我们感悟到“为报倾城随太守,西北望射天狼”的豪情壮志。 读书的好处在于提高了生活的质量,它填补了我们人生中的空白,让我们不至于在大好的年华里无所事事,从书本中,我们学会提炼出有用的信息,汲取成长所需的营养。所以,我们要认真读书,充分认识到读书对改善生活的重要意义,只有这样,才是一种负责任的生活态度。 小学生个人读书事迹2 所谓读一本好书就是交一个良师益友,但我认为读一本好书就是一次大冒险,大探究。一次体会书的过程,真的很有意思,咯咯的笑声,总是从书香里散发;沉思的目光也总是从书本里透露。是书给了我启示,是书填补了我无聊的夜空,也是书带我遨游整个古今中外。所以人活着就不能没有书,只要爱书你就是一个爱生活的人,只要爱书你就是一个大写的人,只要爱书你就是一个懂得珍惜与否的人。可真所谓

山水田园诗赏析

山水田园诗赏析 一、明确概念 1.所谓的山水诗,是以山水花草虫鱼等自然景观为主要描写对象的诗歌;所谓田园诗是指歌咏田园生活的诗歌,大多以农村的景物和农民、牧人、渔父樵夫等的劳动为题材。 2.代表诗人: A.第一个以田园生活入诗的诗人是东晋的陶渊明。第一个山水诗人是南朝的谢灵运。 B.唐朝时,形成了山水田园诗派,以王维、孟浩然等为代表人物。 山水田园诗属于写景诗的范畴,这类诗歌的主要特点就是“一切景语皆情语”,亦即作者笔下的山水自然景物都融入了作者的主观情愫,或者借景抒情,或者情景交融。 二、常见意象与意境: 体味诗歌的意境:要能把握诗中描写了什么样的景物,什么样的生活画面;画面组合所表现的情境氛围;运用了什么手法;表达了什么情感。 1.①炊烟、桑麻、桑榆、桃李、麦苗、豆苗、菊花、鸡、犬、禽雀、眠蚕…… ②意境特点:恬淡宁谧、清新优美、宁静和谐、明丽绚烂、富有生活气息。 ③表现对闲适恬淡的山水田园生活的热爱及悠闲自在、轻松愉悦的心情。 2. ①野径、古木、荆扉、柴门、空林、空山、鸾鹤、孤云、禅房、古寺、暮钟、五柳、接舆、伯夷、叔齐、林叟、幽人、樵夫、寺僧、道人…… ②意境特点:远离尘俗,清幽静谧、淡雅清幽、豁达、淡泊闲适、清冷荒僻。 ③表达希望归隐山林、超然世外、宁静淡泊或自甘寂寞的情怀。 3.①菊花。 菊花一直受到文人墨客的青睐,有人称赞它坚强的品格,有人欣赏它清高的气质。东晋田园诗人陶渊明,写了很多咏菊诗,将菊花素雅、淡泊的形象与自己不同流俗的志趣十分自然地联系在一起,如“采菊东篱下,悠然见南山”。宋人范成大《重阳后菊花二首》中“寂寞东篱湿露华,依前金靥照泥沙”等诗句,都借菊花来寄寓诗人的精神品质。 2. 竹。 亭亭玉立,挺拔多姿,以其“遭霜雪而不凋,历四时而常茂”的品格,赢得古今诗人的喜爱和称颂。苏轼的《於潜僧绿筠轩》有咏竹名句:“宁可食无肉,不可居无竹。无肉令人瘦,无竹使人俗。人瘦尚可肥,士俗不可医。”将竹视为名士风度的最高标识。郑板桥一生咏竹画竹,留下了很多咏竹佳句,如:“咬定青山不放松,立根原在破岩中。千磨万击还坚劲,任尔东西南北风。”赞美了立于岩石之中的翠竹坚定顽强、不屈不挠的风骨和不畏逆境、蒸蒸日上的禀性。 3. 五柳。 陶渊明《五柳先生传》载:宅边有五柳树,因以号为焉。后来“五柳”就成了隐者的代称。如王维的《辋川闲居赠裴秀才迪》:“寒山转苍翠,秋水日潺湲。倚杖柴门外,临风听暮蝉。渡头余落日,墟里上孤烟。负值接舆醉,狂歌五柳前。” 4. 东篱。 陶渊明《饮酒》:“采菊东篱下,悠然见南山。”后来多用“东篱”表现辞官归隐后的田园生活或娴雅的情致。如李清照《醉花阴》:“东篱把酒黄昏后,有暗香盈袖。” 5. 三径。 陶渊明《归去来兮辞》中有“三径就荒,松菊犹存”的句子,后来“三径”就用来指代隐士居住的地方。如白居易的《欲与元八卜邻先有是赠》:“明月好同三径夜,绿杨宜作两家春。”

山水田园诗 赏析

1、《饮酒?其五》 晋陶渊明 结庐在人境,而无车马喧。 问君何能尔,心远地自偏。 采菊东篱下,悠然见南山。 山气日夕佳,飞鸟相与还。 此中有真意,欲辨已忘言。 注释 (1)结庐:建造住宅,这里指居住的意思。 (2)车马喧:指世俗交往的喧扰。 (3)君:指作者自己。 (4)何能尔:为什么能这样。尔:如此、这样。 (5)悠然:自得的样子。 (6)见:看见(读jiàn),动词。 (7)南山:泛指山峰,一说指庐山。 (8)日夕:傍晚。相与:相交,结伴。 (9)相与还:结伴而归。 译文 居住在人世间,却没有车马的喧嚣。 问我为何能如此,只要心志高远,自然就会觉得所处地方僻静了。 在东篱之下采摘菊花,悠然间,那远处的南山映入眼帘。 山中的气息与傍晚的景色十分好,有飞鸟,结着伴儿归来。 这里面蕴含着人生的真正意义,想要辨识,却不知怎样表达。 赏析 本诗是陶渊明组诗《饮酒》二十首中的第五首。诗的意象构成中景与意会,全在一偶然无心上。‘采菊’二句所表达的都是偶然之兴味,东篱有菊,偶然采之;而南山之见,亦是偶尔凑趣;山且无意而见,菊岂有意而采?山中飞鸟,为日夕而归;但其归也,适值吾见南山之时,此亦偶凑之趣也。这其中的“真意”,乃千圣不传之秘,即使道书千卷,佛经万页,也不能道尽其中奥妙,所以只好“欲辨已忘言”不了了之。这种偶然的情趣,偶然无心的情与景会,正是诗人生命自我敞亮之时其空明无碍的本真之境的无意识投射。大隐隐于市,真正宁静的心境,不是自然造就的,而是你自己的心境的外化。 千古名句:“采菊东篱下,悠然见南山”,表达了诗人悠然自得、寄情山水的情怀。终南别业 中岁颇好道,晚家南山陲。 兴来每独往,胜事空自知。 行到水穷处,坐看云起时。 偶然值林叟,谈笑无还期。 注解 1、胜事:快意的事。

个人先进事迹简介

个人先进事迹简介 01 在思想政治方面,xxxx同学积极向上,热爱祖国、热爱中国共产党,拥护中国共产党的领导.利用课余时间和党课机会认真学习政治理论,积极向党组织靠拢. 在学习上,xxxx同学认为只有把学习成绩确实提高才能为将来的实践打下扎实的基础,成为社会有用人才.学习努力、成绩优良. 在生活中,善于与人沟通,乐观向上,乐于助人.有健全的人格意识和良好的心理素质和从容、坦诚、乐观、快乐的生活态度,乐于帮助身边的同学,受到师生的好评. 02 xxx同学认真学习政治理论,积极上进,在校期间获得原院级三好生,和校级三好生,优秀团员称号,并获得三等奖学金. 在学习上遇到不理解的地方也常常向老师请教,还勇于向老师提出质疑.在完成自己学业的同时,能主动帮助其他同学解决学习上的难题,和其他同学共同探讨,共同进步. 在社会实践方面,xxxx同学参与了中国儿童文学精品“悦”读书系,插画绘制工作,xxxx同学在班中担任宣传委员,工作积极主动,认真负责,有较强的组织能力.能够在老师、班主任的指导下独立完成学院、班级布置的各项工作. 03 xxx同学在政治思想方面积极进取,严格要求自己.在学习方面刻苦努力,不断钻研,学习成绩优异,连续两年荣获国家励志奖学金;作

为一名学生干部,她总是充满激情的迎接并完成各项工作,荣获优秀团干部称号.在社会实践和志愿者活动中起到模范带头作用. 04 xxxx同学在思想方面,积极要求进步,为人诚实,尊敬师长.严格 要求自己.在大一期间就积极参加了党课初、高级班的学习,拥护中国共产党的领导,并积极向党组织靠拢. 在工作上,作为班中的学习委员,对待工作兢兢业业、尽职尽责 的完成班集体的各项工作任务.并在班级和系里能够起骨干带头作用.热心为同学服务,工作责任心强. 在学习上,学习目的明确、态度端正、刻苦努力,连续两学年在 班级的综合测评排名中获得第1.并荣获院级二等奖学金、三好生、优秀班干部、优秀团员等奖项. 在社会实践方面,积极参加学校和班级组织的各项政治活动,并 在志愿者活动中起到模范带头作用.积极锻炼身体.能够处理好学习与工作的关系,乐于助人,团结班中每一位同学,谦虚好学,受到师生的好评. 05 在思想方面,xxxx同学积极向上,热爱祖国、热爱中国共产党,拥护中国共产党的领导.作为一名共产党员时刻起到积极的带头作用,利用课余时间和党课机会认真学习政治理论. 在工作上,作为班中的团支部书记,xxxx同学积极策划组织各类 团活动,具有良好的组织能力. 在学习上,xxxx同学学习努力、成绩优良、并热心帮助在学习上有困难的同学,连续两年获得二等奖学金. 在生活中,善于与人沟通,乐观向上,乐于助人.有健全的人格意 识和良好的心理素质.

山水田园诗鉴赏训练

山水田园诗鉴赏训练 古典诗文 2010-01-20 0435 5d56b7b40100gd0g 山水田园诗鉴赏训练 所谓的山水诗,是以山水等自然景观为主要描写对象的诗歌;所谓田园诗是指歌咏田园生活的诗歌,大多以农村的景物和农民、牧人、渔父等的劳动为题材。中国山水田园诗渊源流长,诗人们以自然山水或农村自然景物、田园生活为吟咏对象,把细腻的笔触投向静谧的山林,悠闲的田野,创造出一种田园牧歌式的生活,借以表达对现实的不满,对宁静平和生活的向往。山水田园诗属于写景诗的范畴,这类诗歌的主要特点就是“一切景语皆情语”,亦即笔下的山水自然景物都融入了的主观情愫,或者借景抒情,或者情景交融。 陶渊明是田园诗的开山,南朝的谢灵运是山水诗的鼻祖。唐代形成了山水田园诗派,主要有王维、孟浩然、储光羲、常建等。到了盛唐时代,我国山水田园诗进入了繁荣时期。盛唐山水田园诗派的主要成就有三 一是将山水与田园二者结合得更紧密了。二是形神兼备,物我契合。三是具有更深厚的思想内涵,寄托了高尚情操和身世之感。盛唐诗人继承了前代山水田园诗人的成就而又有新的发展,其笔下景物不仅具化工肖物之妙,又能以清新自然的语言传田园之趣味、山水之精神,在山川风物中融入诗人的感情,即景会心,浑然天成。 山水田园诗派赢得了古代文人的普遍共鸣,虽然王维、孟浩然等代表人物没有李杜那样的盛誉,但在精神上可能更接近于传统的文人。从严羽《沧浪诗话》看,虽然他标举李、杜,但实际上倾向于王、孟。李白的豪放飘逸无人能及,因此虽然在诗坛地位颇高,但在后世却很寂寥,实在是座不可攀登不可模拟的高峰。相对于李白,杜甫可以说是另外一种情形,同为诗歌的巅峰,杜甫却成为后世师法的楷模,无数追随者争相模仿,成就了一批大诗人,也造就了一批只知道模拟甚至剽窃的庸人。无论怎么样,李杜在后人的眼里,地位都是那么高高在上的。而王孟不同,同作为山水田园诗派的代表人物,他们的诗歌以恬淡清幽的意境和平和近人的风格吸引着一代一代的文人。

优秀党务工作者事迹简介范文

优秀党务工作者事迹简介范文 优秀党务工作者事迹简介范文 ***,男,198*年**月出生,200*年加入党组织,现为***支部书记。从事党务工作以来,兢兢业业、恪尽职守、辛勤工作,出色地完成了各项任务,在思想上、政治上同党中央保持高度一致,在业务上不断进取,团结同事,在工作岗位上取得了一定成绩。 一、严于律己,勤于学习 作为一名党务工作者,平时十分注重知识的更新,不断加强党的理论知识的学习,坚持把学习摆在重要位置,学习领会和及时掌握党和国家的路线、方针、政策,特别是党的十九大精神,注重政治理论水平的提高,具有坚定的理论信念;坚持党的基本路线,坚决执行党的各项方针政策,自觉履行党员义务,正确行使党员权利。平时注重加强业务和管理知识的学习,并运用到工作中去,不断提升自身工作能力,具有开拓创新精神,在思想上、政治上和行动上时刻同党中央保持高度一致。 二、求真务实,开拓进取 在工作中任劳任怨,踏实肯干,坚持原则,认真做好学院的党务工作,按照党章的要求,严格发展党员的每一个步骤,认真细致的对待每一份材料。配合党总支书记做好学院的党建工作,完善党总支建设方面的文件、材料和工作制度、管理制度等。

三、生活朴素,乐于助人 平时重视与同事间的关系,主动与同事打成一片,善于发现他人的难处,及时妥善地给予帮助。在其它同志遇到困难时,积极主动伸出援助之手,尽自己最大努力帮助有需要的人。养成了批评与自我批评的优良作风,时常反省自己的工作,学习和生活。不但能够真诚的指出同事的缺点,也能够正确的对待他人的批评和意见。面对误解,总是一笑而过,不会因为误解和批评而耿耿于怀,而是诚恳的接受,从而不断的提高自己。在生活上勤俭节朴,不铺张浪费。 身为一名老党员,我感到责任重大,应该做出表率,挤出更多的时间来投入到**党总支的工作中,不找借口,不讲条件,不畏困难,将总支建设摆在更重要的位置,解开工作中的思想疙瘩,为攻坚克难铺平道路,以支部为纽带,像战友一样团结,像家庭一样维系,像亲人一样关怀,践行入党誓言。把握机遇,迎接挑战,不负初心。

山水田园诗赏析

山水田园诗赏析 _5ccca3dd0102y9bd 山水田园诗赏析 所谓的山水诗,是以山水等自然景观为主要描写对象的诗歌;所谓田园诗是指歌咏田园生活的诗歌,大多以农村的景物和农民、牧人、渔父等的劳动为题材。中国山水田园诗渊源流长,诗人们以自然山水或农村自然景物、田园生活为吟咏对象,把细腻的笔触投向静谧的山林,悠闲的田野,创造出一种田园牧歌式的生活,借以表达对现实的不满,对宁静平和生活的向往。山水田园诗属于写景诗的范畴,这类诗歌的主要特点就是一切景语皆情语,亦即笔下的山水自然景物都融入了的主观情愫,或者借景抒情,或者情景交融。 表达的情感内容 1.表达对大自然的喜爱 《望庐山瀑布》 李白 日照香炉生紫烟,遥看瀑布挂前川。 飞流直下三千尺,疑是银河落九天。 2.表达对官场仕途的厌倦,对现实的不满甚至愤怒 《山居秋暝》 王维 空山新雨后,天气晚来秋。 明月松间照,清泉石上流。 竹喧归浣女,莲动下渔舟。 随意春芳歇,王孙自可留。 3.表达对归隐生活、闲适恬淡的田园生活的喜爱、向往 《社日》 王驾 鹅湖山下稻粱肥,豚栅鸡栖半掩扉。 桑柘影斜春社散,家家扶得醉人归。 4.出世与入世矛盾心理的折射 《江村》 杜甫 清江一曲抱村流,长夏江村事事幽。 自去自来梁上燕,相亲相近水中鸥。 老妻画纸为棋局,稚子敲针作钓钩。 但有故人供禄米,微躯此外更何求? 5.对生活、人生哲理的感悟,禅意的寄托 《过香积寺》 王维 不知香积寺,数里入云峰。 古木无人径,深山何处钟。 泉声咽危石,日色冷青松。 薄暮空潭曲,安禅制毒龙。 A、表达对现实的不满,怀才不遇的苦闷。 B、对宁静、平和、归隐生活的向往,抒发闲适自得的心情。

主要事迹简介怎么写(2020年最新)

主要事迹简介怎么写 概括?简要地反映?个单位(集体)或个?事迹的材料。简要事迹不?定很短,如果情况 多的话,也有?千字的。简要事迹虽然“简要”,但切忌语?空洞,写得像?学?期末鉴定。 ?应当以事实来说话。简要事迹是对某单位或个?情况概括?简要地反映情况,?如有三个??很突出,就写三个??,只是写某???时,要把主要事迹突出出来。 简要事迹?般来说,?少要包括两个??的内容。?是基本情况。简要事迹开头,往往要??段?字来表述?些基本情况。如写?个单位的简要事迹,应包括这个单位的?员、 承担的任务以及?段时间以来取得的主要成绩。如写个?的简要事迹,应包括该同志的性 别、出?年?、参加?作时间、籍贯、民族、?化程度以及何时起任现职和主要成绩。这 样上级组织在看了材料的开头,就会对这个单位或个?有?个基本印象。?是主要特点。 这是简要事迹的主体部分,最突出的事例有?个??就写成?块,并按照?定的逻辑关系进 ?排列,把同类的事例排在?起,?个??通常由?个?然段或?个?然段组成。 写作时,特别要注意以下四点: 1.?第三?称。就是把所要写的对象,是集体的?“他们”来表述,是个?的称之为“他(她)”。 (她)”,单位可直接写名称,个?可写其姓名。 为了避免连续出现?个“他们”或“他 2.掌握好时限。?论是单位或个?的简要事迹,都有?个时间跨度,既不要扯得太远,也不 要故意混淆时间概念,把过去的事当成现在的事写。这个时间跨度多长,要根据实际情况 ?定。如上级要某个同志担任乡长以来的情况就写他任乡长以来的事迹;上级要该同志两年 来的情况,就写两年来的事迹。当然,有时为了需要,也可适当地写?点超过这个时间的 背景情况。 3.?点他?的语?。就是在写简要事迹时,可?些群众的语?或有关?员的语?,这样会给??种?动、真切的感觉,衬托出写作对象?较?的思想境界。在?他?语?时,可适当加?,但不能造假。 4.?事实说话。简要事迹的每?个??可分为多个层次,?个层次先??句话作为观点,再???两个突出的事例来说明。?事实说话时,要尽量把?个事例说完整,以给?留下深 刻印象。

山水田园诗鉴赏教学案

山水田园诗的鉴赏 复习目标: 1、掌握赏析山水田园诗的方法; 2、明确山水田园诗的鉴赏角度,体会诗人的思想感情。 复习课时:9课时 复习过程: 第一课时 一、了解山水田园诗 山水诗源于南朝(宋)谢灵运,田园诗源于晋代陶渊明,以唐代王维、孟浩然为代表。这类诗以描写自然风光、农村景物以及安逸恬淡的隐居生活见长。诗境隽永优美,风格恬静淡雅,语言清丽洗练,多用白描手法 分成山水诗和田园诗两类。山水诗主要以山水作为描写和抒发感情的对象。田园诗多以田园风光为题材。 山水田园诗的主题:①归隐田园,钟情山水;②描绘山川美景,热爱祖国河山;③厌弃官场黑暗,抒发闲适情调,表达自己决不同流合污的高洁品格。江水:时光的流逝。烟雾:情感的朦胧、惨淡。 二、诗歌意象含义 东风:春天、美好。西风:落寞,惆怅、衰败。霜:人生易老、社会环境恶劣。 露:人生短促、生命易逝。云:游子飘泊。天阴:压抑、愁苦、寂寞。 菊:隐逸、高洁、脱俗。梅:傲雪、坚强、不屈不挠。兰:高洁。 牡丹:富贵美好。松柏:傲岸坚强、生命力。竹:气节、积极向上。 梧桐:凄苦。柳:送别、伤感、春天的美好) 三、体验高考 1、(2010年天津卷)阅读下面的诗,回答问题。 黄氏延绿轩 明·高启 葱葱溪树暗,靡靡江芜湿。 雨过晓开帘,一时放春入。 注:芜,丛生的草。 “一时放春入”表现了怎样的情景? 此题考查对诗歌内容的理解,答题时一般要描绘出其所描绘的景象,指出其所蕴涵的感情。

答案:表现了春光浓重,扑面而来,以及作者的欣喜之情。类似的诗句还有曾公亮的“要看银山拍天浪,开窗放入大江来”,王安石的“一水护田将录绕,两山排闼送青来”等,希望同学们注意积累。 2、(2010年上海卷)阅读下面的宋词,完成题目。 阮郎归·初夏苏轼 绿槐高柳咽新蝉,薰风初入弦。碧纱窗下水沉烟,棋声惊昼眠。 微雨过,小荷翻,榴花开欲燃。玉盆纤手弄清泉,琼珠碎却圆。 就作品中画线句,联系下片内容,从情景关系的角度,写一段鉴赏文字。 赏析情景交融题,最重要的是说清作者写了什么景,抒了什么情。这一点说清了,得分要点也就抓住了。 答案要点:作者运用比喻的手法,细致地描绘了水花四溅(在荷叶上),水珠圆润晶莹,真切地展现了主人公轻快、喜悦的心情。 第二课时 一、技巧方法 鉴赏山水田园诗,要注意从以下几个角度去掌握: ①把握形象的特征和寓意。 这就是我们常说的把握诗歌意象。如白居易《琵琶行》“浔阳江头夜送客,枫叶荻花秋瑟瑟。”“枫叶”、“荻花”、“秋”三个意象不光点明了景物、时节,还通过这三个意象特有的属性渲染了送别时的环境氛围和诗人忧伤的情绪。古诗意象往往寓繁于简,寓万于一,以高度浓缩的艺术形象诱发想象,产生奇特的审美效果。 ②体味诗歌情景交融的意境。 通过描写景物来抒发感情,是中国古典诗的一大特色,山水田园诗更是如此。自然景物一经诗人摄入笔端,就必然带上诗人的感情色彩,为表达诗的特定情感服务。“故人西辞黄鹤楼,烟花三月下扬州。孤帆远影碧空尽,惟见长江天际流。”就是一首融情入景,景中含情的好诗。烟花含愁,孤帆载憾,天际碧水带走诗人的无尽思念。诗人的惜别之情,从每一个画面中渗透出来。 ③领会诗人写景所表现的情感。 一般地写景诗,字里行间透出的情感都是比较容易把握的,但一些表面上纯粹是写景的山水小诗,就不那么好理解了。这就要求我们对作者的身世,当时的时代背景有一定的了解,即知人论世,才可能准确地领会诗人写景所表现出的情感。这里牵涉到一个感情寄托的问题,分析诗歌,应认真判断感情寄托的深浅,切忌随意拔高作品的思想内涵。 ④分析诗歌的写作技巧和语言特色。 山水田园诗写景的方法很多,鉴赏时应主要注意写景的常见方法和技巧。 A、留意作者观察景物的立足点和描写景物的角度,如高、低、俯、仰的变化。 B、把握和分析作者描写景物的方法,如绘形、绘声、绘色。“乱石穿空,惊涛拍岸,卷起千堆雪。” C、理解和说明描写景物的技巧,如虚实结合(“晓看红湿处,花重锦官城”),以动衬静(“月出惊山鸟,时鸣春涧中”),明、暗对比(“野径云俱黑,江船火独明”),以小见大(“窗含西岭千秋雪,门泊东吴万里船”),粗笔勾勒和细部描绘相结合(“千山鸟

最新树立榜样的个人事迹简介怎么写800字

树立榜样的个人事迹简介怎么写800字 榜样是阳光,温暖着我们的心;榜样如马鞭,鞭策着我们努力奋斗;榜样似路灯,照亮着我们前进的方向。今天小编在这给大家整理了树立榜样传递正能量事迹作文,接下来随着小编一起来看看吧! 树立榜样传递正能量事迹1 “一心向着党”,是他向着社会主义的坚定政治立场;“人的生命是有限的,可是,为人民服务是无限的,我要把有限的生命投入到无限的为人民服务中去”,是他的至理名言;“甘学革命的“螺丝钉”,是他干一行爱一行、钻一行的爱岗敬业态度。他——雷锋,是我们每一个人的“偶像”…… 雷锋的事迹传遍大江南北,他,曾被人们称为可敬的“傻子”。一九六零年八月,驻地抚顺发洪水,运输连接到了抗洪抢险命令。他强忍着刚刚参加救火工作被烧伤的手的疼痛,又和战友们在上寺水库大坝连续奋战了七天七夜,被记了一次二等功。望花区召开了大生产号召动员大会,声势很大,他上街办事,正好看到这个场面,他取出存折上在工厂和部队攒的200元钱,那时,他的存折上只剩下了203元,就跑到望花区党委办公室要为之捐献出来,为建设祖国做点贡献,接侍他的同志实在无法拒绝他的这份情谊,只好收下一半。另100元在辽阳遭受百年不遇洪水的时候,他捐献给了正处于水深火热之中的辽阳人民。在我国受到严重的自然灾害的情况下,他为国家建设,为灾区捐献出自已的全部积蓄,却舍不得喝一瓶汽水。就这样,他毫不犹豫的捐出了自己的所有积蓄,不求功名,不求名利,只求自己心安理得,只求为

革命献出自己的微薄之力,甘愿做革命的“螺丝钉”——在一次施工任务中,他整天驾驶汽车东奔西跑,很难抽出时间学习,他就把书装在挎包里,随身带在身边,只要车一停,没有其他工作时,就坐在驾驶室里看书。他曾经在自己的日记中写下这样一段话:”有些人说工作忙,没时间学习,我认为问题不在工作忙,而在于你愿不愿意学习,会不会挤时间来学习。要学习的时间是总是有的,问题是我们善不善于挤,愿不愿意钻。一块好好的木板,上面一个眼也没有,但钉子为什么能钉进去呢?这就是靠压力硬挤进去的。由此看来,钉子有两个长处:一个是挤劲,一个是钻劲。我们在学习上也要提倡这种”钉子“精神,善于挤和钻。”这就是他,用自己的实际行动来证明自己,用自己的亲生经历来感化世人,用自己的所作所为来传颂古今……人们都拼命地学习他的精神,他的精神被不同肤色的人所敬仰。现在,一切都在变,但是,那些决定人类向前发展的基本要素没有变,那些美好的事物没有变,那些所谓的“螺丝钉”精神没有变——而这正是他的功劳,是他开启了无私奉献精神的大门,为后人树立了做人的榜样…… 这就是他,一位中国家喻户晓的全心全意为人民服务的楷模,一位共产主义战士!他作为一名普通的中国人民解放军战士,在他短暂的一生中却助人无数。而且,伟大领袖毛泽东主席于1963年3月5日亲笔为他题词:“向雷锋同志学习”。 正是因为如此,全国刮起了学习雷锋的热潮。雷锋已经离开我们很长时间了。但是雷锋的精神却深深地在所有中国人心中扎下了根,现在它已经长成一株小树。正以其顽强的生命力,茁壮成长。我坚信,

大学生先进事迹简介怎么写

大学生先进事迹简介怎么写 苑xx,男,汉族,1990年07月22日出生,中国共青团团员,入党积极分子,现任xx学院电气优创0902班班长,担任xx学院09级总负责人、xx学院团委学生会科创部干事、xx学院文艺团主持部部长。 步入大学生活一年以来,他思想积极,表现优秀,努力向党组织靠拢,学习刻苦,品学兼优,工作认真负责,脚踏实地,生活勤俭节约,乐于助人。一直坚持多方面发展,全面锻炼自我,注重综合能力、素质拓展能力的培养。再不懈的努力下获得了多项荣誉: ●获得09-10学年xx大学“百佳千优”(文化体育)一等奖学金和“百佳千优”(班级建设)二等奖学金; ●获得09-10学年xx大学“优秀学生干部”荣誉称号; ●2010年xx大学普通话知识竞赛中获得一等奖; ●2010年xx大学主持人大赛中获得一等奖,被评为金话筒; ●xx学院首届“大学生文明修身”活动周——再生比赛中获得一等奖; ●xx学院首届“大学生文明修身”活动周——演讲比赛中获得一等奖。 一、刻苦钻研树学风 作为班长,他在学习方面,将班级同学分成各个学习小组,布置每日学习任务,分组竞争,通过开展各项趣味学习活动,全面调动班级同学的积极性,如:排演英语戏剧、文学常识竞答、数学辅导小组等。他带领全班同学努力学习、勤奋刻苦,全班同学奖学金获得率达91%,四级通过率达66%。 二、勤劳负责建班风

在日常班级工作中,他尽心尽力,通过网络组织建立班级博客,把班级的日常情况,班级比赛,特色主题班会等活动,及时上传到 班级博客,以方便更多同学了解自己的班级,也把班级的魅力、特色,更全面、更具体的展现出来。 在班级建设中,他带领全班同学参加学院组织的各项文体活动中也收获颇多: ●在xx学院首届“大学生文明修身”活动周中荣获第二名, ●xx学院首届乒乓球比赛中荣获第一名、精神文明奖, ●在xx学院“迎新杯”男子篮球赛中荣获第四名、最佳组织奖。 除了参加学院组织的各项活动外,为了进一步丰富班级同学们的课余生活,他在班级内积极开展各式各样的课余活动: ●普通话知识趣味比赛,感受中华语言的魅力,复习语文文学常识,为南方同学打牢普通话基础,推广普通话知识。 ●“我的团队我的班”主题班会活动中,创办特色活动“情暖你我心”天使行动,亲切问候、照顾其他同学的生活、学习方面细节 小事,即使在寒冷的冬天,也要让外省的同学感受到家一样的温暖。 ●“预览科技知识”科技宫之行,作为现代大学生,不能只顾书本知识,也要跟上时代,了解时代前沿最新科技。 ●感恩节“感谢我们身边的人”主题班会活动,在这个特殊的节日里,他带领同学们通过寄贺卡、送礼物等方式,来感谢老师辛勤 的付出;每人写一封家书,寄给父母,感谢父母劳苦的抚育,把他们 的感激之情,转化为实际行动来感化周围的人;印发感恩宣传单,发 给行人,唤醒人们的感恩的心。 三、热情关怀暖人心 生活中,他更能发挥榜样力量,团结同学,增强班级凝聚力。时刻观察每一位同学的情绪状态,在心理上帮助同学。他待人热情诚恳,积极帮助生活中有困难的同学:得知班级同学生病高烧,病情 严重,马上放下午饭,赶到同学寝室,背起重病同学到校医院进行

个人事迹简介

个人事迹简介 我是来自计算机与与软件学院的学生,现在为青年志愿者协会的干事,在班级担任生活委员。在过去的一年里,我注重个人能力的培养积极向上,热心公益,服务群众,奉献社会,热忱的投身于青年支援者的行动中!一年时间虽短,但在这一年的时间里,作为一名志愿者,我确信我成长了很多,成熟了很多。“奉献、友爱、互助、进步”这是我们志愿者的精神,在献出爱心的同时,得到的是帮助他人的满足和幸福,得到的是无限的快乐与感动。路虽漫漫,吾将上下而求索!在以后的日子里,我会在志愿者事业上做的更好。 在思想上,我积极进取,关心国家大事,并多次与同学们一起学习志愿者精神,希望我们会在新的世纪里继续努力,发扬我国青年的光传统,不懈奋斗,不断创造,奋勇前进,为实现中华民族的伟大复兴做出了更大的贡献。 在学习上刻苦认真,抓紧时间,不仅学习好学科基础知识,更加学好专业课知识,在课堂上积极配合老师的教学,乐意帮助其它同学,有什么好的学习资料,学习心得也与他们交流,希望大家能共同进步。在上一个年度总成绩在班级排名第四,综合考评在班级排名第二。在工作中,我认真负责,出色的完成老师、同学交给的各项任务,所以班级人际关系良好。

此外参加了学院组织的活动,并踊跃地参加,发挥自己的特长,为班级争得荣誉。例如:参加校举办的大合唱比赛并获得良好成绩;参加了计算机与软件学院党校学习并顺利结业;此外,参加了计算机与软件进行的“计算机机房义务打扫与系统维护”的活动。在这些活动中体验到了大学生生活的乐趣。 现将多次参与各项志愿活动汇报如下:2013年10月26日,参加计算机与软件学院团总支实践部、计算机与软件学院青年志愿者协会组织“志愿者在五福家园的健身公园开展义务家教招新活动”;2013年11月7日,参加组成计算机与软件学院运动员方阵在田径场参加学院举办的学校运动会;2013年12月5日,参与学校学院组织的”一二.五“大合唱比赛;2014年3月12日,参加由宿舍站长组织义务植树并参与植树活动;2014年3月23日,在计算机与软件学院团总支书记茅老师的带领下,民俗文化传承协会、计算机与软件学院青年志愿者协会以及学生会的同学们参观了“计算机软件学院的文化素质教育共建基地--南京市民俗博物馆”的活动;2014年3月26日,参加有宿舍站长组织的“清扫宿舍公寓周围死角垃圾”的活动;2014年4月5日,参加由校青年志愿者协会、校实践部组织的“南京市雨花台扫墓”活动,2014年4月9日,作为班级代表参加计算机软件学院组织部组织的“计算机应用office操作大赛”的活动。 在参与各项志愿活动的同时,我的学习、工作、生活能力得到了提高和认可,丰富生活体验,提供学习的机会,提供学习的机会。

个人事迹简介10篇(优秀版)

《个人事迹简介》 个人事迹简介(一): 李维波,男,中共党员,自2003年应聘农电工以来,他就把自己的一切奉献给了他热爱的电力事业。在多年的工作中爱岗敬业,勤勤恳恳,任劳任怨。2003年至2007年先后担任过xx供电所线损管理员、用电检查管理员、两率管理员、线路工作负责人;2007年调到xx供电所任用电检查管理员、客户经理;2009年5月调到xx供电所任营销员兼用电检查管理员。 刚踏入电力工作的时候,他还是个电力行业的门外汉,可他深深的明白:知识改变思想!思想改变行动!行动决定命运这句话,明白在当今学习的社会里,对于电力更就应不断的吸取新的知识,更新新的观念,以满足时代对于电力的更高的要求。正是这样他透过自己的努力学习,一步步的从门外汉变成了此刻的技术骨干。 一、加强政治学习,提高理论思想水平 多年以来,他在工作中始终坚持学习邓小平理论和三个代表重要思想。他深知:一个人只有有了与时俱进的思想做指导,人的认识才会提高,思想才能净化,行为也才能与时代同步,与社会同步,与发展同步,也才能成为社会发展的推动者、有作为者,正因为如此,他严格要求自己,认真学习思想理论方面的知识,抓紧一切时间学习,认真听,做好笔记,写好心得,并且用三个代表思想来约束自己,不断提高自身的修养,从而真正实践党的全心全意为人民服务的宗旨。 二、加强专业知识的学习,提高专业技术 在当今信息化的时代,科学技术飞速发展,尤其在电力行业这个技术密集型企业中,学习显得尤为重要。从踏进电力企业的大门开始,他就自觉学习专业知识,以书本为老师,阅读各方面的相关书籍,不断丰富自己的理论基础;以老同志为师傅,细心观察他们的实际操作,不断丰富自己的实践经验;以实践为老师,从中加深对知识的理解和领会。从2003年开始,学会了计算机普通操作,掌握了电力安全方面相关知识、电工基础知识、供电营业规则,参加局每年安规考试多次得到全局前十名,2005年农电体制改革考试应知和应会总分全局第5名。 三、发扬三千精神,做好优质服务 2007年,xx所因滩坑移民影响,电费回收率难以上升,应对电费回收的复杂严峻形势,

山水田园诗赏析讲解学习

山水田园诗赏析

山水田园诗赏析 一、明确概念 1.所谓的山水诗,是以山水花草虫鱼等自然景观为主要描写对象的诗歌;所谓田园诗是指歌咏田园生活的诗歌,大多以农村的景物和农民、牧人、渔父樵夫等的劳动为题材。 2.代表诗人: A.第一个以田园生活入诗的诗人是东晋的陶渊明。第一个山水诗人是南朝的谢灵运。 B.唐朝时,形成了山水田园诗派,以王维、孟浩然等为代表人物。 山水田园诗属于写景诗的范畴,这类诗歌的主要特点就是“一切景语皆情语”,亦即作者笔下的山水自然景物都融入了作者的主观情愫,或者借景抒情,或者情景交融。 二、常见意象与意境: 体味诗歌的意境:要能把握诗中描写了什么样的景物,什么样的生活画面;画面组合所表现的情境氛围;运用了什么手法;表达了什么情感。 1.①炊烟、桑麻、桑榆、桃李、麦苗、豆苗、菊花、鸡、犬、禽雀、眠蚕…… ②意境特点:恬淡宁谧、清新优美、宁静和谐、明丽绚烂、富有生活气息。 ③表现对闲适恬淡的山水田园生活的热爱及悠闲自在、轻松愉悦的心情。 2. ①野径、古木、荆扉、柴门、空林、空山、鸾鹤、孤云、禅房、古寺、暮钟、五柳、接舆、伯夷、叔齐、林叟、幽人、樵夫、寺僧、道人…… ②意境特点:远离尘俗,清幽静谧、淡雅清幽、豁达、淡泊闲适、清冷荒僻。 ③表达希望归隐山林、超然世外、宁静淡泊或自甘寂寞的情怀。 3.①菊花。 菊花一直受到文人墨客的青睐,有人称赞它坚强的品格,有人欣赏它清高的气质。东晋田园诗人陶渊明,写了很多咏菊诗,将菊花素雅、淡泊的形象与自己不同流俗的志趣十分自然地联系在一起,如“采菊东篱下,悠然见南山”。宋人范成大《重阳后菊花二首》中“寂寞东篱湿露华,依前金靥照泥沙”等诗句,都借菊花来寄寓诗人的精神品质。 2. 竹。 亭亭玉立,挺拔多姿,以其“遭霜雪而不凋,历四时而常茂”的品格,赢得古今诗人的喜爱和称颂。苏轼的《於潜僧绿筠轩》有咏竹名句:“宁可食无肉,不可居无竹。无肉令人瘦,无竹使人俗。人瘦尚可肥,士俗不可医。”将竹视为名士风度的最高标识。郑板桥一生咏竹画竹,留下了很多咏竹佳句,如:“咬定青山不放松,立根原在破岩中。千磨万击还坚劲,任尔东西南北风。”赞美了立于岩石之中的翠竹坚定顽强、不屈不挠的风骨和不畏逆境、蒸蒸日上的禀性。 3. 五柳。 陶渊明《五柳先生传》载:宅边有五柳树,因以号为焉。后来“五柳”就成了隐者的代称。如王维的《辋川闲居赠裴秀才迪》:“寒山转苍翠,秋水日潺湲。倚杖柴门外,临风听暮蝉。渡头余落日,墟里上孤烟。负值接舆醉,狂歌五柳前。” 4. 东篱。 陶渊明《饮酒》:“采菊东篱下,悠然见南山。”后来多用“东篱”表现辞官归隐后的田园生活或娴雅的情致。如李清照《醉花阴》:“东篱把酒黄昏后,有暗香盈袖。” 5. 三径。

相关文档