文档库 最新最全的文档下载
当前位置:文档库 › [Petrel2014使用技巧]基于地震数据体的属性建模方法

[Petrel2014使用技巧]基于地震数据体的属性建模方法

[Petrel2014使用技巧]基于地震数据体的属性建模方法
[Petrel2014使用技巧]基于地震数据体的属性建模方法

基于地震数据体的属性建模方法

在井资料稀少的地区,合理的利用地震资料是对井间岩性、物性进行解释的有效方法。利用Geobody模块,通过交汇基于遗传反演算法得到波阻抗体与主频体,定义不同岩性的值区间,最终得到由能够区别出各种岩性的离散型地震数据体。Train Estimation Medol主要基于神经网络算法,能够模拟人脑,识别属性曲线与地震体之间的规律、最终完成对孔隙度、渗透率等属性的运算过程。

算法优势:

1. 不依赖三维网格模型的相建模、属性建模技术;

2. 神经网络算法保证计算结果具有更高的准确性;

3. 无网格引入和粗化过程;

4. 快速、高效的计算过程;

1.提取地震属性

依据地震数据体和测井曲线,提取多个与岩性、物性有关的属性体,如遗传反演AI 体、主频体、构造平滑体、Envelope、瞬时频率、甜点等属性体(图1)。

2.Geobody体解释

激活地震体(Gen inversion),点击Insert box probe 插入三维Probe体,通过Manipulate Probe选择合适的体积大小,参考Grid Model、目的层位。在Input 面板下的Geobody Interpretation Probes文件夹里自动产生一个Probe体。

右键>Setting,在弹出的对话框里选择Volumes,在2nd Cube里导入第二地震属性体(如 Dominant Freq.体), 点击对话框下方的Apply键,切换至Opacity子界面, 由默认的Histogram切换到Crossplot,在右侧区域选择某一特定颜色,点击Tools 下的第一排按钮,在两种属性的交汇图上,勾画特定的区域范围;例如,砂岩通常具有较高的波阻抗,呈现低频特征,观察3D Windows地震体的变化。按住Ctrl键,切换另外一种颜色,选择泥岩等其它岩性,最终,将连续的地震数据体转变成离散的岩相数据体(图2)。

3. 将Probe体转换为地震体

右键Probe box体,点击convert to seimic cube,将解释的Probe体转换成可以为Grid Model采样的标准地震数据体(离散数据)(图3)。

右键转化的岩相地震体,点击Create well seismic, 在Well Section界面,对比解释结果与原始测井曲线(图4)。

在Geometrical Modeling里,利用Seismic Resampling,将地震体重采样到激活的网格模型里,调整为相模板显示(图5)。

4. 利用Train estimation Model生成孔隙度、渗透率模型

在Input>Wells>Global well logs>Checkshot>Attribute>TWT picked,右键双击TWT picked,选择Convert to log,在Input面板Global Well Logs下生成一个TWT 曲线,右键Global Well Logs(图6),点击Calculator,键入“Seismic log name=Seismic Attribute(X,Y,TWT log)” (图7)。

注:深度域地震体Z替换TWT。

按此方式依次将多个地震属性体转化为属性曲线,分别打开well section和new function windows,对比属性曲线和孔隙度、渗透率之间的关系,选择能够反映物性变化的地震属性体(图8)。

激活Utilities>Train Estimation Model,在弹出的对画框选择Estimation(模拟连续的属性数据)在Data type里选择Seismic,在Input子界面里输入地震体,在右侧对话框内选择能够反映物性变化的地震属性体,在Training Data里选择Log

data(测井曲线与地震属性之间进行培训)。

切换到Settings子对话框,选择Supervised,选择要模拟的测井曲线(孔隙度、渗透率),Training里设置合理的迭代等参数,点击Apply(图9),在Input下产生Neural Net文件同时,在Seismic survey里产生一个新的地震体,右键对虚体进行实现,产生一个新的属性地震体,进而可以采样到网格模型中。

地震数据处理方法(DOC)

安徽理工大学 一、名词解释(20分) 1、、地震资料数字处理:就是利用数字计算机对野外地震勘探所获得的原始资料进行加工、改进,以期得到高质量的、可靠的地震信息,为下一步资料解释提供可靠的依据和有关的地质信息。 2、数字滤波:用电子计算机整理地震勘探资料时,通过褶积的数学处理过程,在时间域内实现对地震信号的滤波作用,称为数字滤波。(对离散化后的信号进行的滤波,输入输出都是离散信号) 3、模拟信号:随时间连续变化的信号。 4、数字信号:模拟数据经量化后得到的离散的值。 5、尼奎斯特频率:使离散时间序列x(nΔt)能够确定时间函数x(t)所对应的两倍采样间隔的倒数,即f=1/2Δt. 6、采样定理: 7、吉卜斯现象:由于频率响应不连续,而时域滤波因子取有限长,造成频率特性曲线倾斜和波动的现象。 8、假频:抽样数据产生的频率上的混淆。某一频率的输入信号每个周期的抽样数少于两个时,在系统的的输出端就会被看作是另一频率信号的抽样。抽样频率的一半叫作褶叠频率或尼奎斯特频率fN;大于尼奎斯特频率的频率fN+Y,会被看作小于它的频率fN-Y。这两个频率fN+Y和fN-Y相互成为假频。 9、伪门:对连续的滤波因子h(t)用时间采样间隔Δt离散采样后得到h (nΔt)。如果再按h (nΔt)计算出与它相应的滤波器的频率特性,这时在频率特性图形上,除了有同原来的H (ω)对应的'门'外,还会周期性地重复出现许多门,这些门称为伪门。产生伪门的原因就是由于对h(t)离散采样造成的。 10、地震子波:由于大地滤波作用,使震源发出的尖脉冲经过地层后,变成一个具有一定时间延续的波形w(t)。 11、道平衡:指在不同的地震记录道间和同一地震记录道德不同层位中建立振幅平衡,前者称为道间均衡,后者称为道内均衡。 12、几何扩散校正:球面波在传播过程中,由于波前面不断扩大,使振幅随距离呈反比衰减,即Ar=A0/r,是一种几何原因造成的某处能量的减小,与介质无关,叫几何扩散,又叫球面扩散。为了消除球面扩散的影响,只需A0=Ar*r即可,此即为几何扩散校正, 13、反滤波(又称反褶积):为了从与干扰混杂的地震讯息中把有效波提取出来,则必须设法消除由于水层、地层等所形成的滤波作用,按照这种思路所提出的消除干扰的办法称为反滤波,即把有效波在传播过程中所经受的种种我们不希望的滤波作用消除掉。 14、校正不足或欠校正:如果动校正采用的速度高于正确速度,计算得到的动校正量偏小,动校正后的同相轴下拉。反之称为校正过量或过校正。 15、动校正:消除由于接受点偏离炮点所引起的时差的过程,又叫正常时差校正。 16、剩余时差:当采用一次波的正常时差公式进行动校正之后,除了一次反射波之外,其他类型的波仍存在一定量的时差,我们将这种进过动校正后残留的时差叫做剩余时差。

剖析大数据分析方法论的几种理论模型

剖析大数据分析方法论的几种理论模型 做大数据分析的三大作用,主要是:现状分析、原因分析和预测分析。什么时候开展什么样的数据分析,需要根据我们的需求和目的来确定。 作者:佚名来源:博易股份|2016-12-01 19:10 收藏 分享 做大数据分析的三大作用,主要是:现状分析、原因分析和预测分析。什么时候开展什么样的数据分析,需要根据我们的需求和目的来确定。 利用大数据分析的应用案例更加细化的说明做大数据分析方法中经常用到的几种理论模型。 以营销、管理等理论为指导,结合实际业务情况,搭建分析框架,这是进行大数据分析的首要因素。大数据分析方法论中经常用到的理论模型分为营销方面的理论模型和管理方面的理论模型。 管理方面的理论模型: ?PEST、5W2H、时间管理、生命周期、逻辑树、金字塔、SMART原则等?PEST:主要用于行业分析 ?PEST:政治(Political)、经济(Economic)、社会(Social)和技术(Technological) ?P:构成政治环境的关键指标有,政治体制、经济体制、财政政策、税收政策、产业政策、投资政策、国防开支水平政府补贴水平、民众对政治的参与度等。?E:构成经济环境的关键指标有,GDP及增长率、进出口总额及增长率、利率、汇率、通货膨胀率、消费价格指数、居民可支配收入、失业率、劳动生产率等。?S:构成社会文化环境的关键指标有:人口规模、性别比例、年龄结构、出生率、死亡率、种族结构、妇女生育率、生活方式、购买习惯、教育状况、城市特点、宗教信仰状况等因素。

?T:构成技术环境的关键指标有:新技术的发明和进展、折旧和报废速度、技术更新速度、技术传播速度、技术商品化速度、国家重点支持项目、国家投入的研发费用、专利个数、专利保护情况等因素。 大数据分析的应用案例:吉利收购沃尔沃 大数据分析应用案例 5W2H分析法 何因(Why)、何事(What)、何人(Who)、何时(When)、何地(Where)、如何做(How)、何价(How much) 网游用户的购买行为: 逻辑树:可用于业务问题专题分析

数据库建模经验总结

数据库如何建模 笔者从98年进入数据库及数据仓库领域工作至今已经有近八年的时间,对数据建模工作接触的比较多,创新性不敢谈,本文只是将工作中的经验总结出来,供大家一同探讨和指正。 提起数据建模来,有一点是首先要强调的,数据建模师和DBA有着较大的不同,对数据建模师来说,对业务的深刻理解是第一位的,不同的建模方法和技巧是为业务需求来服务的。而本文则暂时抛开业务不谈,主要关注于建模方法和技巧的经验总结。 从目前的数据库及数据仓库建模方法来说,主要分为四类。 第一类是大家最为熟悉的关系数据库的三范式建模,通常我们将三范式建模方法用于建立各种操作型数据库系统。 第二类是Inmon提倡的三范式数据仓库建模,它和操作型数据库系统的三范式建模在侧重点上有些不同。Inmon的数据仓库建模方法分为三层,第一层是实体关系层,也即企业的业务数据模型层,在这一层上和企业的操作型数据库系统建模方法是相同的;第二层是数据项集层,在这一层的建模方法根据数据的产生频率及访问频率等因素与企业的操作型数据库系统的建模方法产生了不同;第三层物理层是第二层的具体实现。 第三类是Kimball提倡的数据仓库的维度建模,我们一般也称之为星型结构建模,有时也加入一些雪花模型在里面。维度建模是一种面向用户需求的、容易理解的、访问效率高的建模方法,也是笔者比较喜欢的一种建模方式。 第四类是更为灵活的一种建模方式,通常用于后台的数据准备区,建模的方式不拘一格,以能满足需要为目的,建好的表不对用户提供接口,多为临时表。

下面简单谈谈第四类建模方法的一些的经验。 数据准备区有一个最大的特点,就是不会直接面对用户,所以对数据准备区中的表进行操作的人只有ETL工程师。ETL工程师可以自己来决定表中数据的范围和数据的生命周期。下面举两个例子: 1)数据范围小的临时表 当需要整合或清洗的数据量过大时,我们可以建立同样结构的临时表,在临时表中只保留我们需要处理的部分数据。这样,不论是更新还是对表中某些项的计算都会效率提高很多。处理好的数据发送入准备加载到数据仓库中的表中,最后一次性加载入数据仓库。 2)带有冗余字段的临时表 由于数据准备区中的表只有自己使用,所以建立冗余字段可以起到很好的作用而不用承担风险。 举例来说,笔者在项目中曾遇到这样的需求,客户表{客户ID,客户净扣值},债项表{债项ID,客户ID,债项余额,债项净扣值},即客户和债项是一对多的关系。其中,客户净扣值和债项余额已知,需要计算债项净扣值。计算的规则是按债项余额的比例分配客户的净扣值。这时,我们可以给两个表增加几个冗余字段,如客户表{客户ID,客户净扣值,客户余额},债项表{债项ID,客户ID,债项余额,债项净扣值,客户余额,客户净扣值}。这样通过三条SQL就可以直接完成整个计算过程。将债项余额汇总到客户余额,将客户余额和客户净扣值冗余到债项表中,在债项表中通过(债项余额×客户净扣值/客户余额)公式即可直接计算处债项净扣值。

数据分析建模简介

数据分析建模简介 观察和实验是科学家探究自然的主要方法,但如果你有数据,那么如何让这些数据开口说话呢?数据用现代人的话说即信息,信息的挖掘与分析也是建模的一个重要方法。 1.科学史上最有名的数据分析例子 开普勒三定律 数据来源:第谷?布拉赫(1546-1601,丹麦人),观察力极强的天文学家,一辈子(20年)观察记录了750颗行星资料,位置误差不超过0.67°。 观测数据可以视为实验模型。 数据处理:开普勒(1571-1630,德国人),身体瘦弱、近视又散光,不适合观天,但有一个非常聪明的数学头脑、坚韧的性格(甚至有些固执)和坚强的信念(宇宙是一个和谐的整体),花了16年(1596-1612)研究第谷的观测数据,得到了开普勒三定律。 开普勒三定律则为唯象模型。 2.数据分析法 2.1 思想 采用数理统计方法(如回归分析、聚类分析等)或插值方法或曲线拟合方法,对已知离散数据建模。 适用范围:系统的结构性质不大清楚,无法从理论分析中得到系统的规律,也不便于类比,但有若干能表征系统规律、描述系统状态的数据可利用。 2.2 数据分析法 2.2.1 基础知识 (1)数据也称观测值,是实验、测量、观察、调查等的结果,常以数量的形式给出; (2)数据分析(data analysis)是指分析数据的技术和理论; (3)数据分析的目的是把隐没在一大批看来杂乱无章的数据中的信息集中、萃取和提炼出来,以找出所研究对象的内在规律;

(4)作用:在实用中,它可帮助人们作判断,以采取适当行动。 (5)实际问题所涉及的数据分为: ①受到随机性影响(随机现象)的数据; ②不受随机性影响(确定现象)的数据; ③难以确定性质的数据(如灰色数据)。 (6)数理统计学是一门以收集和分析随机数据为内容的学科,目的是对数据所来自的总体作出判断,总体有一定的概率模型,推断的结论也往往一概率的形式表达(如产品检验合格率)。 (7)探索性数据分析是在尽量少的先验假定下处理数据,以表格、摘要、图示等直观的手段,探索数据的结构及检测对于某种指定模型是否有重大偏离。它可以作为进一步分析的基础,也可以对数据作出非正式的解释。 实验者常常据此扩充或修改其实验方案(作图法也该法的重要方法,如饼图、直方图、条形图、走势图或插值法、曲线(面)拟合法等)。 2.2.2 典型的数据分析工作步骤 第一步:探索性数据分析 目的:通过作图、造表、用各种形式的方程拟合、计算某些特征量等手段探索规律性的可能形式,即往什么方向和用何种方式去寻找和揭示隐含在数据中的规律性。 第二步:模型选定分析 目的:在探索性分析的基础上,提出一类或几类可能的模型(如进一步确定拟合多项式(方程)的次数和各项的系数)。 第三步:推断分析 目的:通常用数理统计或其它方法对所选定的模型或估计的可靠程度或精确程度作出推断(如统计学中的假设检验、参数估计、统计推断)。3.建模中的概率统计方法 现实世界存在确定性现象和随机现象,研究随机现象主要由随机数学来承担,随机数学包括十几个分支,但主要有概率论、数理统计、试验设计、贝叶

数据仓库模型的设计

2.5数据仓库模型的设计 数据仓库模型的设计大体上可以分为以下三个层面的设计151: .概念模型设计; .逻辑模型设计; .物理模型设计; 下面就从这三个层面分别介绍数据仓库模型的设计。 2.5.1概念模型设计 进行概念模型设计所要完成的工作是: <1>界定系统边界 <2>确定主要的主题域及其内容 概念模型设计的成果是,在原有的数据库的基础上建立了一个较为稳固的概念模型。因为数据仓库是对原有数据库系统中的数据进行集成和重组而形成的数据集合,所以数据仓库的概念模型设计,首先要对原有数据库系统加以分析理解,看在原有的数据库系统中“有什么”、“怎样组织的”和“如何分布的”等,然后再来考虑应当如何建立数据仓库系统的概念模型。一方面,通过原有的数据库的设计文档以及在数据字典中的数据库关系模式,可以对企业现有的数据库中的内容有一个完整而清晰的认识;另一方面,数据仓库的概念模型是面向企业全局建立的,它为集成来自各个面向应用的数据库的数据提供了统一的概念视图。 概念模型的设计是在较高的抽象层次上的设计,因此建立概念模型时不用考虑具体技术条件的限制。 1.界定系统的边界 数据仓库是面向决策分析的数据库,我们无法在数据仓库设计的最初就得到详细而明确的需求,但是一些基本的方向性的需求还是摆在了设计人员的面前: . 要做的决策类型有哪些? . 决策者感兴趣的是什么问题? . 这些问题需要什么样的信息? . 要得到这些信息需要包含原有数据库系统的哪些部分的数据? 这样,我们可以划定一个当前的大致的系统边界,集中精力进行最需要的部分的开发。因而,从某种意义上讲,界定系统边界的工作也可以看作是数据仓库系统设计的需求分析,因为它将决策者的数据分析的需求用系统边界的定义形式反映出来。 2,确定主要的主题域 在这一步中,要确定系统所包含的主题域,然后对每个主题域的内

【数据分析技术系列】之用户画像数据建模方法

【数据分析技术系列】 之用户画像数据建模方法 目录 一、什么是用户画像? (1) 二、为什么需要用户画像 (1) 三、如何构建用户画像 (2) 3.1数据源分析 (2) 静态信息数据 (3) 动态信息数据 (3) 3.2目标分析 (3) 3.3数据建模方法 (4) 四、总结: (6)

从1991年Tim Berners-Lee发明了万维网(World Wide Web)开始到2011年,互联网真正走向了一个新的里程碑,进入了“大数据时代”。经历了12、13两年热炒之后,人们逐渐冷静下来,更加聚焦于如何利用大数据挖掘潜在的商业价值,如何在企业中实实在在的应用大数据技术。伴随着大数据应用的讨论、创新,个性化技术成为了一个重要落地点。相比传统的线下会员管理、问卷调查、购物篮分析,大数据第一次使得企业能够通过互联网便利地获取用户更为广泛的反馈信息,为进一步精准、快速地分析用户行为习惯、消费习惯等重要商业信息,提供了足够的数据基础。伴随着对人的了解逐步深入,一个概念悄然而生:用户画像(UserProfile),完美地抽象出一个用户的信息全貌,可以看作企业应用大数据的根基。 一、什么是用户画像? 男,31岁,已婚,收入1万以上,爱美食,团购达人,喜欢红酒配香烟。 这样一串描述即为用户画像的典型案例。如果用一句话来描述,即:用户信息标签化。 如果用一幅图来展现,即: 二、为什么需要用户画像 用户画像的核心工作是为用户打标签,打标签的重要目的之一是为了让人能够理解并且方便计算机处理,如,可以做分类统计:喜欢红酒的用户有多少?喜

欢红酒的人群中,男、女比例是多少?也可以做数据挖掘工作:利用关联规则计算,喜欢红酒的人通常喜欢什么运动品牌?利用聚类算法分析,喜欢红酒的人年龄段分布情况? 大数据处理,离不开计算机的运算,标签提供了一种便捷的方式,使得计算机能够程序化处理与人相关的信息,甚至通过算法、模型能够“理解” 人。当计算机具备这样的能力后,无论是搜索引擎、推荐引擎、广告投放等各种应用领域,都将能进一步提升精准度,提高信息获取的效率。 三、如何构建用户画像 一个标签通常是人为规定的高度精炼的特征标识,如年龄段标签:25~35岁,地域标签:北京,标签呈现出两个重要特征:语义化,人能很方便地理解每个标签含义。这也使得用户画像模型具备实际意义。能够较好的满足业务需求。如,判断用户偏好。短文本,每个标签通常只表示一种含义,标签本身无需再做过多文本分析等预处理工作,这为利用机器提取标准化信息提供了便利。 人制定标签规则,并能够通过标签快速读出其中的信息,机器方便做标签提取、聚合分析。所以,用户画像,即:用户标签,向我们展示了一种朴素、简洁的方法用于描述用户信息。 3.1 数据源分析 构建用户画像是为了还原用户信息,因此数据来源于:所有用户相关的数据。 对于用户相关数据的分类,引入一种重要的分类思想:封闭性的分类方式。如,世界上分为两种人,一种是学英语的人,一种是不学英语的人;客户分三类,高价值客户,中价值客户,低价值客户;产品生命周期分为,投入期、成长期、成熟期、衰退期…所有的子分类将构成了类目空间的全部集合。 这样的分类方式,有助于后续不断枚举并迭代补充遗漏的信息维度。不必担心架构上对每一层分类没有考虑完整,造成维度遗漏留下扩展性隐患。另外,不同的分类方式根据应用场景,业务需求的不同,也许各有道理,按需划分即可。 本文将用户数据划分为静态信息数据、动态信息数据两大类。

地震资料数字处理试卷合集

一、名词解释 1.道均衡:是指在不同或同一地震记录道建立振幅平衡。 2.数字信号:相对于模拟信号,记录瞬间信息的离散的信号。 模拟信号:随时间连续变化的信号. 有效信号:能为我们所利用的信号就叫有效信号。 3.最小相位:能量集中在序列前部。 4.反射波:在波速突变的分界面上,波的传播方向要发生改变,入射波的一部分被反 射,形成反射波。 折射波:滑行波在传播过程中也会反过来影响第一种介质,并在第一种介质中激发新的波。这种由滑行波引起的波,叫折射波。 5.共深度点:CDP。地下界面水平时,在共中心点下方的点,界面倾斜时无共深度点。 6.解编:地震数据是按各道同一时刻的样点值成列排放的,解编就是将数据重排成行。 12. 最大相位:能量集中在序列后部。 16.地震波:地震波是在岩石中传播的弹性波。 多次波:在地下经过多次反射接收到的波叫多次波。 17. 切除:地震信号经动校正后被拉伸畸变,目前处理动校正拉伸畸变的方法是切除, 即把拉伸严重部分的记录全部充零。 18. 混合相位:能量集中在序列中部。 自相关:一个时间信号与自身的互相关。 互相关:一个时间信号与另一个时间信号的相关。 21.环境噪音:交流电、人、风吹草动等环境因素所引起的对地震波有干扰的信号。 随机噪音:交流电、人、风吹草动等随机因素所引起的对地震波有干扰的信号。 22.反射系数:反射振幅与入射振幅的比值。 28.模拟记录:把地面振动情况,以模拟的方式录制在磁带上。 二、简答题 1、地震资料数字处理主要流程?地震资料的现场处理主要包括哪些内容? 地震勘探资料数据处理中的预处理主要包括哪些内容? 简述地震资料数据中有哪些目标处理方法? 地震资料数字处理如何分类? 地震资料数字处理质量控制有哪些? 地震资料数字处理主要流程:输入→定义观测系统→数据预处理(废炮道、预滤波、反褶积)→野外静校正→速度分析→动校正→剩余静校正→叠加→偏移→显示。 地震资料的现场处理主要有:预处理、登录道头、道编辑、切除初至、抽道集、增益恢复、 设计野外观测系统、实行野外静校正、还可以进行频谱分析、速度分析、水平叠加等(2分)。 地震勘探资料数据处理中的预处理主要包括登录道头、废炮道编辑、切除初至、抽道集(4分)、增益恢复、预滤波、反褶积等. 地震资料数据中目标处理方法有高分辨率地震资料处理、三维地震资料处理、叠前深度偏移处理、井孔地震资料处理(4分)、多波多分量地震资料处理、时间推移地震资料处理等地震资料数字处理分类有数据预处理、数据校正、叠加和偏移归位、振幅处理、滤波、分析、正反演、复地震道技术等。(3分) 地震资料数字处理质量控制包括野外原始资料检查与验收、处理流程及主要参数确定、

大数据挖掘的用户画像应用方案

在大数据时代,机器要学会从比特流中解读用户,构建用户画像就变得尤其重要。本文介绍了用户画像的理论和实践,以及在实际中的应用。如何根据用户画像进行精准营销?将用户画像应用于个性化推荐?一起来寻找答案吧~ 首先看一下大数据与应用画像的关系,现在大数据是炙手可热,相信大家对大数据的四个V都非常了解,大数据应该说是信息技术的自然延伸,意味着无所不在的数据。 我们先看下数据地位发生转变的历史,在传统的IT时代,TI系统围绕业务服务,在这个服务的过程中沉淀了很多数据,再在数据的基础上做一些分析。但是到了DT时代不一样了,数据是现实世界的虚拟化表现,数据本身构成了一个虚拟世界,IT系统构建在虚拟系统上,变得更加智能。

大数据无处不在体现在几个方面 第一个就是说我们社会信息化的建设越来越发达。 第二个是随着可穿戴设备的发展,人产生了越来越多的数据,接入网络当中,同时人和人之间沟通的方式也不仅仅是传统的面对面,传统理解人、与人沟通的方式发生了根本的变革,因此我们要学会从比特流中去认识人类,因此构建用户画像这件事就变得更加重要。 而且现在机器也变得很智能了,所以我们还要教会机器来认识人类,这样才能在画像的基础上构建应用,譬如个性化推荐、精准广告、金融征信等等。之前我一直是在从事这方面的应用开发,因此知道用户画像对于这些应用的重要性。 如果大家是来自互联网公司的话,我们经常会提到这些词:用户画像、标签、360度用户视图等等,有不少人甚至就是做这面的研发工作,但是这些概念让你感觉有一点似是而非,我以前也有这样的感觉,就是说没有从根本上把这些概念弄清楚,因此有必要把这些概念从根本上弄清楚。 首先看一下我们生活中的用户画像

地震数据处理vista软件使用手册

Vista 5.5的基本使用方法 数据输入 地震分析窗口 一维频谱 二维频波谱 观测系统 工作流 一、数据输入 1.1 把数据文件加入Project 首先选择File/New Project,新建一个Project,按住不放,出现按钮组合,可以选择不同类型 的数据集,选择,向Project中增加一个新的2-D数据集,按住不放,出现按钮组合, 可以选择加入不同类型的地震数据,选择,选择一个SEG-Y数据,即可将该数据文件加入新建的数据集。 1.2 命令流中数据的输入 双击进入如下界面 1.2.1 Input Data List 数据输入列表,选择已加入到Project的数据集,下面的文本框中会显示选择的数据的基本信息。 1.2.2 Data Order 选择输入数据的排列方式,对不同的处理步骤可以选择不同的数据排列方式 Sort Order a. NO SORT ORDER 输入数据原始排列方式 b. SHOT_POINT_NO 输入数据按炮点排列方式 c. FIELD_STATION_NUMBER d. CMP_NO 输入数据按共中心点排列方式 e. FIELD_STATION_NUMBER 1.2.3 Data Input Control 数据输入控制 右键-->Data Input Control a. Data Input 进入Flow Input Command(见上) b. Data Sort List 查看数据排列方式的种类 c. Data/header Selection 输入数据的选择,可以控制输入数据的道数和CMP道集 查看所有已经选择的数据 如果没有定义任何可选的数据信息,则如下图所示: 可以选择一种选择方式,单击并设置选择信息。定义有可选的数据信息后,在查看,则如下图所示,会显示选择的信息。 选择共炮点集 单击后,会弹出如下界面:

数据仓库建模方法论 2018-3-29

数据仓库建模方法论 通过上一篇数据仓库建设的全局概览,我们认识了数据仓库,也明确了数据建模在仓库建设中的核心地位,数据仓库模型是整个大厦的基石,也是个难点。这么重要的环节就有必要单独拿出来详细说明一下。(本文的重点是维度建模)1什么是数据模型 数据模型是抽象描述现实世界的一种方法,是通过抽象的实体及实体之间的联系来表示现实世界中事务的相互关系的一种映射。 数据仓库模型是数据模型中针对特定的数据仓库应用系统的特定模型。由下图四部分内容组成: ●业务建模,主要解决业务层面的分解和程序化。 ●领域建模,主要对业务模型进行抽象处理,生成领域概念模型。 ●逻辑建模,主要将领域模型的概念实体以及实体之间的关系进行数据库层 次的逻辑化。 ●物理建模,主要解决逻辑模型针对不同关系型数据库的物理化以及性能等 一些具体的技术问题。

2数据仓库数据模型架构 数据仓库模型由五部分组成,如下图: 系统记录域:数据仓库业务数据存储区,模型保证了数据的一致性。(继续使用Oracle?) 内部管理域:也就是元数据模型的存储管理。(工具待定) 汇总域:系统记录域的汇总数据,数据模型保证的主题分析的性能,满足部分报表查询。 分析域:用于各个业务部分的具体的主题分析。也就是数据集市。 反馈域:针对前端反馈的数据,根据业务需求而定。 3数据模型的作用 ●进行全面的业务梳理,改进业务流程。 ●建立全方位的数据视角,打通信息孤岛,去除数据差异。 ●解决业务的变动,提高数据仓库灵活性。 ●帮助数据仓库系统本身的建设。

4如何创建数据仓库模型 4.1数据仓库建模四个阶段 4.1.1业务建模 ●划分整个企业的业务,一般按部门划分,进行各个部分之间业务工作 的界定,理清各业务部门之间的关系。 ●深入了解各业务部门工作流程的方法。 ●提出修改和改进业务部门工作流程的方法。 ●数据建模的范围界定,确定数据仓库项目的目标和阶段划分。 4.1.2领域概念建模 ●抽取关键业务概念,并抽象化。 ●将业务概念分组,按业务主线聚合类似的分组概念。 ●细化分组概述,理清分组概念内的精力流程并抽象化。 ●理清分组概念之间的关联,形成完整的领域概念模型。 4.1.3逻辑建模 业务概念实体化、事实实体化、说明实体化,并考虑其属性内容。 4.1.4物理建模 ●针对特定物理平台做出相应的技术调整 ●针对模型的性能考虑,结合特定平台做出相应调整

用户画像数据建模方法

用户画像数据建模方法 从1991年Tim Berners-Lee发明了万维网(World Wide Web)开始,到20年后2011年,互联网真正走向了一个新的里程碑,进入了“大数据时代”。经历了12、13两年热炒之后,人们逐渐冷静下来,更加聚焦于如何利用大数据挖掘潜在的商业价值,如何在企业中实实在在的应用大数据技术。伴随着大数据应用的讨论、创新,个性化技术成为了一个重要落地点。相比传统的线下会员管理、问卷调查、购物篮分析,大数据第一次使得企业能够通过互联网便利地获取用户更为广泛的反馈信息,为进一步精准、快速地分析用户行为习惯、消费习惯等重要商业信息,提供了足够的数据基础。伴随着对人的了解逐步深入,一个概念悄然而生:用户画像(UserProfile),完美地抽象出一个用户的信息全貌,可以看作企业应用大数据的根基。 一、什么是用户画像? 男,31岁,已婚,收入1万以上,爱美食,团购达人,喜欢红酒配香烟。 这样一串描述即为用户画像的典型案例。如果用一句话来描述,即:用户信息标签化。 如果用一幅图来展现,即: 二、为什么需要用户画像 用户画像的核心工作是为用户打标签,打标签的重要目的之一是为了让人能够理解并且方便计算机处理,如,可以做分类统计:喜欢红酒的用户有多少?喜欢红酒的人群中,男、女比例是多少? 也可以做数据挖掘工作:利用关联规则计算,喜欢红酒的人通常喜欢什么运动品牌?利用聚类算法分析,喜欢红酒的人年龄段分布情况? 大数据处理,离不开计算机的运算,标签提供了一种便捷的方式,使得计算机能够程序化处理与人相关的信息,甚至通过算法、模型能够“理解” 人。当计算机具备这样的能力后,无论是搜索引擎、推荐引擎、广告投放等各种应用领域,都将能进一步提升精准度,提高信息获取的效率。 三、如何构建用户画像

数据仓库建模详解和建模技巧

一、构建企业级数据仓库五步法 (一)、确定主题 即确定数据分析或前端展现的主题。例如:我们希望分析某年某月某一地区的啤酒销售情况,这就是一个主题。主题要体现出某一方面的各分析角度(维度)和统计数值型数据(量度)之间的关系,确定主题时要综合考虑。 我们可以形象的将一个主题想象为一颗星星:统计数值型数据(量度)存在于星星中间的事实表;分析角度(维度)是星星的各个角;我们将通过维度的组合,来考察量度。那么,“某年某月某一地区的啤酒销售情况”这样一个主题,就要求我们通过时间和地区两个维度的组合,来考察销售情况这个量度。从而,不同的主题来源于数据仓库中的不同子集,我们可以称之为数据集市。数据集市体现了数据仓库某一方面的信息,多个数据集市构成了数据仓库。 (二)、确定量度 在确定了主题以后,我们将考虑要分析的技术指标,诸如年销售额之类。它们一般为数值型数据。我们或者将该数据汇总,或者将该数据取次数、独立次数或取最大最小值等,这样的数据称为量度。 量度是要统计的指标,必须事先选择恰当,基于不同的量度可以进行复杂关键性能指标(KPI)等的设计和计算。

(三)、确定事实数据粒度 在确定了量度之后,我们要考虑到该量度的汇总情况和不同维度下量度的聚合情况。考虑到量度的聚合程度不同,我们将采用“最小粒度原则”,即将量度的粒度设置到最小。 例如:假设目前的数据最小记录到秒,即数据库中记录了每一秒的交易额。那么,如果我们可以确认,在将来的分析需求中,时间只需要精确到天就可以的话,我们就可以在ETL处理过程中,按天来汇总数据,此时,数据仓库中量度的粒度就是“天”;反过来,如果我们不能确认将来的分析需求在时间上是否需要精确到秒,那么,我们就需要遵循“最小粒度原则”,在数据仓库的事实表中保留每一秒的数据,以便日后对“秒”进行分析。 在采用“最小粒度原则”的同时,我们不必担心海量数据所带来的汇总分析效率问题,因为在后续建立多维分析模型(CUBE)的时候,我们会对数据提前进行汇总,从而保障产生分析结果的效率。关于建立多维分析模型(CUBE)的相关问题,我们将在下期栏目中予以阐述。 (四)、确定维度 维度是指分析的各个角度。例如我们希望按照时间,或者按照地区,或者按照产品进行分析,那么这里的时间、地区、产品就是相应的维度。基于不同的维度,我们可以看到各量度的汇总情况,也可以基于所有的维度进行交叉分析。

如何运用CRM的数据分析,完善企业用户画像模型

销帮帮CRM:用CRM的数据分析,完善企业用户画像模型 对一家企业最重要的是什么,没错,是客户,那么你对目标客户的了解有多深? 进入大数据时代,人群信息越来越多,企业没有精力去触达到每个用户去一一追踪验证,这就需要企业对用户进行大数据分析,将目标人群的信息根据需要划分成不同维度,让信息标签化,提炼出个体或整体的用户画像模型,为企业决策指明方向,助力企业迅速找到目标用户,从而转化成更多的价值。 互联网时代,客户的信息散乱、庞大,运用人工的统计成本太大,这就需要利用更高效更精准的平台来进行统计分析,C RM重要的作用之一就是大数据分析,建立企业CRM不仅可以实现高效的销售管理,更重要的是可以帮助企业更快更深的了解客户。 CRM,是一个可以将客户所有信息整合的系统,运用一段时间后,系统内就会积累大量的用户信息数据,那么如何将这些数据提炼成用户画像模型从而转化成价值呢? 1、用成交客户模型指导潜在客户 对于成交客户,可用CRM挖掘出他们的共性特征,由此来指导对潜在客户的行为。 在初始使用CRM时,客户可自定义用户的标签,比如地域、所处阶段、来源等等。成交客户积累一定数量后,CRM会对成交的客户进行阶段平均周期、行业、来源、产品等共性方面统计,形成用户画像模型,让企业了解到哪个行业或地域机会最多,哪种产品最受客户喜爱......

这些共性特征,可用来对潜在客户进行更好的挖掘和服务。例如,在CRM机会分析应用中,直接对销售漏斗阶段进行了呈现,通过大量数据计算出每个阶段的平均停留时间,由此时间点来安排对潜在客户的跟进对策,更快赢单。 在营销推广应用中,CRM可以统计成交客户来源数据,通过和最终转化率相比对,提炼出合适的推广渠道,进行精准营销,让利益更大化。 2、个性特征指导个性化服务 对成交客户,要研究每个客户的自身数据,如对购买频率、产品购买喜好等进行分析,挖掘出客户购买行为规则,个性化为客户服务,提升客户的满意度和黏性,延长与客户的合作周期。 对未成交客户,对客户列表信息、跟进记录等整体情况仔细研究,挖掘出客户顾虑点,更好的为客户服务。 用户画像的核心就是数据,如果通过人力进行数据分析,会增加企业的人工、时间成本。CRM可帮助企业实现科学化数据管理,深度认识企业的目标客户,不断完善客户模型,减少目标客户的流失率。 企业数据化的实现,CRM是非常关键的一步。

地震数据处理

地震数据整体流程 不同软件的地震数据处理方式不同,但是所有软件的处理流程基本是固定不变的,最多也是在处理过程中处理顺序的不同。整体流程如下: 1 数据输入(又称为数据IO) 数据输入是将野外磁带数据转换成处理系统格式,加载到磁盘上,主要指解编或格式转换。 解编:将多路编排方式记录的数据(时序)变为道序记录方式,并对数据进行增益恢复等处理的过程。如果野外采集数据是道序数据,则只需进行格式转换,即转成处理系统可接受的格式。 注:早期的时序数据格式为记录时先记录第一道第一个采样点、第二道第一个采样点、……、第一道第二个采样点、第二道第二个采样点、……直至结束。现在的道序记录格式为记录时直接记录第一道所有数据、第二道所有数据、……直至结束,只是在每一道数据前加上道头

数据。将时序数据变为道序数据只需要对矩阵进行转置即可。 2 置道头 2.1 观测系统定义 目的为模拟野外,定义一个相对坐标系,将野外的激发点、接收点的实际位置放到这个相对的坐标系中。即将SPS文件转换为GE-Lib文件,包括1)物理点间距2)总共有多少个物理点3)炮点位置4)每炮第一道位置5)排列图形。 2.2 置道头 观测系统定义完成后,处理软件中置道头模块,可以根据定义的观测系统,计算出各个需要的道头字的值并放入地震数据的道头中。当道头置入了内容后,我们任取一道都可以从道头中了解到这一道属于哪一炮、哪一道?CMP号是多少?炮间距是多少?炮点静校正量、检波点静校正量是多少?等等。 后续处理的各个模块都是从道头中获取信息,进行相应的处理,如抽CMP道集,只要将数据道头中CMP号相同的道排在一起就可以了。因此道头如果有错误,后续工作也是错误的。 GOEAST软件有128个道头,1个道头占4个字节,关键的为2(炮号)、4(CMP号)、17(道号)、18(物理点号)、19(线号)、20(炮检距)等。 2.3 观测系统检查 利用置完道头的数据,绘制炮、检波点位置图、线性动校正图。 3 静校正(野外静校正) 静校正为利用测得的表层参数或利用地震数据计算静校正量,对地震道进行时间校正,以消除地形、风化层等表层因素变化时对地震波旅行时的影响。 静校正是实现共中心点叠加的一项最主要的基础工作。直接影响叠加效果,决定叠加剖面的信噪比和垂向分辨率,同时影响叠加速度分析的质量。 静校正方法: 1)高程静校正 2)微测井静校正-利用微测井得到的表层厚度、速度信息,计算静校正量 3)初至折射波法 4)微测井(模型法)低频+初至折射波法高频 4 叠前噪音压制 干扰波严重影响叠加剖面效果。在叠前对各种干扰进行去除,为后续资料处理打好基础。 常见干扰有:面波、折射波、直达波、多次波、50Hz工业电干扰及高能随机干扰等多种情况。不同干扰波有不同特点和产生原因,根据干扰波和一次反射波性质(如频率、相位、视速度等)上的不同,把干扰和有效波分离,从而达到干扰波的去除,提高地震资料叠加效

数据仓库建模

背景介绍 熟悉社保行业的读者可以知道,目前我们国家的社保主要分为养老,失业,工伤,生育,医疗保险和劳动力市场这6 大块主要业务领域。在这6 大业务领域中,目前的状况养老和事业的系统已经基本完善,已经有一部分数据开始联网检测。而,对于工伤,生育,医疗和劳动力市场这一块业务,有些地方发展的比较成熟,而有些地方还不够成熟。 1.业务建模阶段 基于以上的背景介绍,我们在业务建模阶段,就很容易来划分相应的业务。因此,在业务建模阶段,我们基本上确定我们本次数据仓库建设的目标,建设的方法,以及长远规划等。如下图: 图8. 业务建模阶段 在这里,我们将整个业务很清楚地划分成了几个大的业务主线,例如:养老,失业,工伤,生育,医疗,劳动力等着几个大的部分,然后我们可以根据这些大的模块,在每个业务主线内,考虑具体的业务主线内需要分析的业务主题。 因此,业务建模阶段其实是一次和业务人员梳理业务的过程,在这个过程中,不仅能帮助我们技术人员更好的理解业务,另一方面,也能够发现业务流程中的一些不合理的环节,加以改善和改进。 同时,业务建模阶段的另一个重要工作就是确定我们数据建模的范围,例如:在某些数据准备不够充分的业务模块内,我们可以考虑先不建设相应的数据模型。等到条件充分成熟的情况下,我们可以再来考虑数据建模的问题。 2.领域概念建模阶段领域概念建模阶段是数据仓库数据建模的一个重要阶段,由于我们在业务建模阶段已经完全理清相应的业务范围和流程,因此,我们在这个领域概念建模阶段的最主要的工作就是进行概念的抽象,整个领域概念建模的工作层次如下图所示:

图9. 领域概念建模阶段 从上图我们可以清楚地看到,领域概念建模就是运用了实体建模法,从纷繁的业务表象背后通过实体建模法,抽象出实体,事件,说明等抽象的实体,从而找出业务表象后抽象实体间的相互的关联性,保证了我们数据仓库数据按照数据模型所能达到的一致性和关联性。 从图上看,我们可以把整个抽象过程分为四个层次,分别为: ?抽象方法层,整个数据模型的核心方法,领域概念建模的实体的划分通过这种抽象方法来实现。 ?领域概念层,这是我们整个数据模型的核心部分,因为不同程度的抽象方法,决定了我们领域概念的不同。例如:在这里,我们可以使用“参与方”这个概念,同时,你也可以把他分成三个概念:“个人”,“公司”,和“经办机构”这三个概念。而我们在构建自己的模型的时候,可以参考业务的状况以及我们自己模型的需要,选择抽象程度高的概念或者是抽象程度低的概念。相对来说,抽象程度高的概念,理解起来较为复杂,需要专业的建模专家才能理解,而抽象程度低的概念,较适合于一般业务人员的理解,使用起来比较方便。笔者在这里建议读者可以选用抽象概念较低的实体,以方便业务人员和技术人员之间的交流和沟通。 ?具体业务层,主要是解决具体的业务问题,从这张图我们可以看出,具体的业务层,其实只是领域概念模型中实体之间的一些不同组合而已。因此,完整的数据仓库的数据模型应该能够相应灵活多变的前端业务的需求,而其本身的模型架构具有很强的灵活性。这也是数据仓库模型所具备的功能之一。 ?业务主线层,这个层次主要划分大的业务领域,一般在业务建模阶段即已经完成这方面的划分。 我们一般通过这种大的业务主线来划分整个业务模型大的框架。 通过领域概念建模,数据仓库的模型已经被抽象成一个个的实体,模型的框架已经搭建完毕,下面的工作就是给这些框架注入有效的肌体。

地震数据处理课程设计(报告)

《地震资料数据处理》课程设计 总结报告 专业班级: 姓名: 学号: 设计时间: 指导老师: 2011年5月30日

目录 一、设计内容……………………………………………………………… (1)褶积滤波……………………………………………… (2)快变滤波……………………………………………… (3)褶积滤波与快变滤波的比较………………………… (4)设计高通滤波因子…………………………………… (5)频谱分析……………………………………………… (6)分析补零对振幅谱的影响…………………………… (7)线性褶积与循环褶积………………………………… (8)最小平方反滤波……………………………………… (9)零相位转换…………………………………………… (10)最小相位转换………………………………………… (11)静校正………………………………………………… 二、附录………………………………………………………………………… (1)附录1:相关程序…………………………………… (2)附录2:相关图件……………………………………

【附录1:有关程序】 1.褶积滤波 CCCCCCCCCCCCCCCCC 褶积滤波CCCCCCCCCCCCCCCCC PROGRAM MAIN DIMENSION X(100),H1(-50:50),H2(-50:50),Y_LOW(200),Y_BAND(200) PARAMETER (PI=3.141592654) CCCCCCCC H1是低通滤波因子,H2为带通滤波因子CCCCCC REAL X,H1,H2,Y_LOW,Y_BAND REAL dt,F,F1,F2 INTEGER I dt=0.002 F=70.0 F1=10.0 F2=80.0 OPEN(1,FILE='INPUT1.DA T',FORM='FORMATTED',STATUS='UNKNOWN') READ(1,*)(X(I),I=1,100) CCCCCCCCCCCCCCCCCC低通滤波器CCCCCCCCCCCCCCCCC DO 10 I=-50,50 IF (I.EQ.0)THEN H1(I)=2*F*PI/PI ELSE H1(I)=SIN(2*PI*F*I*dt)/(PI*I*dt) END IF 10 CONTINUE CCCCCCCCCCCCCCCC输出低通滤波因子CCCCCCCCCCCCCCCC OPEN(2,FILE='H1_LOW.DAT',FORM='FORMATTED',STATUS='UNKNOWN') WRITE(2,*)(H1(I),I=-50,50) CLOSE(2) CALL CON(X,H1,Y_LOW,100,101,200) CCCCCCCCCCCCCCCC输出滤波后的数据CCCCCCCCCCCCCCCC OPEN(3,FILE='Y_LOW.DA T',FORM='FORMATTED',STATUS='UNKNOWN') WRITE(3,*)(Y_LOW(I),I=51,150) CLOSE(3) CCCCCCCCCCCCCCCCCC带通滤波器CCCCCCCCCCCCCCCCCCCC DO 20 I=-50,50 IF(I.EQ.0)THEN H2(I)=140 ELSE H2(I)=SIN(2*PI*F2*I*dt)/(PI*I*dt)-SIN(2*PI*F1*I*dt)/(PI*I*dt) END IF 20 CONTINUE CCCCCCCCCCCCCCC输出带通滤波因子CCCCCCCCCCCCCCCCC OPEN(4,FILE='H2_BAND.DAT',FORM='FORMA TTED',STATUS='UNKNOWN')

地震数据处理流程(FOCUS 使用教程)

地震数据处理流程(FOCUS 使用教程) ------以L2二维勘探线为例 第一步:建立新的项目、工区、测线。 (1) 在终端相应用户下输入focus打开软件。如图: (2) 单击新建项目,弹出New Project对话框。 在PG_SURVEY_ROOT…(大工区根路径选择)中输入相应存储路径。在Project Name(项目名称)中输入此次项目的名称。 在Title(标题)中输入该项目下此次任务的名称。 在Location(路径)中输入此次任务的路径。

单击OK。弹出Select Register Host(选择存储主机)对话框,选择服务器t7400。 (4): 单击OK。弹出对话框GeoDepth Survey(地下堪区)。系统默认相应参数。

弹出Qustion对话框。提示新的路径不存在,是否要创建。选择YES。 (6): 同步骤(3)。选择t7400主机。单击OK。

在弹出Input Datapath(输入数据路径)对话框中,路径系统已给。单击Add将之加载到Seismic Data Path List(地震数据路径列表)中。 (8): 单击OK。弹出DISK or SDB(磁盘还是缓存)对话框。 在这里我们选择SDB。

创建新的测线。单击YES。 (10): 在弹出New Line对话框中,选填Line Name为l2,GeoDepth Name为l2。

第二步:加载道头数据 单击OK。回到主界面,选择Applications下的Production开始。 在弹出的新工作区可以看到,左边为具体的处理步骤,右边为相应步骤下的具体参数设置。(1)首先导入库函数,使用命令GIN。 在右边填入参数(具体可使用VeiwData查看SEGY文件): LENGTH(数据长度)2499; DT(采样率)1; MAXNTR(最大道头数)300; ENSEMBL(数据记录顺序样式)ffid;另外两项为系统默认值。 在右下方Options一栏中还需选填部分参数:

相关文档
相关文档 最新文档