文档库 最新最全的文档下载
当前位置:文档库 › Differential Camera Tracking through Linearizing the Local Appearance Manifold

Differential Camera Tracking through Linearizing the Local Appearance Manifold

Differential Camera Tracking through Linearizing the Local Appearance

Manifold

Hua Yang Marc Pollefeys Greg Welch Jan-Michael Frahm Adrian Ilie

Computer Science Department

University of North Carolina at Chapel Hill

Abstract

The appearance of a scene is a function of the scene con-tents,the lighting,and the camera pose.A set of n-pixel images of a non-degenerate scene captured from different perspectives lie on a6D nonlinear manifold in n.In gen-eral,this nonlinear manifold is complicated and numerous samples are required to learn it globally.

In this paper,we present a novel method and some preliminary results for incrementally tracking camera mo-tion through sampling and linearizing the local appearance manifold.At each frame time,we use a cluster of calibrated and synchronized small baseline cameras to capture scene appearance samples at different camera poses.We com-pute a?rst-order approximation of the appearance mani-fold around the current camera pose.Then,as new cluster samples are captured at the next frame time,we estimate the incremental camera motion using a linear solver.By using intensity measurements and directly sampling the ap-pearance manifold,our method avoids the commonly-used feature extraction and matching processes,and does not re-quire3D correspondences across frames.Thus it can be used for scenes with complicated surface materials,geome-tries,and view-dependent appearance properties,situations where many other camera tracking methods would fail. 1.Introduction

In this paper we address the challenging problem of tracking in scenes with highly view-dependent appearances. For example,scenes with curved re?ective surfaces,semi-transparent surfaces,and specular re?ections all change in appearance as the viewpoint changes.This confounding be-havior typically makes motion estimation very dif?cult.

Traditionally,tracking is formulated as a search problem in the parameter space of the transformation.Almost all tracking approaches use an invariant or parametric model of the scene appearance.There are two main classes of tracking approaches.The?rst class selects a number of

salient features and employs them as an invariant model of the scene.The second class extracts the tracking informa-tion from all observations.

Lounget-Higgins[13]employed selected salient features and their motion in consecutive frames to compute the epipolar geometry.The epipolar geometry then delivered the relative camera motion of a calibrated camera.This method was later extended to general cameras[15,14].

Methods that use all observed pixels are often applied in differential settings.Optical?ow based methods are employed to simultaneously recover structure and motion [3,10,8].These methods rely on a constant appearance of the scene or a known parametric representation that can accommodate the varying scene appearance.This second class of techniques is more closely related to our technique, which also uses all the image information concurrently.For example,the appearance of an object under different light-ing conditions is represented as a3D illumination linear subspace in[7,4].Bascle and R.Deriche modelled the ap-pearance of an object using texture appearance templates

[1].A parametric representation of the scene can also be

formulated as a global statistics of the objects’appearance [2,5],or a?lter response[12].Given the appearance model of the object,a nonlinear estimation framework is used for tracking[2].Recently,Elgammal proposed to learn a gen-erative appearance model of an object of?ine,and employ the model to compute the geometric transformation given the change of the appearance[6].

In this paper,we present a method that tracks the camera motion through linearization of the local appearance mani-fold.A camera cluster with small baselines is used to ac-quire local appearance samples.Then these samples are used to compute a linear approximation of the local appear-ance manifold and to estimate the camera motion parame-ters in this linear space.Our proposed method does not re-quire any3D or2D correspondences,thus it accommodates scenes with view-dependent appearance variances.In con-trast to the methods based on learning an invariant appear-ance representation,our method avoids the learning process that requires training data.

1

2.Problem statement

Our novel tracking approach targets scenes with highly view-dependent appearances.As far as we know this class of scenes is not handled by any existing technique.It is very dif?cult to model appearance behavior in general,and for this speci?c class of scenes it is particularly hard to?nd a global model due to the highly nonlinear appearance func-tion.Instead we use multiple local models that represent the global manifold about the current viewpoint.These lo-cal models are concurrently extracted from the scene while performing the tracking.

Consider a camera that undergoes complete6D motion (3D translation and3D rotation)in a static scene.At each frame time,it captures from its current pose P an n-pixel intensity image I of the scene.Each appearance sample I represents a point in a high-dimensional space n.As the camera changes its pose P,I also changes,moving along a manifold in n.One can see that there exists a mapping from P to I,denoted as I=f(P).Since the transforma-tion space of the camera pose has six degrees of freedom, the dimensionality of the appearance manifold is at most six.The dimension will be smaller for cases of degenerate camera motion—for example it will have dimension three for pure translation.For degenerate scenes the dimension-ality of the appearance manifold can be less than six.For example,when a camera looks at a very distant scene f is not invertible and the motion can not be fully recovered. In this paper,we consider only cases where the appearance manifold is not degenerate,and accordingly f is invertible.

In general the appearance manifold of a scene is highly nonlinear.Accordingly,numerous samples need to be ac-quired to learn a representation of it.Although learning f globally would be an ideal solution,this task is mostly in-feasible in practice due to changes of lighting conditions and movements of scene objects during capture,which vi-olate the static scene assumption.However,as discussed above,we know that the dimensionality of the appearance manifold is at most six.Hence,a small number of appear-ance samples simultaneously captured around current cam-era pose are enough to derive a local approximation of the appearance manifold.In particular,with six samples one can generate a linear approximation of the appearance man-ifold as dI=F dP,where dI is the difference image,dP is the camera motion,and F is the Jacobian matrix.This holds as long as the camera motion is within the range of an acceptable linear approximation.To achieve our goal we need to solve three fundamental problems:

1.How to capture local appearance samples?

2.How to derive a local linear approximation given ap-

pearance samples?

3.Is a linear approximation is suf?cient?

We will address these problems in the following sections.3.Tracking

This section introduces our novel tracking frame work. We will discuss how our techniques locally approximates the appearance manifold with linear functions and introduce a technique to capture the appearance manifold while the tracking.

3.1.Linearize the appearance manifold

In this section,we introduce the algorithm to linearize an appearance manifold and track camera motion inside the linear space.Assume at time t,we simultaneously acquire a center image I0from current camera pose P0and m per-turbed images I k at nearby perspectives P k(k=1,...,m). Thus we can compute m difference images dI k and camera motion dP k by subtracting I0and P0from I k and P k.We want to use these samples to linearize the appearance func-tion I(P)around P0:

I=I0+F(P?P0)(1)

dI=F dP.(2) Here I and dI are n-pixel images represented as n×1vec-tors,P and dP are6×1pose vectors,and F is the Jaco-bian(partial derivative)matrix?I/?P of size n×6.As m samples of dI k and known dP k are acquired,we can com-bine these sample vectors into matrices and write the linear equation as:

[dI1,dI2,...,dI m]=F[dP1,dP2,...,dP m](3)

If m is greater than6and the images and poses are not de-generated,the equation is of rank6.We can compute the least square solution of F using the Moore-Penrose pseudo inverse as

F=[dI1,dI2,...,dI m][dP1,dP2,...,dP m]+(4) The above discussion addresses the appearance manifold linearization problem in the general case where m≥6.For an ef?cient system,one would like to use minimum num-ber of perturbed cameras whose poses expand a6D motion space.In this case,m=6and the Jacobian becomes F=[dI1,dI2,...,dI6][dP1,dP2,...,dP6]?1(5) Once a linear approximation is derived for the local ap-pearance manifold,we can estimate the camera motion us-ing a linear solver.Assume at frame t+1,an updated cen-ter image?I0is captured at the new camera pose?P0,and a temporal difference image d?I0is computed by subtract-ing I0from?I0.We can then estimate the camera motion d?P=?P0?P0as the least square solution of Equation(6).

F d?P=d?I0(6)

3.2.Sample with a camera cluster

As shown in

Fig.1we have constructed a prototype dif-ferential camera cluster consisting of four small synchro-nized and calibrated cameras:one center camera C 0and three cameras C 1,C 2and C 3that are offset from the cen-ter.The coordinate frame of the cluster is de?ned to align with the center camera.We call the other three cameras C 1,C 2and C 3translational cameras as they capture im-ages from translated viewpoints.1At any point in time,the center camera and the translational cameras can be used to obtain four simultaneous appearance samples of the local appearance manifold.See the example images indicated by the green arrows in Fig.1.In addition we generate three warped images by rotating the image plane of C 0around its three coordinate axes.See the example images indicated by the red arrows in Fig.1.One can consider these warped images as having been captured by three virtual rotational cameras C 4,C 5and C 6,each with the same camera center as C 0but with rotated axes.Thus at any frame the clus-ter effectively “captures”seven local appearance samples I 0,...,I 6.In a non-degenerate case these seven images can be used to derive a ?rst order approximation of the local ap-pearance manifold.

Figure 1.A prototype differential camera cluster (center)and il-lustrative images.We obtain seven images total:one center,three translated,and three rotated.Note that the images shown above were rendered with an exaggerated baseline to make the differing perspectives more apparent.

1In

a general case,their axes do not need to be parallel with those of the center camera.

The camera cluster provides seven real-time appearance samples.Because the rotational images are warped ver-sions of the center image,the four samples are from the same manifold.However,the translational samples are captured using different cameras.To use these samples for linearizing the local manifold captured by the center cam-era,we need geometric and photometric consistency across cameras.Assuming the radial distortion is removed from all cameras,we can achieve geometric consistency by using the intrinsic parameters of the center camera for the trans-lational cameras.Speci?cally we decompose the projection matrix [9]to obtain camera intrinsic and extrinsic para-meters.We then generate three virtual translational cam-eras using the intrinsic parameters of the center camera and the extrinsic parameters of the real translational cameras.We then generate the translational images using homogra-phy mappings.To ensure photometric consistency across the cameras we used the approach presented in [11].The approach consists of a closed-loop process that tunes the camera hardware settings such that the colors values of a 24-sample color target are consistent in all camera images.This is followed by a software post-processing step that uses the same 24color samples to compute a mapping that fur-ther improves photometric consistency.

4.Linearity of the local appearance manifold

4.1.An SVD analysis

In theory,given six non-degenerate samples one can al-ways generate a linear approximation of the appearance manifold,but such a linearization is accurate only within a limited region.The size of each locally-linear region is determined by the local smoothness of the manifold.Typ-ically,the scene appearance is a highly nonlinear function and its locally-linear regions are quite small.This means that any differential camera cluster should have very narrow baselines and a very high frame rate to acquire samples and restrict motions within a small locally-linear region.This is a great challenge.Even if these requirements can be sat-is?ed,due to the inherent electronic noise of the camera,the signal-to-noise ratio of the spatial and temporal differ-ence images might not be big enough to recover motion ac-curately.We try to alleviate this problem by blurring the images to smooth the appearance manifold.

Let us examine the smoothness of the appearance man-ifold for a synthetic 3D scene consisting of two textured planes (see the images in Fig.2).The two planes are placed at different depths to help distinguish the parallax effects from out-of-plane rotation and in-plane translation.Sev-eral rectangular white textures are pasted on the dimmed background (around the periphery)to provide some low fre-quency texture the scene.The resolution of the synthetic camera is n =640×640.As shown in Fig.2(a),we use a

uniform distribution to randomly perturb the camera pose and generate m =50images from nearby perspectives.The maximum magnitude of the perturbation is carefully de?ned so that the imaging of a point on the frontal plane shift at most 4pixels away from its position in the center position.The images are blurred

using a Gaussian ?lter and sub-sampled at a 4-to-1rate (see Fig.2(b)).This sampling rate is higher than the Nyquist rate.We then acquire differ-ence images by computing a mean image and subtracting it form the sub-sampled images.The pixel intensities of these difference images are reordered into column vectors and grouped into a n ×50matrix.We then apply SVD de-composition to the matrix.

To demonstrate the effects of smoothing the appearance manifold,we use three different Gaussian kernels of size [20×20,40×40,80×80]and σ=[3,6,12]to ?lter the original perturbed images and generate three sets of blurred images.The SVD results on matrices constructed using these blurred images are shown in Fig.2(d,e,f).One can see from Fig.2(e,f)that there are six signi?cant singular values,which implies that the smoothed local appearance manifold can be appropriately linearized and the motion can be recovered.While in Fig.2(d),the fourth,?fth and sixth singular values are not easily distinguished from the rest.While in general this could be an indication of a degener-ate scene (under-constrained),in this case it is an indica-tion that there is considerable non-linearity embedded in the appearance manifold for the region where the samples are captured.To address this we can sample closer to the center pose,or smooth the images more heavily.

(a)

(b)

(c)

(d) (e) (f)

Figure 2.SVD analysis using synthetic images of a 3D scene with

textured foreground and background planes.The foreground plane is the marbled square in the middle of the images.(a)The orig-inal images captured from 50close perspectives.(b)The blurred images.Three Gaussian ?lters with σ=[3,6,12]are used.(c)The power spectrum of the three Gaussian ?lter within [?40,40]of the frequency domain.(d)(e)(f)SVD results using the three different ?lters.

4.2.A quantitative analysis using sine waves

The SVD analysis shows that an non-linear appearance manifold can be smoothed using a low-pass ?lter.One can thus sample inside a locally-linear region and compute a lin-ear approximation of the ?ltered manifold.In this section,we present a quantitative analysis of sampling and estimat-ing motion on the smoothed manifold.In particular,for a given sampling density (camera baseline),we try to de-termine the threshold frequency for the low-pass ?lter and derive an estimate of the estimation error.In the analysis,we use sine signals as the scene contents,for any image can be decomposed into a series of sine waves of different fre-quencies.

Figure 3.1D orthographic cameras capture images of a sine signal.

Without loss of generality,let us consider the problem in one dimension.Suppose two parallel 1D orthographic cameras C 0and C 1capture images I 0and I 1of a sine signal as shown in Fig.3(a).Both images contain r samples from one period of the sine signal,starting from initial phases a 0and a 1as shown in Fig.3(b).At the next frame,C 0moves x degrees along the wave and captures a new image I x at initial phase a x =a 0+x .We can write the 1D images as:

I j =sin (a j +r k )

(7)

where j ∈[0,1,x ]and k ∈[0,1,..., 359/r ].Using Equation (5)and (6),we compute a linear estimate of the motion ?x as:

?x =(a 1?a 0)(I x ?I 0)/(I 1?I 0)

(8)

The estimation errors for different motions x using dif-ferent baselines are shown in Fig.4.One can see from Fig.4(a)that with two cameras of baseline b =a 1?a 0,the estimation error remains relatively small for motion within [0,b ]and increases quickly beyond this region.Region [0,b ]is the linear region for motion estimation.Fig.4(b)shows that while using a bigger baseline enlarges the linear region,it also causes greater estimation errors for motions within the linear range.For instance,using a baseline b =120the estimation error for x =30is 5degrees.In practice,we empirically choose b =90to achieve a balance between the size of tracking volume and the tracking accuracy.This

means for a particular scene,we can consider adjusting the camera baseline to be a quarter of highest frequency in the image.Or for a ?xed baseline,we should use a low-pass ?lter whose threshold is four times the camera baseline.Then we can expect to achieve good estimation for a mo-tion within the

baseline.

(a) (b)

Figure 4.Analysis of motion estimation error.(a)Estimation error (?x ?x )/b using speci?c baselines b =a 1?a 0=[30,60,90,120]degrees,and x ∈[?180,180]degrees.(b)Zoom in of (a)for x ∈[?10,60]degrees.

We have derived some interesting conclusions using analysis on 1D orthogonal cameras observing sine signals.Unfortunately,the analysis can not be directly extended to 3D scenes and perspective cameras.Here we provide some empirical veri?cation.Consider the synthetic data set used in the previous section.The shift of a point in the image plane is in [0,4].According to the previous analysis,the wave length of the highest frequency should be 16pixels.That is a 40Hz signal for a 640×640image.From Fig.2(c)and Table 1,we can see that 95%energy of a Gaussian ?l-ter with σ=6is covered by its low-frequency spectrum inside [?40,40].Thus the threshold of this low-pass ?lter is 40Hz.Whereas for the ?lter with σ=3,only 59%en-ergy is within the 40Hz low-frequency spectrum.As shown in Fig.2(d,e),a good linear approximation can be computed for images blurred with the ?rst ?lter but not for the second one.The results support the analysis.Gaussian kernel σ

3612Percentage energy covered by the low frequency spectrums [-40,40]

59%

96%

99%

Table 1.Energy distribution of Gaussian ?lters in the frequency domain.

The above analysis shows that the appropriate tracking volume is [0,b ],which means the estimation error is asym-metric.To solve this problem,one can consider choosing the center camera according to the motion direction.For in-stance,in the 1D case,if the cameras move to the left (see Fig.3),we can choose C 1to be the center camera and use I 0and I 1captured at the new frame to compute intensity derivatives.This solution can be extended to 3D cases.To use this technique,we need to detect the direction of the

motion.This can be achieved by doing motion estimating twice,?rst for the direction and then for the real estimation.While this solution appears to be awkward,the additional computation is affordable,as it only involves solving a lin-ear system that can be done ef?ciently.

5.Experimental Results

We ?rst present some results based on synthetic data.We simulated a scene consisting of a textured planar patch and a curved mirror,both contained inside an a cube.The in-ner six surfaces of the (surrounding)cube were textured using the same image.The simulated camera cluster was placed in front of the curved mirror.Thus the camera clus-ter viewed some of the scene beyond the edges of the mirror,and some of the re?ection.Traditional tracking techniques would not perform well on this data,since the epipolar con-straint does not hold for images of the curved mirror as the camera moves.

Fig.5presents some tracking results on the synthetic scene over 40frames.An original image (640×640)is shown in (a),where the border of the curved mirror is marked in green.One can see that the re?ection of the pla-nar patch is distorted by the curved mirror.When generating the image sequences,we restricted the maximum extent of the camera motion so that the pixel motion for frontal scene points would be less than 4pixels.We generated a blurred image (shown in (e))using a Gaussian kernel of 160×160with σ=24and sub-sampled at 32Hz (20pixels).We choose a σthat was larger than the analysis result shown in 4.2to accommodate the re?ection of the rear scene,which could move faster in the image plane than the front scene.We show the translation and rotation estimates in Fig.5(b-d)and (f-h).The horizontal axes represent frame num-bers and the vertical axes represent the accumulated mo-tion across the previous frames.In the plots,the red curves represent the true value,and blue curves represent the esti-mated value.The translation and rotation of the camera is de?ned in a global coordinate system that is aligned with the coordinate system of the center camera at the initial frame.In a second experiment,we tracked a real camera cluster.The cluster was built using four PointGrey Flea digital color cameras (see Fig.1).The baselines are 34mm in the X and Y direction,and 66mm in the Z direction.As described in 3,geometric and photometric consistencies were enforced across the four cameras.The color images were converted to grayscale and used as scene appearance samples.

To obtain some form of a ground-truth reference mo-tion track we moved the camera cluster along some pre-determined grid points marked on a table (the X -Z plane)while imaging the scene.Prior to data collection the cam-eras were manually adjusted to obtain parallel principal axes across frames.The results are shown in Fig.6.An original image and its blurred version is shown in (a)and

(e).The resolution of the original image is1024×768.The image was blurred using a Gaussian kernel of160×160 withσ=24,and then sub-sampled at a ratio of20to1. The accumulated translations and rotations are shown in(b-d)and(f-h).Again,the translations and rotations are de-?ned in the coordinate of the center camera at the initial frame.One can see that the algorithm achieves good esti-mation on X and Y translations,and the estimated rotations and Z translations are small.We believe the exhibited er-ror is due primarily to inherent error in our(incremental) approach,and registration error introduced by our manual alignment process.

Our third experiment demonstrates the tracking of a hand-held camera cluster over200frames.As the ground truth motion was unknown,we illustrate the tracking ac-curacy using projection error.Six3D scene points were chosen,and the coordinates of their projections in the four images of the initial frame were extracted using a standard OpenCV KLT tracker.We then back-projected and com-puted their3D positions in the world coordinates de?ned by the pose of the center camera at the?rst frame.As the cluster moved,its incremental motion at every frame was estimated and the accumulated motion between the current frame and the?rst frame was computed.These accumulated motion parameters were then used to compute a projection matrix of the center camera at its current pose.We used the estimated projection matrix to project the3D points onto the current center image,and indicated the projections with white patches.The results are presented in Fig.7.The im-ages are blurred and sub-sampled using the same parame-ters described in the second experiment.(a)shows the pro-jections of the3D points in the center image at the initial frame.The projections using matrices computed by esti-mated camera motions are shown in(b-h).

6.Conclusions

We presented a novel method for incrementally tracking camera motion through sampling and linearizing the local appearance manifold.We have demonstrated the method using both simulation and a real prototype camera cluster.

One area of future work we envision is related to the imaging component of the cluster.We have some ideas for using custom optics to effectively achieve the same cen-ter,translational,and rotational images using a single image sensor.This could make the unit more compact,while also helping address color,geometry,and speed issues.

In addition,the relatively simple and regular nature of the computation could lead to a relatively fast system for on-line estimation,perhaps using specialized embedded hard-ware such as FPGAs.As the processing speed increases, the inter-frame time could be decreased,improving the lin-ear approximations and some other aspects of the approach.

Finally,because the method is inherently incremental (estimating and integrating dP),it is likely that in prac-tice one would want to periodically use some of the im-ages for more conventional feature-based drift correction. Like MPEG and other video encoding schemes,future hard-ware could send a continuous dP stream with periodic key frames to the host computer,enabling fast incremental tracking with drift estimation and correction. References

[1] B.Bascle and R.Deriche.Region tracking through image se-

quences.In Proc.of International Conference on Computer Vison,2005.1

[2]S.Birch?eld.Elliptical head tracking using intensity gradi-

ents and color histograms.In Proc.of Computer Vison and Pattern Recognition,1998.1

[3] A.Bruss and B.Horn.Passive https://www.wendangku.net/doc/7616153711.html,put Vision,

Graphics and Image Process,21:3–20,1983.1

[4]M.L.Cascia,S.Sclaroff,and V.Athitsos.Fast,reliable head

tracking under varying illumination:An apporach based on registration of texture-mapped3d models.IEEE Transaction on Pattern Analysis and Machine Intelligence,21(6),2005.

1

[5] https://www.wendangku.net/doc/7616153711.html,aniciu,V.Ramesh,and P.Meer.Real-time tracking

of non-rigid objects using mean shift.In Proc.of Computer Vison and Pattern Recognition,2000.1

[6] A.M.Elgammal.Learning to track:Conceptual manifold

map for closed-form tracking.In Proc.of Computer Vison and Pattern Recognition,2005.1

[7]G.D.Hager and P.N.Belhumeur.Ef?cient region tracking

with parametric models of geometry and illumination.IEEE Transaction on Pattern Analysis and Machine Intelligence, 20(10):1025–1039,1998.1

[8]K.Hanna.Direct multi-resolustion estimation of ego-motion

and structure from motion.In Proc.of IEEE workshop on Visual Motion,1991.1

[9]R.Hartley and A.Zisserman.Multiple View Geometry in

Computer Vision.Cambridge University Press,2000.3 [10] D.Heeger and A.Jepson.Subspace methods for recovering

rigid motion i:Algorithm and implementation.Int.Journal of Computer Vision,7(2):95–117,1992.1

[11] A.Ilie and G.Welch.Ensuring color consistency across mul-

tiple cameras.In Proc.of International Conference on Com-puter Vison,2005.3

[12] A.Jepson,D.Fleet,and T.El-Maraghi.Robust on-line ap-

pearance models for visual tracking.In Proc.of Computer Vison and Pattern Recognition,2001.1

[13]H.Louguet-Higgins.A computer algorithm for reconstruct-

ing a scene from two projections.Nature,293:133–135, 1981.1

[14]M.Pollefeys,R.Koch,and L.V.Gool.Self-calibration and

metric reconstruction in spite of varying and unknow internal camera parameters.In Proc.of International Conference on Computer Vison,1998.1

[15] B.Triggs.Autocalibration and the absolute quadric.In Proc.

of Computer Vison and Pattern Recognition,1997.1

(a) (b) (c) (d)

(e) (f) (g) (h)

Figure5.Tracking in a synthetic scene with a curved mirror over40frames.(a)An image of the synthetic scene.The border of the curved mirror is marked in green.(b)-(d)Estimation of camera translations(in mm)in X,Y and Z directions.Red curves represent the true value of the accumulated motion,blue curves represent the estimated value of the accumulated motion.(e)A blurred image.(f)-(h)Estimation of camera rotation angles(in degree)around Z,X and Y axes.Red curves represent the true values of the accumulated motion,blue curves represent the estimated values of the accumulated motion.

(a) (b) (c) (d)

(e) (f) (g) (h)

Figure6.Tracking a controlled camera motion over20frames.(a)A image of the real scene.(b)-(d)Estimation of camera translations(in mm)in X,Y and Z directions.Red curves represent the true values of the accumulated motion,blue curves represent the estimated values of the accumulated motion.(e)A blurred image.(f)-(h)Estimation of camera rotation angles(in degree)around Z,X and Y axes.Red curves represent the true values of the accumulated motion,blue curves represent the estimated values of the accumulated motion.

(a) (b) (c) (d)

(e) (f) (g) (h)

Figure7.Tracking a hand-held camera motion over200frames.The tracking results are illustrated through projecting six3D scene points onto the image plane.The projection matrix is computed using the estimated motion.The positions of the3D points are marked as white patches.(a)The projected points in the center image at the initial frame.(b)-(h)The projected points in the center image at frame20,40, 60,140,160,180and200.

(完整word版)各种接口针脚定义大全,推荐文档

3.5mm插头 最常见的立体声耳机分三层,标准分布为“左右地红白”(从端部到根部依次是左声道、右声道、地线,其中左声道常用红色线皮,右声道常用白色的)。 最常见的是银白色的和铜黄色的,银色的是铜镀银,铜黄色的就是铜。由于银的稳定性和电子工程性优于铜,所以铜镀上银后可以升级使用该插头设备的用户体验。 USB接口 USB是一种常用的pc接口,他只有4根线,两根电源两根信号,故信号是串行传输的,usb接口也称为串行口,usb2.0的速度可以达到480Mbps。可以满足各种工业和民用需要.USB接口的输出电压和电流是: +5V 500mA 实际上有误差,最大不能超过+/-0.2V 也就是4.8-5.2V 。usb接口的4根线一般是下面这样分配的,需要注意的是千万不要把正负极弄反了,否则会烧掉usb设备或者电脑的南桥芯片:黑线:gnd 红线:vcc 绿线:data+ 白线:data-

USB接口定义图 USB接口定义颜色 一般的排列方式是:红白绿黑从左到右 定义: 红色-USB电源:标有-VCC、Power、5V、5VSB字样 白色-USB数据线:(负)-DATA-、USBD-、PD-、USBDT- 绿色-USB数据线:(正)-DATA+、USBD+、PD+、USBDT+ 黑色-地线: GND、Ground USB接口的连接线有两种形式,通常我们将其与电脑接口连接的一端称为“A”连接头,而将连接外设的接头称为“B”连接头(通常的外设都是内建USB数据线而仅仅包含与电脑相连的“A”连接头)。 USB接口是一种越来越流行的接口方式了,因为USB接口的特点很突出:速度快、兼容性好、不占中断、可以串接、支持热插拨等等,

淘宝常用专业术语、名词解释

淘宝常用专业术语、名词解释 【基础统计类】 1、浏览量(PV):店铺各页面被查看的次数。用户多次打开或刷新同一个页面,该指标值累加。 2、访客数(UV):全店各页面的访问人数。所选时间段内,同一访客多次访问会进行去重计算。 3、收藏量:用户访问店铺页面过程中,添加收藏的总次数(包括首页、分类页和宝贝页的收藏次数)。 4、浏览回头客:指前6天内访问过店铺当日又来访问的用户数,所选时间段内会进行去重计算。 5、浏览回头率:浏览回头客占店铺总访客数的百分比。 6、平均访问深度:访问深度,是指用户一次连续访问的店铺页面数(即每次会话浏览的页面数),平均访问深度即用户平均每次连续访问浏览的店铺页面数。【月报-店铺经营概况】中,该指标是所选月份日数据的平均值。 7、跳失率:表示顾客通过相应入口进入,只访问了一个页面就离开的访问次数占该入口总访问次数的比例。 8、人均店内停留时间(秒):所有访客的访问过程中,平均每次连续访问店铺的停留时间。 9、宝贝页浏览量:店铺宝贝页面被查看的次数,用户每打开或刷新一个宝贝页面,该指标就会增加。 10、宝贝页访客数:店铺宝贝页面的访问人数。所选时间段内,同一访客多次访问会进行去重计算。 11、宝贝页收藏量:用户访问宝贝页面添加收藏的总次数。 12、入店页面:单个用户每次浏览您的店铺时查看的第一个页面为入店页面。 13、出店页面:单个用户每次浏览您店铺时所查看的最后一个页面为出店页面。 14、入店人次:指从该页面进入店铺的人次。 15、出店人次:指从该页面离开店铺的人次。 16、进店时间:用户打开该页面的时间点,如果用户刷新页面,也会记录下来。 17、停留时间:用户打开本店最后一个页面的时间点减去打开本店第一个页面的时间点(只访问一页的顾客停留时间暂无法获取,这种情况不统计在内,显示为“—”)。 18、到达页浏览量:到达店铺的入口页面的浏览量。 19、平均访问时间:打开该宝贝页面到打开下一个宝贝页面的平均时间间隔。(用户访问该宝贝页后,未点击该页其他链接的情况不统计在内,显示为“—”) 20、全店宝贝查看总人次:指全部宝贝的查看人次之和。 21、搜索次数:在店内搜索关键词或价格区间的次数。

电子电路专业术语汇编

电子电路专业术语 ADM Add Drop Multiplexer 分插复用器 利用时隙交换实现宽带管理,即允许两个STM-N信号之间的不同VC实现互连,并且具有无需分接和终结整体信号,即可将各种G.703规定的接口信号(PDH)或STM-N信号(SDH)接入STM-M(M>N)内作任何支路。 AON Active Optical Network 有源光网络 有源光网络属于一点对多点的光通信系统,由ONU、光远程终端OLT和光纤传输线路组成。 APON ATM Passive Optical Network ATM无源光网络 一种结合ATM 多业务多比特率支持能力和无源光网络透明宽带传送能力的理想长远解决方案,代表了面向21 世纪的宽带接入技术的最新发展方向。 ADSL Asymmetric Digital Subscriber Line 非对称数字用户线 非对称数字用户线系统ADSL是一种采用离散多频音DMT线路码的数字用户线DSL系统。 AA Adaptive Antenna 自适应天线 一种天线提供直接指向目标的波束,比如移动电话的天线,能够随目标移动自动调整功率等因素,也称为智能天线(SMART ANTENNA)。 ADPCM Adaptive Differential Pulse Code Modulation 自适应脉冲编码调制 一种编码技术,将模拟采样的比特数从8位降低到3到4位,完成传输信号的压缩,ITU-T推荐 G.721 为32位ADPCM定义了一种算法(每秒8000次采样,每次采样采4比特),与传统PCM编码相比,它的传输容量加倍。

ADFE Automatic Decree Feedback Equalizer 自适应判决反馈均衡器 一种利用判决后的信号作为后向抽头的输入信号,可以消除噪声对后向抽头信号的影响的均衡器技术。 AMI Alternate Mark Inversion 信号交替反转码 一种数字传输中常用的编码技术,逻辑0由空电平表示,而逻辑1由交替反转的正负电压表示。 AON All Optical Net 全光网 就是网中直到端用户节点之间的信号通道仍然保持着光的形式,即端到端的全光路,中间没有光电转换器。这样,网内光信号的流动就没有光电转换的障碍,信息传递过程无需面对电子器件处理信息速率难以提高的困难。 AOWC All Optical Wave Converter 全光波长转换器 是指不经过电域处理,直接把信息从一个光波长转换到另一个波长的器件。 ASK Amplitude Shift Keying 振幅键控 一种键控技术,对应二进制调制信号,承载信号在开启和关闭之间切换,也就是常说的 ON-OFF键控。 ATPC Automatic Transfer Power Control自动发信功率控制 技术的要点是微波发信机的输出功率在ATPC 控制范围内自动跟踪接手段接收电平的变化而变化。它的优点有可减少对相邻系统的干扰、减少上衰减问题、减低直流功率消耗、改善剩余误码特性、在衰落条件下使输出功率额外增加2dB。 AWF All Wave Fiber 全波光纤 消除了光纤1383nm的水峰,这样就在1350-1450nm波段能增加120多个新的波长(间隔100GHZ)。对于城市接入网的用户十分有利。 AU Administrative Unit 管理单元 提供高阶通道层和复用段层之间适配功能的

完整word版各种接口针脚定义大全

3.5mm 插头 最常见的立体声耳机分三层,标准分布为“左右地红白”(从端部到根部依次是左声道、右声道、地线,其中左声道常用红色线皮,右声道常用白色的)。 最常见的是银白色的和铜黄色的,银色的是铜镀银,铜黄色的就是铜。由于银的稳定性和电子工程性优于铜,所以铜镀上银后可以升级使用该插头设备的用户体验。 USB接口 USB是一种常用的pc接口,他只有4根线,两根电源两根信号,故信号是串行传输的,usb接口也称为串行口, usb2.0的速度可以达到480Mbps。可以满足各种工业和民用需要.USB接口的输出电压和电流是: +5V 500mA 实际上有误差,最大不能超过+/-0.2V 也就是4.8-5.2V 。usb接口的4根线一般是下面这样分配的,需要注意的是千万不要把正负极弄反了,

否则会烧掉usb设备或者电脑的南桥芯片:黑线:gnd 红线:vcc 绿线:data+ 白线:data- 1 USB接口定义图 USB接口定义颜色 一般的排列方式是:红白绿黑从左到右 定义: 红色-USB电源:标有-VCC、Power、5V、5VSB字样 白色-USB数据线:(负)-DATA-、USBD-、PD-、USBDT- 绿色-USB数据线:(正)-DATA+、USBD+、PD+、USBDT+ 黑色-地线: GND、Ground USB接口的连接线有两种形式,通常我们将其与电脑接口连接的一端称为“A”连接头,而将连接外设的接头称为“B”连接头(通常的外设都是内建USB数据线而仅仅包含与电脑相连的“A”连

接头)。 USB接口是一种越来越流行的接口方式了,因为USB接口的特点很突出:速度快、兼容性好、不占中断、可以串接、支持热插拨等等, 2 所以如今有许多打印机、扫描仪、数字摄像头、数码相机、MP3播放器、MODEM等都开始使用USB做为接口模式,USB接口定义也很简单: 1 +5V 2 DATA-数据- 3 DATA+数据+ 4 GND 地 串口 主板一般都集成两个串口,可Windows却最多可提供8个串口资源供硬件设置使用(编号COM1到COM8),虽然其I/O地址不相同,但是总共只占据两个IRQ(1、3、5、7共享IRQ4,2、4、6、8共享IRQ3),平常我们常用的是COM1~COM4这四个端口。我们经常在使用中遇到这个问题——如果在COM1上安装了串口鼠标或其他外设,就不能在COM3上安装如Modem之类的其它硬件,这就是因为IRQ设置冲突而无法工作。这时玩家们可以将另外的外设安装在COM2或4。 标准的串口能够达到最高115Kbps的数据传输速度,而一些增强型串口如ESP(Enhanced Serial Port,增强型串口) 、Super

职业卫生常见专业术语名词解释

职业卫生常见专业术语名词解释 职业卫生(Occupational health) 是研究劳动条件对劳动者健康的影响,以劳动者的健康在职业活动过程中免受有害因素侵害为目的的工作领域,研究改善劳动条件的一门学科,其首要的任务是识别、评价和控制不良的劳动条件,以及在法律、技术、设备、组织制度和教育等方面采取相应措施以保护劳动者的健康。 职业病(Occupational diseases)是指职工因受职业性有害因素的影响而引起的,由国家以法律法规形式规定并经国家指定的医疗机构确诊的疾病。 职业禁忌证(Occupational contraindication)是指某些疾病(或某种生理缺陷),其患者如从事某种职业,便会因职业性危害因素而使病情加重或易于发生事故,则称此疾病(或生理缺陷)为该职业的职业禁忌证。 急性中毒(acute poisoning)是指职工在短时间内摄入大量有毒物质,发病急,病情变化快,致使暂时或永久丧失工作能力或死亡的事件。 有害物质(harmful substances)化学的、物理的、生物的等能危害职工健康的所有物质的总称。 有毒物质(toxic substances)作用于生物体,能使机体发生暂时或永久性病变,导致疾病甚至死亡的物质。

危害因素(hazardous factors)能对人造成伤亡或对物造成突发性损坏的因素。 有尘作业(dusty work)作业场所空气中粉尘含量超过国家卫生标准中粉尘的最高容许浓度的作业。 有毒作业(toxic work)作业场所空气中有毒物质含量超过国家标准中有毒物质的最高容许浓度的作业。 职业接触限值:(OELs)指职业性有害因素的接触限量标准、指劳动者在职业活动过程中,长期反复接触,对机体不引起急性或慢性有害健康影响的容许接触水平。 最高容许浓度(MAC):指任何有代表性的采样测定均不得超过的浓度。 时间加权平均阈限值(TLV—TWA):指正常8小时工作日的时间加权平均浓度。 短时间接触限值(TLV—STEL):这是在不超过TWA的情况下,指每次接触时间不得超过15分钟的时间加权平均浓度。此浓度指在8小时内任何时间均不得超过的浓度。

C语言中文件_数据的输入输出_读写

C语言中文件,数据的输入输出,读写. 文件是数据的集合体,对文件的处理过程就是对文件的读写过程,或输入输出过程。 所谓文件是指内存以外的媒体上以某种形式组织的一组相关数据的有序集合。文件分类: 顺序文件,随机文件。 文本文件和二进制文件。 文本文件也称为ASCII文件,在磁盘中存放时每个字符对应一个字节,用于存放对应的ASCII码。 文本文件可以在屏幕上按字符显示,源程序文件就是文本文件,由于是按字符显示,所以能读懂文件内容。 二进制文件是按二进制编码方式来存放的。这里主要讨论文件的打开,关闭,读,写,定位等操作。 文件的存取方法 C程序的输入输出(I/O)有两种方式:一种称为标准I/O或流式I/O,另一种称为低级I/O。流式I/O是依靠标准库函数中的输入输出函数实现的。低级I/O利用操作系统提供的接口函数(称为底层接口或系统调用)实现输入输出,低级I/O 主要提供系统软件使用。 在C语言中用一个FILE类型的指针变量指向一个文件,(FILE类型是系统在stdio.h中定义的描述已打开文件的一种结构类型),这个指针称为文件指针。FILE *指针变量标识符; 如 FILE *fp; 文件的打开与关闭 所谓打开文件,指的是建立文件的各种有关信息,并使文件指针指向该文件,以便对它进行操作。 关闭文件则是断开指针与文件之间的联系,也就禁止再对该文件进行操作。 1、fopen 函数原型:FILE *fopen(const char *filename,const char *mode); Fopen函数用来打开一个文件,前一部分用来说明文件路径及文件名,后一部分mode指出了打开文件的存取方式;返回值是被打开文件的FILE型指针,若打开失败,则返回NULL。打开文件的语法格式如下: 文件指针名=fopen(文件名,使用文件方式); 文件指针名必须被说明为FILE类型的指针变量。 FILE *fp; fp=fopen(“C:\\Windowss\\abc.txt”,”r”); 注意用两个反斜杠\\来表示目录间的间隔符。 存取文件的模式是一个字符串,可以由字母r,w,a,t,b及+组合而成,各字符的含

房地产开发名词解释

如何进行房地产定位 定位是在房地产领域被较多提及的概念,产品定位,客户层定位,营销主题定位等等,几乎涉及房地产营运过程中的每个节点。 那么究竟什么是定位?按照里斯、特劳特在《定位》中所讲的,定位就是在预期客户头脑里如何独树一帜。说白了,定位就是要在你的目标客户头脑里找到一个位置。信息的过度传播,使人们接受信息的模式由“累积”模式转变为“替代”模式,没有一个独特的支撑点,你在消费者头脑中记忆的阶梯上是站不住脚的。 《定位》中提到定位的四个步骤: A:调研;B:细分市场;C:选择目标市场;D:定位。 这四个步骤不是专门针对房地产提出的,但我觉得可以借鉴过来,重新省思我们定位的过程,一定会大有斩获。 一、在定位进行之前我们第一步要做的是调研 在调研中所做的最重要的是客户调研,因为我们的产品最终是要卖给消费者,消费者的需求是我们唯一的标准。要了解消费者现在住得怎样,有什么满意和不满意的地方,他们希冀得到什么样的生活,憧憬什么,能接受什么样的生活方式等等。灵感的产生也许就是和这个过程息息相关,不知不觉中有了定位的依据、轮廓。 二、细分市场 人以类聚,物以群分。对于复杂的房地产市场也是一样,我们必须对这一市场进行细分。找出细分市场的标准。比如以档次来分,是要挤占中端市场,还是角逐高端市场;以建筑风格来分,是要凸显外国风格,还是要表现中国风格,是展示现代的,还是承传古典的;以客户群来分,客户是以中年人为重点,还是以老年人为主;以产品类型来分,是做多层,高层,别墅,还是酒店式公寓等等。根据不同的标准就会划分出不同的市场。 三、选择目标市场 市场细分之后,各个子市场就清晰地显现出来了,这时再根据地段条件,开发能力,运作实力等选择一个适合自己的开发市场。有一些项目做得不成功就是没有选定目标市场,总是希望产品能做多种类型,能涵盖不同的客户,这是不切合实际的。实践证明,一个楼盘只能专注特定的产品满足特定的客户。 四、定位 选定了目标市场,接下来就可以定位了。定位的目的是给市场一个可人的印象,所宣传的主题要能引起人们的兴趣,有较高的参与度。定位的概念形成以后,在接下来的一段时间内,应持续不断地对项目加以宣传,而不应在短时间内随意改变,随意变动会让消费者无所适从,而且会加大宣传的成本,使以前的宣传积累耗掉。 定位的基本步骤是这样,但不是一成不变的。这个顺序也可以倒过来。比如有时我们先有一个定位概念,想做一个细分市场,但心里没有底,不知道是否可行,我们就要倒过来做,最后做市场调研,做消费者调研,来验证概念的可行性,市场的容量有多大。 两个相反的过程代表了两种截然不同的市场行为。按正常的顺序是项目定位必须要植根于消费者,适应市场;按反常的思路是以开发商为主体,引导市场。有时觉得引导市场似乎更具竞争力,更具前瞻性,但其前期费用也许会加重一点。 知道了如何定位,但到底要定位什么呢? 在制造品牌差异时,有三大元素可以运用: A:我为谁而生?B:我是谁?C:为什么买我? 宝洁旗下的四大洗发水中的潘婷、海飞丝、飘柔三种都是运用了C元素:为什么买我?如潘婷的产品理念是为健康闪亮的,唯他命B5等等。而其中的沙宣则是运用了B元素:我是谁?我是引导全球头发时尚的专家。运用不同于其它洗发精的元素,使沙宣在洗发精类别

房地产专业术语(名词解释)

十一、房地产专业术语 1、问:什么是商品房? 答:是指在市场经济条件下,通过出让方式取得土地使用权后开发建设的房屋,均按市场价出售。商品房根据其销售对象的不同,可以分为外 销商品房和内销商品房两种。 2、问:什么是外销房? 答:外销商品房是由房地产开发企业建设的,取得了外销商品房预(销)售许可证的房屋,外销商品房可以出售给国内外(含港、澳、台)的 企业,其他组织和个人。 3、问:什么是内销房? 答:内销商品房是由房地产开发企业建设的,取得了商品房销售许可证的房屋,内销商品房可以出售给当地企事业单位和居民。 4、问:什么是复式住宅? 答:复式住宅是受跃层式住宅启发而创造设计的一种经济型住宅。这类住宅在建造上仍每户占有上下两层,实际是在层高较高的一层楼中增建 一个1.2米的夹层,两层合计的层高要大大低于跃层式住宅(复式为 3.3米,而一般跃层为5.6米),复式住宅的下层供起居用,炊事、进 餐、洗浴等,上层供休息睡眠和贮藏用,户内设多处入墙式壁柜和楼 梯,中间楼板也即上层的地板。因此复式住宅具备了省地、省工、省 料又实用的特点,特别适合子三代、四代同堂的大家庭居住,既满足 了隔代人的相对独立,又达到了相互照应的目的。 5、问:什么是跃层式住宅? 答:跃层式住宅是近年来推广的一种新颖住宅建筑形式。这类住宅的特点是,内部空间借鉴了欧美小二楼独院住宅的设计手法,住宅占有上下 两层楼面,卧室、起居室、客厅、卫生间、厨房及其它辅助用房可以 分层布置,上下层之间的交通不通过公共楼梯而采用户内独用小楼梯 联接。跃层式住宅的优点是每户都有二层或二层合一的采光面,即使 朝向不好,也可通过增大采光面积弥补,通风较好,户内居住面积和 辅助面积较大,布局紧凑,功能明确,相互干扰较小。

带格式的输出语句及输入语句

带格式的输出语句及输入语句 一、输入语句(读语句) 在程序中可以用赋值语句给变量获得一个确定的值,但是变量的值经常变化,尤其初始化时,则必须使用输入语句──读语句,将更为方便。读语句是在程序运行时由用户给变量提供数据的一种很灵活的输入动作,它有两种格式: 1.读语句的一般格式: read(<变量名表>); readln[(<变量名表>)]; 其中变量名表是用逗号隔开的若干个变量名组成的。 功能:从标准输入(即INPUT,一般对应着键盘)中读入数据,并依次赋给相应的变量。 说明: ①read和readln是标准过程名,它们是标准标识符。 ②执行到read或readln语句时,系统处于等待状态,等待用户从键盘上输入数据,系统根据变量的数据类型的语法要求判断输入的字符是否合法。如执行read(a)语句,a是整型变量,则输入的字符为数字字符时是合法的,合法的情况下将输入的整数赋给变量a。 ③在输入数值型(整型或实型)数据时,数据间要用空格或回车分隔开各个数据,一定要输入足够个数的数据,否则仍要继续等待输入,但最后一定要有回车,表示该输入行结束,直到数据足够,读语句执行结束,程序继续运行。 例3. 设a、b、c为整型变量,需将它们的值分别赋以10,20,30,写出对应下列语句的所有可能输入格式。 Read(a,b,c); 解 根据③,即可列出所有可能输入格式 (a)10□20□30←┘ (b)10□20←┘ 30←┘ (c)10←┘ 20□30←┘ (d)10←┘ 20←┘ 30←┘ 其中"←┘"表示回车键。 ④read语句与readln语句的第一个区别是:

read语句是一个接一个地读数据,在执行完本Read语句(读完本语句中变量所需的数据)后,下一个读语句接着从该数据输入行中继续读数据,也就是说,不换行。如: Read(a,b); Read(c,d); Read(e); 如果输入数据行如下: 1□2□3□4□5□6□←┘ 则a,b,c,d,e的值分别为1,2,3,4,5,如果后面无读语句则数据6是多余的,这是允许的。 Readln则不同,在读完本Readln语句中变量所需的数据后,该数据行中剩余的数据多余无用,或者说,在读完本Readln语句中变量所需数据后,一定要读到一个回车,否则多余的数据无用。 例4 设要达到例1同样的目的,但语句改为: readln(a,b);readln(c) 则例3中的4种输入格式只有(b)(d)是有效的. ⑤readln语句与read语句的第二个区别是:read后一定要有参数表,而readln 可以不带参数表,即可以没有任何输入项,只是等待读入一个换行符(回车)。经常用于暂停程序的运行,直到输入一个回车。 例5 设有下列语句: read(a,b,c); readln(d,e); readln; readln(f,g); 其中,所有变量均为整型。再设输入的数据如下: 1□2←┘ 3□4□5□6□7□8←┘ 9□10←┘ 11←┘ 12□13←┘ 列表给出每个变量的值.

JTAG各类接口针脚定义及含义

JTAG各类接口针脚定义及含义 JTAG有10pin的、14pin的和20pin的,尽管引脚数和引脚的排列顺序不同,但是其中有一些引脚是一样的,各个引脚的定义如下。 一、引脚定义 Test Clock Input (TCK) -----强制要求1 TCK在IEEE1149.1标准里是强制要求的。TCK为TAP的操作提供了一个独立的、基本的时钟信号,TAP的所有操作都是通过这个时钟信号来驱动的。 Test Mode Selection Input (TMS) -----强制要求2 TMS信号在TCK的上升沿有效。TMS在IEEE1149.1标准里是强制要求的。TMS信号用来控制TAP状态机的转换。通过TMS信号,可以控制TAP在不同的状态间相互转换。 Test Data Input (TDI) -----强制要求3 TDI在IEEE1149.1标准里是强制要求的。TDI是数据输入的接口。所有要输入到特定寄存器的数据都是通过TDI接口一位一位串行输入的(由TCK驱动)。 Test Data Output (TDO) -----强制要求4 TDO在IEEE1149.1标准里是强制要求的。TDO是数据输出的接口。所有要从特定的寄存器中输出的数据都是通过TDO接口一位一位串行输出的(由TCK驱动)。 Test Reset Input (TRST) ----可选项1 这个信号接口在IEEE 1149.1标准里是可选的,并不是强制要求的。TRST可以用来对TAPController进行复位(初始化)。因为通过TMS也可以对TAP Controll进行复位(初始化)。所以有四线JTAG与五线JTAG之分。 (VTREF) -----强制要求5 接口信号电平参考电压一般直接连接Vsupply。这个可以用来确定ARM的JTAG接口使用的逻辑电平(比如3.3V还是5.0V?) Return Test Clock ( RTCK) ----可选项2 可选项,由目标端反馈给仿真器的时钟信号,用来同步TCK信号的产生,不使用时直接接地。System Reset ( nSRST)----可选项3 可选项,与目标板上的系统复位信号相连,可以直接对目标系统复位。同时可以检测目标系统的复位情况,为了防止误触发应在目标端加上适当的上拉电阻。 USER IN 用户自定义输入。可以接到一个IO上,用来接受上位机的控制。 USER OUT 用户自定义输出。可以接到一个IO上,用来向上位机的反馈一个状态 由于JTAG经常使用排线连接,为了增强抗干扰能力,在每条信号线间加上地线就出现了这种20针的接口。但事实上,RTCK、USER IN、USER OUT一般都不使用,于是还有一种14针的接口。对于实际开发应用来说,由于实验室电源稳定,电磁环境较好,干扰不大。

房地产名词解释

房地产有关要领及相关知识概念 房地产:是房屋和土地的社会经济形态,是房屋和土地作为一种财产的总称,又称不动产。房地产业:是指从事房地产开发、经营、管理和服务的行业,包括:a.土地开发;b.房屋建设、维修、管理;c.土地使用权的有偿划拨、转让;d.房屋所有权的买卖、租赁和抵押; 房地产开发:是指在依法取得土地使用权的土地上按照使用性质和要求进行基础设施、房屋建筑的活动。 毛地:毛地主要指城市中需要拆迁而尚未拆迁的土地。 生地:生地是指可能为房地产开发与经常活动所利用,但尚未开发的农地和荒地。 飞地:又称插花地,指土地所有权人或使用权人的土地部分或全部处于他人土地范围内。 一级市场:房地产一级市场是指土地使用权的有偿出让。 二级市场:二级市场是指土地使用权有偿出让后的房地产开发经营,又称“增量市场”,国内目前的房地产开发主要是做“增量市场”。(20㎡/人) 三级市场:投入使用后的房地产交易,亦称“存量市场”。国外发达国家目前的房地产开发主要是做“存量市场”。(80㎡/人) 三通一平:供水、供电、道路到位,场地平整。 七通一平:供水、供电、道路、热力、供气、排水、排污,场地平整。 容积率:是建筑总面积与建筑用地面积的比值。例如,在1万平方米的土地上,有4000平方米的建筑总面积,其容积率为0.4。 建筑密度:指在居住区用地内各类建筑的基底总面积与居住区用地的比率,它可以反映出一定用地范围内的空地率和建筑密集程度。 得房率:是指套内建筑面积与套(单元)建筑面积之比。套内建筑面积=套内使用面积+套内墙体面积+套内阳台面积。套(单元)建筑面积=套内建筑面积+分摊得公用建筑面积。 开间:在住宅设计中,住宅宽度是指一间房屋内一面墙皮到另一面墙皮之间的实际距离,因为是就一自然间的宽度而言,故又称开间。 进深:在建筑学上是指一间独立的房屋或一幢居住建筑从前墙皮到后墙壁之间的实际长度。进深大的住宅可以有效地节约用地,但为了保证建成的住宅可以有良好的自然采光和通风条件,住宅的进深在设计上有一定的要求,不能任意扩大。 日照间距:前后两排房屋之间,为保证后排房屋在规定的时间内,获得所需日照量而保持的

最新各种接口针脚定义大全

各种接口针脚定义大 全

3.5mm插头 最常见的立体声耳机分三层,标准分布为“左右地红白”(从端部到根部依次是左声道、右声道、地线,其中左声道常用红色线皮,右声道常用白色的)。 最常见的是银白色的和铜黄色的,银色的是铜镀银,铜黄色的就是铜。由于银的稳定性和电子工程性优于铜,所以铜镀上银后可以升级使用该插头设备的用户体验。 USB接口 USB是一种常用的pc接口,他只有4根线,两根电源两根信号,故信号是串行传输的,usb接口也称为串行口,usb2.0的速度可以达到480Mbps。可以满足各种工业和民用需要.USB接口的输出电压和电流是: +5V 500mA 实际上有误差,最大不能超过+/-0.2V 也就是4.8-5.2V 。usb接口的4根线一般是下面这样分配的,需要注意的是千万不要把正负极弄反了,否则会烧掉usb设备或者电脑的南桥芯片:黑线:gnd 红线:vcc 绿线:data+ 白线:data-

USB接口定义图 USB接口定义颜色 一般的排列方式是:红白绿黑从左到右 定义: 红色-USB电源:标有-VCC、Power、5V、5VSB字样 白色-USB数据线:(负)-DATA-、USBD-、PD-、USBDT- 绿色-USB数据线:(正)-DATA+、USBD+、PD+、USBDT+ 黑色-地线: GND、Ground USB接口的连接线有两种形式,通常我们将其与电脑接口连接的一端称为“A”连接头,而将连接外设的接头称为“B”连接头(通常的外设都是内建USB数据线而仅仅包含与电脑相连的“A”连接头)。

USB接口是一种越来越流行的接口方式了,因为USB接口的特点很突出:速度快、兼容性好、不占中断、可以串接、支持热插拨等等,所以如今有许多打印机、扫描仪、数字摄像头、数码相机、MP3播放器、MODEM等都开始使用USB做为接口模式,USB接口定义也很简单: 1 +5V 2 DATA-数据- 3 DATA+数据+ 4 GND 地 串口 主板一般都集成两个串口,可Windows却最多可提供8个串口资源供硬件设置使用(编号COM1到COM8),虽然其I/O地址不相同,但是总共只占据两个IRQ(1、3、5、7共享IRQ4,2、4、6、8共享IRQ3),平常我们常用的是COM1~COM4这四个端口。我们经常在使用中遇到这个问题——如果在COM1上安装了串口鼠标或其他外设,就不能在COM3上安装如Modem之类的其它硬件,这就是因为IRQ设置冲突而无法工作。这时玩家们可以将另外的外设安装在COM2或4。 标准的串口能够达到最高115Kbps的数据传输速度,而一些增强型串口如ESP(Enhanced Serial Port,增强型串口) 、Super

建筑工程专业术语及名词解释

建筑工程专业名词及解释 1、基坑:基坑是指为进行建筑物(包括构筑物)基础与地下室的施工所开挖的地面以下空间。≥5米的基坑叫做深基坑,基坑分为三个等级:一级:开挖深度大于10米。三级:开挖深度小于或等于7米。二级:介于一、三级以外的基坑。 2、建筑工程意外伤害保险:《建设工程安全生产管理条例》第38条规定:“施工单位应当为施工现场从事危险作业的人员办理意外伤害保险。意外伤害保险费由施工单位支付。实行施工总承包的,由总承包单位支付意外伤害保险费。意外伤害保险期限自建设工程开工之日起至竣工验收合格止。”根据这个条款,分包单位的从事危险作业人员的意外伤害保险的保险费是由总承包单位支付的。 3、工程质量保证金:建设单位全部或者部分使用政府投资的建设项目,按工程价款结算总额5%左右的比例预留保证金,社会投资项目采用预留保证金方式的,预留保证金的比例可以参照执行发包人与承包人应该在合同中约定保证金的预留方式及预留比例。 4、墙裙:墙裙,又称护壁,很直观、通俗的说就是立面墙上像围了裙子。这种装饰方法是在四周的墙上距地一定高度(例如1米5)范围之内全部用装饰面板、木线条等材料包住,常用于卧室和客厅。 5、勒脚:勒脚是建筑物外墙的墙脚,即建筑物的外墙与室外地面或散水部分的接触墙体部位的加厚部分。勒脚的高度不低于700mm。勒脚部位外抹水泥砂浆或外贴石材等防水耐久的材料,应与散水、墙身水平防潮层形成闭合的防潮系统 6、普通烧结砖泛霜:原材料黏土中含有的硫酸镁或硫酸钙等可溶性硫酸盐受潮吸水溶解,随着砖内的水分的蒸发而在砖的表面产生盐析现象,一般为白霜。呈晶体析出时,使砖面剥落,抗冻性减小,影响工程质量。 7、水泥凝结时间:初凝时间(不得小于45分钟);终凝时间:硅酸盐水泥不得大于390分钟/普通硅酸盐水泥不得大于600分钟。(混凝土凝结时间:初凝时间不小于45分钟;终凝时间不大于10h) 8、堆积密度:疏松状(小块、颗粒纤维)材料在堆积状态下单位体积的质量。砂的松散堆积密度:>1350kg/m3;碎石的堆积密度:1480kg/m3。 9、表观密度:在自然状态下,单位体积材料质量。砂的表观密度:>2500kg/m3;碎石的表观密度:2700kg/m3。 10、和易性:砼拌合物易于施工操作(工作性)包括流动性、粘聚性和保水性三方面的含义。 11、砂率:指混凝土中砂的质量占砂、石总质量的百分率。 12、砼抗压强度:150mm的立方体试件,标养室(20±2℃,相对湿度95%以上),养护28天龄期,测得抗压强度,fcu表示,单位N/m㎡或MPa。普通砼强度范围C15—C80。13、砼表观密度:普通砼的表观密度2000-2800kg/m3,一般工程中设计的砼密度为2350-2450之间,可以取2400kg/m3。 14、砖的单位(经验)用量:标准砖512块/m3(529块)。每块砖的实际体积是(240*115*53)=立方米,加砂浆的体积是*{+灰缝}*{+灰缝}=立方米.那么每立方米墙体用砖是1/=529块.砂浆用量是1/=684块.684-529=155块*=立方米(计算没考虑损耗) 15、钢筋的单位理论质量:m。 16、砼抗渗性:用抗渗等级表示:P4、P6、P8、P10、P12五个等级。 17、砂浆的强度等级:边长的立方体试件;、M5、、M10、M15、M20六个等级。 18、基坑边缘堆置土方和材料:距基坑上部边缘不少于2m,堆置高度不应超过。

pascal-带格式的输出语句及输入语句

1.文件的打开与保存 2.文件的输入与输出语句(结合常量与变量、数的科学记数法) 3.类型:溢出的理解 带格式的输出语句及输入语句 一、写语句的输出格式 在pascal语言中输出数据时是可以按照一定格式的,对整数隐含的输出形式为按十进制数形式。对实数的输出,隐含的形式是科学记数法形式(如果不想用科学记数法输出而用小数形式输出,要自己另行定义)。 事实上,输出语句中的每个输出项中的表达式之后可以加上格式说明,若输出项后没有加格式说明,则数据按系统隐含的格式输出,还可加上一定格式符号按特定格式输出。 ⒈隐含的输出格式 pascal语言为整型量、实型量、布尔型量和字符串( 用一对单引号括起来的字符序列)规定了每种数据所占的宽度(即一个数据占几列) ,一个数据所占的宽度称为"场宽"或"字段宽"。系统给出的隐含场宽称为标准场宽。每一种pascal版本给定的标准场宽不尽相同。下表给出标准pascal和pc机上两种pascal版所规定的标准场宽。 标准场宽 ━━━━━━━━━━━━━━━━━ 数据类型标准pascal Turbo pascal ───────────────── integer 10 实际长度 real 22 17 布尔型10 4或5 字符串串长串长 ━━━━━━━━━━━━━━━━━ 在Turbo Pascal系统中,对于整型字符串的输出都是按数据本身长度输出,对于布尔型数据(只有True和False两种值),TRUE为4列,FALSE为5列,一律采用大写输出。而real 型数据的输出时,则按17列输出,其中第一列为符号位,正号不显示,后四位为"E±nn",中间的12列为尾数部分。如: writeln(sqrt(75)); 则输出□8.6602540379E+00。 而writeln(sqrt(81)); 则输出□9.0000000000E+00。 有时,在程序中往往根据实际情况,需要自己定义场宽。 ⒉指定场宽 在写语句中输出项含有格式符号时,就是为了指定场宽。 ⑴指定单场宽. 格式:write(表达式:N)或writeln(表达式:N),其中N为自然数,指定单场宽后,所有数据不再按标准场宽输出,而按指定场宽输出。若数据实际长度小于指定场宽时,则一律"向右

(房地产管理类)房地产专用名词解释

房地产专用名词解释 1、地产:地产指土地财产,是土地的经济形态,即在一定土地所有制关系下作为财产的土地。 2、毛地:毛地主要指城市中需要拆迁而尚未拆迁的土地。 3、生地:生地是指可能为房地产开发与经常活动所利用,但尚未开发的农地和荒地。 4、飞地:又称插花地,指土地所有权人或使用权人的土地部分或全部处于他人土地范围内。 5、炒地皮:对到手土地使用权的转售。以法定最低投入进行开发为前提。涉外房地产经营中外合资、合作及外商独资经营企业在我中国占有、使用或经营房地产。晒地皮一般是指:土地投机商对某地段土地预期地价呈上涨定势的评估无疑的前提下,买下地皮(即土的使用权、即土地使用权)到地价到达预期价位才出售牟利,以获得囤集土地的高利润的行为。后者为短期倒卖。 6、挖顶:通常指承租房屋的住户在搬家退租时,将不易拆除的装修及不便带走的家具等作价的抵级新的承租房使用。 7、绝卖:指房屋典期届满后,由于某种原因的出现以致标的物所有权发生转移。一般指典当期满不赎,逾期10或30年的成绝卖。对有绝卖条件的典当关系,双方同意回赎的,允许回赎。 8、一级市场:房地产一级市场是指新建住房的买卖市场,市场主体是住宅开发商、营造商和居民。居民通过一级市场购得住房的产权,使住房的产权首先从法律上达到确认。 9、二级市场:二级市场是指住房私有权出售、出租等交易市场。市场的主体是住房产权的所有者和住房消费者。目前亦有房地产三级市场之说,一般指房产出租市场。严格讲,归于房地产二级市场的概念之内。 10、CBD:即Central Business District(中央商务区),许多国际大都市都形成了相当规模的CBD,如纽约的曼哈顿、东京的新宿、香港的中环,现在,北京的CBD确定在西起东大桥路,东至西大望路,南至通惠河,北至朝阳北路的区域内。CBD应具备以下特征:现代城市商务中心,汇聚世界众多知名企业,经济、金融、商业高度集中,众多最好的写字楼、商务酒店和娱乐中心,最完善便利的交通,最快捷的通讯与昂贵的地价。 11、五证:房地产商在预售商品房时应具备《建设用地规划许可证》、《建设工程规划许可证》、《建筑工程施工许可证》、《国有土地使用证》和《商品房预售许可证》,简称“五证”。其中前两个证由市规划委员会核发,《建筑工程施工许可证》由市建委核发,《国有土地使用证》和《商品房预售许可证》由市国土资源和房屋管理局核发。 一般购房者记不住“五证”的名称和发证机关,其实也不必记住这么多。您购房时只需看一下《国有土地使用证》和《预售许可证》这“两证”就行了。因为如果开发商未取得《建设用地规划许可证》和《建设工程规划许可证》是拿不到《国有土地使用证》的,未取得上述两个《规划许可证》和《施工许可证》是拿不到《预售许可证》的。开发商取得了《预售许可证》就可以证明该项目在规划、工程、土地使用等方面通过了政府的批准,就具备了将开发的商品房进入市场交易的资格。根据北京市商品房交易的相关法规规定,开发商只有具备《预售许可证》才能与客户签署正式的《预售契约》。在此提醒一下购房者,签合同前看清楚您所预购的房屋是不是在预售范围内,提防开发商“偷梁换柱”。 12、产权证书:产权证书是指“房屋所有权证”和“土地使用权证”。房屋产权证书包括:产权类别、产权比例。房产坐落地址、产权来源、房屋结构、间数、建筑面积、使用面积、共有数纪要、他项权利纪要和附记,并配有房地产测量部门的分户房屋平面图。 13、房屋产权:房屋产权是指房产的所有者按照国家法律规定所享有的权利,也就是房屋各项权益的总和,即房屋所有者对该房屋财产的占有、使用、收益和处分的权利。 14、使用权房:使用权房是指由国家以及国有企业、事业单位投资兴建的住宅,政府以规定的租金标准出租给居民的公有住房。 15、公房:公房也称公有住房,国有住宅。它是指由国家以及国有企业、事业单位投资兴建、销售的住宅,在住宅未出售之前,住宅的产权(拥有权、占有权、处分权、收益权)归国家所有。目前居民租用的公有

房地产专业术语(名词解释)

十一、房地产专业术语 1、问:什么就是商品房? 答:就是指在市场经济条件下,通过出让方式取得土地使用权后开发建设得房屋,均按市场价出售。商品房根据其销售对象得不同,可以分为外销 商品房与内销商品房两种。 2、问:什么就是外销房? 答:外销商品房就是由房地产开发企业建设得,取得了外销商品房预(销)售许可证得房屋,外销商品房可以出售给国内外(含港、澳、台)得企业, 其她组织与个人。 3、问:什么就是内销房? 答:内销商品房就是由房地产开发企业建设得,取得了商品房销售许可证得房屋,内销商品房可以出售给当地企事业单位与居民。 4、问:什么就是复式住宅? 答:复式住宅就是受跃层式住宅启发而创造设计得一种经济型住宅。这类住宅在建造上仍每户占有上下两层,实际就是在层高较高得一层楼中增 建一个1、2米得夹层,两层合计得层高要大大低于跃层式住宅(复式为 3、3米,而一般跃层为5、6米),复式住宅得下层供起居用,炊事、进 餐、洗浴等,上层供休息睡眠与贮藏用,户内设多处入墙式壁柜与楼梯, 中间楼板也即上层得地板。因此复式住宅具备了省地、省工、省料又 实用得特点,特别适合子三代、四代同堂得大家庭居住,既满足了隔代 人得相对独立,又达到了相互照应得目得。 5、问:什么就是跃层式住宅? 答:跃层式住宅就是近年来推广得一种新颖住宅建筑形式。这类住宅得特点就是,内部空间借鉴了欧美小二楼独院住宅得设计手法,住宅占有上下 两层楼面,卧室、起居室、客厅、卫生间、厨房及其它辅助用房可以分 层布置,上下层之间得交通不通过公共楼梯而采用户内独用小楼梯联 接。跃层式住宅得优点就是每户都有二层或二层合一得采光面,即使朝 向不好,也可通过增大采光面积弥补,通风较好,户内居住面积与辅助 面积较大,布局紧凑,功能明确,相互干扰较小。

房地产专业名词解释

房地产专业名词解释 1、房地产:又称不动产,是房产和地产的总称。 2、土地类型:按其使用性质划分为居住、商业、工业、仓储、综合用地、公 共设施用地及自由集资、微利房用地。 3、土地权使用年限:是指政府通过拍卖、招标、协议的方式,将国有土地使用权在一定年限内出让给土地使用者。居住用地70年,工业、教育、科技、文化、卫生、体育、综合用地为50年,商业、旅游、娱乐用地为40年。 4、建筑用地面积:指各城市规范行政管理部门确立的建设用地位置和界限所围合用地之水平投影面积。 5、建筑面积:是指各建筑外墙线外围线的水平投影面积(包括有关国家规定应计算的阳台、雨蓬、无柱挑廊之和)测定的各层平面面积之和。 6、建筑基底面积:是指建筑物首层的建筑面积。 7、容积率:建筑面积/占地面积(指项目规划建设用地范围内全部面积与规 划建设用地面积之比。[项目用地红线防卫内的土地面积,一般包括建设区内的道路面积、绿地面积、建筑物《构筑物》所占面积、运动场地等])。 8、绿地率:居住用地范围内各类绿地的综合占据居住区用地的比率。 9、七通一平:给水通,排水(污)通,路通,电讯通,煤气通,电通,热力通,场地平整。

10、外销房:是由房地产开发商建设的取得了外销商品房预(销)售许可证 的房屋,外销商品房可以出售给国内外(包含港、澳、台)的企业,其他组织和个人。 11、内销房:是由房地产开发商建设的,取得了商品房销售许可证的房屋, 内销商品房可以出售给当地企事业单位和个人。 12、配件设施:指与住宅规模或与人口规模相对应配套建设的公共服务设施、 道路和公共绿地的总称。 13、住宅的开间:(宽)住宅的宽度是指一间房屋内一面墙皮到另一面墙皮之间的实际距离。住宅开间一般为3.0—3.9米,砖混结构住宅开间一般不超过3.3米。规定较小的开间尺度,可以缩短楼板的空间跨度、增强住宅结构整体性,稳定性和抗震性。 14、住宅的进深:(长)是一间独立的房屋或幢居住建筑从前墙皮到后墙皮之 间的实际长度。(大的住宅可以有效地节约用地,但为了保证建成的住宅具有良好的自然采光和通风条件,住宅的进深在设计上有一定的要求,不宜过大。目前我国大量城镇住宅房间的进深一般要限定在5米左右,不能任意扩大。在住宅的高度(层高)和宽度(开间)确定的前提下,设计的住宅进深过大,就使住房成狭长型,距离门窗较远的室内自然光线不足。) 15、层高:指下层地板面或楼板面到上层楼层之间的距离,也就是一层房屋的高度。 16、净高:指下层地板面或楼板上表面到上层楼板下表面之间的距离。即层高-楼 板厚度=净高。

相关文档
相关文档 最新文档