文档库 最新最全的文档下载
当前位置:文档库 › Out-of-core compression and decompression of large n-dimensional scalar fields

Out-of-core compression and decompression of large n-dimensional scalar fields

Out-of-core compression and decompression of large n-dimensional scalar fields
Out-of-core compression and decompression of large n-dimensional scalar fields

GVU Technical Report.May2003.To appear in Eurographics2003.

Out-of-core compression and decompression of large

n-dimensional scalar?elds

Lawrence Ibarria?,Peter Lindstrom?,Jarek Rossignac?and Andrzej Szymczak?

?GVU Center,College of Computing,Georgia Institute of Technology,Atlanta,USA

?Lawrence Livermore National Laboratory,Livermore,USA.

Abstract

We present a simple method for compressing very large and regularly sampled scalar?elds.Our method is partic-ularly attractive when the entire data set does not?t in memory and when the sampling rate is high relative to the feature size of the scalar?eld in all dimensions.Although we report results for R3and R4data sets,the proposed approach may be applied to higher dimensions.The method is based on the new Lorenzo predictor,introduced here,which estimates the value of the scalar?eld at each sample from the values at processed neighbors.The pre-dicted values are exact when the n-dimensional scalar?eld is an implicit polynomial of degree n?1.Surprisingly, when the residuals(differences between the actual and predicted values)are encoded using arithmetic coding, the proposed method often outperforms wavelet compression in an L∞sense.The proposed approach may be used both for lossy and lossless compression and is well suited for out-of-core compression and decompression, because a trivial implementation,which sweeps through the data set reading it once,requires maintaining only a small buffer in core memory,whose size barely exceeds a single(n?1)-dimensional slice of the data.

Categories and Subject Descriptors(according to ACM CCS):I.3.5[Computer Graphics]:Compression,scalar?elds, out-of-core.

1.Introduction

Numerous engineering,biomedical,and other scienti?c ap-plications produce extremely large data sets through numeric simulations or physical data acquisition.In a large propor-tion of the cases,the data represents one or more scalar ?elds sampled over regular grids in dimension three,four,or higher.For example a typical3D simulation produces val-ues on a regular grid of2,0483samples6.In4D a typical combustion simulation generated using a High-Performance Parallel Processing Cluster may include1,000time slices, each representing a regular sampling of a cube at a resolu-tion of51231.Another example may be?uid dynamics data, used in our tests(see Fig.1).At each space-time sample,the values of several scalar and vector?elds are produced.Stor-ing the results of this simulation and transmitting them to remote visualization clients is expensive.A variety of data compression techniques have been proposed to reduce the storage and transmission cost4.

We focus here on the loss-less,single resolution(i.e.non progressive)compression.Instead of a hierarchical method, which transmits a sub-sampled(and possibly smoothened)model?rst and then estimates the missing values through in-terpolation,we transmit the values in order,using a new pre-dictor to extrapolate the next value from the previous ones. The residuals(differences between the actual and predicted values)may be encoded with fewer bits and,if desired,fur-ther compressed using arithmetic coding.

We have extended a simple two-dimensional parallelo-gram predictor5to higher dimensions and have named it the Lorenzo predictor.It estimates the scalar value of a sam-ple on the corner of an n-dimensional cube from the scalar values of the others2n?1corners.Although the formula for the predictor is very simple,its predictive power is sig-ni?cant for higher-dimensional data.For example,in R4, the Lorenzo predictor can recover exactly any scalar?eld that corresponds to an implicit cubic polynomial.In some situations,the proposed method outperforms wavelet com-pression in an L∞sense,when the residuals are encoded using arithmetic compression.Furthermore,because,during compression and decompression,we only need to access the immediate neighbors,the proposed approach is particularly well suited for out-of-core compression and decompression

Figure1:A4D data set from a simulation of two?uids interacting.

where the total size of the data set signi?cantly exceeds what can be stored in core memory.

2.Prior Art

Several compression techniques have been proposed for lower dimensional gridded data.These include image and video compression techniques,as offered by the MPEG-4standard18and various volume compression approaches 11,12.

A variety of methods to compress4D volumes have been proposed in recent years.These include wavelets10,discrete cosine transform(DCT)3and run length encoding(RLE)2. The wavelet approach uses an interpolating predictor,which, according to informal experiments,produces50%smaller residuals than an extrapolating predictor.On the other hand, the wavelet’s hierarchical approach requires more space and processing power than our extrapolating predictor.When lo-cal temporary storage is an issue,wavelet approaches may break the data set in smaller chunks and compress each one independently.The proposed approach does not require such splitting.

Fowler and Yagel12propose a similar approach to ours. They also use previously decoded samples to predict a new value in3D volumes.They use the three nearest visited neighbors,and compute optimal coef?cients for their pre-dictor.In contrast,we use seven neighbors.Ma et al13com-pute an octree for each frame,and encode the differences be-tween octrees.They also compare uniform and non-uniform (or adaptive)quantization of the data before compression. Others quantize the corrections or the wavelets coef?-cients,e.g.Bajaj et al.11.On the contrary,we quantize the data set and then perform lossless encoding.As a result,the maximum error produced by our approach is given by the quantization error.

Out-of-core methods for simplifying14and compressing 15,173D polygonal meshes have recently been proposed. Out-of-core methods for compressing3D volumetric data sets have also been proposed16.Chiueh et al’s approach segments the volume into different chunks,transforms each chunk separately using a Fourier transform,and encodes the transformed result.

3.The Predictor

When applied to a sample v,the Lorenzo predictor estimates the scalar value F(v)at v from its immediate neighbors that have already been processed.Assume that the data is orga-nized as a regular grid of samples.Both the compressor and decompressor visit the data in scanline order.For simplic-ity of notation,we use the local coordinate system where sample v has coordinates{1}n=(1,1,...,1)and its previ-ously visited neighbors are those samples with coordinates in Z n2={0,1}n.The value of the scalar?eld F(v)is esti-mated from the?eld values at the other previously recovered vertices U=Z n2?{v}of the n-dimensional unit cube using the following formula:

E(v)=∑

u∈U

(?1)c0(u)+1F(u)(1)

where E(v)is the prediction of F at v and c0(u)denotes the number of coordinates of u that equal zero.Note that c0(u) may also be expressed as c0(u)=n?c1(u)=n?u·v,where n is the dimension,c1(u)is the number of coordinates in u that equal one,and u·v is the dot product of u and v.

Note that,as shown in Fig.2,in this formulation,the im-mediate neighbors of the predicted vertex v have weight+1. Second degree neighbors(i.e.,those which can be reached from v by traversing two edges of the cube)have weight?1, third degree neighbors have weight+1,and so on.

4.Prediction for polynomials

The estimated values computed by the Lorenzo predictor in n dimensions are exact for all scalar functions that are poly-nomials of degree n?1.As a proof,assume that P is a poly-nomial of degree m in n variables,with m

Theorem1For a given monomial M in n variables of degree m

More formally,let u=(x1,...,x n).A monomial M(u)has

the form:x p11···x p k?1

k?1

x p k

k

x p k+1

k+1

···x p n n,with?i p i≥0and

∑i p i=m.The theorem states that∑u∈Z n

2

(?1)c1(u)M(u)=0. Proof There are n variables,but the sum∑i p i=m of the powers of the variables listed in M is less than n. Therefore at least one variable is not listed in M.Assume without loss of generality that the k th variable is not listed.Consequently,the value of M is independent of that variable and thus M(x1,...,x k?1,0,x k+1,...,x n)=

Figure2:In the2D case(top left),the new value is pre-dicted from its neighbors using the parallelogram rule(add the scalar?eld values at the two‘a’vertices and subtract the value at the‘b’vertex).In the3D case,we add the values of the‘a’corners,subtract the values of‘b’corners,and add the values of the‘c’corner.In the4D case,we add the val-ues at the?rst and third degree neighbors and subtract the sum of the values at the second and fourth degree neighbors. M(x1,...,x k?1,1,x k+1,...,x n).Note that (?1)x1+···+0+···+x n=?(?1)x1+···+1+···+x n.There-fore,the vertices of the cube can be paired so that the values of(?1)c1(u)M(u)on the two vertices of any pair are either both zero or have the same magnitude but opposite signs. Thus,the sum of the signed values is zero.

This result may be easily extended to polynomials as fol-lows.

Corollary1For a given polynomial P in n variables of de-gree m

Proof P=∑i M i is the sum of monomials of degree m

∑u∈Z n2(?1)c1(u)P(u)=∑

u∈Z n2

(?1)c1(u)∑

i

M i(u)

=∑

i

u∈Z n

2

(?1)c1(u)M i(

u)=∑

i

0=0

which proves the corollary. The corollary implies that

(?1)n P(1,...,1)=?∑

u∈U (?1)c1(u)P(u)

and hence

P(v)=(?1)n+1∑

u∈U

(?1)c1(u)P(u)=∑

u∈U

(?1)c0(u)+1P(u)

As a consequence,in two dimensions the Lorenzo predictor

is a linear predictor,and can exactly reconstruct portions of

the scalar?eld that behave as a linear function

F(x,y)=ax+by+c

In R3,the same simple Lorenzo predictor can reconstruct

quadratic functions:

F(x,y,z)=

ax2+by2+cz2+dxy+exz+f yz+gx+hy+jz+k

In R4,the predictor extends its reconstruction power to all

cubic polynomials,which are linear combinations of35pos-

sible monomials of degree of3or less in4variables.Even

though the15values at neighboring grid points that the

Lorenzo predictor uses do not provide enough information to

compute all35coef?cients of the polynomial,they uniquely

determine its value at the corner v.

The Lorenzo predictor is of highest possible order among

all predictors that estimate the value of a scalar?eld at one

corner of a cube from the values at the other corners.In other

words,it is of optimal order for this setting,and no other

predictor can correctly estimate all polynomials of degree n

or higher.

As a justi?cation,consider the monomial x1x2···x n(the

product of all coordinates).The product is zero on all ver-

tices of the unit cube except for one.So,a predictor would

not be able to differentiate this monomial from the zero poly-

nomial.Hence,the values of the scalar?eld at the2n?1cor-

ners of an n-dimensional cube are not suf?cient to recover

the value of an n th degree polynomial at the2nth corner.

Note that simpler predictors exist that correctly predict all

polynomials of degree m

n samples that precede v on a scanline.However,such lower-

dimensional anisotropic predictors are much less effective

since they fail to exploit data coherence in all dimensions.

The Lorenzo predictor is the simplest isotropic predictor that

can recover correctly all polynomials of degree less than n.

5.Scanline compression algorithm

Consider a4D scalar data set organized in an array

F[xmax,ymax,zmax,tmax].Pseudocode for the compression

algorithm is presented below:

Lorenzo(d,x1,...,x n)

if all x1,...,x n differ from?1

E:=LorenzoPredictor(d,x1,...,x n)

Encode(F[x1,...,x n]?E)

else

Lorenzo(d?1,x1,...,x k?1,0,x k+1,...,x n)

for i=1to dmax do

Lorenzo(d,x1,...,x k?1,i,x k+1,...,x n)

The variable d indicates the dimension of the predictor, x1,...,x n are the coordinates of a sample in the data,dmax is the number of samples in the d th dimension,and k de-notes the greatest index between1and n where x k equals ?1.The function LorenzoPredictor computes the Lorenzo predictor of dimension d(the?rst parameter)at the coordi-nates x1,...,x n.The starting call to compress a4D data set would be:

Lorenzo(4,?1,...,?1)

For example consider the2D case of a3×3matrix H,with points from(0,0)to(2,2).The trace of the compression pro-gram on the integer lattice would be:

call encoded value

Lorenzo(2,?1,?1)

Lorenzo(1,?1,0)

Lorenzo(0,0,0)H[0,0]

Lorenzo(1,1,0)H[1,0]?H[0,0]

Lorenzo(1,2,0)H[2,0]?H[1,0]

Lorenzo(2,?1,1)

Lorenzo(1,0,1)H[0,1]?H[0,0]

Lorenzo(2,1,1)H[1,1]?(H[1,0]+H[0,1]?H[0,0])

Lorenzo(2,2,1)H[2,1]?(H[1,1]+H[2,0]?H[1,0]) Lorenzo(2,?1,2)

Lorenzo(1,0,2)H[0,2]?H[0,1]

Lorenzo(2,1,2)H[1,2]?(H[0,2]+H[1,1]?H[0,1])

Lorenzo(2,2,2)H[2,2]?(H[2,1]+H[1,2]?H[1,1])

6.Footprint

When the data set is large,there may not be enough space to hold it all in main memory.Thus,both the compression and decompression algorithms may need to work from auxiliary storage.In its simplest form,compression estimates the next value using a predictor,then reads the next value from the raw data input stream,encodes the difference,and writes the difference out to the output stream of compressed values. Similarly,decompression estimates the next value using the same predictor,reads in the correction from the input stream of compressed data,decodes it and adds it to the estimated value,and writes the result to the output stream of decom-pressed values.

Let the term footprint denote the amount of main mem-ory needed by the predictor(both during compression and during decompression).The footprint used by the Lorenzo predictor for compressing or decompressing a data set is the size of a single(n?1)-dimensional slice,as illustrated in Fig.3for the R2case and in Fig.4for the R3case.

The footprint for compressing and decompressing a data set of size D n is D n?1+D n?2+···+D+1.If all the di-mensions do not have the same length,the size of the foot-print depends on the traversal order,which could be chosen to minimize the size.The footprint is implemented as a cir-cular FIFO queue.

If the corrections are compressed with an adaptive arith-metic encoder,memory to store a probability table is

also Figure3:When compressing an R2data set,the next value

(grey square)is predicted by using values from the footprint (red).The other previously processed values(blue)are not used by the predictor and need not be kept in

memory. Figure4:When compressing an R3data set,the next value (light cube in the center)is predicted by using values from the footprint slice(red).The other previously processed val-ues(bottom in blue)are not used by the predictor and need

not be kept in memory.

needed.While this space is generally much smaller than the whole data set,it is often not necessary to store the prob-ability for every possible correction.If memory is scarce, only the frequently occurring,small corrections around zero (Fig.6)need to be compressed,while occasional large cor-rections can be?agged and transmitted verbatim,with min-imal impact on the compression rate.

7.Residual encoding and lossy compression

When lossy compression is acceptable,we allow a small dis-crepancy between the compressed data and the real data in order to improve the compression ratio.We have considered two different error metrics:L∞(maximum error)and L2 (root mean square error).

To guarantee that we do not exceed a prescribed L∞error, we quantize the residuals from our predictor and readjust the values at the scalar?eld to compensate for any possible error accumulation.Thus the error made is at most the quantiza-

Figure 5:L ∞comparison of the Lorenzo Predictor (blue)and SPIHT (pink),a 2D wavelet image compressor.tion error.The adjusted corrections are encoded in a lossless fashion.

8.Experimental Results

In this section,we report the bene?ts of using the Lorenzo predictor as a preprocessor to an arithmetic encoder .We also compare such a combined approach with wavelet com-pression.Finally,we demonstrate the impact of the bene?ts of data coherence on a higher-dimensional predictor.We have tested our approach both on synthetic and real https://www.wendangku.net/doc/6a12563091.html,ing synthetic data,we populated a volume data set with functions of higher degree than that of the predictor.For a 3D predictor,when applied to a volume data set ?lled with a cubic function,the predictor makes a relative error be-tween 3and 8%(measure taken from applying the predictor to different cubic functions),while a 4D predictor against a volume set ?lled with a quartic makes a relative error of less than 1%.Both errors are measured in the L ∞sense.We have also tested our predictor on two real 4D data sets.After applying the predictor we use two different lossless en-coding methods to write the corrections to disk.The ?rst one is to feed the corrections to an adaptive arithmetic encoder.The second one uses a context arithmetic encoder,like the one studied by Bell 7,using the actual prediction as the con-text for the correction.The context arithmetic encoder gives us a 25%gain over the adaptive arithmetic encoder.We study the bene?ts of using 4D compression rather than a series of 3D compressed slices.All values are quantized to one byte.Our ?rst data set,courtesy of Professor Chris Shaw from Georgia Tech,is a 3D model of a house on ?re,which shows how the ?re,smoke and pressure progress through time and space.This data set has a high number of zones where the scalar values are uniform,and zones that exhibit high gradi-ents,which correspond to the moving front of the ?re.Be-cause the high number of 0corrections in the data set,best results are obtained when using a lossless RLE

compression

Figure 6:Histograms for the LLNL data set.Top:Fre-quency of the 4D corrections (which range from 0to 1,000,000,000)as a function of their value,ranging from -128to 127.Middle:Frequency of the 3D corrections for a single time slice.Bottom:Raw values,ranging from 0to 255.method,which we applied both to the 3D and 4D residuals for comparison.The uncompressed 4D data set has a size of 43,202,395bytes and a total information content (based on its entropy)of 23,491,https://www.wendangku.net/doc/6a12563091.html,pressing each 3D slice independently we obtain 1,076,587bytes (2.49%of the to-tal),and 524,768bytes (1.21%of the total)using 4D com-pression.Due to the high coherence in all dimensions,the 4D predictor outperforms the 3D compression applied to in-dividual slices by 50%.

Our second test data set was produced in a ?uid mixing simulation at Lawrence Livermore National Laboratory,as described in 8.A volume rendered image of this data set is shown in Fig.1.During the beginning time steps the ?u-ids are virtually at rest and the data set is relatively easy to compress.As the ?uids mix up in later time steps,the com-pression ratio decreases.For this data set,we chose to use an adaptive context arithmetic encoder as a postprocessing step to the Lorenzo prediction.

The 3D time slice predictor produces the best compres-sion on this data set.3D predictors for 3D slices in all the other directions are less effective.To explain this behavior,consider that this data set was originally computed at high resolution in time (27,000time steps were simulated),but then decimated and quantized due to limited storage.The ?oating point data was quantized to one byte and only one frame out of every hundred was actually stored,although no decimation was applied in the spatial dimensions.This

subsampling phase has signi?cantly reduced the coherence along the time axis.Our approach gives us304,937,058 bytes using the3D Lorenzo predictor on each time slice (1.77bits per symbol)and318,871,620bytes using4D pre-diction(1.85bits per symbol).

Dataset4D Lorenzo Predictor Cubic Wavelets Smooth6440.16Bits/Symbol0.20Bits/Symbol Rough644 3.73Bits/Symbol 3.28Bits/Symbol Rough1284 1.75Bits/Symbol 1.80Bits/Symbol

Table1:Entropy of the residuals produced by wavelets and the Lorenzo predictor for a4D data set.No quantization or truncation of the data or residuals was done.

We have compared the Lorenzo predictor with wavelets in two scenarios.In the?rst case we evaluate lossless compres-sion,where we compare cubic wavelets with the Lorenzo predictor for several4D data sets.As can be seen in Ta-ble1,which reports the entropy of the corrections of both schemes,wavelets and the Lorenzo predictor produce com-parable results.In our second scenario,the Lorenzo predic-tor was compared to SPIHT9,an ef?cient wavelet coder that uses the S+P transform,in terms of rate distortion us-ing lossy compression.Fig.5shows that the Lorenzo pre-dictor performs better in the L∞sense on this data set.The compression ratios of this example were computed by com-pressing the residuals using a context arithmetic encoder for the Lorenzo predictor,whereas SPIHT used its hierarchical tree method.

9.Conclusion

The Lorenzo predictor,introduced here,predicts the value of an n-dimensional scalar?eld F at a sample point v from its2n?1previously processed neighbors that form the ver-tices of an n-dimensional hypercube.The predicted value for F(v)is simply the weighted sum of all values of F at the other corners of the cube.The weights are either+1or?1, depending on the minimal number of cube edges between the sample and v.

The Lorenzo predictor is exact for all polynomials of de-gree less than n,and its accuracy increases with the smooth-ness of the data.Because of the limited size of its footprint, the predictor is well suited for out-of-core streaming com-pression and decompression.

References

1.S.Mennon and M.Rizk,“Large-eddy simulations of three di-

mensional impinging jets,”https://www.wendangku.net/doc/6a12563091.html,p.Fluid Dynam.7(3), pp.275–290,1996.1

2.K.Anagnostou,T.Atherton and A.Waterfall,“4D volume ren-

dering with the Shear Warp factorisation,”Symp.Volume Vi-sualization and Graphics’00,pp.129–137,Oct.2000.23. E.Lum,K.-L.Ma and J.Clyne,“Texture hardware assisted

rendering of time-varying volume data,”Visualization’01,pp.

262–270,2001.2

4. D.Salomon,“Data Compression:The complete reference,”

Springer1997.1

5. C.Touma and C.Gotsman,“Triangle mesh compression,”

Graphics Interface’98,pp.26–34,1998.1

6.V.Pascucci and R.J.Frank,“Global Static Indexing for Real-

Time Exploration of Very Large Regular Grids,”Supercom-puting2001,Nov.2001.1

7.T.Bell,I.H.Witten and J.G.Cleary,“Modelling for Text

Compression,”ACM Computing Surveys,21(4),pp.557–591, Dec.1989.5

8. A.Mirin,R.Cohen,B.Curtis,W.Dannevik,A.Dimitis,M.

Duchaineau,D.Eliason,D.Schikore,S.Anderson,D.Porter, P.Woodward,L.Shieh and S.White,“Very High Resolution Simulation of Compressible Turbulence on the IBM-SP Sys-tem,”Supercomputing’99,1999.5

9. A.Said and W.A.Pearlman,“A New Fast and Ef?cient Image

Codec Based on Set Partitioning in Hierarchical Trees,”IEEE Transactions on Circuits and Systems for Video Technology, 6(3),pp.243–250,June1996.6

10.S.Guthe and W.Stra?er,“Real-time decompression and vi-

sualization of animated volume data,”Visualization’01,pp.

349–356,2001.2

11. C.Bajaj,I.Ihm and S.Park,“3D RGB Image Compression

for Interactive Applications,”ACM Transactions on Graphics, 20(1),pp.10–38,2001.2

12.J.Fowler and R.Yagel,“Lossless Compression of V olume

Data,”1994Symposium on Volume Visualization,pp.43–50, Oct.1994.2

13.K.Ma,D.Smith,M.Shih and H.Shen,“Ef?cient Encoding

and Rendering of Time-Varying V olume Data,”ICASE Report No.98-22(NAS/CR-1998-208424),June1998.2

14. C.T.Silva,Y.-J.Chiang,J.El-Sana and P.Lindstrom,“Out-

Of-Core Algorithms for Scienti?c Visualization and Computer Graphics,”Visualization’02Course Notes,Oct.2002.2 15.M.Isenburg and S.Gumhold,“Out-of-Core Compression for

Gigantic Polygon Meshes,”ACM SIGGRAPH2003,to appear.

2

16.T.Chiueh,C.Yang,T.He,H.P?ster and A.Kaufman,“Inte-

grated volume compression and visualization,”Visualization ’97,pp.329–336,Oct.1997.2

17.J.Ho,K.Lee and D.Kriegman,“Compressing large polygonal

models,”Visualization’01,pp.133–140,2001.2

18.MPEG-4.International organization for standardiza-

tion coding of moving pictures and audio iso//iec jtc//sc29//wg11n2995,MPEG-4standard speci?cations, http://drogo.cselt.it/mpeg/standards/mpeg-4/mpeg-4.html.2

脐带干细胞综述

脐带间充质干细胞的研究进展 间充质干细胞(mesenchymal stem cells,MSC S )是来源于发育早期中胚层 的一类多能干细胞[1-5],MSC S 由于它的自我更新和多项分化潜能,而具有巨大的 治疗价值 ,日益受到关注。MSC S 有以下特点:(1)多向分化潜能,在适当的诱导条件下可分化为肌细胞[2]、成骨细胞[3、4]、脂肪细胞、神经细胞[9]、肝细胞[6]、心肌细胞[10]和表皮细胞[11, 12];(2)通过分泌可溶性因子和转分化促进创面愈合;(3) 免疫调控功能,骨髓源(bone marrow )MSC S 表达MHC-I类分子,不表达MHC-II 类分子,不表达CD80、CD86、CD40等协同刺激分子,体外抑制混合淋巴细胞反应,体内诱导免疫耐受[11, 15],在预防和治疗移植物抗宿主病、诱导器官移植免疫耐受等领域有较好的应用前景;(4)连续传代培养和冷冻保存后仍具有多向分化潜能,可作为理想的种子细胞用于组织工程和细胞替代治疗。1974年Friedenstein [16] 首先证明了骨髓中存在MSC S ,以后的研究证明MSC S 不仅存在于骨髓中,也存在 于其他一些组织与器官的间质中:如外周血[17],脐血[5],松质骨[1, 18],脂肪组织[1],滑膜[18]和脐带。在所有这些来源中,脐血(umbilical cord blood)和脐带(umbilical cord)是MSC S 最理想的来源,因为它们可以通过非侵入性手段容易获 得,并且病毒污染的风险低,还可冷冻保存后行自体移植。然而,脐血MSC的培养成功率不高[19, 23-24],Shetty 的研究认为只有6%,而脐带MSC的培养成功率可 达100%[25]。另外从脐血中分离MSC S ,就浪费了其中的造血干/祖细胞(hematopoietic stem cells/hematopoietic progenitor cells,HSCs/HPCs) [26, 27],因此,脐带MSC S (umbilical cord mesenchymal stem cells, UC-MSC S )就成 为重要来源。 一.概述 人脐带约40 g, 它的长度约60–65 cm, 足月脐带的平均直径约1.5 cm[28, 29]。脐带被覆着鳞状上皮,叫脐带上皮,是单层或复层结构,这层上皮由羊膜延续过来[30, 31]。脐带的内部是两根动脉和一根静脉,血管之间是粘液样的结缔组织,叫做沃顿胶质,充当血管外膜的功能。脐带中无毛细血管和淋巴系统。沃顿胶质的网状系统是糖蛋白微纤维和胶原纤维。沃顿胶质中最多的葡萄糖胺聚糖是透明质酸,它是包绕在成纤维样细胞和胶原纤维周围的并维持脐带形状的水合凝胶,使脐带免受挤压。沃顿胶质的基质细胞是成纤维样细胞[32],这种中间丝蛋白表达于间充质来源的细胞如成纤维细胞的,而不表达于平滑肌细胞。共表达波形蛋白和索蛋白提示这些细胞本质上肌纤维母细胞。 脐带基质细胞也是一种具有多能干细胞特点的细胞,具有多项分化潜能,其 形态和生物学特点与骨髓源性MSC S 相似[5, 20, 21, 38, 46],但脐带MSC S 更原始,是介 于成体干细胞和胚胎干细胞之间的一种干细胞,表达Oct-4, Sox-2和Nanog等多

LDAR(挥发性有机物泄漏检测与修复)

LDAR(挥发性有机物泄漏检测与修复) 中国科学院广州化学研究所分析测试中心 卿工---189—3394--6343 中科检测作为中国科学院独立的第三方检测技术服务机构,其中生态环境事业部专业从事“生态环境检测、鉴定和评估工作”,充分发挥技术领先与服务专业的优势,可为政府相关部门、企事业单位提供全流程技术服务,多年来,中科检测为生产、科研、贸易、政府管理、诉讼、技术引进、商务仲裁等活动提供了大量优质的分析测试技术和客观公正的评估鉴别服务,为企业科技创新提供了强有力的分析测试共性技术支撑。 服务内容: ●土壤环境调查、污染场地风险评估; ●污染场地治理与修复效果监测评估; ●重点企业隐患排查 ●LDAR(挥发性有机物泄漏检测与修复) ●环境风险评估 ●建设项目竣工环境保护验收 ●企业清洁生产审核验收 ●在产企业土壤与地下水监测 ●突发环境事件风险评估 ●LDAR(挥发性有机物泄漏检测与修复) ● VOCs减排及监测一站式解决方案 ●固体废物鉴定、管理与综合利用全过程解决方案 ●危险废物鉴定、管理与综合利用全过程解决方案 ●工业固废综合利用评价与鉴定 ●生态环境损害评估与鉴定 ●企业碳排放测算及评价 ●环境健康安全与评价 ●有机污染物及重金属监测分析

●环境有毒有害物质模型分析与评估 ●地球物理勘探 ●协助责任单位完成其他相关备案程序。 工作内容 企业“泄漏检测与维修”(LDAR)项目的评估应依照以下流程(图1)开展。 图1 LDAR项目评估流程

LDAR现场检测流程图 一、技术评估依据和过程 1.1. 评估依据 1.2. 评估过程 二、评估范围和内容 2.1. 评估范围 2.2. 评估内容 三、评估结论 3.1. LDAR项目建立 3.1.1 实施范围完整性 3.1.2组件标识及描述规范性 3.2. 检测与维修情况 3.2.1 仪器校准和示值漂移数据 3.2.2检测数据有效性 3.1.3检测数据准确性

安徽省挥发性有机物污染整治工作方案

安徽省挥发性有机物污染整治工作方案 治理挥发性有机物污染是大气污染防治的重点领域。为进一步贯彻落实《国务院关于印发大气污染防治行动计划的通知》(国发〔2013〕37号)(简称“大气十条”)有关精神,切实推进挥发性有机物污染治理,加快改善我省环境空气质量,保障广大人民群众身体健康,按照《安徽省大气污染防治行动计划实施方案》(皖政〔2013〕89号)(简称“实施方案”)的要求,结合我省实际情况,制定本方案。 一、总体要求 坚持以科学发展观为指导,以国家“大气十条”和省“实施方案”为要求,以石化、有机化工、表面涂装、包装印刷等为重点行业,以化工园区(集中区)为重点区域,以重点行业挥发性有机物(简称VOCs,下同)排放企业为重点整治对象,多措并举,有序推进,大力开展VOCs污染整治,按期完成整治任务,达到整治要求。健全长效工作机制,有效解决VOCs 环境污染问题,努力提升空气环境质量。 二、整治范围 我省主要VOCs污染行业全部纳入整治范围,确定石化、有机化工、表面涂装、包装印刷业为重点,同步开展合成革、纺织印染、橡胶塑料制品、化纤、木业、制鞋等行业污染整治。各市可根据实际,确定本地区VOCs污染整治的重点行业。

三、工作目标 优化产业布局,加强源头控制和污染治理,推广使用低挥发性有机物排放的有机溶剂。突出抓好重点行业、重点区域、重点企业污染整治,科学制定VOCs污染整治方案,综合治理挥发性有机物污染。推广应用重点行业最佳可行技术(BAT)和最佳环境实践(BEP),分阶段完成VOCs污染整治任务,做到VOCs高效净化,有效推进VOCs减排,确保有组织排放和厂界无组织监控浓度达标。建立健全VOCs污染监测预警与监管体系,努力改善区域空气质量。 四、主要任务 (一)开展VOCs排放现状调查。 各市根据省统一部署,组织开展辖区内石化、有机化工、表面涂装、包装印刷以及合成革、纺织印染、橡胶塑料制品、化纤、木业、制鞋等行业VOCs排放调查。做到底数清楚,重点明确,有的放矢,有效整治。 (二)建立VOCs污染治理台账。 各地在VOCs排放现状调查的基础上,组织开展VOCs 排放清单编制工作。采取“一区一策、一厂一策”,排出时限进度,确定整治要求,建好VOCs污染治理台账。 (三)开展工业企业VOCs污染治理。 自2014年起,各地要围绕VOCs污染整治的重点,突出开展石化、有机化工、表面涂装、包装印刷等行业VOCs专项整治和石化行业“泄漏检测与修复”技术改造,结合开展合

固定污染源废气挥发性有机物在线监测技术规范编制说明

固定污染源废气挥发性有机物在线监测技术规范(征求意见稿) 编制说明 标准编制组 2019年8月

目录 1 项目背景 (3) 2 标准编制的必要性 (5) 3 国内外VOCs 监测标准及在线监测技术应用状况研究 (7) 4 标准制订的编制原则和技术路线 (16) 5 标准制定的技术路线 (18) 6 标准主要技术内容及确定依据 (18) 7 性能指标验证 (29)

1 项目背景 1.1 项目来源 根据江苏省生态环境厅《关于下达2017年度省级环保科研课题项的通知》(苏环办[2018]25号),下达了江苏省《固定污染源废气挥发性有机物在线监测技术规范》制订任务,项目统一编号:2017016。由江苏省环境科学研究院承担本课题的制定任务,合作单位为苏州工业园环境执法大队。之后,2019年2月《固定污染源废气挥发性有机物在线监测技术规范》标准列入江苏省生态环境监测监控系统三年建设规划(2018-2020年)。 1.2 工作过程 2017年12月,江苏省环境科学研究院作为项目承担单位与合作单位成立了《固定污染源废气挥发性有机物在线监测技术规范》项目研究组,完成了项目任务书和合同的填报签订。研究组初步拟定了标准编制的工作目标、工作内容,讨论了在标准制订过程中可能遇到的问题,按照任务书的要求,制定了详细的标准编制计划与任务分工。 2018年1月,根据《江苏省环保科研课题项目管理办法》等有关文件要求,江苏省环境科学研究院组织有关单位及专家对承担的“江省固定污染源废气挥发性有机物在线监测技术规范”(编号:2017016)听取了课题组的汇报,经质询和认真讨论,通过开题论证,建议尽快启动实施。

脐带血造血干细胞库管理办法(试行)

脐带血造血干细胞库管理办法(试行) 第一章总则 第一条为合理利用我国脐带血造血干细胞资源,促进脐带血造血干细胞移植高新技术的发展,确保脐带血 造血干细胞应用的安全性和有效性,特制定本管理办法。 第二条脐带血造血干细胞库是指以人体造血干细胞移植为目的,具有采集、处理、保存和提供造血干细胞 的能力,并具有相当研究实力的特殊血站。 任何单位和个人不得以营利为目的进行脐带血采供活动。 第三条本办法所指脐带血为与孕妇和新生儿血容量和血循环无关的,由新生儿脐带扎断后的远端所采集的 胎盘血。 第四条对脐带血造血干细胞库实行全国统一规划,统一布局,统一标准,统一规范和统一管理制度。 第二章设置审批 第五条国务院卫生行政部门根据我国人口分布、卫生资源、临床造血干细胞移植需要等实际情况,制订我 国脐带血造血干细胞库设置的总体布局和发展规划。 第六条脐带血造血干细胞库的设置必须经国务院卫生行政部门批准。 第七条国务院卫生行政部门成立由有关方面专家组成的脐带血造血干细胞库专家委员会(以下简称专家委

员会),负责对脐带血造血干细胞库设置的申请、验收和考评提出论证意见。专家委员会负责制订脐带血 造血干细胞库建设、操作、运行等技术标准。 第八条脐带血造血干细胞库设置的申请者除符合国家规划和布局要求,具备设置一般血站基本条件之外, 还需具备下列条件: (一)具有基本的血液学研究基础和造血干细胞研究能力; (二)具有符合储存不低于1 万份脐带血的高清洁度的空间和冷冻设备的设计规划; (三)具有血细胞生物学、HLA 配型、相关病原体检测、遗传学和冷冻生物学、专供脐带血处理等符合GMP、 GLP 标准的实验室、资料保存室; (四)具有流式细胞仪、程控冷冻仪、PCR 仪和细胞冷冻及相关检测及计算机网络管理等仪器设备; (五)具有独立开展实验血液学、免疫学、造血细胞培养、检测、HLA 配型、病原体检测、冷冻生物学、 管理、质量控制和监测、仪器操作、资料保管和共享等方面的技术、管理和服务人员; (六)具有安全可靠的脐带血来源保证; (七)具备多渠道筹集建设资金运转经费的能力。 第九条设置脐带血造血干细胞库应向所在地省级卫生行政部门提交设置可行性研究报告,内容包括:

石化行业挥发性有机物综合整治方案

石化行业挥发性有机物综合整治方案 环发【】号 为贯彻落实《大气污染防治行动计划》,大力推进石化行业挥发性有机物()污染治理,制定本方案。 一、工作思路和目标 全面开展石化行业综合整治,大幅减少石化行业排放,促进环境空气质量改善。严格控制工艺废气排放、生产设备密封点泄漏、储罐和装卸过程挥发损失、废水废液废渣系统逸散等环节及非正常工况排污。通过实施工艺改进、生产环节和废水废液废渣系统密闭性改造、设备泄漏检测与修复()、罐型和装卸方式改进等措施,从源头减少的泄漏排放;对具有回收价值的工艺废气、储罐呼吸气和装卸废气进行回收利用;对难以回收利用的废气按照相关要求处理。到年,全国石化行业基本完成综合整治工作,建成监测监控体系,排放总量较年削减以上。二、主要任务 本方案中的石化行业包括以原油、重油等为原料生产汽油馏分、柴油馏分、燃料油、石油蜡、石油沥青、润滑油和石油化工原料等的石油炼制工业生产性企业,以及以石油馏分、天然气为原料生产有机化学品、合成树脂原料、合成纤维原料、合成橡胶

原料等的石油化学工业生产性企业。有机液体储运、煤化工、其他化工等相关企业可参照本方案有关要求开展工作。 (一)开展污染源排查。地方各级环境保护主管部门应组织本行政区内的石化企业,开展污染源摸底排查工作,采用实测、物料衡算、模型计算、公式计算、排放系数等方法,重点对企业原辅材料和产品、主要生产工艺、排放环节、治理措施和效果、排放量和物质清单等开展排查,摸清企业的排放状况。排查结果按《环境信息公开办法(试行)》要求向社会公开,并作为排污收费、总量控制和危险化学品环境管理等的依据。 (二)严格建设项目环境准入。各级环境保护主管部门结合主体功能区划、环境功能区划、城市总体规划等要求,优化调整石化产业布局。加强产业政策的引导与约束,加快淘汰落后产品、技术和工艺装备。新、改、扩建石化项目应在设计和建设中选用先进的清洁生产和密闭化工艺,提高设计标准,实现设备、装置、管线、采样等密闭化,从源头减少泄漏环节,工艺、储存、装卸、废水废液废渣处理等环节应采取高效的有机废气回收与治理措施,满足国家及地方的达标排放和环境质量要求。 (三)完善监督管理体系。各级环境保护主管部门应对行政区内石化企业进行全面监管,以企业为单元,通过统一的信息管理平台做好统计、审核与监管工作,不定期对企业申报情况进行抽查和评估,逐级上报上一年企业排放清单及减排效果等。

挥发性有机物在线监测系统安装及联网验收技术指南试行.doc

寿光市环保局挥发性有机物在线监测系统安装、联网及验收技术指南 (试行)

目录 一、仪器要求 (4) (一)资质认证 (4) (二)技术要求 (4) (三)设备品牌及售后服务要求 (9) 二、安装指南 (9) (一)安装监测点选择 (9) 1、有组织排放安装监测点选择9 2、园区及厂界安装监测点选择10 (二)安装技术要求 (10) 1、有组织排放在线监测技术要求10 2、园区在线监测技术要求13 3、厂界在线监测技术要求16 4、数据采集和传输设备技术要求16 5、监测房技术要求17 三、联网技术要求 (18) 四、验收 (18)

前言 为贯彻《中华人民共和国环境保护法》、《中华人民共和国大气污染防治法》,规范挥发性有机物在线监测系统的安装、联网及验收,特制定本技术指南。 各企业(园区)按照本技术指南,制定挥发性有机物在 线监测系统建设实施方案,报寿光市环保局审核后,方可组 织监测设备采购及项目实施。“实施方案”中应包括:监测点选择、监测指标、监测系统组成、主要分析仪器技术参数 及资质证书、招标采购方案、售后运营维护方案、工作进度 计划等内容。寿光市环保局负责技术指导、技术服务和验收 的组织协调工作。 2017 年 4 月

一、仪器要求 (一)资质认证 1、具有中华人民共和国计量器具制造许可证(进口仪器具有国家质量技术监督部门的计量器具型式批准证书)。 2、具有中国环境保护产品认证书。 3、具有环境保护产品质量监督检验总站出具的产品适用性检测合格报告。 4、仪器的名称、型号必须与上述证书及检测报告相符合,且在有效期内。 (二)技术要求 1、监测指标 污染物排放类型自动监控点位置污染物监测项目 排放口企业特征污染物、企业有组织排放VOCs 厂区边界企业特征污染物 企业无组织排放厂区边界企业特征污染物、 VOCs 氨气、硫化氢 园区园区边界VOCs 特征污染物

挥发性有机物泄漏检测与修复(LDAR)管理规程

挥发性有机物泄漏检测与修复(LDAR)管理规程 一、目的 为贯彻落实江苏省泄漏检测与修复(LDAR)实施技术指南,深入推进公司挥发性有机物污染治理工作,有效控制挥发性有机物的无组织排放,结合本公司实际,特制定本规程。 二、适用范围 适用于××××公司挥发性有机物泄漏检测与修复(LDAR)管理的全过程。 三、责任 1.EHS部:负责联系第三方检测单位统计本公司监测点位数量并进行挥发性有机物泄漏 检测与修复(LDAR)。 2.各车间:负责配合第三方检测公司对各车间开展挥发性有机物泄漏检测与修复(LDAR) 工作。 四、术语 1.挥发性有机物volatile organic compounds(VOCs):参与大气光化学反应的有机化合 物,或者根据有关规定确定的有机化合物。在表征VOCs 总体排放情况时,根据行业特征和环境管理要求,可采用总挥发性有机物(以TVOC 表示)、非甲烷总烃(以NMHC 表示)作为污染物控制项目。 2.无组织排放fugitive emission :大气污染物不经过排气筒的无规则排放,包括开放式 作业场所逸散,以及通过缝隙、通风口、敞开门窗和类似开口(孔)的排放等。 3.泄漏检测与修复leak detection and repair:泄漏检测与修复是指对工业生产全过程挥发 性有机物物料逸散、泄漏进行控制的系统工程。该技术采用固定或移动检测仪器,定量检测易产生挥发性气体泄漏的场所和所有挥发性气体排放源,从而控制VOCs逸散、泄漏排放,减少对环境造成的污染。简称LDAR。

4.VOCs物料VOCs-containing materials:本标准是指VOCs质量占比大于等于10%的物 料,以及有机聚合物材料。 5.密封点:采用密封措施,阻止设备流体从相邻结合面间或开口处向外泄漏的点位。 6.泄漏控制浓度:指在相关排放标准或法规中规定的,在泄漏排放源表面测得的VOCs 浓度值,表示有VOCs泄漏存在,需采取措施进行控制。它是一个基于经校准气体校准的仪器的测定读数。 五、工作程序 1.LDAR项目建立 1.1检测对象确定 EHS部审核各车间的物料平衡表、工艺流程图、管道流程图、操作规程、装置平面布置图等内容。分析装置涉及的原料、中间产品、最终产品和各类助剂的组分和含量是否涉及VOCs,从而确定需要实施泄漏检测与修复装置。 1.2 设备与管线组件符合下列条件之一,可免予泄漏检测:

2018年重点地区环境空气挥发性有机物监测方案

2018年重点地区环境空气挥发性机物监测方案 环保部印发了《2018年重点地区环境空气挥发性有机物监测方案》。方案对于VOCs监测的城市、监测项目、时间频次及操作规程等做了详细规定。 一、监测城市 直辖市(4个):北京、天津、上海、重庆 省会城市及计划单列市(15个):石家庄、太原、沈阳、南京、杭州、济南、郑州、武汉、广州、成都、西安、大连、青岛、深圳、宁波 地级城市(59个):廊坊、保定、唐山、邯郫、衡水、邢台、沧州、新乡、鹤壁、安阳、集作、濮阳、开封、淄博、聊城、德州、滨州、济宁、菏泽、阳泉、长治、晋城(京津冀及周边22个);无锡、徐州、常州、苏州、南诵、连云港、淮安、盐城、扬州、镇江、泰州、宿迁、温州、嘉兴、湖州、绍兴、金华、衢州、舟山、台州、丽水(长三角21个);珠海、佛山、江门、肇庆、惠州、东莞、中山(珠三角7个);抚顺、锦州、营口、盘锦、铁岭、萌芦岛(辽宁中南部6个);鄂州、孝感、黄冈(武汉及同边城市3个)。 二、监测项目 监测项目包括光化学反应活性较强或可能影响人类健康的VOCs,包括烷烃、烯烃、芳香烃、含氧挥发性有机物(OVOCS)、卤代烃等。各级城市监测项目范围见表2。直辖市、省会城市及计划单列市监测117种物质(表3-表5),地级城市监测70种物质(表3、表4)。 三、进度安排 2018年1月-2018年3月:经费由相关地方自行筹措,组织硬件釆购,做好测试方法开发及自动站点联网等准备工作。2018年4月起:开展监测工作,按时上报监测结果,各省、直辖市每月将监测结果分析报告上报监测总站,监测总站每月5日前,形成上月综合分析报告并报送环境保护部环境监测司。详细文件见附件: 四、有机挥发物监测仪表的选型: 有机挥发物现行比较常用检测方法主要包括:

固定污染源废气挥发性有机物监测技术规范

ICS点击此处添加ICS号 点击此处添加中国标准文献分类号DB11 北京市地方标准 DB 11/ ****—2016 固定污染源废气挥发性有机物 监测技术规范 The Technical Specification for Monitoring of volatile organic compounds emitted from stationary source 点击此处添加与国际标准一致性程度的标识 (征求意见稿) (本稿完成日期:2016.07.01) 2016-XX-XX发布2016-XX-XX实施

目次 前言................................................................................ II 引言............................................................................... III 1 范围 (1) 2 规范性引用文件 (1) 3 术语和定义 (1) 4 测定项目的确定 (2) 5 监测方法的选择 (2) 6 采样技术要求 (3) 7 样品的运输和保存 (5) 8 结果与计算 (6) 9 质量保证与质量控制 (6) 附录A(规范性附录)固定污染源废气苯系物的测定气袋采样-气相色谱质谱法 (8) 附录B(资料性附录)固定污染源废气非甲烷总烃或总烃标准监测方法表 (14) 附录C(资料性附录)固定污染源废气特征项目标准监测方法表 (15) 附录D(资料性附录)固定污染源废气中挥发性有机物的检测流程 (16)

挥发性有机物VOCs一厂一策提标改造方案

XXXXX单位/公司VOCs“一厂一策”提标改造 方案 企业名称: 编制单位: 编制时间:

目录

1企业现状 1.1企业概况 1.2生产现状 1.3生产工艺流程 1.4原辅材料使用情况 1.5生产设备情况 1.6有机液体储存情况 1.7设备动静密封点情况 1.8含挥发性有机物料的废水集输、储存、处理处置情况1.9有组织废气排放情况 2现状排查及排放量计算 2.1设备动静密封点泄漏 2.1.1现状排查 2.1.2排放量计算 2.2有机液体储存与调和挥发损失 2.2.1现状排查 2.2.2排放量计算 2.3 有机液体装载挥发损失 2.3.1现状排查 2.3.2排放量计算 2.4废水集输、储存、处理处置 2.4.1现状排查 2.4.2排放量计算 2.5工艺有组织排放 2.5.1现状排查 2.5.2排放量计算

2.6燃烧烟气排放 2.6.1现状排查 2.6.2排放量计算 2.7工艺无组织排放 2.7.1现状排查 2 2 2 2 2 2 2 2 2.7.2排放量计算 2.8采样过程排放 2.8.1现状排查 2.8.2排放量计算 2.9火炬排放 2.9.1现状排查 2.9.2排放量计算 2.10非正常工况(含开停工及维修)排放2.10.1现状排查 2.10.2排放量计算 2.11冷却塔、循环冷却系统释放 2.11.1现状排查 2.11.2排放量计算

2.12事故排放 2.12.1现状排查 2.12.2排放量计算 2.13 其他排查 2.14提标改造前VOCS排查分析2.14.1 排放量分析 2.14.2达标性分析 2.14.3 减排潜力分析 3提标改造方案 3.1方案选择确立 3.1.1方案选择 3.1.2方案比选 3.1.3方案确立 3.2 收集及转输方案 3.2.1收集及转输方式 3.2.2主要工程量 3.3 废气处理(处置)方案 3.3.1工艺流程设计及说明 3.3.2 工程总体布置 3.3.3工程设施配置 3.3.4工程设备选型 3.3.5二次污染防治 3.3.6资源化利用 3.3.7建筑工程 3.3.8电气工程 3.3.9自动化工程 3.4环境管理 3.4.1环境监测、申报及信息公开

卫生部办公厅关于印发《脐带血造血干细胞治疗技术管理规范(试行)

卫生部办公厅关于印发《脐带血造血干细胞治疗技术管理规 范(试行)》的通知 【法规类别】采供血机构和血液管理 【发文字号】卫办医政发[2009]189号 【失效依据】国家卫生计生委办公厅关于印发造血干细胞移植技术管理规范(2017年版)等15个“限制临床应用”医疗技术管理规范和质量控制指标的通知 【发布部门】卫生部(已撤销) 【发布日期】2009.11.13 【实施日期】2009.11.13 【时效性】失效 【效力级别】部门规范性文件 卫生部办公厅关于印发《脐带血造血干细胞治疗技术管理规范(试行)》的通知 (卫办医政发〔2009〕189号) 各省、自治区、直辖市卫生厅局,新疆生产建设兵团卫生局: 为贯彻落实《医疗技术临床应用管理办法》,做好脐带血造血干细胞治疗技术审核和临床应用管理,保障医疗质量和医疗安全,我部组织制定了《脐带血造血干细胞治疗技术管理规范(试行)》。现印发给你们,请遵照执行。 二〇〇九年十一月十三日

脐带血造血干细胞 治疗技术管理规范(试行) 为规范脐带血造血干细胞治疗技术的临床应用,保证医疗质量和医疗安全,制定本规范。本规范为技术审核机构对医疗机构申请临床应用脐带血造血干细胞治疗技术进行技术审核的依据,是医疗机构及其医师开展脐带血造血干细胞治疗技术的最低要求。 本治疗技术管理规范适用于脐带血造血干细胞移植技术。 一、医疗机构基本要求 (一)开展脐带血造血干细胞治疗技术的医疗机构应当与其功能、任务相适应,有合法脐带血造血干细胞来源。 (二)三级综合医院、血液病医院或儿童医院,具有卫生行政部门核准登记的血液内科或儿科专业诊疗科目。 1.三级综合医院血液内科开展成人脐带血造血干细胞治疗技术的,还应当具备以下条件: (1)近3年内独立开展脐带血造血干细胞和(或)同种异基因造血干细胞移植15例以上。 (2)有4张床位以上的百级层流病房,配备病人呼叫系统、心电监护仪、电动吸引器、供氧设施。 (3)开展儿童脐带血造血干细胞治疗技术的,还应至少有1名具有副主任医师以上专业技术职务任职资格的儿科医师。 2.三级综合医院儿科开展儿童脐带血造血干细胞治疗技术的,还应当具备以下条件:

空气中挥发性有机物在线监测技术研究进展

CHEMICAL INDUSTRY AND ENGINEERING PROGRESS 2008年第27卷第5期 ·648· 化 工 进 展 空气中挥发性有机物在线监测技术研究进展 刘景允,孙宝盛,张海丰 (天津大学环境科学与工程学院,天津 300072) 摘 要:综述了近年来国内外在空气中挥发性有机物在线监测技术上的研究进展,对膜萃取气相色谱、质子转移反应质谱、飞行时间质谱、傅里叶变换红外光谱以及激光光谱等在线监测技术进行了介绍和对比,重点讨论了可调谐激光吸收光谱在线监测技术的优势和不足,并对其发展前景进行了展望。 关键词:挥发性有机物;在线监测;可调谐激光吸收光谱 中图分类号:X 831 文献标识码:A 文章编号:1000–6613(2008)05–0648–06 Progress in research on on-line monitoring techniques for volatile organic compounds in ambient air LIU Jingyun ,SUN Baosheng ,ZHANG Haifeng (School of Environmental Science and Technology ,Tianjin University ,Tianjin 300072,China ) Abstract :V olatile organic compounds (VOCs )in air do great harm to human health. This paper reviews the progress in research on the on-line monitoring techniques for volatile organic compounds (VOCs )in recent years at home and abroad. Some on-line monitoring techniques ,including membrane extraction gas chromatography ,proton-transfer-reaction mass spectroscopy ,time-of-flight mass spectrometry ,Fourier transform infrared spectroscopy and laser spectroscopy are introduced and compared. The advantages and shortages of tunable diode laser absorption spectrometry are discussed ,and the prospect of its application is also presented. Key words :volatile organic compounds (VOCs );on-line monitoring ;tunable diode laser absorption spectrometry 挥发性有机化合物(volatile organic compounds ,VOCs )是室内外空气中普遍存在且对环境影响最为严重的有机污染物,主要来源于石油化工生产、污水和垃圾处理厂、汽油发动机尾气以及制药、制鞋、喷漆等行业[1]。VOCs 组成复杂,含量甚微,其中许多物质有致癌、致畸、致突变性,具有遗传毒性及引起“雌性化”,对环境安全和人类生存繁衍构成严重威胁。目前世界各国都已在监测项目中增加了VOCs ,美国的光化学自动监测系统中有56种VOCs ,欧洲也有30多种VOCs 被列入。 目前,测量VOCs 的主要手段是气相色谱-质谱 (gas chromatography- mass spectrometry ,GC-MS ) [2]。该技术在精确测量VOCs 方面一直发挥着重要作用,但由于涉及色谱和电子轰击电离,该方法存在很大的局限性:分析监测具有明显的滞后性;复杂 的样品预处理耗时费力,需要消耗大量的样品和溶剂;在样品的取样、运输与储存的过程中发生的样品损失以及成分间的交叉污染都会使监测结果出现偏差;样品的采集、浓缩提取与分离提高了单个样品的监测费用,监测样品的数目也受到限制[3]。现代环境监测工作要求快速准确地得到所需要的分析结果和信息,以便及时采取相应控制措施,因此空气中VOCs 的在线监测技术研究与相关仪器的开发就显得迫在眉睫。近年来,人们一直致力于VOCs 在线监测方法的研究,出现了多种在线监测技术。 收稿日期:2007–11–05;修改稿日期:2007–12–20。 基金项目:国家高技术研究发展(863)计划项目(2006AA06Z410)。第一作者简介:刘景允(1985—),男,硕士研究生。联系人:孙宝盛,副教授,从事环境监测与废水处理方面研究。E –mail baosheng_sun@https://www.wendangku.net/doc/6a12563091.html, 。

TVOC总挥发性有机物检测方法综述

1 前言 总挥发性有机物TVOC是由一种或多种碳原子组成,容易在室温和正常大气压下蒸发的化合物的总称,他们是存在于室内环境中的无色气体。室内环境中的TVOC可能从室外空气中进入,也可能从建筑材料、清洗剂、化妆品、蜡制品、地毯、家具、激光打印机、影印机、粘合剂以及室内的油漆中散发出来。一旦这些TVOC暂时的或持久的超出正常的背景水平,就会引起室内空气质量问题。若暴露在含高浓度VOCs工业环境中,会对人体的中枢神经系统、肝脏、肾脏及血液有毒害影响。长期暴露在诸如苯,致癌物等化合物中可能增加致癌的可能。[1]因为目前VOCs对人体的毒害及感官影响以及他们的成分的了解有限,所以防止过分暴露在VOCs中是十分必要的。TVOC是民用建筑工程室内环境污染控制指标中的一项重要检测指标,本文主要对目前国内外TVOC的检测方法以及TVOC检测过程中的影响因素进行综述。 2 TVOC采样及检测方法介绍 室内空气中TVOC的分析测试技术有很多种,既有非标准化的快速粗略现场检测法,又有比较成熟的标准检测方法;实践分为现场检测和实验室检测两种,其中现场检测精度稍低,可用于样品初筛或精准度要求不高的检测,而实验室检测对设备要求较高。采样技术只有两种:动力泵采样和自然扩散采样,目前应用较多的是动力泵采样。下面简单介绍现阶段用于检测TVOC的几种方法。[2] 2.1 比色管检测法 比色管检测是一种简单实用的检测技术,由一个充满显色物质的玻璃管和一个抽气采样泵构成。在检测时,将玻璃管的两头折断,通过采样泵将室内空气抽入检测管,吸入的气体和显色物质反应,气体浓度与显色长度成比例关系,从而可以直观地得到气体的大致浓度。该方法的不足之处是数据的代表性差,目前的检测范围不足以覆盖全部的TVOC成分。[3] 2.2 便携式TVOC仪检测法 便携式TVOC检测仪可以快速地测定待测环境中TVOC的大致浓度,发现超标再采用色谱或色质联用等方法加以确认,从而达到多快好省的检测目的。该检测仪可以检测绝大多数的VOCs;干扰少,只对有机化合物产生响应,大多数无

重点地区环境空气挥发性有机物监测方案

根据《环境保护部办公厅关于印发2018年重点地区环境空气挥发性有机物监测方案》(环办监测函【2017】2024号),我市与河南省内郑州、新乡、鹤壁、安阳、濮阳、开封市等同属于京津冀及周边地区,须开展环境空气VOCs监测。 为避免设备不同引起的监测结果差异,以满足上级部门开展的实验室间比对等质控措施检查,满足环境管理要求,该套设备须与京津冀及周边地区开展环境空气VOCs监测城市的监测设备的工作原理一致。 一、大气挥发性有机物采样与样品预处理系统主要指标 1.主要用途 主要用于环境空气、应急监测、室内环境气体样品和工业场所空气中VOC的定量采集及处理。并可作为气相色谱和色质联用系统的前处理装置。 2.工作原理 采样罐在实验室被清洗和抽成真空,带到现场后无需电源、动力及辅助设施,即可迅速采样。样品空气拿回实验室经过预浓缩仪进行多级浓缩处理,得到目标待测挥发性有机物,自动转移到气相色谱或气质联用仪中分析。在分析过程中,需要配气装置把高浓度的标准气体稀释为低浓度气体以绘制分析的标准曲线。 3.工作条件 3.1工作电源:AC 220V±10%,50Hz。 3.2工作温度:-5~50℃ 3.3相对湿度:≤90% 4. 技术性能与要求 4.1 为避免设备不同引起的监测结果差异,以满足上级部门开展的实验室间比对等质控措施检查,满足环境管理要求,该套设备须与京津冀及周边地区开展环境空气VOCs监测城市的监测设备的工作原理一致。 4.2该套设备能符合环境标准HJ759-2015以及EPA标准方法TO-14、TO-15中样品采集、分析前处理及标样配制等的要求,可以较好地应用于大气中挥发性有机化合物(包括甲醛、乙醛、丙烯醛、丙酮、丙醛、丁烯醛、甲基丙烯醛、2-丁酮、正丁醛、苯甲醛、戊醛、间甲基苯甲醛、己醛)的检测。

卫生部关于印发《脐带血造血干细胞库设置管理规范(试行)》的通知

卫生部关于印发《脐带血造血干细胞库设置管理规范(试行)》的通知 发文机关:卫生部(已撤销) 发布日期: 2001.01.09 生效日期: 2001.02.01 时效性:现行有效 文号:卫医发(2001)10号 各省、自治区、直辖市卫生厅局: 为贯彻实施《脐带血造血干细胞库管理办法(试行)》,保证脐带血临床使用的安全、有效,我部制定了《脐带血造血干细胞库设计管理规范(试行)》。现印发给你们,请遵照执行。 附件:《脐带血造血干细胞库设置管理规范(试行)》 二○○一年一月九日 附件: 脐带血造血干细胞库设置管理规范(试行) 脐带血造血干细胞库的设置管理必须符合本规范的规定。 一、机构设置 (一)脐带血造血干细胞库(以下简称脐带血库)实行主任负责制。 (二)部门设置 脐带血库设置业务科室至少应涵盖以下功能:脐带血采运、处理、细胞培养、组织配型、微生物、深低温冻存及融化、脐带血档案资料及独立的质量管理部分。 二、人员要求

(一)脐带血库主任应具有医学高级职称。脐带血库可设副主任,应具有临床医学或生物学中、高级职称。 (二)各部门负责人员要求 1.负责脐带血采运的人员应具有医学中专以上学历,2年以上医护工作经验,经专业培训并考核合格者。 2.负责细胞培养、组织配型、微生物、深低温冻存及融化、质量保证的人员应具有医学或相关学科本科以上学历,4年以上专业工作经历,并具有丰富的相关专业技术经验和较高的业务指导水平。 3.负责档案资料的人员应具相关专业中专以上学历,具有计算机基础知识和一定的医学知识,熟悉脐带血库的生产全过程。 4.负责其它业务工作的人员应具有相关专业大学以上学历,熟悉相关业务,具有2年以上相关专业工作经验。 (三)各部门工作人员任职条件 1.脐带血采集人员为经过严格专业培训的护士或助产士职称以上卫生专业技术人员并经考核合格者。 2.脐带血处理技术人员为医学、生物学专业大专以上学历,经培训并考核合格者。 3.脐带血冻存技术人员为大专以上学历、经培训并考核合格者。 4.脐带血库实验室技术人员为相关专业大专以上学历,经培训并考核合格者。 三、建筑和设施 (一)脐带血库建筑选址应保证周围无污染源。 (二)脐带血库建筑设施应符合国家有关规定,总体结构与装修要符合抗震、消防、安全、合理、坚固的要求。 (三)脐带血库要布局合理,建筑面积应达到至少能够储存一万份脐带血的空间;并具有脐带血处理洁净室、深低温冻存室、组织配型室、细菌检测室、病毒检测室、造血干/祖细胞检测室、流式细胞仪室、档案资料室、收/发血室、消毒室等专业房。 (四)业务工作区域应与行政区域分开。

脐带血间充质干细胞的分离培养和鉴定

脐带血间充质干细胞的分离培养和鉴定 【摘要】目的分离培养脐带血间充质干细胞并检测其生物学特性。方法在无菌条件下用密度梯度离心的方法获得脐血单个核细胞,接种含10%胎牛血清的DMEM培养基中。单个核细胞行贴壁培养后,进行细胞形态学观察,绘制细胞生长曲线,分析细胞周期,检测细胞表面抗原。结果采用Percoll(1.073 g/mL)分离的脐血间充质干细胞大小较为均匀,梭形或星形的成纤维细胞样细胞。细胞生长曲线测定表明接后第5天细胞进入指数增生期,至第9天后数量减少;流式细胞检测表明50%~70%细胞为CD29和CD45阳性。结论体外分离培养脐血间充质干细胞生长稳定,可作为组织工程的种子细胞。 【关键词】脐血;间充质干细胞;细胞周期;免疫细胞化学 Abstract: Objective Isolation and cultivation of mesenchymal stem cells (MSCs) in human umbilical cord in vitro, and determine their biological properties. Methods The mononuclear cells were isolated by density gradient centrifugation from human umbilical cord blood in sterile condition, and cultured in DMEM medium containing 10% fetal bovine serum. After the adherent mononuclear cells were obtained, the shape of cells were observed by microscope, then the cell growth curve, the cell cycle and the cell surface antigens were obtained by immunocytochemistry and flow cytometry methods. Results MSCs obtained by Percoll (1.073 g/mL) were similar in size, spindle-shaped or star-shaped fibroblasts-liked cells. Cell growth curve analysis indicated that MSCs were in the exponential stage after 5d and in the stationary stages after 9d. Flow cytometry analysis showed that the CD29 and CD44 positive cells were about 50%~70%. Conclusions The human umbilical cord derived mesenchymal stem cells were grown stably in vitro and can be used as the seed-cells in tissue engineering. Key words:human umbilical cord blood; mesenchymal stem cells; cell cycle; immunocytochemistry 间充质干细胞(mesenchymal stem cells,MSCs)在一定条件下具有多向分化的潜能,是组织工程研究中重要的种子细胞来源。寻找来源丰富并不受伦理学制约的间充质干细胞成为近年来的研究热点[1]。脐血(umbilical cord blood, UCB)在胚胎娩出后,与胎盘一起存在的医疗废物。与骨髓相比,UCB来源更丰富,取材方便,具有肿瘤和微生物污染机会少等优点。有人认为脐血中也存在间充质干细胞(Umbilical cord blood-derived mesenchymal stem cells,UCB-MSCs)。如果从脐血中培养出MSCs,与胚胎干细胞相比,应用和研究则不受伦理的制约,蕴藏着巨大的临床应用价值[2,3]。本研究将探讨人UCB-MSCs体外培养的方法、细胞的生长曲线、增殖周期和细胞表面标志等方面,分析UCB-MSCs 作为间充质干细胞来源的可行性。

1(HJ733 2014)泄漏和敞开液面排放的挥发性有机物检测技术导则

泄漏和敞开液面排放的挥发性有机物检测技术导则(HJ733-2014) 1适用范围 本标准规定了源自设备泄漏和敞开液面排放的挥发性有机物(VOCs )的检测技术要求。规定了对设备泄漏和敞开液面等无组织排放源的VOCs的检测方法、仪器设备要求、质量保证与控制等。本导则不适用直接测定泄漏和敞开液面排放源的VOCs质量排放速率。 2.术语和定义 2.1泄漏源leaksources指内部含VOCs物料且可能泄漏排放的各种设备和管线,包括阀门、法兰及其他连接件、泵、压缩机、泄压装置、开口阀或开口管线、取样连接系统、泵和压缩机密封系统排气口、储罐呼吸口、检修口密封处等。 2.2开口阀open-endedvalve指阀座一侧接触有机气体或挥发性有机液体,另一侧接触大气的阀门,但不包括卸压装置。 2.3敞开液面源UncoveredLiquidSurface指含有VOCs的生产物料的集输、储存设备的敞开液面及生产工艺废水、废液的集输、储存以及净化处理装置的敞开液面的无组织排放源。 2.4泄漏控制浓度leakdefinitionconcentration指在相关排放标准或法规中规定的,在泄漏源表面或敞开液面测得的,表示有VOCs泄漏存在,需采取措施进行控制的浓度限值(基于经参考化合物校准的仪器的测定读数)。 2.5未检出排放nodetectableemission指在待测源表面测得的VOCs 浓度,扣除本底后,低于标准浓度限值的2.5%时,定义为未检出排

放。 2.6参考化合物referencecompound本导则中的参考化合物是指相关排放标准或法规中指定的,作为测定泄漏仪器的校准基准的VOCs化合物。如某个排放标准中的某个排放源以甲烷为参考化合物,标准浓度限值为“500×10-6mol/mol”。 2.7校准气体calibrationgas指校准时用于将仪器读数调节至已知浓度的VOCs化合物。校准气体通常是接近相关控制标准浓度限值的参考化合物标准气体。 2.8响应系数responsefactor是指已知浓度的VOCs化合物的浓度值,与经相同浓度值的参考化合物校准的仪器读数的比值。 2.9响应时间responsetime指仪器测定VOCs浓度时,从仪器读数开始变化到仪器最终显示稳定读数的90%浓度显示所需要的时间。2.10零气zerogas指VOCs含量小于10×mol/mol(以甲烷计)的洁净空气。 2.11参考化合物标准气体referencecompoundstandardgas指平衡气体为高纯空气、浓度在相关控制标准浓度限值附近、相对扩展不确定度2%(k=2)的参考化合物标准气体。 2.12非参考化合物气体non-referencecompoundgas指参考化合物以外的化合物标准气体,用于测定非参考化合物和参考化合物在检测仪器上的响应比值,在测定该种非参考化合物气体样品时可用测得的比值将仪器响应值转化为该种非参考化合物的实际浓度值。 3.仪器和设备

相关文档
相关文档 最新文档