首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   405篇
  免费   50篇
  国内免费   13篇
安全科学   168篇
废物处理   1篇
环保管理   60篇
综合类   146篇
基础理论   30篇
污染及防治   15篇
评价与监测   22篇
社会与环境   12篇
灾害及防治   14篇
  2024年   1篇
  2023年   4篇
  2022年   9篇
  2021年   12篇
  2020年   6篇
  2019年   14篇
  2018年   16篇
  2017年   14篇
  2016年   15篇
  2015年   20篇
  2014年   18篇
  2013年   18篇
  2012年   28篇
  2011年   41篇
  2010年   22篇
  2009年   18篇
  2008年   20篇
  2007年   21篇
  2006年   24篇
  2005年   26篇
  2004年   15篇
  2003年   16篇
  2002年   15篇
  2001年   9篇
  2000年   8篇
  1999年   9篇
  1998年   9篇
  1997年   7篇
  1996年   10篇
  1995年   3篇
  1994年   1篇
  1993年   2篇
  1992年   3篇
  1991年   4篇
  1989年   1篇
  1987年   1篇
  1985年   1篇
  1984年   1篇
  1982年   3篇
  1975年   1篇
  1973年   1篇
  1971年   1篇
排序方式: 共有468条查询结果,搜索用时 312 毫秒
101.
为构建一个科学的建筑企业安全文化评价指标体系,实现对企业安全文化水平的客观评价。通过问卷调查及信息沉淀的方式获取影响建筑企业安全文化水平的各种因素,并基于人因失误理论对建筑企业安全文化影响因素进行分析和归类。在构建的建筑企业安全文化评价概念体系的基础上,采用因子分析的方法构建建筑企业安全文化评价指标体系。研究结果表明:该指标体系不仅可以描述指标的重要程度,而且可以明确各指标之间的因果关系,对建筑企业安全文化的构建具有一定的指导意义。  相似文献   
102.
基于APJE-SLIM的海运人因失误概率的确定   总被引:2,自引:2,他引:0  
安全是海运行业永恒的主题,调查研究表明,人因失误是造成海事的主要原因。为了对海运人因失误进行研究,探讨引起人因失误的行为形成因子(PSF),确定在PSF影响下的人因失误概率。在调查海上避让行为的人因失误和这些失误的行为形成因子的基础上,采用APJE和SLIM相结合的方法对航海人员避让行为中的可靠性进行分析。结果表明,航海人员疲劳与健康程度、知识、经验与培训水平、任务复杂程度、安全管理水平与组织有效性等PSF对人因失误概率有着不同程度的影响,相应提高PSF水平,可极大地减少人因失误概率。利用APJE确定端点绝对失误概率,解决了SLIM方法中难以获得参考点概率的问题,获得了在不同种类不同水平PSF影响下的海运人因失误概率。  相似文献   
103.
"二重源解析"模型计算结果的误差是采样误差、样品处理误差、化学组分分析误差、数据处理误差以及数学模型误差等所有误差的积累。提出了"二重源解析"解析结果的相对误差和标准偏差表达式,并用之计算了某市利用"二重源解析"模型计算的源贡献值的相对误差和标准偏差,还针对从源排放出来的初始态颗粒物在传输过程中发生的扬尘态变化提出了扬尘转化率的概念和计算方法。  相似文献   
104.
ABSTRACT: Improved sampling techniques are needed to increase the accuracy of pebble‐count particle‐size distributions used for stream studies in gravel‐bed streams. However, pebble counts are prone to operator errors introduced through subjective particle selection, serial correlation, and inaccurate particle‐size measurements. Errors in particle‐size measurements can be minimized by using a gravel template. Operator influence on particle selection can be minimized by using a sampling frame, 60 by 60 cm, in which sampling points are identified by the cross points of thin elastic bands. Serial correlation can be minimized by adjusting the spacing between the cross points and setting it equal to the dominant large particle size (=D95). In a field test in a cobble‐bed stream, the sampling frame developed in this study produced slightly coarser size distributions, particularly in the cobble range, than the traditional heel‐to‐toe walk that selects particles with a blind touch at the tip of the boot. The sampling frame produced more similar sampling results between two operators than heel‐to‐toe walks. The difference between the two sampling methods is attributed to an unbiased selection of fine and coarse particles when using the sampling frame.  相似文献   
105.
ABSTRACT: Field experiments were conducted from 1992 to 1995 to estimate ground water recharge rates at two sites located within a 2.7‐hectare agricultural field. The field lies in a sand plain setting in central Minnesota and is cropped continuously in field corn. The sites are located at a topographically high (upland) site and a topographically low (lowland) site in an effort to quantify the effects of depression focusing of recharge. Three site‐specific methods were used to estimate recharge rates: well hydrograph analysis, chlorofluorocarbon age dating, and an unsaturated zone water balance. All three recharge methods indicated that recharge rates at the lowland site (annual average of all methods of 29 cm) exceeded those at the upland site (annual average of 18 cm). On an annual basis, estimates by the individual methods ranged from 12 to 44 percent of precipitation at the upland site and from 21 to 83 percent at the lowland site. The difference in recharge rates between the sites is primarily attributed to depression focusing of surface water runon at the lowland site. However, two other factors were also important: the presence of thin lamellae at the upland site, and coarser textured soils below a depth of 1.5 m at the lowland site.  相似文献   
106.
Abstract: Introduced predators can have pronounced effects on naïve prey species; thus, predator control is often essential for conservation of threatened native species. Complete eradication of the predator, although desirable, may be elusive in budget‐limited situations, whereas predator suppression is more feasible and may still achieve conservation goals. We used a stochastic predator–prey model based on a Lotka‐Volterra system to investigate the cost‐effectiveness of predator control to achieve prey conservation. We compared five control strategies: immediate eradication, removal of a constant number of predators (fixed‐number control), removal of a constant proportion of predators (fixed‐rate control), removal of predators that exceed a predetermined threshold (upper‐trigger harvest), and removal of predators whenever their population falls below a lower predetermined threshold (lower‐trigger harvest). We looked at the performance of these strategies when managers could always remove the full number of predators targeted by each strategy, subject to budget availability. Under this assumption immediate eradication reduced the threat to the prey population the most. We then examined the effect of reduced management success in meeting removal targets, assuming removal is more difficult at low predator densities. In this case there was a pronounced reduction in performance of the immediate eradication, fixed‐number, and lower‐trigger strategies. Although immediate eradication still yielded the highest expected minimum prey population size, upper‐trigger harvest yielded the lowest probability of prey extinction and the greatest return on investment (as measured by improvement in expected minimum population size per amount spent). Upper‐trigger harvest was relatively successful because it operated when predator density was highest, which is when predator removal targets can be more easily met and the effect of predators on the prey is most damaging. This suggests that controlling predators only when they are most abundant is the “best” strategy when financial resources are limited and eradication is unlikely.  相似文献   
107.
滇池沉积物磷负荷估算   总被引:1,自引:0,他引:1       下载免费PDF全文
采集了滇池100多个沉积物柱样,并借助GIS对滇池作了分区;分段测试每个柱样的全磷(TP)含量及各区代表性柱样的137Cs含量,利用137Cs定年法确定0~5cm,5~10cm,10~15cm深度区间对应的时段是1986~2003年,1963~1986年,1954~1963年.在此基础上估算滇池不同区域与泥沙沉积量对应的TP沉积通量和总量.结果表明,近50年,全湖TP年均蓄积量为780t,表层15cm沉积物中TP累积量为3.89×104t.沉积物中磷蓄积已成为滇池水体磷的重要内部来源.  相似文献   
108.
近年来化工实验室事故屡禁不止,其中人的不安全行为是导致事故发生的主要原因.为评估实验人员可靠性,进一步管控化工实验室人的不安全行为,基于标准化工厂人因可靠性分析(SPAR-H)方法,结合化工实验室人因失误的特点,确定了更加适用于化工实验室的人因可靠性分析方法.首先依据"S-O-P"认知模型对人因失误类型进行划分;然后基...  相似文献   
109.
运用人误因素辨识多视图法进行因素辨识,建立了详细的因素辨识表;把人的行为分为5个阶段,即系统状态监测阶段,目标分析阶段,方案确定阶段和行为执行阶段.分别分析各个阶段可能的人误原因及模式;以组织视图为例,根据因素辨识和人误原因及模式分析结果,阐述人误因素树的构建过程,最终得到了1个完整的人误因素树.  相似文献   
110.
为准确分析基坑沉降变性规律,基于现场监测数据,通过卡尔曼滤波对趋势项及误差项进行分解,采用M-K检验对发展趋势进行评价,利用优化广义回归神经网络和差分整合移动平均自回归模型,构建基坑沉降分项预测模型,并将预测结果与发展趋势评价结果对比分析,以实现基坑沉降变形规律综合研究。结果表明:卡尔曼滤波能有效分解基坑沉降数据趋势项与误差项,相较于传统小波分解效果更佳;基坑沉降呈持续增加趋势,但趋势性逐渐减弱;预测结果相对误差均值均不大于2%,预测模型精度较高;沉降变形会进一步增加,但增加速率明显降低,与发展趋势分析结果一致,两者相互佐证分析结果准确性。研究结果为基坑沉降变形规律分析提供新思路。  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号