DOI
是数位物件识别码
(
D
igital
O
bject
I
dentifier
)
的简称,
为物件在网路上的唯一识别码,可用于永久连结并引用目标物件。
使用DOI作为永久连结
每个DOI号前面加上
「
http://dx.doi.org/
」
便成为永久网址。
如以DOI号为
10.5297/ser.1201.002
的文献为例,此文献的永久连结便是:
http://dx.doi.org/
10.5297/ser.1201.002
。
日后不论出版单位如何更动此文献位置,永久连结所指向的位置皆会即时更新,不再错失重要的研究。
引用含有DOI的文献
有DOI的文献在引用时皆应同时引用DOI。若使用APA、Chicago以外未规范DOI的引用格式,可引用DOI永久连结。
DOI可强化引用精确性、增强学术圈连结,并给予使用者跨平台的良好使用经验,目前在全世界已有超过五千万个对象申请DOI。 如想对DOI的使用与概念有进一步了解,请参考 ( ) 。
ACI:
数据来源:Academic Citation Index,简称ACI
台湾最大的引用文献资料库,目前收录台湾与港澳地区所出版的人文学、社会学领域学术期刊之书目资料与参考文献,总期刊量超过690种,每年定期公布收录期刊的影响指数(Impact Factor)等指标给大众,并提供专家学者与学术单位实用的计量与分析功能。
五年影响指数(5-Year Impact Factor):某一期刊前五年所出版的文章在当年度的平均被引用次数。
公式:(前五年发表论文在统计年的被引用次数)÷(前五年论文产出论文总篇数)
例如:A期刊2017年之五年影响指数
(A期刊2012-2016年发表论文在2017年的被引总次数)/(A期刊2012-2016年发表的论文总数)
什么是预刊文章?
为提供读者最前线之学术资讯,于期刊文献获同意刊登后、纸本印制完成前,率先于网路线上发表之文章即为预刊文章。预刊文章尚未有卷期、页次及出版日期资讯,但可藉由DOI号识别。 DOI号是文献的数位身份证字号,不论预刊或正式出版皆不会改变,读者可点击DOI连结,或于DOI号前面加上 「 http://dx.doi.org/ 」 连结到文献目前最新版本。
如何引用预刊文章?
请使用预刊文章的线上发表日期及DOI号来引用该篇文献。
引用范例(视不同引文格式规范可能有所差异):
作者姓名。文章篇名。期刊名称。 YYYY/MM/DD线上预先发表。
doi:DOI 号
-
书目导出
-
E-mail 给朋友
-
打印书目
A Study on the Establishment of Assessment Method for Debris Flow Disaster During Typhoon Period
吴婉甄(WAN-ZHEN WU) ; 陈昶宪(CHANG-SHIAN CHEN) ; 李彦德(YAN-DE LI) ; 陈柏苍(BORIS P.-T.CHEN)
台湾水利 ; 66 卷 4 期 (2018 / 12 / 01) , P53 - 66
繁体中文;英文
相似度比对 ; 台风降雨预报 ; 深度学习 ; 深度神经网路 ; 遗传规划法 ; Similarity Comparison ; Typhoon Rainfall Forecasting ; Deep Learn ; Deep Neural Network ; Genetic Programing
- Ciresan, D. C.(2010).Deep Big Simple Neural Nets for Handwritten Digit Recognition.Neural Computation,22,3207-3220.
- Genetic Programming and Symbolic Data Mining Platform for MATLAB, Dominic Searson, https://sites.google.com/site/gptips4matlab/home, Access date: 2018.6.1.
- Hecht-Nielsen, R.(1989).Theory of the backpropagation neural network.International 1989 Joint Conference on Neural Networks
- Hinton, G. E.,Salakhutdinov, R. R.(2006).Reducing the Dimensionality of Data with Neural Networks.Science,313,504-507.
- Krizhevsky, A.,Sutskever, I.,Hinton, G. E.(2012).ImageNet classification with deep convolutional neural networks.Proceedings of the 25th International Conference on Neural Information Processing Systems - Volume 1,Lake Tahoe, Nevada: