DOI
是数位物件识别码
(
D
igital
O
bject
I
dentifier
)
的简称,
为物件在网路上的唯一识别码,可用于永久连结并引用目标物件。
使用DOI作为永久连结
每个DOI号前面加上
「
http://dx.doi.org/
」
便成为永久网址。
如以DOI号为
10.5297/ser.1201.002
的文献为例,此文献的永久连结便是:
http://dx.doi.org/
10.5297/ser.1201.002
。
日后不论出版单位如何更动此文献位置,永久连结所指向的位置皆会即时更新,不再错失重要的研究。
引用含有DOI的文献
有DOI的文献在引用时皆应同时引用DOI。若使用APA、Chicago以外未规范DOI的引用格式,可引用DOI永久连结。
DOI可强化引用精确性、增强学术圈连结,并给予使用者跨平台的良好使用经验,目前在全世界已有超过五千万个对象申请DOI。 如想对DOI的使用与概念有进一步了解,请参考 ( ) 。
Cross-Domain Image-Based 3D Shape Retrieval by View Sequence Learning
李唐 , 硕士 导师:徐宏民 共同指导教授:黄宝仪
英文 DOI: 10.6342/NTU201703061
三维模型 ; 卷积神经网路 ; 三元神经网路 ; 跨域度量学习 ; 3D Shape ; Convolutional Neural Network ; Triplet Neural Network ; Cross-Domain Metric Learning
- [1] M. Allen, L. Girod, R. Newton, S. Madden, D. T. Blumstein, and D. Estrin. Voxnet: An interactive, rapidly-deployable acoustic monitoring platform. In IPSN, 2008.
连结: - [3] K. Chatfield, K. Simonyan, A. Vedaldi, and A. Zisserman. Return of the devil in the details: Delving deep into convolutional nets. In BMVC, 2014.
连结: - [4] C. B. Choy, D. Xu, J. Gwak, K. Chen, and S. Savarese. 3d-r2n2: A unified approach for single and multi-view 3d object reconstruction. In ECCV, 2016.
连结: - [6] R. Girdhar, D. F. Fouhey, M. Rodriguez, and A. Gupta. Learning a predictable and generative vector representation for objects. In ECCV, 2016.
连结: - [8] A. Krizhevsky, I. Sutskever, and G. E. H. Hinton. Imagenet classification with deep convolutional neural networks. In NIPS, 2012.
连结: