Image Caption Dataset

Image Caption Dataset

Goals:

1.数据量要求
2.标注的标准
3.标注的手段

Microsoft COCO Captions:

使用Amazon的Mechanical Turk(AMT)收集数据,再对数据进行标注。
“Each of our captions are also generated using human subjects on AMT.”

一些其他信息:(Caption Evaluation Server):

好像是可以评价caption的生成质量,但是应该是仅仅针对于使用COCO数据进行的,所以这一部分就不分析了。
文中(section 3)包含了几种不同评价方法的介绍:

BLEU
ROUGE
METEOR
CIDEr

在进行Evaluation之前的 Tokenization and preprocessing中:
使用了工具来添加caption标记:

  • Stanford PTBTokenizer in Stanford CoreNLP tools (version 3.4.1)

这个工具是模仿的是peen treebank3. 其参考文献和相关链接如下:

“The Stanford CoreNLP natural language processing toolkit,” in Proceedings of 52nd Annual Meeting of the Association for Computational Linguistics: System Demonstrations, 2014, pp. 55–60. related-link

数据规模:


表情数据集

表情数据集

根据这次需要搜集的表情的数据集,整理一下搜索数据集的网站和思路等

PART1 “表情数据集”

下列是对数据搜集的要求:

  • 是否开源
  • 图片的大小和数量
  • 图片的采集方式

eg:ck+

==数据来源及对应的搜索结果如下:==

  1. EmotioNet

好像是一个什么挑战赛的数据集要博士后或者相应教员才能申请使用申请页面
没有具体的用于表情识别的数据子集的信息(好像数据很多,但是不知道在哪下,除了那个博士后申请的)

  1. RAF

real-world Affective Face
数据量29672个图像,7种基本情绪,12种复合情绪,(包含种族年龄范围性别属性,5个准确定位和37个自动生成的定位)
数据收集方式:来源网络,大小应该很杂 (由40个人独立标定)
email