欢迎访问广东工业大学数据挖掘与信息检索实验室!

2017实验室内部学术交流安排 (1)

作者:DMIR    发布时间:2017-10-12    浏览量:130

页面分享链接:http://dmirlab.com/document/379


20171013 19:30

主讲人:吴彪

主题:Knowledge Base Question Answering

内容:介绍基于知识图谱的问答系统的研究方法,以及其相关的研究成果--关于key-value memory network模型的分析及讨论。


Main reading:
1. Question Answering on Knowledge Bases and Text using Universal Schema and Memory Networks  (2017 ACL)
Link: https://arxiv.org/pdf/1704.08384.pdf

Extend readings:
1. Question Answering with Subgraph Embeddings (2014 EMNLP)
Link: http://mirror.aclweb.org/emnlp2014/papers/pdf/EMNLP2014067.pdf
2. Question Answering over Freebase with Multi-Column Convolutional Neural Networks (2015 ACL)
Link: http://www.aclweb.org/anthology/P/P15/P15-1026.pdf
3. 揭开知识库问答KB-QA的面纱
Link: https://zhuanlan.zhihu.com/p/25735572



201710月20 19:30

主讲人:许柏炎

主题:自然语言到结构化查询语言

内容:SQL是一种用于存取数据以及查询、更新和管理关系数据库的编程语言。由于学习成本高,普通人无法简单地获得数据库中有用的数据,将自然语言转化为结构化查询语言能够大大地提高数据的利用率。本工作提出一种编码-解码架构的变型,在传统的翻译模型下引入了结构化信息,大大提高了模型的性能。

Main Reading(*号为重要背景):
1. * Sequence to Sequence Learning with Neural Networks 

Link: http://papers.nips.cc/paper/5346-sequence-to-sequence-learning-with-neural-networks.pdf
2. * BNF Grammars for SQL

3.  Learning Phrase Representations using RNN Encoder–Decoder for Statistical Machine Translation
Link: https://arxiv.org/pdf/1406.1078.pdf

4.  Neural Machine Translation by Jointly Learning to Align and Translate

Link: https://arxiv.org/pdf/1409.0473.pdf



201710月27 19:30

主讲人:钟椿荣

主题:卷积神经网络及量化与压缩
内容:卷积神经网络凭借其出色的特征提取及分类能力在图像识别、视频处理等领域得到广泛的应用.神经网络处理性能的提升依赖网络复杂度的增加,限制了其在嵌入式等设备上的部署.因此采用量化和压缩的方法,去除冗余信息,在保障模型识别精度的前提下进一步压缩模型大小及计算消耗.

Main Reading(*号为重要背景):
1. * ImageNet Classification with Deep Convolutional Neural Networks
Link: http://papers.nips.cc/paper/4824-imagenet-classification-with-deep-convolutional-neural-networks
2. * Learning both Weights and Connections for Efficient Neural Networks
Link: http://papers.nips.cc/paper/5784-learning-both-weights-and-connections-for-efficient-neural-network
3.  Deep Compression: Compressing Deep Neural Networks with Pruning, Trained Quantization and Huffman Coding
Link: https://arxiv.org/abs/1510.00149