Naïve Bayes Classifier. Neural Network. Benchmarks. Gradient-Based Learning Applied to Document Recognition by LeCun, Y., Bottou, L., Bengio, Y., Haffner, ...

浅色棱发布于2018/06/13 00:00

注脚

1.Analysis of Classification Algorithms In Handwritten Digit Recognition Logan Helms Jon Daniele

2.Classification Algorithms Template Matching Naïve Bayes Classifier Neural Network

3.Benchmarks Gradient-Based Learning Applied to Document Recognition by LeCun, Y., Bottou , L., Bengio , Y., Haffner , P. Comparison of Machine Learning Classifiers for Recognition of Online and Offline Handwritten Digits by Omidiora , E., Adeyanju , I., Fenwa , O.

4.MNIST Training Set: 60,000 samples Test Set: 10,000 samples Accuracy: Number of correctly guessed test samples/ 10,000

5.Naïve Bayes classifier

6.Naïve Bayes Classifier Each pixel value (on/off) is independent of any other pixel value​ Each pixel has a probability associated with being on or off in any given digit class​ The probability of each pixel is used to determine the probability of an unknown digit being classified in one of the known classes

7.Naïve Bayes Classifier Training set: 60000 digits​ Test set: 10000 digits​ Success rate:​ Abysmal: 08.13% correct classification rate​ Benchmark:​ WEKA: Multimodal Naive Bayes: 83.65%​ 08.13% <<<<<<<<< 83.65%

8.Naïve Bayes Classifier Challenges:​ Pixel probabilities change according to the shape of the digit​ Are pixels the best feature set by which to compare different digits?​ Input size:​ 28x28 digit image results 786 pixels​ Requirements for matrix manipulation

9.Naïve Bayes Classifier Improvements​ Discarding extraneous pixel data​ Pixel values are mainly contained in a 20x20 matrix​ Using a binary pixel value vs a range of pixel values (0-255)​ Edge detection​ Incorporate feature extractor(s) and evaluate images based on those features

10.Neural network

11.Neural Network Type: Feed Forward Training: Back-propagation algorithm Response Function: Architectures: Name Input Layer Hidden Layer Output Layer NN300 784 300 10 NN1000 784 1000 10

12.Training

13.NN300 Training time: ~17 hours (~52 mins/epoch) Learning rate: Epoch Rate 1, 2 0.0005 3, 4, 5 0.0002 6, 7, 8 0.0001 9, 10, 11, 12 0.00005 13, 14, 15, 16, 17, 18, 19, 20 0.00001

14.NN1000 Training time: ~2.5 days (~3 hrs/epoch) Learning rate: Epoch Rate 1, 2 0.0005 3, 4, 5 0.0002 6, 7, 8 0.0001 9, 10, 11, 12 0.00005 13, 14, 15, 16, 17, 18, 19, 20 0.00001

15.Results After 20 epochs Network Accuracy Benchmark 1 95.30% NN300 75.82% Benchmark 2 75.12% Network Accuracy Benchmark 1 95.50% NN1000 -

16.Benchmark 1 95.30% On MNIST test set as is. 96.4% Generated more training data by using artificial distortions 98.4% When using deslanted images

17.Future Work Further training of NN300 with the MNIST test set has increased accuracy to 84.01% Experiment with hidden neuron count and multiple hidden layers Research other types of neural networks

user picture
  • 浅色棱
  • Apparently, this user prefers to keep an air of mystery about them.

相关Slides

  • 视觉任务之间是否有关系,或者它们是否无关?例如,表面法线可以简化估算图像的深度吗?直觉回答了这些问题,暗示了视觉任务中存在结构。了解这种结构具有显著的价值;它是传递学习的基本概念,并提供了一种原则性的方法来识别任务之间的冗余,例如,无缝地重用相关任务之间的监督或在一个系统中解决许多任务而不会增加复杂性。 我们提出了一种完全计算的方法来建模视觉任务的空间结构。这是通过在隐空间中的二十六个2D,2.5D,3D和语义任务的字典中查找(一阶和更高阶)传递学习依赖性来完成的。该产品是用于任务迁移学习的计算分类地图。我们研究了这种结构的后果,例如:非平凡的关系,并利用它们来减少对标签数据的需求。例如,我们表明,解决一组10个任务所需的标记数据点总数可以减少大约2/3(与独立训练相比),同时保持性能几乎相同。我们提供了一套用于计算和探测这种分类结构的工具,包括用户可以用来为其用例设计有效监督策略。

  • 尽管最近在生成图像建模方面取得了进展,但是从像ImageNet这样的复杂数据集中成功生成高分辨率,多样化的样本仍然是一个难以实现的目标。为此,我们以最大规模训练了生成性对抗网络,并研究了这种规模所特有的不稳定性。我们发现将正交正则化应用于生成器使得它适合于简单的“截断技巧”,允许通过截断潜在空间来精确控制样本保真度和多样性之间的权衡。我们的修改导致模型在类条件图像合成中达到了新的技术水平。当我们在ImageNet上以128×128分辨率进行训练时,我们的模型(BigGAN)的初始得分(IS)为166.3,Frechet初始距离(FID)为9.6,比之前的最优IS为52.52,FID为18.65有了显著的提升。

  • 2017年,以斯坦福大学为首、包括吴恩达、李开复等一众大咖专家团队齐力打造的人工智能指数(AI Index)重磅年度报告首次发布。从学术、业界发展、政府策略等方面对全年的人工智能全球发展进行了回顾,堪称全年人工智能最强报告。 该重点介绍了人工智能领域的投资和工作岗位前所未有的增长速度,尤其是在游戏和计算机视觉领域进展飞速。

  • 18年12月12日,哈佛大学,麻省理工学院,斯坦福大学以及OpenAI等联合发布了第二届人工智能指数(AI Index)年度报告。 人工智能领域这一行业的发展速度,不仅仅是通过实际产品的产生以及研究成果来衡量,还要考虑经济学家和政策制定者的预测和担忧。这个报告的目标是使用硬数据衡量人工智能领域的发展。 报告中多次提及了中国人工智能的发展以及清华大学: 美国仅占到全球论文发布内容的17%,欧洲是论文最高产的国家,18年发表的论文在全球范围内占比28%,中国紧随其后,占比25%。; 大学人工智能和机器学习相关课程注册率在全球范围都有大幅提升,其中最瞩目的是清华大学,相关课程2017年的注册率比2010年高出16倍,比2016年高出了将近3倍; 各国对人工智能应用方向重视不同。中国非常重视农业科学,工程和技术方面的应用,相比于2000年,2017年,中国加大了对农业方面的重视。 吴恩达也在今天的推特中重磅推荐了这份报告,称“数据太多了”,并划重点了两个报告亮点:人工智能在业界和学界都发展迅速;人工智能的发展仍需要更加多样包容。