K NN; K Means; Naïve Bayes; Decision Tree; Gradient Boosting algorithms. SVM; Random Forest; Linear Regression; Logistic Regression; Dimensionality ...

注脚

1.Machine Learning Tutorial Basic introduction

2. Computer Version Nature Language Processing Robotic/Automatic Biology

3.

4.Basic Concept Cross Validation Over Fitting Activation Function Supervised Learning UnSupervised Learning Batch Epoch Layer Train Set Test Set Feature Dimensionality Generalization Maxpooling L1 /L2 Benchmark Baseline

5.Basic Concept

6.Basic Concept

7.Supervised/Unsupervised Learning

8.Supervised Learning

9.Supervised Learning

10.Unsupervised Learning

11.Basic Algorithm K NN K Means Naïve Bayes Decision Tree Gradient Boosting algorithms SVM Random Forest Linear Regression Logistic Regression Dimensionality Reduction Algorithms

12.How do you choose a machine learning algorithm ?

13.How do you choose a machine learning algorithm ?

14.Something Funny In Security 鱼叉式网络钓鱼 生成相似的密码进行攻击 Webshell , XSS,DGA,Malware (since 1994), Tojan 检测 病毒检测绕过 , 生成病毒 去马赛克 生成相似人脸 , 手写签名 聊天机器人 ………

15.Output Input Feature Engineering Data PreProcessing

16.With Python Or R Python and Pythonic ML library Common library

17.With Python Or R Python and Pythonic ML library Common library Don’t fighting language, Pythonic

18.With Python Or R Python and Pythonic ML library Common library Tensorflow Keras Scikit -Learn Pytorch

19.With Python Or R Python and Pythonic ML library Common library Pandas Numpy Scipy Matplotlib Pyplot Ndarray Scikit -image Image

20.R: I forget it ... Easily And Powerful

21.Examples: DGA/XSS/ Webshell MNIST

22.MNIST DGA/XSS/ Webshell

23.Mnist And Fashion- Mnist Pro Beginners Online Demo

24.Algorithm 1 : KNN

25.Principle Wikipedia

26.Principle

27.Code in Python

28.Code in Python

29.Algorithm 2 : SVM

30.Algorithm 2 : SVM

31.Principle 推理论证可来此处看看http://www.cnblogs.com/jerrylead/archive/2011/03/18/1988419.html

32.https://www.zhihu.com/question/21094489

33.Code in Python With Tensorflow

34.Benchmark with Scikit -Learn

35.这种常规算法一般来讲没必要使用 Tensorflow.TF 类的框架都是为神经网络 (NN) 准备的。 CNN,RNN, LSTM, MLP,GAN 等等

36.假装此处放置了一个各种算法在 MNIST 上的精确度列表

37.Other: Apply with Fashion- Mnist ?

38.MNIST DGA/XSS/ Webshell Domain Generation Algorithm Cross Site Scripting Webshell

39.MNIST DGA /XSS/ Webshell

40.MNIST DGA / XSS / Webshell http://prompt.ml/0

41.MNIST DGA / XSS / Webshell Reflected (non-persistent) Persistent Server-side versus DOM-based vulnerabilities Other

42.MNIST DGA/XSS / Webshell

43.MNIST DGA/XSS / Webshell 安全小飞侠的批量上传单个 Webshell AntSword CaiDao / 菜刀

44.MNIST DGA/XSS/ Webshell Natura language processing

45.Algorithm 3 : Naïve Bayes

46.Algorithm 3 : Naïve Bayes

47.https://www.analyticsvidhya.com/blog/2015/09/naive-bayes-explained/ https://stackoverflow.com/questions/10059594/a-simple-explanation-of-naive-bayes-classification#20556654 https://monkeylearn.com/blog/practical-explanation-naive-bayes-classifier/ Principle

48.http://172.16.10.222:8889/notebooks/12.Case_Study-SMS_Spam_Detection.ipynb Scipy-2017-sklearn

49.Other: DGA Top 1 million url

50.Art is Long, Life is short

51. 初学机器学习易陷入一个误区 :  以为机器学习是若干种算法 ( 方法 ) 的堆积 ,  熟练了“十大算法”或“二十大算法”一切即可迎刃而解 ,  于是将目光仅聚焦在具体算法推导和编程实现上 ;  待到实践发现效果不如人意 ,  则又转对机器学习发生怀疑 .  须知 ,  书本上仅能展示有限的典型“套路” , 而现实世界任务千变万化 ,  以有限之套路应对无限之变化 ,  焉有不败!现实中更多时候 ,  需依据任务特点对现有套路进行改造融通 .  算法是“死”的 ,  思想才是“活”的 .  欲行此道 ,  则务须把握算法背后的思想脉络 ,  无论创新科研还是应用实践 ,  皆以此为登堂入室之始 .  本书在有限篇幅中侧重于斯 ,  冀望辅助读者奠造进一步精进的视野心法 .  读者由本书初入门径后 ,  不妨搁书熟习“套路” ,  数月后再阅 ,  于原不经意处或能有新得 .  此外 ,  作者在一些角落融入了自己多年研究实践的些微心得 ,  虽仅只言片语 ,  但可能不易得之 ,  进阶读者阅之或可莞尔 . ----   周志华 《 机器学习 》

52.RoadMap

53.Welcome to Machine Learning

54.关于技术分享 提前做好准备,不仅是分享者还是参与者 本着自由的精神,如无兴趣,可随时离开 Focus 方法论在前,但是也不要只分享思想性的东西,只有经过了实践才能领悟到正确的方法。没有实践 , 全是空谈。分享之前,自己实践过吗? 技术分享面向的是研发,所以听的懂很好,听不懂更好,可以自己去学。不要老是兼顾 , 兼顾到最后失去了分享的意义 , 变成了打发时间的扯淡。 要想技术有提高 , 总要是从不懂到懂得。 每次分享后的知识应得到实践和对实践结果的反馈

55.关于技术分享 1. 例如上上次关于 Dos, 其实 bcrypt 加密算法只接受 8-58 长度,所以不可能产生 DOS 。 2. 上次代码重构的分享中提到了避免继承,但设计模式中的开闭原则 (OCP) 则提倡通过继承,多态等方法避免对原有程序的改动。 Why ?

56.Thanks Design by mour Since 09.07

user picture
  • Sobes
  • Apparently, this user prefers to keep an air of mystery about them.

相关Slides

  • 视觉任务之间是否有关系,或者它们是否无关?例如,表面法线可以简化估算图像的深度吗?直觉回答了这些问题,暗示了视觉任务中存在结构。了解这种结构具有显著的价值;它是传递学习的基本概念,并提供了一种原则性的方法来识别任务之间的冗余,例如,无缝地重用相关任务之间的监督或在一个系统中解决许多任务而不会增加复杂性。 我们提出了一种完全计算的方法来建模视觉任务的空间结构。这是通过在隐空间中的二十六个2D,2.5D,3D和语义任务的字典中查找(一阶和更高阶)传递学习依赖性来完成的。该产品是用于任务迁移学习的计算分类地图。我们研究了这种结构的后果,例如:非平凡的关系,并利用它们来减少对标签数据的需求。例如,我们表明,解决一组10个任务所需的标记数据点总数可以减少大约2/3(与独立训练相比),同时保持性能几乎相同。我们提供了一套用于计算和探测这种分类结构的工具,包括用户可以用来为其用例设计有效监督策略。

  • 尽管最近在生成图像建模方面取得了进展,但是从像ImageNet这样的复杂数据集中成功生成高分辨率,多样化的样本仍然是一个难以实现的目标。为此,我们以最大规模训练了生成性对抗网络,并研究了这种规模所特有的不稳定性。我们发现将正交正则化应用于生成器使得它适合于简单的“截断技巧”,允许通过截断潜在空间来精确控制样本保真度和多样性之间的权衡。我们的修改导致模型在类条件图像合成中达到了新的技术水平。当我们在ImageNet上以128×128分辨率进行训练时,我们的模型(BigGAN)的初始得分(IS)为166.3,Frechet初始距离(FID)为9.6,比之前的最优IS为52.52,FID为18.65有了显著的提升。

  • 2017年,以斯坦福大学为首、包括吴恩达、李开复等一众大咖专家团队齐力打造的人工智能指数(AI Index)重磅年度报告首次发布。从学术、业界发展、政府策略等方面对全年的人工智能全球发展进行了回顾,堪称全年人工智能最强报告。 该重点介绍了人工智能领域的投资和工作岗位前所未有的增长速度,尤其是在游戏和计算机视觉领域进展飞速。

  • 18年12月12日,哈佛大学,麻省理工学院,斯坦福大学以及OpenAI等联合发布了第二届人工智能指数(AI Index)年度报告。 人工智能领域这一行业的发展速度,不仅仅是通过实际产品的产生以及研究成果来衡量,还要考虑经济学家和政策制定者的预测和担忧。这个报告的目标是使用硬数据衡量人工智能领域的发展。 报告中多次提及了中国人工智能的发展以及清华大学: 美国仅占到全球论文发布内容的17%,欧洲是论文最高产的国家,18年发表的论文在全球范围内占比28%,中国紧随其后,占比25%。; 大学人工智能和机器学习相关课程注册率在全球范围都有大幅提升,其中最瞩目的是清华大学,相关课程2017年的注册率比2010年高出16倍,比2016年高出了将近3倍; 各国对人工智能应用方向重视不同。中国非常重视农业科学,工程和技术方面的应用,相比于2000年,2017年,中国加大了对农业方面的重视。 吴恩达也在今天的推特中重磅推荐了这份报告,称“数据太多了”,并划重点了两个报告亮点:人工智能在业界和学界都发展迅速;人工智能的发展仍需要更加多样包容。