r*****d 发帖数: 346 | 1 【 以下文字转载自 JobHunting 讨论区 】
发信人: commanders (commanders2005), 信区: JobHunting
标 题: 报面筋求实习合租
发信站: BBS 未名空间站 (Mon Mar 31 17:37:09 2014, 美东)
求实习合租 在seattle amazon, from 5.20-8.15. 有兴趣站内联系。
我去年圣诞节开始申请实习。 投了大概30多家公司, 只有四家公司给了我面试,
linkedin, amazon,discover,bloomberg。 作为一个烂校统计phd,找实习的时候还
是挺纠结的。 第一个月的时候, 我主要投了大公司, 招intern的research lab。 基
本没有回应。 有一个linkedin的lab找我面试, 问了很多engineering的问题, 就自
然挂了(非马工)。 然后很久都没有面试和消息。 中途拿到不少据信, 连个面试都
没有给我。
到了二月初, 我就着急了, 连着投了好几个公司包括discover, amazon, 还有
bloomberg。 discover 是risk ... 阅读全帖 |
|
r********n 发帖数: 6979 | 2 svm可以one against all建立4个model
rf, nn都可以直接handle多类问题
先试试简单的LR或者SVM
不行再用fancy的模型 |
|
h******r 发帖数: 31 | 3 建议大家看一下这个帖子:http://www.mitbbs.com/article_t2/DataSciences/2135.html
这种情况其实就是把nominal variable转成许多dummy variables。比如说,variable
城市有三个选择:北京,上海,广州。那我们就需要2个dummy variables。
北京:0/1
上海:0/1
广州就不用了,因为如果北京和上海都是0的话,剩下就是广州了。
对于lz的问题,因为城市很多,就要很多的dummy variables。所以建议用svm,svm不
怕high dimension。或者random forests,因为有自动的tree pruning。classic
logistic regression应该不work的。 |
|
r*****d 发帖数: 346 | 4 【 以下文字转载自 JobHunting 讨论区 】
发信人: commanders (commanders2005), 信区: JobHunting
标 题: 报面筋求实习合租
发信站: BBS 未名空间站 (Mon Mar 31 17:37:09 2014, 美东)
求实习合租 在seattle amazon, from 5.20-8.15. 有兴趣站内联系。
我去年圣诞节开始申请实习。 投了大概30多家公司, 只有四家公司给了我面试,
linkedin, amazon,discover,bloomberg。 作为一个烂校统计phd,找实习的时候还
是挺纠结的。 第一个月的时候, 我主要投了大公司, 招intern的research lab。 基
本没有回应。 有一个linkedin的lab找我面试, 问了很多engineering的问题, 就自
然挂了(非马工)。 然后很久都没有面试和消息。 中途拿到不少据信, 连个面试都
没有给我。
到了二月初, 我就着急了, 连着投了好几个公司包括discover, amazon, 还有
bloomberg。 discover 是risk ... 阅读全帖 |
|
h*****7 发帖数: 6781 | 5 我出的题
简述 vc dimension 以及和 svm 关系
svm怎么实现?有没有比smo更快的?
各种kernel空间维度,怎么用
简述MAP, fisher information
简述MCMC基本类型,难点
bayesian vs frequentist pros and cons
boostrap好处,性质
手推PCA
向量求导手推
微分方程手推
简述categorical处理
牛顿法,共轭梯度,模拟退火,各类优化求解
各种图搜索
真做过ML的,上面都是小意思
没做过的,基本没可能突击出来 |
|
d******e 发帖数: 7844 | 6 Linear SVM的话比SMO快的算法不少。对于用了Nonlinear Kernel的SVM,有啥比SMO更
快速的算法? |
|
h*****7 发帖数: 6781 | 7 我出的题
简述 vc dimension 以及和 svm 关系
svm怎么实现?有没有比smo更快的?
各种kernel空间维度,怎么用
简述MAP, fisher information
简述MCMC基本类型,难点
bayesian vs frequentist pros and cons
boostrap好处,性质
手推PCA
向量求导手推
微分方程手推
简述categorical处理
牛顿法,共轭梯度,模拟退火,各类优化求解
各种图搜索
真做过ML的,上面都是小意思
没做过的,基本没可能突击出来 |
|
d******e 发帖数: 7844 | 8 Linear SVM的话比SMO快的算法不少。对于用了Nonlinear Kernel的SVM,有啥比SMO更
快速的算法? |
|
h********3 发帖数: 2075 | 9 我们也更多用logistic regression。楼主的原帖就是问svm的details。svm在这里只是
一个例子。当然你如果知道其他算法的details,我们也是欢迎的。 |
|
d******e 发帖数: 7844 | 10 从优化上说,用了Squared Hinge Loss SVM和Logistic Regression已经非常接近了。
至于用不用SVM,全看公司的喜好。 |
|
p*******i 发帖数: 1181 | 11 svm是个很值得学的算法,从学术角度来说非常有价值,不过限制也很多,实际业界应
用确实很罕见,我在Amazon和Facebook的ML team都呆过,svm都谈不上是主流算法吧~
个人感觉logistic最简单实用,tree based model最万金油,真要搞fancy的东西还是
要deep learning和neural network |
|
d******e 发帖数: 7844 | 12 如果是Hinge Loss的SVM,训练比较慢。概率解释比较tricky,没有Logistic
Regression那么Natural。
至于参数和Kernel之类的不是SVM的问题,是所有用Regularization的方法都有的问题
。Kernel参数就更是了。
至于多类也不怕,Multiclass的Hinge Loss多种多样,不是大问题。 |
|
h********3 发帖数: 2075 | 13 我们也更多用logistic regression。楼主的原帖就是问svm的details。svm在这里只是
一个例子。当然你如果知道其他算法的details,我们也是欢迎的。 |
|
d******e 发帖数: 7844 | 14 从优化上说,用了Squared Hinge Loss SVM和Logistic Regression已经非常接近了。
至于用不用SVM,全看公司的喜好。 |
|
p*******i 发帖数: 1181 | 15 svm是个很值得学的算法,从学术角度来说非常有价值,不过限制也很多,实际业界应
用确实很罕见,我在Amazon和Facebook的ML team都呆过,svm都谈不上是主流算法吧~
个人感觉logistic最简单实用,tree based model最万金油,真要搞fancy的东西还是
要deep learning和neural network |
|
d******e 发帖数: 7844 | 16 如果是Hinge Loss的SVM,训练比较慢。概率解释比较tricky,没有Logistic
Regression那么Natural。
至于参数和Kernel之类的不是SVM的问题,是所有用Regularization的方法都有的问题
。Kernel参数就更是了。
至于多类也不怕,Multiclass的Hinge Loss多种多样,不是大问题。 |
|
e*******n 发帖数: 872 | 17 原题见
http://www.mitbbs.com/article_t/DataSciences/10029.html
专门开一个贴,尝试逐题解答。本人菜鸟,求大牛指导
>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>
1. Given a coin you don’t know it’s fair or unfair. Throw it 6 times and
get 1 tail and 5 head. Determine whether it’s fair or not. What’s your
confidence value?
我的答案是:
H0: the coin is fair
Ha: the coin is unfair
X is the number of heads
Rejection region: |X - 3| > 2, i.e., X = 0,1,5,or 6
significance level alpha:
alpha = P(reject H0 | H0 i... 阅读全帖 |
|
|
|
m***r 发帖数: 359 | 20 机器学习日报 2015-03-16
@好东西传送门 出品, 过刊见
http://ml.memect.com
订阅:给 [email protected]
/* */ 发封空信, 标题: 订阅机器学习日报
更好看的HTML版
http://ml.memect.com/archive/2015-03-16/short.html
1) 【神经网络语言模型】 by @火光摇曳Flickering
关键词:深度学习, 算法, 自然语言处理, Geoffrey Hinton, 神经网络
[我们是这样理解语言的-3]神经网络语言模型 | 火光摇曳 本文根据神经网络的发展历
程,详细讲解神经网络语言模型在各个阶段的形式,其中的模型包含NNLM[Bengio,2003
]、Hierarchical NNLM[Bengio, 2005], Log-Bilinear[Hinton, 2007],SENNA等重要变
形。 [1]
[1] http://t.jiathis.com/7tzZg
2) 【利用文本和可读性特征分类垃圾邮件】 by @iB37
关键词:会议活动, 算法, 资源, 自然语言... 阅读全帖 |
|
m***r 发帖数: 359 | 21 机器学习日报 2015-03-16
@好东西传送门 出品, 过刊见
http://ml.memect.com
订阅:给 [email protected]
/* */ 发封空信, 标题: 订阅机器学习日报
更好看的HTML版
http://ml.memect.com/archive/2015-03-16/short.html
1) 【神经网络语言模型】 by @火光摇曳Flickering
关键词:深度学习, 算法, 自然语言处理, Geoffrey Hinton, 神经网络
[我们是这样理解语言的-3]神经网络语言模型 | 火光摇曳 本文根据神经网络的发展历
程,详细讲解神经网络语言模型在各个阶段的形式,其中的模型包含NNLM[Bengio,2003
]、Hierarchical NNLM[Bengio, 2005], Log-Bilinear[Hinton, 2007],SENNA等重要变
形。 [1]
[1] http://t.jiathis.com/7tzZg
2) 【利用文本和可读性特征分类垃圾邮件】 by @iB37
关键词:会议活动, 算法, 资源, 自然语言... 阅读全帖 |
|
s****h 发帖数: 3979 | 22 看了一下论坛
貌似流行的思路就是SVM or Random Forest or combined model
+
feature selecting
在去年的这个比赛中,http://www.kaggle.com/c/mlsp-2014-mri
最后第二名的code和思路都贴出来了,可以参考一下。
可能这种数据只能这么搞吧。我本身对SVM or Random Forest这种类型的model不是很
待见,觉得属于无可奈何的办法。可是这些model在类似竞赛中成绩都不错。 |
|
o******1 发帖数: 1046 | 23 用在svm上的。multi-class classification法对于svm好像很难formulate出被优化的
objective function。其实linear regression也很难做multi-class,一般只有纯
logistic regression才用它吧。
)和 |
|
o******1 发帖数: 1046 | 24 我猜那些package只是能用svm来解多class问题,但是背后的算法还是基于:2-class +
ovo(or ova, or dagsvm, etc)。
有抛弃2-class,直接multi-class的svm吗?
化的 |
|
z*******n 发帖数: 1034 | 25 November 25, 2014 1:23 PM
Jordan Novet
Facebook’s campaign to grow its artificial intelligence talent pool has
announced a new victory.
The social networking company’s AI lab today revealed — in a Facebook post
, naturally — its latest high-profile hire: Vladimir Vapnik. He’s credited
with coming up with the first support vector machine (SVM) algorithm. SVMs
are widely used today for machine learning purposes. They can come in handy
for analyzing text, images, and other types of content.
Vapnik’... 阅读全帖 |
|
|
K**********r 发帖数: 2640 | 27 按字母顺序: SVA, SVM, SVN, SVR, SVT, SVU.
今天进了点SVN。明天考虑进点SVA,好像它早该突破了,可它一到这个程度就跟老牛一
样了。再过几天大概就可以考虑进
SVU了。
http://finviz.com/quote.ashx?t=SVA,SVM,SVN,SVR,SVT,SVU&ty=c&ta=1&p=d
jj,现在知道我咋选股了? |
|
k***n 发帖数: 3158 | 28 what I asked is do you differenciate stocks like SVM from those Chinese
stocks
you mentioned?
Companies like RINO, they started from China and operated in China.
Companies like SVM, they are mostly foreign companies that mainly operated
in
China. I think they are OK. |
|
B*****e 发帖数: 2413 | 29 Your example is very improper. SVM is not a small cap (less than 500
million).
Additionally, SVM is a material stock and the whole silver sector gets
higher.
operated |
|
y*****l 发帖数: 5997 | 30 【 以下文字转载自 Stock 讨论区 】
发信人: yaokarl (大象), 信区: Stock
标 题: [合集] 第一届公司与股票中长期选股比赛报名(800伪币大奖)
发信站: BBS 未名空间站 (Sun Jul 17 23:27:55 2011, 美东)
☆─────────────────────────────────────☆
updownlife (渔夫) 于 (Fri Jun 24 09:30:43 2011, 美东) 提到:
比赛办法:
*每个参赛人员选择最多2个股票, 按照所选股票的6个月总体收益排名,前三名获大奖,所有报名都有奖
*比赛时间: 7/15/2011 - 1/15/2012
*报名时间: 6/23/2011 - 7/15/2011
报名办法:
* 每个参赛者选择 1-2 个在美国时常交易的公司(or industry etf etc)
* 每个参赛者提供自己对所选公司的分析报告
* 每个参赛者提供自己对所选公司股票的中长期操作数据:
(1) 买入点价格 : 买入点可以在参赛后15日调整,15天后还没有合适买入价的话将按
弃权处... 阅读全帖 |
|
|
g****5 发帖数: 1639 | 32 没有必要望文生义地认为现阶段的人工智能就真的是想模拟高级生物比如人的智能。就
当成是“夫妻肺片”这样的概念理解就行了。人工智能只是个学术界忽悠出来用以骗经
费的概念而已。顶多相信后面俩字“智能”就行了,跟“人工”实在没关系。其实还是
machine learning这个词比较贴切,就是让silicon machine具有一定学习的能力,做
自动的决策。
另外搞生物的也有误解,认为人工智能是去试图模拟人脑的智能。从现阶段人脑的工作
模式从生物上都没搞清楚来攻击,这也是没必要。还是那句话,跟人工无关,只是利用
现有的计算条件,做一些简单的学习模型和预测。你们去搜一搜,AI的一个经典定义是
这样的:The use of computers to solve problems that previously could only be
solved by applying human intelligence. 按照这个定义,连qq的棋牌室都算,因为
先前只有人才会下棋。另外一个定义则比较接近现在的机器学习:The use of a
specific set of programming te... 阅读全帖 |
|
v*****a 发帖数: 1332 | 33 现在谁都在谈的SVM和最早的线性回归有差别么?
我觉得没有。
关键是AI的整个模型没有变。你把formula的模型变得再复杂,还是一回事。 |
|
|
v*****a 发帖数: 1332 | 35 我来说句mean一点的话吧
他顶多就是个搞SVM之类“前沿AI/ML算法”的人。
对其他方面(控制/无人机/机器人)基本知识面很窄。(虽然这些东西和AI应该都有交
叉)
对AI的认识也很窄。
本该天天忽悠别人,最后把自己给忽悠进去了
骗外行的那些东西,自己真信了。。。。 |
|
|
v*****a 发帖数: 1332 | 37 还真别说,
我编程的时候,打SVM,老打成SM。。。
很是尴尬 |
|
k********a 发帖数: 446 | 38 传统机器学习/人工智能(SVM,kernel,convex optimization,topic model,etc)
搞了很多年,对语音识别这个最基本的问题基本没有什么大贡献,从这个角度来说近期
的DL语音识别的工作使得识别率前进了一大步,推进到了工业级的应用,进步还是很实
在的。至于记者们瞎引深,那也没办法。最近 IEEE spectrum interviewed both
Michael Jordan 和 Yann LeCun, 很有意思。 |
|
w*****h 发帖数: 423 | 39 太扯了
SVM 也可以是nonlinear model
就连logistic regression也可以是nonlinear model |
|
y***u 发帖数: 192 | 40 这几天比较热,闲逛到师姐家喝茶散心。看见师姐的老公QB拿着一本书在沉思。依稀能
瞥见似乎有kernel和SVM几个词。我一文科生登时觉得索然无味,就问QB最近有什么新
鲜的趣闻。
QB笑了笑说:其实大数据也可以很有意思的,听说你们疗养院收了不少患者,疗效却不
佳,你知道为什么?
我反驳道:其实疗效不错,不少人找到了宣泄的途径,症状也逐渐减弱,只是最近一个
叫老邱的和纽约黑人区一中年汉子偶尔复发而已,比如老邱会偶尔重复一下口头禅。
QB严肃道:这不是简单的重复,已经到了semantic satiation的地步了,你看他一个单
词最近重复了38次。QB边说,边给我展示了下面的图一。
我心里暗赞QB真有闲。随手翻到下一页,却是关于黑人区那中年汉子的。
QB指着图二道:很久以前有一部电影是讲解梦的,老和尚总结了主人公呼唤别人名字的
次数。你看,这一个什么花的一个月里用两个ID呼唤了黑人区中年汉子86次,你知道这
代表着什么吗?
听QB说到这里,我觉得这个夏天一下子凉爽下来了。 |
|
发帖数: 1 | 41 德国it综合来看不怎么样,不能吹
软件就SAP,其他比如什么Software AG都比较小
硬件也就英飞凌
电商zalando勉强算上
电信运营商Telekom,O2,Vodafone主要依靠爱立信和华为的技术就不说了
西门子这种工业集团另算
至于AI,20多年前大家都在搞SVM boosting ANN这种,德国搞得不算早。他们有一些不
错的组,也有一些被引用不少的文章和数据库,但是也就是一个平均最多中上的水平 |
|
发帖数: 1 | 42 就是 卷积(内积) + 偏导数 + 链式法则 + 随机梯度下降优化 这几样大二学生都能掌
握的东西
和SVM的核方法比起来弱爆了, 一个可再生核希尔伯特空间很多博士都理解不了 |
|
|
发帖数: 1 | 44 华人有什么fundamental的创新?neural network? SVM ? Boosting?
华人说白了 只能给白人抬轿子 |
|
m*****n 发帖数: 3575 | 45 你tmd只看SVM这三个英文字母,能看得出个鬼逻辑来 |
|
m*****n 发帖数: 3575 | 46 【 以下文字转载自 ScitechNews 讨论区 】
发信人: onews (OverseasNews), 信区: ScitechNews
标 题: [KJPT]中国两博士兄弟,2年打造出全球最大AI芯片独角兽
发信站: BBS 未名空间站 (Fri Jun 22 03:15:05 2018, 美东)
编者按:2018年6月20日凌晨,寒武纪宣布完成数亿美元的B轮融资估值达到25亿美元(约合161亿元人民币),成为全球最大的AI芯片独角兽公司。
近一年来,AI芯片公司频频获得融资,云端芯片也占据了越来越重要的地位,并成为诸多AI芯片企业即将争夺的下一个入口。
2018年6月20日凌晨,寒武纪宣布完成数亿美元的B轮融资估值达到25亿美元(约合161亿元人民币),成为全球最大的AI芯片独角兽公司。
人工智能时代,谁掌握了这颗驱动计算的“芯”,谁就将引领产业发展,并获得巨大的收益。PC时代的英特尔、智能手机时代的高通,都曾胜者为王,营收的增长带动了资本市场的青睐。
资料显示:寒武纪科技创立于2016年3月,由陈天石、陈云霁兄弟联合创办。哥哥陈云霁1983年出生,14岁考入中国科学技术大学... 阅读全帖 |
|
m*********t 发帖数: 858 | 47 小破熊:人工智能将使中国教育优势荡然无存
2018 年 7 月 13 - 19 日,备受关注的 AI 顶级国际会议 IJCAI 在瑞典斯德哥尔摩举
行。伴随着人工智能技术的逐渐升温,本次大会的规模也创了新高。据统计,IJCAI
2018 总投稿量为 3470 篇(相比去年增加了 37%),最终录取了 710 篇,录取率约为
20.5%。在七篇杰出论文中,华人学者的研究占据四席。
来自中国的研究人员为本届 IJCAI 贡献了主要力量。据大会官方统计,今年的接收论
文中,46%的论文包含来自中国的通讯作者,57%的论文来自亚洲。另外,本次大会注
册参会的人数达到了前所未有的 2500 人。
IJCAI 2018 公布了接收论文的统计分析结果,接收论文:710 篇(21%),其中 58 篇
有轻微修改。
根据通讯作者所在地区划分:
中国 325 篇(46%)
欧盟 129 篇(英国 37 篇,法国 22 篇,意大利 18 篇,德国 15 篇,奥地利 12 篇)
美国 122 篇
新加坡 26 篇
澳大利亚 23 篇
其他国家和地区 84 篇(日本 17 篇,以色列 13 篇,香港 12 篇... 阅读全帖 |
|
发帖数: 1 | 48 https://xw.qq.com/cmsid/20190129A0I69B00
90年代末机器学习兴起,2012年,神经网络概念复辟,而在AlphaGo碾压人类选手后,
强化学习卷土重来。近26年来,AI领域基本没有新的概念出现,只有不同的技术一次次
从冷宫中解放出来。
麻省理工科技评论在1月25日发布的一篇文章中,分析了截至2019年11月18日,论文数
据库中arXiv的16625份关于AI的论文。
从分析结果看,“AI”概念的风靡,有三个典型时期:90年代末21世纪初机器学习兴起
,2010年代初神经网络概念复辟,近几年强化学习概念卷土重来。
值得注意的是,arXiv的AI论文模块始于1993年,而“人工智能”的概念可以追溯到
1950年,因此这一数据库只能反馈近26年以来的AI研究。而且,arXiv每年收录的论文
,也仅代表当时人工智能领域的一部分研究。不过,它仍然是观测AI行业研究趋势的最
佳窗口。
我们接下来就来看一下,16625份论文提供了哪些信息。
起点:解救程序员
基于知识的系统,由人类将知识赋予计算机,而计算机承担知识的存储和管理功能,帮
助人类解决问题。转变为机... 阅读全帖 |
|
发帖数: 1 | 49 算法工程师的危机
9月20号讯飞AI同传语音造假的新闻刷爆科技圈,科大讯飞股价应声下跌3.89%(不是65
.3%,标题党文章害死人)。 吃瓜群众纷纷感慨,有多少人工,就有多少智能。
AI概念在2015年起就红得发紫,不论是送外卖,搞团购,卖车,或是推荐莆田医院的,
是个公司都会标榜自己是搞人工智能的。在21世纪的第二个十年,计算机专业相关的学
生不说自己是搞AI算法的,同学聚会都抬不起头,相亲机会都变少了。随便从一摞简历
里抽出一份,一定会有AI,调参,CNN,LSTM这些关键词。未来最赚钱的职业,一定不
是天桥贴膜,而是天桥调参,50块钱一次,一调就灵:
NIPS会议,人满为患,改改网络结构,弄个激活函数就想水一篇paper; 到处都是AI算
法的培训广告,三个月,让你年薪45万!在西二旗或望京的地铁车厢里打个喷嚏,就能
让10个算法工程师第二天因为感冒请假。
谁也不知道这波热潮还能持续多久,但笔者作为一线算法工程师,已经能明显感受到危
机的味道: 以大红大紫的图像为例,图像方向简历堆满了HR的办公台,连小学生都在
搞单片机和计算机视觉。在笔者所在的公司,人工智能部门正在从早前研究... 阅读全帖 |
|
发帖数: 1 | 50 【 以下文字转载自 Biology 讨论区 】
发信人: flareon (), 信区: Biology
标 题: 大家都应该有quantitative skill
发信站: BBS 未名空间站 (Sun Mar 19 00:26:44 2017, 美东)
看了几个帖子,深有感触。
时代真是变了,变了,变了。重要的话说三遍。
今天是互联网,大数据,网络课程的时代。信息透明,年轻的孩子们都知道搞科研,读
生物是条死路。加上中国崛起,中国家庭富有,今天乌央乌央多少中国人来这里读本科
,硕士;读的都是金融,计算机之类的。美国人读生物,那是为了上医学院当医生。(
放到十几年前,对于穷人孩子来说,出来读生物博士还是光荣呢)
今天的生物行业,甚至说整个科研行业,尤其在美国,就是一坨狗屎,充满了肮脏变态
无耻。什么哈佛医学院这种地儿,除了杀人放火几乎无恶不作。大牛们都在搞politics
,拉帮结派,相互恶斗;学校为了自身利益招很多phd却不管学生出路死活;而一般千
老和phd也就是为了混口饭吃混吃等死。大家打着治病救人的旗号,其实都是在编故事
,造假,模糊数据,制造一堆没太多用的CNS pape... 阅读全帖 |
|