智客公社
标题:
什么是机器学习
[打印本页]
作者:
dhj4j224
时间:
2022-7-6 13:08
标题:
什么是机器学习
什么是机器学习?
机器学习是人工智能(AI)和计算机科学的一个分支,它侧重于使用数据和算法来模仿人类的学习方式,逐步提高其准确性。
IBM 在机器学习方面有着悠久的历史
亚瑟·塞缪尔 (Arthur Samuel) 因其围绕跳棋游戏的研究 创造了术语“机器学习”而受到赞誉。
自称为跳棋大师的罗伯特·尼利 (Robert Nealey) 于 1962 年在 IBM 7094 计算机上玩该游戏,他输给了计算机。
与今天所能做到的相比,这一壮举几乎显得微不足道,但它被认为是人工智能领域的一个重要里程碑。
在接下来的几十年里,围绕存储和处理能力的技术发展将使我们今天知道和喜爱的一些创新产品成为可能,例如 Netflix 的推荐引擎或自动驾驶汽车。
机器学习是不断发展的数据科学领域的重要组成部分。
通过使用统计方法,训练算法进行分类或预测,揭示数据挖掘项目中的关键见解。
这些洞察随后会推动应用程序和业务中的决策制定,理想情况下会影响关键增长指标。
随着大数据的不断扩大和增长,市场对数据科学家的需求将增加,要求他们协助识别最相关的业务问题,然后用数据来回答这些问题。
机器学习 vs 深度学习 vs 神经网络
由于深度学习和机器学习往往可以互换使用,因此值得注意的是两者之间的细微差别。
机器学习、深度学习和神经网络都是人工智能的子领域。
然而,深度学习实际上是机器学习的一个子领域,而神经网络是深度学习的一个子领域。
深度学习和机器学习的不同之处在于每种算法的学习方式。
深度学习使过程中的大部分特征提取部分自动化,消除了一些所需的人工干预并允许使用更大的数据集。
您可以将深度学习视为“可扩展的机器学习”,正如 Lex Fridman 在本次 MIT 讲座 中指出的那样。
经典的或“非深度”的机器学习更依赖于人工干预来学习。
人类专家确定一组特征以了解数据输入之间的差异,通常需要更多结构化数据来学习。
“深度”机器学习可以利用标记数据集(也称为监督学习)为其算法提供信息,但它不一定需要标记数据集。
它可以以原始形式(例如文本、图像)摄取非结构化数据,并且可以自动确定将不同类别数据彼此区分开来的一组特征。
与机器学习不同,它不需要人工干预来处理数据,让我们能够以更有趣的方式扩展机器学习。
深度学习和神经网络主要归功于加速计算机视觉、自然语言处理和语音识别等领域的进步。
神经网络或人工神经网络 (ANN) 由节点层组成,其中包含一个输入层、一个或多个隐藏层和一个输出层。
每个节点或人工神经元连接到另一个节点并具有相关的权重和阈值。
如果任何单个节点的输出高于指定的阈值,则激活该节点,将数据发送到网络的下一层。
否则,不会将任何数据传递到网络的下一层。
深度学习中的“深度”只是指神经网络中层的深度。
由三层以上(包括输入和输出)组成的神经网络可以被视为深度学习算法或深度神经网络。
只有两层或三层的神经网络只是一个基本的神经网络。
机器学习的工作原理
加州大学伯克利分校将机器学习算法的学习系统分为三个主要部分。
决策过程
:通常,机器学习算法用于进行预测或分类。
根据一些可以标记或未标记的输入数据,您的算法将生成关于数据模式的估计。
误差函数
:误差函数用于评估模型的预测。
如果有已知的例子,误差函数可以进行比较,以评估模型的准确性。
模型优化过程
:如果模型可以更好地拟合训练集中的数据点,则调整权重以减少已知示例与模型估计之间的差异。
该算法将重复此评估和优化过程,自动更新权重,直到达到准确度阈值。
机器学习方法
机器学习分类器分为三个主要类别。
1 监督机器学习
监督学习,也称为监督机器学习,其定义是通过使用标记数据集来训练算法来准确地对数据进行分类或预测结果。
当输入数据输入模型时,它会调整其权重,直到模型得到适当拟合。
这是作为交叉验证过程的一部分发生的,以确保模型避免过拟合或欠拟合。
监督式学习可帮助组织大规模解决各种现实问题,例如将垃圾邮件分类到与收件箱不同的文件夹中。
监督学习中使用的一些方法包括神经网络、朴素贝叶斯、线性回归、逻辑回归、随机森林、支持向量机 (SVM) 等。
2 无监督机器学习
无监督学习,也称为无监督机器学习,使用机器学习算法对未标记的数据集进行分析和聚类。
这些算法无需人工干预即可发现隐藏的模式或数据分组。
其发现信息异同的能力使其成为探索性数据分析、交叉销售策略、客户细分、图像和模式识别的理想解决方案。
它还用于通过降维过程减少模型中的特征数量;主成分分析 (PCA) 和奇异值分解 (SVD) 是两种常用的方法。
无监督学习中使用的其他算法包括神经网络、k 均值聚类、概率聚类方法等。
3 半监督学习
半监督学习在监督学习和无监督学习之间提供了一个愉快的媒介。
在训练期间,它使用较小的标记数据集来指导从较大的未标记数据集中进行分类和特征提取。
半监督学习可以解决没有足够标记数据(或无法负担足够标记数据)来训练监督学习算法的问题。
强化机器学习
强化机器学习是一种类似于监督学习的行为机器学习模型,但该算法不是使用样本数据进行训练的。
该模型通过反复试验不断学习。
一系列成功结果将得到加强,以针对给定问题制定最佳建议或政策。
IBM Watson系统赢得了
Jeopardy!
2011 年的挑战就是一个很好的例子。
该系统使用强化学习来决定是否尝试回答(或问题)、在棋盘上选择哪个方格以及下注多少——尤其是在每日双打时。
真实世界的机器学习用例
以下是您每天可能会遇到的一些机器学习示例:
语音识别
:
也称为自动语音识别 (ASR)、计算机语音识别或语音转文本,是一种使用自然语言处理 (NLP) 将人类语音处理为书面格式的能力。
许多移动设备将语音识别整合到他们的系统中以进行语音搜索(例如 Siri)或提供更多关于短信的可访问性。
客户服务:
在线聊天机器人正在取代客户旅程中的人工代理。
他们回答围绕主题的常见问题 (FAQ),例如运输,或提供个性化建议、交叉销售产品或为用户建议尺寸,改变我们对跨网站和社交媒体平台客户互动的看法。
示例包括电子商务网站上带有虚拟代理的消息机器人、消息应用程序(例如 Slack 和 Facebook Messenger)以及通常由虚拟助手和语音助手完成的任务。
计算机视觉:
这项人工智能技术使计算机和系统能够从数字图像、视频和其他视觉输入中获取有意义的信息,并根据这些输入采取行动。
这种提供建议的能力将其与图像识别任务区分开来。
在卷积神经网络的支持下,计算机视觉在社交媒体中的照片标记、医疗保健中的放射成像以及汽车行业中的自动驾驶汽车中都有应用。
推荐引擎:
利用过去的消费行为数据,人工智能算法可以帮助发现数据趋势,可用于制定更有效的交叉销售策略。
这用于在在线零售商的结账过程中向客户提供相关的附加建议。
自动化股票交易:
旨在优化股票投资组合,人工智能驱动的高频交易平台每天进行数千甚至数百万次交易,无需人工干预。
机器学习的挑战
随着机器学习技术的进步,它无疑让我们的生活变得更轻松。然而,在企业内部实施机器学习也引发了许多围绕人工智能技术的道德问题。其中一些包括:
1 技术奇点
虽然这个话题引起了很多公众的关注,但许多研究人员并不关心人工智能在不久或不久的将来超越人类智能的想法。
这也被称为超级智能,Nick Bostrum 将其定义为“任何在几乎所有领域(包括科学创造力、一般智慧和社交技能)都远远超过最优秀的人类大脑的智力。”
尽管强人工智能和超级智能在社会中并不迫在眉睫,但当我们考虑使用自主系统(如自动驾驶汽车)时,它的想法提出了一些有趣的问题。
认为无人驾驶汽车永远不会发生车祸是不现实的,但在这种情况下,谁来负责和承担责任?
我们是否还应该追求自动驾驶汽车,或者我们是否限制了这项技术的整合,只创造提高驾驶员安全性的半自动驾驶汽车?
陪审团对此仍然没有定论,但随着新的、创新的人工智能技术的发展,这些伦理辩论正在发生。
2 人工智能对工作的影响
虽然很多公众对人工智能的看法都集中在失业问题上,但这种担忧可能应该重新定义。
随着每一项颠覆性的新技术,我们看到市场对特定工作角色的需求发生了变化。
例如,当我们审视汽车行业时,许多制造商(如通用汽车)正在转向专注于电动汽车生产,以配合绿色倡议。
能源行业不会消失,但能源来源正在从燃油经济性转向电动经济性。
应该以类似的方式看待人工智能,人工智能将把工作需求转移到其他领域。
随着数据每天的增长和变化,需要有人帮助管理这些系统。
仍然需要资源来解决最有可能受到工作需求变化影响的行业中更复杂的问题,例如客户服务。
人工智能的重要方面及其对就业市场的影响将帮助个人过渡到这些新的市场需求领域。
3 隐私
隐私往往是在数据隐私、数据保护和数据安全的背景下讨论的,这些担忧使政策制定者近年来在这方面取得了更大的进步。
例如,2016 年制定了 GDPR 立法以保护欧盟和欧洲经济区人们的个人数据,让个人对他们的数据有更多的控制权。
在美国,个别州正在制定政策,例如加州消费者隐私法案 (CCPA),该法案要求企业告知消费者其数据的收集情况。
最近的这项立法迫使公司重新考虑他们如何存储和使用个人身份数据 (PII)。
因此,在企业寻求消除任何监控漏洞和机会时,安全领域的投资已成为越来越重要的优先事项,
4 偏见和歧视
许多智能系统中的偏见和歧视实例引发了许多有关使用人工智能的伦理问题。
当训练数据本身容易产生偏见时,我们如何防止偏见和歧视?
虽然公司通常对他们的自动化工作有善意的意图,但路透社强调了将人工智能纳入招聘实践的一些不可预见的后果。
在努力自动化和简化流程的过程中,亚马逊无意中按性别偏向了潜在的求职者,以担任开放的技术角色,他们最终不得不放弃该项目。
当这些事件浮出水面时,哈佛商业评论 围绕在招聘实践中使用人工智能提出了其他尖锐的问题,例如在评估职位候选人时应该能够使用哪些数据。
偏见和歧视也不仅限于人力资源职能;
它可以在从面部识别软件到社交媒体算法的许多应用程序中找到。
随着企业越来越意识到人工智能的风险,他们也变得更加活跃,围绕人工智能道德和价值观的讨论。
例如,去年 IBM 首席执行官 Arvind Krishna 分享说,IBM 已经下架了其通用的 IBM 面部识别和分析产品,强调“IBM 坚决反对并且不会容忍任何技术的使用,包括其他供应商提供的面部识别技术,用于大规模监视、种族定性、侵犯基本人权和自由,或任何不符合我们的价值观和信任和透明度原则的目的。”
5 问责制
由于没有重要的立法来规范 AI 实践,因此没有真正的执法机制来确保实践符合道德的 AI。
目前促使公司遵守这些准则的动机是不道德的人工智能系统对底线的负面影响。
为了填补这一空白,伦理框架已经成为伦理学家和研究人员合作的一部分,以管理社会中人工智能模型的构建和分布。
然而,目前,这些仅起到指导作用,研究表明,分布式责任和缺乏对潜在后果的远见相结合并不一定有助于防止对社会造成伤害
作者:
sai1983
时间:
2022-7-6 18:23
楼猪V5啊
作者:
残楼听雪
时间:
2022-7-9 11:35
小白一个 顶一下
欢迎光临 智客公社 (http://bbs.cnaiplus.com/)
Powered by Discuz! X3.4