
5 Reasons Why Traditional Machine Learning is Alive and Well in the Age of LLMs
图片来源:编辑 | Midjourney
如今,人工智能及相关领域的每个人都在谈论生成式AI模型,尤其是像ChatGPT这样的主流应用背后的大型语言模型(LLMs),仿佛它们已经完全占领了机器学习领域。然而,传统的AI系统,包括那些基于经典机器学习模型和算法的系统,远未灭绝。由于它们能够高效地解决特定问题并拥有经过适当训练的领域特定优势,因此在许多实际应用中仍然至关重要。
本文提出了传统机器学习解决方案将继续存在的五个理由。
1. 传统机器学习模型仍然是解决一些常见数据问题的正确方法
如果您需要一个主要理由来解释传统机器学习为何能够长期存在,那就请记住这一点。您是否曾听说过“杀鸡焉用牛刀”这句俗语?这个比喻强调了当一个过于复杂的工具应用于一个简单问题时所发生的错配。LLMs通过自然语言改变了我们与AI系统的交互方式——无论是提出复杂问题、翻译文本还是生成逼真的内容。然而,LLMs主要是生成模型:它们擅长根据用户查询生成高质量、富有创意的内容——这是通过在海量文本数据上训练而获得的技能。
然而,在生成式AI出现很久之前,机器学习模型就被设计用来处理预测性和描述性任务:例如客户或图像分类、价格或销量估算、客户细分等。这些预测性问题在日常生活和业务运营中仍然至关重要。尽管LLMs的功能令人惊叹,但传统机器学习模型在这些领域继续表现出色,并且不太可能在短期内被取代。
虽然上述可能是传统机器学习得以保留的最重要原因,但**另外四个具体原因**进一步支持了这一说法。
2. 效率和成本效益
与拥有数十亿可训练参数的大型LLMs相比,经典机器学习模型在计算上通常更便宜;前者完成预期工作所需的“齿轮和开关”少得多。此外,它们比LLMs需要更少的数据和计算能力,更适合资源受限的环境。
传统模型通常也只需要LLMs一小部分时间即可完成训练。虽然一些传统模型可以在标准硬件上几分钟或几个小时内完成训练,但LLMs可能需要在专门的GPU集群上进行数天的训练。此外,它们更小的内存占用和更低的能耗直接转化为更低的云和运营成本。这种效率使得传统模型特别适用于计算资源有限的实时应用程序和边缘计算环境。
3. 可解释性和可读性
像线性回归器和决策树等一些机器学习模型提供了清晰的决策见解,有助于理解它们为何能对输入数据示例做出预测。这对于部署在医疗和金融等受监管行业的可靠预测系统非常重要。
此外,SHAP(SHapley Additive exPlanations)和LIME(Local Interpretable Model-agnostic Explanations)等技术通过量化每个特征对预测结果的影响,进一步增强了这些模型的可解释性。这种详细的见解水平对于具有严格监管的行业尤其有利,在这些行业中,理解模型预测背后的原因对于审计和合规至关重要。此外,几项案例研究表明,更具可解释性的模型可以提高最终用户的信任度和接受度。
4. 结构化数据的专业化和利用
LLMs经过训练,在理解和处理文本等非结构化数据方面表现出色,但在处理纯结构化数据问题(如欺诈检测、销售或价格预测以及优化)方面,传统机器学习模型无与伦比。它们通过理解数据变量之间的复杂模式并推断输入或预测属性与目标输出之间的关系来进行训练,以进行预测或估算。
此外,进行复杂特征工程的能力使从业者能够定制模型以应对结构化数据的独特挑战。诸如梯度提升等技术——在XGBoost或LightGBM等算法中实现——由于其高度的鲁棒性和准确性,已成为处理表格数据的行业标准。从数据预处理到模型评估的端到端流程可以在传统机器学习工作流中进行优化,确保在准确率、召回率和F1分数等关键指标上获得卓越的性能。
5. 更易于部署和维护
虽然LLMs在各种与语言相关的用例中非常有用,但与传统机器学习模型相比,它们的训练、部署和维护更加复杂。传统模型通常更容易构建和操作,而不必强制要求庞大的基础设施。这使得它们在众多商业应用中具有实用性。
此外,传统模型受益于更简单的生产管道,并且可以使用scikit-learn等轻量级框架轻松集成到现有系统中。这种易于集成的特性有助于加快维护周期,并允许团队以最小的中断来更新或重新训练模型。此外,它们较低的资源需求也使其成为部署在边缘计算环境中的理想选择,因为这些环境的处理能力有限。
总结
正如我们通过五个关键原因——从效率和可解释性到结构化数据的专业化和易于部署——所论证的那样,传统机器学习在当今的AI格局中仍然不可或缺。传统方法仍然是许多应用的最佳选择。请记住,最好的工具是适合手头任务的工具,因此,仅仅为了复杂性而倾向于复杂性永远不是解决问题的最佳方法。
暂无评论。