支持工具树状结构模型
决策树支持工具树结构模型决策树提供表达方式算法有条件控制语句包括代表决策步骤的分支,可产生优异结果
流程图结构包括内部节点,代表测试或属性每一分支表示属性结果,而从叶向根路径表示分类规则
决策树是基于各种学习方法的学习算法最佳形式之一提高预测模型精度、易解性稳定工具还有效搭配非线性关系,因为它们能解决数据匹配挑战,如回归和分类
决策树有两大类基于目标变量,即绝对变量决策树和连续变量决策树
绝对变量决策树包括绝对目标变量划分类别举例说,类别可以是或否。类别表示决策过程的每个阶段归为一类,没有介于两者之间
连续变量决策树带连续目标变量举例说,个人收入未知可依据可用信息预测收入,如职业、年龄和其他连续变量
决策树应用之一涉及根据历史数据评价企业预期增长机会历史销售数据可用于决策树,可能导致企业策略发生彻底改变,帮助扩展和增长
另一种决策树应用人口数据寻找未来的客户企业可帮助精简营销预算,并针对目标市场作出知情决策,业务聚焦点如果没有决策树,企业可能花销市场而不考虑特定人口因素,这将影响整体收入。
贷方还使用决策树预测客户违约概率,使用客户过去数据应用预测模型生成决策树支持工具的使用可帮助放款人评价客户的信用性以避免损失
决策树还可用于规划物流操作研究战略管理.企业可帮助确定适当策略帮助公司实现预期目标可应用决策树的其他领域包括工程学、教育、法律、商业、保健和金融
决策树的长处之一是它们的输出很容易读解释而不需要统计知识举例说,当决策树向客户提供人口信息时,营销部员工可读解数据图形表示法而无需统计知识
数据还可以产生重要洞察力,了解概率、成本和替代营销部门制定的各种策略
与其他决策技术相比,决策树为数据编译少费力用户需要即时信息创建新变量并有预测目标变量的力量数据分类无需计算复杂计算复杂环境用户可以将决策树与其他方法合并
决策树的另一长处是变量创建后数据清洗需求减少缺值案例外围线决策树数据意义小
决策树的局限性之一是,与其他决策预测器相比,这些树基本不稳定性数据小小改变可能导致决策树结构大改变,这可以传递与用户正常事件所得结果不同的结果由此产生的结果变化可用机器学习算法管理,如机器学习算法推送并包装.
此外,决策树预测效率较低,而主要目标是预测连续变量结果这是因为决策树分类变量多类时往往会丢失信息
持续学习并开发商业智能知识, 我们强烈推荐下文CFI追加资源: