粗糙集(rough set)首先由Pawlak提出,它主要是研究由不可分辨引起的不确定信息的智能处理的理论.目前,粗糙集理论已成为一种重要的不确定信息处理技术,该理论已经在机器学习和知识发现、数据挖掘、决策支持与分析等方面得到广泛应用.
模糊粗糙集理论中,作为模糊集与粗糙集的融合理论,兼顾数据的模糊性与不可分辩性.模糊粗糙集利用模糊粗糙近似算子将被隐藏在不确定数据中的信息,按照确定的规则呈现出来.模糊粗糙集可以更好地处理数据中的不确定性,但是该理论不能处理大规模数据.这是由于模糊粗糙集所依赖的理论核心一一模糊粗糙近似算子的复杂度,是元素个数的平方量级.无法解决这个问题,粗糙集的研究就无法应用到大数据的背景当中去.因此,在本文中,我们将就这个问题进行研究,希望能够通过某种方式,降低其复杂度,使不确定性研究能够恰当地应用到大数据中去.
本文将随机抽样引入了传统的模糊粗糙集中,对近似逼近算子的效率进行了大幅提升.本文的主要内容为:巧妙地引入随机抽样,构建统计粗糙集模型.首先,我们通过引入随机抽样提出了一个限定区域k-limit的概念,限定区域可以极大她缩小下近似的计算规模.然后,基于k-limit我们又提出统计上、下近似概念.并且,在引入随机抽样的同时,用充分完备的定理和证明,验证了新概念和理论的可靠性,从而构建出统计粗糙集模型.
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
全部0条评论
快来发表一下你的评论吧 !