我有一个表示某种身份的行为向量。我需要对恶意或良性每个实例理想的情况下,有一个正常的严重评分进行二进制分类。
为此,我可以使用各种线性分类器/核化支持向量机/随机森林等。
问题是,一旦对分类器进行了培训,我希望允许用户配置哪些行为更重要(或更少)。
例如,一种行为可能是某个进程所做的加密,而担心ransomware的用户可能希望使这种行为更有意义。
给定的线性分类器(我想避免),只需将给定的W与给定的配置相乘即可。在核化支持向量机/随机森林/DNN等算法中,可以做些什么来获得等价的结果?
发布于 2018-10-25 15:00:20
从对问题的描述来看,在将数据发送到分类器之前,对输入应用权重可能会有效果,而且很容易实现。重量可以是正的,也可以是负的。
https://datascience.stackexchange.com/questions/40223
复制相似问题