其实对于很多机械进修的算法而言,都是按照先假定一个模型,再结垢荷琐损掉函数,经由过程数据来练习损掉函数求argmin(损掉函数)的参数,放回到原模型。
- # 最后一次浏览商品最类似的商品组top3
- x = 1000
- result = []
- result = pd.DataFrame(result)
- for i in range(x):
- test_data_split = [s.encode('utf-8').split() for s in test_data[i]]
- k = len(test_data_split)
- last_one = test_data_split[k - 1]
- last_one_recommended = model.most_similar(last_one, topn=3)
- tmp = last_one_recommended[0] + last_one_recommended[1] + last_one_recommended[2]
- last_one_recommended = pd.concat([pd.DataFrame(last_one), pd.DataFrame(np.array(tmp))], axis=0)
- last_one_recommended = last_one_recommended.T
- result = pd.concat([pd.DataFrame(last_one_recommended), result], axis=0)
第一步
p(1|No.1层未知参数)=sigmoid(No.1层未知参数)
- p(0|No.2层未知参数)=sigmoid(No.2层未知参数)
第二步
同理,第三第四层:
- p(0|No.3层未知参数)=sigmoid(No.3层未知参数)
- p(0|No.4层未知参数)=sigmoid(No.4层未知参数)
然后求p(1|No.1层未知参数)xp(0|No.2层未知参数)xp(0|No.3层未知参数)xp(0|No.4层未知参数)最大年夜下对应的每层的未知参数即可,求解方法与logistic求解方法近似,未知参数分布偏导,后续采取梯度降低的方法(极大年夜、批量、牛顿按需应用)
part four:approximate nerual network
商品的类似度
举个例子:
存在1000万个用户有过:“啤酒=>西瓜=>剃须刀=>百事可乐”的商品购买次序
10万个用户有过:“啤酒=>苹不雅=>剃须刀=>百事可乐”的商品购买次序,如不雅按照传统的概率模型比如navie bayes 或者n-gram来看,P(啤酒=>西瓜=>剃须刀=>百事可乐)>>p(啤酒=>苹不雅=>剃须刀=>百事可乐),然则实际上这两者的人群应当是同一波人,他们的属性特点必定会是一样的才对。
我们这边经由过程了随机初始化每个商品的特点向量,然后经由过程part three的概率模型去练习,最后肯定了词向量的大年夜小。除此之外,还可以经由过程神经收集算法去做如许的工作。
Bengio 等人在 2001 年揭橥在 NIPS 汕9依υ?┞仿《A Neural Probabilistic Language Model》介绍了具体的办法。
我们这边须要知道的就是,对于最小维度商品,我们以商品向量(0.8213,0.8232,0.6613,0.1234,…)的情势替代了0-1点(0,0,0,0,0,1,0,0,0,0…),单个的商品向量无意义,然则查对的商品向量我们就可以比较他们间的余弦类似度,就可以比较类目标类似度,甚至品类的类似度。
- # 原始数据练习
- # sg=1,skipgram;sg=0,SBOW
- # hs=1:hierarchical softmax,huffmantree
- # nagative = 0 非负采样
- model = word2vec.Word2Vec(train_data, sg=1, min_count=10, window=2, hs=1, negative=0)
3.python代码实现
1.数据攫取
- # -*- coding:utf-8 -*-
- import pandas as
推荐阅读
创建网站备份应当是一个网站治理员最为重要的日常工作之一。但实际情况是,备份这一步往往被很多人忽视,也就是说仍然有很多网管的网站安然意识较低。所有的Linux/Mac用户都可以或许零经济>>>详细阅读
本文标题:深度学习在电商商品推荐当中的应用
地址:http://www.17bianji.com/lsqh/37112.html
1/2 1