原创 扒一扒 FM 算法的實現
歡迎關注公衆號:python科技園,一起學習python和算法知識。 模型是在 和 的基礎上發展而來的,與 相比的主要區別是用兩個向量的內積 取代了單一的權重係數 。具體地說, 爲每個特徵學習了一個隱向量權重。在做特徵交叉時,
原创 注意力機制在深度推薦算法中的應用之AFM模型
1前言注意力機制來源於人類最自然的選擇性注意的習慣,例如當用戶瀏覽網頁或圖片時,會選擇性的注意頁面上特定的區域。基於此現象,在建模的過程中考慮注意力機制,往往會取得不錯的收益。注意力機制已經廣泛的應用於深度學習的各個領域,無論是NLP、
原创 【Leet-Code】32. 最長有效括號
【題目解析】 對所有的 “(” 符號,分割連續子串的 “)” 符號建立索引。 class Solution: def longestValidParentheses(self, s: str) -> int:
原创 【Leet-Code】6. Z 字形變換
【題目】 【方案】 示例2中共產生4行數據,定義 index 變量,用於控制每次取數之後應該放到哪一行。 0 0 0 1 1 1 1
原创 FFM算法原理及Bi-FFM算法實現
1. FFM算法來源FFM(Field-aware Factorization Machine)算法是FM(Factorization Machine)算法的升級版,FM算法的公式如下:其中:樣本 是 維向量, 是第 個維度上的值
原创 【Leet-Code】29. 兩數相除
【題目解析】 對【除數】進行倍增的方式,與【被除數】比較。 舉個例子:11 除以 3 。 首先11比3大,結果至少是1; 然後我讓3翻倍,就是6,發現11比3翻倍後還要大,那麼結果就至少是2; 那我讓這個6再翻倍,得12
原创 【Leet-Code】2. 兩數相加
給出兩個 非空 的鏈表用來表示兩個非負的整數。其中,它們各自的位數是按照 逆序 的方式存儲的,並且它們的每個節點只能存儲 一位 數字。 如果,我們將這兩個數相加起來,則會返回一個新的鏈表來表示它們的和。 您可以假設除了數字 0 之外,這兩
原创 【Leet-Code】30. 串聯所有單詞的子串
【題目解析】 1. 使用python中的Counter函數,統計words中單詞出現的次數;【例如示例1:Counter({'foo': 1, 'bar': 1})】 2. 每次位移一個字母,在s中截取長度等於 “words 中全
原创 Hive 根據時間對 “對話”數據進行排序
由於使用 sort by (order by, distribute by, cluster by 等)對同一個 ID 根據時間進行排序時,並不是按照真正的時間進行排序(sort by , 其實是對每個reduce中對數據進行排序,也就是
原创 tf.nn.sparse_softmax_cross_entropy_with_logits 函數簡介
歡迎關注微信公衆號:python科技園 目錄 1. 函數功能 2. 語法結構 3. 實現步驟 第一步:計算 Softmax 第二步:計算 Cross Entropy 4. 示例 sparse_softmax_cross
原创 tf.sequence_mask後做max操作或avg操作
以推薦商品爲例: (1)兩個user; (2)user在歷史一個月中分別購買力2個和6個item; (3)歷史數據中 Input 的商品數量固定爲3; 1. 定義數據 import numpy as np import tensor
原创 分析DIN模型中的 Activation Unit
1. Activation Unit 圖示 2. Activation Unit結構 (1)輸入層: user 產生行爲(例如點擊、或購買)的 item embedding,作爲key; 候選 item embeddin
原创 tensorflow中多維tensor運算(tf.multiply, tf.matmul, tf.tensordot)
1. tf.multiply 2. tf.matmul 3. tf.tensordot 1. tf.multiply tf.multiply 等同與 * ,用於計算矩陣之間的 element-wise 乘法,要求矩陣的形狀必須一致(或
原创 理解 tf.keras.layers.Attention
官方鏈接:https://tensorflow.google.cn/versions/r2.1/api_docs/python/tf/keras/layers/Attention 語法: tf.keras.layers.Attent
原创 pyspark rdd dataframe互轉
from pyspark.conf import SparkConf from pyspark.context import SparkContext from pyspark.sql import SparkSession spa