原创 扒一扒 FM 算法的實現

歡迎關注公衆號:python科技園,一起學習python和算法知識。  模型是在  和  的基礎上發展而來的,與  相比的主要區別是用兩個向量的內積 取代了單一的權重係數 。具體地說, 爲每個特徵學習了一個隱向量權重。在做特徵交叉時,

原创 注意力機制在深度推薦算法中的應用之AFM模型

1前言注意力機制來源於人類最自然的選擇性注意的習慣,例如當用戶瀏覽網頁或圖片時,會選擇性的注意頁面上特定的區域。基於此現象,在建模的過程中考慮注意力機制,往往會取得不錯的收益。注意力機制已經廣泛的應用於深度學習的各個領域,無論是NLP、

原创 【Leet-Code】32. 最長有效括號

  【題目解析】   對所有的 “(” 符號,分割連續子串的 “)” 符號建立索引。 class Solution: def longestValidParentheses(self, s: str) -> int:

原创 【Leet-Code】6. Z 字形變換

【題目】   【方案】 示例2中共產生4行數據,定義 index 變量,用於控制每次取數之後應該放到哪一行。 0               0                 0 1         1    1          1

原创 FFM算法原理及Bi-FFM算法實現

1. FFM算法來源FFM(Field-aware Factorization Machine)算法是FM(Factorization Machine)算法的升級版,FM算法的公式如下:其中:樣本  是  維向量, 是第  個維度上的值

原创 【Leet-Code】29. 兩數相除

    【題目解析】 對【除數】進行倍增的方式,與【被除數】比較。 舉個例子:11 除以 3 。 首先11比3大,結果至少是1; 然後我讓3翻倍,就是6,發現11比3翻倍後還要大,那麼結果就至少是2; 那我讓這個6再翻倍,得12

原创 【Leet-Code】2. 兩數相加

給出兩個 非空 的鏈表用來表示兩個非負的整數。其中,它們各自的位數是按照 逆序 的方式存儲的,並且它們的每個節點只能存儲 一位 數字。 如果,我們將這兩個數相加起來,則會返回一個新的鏈表來表示它們的和。 您可以假設除了數字 0 之外,這兩

原创 【Leet-Code】30. 串聯所有單詞的子串

  【題目解析】 1. 使用python中的Counter函數,統計words中單詞出現的次數;【例如示例1:Counter({'foo': 1, 'bar': 1})】 2. 每次位移一個字母,在s中截取長度等於 “words 中全

原创 Hive 根據時間對 “對話”數據進行排序

由於使用 sort by (order by, distribute by, cluster by 等)對同一個 ID 根據時間進行排序時,並不是按照真正的時間進行排序(sort by , 其實是對每個reduce中對數據進行排序,也就是

原创 tf.nn.sparse_softmax_cross_entropy_with_logits 函數簡介

歡迎關注微信公衆號:python科技園 目錄 1. 函數功能 2. 語法結構 3. 實現步驟     第一步:計算 Softmax     第二步:計算 Cross Entropy 4. 示例 sparse_softmax_cross

原创 tf.sequence_mask後做max操作或avg操作

以推薦商品爲例: (1)兩個user; (2)user在歷史一個月中分別購買力2個和6個item; (3)歷史數據中 Input 的商品數量固定爲3;   1. 定義數據 import numpy as np import tensor

原创 分析DIN模型中的 Activation Unit

1. Activation Unit 圖示 2. Activation Unit結構 (1)輸入層: user 產生行爲(例如點擊、或購買)的 item embedding,作爲key; 候選 item embeddin

原创 tensorflow中多維tensor運算(tf.multiply, tf.matmul, tf.tensordot)

1. tf.multiply 2. tf.matmul 3. tf.tensordot   1. tf.multiply tf.multiply 等同與 * ,用於計算矩陣之間的 element-wise 乘法,要求矩陣的形狀必須一致(或

原创 理解 tf.keras.layers.Attention

官方鏈接:https://tensorflow.google.cn/versions/r2.1/api_docs/python/tf/keras/layers/Attention   語法: tf.keras.layers.Attent

原创 pyspark rdd dataframe互轉

from pyspark.conf import SparkConf from pyspark.context import SparkContext from pyspark.sql import SparkSession spa