原创 關於編譯器和解釋器

什麼是編譯器 摘自 Wiki Compiler 一段 A compiler is a computer program (or a set of programs) that  transforms source code writte

原创 姚期智親任主編,正規軍的高中AI教材來了

導讀:清華大學近日宣佈,專爲高中生打造的 AI 教材——《人工智能(高中版)》將於 2020 年 9 月正式出版。該教材由姚期智擔任主編,並由清華「姚班」、「智班」的師資組成強大的編委團隊。而教材的內容,是結合了這些專家的獨特見解以及多年

原创 從原理到落地,七大維度讀懂協同過濾推薦算法

  轉載 AI科技大本營 最後發佈於2019-08-09 19:52:18 閱讀數 195 收藏 展開 作者丨gongyouliu 來源 | 大數據與人工智能   導語:本文會從協同過濾思想簡介、協同過濾算法原理介紹、離線協同過濾算

原创 Centos7下安裝自動掛載硬盤

  掛載可用到的命令 1、查看是否已經分配 [root@localhost home]# fdisk -l 磁盤 /dev/sda:64.4 GB, 64424509440 字節,125829120 個扇區 Units = 扇區 of 1

原创 千萬級智能推薦系統的架構演進_基於畫像的京東推薦系統

作者:fisherman,時任推薦部門推薦系統負責人,負責推薦部門的架構設計及相關研發工作。Davidxiaozhi,時任推薦部門推薦系統架構師,負責推薦系統的架構設計和系統升級。 來自:《決戰618:探祕京東技術取勝之道》 零,題記 在

原创 從原理到落地,七大維度讀懂協同過濾推薦算法

  2019-08-09 19:52 作者丨gongyouliu 來源 | 大數據與人工智能 導語:本文會從協同過濾思想簡介、協同過濾算法原理介紹、離線協同過濾算法的工程實現、近實時協同過濾算法的工程實現、協同過濾算法應用場景、協同過濾算

原创 Hadoop Yarn REST API未授權漏洞利用挖礦分析

歡迎大家前往騰訊雲+社區,獲取更多騰訊海量技術實踐乾貨哦~ 一、背景情況 5月5日騰訊雲安全曾針對攻擊者利用Hadoop Yarn資源管理系統REST API未授權漏洞對服務器進行攻擊,攻擊者可以在未授權的情況下遠程執行代碼的安全問題進行

原创 從內容/用戶畫像到如何做算法研發

  中午和一前同事一起用餐,發現還是有很多碰撞點的。交流了很多正在做的事情, 對方也提供了非常多的思想值得自己很好的思考。 先是和他聊了下我們現在做內容標籤的進展,其實就是在做內容畫像。我們一般都是在談用戶畫像,其實內容也是要畫像的。 我

原创 推薦系統-Ctr點擊率預估理論基礎及項目實戰

      點贊 收藏 分享 文章舉報 FOCUS_ON_AI 發佈了170 篇原創文章 · 獲贊 117 · 訪問量 16萬+ 私信

原创 大數據--工作流程調度系統--替代傳統的crontab

1. 工作流程調度系統產生背景 一個完整的數據分析系統通常都是由大量任務單元組成 : ​ shell腳本程序 , java程序 , MapReduce程序 , hive腳本等 各個任務單元之間存在時間先後依賴關係 爲了更好地組織起這樣的複

原创 畫像體系之-HBase緩存漫談

背景 用戶/內容畫像的對存儲的要求其實是比較高的:     能批量更新(比如更新所有用戶某個屬性)     大量隨機讀取(甚至可能沒有熱點數據)     隨機屬性更新/添加     可持久化     易於橫向擴展解決性能問題 上一次重度

原创 Spark Standalone Mode下的client mode和cluster mode

 1 . 有問題找百度,百度上搜索spark 2. 進入spark官網,找到對應的版本的文檔.因爲我的是spark2.1.2版本 3.進入spark的2.1.2文檔後,看到Running the Examples and Shell

原创 多線程讀數據寫到併發隊列中,再起一個線程輪詢從隊列中取數據寫到文件中

原文鏈接:https://blog.csdn.net/az44yao/article/details/87388681 最近項目有個需求,對數據庫中的號碼進行檢查,檢查號碼狀態是否正常,檢查方法

原创 Spark入門之REPL/CLI/spark shell 快速學習

原文鏈接:https://blog.csdn.net/minge_se/article/details/79130463 一、前言 本章的目的是提供指導,以便讀者熟悉獨立模式下安裝Apache

原创 Spark Standalone Mode:Differences between client and cluster deploy modes

1. 一個stackoverflow上的小夥伴首先提出一個問題 We have a Spark Standalone cluster with three machines, all of them with Spark 1.6.1: A