網上有很多關于辦pos機表情包,那些讓我半夜偷偷收藏的沙雕表情包的知識,也有很多人為大家解答關于辦pos機表情包的問題,今天pos機之家(m.bangarufamily.com)為大家整理了關于這方面的知識,讓我們一起來看下吧!
本文目錄一覽:
1、辦pos機表情包
辦pos機表情包
機器之心機器之心報道參與:蛋醬要是收藏夾里沒幾個獨家沙雕表情包,當代網民都無法在朋友圈立足。但有一些「妙不可言」的圖片,也許是 AI 生成的結果。一般人很難讀出「meme」這個詞,它通常譯為「模因」,起源于 1976 年,本意為「模仿傳遞行為」。但讀音和來源或許沒那么重要,重要的是每個網上沖浪的人都見過它,甚至沉迷于它。在中文里,它大概被稱為「網絡梗圖」、「沙雕圖片」、「表情包」等等……比如這個:
還有這個:
這個金發藍衣的快樂男孩,你難道不眼熟嗎?作為機器學習研究者,你可能還偷偷在收藏夾里保存了這些:
這是一張在深度學習社區流傳很廣的圖,表達的是新的預訓練方法如何比之前的 SOTA 方法更優越。當然,新 SOTA 方法是層出不窮的,這樣的圖片收集起來甚至能形成一個完整的系列。圖的創建通常只有兩步:選一張時興的 meme 模版(即圖像),然后配上「精妙絕倫」的說明文字,制造出一種別有韻味的幽默感。.這種圖像、文字和幽默感的奇妙組合,在信息傳遞方面極具穿透力和感染力,比如當你看到這張圖時:
雖然這只是一張靜態圖片,句子也不成句子,但你的眼前已經浮現出了七人共舞的場景。當代網友人人都用表情包,甚至還會自制。比如:
然而,表情包除了自制,還可以由 AI 生成。你可能想不到,某個平平無奇的表情包背后竟然隱藏著「神秘力量」。今天,我們就來了解一下 meme 自動生成。meme 自動生成一直是深度學習領域的課題之一。以往的生成方法要么是從一堆 meme 字幕中選擇最適合的一個,要么是基于給定圖片和模版來生成 meme 字幕,似乎有點不夠「便捷」。近日,來自美國亞利桑那州立大學的研究者對 meme 圖生成方法進行了改進提升。在這篇論文中,研究者提出了一種根據給定的輸入語句來生成匹配圖片的方法。這是一項很有挑戰性但有趣的 NLP 任務。
論文地址:https://arxiv.org/abs/2004.14571v1通過對 meme 圖生成機制的深入了解,研究者決定將 meme 圖生成與自然語言翻譯結合起來。在自然語言翻譯工作中,為了將輸入的語句轉換為目標語言,必須對語句的完整含義進行解碼,分析其含義,然后將源語句的含義編碼為目標語句。類似地,此處也可以將源語句的含義編碼為圖像和字幕對,使之傳達與源語句相同的含義或情感,從而將語句翻譯成「?!?。受該方法的啟發,研究者提出了一種端到端的編碼-解碼模型「memeBot」,可面向任意給定的語句生成 meme 圖。同時在訓練的過程中,研究者創建了首個大型 meme 圖字幕數據集。
給出句子「I am curiously waiting for my father to cook supper tonight」,memeBot 使用 meme 模板選擇合適的圖,然后用字幕生成器生成恰當的字幕,從而生成 meme 表情包。如何用 memeBot 制作表情包?「memeBot」是一種端到端的神經與概率架構。該模型共有兩個組成部分,如下圖所示,首先是使用 meme 模版選擇模塊,根據輸入語句確定用哪張圖;然后是 meme 字幕生成器,生成合適的字幕。
meme 模版選擇模塊基于 BERT、XLNet、Roberta 等 trans-former 架構的預訓練語言表征被廣泛用于自然語言理解任務。這些模型在針對相應任務微調之后,均達到了新的 SOTA 水平。該研究在 meme 模版選擇任務上,使用線性神經網絡對預訓練語言表征模型進行了微調。在訓練過程中,通過使用公將依據給定語句選擇正確模版的概率最大化。其中θ_1 表示 meme 模版選擇參數,T 表示模版,S 是輸入句。meme 字幕生成研究者借鑒了降噪編碼器的方法,通過破壞輸入字幕來訓練 meme 字幕生成器,并使用詞性標注器(POS Tagger)來提取輸入字幕的詞性。研究者使用 POS 向量來對輸入字幕進行遮罩,僅把名詞短語和動詞短語作為輸入傳遞給 meme 字幕生成器。破壞數據的目的是讓模型從現有的字幕中學習 meme 生成,并在推斷過程中將基于給定輸入語句生成 meme 的過程進行泛化。meme 字幕生成器模型使用了 transformer 架構,通過對選定的 meme 模版和輸入語句執行多頭縮放點積注意力,來創建給定輸入語句的 meme 嵌入。transformer 解碼器首先對預期的字幕執行 masked multi-head attention,然后在編碼的 meme 嵌入和 masked multi-head attention 的輸出之間執行多頭縮放點積注意力(如圖 3 所示)。這使得 meme 字幕生成器能夠學習輸入語句、所選 meme 模版和預期 meme 字幕之間的依賴關系。此外,該研究還使用公式來優化 transformer。其中θ_2 表示 meme 字幕生成器的參數,C 表示 meme 字幕,M 是基于 transformer 編碼器獲得的 meme 嵌入。數據集模型訓練所用數據有兩個來源,一個是全球最大的 meme 圖片生成網站「imgflip」,另一個就是眾所周知的 meme 圖片集合地「推特」。為了爬取更多的數據,研究者開發了一款網絡爬蟲工具,盡可能多地收集 meme 圖。該研究最終創建的數據集包含源自 24 個「經典沙雕?!沟?177942 個 meme 字幕。表 1 展示了數據樣本的組成部分,附錄 A 展示了訓練所用的「經典源圖」,圖 4 為 meme 字幕主題的分布情況。
表 1:meme 字幕數據集中的樣本示例,包括模版名稱(Template name)、字幕(Caption)、meme 圖(Meme Image)三部分。
附錄 A:實驗所用 meme 字幕數據集中的的模版和圖像。
圖 4。此外,研究者收集了推特平臺的推文,用以評估 memeBot 在線上社交互動中通過語句生成 meme 的效力。研究者在關鍵詞「Coronavirus」查詢結果中隨機抽取 6000 條推文,從中選擇了 1000 條非負面情緒的推文。目的是通過輸入推文讓模型生成 meme 圖,并評估生成結果是否與推文內容相關。memeBot 效果如何該研究在訓練、驗證和測試階段的數據集分別包括 142341、17802 和 17799 個樣本,評估內容包括模版選擇模塊在選擇兼容模版時的性能、字幕生成器的生成效力等。首先,研究者對 BERT、XLNet 和 Roberta 幾種預訓練語言表征模型進行了微調,并在 meme 字幕測試數據集上測試了模型的 meme 模版選擇性能,結果如表 2 所示。
表 2:加粗部分為最佳分數,精確度和 F1 兩項指標是越高越好,損失則越低越好。研究者使用了性能表現最佳的 Roberta_base 模型作為 meme 生成 pipeline 中的模版選擇模塊。然后,在字幕生成任務中,研究者使用了兩個變體「MT2MC」和「SMT2MC」(SMT2MC 也有兩個變體),分別代表「基于模版生成字幕」和「基于輸入語句及模版生成字幕」。下圖是字幕生成器的變體所生成的 meme 示例。
可以看出,MT2MC 根據給定的 meme 模版隨機生成字幕,與輸入語句無關聯,SMT2MC 變體生成的 meme 字幕則與輸入語句有語境關聯。在 SMT2MC 的變體中,以名詞短語和動詞短語作為輸入生成的字幕能夠更好地還原輸入語句的本意。在評估時,研究者使用了 BLEU 分數來評估生成字幕的質量。鑒于 meme 生成沒有固定的指標,研究者還引入了一組評估人員進行「主觀評價」,評估的維度包括圖片與字幕的連貫性和相關性等等,分數在 1-4 分不等。
BLEU 值以及人類評估得分情況。
相關性與連貫性分數的定性比較。研究者還設計了一個實驗,來評估 meme 生成結果在線上社交環境中的效力:
表 5:推特數據中的人類評估分數。相關性和一致性指標滿分為 4 分,「User Likes」一項代表喜歡該生成結果的人數占總體的百分比。
圖 9:SMT2MC-NP+V 變體生成的 meme 結果。最后,研究者也提到,meme 的生成效果評價因人而異,很難通過預定義的指標進行評估。接下來他們會將繼續拓展這一方面的研究,比如將 meme 引入社交媒體流,并根據 meme 在人群中的傳播對其進行評估。meme 傳播率和傳播人群可用于強化訓練,生成更高質量和更具創意的 meme。為模型瘦身,飛槳PaddleSlim提供了從剪枝、量化到輕量級神經網絡架構搜索與自動模型壓縮等一系列高效工具
以上就是關于辦pos機表情包,那些讓我半夜偷偷收藏的沙雕表情包的知識,后面我們會繼續為大家整理關于辦pos機表情包的知識,希望能夠幫助到大家!
