很可惜 T 。T 您現(xiàn)在還不是作者身份,不能自主發(fā)稿哦~
如有投稿需求,請把文章發(fā)送到郵箱tougao@appcpx.com,一經(jīng)錄用會有專人和您聯(lián)系
咨詢?nèi)绾纬蔀榇河鹱髡哒埪?lián)系:鳥哥筆記小羽毛(ngbjxym)
作者|飛狐沖沖
機器學(xué)習(xí)無疑是當(dāng)前數(shù)據(jù)分析領(lǐng)域的一個熱點內(nèi)容,其理論和方法已經(jīng)廣泛應(yīng)用于解決工程應(yīng)用的復(fù)雜問題,很多人在平時的工作中都或多或少會用到機器學(xué)習(xí)的算法。
在機器學(xué)習(xí)領(lǐng)域,沒有算法能完美地解決所有問題。比如說,神經(jīng)網(wǎng)絡(luò)并不是在任何情況下都能比決策樹更有優(yōu)勢,反之亦然。它們要受很多因素的影響,比如你的數(shù)據(jù)集的規(guī)模或結(jié)構(gòu)。其結(jié)果是,在用給定的測試集來評估性能并挑選算法時,你應(yīng)當(dāng)根據(jù)具體的問題來采用不同的算法。例如,如果模型要求可解釋性較強,首先想到的就是邏輯(線性)回歸,如果模型要求準(zhǔn)確度較高且速度較快,首先想到的是Xgboost,如果數(shù)據(jù)量巨大且很稀疏,首先想到怎么用神經(jīng)網(wǎng)絡(luò)解決此問題。
因此,如何選擇機器學(xué)習(xí)算法、選擇哪一個算法以及算法建模時該注意哪些問題成了工程師的一個難題,本文的目的總結(jié)了常用機器學(xué)習(xí)算法優(yōu)缺點,供大家在工作、學(xué)習(xí)甚至面試中參考。機器學(xué)習(xí)主要分為有監(jiān)督學(xué)習(xí)和無監(jiān)督學(xué)習(xí),本文從這兩方面進行了梳理。
有監(jiān)督學(xué)習(xí)是指模型學(xué)習(xí)時有特定目標(biāo),即目標(biāo)是人工標(biāo)注的,主要用做分類或者回歸。常用的有監(jiān)督學(xué)習(xí)主要有knn、邏輯(線性)回歸、決策樹、隨機森林、adaboost、GBDT、xgboost、svm、樸素貝葉斯、人工神經(jīng)網(wǎng)絡(luò)等算法。
KNN可以說是最簡單的分類算法,和另一種機器學(xué)習(xí)算法K均值算法有點像,但有著本質(zhì)區(qū)別(K均值算法是無監(jiān)督算法)。KNN的全稱是K Nearest Neighbors,意思是K個最近的鄰居,KNN的原理就是當(dāng)預(yù)測一個新的值x的時候,根據(jù)它距離最近的K個點是什么類別來判斷x屬于哪個類別。
KNN算法的優(yōu)點:
1、理論成熟,簡單易用,相比其他算法,KNN算是比較簡潔明了的算法,工程上非常容易實現(xiàn);
2、模型訓(xùn)練時間快,訓(xùn)練時間復(fù)雜度為O(n),KNN算法是惰性的;
3、對數(shù)據(jù)沒有假設(shè),準(zhǔn)確度高,對異常值不敏感。
KNN算法的缺點:
1、對內(nèi)存要求較高,因為該算法存儲了所有訓(xùn)練數(shù)據(jù);
2、KNN每一次分類都會重新進行一次全局運算,且對于樣本容量大的數(shù)據(jù)集計算量比較大(一般涉及到距離計算的模型都會有這種缺點,如后面講的SVM、密度聚類等)。
邏輯回歸是分類模型,線性回歸是回歸模型,邏輯回歸和線性回歸原理相似,邏輯回歸其實僅為在線性回歸的基礎(chǔ)上,套用了一個邏輯函數(shù)。
線性回歸的損失函數(shù)為均方誤差類損失,邏輯回歸的損失函數(shù)為交叉熵損失。邏輯回歸的損失函數(shù)為什么選擇交叉熵損失而不選擇均方誤差是面試中經(jīng)常問道的問題,這里簡單說一下:使用MSE作為損失函數(shù)的話,它的梯度是和sigmod函數(shù)的導(dǎo)數(shù)有關(guān)的,如果當(dāng)前模型的輸出接近0或者1時,就會非常小,接近0,使得求得的梯度很小,損失函數(shù)收斂的很慢。但是我們使用交叉熵的話就不會出現(xiàn)這樣的情況,它的導(dǎo)數(shù)就是一個差值,誤差大的話更新的就快,誤差小的話就更新的慢點,這正是我們想要的。
邏輯(線性)回歸的優(yōu)點:
1、可解釋行強。
本人認(rèn)為這是邏輯(線性)回歸最大的優(yōu)點,應(yīng)該是機器學(xué)習(xí)算法中可解釋最強的,因為它訓(xùn)練的參數(shù)即為每個特征的權(quán)重,并且能夠定位到每個樣本的可解釋,而且它的輸出為概率值;
2、計算量小,速度很快,存儲資源低,工程上實現(xiàn)簡單,廣泛應(yīng)用于工業(yè)界;
邏輯(線性)回歸的缺點:
它最大的缺點就是對特征工程要求較高,主要體現(xiàn)在以下方面:
1、需要解決特征共線性問題,如果特征共線性較高,訓(xùn)練的權(quán)重不滿秩,有模型不收斂的可能;
2、對于異常值和缺失值非常敏感,需要提前進行數(shù)據(jù)處理;
3、模型訓(xùn)練前需要特征歸一化,不然進行梯度下降尋找最優(yōu)值時會收斂很慢或者不收斂;
4、對于非線性連續(xù)特征需要連續(xù)特征離散化。
當(dāng)然除了以上缺點,還有它的容易欠擬合,準(zhǔn)確度并不是很高(個人認(rèn)為強于決策樹,弱于SVM、GBDT等強分類器)。
決策樹的生成算法有ID3, C4.5和C5.0等。決策樹是一種樹形結(jié)構(gòu),其中每個內(nèi)部節(jié)點表示一個屬性上的判斷,每個分支代表一個判斷結(jié)果的輸出,最后每個葉節(jié)點代表一種分類結(jié)果。
決策樹的優(yōu)點:
1、計算量相對較小, 且容易轉(zhuǎn)化成分類規(guī)則. 只要沿著樹根向下一直走到葉, 沿途的分裂條件就能夠唯一確定一條分類的謂詞;
2、有一定的可解釋性,樹的結(jié)構(gòu)可視化;
3、具有一定的特征選擇能力,能夠自己處理不相關(guān)特征。
決策樹的缺點:
1、屬于弱分類器,且容易過擬合,可用bagging的方式減小方差(如隨機森林),boosting的方式減少偏差(如GBDT、xgboost);
2、于各類別樣本數(shù)量不一致的數(shù)據(jù), 信息增益偏向于那些更多數(shù)值的特征;
3、容易忽略數(shù)據(jù)集中屬性的相互關(guān)聯(lián)。
是以決策樹為基學(xué)習(xí)器的集成學(xué)習(xí)算法,如果分類模型,多個決策樹進行投票處理,如果為回歸模型,多個決策樹結(jié)果平均值處理。
隨機森林的優(yōu)點:
1、隨機森林具有防止過擬合能力,精度比大多數(shù)單個算法要好;
2、隨機森林分類器可以處理缺失值;
3、于有袋外數(shù)據(jù)(OOB),可以在模型生成過程中取得真實誤差的無偏估計,且不損失訓(xùn)練數(shù)據(jù)量在訓(xùn)練過程中,能夠檢測到feature間的互相影響,且可以得出feature的重要性,具有一定參考意義;
4、每棵樹可以獨立、同時生成,容易做成并行化方法;
5、具有一定的特征選擇能力。
隨機森林的缺點:
1、隨機森林已經(jīng)被證明在某些噪音較大的分類或回歸問題上會過擬。
2、對于有不同取值的屬性的數(shù)據(jù),取值劃分較多的屬性會對隨機森林產(chǎn)生更大的影響,所以隨機森林在這種數(shù)據(jù)上產(chǎn)出的屬性權(quán)值是不可信的。
GBDT是通過采用加法模型(即基函數(shù)的線性組合),以及不斷減小訓(xùn)練過程產(chǎn)生的殘差來達到將數(shù)據(jù)分類或者回歸的算法,它是決策樹的boosting算法,在傳統(tǒng)機器學(xué)習(xí)算法里面是對真實分布擬合的最好的幾種算法之一。
GBDT的優(yōu)點:
1、GBDT屬于強分類器,一般情況下比邏輯回歸和決策樹預(yù)測精度要高;
2、GBDT可以自己選擇損失函數(shù),當(dāng)損失函數(shù)為指數(shù)函數(shù)時,GBDT變?yōu)锳daboost算法;
3、GBDT可以做特征組合,往往在此基礎(chǔ)上和其他分類器進行配合。
GBDT的缺點:
1、由于弱學(xué)習(xí)器之間存在依賴關(guān)系,難以并行訓(xùn)練數(shù)據(jù);
2、和其他樹模型一樣,不適合高維稀疏特征。
XGBoost的全稱是eXtreme Gradient Boosting,它是經(jīng)過優(yōu)化的分布式梯度提升庫,旨在高效、靈活且可移植。XGBoost是大規(guī)模并行boosting tree的工具,它是目前最快最好的開源 boosting tree工具包,比常見的工具包快10倍以上。在數(shù)據(jù)科學(xué)方面,有大量的Kaggle選手選用XGBoost進行數(shù)據(jù)挖掘比賽,是各大數(shù)據(jù)科學(xué)比賽的必殺武器;在工業(yè)界大規(guī)模數(shù)據(jù)方面,XGBoost的分布式版本有廣泛的可移植性,支持在Kubernetes、Hadoop、SGE、MPI、 Dask等各個分布式環(huán)境上運行,使得它可以很好地解決工業(yè)界大規(guī)模數(shù)據(jù)的問題。它是GBDT的進階,也就是Xgboost有著GBDT所有的優(yōu)點。
此外與GBDT相比,xgBoosting有以下進步:
1、收斂速度增快:
GBDT在優(yōu)化時只用到一階導(dǎo)數(shù),xgBoosting對代價函數(shù)做了二階Talor展開,引入了一階導(dǎo)數(shù)和二階導(dǎo)數(shù);
2、正則化,一定程度防止過擬合。
XGBoost 在代價函數(shù)里加入了正則項,用于控制模型的復(fù)雜度。
正則項里包含了樹的葉子節(jié)點個數(shù)、每個葉子節(jié)點上輸出的 score 的 L2 模的平方和。
從 Bias-variancetradeoff 角度來講,正則項降低了模型的 variance,使學(xué)習(xí)出來的模型更加簡單,防止過擬合;
3、并行處理。
XGBoost 工具支持并行。
Boosting 不是一種串行的結(jié)構(gòu)嗎?
怎么并行的?
注意 XGBoost 的并行不是 tree 粒度的并行,XGBoost 也是一次迭代完才能進行下一次迭代的(第 t 次迭代的代價函數(shù)里包含了前面 t-1 次迭代的預(yù)測值)。
XGBoost 的并行是在特征粒度上的。
我們知道,決策樹的學(xué)習(xí)最耗時的一個步驟就是對特征的值進行排序(因為要確定最佳分割點),XGBoost 在訓(xùn)練之前,預(yù)先對數(shù)據(jù)進行了排序,然后保存為block結(jié)構(gòu),后面的迭代中重復(fù)地使用這個結(jié)構(gòu),大大減小計算量。
這個 block 結(jié)構(gòu)也使得并行成為了可能,在進行節(jié)點的分裂時,需要計算每個特征的增益,最終選增益最大的那個特征去做分裂,那么各個特征的增益計算就可以開多線程進行;
1、Shrinkage(縮減):
相當(dāng)于學(xué)習(xí)速率。
XGBoost 在進行完一次迭代后,會將葉子節(jié)點的權(quán)重乘上該系數(shù),主要是為了削弱每棵樹的影響,讓后面有更大的學(xué)習(xí)空間。
傳統(tǒng)GBDT的實現(xiàn)也有學(xué)習(xí)速率;
2、列抽樣:
XGBoost 借鑒了隨機森林的做法,支持列抽樣,不僅能降低過擬合,還能減少計算。
這也是XGBoost異于傳統(tǒng)GBDT的一個特性;
3、缺失值處理:
對于特征的值有缺失的樣本,XGBoost 采用的稀疏感知算法可以自動學(xué)習(xí)出它的分裂方向;
4、內(nèi)置交叉驗證:
XGBoost 允許在每一輪 Boosting 迭代中使用交叉驗證。
因此,可以方便地獲得最優(yōu)Boosting 迭代次數(shù)。
而 GBM 使用網(wǎng)格搜索,只能檢測有限個值。
Xgboost缺點:
1、和其他樹模型一樣,不適合高維稀疏特征;
2、算法參數(shù)過多,調(diào)參復(fù)雜,需要對 XGBoost 原理十分清楚才能很好的使用 XGBoost。
SVM即支持向量機,它是將向量映射到一個更高維的空間里,在這個空間里建立有一個最大間隔超平面。在分開數(shù)據(jù)的超平面的兩邊建有兩個互相平行的超平面,分隔超平面使兩個平行超平面的距離最大化。假定平行超平面間的距離或差距越大,分類器的總誤差越小。
SVM的優(yōu)點:
1、使用核函數(shù)可以向高維空間進行映射;
2、屬于強分類器,準(zhǔn)確的較高;
3、能夠處理非線性特征的相互作用。
SVM的缺點:
1、SVM最大的缺點,本人認(rèn)為會耗費大量的機器內(nèi)存和運算時間,這也是為什么隨著數(shù)據(jù)量越來越多,SVM在工業(yè)界運用越來越少的原因;
2、對缺失數(shù)據(jù)敏感;
3、對非線性問題沒有通用解決方案,有時候很難找到一個合適的核函數(shù)。
樸素貝葉斯算法是基于貝葉斯定理和特征條件獨立假設(shè)的分類方法,屬于生成式模型。
樸素貝葉斯的優(yōu)點:
1、樸素貝葉斯模型發(fā)源于古典數(shù)學(xué)理論,有著堅實的數(shù)學(xué)基礎(chǔ),以及穩(wěn)定的分類效率;
2、對大數(shù)量訓(xùn)練和查詢時具有較高的速度。
即使使用超大規(guī)模的訓(xùn)練集,針對每個項目通常也只會有相對較少的特征數(shù),并且對項目的訓(xùn)練和分類也僅僅是特征概率的數(shù)學(xué)運算而已;
3、對小規(guī)模的數(shù)據(jù)表現(xiàn)很好,能個處理多分類任務(wù),適合增量式訓(xùn)練(即可以實時的對新增的樣本進行訓(xùn)練;
4、對缺失數(shù)據(jù)不太敏感,算法也比較簡單,常用于文本分類;
5、樸素貝葉斯對結(jié)果解釋容易理解。
樸素貝葉斯的缺點:
1、理論上,樸素貝葉斯模型與其他分類方法相比具有最小的誤差率。但是實際上并非總是如此,這是因為樸素貝葉斯模型假設(shè)屬性之間是相互獨立的,而這個假設(shè)在實際應(yīng)用中往往并不成立的。雖然在屬性相關(guān)性較小時,樸素貝葉斯性能良好。但是,在屬性個數(shù)比較多或者屬性之間相關(guān)性較大時,分類效果并不好;
2、需要知道先驗概率,并且先驗概率在很多時候多是取決于假設(shè),假設(shè)的模型可以有多種,從而導(dǎo)致在某些時候會由于假設(shè)的先驗?zāi)P投沟妙A(yù)測效果不佳;
3、因為是通過先驗和數(shù)據(jù)來決定后驗的概率來決定分類的,所以分類決策存在一定的錯誤率;
4、對輸入數(shù)據(jù)的表達形式很敏感。
以上都是傳統(tǒng)有監(jiān)督機器學(xué)習(xí)算法,但傳統(tǒng)的機器學(xué)習(xí)算法在數(shù)據(jù)量面前,會觸及一個天花板,一旦到達極限,傳統(tǒng)機器學(xué)習(xí)算法將無法跟上數(shù)據(jù)增長的步伐,性能則停滯不前。而數(shù)據(jù)越多,神經(jīng)網(wǎng)絡(luò)越浪!隨著現(xiàn)在數(shù)據(jù)量越來越多,人工神經(jīng)網(wǎng)絡(luò)運用越來越廣泛。
人工神經(jīng)網(wǎng)絡(luò)的優(yōu)點:
1、可以充分逼近任意復(fù)雜的非線性關(guān)系;
2、所有定量或定性的信息都等勢分布貯存于網(wǎng)絡(luò)內(nèi)的各神經(jīng)元,故有很強的魯棒性和容錯性;
3、采用并行分布處理方法,使得快速進行大量運算成為可能;
4、可學(xué)習(xí)和自適應(yīng)不知道或不確定的系統(tǒng);
5、能夠同時處理定量、定性知識。
人工神經(jīng)網(wǎng)絡(luò)的缺點:
1、黑盒過程,不能觀察之間的學(xué)習(xí)過程,輸出結(jié)果難以解釋,會影響到結(jié)果的可信度和可接受程度;
2、學(xué)習(xí)時間過長,有可能陷入局部極小值,甚至可能達不到學(xué)習(xí)的目的;
3、神經(jīng)網(wǎng)絡(luò)需要大量的參數(shù),如網(wǎng)絡(luò)拓撲結(jié)構(gòu)、權(quán)值和閾值的初始值。
無監(jiān)督學(xué)習(xí)輸入數(shù)據(jù)沒有被標(biāo)記,也沒有確定的結(jié)果,樣本數(shù)據(jù)類別未知,需要根據(jù)樣本間的相似性對樣本集進行分類。常用的無監(jiān)督模型主要指各種聚類,主要有K均值聚類、層次聚類、密度聚類等。
K-Means的主要優(yōu)點:
1、原理簡單,容易實現(xiàn);
2、可解釋度較強。
K-Means的主要缺點:
1、K值很難確定;
2、聚類效果依賴于聚類中心的初始化,收斂到局部最優(yōu);
3、對噪音和異常點敏感;
4、對于非凸數(shù)據(jù)集或類別規(guī)模差異太大的數(shù)據(jù)效果不好。
密度聚類優(yōu)點:
1、可以對任意形狀的稠密數(shù)據(jù)集進行聚類,相對的K均值之類的聚類算法一般只適用于凸數(shù)據(jù)集;
2、可以在聚類的同時發(fā)現(xiàn)異常點,對數(shù)據(jù)集中的異常點不敏感;
3、聚類結(jié)果沒有偏倚,相對的,K-Means之類的聚類算法初始值對聚類結(jié)果有很大影響。
密度聚類缺點:
1、如果樣本集的密度不均勻、聚類間距差相差很大時,聚類質(zhì)量較差,這時用DBSCAN聚類一般不適合;
2、如果樣本集較大時,聚類收斂時間較長,此時可以對搜索最近鄰時建立的KD樹或者球樹進行規(guī)模限制來改進;
3、調(diào)參相對于傳統(tǒng)的K-Means之類的聚類算法稍復(fù)雜,主要需要對距離閾值?,鄰域樣本數(shù)閾值MinPts聯(lián)合調(diào)參,不同的參數(shù)組合對最后的聚類效果有較大影響。
層次聚類優(yōu)點:
1、距離和規(guī)則的相似度容易定義,限制少。
2、不需要預(yù)先制定聚類數(shù)。
3、可以發(fā)現(xiàn)類的層次關(guān)系。
4、可以聚類成其它形狀。
層次聚類的缺點:
1、計算復(fù)雜度太高。
2、奇異值也能產(chǎn)生很大影響。
3、算法很可能聚類成鏈狀。
總之,選擇哪一個算法必須要適用于你自己的問題,這就要求選擇正確的機器學(xué)習(xí)任務(wù)。但很多情況下好的數(shù)據(jù)卻要優(yōu)于好的算法,設(shè)計優(yōu)良特征和做特征工程更有意義,但只有了解每個機器算法的原理及優(yōu)缺點,才能根據(jù)不同的機器學(xué)習(xí)算法做相應(yīng)的特征工程。(對特征工程感興趣的同學(xué)可以參考我在公眾號一個數(shù)據(jù)人的自留地寫的另一篇文章:機器學(xué)習(xí)中的特征工程。
-END-
本文為作者獨立觀點,不代表鳥哥筆記立場,未經(jīng)允許不得轉(zhuǎn)載。
《鳥哥筆記版權(quán)及免責(zé)申明》 如對文章、圖片、字體等版權(quán)有疑問,請點擊 反饋舉報
我們致力于提供一個高質(zhì)量內(nèi)容的交流平臺。為落實國家互聯(lián)網(wǎng)信息辦公室“依法管網(wǎng)、依法辦網(wǎng)、依法上網(wǎng)”的要求,為完善跟帖評論自律管理,為了保護用戶創(chuàng)造的內(nèi)容、維護開放、真實、專業(yè)的平臺氛圍,我們團隊將依據(jù)本公約中的條款對注冊用戶和發(fā)布在本平臺的內(nèi)容進行管理。平臺鼓勵用戶創(chuàng)作、發(fā)布優(yōu)質(zhì)內(nèi)容,同時也將采取必要措施管理違法、侵權(quán)或有其他不良影響的網(wǎng)絡(luò)信息。
一、根據(jù)《網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理規(guī)定》《中華人民共和國未成年人保護法》等法律法規(guī),對以下違法、不良信息或存在危害的行為進行處理。
1. 違反法律法規(guī)的信息,主要表現(xiàn)為:
1)反對憲法所確定的基本原則;
2)危害國家安全,泄露國家秘密,顛覆國家政權(quán),破壞國家統(tǒng)一,損害國家榮譽和利益;
3)侮辱、濫用英烈形象,歪曲、丑化、褻瀆、否定英雄烈士事跡和精神,以侮辱、誹謗或者其他方式侵害英雄烈士的姓名、肖像、名譽、榮譽;
4)宣揚恐怖主義、極端主義或者煽動實施恐怖活動、極端主義活動;
5)煽動民族仇恨、民族歧視,破壞民族團結(jié);
6)破壞國家宗教政策,宣揚邪教和封建迷信;
7)散布謠言,擾亂社會秩序,破壞社會穩(wěn)定;
8)宣揚淫穢、色情、賭博、暴力、兇殺、恐怖或者教唆犯罪;
9)煽動非法集會、結(jié)社、游行、示威、聚眾擾亂社會秩序;
10)侮辱或者誹謗他人,侵害他人名譽、隱私和其他合法權(quán)益;
11)通過網(wǎng)絡(luò)以文字、圖片、音視頻等形式,對未成年人實施侮辱、誹謗、威脅或者惡意損害未成年人形象進行網(wǎng)絡(luò)欺凌的;
12)危害未成年人身心健康的;
13)含有法律、行政法規(guī)禁止的其他內(nèi)容;
2. 不友善:不尊重用戶及其所貢獻內(nèi)容的信息或行為。主要表現(xiàn)為:
1)輕蔑:貶低、輕視他人及其勞動成果;
2)誹謗:捏造、散布虛假事實,損害他人名譽;
3)嘲諷:以比喻、夸張、侮辱性的手法對他人或其行為進行揭露或描述,以此來激怒他人;
4)挑釁:以不友好的方式激怒他人,意圖使對方對自己的言論作出回應(yīng),蓄意制造事端;
5)羞辱:貶低他人的能力、行為、生理或身份特征,讓對方難堪;
6)謾罵:以不文明的語言對他人進行負面評價;
7)歧視:煽動人群歧視、地域歧視等,針對他人的民族、種族、宗教、性取向、性別、年齡、地域、生理特征等身份或者歸類的攻擊;
8)威脅:許諾以不良的后果來迫使他人服從自己的意志;
3. 發(fā)布垃圾廣告信息:以推廣曝光為目的,發(fā)布影響用戶體驗、擾亂本網(wǎng)站秩序的內(nèi)容,或進行相關(guān)行為。主要表現(xiàn)為:
1)多次發(fā)布包含售賣產(chǎn)品、提供服務(wù)、宣傳推廣內(nèi)容的垃圾廣告。包括但不限于以下幾種形式:
2)單個帳號多次發(fā)布包含垃圾廣告的內(nèi)容;
3)多個廣告帳號互相配合發(fā)布、傳播包含垃圾廣告的內(nèi)容;
4)多次發(fā)布包含欺騙性外鏈的內(nèi)容,如未注明的淘寶客鏈接、跳轉(zhuǎn)網(wǎng)站等,誘騙用戶點擊鏈接
5)發(fā)布大量包含推廣鏈接、產(chǎn)品、品牌等內(nèi)容獲取搜索引擎中的不正當(dāng)曝光;
6)購買或出售帳號之間虛假地互動,發(fā)布干擾網(wǎng)站秩序的推廣內(nèi)容及相關(guān)交易。
7)發(fā)布包含欺騙性的惡意營銷內(nèi)容,如通過偽造經(jīng)歷、冒充他人等方式進行惡意營銷;
8)使用特殊符號、圖片等方式規(guī)避垃圾廣告內(nèi)容審核的廣告內(nèi)容。
4. 色情低俗信息,主要表現(xiàn)為:
1)包含自己或他人性經(jīng)驗的細節(jié)描述或露骨的感受描述;
2)涉及色情段子、兩性笑話的低俗內(nèi)容;
3)配圖、頭圖中包含庸俗或挑逗性圖片的內(nèi)容;
4)帶有性暗示、性挑逗等易使人產(chǎn)生性聯(lián)想;
5)展現(xiàn)血腥、驚悚、殘忍等致人身心不適;
6)炒作緋聞、丑聞、劣跡等;
7)宣揚低俗、庸俗、媚俗內(nèi)容。
5. 不實信息,主要表現(xiàn)為:
1)可能存在事實性錯誤或者造謠等內(nèi)容;
2)存在事實夸大、偽造虛假經(jīng)歷等誤導(dǎo)他人的內(nèi)容;
3)偽造身份、冒充他人,通過頭像、用戶名等個人信息暗示自己具有特定身份,或與特定機構(gòu)或個人存在關(guān)聯(lián)。
6. 傳播封建迷信,主要表現(xiàn)為:
1)找人算命、測字、占卜、解夢、化解厄運、使用迷信方式治病;
2)求推薦算命看相大師;
3)針對具體風(fēng)水等問題進行求助或咨詢;
4)問自己或他人的八字、六爻、星盤、手相、面相、五行缺失,包括通過占卜方法問婚姻、前程、運勢,東西寵物丟了能不能找回、取名改名等;
7. 文章標(biāo)題黨,主要表現(xiàn)為:
1)以各種夸張、獵奇、不合常理的表現(xiàn)手法等行為來誘導(dǎo)用戶;
2)內(nèi)容與標(biāo)題之間存在嚴(yán)重不實或者原意扭曲;
3)使用夸張標(biāo)題,內(nèi)容與標(biāo)題嚴(yán)重不符的。
8.「飯圈」亂象行為,主要表現(xiàn)為:
1)誘導(dǎo)未成年人應(yīng)援集資、高額消費、投票打榜
2)粉絲互撕謾罵、拉踩引戰(zhàn)、造謠攻擊、人肉搜索、侵犯隱私
3)鼓動「飯圈」粉絲攀比炫富、奢靡享樂等行為
4)以號召粉絲、雇用網(wǎng)絡(luò)水軍、「養(yǎng)號」形式刷量控評等行為
5)通過「蹭熱點」、制造話題等形式干擾輿論,影響傳播秩序
9. 其他危害行為或內(nèi)容,主要表現(xiàn)為:
1)可能引發(fā)未成年人模仿不安全行為和違反社會公德行為、誘導(dǎo)未成年人不良嗜好影響未成年人身心健康的;
2)不當(dāng)評述自然災(zāi)害、重大事故等災(zāi)難的;
3)美化、粉飾侵略戰(zhàn)爭行為的;
4)法律、行政法規(guī)禁止,或可能對網(wǎng)絡(luò)生態(tài)造成不良影響的其他內(nèi)容。
二、違規(guī)處罰
本網(wǎng)站通過主動發(fā)現(xiàn)和接受用戶舉報兩種方式收集違規(guī)行為信息。所有有意的降低內(nèi)容質(zhì)量、傷害平臺氛圍及欺凌未成年人或危害未成年人身心健康的行為都是不能容忍的。
當(dāng)一個用戶發(fā)布違規(guī)內(nèi)容時,本網(wǎng)站將依據(jù)相關(guān)用戶違規(guī)情節(jié)嚴(yán)重程度,對帳號進行禁言 1 天、7 天、15 天直至永久禁言或封停賬號的處罰。當(dāng)涉及欺凌未成年人、危害未成年人身心健康、通過作弊手段注冊、使用帳號,或者濫用多個帳號發(fā)布違規(guī)內(nèi)容時,本網(wǎng)站將加重處罰。
三、申訴
隨著平臺管理經(jīng)驗的不斷豐富,本網(wǎng)站出于維護本網(wǎng)站氛圍和秩序的目的,將不斷完善本公約。
如果本網(wǎng)站用戶對本網(wǎng)站基于本公約規(guī)定做出的處理有異議,可以通過「建議反饋」功能向本網(wǎng)站進行反饋。
(規(guī)則的最終解釋權(quán)歸屬本網(wǎng)站所有)