很可惜 T 。T 您現(xiàn)在還不是作者身份,不能自主發(fā)稿哦~
如有投稿需求,請把文章發(fā)送到郵箱tougao@appcpx.com,一經(jīng)錄用會有專人和您聯(lián)系
咨詢?nèi)绾纬蔀榇河鹱髡哒埪?lián)系:鳥哥筆記小羽毛(ngbjxym)
評價指標(biāo)是評判數(shù)據(jù)表現(xiàn)的衡量標(biāo)準(zhǔn),它是數(shù)據(jù)分析中非常重要的部分,也是產(chǎn)品經(jīng)理必須掌握的重點內(nèi)容。不同的數(shù)分任務(wù)采用不同的評價指標(biāo),對于同一種任務(wù)在不同場景下也會采用不同的評價指標(biāo)。
例如在檢測垃圾郵件這個場景中,這是一個典型的二分類問題,所以可以用精確率和AUC曲線這兩個指標(biāo)判斷模型的效果;在人臉識別場景中,使用誤識率、拒識率和ROC曲線這三個指標(biāo)評判模型的效果。
不同指標(biāo)的著重點不一樣,一個指標(biāo)在不同場景下適用性可能不一樣,產(chǎn)品經(jīng)理需要學(xué)習(xí)不同指標(biāo)的特性,在項目中根據(jù)實際需要選擇不同的評價指標(biāo)。下文中我們重點講解一些產(chǎn)品經(jīng)理常用的評價指標(biāo)。
混淆矩陣(Confusion Matrix)是評價模型精度的一種標(biāo)準(zhǔn)格式,用一個N行N列的矩陣形式來表示。矩陣每一列代表預(yù)測值,每一行代表實際值。
從混淆矩陣的名字不難看出來,它的作用是表明多個類別之間是否有混淆,也就是模型到底判斷對了多少個結(jié)果,有多少個結(jié)果判斷錯了。同時混淆矩陣能夠幫助我們理解準(zhǔn)確率、精確率和召回率的區(qū)別。
面對一個二分類問題時,通常我們會將結(jié)果表示為正類與負類,兩者可以隨意指定。在上述區(qū)分貓狗圖片的例子中,我們假定貓為正類、狗為負類。那么在實際進行預(yù)測的時候就會出現(xiàn)四種情況,如下圖所示:
混淆矩陣
如果這張圖片是貓,機器預(yù)測出來的結(jié)果也是貓,這種情況稱為真正類(True Positive,以下簡稱TP);
如果這張圖片是狗,機器預(yù)測出來的結(jié)果也是狗,這種情況稱為真負類(True Negative,以下簡稱TN);
如果這張圖片是貓,機器預(yù)測出來的結(jié)果是狗,這種情況稱為假負類(False Negative,以下簡稱FN);
如果這張圖片是狗,機器預(yù)測的結(jié)果是貓,則為假正類(False Positive,以下簡稱FP)。
準(zhǔn)確率(Accuracy)是指預(yù)測正確的樣本占總樣本的比例,即模型找到的真正類與真負類與整體預(yù)測樣本的比例。用公式表示為:
Accuracy=(TP+TN)/(TP+TN+FP+FN)
準(zhǔn)確率的取值范圍為[0,1],一般情況下取值越大,代表模型預(yù)測能力越好。
假設(shè)上述貓狗圖片分類的例子中,貓狗圖片各有500張。最后模型預(yù)測的結(jié)果中真正類有318個,真負類有415個,假正類有75個,假負類有182個。根據(jù)準(zhǔn)確率的定義可以算出來目前模型的準(zhǔn)確率為:(318+415)/(1000)=0.73。
準(zhǔn)確率是評價模型效果最通用的指標(biāo)之一,描述模型找到“真”類別的能力。也就是說模型準(zhǔn)確識別出貓和狗的概率為0.73。但是在使用的時候有兩點需要我們注意。首先是準(zhǔn)確率沒有針對不同類別進行區(qū)分,最后求得的準(zhǔn)確率對每個類別而言是平等對待的,這種評價方式在很多場景下是有欠缺的。
在本例中,雖然可以看到模型的整體準(zhǔn)確率是73.30%,但是從結(jié)果中明顯可以看出來,模型對于貓的識別效果遠不如對狗的識別效果。如果我們模型的目的是為了把貓的圖片挑出來,那么這個準(zhǔn)確率就有些虛高。
在實際的病患診斷中,計算機診斷出某患者患有癌癥,實際上卻未患癌癥與計算機診斷出某患者未患有癌癥,而實際上卻患有癌癥這兩種情況的重要性不一樣,不能一概而論。我們需要明確后續(xù)是降低誤診率還是提高確診率,才能讓后續(xù)模型優(yōu)化更有針對性。
另外在正負樣本極不平衡的情況下,準(zhǔn)確率這個指標(biāo)存在很大的缺陷。例如在銀行的全量客戶中,要尋找適合推薦信托產(chǎn)品的超高凈值客戶是非常難的。因為這部分人群要求存款較多、收入較高,比較稀少,往往只有萬分之一的概率。
如果一個預(yù)測客戶適不適合信托產(chǎn)品的模型用準(zhǔn)確率去評判,哪怕模型把全部客戶預(yù)測成負類,即全部都是不適合的情況,那么這個模型的精度也有 99% 以上。
但這個指標(biāo)就失去了原有的意義,因為無法找到任何高凈值的人群。所以我們一再強調(diào),沒有萬能的指標(biāo),根據(jù)場景選擇合適的指標(biāo)非常重要。
精確率(Precision)和召回率(Recall)是一對好兄弟,雖然是兩個不同的評價指標(biāo),但它們互相影響,通常一起出現(xiàn)。在很多書上又把精確率稱為查準(zhǔn)率,把召回率稱為查全率。
召回率是針對原始樣本而言的指標(biāo),它表示原始樣本中的正例有多少被預(yù)測正確。
原始樣本中的正例有兩種情況,一種是把原來的正類預(yù)測成正類(TP),另一種就是把原來的正類預(yù)測為負類(FN),這兩種情況組成了原始樣本所有的正例。計算公式為:
Recall=TP/(TP+FN)
上述模型中識別貓類圖片的召回率為:
318/(318+182)=0.63
從這個角度可以看出來總共500張貓的圖片,模型只找對了318張,相比準(zhǔn)確率而言,召回率更真實地反應(yīng)了模型的效果。
而精確率是針對預(yù)測結(jié)果而言的指標(biāo),它表示預(yù)測為正類的樣本中有多少是對的。預(yù)測結(jié)果為正例有兩種情況,一種就是把正類預(yù)測為正類(TP),另一種就是把負類預(yù)測為正類(FP)。所以精確率的計算公式為:
Precision=TP/(TP+FP)
即上述模型中識別貓類圖片的精確率為:
318/(318+75)=0.81
從這個指標(biāo)可以看出來模型總共把393張圖片預(yù)測為貓,其中只有318張圖片預(yù)測正確。所以模型可能存在欠擬合的情況,將部分狗的照片判斷成貓,判斷為正類的條件太寬松。下一步優(yōu)化的時候可以選擇適當(dāng)降低條件以此提高模型效果。如下圖所示可以看出精確率與召回率的區(qū)別:
精確率與召回率
在理想情況下,我們希望精確率和召回率兩者都越高越好。
然而事實上這兩者在很多情況下是互相矛盾的。當(dāng)召回率變高時意味著需要盡可能找到原始樣本的正例,因此模型覆蓋的數(shù)量會變多,模型就更高的幾率犯錯,將原本不屬于該分類的樣本也加進來,這就導(dǎo)致精確率下降。
如果我們希望模型盡可能多得找出貓的圖片,我們會想辦法提高召回率;如果我們希望模型找到的圖片少一點但找出來的都是貓的圖片,我們會想辦法提高精確率。
有兩個很典型的場景可以說明這兩個指標(biāo)實際運用的區(qū)別,一個是對于地震的預(yù)測,我們希望盡可能預(yù)測到所有的地震,哪怕這些預(yù)測到的地震中只有少數(shù)真正發(fā)生了地震,在這個時候我們就可以犧牲精確率。
寧愿發(fā)出100次警報,但是把10次真實的地震都預(yù)測對了,也不希望預(yù)測了10次但是只有8次真實的地震被預(yù)測出來了,因為只要有1次地震沒被發(fā)現(xiàn)都會造成巨大的損失。因此這是一個“寧可抓錯,不可放過”的場景。
還有一種是垃圾郵件分類的場景,我們希望模型能夠盡可能找到所有垃圾郵件,但是我們更不希望把自己正常的郵件被分到垃圾郵件中,哪怕是一封正常的郵件,這會對用戶造成很嚴(yán)重的后果。對于少數(shù)沒有被識別出來的垃圾郵件,其實用戶是可以容忍的。
這時候我們寧可少分類成垃圾郵件,但必須確保分的都是對的,這就是一個“寧可放過,不可抓錯”的場景。因此在不同的場合中,需要產(chǎn)品經(jīng)理根據(jù)實際情況,自己判斷希望是精確率比較高或是召回率比較高。
另外精確率和準(zhǔn)確率是比較容易混淆的兩個評估指標(biāo),兩者的核心區(qū)別在于:精確率是一個二分類指標(biāo),只適用于二分類任務(wù),而準(zhǔn)確率能應(yīng)用于多分類任務(wù)。
在邏輯回歸的分類模型里,對于正負例的界定,通常會設(shè)一個閾值。大于閾值的樣本判定為正類,小于閾值的樣本為負類。如果我們減小這個閾值,會讓更多的樣本被識別為正類,從而提高了正類的識別率,但同時也會使得更多的負類被錯誤識別為正類。
直接調(diào)整閾值可以提升或降低模型的精確率和召回率,也就是說使用精確率和召回率這對指標(biāo)進行評價時會使得模型多了“閾值”這樣一個超參數(shù),并且這個超參數(shù)會直接影響模型的泛化能力。在數(shù)學(xué)上正好存在ROC曲線能夠幫助我們形象化地展示這個變化過程。
ROC曲線是一個畫在二維平面上的曲線,平面的橫坐標(biāo)是假正類率(FalsePositive Rate,簡稱FPR),計算公式為:
FPR=FP/(FP+TN)
縱坐標(biāo)是真正類率(True Positive Rate,簡稱TPR),計算公式為:
TPR=TP/(TP+FN)
對于一個分類器而言,每一個閾值下都會有一個FPR和TPR,這個分類器就可以映射成ROC平面上的一個點。當(dāng)我們調(diào)整這個分類器分類時使用的閾值,就可以得到一個經(jīng)過(0,0),(1, 1)的曲線,這條曲線就是這個分類器的ROC曲線,如下圖所示。
ROC曲線
從圖中可以看到,所有算法的ROC曲線都在y=x這條線的上方,因為y=x表示了隨機的猜測的概率。所有二分類問題隨便猜正確或不正確都是50%的準(zhǔn)確率。
一般情況下不存在比隨機猜測的準(zhǔn)確率更糟糕的算法,因為我們總是可以將錯誤率轉(zhuǎn)換為正確率。如果一個分類器的準(zhǔn)確率是40%,那么將兩類的標(biāo)簽互換,準(zhǔn)確率就變?yōu)榱?0%。
從圖中可以看出來,最理想的分類器是到達(0,1)點的折線,代表模型的準(zhǔn)確率達到100%,但是這種情況在現(xiàn)實中是不存在的。如果我們說一個分類器A比分類器B好,實際上我們指的是A的ROC曲線能夠完全覆蓋B的ROC曲線。如果有交點,只能說明A在某個場合優(yōu)于B,如下圖所示。
分類器A與分類器B的ROC曲線
ROC曲線通常搭配著它對應(yīng)的比率圖一起使用,我們繼續(xù)用貓狗圖片分類的例子說明這兩個圖怎么看。原本我們貓狗的圖片各有500張,如所示圖形的X軸代表預(yù)測的概率值,Y軸代表觀察的數(shù)量。
假設(shè)我們用一個新的分類器對圖片進行分類,分類結(jié)果用黑色線代表狗圖片的分布,用灰色代表貓圖片的分布。模型給出的分值越高代表模型判斷這張圖片是貓的把握越大,反之模型的給出的分值越低代表模型判斷這張圖片不是貓的把握越大,也就是說這張圖片更有可能是狗。
從下圖中可以看出來這個分類器的分類效果還是挺好的,基本上基本把兩個物群的分布分開,ROC曲線也非??拷?,1)這個點。
某分類器下的ROC曲線
如上圖所示,如果將閾值設(shè)為0.3,左邊劃線部分的面積代表模型判斷為狗的圖片數(shù)量有300張左右,并且從圖中可以看出來這300張圖片全部分類正確。
如果將閾值設(shè)為0.5,則左邊劃線部分的面積代表模型判斷為狗的圖片有530張左右,從圖中重疊部分可以看出來大約有40個分類結(jié)果是包含錯誤分類的,這些錯誤分類包括實際是狗的圖片被分成貓的情況以及實際是貓的圖片被分類成狗的情況。
0.3閾值與0.5閾值下的分類結(jié)果
這時候我們用另外一個分類器再進行分類,結(jié)果如圖3-16所示??梢钥吹秸麄€分類結(jié)果向右偏移,同時模型的效果變差,因為兩個分類結(jié)果重疊的部分變大,無論我們把閾值設(shè)在哪里都會比上一個分類器產(chǎn)生更多的錯誤分類。
假如這時我們采用“寧可抓錯,不可放過”的原則把閾值設(shè)置為0.8,則右邊劃線部分只有200個左右不會被分類為狗的圖片,其余800個結(jié)果全部會被判定為狗的圖片,盡管這里面有350個分類結(jié)果是錯誤的結(jié)果。
新的分類器下的ROC曲線
從上述例子中看出來,ROC曲線可以幫助我們從圖像的角度分辨兩個分類結(jié)果的分布情況以及選擇模型合適的閾值。因此也是很多產(chǎn)品經(jīng)理比較喜愛的指標(biāo)之一。
這時很多讀者可能會有疑問,既然已經(jīng)有那么多評價標(biāo)準(zhǔn),為什么還要使用ROC呢?
原因在于ROC曲線有個很好的特性:當(dāng)測試集中的正負樣本的分布變換的時候,ROC曲線能夠保持不變。在實際的數(shù)據(jù)集中經(jīng)常會出現(xiàn)樣本類不平衡,即正負樣本比例差距較大,而且測試數(shù)據(jù)中的正負樣本也可能隨著時間變化,使用ROC曲線不管是數(shù)據(jù)集怎么變換,都有直觀的展示效果。
ROC曲線一定程度上可以反映分類器的分類效果,但始終是以圖像的形式,不能告訴我們直接的結(jié)果。我們希望有一個指標(biāo),這個指標(biāo)越大代表模型的效果越好,越小代表模型的效果越差。于是引入了AUC值(Area Under Curve)的概念。
AUC是數(shù)據(jù)分析中最常用的模型評價指標(biāo)之一,實際上AUC代表的含義就是ROC曲線下的面積,如下圖所示,它直觀地反映了ROC曲線表達的分類能力。AUC值通常大于0.5小于1,AUC(面積)越大的分類器,性能越好。
AUC值的圖形展示
AUC值的定義是:從所有正類樣本中隨機選取一個樣本,再從所有負類樣本中隨機選取一個樣本,然后分類器對這兩個隨機樣本進行預(yù)測,把正類樣本預(yù)測為正類的概率為p1,把負類樣本預(yù)測為正類的概率為p0,p1>p0的概率就等于AUC值。
即AUC值是指隨機給定一個正樣本和一個負樣本,分類器輸出該正樣本為正的概率值比分類器輸出該負樣本為正的那個概率值要大的可能性,AUC值越高代表模型的排序能力越強。理論上,如果模型把所有正樣本排在負樣本之前,此時AUC的取值為1,代表模型完全分類正確,但這種情況在實際中不可能出現(xiàn)。
總結(jié)AUC值的四種取值結(jié)果有:
AUC=1時,代表采用這個預(yù)測模型,不管設(shè)定什么閾值都能得出完美預(yù)測,模型能夠?qū)⑺械恼龢颖径寂旁谪摌颖厩懊?。但是在現(xiàn)實中不存在完美的分類器。
0.5 AUC=0.5時,代表模型的預(yù)測效果與隨機猜測一樣,只有50%的準(zhǔn)確率。也就是說模型完全不能區(qū)分哪些是正樣本哪些是負樣本,沒有預(yù)測價值。 AUC<0.5時,代表模型的預(yù)測效果比隨機猜測還差;但只要將樣本正負例互換,結(jié)果就能優(yōu)于隨機猜測。 以上就是今天所有內(nèi)容了,你學(xué)廢了嗎? -END-
本文為作者獨立觀點,不代表鳥哥筆記立場,未經(jīng)允許不得轉(zhuǎn)載。
《鳥哥筆記版權(quán)及免責(zé)申明》 如對文章、圖片、字體等版權(quán)有疑問,請點擊 反饋舉報
我們致力于提供一個高質(zhì)量內(nèi)容的交流平臺。為落實國家互聯(lián)網(wǎng)信息辦公室“依法管網(wǎng)、依法辦網(wǎng)、依法上網(wǎng)”的要求,為完善跟帖評論自律管理,為了保護用戶創(chuàng)造的內(nèi)容、維護開放、真實、專業(yè)的平臺氛圍,我們團隊將依據(jù)本公約中的條款對注冊用戶和發(fā)布在本平臺的內(nèi)容進行管理。平臺鼓勵用戶創(chuàng)作、發(fā)布優(yōu)質(zhì)內(nèi)容,同時也將采取必要措施管理違法、侵權(quán)或有其他不良影響的網(wǎng)絡(luò)信息。
一、根據(jù)《網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理規(guī)定》《中華人民共和國未成年人保護法》等法律法規(guī),對以下違法、不良信息或存在危害的行為進行處理。
1. 違反法律法規(guī)的信息,主要表現(xiàn)為:
1)反對憲法所確定的基本原則;
2)危害國家安全,泄露國家秘密,顛覆國家政權(quán),破壞國家統(tǒng)一,損害國家榮譽和利益;
3)侮辱、濫用英烈形象,歪曲、丑化、褻瀆、否定英雄烈士事跡和精神,以侮辱、誹謗或者其他方式侵害英雄烈士的姓名、肖像、名譽、榮譽;
4)宣揚恐怖主義、極端主義或者煽動實施恐怖活動、極端主義活動;
5)煽動民族仇恨、民族歧視,破壞民族團結(jié);
6)破壞國家宗教政策,宣揚邪教和封建迷信;
7)散布謠言,擾亂社會秩序,破壞社會穩(wěn)定;
8)宣揚淫穢、色情、賭博、暴力、兇殺、恐怖或者教唆犯罪;
9)煽動非法集會、結(jié)社、游行、示威、聚眾擾亂社會秩序;
10)侮辱或者誹謗他人,侵害他人名譽、隱私和其他合法權(quán)益;
11)通過網(wǎng)絡(luò)以文字、圖片、音視頻等形式,對未成年人實施侮辱、誹謗、威脅或者惡意損害未成年人形象進行網(wǎng)絡(luò)欺凌的;
12)危害未成年人身心健康的;
13)含有法律、行政法規(guī)禁止的其他內(nèi)容;
2. 不友善:不尊重用戶及其所貢獻內(nèi)容的信息或行為。主要表現(xiàn)為:
1)輕蔑:貶低、輕視他人及其勞動成果;
2)誹謗:捏造、散布虛假事實,損害他人名譽;
3)嘲諷:以比喻、夸張、侮辱性的手法對他人或其行為進行揭露或描述,以此來激怒他人;
4)挑釁:以不友好的方式激怒他人,意圖使對方對自己的言論作出回應(yīng),蓄意制造事端;
5)羞辱:貶低他人的能力、行為、生理或身份特征,讓對方難堪;
6)謾罵:以不文明的語言對他人進行負面評價;
7)歧視:煽動人群歧視、地域歧視等,針對他人的民族、種族、宗教、性取向、性別、年齡、地域、生理特征等身份或者歸類的攻擊;
8)威脅:許諾以不良的后果來迫使他人服從自己的意志;
3. 發(fā)布垃圾廣告信息:以推廣曝光為目的,發(fā)布影響用戶體驗、擾亂本網(wǎng)站秩序的內(nèi)容,或進行相關(guān)行為。主要表現(xiàn)為:
1)多次發(fā)布包含售賣產(chǎn)品、提供服務(wù)、宣傳推廣內(nèi)容的垃圾廣告。包括但不限于以下幾種形式:
2)單個帳號多次發(fā)布包含垃圾廣告的內(nèi)容;
3)多個廣告帳號互相配合發(fā)布、傳播包含垃圾廣告的內(nèi)容;
4)多次發(fā)布包含欺騙性外鏈的內(nèi)容,如未注明的淘寶客鏈接、跳轉(zhuǎn)網(wǎng)站等,誘騙用戶點擊鏈接
5)發(fā)布大量包含推廣鏈接、產(chǎn)品、品牌等內(nèi)容獲取搜索引擎中的不正當(dāng)曝光;
6)購買或出售帳號之間虛假地互動,發(fā)布干擾網(wǎng)站秩序的推廣內(nèi)容及相關(guān)交易。
7)發(fā)布包含欺騙性的惡意營銷內(nèi)容,如通過偽造經(jīng)歷、冒充他人等方式進行惡意營銷;
8)使用特殊符號、圖片等方式規(guī)避垃圾廣告內(nèi)容審核的廣告內(nèi)容。
4. 色情低俗信息,主要表現(xiàn)為:
1)包含自己或他人性經(jīng)驗的細節(jié)描述或露骨的感受描述;
2)涉及色情段子、兩性笑話的低俗內(nèi)容;
3)配圖、頭圖中包含庸俗或挑逗性圖片的內(nèi)容;
4)帶有性暗示、性挑逗等易使人產(chǎn)生性聯(lián)想;
5)展現(xiàn)血腥、驚悚、殘忍等致人身心不適;
6)炒作緋聞、丑聞、劣跡等;
7)宣揚低俗、庸俗、媚俗內(nèi)容。
5. 不實信息,主要表現(xiàn)為:
1)可能存在事實性錯誤或者造謠等內(nèi)容;
2)存在事實夸大、偽造虛假經(jīng)歷等誤導(dǎo)他人的內(nèi)容;
3)偽造身份、冒充他人,通過頭像、用戶名等個人信息暗示自己具有特定身份,或與特定機構(gòu)或個人存在關(guān)聯(lián)。
6. 傳播封建迷信,主要表現(xiàn)為:
1)找人算命、測字、占卜、解夢、化解厄運、使用迷信方式治??;
2)求推薦算命看相大師;
3)針對具體風(fēng)水等問題進行求助或咨詢;
4)問自己或他人的八字、六爻、星盤、手相、面相、五行缺失,包括通過占卜方法問婚姻、前程、運勢,東西寵物丟了能不能找回、取名改名等;
7. 文章標(biāo)題黨,主要表現(xiàn)為:
1)以各種夸張、獵奇、不合常理的表現(xiàn)手法等行為來誘導(dǎo)用戶;
2)內(nèi)容與標(biāo)題之間存在嚴(yán)重不實或者原意扭曲;
3)使用夸張標(biāo)題,內(nèi)容與標(biāo)題嚴(yán)重不符的。
8.「飯圈」亂象行為,主要表現(xiàn)為:
1)誘導(dǎo)未成年人應(yīng)援集資、高額消費、投票打榜
2)粉絲互撕謾罵、拉踩引戰(zhàn)、造謠攻擊、人肉搜索、侵犯隱私
3)鼓動「飯圈」粉絲攀比炫富、奢靡享樂等行為
4)以號召粉絲、雇用網(wǎng)絡(luò)水軍、「養(yǎng)號」形式刷量控評等行為
5)通過「蹭熱點」、制造話題等形式干擾輿論,影響傳播秩序
9. 其他危害行為或內(nèi)容,主要表現(xiàn)為:
1)可能引發(fā)未成年人模仿不安全行為和違反社會公德行為、誘導(dǎo)未成年人不良嗜好影響未成年人身心健康的;
2)不當(dāng)評述自然災(zāi)害、重大事故等災(zāi)難的;
3)美化、粉飾侵略戰(zhàn)爭行為的;
4)法律、行政法規(guī)禁止,或可能對網(wǎng)絡(luò)生態(tài)造成不良影響的其他內(nèi)容。
二、違規(guī)處罰
本網(wǎng)站通過主動發(fā)現(xiàn)和接受用戶舉報兩種方式收集違規(guī)行為信息。所有有意的降低內(nèi)容質(zhì)量、傷害平臺氛圍及欺凌未成年人或危害未成年人身心健康的行為都是不能容忍的。
當(dāng)一個用戶發(fā)布違規(guī)內(nèi)容時,本網(wǎng)站將依據(jù)相關(guān)用戶違規(guī)情節(jié)嚴(yán)重程度,對帳號進行禁言 1 天、7 天、15 天直至永久禁言或封停賬號的處罰。當(dāng)涉及欺凌未成年人、危害未成年人身心健康、通過作弊手段注冊、使用帳號,或者濫用多個帳號發(fā)布違規(guī)內(nèi)容時,本網(wǎng)站將加重處罰。
三、申訴
隨著平臺管理經(jīng)驗的不斷豐富,本網(wǎng)站出于維護本網(wǎng)站氛圍和秩序的目的,將不斷完善本公約。
如果本網(wǎng)站用戶對本網(wǎng)站基于本公約規(guī)定做出的處理有異議,可以通過「建議反饋」功能向本網(wǎng)站進行反饋。
(規(guī)則的最終解釋權(quán)歸屬本網(wǎng)站所有)