2017年,洛克威的科普蘭中學,一名12歲的新澤西女孩在遭受了同學數(shù)月的網(wǎng)絡(luò)霸凌后結(jié)束了自己的生命。這并不是個例。根據(jù)bullyingstatisTIcs.org調(diào)查顯示,超過一半的成年人和青少年都曾遭受過網(wǎng)絡(luò)霸凌,超半數(shù)也的人曾參與過網(wǎng)絡(luò)霸凌。
對于那些每天在學校或網(wǎng)上被欺負的青少年來說,造成的影響可能是毀滅性的。由于青少年急于尋求身份認同,他們通常很容易受到影響。每天持續(xù)遭受欺凌如同在中央情報局的酷刑室受到精神折磨,可能會導致焦慮、抑郁甚至引發(fā)自殺行為。
網(wǎng)絡(luò)霸凌正波及整個網(wǎng)絡(luò)根據(jù)皮尤研究中心,75%的美國成年人身邊曾發(fā)生過網(wǎng)絡(luò)霸凌。其中40%的美國公民親自經(jīng)歷過某種形式的網(wǎng)絡(luò)騷擾。
網(wǎng)絡(luò)霸凌引發(fā)的社會問題網(wǎng)絡(luò)霸凌不僅僅影響人們的網(wǎng)絡(luò)體驗。許多情況下,還會演變?yōu)楝F(xiàn)實生活中的發(fā)生跟蹤和騷擾事件。佛羅里達大西洋大學(Florida AtlanTIc University)對高中生進行的一項研究表明,83%曾遭受網(wǎng)絡(luò)霸凌的人也曾在現(xiàn)實生活中受到欺凌。學校通常會對學區(qū)隱瞞這些事件。除非造成人身傷害,否則警方在幫助逮捕和起訴欺凌者方面往往無能為力。
霸凌者和受害者同樣痛苦受害者容易患上焦慮和抑郁等精神疾病。但是,霸凌者也容易產(chǎn)生導致人格障礙的反社會行為。如果每次發(fā)生霸凌事件,霸凌者的行為得不到懲戒,最終霸凌者就會感到有“權(quán)利”,由此助長下次霸凌的發(fā)生。正是這種“權(quán)利”導致了網(wǎng)絡(luò)生活和現(xiàn)實生活中各種細化的反社會行為。自戀型人格障礙、邊緣性人格障礙都是與反社會行為相關(guān)的精神疾病。近年來,社會中精神疾病的增加并不意外。
網(wǎng)絡(luò)霸凌影響了人們對互聯(lián)網(wǎng)和科技的信任互聯(lián)網(wǎng)使社會受益匪淺。幾十年來,技術(shù)進步使人們的工作愈加高效。網(wǎng)絡(luò)惡性貼文對人們的網(wǎng)絡(luò)體驗造成消極影響,還影響人們利用網(wǎng)絡(luò)進行高效工作。這些情況讓新一代用戶認為這些技術(shù)是不良的工具,打擊人們將技術(shù)融入生活的積極性。
網(wǎng)絡(luò)霸凌難以預(yù)防和阻止網(wǎng)絡(luò)霸凌與現(xiàn)實生活中的霸凌不同。網(wǎng)絡(luò)霸凌獨有的特點使其難以被阻止。
· 網(wǎng)絡(luò)欺凌難以察覺——通常,欺凌者披上幽默的外衣,巧妙地譏諷受害者。
· 屏蔽他人只會助長霸凌——社交媒體群中,想要屏蔽掉霸凌者幾乎是不可能的。特別是當對象是學生時,在一個為滿足教育需求創(chuàng)立的學習論壇中屏蔽某個學生是不可能的,而霸凌者也在其中。
· 網(wǎng)絡(luò)欺凌的受害者很難被發(fā)現(xiàn) - 通常,受害者對他們遭受的霸凌持有疑問。由于欺凌者隱藏在幽默和虛假的網(wǎng)名背后,受害者常常覺得他們應(yīng)該受到指責,或者他們是那些無中生有的人。
網(wǎng)絡(luò)欺凌為人工智能提供了一個亟待解決的問題識別網(wǎng)絡(luò)霸凌異常困難為那些試圖保護自己的在線社交媒體社區(qū)的公司帶來了獨特的挑戰(zhàn)。通常這種大海撈針的問題,最適合采用機器學習來解決。AI可以識別語言的細微差別,在人類無能為力的大數(shù)據(jù)分析領(lǐng)域有效的對語言進行分類。 當算法了解愈多的欺凌者的網(wǎng)絡(luò)活動時,還可以調(diào)整和提高識別網(wǎng)絡(luò)欺凌的準確性。
2016年,IdenTIty Guard與Megan Meier FoundaTIon合作,使用IBM Watson技術(shù),使自然語言處理(NLP)和自然語言分類器(NLC)可以識別網(wǎng)絡(luò)欺凌或自我傷害。父母會收到在識別案例中生成的警報。然后,可以采取措施為孩子的網(wǎng)絡(luò)體驗把關(guān)。
2016年6月,F(xiàn)acebook推出DeepText作為“基于深度學習的文本理解引擎,能夠以近乎真人的精確度理解每秒數(shù)千個帖子的文本內(nèi)容。不久,Instagram開始使用DeepText消除其平臺上的垃圾郵件。最近,Instagram開始使用技術(shù)來對抗網(wǎng)絡(luò)惡性貼文和騷擾。Facebook擁有一個內(nèi)容管理團隊,該團隊將與人工智能技術(shù)相結(jié)合,在線識別騷擾,監(jiān)控和刪除虛假賬戶。
Twitter還使用人工智能技術(shù)發(fā)現(xiàn)垃圾郵件并識別負面互動。Twitter通過在用戶的提要上展示最佳,積極的體驗,幫助用戶營造自己的網(wǎng)絡(luò)生活。如果您在Twitter上屏蔽某人,那么來自同一個人的類似帳戶將不會顯示在您的Twitter Feed上。
谷歌和Jigsaw開發(fā)了人工智能調(diào)節(jié)工具Perspective,根據(jù)與人類評論家歸類為“有害”的評論的相似性對評論進行評分。Youtube使用此工具來對抗其平臺上的在線騷擾。
人工智能和機器學習并不完美與人為干預(yù)相結(jié)合才能將人工智能和機器學習用于鑒別網(wǎng)絡(luò)惡性貼文和騷擾的功能發(fā)揮到極致。無論是AI系統(tǒng)用作訓練數(shù)據(jù)的人類數(shù)據(jù),還是用于驗證AI系統(tǒng)提供的結(jié)果準確性的內(nèi)容審閱者,一些人工干預(yù)都有助于AI系統(tǒng)產(chǎn)生更準確的結(jié)果。在Instagram上,圖像分類和文本分類呈現(xiàn)出更復雜的識別在線騷擾的案例。具有特殊語境意義的中性文本的使用也為AI系統(tǒng)鑒別特定類型文本造成阻礙。
大眾必須幫助AI Systems提高效率,保護在線社區(qū)
技術(shù)和人一樣高效。如今的95后比他們的父母更加了解科技,這意味著我們在網(wǎng)絡(luò)上花費的時間也就越多。作為人,必須更明確地了解自身的在線行為。在現(xiàn)實生活中,我們的行為準則通常會被所居住的社區(qū)所強化。在網(wǎng)絡(luò)生活中,也需要有在線社區(qū)成員所執(zhí)行的那種行為準則。躲在電腦屏幕后面,感覺“有權(quán)”說出自己的感受和行為只會導致網(wǎng)絡(luò)論壇的混亂。相反,我們應(yīng)該對現(xiàn)實生活中的行為負責。
保護網(wǎng)絡(luò)社區(qū)的措施:· 一旦看到惡性貼文,立馬舉報。若對惡性貼文視而不見,那么最終你也會成為惡性貼文的受害者。在任何社交媒體社區(qū),都可以通過按一個按鈕來舉報違規(guī)帳戶。
· 了解孩子的在線活動。與孩子交談,了解他們的在線活動。與他們討論潛在的騷擾和欺凌行為。告訴他們適當?shù)木W(wǎng)絡(luò)禮儀,正如你教導他們在生活中要講禮貌一樣。
· 了解工具并使用它們。在每個社交媒體平臺上,都有舉報和屏蔽用戶的工具。無需舉報或屏蔽同一個用戶的多個不當行為——只需舉報或屏蔽一次就行。
· 了解并設(shè)置隱私邊界。網(wǎng)絡(luò)活動可以快速設(shè)置為個人可見。為了保護自己,設(shè)置個人網(wǎng)絡(luò)生活的私密程度。不要張貼你知道可能令人尷尬多年的照片。 同時,請不要向他人索取私人信息,畢竟己所不欲,勿施于人。
· 記錄騷擾行為。通過拍攝證據(jù)來記錄您收到的每一次騷擾。發(fā)帖者或騷擾者可能會刪除帖子,為方便調(diào)查建議保留副本。
· 相信自己的直覺。作為人類,要相信自己的直覺。產(chǎn)生這些感覺是有原因的。我們的體會告訴自己感受如何,反過來警告潛在的危險。如果你覺得某人的評論是“關(guān)閉”,那可能就是。在你把它歸結(jié)為你的錯之前,先和別人談?wù)勔垣@得中立的意見??赡苠e并不在你。
網(wǎng)絡(luò)霸凌每天發(fā)生,每個人都有責任保護自己的在線體驗。人工智能可以在社交媒體幫助我們標記和監(jiān)管在線活動。但是,就像現(xiàn)實生活中的警察一樣,第三方也就只能做到這兒了。
為彌補技術(shù)不足提高準確性,需要大眾參與當我們通過學習,實施和建模適當?shù)木W(wǎng)絡(luò)禮儀參與其中,AI系統(tǒng)將更容易發(fā)現(xiàn)異?,F(xiàn)象。當我們屏蔽并舉報用戶的不當網(wǎng)絡(luò)行為時AI系統(tǒng)可以獲得更準確數(shù)據(jù)。 當我們相信自己的直覺并主動采取行動阻止他人的惡性貼文和騷擾時,我們就是在表明立場 如果我們聯(lián)合起來對任何形式的欺凌說“不”,那么欺凌者和惡意發(fā)帖者就更難滋長。
請記住,網(wǎng)絡(luò)生活就像現(xiàn)實生活一樣。互聯(lián)網(wǎng)社區(qū)就像現(xiàn)實社區(qū)一樣。我們正在建設(shè)世界。在這些世界中,擔負的責任與現(xiàn)實生活中的同樣沉重。