搜索引擎AI偏見公開!女性、有色人種和貧困群體被忽視?
目錄
- 介紹
- Google及其他社交媒體公司的問題
- 對於女性、有色人種和貧困人口的無視
- 在系統中的重要性和可替換性
- 性行業中的買賣物品
- 對女性和有色人種的誤導
- 技術行業的問題
- Google的錯誤和修復
- AI的價值和未來
- 社交媒體和AI的差異
📢 仿搜索引擎AI:對女性、有色人種和貧困人口的忽視
在過去的幾年中,我一直在觀察著Google和其他一些社交媒體公司,特別是它們在處理不同族裔和社群的議題上存在的問題。不論是實施方式如何不同,但我們可以廣泛地說,這些系統並未對女性、有色人種和貧困人口給予足夠的重視。這些系統中存在一種邏輯,即誰是重要的,誰是可替換的。因此,當我們搜索不同身份和種族的人時,往往會發現對性創作產業而言,誰是可供買賣的對象,誰被過度性化,誰成為商品化的客體。而在這些系統中,我們常常看到女性尤其是女孩,以及有色人種被利用,帶來巨額利潤,他們被誤導地呈現。同樣的情況也存在於貧困人口中。
然而,當我們說到這種誤導和代表失真時,我覺得這有點像我在看我的後院,思考它簡直就像是對Google的大曝光,因為曾經有那麼多頁填滿了錯誤的內容,然後軟體工程師們只能快速修復,並假裝這些問題從未存在過。這當然也是我們這些寫技術行業評論的人經常遇到的問題,他們打開問題單,然後嘗試修復問題,並假裝這些問題從未發生過。在我的早期工作中,我研究了在搜索過程中尋找黑人女孩、亞洲女孩和拉丁裔女孩時所發生的事情,以及性創作或性化材料網站是搜尋結果中的第一個重要結果的事實,以及相關廣告。這是有趣的,因為這與AI的一種平凡類型有關,但AI絕對不是人們談到AI時所想到的內容,他們在思考AI時並不認為搜索引擎,他們想到的是IBM的華生,或者一些好萊塢的奇幻劇,受到星際迷航或星際大戰等的啟發,這些未來都是由世界上的一小部分壓倒性想象而產生的,關於未來的狹隘觀點。
奇怪的是,我、Karen和Meredith經常出現在那些未來的想像中。這告訴了我們很多關於在不同層面上(包括文化知識、資訊文化等)失去多少以及廣告平台統治整個景觀方面的問題。這些廣告平台很容易被操縱,但更重要的是,擁有最多資源和影響力的行業能夠控制某些特定的敘述形態。這種情況不僅存在於政治領域,也存在於身份認同領域。最具權力的政治行動委員會能夠操縱有關政治候選人的敘述,而這也一直是我擔心的事情之一。對於深入研究社交媒體的同事們,我非常感激,我認為這非常重要,我們必須關注獨佔市場和科技空間中的壟斷現象,以及這些行業和研究對社會的影響,這對我們來說非常重要。
然而,與社交媒體不同的是,對於人們在使用類似於搜索引擎的AI時的主觀感受,社交媒體的主觀性更加明顯。人們知道他們在追蹤和被追蹤,他們知道其他人也在追蹤他們,他們知道他們在使用什麼樣的標籤和方式,這更顯示出他們處於特定社群氛圍的事實,即使是他們不再想要成為其中一員的社群,也會吸引他們加入。例如,來自中學或者高中的朋友。但就搜索AI而言,我們談論的是人們如何將其用作事實查驗者、真理使者和無限知識門戶。人們對於搜索的遐想非常有趣,他們認為搜索是一個巨大的跨國廣告平台,而不是第一個出現在腦海中的,這就是為什麼我們一遍又一遍地看到,那些在這些空間中被誤導或剝削的人,是我們這些被這些技術傷害的人所做的研究學者和記者們,他們辛勤工作以使這些問題變得清晰可辨。我們十年前就提出這樣的問題,當時大家可能會認為我們來自火星。但現在,事情完全不同了,我知道這是因為十年前當我寫博士論文時,沒有人願意聽到數學可以具有種族主義性質,但現在我們不只是在談論編碼的數字,我們談論的是數學如何在社會中起到種族主義的作用。這就是我們現在得講的內容,這些數學形式永遠不是抽象的,它們始終是社會性的。這也是為什麼我們必須進行這樣的對話的原因。對於那些來自他們所受傷害社群的人來說,他們深知這些技術的應用是極不公平、不平等的,並且以多種壓迫性的方式運作。
文章摘要
在這篇文章中,我們討論了搜索引擎AI(人工智慧)對女性、有色人種和貧困人口的忽視問題。我們發現Google及其他社交媒體公司在處理這些問題時存在嚴重的缺失和不公平性。這些系統往往忽視了這些族裔和社群的需求,並且將他們視為可替換的對象。比如,在搜索不同身份和種族的人時,我們常常發現性創作產業等相關內容排名靠前,女性和有色人種被過度性化和商品化的現象很常見。這些系統的錯誤和缺陷也非常常見,但卻往往被忽視或避而不談。這對於寫作業資評論的人來說是個巨大的挑戰,因為他們要揭示這些問題的真相。然而,隨著時間的推移,這些問題變得越來越明顯,越來越多的人開始關注和討論這些問題。對於那些受到這些技術傷害的人和社群來說,這些問題變得越來越不能被忽視。
⭐️ 文章亮點
- 社交媒體和搜索引擎AI對女性、有色人種和貧困人口存在著嚴重的忽視問題。
- 這些系統中存在著不平等和不公平對待的行為,使得某些群體被過度性化和商品化。
- 技術行業必須對這些問題負起責任,並進行相應的改變和修正。
- 在社交媒體和搜索引擎AI中存在著巨大的主觀性差異,需要更多人關注和討論這些問題。
- 我們必須瞭解和反思這些技術對社會的影響,並尋求解決方案以解決這些問題。
❓ 常見問題解答
問題:為什麼社交媒體和搜索引擎AI對女性、有色人種和貧困人口的忽視這麼嚴重?
答:這主要是因為在這些系統中,存在著對某些特定群體的偏見和歧視。這些系統往往將這些群體視為可替換的,並且在宣傳、廣告和搜索結果中過度性化和商品化他們。
問題:這些錯誤和不公平對待的問題有解決的辦法嗎?
答:是的,這些問題需要技術行業的共同努力來解決。我們需要進一步研究和了解這些問題的根源,並提出相應的改變和修正措施,以使這些系統更加公平和平等。
問題:我們應該如何意識到這些問題並推動變革?
答:我們可以通過分享這些問題的文章和信息,參與相關討論和活動,以及支持那些關注這些問題並推動變革的組織和個人來提高大眾的意識。我們也可以在個人生活中採取具體的行動,例如選擇關注和支持多元化和包容性的內容。
資源
- Google官方網站
- 社交媒體公司列表