老司机午夜精品视频播放-老司机午夜精品视频观看-老司机午夜精品视频在线观看免费-老司机午夜精品网站在线观看-亚洲综合精品成人-亚洲综合精品成人啪啪

您所在的位置:主頁 > 行業(yè)資訊 >

營銷活動的短信怎么發(fā)(短信群發(fā)怎么發(fā))

2021-12-20 19:44

2020年,攜程“鉆石會員”胡女士在攜程上花2889元定了一間房,在退房時她發(fā)現(xiàn),同樣的房子,其他人定只要1300元。[營銷活動的短信怎么發(fā)(短信群發(fā)怎么發(fā))]。胡女士越想越生氣,隨后把攜程公司告上法庭,理由是攜程“采集非必要個人信息,進行大數(shù)據(jù)殺熟”。

“大數(shù)據(jù)殺熟”這幾個字出現(xiàn)在判決文書里,讓律師和法官尤其頭疼。怎么界定大數(shù)據(jù)殺熟?又如何判罰?

兩個朋友定同一個酒店,價格不一樣;前腳買房,后腳電話打來問你裝修嗎;上午考完駕照,下午接到電話問你買車嗎;昨天報名考試,今天收到短信問你上補習班嗎……這到底是“無微不至”還是侵犯隱私?法律上又有什么相應的規(guī)定嗎?

11月起,一部專注保護個人網(wǎng)絡隱私的《個人信息保護法》終于填補了這方面空白,我們的數(shù)字生活將得到法律保護。

余盛峰是北京航空航天大學法學院副教授,同時兼任中國法學會比較法學研究會理事。他的研究集中在法律社會理論領(lǐng)域,其中就包括網(wǎng)絡信息法。《保護法》實施之后,對我們的生活會有哪些影響?《保護法》又是怎么保護了我們的隱私?余教授為我們帶來了第一手解讀。

11月起,人臉識別減少,大數(shù)據(jù)殺熟被制裁

11月開始,第一次登陸社交軟件時,大家都會看到一個“個人信息保護政策有更新”的彈窗。很多人直接跳過了這個彈窗,但這其實是《保護法》已經(jīng)生效的標志。

11月第一次打開豆瓣,大家應該都會收到彈窗的問候

點進查看詳情可以看到,現(xiàn)在的應用軟件必須公布用戶信息的去向,而且不能拒絕向用戶提供服務。

隱私政策的詳情頁

軟件修改隱私政策只是《保護法》帶來的改變之一,接下來我們可能還會迎來更多改變。

最明顯的是,現(xiàn)在隨處可見的人臉識別會消失一大部分,很多販賣敏感信息(比如人臉數(shù)據(jù)庫)的黑產(chǎn)都會受到整頓。根據(jù)《保護法》第二章第二節(jié),生物識別信息被劃分為敏感個人信息,只有在具有特定的目的和充分的必要性(比如和防疫安全有關(guān))、并采取嚴格保護措施的情形下才能收集。

第二,公共場所的監(jiān)控設備會出現(xiàn)明顯標識。現(xiàn)在大量的監(jiān)控攝像頭都是藏在暗處、沒有標識的,有時候不注意就看不到,依據(jù)《保護法》,攝像頭都需要加上統(tǒng)一標牌。

第三,大數(shù)據(jù)殺熟現(xiàn)象會被制裁,互聯(lián)網(wǎng)公司必須依法對自己的算法自動化決策給出解釋說明,而不能再把定價依據(jù)藏在黑箱里。

拒絕算法殺熟,歡迎明碼標價

11月《保護法》正式施行之后,人民檢察院,特別是最高檢很有可能會主動選取一些典型性的案件進行公益訴訟

比如說大數(shù)據(jù)殺熟,接下來可能會有案例針對打車、外賣平臺的雙標定價問題。也可能會有與濫用用戶信息相關(guān)的案例。比如某音樂平臺,號稱收集數(shù)據(jù)是為了推薦更符合用戶口味的音樂,結(jié)果轉(zhuǎn)手就把信息賣給廣告商,這屬于違反了目的明確性和目的限定性的侵權(quán)行為。還會有數(shù)據(jù)存儲期限過長的侵權(quán)問題。原來你把我的信息收集走,可能只能存儲一年,但是我現(xiàn)在通過一些手段發(fā)現(xiàn),我的賬號已經(jīng)過期或注銷了,但平臺還保存著我的數(shù)據(jù),這方面也可能有新鮮的案例出來。

此外,《個人信息保護法》還明確了糾正信息的權(quán)利。比如說你五年前把我信息收集走,但這五年間我的個人信息早就發(fā)生了變化,但是你一直不更正,給我?guī)砹藵撛诘奈:Γ@個權(quán)利也應該被激活。還有刪除信息的權(quán)利,比如有些不愿意讓他人看到的隱私信息,十年過去了還是一搜就能搜出來,現(xiàn)在我有權(quán)要求刪除。

徹底清除“黑歷史”也是我們的權(quán)利

再比如數(shù)據(jù)攜帶權(quán),假設我現(xiàn)在要注銷抖音賬號,把所有個人信息遷移到快手,抖音就需要為我提供技術(shù)支持。

11月之后,大家的數(shù)據(jù)生活會變得有法可依,這種變化是可以感知的。

每天被識別一萬次的臉蛋,是否還屬于你自己?當你個人信息與更大的數(shù)據(jù)庫相交,“重建”一個你,并不會太困難。

關(guān)注“果殼”公眾號,在后臺回復【人臉識別】,看誰在“偷”你的臉。

大數(shù)據(jù)如何鎖定你?沒有姓名長相也可以

《個人信息保護法》對我們的保護看似無微不至,但不意味著我們已經(jīng)絕對安全了。問題就出在法律里對“個人信息”的定義上。

到底什么是“個人信息”?曾經(jīng),這是一個再簡單不過的問題。

在許多國家的法律中,“個人信息”指的就是PII(Personal Identifiable Information),也就是說,已識別、或者可以識別到個人的信息。比如,知道了你的名字和長相,就可以馬上認出你,再比如知道了你的學校和學號,雖然不能馬上認出你,但是可以間接識別到你,這兩者都叫做個人信息。

魯迅可以簡介識別到周樹人,也算個人信息

歐盟《通用數(shù)據(jù)保護條例》和我們現(xiàn)在的《個人信息保護法》都采取了這種定義。這種定義最初,也正是從歐洲發(fā)源的。

上世紀60年代到70年代,歐洲開始從二戰(zhàn)中復蘇,為了建立福利國家,政府開始利用電子數(shù)據(jù)庫搜集和存儲大量的公民個人信息。針對公民信息,歐盟提出了“公平信息實踐原則”,原則的核心是賦予每個數(shù)據(jù)主體個人信息的控制權(quán)

依據(jù)這個原則,政府必須告知公民哪些信息被收集,公民反過來也擁有各類糾正信息、刪除數(shù)據(jù)、獲得通知的權(quán)利。

60年代的數(shù)據(jù)儲存設備,數(shù)據(jù)大多存在本地,與今天完全不同 | Computer History Museum

然而在大數(shù)據(jù)時代,個人信息的傳統(tǒng)定義和保護受到了很大的挑戰(zhàn)。

如今的數(shù)字技術(shù)不需要知道姓名長相也可以觸及(access)你。一些似乎跟本人關(guān)聯(lián)不大的信息,通過去匿名化技術(shù)和大數(shù)據(jù)挖掘的處理,又可以通過意想不到的方式定位到你。比如說,一個35歲的程序員去貸款買房,卻發(fā)現(xiàn)自己的貸款額度比別人低很多,可能就是因為大數(shù)據(jù)發(fā)現(xiàn)35歲以上的程序員失業(yè)風險非常高,自動為你降低了額度。

這樣的案例算不算個人信息泄露?不完全算。但是否對人造成了真實的影響?是的。

猜我想買什么?對不起,這也侵犯了我的隱私

在很多人看來,個人信息的泄露算不得什么大事,很多APP服務本身就基于我們提供的大量信息。如果不挖掘大數(shù)據(jù),外賣的價格不可能那么便宜,如果不開啟定位服務,叫車軟件的算法也無法快速調(diào)配運力。所以在某種程度上,我們作為互聯(lián)網(wǎng)的消費者,從一開始就和這些互聯(lián)網(wǎng)企業(yè)做了一筆交易,而且是一次性的交易——把自己的信息一次性地授權(quán)給了它們,從而享受它們的服務。

交出信息,獲得服務 |《智能陷阱》劇照

但互聯(lián)網(wǎng)對我們隱私的剝奪其實比很多人注意到的還要更狠。

隱私可以被分為幾個維度。首先最傳統(tǒng)的,也是大家都能意識到的隱私,是空間隱私。就像英國格言所說的,“每個人的家庭就是他的堡壘”,每個人的房屋和住宅,是他最基本的隱私。

第二個維度的隱私,是所謂的人身隱私。每個人的身體、生物特征、人體組織、瞳孔顏色,包括面部特征,都是人身隱私的范疇。在APP反復要求用戶開通面部識別功能時,就侵犯了我們的人身隱私。

人臉數(shù)據(jù)被錄入、收集 |《智能陷阱》劇照

第三種是決策隱私。當時美國墮胎案的主要爭執(zhí)點就在于此,起訴方認為,個人的性行為也好,之后決定墮胎也好,這都是一種決策的隱私。就是說我自己的決策自己做主,其他的人和組織沒有權(quán)力來干涉、旁觀我的決策。購物軟件記錄我們的購物習慣,然后依據(jù)大數(shù)據(jù)推薦商品,看似給了我們方便,其實是侵犯了我們的決策隱私。

還有一種很多人意識不到,但非常重要的隱私,是精神隱私:我個人的思維,個人的思想決策的自由。這些平臺給我推薦很多東西,當然給我很多便利,但同時也阻止了我接觸新的事物。我會自己判斷我喜歡什么書、什么音樂,算法的推薦其實在無形中干涉了這種自由,侵犯了我的精神隱私。

還記得某軟件遠程刪除用戶照片的事兒嗎?還有的軟件能猜出你PIN碼……個人信息被濫用早已經(jīng)不是個例。

關(guān)注“果殼”公眾號,在后臺回復【隱私】,這些事情,你不該被蒙在鼓里。

用“深度不學習”的法律管理“深度學習”的AI,是前所未有的大挑戰(zhàn)

互聯(lián)網(wǎng)不是法外之地,但互聯(lián)網(wǎng)確實不斷在挑戰(zhàn)法律。

截至2011年,全球信息網(wǎng)絡已經(jīng)成長為一個由10億臺中央處理器組成的超級有機體。每一秒都有10萬億比特信息通過,每一年產(chǎn)生的數(shù)據(jù)量接近20艾字節(jié),整個網(wǎng)絡約有1萬億網(wǎng)頁。另外,這個有機體還包括27億部手機、13億部固定電話和2700萬臺數(shù)據(jù)服務器。

這一切的總和,再加上近幾年出現(xiàn)的“深度學習”,挑戰(zhàn)了法律的獨特功能。

法律最為核心的特征是“深度不學習”,也就是法律的“規(guī)范性”。簡而言之,當社會期望失落,當他人未能按照預期相應做出行動,沒能按照法律規(guī)定執(zhí)行的時候,法律一定要通過暴力威懾或制裁機制,強行維持規(guī)范性權(quán)威。法律不學習的根本目的,是為了把高度復雜的社會簡化成法條,將學習帶來的沒有止境的認知鏈條暫時切斷。

隨著智能社會的崛起,人類法律正出現(xiàn)一個從“大定律——小數(shù)據(jù)”向“大數(shù)據(jù)——小定律”模式演變的趨勢。

傳統(tǒng)的法律根據(jù)統(tǒng)一化的“大法律”來整齊劃一地規(guī)范各種“小事件”,它需要通過簡化和收斂各種復雜場景,收束復雜的社會溝通。而智能化的機器學習則開始從海量的“大數(shù)據(jù)”中根據(jù)特定的場景、語境和實用的需要,提取特定的“小法律”來形成反饋機制。不學習的法律可以應對一個具有高度確定性的社會,但是伴隨著風險社會的到來,法律也必須做出相應的改變。

《保護法》的落地是一個積極的信號。以前如果遇到了個人信息泄露,不管是起訴還是追責都很困難,一來沒有明確的投訴機構(gòu),二來沒有專門的法律規(guī)定。但現(xiàn)在個人信息保護已經(jīng)寫進了法律,如果再遇到信息泄露的情況,那就和侵權(quán)的公司在法庭上見吧。

作者:余盛峰,翻翻

編輯:odette

一個AI

雖然隱私條例更改了,但有幾個人會去認真讀呢?

本文來自果殼,未經(jīng)授權(quán)不得轉(zhuǎn)載。

如需轉(zhuǎn)載請聯(lián)系iscientist@guokr.com




圖片展示