本周,當(dāng)學(xué)生們走上倫敦和其他城市的街頭時,這是一次與眾不同的抗議活動。
它的目標(biāo)是:他們說的一種算法威脅了他們的未來。

在本周的Tech Tent上,我們將看看英國考試成績的慘敗是否預(yù)示著全球?qū)λ惴ㄐ湃蔚奈C(jī)。
這是一個非常困難的挑戰(zhàn):如何確定何時必須取消考試取決于大學(xué)的考試成績。
答案?一種算法,實際上是提供數(shù)據(jù)的統(tǒng)計配方。
在這種情況下,數(shù)據(jù)既是一所學(xué)校的先前表現(xiàn),又是今年教師從上到下對學(xué)生的排名。
政治家似乎是為了避免等級通貨膨脹而選擇它的-與往年相比,高檔次的升幅很大。
但這意味著,如果前一年沒有人在學(xué)校獲得過A級成績,那么無論今年多么優(yōu)秀的學(xué)生都不會獲得今年的成績。
結(jié)果公布后不久,很明顯,即使實現(xiàn)了總體政治目標(biāo),也有成千上萬的年輕人受到不公平對待的案件。
Ada Lovelace研究所的卡莉·金德(Carly Kind)告訴Tech Tent:“從整體上來說,這樣做是公平的?!?“但是從個人的角度來看,實際上很多人都犯了錯,而且很多人都為算法感到冤wrong。”
她指出,就評分考試而言,該算法與教師的準(zhǔn)確性差不多。但是,盡管有人可能會為人類的成績感到不滿意,但是當(dāng)評分來自計算機(jī)時,感覺會更糟。
作為一家考慮數(shù)據(jù)倫理的研究所所長,她說透明度是關(guān)鍵。
她說:“我認(rèn)為,對于政府在使用算法時,在進(jìn)行優(yōu)化時所要達(dá)到的目標(biāo)以及在此過程中需要權(quán)衡的方面,要保持透明是一個重要的教訓(xùn)?!?br />
如果政府早在7月份就明確表示其主要目標(biāo)是避免等級通貨膨脹,并且可能在邊緣產(chǎn)生一些不公平,那是否可以接受?也許不是-但是在造成損害之前,可以進(jìn)行公開辯論。
大多數(shù)人可能沒有意識到,算法已經(jīng)在為他們做出各種決定,Netflix推薦給他們的電影新聞源中出現(xiàn)了哪些帖子。
而且,政府越來越多地使用它們來實現(xiàn)流程自動化,例如發(fā)現(xiàn)可能犯下利益欺詐的人,或者確定可能需要干預(yù)的問題家庭。
如果謹(jǐn)慎地設(shè)定目標(biāo)并確保所使用的數(shù)據(jù)沒有偏見,它們既可以有效又可以節(jié)省金錢。
但是卡莉·金德(Carly Kind)表示,對于希望由數(shù)據(jù)驅(qū)動的政府而言,A級考試的慘敗一直是它的公關(guān)噩夢:“學(xué)生抗議算法是我從未見過的事情?!?br />
她認(rèn)為,信任已經(jīng)被諸如劍橋分析公司(Cambridge Analytica)丑聞之類的事件破壞了,而這種信任又被進(jìn)一步破壞了。
“我實際上認(rèn)為,這對于在公共服務(wù)中使用算法系統(tǒng)的情況確實造成了不可磨滅的傷害,這一直是一個微不足道的案例,因為我們還沒有足夠的有力證據(jù)來證明這些東西在哪里被利用了,從而帶來了巨大的利益。 ?!?br />
在英國的這里,許多人都點頭承認(rèn)了十多年前的喜劇素描,其中一位無聊的女人(由David Walliams扮演)輕敲鍵盤,然后告訴一系列申請人:“計算機(jī)說不。”
但是,也許從本周的活動中得到的好消息是,人們現(xiàn)在不太可能拒絕回答-或至少要問誰是計算機(jī)堅不可摧的根源。