拥有告密者、活动家、参议员候选人多重身份的切尔西·曼宁日前在SXSW上就未经核查的数据收集和对算法错位信任的危险性展开讨论。“我在伊拉克参与开发的算法已经找到了它们进入监管的方法,还有大公司的运作方式,无论是你的信用报告还是广告数据。”
资料图
在与《Vogue》Sally Singer的对话中,曼宁谈到了自己十年前在军队的预测分析工作以及对现代程序员已经接近AI的担忧。她表示,虽然开发更好、更精确的算法这个初衷很好,但当它们被加上人类的偏见之后一切就将发生变味。
曼宁认为应当建立一套规范软件开发者的道德框架,“我们这些技术人员、开发人员,特别是在开发会影响到上千万人系统的我们--好吧,我想我是在说Twitter的算法、Google的算法以及预测警务--我们需要知道我们正在做什么。就像医生有道德规范一样,软件开发人员也应该有它的道德规范。”
曼宁指出,问题的部分原因在于收集了大量日后可以再度被利用的数据。“我对安全级别有着偏执。我建议人们最多的就是:对你放出的信息要有自我意识。”这包括技术上的自愿,像允许手机应用程序进行位置追踪、很难保持私密的数据以及被卖给广告商的购物记录等等。
与此同时,她对人们缺乏行动感到不安。曼宁指出,虽然人们知道政府的监控项目已经有四五年的时间,但他们却未曾采取实质行动而总是盼望着其他人来做点什么。
尽管曼宁自称信息偏执狂,但她在Twitter却保持着活跃的公众形象,不过按照她自己的说法,她只在“安全的笔记本”使用Twitter。
而科技届对AI表示担忧的绝非只有曼宁一人,像特斯拉CEO马斯克就曾多次公开表达了对AI的态度,日前他又在SXSW上重申了“AI远比核武器危险”的观点。