熱門文章
人工智能的下一個前沿:建造能讀懂你的情緒的機(jī)器
發(fā)布時間:2018-08-29 分類:交通百科
今天的人工智能、神經(jīng)網(wǎng)絡(luò)和機(jī)器學(xué)習(xí)技術(shù)的藍(lán)圖是人腦,僅僅因為它是解決我們所知道的問題的最有效工具。
然而,這個謎題中有很大一部分缺失了,人類智力的一個方面,我們所知道的情商,或同理心。情商能讓我們在解決問題的過程中考慮到他人的感受。但是到目前為止,這方面的進(jìn)展有限。Alexa,盡管她在某些情況下可能是有幫助的,但她不會考慮你的感受,也不會考慮其他人受她行為影響的感受,因為她只會讓你的智能家居順利運(yùn)行。
但是,如果人工智能想要發(fā)揮其作為一種輔助我們的業(yè)務(wù)和日常生活的工具的潛力,所有這些都可能會改變,事實上,這必須改變。最近,專注于情感的人工智能開發(fā)人員affectiva成為少數(shù)幾家被邀請加入人工智能伙伴關(guān)系以造福人民和社會的小企業(yè)之一。組成這一合作伙伴關(guān)系的人工智能“大師”-谷歌、微軟、Facebook等,在阿弗蒂瓦不斷增長的業(yè)務(wù)中所表現(xiàn)出的興趣,無疑表明,人工智能這一被忽視的方面正開始得到應(yīng)有的關(guān)注。
Affectiva的創(chuàng)始人兼首席執(zhí)行官拉娜·埃爾·卡利烏比(Rana El Kaliouby)向我講述了她的公司致力于開發(fā)多模態(tài)情感人工智能的工作。對于情感分析如何幫助機(jī)器理解人類的感受,并相應(yīng)地調(diào)整他們的行為,人們可能已經(jīng)有了越來越多的了解。但是,如果機(jī)器也不能讀懂我們的表情、手勢、言語模式、語調(diào)或肢體語言,那么傳達(dá)我們情緒狀態(tài)的大量有價值的數(shù)據(jù)就會丟失。
有研究表明,如果你微笑、揮手或聳肩,那是你所說的話的意思的55%,而另有38%的意思是你說話的語氣,只有7%是在你說的詞的實際選擇中,所以如果你這樣想的話,在現(xiàn)有的情緒分析市場中,你只掌握了人類交流情感的7%,其余的基本上都消失在了網(wǎng)絡(luò)空間里。在現(xiàn)有的情緒分析市場中,你會看到關(guān)鍵詞,并計算出Twitter上使用的具體單詞,你只掌握了7%的人類交流情感的方式。
Affectiva的情感人工智能技術(shù)已經(jīng)被全球1400家品牌使用,其中包括亞馬遜(Amazon)和凱洛格(Kellogg),其中許多品牌通過要求觀眾在播放視頻時打開相機(jī),來判斷廣告的情感效果。采用深度學(xué)習(xí)算法對人臉圖像進(jìn)行分析,根據(jù)觀看者的感受對其進(jìn)行精確分類。這項技術(shù)的另一個應(yīng)用可能對人工智能汽車,特別是2級和3級自動車輛,在從自動駕駛模式切換到手動駕駛模式之前能夠安全地評估駕駛員的狀況(例如,他們清醒和清醒嗎?)非常重要。
情商是你理解自己和周圍人的方式,對于我們?nèi)绾巫鰶Q定,它和認(rèn)知或理性智力一樣重要。在一個其他人生活的世界里,沒有這種能力的人往往很難有效地開展業(yè)務(wù)。因此,雖然以我們自己的標(biāo)準(zhǔn)來看,機(jī)器確實一直在很大程度上是反社會的,無法理解感情并將其考慮在內(nèi),但這種情況可能會改變。
當(dāng)然,在合作伙伴關(guān)系中占有一席之地,讓阿弗斯蒂瓦有義務(wù)深入評估他們正在開發(fā)的技術(shù)在道德和倫理方面的影響,但艾爾·卡利烏比表示,這一直是她的公司活動的基石。
私隱是一個很大的問題,因為情感顯然是非常個人的數(shù)據(jù),你可以很容易地看出它是如何被濫用來操縱人的,例如,操縱選民。我們一直非常明確地表示,我們的同意程度很高,我們所做的每一件事,人們都必須選擇加入。
該公司甚至不遺余力地避免使用在非自愿情況下獲得的個人數(shù)據(jù),例如在安全或軍事應(yīng)用領(lǐng)域,即使這些領(lǐng)域顯然提供了機(jī)會。偏見是另一個問題,…偏見可能存在于數(shù)據(jù)中,有一些算法不僅可以檢測你的情緒,還可以檢測你的年齡、性別和種族-我們對如何使用這些數(shù)據(jù)非常深思熟慮和謹(jǐn)慎。