摘要:在機(jī)器智能領(lǐng)域,人工智能與智能增強(qiáng)兩大技術(shù)陣營在應(yīng)替代人類還是增強(qiáng)人類上存有理念對(duì)立,并映射于法律。相對(duì)于計(jì)算機(jī)、網(wǎng)絡(luò)等智能增強(qiáng)技術(shù)以人為中心、以增強(qiáng)人類為目標(biāo),人工智能技術(shù)以機(jī)器為中心、以替代人類為目標(biāo),在技術(shù)上具有去人類化的屬性,此系人工智能諸多倫理困境與法律難題的產(chǎn)生根源。人工智能法律規(guī)制應(yīng)當(dāng)堅(jiān)持以人為本,對(duì)人工智能前置性地施加局部替代人類、整體增強(qiáng)人類的價(jià)值負(fù)載,在人工智能不具有主體資格的前提下,圍繞人工智能以機(jī)器為中心的特性進(jìn)行制度設(shè)計(jì),弱化復(fù)雜的倫理困境與責(zé)任認(rèn)定疑難,并保持與既定體系的接洽、交融。人工智能法律研究不應(yīng)局限于法律范疇之內(nèi),在技術(shù)分析之外,還需要結(jié)合哲學(xué)、倫理學(xué)等學(xué)科的研究。
注:因版權(quán)方要求,不能公開全文,如需全文,請(qǐng)咨詢雜志社