智能法理學習通超星期末考試答案章節(jié)答案2024年_第1頁
智能法理學習通超星期末考試答案章節(jié)答案2024年_第2頁
智能法理學習通超星期末考試答案章節(jié)答案2024年_第3頁
智能法理學習通超星期末考試答案章節(jié)答案2024年_第4頁
智能法理學習通超星期末考試答案章節(jié)答案2024年_第5頁
免費預覽已結(jié)束,剩余7頁可下載查看

付費下載

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

智能法理學習通超星期末考試章節(jié)答案2024年激勵人工智能生成物是現(xiàn)實問題,以下選項不正確的是()。

答案:人工智能生成物可以不受到保護機器創(chuàng)造的知識產(chǎn)權(quán)歸誰有利于激勵()。

答案:歸屬編程者或者擁有者以現(xiàn)有法律為認定標準,人工智能不具有(),其生成物()作品。

答案:法律主體資格;不構(gòu)成目前AI生成的內(nèi)容大多是基于深度學習,再對特定數(shù)據(jù)進行計算,推演和重新排列組合所得,對此,()屬于事實描述。

答案:AI生成物創(chuàng)造力可復制是機器人與人最大的區(qū)別所在。

答案:對()和可重復性是機器最明顯的特征。

答案:可預見性知識產(chǎn)權(quán)的核心是(),機器人擁有這個產(chǎn)權(quán)就是擁有了知識產(chǎn)權(quán)。

答案:財產(chǎn)科技是第一生產(chǎn)力,科技和文化創(chuàng)造力已經(jīng)成為國家的核心競爭力。

答案:對知識產(chǎn)權(quán)表達的是對創(chuàng)造本身的尊重,人類智力勞動和體力勞動一樣,是不可侵犯的。

答案:對知識產(chǎn)權(quán)在現(xiàn)代社會中的重大意義,根本上來源于智力創(chuàng)造的()。

答案:重要性;盈利性;個體性;稀缺性長遠來看,隨著機器人自行獲得知識和運用知識的能力越來越強,不同性質(zhì)和水平的創(chuàng)造成功也將越來越多,知識產(chǎn)權(quán)歸誰的問題是繞不過去的。

答案:對從實際情況來看,機器人可以通過模仿人類作品進行創(chuàng)作。

答案:對從潛力來看,能()的機器人,發(fā)現(xiàn)新知識是遲早的事。

答案:自我學習;自我發(fā)現(xiàn);自我迭代機器人獲得知識產(chǎn)權(quán)是完全異想天開的問題。

答案:錯知識產(chǎn)權(quán)是一個同智力勞動和經(jīng)濟利益相關(guān)的概念,在有的地方又被稱為“智慧財產(chǎn)權(quán)”。

答案:對()是人類歷史上第一部100%由人工智能創(chuàng)造的詩集。

答案:《陽光失了玻璃窗》人工智能有了學習的功能,可以像人類那樣具備經(jīng)驗。

答案:對根據(jù)自由裁量權(quán)的相關(guān)知識,()就是法官自由裁量的過程。

答案:司法活動下面選項中不屬于法律主體的歷史演變中“法律”的特點的是()。

答案:現(xiàn)實的人工智能發(fā)展的第二階段是具備()功能。

答案:學習河北法院推行的司法審判人工智能應用時“智審1.0系統(tǒng)”。

答案:對下面選項中屬于江蘇法院的司法審判人工智能應用的是()。

答案:云上法院2016年7月底,中共中央辦公廳、國務院辦公廳印發(fā)《國家信息化發(fā)展戰(zhàn)略綱要》,明確提出將()的建設列入國家信息化發(fā)展戰(zhàn)略。

答案:智慧法院機器人參與司法的層次越高,司法人員的作用越弱,所承擔的責任也越小。

答案:對在司法緩解引入機器人后,因為無法事先或事中審查復核機器人的決策,一旦出錯,接踵而來的只能是彌補損失,追究責任。

答案:對下面選項中屬于責任追究的前提條件的是()。

答案:行為者知道或應該知道行為的結(jié)果,卻放任行為的發(fā)生。;行為者有能力或條件控制行為結(jié)果,卻聽任行為失控,導致不良后果。依法司法要求獨立審判,并遵守()原則。

答案:誰審判,誰裁判;誰裁判,誰負責如果人類無法解釋機器人的思考機理,就無法有效實施對機器人思考過程的管理。

答案:對如果利用機器搜索,以人類的能力,判斷判決是否合法,能夠做到,但不能核查那么多數(shù)據(jù)或者判決。

答案:對如果()一樣,用一臺機器跟用一百臺機器將得到一樣的結(jié)果。

答案:算料;算法;算理;算力至今為止,人工智能依賴于(),機器人的判決意見都以此為依托。

答案:大數(shù)據(jù)人類一直采取()的方式,來避免重大事項上犯低級錯誤。

答案:雙保險相比人類,機器人對法條的掌握更加詳細和完整。

答案:對機器人不擅長分類,無法在看似相同的案例中區(qū)分出更多類型。

答案:錯機器人參與司法時如何提高司法質(zhì)量()。

答案:相比人類,機器人對法條的掌握更加詳細和完整。;機器人更熟悉既往的判例,判例可以在法庭上被援引。;機器人擅長分類,可以在看似相同的案例中區(qū)分更多類型。;發(fā)現(xiàn)法官個人在不同案子審判中留下的自由心證軌跡。在()的前提下,任何提高司法效率,依靠已有的司法資源,滿足更多社會需求的嘗試,都是受歡迎的。

答案:公正由于人類生活具有()的特點,僅以復雜性而論,大量案子相似度很高。

答案:重復性司法需要消耗資源,在法治原則下,司法審判的社會需求越來越大,司法資源的增加遠遠跟不上需求的增長。

答案:對只要符合一定的形式條件,陳述和相應的證據(jù)就可以成為法官采信的事實。

答案:對只要不是在被脅迫或誘騙情況下簽訂的合同,就被視為“真實意思的表達”。

答案:對法律事實是一個形式范疇,問題是證據(jù)本身是否需要被證明為事實。

答案:對下面選項中關(guān)于司法固有特點描述正確的是()。

答案:法律事實是一個形式范疇;法治要求“以事實為依據(jù)”;法律本身也屬于形式范疇;法治要求“以法律為準繩”下面選項中關(guān)于法律事實是一個形式范疇的描述正確的是()。

答案:問題是證據(jù)本身是否需要被證明為事實。;未經(jīng)證明的證據(jù)證明不了事實;證據(jù)也需要證明;排除虛假證據(jù)從來就是法庭審判的關(guān)鍵環(huán)節(jié)法律的基本特征之一是(),不是日常生活中“走個形式”的意思。

答案:形式化在思考人工智能技術(shù)運用于司法時可能帶來的問題,不需要回到人與機器在智能上的角力這一問題。

答案:錯在司法環(huán)節(jié)中,人機融合已成為潮流,人工智能技術(shù)的運用范圍不斷擴大,機器人超越人類的()能力。

答案:記憶;搜索;比對;分類越來越深入到司法的核心區(qū)域,從()方面,人工智能在法庭裁決中的重要性與日俱增。

答案:法律適用;案例援引;判決比較;自由心證杰里米·邊沁是英國法理學家、哲學家、經(jīng)濟學家和社會改革者。

答案:對下面選項中屬于墨迪《人類中心主義:一種現(xiàn)代觀》中的人類中心主義觀念的是()。

答案:人類評價自身的利益高于其他非人類,是自然而然的事情。;人具有特殊的文化、知識積累和創(chuàng)造能力,能認識到對自然的間接責任。;完善人類中心主義,有必要揭示非人類生物的內(nèi)在價值。;信仰人類的潛力。下面選項中關(guān)于人類中心主義的觀點,描述正確的是()。

答案:只有擁有意識的人類才是主體;自然是客體;價值評價的尺度必須始終掌握在人類手中;“價值”都是指“對于人的意義”。人類中心主義認為法律制度的核心是()。

答案:人人類中心主義指的是在人與自然的倫理關(guān)系中,應該貫徹()的目的,一切以滿足人類生存和發(fā)展需要為前提。

答案:人是目的SWARMAI成功預測了12項2017奧斯卡獎,準確率達到()。

答案:0.75無論就機器人至今為止的發(fā)展,還是人類根深蒂固的自我中心主義來看,機器人立法基于人類福祉的可能性更大。

答案:對機器人參與平權(quán)立法的根本問題,在于()。

答案:技術(shù)如果機器人立法也是從事實出發(fā),那就意味著必須等到機器人有了自由意志,能夠獨立承擔法律責任之時,機器人立法才應該擺上議事日程。

答案:對允許機器人參加有關(guān)他們是否應該獲得平等權(quán)利的票決說明已經(jīng)不需要立法,立法的平權(quán)目的已經(jīng)達成。

答案:對立法既需要考慮機器人因為技術(shù)原因發(fā)生意外時,全產(chǎn)業(yè)鏈甚至政府分擔責任的情形,也需要考慮比如機器人大量使用導致失業(yè)人數(shù)劇增的情形。

答案:對機器人的權(quán)利和責任最后都要落實為法律,才能真正產(chǎn)生效果。

答案:對立法是確保人工智能技術(shù)健康發(fā)展的必然要求。

答案:對建立在人工智能技術(shù)基礎上的機器人,之所以需要通過法律來確定權(quán)利和責任,根本上是因為機器人具有自主性,可能引發(fā)一系列社會后果。

答案:對無論是宏觀還是微觀的立法,在這個階段都屬于前瞻性立法。

答案:對宏觀層面的機器人立法的調(diào)節(jié)對象是()。

答案:進行人工智能開發(fā)的人員;進行人工智能應用的人員;進行人工智能開發(fā)的機構(gòu);進行人工智能應用的機構(gòu)下面選項中屬于法律責任的是()。

答案:違法義務;自己責任;過錯;無過錯下面選項中屬于生產(chǎn)者發(fā)展風險抗辯的內(nèi)容的是()。

答案:科技水平;判斷時點;適用范圍下面選項中屬于機動車交通事故責任中的地動駕駛生產(chǎn)者的地位轉(zhuǎn)變及其責任的是()。

答案:生產(chǎn)者轉(zhuǎn)變?yōu)轳{駛?cè)?擬制下面選項中屬于自動駕駛汽車的三個組成部分的是()。

答案:感知單元;決策單元;控制單元如果不與高階原則抵觸,機器人必須保護上級機器人和自己之存在。

答案:對下面選項中屬于機器人七條原則的內(nèi)容的是()。

答案:機器人不得實施行為,除非該行為符合機器人原則。;機器人不得傷害人類整體,或者因不作為致使人類整體受到傷害。;除非違反高階原則,機器人不得傷害人類個體,或者因為不作為致使人類個體受到傷害。;機器人必須服從人類的命令,除非該命令與高階原則相抵觸。機器人必須服從上級機器人的命令,除非該命令與高階原則相抵觸。下面選項中屬于儒勒·凡爾納的代表作品的是()。

答案:《格蘭特船長的兒女》;《氣球上的五星期》;《海底兩萬里》;《神秘島》美國著名科幻小說家、科普作家、文學評論家在()中的引言中提出“機器人學的三大原則”。

答案:《我,機器人》機器人不得實施行為,除非該行為符合機器人原則-指的是機器人原則中的()。

答案:元原則社會生活中也有制度化的渠道保證個人行使和維護權(quán)利,法律本身就是其中之一。

答案:對擁有正常行為能力的人,可以通過主動行為來行使和維護自己的權(quán)利。

答案:對消極的權(quán)利指的是可以通過權(quán)利主體主動行為而得以行使的權(quán)利。

答案:錯下面選項中屬于權(quán)利的基本形式的是()。

答案:積極的權(quán)利;消極的權(quán)利一切弱者相對強者的權(quán)利都可能采取()形式存在。

答案:消極法律的本質(zhì)是(),公平的形式特征是對應。

答案:平衡世界上有智能的生物并非人類一個物種,物種之間在智能上的區(qū)別,許多時候只有量的差異。

答案:對動物倫理既能確定物種的權(quán)利,也能確定個體的權(quán)利。

答案:錯物種的權(quán)利恰恰是以個體權(quán)利的喪失為前提。

答案:對參照以往的經(jīng)驗,可以基于機器人()的事實,來論證機器人應該享有同等權(quán)利。

答案:

對人類的有益性;

具有智能;

對人類的有益性且具有智能()本來就是生態(tài)鏈中除頂級掠食者之外所有其他物種發(fā)揮生態(tài)功能的方式。

答案:犧牲自己動物的倫理地位來自于自己的(),這是保存必要性的前提。

答案:犧牲在奴隸社會中,只有具有()身份的人才被視為人,才能享有主體地位。

答案:貴族;平民在()中,只有具有貴族或平民身份的人才能享有主體地位。

答案:奴隸社會對任何問題都尋求理論論證,人類將無法生存。

答案:對經(jīng)驗的設定可以是確鑿的,也可以是權(quán)宜的。

答案:對“不言自明”的邏輯體系建立在未經(jīng)論證的基礎之上。

答案:對“不言自明”說明人人明白,所以不用論證。

答案:對憲法至上無法律,所以不存在授權(quán)問題,所以憲法本身可以以專斷的方式授權(quán)。

答案:錯無論基于何種理由或依據(jù),真要讓機器人具有公民的地位,在程序上必定遭遇法律溯源問題。

答案:對賦予索菲亞公民權(quán)雖然不當真,這首先不是因為索菲亞或者現(xiàn)在任何一臺機器人都不具有同公民權(quán)相匹配的技術(shù)能力。

答案:對是否賦予索菲亞以公民權(quán),可以由相應法律來決定。但這種從未有過的賦予機器以()的非常規(guī)做法本身依據(jù)什么法律,尚有待確定。

答案:人權(quán)法律是一個邏輯體系,任何一部具體法律所擁有的權(quán)限,必須來自()的授權(quán)。

答案:上位法行動與運動的差別就在于是否具有自愿的意向。

答案:對()進一步區(qū)分認為,作為法律人格的要素應該是法律意志。

答案:龐德有意向性的意識成就了(),而只有它才能賦予行動多樣的可能性。

答案:自由意志機器人不具有自然人所具有的意志能力,主要是通過法律擬制獲取法律人格。

答案:對AlphaGo主動輸棋是因為置入“推枰認輸”的程序和條件,在條件具備時放棄博弈。

答案:對機器人能否同人一樣被視為權(quán)利主體并承擔相應責任的問題,必須從機器人是否具有自由意志開始討論。

答案:對“法律面前人人平等”要求法律真正著眼的是某個人的規(guī)定性。

答案:錯基于人是目的,不是手段的倫理規(guī)定,只有器官所有者才對器官擁有支配權(quán)。

答案:對下面選項中的說法正確的是()。

答案:

法律與生活常理并不一定完全吻合。;

法律捍衛(wèi)的是作為個人生命權(quán)的邏輯起點。下面選項中屬于強人工智能的觀點的是()。

答案:

可能制造出真正能推理和解決問題的智能機器;

可以制造出有知覺的智能機器。;

可以制造出有自我意識的智能機器。對計算機模擬的神經(jīng)網(wǎng)絡中電流通過時到底發(fā)生了什么,機器人如何完成各種運算人類并不清楚。

答案:對機器人所有者可以操控機器人,所以應該讓所有者承擔責任。

答案:錯()可能成為未來人工智能的共同特點,這種狀況的出現(xiàn)既是正常的,又是不正常的。

答案:不具有可解釋性一切人造機器都以能力()為前提,否則人類就沒有必要發(fā)明機器。

答案:

超過人類嚴格意義上來講,索菲亞只是一個沒有意識的軀殼,一個設定精良的玩具。

答案:對索菲亞的“大腦”是編程實現(xiàn)的,所以她無法自發(fā)創(chuàng)建一些基于算法的反應。

答案:錯索菲亞的皮膚與人高度相似,臉上還有毛孔。

答案:對索菲亞誕生于(),被稱為“最像人的機器人”。

答案:

2016.3智能法理是一門在法學視野中,思考人工智能技術(shù)發(fā)展帶來的法律效應及其應對措施的課程。

答案:對法律有其自己的特性,不能順應法律的邏輯,有可能造成立法不成,也有可能造成執(zhí)法不行。

答案:對()力圖在尊重法律內(nèi)在邏輯的基礎上,給人工智能發(fā)展戴上法治的約束,為技術(shù)發(fā)展和人類福祉提供制度性保障。

答案:智能法理()是人類調(diào)整人際關(guān)系的最有效手段,也是規(guī)范人類科學技術(shù)發(fā)展的最后手段。

答案:法律要想避免被科學技術(shù)所反噬,人類必須對科學技術(shù)的發(fā)明和應用進行()。

答案:

合理約束在針對人類競爭的制度環(huán)境下,人工智能技術(shù)發(fā)展存在巨大困難,雖然法律不能解決一切問題,但是沒有法律,局面無法掌控。

答案:對針對人工智能的發(fā)展,以倫理審核來約束科學家,以經(jīng)濟立法來約束資本家,以國際公約來約束國家,是可以想象的選擇。

答案:對至今為止,人類在()管控上表現(xiàn)出來的理智和有效,讓人對人工智能立法抱有信心。

答案:核武器機器越復雜,人類就越不得不調(diào)整自己的行為,改變相互關(guān)系,來適應機器。

答案:對一旦表現(xiàn)為對現(xiàn)行法制的沖撞,機器規(guī)則就可能遭到打擊,指的是二元法制的()關(guān)系。

答案:沖突如果把智能與意志相替換,在某種程度上把法律看作是對智能的限制。那么平行智能就應該出現(xiàn)平行的法制。

答案:對如果說加密幣排斥了央行,那么智能合約相當于排斥了法院。

答案:對人類智能與機器智能并不能平行發(fā)展。

答案:錯法律層面侵犯機器人的定位只有一個,就是機器人本身的定位。

答案:錯社會機器人最大的特點具有()的功能和內(nèi)容,后者為機器人的高級形態(tài)。

答案:物理性;情感性性機器人立法是一個典型的人文與科技并重的個案。

答案:對給性機器人立法需要根據(jù)人工智能的技術(shù)特點和發(fā)展階段,并且兼顧()。

答案:必要性;合理性;可行性;有效性侵犯機器人的界定中,機器人的情感只是人的情感投射在機器人身上而已。

答案:對性侵包括違背意志和性行為兩個要件,其中前者是首要條件。

答案:對對機器人的“人身侵犯”可以有很多種形式,其極端形式是()。

答案:性侵機器人人類對性恐懼有各種來源,以下選項中正確的是()。

答案:生物學恐懼;經(jīng)濟學恐懼;社會學恐懼;倫理學恐懼為爭奪配偶而過度競爭會造成關(guān)系解體,甚至非正常死亡屬于人類對性恐懼的()來源。

答案:社會學人工智能的擬人開發(fā)進程包括以下().

答案:外形像人;機能像人;互動像人;情感像人性機器人的開發(fā)動力在于,追求性滿足是人類最原初的動力之一。

答案:對人工智能在模擬人類的時候是有意無意的模擬,其中不包括()。

答案:心智模擬下面選項中屬于司法規(guī)則制度的是()。

答案:證據(jù)規(guī)則;上訴制度;審判監(jiān)督程序;司法鑒定制度下面選項中屬于機器人辦案的優(yōu)勢的是()。

答案:精通法律;同案同判;鐵面無私;不知疲倦上海刑事案件智能輔助辦案系統(tǒng)結(jié)合的是()等多種技術(shù)。

答案:大數(shù)據(jù);數(shù)據(jù)挖掘;深度學習在人類無法承擔責任的場合,讓機器人來承擔責任單從技術(shù)上說是不可行的。

答案:錯一旦人工智能超越人類智能,在司法領(lǐng)域中,對技術(shù)水平最高的機器,人類無法審核()。

答案:內(nèi)容;依據(jù);過程隨著人工智能技術(shù)的發(fā)展,在()方面,機器人開始承擔需要獨立判斷的任務。

答案:統(tǒng)計;推理;預測;決策在許多場合司法只是簡單重復的作業(yè),簡易審判程序由此而來。

答案:對智人之所以能夠站在食物鏈的頂端,考的就是()的能力。

答案:語言;想象法律主體的歷史演進的第一階段,占據(jù)優(yōu)勢地位的是()。

答案:白人;男性;家長機器人一身二任,既可以視為人類工具,也可能成為獨立的權(quán)利主體,為機器人立法,需要分別進行考慮。

答案:對針對未來機器人技術(shù)的失控,包括()的失控。

答案:宏觀層面;微觀層面從機器人作為權(quán)利主體的地位出發(fā),主張機器人需要承擔責任的,至今為止主要是()。

答案:科幻作家關(guān)于機器權(quán)利和責任的探討,無非是解決機器的權(quán)利歸屬和責任分攤問題,而所有這些問題只和人有關(guān)。

答案:對動物倫理與作為倫理基礎的生

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論