人工智能(Artificial intelligence, AI)和機器學習技術(shù)(Machine Learning Technology, ML)可能通過所提供的醫(yī)療保健中產(chǎn)生的大量數(shù)據(jù)獲得新的重要見解,并以此影響醫(yī)療保健行業(yè)的發(fā)展。醫(yī)療機構(gòu)正在將這些技術(shù)更多地應用于臨床、管理和科學研究等領(lǐng)域。這些應用為改善醫(yī)療保健環(huán)境和治療患者提供了獨特的機會,但也帶來了潛在的隱患與挑戰(zhàn)——例如,人工智能產(chǎn)品提供的治療建議有時不盡準確,這可能源于構(gòu)建或訓練人工智能的信息中存在的未預想到的來源偏差,也可能是由對工具所分析的某些數(shù)據(jù)點給予了不適當?shù)臋?quán)重所導致。美國食品和藥物管理局(U.S. Food and Drug Administration, FDA)隸屬于美國國務院保健與服務部的公共健康服務署,負責美國所有有關(guān)食品、藥品、化妝品及輻射性儀器等產(chǎn)品的管理。自2019年4月起,F(xiàn)DA對于部分用于醫(yī)療保健的人工智能產(chǎn)品加以監(jiān)管,以確保這些產(chǎn)品在其監(jiān)管范圍內(nèi)的有效性與安全性。本文將對FDA在對于人工智能產(chǎn)品在醫(yī)療健康領(lǐng)域的監(jiān)管規(guī)則進行綜述,并概述該監(jiān)管規(guī)則的監(jiān)管場景、局限性、風險與挑戰(zhàn)。
FDA監(jiān)管規(guī)則的適用場景 FDA對基于人工智能的醫(yī)療產(chǎn)品進行監(jiān)管,目的是確保其安全、有效。這一監(jiān)管規(guī)則的主要標準是軟件的預期用途以及其發(fā)生偏差時對患者造成風險的可能性。FDA將用于治療、診斷、治愈、減輕或預防疾病的軟件歸為醫(yī)療設(shè)備,大多數(shù)基于AI或ML運作的醫(yī)療設(shè)備則被歸類為“作為一種醫(yī)療器械的軟件”(Software as a Medical Device, SaMD),它們旨在用于一種或多種醫(yī)療目的,并在不屬于醫(yī)療設(shè)備硬件的情況下獨立實現(xiàn)這些醫(yī)療目的,具有一定獨立性。典型的SaMD包括通過分析核磁共振成像圖像來幫助檢測和診斷中風的軟件、通過處理圖像來幫助檢測乳腺癌的計算機輔助檢測(Computer-Aided Detection, CAD)軟件等。 同醫(yī)療設(shè)備一樣,由AI或ML驅(qū)動的軟件都需要根據(jù)其風險性高低接受FDA不同程度的審查。一旦設(shè)備上市,F(xiàn)DA就會以此確定是否需要對開發(fā)人員所做的任何更改進行上市前的審查。一般而言,每當制造商對軟件進行重大更新或進行其他會對設(shè)備性能產(chǎn)生重大影響的更改時,設(shè)備可能會受到FDA的額外審查。這一評估過程因設(shè)備的風險分類和所更改性質(zhì)的不同而有所差異。需要注意的是,并非所有與健康相關(guān)的軟件都屬于“醫(yī)療設(shè)備”。美國國會在2016年的《21世紀治愈法案》(the 21st Century Cures Act of 2016)中將五類特定的健康軟件排除于醫(yī)療設(shè)備的范圍之外,如旨在為醫(yī)療機構(gòu)提供行政支持的軟件、旨在維持或鼓勵健康的生活方式而與疾病診斷無關(guān)的軟件、旨在記錄患者信息的軟件等等。這些軟件因不屬于“醫(yī)療設(shè)備”的范疇,而無需接受FDA的審查。
FDA的監(jiān)管進展 (一)2019年4月,F(xiàn)DA發(fā)布初步討論文件(Initial Discussion Paper) 此前,F(xiàn)DA通常在上市前審查醫(yī)療設(shè)備,常見的審查方式如上市前清關(guān)、上市前許可、申請重新分類(De Novo classification)等。對于醫(yī)療設(shè)備(包括作為醫(yī)療設(shè)備的軟件)的修改,F(xiàn)DA還可以根據(jù)該修改的重要性以及對患者的風險性高低對其進行審查與批準。但是,這些傳統(tǒng)的監(jiān)管方式并不是為AI或ML技術(shù)設(shè)計的。據(jù)FDA預計,許多由AI或ML驅(qū)動的SaMD的修改可能也需要進行上市前審查。 2019年4月2日,F(xiàn)DA發(fā)布了一份《人工智能醫(yī)療器械軟件變更監(jiān)管框架提議(討論稿)》(Discussion Paper: Proposed Regulatory Framework for Modification to Artificial Intelligence/Machine Learning (AI/ML)-Based Software as a Medical Device, SaMD)(以下簡稱“討論文件”)。該討論文件描述了FDA對人工智能與機器學習驅(qū)動的軟件修改進行上市前審查的潛在方法的現(xiàn)有基礎(chǔ)。同時,該討論文件基于國際統(tǒng)一的國際醫(yī)療器械監(jiān)管機構(gòu)論壇(International Medical Device Regulators Forum, IMDRF)的風險分類原則、FDA的效益-風險框架、軟件修改指南中的風險管理原則,以及數(shù)字醫(yī)療軟件預認證(Digital Health Software Precertification, Pre-Cert)計劃中設(shè)想的基于組織的TPLC方法(total product lifecycle regulatory approach),提出了基于AI或ML的SaMD的修改框架。 作為該擬議框架的一部分,F(xiàn)DA描述了設(shè)備上市前的“預定變更控制計劃”(Predetermined Change Control Plan, PCCP)。該計劃將包括預期修改的類型,即預先性能說明(SaMD Pre-Specifications, SPS)以及以受控的方式實施這些修改、致力于管理患者風險的相關(guān)方法,即算法變更協(xié)議(Algorithm Change Protocol, APC)。在這種框架下,F(xiàn)DA表達了對軟件制造者透明度和實際性能監(jiān)控的期望,這將使FDA和制造商能夠評估和監(jiān)控軟件產(chǎn)品從上市前開發(fā)到上市后的性能。這一擬議框架接受了基于AI或ML的SaMD的迭代改進,將同時使FDA能夠合理保證產(chǎn)品的安全性和有效性。但是這一框架可能需要取得額外的法定授權(quán)才能全面實施。 圖1 FDA的TPLC方法對AI/ML工作流程的覆蓋 為了充分實現(xiàn)AI或ML學習算法的強大功能,同時持續(xù)改進其性能并限制退化,F(xiàn)DA提出的TPLC方法以平衡收益和風險的四項原則為基礎(chǔ):第一,期望建立良好機器學習質(zhì)量管理規(guī)范(Good Machine Learning Practice, GMLP);第二,對需要上市前提交的SaMD進行上市前審查,并希望基于AI或ML的SaMD制造者在整個產(chǎn)品生命周期中持續(xù)管控患者的風險;第三,希望該類產(chǎn)品制造者監(jiān)控醫(yī)療設(shè)備,并開發(fā)、驗證、執(zhí)行算法修改時采用風險管理方法以及指南中的其他方法;第四,利用上市后真實性能報告,提高對用戶和FDA的透明度,以持續(xù)保證設(shè)備的安全性和有效性。 需要注意的是,該文件中的建議框架僅供討論之用,并非指南草案。此外,該文件無意傳達FDA建議的(或最終實行的)監(jiān)管預期,而是為了在制定指導草案之前,廣泛征求政府以外的團體和個人的意見。 (二)2021年1月,F(xiàn)DA發(fā)布行動計劃(Action Plan) 自討論文件發(fā)布后,文件中描述的基于AI或ML的SaMD使用預定變更控制計劃(Predetermined Change Control Plan, PCCP)得到了社會的廣泛關(guān)注。2020年2月7日,F(xiàn)DA宣布,首款使用人工智能指導用戶的心臟超聲軟件通過De Novo途徑獲得了上市許可。這一設(shè)備的突破性、新穎性不僅體現(xiàn)于其極具開拓性的新功能,還在于制造者將PCCP計劃納入了該設(shè)備的未來修改之中。 考慮到監(jiān)管基于AI/ML的SaMD能夠促進公共衛(wèi)生領(lǐng)域的創(chuàng)新與發(fā)展,為了回應社會各界利益相關(guān)者對討論文件的反饋意見,F(xiàn)DA于2021年1月發(fā)布了《基于人工智能/機器學習的軟件作為醫(yī)療器械行動計劃》(AI/ML-Based Software as a Medical Device Action Plan,Action Plan)(以下簡稱“行動計劃”)。值得注意的是,“作為一種醫(yī)療器械的軟件”(SaMD)指的是具備足夠獨立性、能夠在不屬于醫(yī)療設(shè)備硬件的情況下獨立實現(xiàn)醫(yī)療目的的軟件;而倘若軟件獨立性較低、僅成為醫(yī)療器械硬件中的組成部分,則只能被稱為“醫(yī)療器械中的軟件”(Software in a Medical Device, SiMD)。盡管該行動計劃以SaMD為重點,但其中一些工作也可能涉及到對SiMD的監(jiān)管。 該行動計劃在總結(jié)、回應利益相關(guān)者的反饋的同時,確定了以下五項具體行動: 第一,為基于AI或ML的SaMD制定新的監(jiān)管框架。討論文件發(fā)布后,F(xiàn)DA收到了利益相關(guān)者關(guān)于SPS、ACP以及PCCP計劃“重點審查”的內(nèi)容、過程、時限的問題與建議,F(xiàn)DA致力于在制定討論文件中提議的框架方面取得進一步進展。對于引起社會廣泛關(guān)注的PCCP計劃,F(xiàn)DA后續(xù)于2021年發(fā)布了一份指南草案,即后文中的《人工智能/機器學習支持設(shè)備軟件功能的預定變更控制計劃的營銷提交建議的指南草案》,以征詢該領(lǐng)域的社會公眾意見。 第二,鼓勵協(xié)調(diào)GMLP。利益相關(guān)者大力支持GMLP的理念,并要求FDA鼓勵協(xié)調(diào)制定GMLP的眾多努力,包括通過協(xié)商一致的標準努力、利用現(xiàn)有的工作流程以及讓關(guān)注AI、ML的其他公眾共同協(xié)作。FDA一直積極進行并將不斷致力于深化在各個社區(qū)的這些工作,以鼓勵達成有利于AI或ML技術(shù)開發(fā)與監(jiān)督的共識。為了履行FDA對醫(yī)療器械網(wǎng)絡安全采取有力措施的長期承諾,這些GMLP工作將與該局的醫(yī)療器械網(wǎng)絡安全計劃密切合作。 第三,舉行公開研討會,討論設(shè)備標簽如何為用戶提供透明度,增強用戶對基于AI/ML的SaMD的信任。2020年10月,F(xiàn)DA的患者參與咨詢委員會(Patient Engagement Advisory Committee, PEAC)召開會議,以了解患者視角下影響他們對這些技術(shù)的信任的因素。在對本次會議收集的意見進行整理的同時,F(xiàn)DA通過舉辦公開研討會的形式,分享了經(jīng)驗教訓,并征求了更廣泛群體的意見,以更好地了解設(shè)備標簽如何提高對用戶的透明度。 第四,支持監(jiān)管科學開發(fā)評估和改進機器學習算法的方法的努力,包括識別和消除歧視,以及評估并提高算法的穩(wěn)健性。醫(yī)療保健服務會因患者的種族、民族和社會經(jīng)濟地位等因素而有所不同,而醫(yī)療保健系統(tǒng)中存在的偏見可能會無意中引入算法中。FDA認識到,醫(yī)療設(shè)備必須適用于不同種族和民族的目標患者群體,并且識別和改進ML算法的方法亟需改進——這包括識別并消除偏見的方法,以及提高算法的穩(wěn)健性與彈性,以承受不斷變化的臨床輸入和條件。 第五,與正在為基于AI或ML的SaMD試行“真實世界性能”(Real-World Performance, RWP)流程的利益相關(guān)者合作。利益相關(guān)者對討論文件中提出的“收集SaMD實際使用的性能數(shù)據(jù)”的方法提出了許多疑問,包括:在測試軟件設(shè)備的性能時,適合使用什么類型的參考數(shù)據(jù)?利益相關(guān)者應當進行何種程度的監(jiān)督?每個利益相關(guān)者應該進行多少監(jiān)督?向FDA提供數(shù)據(jù)的數(shù)量及頻率分別是怎樣的?如何將最終用戶的反饋納入基于AI/ML的SaMD的培訓和評估中?諸如此類的疑問無一不在表明該領(lǐng)域亟需修正并明確方向。FDA將通過與利益攸關(guān)方在自愿基礎(chǔ)上合作,共同支持監(jiān)測實際業(yè)績的嘗試。這項工作旨在幫助FDA開發(fā)一個可用于在現(xiàn)實世界中收集并驗證基于AI或ML的SaMD的相關(guān)RWP參數(shù)與指標的框架。 (三)2023年4月,F(xiàn)DA發(fā)布指南草案(Draft Guidance) 2023年4月3日,F(xiàn)DA發(fā)布于了《人工智能/機器學習支持設(shè)備軟件功能的預定變更控制計劃的營銷提交建議的指南草案(Marketing Submission Recommendations for a Predetermined Change Control Plan for Artificial Intelligence/Machine Learning (AI/ML)-Enabled Device Software Functions, Draft Guidance)(以下簡稱“指南草案”)》。該指南草案提出了一種通過修改機器學習設(shè)備軟件功能(machine learning device software function, ML-DSF)以支持迭代更新的方法,并繼續(xù)為設(shè)備的安全性、有效性提供合理的保證。截至今年7月3日,F(xiàn)DA接受社會各界對指南草案的評價。 指南草案適用于制造者打算長期修改的ML-DSF,無論這種修改是自動或手動。指南草案中的PCCP計劃共有三個要素:修改說明、修改協(xié)議、影響評估。除了在PCCP計劃中已預先計劃的修改之外,其他修改都需要在上市前獲得批準、重新提交或在上市前重新通知。 1. 修改說明 PCCP必須包含對計劃內(nèi)的設(shè)備修改的詳細、具體描述,包括對單個設(shè)備修改的羅列清單、ML-DSF各部分修改的理由、與每次修改有關(guān)的參考變更的標簽。FDA建議PCCP中的特定修改是可驗證和可確認的,這些修改應足夠詳細以能夠被理解。同時,修改說明應清楚表明計劃的修改是自動還是手動實施。并非一切修改都適合被包含在PCCP中,PCCP中的修改類型包括與ML-DSF的性能規(guī)格的定量測量有關(guān)的修改、與ML-DSF的設(shè)備輸入有關(guān)的修改,以及與設(shè)備的使用和性能相關(guān)的特定有限修改。 2. 修改協(xié)議 修改協(xié)議描述了用于開發(fā)、驗證和實施這些修改的方法,包括數(shù)據(jù)管理實踐、再培訓實踐、性能評估、更新程序四個要素。每個要素都應滿足對應的要求,以保證設(shè)備具有長期的安全性、有效性。修改說明中提出的修改應能夠在設(shè)備的現(xiàn)有質(zhì)量體系中進行驗證和驗證,PCCP中可接受的修改包括與ML-DSF性能規(guī)范的定量測量、設(shè)備輸入有關(guān)的修改,以及部分與設(shè)備的使用和性能相關(guān)的特定的修改。 3. 修改評估 指南草案中的“影響評估”,是對實施PCCP所帶來的益處和風險進行評估的文件。影響評估注意考慮到以下五個要素:第一,將修改前后的設(shè)備進行比較;第二,對每項修改進行效益與風險的評估,包括社會危害風險;第三,討論修改中建議的活動如何繼續(xù)合理地確保設(shè)備的安全性和有效性;第四,一項修改對另一項修改的影響;第五,實施所有修改的總體影響。上市申請中的影響評估文件應不僅討論PCCP中包含的個別修改如何影響ML-DSF,還會討論如何影響其他設(shè)備軟件功能以及設(shè)備硬件的整體功能。 FDA監(jiān)管規(guī)則的局限性與不足之處 隨著人工智能產(chǎn)品在醫(yī)療保健領(lǐng)域的使用激增,F(xiàn)DA和其他利益相關(guān)者需要針對證明此類產(chǎn)品的安全性和有效性所需的臨床證據(jù),以及產(chǎn)品標簽明確其性能和通用性的限制程度,制定明確的指南。FDA的行動計劃與指南草案標志著該機構(gòu)監(jiān)管規(guī)則的進步,但以下問題仍未被闡明:如何界定某一類產(chǎn)品是否受FDA監(jiān)管,何時需要上市審查,GMLP在制定時與現(xiàn)有的設(shè)備質(zhì)量法規(guī)體系的交叉之處,以及如何向最終用戶告知軟件更新以及更新對性能的潛在影響等。 FDA于2023年6月14日發(fā)布《最終指南:器械軟件功能上市前提交內(nèi)容》(Content of Premarket Submissions for Device Software Functions),旨在為FDA評估器械軟件功能的安全性和有效性提供有關(guān)上市前提交推薦文件的信息,其中包括部分使用通過機器學習方法訓練的機器學習模型的軟件設(shè)備功能。由于部分產(chǎn)品(尤其是不受FDA授權(quán)的人工智能軟件)不屬于“醫(yī)療設(shè)備”的范疇,可能需要其他的監(jiān)督機構(gòu)加以監(jiān)管。此外,為了充分發(fā)揮AI之于醫(yī)療健康領(lǐng)域的潛在價值,以及最大限度地確?;颊叩陌踩?,F(xiàn)DA可能需要與醫(yī)療認證機構(gòu)、私營技術(shù)公司等各種利益相關(guān)者建立伙伴關(guān)系,并可能需要得到國會的額外授權(quán),才能夠真正將預認證試點等政策提議實際實施。 人工智能在醫(yī)學領(lǐng)域應用尚存的風險與挑戰(zhàn) 隨著人工智能技術(shù)的不斷成熟,F(xiàn)DA的監(jiān)管規(guī)則對于人工智能在醫(yī)療健康領(lǐng)域的應用作出了可觀的努力。但盡管如此,人工智能在數(shù)據(jù)、算法、計算和應用各個環(huán)節(jié)中的風險與挑戰(zhàn)仍然不容忽視。其中,較為顯著的風險包括數(shù)據(jù)準確度欠佳、數(shù)據(jù)完整度不足以及個人隱私數(shù)據(jù)保護問題、算法歧視問題等,人工智能在醫(yī)學領(lǐng)域落地亟需解決此類問題。 (一)數(shù)據(jù)準確度、完整度問題 人工智能產(chǎn)品需要在大型、多樣化的數(shù)據(jù)基礎(chǔ)上進行訓練,以便在各種人群中推廣使用,并確保它們的準確性與可靠性。然而,目前數(shù)據(jù)基礎(chǔ)在其質(zhì)量、獲取方式、完整度上均存在缺陷,未能良好地服務于人工智能發(fā)展。一方面,根據(jù)美國加州大學舊金山醫(yī)療中心電子病案系統(tǒng)的數(shù)據(jù)分析,大量以文本形式錄入的數(shù)據(jù)存在復制、粘貼他人醫(yī)療記錄的嫌疑,其準確度受到質(zhì)疑。信息的失效、偏差、錯誤與冗余,最終可能造成嚴重的誤診。另一方面,由于美國各州醫(yī)療保健系統(tǒng)的碎片化,患者繁多,存在大量未錄入、未在系統(tǒng)中聯(lián)通的健康記錄,缺乏合理的數(shù)據(jù)共享與數(shù)據(jù)流通的機制,組裝完整數(shù)據(jù)集的成本總體上非常高昂。這可能會增加由于數(shù)據(jù)集不完整或來自多個來源的數(shù)據(jù)不當合并而造成的錯誤可能性。 (二)個人隱私數(shù)據(jù)保護問題 為人工智能產(chǎn)品的運行收集足夠多的患者數(shù)據(jù),可能會引發(fā)有關(guān)數(shù)據(jù)隱私和個人健康數(shù)據(jù)所有權(quán)的復雜問題。一些衛(wèi)生系統(tǒng)正在與科技公司和數(shù)字初創(chuàng)公司共享患者數(shù)據(jù),以研發(fā)人工智能項目,患者對此可能并不知情。有關(guān)患者是否應該同意共享他們的數(shù)據(jù),以及他們是否應該對公司等外部實體使用他們的個人數(shù)據(jù)所開發(fā)的產(chǎn)品享有利潤等問題,目前仍存在廣泛爭議。 (三)算法歧視問題 數(shù)據(jù)收集方面的挑戰(zhàn)和醫(yī)療衛(wèi)生系統(tǒng)內(nèi)部的不平等導致人工智能項目存在歧視,這會影響到產(chǎn)品的安全性和有效性,并進而導致以少數(shù)群體為代表的許多人群無法得到適當、充分的治療。倘若在某類人群中很少或幾乎沒有進行基因研究,那么旨在根據(jù)基因預測結(jié)果的算法就會產(chǎn)生偏差。例如,弗雷明漢心臟研究(Framingham Heart Study)的數(shù)據(jù)主要源于白人患者,試圖使用上述數(shù)據(jù)來預測非白人種群和族裔人群心血管疾病風險的做法會導致偏見性結(jié)果。另外,人工智能在分析醫(yī)療保險投保人的個人特征時也存在產(chǎn)生“歧視”傾向,對于某些特殊疾病患者或具有疾病高風險因素的患者可能收取更高的費用。由此,算法歧視帶來的法律、倫理挑戰(zhàn)仍然普遍存在,不容忽視。 結(jié)語 隨著醫(yī)療診療方法和技術(shù)不斷更新,醫(yī)療人工智能的應用日益廣泛,對其進行監(jiān)管以實現(xiàn)良性發(fā)展是時勢所趨。FDA對醫(yī)療人工智能的監(jiān)管規(guī)則旨在確保人工智能驅(qū)動的醫(yī)療產(chǎn)品使用時的安全性和有效性,標志著政府部門對該領(lǐng)域風險的關(guān)注與重視,是該行業(yè)發(fā)展的一大進步。從2019年發(fā)展至2023年間,F(xiàn)DA的監(jiān)管規(guī)則由一份初步討論文件,逐漸發(fā)展為行動計劃,目前已形成一份指南草案。然而,需要承認的是,目前的監(jiān)管規(guī)則尚不夠成熟,仍有一些實際性問題需要進一步闡明。對于FDA的監(jiān)管范疇、如何與現(xiàn)有設(shè)備質(zhì)量體系配合等具體問題,還亟需更多的研究和討論。 面對人工智能在醫(yī)學領(lǐng)域應用的風險與挑戰(zhàn),人類應當如何進行監(jiān)管與保護,以使醫(yī)療產(chǎn)品安全有效、實現(xiàn)良性的應用與發(fā)展?盡管FDA的監(jiān)管框架尚未正式實施,但它提供了重要的指導方針,為醫(yī)療人工智能的監(jiān)管提供了一份可行的方案。隨著監(jiān)管框架不斷完善、監(jiān)管措施不斷健全,人工智能必將更好地服務于醫(yī)療行業(yè),維護人類健康。 [1] Daniel, G., Silcox, C., Sharma, I. and Wright, M., 2019. Current state and near-term priorities for AI-Enabled diagnostic support software in health care. Duke Margolis Center for Health Policy. [2] Char, D.S., Shah, N.H. and Magnus, D., 2018. Implementing machine learning in health care—addressing ethical challenges. The New England journal of medicine. [3] Food and Drug Administration, 2019. Proposed regulatory framework for modifications to artificial intelligence/machine learning (AI/ML)-based software as a medical device (SaMD). [4] Food and Drug Administration, 2021. Artificial Intelligence/Machine Learning (AI/ML)-Based Software as a Medical Device (SaMD) Action Plan. [5] https://www.fda.gov/regulatory-information/search-fda-guidance-documents/marketing-submission-recommendations-predetermined-change-control-plan-artificial [6] https://www.pewtrusts.org/en/research-and-analysis/issue-briefs/2021/08/how-fda-regulates-artificial-intelligence-in-medical-products [7] FDA, Deciding When to Submit a 510(k) for a Change to an Existing Device[EB/OL], https//www.fda.gov/regulatory-information/search-fda-guidance-documents/deciding-when-submit-510k-change-existing-device. [8] https://mofotech.mofo.com/topics/fda-publishes-draft-guidance-predetermined-change-control-plan-for-ai-ml-enabled-device-software-functions [9] U.S. Government Accountability Office and National Academy of Medicine, “Artificial Intelligence in Health Care: Benefits and Challenges of Machine Learning in Drug Development” (2019), www.gao.gov/assets/gao-20-215sp.pdf. [10] Food and Drug Administration, 2023. Content of Premarket Submissions for Device Software Functions.
智慧醫(yī)療網(wǎng) ? 2022 版權(quán)所有 ICP備案號:滬ICP備17004559號-5