Ⅰ 如何實現工業機器人編程抓取
機器人編程語言詳解
計算機視覺程序員會給出不同於認知機器人的答案。每個人都不同意什麼是「最好的編程語言」,語言首先學習,即使這是最現實的答案,因為它取決於您要開發的應用程序類型以及您正在使用的系統。
機器人十大流行編程語言
世界上有超過1500種編程語言,這是目前機器人技術中十種最流行的編程語言。每種語言對機器人有不同的優勢:
10.BASIC/帕斯卡
BASIC和Pascal,它們是幾種工業機器人語言的基礎,如下所述。BASIC是為初學者設計的(它代表初學者通用符號指令代碼),這使它成為一個非常簡單的語言開始。帕斯卡爾旨在鼓勵良好的編程習慣小號,並介紹構造,如指針,它一個很好的「敲門磚」,從普通版使一個更復雜的語言。這幾天,這兩種語言都有點過時,有利於「日常使用」。但是,如果要進行大量的低級編碼,或者想要熟悉其他工業機器人語言,可以學習它們。
9.工業機器人語言
幾乎每個機器人製造商都開發了自己的專有機器人編程語言。您可以通過學習Pascal熟悉其中的幾個。但是,您每次開始使用新的機器人時,仍然需要學習新的語言。
ABB擁有RAPID編程語言。Kuka有KRL(Kuka Robot Language)。Comau使用PDL2,安川使用INFORM和川崎使用AS。然後,Fanuc機器人使用Karel,Stäubli機器人使用VAL3和Universal Robots使用URScript。
近年來,像ROS Instrial這樣的編程選項開始為程序員提供更多的標准化選項。但是,如果您是技術人員,則您更有可能使用製造商的語言。
8.LISP
LISP是世界上第二大最古老的編程語言(FORTRAN年齡較大,但只有一年)。它不像這個列表上許多其他編程語言那麼廣泛使用;然而,在人工智慧編程中仍然非常重要。ROS的一部分是用LISP編寫的,盡管你不需要知道使用ROS。
7.硬體描述語言(HDL)
硬體描述語言基本上是描述電子設備的編程方式。這些語言對於一些機器人專家來說是相當熟悉的,因為它們用於編程現場可編程門陣列(FPGA)。FPGA允許您開發電子硬體,而無需實際生產硅晶元,這使得它們成為更快更容易的一些開發選擇。
如果你不是電子原型,你可能永遠不會使用HDL。即使如此,重要的是知道它們存在,因為它們與其他編程語言完全不同。一方面,所有操作都是並行執行的,而不是依照基於處理器的語言進行。
6.裝配
大會允許您以「一級和零級」進行編程,這是最低級別(或多或少)的編程,最近大多數低級別的電子設備都需要編程,隨著Arino等的興起微控制器,您現在可以使用C / C ++輕松地在這個級別進行編程,這意味著大部分機器人可能不那麼必要。
5.MATLAB
MATLAB及其開放源碼的親戚,如Octave,是非常受歡迎的一些機器人工程師分析數據和開發控制系統。還有一個非常受歡迎的機器人工具箱用於MATLAB。我知道使用MATLAB開發整個機器人系統的人。如果要分析數據,生成高級圖形或實現控制系統,您可能需要學習MATLAB。
4.C#/.NET
C#是Microsoft提供的專有編程語言。我在這里包括C#/ .NET,主要是因為使用它作為主要語言的Microsoft Robotics Developer Studio。如果你要使用這個系統,你可能要使用C#。但是,首先學習C / C ++可能是長期發展編碼技巧的好選擇。
3.Java的
一些計算機科學學位將Java教學作為他們的第一種編程語言。Java從程序員「隱藏」底層的內存功能,這使得它比C更容易編程,但這也意味著你對代碼實際做的不太了解。如果您從計算機科學的背景(許多人,特別是在研究中)來到機器人,你可能已經學會了Java。像C#和MATLAB一樣,Java是一種解釋語言,這意味著它不會被編譯成機器代碼。相反,Java虛擬機在運行時解釋指令。使用Java的理論是,由於Java虛擬機,您可以在許多不同的機器上使用相同的代碼。在實踐中,這並不總是奏效,有時會導致代碼運行緩慢。然而,Java在機器人的某些部分非常受歡迎,因此你可能需要它。
2.Python的
Python近年來尤其在機器人技術方面出現了巨大的復甦。其中一個原因可能是Python(和C ++)是ROS中發現的兩種主要的編程語言。像Java一樣,它是一種解釋語言。與Java不同,語言的主要重點是易用性。許多人都認為這樣做非常好。
Python節省了許多常規的事情,這些事情在編程中花費時間,例如定義和轉換變數類型。此外,還有大量免費的圖書館,這意味著當您需要實現一些基本功能時,您不必「重新發明」。並且由於它允許使用C / C ++代碼進行簡單的綁定,這意味著代碼的性能很重的部分可以用這些語言來實現,以避免性能下降。
1.C / C ++
最後,我們達到機器人技術的第一編程語言!許多人都同意C和C ++是新機器人的好起點。為什麼?因為很多硬體庫都使用這些語言。它們允許與低級硬體進行交互,允許實時性能和非常成熟的編程語言。這些天,您可能會使用C ++多於C,因為該語言具有更多的功能。C ++基本上是C的擴展。首先學習至少一點C可能是有用的,以便您可以在找到以C編寫的硬體庫時識別它。C / C ++並不像以前那樣簡單,比如Python或者MATLAB。使用C實現相同的功能可能需要相當長的時間,並且需要更多的代碼行。然而,由於機器人非常依賴於實時性能,
機器人的主要特點之一是其通用性,是機器人具有可編程能力是實現這一特點的重要手段。機器人編程必然涉及機器人語言。機器人語言是使用符號來描述機器人動作的方法,它通過對機器人的描述,使機器人按照編程者的意圖進行各種操作。
機器人語言的產生和發展是與機器人技術的發展以及計算機編程語言的發展緊密相關的。編程系統的核心問題是操作運動控制問題。
機器人編程系統以及方法
機器人編程是機器人運動和控制問題的結合點,也是機器人系統最關鍵的問題之一。當前實用的工業機器人常為離線編程或示教,在調試階段可以通過示教控制盒對編譯好的程序一步一步地進行,調試成功後可投入正式運行。
機器人語言操作系統包括3個基本的操作狀態:
監控狀態
編程狀態
執行狀態
監控狀態:用來進行整個系統的監督控制。
編輯狀態:提供操作者編製程序或編輯程序
執行狀態:用來執行機器人程序
把機器人源程序轉換成機器碼,以便機器人控制櫃能直接讀取和執行,編譯後的程序運行速度將大大加快。
根據機器人不同的工作要求,需要不同的編程。編程能力和編程方式有很大的關系,編程方式決定著機器人的適應性和作業能力。隨著計算機在工業上的廣泛應用,工業機器人的計算機編程變得日益重要。
編程語言也是多種多樣的,目前工業機器人的編程方式有以下幾種:
順序控制的編程
在順序控制的機器中,所有的控制都是由機械或者電氣的順序控制來實現,一般沒有程序設計的要求。順序控制的靈活性小,這是因為所有的工作過程都已編輯好,由機械擋塊,或其他確定的辦法所控制。大量的自動機都是在順序控制下操作的,這種方法的主要優點是成本低、易於控制和操作。
示教方式編程
目前,大多數工業機器人都具有採用示教方式來編程的功能。示教方式編程一般可分為手把手示教編程和示教盒示教編程兩種方式:
手把手示教編程:主要用於噴漆、弧焊等要求實現連續軌跡控制的工業機器人示教編程中。具體的方法是利用示教手柄引導末端執行器經過所要求的位置,同時由感測器檢測出工業機器人個關節處的坐標值,並由控制系統記錄、存儲下這些數據信息。實際工作中,工業機器人的控制系統會重復再現示教過的軌跡和操作技能。
手把手示教編程也能實現點位控制,與CP控制不同的是它只記錄個軌跡程序移動的兩端點位置,軌跡的運動速度則按各軌跡程序段應對的功能數據輸入。
示教盒示教編程方式是人工利用示教盒上所具有的各種功能的按鈕來驅動工業機器人的各關節軸,按作業所需要的順序單軸運動或多關節協調運動,完成位置和功能的示教編程。示教盒示教一般用於大型機器人或危險條件作業下的機器人示教。
離線編程或預編程
離線編程和預編程的含義相同,它是指用機器人程序語言預先用示教的方法編程,離線編程的優點:
編程可以不使用機器人,可以騰出機器人去做其他工作
可預先優化操作方案和運行周期
以前完成的過程或子程序可結合到代編的程序中去
可以用感測器探測外部信息,從而使機器人做出相應的響應。這種響應使機器人可以在自適應的方式下工作
控制功能中,可以包含現有的計算機輔助設計(CAD)和計算機輔助製造(CAM)的信息
可以用預先運行程序來模擬實際運動,從而不會出現危險,以在屏幕上模擬機器人運動來輔助編程
對不同的工作目的,只需替換一部分待定的程序
在非自適應系統中,沒有外界環境的反饋,僅有的輸入是關節感測器的測量值,從而可以使用簡單的程序設計手段。
對機器人的編程要求
能夠建立世界模型
能夠描述機器人的作業
能夠描述機器人的運動
允許用戶規定執行流程
有良好的編輯環境
機器人編輯語言的類型
動作級
(AL語言系統、LUNA語言及其特徵)
對象級
(AUTOPASS語言及其特徵、RAPT語言及其特徵)
任務級
Ⅱ 我是一高中生』想製作一個智能機器人。誰能推薦一個機器人控制主板
這個需要看你的詳細需要來找(畢竟你要看你的機器人需要哪些智能化作用,比如視頻採集、處理、紅外、光感軌道識別等),看要求做主板,學機電和電子的那些同學們搞得比較多,你可以多學點,然後搞。
厚積而薄發嘛,高中不著急。
Ⅲ 機器人末端操作器的用途
詳解機器人末端執行器
用在工業上的機器人的手一般稱為末端執行器,它是機器人直接用於抓取和握緊專用工具進行操作的部件。它具有模仿人手動作的功能,並安裝於機器人手臂的前端。
機械手能根據電腦發出的命令執行相應的動作,它不僅是一個執行命令的機構,還應該具有識別的功能,也就是「感覺」。
為了使機器人手具有觸覺,在手掌和手指上都裝有帶有彈性觸點的元件;如果要感知冷暖,還可以裝上熱敏元件。在各關節的連接軸上裝有精巧的電位器,它能把手指的彎曲角度轉換成「外形彎曲信息」。把外形彎曲信息和各關節產生的接觸信息一起送入計算機,通過計算就能迅速判斷機械手所抓的物體的形狀和大小。
現在,機器人的手已經具有靈巧的指、腕、肘和肩胛關節,能靈活自如地伸縮擺動,手腕也會轉動彎曲。通過手指上的感測器,還能感覺出抓握的東西的重量,可以說已經具備了人手的許多功能。
由於被握工件的形狀、尺寸、重量、材質及表面形狀等的不同,因此工業機器人的末端操作器也是多種多樣的,大致可以分為以下幾類:
夾鉗式取料手
吸附式取料手
專用操作器及轉換器
仿生多指靈巧手
夾鉗式取料手
夾鉗式取料手由手指(手爪)、驅動機構、傳動機構及連接與支承元件組成,通過手指的開、合實現對物體的夾持。
(圖:1-手指、2-傳動機構、3-驅動裝置、4-支架、5-工件)
A、手指
V形指:使用於夾持圓柱形工件,特點是夾緊平穩可靠、夾持誤差小;也可以用兩個滾輪代替V形體的兩個工作面,它能快速夾持旋轉中的圓柱體。
平面指:一般用於夾持方形工件(具有兩個平行平面)、方形版或細小棒料。
尖指和長指:一般用於夾持小型或柔性工件;尖指用於夾持位於狹窄工作場地的細小工件,以避免和周圍障礙物相碰;長指用於夾持熾熱的工件,以避免熱輻射對手部傳機構的影響。
特形指:用於夾持形狀不規則的工件。應設計出與工件形狀相適應的專用特形手指,才能夾持工件。
B、傳動機構
回轉型傳動機構
平移型傳動機構
吸附式取料手
吸附式取料手靠吸附力取料,根據吸附力的不同,可分為氣吸附和磁吸附兩種。用於大平面、易碎、微小的物體,因此使用面較廣。
簡單的夾持式取料手不能適應物體外形變化,不能使物體表面承受比較均勻的夾持力,因此無法對復雜形狀、不同材質的物體實施夾持和操作。為了提高機器人手爪和手腕的操作能力、靈活性和快速反應能力,使機器人能像人手那樣進行各種復雜的作業,如裝配作業、維修作業、設備操作以及機器人模特的禮儀手勢等,就必須有一個運動靈活、動作多樣的靈巧手。
柔性手
多指靈巧手
Ⅳ 宇星機器人如何和電腦連接
1、首先將宇星機器人和電腦都打開,將宇星機器人熱點打開。
2、其次在電腦上找到機器人的熱點並點擊連接。
3、連接成功之後,在機器人自帶軟體中點擊綁定對應機器人,即可將宇星機器人和電腦連接。
Ⅳ 想用一塊17x17厘米電腦主板做機器人的主控,【動作用串口電機控制器】,用另一台電腦遠程式控制制,
... 這么大有意思嗎? 能搞出機器人來的話 自己做個單片機主控應該不難吧
windows不是實時的操作系統 用來做電控頗多不足 從你給windows操作命令 到它開始執行 這之間有多任務的排隊過程 有時會產生很大的延遲
真要這么做的話太簡單了 只要確定可以實現 把兩台電腦用一台無線路由連接 然後在另外一台上用遠程桌面訪問就行了
或者不用路由也行 不過就要復雜得多了 我也沒實際操作過 大概就是在一台機器上用無線網卡做軟AP 另一台連接它 通了之後就可以用遠程桌面了
對了遠程桌面的程序是WINDOWS自帶的 任何一台機器都有 在開始菜單下面 附件里肯定有
Ⅵ 簡述deltal並聯機器人抓取工作站的系統硬體構成及工作原理
摘要 該機器人主動臂由外轉動副驅動,從動臂為平行四邊形結構,末端執行器可在工作空間內實現 3 維高速平動。而且,在靜、動平台間加裝兩端帶有虎克鉸鏈的可伸縮轉軸,可實現末端執行器繞動平台所在平面法向的單自由度轉動,從而完成對標的物的抓放動作。
Ⅶ intel d455配合機器人無序抓取
是可以的。
Intel預期可藉由新款RealSenseD455增加機器人藉由電腦視覺判斷,並且更快做出正確決策反應的效率,例如應用在醫療看護時,即可快速判斷病患狀況,進而在發生緊急異常時自動通報醫療救護人員協助。
相較NVIDIA藉由Jetson系列開發板投入機器人應用發展,Intel方面則是藉由RealSense景深感知攝影鏡頭作為機器人的「眼睛」,而此次推出的新款RealSenseD455,將比先前推出的D400增加一倍以上的電腦視覺范圍,對應6米左右的感測距離,並且強化電腦視覺的景深感測,同時藉由RGB感測元件與全局快門設計,加快電腦視覺反應速率。
Ⅷ 機器人的主板與電腦主板有什麼區別
不知道你用的是哪種機器人主機?
我用過Logo的主機,其實它就是一個C語言編譯器,控制各個介面的電流。
完全比不上電腦主板的,電腦主板鑲有CPU,GPU,有些鑲有音效卡,無線網卡等,功能要比機器人主機多的多,處理速度更快。
但是一些商家卻把機器人主機賣的很貴,Logo得2000多,完全保利。
Ⅸ 請問,機器人視覺抓取關鍵技術有哪些,各有哪些實現方法,有何優缺點
首先,我們要了解,機器人領域的視覺(Machine Vision)跟計算機領域(Computer Vision)的視覺有一些不同:機器視覺的目的是給機器人提供操作物體的信息。所以,機器視覺的研究大概有這幾塊:
物體識別(Object Recognition):在圖像中檢測到物體類型等,這跟 CV 的研究有很大一部分交叉;
位姿估計(Pose Estimation):計算出物體在攝像機坐標系下的位置和姿態,對於機器人而言,需要抓取東西,不僅要知道這是什麼,也需要知道它具體在哪裡;
相機標定(Camera Calibration):因為上面做的只是計算了物體在相機坐標系下的坐標,我們還需要確定相機跟機器人的相對位置和姿態,這樣才可以將物體位姿轉換到機器人位姿。
當然,我這里主要是在物體抓取領域的機器視覺;SLAM 等其他領域的就先不講了。
由於視覺是機器人感知的一塊很重要內容,所以研究也非常多了,我就我了解的一些,按照由簡入繁的順序介紹吧:
0. 相機標定
這其實屬於比較成熟的領域。由於我們所有物體識別都只是計算物體在相機坐標系下的位姿,但是,機器人操作物體需要知道物體在機器人坐標系下的位姿。所以,我們先需要對相機的位姿進行標定。內參標定就不說了,參照張正友的論文,或者各種標定工具箱;外參標定的話,根據相機安裝位置,有兩種方式:
Eye to Hand:相機與機器人極坐標系固連,不隨機械臂運動而運動
Eye in Hand:相機固連在機械臂上,隨機械臂運動而運動 兩種方式的求解思路都類似,首先是眼在手外(Eye to Hand)
只需在機械臂末端固定一個棋盤格,在相機視野內運動幾個姿態。由於相機可以計算出棋盤格相對於相機坐標系的位姿 、機器人運動學正解可以計算出機器人底座到末端抓手之間的位姿變化 、而末端爪手與棋盤格的位姿相對固定不變。這樣,我們就可以得到一個坐標系環
而對於眼在手上(Eye in Hand)的情況,也類似,在地上隨便放一個棋盤格(與機器人基座固連),然後讓機械臂帶著相機走幾個位姿,然後也可以形成一個 的坐標環
平面物體檢測
這是目前工業流水線上最常見的場景。目前來看,這一領域對視覺的要求是:快速、精確、穩定。所以,一般是採用最簡單的邊緣提取+邊緣匹配/形狀匹配的方法;而且,為了提高穩定性、一般會通過主要打光源、採用反差大的背景等手段,減少系統變數。
目前,很多智能相機(如 cognex)都直接內嵌了這些功能;而且,物體一般都是放置在一個平面上,相機只需計算物體的 三自由度位姿即可。另外,這種應用場景一般都是用於處理一種特定工件,相當於只有位姿估計,而沒有物體識別。 當然,工業上追求穩定性無可厚非,但是隨著生產自動化的要求越來越高,以及服務類機器人的興起。對更復雜物體的完整位姿 估計也就成了機器視覺的研究熱點。
2. 有紋理的物體
機器人視覺領域是最早開始研究有紋理的物體的,如飲料瓶、零食盒等表面帶有豐富紋理的都屬於這一類。當然,這些物體也還是可以用類似邊緣提取+模板匹配的方法。但是,實際機器人操作過程中,環境會更加復雜:光照條件不確定(光照)、物體距離相機距離不確定(尺度)、相機看物體的角度不確定(旋轉、仿射)、甚至是被其他物體遮擋(遮擋)。
幸好有一位叫做 Lowe 的大神,提出了一個叫做 SIFT (Scale-invariant feature transform)的超強局部特徵點:Lowe, David G. "Distinctive image features from scale-invariant keypoints."International journal of computer vision 60.2 (2004): 91-110.具體原理可以看上面這篇被引用 4萬+ 的論文或各種博客,簡單地說,這個方法提取的特徵點只跟物體表面的某部分紋理有關,與光照變化、尺度變化、仿射變換、整個物體無關。因此,利用 SIFT 特徵點,可以直接在相機圖像中尋找到與資料庫中相同的特徵點,這樣,就可以確定相機中的物體是什麼東西(物體識別)。
對於不會變形的物體,特徵點在物體坐標系下的位置是固定的。所以,我們在獲取若干點對之後,就可以直接求解出相機中物體與資料庫中物體之間的單應性矩陣。如果我們用深度相機(如Kinect)或者雙目視覺方法,確定出每個特徵點的 3D 位置。那麼,直接求解這個 PnP 問題,就可以計算出物體在當前相機坐標系下的位姿。
↑ 這里就放一個實驗室之前畢業師兄的成果當然,實際操作過程中還是有很多細節工作才可以讓它真正可用的,如:先利用點雲分割和歐氏距離去除背景的影響、選用特徵比較穩定的物體(有時候 SIFT 也會變化)、利用貝葉斯方法加速匹配等。而且,除了 SIFT 之外,後來又出了一大堆類似的特徵點,如 SURF、ORB 等。
3. 無紋理的物體
好了,有問題的物體容易解決,那麼生活中或者工業里還有很多物體是沒有紋理的:
我們最容易想到的就是:是否有一種特徵點,可以描述物體形狀,同時具有跟 SIFT 相似的不變性?不幸的是,據我了解,目前沒有這種特徵點。所以,之前一大類方法還是採用基於模板匹配的辦法,但是,對匹配的特徵進行了專門選擇(不只是邊緣等簡單特徵)。
這里,我介紹一個我們實驗室之前使用和重現過的演算法 LineMod:Hinterstoisser, Stefan, et al. "Multimodal templates for real-time detection of texture-less objects in heavily cluttered scenes." Computer Vision (ICCV), 2011 IEEE International Conference on. IEEE, 2011.
簡單而言,這篇論文同時利用了彩色圖像的圖像梯度和深度圖像的表面法向作為特徵,與資料庫中的模板進行匹配。由於資料庫中的模板是從一個物體的多個視角拍攝後生成的,所以這樣匹配得到的物體位姿只能算是初步估計,並不精確。但是,只要有了這個初步估計的物體位姿,我們就可以直接採用 ICP 演算法(Iterative closest point)匹配物體模型與 3D 點雲,從而得到物體在相機坐標系下的精確位姿。
當然,這個演算法在具體實施過程中還是有很多細節的:如何建立模板、顏色梯度的表示等。另外,這種方法無法應對物體被遮擋的情況。(當然,通過降低匹配閾值,可以應對部分遮擋,但是會造成誤識別)。針對部分遮擋的情況,我們實驗室的張博士去年對 LineMod 進行了改進,但由於論文尚未發表,所以就先不過多涉及了。
4. 深度學習
由於深度學習在計算機視覺領域得到了非常好的效果,我們做機器人的自然也會嘗試把 DL 用到機器人的物體識別中。
首先,對於物體識別,這個就可以照搬 DL 的研究成果了,各種 CNN 拿過來用就好了。有沒有將深度學習融入機器人領域的嘗試?有哪些難點? - 知乎 這個回答中,我提到 2016 年的『亞馬遜抓取大賽』中,很多隊伍都採用了 DL 作為物體識別演算法。 然而, 在這個比賽中,雖然很多人採用 DL 進行物體識別,但在物體位姿估計方面都還是使用比較簡單、或者傳統的演算法。似乎並未廣泛採用 DL。 如@周博磊所說,一般是採用 semantic segmentation network 在彩色圖像上進行物體分割,之後,將分割出的部分點雲與物體 3D 模型進行 ICP 匹配。
當然,直接用神經網路做位姿估計的工作也是有的,如這篇:Doumanoglou, Andreas, et al. "Recovering 6d object pose and predicting next-best-view in the crowd." Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2016.
它的方法大概是這樣:對於一個物體,取很多小塊 RGB-D 數據(只關心一個patch,用局部特徵可以應對遮擋);每小塊有一個坐標(相對於物體坐標系);然後,首先用一個自編碼器對數據進行降維;之後,用將降維後的特徵用於訓練Hough Forest。
5. 與任務/運動規劃結合
這部分也是比較有意思的研究內容,由於機器視覺的目的是給機器人操作物體提供信息,所以,並不限於相機中的物體識別與定位,往往需要跟機器人的其他模塊相結合。
我們讓機器人從冰箱中拿一瓶『雪碧』,但是這個 『雪碧』 被『美年達』擋住了。我們人類的做法是這樣的:先把 『美年達』 移開,再去取 『雪碧』 。所以,對於機器人來說,它需要先通過視覺確定雪碧在『美年達』後面,同時,還需要確定『美年達』這個東西是可以移開的,而不是冰箱門之類固定不可拿開的物體。 當然,將視覺跟機器人結合後,會引出其他很多好玩的新東西。由於不是我自己的研究方向,所以也就不再班門弄斧了。
機器人家上有關於這個很詳細的圖文講解,你可以看下,希望對你有用
Ⅹ 關於機器人和電腦連接問題!
COM口,也就是俗稱的串口(列印口是並口)
COM口在主板上的位置一般就在列印口下面(列印口是21針,COM是9針)
有點主板集成了顯卡,並且也沒有打口子做出來,可以另外外接一塊串口卡或多功能卡,沒做介面的主板上在板上有針口,也是9針的,位置大多在北橋晶元附近,新主板的盒子里有附加的外介面配件,接上就可以