RM新时代网站-首页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

OrangePi KunPeng Pro部署AI模型介紹

嵌入式小生 ? 來源:嵌入式小生 ? 2024-11-16 11:03 ? 次閱讀

一、OrangePi Kunpeng Pro簡介

OrangePi Kunpeng Pro是一款香橙派聯(lián)合華為精心打造的高性能板卡,搭載了鯤鵬處理器,可提供8TOPS INT8計算能力,板卡設計很精致,板載資源也非常多:

?擁有以太網(wǎng)、Wi-Fi+藍牙功能,提供多種可選擇的網(wǎng)絡接入方式。

? 2個USB3.0 Host、1個支持USB3.0的Type-C接口:可接入鼠標、鍵盤、USB攝像頭等設備,方便板卡操作。

? 2個HDMI接口、1 個 MIPI DSI 2 Lane接口,提供兩種顯示方案。

?引出了40 pin 擴展口,可擴展UART、I2C、SPI、PWM 和 GPIO 等接口功能。板卡完整接口如下圖所示:

6df431fa-9072-11ef-a511-92fbcf53809c.png

板卡擴展出的功能很多,能夠滿足很多應用場景和行業(yè)的開發(fā)需求,本文將描述使用OrangePi Kunpeng Pro來部署AI大模型,記錄分析模型運行期間板卡的狀態(tài)和模型運行效果。

二、環(huán)境搭建

(1)首先取出板卡,為板卡接入一個HDMI顯示屏、一個無線藍牙鼠標、一個有線鍵盤,接著接通電源,完成后如下圖所示:

6e24a308-9072-11ef-a511-92fbcf53809c.png

(2)隨后板卡將自動啟動運行openEuler操作系統(tǒng),接著我們進入終端:

6e526c20-9072-11ef-a511-92fbcf53809c.png

(3)查看下存儲容量:

6e8af194-9072-11ef-a511-92fbcf53809c.png

從上圖可知目前可用容量很大,可滿足小量級離線模型的存儲。

板卡運行openEuler非常流暢,使用體驗感非常好。

(4)選擇網(wǎng)絡接入方式,本文使用Wifi接入。

(5)更改CPU為AI CPU

6eb4ec10-9072-11ef-a511-92fbcf53809c.png

從上圖中可知目前板卡有3個AI CPU和1個control CPU。

接著就進行模型運行環(huán)境搭建和模型部署了。

三、模型運行環(huán)境搭建

(1)下載Ollama用于啟動并運行大型語言模型

由于在線下載Ollama速度較慢,故而使用手動方式安裝Ollama,首先從下列地址下載Ollama:

https://ollama.com/download/ollama-linux-arm64

6ed951ea-9072-11ef-a511-92fbcf53809c.png

完成后將其通過ssh方式傳輸?shù)桨蹇ā=又鴮⑵渲孛麨閛llama,便于命令操作,然后將ollama復制到/usr/bin目錄中并賦予可執(zhí)行權限:

sudochmod+x/usr/bin/ollama

(2)配置ollama系統(tǒng)服務

使用以下命令創(chuàng)建ollama服務描述文件:

sudotouch/etc/systemd/system/ollama.service

并在文件中編輯如下內容:

[Unit]
Description=OllamaService
After=network-online.target

[Service]
ExecStart=/usr/bin/ollamaserve
User=root
Group=root
Restart=always
RestartSec=3

[Install]
WantedBy=default.target

(3)啟動ollama服務

使用下述命令啟動ollama服務:

sudosystemctldaemon-reload
sudosystemctlenableollama

(4)啟動ollama

使用下述命令啟動ollama:

sudosystemctlstartollama

(5)查看ollama運行狀態(tài)

使用如下命令查看ollama運行狀態(tài):

systemctlstatusollama.service

6ef59292-9072-11ef-a511-92fbcf53809c.png

從上圖可知目前ollama啟動成功。

四、模型部署

通過上述第三小節(jié)的步驟后,Ollama模型運行環(huán)境就搭建完成,本小節(jié)將部署五個模型:1.8b的qwen、2b的gemma、3.8b的phi3、4b的qwen和7b的llama2,測試OrangePi Kunpeng Pro運行模型的實際效果。模型細節(jié)如下表所示:

序號 模型 參數(shù) 描述
1 qwen 1.8b Qwen是阿里云開發(fā)的大型語言模型,1.8b,1.1GB
2 gemma 2b Gemma是由Google DeepMind構建的一系列輕量級的開放模型,大小1.7GB
3 phi3 3.8b phi3是微軟開發(fā)的開放AI模型系列,3.8b為Mini系列,大小2.4GB
4 qwen 4b Qwen是阿里云開發(fā)的大型語言模型,4b,大小2.3GB
5 llama2 7b Llama 2是由Meta平臺公司發(fā)行的基礎語言模型,大小3.8GB

(1)部署1.8b的qwen

使用ollama run qwen:1.8b部署1.8b的qwen模型:

6f199cdc-9072-11ef-a511-92fbcf53809c.png

上述模型部署完成后,對其進行問答測試,如下圖所示:

6f313e78-9072-11ef-a511-92fbcf53809c.png

效果:運行1.8b的qwen模型,CPU負載沒有占滿,進行問答測試,回答速度較快,效果很好!

(2)部署2b的gemma

使用ollama run gemma:2b部署2b的gemma模型:

6f67321c-9072-11ef-a511-92fbcf53809c.png

上述模型部署完成后,對其進行問答測試,如下圖所示:

6f85ad0a-9072-11ef-a511-92fbcf53809c.png

效果:運行2b的gemma模型和運行1.8b的qwen模型效果相似,CPU負載同樣沒有占滿,進行問答測試,回答速度快,效果好!

(3)部署3.8的phi3

使用ollama run phi3:3.8b部署3.8b的phi3模型:

6fb6d8bc-9072-11ef-a511-92fbcf53809c.png

上述模型部署完成后,對其進行問答測試,如下圖所示:

6fdb60c4-9072-11ef-a511-92fbcf53809c.png

效果:運行3.8b的phi3模型,進行問答測試,回答速度變慢了。

(4)部署4b的qwen

使用ollama run qwen:4b部署4b的qwen模型:

701cdf18-9072-11ef-a511-92fbcf53809c.png

上述模型部署完成后,對其進行問答測試,如下圖所示:

70679116-9072-11ef-a511-92fbcf53809c.png

效果:運行4b的qwen模型,進行問答測試,回答問題速度明顯變慢:計算生成答案的速度變慢,打印文字的速度也變慢了。

(5)部署7b的llama2

使用ollama run llama2:7b部署7b的llama2模型:

709d60a2-9072-11ef-a511-92fbcf53809c.png

上述模型部署完成后,對其進行問答測試,如下圖所示:

70b46414-9072-11ef-a511-92fbcf53809c.png

效果:運行7b的llama2模型,CPU滿負載了,進行問答測試,回答問題速度也明顯變得很慢:計算生成答案的速度變慢,打印文字的速度也變慢了。

五、實際效果

上述第四小節(jié)描述了運行五個模型的實際使用效果,本小節(jié)附上運行2b的gemma模型的效果,如下圖所示:

(注:因gif圖對視頻有所處理,以實際運行效果為準!)

六、總結

OrangePi Kunpeng Pro板卡是一塊擁有較高計算性能的板卡,本文使用該板卡部署了五個模型(以本文所描述模型為參考),對于1.8b和2b量級的模型來說運行效果還可以,體驗較好;對于3.8b和4b量級的模型來說,體驗感有所下降,一是計算生成答案的過程變長,二是文字輸出存在斷續(xù);對于7b量級的模型,體驗感更是降了一個層次,文字輸出存在明顯的斷續(xù)了。

體驗感是一個非理性的名詞,因人而異,不同的場景和模型,不同的使用者都可能存在不同的體驗,本文所有內容僅供參考和評測!

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關注

    關注

    87

    文章

    30728

    瀏覽量

    268882
  • 板卡
    +關注

    關注

    3

    文章

    112

    瀏覽量

    16813
  • 模型
    +關注

    關注

    1

    文章

    3226

    瀏覽量

    48806

原文標題:玩玩OrangePi KunPeng Pro部署AI模型

文章出處:【微信號:嵌入式小生,微信公眾號:嵌入式小生】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    AI模型部署邊緣設備的奇妙之旅:目標檢測模型

    并非易事,它涉及到從選擇合適的算法架構到針對特定硬件平臺進行優(yōu)化等一系列復雜的工作。 接下來,我們將詳細介紹如何在資源受限的邊緣設備上成功部署目標檢測模型,探索其背后的原理和技術,并討論解決該領域內常見
    發(fā)表于 12-19 14:33

    AI模型部署邊緣設備的奇妙之旅:如何實現(xiàn)手寫數(shù)字識別

    處理,而不必傳輸?shù)酵獠糠掌鳎@有助于更好地保護用戶隱私和數(shù)據(jù)安全。 然而,邊緣計算也帶來了獨特的挑戰(zhàn),特別是在資源受限的嵌入式系統(tǒng)中部署復雜的AI模型時。為了確保神經(jīng)網(wǎng)絡模型能夠在邊
    發(fā)表于 12-06 17:20

    AI模型部署和管理的關系

    AI模型部署與管理是AI項目成功的兩大支柱,它們之間既相互獨立又緊密相連,共同推動著AI技術從實驗室走向實際應用。
    的頭像 發(fā)表于 11-21 10:02 ?142次閱讀

    如何在STM32f4系列開發(fā)板上部署STM32Cube.AI,

    已下載STM32Cube.AI擴展包,但是無法使用,感覺像是沒有部署AI模型,我是想要通過攝像頭拍照,上傳圖像后,經(jīng)過開發(fā)板處理器進行AI
    發(fā)表于 11-18 09:39

    AI模型托管原理分析

    AI模型托管是指將訓練好的AI模型部署在云端或邊緣服務器上,由第三方平臺提供模型運行、管理和優(yōu)化
    的頭像 發(fā)表于 11-07 09:33 ?157次閱讀

    企業(yè)AI模型部署怎么做

    AI模型部署作為這一轉型過程中的關鍵環(huán)節(jié),其成功實施對于企業(yè)的長遠發(fā)展至關重要。在此,AI部落小編為您介紹企業(yè)
    的頭像 發(fā)表于 11-04 10:15 ?149次閱讀

    香橙派OrangePi?5 Pro性能全面測試!

    OrangePi5Pro顯然是RaspberryPi5的替代產(chǎn)品。讓我們看看它的價格、性能和可用性如何。OrangePi5Pro的硬件參數(shù)我就不具體介紹了,大家可以在香橙
    的頭像 發(fā)表于 10-08 15:58 ?423次閱讀
    香橙派<b class='flag-5'>OrangePi</b>?5 <b class='flag-5'>Pro</b>性能全面測試!

    利用恩智浦云實驗室部署AI模型

    如今,人工智能(AI)非常火爆,這個風口該如何把握?作為一個電子工程師,和AI最主要的交集應該就是邊緣計算了,具體來講,就是在一些性能、功耗以及價格相對較低的嵌入式平臺上部署和運行AI
    的頭像 發(fā)表于 08-02 11:46 ?2739次閱讀
    利用恩智浦云實驗室<b class='flag-5'>部署</b><b class='flag-5'>AI</b><b class='flag-5'>模型</b>

    英偉達推出Flextron AI框架:賦能靈活高效的AI模型部署

    在人工智能與機器學習領域,隨著技術的不斷演進,模型的高效部署與適應性成為研究的新熱點。近日,英偉達與德克薩斯大學奧斯汀分校攜手宣布了一項重大突破——推出了一種名為FLEXTRON的新型靈活模型架構及訓練后優(yōu)化框架,這一創(chuàng)新成果為
    的頭像 發(fā)表于 07-18 15:22 ?2741次閱讀

    PerfXCloud大模型開發(fā)與部署平臺開放注冊

    PerfXCloud?介紹 PerfXCloud是澎峰科技為開發(fā)者和企業(yè)量身打造的AI開發(fā)和部署平臺。它專注于滿足大模型的微調和推理需求,為用戶提供極致便捷的一鍵
    的頭像 發(fā)表于 07-02 10:27 ?372次閱讀
    PerfXCloud大<b class='flag-5'>模型</b>開發(fā)與<b class='flag-5'>部署</b>平臺開放注冊

    樹莓派5最大的競爭對手OrangePi 5 Pro?,新增4GB/8GB版本

    OrangePi5Pro被稱為樹莓派5最大的競爭對手。繼OrangePi5Pro(16GB)版本發(fā)布一個月之后,香橙派近日再推出OrangePi5Pro4GB/8GB版本。除了在運行內存方面有所差異
    的頭像 發(fā)表于 05-07 10:00 ?735次閱讀
    樹莓派5最大的競爭對手<b class='flag-5'>OrangePi</b> 5 <b class='flag-5'>Pro</b>?,新增4GB/8GB版本

    OrangePi?5 Pro正式開售,樹莓派5真正的挑戰(zhàn)者來了

    在剛剛舉行不久的3.24香橙派開發(fā)者大會上,香橙派發(fā)布了一款重磅產(chǎn)品OrangePi5Pro,該產(chǎn)品在OrangePi5系列前代產(chǎn)品的基礎上煥然升級,以其性能引領性、價格顛覆性再次改變全球開發(fā)板市場
    的頭像 發(fā)表于 04-08 13:54 ?755次閱讀
    <b class='flag-5'>OrangePi</b>?5 <b class='flag-5'>Pro</b>正式開售,樹莓派5真正的挑戰(zhàn)者來了

    使用CUBEAI部署tflite模型到STM32F0中,模型創(chuàng)建失敗怎么解決?

    看到CUBE_AI已經(jīng)支持到STM32F0系列芯片,就想拿來入門嵌入式AI。 生成的模型很小,是可以部署到F0上的,但是一直無法創(chuàng)建成功。 查閱CUBE
    發(fā)表于 03-15 08:10

    AI模型可以設計電路嗎?

    AI模型
    電子發(fā)燒友網(wǎng)官方
    發(fā)布于 :2024年01月02日 15:09:29

    【愛芯派 Pro 開發(fā)板試用體驗】人體姿態(tài)估計模型部署前期準備

    部署模型的整體架構。接下來就回到最開始定的主線上了——人體姿態(tài)估計。這篇文章就是記錄對一些輕量化人體姿態(tài)估計模型的調研,和前期準備。 1、人體姿態(tài)估計任務介紹 下面對人體姿態(tài)估計任務做
    發(fā)表于 01-01 01:04
    RM新时代网站-首页