錄窗口在我們日常使用應用或者打開網站時都會碰到,已經屢見不鮮,今天瀏覽網頁的時候,看到一個登錄窗口,感覺動效還挺好的,就用Axure做了一個原型,供大家參考學習。
1、Email獲取焦點時,提示文案“Email”變小上移,同時下劃線變色顯示待輸入狀態;失去焦點時,無輸入則返回默認狀態,有輸入則只有下劃線回到默認狀態,Code輸入同理。
Email輸入框:“Email”文本+無邊框文本框+下劃線(Code同理)
滑動驗證:滑塊動態面板+底層滑道
登錄按鈕:登錄按鈕
命名:“Email”文本命名“hint”;無邊框文本命名“input”;滑動動態面板命名為“slider”;底層滑動命名為“slider frame”;登錄按鈕命名為“button”。
無邊框文本框“input”獲取焦點時,Email文本“hint”變小上移,同時下劃線變色顯示待輸入狀態;失去焦點時,無輸入則返回默認狀態,有輸入則只有下劃線回到默認狀態。
1、設置“hint”的選中狀態為字號變小一點;畫一條帶顏色的下劃線,命名為“line”并設置為隱藏。
2、選中“input”,添加用例“當獲取焦點時,hint選中狀態為Ture;hint200ms線性移到某個位置(我是直接移動到某個坐標的);且line向右滑動100s顯示”。
3、為“input”失去焦點時添加用例,這里分沒有輸入的情況和有輸入的情況,設置用例時需要添加條件,添加用例“if 文字于 input == “”時(即輸入為空時),hint選中狀態為False;hint200ms線性回到初始位置(我也是直接移動到初始坐標的);且line向右滑動100s隱藏”。
4、再添加用例2,其他情況時,也就是有輸入的情況,添加用例“line向右滑動100s隱藏”。
5、Code輸入效果模仿Email輸入制作就可以了。
拖動滑塊進行驗證,沒拖到最右邊,拖動結束時彈回原位置;拖到最右邊,拖動結束時顯示驗證成功!
1、設置滑塊“slider”(設置為動態面板才能添加拖動事件)可以拖動,添加用例“拖動時,slider在?水平拖動”,這時需要設置邊界?,保證slider在這個邊界區間滑動,而不是隨意拖動位置。
這里用滑塊slider的左側和右側所處x軸數值為邊界區間,即滑塊在>=左側x坐標值、<=右側x坐標值之間拖動,如下圖所示。
用例設置界面如下:
2、設置滑塊slider拖動結束時的效果,有兩種情況,一是沒拖到最右邊,返回原位置;另一種是拖到最右邊,驗證通過。這邊我們可以在最右邊添加一個透明的元件,我用的是熱區“contact”,我們可以設置滑塊slider沒接觸到熱區和接觸到熱區,即沒拖到最右邊和拖到最右邊(contact和底層滑道有1像素的重疊)。
為拖動結束時,添加用例“if 區域于 slider 接觸 區域于 contact,底層滑道slider frame設置文本為 恭喜您,驗證通過!;slider設置文本為對號(用的是字體圖標)”(提示:這里的設置文本,都是選擇的富文本,不是值,因為富文本可以編輯字體的顏色和大小等屬性)。
3、再添加用例2,其他情況時,即沒有接觸到contact時,添加用例“回到拖動前位置”。
登錄按鈕“button”移入時有反饋,點擊有反饋,點擊后回到默認狀態,所以要設置懸停和按下狀態(上面說的選中狀態的設置就在這里設置)。
按下“F5”預覽下,看看實際效果吧!
有問題可以隨時交流哦!
本文由 @ 焦戶易美 (微信公眾號“焦戶易美”)原創發布于人人都是產品經理。未經許可,禁止轉載。
文將講述:“爭取一致性”、“追求通用性”、“提供信息反饋”、“避免錯誤”、“對話需要一個完結”、“允許撤銷操作”、“給用戶掌控感”、 “減少短時記憶負擔”這八個黃金法則如何應用到對話用戶界面的設計中去?
在技術發展過程中,設計往往會被忽略,精心設計的用戶界面或用戶體驗經常被事后處理。但實際上,沒有好的設計,技術本身也無法體現出它應有的意義。
Ben Shneiderman 是美國馬里蘭大學人機交互實驗室的計算機科學家和教授,在他的 《設計用戶界面:有效的人機交互策略》一書中,介紹了界面設計的八個黃金法則,受到了巨頭企業和用戶體驗設計師的廣泛好評和追捧。
而在構建對話機器人時,該如將這八個黃金法則應用到對話用戶界面(CUI)的設計當中?
在對話設計的過程中,首先要實現虛擬人物性格的一致性。
用戶在與對話機器人互動時都會根據它的所作所說賦予它一個“人設”。所以,最好在前期把角色設定好,并用統一標準的語氣和性格設計對話,逐步建立用戶對品牌的信任。
當設計類似的對話響應和操作時,可以利用統一風格的卡片、顏色、用戶流程圖來實現一致性。規范信息表現的方式可以減少用戶認知負擔,讓用戶體驗易懂流暢。
認識到不同用戶的多樣性需求和可塑性設計,考慮到新手與專家的差異、年齡范圍、殘障人士、國籍差異、技術多樣性等因素都會豐富指導設計的要求。
為新用戶提供注釋,為老用戶提供進階指南、快捷方式等高級設計,都會提升交互界面設計的質量。
用戶每完成一個操作,界面都需要給一個相應的反饋。對于經常進行的常規操作,反饋可以相對”低調”,而對于不常進行但又核心的操作,反饋應該更加明顯“高調”。
反饋有很多類型,例如:聲音提示、觸摸感、文本提示、視覺提示以及各種類型的組合。
社交軟件WhatsApp中的已讀對勾圖形“低調”反饋
Google Assistant 喚醒后的視覺“高調”反饋
設計對話用戶界面時,應該盡量考慮如何減少用戶犯錯誤的機會,設置對話邊界是減少錯誤的核心方法。
為了控制對話的進程,要盡量避免設計開放式問題,例如:為用戶提供一些限定的回答選擇,避免問“我能為您做什么?”,而是問“您希望我幫您做X、Y還是Z?”,或者借助按鈕、卡片讓用戶進行選擇。
但如果用戶在對話時發生不可避免的錯誤,不能只報錯而不提供解決方案,請確保為用戶提供簡單、直觀的說明,以引導他們輕松快速地解決問題。
Bot:“您希望在哪天觀影?”
User:“5月30日?!?/p>
Bot:“您想去哪個電影院?”
User:“那天天氣怎么樣?”
Bot:“5月30日北京天氣晴。在這樣晴朗的天氣里,您想去哪個電影院呢?“
User:“太平洋影城吧?!?/p>
Bot:“是距離您最近的太平洋影城(北京中關村店)嗎?”
User:“是的?!?/p>
當用戶“跑題”時,將他拉回到理想路徑中。
不要讓你的用戶猜來猜去,告訴他們其操作會引導他們到哪個步驟。與用戶的每組對話結束后需要給一個對應的反饋,讓用戶有一種操作完成的滿足感、安全感,同時也按示他們準備好進行下面的操作。
Bot:“您選擇購買5月30日,太平洋影城《大偵探皮卡丘》電影票2張,請確認信息是否正確?”
User:“沒問題。”
Bot:“好的,請問您的付款方式是什么?”
User:“微信支付?!?/p>
Bot:“付款成功,謝謝購買。請到現場掃碼取票,祝您觀影愉快。”
“謝謝購買”消息提示表明對話完結。
設計人員應為用戶提供明顯的方式來讓用戶恢復之前的操作,無論是單次動作,數據輸入還是整個動作序列后都應允許進行返回操作。
“這個功能減輕了焦慮,因為用戶知道即便操作失誤,之前的操作也可以被撤銷,鼓勵用戶去大膽放手探索?!?/p>
設計時應考慮如何讓用戶主動去使用,而不是被動接受,要讓用戶感覺他們對數字空間中一系列操作了如指掌,在設計時按照他們預期的方式來獲得他們的信任。讓用戶擁有掌控感,他們需要知道當前對話的狀態、進程以及接下來要做什么。
人的記憶力是有限的,美國認知心理學家喬治·A·米勒發現:我們的短時記憶平均每次能記住5-9條信息,例如單詞、數字等,取決于信息的性質。
因此,在與用戶對話過程中,要保持適當的信息層次結構,讓用戶去確認信息而不是去從記憶中提取,盡量讓用戶做“選擇題”而不是“簡答題”。
User:“我要付款。”
Bot:“您的購物車有兩張電影票,您想立即付款,還是查看購物車?”
系統為用戶記憶關鍵信息。
打造好用的聊天機器人需要考慮以上八大黃金法則,另外也需要一些體驗定義和對話設計的技巧,并且是一個持續優化的過程。打造對的體驗,需要真正理解用戶并達到用戶的預期,多讓用戶享受驚喜,少讓用戶受到驚嚇。
The Eight Golden Rules of Interface Design:https://www.cs.umd.edu/users/ben/goldenrules.html
本文由 @奇點機智 翻譯發布于人人都是產品經理,未經許可,禁止轉載
題圖來自Unsplash,基于CC0協議
者 | Haor.L
責編 | 王曉曼
出品 | CSDN博客
筆者最近參加了校內的一場物聯網開發競賽,從零開始,踩坑無數,感覺很多時候事情都不像預料的一樣發展,離開了美好的IDE,太多事情要在板子上一步步摸索。運行失敗還好,運行成功但BUG了,簡直不知道從何查起。
但認識了M5Stack簡單的線上系統,學習了MQTT,HTTP等數據傳輸方式,入門Arduino和MIrcopython等開發語言,接觸ESP32的板子,感受最深的一點就是,物聯網的準入門檻并沒有那么高,成本也沒有那么高,但這還是一片混沌未開的區域,進場者真的可以大有所為,起碼方便自己的日常生活是綽綽有余的。
總的來說,這次物聯網入坑,值得!
閱讀本文后你將收獲:
了解這款板子的開發環境如何配置
掌握ONENET數據傳輸
掌握HTTP的GET方法
開發準備
本博客作為學習物聯網開發的筆記,也簡單的將自己的片上系統作為例程寫出來。
M5STACK簡介
M5STACK是一款對初學者非常友好的ESP32開發板,可以用Micropython和C編程,也可以用很簡單的拖拽式編程,擁有龐大的官方文檔,只是國內只在最近開始流行,油管和B站上都有官方的教學視頻,也在常常更新,很有創造力的一個產品。
結構上主要分為Core和Unit,Core作為核心控件,Unit作為傳感器采集數據。
下圖圖就是筆者自己做的產品雛形,中間的小屏幕是Core,作為主控,周圍有GPS和RFID,攝像頭等單元用來采集數據。
設計雛形:
由于所有的M5產品都預設了樂高塊,所有你可以把他們拼在樂高模組上,油管上還有不少人用它做樂高機器人,確實是很有創意的一款產品,顏值也不錯,所以筆者選擇它用來開發。
環境配置
UIFlow環境
在線編程地址:UIFlow
前幾天GIthub發布了遠程編譯器Codespace,可以看出遠程編譯確實是大勢所趨。
這里不得不說UIFlow把物聯網的門檻大大降低了,筆者配置ESP-IDF用了將近一天,而使用UIFlow可以免去一切環境配置的痛苦。
支持拖拽編程,可視化UI設計,自帶例程,確實是良心產品。
ESP-IDF環境
方法一
筆者配置ESP-IDF工具鏈時,一開始是使用Windows系統的工具安裝器。
ESP-IDF 工具安裝器可在“開始”菜單中,創建一個打開ESP-IDF 命令提示符窗口的快捷方式。本快捷方式可以打開 Windows 命令提示符(即 cmd.exe),并運行 export.bat 腳本以設置各環境變量(比如 PATH,IDF_PATH 等)。
(不得不說,這個安裝器的健壯性非常差!?。?/p>
安裝心得:上網技巧+把系統的PATH重新檢查一遍,有些卸載殘余的PATH會導致玄學問題!
方法二(更推薦)
宇宙第一VS code中有插件 ESPRESSIF
可以更清楚每時每刻在干什么,也更清楚出了BUG去哪里修補。
感知模塊
M5開發了很多環境傳感器,包括溫濕度,人體感應,RFID,攝像頭等等,在官方開發文檔上也都給出了相關例程和GIthub的源碼鏈接。
筆者自己的項目使用的是RFID、GPS和Camera模塊,其中除了Camera只能用ESP-IDF編程,其他單元都支持在UIFlow上在線編程,再加上,Micropython確實比C++舒服太多。
網絡連接
Wi-Fi鏈接
M5Stack已經自己預置了Wi-Fi鏈接,開機就是,不過在Mircopython里寫起來也很簡單,下面是一個范例:
import network
SSID="YOUR-WIFI-NAME"
PASSWORD="YOUR-WIFI-PASSWORD"
wlan=None
s=None
def connectWifi(ssid,passwd):
'''
連接指定wifi
'''
global wlan
wlan=network.WLAN(network.STA_IF)
wlan.active(True)
wlan.disconnect
wlan.connect(ssid,passwd)
while(wlan.ifconfig[0]=='0.0.0.0'):
time.sleep(1)
return True
使用Mircoython的Wi-Fi模塊,connect(ssid,password),就可以進入可愛的Wi-Fi連接界面了,M5GO的封裝還是不錯的。
NB-IOT
IOT模組需要額外配一張NB卡,某寶20就可以拿下一年500M流量,不過筆者沒有繼續嘗試,已經有可愛的M5GO和穩定的Wi-Fi,就沒探索用3G進行通訊。
HTTP通訊
接下來介紹物聯網的精髓,“聯網”,采集到了數據,那數據上報和傳輸是重中之重。
筆者覺得HTTP是最好理解,好入門的通訊協議,這里也先介紹這種方法。
建議參考視頻:B站:接入中國移動ONENET平臺
筆者嘗試過諸如阿里云和一些外國的平臺,最后發現都不如中國移動專門為物聯網開發的ONENET,一來穩定,不用擔心服務商跑路,而來阿里云顯得太過臃腫,對入門者很不友好,最終選擇了ONENET,他的HTTP封裝好了很好看的數據流模板,如:
位置信息可視化:
自動折線圖
POST上傳數據創建流模板
首先需要創建一個數據流模板,用于接收傳過來的數據:
發送請求
請求方式:POST
URL:http://api.heclouds.com/devices/device_id/datapoints
其中,device_id:需要替換為設備ID
注意:ONENET默認post的數據叫Datastreams,參數配置見表:
請求實例:
{
"datastreams": [{
"id": "temperature",
"datapoints": [{
"at": "2013-04-22T00:35:43",
"value": "bacd"
},
{
"at": "2013-04-22T00:55:43",
"value": 84
}
]
},
{
"id": "key",
"datapoints": [{
"at": "2013-04-22T00:35:43",
"value": {
"x": 123,
"y": 123.994
}
},
{
"at": "2013-04-22T00:35:43",
"value": 23.001
}
]
}
]
}
使用ONENET的模擬API調用可以快速熟悉數據的模式:
其中,URL的device_id,和下面的API_key換成自己設備的,可以在設備列表找到,就可以往自己設備的數據流模板傳一個值為3的value。
Micropython用HTTPUIFlow里自帶了HTTP模塊,但是很玄學,很難用!
這里筆者用Micropython自己寫了一份HTTP的傳輸:
def http_put_data(data):
#post data into onenet
url='http://api.heclouds.com/devices/'+DEVICE_ID+'/datapoints'
values={'datastreams':[{"id":"temperature","datapoints":[{"value":data}]}]}
jdata = json.dumps(values)
r=urequests.post(url,data=jdata,headers={"api-key":API_KEY})
return r
親測還是很好用的,可能是UIFlow自己的json封裝比較奇怪?
使用模組交互的數據傳輸
既然M5STACK可以同時使用多個模組,那么自然也就可以使用模組來控制數據傳輸:
如:使用RFID卡,控制POST:
rfid0 = unit.get(unit.RFID, unit.PORTA)
while(True):
if rfid0.isCardOn:
rsp = http_put_data(12)
emoji0.show_map([[0,0,0,0,0,0,0],[0,0,0,0,0,0,0],[0,1,1,1,1,1,0],[0,0,0,0,0,0,0],[0,0,0,0,0,0,0],[0,0,0,0,0,0,0],[0,0,0,0,0,0,0]], 0xff0000)
else:
#wlan.disconnect
#wlan.active(False)
emoji0.show_map([[0,0,0,1,0,0,0],[0,0,0,1,0,0,0],[0,0,0,1,0,0,0],[0,0,0,1,0,0,0],[0,0,0,1,0,0,0],[0,0,0,1,0,0,0],[0,0,0,1,0,0,0]], 0xff0000)
wait(1)
第一行的rfid0 = unit.get(unit.RFID, unit.PORTA)是指定從PORTA讀取RFID的射頻信息
使用HTTP的GET獲取b站信息
有POST就要有GET,這里介紹一個B站大佬“正負加減”的例程,獲取自己的粉絲數,里面講解也很細致,大佬也是老Geek了,關注不虧!UIFlow的GET結構:核心思想是知道哪個key是follow,可以在F5審查源代碼找到:
此處的URL是
http://api.bilibili.com/x/relation/stat?vmid=99566555
UP和DOWN是控制RGB等的函數。
我的片上系統設計全過程
設計初衷在疫情管控最嚴格的的時候,經常能看到觸目驚心的“尋找x月x日乘坐xxxx的乘客”,如果能追尋乘坐公共交通者的足跡,會給疫情管控帶來很大便利。設計方法
筆者希望結合GPS,RFID和攝像頭功能,做個車載的識別信息-上報信息的小系統。
具體涉及到二維碼識別,RFID識別,GPS獲取和HTTP上報。
然而,這個設計一開始就遇到了難題。網上購買的測溫槍,他的藍牙數據我無法解包,好像是和騰訊連連有自己的相關配置。
騰訊連連界面:
既然騰訊連連已經寫到那么好了,那就不搶他的飯碗了。
既然沒辦法解析內容,那下面筆者將用ENV單元采集的環境溫度代替乘客溫度進行收發。
分模塊實現RFID控制塊首先聲明RFID模塊的串口:
rfid0 = unit.get(unit.RFID, unit.PORTA)
該段指從A口串入RFID模組
【注:M5STACK使用顏色標明了A,B,C三個Grove口,見下圖】
上圖中RFID的串口是紅色,就對應到M5GO左側的紅色接口:
GRIVE HUB由于筆者同時還需要使用紅色串口的ENV單元,因此額外購買了GROVE HUB:
這樣就有兩個A口了。
訪問設置時不需要加以區分,都從PORTA引入:
rfid0 = unit.get(unit.RFID, unit.PORTA)
env0 = unit.get(unit.ENV, unit.PORTA)
使用Emoji模塊做可視化:
筆者使用循環判斷是否有卡片接近,無則顯示待機Emoji,有則顯示?
#循環判斷是否有卡片接近
while(True):
#熄滅RGB燈
rgb.setBrightness(0)
#清空Emoji顯示
emoji0.show_map([[0,0,0,0,0,0,0],[0,0,0,0,0,0,0],[0,0,0,0,0,0,0],[0,0,0,0,0,0,0],[0,0,0,0,0,0,0],[0,0,0,0,0,0,0],[0,0,0,0,0,0,0]], 0x000000)
#判斷是否有卡片接近
if rfid0.isCardOn:
#有卡片接近顯示對號
emoji0.show_map([[0,0,0,0,0,0,0],[0,0,0,0,0,0,0],[0,0,0,0,0,0,1],[0,0,0,0,0,1,1],[1,0,0,0,1,1,0],[0,1,1,1,1,0,0],[0,0,1,1,0,0,0]], 0x33ff33)
#發送RFID讀取到的卡片ID
rsp_RFID = http_put_RFID((str(rfid0.readUid)))
#完成后指示燈變綠
rgb.setColorAll(0x33ff33)
rgb.setBrightness(10)
else:
#可選是否斷開wifi
#wlan.disconnect
#wlan.active(False)
#等待卡片接近時,Emoji展示"。。。"
emoji0.show_map([[0,0,0,0,0,0,0],[0,0,0,0,0,0,0],[0,0,0,0,0,0,0],[0,1,0,1,0,1,0],[0,0,0,0,0,0,0],[0,0,0,0,0,0,0],[0,0,0,0,0,0,0]], 0x000000)
wait(1)
這里的Emoji模塊是先在UIFlow里敲好,再進Micropython里查看的。
HTTP傳輸塊
HTTP傳輸在上文已經講了不少,這里優先介紹GPS的傳輸:
GPS的命令也是要加“value:”的,形如value:{“lon”:lon,“lat”:lat},這個地方一開始把筆者坑的不輕!
def http_put_location(lon,lat):
'''
傳輸地理位置數據點至ONENET平臺的location數據流
lon:longitude,經度
lat: latitude,緯度
url:http的post地址
values:請參考https://open.iot.10086.cn/doc/multiprotocol/ 文檔中的"HTTP協議上傳數據點模塊,配置json格式信息"
API_KEY:設備發送HTTP請求的證書,請參考https://open.iot.10086.cn/doc/multiprotocol/book/develop/http/api/api-usage.html 文檔中的"鑒權說明"
'''
url='http://api.heclouds.com/devices/YOUR-DEVICE-ID/datapoints'
values={'datastreams':[{"id":"location","datapoints":[{"value":{"lon":lon,"lat":lat}}]}]}
jdata = json.dumps(values)
r=urequests.post(url,data=jdata,headers={"api-key":API_KEY})
return r
這里請把YOUR-DEVICE-ID替換為自己的數據流中設備編號,參考ONENET手冊。Wi-Fi連接塊
UIflow里封裝了很好的Wi-Fi-connect:
wifiCfg.doConnect(SSID, PASSWORD)
如果你的Micropython里沒有一鍵Wi-Fi連接,筆者自己也實現了一個:
def connectWifi(ssid,passwd):
'''
如果您的Micropython不攜帶WifiCfg.doconnect,請參考本函數
函數作用:連接至名稱為SSID,密碼為passwd的wifi
'''
global wlan
wlan=network.WLAN(network.STA_IF)
wlan.active(True)
wlan.disconnect
wlan.connect(ssid,passwd)
while(wlan.ifconfig[0]=='0.0.0.0'):
time.sleep(1)
return True
二維碼識別塊
使用的攝像頭是M5CAMERA
參考官方例程:
//拍攝
camera_fb_t* esp_camera_fb_get
{
if (s_state == ) {
return ;
}
if(!I2S0.conf.rx_start) {
if(s_state->config.fb_count > 1) {
ESP_LOGD(TAG, "i2s_run");
}
if (i2s_run != 0) {
return ;
}
}
if(s_state->config.fb_count == 1) {
xSemaphoreTake(s_state->frame_ready, portMAX_DELAY);
}
if(s_state->config.fb_count == 1) {
return (camera_fb_t*)s_state->fb;
}
camera_fb_int_t * fb = ;
if(s_state->fb_out) {
xQueueReceive(s_state->fb_out, &fb, portMAX_DELAY);
}
return (camera_fb_t*)fb;
}
//二維碼識別
void qr_recoginze(void *pdata) {
camera_fb_t *camera_config = pdata;
if(pdata==)
{
ESP_LOGI(TAG,"Camera Size err");
return;
}
struct quirc *q;
struct quirc_data qd;
uint8_t *image;
q = quirc_new;
if (!q) {
printf("can't create quirc object\r\n");
vTaskDelete ;
}
//printf("begin to quirc_resize\r\n");
if (quirc_resize(q, camera_config->width, camera_config->height)< 0)
{
printf("quirc_resize err\r\n");
quirc_destroy(q);
vTaskDelete ;
}
image = quirc_begin(q, , );
memcpy(image, camera_config->buf, camera_config->len);
quirc_end(q);
int id_count = quirc_count(q);
if (id_count == 0) {
quirc_destroy(q);
return;
}
struct quirc_code code;
quirc_extract(q, 0, &code);
quirc_decode(&code, &qd);
dump_info(q);
quirc_destroy(q);
}
這里依賴了太多官方庫…建議去代碼倉庫翻一翻。
K210的二維碼識別上文是ESP32類型的開發板識別代碼,可以看到非常繁瑣,改起來簡直要了老命…使用Micropython的話,代碼就變的可愛多了~
【此部分使用Maxipy編程】
import sensor
import image
import lcd
import time
clock = time.clock
lcd.init
sensor.reset
sensor.set_pixformat(sensor.RGB565)
sensor.set_framesize(sensor.QVGA)
sensor.set_vflip(1)
sensor.run(1)
sensor.skip_frames(30)
while True:
clock.tick
img = sensor.snapshot
res = img.find_qrcodes
fps =clock.fps
if len(res) > 0:
img.draw_string(2,2, res[0].payload, color=(0,128,0), scale=2)
print(res[0].payload)
lcd.display(img)
這里Maxipy的官方文檔還給出了修正圖像的方法:如果使用了鏡頭,畫面會有扭曲,需要矯正畫面使用 lens_corr 函數來矯正,比如 2.8mm, img.lens_corr(1.8)
(沒事翻一翻這個Maxipy的文檔還是很有啟發的,大概兩小時就能通讀一遍)
GPS傳輸塊
室內經常沒有信號(實測室外也很少有…)因此在傳遞GPS的時候筆者額外設計了防止無信號的代碼。
GPS的http傳輸函數已經在上文講了,此處和RFID卡片控制進行結合:
if rfid0.isCardOn:
#有卡片接近顯示對號
emoji0.show_map([[0,0,0,0,0,0,0],[0,0,0,0,0,0,0],[0,0,0,0,0,0,1],[0,0,0,0,0,1,1],[1,0,0,0,1,1,0],[0,1,1,1,1,0,0],[0,0,1,1,0,0,0]], 0x33ff33)
#發送RFID讀取到的卡片ID
rsp_RFID = http_put_RFID((str(rfid0.readUid)))
#防止測試時無信號
if str(gps0.pos_quality) != "1" and str(gps0.pos_quality) != "6":
lon=116.39137751349433
lat=39.8969585128568
else:
#默認北京
lon=gps0.longitude
lat=gps0.latitude
try:
rsp_LOCATION=http_put_location(float(lon),float(lat))
except:
emoji0.show_map([[0,0,0,0,0,0,0],[0,0,0,0,0,0,0],[0,0,0,0,0,0,1],[0,0,0,0,0,1,1],[1,0,0,0,1,1,0],[0,1,1,1,1,0,0],[0,0,1,1,0,0,0]], 0xff0000)
#傳輸溫度
rsp = http_put_data(env0.temperature)
#完成后指示燈變綠
rgb.setColorAll(0x33ff33)
rgb.setBrightness(10)
else:
#可選是否斷開wifi
#wlan.disconnect
#wlan.active(False)
#等待卡片接近時,Emoji展示"。。。"
emoji0.show_map([[0,0,0,0,0,0,0],[0,0,0,0,0,0,0],[0,0,0,0,0,0,0],[0,1,0,1,0,1,0],[0,0,0,0,0,0,0],[0,0,0,0,0,0,0],[0,0,0,0,0,0,0]], 0x000000)
wait(1)
后記
參賽時間倉促,沒能完全搞明白每個引腳的用途,沒有好好觸摸一遍C和開發板,沒有用NB-IOT通訊。沒有做藍牙通訊解包…還是有很多遺憾的,還好設備還在,可以繼續探索物聯網的神奇。
成果效果:
版權聲明:本文為CSDN博主「Haor.L」的原創文章,遵循CC 4.0 BY-SA版權協議,轉載請附上原文出處鏈接及本聲明。
原文鏈接:https://blog.csdn.net/weixin_46233323/article/details/106054434」
?程序員在家辦公沒顯示屏,我被領導鄙視了
?Get!讀懂數據科學和機器學習,看這文就夠了
?深度剖析數據庫國產化遷移之路
?Go遠超Python,機器學習人才極度稀缺,全球16,655位程序員告訴你這些真相
?我佛了!用KNN實現驗證碼識別,又 Get 到一招
?超級賬本Hyperledger Fabric中的Protobuf到底是什么?
*請認真填寫需求信息,我們會在24小時內與您取得聯系。