無機砷是具有較強毒性的1類致癌物,著名的砒霜就是一種無機砷。無機砷易溶于水,也易隨水被農(nóng)作物吸收。長在被砷污染的土壤里的水稻,就容易積聚無機砷。
進入人體的砷會損害身體內的幾乎每一個器官,可引起皮膚病、外周血管疾病、肺癌、膀胱癌等等。嬰幼兒和兒童更是極易受到砷的影響。
為此,謝菲爾德大學的科學家們對比了多種不同的煮飯方式,發(fā)現(xiàn)一種被稱為“預煮吸水法(Parboiling with Absorption method,PBA)”的方法,能夠去除大部分的砷,同時保留米飯中的大部分營養(yǎng)成分。用PBA法煮糙米能去除50%以上的天然砷,煮精米則能去除74%的天然砷。
論如何獲得一碗發(fā)光的米飯 | pixabay
PBA煮飯法的主要步驟如下:
① 將米量4倍的清水放在鍋中煮開,完全沸騰
② 加入大米再沸騰5分鐘
③ 將鍋里的水瀝干,重新加入米量2倍的清水,蓋上鍋蓋,用中小火慢煮
④ 煮到所有水份都被米飯吸收為止
今晚就試一試。
生活污水、工業(yè)廢水和農(nóng)田排水中都含有大量的氮、磷等無機鹽類,如果不經(jīng)適當處理就排入自然水體,會造成嚴重的污染。但其實,這些無機鹽類對農(nóng)作物來說是寶貴的營養(yǎng)物質,如果能回收利用,就能一舉兩得。
為此,阿爾托大學的研究人員發(fā)明了一種名為 NPHarvest 的廢水處理技術,能獲得清澈的硫酸銨溶液(可用作肥料)和富含磷和鈣的漿液。他們先用石灰粉讓廢水產(chǎn)生沉淀,收集水中的磷,然后用一種特殊的氣體滲透膜以銨鹽的形式分離出水中的氮元素。
水與環(huán)境工程碩士Ilaria Righetto與NPHarvest項目 | Aalto University
NPHarvest不但成本低,甚至還能根據(jù)需要生產(chǎn)出不同的產(chǎn)品。比如,如果想要普通肥料,可以把氮元素以磷酸銨的形式提取出來;如果想要化工原料,可以改為生成硝酸銨。
目前 NPHarvest 技術已經(jīng)在廢水處理廠和垃圾填埋場的測試中取得了成功。
希望山青水綠,土壤肥沃。
全球氣候變暖不斷加劇,能源問題日益嚴峻,無需消耗能源的被動散熱技術愈發(fā)重要。對于節(jié)能建筑來說,把墻壁涂白以增加反射、減少吸熱是一個常見的做法,但現(xiàn)有的商業(yè)熱反射涂料最高也只能反射約 80%~90% 的太陽熱輻射。
近日,普渡大學的科學家開發(fā)了一種物美價廉的超白丙烯涂料,其中含有許多大小各不相同的碳酸鈣顆粒,能散射不同波長的太陽光。
有些建筑已經(jīng)使用白色涂料來降溫(雖然并不是用的這種新涂料)| pixabay
經(jīng)測試,這種新型涂料能反射約 95.5% 的太陽熱輻射,同時還不影響物體對外放出熱輻射。在印第安納州進行的測試中,它在正午時分成功將物體表面冷卻至低于周邊氣溫1.7°C。
這種涂料采用了涂料行業(yè)常用的材料,且比以往的更薄、更便宜,也更容易規(guī)模化生產(chǎn)。如果投入大規(guī)模使用,平均每戶家庭每月能減少 50 美元的制冷開支。
感覺是種能省錢又環(huán)保健康的好東西。
海南黑冠長臂猿(Nomascus hainanus)是中國最瀕危的動物之一,它的種群數(shù)量一度只剩25只,還被困在海南島上一片面積不到2000公頃的熱帶森林“孤島”之中。
2014年,一場臺風引起的山體滑坡在海南黑冠長臂猿的棲息地中撕開了一條寬達 15 米的鴻溝,還恰好位于長臂猿覓食的必經(jīng)之路上。地表的樹木被破壞后,長臂猿們只能利用滑坡兩旁大樹的傾斜枝條“飛越”被截斷的林冠,大大增加了墜地和受傷的風險。
海南霸王嶺自然保護區(qū)和香港嘉道理農(nóng)場暨植物園的工作人員使用攀山級別的繩索,在樹冠層中為長臂猿架設了繩橋,搭建起了一條聯(lián)通長臂猿生境的樹冠廊道。
繩橋就長這樣,過橋的方式也多種多樣 | KadoorieFarmBotanicGarden/YouTube
在繩橋架設后的幾個月內,這群長臂猿雖然注意到繩索的存在,但一直采取觀望態(tài)度。直到6個月后,它們才首次嘗試從繩橋上通過。到2019年,絕大多數(shù)長臂猿已經(jīng)習慣了使用繩橋,只有一些成年雄性長臂猿還在堅持使用高難度“飛越”動作——大概是對自己健壯的肌肉十分自信吧。
雄性長臂猿就是愛冒險,選擇“飛”過滑坡 | KFBG
如今,海南黑冠長臂猿的個體數(shù)量已經(jīng)上升到約30只,隨著時間的推移,滑坡處的樹木植被也將逐漸恢復,但繩索依然能幫助森林中的各種動物安全地穿越棲息地。
希望天下的瀕危動物都平安喜樂。
目前能從空氣中收集水的裝置,例如霧收集和結露系統(tǒng)等,只能在相對濕度至少達 50% 的環(huán)境下工作。
而麻省理工的科學家們開發(fā)出了一種全新的水分收集裝置,能在沙漠(相對濕度約20%)中吸附空氣中的水。
該裝置里有一種名為“沸石”的吸附材料。沸石非常多孔且具有較大的內表面積,可以吸附幾乎干燥的空氣中所含的少量水。晚上,空氣中的水蒸氣被吸附在沸石里,到了白天,利用太陽能吸收器產(chǎn)生的熱量驅使水從沸石中釋放出來,以供使用。
就是這樣的結構,晚上吸附水,白天放水 | 參考文獻5
該裝置重約7千克,攜帶方便。在測試中,每平方米太陽能吸收器每天能產(chǎn)生0.77升水。這個研究團隊正在開發(fā)的新材料還有望進一步增加內部材料吸附的水量。
愿所有人都能喝上清潔、便宜的水。
過去5年中,澳大利亞大堡礁經(jīng)歷了3次大規(guī)模珊瑚白化事件,其北部珊瑚礁更是遭到了毀滅性打擊。
為了留存并保護珊瑚蟲物種,來自澳大利亞的保護團隊正在建立一個完整的珊瑚活體生物庫。該項目計劃于2025年之前在道格拉斯港建立一所專門用于存放珊瑚活體的設施,收集和安置來自世界各地的 800 多種硬珊瑚。
從11月起,科學家們已經(jīng)在從大堡礁收集各類珊瑚的活體碎片、珊瑚蟲組織和DNA樣本。在第一次考察中,他們將鑒定并收集 20 種珊瑚的活體標本,占大堡礁所有400種珊瑚的5%。
大堡礁。愿大自然的浪漫永存。| pixabay
由于珊瑚蟲本身既可以有性繁殖也可以無性繁殖,在合適的飼養(yǎng)條件下,珊瑚蟲能不斷復制自身,預計每六個月就能增加一倍。
科學家認為,這個生物庫是一種生物多樣性的“保險”,能在未來有需要時,恢復珊瑚礁上的生物群落。
希望世界各地都能建立這樣的生物庫。希望未來的世界不會有需要用到它們的那一天。
好了,本月的好消息至此告一段落~當然,還有很多激動人心的研究沒有被pick進來。
如果你也有好消息,不妨在評論區(qū)跟大家分享一下!
參考文獻
1. Manoj Menon, Wanrong Dong, Xumin Chen, Joseph Hufton, Edward J. Rhodes, Improved rice cooking approach to maximise arsenic removal while preserving nutrient elements, Science of The Total Environment, 2020, 143341, ISSN 0048-9697, https://doi.org/10.1016/j.scitotenv.2020.143341
2. Turning wastewater nutrients into fertilizer, https://phys.org/news/2020-10-wastewater-nutrients-fertilizer.html
3. Li, X., Peoples, J., Huang, Z., Zhao, Z., Qiu, J., & Ruan, X. (2020). Full Daytime Sub-ambient Radiative Cooling in Commercial-like Paints with High Figure of Merit. Cell Reports Physical Science, 1(10), 100221. doi:10.1016/j.xcrp.2020.100221
5. 颱風過後,助你一「繩」之力!, https://www.kfbg.org/tc/KFBG-blog/post/After-the-typhoon-Bridging-ravaged-forest-for-the-critically-endangered-Hainan-Gibbon
6. LaPotin, A., Zhong, Y., Zhang, L., Zhao, L., Leroy, A., Kim, H., … Wang, E. N. (2020). Dual-Stage Atmospheric Water Harvesting Device for Scalable Solar-Driven Water Production. Joule. doi:10.1016/j.joule.2020.09.008
7. Zoccola, D., Ounais, N., Barthelemy, D., Calcagno, R., Gaill, F., Henard, S., … Allemand, D. (2020). The World Coral Conservatory: A Noah’s ark for corals to support survival of reef ecosystems. PLOS Biology, 18(9), e3000823. doi:10.1371/journal.pbio.3000823
作者:歐剃
編輯:八云
一個AI :雄性是不是就愛作死(bushi)
本文來自果殼,未經(jīng)授權不得轉載.
如有需要請聯(lián)系sns@guokr.com
一臺電腦分別在C盤和F盤中安裝了同樣的Win7系統(tǒng),將F盤格式化后,開始時仍然會在啟動菜單中出現(xiàn)兩個啟動選項,其實雖然格式化了F盤,即F盤中的系統(tǒng)已經(jīng)不存在了,但并沒有修改位于C盤的引導菜單文件,其中仍然保留了雙系統(tǒng)時的啟動信息,解決該問題的辦法是手動刪除多余的啟動選項,具體操作如下
一、打開“啟動和故障恢復”對話框
在Win7系統(tǒng)中的“計算機”圖標上單擊鼠標右鍵,在彈出的快捷菜單中選擇“屬性”命令,在彈出的窗口中點擊左側的“高級系統(tǒng)設置”,打開“系統(tǒng)屬性”對話框點擊“高級”-“啟動和故障恢復”-“設置”,如圖1
圖1 啟動和故障恢復-設置
二、進入編輯狀態(tài)
在打開的“啟動和故障恢復”對話框中單擊“編輯”按鈕進入編輯狀態(tài),如圖2
圖2 啟動和故障恢復-設置
注:此Win7系統(tǒng)并沒有障礙所以下面截圖紅框中沒有“編輯”,XP用戶點開即可看到
三、編輯啟動項
系統(tǒng)將使用“記事本”程序打開boot.ini文件,將其中多余的代碼刪除,僅保留
multi(0)disk(0)rdisk(0)partition(1)/WINDOWS=“MicrosoftWindows XP Professional”/noexecute=optin /fastdetect
之前的語句,如圖3
圖3 保留代碼
刪除多余的語句后關閉窗口,出現(xiàn)文件boot.ini的文字已經(jīng)改變的提示,并且詢問是否保存,單擊“是”保存即可,重啟電腦將不再出現(xiàn)兩個啟動選項。
****聲明:此實例僅用于學習 *****
在分析房天下網(wǎng)站,不難發(fā)現(xiàn)每個網(wǎng)頁有個重定向,比如:訪問網(wǎng)頁https://cd.esf.fang.com/chushou/3_211293494.htm會跳轉至https://cd.esf.fang.com/chushou/3_211293494.htm?rfss=1-b71f212cbb874a451c-3a 這個網(wǎng)頁,其實兩個地址打開的是同一個網(wǎng)頁
解決方法:在原網(wǎng)頁源代碼中找到重定向網(wǎng)址,request 新網(wǎng)址即可。
response=requests.get(url,headers = headers)
html=response.text
#網(wǎng)頁重定向
pat=re.compile(r'<a class="btn-redir".*?href="(.*?)">點擊跳轉')
url=re.findall(pat,html)[0]
response=requests.get(url,headers = headers)
return response.text
BeautifulSoup4是爬蟲必學的技能。BeautifulSoup最主要的功能是從網(wǎng)頁抓取數(shù)據(jù),Beautiful Soup自動將輸入文檔轉換為Unicode編碼,輸出文檔轉換為utf-8編碼。BeautifulSoup支持Python標準庫中的HTML解析器,還支持一些第三方的解析器,如果我們不安裝它,則 Python 會使用 Python默認的解析器,lxml 解析器更加強大,速度更快,推薦使用lxml 解析器。網(wǎng)上相關文章和介紹很多,不在此啰嗦。
temp_dict['房源']=soup.find('title').string
temp_dict['小區(qū)'] = soup.find('div',id="xq_message").get_text()
temp_dict['總價']=soup.find('div',class_="tab-cont-right").find('div',class_="trl-item price_esf sty1").get_text()
我們將獲取房源信息的數(shù)據(jù)保存在一個temp_dict字典中,然后我們定義一個函數(shù)傳入一個列表(表頭用)和字典數(shù)據(jù),就可以將數(shù)據(jù)保存在CSV文件中啦。
def save_data_csv(keyword_list,dict_data):
if not os.path.exists('fang.csv'):
with open('fang.csv', "w", newline='', encoding='utf-8') as csvfile: # newline='' 去除空白行
writer = csv.DictWriter(csvfile, fieldnames=keyword_list) # 寫字典的方法
writer.writeheader() # 寫表頭的方法
# 接下來追加寫入內容
with open('fang.csv', "a", newline='', encoding='utf-8') as csvfile: # newline='' 一定要寫,否則寫入數(shù)據(jù)有空白行
writer = csv.DictWriter(csvfile, fieldnames=keyword_list)
writer.writerow(dict_data) # 按行寫入數(shù)據(jù)
print("^_^ write success")
感覺寫的還是有點啰嗦。
import re,requests,time,os
from bs4 import BeautifulSoup
from lxml import etree
import json
import csv
def get_html(url):
headers={
'user-agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.92 Safari/537.36',
'cookie':'city=cd; __utma=147393320.989730142.1589024416.1589024416.1589024416.1; __utmc=147393320; __utmz=147393320.1589024416.1.1.utmcsr=baidu|utmccn=(organic)|utmcmd=organic; __utmt_t0=1; __utmt_t1=1; __utmt_t2=1; global_cookie=9ekumblkqetgf7unt5iefiegk1nk9zk41by; logGuid=08b2183e-66fd-4851-8c49-20b9c55f4562; Integrateactivity=notincludemc; csrfToken=ZEhmg2XlXN8rivcJcEqBk4FO; budgetLayer=1%7Ccd%7C2020-05-09%2019%3A41%3A50; g_sourcepage=esf_fy%5Exq_pc; lastscanpage=0; __utmb=147393320.15.10.1589024416; unique_cookie=U_9ekumblkqetgf7unt5iefiegk1nk9zk41by*4',
'authority': 'cd.esf.fang.com',
'path': '/staticsearchlist/EsfListAjax/GetAIDaoGou?pagesize=5',
}
response=requests.get(url,headers = headers)
html=response.text
#網(wǎng)頁重定向
pat=re.compile(r'<a class="btn-redir".*?href="(.*?)">點擊跳轉')
url=re.findall(pat,html)[0]
response=requests.get(url,headers = headers)
return response.text
#print(html)
def get_fang_url(html):
soup = etree.HTML(html)
urls = soup.xpath('//dd/h4[@class="clearfix"]/a/@href')
return urls
def save_data_csv(keyword_list,dict_data):
if not os.path.exists('fang.csv'):
with open('fang.csv', "w", newline='', encoding='utf-8') as csvfile: # newline='' 去除空白行
writer = csv.DictWriter(csvfile, fieldnames=keyword_list) # 寫字典的方法
writer.writeheader() # 寫表頭的方法
# 接下來追加寫入內容
with open('fang.csv', "a", newline='', encoding='utf-8') as csvfile: # newline='' 一定要寫,否則寫入數(shù)據(jù)有空白行
writer = csv.DictWriter(csvfile, fieldnames=keyword_list)
writer.writerow(dict_data) # 按行寫入數(shù)據(jù)
print("^_^ write success")
def parse_page(url,html):
#去除網(wǎng)頁html里面的換行,以便更好的獲取數(shù)據(jù)
html = "".join(line.strip() for line in html.split("\n"))
#定義一個字典
temp_dict={}
soup=BeautifulSoup(html,'lxml')
#采集房源信息
temp_dict['房源']=soup.find('title').string
temp_dict['小區(qū)'] = soup.find('div',id="xq_message").get_text()
temp_dict['總價']=soup.find('div',class_="tab-cont-right").find('div',class_="trl-item price_esf sty1").get_text()
temp_dict['戶型']=soup.find('div',class_="trl-item1 w146").find('div',class_="tt").get_text()
temp_dict['建筑面積'] = soup.find('div', class_="trl-item1 w182").find('div', class_="tt").get_text()
temp_dict['單價'] = soup.find('div', class_="trl-item1 w132").find('div', class_="tt").get_text()
temp_dict['詳情頁'] = url
temp_dict['經(jīng)紀人'] = soup.find('a',id="kesfsfbxq_A01_03_03").get_text()
print(temp_dict)
keyword_list=['房源','小區(qū)','總價','戶型','建筑面積','單價','詳情頁','經(jīng)紀人']
save_data_csv(keyword_list,temp_dict)
#主函數(shù)
if __name__ == '__main__':
#構造網(wǎng)址序列
urls=['https://cd.esf.fang.com/house-a016749-b014906/i{}'.format(i) for i in range(1,101)]
for url in urls:
#獲取單頁數(shù)據(jù)
html = get_html(url)
#獲取單頁上房源的鏈接
new_urls = get_fang_url(html)
for url in new_urls:
new_url = 'https://cd.esf.fang.com' + url
#獲取HTML
html = get_html(new_url)
#解析網(wǎng)頁,保存數(shù)據(jù)
parse_page(new_url,html)
#防止被禁IP,每訪問完一頁,睡眠5秒
time.sleep(5)
相應的數(shù)據(jù)就get到了。
*請認真填寫需求信息,我們會在24小時內與您取得聯(lián)系。