整合營(yíng)銷服務(wù)商

          電腦端+手機(jī)端+微信端=數(shù)據(jù)同步管理

          免費(fèi)咨詢熱線:

          2020年人工智能論文總結(jié)



          管今年世界上發(fā)生了這么多事情,我們還是有機(jī)會(huì)看到很多驚人的研究成果。特別是在人工智能領(lǐng)域。此外,今年還強(qiáng)調(diào)了許多重要的方面,比如倫理方面、重要的偏見等等。人工智能以及我們對(duì)人類大腦及其與人工智能的聯(lián)系的理解在不斷發(fā)展,在不久的將來(lái)顯示出有前途的應(yīng)用。

          以下是本年度最有趣的研究論文,如果你錯(cuò)過(guò)了其中的任何一篇的話。簡(jiǎn)而言之,它基本上是一個(gè)根據(jù)發(fā)布日期列出的人工智能和數(shù)據(jù)科學(xué)最新突破的列表,配有清晰的視頻解釋、更深入的文章鏈接和代碼(如果適用的話)。

          本文最后列出了每篇論文的完整參考文獻(xiàn)。


          YOLOv4: Optimal Speed and Accuracy of Object Detection [1]

          這第4個(gè)版本由Alexey Bochkovsky等人于2020年4月在論文"YOLOv4: Optimal Speed and Accuracy of Object Detection"中介紹。該算法的主要目標(biāo)是在精度方面做出一個(gè)高質(zhì)量的超高速目標(biāo)檢測(cè)器。


          DeepFaceDrawing: Deep Generation of Face Images from Sketches [2]

          您現(xiàn)在可以使用這種新的圖像到圖像轉(zhuǎn)換技術(shù),從粗糙甚至不完整的草圖生成高質(zhì)量的人臉圖像,無(wú)需繪圖技巧!如果你的畫技和我一樣差,你甚至可以調(diào)整眼睛、嘴巴和鼻子對(duì)最終圖像的影響。讓我們看看它是否真的有效,以及他們是如何做到的。


          Learning to Simulate Dynamic Environments with GameGAN [3]

          這項(xiàng)研究由英偉達(dá)多倫多AI實(shí)驗(yàn)室和日本游戲大廠萬(wàn)代南夢(mèng)宮 *BANDAI NAMCO) 一同開發(fā),技術(shù)來(lái)自前者,數(shù)據(jù)來(lái)自后者。

          簡(jiǎn)單來(lái)說(shuō),僅對(duì)簡(jiǎn)單的游戲錄像和玩家輸入進(jìn)行學(xué)習(xí),GameGAN 就能夠模擬出接近真實(shí)游戲的環(huán)境,還不需要游戲引擎和底層代碼。它的底層是在 AI 領(lǐng)域很有名的生成對(duì)抗網(wǎng)絡(luò) (GAN)。


          PULSE: Self-Supervised Photo Upsampling via Latent Space Exploration of Generative Models [4]

          它可以把超低分辨率的16x16圖像轉(zhuǎn)換成1080p高清晰度的人臉!你不相信我?然后你就可以像我一樣,在不到一分鐘的時(shí)間里自己試穿一下!


          Unsupervised Translation of Programming Languages [5]

          這種新模型在沒(méi)有任何監(jiān)督的情況下將代碼從一種編程語(yǔ)言轉(zhuǎn)換成另一種編程語(yǔ)言!它可以接受一個(gè)Python函數(shù)并將其轉(zhuǎn)換成c++函數(shù),反之亦然,不需要任何先前的例子!它理解每種語(yǔ)言的語(yǔ)法,因此可以推廣到任何編程語(yǔ)言!我們來(lái)看看他們是怎么做到的。


          PIFuHD: Multi-Level Pixel-Aligned Implicit Function for High-Resolution 3D Human Digitization [6]

          這個(gè)人工智能從2D圖像生成3D高分辨率的人的重建!它只需要一個(gè)單一的圖像你生成一個(gè)3D頭像,看起來(lái)就像你,甚至從背后!


          High-Resolution Neural Face Swapping for Visual Effects [7]

          迪士尼的研究人員在論文中開發(fā)了一種新的高分辨率視覺(jué)效果人臉交換算法。它能夠以百萬(wàn)像素的分辨率渲染照片真實(shí)的結(jié)果。。它們的目標(biāo)是在保持actor的性能的同時(shí),從源actor交換目標(biāo)actor的外觀。這是非常具有挑戰(zhàn)性的,在很多情況下都是有用的,比如改變角色的年齡,當(dāng)演員不在的時(shí)候,甚至當(dāng)它涉及到一個(gè)對(duì)主要演員來(lái)說(shuō)太危險(xiǎn)的特技場(chǎng)景。目前的方法需要大量的逐幀動(dòng)畫和專業(yè)人員的后期處理。


          Swapping Autoencoder for Deep Image Manipulation [8]

          這種新技術(shù)可以改變?nèi)魏螆D片的紋理,同時(shí)使用完全無(wú)監(jiān)督的訓(xùn)練保持現(xiàn)實(shí)!結(jié)果看起來(lái)甚至比GANs能實(shí)現(xiàn)的還要好,而且速度更快!它甚至可以用來(lái)制作深度贗品!


          GPT-3: Language Models are Few-Shot Learners [9]

          當(dāng)前最先進(jìn)的NLP系統(tǒng)很難推廣到不同的任務(wù)上。 他們需要在成千上萬(wàn)個(gè)示例的數(shù)據(jù)集上進(jìn)行微調(diào),而人類只需要查看幾個(gè)示例即可執(zhí)行新的語(yǔ)言任務(wù)。 這是GPT-3的目標(biāo),目的是改善語(yǔ)言模型的任務(wù)不可知特性。


          Learning Joint Spatial-Temporal Transformations for Video Inpainting [10]

          與當(dāng)前的最新技術(shù)相比,該AI可以填充移動(dòng)的物體后面的缺失像素,并以更高的準(zhǔn)確性和更少的模糊度重建整個(gè)視頻!


          Image GPT — Generative Pretraining from Pixels [11]

          一個(gè)好的人工智能,比如Gmail中使用的那個(gè),可以生成連貫的文本并完成你的短語(yǔ)。這是使用相同的原理來(lái)完成圖像處理! 全部在無(wú)監(jiān)督的訓(xùn)練中完成,根本不需要標(biāo)簽!


          Learning to Cartoonize Using White-box Cartoon Representations [12]

          該AI可以將您想要的任何圖片或視頻進(jìn)行卡通化!


          Neural Re-Rendering of Humans from a Single Image [14]

          該算法將身體的姿勢(shì)和形狀表示為參數(shù)網(wǎng)格,可以從單個(gè)圖像進(jìn)行重構(gòu)并輕松放置。 給定一個(gè)人的圖像,他們便能夠以不同的姿勢(shì)或從另一個(gè)輸入圖像獲得的不同衣服來(lái)創(chuàng)建該人的合成圖像。


          I2L-MeshNet: Image-to-Lixel Prediction Network for Accurate 3D Human Pose and Mesh Estimation from a Single RGB Image [15]

          目標(biāo)是提出一種從單個(gè)RGB圖像進(jìn)行3D人體姿勢(shì)和網(wǎng)格估計(jì)的新技術(shù)。 他們稱其為I2L-MeshNet。 I2L代表"圖像到像素"。 就像體素,體積+像素,是三維空間中的量化單元格一樣,他們將lixel,線和像素定義為一維空間中的量化單元格。 他們的方法優(yōu)于以前的方法,并且代碼是公開可用的!


          Beyond the Nav-Graph: Vision-and-Language Navigation in Continuous Environments [16]

          語(yǔ)言導(dǎo)航是一個(gè)被廣泛研究的領(lǐng)域,也是一個(gè)非常復(fù)雜的領(lǐng)域。 對(duì)于一個(gè)人來(lái)說(shuō),走過(guò)一所房子來(lái)拿掉您放在床頭柜上的咖啡就很簡(jiǎn)單了。 但這對(duì)于AI代理來(lái)說(shuō)是另外一回事了,它是一個(gè)使用深度學(xué)習(xí)執(zhí)行任務(wù)的自主AI驅(qū)動(dòng)的系統(tǒng)。


          RAFT: Recurrent All-Pairs Field Transforms for Optical Flow [17]

          ECCV 2020最佳論文獎(jiǎng)授予普林斯頓大學(xué)團(tuán)隊(duì)。 他們?yōu)楣饬鏖_發(fā)了一種新的端到端可訓(xùn)練模型。 他們的方法超越了跨多個(gè)數(shù)據(jù)集的最新架構(gòu)的準(zhǔn)確性,并且效率更高。


          Crowdsampling the Plenoptic Function [18]

          利用從互聯(lián)網(wǎng)上獲得的公開照片,他們能夠重構(gòu)旅游場(chǎng)景的多個(gè)視點(diǎn),從而保留逼真的陰影和照明! 這是用于真實(shí)感場(chǎng)景渲染的最先進(jìn)技術(shù)的巨大進(jìn)步,其結(jié)果簡(jiǎn)直令人贊嘆。


          Old Photo Restoration via Deep Latent Space Translation [19]

          想象一下,當(dāng)您祖母18歲時(shí),她的老照片,折疊甚至撕裂的照片都清晰無(wú)瑕,清晰度很高。 這就是所謂的舊照片恢復(fù),本文只是使用深度學(xué)習(xí)方法開辟了一條全新的途徑來(lái)解決這一問(wèn)題。


          Neural circuit policies enabling auditable autonomy [20]

          來(lái)自IST Austria和MIT的研究人員已經(jīng)成功地使用一種新的人工智能系統(tǒng)訓(xùn)練了自動(dòng)駕駛汽車,該系統(tǒng)基于細(xì)小動(dòng)物(如線蟲)的大腦。 他們實(shí)現(xiàn)了這一點(diǎn),與流行的深度神經(jīng)網(wǎng)絡(luò)(如Inceptions,Resnets或VGG)所需的數(shù)百萬(wàn)個(gè)神經(jīng)元相比,只有少數(shù)神經(jīng)元能夠控制自動(dòng)駕駛汽車。 他們的網(wǎng)絡(luò)僅使用75,000個(gè)參數(shù)(由19個(gè)控制神經(jīng)元而不是數(shù)百萬(wàn)個(gè)參數(shù))就可以完全控制汽車!


          Lifespan Age Transformation Synthesis [21]

          來(lái)自Adobe Research的一組研究人員僅根據(jù)該人的一張照片開發(fā)了一種用于年齡轉(zhuǎn)換合成的新技術(shù)。 它可以從您發(fā)送的任何圖片中生成不同年齡的圖片。


          DeOldify [22]

          DeOldify是一種使舊的黑白圖像甚至膠片畫面著色和還原的技術(shù)。 它是由Jason Antic開發(fā)的,并且仍在更新中。 現(xiàn)在,這是對(duì)黑白圖像進(jìn)行著色的最新技術(shù),并且所有內(nèi)容都是開源的,但是稍后我們將再次討論。


          COOT: Cooperative Hierarchical Transformer for Video-Text Representation Learning [23]

          顧名思義,它使用Transformer將視頻及其一般描述作為輸入來(lái)為視頻的每個(gè)序列生成準(zhǔn)確的文本描述。


          Stylized Neural Painting [24]

          這種圖像到繪畫的翻譯方法,該使用一種新穎的方法模擬多種樣式的真實(shí)畫家,并且該方法不涉及任何GAN架構(gòu),這與所有當(dāng)前的最新方法不同!


          Is a Green Screen Really Necessary for Real-Time Portrait Matting? [25]

          人臉消光是一項(xiàng)非常有趣的任務(wù),目標(biāo)是在圖片中找到任何人并從中刪除背景。 由于任務(wù)的復(fù)雜性,必須找到具有完美輪廓的一個(gè)或多個(gè)人,這確實(shí)很難實(shí)現(xiàn)。 在本文中,我將回顧這些年來(lái)使用的最佳技術(shù)以及一種將于2020年11月29日發(fā)布的新穎方法。許多技術(shù)都在使用基本的計(jì)算機(jī)視覺(jué)算法來(lái)完成此任務(wù),例如GrabCut算法,該算法非常快,但不是非常精確


          ADA: Training Generative Adversarial Networks with Limited Data [26]

          借助NVIDIA開發(fā)的這種新的訓(xùn)練方法,您可以使用十分之一的圖像訓(xùn)練強(qiáng)大的生成模型! 使許多無(wú)法訪問(wèn)太多圖像的應(yīng)用程序成為可能!


          Improving Data‐Driven Global Weather Prediction Using Deep Convolutional Neural Networks on a Cubed Sphere [27]

          當(dāng)前的傳統(tǒng)天氣預(yù)報(bào)方法使用了我們所謂的"數(shù)值天氣預(yù)報(bào)"模型。 它使用大氣和海洋的數(shù)學(xué)模型根據(jù)當(dāng)前條件預(yù)測(cè)天氣。 它于1920年代首次引入,并在1950年代使用計(jì)算機(jī)模擬產(chǎn)生了逼真的結(jié)果。 這些數(shù)學(xué)模型可用于預(yù)測(cè)短期和長(zhǎng)期預(yù)測(cè)。 但是它的計(jì)算量很大,無(wú)法將其預(yù)測(cè)基于像深度神經(jīng)網(wǎng)絡(luò)一樣多的數(shù)據(jù)。 這就是為什么它如此有前途的部分原因。 這些當(dāng)前的數(shù)值天氣預(yù)報(bào)模型已經(jīng)使用機(jī)器學(xué)習(xí)來(lái)改進(jìn)預(yù)報(bào)作為后處理工具。 天氣預(yù)報(bào)越來(lái)越受到機(jī)器學(xué)習(xí)研究人員的關(guān)注,已經(jīng)產(chǎn)生了很好的效果。


          NeRV: Neural Reflectance and Visibility Fields for Relighting and View Synthesis [28]

          這種新方法能夠生成完整的3維場(chǎng)景,并具有確定場(chǎng)景照明的能力。 與以前的方法相比,所有這些都具有非常有限的計(jì)算成本和驚人的結(jié)果。


          如您所見,這是人工智能領(lǐng)域非常有見地的一年,我很高興看到2021年會(huì)發(fā)生什么! 我一定會(huì)覆蓋最激動(dòng)人心和有趣的論文,

          作者:Louis Bouchard

          原文地址 https://github.com/louisfb01/BestAIpaper_2020

          最后所有的論文列表在這里:

          [1] A. Bochkovskiy, C.-Y. Wang, and H.-Y. M. Liao, Yolov4: Optimal speed and accuracy of object detection, 2020. arXiv:2004.10934 [cs.CV].

          [2] S.-Y. Chen, W. Su, L. Gao, S. Xia, and H. Fu, "DeepFaceDrawing: Deep generation of face images from sketches," ACM Transactions on Graphics (Proceedings of ACM SIGGRAPH2020), vol. 39, no. 4, 72:1–72:16, 2020.

          [3] S. W. Kim, Y. Zhou, J. Philion, A. Torralba, and S. Fidler, "Learning to Simulate DynamicEnvironments with GameGAN," in IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Jun. 2020.

          [4] S. Menon, A. Damian, S. Hu, N. Ravi, and C. Rudin, Pulse: Self-supervised photo upsampling via latent space exploration of generative models, 2020. arXiv:2003.03808 [cs.CV].

          [5] M.-A. Lachaux, B. Roziere, L. Chanussot, and G. Lample, Unsupervised translation of programming languages, 2020. arXiv:2006.03511 [cs.CL].

          [6] S. Saito, T. Simon, J. Saragih, and H. Joo, Pifuhd: Multi-level pixel-aligned implicit function for high-resolution 3d human digitization, 2020. arXiv:2004.00452 [cs.CV].

          [7] J. Naruniec, L. Helminger, C. Schroers, and R. Weber, "High-resolution neural face-swapping for visual effects," Computer Graphics Forum, vol. 39, pp. 173–184, Jul. 2020.doi:10.1111/cgf.14062.

          [8] T. Park, J.-Y. Zhu, O. Wang, J. Lu, E. Shechtman, A. A. Efros, and R. Zhang,Swappingautoencoder for deep image manipulation, 2020. arXiv:2007.00653 [cs.CV].

          [9] T. B. Brown, B. Mann, N. Ryder, M. Subbiah, J. Kaplan, P. Dhariwal, A. Neelakantan, P.Shyam, G. Sastry, A. Askell, S. Agarwal, A. Herbert-Voss, G. Krueger, T. Henighan, R. Child, A. Ramesh, D. M. Ziegler, J. Wu, C. Winter, C. Hesse, M. Chen, E. Sigler, M. Litwin, S.Gray, B. Chess, J. Clark, C. Berner, S. McCandlish, A. Radford, I. Sutskever, and D. Amodei,"Language models are few-shot learners," 2020. arXiv:2005.14165 [cs.CL].

          [10] Y. Zeng, J. Fu, and H. Chao, Learning joint spatial-temporal transformations for video in-painting, 2020. arXiv:2007.10247 [cs.CV].

          [11] M. Chen, A. Radford, R. Child, J. Wu, H. Jun, D. Luan, and I. Sutskever, "Generative pretraining from pixels," in Proceedings of the 37th International Conference on Machine Learning, H. D. III and A. Singh, Eds., ser. Proceedings of Machine Learning Research, vol. 119, Virtual: PMLR, 13–18 Jul 2020, pp. 1691–1703. [Online]. Available:http://proceedings.mlr.press/v119/chen20s.html.

          [12] Xinrui Wang and Jinze Yu, "Learning to Cartoonize Using White-box Cartoon Representations.", IEEE Conference on Computer Vision and Pattern Recognition, June 2020.

          [13] S. Mo, M. Cho, and J. Shin, Freeze the discriminator: A simple baseline for fine-tuning gans,2020. arXiv:2002.10964 [cs.CV].

          [14] K. Sarkar, D. Mehta, W. Xu, V. Golyanik, and C. Theobalt, "Neural re-rendering of humans from a single image," in European Conference on Computer Vision (ECCV), 2020.

          [15] G. Moon and K. M. Lee, "I2l-meshnet: Image-to-lixel prediction network for accurate 3d human pose and mesh estimation from a single rgb image," in European Conference on ComputerVision (ECCV), 2020

          [16] J. Krantz, E. Wijmans, A. Majumdar, D. Batra, and S. Lee, "Beyond the nav-graph: Vision-and-language navigation in continuous environments," 2020. arXiv:2004.02857 [cs.CV].

          [17] Z. Teed and J. Deng, Raft: Recurrent all-pairs field transforms for optical flow, 2020. arXiv:2003.12039 [cs.CV].

          [18] Z. Li, W. Xian, A. Davis, and N. Snavely, "Crowdsampling the plenoptic function," inProc.European Conference on Computer Vision (ECCV), 2020.

          [19] Z. Wan, B. Zhang, D. Chen, P. Zhang, D. Chen, J. Liao, and F. Wen, Old photo restoration via deep latent space translation, 2020. arXiv:2009.07047 [cs.CV].

          [20] Lechner, M., Hasani, R., Amini, A. et al. Neural circuit policies enabling auditable autonomy. Nat Mach Intell 2, 642–652 (2020). https://doi.org/10.1038/s42256-020-00237-3

          [21] R. Or-El, S. Sengupta, O. Fried, E. Shechtman, and I. Kemelmacher-Shlizerman, "Lifespanage transformation synthesis," in Proceedings of the European Conference on Computer Vision(ECCV), 2020.

          [22] Jason Antic, Creator of DeOldify, https://github.com/jantic/DeOldify

          [23] S. Ging, M. Zolfaghari, H. Pirsiavash, and T. Brox, "Coot: Cooperative hierarchical trans-former for video-text representation learning," in Conference on Neural Information ProcessingSystems, 2020.

          [24] Z. Zou, T. Shi, S. Qiu, Y. Yuan, and Z. Shi, Stylized neural painting, 2020. arXiv:2011.08114[cs.CV].

          [25] Z. Ke, K. Li, Y. Zhou, Q. Wu, X. Mao, Q. Yan, and R. W. Lau, "Is a green screen really necessary for real-time portrait matting?" ArXiv, vol. abs/2011.11961, 2020.

          [26] T. Karras, M. Aittala, J. Hellsten, S. Laine, J. Lehtinen, and T. Aila, Training generative adversarial networks with limited data, 2020. arXiv:2006.06676 [cs.CV].

          [27] J. A. Weyn, D. R. Durran, and R. Caruana, "Improving data-driven global weather prediction using deep convolutional neural networks on a cubed sphere", Journal of Advances in Modeling Earth Systems, vol. 12, no. 9, Sep. 2020, issn: 1942–2466.doi:10.1029/2020ms002109

          [28] P. P. Srinivasan, B. Deng, X. Zhang, M. Tancik, B. Mildenhall, and J. T. Barron, "Nerv: Neural reflectance and visibility fields for relighting and view synthesis," in arXiv, 2020.

          文是從八個(gè)方面來(lái)對(duì)2018的網(wǎng)頁(yè)設(shè)計(jì)的總結(jié),一起來(lái)看看~

          本文翻譯自澳大利亞設(shè)計(jì)師Rylan Ziesing及其設(shè)計(jì)團(tuán)隊(duì)Rhino Design對(duì)2018年網(wǎng)頁(yè)設(shè)計(jì)的總結(jié)。

          一、豐富的色彩與漸變色的運(yùn)用

          漸變色和豐富的色彩,以其自身的美學(xué)魅力和強(qiáng)烈的視覺(jué)效果,而為設(shè)計(jì)師所青睞并大量使用。隨著此類設(shè)計(jì)風(fēng)格需求的日益增長(zhǎng),廣闊的色域和漸變色將在2018繼續(xù)流行下去。

          二、響應(yīng)式設(shè)計(jì)

          對(duì)于移動(dòng)網(wǎng)絡(luò)來(lái)說(shuō),2017年是具有里程碑意義的一年,它的使用量最終超過(guò)了桌面瀏覽量。這也意味著網(wǎng)頁(yè)設(shè)計(jì)師將比以往更注重移動(dòng)設(shè)備用戶的需求。

          (譯者注:2017《移動(dòng)互聯(lián)網(wǎng)藍(lán)皮書》發(fā)布,移動(dòng)互聯(lián)網(wǎng)用戶達(dá)到10.93億,而PC用戶停滯不前。無(wú)論用戶使用哪種設(shè)備,筆記本、智能手機(jī)還是Pad,產(chǎn)品頁(yè)面都應(yīng)當(dāng)能夠自動(dòng)切換分辨率、圖片尺寸及相關(guān)腳本功能等,以適應(yīng)不同設(shè)備;換句話說(shuō),頁(yè)面應(yīng)該有能力去自動(dòng)響應(yīng)用戶的設(shè)備環(huán)境。)

          三、動(dòng)效無(wú)處不在

          設(shè)計(jì)一個(gè)網(wǎng)站時(shí)我們需要考慮諸多因素,如網(wǎng)速、技術(shù)能力、用戶類型等。從中可以看到,為什么動(dòng)效和交互式界面,會(huì)成為2018網(wǎng)頁(yè)設(shè)計(jì)主流趨勢(shì)中的重要部分,尤其當(dāng)人們的審美要求越來(lái)越高、技術(shù)棧越來(lái)越先進(jìn)。

          (譯者注:技術(shù)棧一般來(lái)說(shuō)是指將N種技術(shù)互相組合在一起(N>1),作為一個(gè)有機(jī)的整體來(lái)實(shí)現(xiàn)某種目的;也可以指掌握這些技術(shù)以及配合使用的經(jīng)驗(yàn),比方說(shuō):LAMP LNMP MEAN都是常見的Web技術(shù)棧。這里的棧就是英文stack的意思,即一些東西堆在一起,而非數(shù)據(jù)結(jié)構(gòu)的棧的意思。)

          四、為了視覺(jué)傳達(dá)的插畫

          在數(shù)字產(chǎn)品的營(yíng)銷領(lǐng)域,圖像的選擇是我們遇到過(guò)的最有意思的挑戰(zhàn)。整個(gè)設(shè)計(jì)團(tuán)隊(duì)都會(huì)針對(duì)這個(gè)問(wèn)題進(jìn)行討論,通常最終會(huì)歸結(jié)于以下兩種選擇:

          1. 產(chǎn)品UI界面展示和動(dòng)圖(GIF);
          2. 美化的或融入生活場(chǎng)景的圖片。

          前者主要強(qiáng)調(diào)產(chǎn)品的體驗(yàn)、特性和功能,而后者更突出產(chǎn)品與用戶的交互,即產(chǎn)品對(duì)人們生活產(chǎn)生的影響。

          五、Material Design

          Material Design是谷歌基于Android系統(tǒng)推出的全新設(shè)計(jì)語(yǔ)言,一開始可能主要面向移動(dòng)設(shè)備界面,但后來(lái)無(wú)論是在移動(dòng)設(shè)備還是PC平臺(tái),它的流行度和使用量都呈現(xiàn)爆發(fā)式增長(zhǎng)。

          其實(shí)Material Design是過(guò)去幾年扁平化設(shè)計(jì)趨勢(shì)的延續(xù),但它并不是單純的扁平化,而是增加了適當(dāng)?shù)狞c(diǎn)綴以增強(qiáng)可用性,這是扁平化設(shè)計(jì)所不及的。Material Design的根本是可用性,而不是拿掉一切以提升視覺(jué)吸引力。

          六、推送通知

          Web推送通知是來(lái)自網(wǎng)站的消息,即使當(dāng)前瀏覽器沒(méi)有打開相關(guān)頁(yè)面也會(huì)出現(xiàn)。

          Web推送通知是一種全新的營(yíng)銷渠道,可用于在沒(méi)有用戶電子郵件或其他聯(lián)系方式的情況下,與網(wǎng)站訪問(wèn)者重新建立聯(lián)系。

          七、漸進(jìn)式Web應(yīng)用程序

          2015年,谷歌創(chuàng)造了漸進(jìn)式Web應(yīng)用程序(Progressive Web Apps, PWA)。

          PWA是指可以在任意瀏覽器上執(zhí)行的支持互聯(lián)網(wǎng)的應(yīng)用程序,它是由服務(wù)器端腳本(PHP和ASP)和客戶端腳本(JavaScript和HTML)組成。應(yīng)用最廣泛的例子就是在線電子表格(Google Docs)、電子郵件(Gmail)、照片和視頻編輯(Pixlr.com)等,這些程序允許用戶同時(shí)訪問(wèn)相同版本的文檔。

          有無(wú)服務(wù)人員是PWA和常規(guī)Web應(yīng)用程序的主要區(qū)別,服務(wù)人員是PWA背后強(qiáng)大的技術(shù)支撐,在服務(wù)人員的幫助下,可實(shí)現(xiàn)離線模式工作、接收推送消息、更新背景內(nèi)容等。PWA旨在實(shí)現(xiàn)多個(gè)平臺(tái)通用的應(yīng)用程序。

          簡(jiǎn)單易安裝也是Web應(yīng)用程序與原生應(yīng)用程序相比的一大優(yōu)點(diǎn)。此外,開發(fā)人員不需要將PWA適配到iOS或Android平臺(tái)上,由于使用網(wǎng)絡(luò)技術(shù),PWA可跨平臺(tái)工作。

          八、在線客戶支持

          以會(huì)話為導(dǎo)向的營(yíng)銷和銷售平臺(tái),將企業(yè)與客戶實(shí)時(shí)聯(lián)系起來(lái)。這使得我們可以進(jìn)一步開展創(chuàng)意營(yíng)銷,開拓全新的營(yíng)銷方式,以更好地達(dá)到預(yù)期目標(biāo)。

          譯者小結(jié)

          本文作者是從國(guó)外Web設(shè)計(jì)角度出發(fā),和國(guó)內(nèi)的視角還是有一些區(qū)別,但其中的很多概念還是可以借鑒的。漸變色、響應(yīng)式設(shè)計(jì)、動(dòng)效都是最近幾年的熱門詞,其中的漸進(jìn)式Web應(yīng)用程序是我第一次了解這個(gè)概念,相信未來(lái)國(guó)內(nèi)的開發(fā)人員會(huì)在此方面有所建樹。

          原文標(biāo)題:《Web design in 2018》

          原文鏈接:https://www.behance.net/gallery/60586377/Web-Design-Trends-2018

          本文由 @UImax 翻譯發(fā)布于人人都是產(chǎn)品經(jīng)理。未經(jīng)許可,禁止轉(zhuǎn)載

          題圖來(lái)自Unsplash,基于CC0協(xié)議

          對(duì)海量的文獻(xiàn)信息我們往往會(huì)感覺(jué)無(wú)從下手,更不用提閱讀外文文獻(xiàn)了。但是閱讀外文文獻(xiàn)對(duì)于把握最新科研動(dòng)態(tài),擴(kuò)充自己的知識(shí)是非常有必要的,下面給大家分享一些閱讀外文文獻(xiàn)的經(jīng)驗(yàn)。不一定完全正確,僅作參考。

          如何有針對(duì)性地查找文獻(xiàn)

          現(xiàn)在各大學(xué)圖書館里的數(shù)據(jù)庫(kù)都比較全,即使不全也可以通過(guò)網(wǎng)絡(luò)上多種手段獲取文獻(xiàn)了。所以說(shuō)文獻(xiàn)的獲取不是問(wèn)題,問(wèn)題在于查什么樣的文獻(xiàn)?


          ①本領(lǐng)域核心期刊的文獻(xiàn)。不同的研究方向有不同的核心期刊,這里也不能一概唯IF論了。當(dāng)然,首先你要了解所研究領(lǐng)域的核心期刊有哪些,這個(gè)就要靠學(xué)長(zhǎng)、老板或者網(wǎng)上戰(zhàn)友的互相幫助了。


          ②本領(lǐng)域牛人或主要課題組的文獻(xiàn)。每個(gè)領(lǐng)域內(nèi)都有幾個(gè)領(lǐng)軍人物,他們所從事的方向往往代表目前的發(fā)展主流。因此,閱讀這些組里的文獻(xiàn)就可以把握目前的研究重點(diǎn)。怎么知道誰(shuí)是“領(lǐng)軍人物”呢?這里提供兩個(gè)小方法:第一,在ISI里檢索本領(lǐng)域的文獻(xiàn),利用refine功能找出論文數(shù)量較多的作者或課題組;另一個(gè)方法,先要了解本領(lǐng)域有哪些規(guī)模較大的國(guó)際會(huì)議,登陸會(huì)議主辦方的網(wǎng)站一般都能看到關(guān)于會(huì)議的invited speaker的名字,作為邀請(qǐng)報(bào)告的報(bào)告人一般就是了。


          ③高引用次數(shù)的文章。一般來(lái)說(shuō)高引用次數(shù)(如果不是靠自引堆上去的話)文章都是比較經(jīng)典的文章。多讀這樣的文章,體會(huì)作者對(duì)文章結(jié)構(gòu)的把握和圖表分析的處理,相信可以從中領(lǐng)悟很多東西。


          知道了查什么樣的文獻(xiàn)后,那么具體怎么去查文獻(xiàn)?

          通過(guò)關(guān)鍵詞、主題詞檢索:關(guān)鍵詞、主題詞一定要選好,這樣,才能保證你所要的內(nèi)容的全面。因?yàn)椋瑩Q個(gè)主題詞,可以有新的內(nèi)容出現(xiàn)。

          通過(guò)檢索某個(gè)學(xué)者:查SCI,知道了某個(gè)在這個(gè)領(lǐng)域有建樹的學(xué)者,找他近期發(fā)表的文章。

          通過(guò)參考綜述檢索:如果有與自己課題相關(guān)或有切入點(diǎn)的綜述,可以根據(jù)相應(yīng)的參考文獻(xiàn)找到那些原始的研究論文。

          注意文章的參考價(jià)值:刊物的影響因子、文章的被引次數(shù)能反映文章的參考價(jià)值。但要注意引用這篇文章的其它文章是如何評(píng)價(jià)這篇文章的。


          如何對(duì)下載的文獻(xiàn)進(jìn)行分類整理

          關(guān)于文獻(xiàn)的整理,很多時(shí)候大家下文獻(xiàn)都是很盲目的,抱著一種先下載下來(lái)再說(shuō)的心態(tài)。往往下載的文獻(xiàn)不少,但只是空占著磁盤空間。不經(jīng)過(guò)整理歸類的文獻(xiàn)就不是自己的文獻(xiàn),那根據(jù)什么來(lái)分類呢?


          對(duì)于擁有大量未讀文獻(xiàn)的這里有個(gè)簡(jiǎn)單方法,只關(guān)心三點(diǎn):


          ①文章前言的最后一部分(一般這部分給出作者為什么要進(jìn)行這項(xiàng)工作,依據(jù)和方法)

          ②文章的圖表(提出采用的表征方法)

          ③結(jié)論(是否實(shí)現(xiàn)了既定目標(biāo)以及是否需要改進(jìn))


          當(dāng)然,對(duì)所有的未讀文獻(xiàn)全部精讀相信工作量也不小,盡可能用50字左右來(lái)歸納文章(包括文章的目的+表征手段+主要結(jié)論)。當(dāng)你按照這個(gè)方法歸納整理幾十篇文獻(xiàn)后,自然會(huì)有一個(gè)大致的了解,而后再根據(jù)你的筆記將文獻(xiàn)分類整理,當(dāng)你在寫論文需要解釋引用時(shí)再回頭精讀,我覺(jué)得這樣會(huì)提高效率不少。


          在歸類時(shí),重要文獻(xiàn)可以根據(jù)重要程度在文件名前加001,002,003編號(hào),然后按名稱排列圖標(biāo),最重要的文獻(xiàn)就排在最前了,而且重要文獻(xiàn)要注意追蹤。


          當(dāng)然分類的標(biāo)準(zhǔn)還有其他,例如根據(jù)中文/英文、綜述/研究論文等。




          如何閱讀科技文獻(xiàn)

          ① 明確文獻(xiàn)的閱讀目的

          讀文獻(xiàn)有不同的讀法,但最重要的是自己總結(jié)概括這篇文獻(xiàn)到底說(shuō)了什么,否則就是白讀。文獻(xiàn)整理分類的時(shí)候?qū)嶋H就已經(jīng)概括了各文獻(xiàn)。下面介紹的是幾種不同目的的文獻(xiàn)讀法?

          讀文獻(xiàn)有不同的讀法,但最重要的是自己總結(jié)概括這篇文獻(xiàn)到底說(shuō)了什么,否則就是白讀。文獻(xiàn)整理分類的時(shí)候?qū)嶋H就已經(jīng)概括了各文獻(xiàn)。下面介紹的是幾種不同目的的文獻(xiàn)讀法?

          目的1. 回顧重要內(nèi)容的讀法——take home message

          每次讀完文獻(xiàn)(不管是精讀還是泛讀),合上文獻(xiàn)后,想想看,文章最重要的take-home message是什么,如果不知道,就從abstract,conclusion里找,并且最好從discuss里確認(rèn)一下。這樣一來(lái),一篇文章就過(guò)關(guān)了。Take home message其實(shí)都不會(huì)很多,基本上是一些concepts,如果你發(fā)現(xiàn)你需要記得很多,那往往是沒(méi)有抓到重點(diǎn)。


          目的2.擴(kuò)充知識(shí)面的讀法——introduction

          重點(diǎn)讀introduction,看人家提出的問(wèn)題,以及目前的進(jìn)展。類似的文章(Reference中),每天讀一兩篇,一個(gè)月內(nèi)就基本上對(duì)這個(gè)領(lǐng)域的某個(gè)方向有個(gè)大概的了解。當(dāng)然,讀好的review也行,但這樣容易使人變得懶惰。


          目的3.寫文章的讀法——discussion

          讀文章的時(shí)候,尤其是看discussion的時(shí)候,覺(jué)到好的英文句型,最好有意識(shí)的記一下,看一下作者是誰(shuí),哪篇文章,哪個(gè)期刊,這樣以后“照貓畫虎”寫的時(shí)候,效率高些。比自己在那里半天琢磨出一個(gè)句子強(qiáng)的多。當(dāng)然,讀的多,寫得多,你需要記的句型就越少。其實(shí)很簡(jiǎn)單,有意識(shí)的去總結(jié)和記億,就不容易忘記。


          ② 根據(jù)文獻(xiàn)的類型來(lái)確定閱讀順序

          對(duì)于一個(gè)以前沒(méi)有接觸的陌生領(lǐng)域看文獻(xiàn)的方式是先看中文綜述,然后是中文博士論文,而后是英文綜述,最后是英文期刊文獻(xiàn)。

          先讀綜述,可以更好地認(rèn)識(shí)課題,知道已經(jīng)做出什么,還有什么問(wèn)題沒(méi)有解決,自己要做什么。對(duì)于國(guó)內(nèi)文獻(xiàn)一般批評(píng)的聲音很多。但它是你迅速了解你的研究領(lǐng)域的入口,在此之后,你再看外文文獻(xiàn)會(huì)比一開始直接看外文文獻(xiàn)理解得快得多。而國(guó)外的綜述多為本學(xué)科的資深人士撰寫,涉及范圍廣,可以讓人事半功倍。通過(guò)中文綜述,你可以首先了解這行的基本名詞,基本參量和常用的制備、表征方法。我覺(jué)得這點(diǎn)很重要,因?yàn)槿绻苯佑⑽纳鲜值脑挘恍┗久~如果簡(jiǎn)單的想當(dāng)然的翻譯,往往會(huì)將你引入誤區(qū)或造成歧義。同時(shí)中文綜述里要包含了大量的英文參考文獻(xiàn),這就為后續(xù)的查找文獻(xiàn)打下一個(gè)基礎(chǔ)。

          中文博士論文,特別是最近幾年的,其第一章前言或是緒論所包含的信息量往往大于一篇綜述的。因?yàn)樗鼤?huì)更加詳細(xì)地介紹該領(lǐng)域的背景以及相關(guān)理論知識(shí),同時(shí)里面往往會(huì)提到國(guó)內(nèi)外在本領(lǐng)域做得比較好的幾個(gè)科研小組的相關(guān)研究方向。通過(guò)閱讀就可以更清楚理清一個(gè)脈絡(luò)。

          英文綜述,特別是那種invited paper或是發(fā)表在高IF期刊上的,往往都是本領(lǐng)域的大家寫的。對(duì)此要精讀,要分析其文章的構(gòu)架,特別要關(guān)注作者對(duì)各個(gè)方向的優(yōu)缺點(diǎn)的評(píng)價(jià)以及對(duì)缺點(diǎn)的改進(jìn)和展望。通過(guò)精讀一篇好的英文綜述,所獲得的不只是對(duì)本領(lǐng)域現(xiàn)在發(fā)展?fàn)顩r的了解,同時(shí)也可以學(xué)會(huì)很多地道的英文表達(dá)。


          ③ 閱讀文獻(xiàn)中各個(gè)部分

          注重摘要:摘要可以說(shuō)是一個(gè)論文的窗口。多數(shù)文章看摘要,少數(shù)文章看全文。真正有用的全文并不多,過(guò)分追求全文是浪費(fèi),不可走極端。當(dāng)然只看摘要也是不對(duì)的。多數(shù)文章題目、摘要簡(jiǎn)單瀏覽后,直接把幾個(gè)Figure及Title與legend一看,一般能掌握大部分。

          通讀全文:讀第一遍的時(shí)候一定要認(rèn)真,爭(zhēng)取明白每句的大意,能不查字典最好先不查字典。因?yàn)樽x論文的目的并不是學(xué)英語(yǔ),而是獲取信息,查了字典以后思維會(huì)變得混亂,往往讀完全文不知所謂。可以在讀的過(guò)程中將生字標(biāo)記,待通讀全文后再查找其意思。

          歸納總結(jié):較長(zhǎng)的文章,容易遺忘。好在雖然論文的句子都長(zhǎng),但每段的句數(shù)并不多,可以每一段用一個(gè)詞組標(biāo)一個(gè)標(biāo)題。

          確立句子的架構(gòu),抓住主題:讀英文原版文獻(xiàn)有竅門的。我們每個(gè)單詞都認(rèn)識(shí)讀完了卻不知他在說(shuō)什么,這是最大的問(wèn)題。在閱讀的時(shí)候一定要看到大量的關(guān)系連詞,他們承上啟下引領(lǐng)了全文。讀每一段落都要找到他的主題,往往是很容易的,大量的無(wú)用信息可以一帶而過(guò),節(jié)約你大量的寶貴時(shí)間和精力。

          增加閱讀量:由于剛剛接觸這一領(lǐng)域,對(duì)許多問(wèn)題還沒(méi)有什么概念,讀起來(lái)十分吃力,許多內(nèi)容也讀不懂。后來(lái)隨著閱讀量的增加,最后可以融會(huì)貫通。所以,對(duì)新手而言,應(yīng)當(dāng)重視閱讀文獻(xiàn)的數(shù)量,積累多了,自然就由量變發(fā)展為質(zhì)變了。


          ④ 文獻(xiàn)閱讀的一些建議

          先找5篇跟自己論文最相關(guān)的外文文章看。花一個(gè)月的時(shí)間認(rèn)認(rèn)真真地看,反復(fù)看,要求全部讀懂,不懂的地方可以和同學(xué)和老師交流一下。從中理解文章中回答什么問(wèn)題,通過(guò)哪些技術(shù)手段來(lái)證明,有哪些結(jié)論? 從這些文章中,了解研究思路,邏輯推論,學(xué)習(xí)技術(shù)方法。一個(gè)月以后你已經(jīng)上路了。

          把下載的論文打印出來(lái)。把論文根據(jù)與自己課題的相關(guān)性分三類:一類要精讀,二類要泛讀,三類要選擇性的讀,分別裝訂在一起。

          看過(guò)的文獻(xiàn)要溫習(xí)。看完的文獻(xiàn)千萬(wàn)不要丟在一邊不管,3-4個(gè)月一定要溫習(xí)一遍,可以根據(jù)需要,對(duì)比自己的試驗(yàn)結(jié)果來(lái)看。

          做好筆記和標(biāo)記。重要的結(jié)論,經(jīng)典的句子,精巧的試驗(yàn)方案一定要記下來(lái),供參考和學(xué)習(xí)。復(fù)印或打印的文獻(xiàn),直接用筆標(biāo)記或批注。pdf 或html格式的文獻(xiàn),可以用編輯器標(biāo)亮或改變文字顏色。這是避免時(shí)間浪費(fèi)的又一重要手段,否則等于沒(méi)看。

          有些試驗(yàn)方法相同、結(jié)論不同的文獻(xiàn),可以批判性的閱讀。我想如果是你自己做試驗(yàn)多的話,你應(yīng)該有這個(gè)能力判斷誰(shuí)的更對(duì)一點(diǎn)。出現(xiàn)試驗(yàn)方法相同,結(jié)論不同的原因有下:試驗(yàn)方法描述不詳細(xì),可能方法有差別;試驗(yàn)條件不一樣;某些作者夸大結(jié)果,瞎編數(shù)據(jù)。

          集中時(shí)間看文獻(xiàn)。看文獻(xiàn)的時(shí)間越分散,浪費(fèi)時(shí)間越多。集中時(shí)間看更容易聯(lián)系起來(lái),形成整體印象。


          如何提高英語(yǔ)科研的寫作能力

          英文文章的寫作是文獻(xiàn)閱讀的副產(chǎn)品,平時(shí)閱讀文獻(xiàn),注意總結(jié)常用句型和常用短語(yǔ)(注意,文獻(xiàn)作者最好是以英語(yǔ)為母語(yǔ)者,文獻(xiàn)內(nèi)容要與你的專業(yè)有關(guān)),然后找3-5篇技術(shù)路線和統(tǒng)計(jì)方法與你的課題接近的文章,精讀。

          ① 要寫好科研論文,必須先養(yǎng)成閱讀英文文章的習(xí)慣,爭(zhēng)取每天30~60分鐘。剛開始可以選擇以讀英文報(bào)紙、英文新聞為主,逐漸轉(zhuǎn)為讀專業(yè)雜志。

          ② 寫科研論文,最重要的是邏輯。邏輯的形成來(lái)自于對(duì)實(shí)驗(yàn)數(shù)據(jù)的總體分析。必須先討論出一套清晰的思路,然后按照思路來(lái)做圖表(Figures),最后才執(zhí)筆。

          ③ 具體寫作時(shí),先按照思路(即Figures)寫一個(gè)以subheading(小標(biāo)題)為主的框架,然后開始具體寫作。第一稿,切忌追求每一句話的完美,更不要追求詞語(yǔ)的華麗,而主要留心邏輯(logic flow),注意前后句的邏輯關(guān)系、相鄰兩段的邏輯關(guān)系。寫作時(shí),全力以赴,盡可能不受外界事情干擾(關(guān)閉手機(jī)、座機(jī)),爭(zhēng)取在最短時(shí)間內(nèi)拿出第一稿。還要注意:一句話不可太長(zhǎng)。

          ④ 學(xué)會(huì)照葫蘆畫瓢。沒(méi)有人天生會(huì)寫優(yōu)秀的科研論文,都是從別人那里學(xué)來(lái)的。學(xué)習(xí)別人的文章要注意專業(yè)領(lǐng)域的不同,有些領(lǐng)域有它內(nèi)在的寫作規(guī)律。在向別人學(xué)習(xí)時(shí),切忌抄襲。在美國(guó)一些機(jī)構(gòu),連續(xù)7個(gè)英文單詞在一起和別人的完全一樣,原則上就被認(rèn)為抄襲(plagiarism)。

          ⑤ 第一稿寫完后,給自己不要超過(guò)一天的休息時(shí)間,開始修改第二稿。修改時(shí),還是以邏輯為主,但對(duì)每一句話都要推敲一下,對(duì)abstract和正文中的關(guān)鍵語(yǔ)句要字斟句酌。科研文章里的一些話是定式,比如“To investigate the mechanism of……,we performed……”(為了探索……的機(jī)制,我們做了……),“These results support the former,but not the latter,hypothesis……”(這些結(jié)果支持了前面的觀點(diǎn),而不是后面的,假設(shè)……),“Despite recent progress,how……remains to be elucidated……”(盡管最近的進(jìn)展,如何闡明……)等等。用兩次以后,就逐漸學(xué)會(huì)靈活運(yùn)用了。學(xué)會(huì)用“Thesaurus”(同義詞替換)以避免過(guò)多重復(fù)。第二稿的修改極為關(guān)鍵,再往后就不會(huì)大改了。

          ⑥ 第二稿以后的修改,主要注重具體的字句,不會(huì)改變整體邏輯了。投稿前,一定要整體讀一遍,對(duì)個(gè)別詞句略作改動(dòng)。記住:學(xué)術(shù)期刊一般不會(huì)因?yàn)榫唧w的語(yǔ)法錯(cuò)誤而拒絕一篇文章,但一定會(huì)因?yàn)檫壿嫽靵y而拒絕一篇文章。

          發(fā)表論文是一件值得高興的事情,但要明白:論文只是一個(gè)載體,是為了向同行們宣告你的科研發(fā)現(xiàn),是科學(xué)領(lǐng)域交流的重要工具。所以,在科研論文寫作時(shí),一定要謹(jǐn)記于心的就是:用最簡(jiǎn)單的話表達(dá)最明白的意思,但一定要邏輯嚴(yán)謹(jǐn)!其實(shí),中文和英文論文皆如此!


          主站蜘蛛池模板: 国产一区二区三区播放心情潘金莲 | 亚洲片国产一区一级在线观看| 国产一区二区女内射| 一本大道在线无码一区| 国偷自产Av一区二区三区吞精| 精品一区二区三区无码视频| 亚洲日韩国产一区二区三区在线| 亚洲AV色香蕉一区二区| 国产亚洲一区二区在线观看| 香蕉一区二区三区观| 免费人人潮人人爽一区二区| 日韩AV片无码一区二区不卡| 丝袜美腿一区二区三区| 最新欧美精品一区二区三区| 激情亚洲一区国产精品| 亚洲一区二区三区日本久久九| 国产一区二区三区在线2021| 亚洲一区二区三区香蕉| 久久精品无码一区二区三区 | 亚洲一区二区三区夜色| 看电影来5566一区.二区| 国产自产V一区二区三区C| 亚洲熟女一区二区三区| 久久精品国产免费一区| 日韩一区二区三区无码影院| 亚洲国产视频一区| 国产主播在线一区| 日本一区二区三区在线观看视频| 成人精品视频一区二区| 精品久久久中文字幕一区| 国产凸凹视频一区二区| 无码人妻AⅤ一区二区三区水密桃 无码欧精品亚洲日韩一区夜夜嗨 无码毛片一区二区三区中文字幕 无码毛片一区二区三区视频免费播放 | 一色一伦一区二区三区| 无码日韩精品一区二区免费| 久热国产精品视频一区二区三区 | 三上悠亚亚洲一区高清| 亚洲中文字幕无码一区| 亚洲一区二区三区亚瑟| 色婷婷亚洲一区二区三区| av无码精品一区二区三区四区| 国产品无码一区二区三区在线蜜桃|