欧美vvv,亚洲第一成人在线,亚洲成人欧美日韩在线观看,日本猛少妇猛色XXXXX猛叫

新聞資訊

    器閱讀理解是當前智能問答領(lǐng)域中的熱門研究問題,它的目標是根據(jù)給定的問題和文章(段落),在文章(段落)中抽取或改寫文字片段作為問題的答案。舉例來說,當前多數(shù)的搜索引擎,當用戶輸入的搜索關(guān)鍵字是一個問題時,就會嘗試從搜索結(jié)果的網(wǎng)頁中尋找答案并以最高優(yōu)先級呈現(xiàn)給用戶。例如搜索“搜狗的吉祥物是什么”,搜索引擎就會反饋如下:

    這其中所利用到的技術(shù)便是“機器閱讀理解”。

    近年來,由于神經(jīng)網(wǎng)絡(luò)的復(fù)興和大規(guī)模數(shù)據(jù)集的可訪問,閱讀理解的研究取得了很大的進展,相繼涌現(xiàn)出許多優(yōu)秀的機器閱讀理解模型。例如,在SQuAD 1.0的排行榜中就已經(jīng)有80多個提交的模型,其中有相當一部分模型的性能已經(jīng)超越了人類的表現(xiàn)。

    這里存在一個問題。作為一個研究人員或開發(fā)者,為了比較這些模型的優(yōu)缺點并加以利用,重現(xiàn)這些模型是非常必要的。但在已有的模型中,很多模型并沒有提供官方的實現(xiàn);而目前已開源的部分模型,由于其所使用的深度學習框架和實現(xiàn)思路存在差異,對許多人來說,理解、比較、改進和重現(xiàn)這些模型又存在著較大困難。

    搜狗搜索針對這樣問題,近期提出并開源了“搜狗閱讀理解工具集合”((Sogou Machine Reading Comprehension,以下簡稱“SMRC”)。SMRC 主要針對抽取式機器閱讀理解任務(wù),提供了包含數(shù)據(jù)集讀取、預(yù)處理、神經(jīng)網(wǎng)絡(luò)模型基件、訓練和評估的完整框架,同時對已發(fā)表的數(shù)十種機器閱讀理解模型進行了復(fù)現(xiàn)和整合,用以幫助使用者快速、高效地重現(xiàn)已有模型或開發(fā)自己的閱讀理解模型。

    該工具集合也是目前業(yè)內(nèi)最全的TensorFlow版本的閱讀理解工具集合。目前與SMRC類似的工具集有 Allen AI的AllenNLP和UCL機器閱讀理解組的Jack The Reader等。但AllenNLP和Jack The Reader更多的是提供適用于多個自然語言處理任務(wù)的框架,其中僅包含少量閱讀理解模型(例如AllenNLP中針對SQuAD數(shù)據(jù)集的模型只有BiDAF和QANet)。SMRC則更多地深挖閱讀理解任務(wù),在建立一套模型構(gòu)建和訓練框架的同時,提供了10+ 個模型的實現(xiàn)。

    項目鏈接:(請戳此處)

    論文鏈接:(請戳此處)

    下面我們來看,SMRC具體有哪些內(nèi)容——

    一、工具集合框架

    如上圖所示,工具集合根據(jù)機器閱讀理解的流程,將工具包分為四個模塊:數(shù)據(jù)集讀取器,數(shù)據(jù)預(yù)處理,模型構(gòu)建和模型訓練。 這四個模塊的設(shè)計為管道流程,可用于大多數(shù)機器閱讀理解任務(wù)。

    數(shù)據(jù)集讀取器機器閱讀理解取得快速進展,一個重要的原因就是各種大規(guī)模、高質(zhì)量問答數(shù)據(jù)集的發(fā)布。為了避免重復(fù)開發(fā)讀取數(shù)據(jù)集的代碼,SMRC提供了一些典型的數(shù)據(jù)集如SQuAD1.0、SQuAD2.0、CoQA的讀取模塊;同時,為了增強語言多樣性,SMRC還提供了支持中文數(shù)據(jù)集CMRC2018的模塊。另一方面,用戶也可以通過繼承 base_dataset,針對其他數(shù)據(jù)集開發(fā)自定義的讀取器。

    數(shù)據(jù)處理為了準備訓練模型的數(shù)據(jù),我們需要建立一個詞匯表、提取語言特征,并將離散特征映射到索引中。該工具包提供了滿足這些要求的模塊:Vocabulary Builder 、Feature Extractor、Batch Generator。

    模型構(gòu)建機器閱讀理解任務(wù)的核心部分就是構(gòu)建一個有效且高效的模型。SMRC除了提供內(nèi)置的模型(我們將在后面介紹)外,還提供了機器閱讀理解任務(wù)中常用的神經(jīng)網(wǎng)絡(luò)組件,以便于用戶構(gòu)建自定義的模型。遵循 “功能 API” 的思想,SMRC 將它們包裝為 Tensorflow 層的 MRC 特定補充:

    • Embedding:包括Vanilla Embedding,PartiallyTrainableEmbedding、CoVeEmbedding,ElmoEmbedding和BertEmbedding等。

    • Recurrent:BiSTM和BiGRU是基本的循環(huán)層,此外SMRC還提供了它們的CUDNN版本——CudnnBiSTM 和 CudnnBiGRU。

    • 相似度函數(shù):SMRC提供了一系列用于計算文本之間的詞級相似度的函數(shù),例如DotProduct、TriLinear和MLP等。

    • Attendtion:注意力層通常與相似性函數(shù)一起使用,例如BiAttention,UniAttention和SelfAttention。

    • 基本層:一些基本層用于機器閱讀理解模型,例如VaritionDropout和Highway,ReduceSequence。

    • 基本操作:這些主要是屏蔽操作,例如,masked softmax, mask logits 。

    通過繼承基礎(chǔ)模型類并組合上述組件,開發(fā)人員基本可以快速地構(gòu)建大多數(shù)主流機器閱讀理解模型。

    模型訓練 在訓練模型時,我們通常關(guān)心指標如何隨著 train/dev 集而變化,何時執(zhí)行early stopping,模型收斂需要多少時期等等。由于大多數(shù)模型都采用類似的訓練策略,所以SMRC提供了一個訓練模塊,主要功能包括保持訓練、評估和推理處理、保存最佳權(quán)重、與指數(shù)移動平均值協(xié)作以及記錄訓練摘要。每個模型還提供了用于保存和加載模型權(quán)重的界面。

    二、內(nèi)置模型

    提供豐富的內(nèi)置模型是SMRC的一大特色,這些內(nèi)置模型都是對已有的優(yōu)秀模型的復(fù)現(xiàn)。其中包括:

    BiDAF:與之前工作中的注意機制不同,BiDAF的核心思想是雙向注意力,它模擬了query-to-context 和 context-to-query 的注意力。(Bidirectional Attention Flow for Machine Comprehension (ICLR 2017))

    DrQA:旨在解決開放域問題解答。 DrQA 使用文字嵌入、基本語言特征和簡單的注意機制,證明了沒有復(fù)雜結(jié)構(gòu)設(shè)計的簡單模型也可以在機器閱讀理解中獲得好的結(jié)果。(Reading Wikipedia to Answer Open-Domain Questions (ACL 2017))

    FusionNet:基于對以往工作中注意力方法的分析,Huang 等人提出了FusionNet,從三個方面擴展了注意力。他們提出使用詞的歷史和 fully aware attention,這使得模型結(jié)合了來自不同語義層的信息流。此外,這個想法也適用于自然語言推理。(Fusing via Fully-aware Attention with Application to Machine Comprehension (ICLR 2018))

    R-Net:R-Net的主要貢獻是自我匹配的注意機制。在上下文和問題的門控匹配之后,引入了段落自匹配來匯總整個段落的證據(jù)并改進段落表示。(Gated Self-Matching Networks for Reading Comprehension and Question Answering (ACL 2017))

    QANet: QANet的體系結(jié)構(gòu)改編自Transformer,它僅包含卷積和自注意力(self-attention)。由于不使用循環(huán)層,QANet在訓練時間內(nèi)提高了313倍的速度,在推理時間內(nèi)提高了49倍的速度。(Combining Local Convolution with Global Self-Attention for Reading Comprehension (ICLR 2018))

    IARNN:SMRC中實現(xiàn)了兩種基于內(nèi)部注意力的RNN(IARNNs),這有利于句子表示并且在答案選擇任務(wù)中有效。 IARNN-word 在輸入RNN模型之前對問題上下文的單詞表示進行加權(quán)。與僅實現(xiàn)輸入字嵌入的IARNN-word不同,IARNN-hidden可以通過向計算注意力權(quán)重添加附加上下文信息來捕獲多個單詞之間的關(guān)系。(Inner Attention based Recurrent Neural Networks for Answer Selection (ACL 2017))

    BiDAF ++:在BiDAF基礎(chǔ)上,引入了多段機器閱讀理解的模型。基于BiDAF,BiDAF ++增加了自我注意力層以增加模型容量。(Simple and Effective Multi-Paragraph Reading Comprehension (ACL 2018))

    BERT&ELMo:預(yù)訓練模型如BERT和ELMo在許多自然語言處理任務(wù)中都表現(xiàn)極好。在SMRC中,使用BERT、ELMo 和Cove作為嵌入層來提供強大的上下文表示。同時,SMRC還包括用于機器閱讀理解的BERT模型,以及修改版本。

    三、快速構(gòu)建及檢驗

    SMRC提供了簡單的接口,對于用戶來說簡單易用,且具有可擴展性。對于主流閱讀理解模型,只需要十多行的代碼便可完成訓練和測試。下面以SquAD1.0為例,快速構(gòu)建并訓練一個內(nèi)置模型(DrQA):

    1、下載數(shù)據(jù)集

    $ wget https://rajpurkar.github.io/SQuAD-explorer/dataset/train-v1.1.json

    $ wget https://rajpurkar.github.io/SQuAD-explorer/dataset/dev-v1.1.json

    $ wget https://nlp.stanford.edu/data/glove.840B.300d.zip #used in DrQA

    $ unzip glove.840B.300d.zip

    2、準備數(shù)據(jù)集閱讀器和鑒別器

    train_file=data_folder + "train-v1.1.json"

    dev_file=data_folder + "dev-v1.1.json"

    reader=SquadReader

    train_data=reader.read(train_file)

    eval_data=reader.read(dev_file)

    evaluator=SquadEvaluator(dev_file)

    3、構(gòu)建詞匯表并加載預(yù)訓練嵌入

    vocab=Vocabulary(do_lowercase=False)

    vocab.build_vocab(train_data + eval_data, min_word_count=3,

    min_char_count=10)

    word_embedding=

    vocab.make_word_embedding(embedding_folder+"glove.840B.300d.txt")

    4、用特征提取器。特征提取器只是在使用語言特征時才需要:

    feature_transformer=

    FeatureExtractor(features=['match_lemma','match_lower','pos','ner','context_tf'],

    build_vocab_feature_names=set(['pos','ner']),word_counter=vocab.get_word_counter)

    train_data=feature_transformer.fit_transform(dataset=train_data)

    eval_data=feature_transformer.transform(dataset=eval_data)

    5、構(gòu)建用于訓練和評估的批處理生成器,其中在使用語言特征時需要附加特征和特征詞匯表。

    train_batch_generator=BatchGenerator(vocab,train_data, training=True, batch_size=32, \

    additional_fields=

    feature_transformer.features,feature_vocab=feature_transformer.vocab)eval_batch_generator=BatchGenerator(vocab,eval_data, batch_size=32, \

    additional_fields=feature_transformer.features,

    feature_vocab=feature_transformer.vocab)

    6、導(dǎo)入內(nèi)置模型并編譯訓練操作,調(diào)用train_and_evaluate等函數(shù)進行訓練和評估。

    model=DrQA(vocab, word_embedding, features=feature_transformer.features,\

    feature_vocab=feature_transformer.vocab)

    model.compile

    model.train_and_evaluate(train_batch_generator, eval_batch_generator, evaluator, epochs=40, eposides=2)

    以上這些代碼適用于所有內(nèi)置模型,以及示例中的所有數(shù)據(jù)集上。你可以按照上面的代碼在不同的數(shù)據(jù)集上分別嘗試不同的模型,看看效果如何。

    SMRC在Github中提供的對比結(jié)果如下:

    在Table 1中是針對SQuAD1.0的模型結(jié)果,可以看出復(fù)現(xiàn)模型與原模型的性能基本一致。而另一方面,當模型加入了BERT或ELMo這樣的預(yù)訓練后,其結(jié)果往往會有極大的提升,因此它們也是NLP的一個新趨勢。

    SQuAD 2.0和CoQA的任務(wù)與SQuAD1.0并不相同,因此有些模型不能直接應(yīng)用到這兩個數(shù)據(jù)集上。基于BiDAF、BiADF++等模型的測試,可以看出內(nèi)置模型有時候甚至比原模型更好。此外,也可以將BiDAF應(yīng)用在CMRC數(shù)據(jù)集上,搜狗搜索提供的測試結(jié)果F1/EM 為57.01/35.0,這提供了一個新的基線。

    四、總結(jié)

    搜狗搜索開源的“搜狗閱讀理解工具集合”,提供了TensorFlow版本的數(shù)據(jù)集讀取、預(yù)處理、神經(jīng)網(wǎng)絡(luò)模型基件、訓練和評估等完整的閱讀理解任務(wù)框架,使開發(fā)人員能夠快速構(gòu)建自定義的機器閱讀模型。此外,SMRC還以統(tǒng)一的框架提供了十多種機器閱讀理解模型,方便了開發(fā)人員復(fù)現(xiàn)和檢驗已有的模型。這些工作將大大地加速相關(guān)的學術(shù)研究。同時,SMRC也給所有想要評估和嘗試落地機器閱讀理解技術(shù)的算法從業(yè)人員提供了上手的捷徑和產(chǎn)品化的初動力。

    據(jù)了解,目前搜狗搜索已經(jīng)將相關(guān)技術(shù)應(yīng)用于產(chǎn)品及業(yè)務(wù)中。在法律領(lǐng)域,搜狗律師的問答機器人具備邏輯分析和推理能力,在遞進式問詢過程中,挖掘判決書中的結(jié)構(gòu)化數(shù)據(jù),幫助用戶理清已發(fā)生的事實,并在充分、準確理解用戶法律訴求的基礎(chǔ)上,給出可能的判決結(jié)果、法律建議或相似案例;在醫(yī)療領(lǐng)域,搜狗搜索的智能分診功能,首創(chuàng)引入了基于人工智能技術(shù)的智能診斷助手,模擬醫(yī)生與病人對話的模式與用戶進行病情溝通,根據(jù)用戶實際癥狀幫助判斷用戶可能患有的疾病。

    參考資料:

    [1] SMRCToolkit

    [2] Sogou Machine Reading Comprehension Toolkit

    [3] 論文原文《基于文檔門控制器的開放域問答》

    [4] 搜狗奪國際頂級挑戰(zhàn)賽CoQA第一名

    [5] CoQA: A Conversational Question Answering Challenge

    [6] SQuAD2.0: The Stanford Question Answering Dataset

    務(wù)辦公,離不開電腦,離不開快捷好用的輸入法。在拼音輸入法大行其道的今天,用五筆輸入法的同學們越來越少了。五筆輸入法入門難,需背熟字根,已經(jīng)成為了一道不小的門檻。今天我來分析推薦我用過的幾款五筆輸入法,我最喜歡的排在前面。僅代表個人意見,看看大家有沒有跟我一樣的。

    一、QQ五筆輸入法~99分

    版本:2.2.344.400 更新時間:2018.12.27 支持:XP / WIN7 / WIN8 / WIN10

    QQ五筆,作為一種高級五筆輸入法,基本集合了市面上所有五筆輸入法的優(yōu)點。

    作為我最喜歡的輸入法,這個我可以給評99分。哈,幾乎滿分!

    QQ五筆的一些方法和技巧。

    1、設(shè)置五筆和拼音混輸入,除非你是專業(yè)的打字員,否則不建議你設(shè)置純五筆輸入法。

    2、選詞順序選擇按最近輸入順序,以前一直按固定位置,不過后來設(shè)置按最近順序之后才發(fā)現(xiàn)真的方便了很多,主要是提高了效率。

    3、按“;”號,會啟動分號模式。

    ①無需切換直接輸入英文,在QQ五筆狀態(tài)下,按下;鍵,然后輸入英文后直接回車,那么;后面的英文就會直接輸出,不會轉(zhuǎn)換成五筆漢字。

    ②數(shù)字自動轉(zhuǎn)換,按;后,在;后輸入數(shù)字,如果按回車會直接顯示數(shù)字,如果空格的話,就會自動轉(zhuǎn)換成中文的漢字大寫數(shù)字。

    ③自動計算,按;后可以直接輸入計算表達式,如:1+1會自動計算出2。

    ④英文聯(lián)想,按;后,直接輸入英文會自動聯(lián)想該英文的后面部分。

    4、QQ五筆的特色,可以綁定自已的qq帳號,并且將自已的配置和詞庫上傳到服務(wù)器。

    5、按一次【Z】恢復(fù)上次輸入;按兩次【Z】調(diào)出符號輸入欄。

    6、通配符輸入:輸入中可用z代替部分編碼串,輸入含有生僻字的詞,智能匹配。這個我很喜歡,因為輸入時,有時會忘記字根在哪里,就用z來代替。

    7、《QQ五筆》會自動將你常打的字,自動組成詞組,并儲存在你自己的詞庫里。換一臺電腦,你用QQ登錄《QQ五筆》后,你獨有的詞庫會被自動更新到新的電腦里。這一點,非常非常有用!

    8、有自定義短語功能。字數(shù)不限,非常好。支持導(dǎo)入導(dǎo)出。我將之前用的搜狗輸入法自定義短語導(dǎo)出成txt格式,打開后依照QQ輸入法的格式,如【qqjq=5,QQ影像】更改(可以用【替換】功能修改,超快)。保存為txt格式后,再改后綴名為【.ini】,再在QQ輸入法導(dǎo)入就行。

    9、系統(tǒng)自帶五筆小詞典快捷鍵Ctrl+Shift+?,不清楚的字隨時可以反查五筆或拼音編碼……而且支持即時英漢漢英翻譯,超強。

    10、按數(shù)字1前面的“`~”鍵,可啟動臨時生僻字功能。

    11、分號快速將候選第二位上屏;單引號快速將候選第三位上屏。

    12、支持拼音五筆混輸、純五筆、純拼音。在拼音輸入模式下支持句子輸入。在純五筆模式下,按“z”鍵,可啟用臨時拼音功能。

    13、有許多精美皮膚可以供選擇。

    14、方便的快捷鍵設(shè)置。如符號輸入器Ctrl+Shift+B,快速輸入符號和表情。

    15、分類詞庫官方下載,下載下來的詞庫“*.qpyd”文件,雙擊打開即可自動安裝。或者回到“QQ五筆詞庫管理”窗口,點擊“添加詞庫”按鈕,選擇篩選為“所有文件”將“x.qpyd”打開,這樣我們就添加成功了。QQ拼音和QQ五筆的詞庫可以通用。但很多都是.qcel格式,導(dǎo)入錯誤。解決方法:用深藍詞庫轉(zhuǎn)換2.7版本,轉(zhuǎn)換QQ詞庫里下載的.qcel格式為.txt格式,這樣才能導(dǎo)入QQ五筆輸入法的分類詞庫里面使用。

    二、搜狗五筆輸入法~95分

    作為我也非常喜歡的輸入法,這個我可以打分為95分。

    搜狗五筆輸入法是當前互聯(lián)網(wǎng)新一代的五筆輸入法,并且承諾永久免費。搜狗五筆輸入法與傳統(tǒng)輸入法不同的是,不僅支持隨身詞庫――超前的網(wǎng)絡(luò)同步功能,并且兼容目前強大的搜狗拼音輸入法的所有皮膚,值得一提的是,五筆+拼音、純五筆、純拼音多種模式的可選,使得輸入適合更多人群。不知為什么現(xiàn)在同步不了個人配置和詞庫了。

    1、自定義短語支持300字。

    2、輸入速度快。無延遲無廣告干擾。

    3、按“;”號,會啟動分號模式。

    ①可實現(xiàn)任意的算數(shù)表達式的計算。

    ②大寫數(shù)字的隨意輸入。

    ③可智能實現(xiàn)中英文狀態(tài)的切換。輸入英文字符或字符串,最后以空格鍵結(jié)束即可實現(xiàn)中文狀態(tài)下英文輸入的快速切換。跟按shift中英文切換效果一樣。

    4、經(jīng)常使用簡拼效率高

    只需輸入詞語的首字母的簡拼方式,能夠大大減少擊鍵次數(shù)。經(jīng)常使用,會提高打字速度很多哦~~

    5、生詞輸入一次就記住

    搜狗詞庫雖然無所不包,但是仍會有重啟出現(xiàn),只要輸入生詞一次,搜狗就可以記住哦!下次再打就順利出來咯~~

    6、網(wǎng)址和郵箱的輸入

    特別設(shè)計的網(wǎng)址輸入模式,能夠自動識別網(wǎng)址與郵箱,不用切換即可輸入。

    輸入以www. http: ftp: telnet: mailto:等開頭時,自動識別進入到英文輸入狀態(tài),后面可以輸入網(wǎng)址。

    7、詞語聯(lián)想功能

    只需要輸入一個長詞的前4個章節(jié)的首字母,即可在第2、3的位置看到這個長詞。對于一些經(jīng)常打的長詞,會非常的快捷、高效率

    8、輸入rq sj xq快速輸入時間/日期/星期。

    9、分號快速將候選第二位上屏;單引號快速將候選第三位上屏。

    10、中文輸入時z調(diào)出最后輸入的字詞;還有符號輸入提示。

    11、shift中英文切換,切換英文時,保留輸入窗口的字符并自動上屏。

    12、左ctrl轉(zhuǎn)換為臨時拼音。

      ctrl+shift+z——復(fù)制詞語后,造新詞。

      ctrl+shift+c——自定義短語。支持多行、空格,最長300個漢字或英文字符,其中回車為兩個字符。

    13、方便的輸入字符——工具箱點右鍵-設(shè)置-表情和符號-符號大全,還有搜索符號功能,太棒了。

    14、標點符號自動配對——右鍵點擊-工具欄-“設(shè)置屬性”-“高級”-“標點符號自動配對”。

    15、輸入中文數(shù)字如“一”,候選框中會出現(xiàn)對應(yīng)的“①”。很方便。

    16、不認識的字,可以手寫——右鍵點擊-工具欄-“工具箱”-“手寫”。

    17、可以在官方下載皮膚:

    右鍵選“立即下載”——“鏈接另存為”,才能正常下載SFF的正確格式文件。(默認用迅雷,則會下載成php格式,使用不了)。下載后,記得存放在搜狗輸入法的皮膚系統(tǒng)文件里面C:\Users\james\AppData\LocalLow\SogouWB.users>右鍵選“立即下載”——“鏈接另存為”,才能正常下載SFF的正確格式文件。(默認用迅雷,則會下載成php格式,使用不了)。下載后,記得存放在搜狗輸入法的皮膚系統(tǒng)文件里面C:\Users\james\AppData\LocalLow\SogouWB.users\00000001\AllSkin,之后就會自動可以使用了。<000001\AllSkin,之后就會自動可以使用了。

    18. 細胞詞庫 我的是3.1版本的,安裝不了。不知為什么。

    ①手動下載安裝

    去搜狗輸入法細胞詞庫官網(wǎng)直接下載你需要的詞庫,細胞詞庫是一個格式為.scel的文件,下載后,雙擊確認安裝即可。

    用這個細胞詞庫安裝工具也無法安裝:C:\Program Files (x86)\SogouWBInput.1.0.1751\ScdReg.exe

    ②智能推薦

    搜狗輸入法會根據(jù)您的輸入習慣,不定期推薦您最需要的細胞詞庫,彈出提示,你直接點擊使用即可。

    ③細胞詞庫管理

    打開輸入法的設(shè)置界面,其中有細胞詞庫管理

    ④ 細胞詞庫的更新

    細胞詞庫會自動更新,一旦官網(wǎng)的細胞詞庫增加了詞條,那么輸入法將自動把本地細胞詞庫升級到最新版本。

    三、萬能五筆輸入法~93分

    這個我給的分數(shù)為93分。

    好用,但自定義短語太短,不太方便;而且有些卡,比較慢,經(jīng)常也彈出廣告。但瑕不掩瑜,仍然值得推薦。怎么使用,大家可以慢慢摸索,這里不詳述。

    四、百度五筆輸入法~90分

    這個我給到90分。

    也值得推薦。

    五、微軟拼音輸入法~93分

    最后跑題也說說Windows10自帶的微軟拼音輸入法,其實挺好用的。我給到93分。

    1、U模式

    平常遇到一些復(fù)雜的字,我們不知道它的拼音,那該怎么輸入呢?這時我們就需要用到微軟拼音中的U模式了,通過筆畫、拆分就可以解決!

    首先,我們需要牢記U模式的規(guī)則,五種基本筆畫“橫、豎、撇、捺、折”分別對應(yīng)“h、s、p、n、z”,比如輸入“少”這個字,我們就可以輸入“u’spnp”。

    除此之外,U模式還可以拆分輸入找到你想要的字,比如“叕”這個字,相比大家都會想到又雙叒叕這個梗,不會讀,怎么快速打出不認識的字呢?看清楚了!將這個字拆分為四個“又”,輸入“u’you’you’you’you”就可以找到這個字,而且微軟拼音還很貼心地告訴你這個字是讀“zhuó”。

    當然,筆畫和拆分這兩種方式還可以結(jié)合起來用。例如輸入“u'lou'phpn”就可以找到“數(shù)”這個字。

    有時候很難輸入一些比較特殊的字符,U模式仍然可以為你輕松解決!微軟拼音劃分了單位、序號、特殊、標點、數(shù)學、幾何和字母共6種類別,我們可以通過輸入“uu+類別首字母拼音”召喚出來。

    2、V模式

    想要快速輸入一些特殊格式的文本,如大寫數(shù)字、農(nóng)歷日期或者數(shù)學公式?V模式可以助你一臂之力。按下“V”鍵后輸入數(shù)字,選框內(nèi)就會出現(xiàn)不同的文本格式讓你選擇,而且還能輸入簡單的數(shù)學公式。

    3、;模式

    有時想要輸入人名,卻發(fā)現(xiàn)候選框中有很多無關(guān)字符,這的確很影響效率。為了解決這個問題,我們可以采用“;模式”,這是一個專門輸入人名的模式,只要在輸入姓名的拼音后依次按“;”和“R” 鍵進入(雙拼模式下是“Shift + ;”后按“R”),這樣,候選詞就變?yōu)槌R姷娜嗣米郑⒋笾乱猿霈F(xiàn)頻次排列,十分方便。

    4、專業(yè)詞典和云詞匯

    在微軟拼音中,出了計算機科學、數(shù)學、醫(yī)學等專業(yè)學科詞典外,我們可以啟用不同的專業(yè)詞典。此外,微軟拼音借助Windows及必應(yīng)的龐大用戶量,使得我們可以從云端獲取各種最新網(wǎng)絡(luò)熱詞作為候選。但如果你覺得云詞匯會涉及到隱私問題,那么可以在設(shè)置中取消勾選云計算、自學習和動態(tài)詞頻調(diào)整功能。

    5、表情及符號面板

    想要輸入表情或者顏文字,按下鍵盤任意字母,然后按tab鍵,敲擊空格鍵你就會進入到表情及符號面板,分享個更簡單的方法:同時按下“Ctrl+Shift+B”即可打開。

    在這里,我們可以挑選各種表情、顏文字以及特殊符號,甚至還有根據(jù)語境預(yù)測你想要輸入的表情,在線支持粘貼圖片至QQ、微信等聊天軟件。

    分析完我用過好用的五款輸入法,其實都挺好用。以上排名僅代表個人愛好,喜不喜歡,好不好用,還得看個人習慣。

    我是【求知探索號】,經(jīng)常會為大家分享更多實用知識,探索更大更遠闊的世界,感謝大家的閱讀,請大家多多關(guān)注哦!

    T之家 2 月 11 日消息,去年底,搜狗搜索 App 發(fā)布公告稱,由于公司業(yè)務(wù)調(diào)整,搜狗搜索 App 將于 2022 年 1 月中下旬升級為 Bingo App,Bingo App 將保留原搜狗搜索 App 的搜索引擎與小說書架服務(wù)。

    據(jù)IT之家網(wǎng)友 @犬來八荒 投稿,今天這一變化已經(jīng)正式實施,應(yīng)用商店中的搜狗搜索 App 已經(jīng)升級為 Bingo App,號稱“學習與生活神器”,提供搜索、小說、學習館、健康館、資源館等功能。

    IT之家了解到,此前公告還稱,用戶升級至 Bingo App 后,小說方面,將保留本地小說書架的書籍記錄,并為用戶匹配正版免費小說;搜索歷史方面,升級后將不保留本地及原登錄賬號下的搜索歷史記錄;另外,網(wǎng)頁瀏覽歷史、下載歷史和本地設(shè)置方面,升級 Bingo App 后,不保留原應(yīng)用中的網(wǎng)頁瀏覽歷史、下載歷史和本地設(shè)置數(shù)據(jù)。此外,公告還表示 2022 年 1 月 1 日 0 時起,首頁信息流服務(wù)關(guān)閉,不再提供資訊內(nèi)容推薦和閱讀服務(wù)。

網(wǎng)站首頁   |    關(guān)于我們   |    公司新聞   |    產(chǎn)品方案   |    用戶案例   |    售后服務(wù)   |    合作伙伴   |    人才招聘   |   

友情鏈接: 餐飲加盟

地址:北京市海淀區(qū)    電話:010-     郵箱:@126.com

備案號:冀ICP備2024067069號-3 北京科技有限公司版權(quán)所有