整合營銷服務商

          電腦端+手機端+微信端=數據同步管理

          免費咨詢熱線:

          ttkefu在線客服如何獲取代碼

          ttkefu在線客服如何獲取代碼
          1. 冊并登錄ttkefu賬號。可以在ttkefu的官方網站(https://www.ttkefu.com/)上進行注冊和登錄。
          2. 下載并安裝ttkefu的PC端軟件。可以在官方網站上的下載頁面(https://www.ttkefu.com/download.html)找到下載鏈接。
          3. 在軟件中獲取代碼。登錄PC端軟件后,點擊右上角的“設置”選項,然后選擇“獲取代碼”。此時,你會看到兩種類型的代碼:A代碼和B代碼。
          • A代碼為漂浮代碼,可以自定義各種圖片及組合,具有帶訪客進入功能。這種代碼需要安裝到網站源代碼的底部,你可以將A代碼復制后粘貼在網頁源代碼的底部。
          • B代碼為URL鏈接,可以直接鏈接到你的文字或按鈕上,也可以放到APP、微信菜單中使用。此外,B代碼還可以生成對話二維碼,用戶可以通過掃描二維碼直接與客服人員進行對話。

          請注意,將代碼添加到網站后,你可能需要等待一段時間(通常是幾分鐘到幾小時)才能看到在線客服功能生效。這是因為一些網站可能需要時間來緩存和更新代碼。

          ttkefu在線客服的URL鏈接是一個特定的網址,用于打開ttkefu的客服對話窗口。當用戶點擊這個鏈接時,會觸發與ttkefu客服系統的交互,從而開始一個在線客服會話。

          這個URL鏈接通常是由ttkefu系統生成并提供給用戶的,每個ttkefu賬號都有自己唯一的URL鏈接。這個鏈接可以根據用戶的需要進行定制,可以嵌入到企業的網站、APP或其他在線平臺中,方便用戶快速找到并聯系客服人員。

          具體的URL鏈接形式可能會因ttkefu系統的更新而有所變化,因此建議查閱ttkefu的官方文檔或聯系其客服支持以獲取最準確和最新的信息。

          #34;怎么在自己的網站上添加在線客服功能?",Zoho SalesIQ它可以幫助你快速設置和自定義您的實時聊天系統。

          只需復制粘貼一段代碼,在5分鐘內就可以完成代碼安裝。如果您還有其他問題,Zoho SalesIQ強大的服務支持團隊非常樂意幫助您。

          除此之外,您還可以方便地自定義 Zoho SalesIQ 并進行功能擴展。例如:優化網站訪客的實時聊天體驗,自定義聊天小部件使其與您的品牌同步,編寫個性化的歡迎消息,添加公司 logo 或客服人員頭像,配置實時聊天等待時間等等。

          (注:支持中文版本)

          設置聊天部門

          您可以將您的客服團隊根據服務的問題進行分類,方便客戶快速找到正確的客服人員,以便高效地解決問題。

          預置答復

          當客戶在輸入框內輸入問題的時候,這個功能可以幫助你快速地了解客戶問題,用提前設置好的答復快速回復。比如:同時有幾十個客戶問關于活動優惠券的事情,就可以使用這一功能進行回復。

          (注:支持中文版)

          個性化自定義

          我們的 JavaScript API 便于使用,您可快速實施和設計 API,充分自定義您的實時聊天。比如:在聊天等待時間中顯示廣告來加強網站訪客的參與度,在線上商城中添加符合語境的聊天按鈕等等。自定義您的 Zoho SalesIQ ,讓它更加符合您的業務需求。

          Zoho SalesIQ與網站訪客開始主動在線實時聊天并提供實時客戶支持。基于內容、搜索引擎優化 (SEO)、Adwords 和電子郵件營銷工作,提高投資回報率。

          下內容摘自與ChatGPT對話

          問:我是一個企業,有很多企業資料,想通過chatGPT訓練成我企業的客服,我該如何將企業的信息上傳給chatGPT呢?

          答:要將企業資料上傳到ChatGPT,您需要按照以下步驟操作:

          確定您希望ChatGPT能夠回答的問題范圍和主題,并收集相關的企業資料,包括文本、圖片、音頻和視頻等。

          將這些資料整理成可供機器學習模型訓練的格式。具體來說,您需要將資料轉換為文本格式,并標注每個文本的主題和意圖,以便ChatGPT可以理解這些信息。

          導入這些數據到ChatGPT訓練平臺,使用機器學習算法來訓練模型。您可以使用預先訓練好的模型進行微調,以適應您企業的特定需求。

          在模型訓練完成后,您可以將ChatGPT集成到您的企業網站或客戶服務平臺中,以便客戶可以與ChatGPT交互并獲取幫助。

          請注意,在上傳企業信息到ChatGPT之前,您需要確保這些信息不包含敏感數據或保密信息,并遵守相關的數據保護法規和隱私政策。此外,要讓ChatGPT能夠更好地理解客戶的問題并提供準確的答案,您可能需要為ChatGPT提供額外的培訓數據或調整算法參數。


          問:繼續,chatGPT是否提供相關的技術接口,將數據導入到chatGPT

          答:是的,ChatGPT提供了多種技術接口,以便用戶將數據導入到模型中進行訓練。以下是一些可能有用的接口:

          REST API:ChatGPT的REST API允許用戶使用HTTP請求將數據上傳到模型中。用戶可以使用各種編程語言和框架來實現此功能,并在需要時發送請求。

          Python SDK:ChatGPT的Python SDK是一組用于與模型進行交互的Python代碼庫。用戶可以使用此SDK將數據加載到模型中,然后使用SDK提供的API對模型進行訓練和評估。

          CLI工具:ChatGPT的命令行界面(CLI)工具允許用戶從終端窗口上傳數據到模型中。該工具提供了許多有用的選項和參數,以便用戶對訓練過程進行更精細的控制。

          Web界面:ChatGPT提供了一個Web界面,允許用戶通過瀏覽器上傳數據到模型中。該界面提供了一個易于使用的界面,可以幫助用戶快速上傳數據并訓練模型。

          需要注意的是,不同的接口適用于不同的場景和需求,用戶需要選擇適合自己的接口,并按照接口的要求準備和上傳數據。


          問:繼續,能否給出具體的代碼示例

          答:當然,下面是一個Python代碼示例,展示了如何使用ChatGPT的Python SDK將文本數據導入模型進行訓練:

          import openai
          import json
          # 設置OpenAI API key
          openai.api_key="YOUR_API_KEY"
          # 定義數據集名稱
          dataset_name="my-dataset"
          # 定義要上傳的數據
          data=[
          {
          "text": "What products do you offer?",
          "label": "products"
          },
          {
          "text": "How can I track my order?",
          "label": "order-tracking"
          },
          {
          "text": "What is your refund policy?",
          "label": "refund"
          }
          ]
          # 創建數據集
          openai.Dataset.create(
          name=dataset_name,
          data=json.dumps(data),
          language="en",
          description="My dataset for training ChatGPT"
          )
          # 加載數據集
          dataset=openai.Dataset(dataset_name)
          # 訓練模型
          model=openai.Model.create(
          "text-davinci-002",
          datasets=[dataset.id],
          model_name="my-chatbot"
          )
          # 等待模型訓練完成
          while model.status !="ready":
          model=openai.Model.retrieve(model.id)
          # 使用模型進行推理
          response=openai.Completion.create(
          engine="text-davinci-002",
          prompt="What is your refund policy?",
          max_tokens=50
          )
          # 打印模型的推理結果
          print(response.choices[0].text)

          上述示例代碼中,我們首先定義了一個名為"my-dataset"的數據集,并在其中添加了三個問題和相應的標簽。然后,我們使用OpenAI API創建了該數據集,并將其加載到一個名為"my-chatbot"的新模型中進行訓練。在模型訓練完成后,我們使用OpenAI API對模型進行推理,詢問了一個與數據集中的問題相關的問題,并打印了模型的推理結果。

          需要注意的是,此代碼示例中使用了OpenAI API,因此您需要先獲取一個API密鑰才能運行代碼。此外,您需要將代碼中的"YOUR_API_KEY"替換為您自己的API密鑰。另外,這只是一個基本的代碼示例,您需要根據您的實際需求進行調整和擴展。


          問:繼續,CLI工具怎么用呢

          答:使用ChatGPT的CLI工具,您可以通過命令行上傳數據到模型中,并控制訓練過程的各個方面。下面是一個簡單的示例,演示了如何使用CLI工具將數據上傳到模型中進行訓練:

          安裝CLI工具

          首先,您需要安裝ChatGPT的CLI工具。可以通過以下命令在終端中安裝:

          pip install openai

          設置API密鑰

          在使用CLI工具之前,您需要設置OpenAI API密鑰。可以使用以下命令將您的API密鑰添加到環境變量中:

          export OPENAI_API_KEY=your_api_key

          創建數據集

          接下來,您需要創建一個名為"my-dataset"的數據集,并添加一些示例數據。可以使用以下命令創建該數據集:

          openai datasets create --name my-dataset --language en --description "My dataset for training ChatGPT"

          上傳數據

          現在,您可以使用以下命令將數據上傳到數據集中:

          openai datasets upload my-dataset --csv my-data.csv --column 0 --column 1

          上述命令假設您將數據存儲在名為"my-data.csv"的文件中,其中第一列是文本數據,第二列是標簽數據。

          訓練模型

          完成數據上傳后,您可以使用以下命令訓練模型:

          openai models create --dataset my-dataset --model my-chatbot --base-model text-davinci-002

          上述命令創建了一個名為"my-chatbot"的新模型,并將其基礎模型設置為"text-davinci-002"。模型將在數據集上進行訓練,并在訓練完成后自動發布。

          需要注意的是,這只是一個基本的CLI工具示例,您可以使用CLI工具進行更高級的數據上傳和模型訓練操作。您可以使用"openai --help"命令查看CLI工具的所有可用選項和命令。


          問:繼續,如果我想用Php實現導入訓練數據,我該怎么做

          答:要使用PHP導入數據到ChatGPT中,您需要使用OpenAI API。OpenAI提供了一個REST API,可以使用各種編程語言與之交互,包括PHP。

          以下是一個簡單的示例,演示了如何使用PHP將數據上傳到ChatGPT的數據集中:

          <?php
          // 設置API密鑰
          $apiKey="your_api_key";
          $headers=[
          'Content-Type: application/json',
          'Authorization: Bearer ' . $apiKey,
          ];
          // 創建數據集
          $datasetName="my-dataset";
          $datasetDescription="My dataset for training ChatGPT";
          $datasetLanguage="en";
          $createDatasetUrl="https://api.openai.com/v1/datasets";
          $createDatasetData=[
          "name"=> $datasetName,
          "description"=> $datasetDescription,
          "language"=> $datasetLanguage,
          ];
          $createDatasetOptions=[
          'http'=> [
          'header'=> implode("\r\n", $headers),
          'method'=> 'POST',
          'content'=> json_encode($createDatasetData),
          ],
          ];
          $createDatasetContext=stream_context_create($createDatasetOptions);
          $createDatasetResult=file_get_contents($createDatasetUrl, false, $createDatasetContext);
          $createDatasetJson=json_decode($createDatasetResult, true);
          $datasetId=$createDatasetJson["id"];
          // 上傳數據
          $dataFile=fopen("my-data.csv", "r");
          $uploadDataUrl="https://api.openai.com/v1/datasets/$datasetId/instances";
          while (!feof($dataFile)) {
          $line=fgetcsv($dataFile);
          $text=$line[0];
          $label=$line[1];
          $uploadData=[
          "data"=> $text,
          "label"=> $label,
          ];
          $uploadDataOptions=[
          'http'=> [
          'header'=> implode("\r\n", $headers),
          'method'=> 'POST',
          'content'=> json_encode($uploadData),
          ],
          ];
          $uploadDataContext=stream_context_create($uploadDataOptions);
          $uploadDataResult=file_get_contents($uploadDataUrl, false, $uploadDataContext);
          }
          fclose($dataFile);
          // 訓練模型
          $modelName="my-chatbot";
          $baseModel="text-davinci-002";
          $createModelUrl="https://api.openai.com/v1/models";
          $createModelData=[
          "model"=> $modelName,
          "dataset"=> $datasetId,
          "base_model"=> $baseModel,
          ];
          $createModelOptions=[
          'http'=> [
          'header'=> implode("\r\n", $headers),
          'method'=> 'POST',
          'content'=> json_encode($createModelData),
          ],
          ];
          $createModelContext=stream_context_create($createModelOptions);
          $createModelResult=file_get_contents($createModelUrl, false, $createModelContext);
          $createModelJson=json_decode($createModelResult, true);
          ?>

          上述示例假設您的訓練數據存儲在名為"my-data.csv"的文件中,其中第一列是文本數據,第二列是標簽數據。示例使用"file_get_contents"函數和PHP的stream流來向OpenAI API發送請求,并使用"json_decode"函數解析響應。在實際使用


          問:繼續,如果我有大量的數據需要上傳并訓練,我該如何優化訓練過程呢?比如可以使用隊列導入

          答:對于大量數據的導入和訓練,使用隊列可以有效地優化訓練過程。以下是一些可以考慮的優化步驟:

          將數據分批導入:將大量的數據分成小批次導入,可以減少單個請求的數據量,提高數據導入的效率,并減少出錯的可能性。可以使用隊列將每個批次的數據分別加入到隊列中,讓系統自動處理導入過程。

          使用并發請求:可以使用并發請求來同時上傳多個批次的數據。這可以通過在隊列中啟動多個工作者進程來實現。這樣可以加速數據導入過程,并更快地開始訓練過程。

          避免重復導入:在將數據導入到數據集中之前,可以使用OpenAI API的查詢功能檢查數據是否已經存在于數據集中。如果數據已經存在,則可以跳過該數據的導入,從而避免重復導入相同的數據。

          配置訓練參數:對于大量的數據,可能需要對訓練參數進行適當的配置。例如,可以選擇較大的批量大小和較高的學習率,以提高訓練速度和準確性。但是,請注意,如果批量大小過大或學習率過高,可能會導致過度擬合或其他問題。

          總之,使用隊列來優化數據導入和訓練過程可以大大提高效率和可靠性,并確保您的ChatGPT模型能夠在合理的時間內訓練出高質量的結果。


          問:繼續,對導入的數據,訓練之后,是否可以進行微調? 可以的話,我該怎么做

          答:是的,您可以在訓練完成后進行微調(fine-tuning)以進一步提高您的ChatGPT模型的性能。微調是一種在現有模型基礎上進行增量訓練的方法,通常使用少量的數據來調整模型的權重,以適應特定的任務或應用場景。

          以下是一些步驟,可以幫助您在訓練完成后微調您的ChatGPT模型:

          準備微調數據:收集一些針對您特定應用場景的數據,這些數據應該盡可能與您的目標任務相關。微調數據的數量不需要非常大,通常只需要幾百或幾千條即可。

          在微調數據上微調模型:使用OpenAI API提供的Fine-Tune API來微調您的模型。該API提供了一個方便的方法來加載已訓練好的模型,并使用您的微調數據來調整模型的權重。在進行微調時,您可以選擇不同的微調參數,例如微調數據的批量大小、學習率和微調輪數。

          評估微調結果:在微調結束后,使用測試數據集來評估微調后的模型性能。根據評估結果,您可以繼續微調或更改微調參數來進一步改善模型的性能。

          以下是一個示例代碼,演示如何使用Fine-Tune API來微調ChatGPT模型:

          require 'vendor/autoload.php';
          use OpenAI\Api\FineTune;
          $openai=new FineTune([
          'api_key'=> 'YOUR_API_KEY',
          'model'=> 'text-davinci-002',
          'prompt'=> 'Your prompt here',
          'examples'=> [
          ['input'=> 'Example input 1', 'output'=> 'Example output 1'],
          ['input'=> 'Example input 2', 'output'=> 'Example output 2'],
          // More examples here
          ],
          'temperature'=> 0.5,
          'max_tokens'=> 50,
          'n'=> 1,
          'stop'=> ['\n', '<|endoftext|>

          問:繼續,我想將我公司官網中幾個網頁數據導入到模型,我要怎么做才能提高導入的效率和模型的準確性

          答:1.數據預處理:在導入數據之前,需要先對數據進行預處理。這包括數據清洗、數據轉換、數據標準化等步驟。數據清洗可以去除無用的數據,數據轉換可以將非數值型數據轉換成數值型數據,數據標準化可以將數據的分布調整為正態分布,以便更好地應用統計分析方法。

          2.特征工程:在將數據導入模型之前,需要對數據進行特征工程,包括特征提取、特征選擇和特征變換。特征提取可以從原始數據中提取出有用的特征,特征選擇可以從提取出來的特征中選擇出最具有代表性的特征,特征變換可以將數據轉換成更有意義的表示形式。

          3.模型選擇:根據需要解決的問題,選擇合適的模型進行建模。不同的模型有不同的適用范圍和優缺點,選擇合適的模型可以提高模型的準確性。

          4.模型訓練:將預處理后的數據輸入到選擇好的模型中進行訓練。訓練過程中需要調整模型的超參數,以獲得更好的性能。

          5.模型評估:通過交叉驗證等方法對模型進行評估,得到模型的性能指標。根據評估結果調整模型參數和算法,提高模型的準確性。

          6.模型應用:將訓練好的模型應用到實際問題中,對新的數據進行預測或分類。對于新的數據,也需要進行預處理和特征工程,以保證模型的準確性。


          問:繼續,我現在有一個word文檔,內容是對我企業的一些介紹文字,我該怎么做才能讓chatGPT通過這些文字,成為企業的客服呢,比如它可以回復企業的介紹

          答:要將一個Word文檔的內容作為ChatGPT的訓練數據,并讓ChatGPT成為你企業的客服,你可以采取以下步驟:

          將Word文檔中的內容提取出來,保存為純文本格式,如.txt文件。

          將提取出來的純文本文件進行數據清洗和預處理,去除無用信息,比如表格、圖片、特殊符號等,并對文本進行分段和分句,以便更好地訓練ChatGPT。

          使用ChatGPT提供的CLI工具或API接口,將處理好的文本文件上傳到ChatGPT進行訓練。訓練過程中可以調整超參數和模型架構,以達到更好的效果。

          訓練完成后,你可以使用ChatGPT提供的API接口來部署和使用訓練好的模型。你可以在自己的網站上嵌入ChatGPT的對話框,讓ChatGPT作為企業的客服,回答用戶的問題。

          如果需要ChatGPT回答特定的問題,你可以根據需要對模型進行微調,以提高模型的準確性。你可以使用ChatGPT提供的微調功能,在已有的模型基礎上,針對特定的問題進行微調,以獲得更好的效果。


          問:繼續,我要為不同的企業導入企業相關的文本,我該如何區分不同的企業

          答:如果你要為不同的企業導入相關的文本,可以為每個企業創建一個獨立的數據集。你可以按照企業的名稱或ID為每個數據集命名,將該企業相關的文本文件放在該數據集中,以便進行訓練。

          在訓練過程中,你可以使用不同的超參數和模型架構對每個數據集進行訓練,以達到更好的效果。訓練完成后,你可以針對每個企業使用相應的模型,作為其客服系統的一部分。

          此外,你可以為每個企業建立一個專門的API密鑰,以便在上傳和訓練數據時進行身份驗證和授權。這可以保證每個企業的數據得到保護,并且只有授權的用戶可以訪問和使用數據。


          問:繼續,“將提取出來的純文本文件進行數據清洗和預處理,去除無用信息,比如表格、圖片、特殊符號等,并對文本進行分段和分句,以便更好地訓練ChatGPT” 我該用什么樣的技術解決這個事情呢

          答:對于提取出來的純文本文件進行數據清洗和預處理,你可以使用以下技術來去除無用信息并對文本進行分段和分句:

          使用Python編程語言的相關庫,如BeautifulSoup、regex、re等,對文本進行預處理和清洗。例如,使用正則表達式去除無用的標簽、空格、換行符等,并將文本分段和分句。

          使用自然語言處理(NLP)技術,如分詞、詞性標注、實體識別等,對文本進行處理。例如,使用NLTK(自然語言工具包)對文本進行分詞和標記,以便更好地理解文本內容。

          使用機器學習(ML)和深度學習(DL)技術,如神經網絡、卷積神經網絡(CNN)、循環神經網絡(RNN)等,對文本進行特征提取和分類。例如,使用CNN對文本進行特征提取和分類,以便更好地處理文本。

          在實際應用中,你可以結合以上技術進行文本預處理和清洗,以提高ChatGPT訓練的效果和準確性。


          問:繼續,關于php技術,有什么樣的技術可以做到數據清洗

          答:在PHP中,可以使用相關的庫和函數來實現數據清洗。以下是一些PHP技術,可以用于數據清洗:

          正則表達式:PHP中提供了PCRE函數庫,可以使用正則表達式對文本進行匹配和替換,以去除無用信息。例如,使用preg_replace()函數去除HTML標簽、特殊符號、空格等。

          HTML解析:PHP中提供了DOM和SimpleXML等HTML解析庫,可以解析HTML文本并提取文本內容,以去除無用信息。例如,使用SimpleXML解析HTML文本并提取文本內容。

          字符串處理函數:PHP中提供了許多字符串處理函數,如trim()、strip_tags()、str_replace()等,可以對文本進行處理和清洗,以去除無用信息。

          第三方庫:PHP中還有一些第三方庫,如PHP Simple HTML DOM Parser、PHPExcel等,可以用于解析HTML文本和Excel表格,以提取有用的文本信息。

          在實際應用中,你可以根據需要使用上述技術進行數據清洗和預處理,以提高ChatGPT訓練的效果和準確性。


          問:繼續,有沒有三方服務商可以進行數據清洗和預處理

          答:是的,有許多第三方服務商提供數據清洗和預處理服務,以下是一些常用的服務商:

          Amazon Mechanical Turk:這是亞馬遜提供的在線服務平臺,可以通過眾包的方式獲取大量的人工標注和數據清洗服務。

          Figure Eight:這是一個在線的數據標注和處理平臺,提供數據清洗、文本標注、圖像標注等服務。

          CrowdFlower:這是一個全球領先的人工智能數據標注平臺,可以提供高質量的數據清洗、分類、標注等服務。

          Diffbot:這是一個自動化的數據提取和清洗平臺,可以通過API接口提供數據清洗和預處理服務。

          MonkeyLearn:這是一個基于機器學習的文本分析平臺,可以提供數據清洗、文本分類、情感分析等服務。

          使用第三方服務商可以大大減少數據清洗和預處理的時間和成本,并提高數據的準確性和質量。


          問:繼續,有沒有開源的庫可以進行數據清洗和預處理

          答:是的,有很多開源的庫可以進行數據清洗和預處理,以下是一些常用的庫:

          NLTK:這是Python中最常用的自然語言處理庫之一,提供了豐富的文本處理功能,包括詞性標注、分詞、句子切分等。

          BeautifulSoup:這是一個Python的HTML和XML解析庫,可以快速解析HTML和XML文件,并進行數據清洗和預處理。

          OpenNLP:這是一個Java中常用的自然語言處理庫,提供了豐富的文本處理功能,包括命名實體識別、分詞、句子切分等。

          Stanford CoreNLP:這是斯坦福大學開發的一個自然語言處理工具包,包含了多種自然語言處理任務的工具,可以用于分詞、句子切分、命名實體識別等。

          Apache Tika:這是一個Java的文本抽取庫,可以從各種格式的文檔中提取文本數據,并進行數據清洗和預處理。

          這些開源庫提供了豐富的數據清洗和預處理功能,可以方便快捷地進行數據處理。


          主站蜘蛛池模板: 成人国产一区二区三区| 亚洲AV永久无码精品一区二区国产 | 国产激情一区二区三区小说| 末成年女AV片一区二区 | 国产亚洲福利精品一区| 亚洲国产综合无码一区二区二三区| 人妻少妇久久中文字幕一区二区| 好吊妞视频一区二区| 亚洲丰满熟女一区二区哦| 国产精品久久久久一区二区| 亚洲欧洲一区二区| 精品一区二区三区视频| 亚洲欧美日韩国产精品一区| 无码人妻一区二区三区免费n鬼沢 无码人妻一区二区三区免费看 | 丝袜美腿一区二区三区| 无码国产精品一区二区免费vr | 中文字幕人妻第一区| 伊人久久一区二区三区无码| 国产精品美女一区二区三区 | 97人妻无码一区二区精品免费| 在线欧美精品一区二区三区| 国产伦精品一区二区三区无广告| 一区二区福利视频| 老熟妇仑乱一区二区视頻| 日本免费一区二区三区最新vr| 丰满少妇内射一区| 冲田杏梨AV一区二区三区| 麻豆果冻传媒2021精品传媒一区下载 | 国模吧一区二区三区| 亚洲Av无码一区二区二三区| 美女福利视频一区二区| 亚洲高清日韩精品第一区| 国产在线aaa片一区二区99| 国产suv精品一区二区33| 国产精品亚洲一区二区麻豆| 日韩精品一区二区三区视频 | 中文字幕日韩一区二区不卡| 国产一区二区三区精品视频| 成人精品一区久久久久| 亚洲愉拍一区二区三区| 亚洲天堂一区二区三区四区|