ysql統計一個數據庫里所有表的數據量,最近在做統計想查找一個數據庫里基本所有的表數據量,數據量少的通過select count再加起來也是可以的,不過表的數據有點多,不可能一個一個地查。記得在Navicat里,選擇一個數據量,點擊表,如圖:
那么如何通過sql實現呢?在mysql里是可以查詢information_schema.tables這張表的
SELECT table_rows,table_name FROM information_schema.tables
WHERE TABLE_SCHEMA='數據庫名稱'
and table_name not in ('不查詢的表名稱')
ORDER BY table_rows DESC;
OK,本來還以為已經沒問題了,然后還是被反饋統計不對,后來去找了資料說是對于MyISAM才是正確的統計數據,但是對于InnoDB引擎的,可能與實際值相差 40% 到 50%,所以只是一個大概的統計所以針對這種情況,要更改存儲引擎,肯定是不太合適,因為InnoDB是默認的存儲引擎,能支持事務外健,并發情況性能也比較好。繼續找資料,正確的sql如下:
select
table_schema as '數據庫',
table_name as '表名',
table_rows as '記錄數',
truncate(data_length/1024/1024, 2) as '數據容量(MB)',
truncate(index_length/1024/1024, 2) as '索引容量(MB)'
from information_schema.tables
where table_schema='test'
order by table_rows desc, index_length desc;
查詢結果如下:
如若轉載,請注明出處:開源字節 https://sourcebyte.cn/article/240.html
否還在使用正則表達式處理文本呢?其實AI可以幫助你更輕松地完成任務。今天我將與大家分享如何使用claude Al從HTML中提取數據。首先,我們需要進行兩個階段的處理:第一步是采集原始數據,即下拉列表中的選項。第二步是使用AI處理數據。
首先,我們需要選擇下拉列表中的元素,也就是options。但是,由于該下拉列表是由JS控制的,如果我們點擊其他地方,它會縮回去。因此,如果我們再次點擊“檢查元素”,它就會縮回去。
為了解決這個問題,我們需要觀察該下拉列表的動態行為。我們可以發現,它位于這一行中。此時,我們可以使用一個小技巧,右鍵復制元素,將其復制到剪貼板中。我們可以看到,剛才的options內容已經被復制到剪貼板中。現在,我們可以查看剛才的輸出。這是原始數據采集的過程。
采集到數據后,我們需要登錄claude Al,然后將其粘貼到文本中,它將自動轉換為一個TXT文件。然后,我們可以輸入“help me actrac info from the following text”的指令,它將自動執行一段Python代碼,幫助我們處理數據。
它將自動生成一段代碼,讓我們自己處理數據。此時,我們可以告訴它“can you print the output for me”。我們只需要告訴它需要在哪個標簽中提取數據即可。此時,它將執行其中的代碼,并輸出所需的數據。輸出結果將顯示為“我”。
此外,我們還可以使用其他數據來執行其他操作,這非常簡單。
當然,這只是一個示例。您可能需要處理的不是HTML、XML或其他結構化或半結構化文本。在這種情況下,您可以直接將這些任務交給AI,讓AI幫助您完成這些任務,從而使您更加輕松。因此,這是一個非常簡單的技巧,希望您能學會。
用BeautifulSoup庫解析 HTML 或 XML 數據可以按照以下步驟進行:
首先,確保你已經安裝了BeautifulSoup庫。可以使用pip命令進行安裝:pip install beautifulsoup4。
導入BeautifulSoup庫和相關的解析庫,通常是html.parser或其他適合的解析器。
使用BeautifulSoup的parse方法將 HTML 或 XML 數據解析為一個BeautifulSoup對象。
通過find或find_all等方法在BeautifulSoup對象中查找特定的標簽或屬性。
對找到的元素進行進一步的操作,例如提取文本、獲取屬性值等。
下面是一個簡單的示例,演示如何使用BeautifulSoup解析 HTML 數據:
收起
python
from bs4 import BeautifulSoup
html_data='''
The Dormouse's story
Once upon a time there were three little sisters; and their names were
Elsie,
Lacie and
Tillie;
and they lived at the bottom of a well.
'''
# 解析 HTML 數據
soup=BeautifulSoup(html_data, 'html.parser')
# 查找所有包含"sister"類的鏈接
sister_links=soup.find_all('a', class_='sister')
# 打印鏈接的文本和鏈接地址
for link in sister_links:
print(link.text, link.get('href'))
在上述示例中,首先定義了一段 HTML 數據。然后,使用BeautifulSoup的parse方法將 HTML 數據解析為一個soup對象。接下來,使用find_all方法查找所有具有sister類的鏈接,并將它們存儲在sister_links列表中。最后,通過遍歷sister_links列表,打印每個鏈接的文本和鏈接地址。
*請認真填寫需求信息,我們會在24小時內與您取得聯系。