信的規則進行了調整
希望大家看完故事多點“在看”,喜歡的話也點個分享和贊
這樣事兒君的推送才能繼續出現在你的訂閱列表里
才能繼續跟大家分享每個開懷大笑或拍案驚奇的好故事啦~
說到Gucci,我們總會聯想到成功,奢華,光鮮亮麗。
但跟品牌帶給我們的感覺不同,創造這個品牌的Gucci家族的歷史中,卻充滿了各種撕逼和黑暗。
之前,作家Sara Gay Forden就針對他們家族寫過一本書:《The House of Gucci》,下面一行小字標注了這本書的主要內容:一個關于謀殺,瘋狂,魅力,貪婪的故事。
逃稅,通奸,父子結仇,股權爭奪,買兇殺人,兒子把81歲的父親送進大牢…
劇情簡直比電視劇還夸張。
雖然Gucci家族第三代掌門人把股份全部出售后,現在Gucci品牌已經屬于法國開云集團,跟Gucci家族沒啥關系了。
但因為這個全球知名的姓氏,他們家族的事,還是會受到全球關注。
最近,Gucci創始人的外曾孫女又把自己的繼父,親媽,親外婆告上了法庭——
她控訴從自己6歲開始,繼父便開始猥褻自己,親媽和外婆都知道很多年了,不但不幫她,還威脅她不要說出去。
她叫Alexandra Zarini,今年35歲,是Gucci創始人Guccio Gucci的外曾孫女,外公是Gucci第二代掌門人Aldo Gucci。
9月9日,Alexandra在自己的兒童基金會網站上發布一則視頻,公開了小時候噩夢般的遭遇。
Alexandra的媽媽Patricia Gucci結過兩次婚,Alexandra來自她第一段婚姻。
第一次婚姻失敗后,Patricia認識了美國音樂人Joseph Ruffalo,兩人相戀后沒多久,Patricia便帶著女兒搬到了加州跟他一起生活。
(Alexandra的媽媽和繼父)
對媽媽來說,她也許以為找到了人生第二春,
但對Alexandra來說,一個惡魔正在向她靠近。
她說自己有時候晚上做噩夢,太害怕,就爬上媽媽的床跟她一起睡,但等她醒來,她會發現繼父光著身體躺在旁邊,她的小手正放在繼父的隱私部位上。
當Alexandra慢慢長大后,繼父惡心的行為也逐漸升級。
他會經常爬上她的床,摸她的私處,在她面前露出他的XX,用他的XX摩擦她的身體。
Alexandra表示,繼父會在她面前脫掉浴袍,一絲不掛的爬上她的床,把手伸進她衣服里面摸她的胸部。還試圖用手指性侵她。
她因為恐懼,全身都會僵硬。
等Alexandra到了青春期,繼父的性騷擾也沒有停下來。
中間Alexandra曾去英國讀寄宿學校,后來,又在媽媽的要求下返回加州,繼續回到繼父的魔爪之下,繼父繼續性侵她,還“鼓勵”她使用毒品。
從6歲開始,繼父對她的新侵一直持續到她22歲。
而這一切,Alexandra說,她母親和外婆都是知道的。
在她16歲時,她外婆曾問她,繼父是不是有猥褻她。
Alexandra回答:“是的”,
而外婆的反應是讓Alexandra不要跟任何人說,一定要死死守住這個秘密。
她的母親也默許繼父的獸性,并且允許他偷拍女兒洗澡的畫面。
Alexandra還說,媽媽有時候會打她,甚至試圖掐死她,這時候,繼父就會以一個“保護者”的形象出現,把她“救下來”,然后趁機亂摸她。
Alexandra 20多歲的時候,曾第一次跟媽媽提到要公開自己被性侵的事情。
當時媽媽用了最嚴厲的話來制止她。
“這是丑聞,會給家族蒙羞?!?/strong>
“你會上法庭,被拷問,你不能找到好工作,你一輩子都會被釘在恥辱柱上?!?/strong>
“這件事會玷污我們的名聲。”
”而且,你還有毒癮,沒有人會相信你。“
被繼父性侵成了Alexandra心里最深的秘密,她很痛苦,卻無法找到發泄口。
她不知道該怎么辦,為了不再一遍一遍想起那些惡心的經歷,Alexandra甚至一度誤入歧途,開始借助毒品來麻痹自己。
幸好,她最后還是清醒了。
進入戒毒中心戒毒,一步步脫離家族實現財務獨立,并且找到了三觀一致的丈夫。
4年前,她生下了她的第一個孩子。
當了媽媽后,Alexandra對兒童被性侵的問題更加敏感。
后來,她聽說,繼父在洛杉磯一家兒童醫院當志愿者。
這讓她頓時汗毛倒立,她怕繼父對其他孩子下手,于是決定不再隱藏,站出來揭發他!
他向加州比佛利山莊警察局報警,正式發起對繼父,親媽,以及外婆的指控。
她說,就在她下決心要公開指控他們前,她媽和她外婆還在威脅她。
她們說,如果她真的那么做,就把她逐出Gucci家族,不再認她,遺產繼承也沒有她的份,家里的人,沒有人會再回跟她說話。
但Alexandra表示,她都不在意了。
她不在乎錢,也不在乎名,她只想要阻止這一切,不想這種事再發生在其他孩子身上。
她感覺自己有責任站出來,讓那些傷害兒童的人得到應有的懲罰。
目前,警方的調查還在進行中。
針對Alexandra的指控,媒體也去聯系了她媽和她繼父。
她媽Patricia Gucci說,
“對于Joseph Ruffalo 給Alexandra造成的傷痛,我感覺極其難過。
他的行為沒有任何借口,當女兒2007年在我們家庭醫生面前跟我說了這一切后,我也非常震驚痛苦。
我得知后,立馬跟Joseph Ruffalo開始辦離婚手續。然后和我的家人一起通過心理咨詢來療傷。
對于Alexandra針對我和她外婆的指控,我也非常震驚,這完全都是假的?!?/strong>
Alexandra的繼父通過律師回應說,他目前沒有在任何兒童醫院當志愿者,Alexandra對她的性侵指控,他也堅決否認。
他還說,當初他和Alexandra母親結婚后,就很擔心Alexandra的精神健康,還曾試圖用各種方法來緩解她情緒不穩定的問題。
“但很明顯,這些努力都失敗了?!?/strong>
雖然目前調查結果還沒出來,不過,看了各方的說法,網友們大多都站在Alexandra這邊:
“可憐的女人,我完全相信她。她的話很可信?!?/p>
“這個女人太棒了。她沒有藏起來,當個受害者,相反,她選擇拿出自己的傷痛來幫助別人。她本不需要做這些,但她知道,只有把謊言,惡行,威脅暴露在陽光下才能殺死它們。我為她祈禱,希望她內心能愈合,也為她的勇氣鼓掌?!?/p>
“想象一下,一個小女孩,被一個魔鬼傷害,而她知道,自己的家人一直在允許這種傷害發生,她該有多么無助… 把他們統統曝光。這是無法接受的,他們才是恥辱。這種事不能再發生了。”
“我完全相信這個女孩,她媽和她外婆真夠可恥的。這是跟發生在我媽身上的事非常相似,區別只是,性侵她的,是她的親生父親。當我媽終于有勇氣向我外婆的姐姐說出這一切后,她把這事告訴了我外婆,我外婆罵我媽’蕩婦’。我是幾年后才知道這事的,我也終于知道為什么我媽成了他們家的’不孝子’。我完全相信我媽,她媽和她爸一樣壞!”
https://www.dailymail.co.uk/news/article-8717611/Gucci-heiress-claims-family-covered-decades-sexual-abuse.html#comments
https://www.nytimes.com/2020/09/09/style/gucci-family-lawsuit.html?smtyp=cur&smid=tw-nytimesbusiness
--------------------
流月城大祭司沈不悔:名利使人六親不認,誒
weiweiyy-:自己的家人一直允許這種傷害發生 這女主該多無助和絕望。
游嬤嬤Umm:Gucci家族真的很
尼桑頂呱呱:歷史一次又一次地告訴人們,父母不一定會站在孩子那一邊
明月星寂
:天吶富貴人家也是逃不過
生產隊長牛翠芳:這一家人都是魔鬼吧
讀:聽說你寫Python代碼沒動力?本文就給你動力,爬取妹子圖。如果這也沒動力那就沒救了。
GitHub 地址: https://github.com/injetlee/Python/blob/master/%E7%88%AC%E8%99%AB%E9%9B%86%E5%90%88/meizitu.py
當你運行代碼后,文件夾就會越來越多,如果爬完的話會有2000多個文件夾,20000多張圖片。不過會很耗時間,可以在最后的代碼設置爬取頁碼范圍。
我們從 http://meizitu.com/a/more_1.html 這個鏈接進去,界面如下圖所示:
可以看到是一組一組的套圖,點擊任何一組圖片會進入到詳情界面,如下圖所示:
可以看到圖片是依次排開的,一般會有十張左右的圖片
看了界面的結構,那么我們的思路就有了。
1. 下載界面的函數,利用 Requests 很方便實現
def download_page(url): ''' 用于下載頁面 ''' headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:61.0) Gecko/20100101 Firefox/61.0"} r = requests.get(url, headers=headers) r.encoding = 'gb2312' return r.text
2. 獲取圖一所示的所有套圖列表,函數中 link 表示套圖的鏈接,text表示套圖的名字。
def get_pic_list(html): ''' 獲取每個頁面的套圖列表,之后循環調用get_pic函數獲取圖片 ''' soup = BeautifulSoup(html, 'html.parser') pic_list = soup.find_all('li', class_='wp-item') for i in pic_list: a_tag = i.find('h3', class_='tit').find('a') link = a_tag.get('href') # 套圖鏈接 text = a_tag.get_text() # 套圖名字 get_pic(link, text)
3. 傳入上一步中獲取到的套圖鏈接及套圖名字,獲取每組套圖里面的圖片,并保存,我在代碼中注釋了。
def get_pic(link, text): ''' 獲取當前頁面的圖片,并保存 ''' html = download_page(link) # 下載界面 soup = BeautifulSoup(html, 'html.parser') pic_list = soup.find('div', id="picture").find_all('img') # 找到界面所有圖片 headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:61.0) Gecko/20100101 Firefox/61.0"} create_dir('pic/{}'.format(text)) for i in pic_list: pic_link = i.get('src') # 拿到圖片的具體 url r = requests.get(pic_link, headers=headers) # 下載圖片,之后保存到文件 with open('pic/{}/{}'.format(text, link.split('/')[-1]), 'wb') as f: f.write(r.content) time.sleep(1)
完整代碼如下,包括了創建文件夾,利用多線程爬取,我設置的是5個線程,可以根據自己機器自己來設置一下。
import requests import os import time import threading from bs4 import BeautifulSoup def download_page(url): ''' 用于下載頁面 ''' headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:61.0) Gecko/20100101 Firefox/61.0"} r = requests.get(url, headers=headers) r.encoding = 'gb2312' return r.text def get_pic_list(html): ''' 獲取每個頁面的套圖列表,之后循環調用get_pic函數獲取圖片 ''' soup = BeautifulSoup(html, 'html.parser') pic_list = soup.find_all('li', class_='wp-item') for i in pic_list: a_tag = i.find('h3', class_='tit').find('a') link = a_tag.get('href') text = a_tag.get_text() get_pic(link, text) def get_pic(link, text): ''' 獲取當前頁面的圖片,并保存 ''' html = download_page(link) # 下載界面 soup = BeautifulSoup(html, 'html.parser') pic_list = soup.find('div', id="picture").find_all('img') # 找到界面所有圖片 headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:61.0) Gecko/20100101 Firefox/61.0"} create_dir('pic/{}'.format(text)) for i in pic_list: pic_link = i.get('src') # 拿到圖片的具體 url r = requests.get(pic_link, headers=headers) # 下載圖片,之后保存到文件 with open('pic/{}/{}'.format(text, link.split('/')[-1]), 'wb') as f: f.write(r.content) time.sleep(1) # 休息一下,不要給網站太大壓力,避免被封 def create_dir(name): if not os.path.exists(name): os.makedirs(name) def execute(url): page_html = download_page(url) get_pic_list(page_html) def main(): create_dir('pic') queue = [i for i in range(1, 72)] # 構造 url 鏈接 頁碼。 threads = [] while len(queue) > 0: for thread in threads: if not thread.is_alive(): threads.remove(thread) while len(threads) < 5 and len(queue) > 0: # 最大線程數設置為 5 cur_page = queue.pop(0) url = 'http://meizitu.com/a/more_{}.html'.format(cur_page) thread = threading.Thread(target=execute, args=(url,)) thread.setDaemon(True) thread.start() print('{}正在下載{}頁'.format(threading.current_thread().name, cur_page)) threads.append(thread) if __name__ == '__main__': main()
好了,之后運行,我們的爬蟲就會孜孜不倦的為我們下載漂亮妹子啦。
說你寫代碼沒動力?本文就給你動力,爬取妹子圖。如果這也沒動力那就沒救了。
GitHub 地址: https://github.com/injetlee/Python/blob/master/%E7%88%AC%E8%99%AB%E9%9B%86%E5%90%88/meizitu.py
爬蟲成果
當你運行代碼后,文件夾就會越來越多,如果爬完的話會有2000多個文件夾,20000多張圖片。不過會很耗時間,可以在最后的代碼設置爬取頁碼范圍。
本文目標
網站結構
我們從 http://meizitu.com/a/more_1.html 這個鏈接進去,界面如圖一所示
圖一:
可以看到是一組一組的套圖,點擊任何一組圖片會進入到詳情界面,如圖二所示
圖二:
可以看到圖片是依次排開的,一般會有十張左右的圖片。
實現思路
看了界面的結構,那么我們的思路就有了。
代碼說明
def download_page(url): ''' 用于下載頁面 ''' headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:61.0) Gecko/20100101 Firefox/61.0"} r = requests.get(url, headers=headers) r.encoding = 'gb2312' return r.text
def get_pic_list(html):
'''
獲取每個頁面的套圖列表,之后循環調用get_pic函數獲取圖片
'''
soup = BeautifulSoup(html, 'html.parser')
pic_list = soup.find_all('li', class_='wp-item')
for i in pic_list:
a_tag = i.find('h3', class_='tit').find('a')
link = a_tag.get('href') # 套圖鏈接
text = a_tag.get_text() # 套圖名字
get_pic(link, text)
def get_pic(link, text): ''' 獲取當前頁面的圖片,并保存 ''' html = download_page(link) # 下載界面 soup = BeautifulSoup(html, 'html.parser') pic_list = soup.find('div', id="picture").find_all('img') # 找到界面所有圖片 headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:61.0) Gecko/20100101 Firefox/61.0"} create_dir('pic/{}'.format(text)) for i in pic_list: pic_link = i.get('src') # 拿到圖片的具體 url r = requests.get(pic_link, headers=headers) # 下載圖片,之后保存到文件 with open('pic/{}/{}'.format(text, pic_link.split('/')[-1]), 'wb') as f: f.write(r.content) time.sleep(1)
完整代碼
完整代碼如下,包括了創建文件夾,利用多線程爬取,我設置的是5個線程,可以根據自己機器自己來設置一下。
import requests import os import time import threading from bs4 import BeautifulSoup def download_page(url): ''' 用于下載頁面 ''' headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:61.0) Gecko/20100101 Firefox/61.0"} r = requests.get(url, headers=headers) r.encoding = 'gb2312' return r.text def get_pic_list(html): ''' 獲取每個頁面的套圖列表,之后循環調用get_pic函數獲取圖片 ''' soup = BeautifulSoup(html, 'html.parser') pic_list = soup.find_all('li', class_='wp-item') for i in pic_list: a_tag = i.find('h3', class_='tit').find('a') link = a_tag.get('href') text = a_tag.get_text() get_pic(link, text) def get_pic(link, text): ''' 獲取當前頁面的圖片,并保存 ''' html = download_page(link) # 下載界面 soup = BeautifulSoup(html, 'html.parser') pic_list = soup.find('div', id="picture").find_all('img') # 找到界面所有圖片 headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:61.0) Gecko/20100101 Firefox/61.0"} create_dir('pic/{}'.format(text)) for i in pic_list: pic_link = i.get('src') # 拿到圖片的具體 url r = requests.get(pic_link, headers=headers) # 下載圖片,之后保存到文件 with open('pic/{}/{}'.format(text, pic_link.split('/')[-1]), 'wb') as f: f.write(r.content) time.sleep(1) # 休息一下,不要給網站太大壓力,避免被封 def create_dir(name): if not os.path.exists(name): os.makedirs(name) def execute(url): page_html = download_page(url) get_pic_list(page_html) def main(): create_dir('pic') queue = [i for i in range(1, 72)] # 構造 url 鏈接 頁碼。 threads = [] while len(queue) > 0: for thread in threads: if not thread.is_alive(): threads.remove(thread) while len(threads) < 5 and len(queue) > 0: # 最大線程數設置為 5 cur_page = queue.pop(0) url = 'http://meizitu.com/a/more_{}.html'.format(cur_page) thread = threading.Thread(target=execute, args=(url,)) thread.setDaemon(True) thread.start() print('{}正在下載{}頁'.format(threading.current_thread().name, cur_page)) threads.append(thread) if __name__ == '__main__': main()
好了,之后運行,我們的爬蟲就會孜孜不倦的為我們下載漂亮妹子啦。
*請認真填寫需求信息,我們會在24小時內與您取得聯系。