整合營銷服務商

          電腦端+手機端+微信端=數據同步管理

          免費咨詢熱線:

          Gucci創始人后裔指控繼父從她6歲起持續性侵…親媽外婆都知情,卻讓她閉嘴

          信的規則進行了調整

          希望大家看完故事多點“在看”,喜歡的話也點個分享

          這樣事兒君的推送才能繼續出現在你的訂閱列表里

          才能繼續跟大家分享每個開懷大笑或拍案驚奇的好故事啦~

          說到Gucci,我們總會聯想到成功,奢華,光鮮亮麗。

          但跟品牌帶給我們的感覺不同,創造這個品牌的Gucci家族的歷史中,卻充滿了各種撕逼和黑暗。

          之前,作家Sara Gay Forden就針對他們家族寫過一本書:《The House of Gucci》,下面一行小字標注了這本書的主要內容:一個關于謀殺,瘋狂,魅力,貪婪的故事。

          逃稅,通奸,父子結仇,股權爭奪,買兇殺人,兒子把81歲的父親送進大牢…

          劇情簡直比電視劇還夸張。

          雖然Gucci家族第三代掌門人把股份全部出售后,現在Gucci品牌已經屬于法國開云集團,跟Gucci家族沒啥關系了。

          但因為這個全球知名的姓氏,他們家族的事,還是會受到全球關注。

          最近,Gucci創始人的外曾孫女又把自己的繼父,親媽,親外婆告上了法庭——

          她控訴從自己6歲開始,繼父便開始猥褻自己,親媽和外婆都知道很多年了,不但不幫她,還威脅她不要說出去。

          她叫Alexandra Zarini,今年35歲,是Gucci創始人Guccio Gucci的外曾孫女,外公是Gucci第二代掌門人Aldo Gucci。

          9月9日,Alexandra在自己的兒童基金會網站上發布一則視頻,公開了小時候噩夢般的遭遇。

          Alexandra的媽媽Patricia Gucci結過兩次婚,Alexandra來自她第一段婚姻。

          第一次婚姻失敗后,Patricia認識了美國音樂人Joseph Ruffalo,兩人相戀后沒多久,Patricia便帶著女兒搬到了加州跟他一起生活。

          (Alexandra的媽媽和繼父)

          對媽媽來說,她也許以為找到了人生第二春,

          但對Alexandra來說,一個惡魔正在向她靠近。

          她說自己有時候晚上做噩夢,太害怕,就爬上媽媽的床跟她一起睡,但等她醒來,她會發現繼父光著身體躺在旁邊,她的小手正放在繼父的隱私部位上。

          當Alexandra慢慢長大后,繼父惡心的行為也逐漸升級。

          他會經常爬上她的床,摸她的私處,在她面前露出他的XX,用他的XX摩擦她的身體。

          Alexandra表示,繼父會在她面前脫掉浴袍,一絲不掛的爬上她的床,把手伸進她衣服里面摸她的胸部。還試圖用手指性侵她。

          她因為恐懼,全身都會僵硬。

          等Alexandra到了青春期,繼父的性騷擾也沒有停下來。

          中間Alexandra曾去英國讀寄宿學校,后來,又在媽媽的要求下返回加州,繼續回到繼父的魔爪之下,繼父繼續性侵她,還“鼓勵”她使用毒品。

          從6歲開始,繼父對她的新侵一直持續到她22歲。

          而這一切,Alexandra說,她母親和外婆都是知道的。

          在她16歲時,她外婆曾問她,繼父是不是有猥褻她。

          Alexandra回答:“是的”,

          而外婆的反應是讓Alexandra不要跟任何人說,一定要死死守住這個秘密。

          她的母親也默許繼父的獸性,并且允許他偷拍女兒洗澡的畫面。

          Alexandra還說,媽媽有時候會打她,甚至試圖掐死她,這時候,繼父就會以一個“保護者”的形象出現,把她“救下來”,然后趁機亂摸她。

          Alexandra 20多歲的時候,曾第一次跟媽媽提到要公開自己被性侵的事情。

          當時媽媽用了最嚴厲的話來制止她。

          “這是丑聞,會給家族蒙羞?!?/strong>

          “你會上法庭,被拷問,你不能找到好工作,你一輩子都會被釘在恥辱柱上?!?/strong>

          “這件事會玷污我們的名聲。”

          ”而且,你還有毒癮,沒有人會相信你。“

          被繼父性侵成了Alexandra心里最深的秘密,她很痛苦,卻無法找到發泄口。

          她不知道該怎么辦,為了不再一遍一遍想起那些惡心的經歷,Alexandra甚至一度誤入歧途,開始借助毒品來麻痹自己。

          幸好,她最后還是清醒了。

          進入戒毒中心戒毒,一步步脫離家族實現財務獨立,并且找到了三觀一致的丈夫。

          4年前,她生下了她的第一個孩子。

          當了媽媽后,Alexandra對兒童被性侵的問題更加敏感。

          后來,她聽說,繼父在洛杉磯一家兒童醫院當志愿者。

          這讓她頓時汗毛倒立,她怕繼父對其他孩子下手,于是決定不再隱藏,站出來揭發他!

          他向加州比佛利山莊警察局報警,正式發起對繼父,親媽,以及外婆的指控。

          她說,就在她下決心要公開指控他們前,她媽和她外婆還在威脅她。

          她們說,如果她真的那么做,就把她逐出Gucci家族,不再認她,遺產繼承也沒有她的份,家里的人,沒有人會再回跟她說話。

          但Alexandra表示,她都不在意了。

          她不在乎錢,也不在乎名,她只想要阻止這一切,不想這種事再發生在其他孩子身上。

          她感覺自己有責任站出來,讓那些傷害兒童的人得到應有的懲罰。

          目前,警方的調查還在進行中。

          針對Alexandra的指控,媒體也去聯系了她媽和她繼父。

          她媽Patricia Gucci說,

          “對于Joseph Ruffalo 給Alexandra造成的傷痛,我感覺極其難過。

          他的行為沒有任何借口,當女兒2007年在我們家庭醫生面前跟我說了這一切后,我也非常震驚痛苦。

          我得知后,立馬跟Joseph Ruffalo開始辦離婚手續。然后和我的家人一起通過心理咨詢來療傷。

          對于Alexandra針對我和她外婆的指控,我也非常震驚,這完全都是假的?!?/strong>

          Alexandra的繼父通過律師回應說,他目前沒有在任何兒童醫院當志愿者,Alexandra對她的性侵指控,他也堅決否認。

          他還說,當初他和Alexandra母親結婚后,就很擔心Alexandra的精神健康,還曾試圖用各種方法來緩解她情緒不穩定的問題。

          “但很明顯,這些努力都失敗了?!?/strong>

          雖然目前調查結果還沒出來,不過,看了各方的說法,網友們大多都站在Alexandra這邊:

          “可憐的女人,我完全相信她。她的話很可信?!?/p>

          “這個女人太棒了。她沒有藏起來,當個受害者,相反,她選擇拿出自己的傷痛來幫助別人。她本不需要做這些,但她知道,只有把謊言,惡行,威脅暴露在陽光下才能殺死它們。我為她祈禱,希望她內心能愈合,也為她的勇氣鼓掌?!?/p>

          “想象一下,一個小女孩,被一個魔鬼傷害,而她知道,自己的家人一直在允許這種傷害發生,她該有多么無助… 把他們統統曝光。這是無法接受的,他們才是恥辱。這種事不能再發生了。”

          “我完全相信這個女孩,她媽和她外婆真夠可恥的。這是跟發生在我媽身上的事非常相似,區別只是,性侵她的,是她的親生父親。當我媽終于有勇氣向我外婆的姐姐說出這一切后,她把這事告訴了我外婆,我外婆罵我媽’蕩婦’。我是幾年后才知道這事的,我也終于知道為什么我媽成了他們家的’不孝子’。我完全相信我媽,她媽和她爸一樣壞!”

          https://www.dailymail.co.uk/news/article-8717611/Gucci-heiress-claims-family-covered-decades-sexual-abuse.html#comments

          https://www.nytimes.com/2020/09/09/style/gucci-family-lawsuit.html?smtyp=cur&smid=tw-nytimesbusiness

          --------------------

          流月城大祭司沈不悔:名利使人六親不認,誒

          weiweiyy-:自己的家人一直允許這種傷害發生 這女主該多無助和絕望。

          游嬤嬤Umm:Gucci家族真的很

          尼桑頂呱呱:歷史一次又一次地告訴人們,父母不一定會站在孩子那一邊

          明月星寂

          :天吶富貴人家也是逃不過

          生產隊長牛翠芳:這一家人都是魔鬼吧

          讀:聽說你寫Python代碼沒動力?本文就給你動力,爬取妹子圖。如果這也沒動力那就沒救了。

          GitHub 地址: 
          https://github.com/injetlee/Python/blob/master/%E7%88%AC%E8%99%AB%E9%9B%86%E5%90%88/meizitu.py
          

          01 爬蟲成果

          當你運行代碼后,文件夾就會越來越多,如果爬完的話會有2000多個文件夾,20000多張圖片。不過會很耗時間,可以在最后的代碼設置爬取頁碼范圍。

          02 本文目標

          1. 熟悉 Requests 庫,Beautiful Soup 庫
          2. 熟悉多線程爬取
          3. 送福利,妹子圖

          03 網站結構

          我們從 http://meizitu.com/a/more_1.html 這個鏈接進去,界面如下圖所示:

          可以看到是一組一組的套圖,點擊任何一組圖片會進入到詳情界面,如下圖所示:

          可以看到圖片是依次排開的,一般會有十張左右的圖片

          04 實現思路

          看了界面的結構,那么我們的思路就有了。

          1. 構造 url 鏈接,去請求圖一所示的套圖列表界面,拿到每一個頁面中的套圖列表。
          2. 分別進入每個套圖中去,下載相應的圖片。

          05 代碼說明

          1. 下載界面的函數,利用 Requests 很方便實現

          def download_page(url):
           '''
           用于下載頁面
           '''
           headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:61.0) Gecko/20100101 Firefox/61.0"}
           r = requests.get(url, headers=headers)
           r.encoding = 'gb2312'
           return r.text
          

          2. 獲取圖一所示的所有套圖列表,函數中 link 表示套圖的鏈接,text表示套圖的名字。

          def get_pic_list(html):
           '''
           獲取每個頁面的套圖列表,之后循環調用get_pic函數獲取圖片
           '''
           soup = BeautifulSoup(html, 'html.parser')
           pic_list = soup.find_all('li', class_='wp-item')
           for i in pic_list:
           a_tag = i.find('h3', class_='tit').find('a')
           link = a_tag.get('href') # 套圖鏈接
           text = a_tag.get_text() # 套圖名字
           get_pic(link, text)
          

          3. 傳入上一步中獲取到的套圖鏈接及套圖名字,獲取每組套圖里面的圖片,并保存,我在代碼中注釋了。

          def get_pic(link, text):
           '''
           獲取當前頁面的圖片,并保存
           '''
           html = download_page(link) # 下載界面
           soup = BeautifulSoup(html, 'html.parser')
           pic_list = soup.find('div', id="picture").find_all('img') # 找到界面所有圖片
           headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:61.0) Gecko/20100101 Firefox/61.0"}
           create_dir('pic/{}'.format(text))
           for i in pic_list:
           pic_link = i.get('src') # 拿到圖片的具體 url
           r = requests.get(pic_link, headers=headers) # 下載圖片,之后保存到文件
           with open('pic/{}/{}'.format(text, link.split('/')[-1]), 'wb') as f:
           f.write(r.content)
           time.sleep(1)
          

          06 完整代碼

          完整代碼如下,包括了創建文件夾,利用多線程爬取,我設置的是5個線程,可以根據自己機器自己來設置一下。

          import requests
          import os
          import time
          import threading
          from bs4 import BeautifulSoup
          def download_page(url):
           '''
           用于下載頁面
           '''
           headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:61.0) Gecko/20100101 Firefox/61.0"}
           r = requests.get(url, headers=headers)
           r.encoding = 'gb2312'
           return r.text
          def get_pic_list(html):
           '''
           獲取每個頁面的套圖列表,之后循環調用get_pic函數獲取圖片
           '''
           soup = BeautifulSoup(html, 'html.parser')
           pic_list = soup.find_all('li', class_='wp-item')
           for i in pic_list:
           a_tag = i.find('h3', class_='tit').find('a')
           link = a_tag.get('href')
           text = a_tag.get_text()
           get_pic(link, text)
          def get_pic(link, text):
           '''
           獲取當前頁面的圖片,并保存
           '''
           html = download_page(link) # 下載界面
           soup = BeautifulSoup(html, 'html.parser')
           pic_list = soup.find('div', id="picture").find_all('img') # 找到界面所有圖片
           headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:61.0) Gecko/20100101 Firefox/61.0"}
           create_dir('pic/{}'.format(text))
           for i in pic_list:
           pic_link = i.get('src') # 拿到圖片的具體 url
           r = requests.get(pic_link, headers=headers) # 下載圖片,之后保存到文件
           with open('pic/{}/{}'.format(text, link.split('/')[-1]), 'wb') as f:
           f.write(r.content)
           time.sleep(1) # 休息一下,不要給網站太大壓力,避免被封
          def create_dir(name):
           if not os.path.exists(name):
           os.makedirs(name)
          def execute(url):
           page_html = download_page(url)
           get_pic_list(page_html)
          def main():
           create_dir('pic')
           queue = [i for i in range(1, 72)] # 構造 url 鏈接 頁碼。
           threads = []
           while len(queue) > 0:
           for thread in threads:
           if not thread.is_alive():
           threads.remove(thread)
           while len(threads) < 5 and len(queue) > 0: # 最大線程數設置為 5
           cur_page = queue.pop(0)
           url = 'http://meizitu.com/a/more_{}.html'.format(cur_page)
           thread = threading.Thread(target=execute, args=(url,))
           thread.setDaemon(True)
           thread.start()
           print('{}正在下載{}頁'.format(threading.current_thread().name, cur_page))
           threads.append(thread)
          if __name__ == '__main__':
           main()
          

          好了,之后運行,我們的爬蟲就會孜孜不倦的為我們下載漂亮妹子啦。

          說你寫代碼沒動力?本文就給你動力,爬取妹子圖。如果這也沒動力那就沒救了。

          GitHub 地址: https://github.com/injetlee/Python/blob/master/%E7%88%AC%E8%99%AB%E9%9B%86%E5%90%88/meizitu.py

          爬蟲成果

          當你運行代碼后,文件夾就會越來越多,如果爬完的話會有2000多個文件夾,20000多張圖片。不過會很耗時間,可以在最后的代碼設置爬取頁碼范圍。

          本文目標

          1. 熟悉 Requests 庫,Beautiful Soup 庫
          2. 熟悉多線程爬取
          3. 送福利,妹子圖

          網站結構

          我們從 http://meizitu.com/a/more_1.html 這個鏈接進去,界面如圖一所示

          圖一:

          可以看到是一組一組的套圖,點擊任何一組圖片會進入到詳情界面,如圖二所示

          圖二:

          可以看到圖片是依次排開的,一般會有十張左右的圖片。

          實現思路

          看了界面的結構,那么我們的思路就有了。

          1. 構造 url 鏈接,去請求圖一所示的套圖列表界面,拿到每一個頁面中的套圖列表。
          2. 分別進入每個套圖中去,下載相應的圖片。

          代碼說明

          1. 下載界面的函數,利用 Requests 很方便實現。
          def download_page(url):
           '''
           用于下載頁面
           '''
           headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:61.0) Gecko/20100101 Firefox/61.0"}
           r = requests.get(url, headers=headers)
           r.encoding = 'gb2312'
           return r.text
          
          1. 獲取圖一所示的所有套圖列表,函數中 link 表示套圖的鏈接,text表示套圖的名字

          def get_pic_list(html):

          '''

          獲取每個頁面的套圖列表,之后循環調用get_pic函數獲取圖片

          '''

          soup = BeautifulSoup(html, 'html.parser')

          pic_list = soup.find_all('li', class_='wp-item')

          for i in pic_list:

          a_tag = i.find('h3', class_='tit').find('a')

          link = a_tag.get('href') # 套圖鏈接

          text = a_tag.get_text() # 套圖名字

          get_pic(link, text)

          1. 傳入上一步中獲取到的套圖鏈接及套圖名字,獲取每組套圖里面的圖片,并保存,我在代碼中注釋了。
          def get_pic(link, text):
           '''
           獲取當前頁面的圖片,并保存
           '''
           html = download_page(link) # 下載界面
           soup = BeautifulSoup(html, 'html.parser')
           pic_list = soup.find('div', id="picture").find_all('img') # 找到界面所有圖片
           headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:61.0) Gecko/20100101 Firefox/61.0"}
           create_dir('pic/{}'.format(text))
           for i in pic_list:
           pic_link = i.get('src') # 拿到圖片的具體 url
           r = requests.get(pic_link, headers=headers) # 下載圖片,之后保存到文件
           with open('pic/{}/{}'.format(text, pic_link.split('/')[-1]), 'wb') as f:
           f.write(r.content)
           time.sleep(1)
          

          完整代碼

          完整代碼如下,包括了創建文件夾,利用多線程爬取,我設置的是5個線程,可以根據自己機器自己來設置一下。

          import requests
          import os
          import time
          import threading
          from bs4 import BeautifulSoup
          def download_page(url):
           '''
           用于下載頁面
           '''
           headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:61.0) Gecko/20100101 Firefox/61.0"}
           r = requests.get(url, headers=headers)
           r.encoding = 'gb2312'
           return r.text
          def get_pic_list(html):
           '''
           獲取每個頁面的套圖列表,之后循環調用get_pic函數獲取圖片
           '''
           soup = BeautifulSoup(html, 'html.parser')
           pic_list = soup.find_all('li', class_='wp-item')
           for i in pic_list:
           a_tag = i.find('h3', class_='tit').find('a')
           link = a_tag.get('href')
           text = a_tag.get_text()
           get_pic(link, text)
          def get_pic(link, text):
           '''
           獲取當前頁面的圖片,并保存
           '''
           html = download_page(link) # 下載界面
           soup = BeautifulSoup(html, 'html.parser')
           pic_list = soup.find('div', id="picture").find_all('img') # 找到界面所有圖片
           headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:61.0) Gecko/20100101 Firefox/61.0"}
           create_dir('pic/{}'.format(text))
           for i in pic_list:
           pic_link = i.get('src') # 拿到圖片的具體 url
           r = requests.get(pic_link, headers=headers) # 下載圖片,之后保存到文件
           with open('pic/{}/{}'.format(text, pic_link.split('/')[-1]), 'wb') as f:
           f.write(r.content)
           time.sleep(1) # 休息一下,不要給網站太大壓力,避免被封
          def create_dir(name):
           if not os.path.exists(name):
           os.makedirs(name)
          def execute(url):
           page_html = download_page(url)
           get_pic_list(page_html)
          def main():
           create_dir('pic')
           queue = [i for i in range(1, 72)] # 構造 url 鏈接 頁碼。
           threads = []
           while len(queue) > 0:
           for thread in threads:
           if not thread.is_alive():
           threads.remove(thread)
           while len(threads) < 5 and len(queue) > 0: # 最大線程數設置為 5
           cur_page = queue.pop(0)
           url = 'http://meizitu.com/a/more_{}.html'.format(cur_page)
           thread = threading.Thread(target=execute, args=(url,))
           thread.setDaemon(True)
           thread.start()
           print('{}正在下載{}頁'.format(threading.current_thread().name, cur_page))
           threads.append(thread)
          if __name__ == '__main__':
           main()
          

          好了,之后運行,我們的爬蟲就會孜孜不倦的為我們下載漂亮妹子啦。


          主站蜘蛛池模板: 无码欧精品亚洲日韩一区| 国产精品一区二区四区| 97精品一区二区视频在线观看| 国产AV午夜精品一区二区三| 四虎一区二区成人免费影院网址| 一区二区三区波多野结衣| 成人一区二区三区视频在线观看| 国产一区二区不卡老阿姨| 久久久无码精品人妻一区| 日韩精品一区二区三区国语自制| 成人国产精品一区二区网站公司| 亚洲高清一区二区三区| 韩国一区二区三区视频| 免费视频精品一区二区| 台湾无码AV一区二区三区| 亚洲一区二区影院| 国产欧美色一区二区三区 | 亚洲中文字幕无码一区 | 亚洲无线码一区二区三区| 伊人久久大香线蕉av一区| 久久久久人妻一区精品果冻| 成人精品一区二区电影| 亚洲av日韩综合一区久热| 精品少妇人妻AV一区二区| 免费观看日本污污ww网站一区| 在线精品一区二区三区电影| 亚洲日韩AV无码一区二区三区人 | 视频一区二区中文字幕| 91精品国产一区| 一区二区国产在线播放| 亚洲第一区视频在线观看| 福利片免费一区二区三区| 日本一区频道在线视频| 无码丰满熟妇浪潮一区二区AV| 久久免费精品一区二区| 久久一区不卡中文字幕| 97久久精品无码一区二区| 无码日韩人妻av一区免费| 亚洲Av高清一区二区三区| 日本道免费精品一区二区| 国产精品伦一区二区三级视频|