日常編程中,我們經(jīng)常會遇到數(shù)組去重的問題。今天,我們就來聊聊如何用JavaScript來優(yōu)雅地解決這個問題。
給定一個包含重復(fù)元素的數(shù)組,我們希望創(chuàng)建一個新的數(shù)組,其中只包含原始數(shù)組中的唯一值。例如,如果我們有一個數(shù)組 [1, 2, 3, 2, 4, 1, 5],期望的輸出應(yīng)該是 [1, 2, 3, 4, 5]。
我們可以使用最簡單的方法——嵌套循環(huán)來解決這個問題。遍歷每一個元素,檢查它是否已經(jīng)存在于新數(shù)組中,如果不存在則添加進(jìn)去。
function removeDuplicates(arr) {
const result=[];
for (let i=0; i < arr.length; i++) {
let isDuplicate=false;
for (let j=0; j < result.length; j++) {
if (arr[i]===result[j]) {
isDuplicate=true;
break;
}
}
if (!isDuplicate) {
result.push(arr[i]);
}
}
return result;
}
const myArray=[1, 2, 3, 2, 4, 1, 5];
const uniqueArray=removeDuplicates(myArray);
console.log(uniqueArray); // 輸出: [1, 2, 3, 4, 5]
這個方法雖然直觀,但當(dāng)數(shù)組很大時,效率會變得非常低,因為時間復(fù)雜度是 O(n2)。
我們還可以使用 indexOf 方法配合 filter 方法來去重,這樣看起來會簡潔不少。
function removeDuplicates(arr) {
return arr.filter((item, pos)=> arr.indexOf(item)===pos);
}
const myArray=[1, 2, 3, 2, 4, 1, 5];
const uniqueArray=removeDuplicates(myArray);
console.log(uniqueArray); // 輸出: [1, 2, 3, 4, 5]
在這個方法中,我們使用 filter 方法創(chuàng)建了一個新數(shù)組,只有滿足條件的元素才會被包含進(jìn)來。條件是當(dāng)前元素的索引應(yīng)該等于該元素在數(shù)組中第一次出現(xiàn)的位置。這種方法代碼看起來更簡潔,但是它的時間復(fù)雜度依然是 O(n2),因為 indexOf 需要遍歷整個數(shù)組來查找元素的位置。
使用對象特性優(yōu)化
在處理大數(shù)組去重時,我們可以利用對象的特性來提升性能。通過在對象中記錄數(shù)組元素,可以有效減少重復(fù)元素的檢查次數(shù)。
function removeDuplicates(arr) {
const seen={};
return arr.filter((item)=> {
if (seen[item]) {
return false;
} else {
seen[item]=true;
return true;
}
});
}
const myArray=[1, 2, 3, 2, 4, 1, 5];
const uniqueArray=removeDuplicates(myArray);
console.log(uniqueArray); // 輸出: [1, 2, 3, 4, 5]
這個方法創(chuàng)建了一個空對象 seen,然后通過 filter 方法遍歷數(shù)組。每個元素都會檢查是否已存在于 seen 對象中。如果存在,則跳過;否則,加入 seen 對象并保留在新數(shù)組中。這種方法對于大數(shù)組更高效,但存在一些缺點:
如果你的數(shù)組只包含基本類型,并且不需要區(qū)分類型,這可以放心使用這個方法。
結(jié)合對象和數(shù)組的線性搜索
我們可以結(jié)合對象和數(shù)組的線性搜索方法來解決上述問題。
function removeDuplicates(arr) {
const prims={ boolean: {}, number: {}, string: {} };
const objs=[];
return arr.filter((item)=> {
const type=typeof item;
if (type in prims) {
if (prims[type].hasOwnProperty(item)) {
return false;
} else {
prims[type][item]=true;
return true;
}
} else {
if (objs.indexOf(item) >=0) {
return false;
} else {
objs.push(item);
return true;
}
}
});
}
const myArray=[1, 2, 3, 2, 4, 1, 5, { foo: 1 }, { foo: 2 }];
const uniqueArray=removeDuplicates(myArray);
console.log(uniqueArray); // 輸出: [1, 2, 3, 4, 5, { foo: 1 }, { foo: 2 }]
主要優(yōu)點
存在的問題
最終方案:編寫深度比較函數(shù)
編寫深度比較函數(shù) isDeepDataStructureEquality,用來比較兩個對象的內(nèi)容是否相同。
function isDeepDataStructureEquality(a, b) {
let isEqual=Object.is(a, b);
if (!isEqual) {
if (Array.isArray(a) && Array.isArray(b)) {
isEqual=(a.length===b.length) && a.every(
(item, idx)=> isDeepDataStructureEquality(item, b[idx])
);
} else if (
a && b
&& (typeof a==='object')
&& (typeof b==='object')
) {
const aKeys=Object.keys(a);
const bKeys=Object.keys(b);
isEqual=(aKeys.length===bKeys.length) && aKeys.every(
(key, idx)=> isDeepDataStructureEquality(a[key], b[key])
);
}
}
return isEqual;
}
function removeDuplicates(arr) {
const primitives={ boolean: {}, number: {}, string: {} };
const objs=[];
return arr.filter(item=> {
const type=typeof item;
if (type in primitives) {
if (primitives[type].hasOwnProperty(item)) {
return false;
} else {
primitives[type][item]=true;
return true;
}
} else {
if (objs.some(obj=> isDeepDataStructureEquality(obj, item))) {
return false;
} else {
objs.push(item);
return true;
}
}
});
}
另一種去重方法是先排序數(shù)組,然后去除連續(xù)重復(fù)的元素。
function removeDuplicates(arr) {
return arr.sort().filter((item, pos, ary)=> !pos || item !==ary[pos - 1]);
}
const myArray=[1, 2, 3, 2, 4, 1, 5];
const uniqueArray=removeDuplicates(myArray);
console.log(uniqueArray); // 輸出: [1, 2, 3, 4, 5]
這個方法首先使用 sort 方法對數(shù)組進(jìn)行排序,然后使用 filter 方法去除連續(xù)的重復(fù)元素。雖然對已排序的數(shù)組很有效,但無法處理對象數(shù)組。
對于包含對象的數(shù)組,我們可以利用 Set 數(shù)據(jù)結(jié)構(gòu)來高效去重。因為 Set 只存儲唯一值,我們可以將數(shù)組轉(zhuǎn)換為 Set,然后再轉(zhuǎn)換回數(shù)組。
function removeDuplicates(arr) {
return [...new Set(arr)];
}
const myArray=[1, 2, 3, 2, 4, 1, 5, { foo: 1 }, { foo: 2 }];
const uniqueArray=removeDuplicates(myArray);
console.log(uniqueArray); // 輸出: [1, 2, 3, 4, 5, { foo: 1 }, { foo: 2 }]
這個方法通過 new Set(arr) 創(chuàng)建一個新的集合,然后使用擴(kuò)展運算符 ... 將集合展開為數(shù)組,去重過程簡單且高效。
在實際開發(fā)中,選擇合適的數(shù)組去重方法非常重要。如果數(shù)組主要包含基本類型,使用 Set 是一種簡潔高效的選擇。如果數(shù)組中包含復(fù)雜結(jié)構(gòu)的對象,可以結(jié)合深度比較函數(shù)來確保去重的準(zhǔn)確性。
無論你選擇哪種方法,都要根據(jù)具體的應(yīng)用場景和數(shù)據(jù)特點來決定。希望這些方法能幫助你在實際開發(fā)中更優(yōu)雅地解決數(shù)組去重問題。如果你有其他更好的方法或建議,歡迎在評論區(qū)分享哦!
如果你喜歡這篇文章,請點贊并關(guān)注,更多前端技巧和小妙招等著你哦!
各大公司面試中,我們經(jīng)常會被問到數(shù)組去重算法,這也是一道非常經(jīng)典的面試題,一般考官會讓你用自己擅長的語言,不管是C,C++,Java,PHP,Javascript都可以。今天我們就來看看,如何利用Javascript來完成數(shù)組去重算法。
Javascript的logo
遍歷數(shù)組算法
核心思想:在函數(shù)內(nèi)部新建一個數(shù)組,然后對傳入的數(shù)組進(jìn)行遍歷,值不在新數(shù)組中就添加進(jìn)去,如果存在就不添加。注意:本算法采用了ES5的indexOf方法,但是因為在IE8以下版本的瀏覽器中還不支持,因此需要寫一個polyfill,算法代碼如下所示
遍歷數(shù)組法
對象鍵值對方法
核心思想:新建一個JS對象以及一個新的數(shù)組,對傳入的數(shù)組進(jìn)行遍歷,判斷值是否為JS對象的鍵,如果不是,則給該JS對象插入該鍵,同時插入新的數(shù)組。該算法執(zhí)行速度最快,但是由于新建了額外的對象與數(shù)組,會占用比較的空間。算法代碼如下:
數(shù)組鍵值對方法
先排序,再去重
核心思想:首先借用原生sort方法進(jìn)行排序,然后對排序后的新數(shù)組進(jìn)行相鄰元素去重,代碼如下
先排序,再去重
優(yōu)先遍歷數(shù)組法
核心思想:雙層循環(huán),找出最右邊的沒有重復(fù)的值加入新的數(shù)組中
優(yōu)先遍歷數(shù)組
運行結(jié)果
運行幾個方法的代碼如下
運行方法
在chrome瀏覽器中運行后,結(jié)果如下圖所示,
運行結(jié)果
總結(jié)
今天我們講解了下Javascript中比較經(jīng)典的數(shù)組去重算法,希望能對大家有所幫助
如果喜歡的話,記得關(guān)注小編噢,小編后續(xù)會堅持出更多技術(shù)性的文章,如果有任何問題,也歡迎提問,小編都會盡力解答的。
消息中間件是分布式系統(tǒng)常用的組件,無論是異步化、解耦、削峰等都有廣泛的應(yīng)用價值。我們通常會認(rèn)為,消息中間件是一個可靠的組件——這里所謂的可靠是指,只要我把消息成功投遞到了消息中間件,消息就不會丟失,即消息肯定會至少保證消息能被消費者成功消費一次,這是消息中間件最基本的特性之一,也就是我們常說的“AT LEAST ONCE”,即消息至少會被“成功消費一遍”。
舉個例子,一個消息M發(fā)送到了消息中間件,消息投遞到了消費程序A,A接受到了消息,然后進(jìn)行消費,但在消費到一半的時候程序重啟了,這時候這個消息并沒有標(biāo)記為消費成功,這個消息還會繼續(xù)投遞給這個消費者,直到其消費成功了,消息中間件才會停止投遞。
然而這種可靠的特性導(dǎo)致,消息可能被多次地投遞。舉個例子,還是剛剛這個例子,程序A接受到這個消息M并完成消費邏輯之后,正想通知消息中間件“我已經(jīng)消費成功了”的時候,程序就重啟了,那么對于消息中間件來說,這個消息并沒有成功消費過,所以他還會繼續(xù)投遞。這時候?qū)τ趹?yīng)用程序A來說,看起來就是這個消息明明消費成功了,但是消息中間件還在重復(fù)投遞。
這在RockectMQ的場景來看,就是同一個messageId的消息重復(fù)投遞下來了。
基于消息的投遞可靠(消息不丟)是優(yōu)先級更高的,所以消息不重的任務(wù)就會轉(zhuǎn)移到應(yīng)用程序自我實現(xiàn),這也是為什么RocketMQ的文檔里強(qiáng)調(diào)的,消費邏輯需要自我實現(xiàn)冪等。背后的邏輯其實就是:不丟和不重是矛盾的(在分布式場景下),但消息重復(fù)是有解決方案的,而消息丟失是很麻煩的。
例如:假設(shè)我們業(yè)務(wù)的消息消費邏輯是:插入某張訂單表的數(shù)據(jù),然后更新庫存:
insert into t_order values .....
update t_inv set count=count-1 where good_id='good123';
要實現(xiàn)消息的冪等,我們可能會采取這樣的方案:
select * from t_order where order_no='order123'
if(order !=null) {
return ;//消息重復(fù),直接返回
}
這對于很多情況下,的確能起到不錯的效果,但是在并發(fā)場景下,還是會有問題。
假設(shè)這個消費的所有代碼加起來需要1秒,有重復(fù)的消息在這1秒內(nèi)(假設(shè)100毫秒)內(nèi)到達(dá)(例如生產(chǎn)者快速重發(fā),Broker重啟等),那么很可能,上面去重代碼里面會發(fā)現(xiàn),數(shù)據(jù)依然是空的(因為上一條消息還沒消費完,還沒成功更新訂單狀態(tài)),
那么就會穿透掉檢查的擋板,最后導(dǎo)致重復(fù)的消息消費邏輯進(jìn)入到非冪等安全的業(yè)務(wù)代碼中,從而引發(fā)重復(fù)消費的問題(如主鍵沖突拋出異常、庫存被重復(fù)扣減而沒釋放等)
要解決上面并發(fā)場景下的消息冪等問題,一個可取的方案是開啟事務(wù)把select 改成 select for update語句,把記錄進(jìn)行鎖定。
select * from t_order where order_no='THIS_ORDER_NO' for update //開啟事務(wù)
if(order.status !=null) {
return ;//消息重復(fù),直接返回
}
但這樣消費的邏輯會因為引入了事務(wù)包裹而導(dǎo)致整個消息消費可能變長,并發(fā)度下降。
當(dāng)然還有其他更高級的解決方案,例如更新訂單狀態(tài)采取樂觀鎖,更新失敗則消息重新消費之類的。但這需要針對具體業(yè)務(wù)場景做更復(fù)雜和細(xì)致的代碼開發(fā)、庫表設(shè)計,不在本文討論的范圍。
但無論是select for update, 還是樂觀鎖這種解決方案,實際上都是基于業(yè)務(wù)表本身做去重,這無疑增加了業(yè)務(wù)開發(fā)的復(fù)雜度, 一個業(yè)務(wù)系統(tǒng)里面很大部分的請求處理都是依賴MQ的,如果每個消費邏輯本身都需要基于業(yè)務(wù)本身而做去重/冪等的開發(fā)的話,這是繁瑣的工作量。本文希望探索出一個通用的消息冪等處理的方法,從而抽象出一定的工具類用以適用各個業(yè)務(wù)場景。
在消息中間件里,有一個投遞語義的概念,而這個語義里有一個叫”Exactly Once”,即消息肯定會被成功消費,并且只會被消費一次。以下是阿里云里對Exactly Once的解釋:
Exactly-Once 是指發(fā)送到消息系統(tǒng)的消息只能被消費端處理且僅處理一次,即使生產(chǎn)端重試消息發(fā)送導(dǎo)致某消息重復(fù)投遞,該消息在消費端也只被消費一次。
在我們業(yè)務(wù)消息冪等處理的領(lǐng)域內(nèi),可以認(rèn)為業(yè)務(wù)消息的代碼肯定會被執(zhí)行,并且只被執(zhí)行一次,那么我們可以認(rèn)為是Exactly Once。
但這在分布式的場景下想找一個通用的方案幾乎是不可能的。不過如果是針對基于數(shù)據(jù)庫事務(wù)的消費邏輯,實際上是可行的。
假設(shè)我們業(yè)務(wù)的消息消費邏輯是:更新MySQL數(shù)據(jù)庫的某張訂單表的狀態(tài):
update t_order set status='SUCCESS' where order_no='order123';
要實現(xiàn)Exaclty Once即這個消息只被消費一次(并且肯定要保證能消費一次),我們可以這樣做:在這個數(shù)據(jù)庫中增加一個消息消費記錄表,把消息插入到這個表,并且把原來的訂單更新和這個插入的動作放到同一個事務(wù)中一起提交,就能保證消息只會被消費一遍了。
說明:
事實上,阿里云ONS的EXACTLY-ONCE語義的實現(xiàn)上,就是類似這個方案基于數(shù)據(jù)庫的事務(wù)特性實現(xiàn)的。更多詳情可參考:https://help.aliyun.com/document_detail/102777.html
基于這種方式,的確這是有能力拓展到不同的應(yīng)用場景,因為他的實現(xiàn)方案與具體業(yè)務(wù)本身無關(guān)——而是依賴一個消息表。
但是這里有它的局限性
注:業(yè)務(wù)上,消息表的設(shè)計不應(yīng)該以消息ID作為標(biāo)識,而應(yīng)該以業(yè)務(wù)的業(yè)務(wù)主鍵作為標(biāo)識更為合理,以應(yīng)對生產(chǎn)者的重發(fā)。阿里云上的消息去重只是RocketMQ的messageId,在生產(chǎn)者因為某些原因手動重發(fā)(例如上游針對一個交易重復(fù)請求了)的場景下起不到去重/冪等的效果(因消息id不同)。
如上所述,這種方式Exactly Once語義的實現(xiàn),實際上有很多局限性,這種局限性使得這個方案基本不具備廣泛應(yīng)用的價值。并且由于基于事務(wù),可能導(dǎo)致鎖表時間過長等性能問題。
例如我們以一個比較常見的一個訂單申請的消息來舉例,可能有以下幾步(以下統(tǒng)稱為步驟X):
這種情況下,我們?nèi)绻扇∠⒈?本地事務(wù)的實現(xiàn)方式,消息消費過程中很多子過程是不支持回滾的,也就是說就算我們加了事務(wù),實際上這背后的操作并不是原子性的。怎么說呢,就是說有可能第一條小在經(jīng)歷了第二步鎖庫存的時候,服務(wù)重啟了,這時候?qū)嶋H上庫存是已經(jīng)在另外的服務(wù)里被鎖定了,這并不能被回滾。當(dāng)然消息還會再次投遞下來,要保證消息能至少消費一遍,換句話說,鎖庫存的這個RPC接口本身依舊要支持“冪等”。
再者,如果在這個比較耗時的長鏈條場景下加入事務(wù)的包裹,將大大的降低系統(tǒng)的并發(fā)。所以通常情況下,我們處理這種場景的消息去重的方法還是會使用一開始說的業(yè)務(wù)自己實現(xiàn)去重邏輯的方式,如前面加select for update,或者使用樂觀鎖。
那我們有沒有方法抽取出一個公共的解決方案,能兼顧去重、通用、高性能呢?
其中一個思路是把上面的幾步,拆解成幾個不同的子消息,例如:
注:上述步驟需要保證本地事務(wù)和消息是一個事務(wù)的(至少是最終一致性的),這其中涉及到分布式事務(wù)消息相關(guān)的話題,不在本文論述。
可以看到這樣的處理方法會使得每一步的操作都比較原子,而原子則意味著是小事務(wù),小事務(wù)則意味著使用消息表+事務(wù)的方案顯得可行。
然而,這太復(fù)雜了!這把一個本來連續(xù)的代碼邏輯割裂成多個系統(tǒng)多次消息交互!那還不如業(yè)務(wù)代碼層面上加鎖實現(xiàn)呢。
上面消息表+本地事務(wù)的方案之所以有其局限性和并發(fā)的短板,究其根本是因為它依賴于關(guān)系型數(shù)據(jù)庫的事務(wù),且必須要把事務(wù)包裹于整個消息消費的環(huán)節(jié)。
如果我們能不依賴事務(wù)而實現(xiàn)消息的去重,那么方案就能推廣到更復(fù)雜的場景例如:RPC、跨庫等。
例如,我們依舊使用消息表,但是不依賴事務(wù),而是針對消息表增加消費狀態(tài),是否可以解決問題呢?
以上是去事務(wù)化后的消息冪等方案的流程,可以看到,此方案是無事務(wù)的,而是針對消息表本身做了狀態(tài)的區(qū)分:消費中、消費完成。只有消費完成的消息才會被冪等處理掉。而對于已有消費中的消息,后面重復(fù)的消息會觸發(fā)延遲消費(在RocketMQ的場景下即發(fā)送到RETRY TOPIC),之所以觸發(fā)延遲消費是為了控制并發(fā)場景下,第二條消息在第一條消息沒完成的過程中,去控制消息不丟(如果直接冪等,那么會丟失消息(同一個消息id的話),因為上一條消息如果沒有消費完成的時候,第二條消息你已經(jīng)告訴broker成功了,那么第一條消息這時候失敗broker也不會重新投遞了)
上面的流程不再細(xì)說,后文有g(shù)ithub源碼的地址,讀者可以參考源碼的實現(xiàn),這里我們回頭看看我們一開始想解決的問題是否解決了:
關(guān)于第一個問題已經(jīng)很明顯已經(jīng)解決了,在此就不討論了。
關(guān)于第二個問題是如何解決的?主要是依靠插入消息表的這個動作做控制的,假設(shè)我們用MySQL作為消息表的存儲媒介(設(shè)置消息的唯一ID為主鍵),那么插入的動作只有一條消息會成功,后面的消息插入會由于主鍵沖突而失敗,走向延遲消費的分支,然后后面延遲消費的時候就會變成上面第一個場景的問題。
關(guān)于第三個問題,只要我們設(shè)計去重的消息鍵讓其支持業(yè)務(wù)的主鍵(例如訂單號、請求流水號等),而不僅僅是messageId即可。所以也不是問題。
如果細(xì)心的讀者可能會發(fā)現(xiàn)這里實際上是有邏輯漏洞的,問題出在上面聊到的個三問題中的第2個問題(并發(fā)場景),在并發(fā)場景下我們依賴于消息狀態(tài)是做并發(fā)控制使得第2條消息重復(fù)的消息會不斷延遲消費(重試)。但如果這時候第1條消息也由于一些異常原因(例如機(jī)器重啟了、外部異常導(dǎo)致消費失敗)沒有成功消費成功呢?也就是說這時候延遲消費實際上每次下來看到的都是消費中的狀態(tài),最后消費就會被視為消費失敗而被投遞到死信Topic中(RocketMQ默認(rèn)可以重復(fù)消費16次)。
有這種顧慮是正確的!對于此,我們解決的方法是,插入的消息表必須要帶一個最長消費過期時間,例如10分鐘,意思是如果一個消息處于消費中超過10分鐘,就需要從消息表中刪除(需要程序自行實現(xiàn))。所以最后這個消息的流程會是這樣的:
我們這個方案實際上沒有事務(wù)的,只需要一個存儲的中心媒介,那么自然我們可以選擇更靈活的存儲媒介,例如Redis。使用Redis有兩個好處:
當(dāng)然Redis存儲的數(shù)據(jù)可靠性、一致性等方面是不如MySQL的,需要用戶自己取舍。
以上方案針對RocketMQ的Java實現(xiàn)已經(jīng)開源放到Github中,具體的使用文檔可以參考https://github.com/Jaskey/RocketMQDedupListener ,
以下僅貼一個Readme中利用Redis去重的使用樣例,用以意業(yè)務(wù)中如果使用此工具加入消息去重冪等的是多么簡單:
//利用Redis做冪等表
DefaultMQPushConsumer consumer=new DefaultMQPushConsumer("TEST-APP1");
consumer.subscribe("TEST-TOPIC", "*");
String appName=consumer.getConsumerGroup();// 大部分情況下可直接使用consumer group名
StringRedisTemplate stringRedisTemplate=null;// 這里省略獲取StringRedisTemplate的過程
DedupConfig dedupConfig=DedupConfig.enableDedupConsumeConfig(appName, stringRedisTemplate);
DedupConcurrentListener messageListener=new SampleListener(dedupConfig);
consumer.registerMessageListener(messageListener);
consumer.start();
以上代碼大部分是原始RocketMQ的必須代碼,唯一需要修改的僅僅是創(chuàng)建一個DedupConcurrentListener示例,在這個示例中指明你的消費邏輯和去重的業(yè)務(wù)鍵(默認(rèn)是messageId)。
更多使用詳情請參考Github上的說明。
實現(xiàn)到這里,似乎方案挺完美的,所有的消息都能快速的接入去重,且與具體業(yè)務(wù)實現(xiàn)也完全解耦。那么這樣是否就完美的完成去重的所有任務(wù)呢?
很可惜,其實不是的。原因很簡單:因為要保證消息至少被成功消費一遍,那么消息就有機(jī)會消費到一半的時候失敗觸發(fā)消息重試的可能。還是以上面的訂單流程X:
檢查庫存(RPC)
鎖庫存(RPC)
開啟事務(wù),插入訂單表(MySQL)
調(diào)用某些其他下游服務(wù)(RPC)
更新訂單狀態(tài)
commit 事務(wù)(MySQL)
當(dāng)消息消費到步驟3的時候,我們假設(shè)MySQL異常導(dǎo)致失敗了,觸發(fā)消息重試。因為在重試前我們會刪除冪等表的記錄,所以消息重試的時候就會重新進(jìn)入消費代碼,那么步驟1和步驟2就會重新再執(zhí)行一遍。如果步驟2本身不是冪等的,那么這個業(yè)務(wù)消息消費依舊沒有做好完整的冪等處理。
那么既然這個并不能完整的完成消息冪等,還有什么價值呢?價值可就大了!雖然這不是解決消息冪等的銀彈(事實上,軟件工程領(lǐng)域里基本沒有銀彈),但是他能以便捷的手段解決:
1.各種由于Broker、負(fù)載均衡等原因?qū)е碌南⒅赝哆f的重復(fù)問題
2.各種上游生產(chǎn)者導(dǎo)致的業(yè)務(wù)級別消息重復(fù)問題
3.重復(fù)消息并發(fā)消費的控制窗口問題,就算重復(fù),重復(fù)也不可能同一時間進(jìn)入消費邏輯
也就是說,使用這個方法能保證正常的消費邏輯場景下(無異常,無異常退出),消息的冪等工作全部都能解決,無論是業(yè)務(wù)重復(fù),還是rocketmq特性帶來的重復(fù)。
事實上,這已經(jīng)能解決99%的消息重復(fù)問題了,畢竟異常的場景肯定是少數(shù)的。那么如果希望異常場景下也能處理好冪等的問題,可以做以下工作降低問題率:
*請認(rèn)真填寫需求信息,我們會在24小時內(nèi)與您取得聯(lián)系。