使用HashSet去重
C# 中的 HashSet 是一種集合類(lèi)型,它確保其中的元素是唯一的,不允許重復(fù)值的存在。當(dāng)你嘗試向 HashSet 中添加一個(gè)重復(fù)的元素時(shí),HashSet 會(huì)忽略重復(fù)的值,而不會(huì)引發(fā)錯(cuò)誤。這使得 HashSet 成為一個(gè)非常方便的數(shù)據(jù)結(jié)構(gòu),用于存儲(chǔ)一組唯一的元素,并且在需要時(shí)可以高效地進(jìn)行查找、插入和刪除操作,注意HashSet中的元素是無(wú)序的。
/// <summary>
/// 使用HashSet去重
/// TODO:HashSet是一個(gè)集合類(lèi),它的特點(diǎn)是不允許重復(fù)元素,可以方便地實(shí)現(xiàn)去重功能。
/// </summary>
public static void HashSetDuplicate()
{
var dataSource = new List<int>() { 1, 2, 3, 2, 5, 88, 99, 99, 100, 88, 30, 50, 15, 100, 99, 99, 2, 3 };
HashSet<int> uniqueData = new HashSet<int>(dataSource);
Console.WriteLine(string.Join(", ", uniqueData));
}
使用Linq的Distinct()方法去重
Linq中的Distinct()方法用于從集合中篩選出不重復(fù)的元素。Distinct()方法基于元素的相等性來(lái)進(jìn)行篩選,并返回一個(gè)包含不重復(fù)元素的新序列。底層實(shí)現(xiàn)還是使用到了HashSet。
/// <summary>
/// 使用Linq的Distinct()方法去重
/// </summary>
public static void DistinctDuplicate()
{
var dataSource = new List<int>() { 1, 2, 3, 2, 5, 88, 99, 99, 100, 88, 30, 50, 15, 100, 99, 99, 2, 3 };
var uniqueData = dataSource.Distinct();
Console.WriteLine(string.Join(", ", uniqueData));
}
使用Linq的GroupBy()方法去重
GroupBy()方法將原始集合中的元素進(jìn)行分組,根據(jù)指定的鍵或條件進(jìn)行分組。每個(gè)分組都會(huì)有一個(gè)唯一的鍵,通過(guò)將原始集合分組并選擇每個(gè)分組中的第一個(gè)元素,實(shí)現(xiàn)了去重的效果。
/// <summary>
/// 使用Linq的GroupBy()方法去重
/// </summary>
public static void GroupByDuplicate()
{
var dataSource = new List<int>() { 1, 2, 3, 2, 5, 88, 99, 99, 100, 88, 30, 50, 15, 100, 99, 99, 2, 3 };
//GroupBy()方法將原始集合中的元素進(jìn)行分組,根據(jù)指定的鍵或條件進(jìn)行分組。每個(gè)分組都會(huì)有一個(gè)唯一的鍵,通過(guò)將原始集合分組并選擇每個(gè)分組中的第一個(gè)元素,實(shí)現(xiàn)了去重的效果。
var uniqueData = dataSource.GroupBy(item => item).Select(group => group.First()).ToList();
Console.WriteLine(string.Join(", ", uniqueData));
}
使用自定義的比較器和循環(huán)遍歷
public class ArrayDeduplication
{
/// <summary>
/// 使用自定義的比較器和循環(huán)遍歷
/// </summary>
public static void CustomEqualityComparerDuplicate()
{
var dataSource = new List<int>() { 1, 2, 3, 2, 5, 88, 99, 99, 100, 88, 30, 50, 15, 100, 99, 99, 2, 3 };
var uniqueData = new List<int>();
foreach (var item in dataSource)
{
if (!uniqueData.Contains(item, new CustomEqualityComparer()))
{
uniqueData.Add(item);
}
}
Console.WriteLine(string.Join(", ", uniqueData));
}
}
/// <summary>
/// 自定義的比較器
/// </summary>
public class CustomEqualityComparer : IEqualityComparer<int>
{
public bool Equals(int x, int y)
{
return x == y;
}
public int GetHashCode(int obj)
{
return obj.GetHashCode();
}
}
直接循環(huán)遍歷去重
/// 直接循環(huán)遍歷去重
/// </summary>
public static void LoopTraversalDuplicate()
{
var dataSource = new List<int>() { 1, 2, 3, 2, 5, 88, 99, 99, 100, 88, 30, 50, 15, 100, 99, 99, 2, 3 };
var uniqueData = new List<int>();
foreach (var item in dataSource)
{
//if (!uniqueData.Any(x => x == item))
//if (!uniqueData.Exists(x => x == item))
if (!uniqueData.Contains(item))
{
uniqueData.Add(item);
}
}
Console.WriteLine(string.Join(", ", uniqueData));
}
該文章在 2024/4/30 8:54:54 編輯過(guò)