الگوریتم Relief برای ویژگی­های دارای نویز یا ویژگی­های دارای همبستگی خوب کار می­کند و پیچیدگی زمانی آن بصورت خطی و تابعی از تعداد ویژگی­ها و تعداد نمونه­های مجموعه نمونه می­باشد. و هم برای داده­های پیوسته و هم برای داده­های صوری خوب کار می­کند.

یکی از محدودیت­های اساسی این الگوریتم این است که ویژگی­هایی که دارای افزونگی باشند را پیدا نمی­کند و بنابراین مجموعه­های غیر بهینه را پیدا می­کند که دارای افزونگی هستند. این مشکل را می­توان با یک جستجوی تعیین جامعیت برای زیرمجموعه­های تولید شده توسط الگوریتم حل کرد. علاوه بر این مشکل دیگر این الگوریتم این است که با مسائل دو کلاسه خوب کار می­کند. این محدودیت نیز با الگوریتم Relief-F [9] مرتفع شده است، با الگوریتم جدید مشکل داده­های غیر کامل (نمونه­های آموزشی غیرکامل) نیز حل شده است.

روشی که Jakub Segen [10] برای انتخاب ویژگی مطرح کرده است، از یک تابع ارزیابی استفاده می­کند که مجموع یک معیار اختلاف آماری و یک معیار پیچیدگی ویژگی را محاسبه کرده و آنرا مینیمم می­کند. این الگوریتم، اولین ویژگی را که بهتر بتواند کلاس­ها را از هم تمییز دهد را پیدا می­کند. سپس ویژگی­هایی را پیدا می­کند، که در ترکیب با ویژگی­های انتخاب شده، جدائی­پذیری کلاس­ها را افزایش دهند. این فرآیند زمانی متوقف می­شود که به حداقل معیار بازنمائی مورد انتظار برسیم.