بررسی اتوماتیک لینکهای تکراری
راه حلش اینه که کلیه issueها با برچسب content ابتدا پارس بشن و لینکهای موجود در issueهایی که برچسب current week و verfied دارند و هنوز باز هستند با لینکهای سایر issueهای بسته شده چک بشن که تکراری نباشه. البته راه در رو داره مثلاً اگر یک لینک با سرویسهای کوتاهسازی لینک تغییر کرده باشه یا بر حسب نوع پیادهسازی ممکنه با اضافه کردن کاراکترهای بیتاثیر در url در واقع query string جدید به انتهای رشته آدرس ممکنه چک کردن تکراری بودن دور زده بشه. با این حال راهیه که در اغلب موارد جواب میده و موقع ارسال میتونه هشدار بده و جلوی ارسال رو بگیره.
یک دغدغه این روش اینه که با افزایش تعداد issue های خاتمه یافته ممکنه performance بیاد پایین
به نظر دو روش قابل انجام باشه:
- بعد از ثبت issue که یه action بزاریم هر issue عی ثبت شد چک بشه با کل لینک ها اگر تکراری هم بود که حذف بشه
- لینک ها همشون داخل یک فایل ثبت بشن هنگامی که پست ها خوانده می شود هر کدوم داخل فایل بود از لیست ارسالی خارج بشه بعد از آرشیو هم هر issue باز با برچسب current week و verified داریم بسته بشن
برای مشکل query string ها پیش پردازش لینک ها مفید میاد و به جای اینکه عینا لینک هارو بررسی کنیم مشابهت رو در نظر بگیریم با یه درصدی از مشابهت خودکار اون لینک رو تکراری در نظر بگیره
برای لینک های کوتاه هم به نظر یه لیستی از سرویس هایی که لینک کوتاه ارائه میدن داشته باشیم کلا لینک کوتاه رو استفاده نکنیم که ممکنه حتی توی ارشیو ها هم در آینده کسی خبرنامه رو ببینه لینک ها 404 بشن و منقضی
میتونیم لینک کوتاه رو به قوانین اضافه کنیم کلا که استفاده نکنند
این ایده که کلن ارشیو پستها در یک json اصولی و ساختارمند ذخیره بشه و ماشین-خوان هم باشه ایده خوبیه که چند وقت پیش توی یک ایشو یکی مطرح کرده بود. چون الان خیلی ساختار خوبی نداریم و فقط همه چیز توی یک سری فایل html ارشیو شده و اصلا نمیشه روش کار مفیدی با ماشین انجام داد.