অ্যাপল কেন আপনার আইক্লাউড ফটো স্ক্যান করার পরিকল্পনা পরিত্যাগ করেছে

অ্যাপল কেন আপনার আইক্লাউড ফটো স্ক্যান করার পরিকল্পনা পরিত্যাগ করেছে
আপনার মত পাঠকরা MUO সমর্থন করতে সাহায্য করে। আপনি যখন আমাদের সাইটে লিঙ্ক ব্যবহার করে একটি ক্রয় করেন, আমরা একটি অনুমোদিত কমিশন উপার্জন করতে পারি। আরও পড়ুন

অ্যাপল 2021 সালের আগস্টে শিশুদের যৌন নির্যাতনের বিষয়বস্তু (CSAM) এর জন্য আপনার iCloud সামগ্রী স্ক্যান করার পরিকল্পনা ঘোষণা করেছে যাতে শিশুদের শিকারীদের দ্বারা নির্যাতন থেকে রক্ষা করা যায়।





পুরানো wii কনসোল দিয়ে কি করবেন

কোম্পানি আইক্লাউড ফটোতে একটি নতুন CSAM সনাক্তকরণ বৈশিষ্ট্য চালু করার পরিকল্পনা করেছে যা ব্যবহারকারীর গোপনীয়তা বজায় রেখে এই ধরনের সামগ্রীর জন্য স্ক্যান করবে এবং অ্যাপলের সাথে মিলে যাওয়া চিত্রগুলি প্রতিবেদন করবে।





দিনের মেকইউজের ভিডিও

তবে, নতুন ফিচারটি মিশ্র প্রতিক্রিয়ার সাথে দেখা হয়েছিল। প্রাথমিক ঘোষণার পর থেকে এক বছরেরও বেশি সময় ধরে, অ্যাপল আনুষ্ঠানিকভাবে CSAM-এর জন্য iCloud ফটো স্ক্যান করার পরিকল্পনা বাদ দিচ্ছে।





অ্যাপল শিশু নির্যাতনের উপাদানের জন্য আইক্লাউড স্ক্যান করার পরিকল্পনা বাদ দিয়েছে

একটি রিপোর্ট অনুযায়ী তারযুক্ত , Apple শিশুদের অপব্যবহারের বিষয়বস্তুর জন্য আপনার iCloud স্ক্যান করার পরিকল্পনা থেকে দূরে সরে যাচ্ছে। এই টুলটি আইক্লাউডে সংরক্ষিত ফটো স্ক্যান করবে যা শিশুদের নিরাপত্তা সংস্থাগুলির দ্বারা চিহ্নিত পরিচিত CSAM ছবির সাথে মেলে। এটি তখন সেই ছবিগুলিকে রিপোর্ট করতে পারে কারণ মার্কিন যুক্তরাষ্ট্র সহ বেশিরভাগ বিচারব্যবস্থায় CSAM ছবি থাকা বেআইনি৷

অ্যাপল কেন আইক্লাউড ফটো স্ক্যান করার পরিকল্পনা বাতিল করেছে

2021 সালে প্রাথমিক ঘোষণার পরে, অ্যাপল বিশ্বব্যাপী ডিজিটাল গোপনীয়তা এবং সুরক্ষার পক্ষে সমর্থনকারী গ্রাহক, গোষ্ঠী এবং ব্যক্তিদের প্রতিক্রিয়ার মুখোমুখি হয়েছিল। আইফোন সাধারণত অ্যান্ড্রয়েড ডিভাইসের চেয়ে বেশি নিরাপত্তা প্রদান করে , এবং অনেকে এটিকে একটি ধাপ পিছিয়ে হিসাবে দেখেছেন৷ যদিও এটি শিশু সুরক্ষা সংস্থাগুলির জন্য একটি জয় ছিল, 90 টিরও বেশি নীতি গোষ্ঠী একই মাসের শেষের দিকে অ্যাপলের কাছে একটি খোলা চিঠি লিখেছিল, কোম্পানিকে পরিকল্পনাটি বাতিল করতে বলেছিল।



 অ্যাপল স্টোরের সামনে

চিঠিতে যুক্তি দেখানো হয়েছে যে যখন হাতিয়ার করতে চায় শিশুদের অপব্যবহার থেকে রক্ষা করুন , এটি বিনামূল্যে বক্তৃতা সেন্সর এবং ব্যবহারকারীর গোপনীয়তা এবং নিরাপত্তা হুমকির জন্য ব্যবহার করা যেতে পারে। মাউন্টিং চাপের কারণে, অ্যাপল ফিডব্যাক সংগ্রহ করতে এবং বৈশিষ্ট্যটিতে প্রয়োজনীয় সমন্বয় করার জন্য তার লঞ্চ পরিকল্পনা বন্ধ করে দিয়েছে। যাইহোক, প্রতিক্রিয়া আইক্লাউড ফটো স্ক্যান করার জন্য অ্যাপলের পরিকল্পনার পক্ষে ছিল না, তাই কোম্পানি আনুষ্ঠানিকভাবে ভালোর জন্য পরিকল্পনা বাদ দিচ্ছে।

WIRED-এর কাছে একটি বিবৃতিতে, সংস্থাটি বলেছে:





কিভাবে ম্যাকের উপর পুনরায় আরম্ভ করতে বাধ্য করবেন

'আমরা ... iCloud ফটোর জন্য আমাদের পূর্বে প্রস্তাবিত CSAM সনাক্তকরণ টুলের সাথে অগ্রসর না হওয়ার সিদ্ধান্ত নিয়েছি। ব্যক্তিগত ডেটার মাধ্যমে কোম্পানীগুলিকে আঁচড়ানো ছাড়াই শিশুদের সুরক্ষিত করা যেতে পারে, এবং আমরা সুরক্ষায় সহায়তা করার জন্য সরকার, শিশু আইনজীবী এবং অন্যান্য সংস্থাগুলির সাথে কাজ চালিয়ে যাব। তরুণরা, তাদের গোপনীয়তার অধিকার সংরক্ষণ করুন এবং ইন্টারনেটকে শিশুদের এবং আমাদের সকলের জন্য একটি নিরাপদ স্থান করে তুলুন।'

শিশুদের সুরক্ষায় অ্যাপলের নতুন পরিকল্পনা

Apple 2021 সালের আগস্টে ঘোষিত এবং একই বছরের ডিসেম্বরে চালু হওয়া যোগাযোগ সুরক্ষা বৈশিষ্ট্যগুলিকে উন্নত করার প্রচেষ্টাকে পুনঃনির্দেশ করছে।





যোগাযোগ নিরাপত্তা ঐচ্ছিক এবং iMessage-এ যৌনতাপূর্ণ ছবি পাঠানো এবং গ্রহণ করা থেকে শিশুদের রক্ষা করার জন্য পিতামাতা এবং অভিভাবকদের দ্বারা ব্যবহার করা যেতে পারে। বৈশিষ্ট্যটি স্বয়ংক্রিয়ভাবে এই জাতীয় ফটোগুলিকে ঝাপসা করে দেয় এবং শিশুকে জড়িত বিপদ সম্পর্কে সতর্ক করা হবে৷ কেউ যদি অ্যাপল ডিভাইসে CSAM অনুসন্ধান করার চেষ্টা করে তবে এটি তাদের সতর্ক করে।

একটি CSAM- সনাক্তকরণ টুল চালু করার পরিকল্পনা বাতিল করা হয়েছে, কোম্পানিটি বৈশিষ্ট্যটিকে আরও উন্নত করতে এবং এটিকে আরও কমিউনিকেশন অ্যাপে প্রসারিত করার অপেক্ষায় রয়েছে।