تصمیم عجیب مولتی میلیاردر روس برای جاودانه شدن
تاریخ انتشار: ۲۳ بهمن ۱۴۰۱ | کد خبر: ۳۷۰۹۱۰۸۹
هر چقدر موضوع جاودانگی دور از ذهن به نظر برسد اما از نظر تئوری، جاودانگی حداقل برای دیمیتری ایتسکوف غیرممکن نیست. دیمیتری ایتسکوف، نیکوکار و میلیاردر روسی است. او نظریه جاودانگی را پایه گذاری کرد که با کمک آن می خواهد مسیری فنی به سوی جاودانگی ارائه دهد و به بشریت در غلبه بر محدودیت های جسمی و ذهنی خود کمک کند.
بیشتر بخوانید:
اخباری که در وبسایت منتشر نمیشوند!
به گزارش خبرآنلاین، هدف این تلاش ایجاد سیستمهای روباتیک پیشرفته، رابطهای مغز و کامپیوتر و بدنهای مصنوعی با هدف انتقال آگاهی انسان به شکلی جدید و مصنوعی است. دیمیتری ایتسکوف همچنین از حامیان ایده استفاده از فناوری برای بهبود وضعیت انسان و افزایش عمر انسان است.
دیمیتری ایتسکوف کیست؟
دیمیتری ایتسکوف یک کارآفرین و تاجر رسانه موفق روسی است که تمایل زیادی به حضور در رسانههای جمعی ندارد. او کار خود را به عنوان ناشر آغاز کرد و سپس درگیر توسعه فعالیت های رسانهای مختلف در روسیه شد، از جمله معرفی وب سایت خبری New Times و تأسیس کانال تلویزیونی DOORS.
این تلاش ها به او کمک کرد تا خود را به عنوان یک نجیب زاده موفق رسانهای معرفی کند و ثروت شخصی قابل توجهی را جمع آوری کند. او همچنین به دلیل سرمایه گذاری هایش در چندین شرکت فناوری شناخته شده است. او به سرعت متوجه شد که وقتی پول، قدرت و شهرت دارید تنها یک چیز کم است و آن زمان است.
برخی از رسانه ها از ایتسکوف انتقاد کرده اند که تنها جاودانگی را برای خود میخواهد؛ به گفته این میلیاردر روسی اما پروژه 2045 این پروژه ای که او ایجاد کرده است نه تنها به دنبال رسیدن به جاودانگی انسان است، بلکه بشریت را به روشنگری بسیار بالاتری می رساند، جایی که خود زندگی بسیار بیشتر از امروز ارزش دارد. تعریف توصیفی از کل پروژه و همچنین چشم اندازهای مختلف در وب سایت اختصاصی این پروژه به نام "2045.com" ارائه شده است.
پروژه 2045 چیست؟
"اهداف اصلی پروژه 2045 ایجاد و تحقق یک استراتژی جدید برای توسعه بشریت است که به چالش های تمدن جهانی پاسخ می دهد. ایجاد شرایط بهینه برای ارتقای روشنگری معنوی بشریت؛ و تحقق یک واقعیت جدید آینده نگر بر اساس 5 اصل: معنویت بالا، فرهنگ عالی، اخلاق عالی، علم بالا و فن آوری های بالا."
ایده اصلی ایجاد یک سایبورگ است که آگاهی از مغز انسان شامل حافظه و شخصیت را می توان در سایبورگ دانلود کرد. از آنجا به بعد، انسان ها می توانند با کمک فناوری جاودانه زندگی کنند، به شرطی که سایبورگ خود را حفظ کنند، مشابه روشی که ما از ماشین ها نگهداری می کنیم. این میلیاردر روسی بر این باور است که این فناوری در ابتدا به سختی پذیرفته می شود. به همین دلیل است که این طرح قرار است در 3 دهه آینده انجام شود.
بحث درباره «آواتار B» بیفایدهاست، چراکه هنوز اجرایی نشدهاست اما پروژه «آواتار A» در واقع در سال 2020 با موفقیت انجام شده است.
آواتارهای اندرویدی مقرون به صرفه توسط رابط "مغز-رایانه" کنترل می شود، «آواتارها» به افراد تعدادی ویژگی جدید میدهد؛ توانایی کار در محیطهای خطرناک، انجام عملیات نجات، سفر در شرایط شدید و غیره. آنها اندام مصنوعی را در اختیار انسان میگذارند و یا حواس از دست رفته را بازیابی میکنند.
علیرغم بدبینی بسیاری از افراد هنگام مشاهده چنین پروژه های پیشرفتهای، باید چشمان خود را باز کنیم و درک کنیم که فناوری در 20 سال گذشته بسیار تکامل یافته است و قطار تکامل از این به بعد بر روی ریل حرکت میکند.
منبع: هیستوریآفیستردی
منبع: فرارو
کلیدواژه: جاودانه شدن
درخواست حذف خبر:
«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را بهطور اتوماتیک از وبسایت fararu.com دریافت کردهاست، لذا منبع این خبر، وبسایت «فرارو» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۷۰۹۱۰۸۹ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتیکه در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.
خبر بعدی:
انسانها سوگیری یادگیری ماشینی را بیشتر از سوگیری خود تشخیص میدهند
یک پژوهش جدید نشان میدهد که افراد سوگیری تصمیمهای الگوریتم یادگیری ماشینی را بیشتر از سوگیری تصمیمهای خودشان تشخیص میدهند. شاید بتوان از این ویژگی برای اصلاح سوگیریهای انسان استفاده کرد.
به گزارش ایسنا، از برنامههایی که تماشا میکنیم تا افرادی که استخدام میکنیم، الگوریتمها به طور فزایندهای در زندگی روزمره ما ادغام میشوند و بیسروصدا بر تصمیمهایی که میگیریم اثر میگذارند.
به نقل از ادونسد ساینس نیوز، هسته الگوریتمها، مجموعهای از قوانین یا دستورالعملهاست که برای پردازش اطلاعات و به دست آوردن یک نتیجه خاص طراحی شدهاند اما از آنجا که الگوریتمها از الگوهای رفتاری انسان یاد میگیرند، میتوانند سوگیریهایی را که درون ما وجود دارند، منعکس یا حتی تقویت کنند. با وجود این، یک پژوهش جدید نشان میدهد که این ممکن است زیاد بد نباشد.
«کری موروج»(Carey Morewedge) استاد «دانشگاه بوستون»(Boston University) معتقد است که این بازتاب میتواند نقاط کور سوگیری ما را روشن کند و در اصلاح رفتار نقش داشته باشد. الگوریتمهای یادگیری ماشینی بسیار موفق هستند زیرا میتوانند بیطرفانه الگوها را در مجموعه دادهها پیدا کنند اما در عین حال، سوگیریهای انسانی را نیز در دادههای آموزشی خود لحاظ کنند.
هنگامی که این سوگیریها در الگوریتمها شناسایی میشوند، میتوانند به آشکارسازی سوگیریهای بلندمدت در سازمانها کمک کنند. به عنوان مثال، شرکت «آمازون»(Amazon) سوگیری جنسیتی را در شیوههای استخدام خود بررسی نکرده بود اما با آزمایش یک الگوریتم که رزومههای جدید را براساس شیوههای پیشین استخدام شرکت ارزیابی میکرد، به این موضوع پی برد.
موروج گفت: الگوریتمها میتوانند سوگیریهای انسانی را کدگذاری و تقویت کنند اما سوگیریهای ساختاری را نیز در جامعه ما نشان میدهند.
انسانها سوگیریهای خود را تشخیص نمیدهند
موروج و گروهش در پژوهش خود نشان دادند که افراد معمولا تمایل بیشتری را به تشخیص دادن و تصحیح کردن سوگیریهای موجود در تصمیمگیری الگوریتم در مقایسه با تصمیمگیری خودشان دارند. آنها باور دارند که با دانستن این موضوع ممکن است بتوان از الگوریتمها برای رسیدگی به سوگیریهای موجود در تصمیمگیریها استفاده کرد.
انسانها به دلیل پدیدهای به نام «نقطه کور سوگیری»، برای دیدن سوگیری خود تلاش زیادی نمیکنند و بیشتر متوجه سوگیری افراد دیگر هستند. دلیل این است که ما میتوانیم در فرآیندهای تصمیمگیری خود، سوگیری را توجیه کنیم یا برای آن بهانه بیاوریم. برای ناظری که هیچ اطلاعاتی درباره فرآیند فکری یا چگونگی تصمیمگیری ندارد، سوگیریها واضحتر و بهانهجویی دشوارتر است.
موروج و همکارانش در این پژوهش نشان دادند که حتی وقتی الگوریتمها براساس رفتارهای ما آموزش داده میشوند نیز این موضوع صادق است.
تشخیص دادن سوگیری در الگوریتم سادهتر است
پژوهشگران در یک مجموعه آزمایش، از شرکتکنندگان خواستند تا سرویس «ایربیانبی»(AirBnB) و رانندگان «لیفت»(Lyft) را براساس معیارهای تشخیصی مانند تعداد ستارهها، ارزیابیها و مدت زمان حضور داشتن کنار راننده رتبهبندی کنند.
پژوهشگران معیارهای غیرتشخیصی مانند تصویر یا نام را که هیچ ارتباطی با کار ندارند، دستکاری کردند. شرکتکنندگان دو بار رتبهبندی را انجام دادند و سپس، رتبهبندیهای آنها یا رتبهبندی الگوریتم آموزشدادهشده نشان داده شد.
گاهی اوقات رتبهبندی خود شرکتکنندگان به آنها نشان داده میشد اما به آنها گفته میشد که رتبهبندی الگوریتم است. در همه سناریوها، شرکتکنندگان در مقایسه با الگوریتمها سوگیری کمتری را در رتبهبندیهای خود مشاهده کردند.
موروج گفت: مردم وقتی معتقدند که رتبهبندیها توسط یک الگوریتم انجام شده است، تمایل بیشتری به سوگیری دارند. این در حالی است که ما در واقع الگوریتم را روی دادههای آنها آموزش میدهیم و رتبهبندی الگوریتم براساس آن دادهها صورت میگیرد.
وی افزود: این به این معنا نیست که مردم انواع بیشتری از ویژگیها را در الگوریتمها میبینند، بلکه چیزهایی را میبینند که برای خودشان تهدیدکنندهتر است. بیشتر مردم نمیخواهند از نژاد در رتبهبندیهای خود استفاده کنند یا میخواهند نژاد را در آن رتبهبندی نادیده بگیرند. بنابراین، این ایده که نژاد بر آن رتبهبندیها تأثیر گذاشته، تهدیدکننده است.
در نتیجه، از آنجا که سوگیری در یک الگوریتم به عنوان تصمیمگیری ناقص خود ما تلقی نمیشود، دیدن یا اعتراف کردن به وجود آن آسانتر است. به گفته موروج، این یافته دو روش را ارائه میدهد که الگوریتمها به واسطه آن میتوانند به انسان در کاهش سوگیری کمک کنند.
وی افزود: یک روش این است که تصمیمهای خود را جمعآوری کنید و الگوها را ببینید که به شما کمک میکنند تا سوگیری را تشخیص دهید اما هنوز موانعی بر سر راه توانایی ما برای تشخیص دادن سوگیریها وجود دارد. ما انگیزههایی را برای محافظت از خود داریم.
موروج و گروهش با پیروی از این منطق، آزمایش دیگری را انجام دادند تا ببینند آیا احتمال بیشتری وجود دارد که شرکتکنندگان به اصلاح سوگیری در رتبهبندیهای خود یا الگوریتم بپردازند. پس از مشاهده رتبهبندیها، به شرکتکنندگان فرصت داده شد تا سوگیری را اصلاح کنند و احتمال بیشتری وجود داشت که اصلاحاتی را در رتبهبندی الگوریتم انجام دهند. موروج گفت: از آنجا که افراد سوگیری را بیشتر در رتبهبندی الگوریتم میبینند تا خودشان، احتمال بیشتری وجود دارد که رتبهبندیهای الگوریتم را اصلاح کنند.
موروج اذعان داشت که این پژوهش هنوز در مراحل اولیه است اما او روش ملموسی را میبیند که از طریق آن میتوان یافتهها را در آموزش دادن الگوریتم برای جلوگیری از سوگیری در دنیای واقعی ادغام کرد. وی افزود: اولین گام این است که افراد سوگیریهای خود را بفهمند و آنها را ببینند. من فکر میکنم این الگوریتمها، روش سودمندی برای ارائه دادن یک دیدگاه واقعیتر به افراد درباره میزان سوگیری آنها هستند.
این پژوهش در مجله «PNAS» به چاپ رسید.
انتهای پیام