Web Analytics Made Easy - Statcounter
به نقل از «فرارو»
2024-05-03@10:43:27 GMT

تصمیم عجیب مولتی میلیاردر روس برای جاودانه شدن

تاریخ انتشار: ۲۳ بهمن ۱۴۰۱ | کد خبر: ۳۷۰۹۱۰۸۹

تصمیم عجیب مولتی میلیاردر روس برای جاودانه شدن

هر چقدر موضوع جاودانگی دور از ذهن به نظر برسد اما از نظر تئوری، جاودانگی حداقل برای دیمیتری ایتسکوف غیرممکن نیست. دیمیتری ایتسکوف، نیکوکار و میلیاردر روسی است. او نظریه جاودانگی را پایه گذاری کرد که با کمک آن می خواهد مسیری فنی به سوی جاودانگی ارائه دهد و به بشریت در غلبه بر محدودیت های جسمی و ذهنی خود کمک کند.

بیشتر بخوانید: اخباری که در وبسایت منتشر نمی‌شوند!

به گزارش خبرآنلاین، هدف این تلاش ایجاد سیستم‌های روباتیک پیشرفته، رابط‌های مغز و کامپیوتر و بدن‌های مصنوعی با هدف انتقال آگاهی انسان به شکلی جدید و مصنوعی است. دیمیتری ایتسکوف همچنین از حامیان ایده استفاده از فناوری برای بهبود وضعیت انسان و افزایش عمر انسان است.

دیمیتری ایتسکوف کیست؟

دیمیتری ایتسکوف یک کارآفرین و تاجر رسانه موفق روسی است که تمایل زیادی به حضور در رسانه‌های جمعی ندارد. او کار خود را به عنوان ناشر آغاز کرد و سپس درگیر توسعه فعالیت های رسانه‌ای مختلف در روسیه شد، از جمله معرفی وب سایت خبری New Times و تأسیس کانال تلویزیونی DOORS.

این تلاش ها به او کمک کرد تا خود را به عنوان یک نجیب زاده موفق رسانه‌ای معرفی کند و ثروت شخصی قابل توجهی را جمع آوری کند. او همچنین به دلیل سرمایه گذاری هایش در چندین شرکت فناوری شناخته شده است. او به سرعت متوجه شد که وقتی پول، قدرت و شهرت دارید تنها یک چیز کم است و آن زمان است.

برخی از رسانه ها از ایتسکوف انتقاد کرده اند که تنها جاودانگی را برای خود می‌خواهد؛ به گفته این میلیاردر روسی اما پروژه 2045 این پروژه ای که او ایجاد کرده است نه تنها به دنبال رسیدن به جاودانگی انسان است، بلکه بشریت را به روشنگری بسیار بالاتری می رساند، جایی که خود زندگی بسیار بیشتر از امروز ارزش دارد. تعریف توصیفی از کل پروژه و همچنین چشم اندازهای مختلف در وب سایت اختصاصی این پروژه به نام "2045.com" ارائه شده است.

پروژه 2045 چیست؟

"اهداف اصلی پروژه 2045 ایجاد و تحقق یک استراتژی جدید برای توسعه بشریت است که به چالش های تمدن جهانی پاسخ می دهد. ایجاد شرایط بهینه برای ارتقای روشنگری معنوی بشریت؛ و تحقق یک واقعیت جدید آینده نگر بر اساس 5 اصل: معنویت بالا، فرهنگ عالی، اخلاق عالی، علم بالا و فن آوری های بالا."

ایده اصلی ایجاد یک سایبورگ است که آگاهی از مغز انسان شامل حافظه و شخصیت را می توان در سایبورگ دانلود کرد. از آنجا به بعد، انسان ها می توانند با کمک فناوری جاودانه زندگی کنند، به شرطی که سایبورگ خود را حفظ کنند، مشابه روشی که ما از ماشین ها نگهداری می کنیم. این میلیاردر روسی بر این باور است که این فناوری در ابتدا به سختی پذیرفته می شود. به همین دلیل است که این طرح قرار است در 3 دهه آینده انجام شود.

بحث درباره «آواتار B» بی‌فایده‌است، چراکه هنوز اجرایی نشده‌است اما پروژه «آواتار A» در واقع در سال 2020 با موفقیت انجام شده است.

آواتارهای اندرویدی مقرون به صرفه توسط رابط "مغز-رایانه" کنترل می شود، «آواتارها» به افراد تعدادی ویژگی جدید می‌دهد؛ توانایی کار در محیط‌های خطرناک، انجام عملیات نجات، سفر در شرایط شدید و غیره. آنها اندام مصنوعی را در اختیار انسان می‌گذارند و یا حواس از دست رفته را بازیابی می‌کنند.

علیرغم بدبینی بسیاری از افراد هنگام مشاهده چنین پروژه های پیشرفته‌ای، باید چشمان خود را باز کنیم و درک کنیم که فناوری در 20 سال گذشته بسیار تکامل یافته است و قطار تکامل از این به بعد بر روی ریل حرکت می‌کند.

منبع: هیستوری‌آف‌یستردی

 

منبع: فرارو

کلیدواژه: جاودانه شدن

درخواست حذف خبر:

«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را به‌طور اتوماتیک از وبسایت fararu.com دریافت کرده‌است، لذا منبع این خبر، وبسایت «فرارو» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۷۰۹۱۰۸۹ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتی‌که در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.

با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.

خبر بعدی:

انسان‌ها سوگیری یادگیری ماشینی را بیشتر از سوگیری خود تشخیص می‌دهند

یک پژوهش جدید نشان می‌دهد که افراد سوگیری تصمیم‌های الگوریتم‌ یادگیری ماشینی را بیشتر از سوگیری تصمیم‌های خودشان تشخیص می‌دهند. شاید بتوان از این ویژگی برای اصلاح سوگیری‌های انسان استفاده کرد.

به گزارش ایسنا، از برنامه‌هایی که تماشا می‌کنیم تا افرادی که استخدام می‌کنیم، الگوریتم‌ها به طور فزاینده‌ای در زندگی روزمره ما ادغام می‌شوند و بی‌سروصدا بر تصمیم‌هایی که می‌گیریم اثر می‌گذارند.

به نقل از ادونسد ساینس نیوز، هسته الگوریتم‌ها، مجموعه‌ای از قوانین یا دستورالعمل‌هاست که برای پردازش اطلاعات و به دست آوردن یک نتیجه خاص طراحی شده‌اند اما از آنجا که الگوریتم‌ها از الگوهای رفتاری انسان یاد می‌گیرند، می‌توانند سوگیری‌هایی را که درون ما وجود دارند، منعکس یا حتی تقویت کنند. با وجود این، یک پژوهش جدید نشان می‌دهد که این ممکن است زیاد بد نباشد.

«کری موروج»(Carey Morewedge) استاد «دانشگاه بوستون»(Boston University) معتقد است که این بازتاب می‌تواند نقاط کور سوگیری ما را روشن کند و در اصلاح رفتار نقش داشته باشد. الگوریتم‌های یادگیری ماشینی بسیار موفق هستند زیرا می‌توانند بی‌طرفانه الگوها را در مجموعه داده‌ها پیدا کنند اما در عین حال، سوگیری‌های انسانی را نیز در داده‌های آموزشی خود لحاظ کنند.

هنگامی که این سوگیری‌ها در الگوریتم‌ها شناسایی می‌شوند، می‌توانند به آشکارسازی سوگیری‌های بلندمدت در سازمان‌ها کمک کنند. به عنوان مثال، شرکت «آمازون»(Amazon) سوگیری جنسیتی را در شیوه‌های استخدام خود بررسی نکرده بود اما با آزمایش یک الگوریتم که رزومه‌های جدید را براساس شیوه‌های پیشین استخدام شرکت ارزیابی می‌کرد، به این موضوع پی برد.

موروج گفت: الگوریتم‌ها می‌توانند سوگیری‌های انسانی را کدگذاری و تقویت کنند اما سوگیری‌های ساختاری را نیز در جامعه ما نشان می‌دهند.

انسان‌ها سوگیری‌های خود را تشخیص نمی‌دهند

موروج و گروهش در پژوهش خود نشان دادند که افراد معمولا تمایل بیشتری را به تشخیص دادن و تصحیح کردن سوگیری‌های موجود در تصمیم‌گیری الگوریتم در مقایسه با تصمیم‌گیری خودشان دارند. آنها باور دارند که با دانستن این موضوع ممکن است بتوان از الگوریتم‌ها برای رسیدگی به سوگیری‌های موجود در تصمیم‌گیری‌ها استفاده کرد.

انسان‌ها به دلیل پدیده‌ای به نام «نقطه کور سوگیری»، برای دیدن سوگیری خود تلاش زیادی نمی‌کنند و بیشتر متوجه سوگیری افراد دیگر هستند. دلیل این است که ما می‌توانیم در فرآیندهای تصمیم‌گیری خود، سوگیری را توجیه کنیم یا برای آن بهانه بیاوریم. برای ناظری که هیچ اطلاعاتی درباره فرآیند فکری یا چگونگی تصمیم‌گیری ندارد، سوگیری‌ها واضح‌تر و بهانه‌جویی دشوارتر است.

موروج و همکارانش در این پژوهش نشان دادند که حتی وقتی الگوریتم‌ها براساس رفتارهای ما آموزش داده می‌شوند نیز این موضوع صادق است.

تشخیص دادن سوگیری در الگوریتم ساده‌تر است

پژوهشگران در یک مجموعه آزمایش، از شرکت‌کنندگان خواستند تا سرویس «ایربی‌ان‌بی»(AirBnB) و رانندگان «لیفت»(Lyft) را براساس معیارهای تشخیصی مانند تعداد ستاره‌ها، ارزیابی‌ها و مدت زمان حضور داشتن کنار راننده رتبه‌بندی کنند.

پژوهشگران معیارهای غیرتشخیصی مانند تصویر یا نام را که هیچ ارتباطی با کار ندارند، دستکاری کردند. شرکت‌کنندگان دو بار رتبه‌بندی را انجام دادند و سپس، رتبه‌بندی‌های آنها یا رتبه‌بندی الگوریتم آموزش‌داده‌شده نشان داده شد.

گاهی اوقات رتبه‌بندی خود شرکت‌کنندگان به آنها نشان داده می‌شد اما به آنها گفته می‌شد که رتبه‌بندی الگوریتم است. در همه سناریوها، شرکت‌کنندگان در مقایسه با الگوریتم‌ها سوگیری کمتری را در رتبه‌بندی‌های خود مشاهده کردند.

موروج گفت: مردم وقتی معتقدند که رتبه‌بندی‌ها توسط یک الگوریتم انجام شده است، تمایل بیشتری به سوگیری دارند. این در حالی است که ما در واقع الگوریتم را روی داده‌های آنها آموزش می‌دهیم و رتبه‌بندی الگوریتم براساس آن داده‌ها صورت می‌گیرد.

وی افزود: این به این معنا نیست که مردم انواع بیشتری از ویژگی‌ها را در الگوریتم‌ها می‌بینند، بلکه چیزهایی را می‌بینند که برای خودشان تهدیدکننده‌تر است. بیشتر مردم نمی‌خواهند از نژاد در رتبه‌بندی‌های خود استفاده کنند یا می‌خواهند نژاد را در آن رتبه‌بندی نادیده بگیرند. بنابراین، این ایده که نژاد بر آن رتبه‌بندی‌ها تأثیر گذاشته، تهدیدکننده است.

در نتیجه، از آنجا که سوگیری در یک الگوریتم به عنوان تصمیم‌گیری ناقص خود ما تلقی نمی‌شود، دیدن یا اعتراف کردن به وجود آن آسان‌تر است. به گفته موروج، این یافته دو روش را ارائه می‌دهد که الگوریتم‌ها به واسطه آن می‌توانند به انسان در کاهش سوگیری کمک کنند.

وی افزود: یک روش این است که تصمیم‌های خود را جمع‌آوری کنید و الگوها را ببینید که به شما کمک می‌کنند تا سوگیری را تشخیص دهید اما هنوز موانعی بر سر راه توانایی ما برای تشخیص دادن سوگیری‌ها وجود دارد. ما انگیزه‌هایی را برای محافظت از خود داریم.

موروج و گروهش با پیروی از این منطق، آزمایش دیگری را انجام دادند تا ببینند آیا احتمال بیشتری وجود دارد که شرکت‌کنندگان به اصلاح سوگیری در رتبه‌بندی‌های خود یا الگوریتم بپردازند. پس از مشاهده رتبه‌بندی‌ها، به شرکت‌کنندگان فرصت داده شد تا سوگیری را اصلاح کنند و احتمال بیشتری وجود داشت که اصلاحاتی را در رتبه‌بندی الگوریتم انجام دهند. موروج گفت: از آنجا که افراد سوگیری را بیشتر در رتبه‌بندی الگوریتم می‌بینند تا خودشان، احتمال بیشتری وجود دارد که رتبه‌بندی‌های الگوریتم را اصلاح کنند.

موروج اذعان داشت که این پژوهش هنوز در مراحل اولیه است اما او روش ملموسی را می‌بیند که از طریق آن می‌توان یافته‌ها را در آموزش دادن الگوریتم برای جلوگیری از سوگیری در دنیای واقعی ادغام کرد. وی افزود: اولین گام این است که افراد سوگیری‌های خود را بفهمند و آنها را ببینند. من فکر می‌کنم این الگوریتم‌ها، روش سودمندی برای ارائه دادن یک دیدگاه واقعی‌تر به افراد درباره میزان سوگیری آنها هستند.

این پژوهش در مجله «PNAS» به چاپ رسید.

انتهای پیام

دیگر خبرها

  • تصمیم عجیب خانواده مارادونا درباره جسد او
  • آرزوی پالاسیوس:‌ای کاش مسی جاودانه شود
  • کشف عجیب یک «همدان» دیگر در ایران! + ویدئو
  • انسان‌ها سوگیری یادگیری ماشینی را بیشتر از سوگیری خود تشخیص می‌دهند
  • ساندار پیچای در یک قدمی میلیاردر شدن
  • صدای داور روی آنتن تلویزیون؛ هاوارب وب برای شفافیت VAR وارد عمل شد
  • راه رسیدن به نوآوری، سرمایه‌گذاری بر انسان خلاق است
  • تصمیم رونالدو نازاریو: خروج کامل از عرصه باشگاه‌داری
  • استفاده از ظرفیت دانشگاه آزاد در توسعه فناوری شهری
  • استفاده از ظرفیت بی‌نظیر دانشگاه آزاد در زمینه علم و فناوری برای توسعه شهری