متى أصبح التلويح جزءًا من التفاعل البشري؟

متى أصبح التلويح جزءًا من التفاعل البشري؟

متى كان التلويح للآخرين ليقولوا مرحبًا أو وداعًا يدخل أولاً في السجل التاريخي كجزء من شكل مقبول ثقافيًا للتفاعل البشري؟


أعتقد أنه حدث قبل الحضارة الإنسانية المتقدمة. إن التلويح باليد هو لجذب انتباه شخص ما بأكثر الطرق فعالية وتحفظًا. التلويح باليد يمكن أن يجذب انتباه المرء ولكن في نفس الوقت ليس مفرطًا في الوضوح. كان من الممكن أن يساعد هذا الحضارات المبكرة عند الصيد أو أثناء الحرب.

جونا أميديو


تاريخ الرقص

منذ اللحظات الأولى في التاريخ البشري المعروف ، كان الرقص مصحوبًا بالطقوس القديمة والتجمعات الروحية والمناسبات الاجتماعية. كقناة للنشوة ، والقوة الروحية ، والسرور ، والتعبير ، والأداء والتفاعل ، أصبح الرقص متغلغلاً في طبيعتنا منذ اللحظات الأولى لوجودنا - من اللحظة التي غطت فيها القبائل الإفريقية نفسها برسوم الحرب إلى انتشار الموسيقى والرقص في جميع أنحاء العالم. لا شك أن الرقص يظل أحد أكثر أشكال التواصل التي نعرفها تعبيراً.

أقدم دليل على وجود الرقص يأتي من لوحات الكهوف التي يعود تاريخها إلى 9000 عام والتي تم العثور عليها في الهند ، والتي تصور مشاهد مختلفة للصيد والولادة والطقوس الدينية والمدافن والأهم من ذلك الشرب الجماعي والرقص. نظرًا لأن الرقص نفسه لا يمكن أن يترك القطع الأثرية التي يمكن تحديدها بوضوح والتي يمكن العثور عليها اليوم ، فقد بحث العالم عن أدلة ثانوية ، وكلمة مكتوبة ، ومنحوتات حجرية ، ولوحات ، وما شابه ذلك من القطع الأثرية. يمكن إرجاع الفترة التي انتشر فيها الرقص إلى الألفية الثالثة قبل الميلاد ، عندما بدأ المصريون في استخدام الرقص كجزء لا يتجزأ من احتفالاتهم الدينية. إذا حكمنا من خلال العديد من لوحات القبور التي نجت من عصر الزمن ، استخدم الكهنة المصريون الآلات الموسيقية والراقصين لتقليد الأحداث المهمة - قصص الآلهة والأنماط الكونية للنجوم المتحركة والشمس.

استمر هذا التقليد في اليونان القديمة ، حيث كان الرقص يستخدم بشكل منتظم للغاية ومفتوح للجمهور (والذي أدى في النهاية إلى ولادة المسرح اليوناني الشهير في القرن السادس قبل الميلاد). من الواضح أن اللوحات القديمة من الألفية الأولى تتحدث عن العديد من طقوس الرقص في الثقافة اليونانية ، وأبرزها تلك التي كانت قبل بداية كل دورة ألعاب أولمبية ، تمهيداً للألعاب الأولمبية الحديثة. مع مرور القرون ، غرس العديد من الأديان الرقص في صميم طقوسهم ، مثل الرقص الهندوسي "بهاراتا نهاتيام" الذي يتم تشكيله حتى اليوم.

بالطبع ، لم تكن كل الرقصات في تلك العصور القديمة مخصصة لأغراض دينية. اعتاد الناس العاديون على الرقص للاحتفال والتسلية والإغواء ولإثارة مزاج النشوة المسعورة. احتفل الاحتفال السنوي تكريما لإله النبيذ اليوناني ديونيسوس (وبعد ذلك الإله الروماني باخوس) بالرقص والشرب لعدة أيام. أظهرت لوحة مصرية عمرها 1400 قبل الميلاد مجموعة من الفتيات اللائي يرتدين ملابس ضيقة يرقصن أمام حشد من الذكور الأثرياء ، بدعم من العديد من الموسيقيين. استمر تحسين هذا النوع من الترفيه ، حتى العصور الوسطى وبداية عصر النهضة عندما أصبح الباليه جزءًا لا يتجزأ من الطبقة الثرية.

لم يتم توثيق الرقصات الأوروبية قبل بداية عصر النهضة على نطاق واسع ، ولم يتم العثور على سوى عدد قليل من الأجزاء المعزولة من وجودها حتى اليوم. كان الرقص "المتسلسل" الأساسي الذي يمارسه عامة الناس أكثر انتشارًا في جميع أنحاء أوروبا ، ولكن ظهور عصر النهضة والأشكال الجديدة من الموسيقى جلب العديد من الأساليب الأخرى في الموضة. سرعان ما تجاوزت رقصات عصر النهضة من إسبانيا وفرنسا وإيطاليا رقصات الباروك التي أصبحت شائعة على نطاق واسع في المحاكم الفرنسية والإنجليزية. بعد نهاية الثورة الفرنسية ، ظهرت العديد من أنواع الرقصات الجديدة مع التركيز على ملابس النساء الأقل تقييدًا ، والميل إلى القفز والقفز. سرعان ما أصبحت هذه الرقصات أكثر نشاطًا في عام 1844 مع بداية ما يسمى ب "جنون البولكا الدولي" الذي جلب لنا أيضًا أول ظهور لرقص الفالس الشهير.

بعد فترة قصيرة من الزمن عندما ابتكر أساتذة القاعات العظماء موجة من الرقصات المعقدة ، بدأ عصر الرقص الحديث لشخصين بمهن رقصات قاعة الرقص الشهيرة فيرنون وقلعة إيرين. بعد تلك السنوات الأولى من القرن العشرين ، تم اختراع العديد من الرقصات الحديثة (فوكستروت ، ون ستيب ، تانجو ، تشارلستون ، سوينج ، ما بعد الحداثة ، الهيب هوب ، بريك دانس والمزيد) وأدى التوسع في الموسيقى إلى انتشار تلك الرقصات في جميع أنحاء العالم.


تاريخ موجز لـ تكنولوجيا التفاعل بين الإنسان والحاسوب

تلخص هذه المقالة التطور التاريخي للتقدم الكبير في تكنولوجيا التفاعل بين الإنسان والحاسوب ، مع التركيز على الدور المحوري للبحوث الجامعية في تقدم هذا المجال.

حقوق النشر (c) 1996 - جامعة كارنيجي ميلون

ظهر مقتطف قصير من هذه المقالة كجزء من "الاتجاهات الإستراتيجية في التفاعل بين الإنسان والحاسوب" ، تم تحريره بواسطة براد مايرز ، وجيم هولان ، وإيزابيل كروز ، واستطلاعات ACM Computing ، 28 (4) ، ديسمبر 1996

تمت رعاية هذا البحث جزئيًا بواسطة NCCOSC بموجب العقد رقم N66001-94-C-6037 ، طلب Arpa رقم B326 وجزئيًا بواسطة NSF بموجب رقم المنحة IRI-9319969. الآراء والاستنتاجات الواردة في هذه الوثيقة هي آراء المؤلفين ولا ينبغي تفسيرها على أنها تمثل السياسات الرسمية ، سواء كانت صريحة أو ضمنية ، من NCCOSC أو حكومة الولايات المتحدة.

الكلمات المفتاحية: التفاعل بين الإنسان والحاسوب ، التاريخ ، واجهات المستخدم ، تقنيات التفاعل.

كان البحث في التفاعل بين الإنسان والحاسوب (HCI) ناجحًا بشكل مذهل ، وأدى إلى تغيير أساسي في الحوسبة. مثال واحد فقط هو الواجهة الرسومية المنتشرة في كل مكان التي يستخدمها نظام التشغيل Microsoft Windows 95 ، والتي تستند إلى نظام Macintosh ، والذي يعتمد على العمل في Xerox PARC ، والذي يعتمد بدوره على الأبحاث المبكرة في مختبر أبحاث ستانفورد (الآن SRI) وفي معهد ماساتشوستس للتكنولوجيا. مثال آخر هو أن جميع البرامج المكتوبة اليوم تقريبًا تستخدم مجموعات أدوات واجهة المستخدم وبناة الواجهة ، وهي مفاهيم تم تطويرها أولاً في الجامعات. حتى النمو المذهل لشبكة الويب العالمية هو نتيجة مباشرة لبحوث HCI: تطبيق تقنية النص التشعبي على المتصفحات يسمح للمرء باجتياز رابط عبر العالم بنقرة على الفأرة. أدت تحسينات الواجهة أكثر من أي شيء آخر إلى هذا النمو الهائل. علاوة على ذلك ، فإن البحث الذي سيؤدي إلى واجهات المستخدم لأجهزة كمبيوتر الغد يجري في الجامعات وعدد قليل من مختبرات أبحاث الشركات.

تحاول هذه الورقة تلخيصًا موجزًا ​​للعديد من التطورات البحثية المهمة في تقنية التفاعل بين الإنسان والحاسوب (HCI). أعني بكلمة "البحث" العمل الاستكشافي في الجامعات ومختبرات الأبحاث الحكومية والشركات (مثل Xerox PARC) الذي لا يرتبط مباشرة بالمنتجات. من خلال "تكنولوجيا HCI" ، أشير إلى جانب الكمبيوتر في HCI. مقال مصاحب عن تاريخ "الجانب الإنساني" ، يناقش المساهمات من علم النفس والتصميم والعوامل البشرية وبيئة العمل سيكون مناسبًا أيضًا.

الدافع وراء هذه المقالة هو التغلب على الانطباع الخاطئ بأن الكثير من العمل المهم في التفاعل بين الإنسان والحاسوب قد حدث في الصناعة ، وإذا لم يتم دعم البحث الجامعي في التفاعل بين الإنسان والحاسوب ، فستستمر الصناعة على أي حال. هذا ببساطة غير صحيح. يحاول هذا البحث إظهار أن العديد من أشهر نجاحات HCI التي طورتها الشركات متجذرة بعمق في البحث الجامعي. في الواقع ، كان لجميع أنماط الواجهة والتطبيقات الرئيسية اليوم تقريبًا تأثير كبير من البحث في الجامعات والمختبرات ، غالبًا بتمويل حكومي. لتوضيح ذلك ، تسرد هذه الورقة مصادر التمويل لبعض التطورات الرئيسية. بدون هذا البحث ، من المحتمل ألا تحدث العديد من التطورات في مجال HCI ، ونتيجة لذلك ، ستكون واجهات المستخدم الخاصة بالمنتجات التجارية أكثر صعوبة في الاستخدام والتعلم مما هي عليه اليوم. كما هو موضح بواسطة Stu Card:

"أدى التمويل الحكومي لتقنيات التفاعل بين الإنسان والحاسوب المتقدمة إلى بناء رأس المال الفكري وتدريب فرق البحث على الأنظمة الرائدة التي أحدثت ، على مدار 25 عامًا ، ثورة في كيفية تفاعل الأشخاص مع أجهزة الكمبيوتر. ومختبرات البحوث الصناعية على مستوى الشركة في Xerox ، و IBM ، لعبت AT & ampT وغيرها دورًا قويًا في تطوير هذه التقنية وإحضارها إلى شكل مناسب للساحة التجارية ". [6 ، ص. 162]).

يوضح الشكل 1 الخطوط الزمنية لبعض التقنيات التي تمت مناقشتها في هذه المقالة. بالطبع ، من شأن التحليل الأعمق أن يكشف عن قدر كبير من التفاعل بين الجامعة وأبحاث الشركات وتدفقات الأنشطة التجارية. من المهم أن نقدر أن سنوات من البحث متورطة في إنشاء هذه التقنيات وجعلها جاهزة للاستخدام على نطاق واسع. وينطبق الشيء نفسه على تقنيات HCI التي ستوفر واجهات الغد.

من الواضح أنه من المستحيل سرد كل نظام ومصدر في ورقة بهذا النطاق ، لكنني حاولت أن أمثل أقدم الأنظمة وأكثرها تأثيرًا. على الرغم من وجود عدد من الاستطلاعات الأخرى لموضوعات HCI (انظر ، على سبيل المثال [1] [10] [33] [38]) ، لا تغطي أي منها العديد من الجوانب مثل هذا ، أو تحاول أن تكون شاملة في العثور على التأثيرات الأصلية . مصدر آخر مفيد هو مقطع الفيديو "All The Widgets" ، والذي يعرض التقدم التاريخي لعدد من أفكار واجهة المستخدم [25].

تشتمل التقنيات التي تم تناولها في هذه الورقة على أنماط تفاعل أساسية مثل المعالجة المباشرة ، وجهاز تأشير الماوس ، ونوافذ عدة أنواع مهمة من مجالات التطبيق ، مثل الرسم وتحرير النصوص وجداول البيانات ، وهي التقنيات التي من المحتمل أن يكون لها أكبر تأثير على واجهات المستقبل ، مثل التعرف على الإيماءات والوسائط المتعددة والأبعاد الثلاثية والتقنيات المستخدمة لإنشاء واجهات باستخدام التقنيات الأخرى ، مثل أنظمة إدارة واجهة المستخدم ومجموعات الأدوات وبناة الواجهة.

الشكل 1: خطوط زمنية تقريبية توضح مكان تنفيذ العمل على بعض التقنيات الرئيسية التي تمت مناقشتها في هذه المقالة.

  • التلاعب المباشر بالكائنات الرسومية: تم عرض واجهة المعالجة المباشرة المنتشرة في كل مكان الآن ، حيث يتم التلاعب بالأشياء المرئية على الشاشة مباشرة باستخدام جهاز تأشير ، لأول مرة بواسطة إيفان ساذرلاند في Sketchpad [44] ، والتي كانت أطروحة دكتوراه في معهد ماساتشوستس للتكنولوجيا في عام 1963. دعم SketchPad معالجة الكائنات باستخدام قلم ضوئي ، بما في ذلك إمساك الكائنات وتحريكها وتغيير الحجم واستخدام القيود. احتوت على بذور عدد لا يحصى من الأفكار المهمة للواجهة. تم بناء النظام في Lincoln Labs بدعم من القوات الجوية و NSF. قدم معالج رد فعل ويليام نيومان [30] ، الذي تم إنشاؤه في إمبريال كوليدج بلندن (1966-1967) معالجة مباشرة للرسومات ، وقدم "مقابض الضوء" ، وهو شكل من أشكال مقياس الجهد الرسومي ، والذي ربما كان أول "عنصر واجهة مستخدم". نظام آخر مبكر كان AMBIT / G (تم تنفيذه في مختبرات لينكولن التابعة لمعهد ماساتشوستس للتكنولوجيا ، 1968 ، بتمويل من ARPA). وظفت ، من بين تقنيات الواجهة الأخرى ، التمثيلات الأيقونية ، والتعرف على الإيماءات ، والقوائم الديناميكية مع العناصر المحددة باستخدام جهاز التأشير ، واختيار الرموز عن طريق التأشير ، وأنماط التفاعل المعدلة والخالية من الوضع. صاغ ديفيد كانفيلد سميث مصطلح "أيقونات" في أطروحة دكتوراه في جامعة ستانفورد عام 1975 حول Pygmalion [41] (بتمويل من ARPA و NIMH) ثم قام سميث لاحقًا بتعميم الرموز كأحد كبار مصممي Xerox Star [42]. تم بحث العديد من تقنيات التفاعل الشائعة في واجهات المعالجة المباشرة ، مثل كيفية اختيار الكائنات والنصوص وفتحها ومعالجتها ، في Xerox PARC في السبعينيات. على وجه الخصوص ، نشأت فكرة "WYSIWYG" (ما تراه هو ما تحصل عليه) هناك مع أنظمة مثل محرر نصوص Bravo وبرنامج الرسم Draw [10] وقد تصور Alan Kay مفهوم واجهات المعالجة المباشرة للجميع زيروكس بارك في مقال عام 1977 عن "Dynabook" [16]. كانت أولى الأنظمة التجارية التي استخدمت على نطاق واسع للمعالجة المباشرة هي Xerox Star (1981) [42] ، و Apple Lisa (1982) [51] و Macintosh (1984) [52]. صاغ بن شنايدرمان من جامعة ميريلاند مصطلح "التلاعب المباشر" في عام 1982 وحدد المكونات وأعطى الأسس النفسية [40].
  • برامج الرسم: تم عرض الكثير من التكنولوجيا الحالية في نظام Sutherland's 1963 Sketchpad. تم توضيح استخدام الماوس للرسومات في NLS (1965). في عام 1968 ، قام كين بولفر وغرانت بيكثولد من المجلس القومي للبحوث في كندا ببناء فأرة من الخشب المزخرف على غرار إنجلبارت واستخدموه مع نظام الرسوم المتحركة ذي الإطار الرئيسي لرسم جميع إطارات الفيلم. حصل فيلم لاحق بعنوان "الجوع" عام 1971 على عدد من الجوائز ، وتم رسمه باستخدام جهاز لوحي بدلاً من الماوس (بتمويل من المجلس الوطني للسينما في كندا) [3]. كان برنامج William Newman's Markup (1975) أول برنامج رسم لـ Xerox PARC's Alto ، تلاه بعد فترة وجيزة رسم Patrick Baudelaire الذي أضاف معالجة الخطوط والمنحنيات [10 ، ص. 326]. ربما كان أول برنامج للرسم بالكمبيوتر هو "Superpaint" لديك شوب في PARC (1974-1975).
  • التعرف على الإيماءات: تم تمويل أول جهاز إدخال قائم على القلم ، وهو RAND اللوحي ، بواسطة ARPA. استخدم Sketchpad إيماءات القلم الخفيف (1963). طور Teitelman في عام 1964 أول أداة للتعرف على الإيماءات يمكن تدريبها. كان من بين العروض المبكرة جدًا للتعرف على الإيماءات نظام GRAIL الخاص بـ Tom Ellis على الكمبيوتر اللوحي RAND (1964 ، بتمويل من ARPA). كان من الشائع جدًا في الأنظمة القائمة على القلم الضوئي تضمين بعض التعرف على الإيماءات ، على سبيل المثال في نظام AMBIT / G (1968 - بتمويل ARPA). تم تطوير محرر نصوص قائم على الإيماءات باستخدام رموز تدقيق القراءة في CMU بواسطة Michael Coleman في عام 1969. كان Bill Buxton في جامعة تورنتو يدرس التفاعلات القائمة على الإيماءات منذ عام 1980. وقد تم استخدام التعرف على الإيماءات في أنظمة CAD التجارية منذ السبعينيات ، وحظي باهتمام عالمي مع Apple Newton في عام 1992.

مجال أدوات برامج واجهة المستخدم نشطة للغاية الآن ، وتقوم العديد من الشركات ببيع الأدوات. يتم تنفيذ معظم تطبيقات اليوم باستخدام أشكال مختلفة من الأدوات البرمجية. للحصول على مسح ومناقشة أكثر اكتمالا حول أدوات واجهة المستخدم ، راجع [26].

    UIMSs ومجموعات الأدوات: (توجد مكتبات وأدوات برمجية تدعم إنشاء واجهات عن طريق كتابة التعليمات البرمجية.) كان أول نظام لإدارة واجهة المستخدم (UIMS) هو معالج رد فعل ويليام نيومان [30] الذي تم إنشاؤه في إمبريال كوليدج ، لندن (1966-1967 بتمويل من SRC ). تم تنفيذ معظم الأعمال المبكرة في الجامعات (جامعة تورنتو بتمويل من الحكومة الكندية ، جامعة جورج واشنطن. بتمويل من وكالة ناسا ، NSF ، وزارة الطاقة ، و NBS ، جامعة بريغهام يونغ بتمويل صناعي ، إلخ). مصطلح "UIMS" صاغه ديفيد كاسيك في بوينج (1982) [14]. جاء مديرو النوافذ الأوائل مثل Smalltalk (1974) و InterLisp ، وكلاهما من Xerox PARC ، مع بعض الأدوات ، مثل القوائم المنبثقة وأشرطة التمرير. كان Xerox Star (1981) أول نظام تجاري يحتوي على مجموعة كبيرة من الأدوات. كان Apple Macintosh (1984) أول من روج بنشاط لمجموعة أدواته لاستخدامها من قبل المطورين الآخرين لفرض واجهة متسقة. كانت مجموعة أدوات C ++ المبكرة هي InterViews [21] ، التي تم تطويرها في ستانفورد (1988 ، التمويل الصناعي). يتم إجراء الكثير من الأبحاث الحديثة في الجامعات ، على سبيل المثال Garnet (1988) [28] و Amulet (1994) [27] في CMU (بتمويل من ARPA) ، و SubArctic في Georgia Tech (1996 ، بتمويل من Intel و NSF ).

من الواضح أن جميع الابتكارات الأكثر أهمية في التفاعل بين الإنسان والحاسوب قد استفادت من الأبحاث في كل من مختبرات أبحاث الشركات والجامعات ، والتي تم تمويل الكثير منها من قبل الحكومة. النمط التقليدي لواجهات المستخدم الرسومية التي تستخدم النوافذ والأيقونات والقوائم والماوس وهي في مرحلة من التوحيد القياسي ، حيث يستخدم الجميع تقريبًا نفس التقنية القياسية ويقومون بإجراء تغييرات تدريجية دقيقة. لذلك ، من المهم أن تستمر الأبحاث التي تدعمها الجامعات والشركات والحكومة ، حتى نتمكن من تطوير العلوم والتكنولوجيا اللازمة لواجهات المستخدم في المستقبل.

هناك حجة مهمة أخرى لصالح أبحاث HCI في الجامعات وهي أن طلاب علوم الكمبيوتر بحاجة إلى معرفة مشكلات واجهة المستخدم. من المحتمل أن تكون واجهات المستخدم واحدة من المزايا التنافسية الرئيسية ذات القيمة المضافة في المستقبل ، حيث تصبح كل من الأجهزة والبرامج الأساسية سلعًا. إذا كان الطلاب لا يعرفون عن واجهات المستخدم ، فلن يخدموا احتياجات الصناعة. يبدو أنه من خلال علوم الكمبيوتر فقط يتم نشر أبحاث HCI في المنتجات. علاوة على ذلك ، بدون مستويات مناسبة من التمويل لأبحاث HCI الأكاديمية ، سيكون هناك عدد أقل من خريجي الدكتوراه في HCI لإجراء البحوث في مختبرات الشركات ، وسيهتم عدد أقل من الخريجين المتميزين في هذا المجال بأن يكونوا أساتذة ، وبالتالي فإن دورات واجهة المستخدم المطلوبة ستكون لا تقدم.

مع زيادة سرعة أجهزة الكمبيوتر ، يتم تخصيص المزيد من طاقة المعالجة لواجهة المستخدم. ستستخدم واجهات المستقبل التعرف على الإيماءات والتعرف على الكلام وتوليدها و "وكلاء أذكياء" وواجهات تكيفية وفيديو والعديد من التقنيات الأخرى التي تبحثها الآن مجموعات بحثية في الجامعات ومختبرات الشركات [35]. من الضروري أن يستمر هذا البحث وأن يحظى بدعم جيد.

يجب أن أشكر عددًا كبيرًا من الأشخاص الذين ردوا على منشورات الإصدارات السابقة من هذا المقال على قائمة البريد الإلكتروني للإعلانات.تشي لمساعدتهم السخية للغاية ، ولجيم هولان الذي ساعد في تحرير المقتطف القصير من هذا المقال. تم توفير الكثير من المعلومات الواردة في هذه المقالة (بالترتيب الأبجدي): ستايسي أشلوند ، ميرا م.بلاتنر ، كيث بتلر ، ستيوارت كارد ، بيل كورتيس ، ديفيد إي داموث ، دان ديابر ، ديك دودا ، تيم ت. دودلي ، ستيفن فينر ، هاري فورسك ، بيورن فريمان بنسون ، جون جولد ، واين جراي ، مارك جرين ، فريد هانسن ، بيل هيفلي ، دي أوستن هندرسون ، جيم هولان ، جان ماري هولوت ، روب جاكوب ، بوني جون ، ساندي كوباياشي ، المعارف التقليدية لانداور ، جون ليجيت ، روجر لايتي ، مارلين مانتي ، جيم ميلر ، ويليام نيومان ، جاكوب نيلسن ، دون نورمان ، دان أولسن ، راميش باتيل ، جاري بيرلمان ، ديك بيو ، كين بيير ، جيم راين ، بن شنايدرمان ، جون سيبرت ، ديفيد سي. سميث ، وإليوت سولواي ، وريتشارد ستالمان ، وإيفان ساذرلاند ، ودان سوينهارت ، وجون توماس ، وأليكس وايبل ، ومارسلي وين ، ومارك وايزر ، وآلان ويكسلبلات ، وتيري وينوجراد. تم تقديم التعليقات التحريرية أيضًا من قبل كل من إلين بوريسون ، وريتش مكدانيل ، وروب ميلر ، وبيرنيتا مايرز ، ويوشيهيرو تسوجينو ، والمراجعين.

1. Baecker، R.، et al. ، "منظور تاريخي وفكري" ، في قراءات في التفاعل بين الإنسان والحاسوب: نحو عام 2000 ، الإصدار الثاني ، R. Baecker ، وآخرون. ، المحررين. 1995 ، دار نشر مورجان كوفمان ، إنك: سان فرانسيسكو. ص 35-47.

2. بروكس ، ف. "عالم الكمبيوتر" كـ Toolsmith - دراسات في رسومات الكمبيوتر التفاعلية "، في وقائع مؤتمر IFIP. 1977. الصفحات 625-634.

3. Burtnyk، N. and Wein، M.، "Computer Generated Key Frame Animation." Journal Of the Society of Motion Picture and Television Engineers، 1971. 8 (3): pp. 149-153.

4. بوش ، ف. ، "كما قد نفكر" ، مجلة أتلانتيك الشهرية ، 1945. 176 (يوليو): ص 101-108. أعيد طبعه ومناقشته في التفاعلات ، 3 (2) ، مارس 1996 ، ص 35-67.

5. بوكستون ، دبليو ، وآخرون. "نحو نظام إدارة واجهة مستخدم شامل" في إجراءات SIGGRAPH'83: رسومات الحاسوب. 1983. ديترويت ، ميشيغان 17. ص 35-42.

6. Card ، S.K. ، "الرواد والمستوطنون: الأساليب المستخدمة في تصميم واجهة المستخدم الناجحة ،" في تصميم واجهة الإنسان والحاسوب: قصص النجاح ، والطرق الناشئة ، والسياق الواقعي ، M. Rudisill ، وآخرون. ، المحررين. 1996 ، دار نشر مورجان كوفمان: سان فرانسيسكو. ص 122 - 169.

7. Coons، S. "مخطط تفصيلي لمتطلبات نظام التصميم بمساعدة الكمبيوتر" في مؤتمر AFIPS Spring Joint Computer. 1963. 23. ص 299 - 304.

8. Engelbart، D. and English، W.، "A Research Centre for Augmenting Human Intellect." reprinted in ACM SIGGRAPH Video Review، 1994.، 1968. 106

9. English، W.K.، Engelbart، D.C.، and Berman، M.L.، "Display Selection Techniques for Text Manipulation." IEEE Transactions on Human Factors in Electronics، 1967. HFE-8 (1)

10. غولدبيرغ ، أ. ، أد. تاريخ محطات العمل الشخصية. 1988 ، شركة أديسون ويسلي للنشر: نيويورك ، نيويورك. 537.

11. Goldberg، A. and Robson، D. "A Metaphor for User Interface Design،" in Proceedings of the 12th Hawaii Conference on System Sciences. 1979. 1. ص.148-157.

12. هندرسون جونيور ، د. "The Trillium User Interface Design Environment،" in Proceedings SIGCHI'86: العوامل البشرية في أنظمة الحوسبة. 1986. بوسطن ، ماساتشوستس. ص 221 - 227.

13. جونسون ، ت. "Sketchpad III: Three Dimensions Graphic Communication with Digital Computer" ، في AFIPS Spring Joint Computer Conference. 1963. 23. ص 347-353.

14. كاسيك ، دي. "نظام إدارة واجهة المستخدم" في إجراءات SIGGRAPH'82: رسومات الحاسوب. 1982. بوسطن ، ماساتشوستس. 16. ص 99 - 106.

15. كاي ، أ. ، المحرك التفاعلي. أطروحة دكتوراه ، الهندسة الكهربائية وعلوم الكمبيوتر ، جامعة يوتا ، 1969 ،

16. Kay، A.، "Personal Dynamic Media." IEEE Computer، 1977. 10 (3): pp. 31-42.

17. Koved، L. and Shneiderman، B.، "Embedded menus: Selecting Items in Context." Communications of the ACM، 1986. 4 (29): pp. 312-318.

18. Levinthal، C.، Molecular Model-Building by Computer. Scientific American، 1966. 214 (6): pp. 42-52.

19. ليفي ، س. ، قراصنة: أبطال ثورة الكمبيوتر. 1984 ، جاردن سيتي ، نيويورك: Anchor Press / Doubleday.

20. ليكليدر ، ج. وتايلور ، R.W. ، "الكمبيوتر كجهاز اتصال." Sci. تقنية. 1968. نيسان: ص 21 - 31.

21. Linton، MA، Vlissides، J.M.، and Calder، P.R. "تأليف واجهات مستخدم مع InterViews." IEEE Computer، 1989. 22 (2): pp.

22. Meyrowitz، N. and Van Dam، A.، "Interactive Editing Systems: Part 1 and 2." ACM Computing Surveys، 1982. 14 (3): pp. 321-352.

23. مايرز ، بكالوريوس ، "واجهة المستخدم لـ Sapphire." IEEE Computer Graphics and Applications، 1984. 4 (12): pp. 13-23.

24. مايرز ، بكالوريوس ، "تصنيف واجهات المستخدم لمديري النوافذ". IEEE Computer Graphics and Applications، 1988. 8 (5): pp. 65-84.

25. مايرز ، بكالوريوس ، "All the Widgets." SIGGRAPH Video Review ، 1990. 57

26. مايرز ، بكالوريوس ، "أدوات برامج واجهة المستخدم." معاملات ACM على التفاعل البشري الحاسوبي ، 1995. 2 (1): ص 64-103.

27. مايرز ، بكالوريوس ، وآخرون. ، الدليل المرجعي للتميمة V2.0. تقرير قسم علوم الكمبيوتر بجامعة كارنيجي ميلون ، العدد ، فبراير ، 1996. النظام متاح من http://www.cs.cmu.edu/

28. مايرز ، بكالوريوس ، وآخرون. ، "Garnet: الدعم الشامل لواجهات المستخدم الرسومية عالية التفاعل." IEEE Computer، 1990. 23 (11): pp. 71-85.

29. نيلسون ، ت. "هيكل ملف للمركب والمتغير وغير المحدد" في Proceedings ACM National Conference. 1965. ص 84 - 100.

30. نيومان ، دبليو. "نظام البرمجة الرسومية التفاعلية" في مؤتمر الكمبيوتر المشترك AFIPS الربيعي. 1968. 28. ص 47 - 54.

31. Nielsen، J.، Multimedia and Hypertext: the Internet and Beyond. 1995 ، بوسطن: Academic Press Professional.

32. Palay ، AJ ، وآخرون. "The Andrew Toolkit - An Overview"، in Proceedings Winter Usenix Technical Conference. "The Andrew Toolkit - An Overview،" in Proceedings Winter Usenix Technical Conference. 1988. دالاس ، تكس ص 9-21.

33. Press، L.، "Before the Altair: The History of Personal Computing." Communications of the ACM، 1993. 36 (9): pp. 27-33.

34. Reddy، D.R.، "Speech Recognition by Machine: A Review،" in Readings in Speech Recognition، A. Waibel and K.-F. لي ، المحررين. 1990 مورجان كوفمان: سان ماتيو ، كاليفورنيا. ص 8 - 38.

35. ريدي ، ر. ، "أن نحلم بالحلم الممكن (محاضرة جائزة تورينج)". Communications of the ACM، 1996. 39 (5): pp. 105-112.

36. روبرتسون ، جي ، نيويل ، أ ، وراماكريشنا ، ك. ، ز أو جي: فلسفة التواصل بين الإنسان والآلة. تقرير التقرير الفني لجامعة كارنيجي ميلون ، العدد ، أغسطس ، 1977.

37. روس ، د. ورودريجيز ، ج. "الأسس النظرية لنظام التصميم بمساعدة الكمبيوتر" ، في مؤتمر أفيبس الربيعي المشترك للحاسوب. 1963. 23. ص 305 - 322.

38. Rudisill، M.، et al. ، تصميم واجهة الإنسان والحاسوب: قصص النجاح ، والأساليب الناشئة ، وسياق العالم الحقيقي. 1996 ، سان فرانسيسكو: دار نشر مورجان كوفمان.

39. Scheifler، R.W. and Gettys، J.، "The X Window System." ACM Transactions on Graphics، 1986. 5 (2): pp. 79-109.

40. Shneiderman، B.، "Direct Manipulation: A Step Beyond Programming Languages." IEEE Computer، 1983. 16 (8): pp. 57-69.

41. سميث ، دي سي ، بجماليون: برنامج حاسوبي لنمذجة وتحفيز الفكر الإبداعي. 1977 بازل ، شتوتغارت: بيركهاوزر فيرلاغ. أطروحة دكتوراه ، قسم علوم الكمبيوتر بجامعة ستانفورد ، 1975.

42. سميث ، دي سي ، وآخرون. "واجهة المستخدم النجمية: نظرة عامة" ، في وقائع المؤتمر الوطني للكمبيوتر لعام 1982. 1982. AFIPS. ص.515-528.

43. Stallman، R.M.، Emacs: محرر العرض القابل للتوسيع والقابل للتخصيص والتوثيق الذاتي. تقرير معمل الذكاء الاصطناعي بمعهد ماساتشوستس للتكنولوجيا ، العدد ، أغسطس 1979 ، 1979.

44. Sutherland، I.E. "SketchPad: نظام اتصال رسومي بين الإنسان والآلة" في مؤتمر AFIPS Spring Joint Computer. 1963. 23. ص 329 - 346.

45. Swinehart، D.، et al. ، "A Structural View of the Cedar Programming Environment." ACM Transactions on Programming Languages ​​and Systems، 1986. 8 (4): pp. 419-490.

46. ​​Swinehart، D.C.، مساعد الطيار: نهج عمليات متعدد لأنظمة البرمجة التفاعلية. أطروحة دكتوراه ، قسم علوم الكمبيوتر ، جامعة ستانفورد ، 1974 ، مذكرة SAIL AIM-230 وتقرير CSD STAN-CS-74-412.

47. Teitelman، W.، "عرض مساعد مبرمج موجه". International Journal of Man-Machine Studies، 1979. 11: pp. 157-187. أيضا Xerox PARC Technical Report CSL-77-3، Palo Alto، CA، March 8، 1977.

48. Tolliver، B.، TVEdit. تقرير مذكرة مشاركة الوقت في ستانفورد ، العدد ، مارس 1965.

49. فان دام ، أ ، وآخرون. "A Hypertext Editing System for the 360" ، في Proceedings Conference in Computer Graphics. 1969. جامعة إلينوي.

50. van Dam، A. and Rice، D.E.، "Online Text Editing: A Survey." Computing Surveys، 1971. 3 (3): pp. 93-114.

51. ويليامز ، جي ، "نظام كمبيوتر ليزا." مجلة بايت ، 1983. 8 (2): ص 33-50.

52. ويليامز ، جي ، "كمبيوتر Apple Macintosh." بايت ، 1984. 9 (2): ص 30 - 54.


ثورة المعلومات

في عام 1982 ، أدركت جمعية ماكينات الحوسبة (ACM) الحاجة المتزايدة إلى مراعاة المستخدمين في تصميم البرامج من خلال إنشاء مجموعة الاهتمامات الخاصة بالتفاعل بين الكمبيوتر والإنسان (SIGCHI). بعد فترة وجيزة ، ظهر مجال التفاعل بين الإنسان والحاسوب (HCI) باعتباره تخصصًا فرعيًا معترفًا به لعلوم الكمبيوتر.

نظرًا لأن تصميم كيفية استخدام الأشخاص للأنظمة الرقمية كان جديدًا جدًا ، ولأن المهمة تتطلب دمج العديد من مجالات المعرفة ، فقد أصبح مجالًا بحثيًا نابضًا بالحياة ضمن مجالات دراسية متعددة (علم النفس ، والعلوم المعرفية ، والهندسة المعمارية ، وعلوم المكتبات ، وما إلى ذلك). ومع ذلك ، في الأيام الأولى ، كان صنع البرامج يتطلب دائمًا مهارات المهندس. تغير ذلك في عام 1993 مع إطلاق متصفح الويب Mosaic ، والذي أعاد إلى الحياة رؤية Tim Berners-Lee لشبكة الويب العالمية. كان الإنترنت موجودًا منذ سنوات ، لكن الطبيعة الرسومية للويب جعلته أكثر سهولة.

كان الويب وسيطًا جديدًا تمامًا ، تم تصميمه من الألف إلى الياء حول الشبكات والافتراضية. لقد قدمت قائمة نظيفة من الاحتمالات ، ومفتوحة لأشكال جديدة من التفاعل ، واستعارات واجهة جديدة ، وإمكانيات جديدة للتعبير المرئي التفاعلي. والأهم من ذلك ، أنه كان متاحًا لأي شخص يريد إنشاء ركن خاص به من الويب ، باستخدام لغة ترميز النص التشعبي البسيطة (HTML).

منذ البداية ، كانت متصفحات الويب تأتي دائمًا بإمكانية "عرض المصدر" التي تسمح لأي شخص بمعرفة كيفية إنشاء الصفحة. هذا الانفتاح ، جنبًا إلى جنب مع منحنى التعلم المنخفض لـ HTML ، يعني أن تدفق الأشخاص الجدد الذين ليس لديهم خلفية في علوم الكمبيوتر أو التصميم بدأ في تشكيل كيفية تفاعلنا مع الويب.

عجل الويب من ثورة المعلومات وسرّع فكرة أن "المعلومات تريد أن تكون مجانية". مشاركة مجانية ، نسخ مجانية ، وخالية من الجسد. قام Microsoft Windows بإبعاد البرامج عن الأجهزة التي يعمل عليها ، لكن الويب دفع البيئات التفاعلية إلى عالم افتراضي تمامًا. يمكن الوصول إلى موقع الويب من أي جهاز كمبيوتر ، بغض النظر عن الحجم أو النوع أو العلامة التجارية.

بحلول منتصف التسعينيات ، سلكي وصف مستخدمي الويب بأنهم مستخدمو الإنترنت ، كان التواصل الاجتماعي في الواقع الافتراضي طموحًا ، وكان هناك حماسة متزايدة من أن التجارة الإلكترونية يمكن أن تحل محل المتاجر التقليدية. ارتبط سرد التقدم في أواخر القرن العشرين بانتصار الظاهري على المادي. بدا مستقبل الاتصال والثقافة والاقتصاد بشكل متزايد وكأنه سيعرض أمام لوحة مفاتيح ، في العالم على الجانب الآخر من الشاشة.

بالوقوف على أكتاف الرواد السابقين ، استخدم تدفق المصممين الأصليين للويب الوسيلة التي كانوا يبنونها لتحديد أنماط تفاعل جديدة وأفضل الممارسات. جلب الويب مرحلة المستهلك من الحوسبة ، وتوسيع نطاق وتأثير تصميم التفاعل إلى مستوى يقترب من مستوى ابن عمه الصناعي الأكبر سناً.


أعمال تمهيدية

يقدم هذا القسم عينة من الأعمال المبكرة التي وجهت البحث في تعزيز العلاقات والتفاعلات الشخصية من خلال التكنولوجيا. كيسلر وآخرون. 1984 يتطلع إلى ما هو أبعد من الكفاءة والقدرات التقنية لتقنيات اتصالات الكمبيوتر ويقدم نظرة ثاقبة على الأهمية النفسية والاجتماعية والثقافية للتكنولوجيا. يقدم جونز 1994 فحصًا شاملاً للجوانب المختلفة للعلاقات الاجتماعية في الفضاء السيبراني. الدراسات الأولية التي تقدم توصيات أفضل الممارسات لاعتماد التدخل القائم على التكنولوجيا في ممارسة العمل الاجتماعي تشمل Pardeck and Schulte 1990 Cwikel and Cnaan 1991 Schopler، et al. 1998 و Gonchar and Adams 2000. Lea and Spears 1995 Kraut، et al. يقدم 1998 و Nie and Erbring 2000 نظرة ثاقبة مبكرة حول كيفية بدء الإنترنت في تشكيل الطريقة التي يتفاعل بها البشر.

كويكل وجولي ورام كنعان. 1991. معضلات أخلاقية في تطبيق تكنولوجيا معلومات الموجة الثانية لممارسة العمل الاجتماعي. الخدمة الاجتماعية 36.2: 114–120.

يعتبر هؤلاء المؤلفون المعضلات الأخلاقية الناتجة عن استخدام تكنولوجيا المعلومات في ممارسة العمل الاجتماعي. يفحصون التأثيرات على العلاقة بين العميل والعامل لاستخدام قواعد بيانات العميل والأنظمة الخبيرة والبرامج العلاجية والاتصالات.

جونشار ونانسي وجوان آر آدامز. 2000. العيش في الفضاء السيبراني: الاعتراف بأهمية العالم الافتراضي في تقييمات العمل الاجتماعي. مجلة تعليم الخدمة الاجتماعية 36:587–600.

باستخدام نهج الشخص في البيئة ، يستكشف هذا المصدر الفرص التي يوفرها الاتصال عبر الإنترنت للأفراد في تعزيز العلاقات ، سواء كانت صحية أو غير صحية.

جونز ، ستيف ، أد. 1994. CyberSociety: التواصل والمجتمع عن طريق الكمبيوتر. ألف أوكس ، كاليفورنيا: سيج.

يستكشف بناء وصيانة والوساطة للجمعيات السيبرانية الناشئة. وتناقش جوانب العلاقات الاجتماعية الناتجة عن الاتصال بوساطة الكمبيوتر.

كيسلر وسارة وجين سيجل وتيموثي دبليو ماكغواير. 1984. الجوانب النفسية الاجتماعية للتواصل الحاسوبي. عالم نفس أمريكي 39.10: 1123–1134.

يقدم المؤلفون السلوك المحتمل والآثار الاجتماعية للتواصل عبر الكمبيوتر.

Kraut, Robert, Michael Patterson, Vickie Lundmark, Sara Kiesler, Tridas Mukopadhyay, and William Scherlis. 1998. Internet paradox: A social technology that reduces social involvement and psychological well-being? عالم نفس أمريكي 53.9: 1017–1031.

This study examines the positive and negative impacts of the Internet on social relationships, participation in community life, and psychological well-being. The implications for research, policy, and technology development are discussed.

Lea, Martin, and Russell Spears. 1995. Love at first byte? Building personal relationships over computer networks. في Understudied relationships: Off the beaten track. Edited by J. T. Wood and S. Duck, 197–233. Thousand Oaks, CA: SAGE.

This chapter focuses on the connection between personal relationships and computer networks. Previous studies that examine dynamics of online relationships are reviewed.

Nie, Norman H., and Lutz Erbring. 2000. Internet and society: A preliminary report. Stanford, CA: Stanford Institute for the Quantitative Study of Society.

This study presents the results of an early study that explores the sociological impact of information technology and the role of the Internet in shaping interpersonal relationships and interactions.

Pardeck, John T., and Ruth S. Schulte. 1990. Computers in social intervention: Implications for professional social work practice and education. Family Therapy 17.2: 109.

The authors discuss the impact of computer technology on aspects of social work intervention including inventory testing, client history, clinical assessment, computer-assisted therapy, and computerized therapy.

Schopler, Janice H., Melissa D. Abell, and Maeda J. Galinsky. 1998. Technology-based groups: A review and conceptual framework for practice. Social Work 43.3: 254–267.

The authors examine studies of social work practice using telephone and computer groups. Social work practice guidelines for technology-based groups are discussed.

Turkle, Sherry. 1984. The second self: Computers and the human spirit. New York: Simon & Schuster.

Explores the use of computers not as tools but as part of our social and psychological lives and how computers affect our awareness of ourselves, of one another, and of our relationship with the world.

Weizenbaum, Joseph. 1976. Computer power and human reason: From judgment to calculation. San Francisco: W. H. Freeman.

Examines the sources of the computer’s power including the notions of the brilliance of computers and offers evaluative explorations of computer power and human reason. The book presents common theoretical issues and applications of computer power such as computer models of psychology, natural language, and artificial intelligence.

Users without a subscription are not able to see the full content on this page. Please subscribe or login.


HCI surfaced in the 1980s with the advent of personal computing, just as machines such as the Apple Macintosh, IBM PC 5150 and Commodore 64 started turning up in homes and offices in society-changing numbers. For the first time, sophisticated electronic systems were available to general consumers for uses such as word processors, games units and accounting aids. Consequently, as computers were no longer room-sized, expensive tools exclusively built for experts in specialized environments, the need to create human-computer interaction that was also easy and efficient for less experienced users became increasingly vital. From its origins, HCI would expand to incorporate multiple disciplines, such as computer science, cognitive science and human-factors engineering.

HCI soon became the subject of intense academic investigation. Those who studied and worked in HCI saw it as a crucial instrument to popularize the idea that the interaction between a computer and the user should resemble a human-to-human, open-ended dialogue. Initially, HCI researchers focused on improving the usability of desktop computers (i.e., practitioners concentrated on how easy computers are to learn and use). However, with the rise of technologies such as the Internet and the smartphone, computer use would increasingly move away from the desktop to embrace the mobile world. Also, HCI has steadily encompassed more fields:

“…it no longer makes sense to regard HCI as a specialty of computer science HCI has grown to be broader, larger and much more diverse than computer science itself. HCI expanded from its initial focus on individual and generic user behavior to include social and organizational computing, accessibility for the elderly, the cognitively and physically impaired, and for all people, and for the widest possible spectrum of human experiences and activities. It expanded from desktop office applications to include games, learning and education, commerce, health and medical applications, emergency planning and response, and systems to support collaboration and community. It expanded from early graphical user interfaces to include myriad interaction techniques and devices, multi-modal interactions, tool support for model-based user interface specification, and a host of emerging ubiquitous, handheld and context-aware interactions.”

— John M. Carroll, author and a founder of the field of human-computer interaction.


The Science Of Human Connection And Wellness In A Digitally Connected World

The most precious commodities on this planet are our health, love, and happiness. Regardless of what we accomplish and accumulate in life, we are unable to take it with us.

In the fast paced, consumer driven, social media shared world that we live in today, success and happiness are often defined by the status of what we achieve, and the value of the things that we own.

Everywhere we look, we are inundated with the same message: the measure of our self-worth is directly equal to the measure of our material wealth.

Whether it’s the status car, the trendiest clothes, the luxury home or the CEO title that comes with the envied corner office with a view, these and the many other status symbols of wealth and success seem to forever define our value in our culture today, immortalized by the cinematic perfection of super heroes and super stars, and broadcasted through the perfectly curated lives that bombard us daily by “friends” on social media.

Fueled by equal parts aspiration and expectation, in an entirely odd and unusual way, envy has become the 21st Century’s most enduring economic driver, feeding our most persistent social cravings and endless material consumerism.

In our effort to keep up with all that is expected of us — and expected of ourselves — many of us find ourselves in perpetual motion, filling our days with the hyper-active, turbo-charged, “crazy busy” schedules that keep us struggling to eat healthy, find and maintain balance between our work, busy careers, and all that’s happening in our personal lives. And despite our success, when we achieve it, it seems that quality personal time for ourselves and for nurturing our relationships has become increasingly more elusive.

Psychologists see a pattern in this success driven culture of busyness and the associated “connection disconnection” of an increasingly digitally remote world, and it’s triggering what they say is rapidly becoming a dire epidemic of loneliness. In the elderly, this epidemic of loneliness is known as the “hidden killer.”

With our daily use of email, texting, smart phones, professional and social media, we live in an age of instant global connectivity. We are more connected to one another today than ever before in human history, yet somehow, we’re actually increasingly feeling more alone.

No longer considered a marginalized issue suffered by only the elderly, outcasts or those on the social fringe, the current wave of loneliness sweeping the nation is hitting much closer to home than you might think. And as shocking as it may seem, new research shows that loneliness may now be the next biggest public health crises to face Americans since the rise of obesity and substance abuse.

In fact, loneliness and its associated depression has become downright rampant, even amongst some of the most successful, with studies showing that business executives and CEOs may actually suffer at more than double the rate of the general public as a whole, which is already an astonishing twenty percent.

What’s more, this ever-growing loneliness among the hyper successful is not just a result of the social and professional isolation of living in a more global and digitized world, but rather it’s a “lonely at the top” malaise that’s spreading largely due to the sheer emotional exhaustion of business and workplace burnout.

Science is now sounding the alarm that there’s a significant correlation between feeling lonely and work exhaustion — and the more exhausted people are, the lonelier they feel. This, of course, is made worse by the ever-growing trend for a large segment of professionals who now work mobile and remotely.

Throughout history, human beings have inherently been social creatures. For millions of years we’ve genetically evolved to survive and thrive through the “togetherness” of social groups and gatherings. Today, modern communication and technology has forever changed the landscape of our human interaction, and as such, we often decline without this type of meaningful personal contact. Today’s highly individualistic, digitally remote, and material driven culture is now challenging all of this, as we turn to science to unlock the mysteries of human connection and wellness in a digitally connected world.

Connection of Disconnection

In a world where some of our most personal moments are “Shared” online with “Friends”, business meetings are replaced with digital “Hangouts”, and the most important breaking news is “Tweeted” online in a mere 140 characters or less, today we often seem much more captivated by flashing notifications on our mobile phones than what we’re actually experiencing outside of our tiny 5'.7" screens.

Mobile technologies ushered in by Internet icons like Google, who have literally defined what it means to have “the world’s information at your fingertips”, have no doubt brought us one step closer to truly living in a “Global Village”. However, no matter how small the world may seem to be getting, it now also feels like it’s often becoming a much less personable place to live in as well.

This also means understanding just how much the “connection disconnection” of loneliness negatively impacts our health, and to begin attending to signs and symptoms of loneliness with preventative measures, the very same way we would do with diet, exercise, and adequate sleep.

Dr. John Cacioppo, PhD, is a Professor of Neuroscience and director of the Center for Cognitive and Social Neuroscience at the University of Chicago, and a leading researcher on the effects on loneliness and human health. According to Dr. Cacioppo, the physical effects of loneliness and social isolation are as real as any other physical detriment to the body — such as thirst, hunger, or pain. “For a social species, to be on the edge of the social perimeter is to be in a dangerous position,” says Dr. Cacioppo, who is the co-author of the best-selling book “Loneliness: Human Nature and the Need for Social Connection”, hailed by critics to be one of the most important books about the human condition to appear in a decade.

Loneliness changes our thoughts, which changes the chemistry of our brains, says Dr. Cacioppo. “The brain goes into a self-preservation state that brings with it a lot of unwanted side effects.” This includes increased levels of cortisol, the stress hormone that can predict heart death due to its highly negative effects on the body. This increase in cortisol triggers a host of negative physical effects — including a persistent disruption in our natural patterns of sleep, according to Dr. Cacioppo. “As a result of increased cortisol, sleep is more likely to be interrupted by micro-awakenings,” reducing our ability to get enough quality sleep, that in time begins to erode our overall greater health and well-being.

One of the most important discoveries of Dr. Cacioppo’s research, is the Epigenetic impacts that loneliness has on our genes. In his recent studies, tests reveal how the emotional and physical impacts of loneliness actually trigger cellular changes that alter the gene expression in our bodies, or “what genes are turned on and off in ways that help prepare the body for assaults, but that also increases the stress and aging on the body as well.” This Epigenetic effect provides important clues in improving our understanding of the physical effects of loneliness, and in an increasingly remote and digitally connected world, minding our digital footprint and ensuring that we cultivate real and meaningful relationships with others may hold the key to keeping us healthy and keeping the onset of loneliness at bay.

Social Media’s Alone Together

Worldwide, there are over 2.01 billion active monthly users of social media, and of the 300 million of us in the United States, sometimes it feels like we’ve all just become new “Friends” on Facebook.

With so many of us being “Friends” and so well connected, you’d think that our social calendars would be totally full.

But the sad truth is that for all of the social media friends that we may have out in cyberspace, studies show that social media usage is actually making us less socially active in the real world, and Americans in particular are finding themselves lonelier than ever.

According to a recent study by sociologists at Duke University and the University of Arizona, published by American Sociological Review, American’s circle of close friends and confidants has shrunk dramatically over the past two decades, and the number who say they have no one outside of their immediate family to discuss important matters with has more than doubled, reaching a shocking 53.4% — up 17% since the dawn of the Internet and social media.

What’s more, nearly a quarter of those surveyed say they have no close friends or confidantes at all — a 14% percent increase since we all became so digitally connected.

Looking at the stats, we should ask ourselves, are digital communication technologies and social media platforms like Facebook and Twitter helping us or actually hurting us?

Many experts seem to feel the latter, and see a clear pattern with social media use and the decline in social intimacy, contributing greatly to today’s social and personal breakdown.

In her recent book “Alone Together: Why We Expect More from Technology and Less from Each Other”, MIT Professor Dr. Sherry Tuckle, PhD argues the case that this just may be so.

Dr. Turkle puts forth a host of pretty convincing signs that technology is threatening to dominate our lives and make us less and less social as humans. في Alone Together, she warns us that in only just a few short years, technology has now become the architect of our intimacies. “Online, we fall prey to the illusion of companionship, gathering thousands of Twitter and Facebook friends, and confusing tweets and wall posts with authentic communication.” But this relentless online digital connection is not at all real social intimacy, and leads us to a deep feeling of solitude.

Compounding matters is the added burden of increasingly busy schedules. People are now working very long hours — far more than in any recent history — and many feel that the only way that they can make social contact is online via social media or even online dating apps — which they often feel is faster and cheaper than actually going out for an intimate connection in person. Many even prefer the limited effort necessary to maintain digital friendships, verses live interpersonal relationships, which allows them to feel connected — but actually still remain somewhat disconnected.

This is perhaps ever more apparent with a new generation of Americans who have grown up with smartphones and social media, and as a result, may have even lost some fundamental social skills due to excessive online and social media use.

Dr. Brian Primack, PhD is the director of the Center for Research on Media, Technology and Health at the University of Pittsburgh, and co-author of a study published by the American Journal of Preventive Medicine, which shows that those who spend the most time digitally connecting on social media — more than two hours a day — had more than twice the odds of feeling socially isolated and lonely, compared to those who spend only a half hour per day. While real life face-to-face social connectedness seems to be strongly associated with feelings of well-being, the study shows that this naturally expected outcome seems to change when our interactions happen virtually. These results seemed very much to be counterintuitive — yet somehow this negative outcome is entirely consistent and true.

Dr. Primack’s earlier research on the connection of social media use and depression in young adults seemed to confirm what many already suspected, that our self-esteem can easily take a nosedive each time we log in to a social media network. There is a natural tendency to compare our lives to those we see online, and when we see others seemingly living the life of our dreams, it’s human nature not to feel just a little bit envious. However, if left unchecked, that envy can quickly turn into low self-esteem — and that can quickly spiral into depression. And like a vicious cycle, the more depressed and the lower our self-esteem, the lonelier we feel.

Meanwhile, a recent study found that those who gave up Facebook for even just a week felt much happier, less lonely and less depressed at the end of the study then other participants who continued using it.

The message is clear, that it’s important to use social media in positive ways. It’s a strong reminder of the importance of establishing real and meaningful interpersonal friendships, versus isolating ourselves in the digital social world. Real life interactions help us to build lasting relationships that fulfill our innate human need to form bonds and feel connected.

The solution, experts say, is that we have to begin to recognize the inherent pitfalls of social media and begin to utilize our online time in more positive ways that enhance our relationships — not detract from them. Social media can actually be a positive step toward building a “Global Village”, if we make it so.

It all depends on how we choose to interact online. It’s important to remember this, in our ever-busy quest for success in our increasingly digitally connected lives.

Connect With Your Friends The Old Fashioned Way — Device Free.

I have established really strong boundaries to have device free outings on date nights, also with my friends or if I am having a business meeting. Let me clarify, a device can be present however it must be switched off completely and preferably out of sight.

I have one friend who I visit sometimes. She is unable or unwilling to hear the boundaries that I would like to have regarding our device free get togethers. She is really smart and quite amazing, we will talk for about 10 minutes and we will be having a delightful deep meaningful conversation, and then like a merciless predator she preys on her phone like she going in for the kill and starts in on her social media. She is an addict. I overtly exit “stage left.” She is disappointed that I leave. This is the only way I can train her with regards to having a device free get together. The lengths of conversation have actually gotten longer since I have been doing that. When we go out for dinner she has to leave her phone at her home otherwise she is unable to help herself to her phone. The question I ask her is, “Dinner with Marina or will it be Dinner with your Phone?” She does opt for Dinner with Marina.

Self Love is one of the most important loves of all. When we learn to love ourselves completely, then we can truly love others

Connect with Your Friends & Loved Ones & Disconnect from Loneliness

01. Choose Self Love & Practice Self Love With Regards To How You Want It To Show Up In Your Life.

02. Choose To Be Worthy & Deserving Of Being Loved By Others On Your Own Terms.

03. Choose To Love People Unconditionally With Strong Boundaries.

04. Choose To Love People Unconditionally Without Being Taken Advantage Of.

05. Choose To Celebrate Who You Are.

06. Choose To See Your Value & How Valuable You Are To Yourself & Others.

07. Choose To Have Self Worth & Self Esteem & Positive Self Deserving In All Areas of Your Life.

08. Choose To Be Empathic With Your Friends With Strong Boundaries.

09. Choose To Be A Great Listener.

10. Choose To Be Worthy & Deserving To Be Listened To & Be Heard.

11. Choose To Be A Good Friend Without Being Taken Advantage Of.

12. Choose To Be Respectful, Present and Mindful With Your Friends.

13. Choose To Speak Your Truth With Emotional Intelligence.

14. Choose To Have Confidence In All Areas of Your Life.

15. Choose To Authentically Live Your Own Personal Truth In All Areas of Your Life.


How Humans Became Social

لإعادة مراجعة هذه المقالة ، قم بزيارة ملفي الشخصي ، ثم اعرض القصص المحفوظة.

لإعادة مراجعة هذه المقالة ، قم بزيارة ملفي الشخصي ، ثم اعرض القصص المحفوظة.

By Elizabeth Pennisi, علمNOW

Look around and it's impossible to miss the importance of social interactions to human society. They form the basis of our families, our governments, and even our global economy. But how did we become social in the first place? Researchers have long believed that it was a gradual process, evolving from couples to clans to larger communities. A new analysis, however, indicates that primate societies expanded in a burst, most likely because there was safety in numbers.

It's a controversial idea, admits anthropologist and study author Susanne Shultz of the University of Oxford in the United Kingdom. "We're likely going to cause a bit of trouble."

Over the past several decades, researchers have gained tremendous insights into the evolution of social groups in bees and birds by comparing them with relatives with different social systems. In these animals, it seems that complex societies evolved in steps. Single individuals paired off or began living with a few offspring. These small groups gradually grew larger and more complicated, ultimately yielding complex organizations. Some anthropologists have assumed a similar history for primates.

Shultz and colleagues decided to test this idea. Their first task was figuring out which factors influenced the makeup of current primate societies. A common hypothesis is that the local environment shapes group structure. For example, food scarcity might drive individuals together so that they can help each other with hunting and foraging. But after combing the scientific literature on 217 primate species, the researchers noticed that closely related species tended to organize their societies in the same way, no matter where they lived. Baboons and macaques, for example, inhabit many places and habitats, yet for the most part they always live in a mixed company of related females and unrelated males.

Because group structure was not at the whims of the environment, Shultz and colleagues reasoned, it must be passed down though evolutionary time. And indeed, when they looked across the primate family tree, they found that the current social behaviors of a species tended to be similar to those of its ancestors.

With this in mind, the researchers inferred how the ancestors of these primates lived, trying to come up with the scenario that would require the fewest evolutionary changes to get to the current distribution of social organizations in the family tree. They ran a statistical model to determine what would happen, say, if the last common ancestor to the monkeys and apes lived in pairs or lived in groups.

To the researchers' surprise, the most sensible solution suggested that the solitary ancestor started banding together not in pairs, as scientists had thought, but as loose groups of both sexes, as the team reports online today in طبيعة سجية. Given the modern distribution of social organizations, the most likely time for this shift was around 52 million years ago, when the ancestors of monkeys and apes split off from the ancestors of lemurs and other prosimian primates.

Shultz suspects that, at this time, the nocturnal ancestors of today's primates became more active during the day. It's easier to sneak around at night when you're alone, she notes, but when you start hunting during the day, when predators can more easily spot you, there's safety in numbers.

But not all of today's primates live in large, mixed-sex groups. A few, such as the New World titi monkeys, live in pairs. And some primates, such as gorillas, form harems with one male and multiple females. The analysis shows that these social structures showed up only about 16 million years ago.

"When I read the paper, I was really quite struck with what a different picture [it] gives us," says Joan Silk, an anthropologist at the University of California, Los Angeles. "[Some] theoretical models will have to be revised."

Bernard Chapais, a primatologist at the University of Montreal in Canada is impressed with how many primates the analysis included. "It's close to the total number of species in the primate order," he says. He agrees with Shultz's scenario, but he and Silk would have liked to see Shultz consider more details, such as the mode of reproduction, when classifying social systems—something she plans to do. Even without that refinement, however, "these analyses represent a welcome addition to the current study of social evolution," says Peter Kappeler, an anthropologist at the University of Göttingen in Germany.

This story provided by علمNOW, the daily online news service of the journal علم.

Image: Gelada baboons (Theropithecus gelada) live in large, mix-sexed groups. Dave Watts/Flickr


The Invention of World History

For most of history, different peoples, cultures and religious groups have lived according to their own calendars. Then, in the 11th century, a Persian scholar attempted to create a single, universal timeline for all humanity.

The baptism of Christ, from The Chronology of Ancient Nations, 1307. (Edinburgh University Library/Bridgeman Images)

T oday, it is taken for granted that ‘World History’ exists. Muslims, Jews and Chinese each have their own calendars and celebrate their own New Year’s Day. But for most practical matters, including government, commerce and science, the world employs a single common calendar. Thanks to this, it is possible to readily translate dates from the Chinese calendar, or from the Roman, Greek or Mayan, into the same chronological system that underlies the histories of, say, Vietnam or Australia.

This single global calendar enables us to place events everywhere on a single timeline. Without it, temporal comparisons across cultures and traditions would be impossible. It is no exaggeration to say that this common understanding of time and our common calendar system are the keys to world history.

It was not always the case. Most countries, cultures or religious groups have lived according to their own calendars. Each designated its own starting point for historical time, be it the Creation, Adam and Eve or some later event, such as the biblical Flood. Even when they acknowledged a common point in time, as did both Greeks and Persians with the birth of Alexander the Great, they differed about when that event took place.

The ancient Greeks pioneered the systematic study of history and, even today, Herodotus (c.484-425 BC) stands out for his omnivorous curiosity about other peoples and cultures. Throughout his التاريخ he regales his readers with exotica gleaned from his extensive travels and enquiries. He explains how each culture preserves and protects its own history. He reports admiringly on how the Egyptians maintained lists of their kings dating back 341 generations. His implication is that all customs and traditions are relative. Yet for two reasons the broad-minded Herodotus, whom Cicero called ‘the Father of History’, stopped short of asking how one might coordinate or integrate the Egyptian and Greek systems of time and history, or those of any other peoples.

For all his interest in diverse peoples and cultures, Herodotus wrote for a Greek audience. The structure of his التاريخ allowed ample space for digressions that would inform or amuse his readers, but differing concepts of time were not among them. Herodotus and other Greeks of the Classical age were curious about the larger world, but ultimately their subject was Greece and they remained content to view the world through their own calendar. The same could be said for the other peoples of the ancient world. Each was so immersed in the particularities of its own culture that it would never have occurred to them to enquire into how other peoples might view historical time. Herodotus had come closer to perceiving the need for a world history than anyone before him.

Other ancient thinkers came as far as Herodotus, but no further. The Roman historian Polybius (200-118 BC) penned what he called a Universal History, embracing much of the Middle East, but he passed over differing concepts of history and time. Instead he shoehorned all dates into the four-year units of the Olympiads. This made his dates intelligible to Romans and Greeks but unintelligible to everyone else. Similarly, the Jewish historian Josephus (AD 37-100) took as his subject the interaction of Jews and Romans, two peoples with markedly different understandings of time. Having himself defected to the Roman side, he employed Roman chronology throughout his The Jewish War و Antiquities of the Jews and felt no need to correlate that system with the calendar of the Jews.

This, then, was the situation in the year 1000, when a largely unknown Central Asian scholar from Kath in the far west of modern Uzbekistan confronted the problem of history and time. Abu Rayhan Muhammad al-Biruni (973-1039) was an unlikely figure to take up so abstruse a task. Just 29 years old, he had written half a dozen papers on astronomy and geodesics. He was also involved in a vitriolic exchange in Bukhara with the young Ibn Sina, who later gained fame for his Canon of Medicine. But Biruni was a stranger to history and had never studied the many foreign cultures that had developed their own systems of time. Worse, he had lost several years fleeing a wave of civil unrest that swept the region. Fortunately for him, an exiled ruler from Gorgan near the Caspian Sea had been able to reclaim his throne and invited the promising young scientist to come and adorn his court. When that ruler, Qabus, asked Biruni to provide an explanation ‘regarding the eras used by different nations, and regarding the differences of their roots, i.e., … of the months and years on which they are based’, Biruni was not in a position to say no.

Biruni soon amassed religious and historical texts of the ancient Egyptians, Persians, Greeks and Romans and then gathered information on Muslims, Christians and Jews. His account of the Jewish calendar and festivals anticipated those of the Jewish philosopher Maimonides by more than a century. He also assembled evidence on the measurement of time and history from lesser-known peoples and sects from Central Asia, including his own Khwarazmians, a Persianate people with its own calendar system. In his research he called on his knowledge of languages, including Persian, Arabic and Hebrew, as well as his native Khwarazmian. For others he relied on translations or native informants.

In a decision that made his book as inaccessible to the general reader as it is valuable to specialists, Biruni included an overwhelming mass of detail on all known histories and calendar systems. The only ones excluded were those of India and China, about which he confessed he lacked sufficient written data. So thorough was Biruni that his Chronology of Ancient Peoples remains the sole source for much invaluable data on peoples as diverse as pre-Muslim Arabs, followers of various ‘false prophets’ and even Persians and Jews.

Biruni could have made it easier for his reader had he presented everything from just one perspective: his own. But this was not his way. Unlike Herodotus, who in the end adhered to a Greek perspective, or Persian writers who applied their own cultural measure to everyone else, Biruni began with the assumption that all cultures were equal. A relativist’s relativist, he surpassed all who preceded him in the breadth of his perspective. Who but Biruni would make a point of telling readers that he interviewed heretics?

It is not surprising, given his background. Khwarezm today is all but unknown. Yet 1,000 years ago it was a land of irrigated oases and thriving cities, which had grown rich on direct trade with India, the Middle East and China. Biruni’s home town of Kath was populated by Muslims, Zoroastrians, Christians and Jews, as well as traders from every part of Eurasia, including Hindus from the Indus Valley. It is unlikely that any part of the Eurasian land mass at the time spawned more people who accepted pluralism as a fact than Central Asia in general and Khwarezm in particular.

Had Biruni made only this affirmation, it is doubtful we would remember his التسلسل الزمني اليوم. But he did not and for an important reason. Qabus had made clear that he wanted a غير مرتبطة, simple system of time, so that henceforth he would not have to consult multiple books. He also wanted one that could be applied to business and commerce, as well as national history and lore. For his part, Biruni was glad to acknowledge that different peoples view time differently, but he insisted that there exists an objective basis for evaluating each system, namely the precise duration of a day, month and year as measured by science. An astronomer and mathematician, Biruni meticulously presented the best scientific evidence on the length of the main units of time and recalculated every date recorded in every system in terms of his new, autonomous measure.

Bewildering mess

No sooner did he launch into this monumental project than he found himself in a bewildering mess. ‘Every nation has its own [system of] eras’, he wrote, and none coincide. The confusion begins, he demonstrated, with the failure of some peoples –notably the Arabs – to understand that the only precise way to measure a day is when the sun is at the meridian: at noon or midnight. Errors in measuring a day in different cultures create months and then years of differing length. The result is a hopeless muddle.

Biruni seethed at the sheer incompetence he encountered on this crucial point. He then turned to the manner in which different peoples date the beginning of historic time and his anger turns to apoplexy. ‘Everything’, he thunders, ‘the knowledge of which is connected with the beginning of creation and with the history of bygone generations, is mixed up with falsification and myths.’ How can different peoples date creation as 3,000, 8,000 or 12,000 years ago? Even the Jews and Christians are at odds, with both of them following systems of time that are ‘obscurity itself’.

In a stunning aside, Biruni suggests that some of the errors may be traced to differences among biblical texts. Towards the Jews he is forgiving: ‘It cannot be thought strange that you should find discrepancies with people who have several times suffered so much from captivity and war as the Jews.’ But Christians, by trying to blend the Jewish and Greek systems, came up with an inexcusable chaos.

Biruni is no more kind to Arabs and Muslims. But while Muslims, Christians and Jews debate their differing dates for Adam and Eve and the biblical Flood, the Persians, deemed no less intelligent, deny that the Flood ever took place. Biruni concedes that pre-Muslim Arabs at least based their calendar on the seasons, but their system fell short of the Zoroastrian Persians. When he came across an Arab writer ‘Who was … very verbose … on the superiority of the Arabs to the Persians’, he opined: ‘I don’t know if he was really ignorant or only pretended to be.’

Such ridicule permeates Biruni’s التسلسل الزمني. Sometimes it is direct, though even more scathing when indirect. In chart after chart he lists the intervals between major world events according to the various religions and peoples. Typical is his chart for dating the lives of Adam and Eve, which no one could perceive as anything but pure foolishness. Everywhere, he concludes, ‘History is mixed with lies’, as are all the cultures of mankind. In a damning passage, Biruni lists what each religion and people prohibits, indicating the capriciousness and outright foolishness of most of the laws by which people seek to order their lives.

Reasoned knowledge

Seeking the cause of such nonsense, Biruni points to the almost universal refusal to base knowledge on reason. It is not just the unreason of the astrologer, ‘who is so proud of his ingenuity’, but of all the peoples and cultures of the world. The only ones to escape Biruni’s wrath are the Greeks, whom he describes as ‘deeply imbued with, and so clever in geometry and astronomy, and they adhere so strictly to logical arguments that they are far from having recourse to the theories of those who derive the basis of their knowledge from divine inspiration’.

Biruni pushed his query to its logical conclusion. A chief difference among competing calendar systems is the way they account – or fail to account – for the fact that an astronomical year is 365 days and six hours long. To assume any other length – to fail, for example, to add in that extra quarter of a day – causes all feasts and holidays to migrate in time gradually through the year. This is why the pre-Muslim Arabs’ month of fasting was fixed in the calendar, while Ramadan now moves throughout the year. Both problems can be rectified by adding to the calendar of 365 days an extra day every fourth year, or ‘leap year’.

Called ‘intercalation’, this simple process became a litmus test by which Biruni measured the intellectual seriousness of all cultures. He praised the Egyptians, Greeks, Chaldeans and Syrians for the precision of their intercalations, which came down to seconds. He was less generous towards the Jews and Nestorian Christians, even though their systems of intercalation were widely copied. He noted that in order to fix their market dates and holidays, the pre-Muslim Arabs had adopted from the Jews their primitive system of intercalation. Muhammad rejected this, saying that ‘Intercalation is only an increase of infidelity, by which the infidels lead people astray’. With astonishing bluntness, Biruni made known his view that it was simply a mistake for the Prophet Muhammad to have rejected the adjustment of the year to reflect astronomical reality. Carefully hiding behind the words of another author, Biruni concluded that this decision by Muhammad, based on the Quran itself, ‘did much harm to the people’. Some later adjustments were made, but they failed to address the core problem. ‘It is astonishing’, he fulminated, ‘that our masters, the family of the Prophet, listened to such doctrines.’

Directions of prayer

This was but one of Biruni’s ventures onto extremely sensitive ground. In another aside, he considers the Islamic custom of addressing prayers to the location of Mecca, termed the Kibla. After noting that Muslims had initially prayed to Jerusalem, he laconically observed that Manicheans pray towards the North Pole and Harranians to the South Pole. Thus armed, Biruni offered his conclusion by favourably quoting a Manichean who argued that ‘a man who prays to God does not need any Kibla at all’.

After these diversions, Biruni returned to his central task. He knew that commercial interchange requires a common system of dating events and that all interactions among peoples require a common system with which to reckon the passage of time. Moving from description to prescription, he set down steps by which the mess created by religion and national mythologies could be corrected, or at least alleviated. His method was to create a means of converting dates from one system to another. Biruni presented it in the form of a large circular graph or chart, which he termed a ‘chessboard’, showing the eras, dates and intervals according to each culture. Anyone who was ‘more than a beginner in mathematics’ could manipulate the chessboard so as to translate from one system to another. The method, he boasted, would be useful to both historians and astronomers.

Biruni was as impatient as he was hyperactive. Scarcely had he finished his assignment than he rushed back to his native Khwarezm in order to measure further eclipses and seek funding for even bigger projects.

We do not know if Biruni managed to keep a copy of his التسلسل الزمني and the calculator for all human history. The originals doubtless remained with Qabus. There is no reason to think that it gained wide dissemination, even in the Islamic world. If a copy reached the West before the 19th century, it remained unknown to scholarship and untranslated. Until a Leipzig scholar named Edward Sachau found a copy and translated it into English in 1879, Biruni’s التسلسل الزمني was largely forgotten. Today, three slightly differing copies are known, one in Istanbul, one in Leiden and a third, profusely illustrated, in the library of Edinburgh University. Efforts are underway in both Britain and Uzbekistan to combine all three in a modern edition.

Before the appearance of Biruni’s التسلسل الزمني there had been no universal history. Nor could it have been written, because there existed no unified matrix for measuring time that extended across religions and civilisations. Biruni’s was the first global calendar system and hence the essential tool for the construction of an integrated global history.

By grounding his concept of human history on the solid firmament of astronomy and reason, Biruni gave all peoples of the world a simple method for fixing dates on a single calendar system. Not until recent decades have thinkers applied the concept of a universal history to which Biruni’s Chronology of Ancient Nations opened the path.

The Cambridge scientist C.P. Snow delivered his celebrated Rede lecture on ‘The Two Cultures’ in 1959. His critique of modern learning called attention to what he saw as the breakdown of communication between science and the humanities. In spite of several generations of historians seeking to ground their work more solidly on scientific method, the rift persists.

Abu Rayhan Muhammad al-Biruni, writing a thousand years ago, issued the same cri de coeur. Yet, unlike Snow, this 29-year-old thinker from Central Asia not only decried the total absence of rational and scientific thought in history and the social sciences, but did more than anyone before him to correct this omission. Along with Pythagoras, he believed that ‘Things are numbers’.من خلال تطبيق هذا المبدأ ، فتح الطريق لمفهوم التاريخ العالمي الذي كان مستحيلًا من قبل وجمع "الثقافتين" بطريقة لا تزال تستحق إعجابنا.

فريدريك ستار أستاذ باحث في مدرسة Paul H. Nitze للدراسات الدولية المتقدمة بجامعة جونز هوبكنز. تم نشر هذه المقالة لأول مرة في عدد يوليو 2017 من التاريخ اليوم.


شاهد الفيديو: التفاعل بين الإنسان والحاسوب HCI