New User Special Price Expires in

Let's log you in.

Sign in with Facebook


Don't have a StudySoup account? Create one here!


Create a StudySoup account

Be part of our community, it's free to join!

Sign up with Facebook


Create your account
By creating an account you agree to StudySoup's terms and conditions and privacy policy

Already have a StudySoup account? Login here

Disasters and Failures Week 1 Lecture Notes


Disasters and Failures Week 1 Lecture Notes

Marketplace > Texas Christian University > > Disasters and Failures Week 1 Lecture Notes

Preview These Notes for FREE

Get a free preview of these Notes, just enter your email below.

Unlock Preview
Unlock Preview

Preview these materials now for free

Why put in your email? Get access to more of this material and other relevant free materials for your school

View Preview

About this Document

Disasters and Failures from Dr. Reddy's Week 1 Lecture
Class Notes
25 ?




Popular in

Popular in Department

This 8 page Class Notes was uploaded by an elite notetaker on Sunday July 31, 2016. The Class Notes belongs to at Texas Christian University taught by in Fall 2016. Since its upload, it has received 3 views.


Reviews for Disasters and Failures Week 1 Lecture Notes


Report this Material


What is Karma?


Karma is the currency of StudySoup.

You can buy or earn more Karma at anytime and redeem it for class notes, study guides, flashcards, and more!

Date Created: 07/31/16
Chapter 1 Introduction 1.0 ­ Chapter Overview To understand what we can learn from disasters and failures, we need to understand how science and engineering are related.  Both fields use the scientific method as a primary means of discovery; however, science is normally concerned with discovering  basic knowledge about the world around us while engineering focuses on what we can do with that basic knowledge. To convert  the knowledge of science to the tools needed to build things, engineers must also discover new ways to design and test the things  they need to build. During this process, they use the scientific method in a way similar to a scientist. Mathematics is an important tool in both science and engineering, but it is used differently. In science, mathematics is basically  used to formally define the way things work. In engineering, mathematics is basically used to transform basic scientific  knowledge into usable tools for both design and testing of systems. After reviewing the relationship of science and engineering, this chapter will focus on some basic mathematical tools that we will use to perform tests in the related lab component to this text. 2.0 ­ Learning From Disasters and Failures When we examine the failure of something we as humans have designed and built, the resulting knowledge falls into three basic  categories:  what the failure tell us about how we try to build things  what the failure tell us about our understanding of science  what the failure tell us about ourselves According to, science and engineering are defined as follows:  Science: The observation, identification, description, experimental investigation, and theoretical explanation of  phenomena.  Engineering: The application of scientific and mathematical principles to practical ends such as the design,  manufacture, and operation of efficient and economical structures, machines, processes, and systems. In this definition of science, a phenomena is a occurrence, circumstance, or fact that can be perceptible by the senses. While people have been trying to understand and control the world around them for thousands of years, the process we currently  use to do this was only clearly defined a few hundred years ago. This process is called the Scientific Method. It provides a set of  guidelines for examining the physical world based on an empirical process which sees that world as an ordered realm of uniform  laws. Using this empirical world view, a scientist expects that once these laws of nature are fully understood, we can fully  understand what can and will happen in the physical world. Thus, the goal of science is to better and better refine our  understanding of the physical world by the discovery and demonstration of these laws. Since the universe is a very big place which has been around for a very long time, scientists must break up their study of it into  different fields of study such as Biology, Chemistry, Geology, and Physics. Our current understanding of science makes even  these general fields of science too large so they have to be further broken down into subfields like Zoology, Physical Chemistry  and Quantum Physics. Even these subfield can be very large so most scientists study only a very small part of their subfield. To  work within their subfield of a subfield, scientists must develope small explanations of how the pieces of the physical world that  are of interest to them should work. However, a possible problem with this method of piecemeal exploration is that when you put  all of the little explanations back together they may not fit quite the way you expected. Since a scientist can never be sure that  their given explanation of a set of phenomena is going to last a further review of that explanation, scientists must be willing to  work with tentative explanations of these pieces of the physical world. Such a tentative explanation for their observations of  phenomenon that can be tested by further investigation is called a hypothesis. The process of scientific investigation generally known as the Scientific Method involves 4 steps:  the observation of phenomena believed to be related in some way  the formulation of a hypothesis that attempts to explain the observations  experimentation to demonstrate the truth or falseness of the hypothesis  form a conclusion that validates or modifies the hypothesis These four steps form a recursive process where past success or failure in forming a working hypothesis of some small aspect of  the physical world lead to further attempts to form even better hypotheses. 3.0 ­ Application to Engineering While it is overly simplistic to view scientists as people who care very little about the 'real­world' application of science, the  primary movers of scientific knowledge to practical application are engineers. This is not to say that engineers care nothing about improving scientific knowledge or that scientists care nothing about the application of their discoveries. In fact, the engineer must use the Scientific Method on a daily basis if they hope to successful transfer the current understanding of science into the design  and building of its meaningful applications. The main difference lies in what they must do when our current understanding of  science fails to fully explain something. The scientists can simply return to their labs and perform more experiments. The  engineers must either give up on building the application or do the best job they can with what is known. This means that  sometimes even the best engineer is going to build something that does not work the way they expected. If something engineers build fails, there are four main possible causes that can explain what happened:  something beyond their control happened (like a natural disaster, accident or war)  something was faulty in the materials or workmanship used  something was wrong with the engineering that was used  something was wrong with the scientific knowledge that was used The first of the main causes is normally unavoidable. While hindsight might indicate that it was fairly unwise (or even stupid) to  build the thing in the first place, it is normally outside the realm of engineering to make such a policy decision. The second cause  can also be somewhat outside the realm of the engineer, but never completely so. As part of their professional responsiblities,  engineers are expected to monitor the way the things they design are built and maintained. Every field of enginnering (e.g., Civil,  Computer, Electrical and Mechanical) has developed methods to test and monitor construction projects in that field. Making sure  that these processes happen rest with the project's engineering staff. However, neither of these two causes really tell us much  about failures that we do not already know. Humans are not perfect and often do less than intelligent things due to inattension or  neglect. If a failure results from something going wrong with the engineering used on a project then engineers must examine the failure  using the Scientific Method to try to avoid the same type of failure in the future. On small projects this is normally done by the  engineering team that designed and built the thing that failed. If the thing was costly to build or lives were lost as a result of the  failure (like in the failure of a bridge or airplane), the investigation process is normally conducted by an external team provided  by a government safety organization. In either case, the investigators will try to determine if the known scientfic knowledge  related to the project was not used correctly or if things were done that could not be supported by our existing understanding of  science. Normally, some misapplication of science will be found and corrected, but it is also possible that the investigators will  determine that we simply do not have the scientific knowledge to avoid another failure and that we should stop building such  things until we do. If a failure can be shown to result from something going wrong with our understanding of the related scientific knowlwdge, then  this result can be very important to both the scientist and the engineer. Without the proving ground of application, scientists can  be lured into a false belief that they have a better understanding of ithe physical world than they really posess. A number of major breakthroughs in science have resulted from the need to explain something that just will not work the way we expect it to in the  'real­world'. However, one possible outcome of finding out that the science is broken is for the engineer to develop 'rules­of­ thumb' that try to do things without a clear understanding of the scientific knowledge behind them. Throughout history, this has  been a necessary evil in the engineering of 'state­of­the­art' applications. The problem is that without the support of a clear  scientific knowledge, what works on one project may result in a complete disaster on the next. Partly because of this, engineers  tend to overdesign things much more than underdesign them. While improving overall safety, the cost in materials and time for  such designs can be as great a problem to the people paying for them as the failures resulting from a bad design. 4.0 ­ Dealing With a Failure When something fails, trying to find out why can be a daunting task. The process needed to determine what went wrong varies  based on the failure, but a process of definition and evaluation is always required. The first part of this process can be  summarized by determining if it is possible to answer to the following questions:  What exactly failed?  What do you think caused it?  Can we gather meaningful data to test our failure hypothesis?  Can we recreate the failure?  Can we develop a theory of how to avoid the failure in the future?  Can we selectively cause the failure to occur? Assuming that we believe it is possible to answer these questions, the next step is to actually try to answer them. Unless we are  dealing with a very simple failure, a complete answer to all the questions will only develop over time, but once the failure has  been defined to the point that we can begin to answer them, we at least have defined the process necessary to evaluate the  failure's causes and work toward a solution. The evaluation process can be expressed fairly simply. The more data we can collect and the more accurate the data we collect,  the better we can determine and fix a failure assuming we have the means to understand what the data is telling us. Of course, the real complexity comes in understanding what data we really need, just how accuarate it really needs to be and will we have the  scientific knowledge to understand it once we have it. Given enough time (and money), it is almost alway possible to develop the  necessary scientific knowledge needed to collect and evaluate the resulting data of a failure; however, we also must consider the  cost benefit in time and resources of such an effort. If the thing that failed is a bridge that cost millions of dollars to build and  took the lives of tens of people when it failed, then clearly the collection and evaluation of data is well worth a large expenditure  of time and effort. If your $15 watch fails, it is hardy worth the hiring of an engineering team costing thousands of dollars an  hours to determine the cause unless you are pretty sure that it will result in some major scientific breakthrough. If you are fairly  sure that it happened when you fell over when you were out drinking Thursday night, then you might want to let it go at that. If  you are fairly sure that it stop working right when that one­eyed green alien pointed that funny looking gun at you (and you were  not drinking at the time), maybe it might be worth it after all. 5.0 ­ Tool of the Trade Without a way to study how to design, build and test engineering projects, engineers would have to rely on some form of art  where their knowledge was passed on simply as a set of articen skills. For engineers to be build on scientific knowledge, they  must be able to create hypotheses to tell them what to expect and well­understood tools to study what happens when they try to  test their hypotheses on 'real­world' applications. While the application and scope of these tools might vary between fields of  science and engineering, the catagories of these tools used by both scientist and engineering are very similar. When addressing the tools needed by scientists and engineers to perform both the task of creating new applications of scientific  knowledge and discovering the cause of failures when that process somehow goes wrong, it is important to define the purposes of such a discussion. The purpose of this textbook is to develop the reader's understanding of how scientists and engineers use their  knowledge of science in these pursuits, not to develop the necessary engineering skills to actually perform them. Therefore, we  will take the practical approach of defining a representative list of tools that can be fully demonstrated in disasters and failures  studied in the remaining chapters of this book. These tools fall into the following categories:  fundimental scientific laws  applied scientific theories  models and prototypes  simulations  mathmatical tools for data collection In explaining and using these tool types and the actual tools, the stress in this book will be on their importance to the process, not  the actual formuli, theories, and methods. However, to truely understand their use, one must develop some level of understanding of how to use at least a small subset of each category. Much of what is discussed about the scientific knowledge behind the  technologies used as examples in this book can be understood using a limited number of tools from each category. For example,  while we will cover scientific knowledge from many fields of science, much of what we discuss can be explained a few simple  laws of Applied Physics. While we discuss a number of applied scientific theories, a detailed explanation of a single theory from  Information Science will help us explain how these theories are more generally used. The related lab experience to this text will  be used to explain the use of models, prototypes and simulations. The one category that must be explored here in at least limited detail is the mathmatical tools for data collection. One can not  hope to excel in either science or engineering without a firm understanding of the theory behind and use of mathematics. The  average student in science or enginnering will be exposed to many classroon hours of mathematics during their education and  will go on to use the resulting skills on a daily basis for the whole of their professional career. To expect to understand how  scientist and engineers study applications and their failures without accepting the need to develop some level of basic  mathematical knowledge, as it relates to data collection, would at best be nieve. The good news for the non­science student who is beginning to wonder how they ended up in a class where the M­word is  spoken with such loving admiration is that our treatment of the mathematical tools for data collection will be presented here in  such a simplistic way that many printed copies of this book will most likely find themselves being gleefully thrown in bondfires  by not only mathematists, but by scientist and engineers as well. The reason for this type of treatment is simple. If a student ends  up falling in love with science and engineering as a result of reading this book (one can always hope), then the math department  can quickly fix any problems created by our 50,000 ft. view of the theory behind data collection. If not, the reader at least ends up with a vauge idea of the how mathematics helps us know when we have taken enough data. Having done my bit in the last paragraph to hopfully avoid being thrown into one of those same bonefire as this chapter, let us  turn to a very simple overview of how statistics and probability theory can be used to help you understand your data collection  method. One problem with understanding either statistics or probability theory is figuring out where one stops and the other  begins. One of our simplifications will be to basically ignore this complexity and basically address them like they are two  different things. If you end up in a real probability and statistics course someday, please just forget this little simplifications and  everything will be fine. 6.0 ­ Data Collection Simplified Say a scientist or engineer wants to run an experiment to determine why a disaster or failure occurred. Their hypothesis tells them about what kind of data they need. But, how do they determine the amount of data they need to prove their hypothesis? The  answer to this depends somewhat on the type of data they are collecting. If the data is made up of numbers within a given range  of values, then we need to use one type of mathematical tool, if it is made up of events that can either occur or not occur during a  given observence then we can use another type of mathematical tool. Again, to simplify the discussion, we will ignore most of  the underlying mathematics that connects the probability theory used by both tools and treat them as if they are mostly unrelated.  However, one piece of that theory, the Law of Large Numbers, is so important that we need to address it first. 6.1 ­ The Law of Large Numbers Before we talk about the Law of Large Numbers, we need to briefly review the concepts of a sample space, variance, random  variable and a straight average (or arithmetic mean). In statistics, all possible outcomes of an experiment make up that  experiment's sample space. The number of possible values within a sample space is called its variance. During the experiment,  we need someplace to store our results. This is done using a random variable. The actual value of the random variable for each  run of the experiment is described by a subscript (x : x1, x2, x3, etc.), To clarify all this, let us use a simple experiment as an  example. Given a standard six­sided die, we throw it n number of times and record the top value of each throw. To do this, we describe a  random variable (call it x) that is set to the top value of the die each time we throw it (e.g x1=3, x2=5, x3=1, etc.). The sample  space for this experiment, and thus for x, is the set {1, 2, 3, 4, 5, 6}. Straight average is the value obtained by dividing the sum of a uniform collection of values (formally called a list) by the collection’s (or list's) size. For example, the average of the list {1, 2,  4, 5} is (1+2+4+5)/4 = 3. If the collection is not uniform, a weighted average can be used. For example, given (w1 = 3; w2 = 6),  the average of (2w1, 5w2) is ((2x3) + (5x6))/(3+6) = 4 We do not need to worry much about weighted averages, since they can  almost always be easily converted to a straight average (which from now on we will simply call an average). The Law of Large Numbers (or LLN) is a theorem in probability that was discovered and proven to be true by Jacob Bernoulli in  the early 1700's. It does not take a rocket scientist to figure out that LLN either deals with really big numbers or large collections  of numbers, the later being the actual case. Simply stated, it states that given a variable that can randomly vary over some sample  space (e.g., from 0 to 1, 1 to 6, etc.) then given a large enough set of occurances of this variable, the average value of the  occurances will equal the average value of the sample space. It further states as you approach this large enough set of occurances, the average value of the occurances will continue to get closer and closer to the average value of the sample space. The easiest way to explain what all this means is to work with collections where the sample space is known. A classic example of LLN is the prediction of how many times you would have to throw the die in the experiment defined above before you could  expect the average of all of your throws to equal the average of the values of all sides of the die (1+2+3+4+5+6/6 = 3.5). LLN  does not give you an actual value of throws, but it does tell you that once the average of your throws starts to stay fairly close to  the value 3.5 over a set of additional throws then you are most likely done. For a die with a variance of 6, a data collection size of about 500 throws will normally be enough for these averages to converge within an acceptable range of error. When using LLN, the greater the varience, the slower the convergence between the average of your data set and that of the  sample space. This creates a slight problem when taking data related to a 'real­world' application since it means that you normally have to take a larger number of data points then in the die throw example. However, variance has a much smaller effect than you  might imagine. If you were to use LLN to predict the number of tosses of a coin you would need to get the expected 0.5 value  (using 0 for heads and 1 for tails) you might think that this number would be much less that the 500 for the die. In reality, it is  about the same because the difference in variance between 2 and 6 is considered small. The major problem in dealing with 'real­world' experiments is that you normally do not know the sample set or its variance. This  means that by itself, LLN can not really help you that much. However, as we will see in the next two sections, it forms the  foundation for a set of tools that will help. 6.2 ­ Dealing with Numbers Now that we have a basic understanding of LLN, let us explore how we can work with random variables with a variance great  than one. Normally, the tool we will need here is called inferential statistics which is directly based of our friend LLN. However,  before we can determine when we can use this tool, we need to define a few more terms and explain the concepts of 1) open and  closed data sets, and 2) systematic and random error. 6.2.1 ­ Open and Closed Data Sets The total number of similar data points possible to test a hypothesis is called either the sample universe or the population. The  number of data points you collect from the population during your experiment (or test) is called your sample size. It is very  important to note that these definitions deal with possible number data points, not their values (like the terms sample space and  variance). Normally, the closer the sample size is to the population size, the more ‘accurate’ the results of your experiment or test. As we  will see shortly, it is possible for a population to contain an infinite number of data points. This is called an open data set. If the  data set is finite (or closed) but still too large to completely measure, it can normally be treated as open. Some hypotheses are related to data collections that have a natural limit to the total number of data points in their collection. In  other words, for any given hypothesis, there are a finite number of data points that can be used to prove or disprove that  hypothesis. For example, assume that a study of AP scores shows that, on average, more young men than young women are able  to get the necessary score on advanced placement exams to place out of college math courses. Based on this, your hypothesis is  that the difference in performance between young women and young men on these exams is due to some female grade school  teachers reinforcing the belief that 'women are no good at math'. To prove this hypothesis you clearly need to use data points  related to young women taking the AP test. The more young women you can include in your study, the better you can prove or  disprove your claim. However, regardless of the number of aspects about each women you choose to study, there are a finite  number of young women that will fit all the important criteria of you claim (e.g., poor or good AP scores, have or have had a  female teacher in grade school, etc.). So given enough time and resources, it is theoretically possible to completely exhaust the  closed set of data points related to this type of hypothesis. While it is still possible to reduce the actual number of women you  study without reducing the validity of your results by correctly using inferential statistics, one must be very careful to not  introduce a sample bias when doing this. The test data for many hypotheses used in engineering are not bounded by a discrete set of elements like young women with low  or high AP test scores. For example, the heat stress on different parts of the space shuttle during different parts of its reentry path  form a continuous collection of data in both time and space. In fact, almost all testing of failure hypotheses could involve some  form of continuous measurements. And often, it is theoretically possible to need to measure an infinite number of related data  points to completely understand a how a system failed. While engineers can use a set of advance mathematical tools like Finite  Element Analysis (FEA) to reduce the date collection needed in many applications, they are still left (like scientists) with some  data collections that must be treated as open data sets. For such data set, the only method which can ensure that your sample size  is large enough to accurately represent your sample universe is inferential statistics. 6.2.2 ­ Type of Error When measuring data, you must consider both your accuracy and precision. Accuracy is the ability of a measurement to match  the actual value of the quantity being measured. Precision is the ability of a measurement to be consistently reproduced. Given  these definitions, there are two basis types of error that can occur during data collection, systematic and random. A systematic  error normally results from some uniform problem in the way the data is collected. For example, a tape measure that has been  bent or stretched, an instrument whose accuracy is effected by temperature, or a student who consistently misreads the  instrument. If not addressed, systematic errors will cause data inaccuracies. A random error normally results from some  limitation in the method of data collection. For example, you are asked to measure a large room with a ruler or you try to locate  an electron using a beam of electrons. If not addressed, random errors will cause data imprecision. Due to the way LLN works, the use of inferential statistics will only help us to eliminate random error. If you expect a systematic error in your data, the best way to deal with it is use comparative data collection. For example, have members of the data  collection team switch roles and see if the results change, or collect data using different sensors or processes. Of course, unless  the error is extremely obvious, the real problems start after you can prove that a systematic error exists. If two sets of data taken  in two different ways are different, which one is the correct set? Even worse, what if they are both wrong? As you can well  imagine, systematic errors can create many problems for scientists and engineers and they will go to great lengths trying to avoid  them. 6.2.3 ­ Normal Distributions Do not loose heart! We are almost ready to describe the tool that allows us to handle data sets of numbers, but before we can  move on, we again need to define some terms. The median is the middle value of an ordered distribution of numbers. The mode is the value in a distribution of numbers that occurs most often. For example, for the ordered list {1, 2, 3, 4, 4}, the median is 3 and  the mode is 4. Any list of data with more than one member can be divided into two non­empty sub­lists. For example, the list {1, 2, 4, 5} could  be divided to create {{1},{2,4,5}}, {{1, 2},{4,5}}, or {{1, 2,4},{5}}. Since random errors should create about the same number  of data points that are bigger than the expected value as those that are smaller than the expected value, a useful way to divide a  data set with random errors is to use some method to calculate the central value of the data. This type of calculation is called a  central tendency. In traditional mathematics, the way to do this is to calculate the list's mean (or average) and then divide the list  around that mean. For example, the list {1, 2, 4, 5} has an average value of 3 so we would get the sub­lists {{1, 2},{4,5}} since 1 and 2 are less than the mean and 4 and 5 are greater. In statistics, not only is the mean a useful central tendency, but also the median and mode. In fact, if all three central tendencies  (mean, median, and mode) are applied to the same set of data and these calculations all divide the list into the two same sub­list,  the list is said to be in a normal distribution. A normal distribution can be graphically represented as a bell curve. Since the  central tendency for an ordered list must break the list somewhere in the middle, you can determine if list is in a normal  distribution by simply comparing the values for mean, median, and mode. If they are all same value, then the list is a normal  distribution. Now here is where the magic of statistics comes in. Random errors are normally caused by something called random noise. The  correct value for your experiment can be viewed as a signal that is trying to get to you through the random noise. However, it  keeps getting changed in value by the noise, sometimes coming in too high, sometimes coming in too low. But, here is the good  news. Given enough data points, the addition of pure random noise to a signal generates a normal distribution! In other words, if  all the errors in your experiment are random and you take enough data, the resulting data list must be a normal distribution. So how do we use this tool? Well, you could try graphing your data and see if the resulting graph looks like a bell curve, but, of  course, there has got to be an easier way. In fact, there is a very easy way that uses the relationship between something called  standard deviation and our friend the bell curve, but before we look at this let us examine the 'lost­on­a­deserted­island­approach'. If you end up on a deserted island without a calculator, it is doubtful that you will remember the formula for standard deviation.  But have no fear, you can still conduct experiments and test the resulting data! Since we know that the three central tendencies  (mean, median, and mode) are equal for a normal distribution, all we need to do is calculate these. Sure, this is a lot of work, but  you are on a desert island and are already so bored you are running experiments so what have you got to do. Since we are  currently not that bored, we will use a ridiculously small list as an example. Given the list of data {1.0, 2.0, 3.0, 4.0, 7.0}, here is the process. First, we will ignore the mode, it can be a bit misleading in  small data samples. Now, calculate both the median and mean which are 3.0 and 3.4 respectfully. Now, analyze the results. If you only need to know the value of the measurement to the nearest whole number, this is most likely enough data since when we  round, 3 = 3. If you need to know the value to the nearest tenth, 3.0 is still too far away from 3.4, so take some more data,  recalculate mean and median, and reanalyze your data. Of course, it is really very doubtful that five values are truly enough data  for any experiment, but you get the point. Further, even if all errors are truly random, the mean and median may never converge  if you are trying to measure something too close to the absolute precision of your collection method, so maybe you should see if  you can ferment some of the coconut milk and leave the experiments to that professor guy who cannot figure out that the movie  star is constantly making passes at him. If you have a calculator that can calculate standard deviation, an annotated bell tells us something very useful. Note that in a true  bell curve (or normal distribution), 68.27% of your data points should fall within plus or minus one standard deviation of the  data's mean. So, say you have taken ten samples and want to see if your sample size is large enough. Use your calculator to  calculate the average (avg) and the standard deviation (s) of your data. If the value of 6 to 7 of your samples fall within the range  of avg­s and avg+s, you are done. Otherwise, keep taking data until about 68.27% of your data falls within that range. For  example, 34 of 50, 68 of 100, 683 of 1000, etc. Do not forget that you need to recalculate avg and s each time you take more data  but most calculators that support list will make this process fairly easy. Again, please remember that this method of checking your experimental data is based on LLN, so the sample size of all of these  examples here are really way too small to work in the 'real­world'. Feel free to buy a die and throw it about a thousand times if  you want to create a realistic set of data to test what we have been discussing here. 6.3 ­ Dealing with Events The good news is that unlike the treatment of numbers, our treatment of event data will be very brief. First, some more terms. A  probability is a real number from zero to one expressing the likelihood that a specific event will occur. A probability of one  means that an event must occur. A probability of zero means that an event cannot occur. Within the realm of science, a  probability of zero or one normally cannot occur in the real­world in anything but the past, since this would require perfect  knowledge about future events. Percent chance is basically the same thing as probability with a different scale, that being zero to  one hundred percent. If your experiment deals with events that have a 0.5 probability of occuring, then you can treat the data as numerical with a  variance of 2. However, most events are not that well­ordered and the reason you are running the experiment is the first place is  that you have no idea how often they occur. However, there are ways to calculate the expected probability of an event by  knowing things about the event's universe, the event, and how it is related to other types of events. Treatment of these methods go far beyond the level of mathematics we will be using in this textbook. However, we do want to briefly cover a useful empirical  method for dealing with independent event data. A dependent event is one that is either more or less likely to occur based of the occurance of another event. For example, you are  more likely to pass the test in a class (event A) if you study for it (event B). Here, event A is dependent on event B. This, of  course can also work the other way. If you are more likely to pass the test in a class (event A) when you do not go out drinking  the night before and you do go out drinking (event C), event A is still dependent on event C, but the result of event C is to negate  the probability of event A. The empirical method we describe next will not work for these types of dependent events. However, if you are trying to  determine the probability of a set of events occuring and none of this events depend on each other, then you can use it. The basic  process starts by dividing your experimental runs into blocks of n runs each. As long as they are independent, you can look for  any number of different event types during a run. Once you have taken the first block, measure the number of positive  occurrences of each event type and try to extrapolate the results by calculating a probability of each event occuring. Then run  another block of data and see if your extrapolation (or prediction) holds. The better it holds for an event type, the better the  chance you have taken enough data to determine the absolute probability of that event occuring in the event's universe. An example will clearly help here. Say something (call it x) happens 20 times in your first block of 100 trials (or tests). This will  allow you to predict that the probability of x happening in any number of trials is P(x) = 20/100 = 0.2 (or 20% change). Now run  another block of 100 tests. If x happens 39 total times in 200 trials then P(x) = 39/200 = 0.195 (or 19.5% chance). This indicates  that your prediction for x is holding fairly well and that you only need to run one or two more trial blocks to verify your  prediction. However, if the second block had given you something like 59/200 your prediction changed from 0.2 to 0.3. This  means that you will need to run many more blocks of trials before you can determine the events absolute probability. 7.0 ­ Related Lab Experience The material covered in this chapter is related to the Lab Introduction and Lab #1. 8.0 ­ Review Some important terms you should be able to define:  Engineering  Phenomenon  Percent Chance  Probability  Science  Scientific Method  Standard Deviation 9.0 ­ References  Wikipedia: Standard Deviation Disasters, Failures and other Dangerous Things


Buy Material

Are you sure you want to buy this material for

25 Karma

Buy Material

BOOM! Enjoy Your Free Notes!

We've added these Notes to your profile, click here to view them now.


You're already Subscribed!

Looks like you've already subscribed to StudySoup, you won't need to purchase another subscription to get this material. To access this material simply click 'View Full Document'

Why people love StudySoup

Jim McGreen Ohio University

"Knowing I can count on the Elite Notetaker in my class allows me to focus on what the professor is saying instead of just scribbling notes the whole time and falling behind."

Anthony Lee UC Santa Barbara

"I bought an awesome study guide, which helped me get an A in my Math 34B class this quarter!"

Steve Martinelli UC Los Angeles

"There's no way I would have passed my Organic Chemistry class this semester without the notes and study guides I got from StudySoup."


"Their 'Elite Notetakers' are making over $1,200/month in sales by creating high quality content that helps their classmates in a time of need."

Become an Elite Notetaker and start selling your notes online!

Refund Policy


All subscriptions to StudySoup are paid in full at the time of subscribing. To change your credit card information or to cancel your subscription, go to "Edit Settings". All credit card information will be available there. If you should decide to cancel your subscription, it will continue to be valid until the next payment period, as all payments for the current period were made in advance. For special circumstances, please email


StudySoup has more than 1 million course-specific study resources to help students study smarter. If you’re having trouble finding what you’re looking for, our customer support team can help you find what you need! Feel free to contact them here:

Recurring Subscriptions: If you have canceled your recurring subscription on the day of renewal and have not downloaded any documents, you may request a refund by submitting an email to

Satisfaction Guarantee: If you’re not satisfied with your subscription, you can contact us for further help. Contact must be made within 3 business days of your subscription purchase and your refund request will be subject for review.

Please Note: Refunds can never be provided more than 30 days after the initial purchase date regardless of your activity on the site.