<div dir="ltr">On Sat, Apr 22, 2017 at 4:14 PM, Dave Abrahams <span dir="ltr">&lt;<a href="mailto:dabrahams@apple.com" target="_blank">dabrahams@apple.com</a>&gt;</span> wrote:<br><div class="gmail_extra"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div class="HOEnZb"><div class="h5"><br>
on Tue Apr 18 2017, Xiaodi Wu &lt;<a href="http://xiaodi.wu-AT-gmail.com" rel="noreferrer" target="_blank">xiaodi.wu-AT-gmail.com</a>&gt; wrote:<br>
<br>
&gt; On Tue, Apr 18, 2017 at 10:40 AM, Ben Cohen via swift-evolution &lt;<br>
&gt; <a href="mailto:swift-evolution@swift.org">swift-evolution@swift.org</a>&gt; wrote:<br>
&gt;<br>
&gt;&gt;<br>
&gt;&gt; On Apr 17, 2017, at 9:40 PM, Chris Lattner via swift-evolution &lt;<br>
&gt;&gt; <a href="mailto:swift-evolution@swift.org">swift-evolution@swift.org</a>&gt; wrote:<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt; On Apr 17, 2017, at 9:07 AM, Joe Groff via swift-evolution &lt;<br>
&gt;&gt; <a href="mailto:swift-evolution@swift.org">swift-evolution@swift.org</a>&gt; wrote:<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt; On Apr 15, 2017, at 9:49 PM, Xiaodi Wu via swift-evolution &lt;<br>
&gt;&gt; <a href="mailto:swift-evolution@swift.org">swift-evolution@swift.org</a>&gt; wrote:<br>
&gt;&gt;<br>
&gt;&gt; For example, I expect `XCTAssertEqual&lt;T : FloatingPoint&gt;(_:_:)` to be<br>
&gt;&gt; vended as part of XCTest, in order to make sure that `XCTAssertEqual(<wbr>resultOfComputation,<br>
&gt;&gt; Double.nan)` always fails.<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt; Unit tests strike me as an example of where you really *don&#39;t* want level<br>
&gt;&gt; 1 comparison semantics. If I&#39;m testing the output of an FP operation, I<br>
&gt;&gt; want to be able to test that it produces nan when I expect it to, or that<br>
&gt;&gt; it produces the right zero.<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt; I find it very concerning that == will have different results based on<br>
&gt;&gt; concrete vs generic type parameters.  This can only lead to significant<br>
&gt;&gt; confusion down the road.  I’m highly concerned about situations where<br>
&gt;&gt; taking a concrete algorithm and generalizing it (with generics) will change<br>
&gt;&gt; its behavior.<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt; It is already the case that you can start with a concrete algorithm,<br>
&gt;&gt; generalize it, and get confusing results – just with a different starting<br>
&gt;&gt; point. If you start with a concrete algorithm on Int, then generalize it to<br>
&gt;&gt; all Equatable types, then your algorithm will have unexpected behavior for<br>
&gt;&gt; floats, because these standard library types fail to follow the rules<br>
&gt;&gt; explicitly laid out for conforming to Equatable.<br>
&gt;&gt;<br>
&gt;&gt; This is bad. Developers need to be able to rely on those rules. The<br>
&gt;&gt; standard library certainly does:<br>
&gt;&gt;<br>
&gt;&gt; let a: [Double] = [(0/0)]<br>
&gt;&gt; var b = a<br>
&gt;&gt;<br>
&gt;&gt; // true, because fast path buffer pointer comparison:<br>
&gt;&gt; a == b<br>
&gt;&gt;<br>
&gt;&gt; b.reserveCapacity(10) // force a reallocation<br>
&gt;&gt;<br>
&gt;&gt; // now false, because memberwise comparison and nan != nan,<br>
&gt;&gt; // violating the reflexivity requirement of Equatable:<br>
&gt;&gt; a == b<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt; Maybe we could go through and special-case all the places in the standard<br>
&gt;&gt; library that rely on this, accounting for the floating point behavior<br>
&gt;&gt; (possibly reducing performance as a result). But we shouldn&#39;t expect users<br>
&gt;&gt; to.<br>
&gt;&gt;<br>
&gt;<br>
&gt; I was not thinking about the issue illustrated above, but this is<br>
&gt; definitely problematic to me.<br>
&gt;<br>
&gt; To be clear, this proposal promises that `[0 / 0 as Double]` will be made<br>
&gt; to compare unequal with itself, yes?<br>
<br>
</div></div>Nope.<br>
<br>
As you know, equality of arrays is implemented generically and based on<br>
the equatable conformance of their elements.  Therefore, two arrays of<br>
equatable elements are equal iff the conforming implementation of<br>
Equatable&#39;s == is true for all elements.<br>
<span class=""><br>
&gt; It is very clear that here we are working with a concrete FP type and<br>
&gt; not in a generic context, and thus all IEEE FP behavior should apply.<br>
<br>
</span>I suppose that&#39;s one interpretation, but it&#39;s not the right one.<br>
<br>
If this were C++, it would be different, because of the way template<br>
instantiation works: in a generic context like the == of Array, the<br>
compiler would look up the syntactically-available == for the elements<br>
and use that.  But Swift is not like that; static lookup is done at the<br>
point where Array&#39;s == is compiled, and it only finds the == that&#39;s<br>
supplied by the Element&#39;s Equatable conformance.<br>
<br>
This may sound like an argument based on implementation details of the<br>
language, and to some extent it is.  But that is also the fundamental<br>
nature of the Swift language (and one for which we get many benefits),<br>
and it is hopeless to paper over it.  For example, I can claim that all<br>
doubles are equal to one another:<br>
<br>
  9&gt; func == (lhs: Double, rhs: Double) -&gt; Bool { return true }<br>
 10&gt; 4.0 == 1.0<br>
$R2: Bool = true<br>
 11&gt; [4.0] == [1.0]  // so the arrays should be equal too!<br>
$R3: Bool = false<br>
<br>
Another way to look at this is that Array is not a numeric vector, and<br>
won&#39;t be one no matter what you do ([1.0] + [2.0] =&gt; [1.0, 2.0]).  So it<br>
would be wrong for you to expect it to reflect the numeric properties of<br>
its elements.<br></blockquote><div><br></div><div>I understand that&#39;s how the generic Array&lt;T&gt; would work, but the proposal as written promises FP-aware versions of these functions. That is to say, I would expect the standard library to supply an alternative implementation of equality for Array&lt;T where T : FloatingPoint&gt;.</div><div><br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><span class="">
&gt;&gt; This is a bump in the rug – push it down in one place, it pops up in<br>
&gt;&gt; another. I feel like this proposal at least moves the bump to where fewer<br>
&gt;&gt; people will trip over it. I think it highly likely that the intersection of<br>
&gt;&gt; developers who understand enough about floating point to write truly<br>
&gt;&gt; correct concrete code, but won’t know about or discover the documented<br>
&gt;&gt; difference in generic code, is far smaller than the set of people who hit<br>
&gt;&gt; problems with the existing behavior.<br>
&gt;&gt;<br>
&gt;<br>
&gt; So, to extend this analogy, I&#39;d rather say that the bump is not in the rug<br>
&gt; [Comparable] but rather in a section of the floor [FP NaN]. The rug might<br>
&gt; overlie the bump, but the bump will always be there and people will find it<br>
&gt; as they walk even if they don&#39;t immediately see it.<br>
<br>
</span>Correct.<br>
<span class=""><br>
&gt; If we don&#39;t want people to trip over the bump while walking on the<br>
&gt; rug, one very good alternative, IMHO, is to shape the rug so that it<br>
&gt; doesn&#39;t cover the bump.<br>
<br>
</span>At what cost?<br>
<br>
More specifically: why is it the right behavior, for our audience, to<br>
trap when Equatable comparison happens to encounter NaN?  Will this not<br>
simply &quot;crash&quot; programs in the field that otherwise would have &quot;just<br>
worked?&quot;</blockquote><div><br></div><div>No, as I propose it, programs in the field would be automatically migrated to an alternative set of comparison operators `&amp;==`, `&amp;&lt;`, etc. that would work exactly as `==`, `&lt;`, etc. do today. I would quibble with the notion that all such generic algorithms currently &quot;just work,&quot; but the result is that they would behave exactly as they do today and therefore would at least be no more broken.</div><div><br></div><div>Standard library changes to `sort` and other functions will make them &quot;just work&quot; with no distinguishable difference to the end user as compared to this proposal here. It would be an improvement over how the algorithms work today with NaN.</div><div><br></div><div>The major difference to the end user between what I propose and this proposal here will surface when _new_ code is written that uses `==` in the generic context, when working with types whose values may compare unordered. Since I propose `&lt;=&gt;` to return a value of type `Comparison?`, using the revised operator `==` is an assertion that the result of comparison is not unordered. A user is welcome to use `&amp;==` or a custom predicate if that is not their intention.</div><div><br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><span class="">
&gt; My purpose in exploring an alternative design is to see if it would be<br>
&gt; feasible for non-FP-aware comparison operators to refuse to compare NaN,<br>
&gt; rather than giving different answers depending on context.<br>
<br>
</span>So... to be clear, this is still different behavior based on context.<br>
Is this not just as confusing a result?<br>
<br>
  let nan = 0.0 / 0.0<br>
  print(nan == nan)     // false<br>
  print([nan] == [nan]) // trap<br>
<span class=""><br>
&gt; I now strongly believe that this may make for a design simultaneously<br>
&gt; _less_ complex *and* _more_ comprehensive (as measured by the<br>
&gt; flatness-of-rug metric).<br>
<br>
</span>I&#39;m certainly willing to discuss it, but so far it doesn&#39;t seem like<br>
you&#39;ve been willing to answer the central questions above.<br></blockquote><div><br></div><div>Clearly, I&#39;m not understanding the central questions. Which ones have I left unanswered?</div></div></div></div>